JP2004305487A - Image processing apparatus, method and system - Google Patents

Image processing apparatus, method and system Download PDF

Info

Publication number
JP2004305487A
JP2004305487A JP2003104090A JP2003104090A JP2004305487A JP 2004305487 A JP2004305487 A JP 2004305487A JP 2003104090 A JP2003104090 A JP 2003104090A JP 2003104090 A JP2003104090 A JP 2003104090A JP 2004305487 A JP2004305487 A JP 2004305487A
Authority
JP
Japan
Prior art keywords
image
images
image processing
plane
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003104090A
Other languages
Japanese (ja)
Other versions
JP4390127B2 (en
Inventor
Hitoshi Inoue
仁司 井上
Shigeru Sanada
茂 真田
Rie Tanaka
利恵 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Kanazawa University NUC
Original Assignee
Canon Inc
Kanazawa University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc, Kanazawa University NUC filed Critical Canon Inc
Priority to JP2003104090A priority Critical patent/JP4390127B2/en
Publication of JP2004305487A publication Critical patent/JP2004305487A/en
Application granted granted Critical
Publication of JP4390127B2 publication Critical patent/JP4390127B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate images effective for a diagnosis based on dynamic images. <P>SOLUTION: A continuous image acquisition unit 5 continuously acquires a plurality of X-ray images in a time series to be stored into a storage device 7. A cross section generation indicating UI unit 9 sets lines at desired positions for each of a plurality of the X-ray images. A cross section generation unit 10 acquires pixel rows arrayed along the set lines from each of a plurality of the X-ray images to be arranged in the time series sequence thereby generating new images. A cross section display unit 11 displays these new images. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は画像処理技術に関し、特に医療分野における放射線撮影画像の処理に好適な画像処理技術に関する。
【0002】
【従来の技術】
X線に代表される放射線の物質透過能力を用いて、その透過強度分布を画像化する技術は、近代医療技術発展の基本となるものである。X線の発見以来、その強度分布の画像化については、X線強度分布を蛍光体により可視光に変換した後、銀塩フィルムで潜像を作り現像するという方法が採られてきた。近年、X線画像をデジタル化する際に輝尽性蛍光体を用い、X線照射による輝尽性蛍光体上の蓄積エネルギ分布としての潜像をレーザ光で励起して読み出し、デジタル画像化する、いわゆるイメージングプレートを用いる方法も一般化してきた。さらに、半導体技術の進歩により人体の大きさをカバーできる大判の固体撮像素子、いわゆるフラットパネルディテクタも開発され、潜像をつくることなく直接にX線画像をデジタル化し、効率のよい診断が行えるようになって来た。
【0003】
また一方、光電子増倍管(イメージインテンシファイア)に代表される高感度の撮像素子により微弱なX線による蛍光を画像化し、人体内部の動態を観察することも可能であり、一般に用いられてきている。最新のフラットパネルディテクタは、そのようなイメージインテンシファイアにも匹敵する感度を持ち、人体の広範囲における動態を撮影することも可能になってきている。
【0004】
一般に、医療用のX線撮影で最も有効であるのは人体の胸部撮影である。腹部を含む胸部の広範囲を撮影すれば、肺疾患を含む多くの疾病の発見に役立つため、通常の健康診断では胸部X線撮影は不可欠なものになっている。また、近年、健康診断のために撮影された膨大な量の胸部X線画像を効率よく診断するため、胸部デジタルX線画像に対して計算機を用いて画像解析を行い、医師の初期診断を補助するいわゆる計算機支援診断(CAD:Computer Aided Diagnosis)も実用化されつつある。
なお、尚、放射線画像に現われる異常陰影を検出する異常陰影検出装置が特許文献1及び特許文献2において知られている。
【0005】
【特許文献1】
特許第2582665号公報
【特許文献2】
特許第2582666号公報
【0006】
【発明が解決しようとする課題】
さて、健康診断で胸部X線撮影等により何らかの疾病の疑いがあるとの所見が得られた場合は、いわゆる精密診断により確定診断が行われる。このような精密診断には、多くの場合CT、MRスキャンが行われる。このCTスキャンやMRスキャンは、通常のX線撮影と比して数倍の診断コストがかかるものである。このような精密診断により初期の診断が誤診であり何の疾病も無いという場合も多く見られるが、このような誤診は無駄な医療費を費やすものであり、医療費高騰の一因ともなっている。これを防ぐには、初期診断である健康診断の正確度を向上させることが重要である。
【0007】
コスト上昇を抑えて診断の正確度を向上させる方法としては、前述の大判のフラットパネルディテクタを用いて、呼吸などにより動態を示す胸部動画像を取得し、動態観察を行うことが有効である。動態観察では従来の静止画を観察する場合とは異なり、画像を時系列で切り換えて観察することになる。しかしながら、このような動態観察では、静止画観察に比べて観察者の主観に依存するところが多く、あいまいな点が残りやすい。また、多大な観察時間も費やされることになるため、診断効率も悪い。
【0008】
本発明は上記の課題に鑑みてなされたものであり、動態画像に基づいて診断に有効な画像を生成することを1つの目的とする。
【0009】
【課題を解決するための手段】
上記の目的を達成するための本発明による画像処理装置は以下の構成を備える。すなわち、
対象物の動態画像を構成する複数の画像の各々から、設定された直線に沿って並ぶ画素列を取得する取得手段と、
前記取得手段により前記複数の画像から取得された複数の画素列に基づいて画像を生成する生成手段とを備える。
また、本発明によれば、上記画像処理装置と撮像装置を備えたシステムが提供される。
また、上記の目的を達成するための本発明の他の態様による画像処理装置は以下の構成を備える。すなわち、
対象物の動態画像を構成する複数の画像の各々から、設定された直線に沿って並ぶ画素列を取得する取得工程と、
前記取得工程において前記複数の画像から取得された複数の画素列に基づいて画像を生成する生成工程とを備える。
【発明の実施の形態】
以下、添付の図面を参照して本発明の好適な実施形態について説明する。
【0010】
[第1実施形態]
上述した課題を解決するために、本実施形態では、時系列的に連続して取得された動態画像(本実施形態では呼吸動態画像)を、時間方向を奥行きに取った「時空間3次元画像」として扱い、その横断像、矢状断像(sagittal plane)を作成し、観察可能に表示する。これにより、動態画像の、ひいては医療用動画像の静的な観察および解析を可能にする。
【0011】
図1は第1実施形態による呼吸動態撮影装置の構成を模式的に示すブロック図である。図1において、1はX線強度を画像化するX線画像センサであり、連続的な画像取得が可能である。X線画像センサ1としてはフラットパネルディテクタを用いることができる。2はX線発生装置でありX線を発生し、被検体に照射する。3は制御装置であり、X線画像センサ1およびX線発生装置2を制御し、X線発生と画像取得の適切な同期をとる。4は被写体(被検体)としての人体を示している。
【0012】
5は連続画像取得ユニットであり、X線画像センサ1から出力される画像データを連続的に取得する。6は動画表示ユニットであり、連続画像取得ユニット5によって連続的に取得される人体の胸部画像を実時間でディスプレイ上に表示する。7はストレージ装置であり、連続画像取得ユニット5で取得された画像を格納する。なお、動画像表示ユニット6はストレージ装置7から随時データを引き出し、順次参照することが可能である。すなわち、動画像表示ユニット6は、実時間での動画的表示や、録画再生のように連続的に取得された画像を後に動画的表示させることができる。
【0013】
8は時空間3次元画像作成ユニットであり、連続画像取得ユニット5により連続的に取得された時系列画像から時間方向を奥行きとして3次元画像を作成する。断面作成指示UIユニット9は、時空間3次元画像作成ユニット8によって作成された3次元画像において、表示すべき断面を指示するためのユーザインターフェース(UI)を提供する。10は断面作成ユニットであり、時空間3次元画像作成ユニット8によって生成された時空間3次元画像の、時間方向(奥行き方向)を含む任意の断面(この断面は断面作成指示UIユニット9により指定される)を作成する。11は断面表示ユニットであり、断面作成ユニット10によって生成された断面をディスプレイに表示する。なお、動画像表示ユニット6及び断面表示ユニット11が表示に用いるディスプレイは共通のものであってもよい。
【0014】
本システムで得られる呼吸動態画像は複数の人体胸部X線画像である。以下、実施形態ではこのような動態画像を構成する複数の画像の各々をフレーム画像という。図2では仮に5つのフレーム画像が存在するものとして、各タイミングT1〜T5で得られたフレーム画像を並べて示している。図2のように動画像のフレーム画像を並べて示すことは各フレーム画像を精査する場合は有効である。しかしながら、一般に多数のフレーム画像を並べなければならないため、診断には不適切である。したがって、通常はフレームサイズの画面にフレーム画像を連続して切り換え表示し、動画像として観察する。このように動画像として観察する方法が、観察者に直感的に動態を把握させるのに有利であることは明らかであるが、動画観察には時間を要する。また動画像の場合には客観的な診断記録を残すのが困難である。すなわち、動画像は多くの情報をもっているが、動的に表示して観察しなければならないため、書類などに客観的診断記録を残すことが困難である。これに対し、静止画であれば、従来どおり誰でも、いつでも観察できるし、マーキングなども容易なため、客観的な記録をのこすことが可能である。
【0015】
そこで、本実施形態では、動的な様子を客観的に示すために、たとえば図2のAの横ライン上の各フレーム画像の画素値を取り出して画素列を得て、取り出された画素列を取り出し元のフレーム画像の時系列順で並べ直し、図3に示すように一つの画像を形成する。図3では下からT1、T2、…、T5というように並べ直して画像を形成している。このような図3の画像によれば、図2のS1で示される陰影の時間的な動き・変動が1つの画像として得られることになる。
【0016】
上記のような画像によれば、たとえば、図2のS1が腫瘍陰影であるとして、S1が向かって左側の胸壁に癒着しているのかどうかという解剖学的判断が容易に行える(図2、図3の例では左胸壁に癒着していないことがわかる)。このような判断は1枚の静止画像からでは、撮影の方向・タイミングなどさまざまな要因があって、通常は判断し難いものである。図3の画像のように、あるタイミングでの撮影で、癒着がないことが確認できることは医学的に重要であり、図3に示すような画像表示の診断への貢献度は高い。また、さらに、このような1枚の画像を形成すれば、診断した様子の記録を容易に残すことができる。
【0017】
同様に、図2のBで示される縦ライン上の各フレーム画像の画素列を時系列順に並べ直し、図4に示すような1枚の画像に表し、観察、記録することで、陰影S1とS2が1つの陰影ではなく、離れた2つの陰影であることが確認できる。なお、図4では、左から右へT1からT5の順に各フレーム画像から取得された画素列を並べている。
【0018】
以上説明した図3、図4に示される画像は、時系列的に連続した複数の画像を時間方向を奥行きに取った「時空間3次元画像(図5、図6により詳述する)」として扱うことにより得られた3次元画像の横断面像及び縦断面像に相当する。以下、図3、図4のような画像を時系列断面画像と称する。
【0019】
通常、上述したような癒着等の診断はCTスキャン等による人体の3次元的な情報からのみ得られるものであったが、本方式のような時系列断面画像を観察することで、それに相当するような診断も可能になる。
【0020】
なお、上記では図示及び説明の都合で5つのフレーム画像を示したが、このような少ないフレーム数ではなく、少なくとも30フレーム以上ある動画像を対象とするものとする。また、指定されたライン上の1画素列を配置する際に、画素列間に1つ又は複数の補間画素列を挿入して図3或いは図4のような時系列断面画像を形成してもよい。また、ライン上の画素列を含む複数画素列を各フレームより抽出し、これらを用いて、図3、図4に示すような時系列断面画像を並べて生成、表示するようにしてもよい。
【0021】
断面作成指示UIユニット9では、例えば、図2に示すように複数枚のフレーム画像を並べて表示し、ラインAの位置をポインティングデバイス或いはキーボードからの指示によって移動させ、所望の断面位置を指定するようにすればよい。また、ラインBを指定する場合には、図2に示すように各フレーム画像にラインBを示す表示を行なえばよい。この場合例えば1つのフレーム画像中のラインB(例えばT1のラインB)を移動すると、他のフレーム画像中のラインBも同じ量だけ移動する。或いは、ラインBの指定時には各フレーム画像を縦方向に並べて表示し、ラインBを設定させるようにしてもよい。なお、このようなUIでは、特に時空間3次元画像作成ユニット8によって作成された時空間3次元画像は用いなくてよいので、時空間3次元画像作成ユニット8は省略することも可能である。
【0022】
さて、以上のようにして断面を指定するUIを構成することも可能であるが、本実施形態では、さらに、このような断面を医師もしくは機器操作者が画像を観察しながら容易に形成できるUIを提案する。このUIでは、時空間3次元画像作成ユニット8によって作成された3次元画像を表示させ、所望の断面をユーザに指定させる。
【0023】
図5は、時空間3次元画像作成ユニット8により作成された時空間3次元画像を表し、通常の2次元画像のX,Y方向に加えて、奥行きに時間軸であるT方向が加えられて3次元空間を構成している。したがって、図5に示される空間の1つの点は(x,y,T)の3つの値で表現できるものになる。3次元画像の表示方法としては、レイトレーシングによる半透明な物体としての表現、後ろの画像を前面の画像で覆い隠すような表現方法などがある。
【0024】
図1の断面作成指示UIユニット9では、図5のような3次元画像が表示され、ユーザはこの表示を見ながら自分の所望する断面像を得るため、断面の指示を行う。たとえば、断面の方程式として
T=C ; Cは定数 (数式1)
という平面を選択し、Cを可変にすれば、通常の各フレーム画像が観察可能になる。
【0025】
また、断面の方程式として
Y=A ; Aは定数 (数式2)
という平面を選択すれば、図6のAで示すようなX−T平面に平行な平面の断面像が得られる。すなわち、図3で示したような断面像が得られて、観察・診断・記録が可能になる。
【0026】
また、断面の方程式として
X=B ; Bは定数 (数式3)
という図6のBで示すような平面を選択すれば、Y−T平面に平行な平面の断面像が得られる。すなわち、図4で説明したような断面画像が得られて観察・診断・記録が可能になる。
【0027】
一般にユーザは、任意の平面が選択でき、その平面は下記のような一般的な方程式、
T=Kx・X+Ky・Y+K1;Kx,Ky,K1は定数 (数式4)
もしくは、同値でありながら、別の表現で表記できる2つの方程式、
X=Ky・Y+Kt・T+K2;Ky,Kt,K2は定数 (数式5)
Y=Kx・X+Kt・T+K3;Kx,Kt,K3は定数 (数式6)
で表される。
【0028】
操作者は、3次元画像を観察しながら、たとえばマウス操作により画面に表示された平面(例えば、図6の平面AやB)を平行、回転移動させることにより、所望の断面を選択できる。
【0029】
図7は本実施形態の呼吸動態撮影装置における時系列断面画像の生成処理を示すフローチャートである。
【0030】
まず、ステップS11において、時空間3次元画像作成ユニット8はストレージ装置7に格納された時間的に連続する複数のX線画像群を用いて図5に示すような時空間3次元画像を生成する。断面作成指示UIユニット9はこれを不図示のディスプレイに表示する。なお、時空間3次元画像の生成においては、各フレーム画像間に補間フレーム画像を生成して挿入してもよい。
【0031】
ステップS12において、ユーザはこの3次元表示を参照しながら、当該3次元画像の所望の断面を指定するべく切り出し用平面を設定する。切り出し用平面は、図6に示したA及びBの平面の他に、図8に示すようなX、Y、Tの各軸に対して傾いた平面を設定することも可能である。切り出し用平面の移動、回転等の操作はマウスにより行なうものとするが、このような3次元画像と平面の表示処理は当業者には明らかであろう。
【0032】
ステップS12による切り出し用平面の設定により、数式4〜6のいずれかにおける各定数が決定され、処理はステップS13へ進む。ステップS13では、各フレーム画像から、フレーム画像と切り出し用平面との交線を取得し、当該交線に沿った画素列を取得する。この様子を図9に示す。図9では、切り出し用平面91と各フレーム画像(T1〜T4)との交線として、L1、L2、L3、L4が示されている。なお、これらの交線はステップS12で決定された切り出し用平面の式を用いることで取得できる。
【0033】
続いてステップS14において、切り出し元のフレーム画像の時系列順に従ってステップS13で取得した画素列を配置して時系列断面画像(図9の92)を生成する。なお画素列の配置としては、時系列順に下→上、上→下、左→右、右→左等をユーザが設定可能とすればよい。なお、上述したように時系列断面画像の生成においては、取得された画素列間に補間画素列を生成して挿入してもよい。
【0034】
以上のようにして生成された時系列断面画像92は断面表示ユニット11によってディスプレイ上に表示される。
【0035】
[第2実施形態]
断面の表現方法は、第1実施形態で示した図3や図4の形態に限られるものではない。例えば、図10に示すような形態を用いることも可能である。図10では、時系列断面として103が指定された場合の第2実施形態による時系列断面画像の表示方法を説明する図である。フレームT1の指定された断面より上側の部分画像101とフレームTNの指定された断面より下側の部分画像102を離間させて表示し、部分画像101と部分画像102をつなぐように断面画像103を配置、表示する。
【0036】
図11の(a)は図3に相当する横断面の画像を図10に示した方法に従って表現したものである。また、図11の(b)は図4に相当するような縦断面を図10に示した方法に従って表現したものである。このような3次元的な表示により、観察者は実際にどの断面の時間的変化を観察しているのかをより明確に把握しながら観察することができ、この画像を記録することにより、より客観的な診断記録の保存が可能になる。
【0037】
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
【0038】
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、当該プログラムコード、及び当該プログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0039】
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
【0040】
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も、本発明の実施態様に含まれることは言うまでもない。
【0041】
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も、本発明の実施態様に含まれることは言うまでもない。
【0042】
【発明の効果】
以上説明したように本発明によれば、動態画像に基づいて診断に有効な画像を生成することができる。
【図面の簡単な説明】
【図1】本発明を実施した第1の実施形態のブロック図である。
【図2】胸部動態画像の各フレームを模式的に表した図である。
【図3】特定横ラインの時間変動を画像化した図である。
【図4】特定縦ラインの時間変動を画像化した図である。
【図5】時空間3次元画像の模式図である。
【図6】時空間3次元画像の平面断面を示す図である。
【図7】本実施形態の呼吸動態撮影装置における時系列断面画像の生成処理を示すフローチャートである。
【図8】切り出し用平面による時空間3次元画像の断面の設定を説明する図である。
【図9】各フレームから時系列断面上の画素列を取得し、時系列断面画像を生成する様子を説明する図である。
【図10】第2実施形態による時系列断面画像の表示形態を説明する図である。
【図11】第2実施形態による時系列断面画像の表示例を示す図である。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing technique, and more particularly to an image processing technique suitable for processing a radiographic image in the medical field.
[0002]
[Prior art]
The technique of imaging the transmission intensity distribution using the material transmission ability of radiation represented by X-rays is the basis of the development of modern medical technology. Since the discovery of X-rays, a method of converting the X-ray intensity distribution into visible light using a phosphor, forming a latent image on a silver halide film, and developing the image has been adopted for imaging the intensity distribution. In recent years, when a X-ray image is digitized, a stimulable phosphor is used, and a latent image as a stored energy distribution on the stimulable phosphor due to X-ray irradiation is excited by a laser beam and read out to be digitally imaged. A method using a so-called imaging plate has also been generalized. Furthermore, with the advancement of semiconductor technology, a large-sized solid-state image sensor capable of covering the size of the human body, a so-called flat panel detector, has also been developed to directly digitize an X-ray image without creating a latent image so that efficient diagnosis can be performed. It has become
[0003]
On the other hand, it is also possible to use an image pickup device represented by a photomultiplier tube (image intensifier) to image fluorescent light due to weak X-rays and observe dynamics inside a human body, and it has been generally used. ing. Modern flat panel detectors have sensitivity comparable to such image intensifiers, and are capable of capturing dynamics over a wide range of the human body.
[0004]
Generally, the most effective medical X-ray imaging is a chest imaging of a human body. Since radiographing a large area of the chest including the abdomen is useful for finding many diseases including lung diseases, chest X-ray imaging has become indispensable in a normal medical examination. In addition, in order to efficiently diagnose a huge amount of chest X-ray images taken for a health check in recent years, image analysis is performed on a chest digital X-ray image using a computer to assist a doctor in the initial diagnosis. The so-called computer-aided diagnosis (CAD) is also being put to practical use.
It should be noted that an abnormal shadow detection device that detects an abnormal shadow appearing in a radiographic image is known from Patent Documents 1 and 2.
[0005]
[Patent Document 1]
Japanese Patent No. 2582665 [Patent Document 2]
Japanese Patent No. 2582666 [0006]
[Problems to be solved by the invention]
By the way, when it is found that a certain disease is suspected by chest X-ray photography or the like in the medical examination, a definitive diagnosis is performed by a so-called precision diagnosis. In such a precise diagnosis, CT and MR scans are often performed. These CT scans and MR scans require several times the cost of diagnosis as compared to normal X-ray imaging. In many cases, such an accurate diagnosis is an erroneous diagnosis in the early stage and there is no disease, but such a misdiagnosis consumes unnecessary medical expenses and contributes to a rise in medical expenses. . To prevent this, it is important to improve the accuracy of the health checkup, which is the initial checkup.
[0007]
As a method of improving the accuracy of diagnosis while suppressing an increase in cost, it is effective to acquire a moving image of the chest showing the movement by respiration or the like using the above-described large-sized flat panel detector and to observe the movement. In the dynamic observation, unlike the conventional case of observing a still image, the image is switched and observed in time series. However, such dynamic observation often depends on the subjectivity of the observer as compared with still image observation, and vague points tend to remain. In addition, a large amount of observation time is consumed, and the efficiency of diagnosis is low.
[0008]
The present invention has been made in view of the above problems, and has as its object to generate an image effective for diagnosis based on a dynamic image.
[0009]
[Means for Solving the Problems]
An image processing apparatus according to the present invention for achieving the above object has the following configuration. That is,
Acquisition means for acquiring, from each of the plurality of images constituting the dynamic image of the target object, a pixel array arranged along a set straight line,
Generating means for generating an image based on a plurality of pixel rows obtained from the plurality of images by the obtaining means.
Further, according to the present invention, there is provided a system including the image processing device and the imaging device.
An image processing apparatus according to another aspect of the present invention for achieving the above object has the following configuration. That is,
From each of the plurality of images constituting the dynamic image of the object, an acquisition step of acquiring a pixel row aligned along a set straight line,
A generating step of generating an image based on a plurality of pixel columns obtained from the plurality of images in the obtaining step.
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
[0010]
[First Embodiment]
In order to solve the above-mentioned problem, in the present embodiment, a dynamic image (in this embodiment, a respiratory dynamic image) continuously acquired in time series is converted into a "spatio-temporal three-dimensional image" And a cross-sectional image and a sagittal plane thereof are created and displayed so as to be observable. This allows static observation and analysis of dynamic images and, consequently, medical image images.
[0011]
FIG. 1 is a block diagram schematically showing the configuration of the respiratory dynamic imaging apparatus according to the first embodiment. In FIG. 1, reference numeral 1 denotes an X-ray image sensor for imaging an X-ray intensity, and is capable of continuously acquiring an image. As the X-ray image sensor 1, a flat panel detector can be used. An X-ray generator 2 generates X-rays and irradiates the X-rays to the subject. Reference numeral 3 denotes a control device which controls the X-ray image sensor 1 and the X-ray generation device 2 to properly synchronize X-ray generation and image acquisition. Reference numeral 4 denotes a human body as a subject (subject).
[0012]
Reference numeral 5 denotes a continuous image acquisition unit which continuously acquires image data output from the X-ray image sensor 1. Reference numeral 6 denotes a moving image display unit which displays a chest image of a human body continuously acquired by the continuous image acquisition unit 5 on a display in real time. Reference numeral 7 denotes a storage device that stores the images acquired by the continuous image acquisition unit 5. The moving image display unit 6 can extract data from the storage device 7 at any time and sequentially refer to the data. That is, the moving image display unit 6 can display a moving image in real time, or a continuously acquired image such as a recorded and reproduced image as a moving image later.
[0013]
Reference numeral 8 denotes a spatio-temporal three-dimensional image creation unit, which creates a three-dimensional image from the time-series images continuously acquired by the continuous image acquisition unit 5 with the depth in the time direction. The section creation instruction UI unit 9 provides a user interface (UI) for designating a section to be displayed in the three-dimensional image created by the spatiotemporal three-dimensional image creation unit 8. Reference numeral 10 denotes a section creation unit, which is an arbitrary section including the time direction (depth direction) of the spatiotemporal three-dimensional image generated by the spatiotemporal three-dimensional image creation unit 8 (this section is designated by the section creation instruction UI unit 9). Be created). Reference numeral 11 denotes a cross section display unit, which displays a cross section generated by the cross section creation unit 10 on a display. The display used by the moving image display unit 6 and the cross section display unit 11 for display may be common.
[0014]
The respiratory dynamic images obtained by the present system are a plurality of human chest X-ray images. Hereinafter, in the embodiment, each of a plurality of images constituting such a dynamic image is referred to as a frame image. In FIG. 2, assuming that five frame images exist, the frame images obtained at the respective timings T1 to T5 are shown side by side. Displaying the frame images of the moving image side by side as shown in FIG. 2 is effective when closely examining each frame image. However, it is generally unsuitable for diagnosis because many frame images must be arranged. Therefore, normally, frame images are continuously switched and displayed on a screen of a frame size and observed as a moving image. Obviously, the method of observing as a moving image is advantageous for intuitively grasping the dynamics of the observer, but it takes time to observe a moving image. In the case of a moving image, it is difficult to leave an objective diagnosis record. That is, although a moving image has a lot of information, it must be dynamically displayed and observed, and it is difficult to leave an objective diagnosis record in a document or the like. On the other hand, if a still image is used, anyone can observe the image at any time, and marking is easy, so that an objective record can be recorded.
[0015]
Therefore, in the present embodiment, in order to objectively show the dynamic state, for example, the pixel value of each frame image on the horizontal line in FIG. The frame images to be taken out are rearranged in chronological order to form one image as shown in FIG. In FIG. 3, images are formed by rearranging them from the bottom in the order of T1, T2,..., T5. According to such an image shown in FIG. 3, the temporal movement / fluctuation of the shadow indicated by S1 in FIG. 2 is obtained as one image.
[0016]
According to the image as described above, for example, assuming that S1 in FIG. 2 is a tumor shadow, an anatomical judgment can be easily made as to whether or not S1 is adhered to the chest wall on the left side (FIG. 2, FIG. In the example of No. 3, it can be seen that there is no adhesion to the left chest wall). Such a determination is usually difficult to determine from a single still image due to various factors such as the shooting direction and timing. As shown in the image of FIG. 3, it is medically important to be able to confirm that there is no adhesion by imaging at a certain timing, and the contribution of the image display as shown in FIG. 3 to diagnosis is high. Further, if such a single image is formed, a record of the state of diagnosis can be easily left.
[0017]
Similarly, the pixel sequence of each frame image on the vertical line shown in FIG. 2B is rearranged in chronological order, is represented in one image as shown in FIG. It can be confirmed that S2 is not one shadow but two shadows separated from each other. In FIG. 4, the pixel rows obtained from each frame image are arranged in order from T1 to T5 from left to right.
[0018]
The images shown in FIGS. 3 and 4 described above are referred to as “spatio-temporal three-dimensional images (detailed in FIGS. 5 and 6)” in which a plurality of time-series continuous images are taken in depth in the time direction. It corresponds to a horizontal cross-sectional image and a vertical cross-sectional image of a three-dimensional image obtained by handling. Hereinafter, images as shown in FIGS. 3 and 4 are referred to as time-series cross-sectional images.
[0019]
Normally, the above-described diagnosis of adhesion or the like is obtained only from three-dimensional information of the human body by CT scan or the like. However, by observing a time-series cross-sectional image as in the present method, the diagnosis is equivalent. Such a diagnosis is also possible.
[0020]
In the above description, five frame images are shown for convenience of illustration and description. However, it is assumed that a moving image having at least 30 frames or more is used instead of such a small number of frames. Further, when arranging one pixel row on the designated line, one or more interpolation pixel rows may be inserted between the pixel rows to form a time-series cross-sectional image as shown in FIG. 3 or FIG. Good. Alternatively, a plurality of pixel columns including a pixel column on a line may be extracted from each frame, and the time-series cross-sectional images as shown in FIGS. 3 and 4 may be arranged and generated using the extracted columns.
[0021]
In the section creation instruction UI unit 9, for example, as shown in FIG. 2, a plurality of frame images are displayed side by side, the position of the line A is moved by an instruction from a pointing device or a keyboard, and a desired section position is designated. What should I do? When the line B is designated, a display indicating the line B may be performed on each frame image as shown in FIG. In this case, for example, when the line B in one frame image (for example, the line B of T1) is moved, the line B in another frame image is also moved by the same amount. Alternatively, when the line B is designated, the frame images may be displayed side by side in the vertical direction and the line B may be set. In such a UI, since the spatio-temporal three-dimensional image created by the spatio-temporal three-dimensional image creating unit 8 does not need to be used, the spatio-temporal three-dimensional image creating unit 8 can be omitted.
[0022]
Although it is possible to configure a UI for specifying a cross section as described above, in the present embodiment, a UI that allows a doctor or a device operator to easily form such a cross section while observing an image. Suggest. In this UI, the three-dimensional image created by the spatio-temporal three-dimensional image creation unit 8 is displayed, and a desired section is designated by the user.
[0023]
FIG. 5 shows a spatio-temporal three-dimensional image created by the spatio-temporal three-dimensional image creating unit 8. In addition to the X and Y directions of a normal two-dimensional image, the T direction, which is a time axis, is added to the depth. It constitutes a three-dimensional space. Therefore, one point in the space shown in FIG. 5 can be represented by three values of (x, y, T). As a method of displaying a three-dimensional image, there are a method of expressing a translucent object by ray tracing, and a method of obscuring a rear image with a front image.
[0024]
In the section creation instruction UI unit 9 of FIG. 1, a three-dimensional image as shown in FIG. 5 is displayed, and the user gives a section instruction in order to obtain his desired section image while watching this display. For example, T = C as a section equation; C is a constant (Equation 1)
If the plane is selected and C is made variable, normal frame images can be observed.
[0025]
In addition, Y = A as a sectional equation; A is a constant (Equation 2)
Is selected, a cross-sectional image of a plane parallel to the XT plane as shown in FIG. 6A is obtained. That is, a cross-sectional image as shown in FIG. 3 is obtained, and observation, diagnosis, and recording become possible.
[0026]
X = B as a sectional equation; B is a constant (Equation 3)
6B, a sectional image of a plane parallel to the YT plane can be obtained. That is, a cross-sectional image as described with reference to FIG. 4 is obtained, and observation, diagnosis, and recording can be performed.
[0027]
Generally, the user can select any plane, and that plane is a general equation such as:
T = Kx.X + Ky.Y + K1; Kx, Ky and K1 are constants (Equation 4)
Or two equations that are equivalent but can be expressed in different expressions:
X = Ky · Y + Kt · T + K2; Ky, Kt, and K2 are constants (Equation 5)
Y = Kx.X + Kt.T + K3; Kx, Kt and K3 are constants (Equation 6)
Is represented by
[0028]
While observing the three-dimensional image, the operator can select a desired cross section by moving the plane (for example, planes A and B in FIG. 6) displayed on the screen in parallel and rotationally by operating the mouse, for example.
[0029]
FIG. 7 is a flowchart illustrating a generation process of a time-series cross-sectional image in the respiratory dynamic imaging device of the present embodiment.
[0030]
First, in step S11, the spatiotemporal three-dimensional image creation unit 8 generates a spatiotemporal three-dimensional image as shown in FIG. 5 using a plurality of temporally continuous X-ray image groups stored in the storage device 7. . The section creation instruction UI unit 9 displays this on a display (not shown). In generating a spatiotemporal three-dimensional image, an interpolated frame image may be generated and inserted between each frame image.
[0031]
In step S12, the user sets a cutout plane so as to specify a desired cross section of the three-dimensional image while referring to the three-dimensional display. As the cutout plane, in addition to the planes A and B shown in FIG. 6, it is also possible to set planes inclined with respect to the X, Y, and T axes as shown in FIG. Operations such as movement and rotation of the cutout plane are performed by a mouse, but such a three-dimensional image and plane display processing will be apparent to those skilled in the art.
[0032]
By setting the cutout plane in step S12, each constant in any of equations 4 to 6 is determined, and the process proceeds to step S13. In step S13, an intersection line between the frame image and the plane for clipping is acquired from each frame image, and a pixel row along the intersection line is acquired. This is shown in FIG. In FIG. 9, L1, L2, L3, and L4 are shown as intersections between the cutout plane 91 and each of the frame images (T1 to T4). Note that these intersection lines can be obtained by using the expression of the plane for cutting determined in step S12.
[0033]
Subsequently, in step S14, the pixel sequence obtained in step S13 is arranged according to the time-series order of the cut-out frame image to generate a time-series cross-sectional image (92 in FIG. 9). Note that the arrangement of the pixel columns may be such that the user can set, for example, in order of time sequence from bottom to top, top to bottom, left to right, right to left, and the like. As described above, in generating a time-series cross-sectional image, an interpolated pixel row may be generated and inserted between the acquired pixel rows.
[0034]
The time-series cross-sectional image 92 generated as described above is displayed on the display by the cross-section display unit 11.
[0035]
[Second embodiment]
The method of expressing the cross section is not limited to the embodiment of FIGS. 3 and 4 shown in the first embodiment. For example, a form as shown in FIG. 10 can be used. FIG. 10 is a diagram illustrating a method for displaying a time-series cross-sectional image according to the second embodiment when 103 is specified as the time-series cross section. The partial image 101 above the specified cross section of the frame T1 and the partial image 102 below the specified cross section of the frame TN are displayed separately, and the cross sectional image 103 is connected so as to connect the partial images 101 and 102. Arrange and display.
[0036]
FIG. 11A shows an image of a cross section corresponding to FIG. 3 in accordance with the method shown in FIG. FIG. 11B shows a longitudinal section corresponding to FIG. 4 in accordance with the method shown in FIG. With such a three-dimensional display, the observer can observe while observing more clearly which cross-section is actually being changed over time, and by recording this image, it becomes more objective. Diagnostic records can be stored.
[0037]
An object of the present invention is to provide a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and a computer (or CPU or MPU) of the system or apparatus to store the storage medium. It is needless to say that the present invention can also be achieved by reading and executing the program code stored in the program.
[0038]
In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the program code and the storage medium storing the program code constitute the present invention.
[0039]
As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, and the like can be used.
[0040]
When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also an OS (Operating System) running on the computer based on the instruction of the program code. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included in the embodiment of the present invention.
[0041]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It is needless to say that a case where the CPU of the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing is also included in the embodiment of the present invention.
[0042]
【The invention's effect】
As described above, according to the present invention, an image effective for diagnosis can be generated based on a dynamic image.
[Brief description of the drawings]
FIG. 1 is a block diagram of a first embodiment of the present invention.
FIG. 2 is a diagram schematically illustrating each frame of a dynamic chest image.
FIG. 3 is a diagram in which a time variation of a specific horizontal line is imaged.
FIG. 4 is a diagram in which a time variation of a specific vertical line is imaged.
FIG. 5 is a schematic diagram of a spatiotemporal three-dimensional image.
FIG. 6 is a diagram showing a planar cross section of a spatiotemporal three-dimensional image.
FIG. 7 is a flowchart illustrating a generation process of a time-series cross-sectional image in the respiratory dynamic imaging device of the present embodiment.
FIG. 8 is a diagram illustrating setting of a cross section of a spatiotemporal three-dimensional image using a plane for cutting out.
FIG. 9 is a diagram illustrating a state in which a pixel sequence on a time-series cross section is acquired from each frame and a time-series cross-sectional image is generated.
FIG. 10 is a diagram illustrating a display mode of a time-series cross-sectional image according to a second embodiment.
FIG. 11 is a diagram illustrating a display example of a time-series cross-sectional image according to the second embodiment.

Claims (17)

対象物の動態画像を構成する複数の画像の各々から、設定された直線に沿って並ぶ画素列を取得する取得手段と、
前記取得手段により前記複数の画像から取得された複数の画素列に基づいて画像を生成する生成手段とを備えることを特徴とする画像処理装置。
Acquisition means for acquiring, from each of the plurality of images constituting the dynamic image of the target object, a pixel array arranged along a set straight line,
An image processing apparatus comprising: a generation unit configured to generate an image based on a plurality of pixel columns acquired from the plurality of images by the acquisition unit.
前記生成手段は、前記複数の画素列を、取得元の画像の時系列順に基づいて並べることを特徴とする請求項1に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the generation unit arranges the plurality of pixel columns based on a time-series order of an acquisition source image. 前記取得手段は、前記複数の画像を時間軸に沿って並べた時空間3次元空間に設定された平面と前記複数の画像の各々との交線に沿って並ぶ画素列を取得することを特徴とする請求項1に記載の画像処理装置。The acquisition unit is configured to acquire a pixel row arranged along a line of intersection between a plane set in a spatiotemporal three-dimensional space in which the plurality of images are arranged along a time axis and each of the plurality of images. The image processing device according to claim 1. 前記平面を操作者による入力に基づいて設定する設定手段を備えることを特徴とする請求項3に記載の画像処理装置。The image processing apparatus according to claim 3, further comprising a setting unit configured to set the plane based on an input by an operator. 前記生成手段により生成された画像を、前記複数の画像のうちの所定の画像から前記直線に基づいて切り出された部分画像とともに表示する表示手段を備えたことを特徴とする請求項1に記載の画像処理装置。2. The display device according to claim 1, further comprising a display unit configured to display the image generated by the generation unit together with a partial image cut out based on the straight line from a predetermined image of the plurality of images. Image processing device. 前記設定手段は、前記時空間3次元空間における前記動態画像及び前記平面の2次元的表現を与える表示手段を含むことを特徴とする請求項4に記載の画像処理装置。The image processing apparatus according to claim 4, wherein the setting unit includes a display unit that provides a two-dimensional representation of the dynamic image and the plane in the spatiotemporal three-dimensional space. 前記動態画像は、前記対象物を透過した放射線の強度分布に基づいて生成されたものであることを特徴とする請求項1乃至6のいずれかに記載の画像処理装置。The image processing apparatus according to claim 1, wherein the dynamic image is generated based on an intensity distribution of radiation transmitted through the object. 請求項1乃至7のいずれかに記載の画像処理装置と、対象物の動態を撮影する撮影装置とを備えることを特徴とするシステム。A system comprising: the image processing device according to claim 1; and a photographing device that photographs a dynamic state of an object. 対象物の動態画像を構成する複数の画像の各々から、設定された直線に沿って並ぶ画素列を取得する取得工程と、
前記取得工程において前記複数の画像から取得された複数の画素列に基づいて画像を生成する生成工程とを備えることを特徴とする画像処理方法。
From each of the plurality of images constituting the dynamic image of the object, an acquisition step of acquiring a pixel row aligned along a set straight line,
A generating step of generating an image based on a plurality of pixel columns obtained from the plurality of images in the obtaining step.
前記生成工程において、前記複数の画素列が、取得元の画像の時系列順に基づいて並べられることを特徴とする請求項9に記載の画像処理方法。The image processing method according to claim 9, wherein in the generation step, the plurality of pixel columns are arranged based on a time-series order of an acquisition source image. 前記取得工程において、前記複数の画像を時間軸に沿って並べた時空間3次元空間に設定された平面と前記複数の画像の各々との交線に沿って並ぶ画素列が取得されることを特徴とする請求項9に記載の画像処理方法。In the acquiring step, a pixel row arranged along a line of intersection between a plane set in a spatio-temporal three-dimensional space in which the plurality of images are arranged along a time axis and each of the plurality of images is acquired. The image processing method according to claim 9, wherein: 前記平面を操作者による入力に基づいて設定する設定工程を備えることを特徴とする請求項11に記載の画像処理方法。The image processing method according to claim 11, further comprising a setting step of setting the plane based on an input by an operator. 前記生成工程において生成された画像を、前記複数の画像のうちの所定の画像から前記直線に基づいて切り出された部分画像とともに表示する表示工程を備えることを特徴とする請求項9に記載の画像処理方法。The image according to claim 9, further comprising a display step of displaying the image generated in the generation step together with a partial image cut out from a predetermined image of the plurality of images based on the straight line. Processing method. 前記設定工程は、前記時空間3次元空間における前記動態画像及び前記平面の2次元的表現を与える表示工程を含むことを特徴とする請求項12に記載の画像処理方法。The image processing method according to claim 12, wherein the setting step includes a display step of giving the two-dimensional representation of the dynamic image and the plane in the three-dimensional space-time space. 前記動態画像は前記対象物を透過した放射線の強度分布に基づいて生成されたものであることを特徴とする請求項9乃至14のいずれかに記載の画像処理方法。15. The image processing method according to claim 9, wherein the dynamic image is generated based on an intensity distribution of radiation transmitted through the object. 請求項9に記載の方法をコンピュータに実行させることを特徴とするプログラム。A program for causing a computer to execute the method according to claim 9. 請求項16に記載のプログラムを格納したことを特徴とするコンピュータ可読記憶媒体。A computer-readable storage medium storing the program according to claim 16.
JP2003104090A 2003-04-08 2003-04-08 Image processing apparatus and method and system Expired - Lifetime JP4390127B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003104090A JP4390127B2 (en) 2003-04-08 2003-04-08 Image processing apparatus and method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003104090A JP4390127B2 (en) 2003-04-08 2003-04-08 Image processing apparatus and method and system

Publications (2)

Publication Number Publication Date
JP2004305487A true JP2004305487A (en) 2004-11-04
JP4390127B2 JP4390127B2 (en) 2009-12-24

Family

ID=33467017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003104090A Expired - Lifetime JP4390127B2 (en) 2003-04-08 2003-04-08 Image processing apparatus and method and system

Country Status (1)

Country Link
JP (1) JP4390127B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007275220A (en) * 2006-04-05 2007-10-25 Pentax Corp Confocal endoscope system
JP2013013737A (en) * 2012-07-30 2013-01-24 Konica Minolta Medical & Graphic Inc Radiographic imaging system
US8483456B2 (en) 2007-12-19 2013-07-09 Konica Minolta Medical & Graphic, Inc. Dynamic image processing system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007275220A (en) * 2006-04-05 2007-10-25 Pentax Corp Confocal endoscope system
US8483456B2 (en) 2007-12-19 2013-07-09 Konica Minolta Medical & Graphic, Inc. Dynamic image processing system
US9125621B2 (en) 2007-12-19 2015-09-08 Konica Minolta, Inc. Dynamic image processing system
JP2013013737A (en) * 2012-07-30 2013-01-24 Konica Minolta Medical & Graphic Inc Radiographic imaging system

Also Published As

Publication number Publication date
JP4390127B2 (en) 2009-12-24

Similar Documents

Publication Publication Date Title
US7505634B2 (en) Radiographic image processing apparatus, radiographic image processing method, computer program, and recording medium therefor
JP4404291B2 (en) Image processing apparatus and method and system
JP2005169116A (en) Fused image displaying method
JP2009136376A (en) Image processing device and program thereof
CA2568442A1 (en) System and method for improved ablation of tumors
US10672517B2 (en) Method and device for monitoring a breast examination
JP4356327B2 (en) Medical image processing apparatus and medical image processing method
JP2016067414A (en) Radioactive ray imaging system, image processing system, and image processing program
KR101909125B1 (en) Method for computer-aided diagnosis and computer-aided diagnosis apparatus thereof
JP2016067413A (en) Radioactive ray imaging system, image processing system, radioactive ray imaging method, and image processing program
JPH06269444A (en) Method for generating three-dimensional radiograph
JP2023162419A (en) Position information acquisition device, method, and program, and radiography apparatus
JP2021029698A (en) Image display device, method, and program, and image management device, method, and program
JP6841346B2 (en) Radiation tomography image processing equipment and radiation tomography equipment
JP2005056065A (en) Medical image information processor and medical image information processing system
JP6870765B1 (en) Dynamic quality control equipment, dynamic quality control program and dynamic quality control method
JP4639035B2 (en) Image processing apparatus and method, program, computer-readable storage medium
JP4390127B2 (en) Image processing apparatus and method and system
JP4385707B2 (en) Medical image processing system, medical image processing method and program
JP7099086B2 (en) Dynamic image processing equipment and programs
JPS6314621B2 (en)
JP2021045268A (en) Image processing device, method and program, and image display device, method and program
JP6860113B1 (en) Shooting control device, image management device, image management system and program
JP7115584B2 (en) Dynamic quality control device, dynamic quality control program and dynamic quality control method
JP2011036684A (en) Computer supported image diagnosing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060410

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20060410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121016

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4390127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121016

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131016

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term