JP5918734B2 - 医用画像処理装置およびその作動方法並びに医用画像処理プログラム - Google Patents

医用画像処理装置およびその作動方法並びに医用画像処理プログラム Download PDF

Info

Publication number
JP5918734B2
JP5918734B2 JP2013197896A JP2013197896A JP5918734B2 JP 5918734 B2 JP5918734 B2 JP 5918734B2 JP 2013197896 A JP2013197896 A JP 2013197896A JP 2013197896 A JP2013197896 A JP 2013197896A JP 5918734 B2 JP5918734 B2 JP 5918734B2
Authority
JP
Japan
Prior art keywords
region
subject
organ
direction information
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013197896A
Other languages
English (en)
Other versions
JP2015062529A (ja
Inventor
章宏 濱田
章宏 濱田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2013197896A priority Critical patent/JP5918734B2/ja
Priority to US14/493,713 priority patent/US9901255B2/en
Publication of JP2015062529A publication Critical patent/JP2015062529A/ja
Application granted granted Critical
Publication of JP5918734B2 publication Critical patent/JP5918734B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0073Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by tomography, i.e. reconstruction of 3D images from 2D projections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1071Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring angles, e.g. using goniometers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)

Description

本発明は、被検体を撮影した3次元画像に基づいて、その被検体の体勢情報を取得する医用画像処理装置およびその作動方法並びに医用画像処理プログラムに関するものである。
近年、CT(Computed Tomography)装置などのモダリティによって撮影された3次元画像から患者の大腸、小腸、胃などの管腔臓器を抽出し、その抽出した管腔臓器の3次元画像を画像診断に用いることが行われている。
たとえば、大腸に空気を入れた状態でCT撮影を行い、その撮影によって得た3次元画像を大腸の内側からボリュームレンダリングすることによって、あたかも内視鏡で観察するような画像を作り出すことが可能であり、この画像を仮想内視鏡画像と呼んでいる。
ここで、このような大腸の仮想内視鏡画像を生成して表示する際、大腸内に残渣が存在する場合、残渣とポリープとは非常に類似したCT値を示すため、残渣内に存在するポリープを発見することが困難である。
そこで、ポリープなどの発見精度を高めるために、仰臥位でCT撮影を行った3次元画像に基づく仮想内視鏡画像と、腹臥位でCT撮影を行った3次元画像に基づく仮想内視鏡画像との両方をディスプレイに表示させることが行われている。仰臥位と伏臥位とでは残渣の位置が重力によって変わるため、これらの2つの仮想内視鏡画像を観察することによって大腸の内壁全体を観察することができる。
そして、特許文献1および特許文献2においては、上述したように仰臥位の仮想内視鏡画像と腹臥位の仮想内視鏡画像とを表示する際、2つの仮想内視鏡画像の位置の対応付けを行い、これにより画像観察の効率を向上させることが提案されている。
特開2011−206297号公報 特開2011−030839号公報 特開2013−52233号公報
しかしながら、上述したように仰臥位の仮想内視鏡画像と腹臥位の仮想内視鏡画像とを表示した際、仰臥位の仮想内視鏡画像と腹臥位の仮想内視鏡画像との識別は、ユーザが両方の仮想内視鏡画像を観察することによって行う必要があった。
また、CT撮影を行う際に、被検体の体勢情報を入力し、その体勢情報を3次元画像に付加して取り扱うことによって、仰臥位の仮想内視鏡画像と腹臥位の仮想内視鏡画像とを識別する方法も考えられるが、ユーザが誤った体勢情報を入力する可能性もあり、3次元画像に付加された体勢情報の信頼性は低い。
また、撮影装置によっては、上述したような体勢情報を3次元画像に対して付加させることができない場合もある。
また、特許文献3においては、カメラによって被検体を撮影し、その撮影した画像に基づいて被検体の体勢を自動的に識別することが開示されているが、この方法では、複数のカメラを設ける必要がありコストアップになる。
本発明は、上記事情に鑑み、ユーザが入力することなく、またコストアップを招くことなく、3次元画像が撮影された際の被検体の体勢情報を自動的に取得することができる医用画像処理装置およびその作動方法並びに医用画像処理プログラムを提供することを目的とするものである。
本発明の医用画像処理装置は、被検体の3次元画像から少なくとも1つの臓器領域を抽出する臓器領域抽出部と、臓器領域の被検体内における位置または臓器領域の形状に基づいて、被検体の方向情報を取得する方向情報取得部と、3次元画像から被検体が設置される設置台の領域を抽出する設置台領域抽出部と、設置台の領域と被検体の方向情報とに基づいて、設置台上における被検体の体勢情報を取得する体勢情報取得部とを備えたことを特徴とする。
また、上記本発明の医用画像処理装置においては、臓器領域抽出部を、2つの臓器領域を抽出するものとし、方向情報取得部を、2つの臓器領域の位置関係に基づいて、被検体の方向情報を取得するものとできる。
また、臓器領域抽出部を、臓器領域として骨領域を抽出するものとできる。
また、臓器領域抽出部を、臓器領域として胸骨領域と椎骨領域とを抽出するものとし、方向情報取得部を、胸骨領域と椎骨領域との位置関係に基づいて被検体の前後方向情報を取得するものとできる。
また、臓器領域抽出部を、被検体の中心軸に対して前後方向または左右方向にずれた位置に存在する臓器領域を抽出するものとし、方向情報取得部を、被検体の体表と臓器領域との位置関係に基づいて被検体の方向情報を取得するものとできる。
また、臓器領域抽出部を、臓器領域として胸骨領域または椎骨領域とを抽出するものとし、方向情報取得部を、被検体の体表と胸骨領域または椎骨領域との位置関係に基づいて被検体の前後方向情報を取得するものとできる。
また、臓器領域抽出部を、臓器領域として心臓領域、肝臓領域または脾臓領域を抽出するものとし、方向情報取得部を、被検体の体表と心臓領域、肝臓領域または脾臓領域との位置関係に基づいて被検体の左右方向情報を取得するものとできる。
また、臓器領域抽出部を、臓器領域として椎骨領域とを抽出するものとし、方向情報取得部を、椎骨領域の形状に基づいて被検体の方向情報を取得するものとできる。 また、臓器領域抽出部を、臓器領域として右肺領域と左肺領域とを抽出するものとし、方向情報取得部を、右肺領域と左肺領域との位置関係に基づいて被検体の左右方向情報を取得するものとできる。
また、体勢情報取得部を、被検体の体勢情報として、仰臥位、腹臥位および側臥位のいずれか1つを取得するものとできる。
また、体勢情報取得部を、設置台の領域に基づいて設置台の方向情報を取得し、その設置台の方向情報に基づいて被検体の体勢情報を取得するものとできる。
本発明の医用画像処理装置の作動方法は、臓器領域抽出部と、方向情報取得部と、設置台領域抽出部と、体勢情報取得部とを備えた医用画像処理装置の作動方法であって、臓器領域抽出部が、被検体の3次元画像から少なくとも1つの臓器領域を抽出し、方向情報取得部が、臓器領域の被検体内における位置または臓器領域の形状に基づいて、被検体の方向情報を取得し、設置台領域抽出部が、3次元画像から被検体が設置される設置台の領域を抽出し、体勢情報取得部が、設置台の領域と被検体の方向情報とに基づいて、設置台上における被検体の体勢情報を取得することを特徴とする。
本発明の医用画像処理プログラムは、コンピュータを、被検体の3次元画像から少なくとも1つの臓器領域を抽出する臓器領域抽出部と、臓器領域の被検体内における位置または臓器領域の形状に基づいて、被検体の方向情報を取得する方向情報取得部と、3次元画像から被検体が設置される設置台の領域を抽出する設置台領域抽出部と、設置台の領域と被検体の方向情報とに基づいて、設置台上における被検体の体勢情報を取得する体勢情報取得部として機能させることを特徴とする。
本発明の医用画像処理装置およびその作動方法並びに医用画像処理プログラムによれば、被検体の3次元画像から少なくとも1つの臓器領域を抽出し、その臓器領域の被検体内における位置または臓器領域の形状に基づいて被検体の方向情報を取得し、一方、3次元画像から被検体が設置される設置台の領域を抽出し、その設置台の領域と被検体の方向情報とに基づいて、設置台上における被検体の体勢情報を取得するようにしたので、ユーザが入力することなく、またコストアップを招くことなく、3次元画像が撮影された際の被検体の体勢情報を自動的に取得することができる。
本発明の医用画像処理装置およびその作動方法並びに医用画像処理プログラムの一実施形態を用いた医用画像診断支援システムの概略構成を示すブロック図 CT装置によって撮影される3次元画像を説明するための図 胸骨領域と椎骨領域の一例を示す図 胸骨領域と椎骨領域に基づいて、前後方向ベクトルを取得する方法を説明するための図 設置台の平面ベクトルを示す図 被検体の方向情報と設置台の方向情報とに基づいて、体勢情報を取得する方法を説明するための図 被検体の方向情報と設置台の方向情報とに基づいて、体勢情報を取得する方法を説明するための図 図1に示す医用画像診断支援システムの作用を説明するためのフローチャート 被検体の方向情報と設置台の方向情報とに基づいて、体勢情報を取得する方法のその他の例を説明するための図 前後方向ベクトルを取得する方法のその他の例を説明するための図 前後方向ベクトルを取得する方法のその他の例を説明するための図 被検体の体表と心臓領域とに基づいて、被検体の左右方向ベクトルを取得する方法を説明するための図 椎骨領域の形状に基づいて、被検体の前後方向ベクトルまたは左右方向ベクトルを取得する方法を説明するための図
以下、本発明の医用画像処理装置およびその作動方法並びに医用画像処理プログラムの一実施形態を用いた医用画像診断支援システムについて、図面を参照しながら詳細に説明する。図1は、本実施形態の医用画像診断支援システムの概略構成を示すブロック図である。
本実施形態の医用画像診断支援システムは、図1に示すように、仮想内視鏡画像表示制御装置1と、3次元画像保管サーバ2と、ディスプレイ3と、入力装置4とを備えている。
仮想内視鏡画像表示制御装置1は、コンピュータに対し、本発明の医用画像処理プログラムの一実施形態を含む仮想内視鏡画像表示プログラムをインストールしたものである。
仮想内視鏡画像表示制御装置1は、一つまたは複数の中央処理装置(CPU)および半導体メモリや、一つまたは複数のハードディスクやSSD(Solid State Drive)等のストレージデバイスを備えている。ストレージデバイスには、上述した仮想内視鏡画像表示プログラムがインストールされており、この仮想内視鏡画像表示プログラムが中央処理装置によって実行されることによって、図1に示すような3次元画像取得部10、臓器領域抽出部11、方向情報取得部12、設置台領域抽出部13、体勢情報取得部14、残渣領域除去処理部15、仮想内視鏡画像生成部16および表示制御部17が動作する。なお、仮想内視鏡画像表示プログラムは、CD−ROMなどの記録媒体に記録されたものを用いるようにしてもよいし、インターネットを介してSaaS(Software as a Service)によって提供されるものを用いるようにしてもよい。
3次元画像取得部10は、手術前または検査前などに予め撮影された被検体の3次元画像5を取得するものである。3次元画像5としては、たとえばCT装置やMRI(Magnetic Resonance Imaging)装置などから出力されたスライスデータから再構成されたボリュームデータや、MS(Multi Slice)CT装置やコーンビームCT装置から出力されたボリュームデータなどがある。
3次元画像5は、たとえば、図2に示すように、設置台6上に被検体7を設置した状態で、CT装置の放射線照射装置8を通過させることによって撮影されたものである。したがって、3次元画像5には、被検体7の画像だけでなく、設置台6の画像も含まれることになる。設置台6は、図2に示すように、被検体7が設置される平面を有する直方体から構成されるものである。そして、設置台6は支持台9によって矢印A方向に移動可能に指示されており、被検体7とともに放射線照射装置8を通過する。したがって、3次元画像5内には設置台6の画像が含まれる。なお、設置台6は、3次元画像5上に画像として現れるような材料、すなわち放射線を吸収する材料から形成されているものとする。
また、図2においては、被検体7である人が仰向けの状態、すなわち仰臥位の状態で設置されているが、これに限らず、伏臥位や側臥位の状態で被検体7を設置するようにしてもよい。すなわち、3次元画像取得部10によって取得される3次元画像5は、仰臥位、伏臥位および側臥位のいずれかの状態で撮影されたものである。
3次元画像5は、3次元画像保管サーバ2に被検体の識別情報とともに予め保管されており、3次元画像取得部10は、入力装置4において入力された被検体の識別情報に対応する3次元画像5を3次元画像保管サーバ2から読み出すものである。なお、3次元画像取得部10において多数のスライスデータを取得してボリュームデータを生成するようにしてもよい。
また、3次元画像保管サーバ2は、いわゆる単体のサーバ装置でも良いし、いわゆるクラウドに接続されるサーバ装置に3次元画像を保管するような形態としてもよい。
臓器領域抽出部11は、3次元画像取得部10によって取得された3次元画像5が入力され、その入力された3次元画像5に基づいて、少なくとも1つの臓器領域を抽出するものである。臓器領域とは、心臓領域や肝臓領域などの内臓領域に限らず、骨領域や脳領域なども含まれるものとする。
本実施形態の臓器領域抽出部11は、具体的には、3次元画像5から、図3に示すような胸骨領域BR1と椎骨領域BR2とを抽出するものである。なお、図3は、被検体7の胸部のアキシャル断面図である。胸骨領域BR1と椎骨領域BR2の抽出方法については、たとえば特許第4545807号に記載の方法を用いることができる。
具体的には、胸骨領域については、図3に示すように、各断面画像上にほぼ同じ太さで内腔(海綿体)のある長方形の領域として表れるので、パターン認識をすることにより検出することができる。なお、胸骨領域の検出は、少なくとも1つの断層画像について行えばよい。
椎骨領域については、図3に示すように、断層画像上に典型的なパターンで表れるため、断層画像から脊髄領域を安定的に検出することが可能である。具体的には、たとえば各断層画像中の各画素を中心として所定の大きさの領域を多数設定し、機械学習手法により生成された判別器を用いて各領域が脊髄領域であるか否かを判別しながら脊髄領域を検出する。なお、椎骨領域の検出についても、少なくとも1つの断層画像について行えばよい。
また、胸骨領域と椎骨領域の抽出方法については、特許第4545807号に記載の方法に限らず、その他の公知な方法を用いるようにしてもよい。
方向情報取得部12は、臓器領域抽出部11において抽出された臓器領域の被検体7内における位置に基づいて、被検体7の方向情報を取得するものである。具体的には、本実施形態の方向情報取得部12は、臓器領域抽出部11において抽出された胸骨領域BR1と椎骨領域BR2との位置関係に基づいて、被検体7の前後方向情報を取得するものである。胸骨領域は被検体7の前面側の左右方向の略中心に位置し、椎骨領域は被検体7の後面側の左右方向の略中心に位置することから、図4に示すように、胸骨領域BR1の特徴点と椎骨領域BR2の特徴点とを結ぶ直線から被検体7の前後方向ベクトルVaを取得することができる。なお、胸骨領域BR1と椎骨領域BR2とは同じ断層画像から抽出されたものとする。また、胸骨領域BR1および椎骨領域BR2の特徴点としては、たとえば中心点や重心点などを求めるようにすればよいが、これに限らず、その他の構造的に特徴的な点を特徴点としてもよい。
設置台領域抽出部13は、3次元画像5から被検体7が設置される設置台6の領域を抽出するものである。本実施形態における設置台領域抽出部13は、3次元画像5から被検体領域を抽出した後、その抽出した被検体領域を3次元画像5から除くことによって非被検体領域を抽出する。そして、その非被検体領域の各画素値から所定範囲の閾値の画素値を抽出し、さらにその抽出した画素値に対してモフォロジー処理を施すことによって、設置台6の領域を抽出する。なお、本実施形態においては、設置台6の領域の抽出は、全ての断層画像について行う。
また、3次元画像から被検体領域を抽出する方法としては、たとえば特開2011−160882号に記載の方法を用いることができるが、その他の公知な方法を用いるようにしてもよい。また、設置台6の領域を抽出する方法は、上記の方法に限らず、その他の方法を用いるようにしてもよい。
体勢情報取得部14は、設置台領域抽出部13によって抽出された設置台6の領域と、方向情報取得部12によって取得された被検体7の前後方向ベクトルVaとに基づいて、設置台6上における被検体7の体勢情報を取得するものである。
本実施形態の体勢情報取得部14は、設置台6の領域から設置台6の平面ベクトルを算出する。具体的には、設置台6の領域を構成する画素(ボクセル)の座標値をサンプルデータとして主成分分析を行い、これにより得られる上位2成分のベクトルを取得する。そして、この2成分のベクトルで構成される平面を設置台6の平面とする。なお、図5は、上述した主成分分析によって取得される2成分のベクトルV1,V2を示すものである。図5に示すように、上述した主成分分析によって、設置台6の平面の長辺に平行なベクトルV1と、設置台6の平面の短辺に平行なベクトルV2とが求められることになる。
そして、体勢情報取得部14は、図6に示すように、設置台6の平面6aの短辺に平行な直線で平面6aと交わるとともに、平面6aに対して垂直な射影面6bを設定し、この射影面6b上に、上述した被検体7の前後方向ベクトルVaを射影する。なお、ここでは説明を分かり易くするために、前後方向ベクトルVaの始点を平面6a上に垂直に移動させた図を用いて説明する。
次いで、体勢情報取得部14は、射影面6bに射影された前後方向ベクトルVaと平面6aとが成す角θを取得し、この角θの大きさに基づいて、被検体7の体勢情報を取得する。具体的には、図7に示すように、前後方向ベクトルVaと平面6aとが平行であって前後方向ベクトルの終点が右方向を向いている場合の角θを0°として設定した場合において、角θが45°より大きく135°より小さい場合には、体勢情報として仰臥位を取得し、角θが135°以上225°以下である場合には、体勢情報として左側臥位を取得し、角θが225°より大きく315度より小さい場合には、体勢情報として腹臥位を取得し、角θが315°以上360°以下または0°より大きく45度以下である場合には、体勢情報として右側臥位を取得する。なお、上記説明は、図7に示す射影面6bに対して、紙面手前方向が被検体7の頭部側であり、紙面奥行方向が被検体7の脚側である場合における体勢情報の説明であるが、射影面6bに対して頭部側と脚側が逆である場合には、右側臥位と左側臥位の識別結果が逆になることになる。
残渣領域除去処理部15は、3次元画像5に含まれる大腸領域内に存在する残渣を造影したタギング領域を検出し、そのタギング領域を3次元画像5から除去する、いわゆるデジタルクレンジング処理を施すものである。残渣領域除去処理部15は、たとえば閾値判定などを用いてタギング領域を検出するものである。
仮想内視鏡画像生成部16は、残渣領域除去処理部15によってデジタルクレンジング処理の施された3次元画像5から大腸領域を抽出し、その大腸領域の画素を用いて大腸の内壁を表す仮想内視鏡画像を生成するものである。
具体的には、仮想内視鏡画像生成部16は、予め設定された視点と視線方向とに基づく視線ベクトルを中心として放射線状に伸ばした複数の光線方向上の画素データを、所定の投影面に投影した中心投影による画像を仮想内視鏡画像として生成するものである。なお、中心投影の具体的な方法としては、たとえば公知のボリュームレンダリング手法等を用いることができる。
また、仮想内視鏡画像の視点については、たとえばディスプレイ3上に表示された大腸の3次元画像上において、ユーザが入力装置4を用いて任意の点を指定することによって設定するようにしてもよいし、大腸の画素データに基づいて抽出された大腸の中心線上の所定の点を自動または手動で指定することによって設定するようにしてもよい。また、視線方向についてもユーザが任意の方向を手動で設定するようにしてもよいし、大腸の中心線の進行方向を視線方向としてもよい。なお、大腸領域の抽出方法や、仮想内視鏡画像の生成方法については、既に公知であるので詳細な説明は省略する。
表示制御部17は、仮想内視鏡画像生成部16において生成された仮想内視鏡画像とともに、体勢情報取得部14によって取得された体勢情報をディスプレイ3に表示させるものである。また、表示制御部17は、仮想内視鏡画像に限らず、大腸領域の3次元画像や、被検体7の断層画像などもディスプレイ3に表示させるものである。
また、表示制御部17は、互いに異なる2以上の体勢で撮影された3次元画像5に基づいて生成された仮想内視鏡画像と、各仮想内視鏡画像に対応する被検体7の体勢情報とを同時にディスプレイに表示させるようにしてもよい。たとえば、仰臥位の仮想内視鏡画像および仰臥位の体勢情報と、腹臥位の仮想内視鏡画像および腹臥位の体勢情報とを同時にディスプレイに表示させるようにしてもよい。
入力装置4は、マウスやキーボードなどを備えたものであり、ユーザによる操作入力を受け付けるものである。具体的には、たとえば、上述したような仮想内視鏡画像を生成する際に用いられる視点や視線方向などの入力を受け付けるものである。
次に、本実施形態の医用画像診断支援システムの作用について、図8に示すフローチャートを参照しながら説明する。
まず、入力装置4を用いてユーザによって被検体の識別情報が入力され、仮想内視鏡画像表示制御装置1の3次元画像取得部10は、その入力された被検体の識別情報に対応する3次元画像5を3次元画像保管サーバ2から読み出して取得する(S10)。
3次元画像取得部10によって取得された3次元画像5は、臓器領域抽出部11に入力され、臓器領域抽出部11は、入力された3次元画像5に基づいて、上述した胸骨領域BR1および椎骨領域BR2を抽出する(S12)。
次に、胸骨領域BR1および椎骨領域BR2が、方向情報取得部12に入力され、方向情報取得部12は、胸骨領域BR1の中心点と椎骨領域BR2の中心点とを結ぶ被検体7の前後方向ベクトルVaを取得する(S14)。
一方、3次元画像取得部10によって取得された3次元画像5は、設置台領域抽出部13にも入力され、設置台領域抽出部13は、入力された3次元画像5に基づいて、上述したように設置台6の領域を抽出する(S16)。
次いで、方向情報取得部12によって取得された被検体7の前後方向ベクトルVaと、設置台領域抽出部13によって抽出された設置台6の領域とが体勢情報取得部14に入力され、体勢情報取得部14は、これらに基づいて、上述したように被検体7の体勢情報を取得する(S20)。体勢情報取得部14によって取得された体勢情報は、表示制御部17に出力される。
また、3次元画像取得部10によって取得された3次元画像5は、残渣領域除去処理部15に入力され、残渣領域除去処理部15は、入力された3次元画像5に対してデジタルクレンジング処理を施し、その処理後の3次元画像5を仮想内視鏡画像生成部16に出力する(S22)。
デジタルクレンジング処理後の3次元画像5は、仮想内視鏡画像生成部16に入力され、仮想内視鏡画像生成部16において、予め設定された視点および視線方向とデジタルクレンジング処理済みの3次元画像5とに基づいて仮想内視鏡画像が生成され、その仮想内視鏡画像と体勢情報取得部14によって取得された体勢情報とが表示制御部17に入力されてディスプレイ3に表示される(S24)。
本実施形態の医用画像診断支援システムによれば、被検体の3次元画像5から臓器領域を抽出し、その臓器領域の被検体内における位置に基づいて被検体の方向情報を取得し、一方、3次元画像から被検体が設置される設置台の領域を抽出し、その設置台の領域と被検体の方向情報とに基づいて、設置台上における被検体の体勢情報を取得するようにしたので、ユーザが入力することなく、またコストアップを招くことなく、3次元画像が撮影された際の被検体の体勢情報を自動的に取得することができる。
また、上述したようにして取得した体勢情報と3次元画像に基づいて生成された仮想内視鏡画像とを同時に表示させることによって、仮想内視鏡画像がどのような体勢で撮影された3次元画像から生成されたものであるかを即座に把握することができ、診断効率の向上を図ることができる。
なお、上記実施形態においては、前後方向ベクトルVaと設置台6の平面6aとが成す角θを取得し、この角θの大きさに基づいて被検体7の体勢情報を取得するようにしたが、これに限らず、たとえば仰臥位または腹臥位のみの識別が必要である場合には、図9に示すように、胸骨領域BR1と椎骨領域BR2とに基づく前後方向ベクトルVaに対して、設置台6の領域Rbが、胸骨領域BR1側にあるか椎骨領域BR2側にあるかによって仰臥位または腹臥位の体勢情報を取得するようにしてもよい。すなわち、体勢情報取得部14が、設置台6の領域Rbが胸骨領域BR1側にある場合には、体勢情報として腹臥位を取得し、設置台6の領域Rbが椎骨領域BR2側にある場合には、体勢情報として仰臥位を取得するようにしてもよい。
また、上記実施形態においては、胸骨領域BR1と椎骨領域BR2とに基づいて前後方向ベクトルVaを取得するようにしたが、前後方向ベクトルVaを取得する方法としてはその他の方法を用いるようにしてもよい。具体的には、たとえば、図10に示すように、被検体7の3次元画像5から体表領域SRを抽出し、その体表領域SRの中心軸(中心点)Cと胸骨領域BR1の中心点とを結ぶ直線に基づいて前後方向ベクトルVaを取得するようにしてもよい。体表領域SRの抽出方法としては、たとえば特開2011−160882号に記載の方法を用いることができる。また、体表領域SRの中心軸については、たとえば体表領域SRを楕円形で近似し、その楕円形の中心を中心軸として求めたり、または、体表領域SRをその他の形状で近似し、その近似形の重心を中心軸として求めたりすればよい。なお、図10は被検体7の胸部のアキシャル断層画像である。
または、図11に示すように、体表領域SRの中心軸(中心点)Cと椎骨領域BR2とを結ぶ直線に基づいて前後方向ベクトルVaを取得するようにしてもよい。
また、上記実施形態においては、胸骨領域や椎骨領域など骨の領域の位置に基づいて被検体7の方向情報を取得するようにしたが、骨の領域に限らず、たとえば心臓領域や肝臓領域など、被検体7の中心軸に対して左右方向にずれた位置に存在する臓器領域を抽出し、その臓器領域と上述した被検体7の体表領域SRの中心軸との位置関係に基づいて、被検体7の方向情報を取得するようにしてもよい。具体的には、たとえば、図12に示すように被検体7の3次元画像5から心臓領域HRを抽出し、体表領域SRの中心軸(中心点)Cと心臓領域HRの中心点とを結ぶ直線に基づいて、被検体7の左右方向ベクトルVbを取得するようにしてもよい。なお、図12は被検体7の胸部のアキシャル断層画像である。また、心臓領域HRの中心点ではなく、心臓の先端を表す心尖部を抽出し、その心尖部と体表領域SRの中心軸とを結ぶ直線に基づいて左右方向ベクトルVbを取得するようにしてもよい。
そして、上述したように被検体7の左右方向ベクトルVbを取得する場合においても、その左右方向ベクトルVbと設置台6の平面6aとが成す角θに基づいて、被検体7の体勢情報を取得することができる。なお、左右方向ベクトルVbを取得する場合には、たとえば、角θが315°以上360°以下または0°より大きく45度以下である場合には、体勢情報として仰臥位を取得し、角θが45°より大きく135°より小さい場合には、体勢情報として右側臥位を取得し、角θが135°以上225°以下である場合には、体勢情報として腹臥位を取得し、角θが225°より大きく315度より小さい場合には、体勢情報として左側臥位を取得するようにすればよい。
また、上述したような心臓領域に限らず、たとえば肝臓領域または脾臓領域を抽出し、体表領域SRの中心軸(中心点)Cと肝臓領域または脾臓領域の重心点とを結ぶ直線に基づいて、被検体7の左右方向ベクトルを取得するようにしてもよい。
また、臓器領域として右肺領域と左肺領域とを抽出し、右肺領域と左肺領域との位置関係に基づいて被検体7の左右方向ベクトルを取得するようにしてもよい。具体的には、右肺領域と左肺領域とについて、たとえば重心点などの特徴点をそれぞれ取得し、その特徴点を結ぶ直線に基づいて左右方向ベクトルを取得するようにしてもよい。特徴点としては、重心点に限らず、その他肺の形状に特有の特徴点を用いるようにしてもよい。なお、右肺は上葉、中葉、下葉の3領域から構成され、左肺は上葉および下葉の2領域で構成されているため、この構造上の違いから右肺領域と左肺領域との区別をすることができ、これにより左方向と右方向とを識別することができる。右肺領域および左肺領域については、公知の方法を用いて抽出することができる。
また、上記説明では、2つの臓器領域の位置関係または体表領域と1つの臓器領域の位置関係とに基づいて被検体7の方向情報を取得するようにしたが、これに限らず、1つの臓器領域の形状に基づいて前後方向ベクトルまたは左右方向ベクトルを取得するようにしてもよい。具体的には、たとえば、図13に示すように被検体7の3次元画像5から椎骨領域BR2のみを抽出し、たとえば、椎骨領域において、前後方向についての特徴点P1と特徴点P2とを結ぶ直線に基づいて前後方向ベクトルVaを取得したり、左右方向についての特徴点P3と特徴点P4とを結ぶ直線に基づいて左右方向ベクトルVbを取得するようにしてもよい。なお、特徴点P1〜特徴点P4については、たとえば予め特徴点P1〜特徴点P4に対応する点が設定された椎骨領域パターンと、実際に抽出された椎骨領域BR2とのパターンマッチングを行うことによって特定するようにすればよい。
また、上記実施形態においては、体勢情報取得部14によって取得された被検体7の体勢情報を仮想内視鏡画像とともに表示するようにしたが、体勢情報の用途としてはこれに限らず、たとえば、被検体7の3次元画像から大腸領域や心臓領域などの内臓領域を抽出する際、被検体の体勢によってこれらの内臓領域の変形の仕方が異なる場合がある。そこで、被検体7の3次元画像から大腸領域や心臓領域などの内臓領域を抽出する際に、被検体7の体勢情報を用いて抽出処理を行うようにしてもよい。
1 仮想内視鏡画像表示制御装置
2 3次元画像保管サーバ
3 ディスプレイ
4 入力装置
6 設置台
7 被検体
10 3次元画像取得部
11 臓器領域抽出部
12 方向情報取得部
13 設置台領域抽出部
14 体勢情報取得部
15 残渣領域除去処理部
16 仮想内視鏡画像生成部
17 表示制御部

Claims (14)

  1. 被検体の3次元画像から少なくとも1つの臓器領域を抽出する臓器領域抽出部と、
    前記臓器領域の前記被検体内における位置または前記臓器領域の形状に基づいて、前記被検体の方向情報を取得する方向情報取得部と、
    前記3次元画像から前記被検体が設置される設置台の領域を抽出する設置台領域抽出部と、
    前記設置台の領域と前記被検体の方向情報とに基づいて、前記設置台上における前記被検体の体勢情報を取得する体勢情報取得部とを備えたことを特徴とする医用画像処理装置。
  2. 前記臓器領域抽出部が、2つの前記臓器領域を抽出するものであり、
    前記方向情報取得部が、前記2つの臓器領域の位置関係に基づいて、前記被検体の方向情報を取得するものである請求項1記載の医用画像処理装置。
  3. 前記臓器領域抽出部が、前記臓器領域として骨領域を抽出するものである請求項2記載の医用画像処理装置。
  4. 前記臓器領域抽出部が、前記臓器領域として胸骨領域と椎骨領域とを抽出するものであり、
    前記方向情報取得部が、前記胸骨領域と前記椎骨領域との位置関係に基づいて前記被検体の前後方向情報を取得するものである請求項2または3記載の医用画像処理装置。
  5. 前記臓器領域抽出部が、前記被検体の中心軸に対して前後方向または左右方向にずれた位置に存在する前記臓器領域を抽出するものであり、
    前記方向情報取得部が、前記被検体の体表と前記臓器領域との位置関係に基づいて前記被検体の方向情報を取得するものである請求項1記載の医用画像処理装置。
  6. 前記臓器領域抽出部が、前記臓器領域として骨領域を抽出するものである請求項5記載の医用画像処理装置。
  7. 前記臓器領域抽出部が、前記臓器領域として胸骨領域または椎骨領域とを抽出するものであり、
    前記方向情報取得部が、前記被検体の体表と前記胸骨領域または前記椎骨領域との位置関係に基づいて前記被検体の前後方向情報を取得するものである請求項6記載の医用画像処理装置。
  8. 前記臓器領域抽出部が、前記臓器領域として心臓領域、肝臓領域または脾臓領域を抽出するものであり、
    前記方向情報取得部が、前記被検体の体表と前記心臓領域、前記肝臓領域または前記脾臓領域との位置関係に基づいて前記被検体の左右方向情報を取得するものである請求項5記載の医用画像処理装置。
  9. 前記臓器領域抽出部が、前記臓器領域として椎骨領域とを抽出するものであり、
    前記方向情報取得部が、前記椎骨領域の形状に基づいて前記被検体の方向情報を取得するものである請求項1記載の医用画像処理装置。
  10. 前記臓器領域抽出部が、前記臓器領域として右肺領域と左肺領域とを抽出するものであり、
    前記方向情報取得部が、前記右肺領域と前記左肺領域との位置関係に基づいて前記被検体の左右方向情報を取得するものである請求項2記載の医用画像処理装置。
  11. 前記体勢情報取得部が、前記被検体の体勢情報として、仰臥位、腹臥位および側臥位のいずれか1つを取得するものである請求項1から10いずれか1項記載の医用画像処理装置。
  12. 前記体勢情報取得部が、前記設置台の領域に基づいて前記設置台の方向情報を取得し、該設置台の方向情報と前記被検体の方向情報とに基づいて前記被検体の体勢情報を取得するものである請求項1から11いずれか1項記載の医用画像処理装置。
  13. 臓器領域抽出部と、方向情報取得部と、設置台領域抽出部と、体勢情報取得部とを備えた医用画像処理装置の作動方法であって、
    前記臓器領域抽出部が、被検体の3次元画像から少なくとも1つの臓器領域を抽出し、
    前記方向情報取得部が、前記臓器領域の前記被検体内における位置または前記臓器領域の形状に基づいて、前記被検体の方向情報を取得し、
    前記設置台領域抽出部が、前記3次元画像から前記被検体が設置される設置台の領域を抽出し、
    前記体勢情報取得部が、前記設置台の領域と前記被検体の方向情報とに基づいて、前記設置台上における前記被検体の体勢情報を取得することを特徴とする医用画像処理装置の作動方法。
  14. コンピュータを、被検体の3次元画像から少なくとも1つの臓器領域を抽出する臓器領域抽出部と、
    前記臓器領域の前記被検体内における位置または前記臓器領域の形状に基づいて、前記被検体の方向情報を取得する方向情報取得部と、
    前記3次元画像から前記被検体が設置される設置台の領域を抽出する設置台領域抽出部と、
    前記設置台の領域と前記被検体の方向情報とに基づいて、前記設置台上における前記被検体の体勢情報を取得する体勢情報取得部として機能させることを特徴とする医用画像処理プログラム。
JP2013197896A 2013-09-25 2013-09-25 医用画像処理装置およびその作動方法並びに医用画像処理プログラム Active JP5918734B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013197896A JP5918734B2 (ja) 2013-09-25 2013-09-25 医用画像処理装置およびその作動方法並びに医用画像処理プログラム
US14/493,713 US9901255B2 (en) 2013-09-25 2014-09-23 Medical image processing apparatus, method of operating the medical image processing apparatus, and medical image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013197896A JP5918734B2 (ja) 2013-09-25 2013-09-25 医用画像処理装置およびその作動方法並びに医用画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015062529A JP2015062529A (ja) 2015-04-09
JP5918734B2 true JP5918734B2 (ja) 2016-05-18

Family

ID=52691534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013197896A Active JP5918734B2 (ja) 2013-09-25 2013-09-25 医用画像処理装置およびその作動方法並びに医用画像処理プログラム

Country Status (2)

Country Link
US (1) US9901255B2 (ja)
JP (1) JP5918734B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171712B (zh) * 2016-12-07 2022-02-11 富士通株式会社 确定图像相似度的方法和装置
KR102672531B1 (ko) * 2021-11-09 2024-06-07 주식회사 피앤씨솔루션 딥러닝 기반의 포즈 추정을 활용한 의료 영상에서의 척추 위치 자동 추정 방법 및 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3223428B2 (ja) * 1991-05-20 2001-10-29 コニカ株式会社 胸部放射線画像の撮影体位判別装置
JPH06304159A (ja) * 1993-04-27 1994-11-01 Fuji Photo Film Co Ltd 画像の撮影体位認識方法
JP2007105221A (ja) * 2005-10-13 2007-04-26 Toshiba Corp X線ct装置及び画像処理装置
CN101351146B (zh) * 2005-12-28 2013-09-04 奥林巴斯医疗株式会社 被检体内导入系统
EP2036494A3 (en) * 2007-05-07 2009-04-15 Olympus Medical Systems Corp. Medical guiding system
JP5191167B2 (ja) * 2007-06-06 2013-04-24 オリンパスメディカルシステムズ株式会社 医用ガイドシステム
JP4545807B2 (ja) 2008-03-31 2010-09-15 富士フイルム株式会社 骨番号認識装置およびそのプログラム
JP5561578B2 (ja) 2009-08-03 2014-07-30 国立大学法人名古屋大学 医用画像観察支援装置
JP5314614B2 (ja) 2010-02-05 2013-10-16 富士フイルム株式会社 医用画像表示装置及び医用画像表示方法並びにプログラム
JP5443238B2 (ja) 2010-03-30 2014-03-19 富士フイルム株式会社 仮想内視鏡画像処理装置、方法、及びプログラム
EP2727533A1 (en) * 2010-09-08 2014-05-07 Fujifilm Corporation Body motion detection device, as well as radiographic imaging apparatus
US8737705B2 (en) 2011-09-01 2014-05-27 General Electric Company Method and apparatus for determining a subjects orientation
JP2013169359A (ja) * 2012-02-21 2013-09-02 Toshiba Corp X線ct装置
JP5734249B2 (ja) * 2012-08-27 2015-06-17 キヤノン株式会社 画像処理装置、x線撮影装置、画像処理システム、画像処理方法及び記憶媒体

Also Published As

Publication number Publication date
US9901255B2 (en) 2018-02-27
JP2015062529A (ja) 2015-04-09
US20150087954A1 (en) 2015-03-26

Similar Documents

Publication Publication Date Title
US20170296032A1 (en) Branching structure determination apparatus, method, and program
JP5918548B2 (ja) 内視鏡画像診断支援装置およびその作動方法並びに内視鏡画像診断支援プログラム
JP5785120B2 (ja) 医用画像診断支援装置および方法並びにプログラム
KR102273020B1 (ko) 의료 영상 정합 방법 및 그 장치
KR20140096919A (ko) 의료 영상 정합 방법 및 장치
JP5826082B2 (ja) 医用画像診断支援装置および方法並びにプログラム
KR102233966B1 (ko) 의료 영상 정합 방법 및 그 장치
US20230316550A1 (en) Image processing device, method, and program
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
JP6738631B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP2008289698A (ja) 医用画像表示装置、医用画像表示方法、プログラム、記憶媒体およびマンモグラフィ装置
JP5918734B2 (ja) 医用画像処理装置およびその作動方法並びに医用画像処理プログラム
JP2014183904A (ja) 医用画像表示制御装置および方法並びにプログラム
JP6134978B2 (ja) 投影画像生成装置、方法およびプログラム
JP2011024913A (ja) 医用画像処理装置、医用画像処理プログラム、及びx線ct装置
US9754368B2 (en) Region extraction apparatus, method, and program
JP2011135936A (ja) 画像処理装置、医用画像診断装置および画像処理プログラム
JP5930539B2 (ja) 医用画像表示装置および方法並びにプログラム
US9542772B2 (en) Virtual endoscope image-generating device, method, and program
US20180090176A1 (en) Medical image storage and reproduction apparatus, method, and program
JP2015136480A (ja) 3次元医用画像表示制御装置およびその作動方法並びに3次元医用画像表示制御プログラム
JP6199267B2 (ja) 内視鏡画像表示装置、その作動方法およびプログラム
JP5283015B2 (ja) 測距装置及びそのプログラム、並びに測距システム
US10049480B2 (en) Image alignment device, method, and program
US20240016365A1 (en) Image processing device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160408

R150 Certificate of patent or registration of utility model

Ref document number: 5918734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250