JP2019000387A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2019000387A
JP2019000387A JP2017118013A JP2017118013A JP2019000387A JP 2019000387 A JP2019000387 A JP 2019000387A JP 2017118013 A JP2017118013 A JP 2017118013A JP 2017118013 A JP2017118013 A JP 2017118013A JP 2019000387 A JP2019000387 A JP 2019000387A
Authority
JP
Japan
Prior art keywords
image
tomographic image
data
photoacoustic
volume data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017118013A
Other languages
English (en)
Inventor
加藤 耕一
Koichi Kato
耕一 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017118013A priority Critical patent/JP2019000387A/ja
Priority to PCT/JP2018/021670 priority patent/WO2018230409A1/ja
Priority to EP18816978.3A priority patent/EP3639754A1/en
Publication of JP2019000387A publication Critical patent/JP2019000387A/ja
Priority to US16/709,041 priority patent/US20200113541A1/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4416Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • A61B5/0095Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy by applying light and detecting acoustic waves, i.e. photoacoustic measurements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4848Monitoring or testing the effects of treatment, e.g. of medication
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/70Means for positioning the patient in relation to the detecting, measuring or recording means
    • A61B5/708Breast positioning means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/04Arrangements of multiple sensors of the same type
    • A61B2562/046Arrangements of multiple sensors of the same type in a matrix array
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0825Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/40Positioning of patients, e.g. means for holding or immobilising parts of the patient's body
    • A61B8/406Positioning of patients, e.g. means for holding or immobilising parts of the patient's body using means for diagnosing suspended breasts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/481Diagnostic techniques involving the use of contrast agent, e.g. microbubbles introduced into the bloodstream
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Hematology (AREA)
  • Vascular Medicine (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Generation (AREA)

Abstract

【課題】 本発明は、医用画像を用いて病変部の経時観察を行う際に病変部を同定しやすい画像表示を行うことのできる情報処理装置を提供することを目的とする。【解決手段】 本発明に係る情報処理装置は、第一から第四のボリュームデータを取得し、第一のボリュームデータから、ユーザーの指示に基づいて決定された断面に対応する第一の断層画像を生成し、第二のボリュームデータから、第一の断層画像に対応する第二の断層画像を生成し、第四のボリュームデータから、第二の断層画像と類似する第三の断層画像を特定し、第三の断層画像の位置を表す情報を取得し、第三の断層画像の位置を表す情報に基づいて、第三のボリュームデータから、第三の断層画像に対応する第四の断層画像を生成し、第四の断層画像を含む画像を表示手段に表示させる。【選択図】 図2

Description

モダリティにより得られたボリュームデータに基づいて画像を表示させる情報処理装置に関する。
医師による医用画像診断においては、病変部を経時観察することが行われている。例えば、薬物治療前後でモダリティにより被検体の撮影を行い、医師が治療前後に得られた医用画像を比較して腫瘍サイズが変化したかどうかを経時観察することが行われる。
病変部の経時観察を行う方法として、特許文献1には、現在の画像と過去の画像との間の形態の差異を検出し、この差異情報を画像化することが記載されている。
特開平7−65146号公報
典型的に治療を行うと、腫瘍等の病変部の形態(大きさ、形状)の変化や、それらを伴う病変部の位置の変化などが生じる。すなわち、治療前後では病変部の様子が変化しているため、治療前の医用画像で確認された病変部を、治療後の医用画像で同定することが困難である場合がある。
そこで、本発明は、医用画像を用いて病変部の経時観察を行う際に病変部を同定しやすい画像表示を行うことのできる情報処理装置を提供することを目的とする。
本発明に係る情報処理装置は、互いに座標系が対応づけられ、かつ、互いに画像種別の異なる第一のボリュームデータ及び第二のボリュームデータを取得し、第一のボリュームデータと同じ画像種別であり、かつ、第一のボリュームデータとは座標系の異なる第三のボリュームデータを取得し、第二のボリュームデータと同じ画像種別であり、かつ、第三のボリュームデータと座標系が対応づけられた第四のボリュームデータを取得するボリュームデータ取得手段と、第一のボリュームデータから、ユーザーの指示に基づいて決定された断面に対応する第一の断層画像を生成し、第二のボリュームデータから、第一の断層画像に対応する第二の断層画像を生成する断層画像生成手段と、第四のボリュームデータから、第二の断層画像と類似する第三の断層画像を特定し、当該第三の断層画像の位置を表す情報を取得する位置情報取得手段と、表示制御手段と、を有し、断層画像生成手段は、第三の断層画像の位置を表す情報に基づいて、第三のボリュームデータから、第三の断層画像に対応する第四の断層画像を生成し、表示制御手段は、第四の断層画像を含む画像を表示手段に表示させる。
本発明に係る情報処理装置によれば、医用画像を用いて病変部の経時観察を行う際に病変部を同定しやすい画像表示を行うことができる。
比較例に係る表示画像を示す模式図 本実施形態に係る治療前後の超音波画像データ及び光音響画像データを示す模式図 本実施形態に係る表示部の表示画像を示す模式図 本実施形態に係るモダリティの構成を示すブロック図 本実施形態に係るプローブの構成を示す模式図 本実施形態に係るコンピュータ及びその周辺の構成を示すブロック図 本実施形態に係る情報処理方法のフローを示す図 本実施形態に係るGUIを示す模式図
本発明は、3次元空間の画像データを表すボリュームデータに基づいた画像の表示方法に関する発明である。
本発明は、光音響画像データ、超音波画像データ、MRI画像データ、及びCT画像データなど、あらゆるモダリティで生成されたボリュームデータに対して適用することができる。なお、光音響画像データは、光音響波の発生音圧(初期音圧)、光吸収エネルギー密度、及び光吸収係数、被検体を構成する物質の濃度(酸素飽和度など)などの少なくとも1つの被検体情報の3次元空間分布を表すボリュームデータである。
例えば、本発明は、腫瘍等の病変部に対する治療効果を経過観察する際に適用することができる。
まず、図1を用いて、本発明を適用せずに経過観察を行う場合の比較例を説明する。図1(a)は、薬物治療前に超音波診断装置により得られた超音波画像データ11を示す。超音波画像データ11は、(X,Y,Z)の装置座標系で得られたボリュームデータである。図1(a)においては、超音波画像データ11の特定のXZ面に対応する断層画像11aが、表示部160に表示されている。比較例では、断層画像11aに濃い色で示された病変部としての腫瘍像が描出されている場合を想定している。
図1(b)は、薬物治療後に超音波診断装置により得られた超音波画像データ21を示す。超音波画像データ21も、超音波画像データ11と同様に(X,Y,Z)の装置座標系で得られたボリュームデータである。図1(b)においては、断層画像11aと同じXZ面に対応する超音波画像データ21の断層画像21aが、表示部160に表示されている。
治療前後では、撮影対象の位置や形状、あるいは、プローブの位置や姿勢が異なっていることがある。そのため、装置座標系を基準として超音波画像データの座標を定義した場合、腫瘍像は治療前後の画像データ間で異なる座標に位置することとなる。本明細書では、装置座標系と撮影対象との位置関係が画像データ間で異なることを、画像データ間の座標系が異なると呼ぶ。すなわち、超音波画像データ21の座標系は、超音波画像データ11の座標系と異なっているといえる。
また、薬物治療効果の有無の判断は、治療前後の腫瘍サイズ変化を観察することにより行われることがある。このとき、薬物が完全奏効し腫瘍が消失することや、腫瘍サイズが著しく小さくなることがある。この場合、治療後の超音波画像データ21からは、治療前に腫瘍がどこにあったのかを把握できない場合がある。
以上説明したように、比較例においては次のような問題が存在する。医師は、断層画像21aの中に腫瘍像を確認できないときに、断層画像21aが治療前に腫瘍が存在した位置とは異なる位置を描出しているために腫瘍像が存在しないのか、腫瘍が消失したために腫瘍像が存在しないのかを判断できない場合がある。
そこで、本発明者は、超音波画像データとは別の画像種別のボリュームデータを参照することにより、ボリュームデータ間で病変部の位置を同定する方法を見出した。特に、本発明者は、腫瘍の形態変化の程度と比べて、血管の形態変化の程度の方が小さいことに着目した。すなわち、本発明者は、血管像を含むボリュームデータを参照することにより、治療前後であっても、病変部(腫瘍)の位置を精度よく同定できることを見出した。
例えば、血管像を含むボリュームデータとしては、光音響画像データ、MRA画像データ(Magnetic Resonance Angiography)、CTA画像データ(Computed Tomography Angiography)、造影超音波画像データなどの画像種別のボリュームデータを採用することができる。また、腫瘍像を含むボリュームデータとしては、超音波画像データ、MRI画像データ、CT画像データなどの画像種別のボリュームデータを採用することができる。なお、血管像または腫瘍像を含むボリュームデータであれば、いかなる画像種別のボリュームデータを採用してもよい。
次に、図2を用いて、本発明を適用して経過観察を行う場合の実施形態を説明する。本実施形態では、腫瘍像を含むボリュームデータとして超音波画像データを採用し、血管像を含むボリュームデータとして光音響画像データを採用した場合について説明する。
図2は、超音波画像データと光音響画像データを示す模式図である。超音波画像データ11及び光音響画像データ12は、共通のモダリティで治療前のほぼ同時期に被検体を撮影することにより得られたものであり、互いに座標系が対応づけられている。すなわち、超音波画像データ11及び光音響画像データ12において、病変部がほぼ同じ座標に描出されている。画像データ間で互いに座標系が対応付けられていると、一方の画像データで確認された病変部の位置を、もう一方の画像データで一意に同定することができる。
超音波画像データ21及び光音響画像データ22も、共通のモダリティで治療後のほぼ同時期に被検体を撮影することにより得られたものであり、互いに座標系が対応づけられている。すなわち、超音波画像データ21及び光音響画像データ22において、病変部がほぼ同じ座標に描出されている。ところが、治療前後では座標系は異なるため、超音波画像データ11と超音波画像データ21との間で病変部の位置を同定することが困難である場合がある。
以下、本実施形態に係る情報処理装置が実行する情報処理の一例を説明する。ユーザーは、治療前の超音波画像データ11の中から腫瘍像が描出された断層画像11aを指定する。情報処理装置は、ユーザーからの断層画像11aの指定を受け付けると、治療前の光音響画像データ12から、断層画像11aと同じ断面の断層画像12aを生成する。
続いて、情報処理装置は、治療後の光音響画像データ22から、治療前の断層画像12aと類似する断層画像22bを画像処理により特定する。そして、情報処理装置は、断層画像22bの位置を表す情報を取得する。このとき、治療前後で座標系は異なるため、断層画像22bの位置は、断層画像12aの位置とは異なる位置となる。なお、図2に示すように、治療後の光音響画像データ22のうち、断層画像12aと同じ断面の断層画像22aには、断層画像12aと異なる血管が描出されていることが理解される。
続いて、情報処理装置は、断層画像22bの位置を表す情報に基づいて、治療後の超音波画像データ21から、断層画像22bと同じ断面の断層画像21b(断層画像22bに対応する断層画像21b)を生成する。
図3に示すように、情報処理装置は、ユーザーが指定した治療前の断層画像11aと、情報処理装置が生成した治療後の断層画像21bとを表示部160に表示させることができる。
上述したように、治療前の断層画像11aに含まれる病変部に対応する断層画像を超音波画像データ21から直接生成することが困難である場合がある。一方、血管像を含む光音響画像データ12及び22を介して超音波画像データ間で対応する断面を探索することにより、治療前の断層画像11aに対応する治療後の断層画像21bを生成することができる。例えば、医師は治療前の超音波画像データ11の中から病変部を含む断層画像11aを指定するだけで、同じ病変部を含む治療後の断層画像21bを比較して観察することができる。これにより、医師は、比較例と比べて容易に経過観察を行うことができる。
上記実施形態では、病変部として腫瘍の経時変化を観察する例を説明したが、経時変化する病変部は腫瘍に限らない。例えば、炎症部位を経時観察するために、情報処理装置は、炎症部位の像を含むボリュームデータを取得してもよい。また、上記実施形態では、病変部に対して経時変化の少ない血管像を含むボリュームデータを取得する例を説明したが、経時変化の少ない部位は血管に限らない。例えば、情報処理装置は、病変部に対して経時変化の小さい部位としてのリンパ管及び特徴的な皮膚構造の少なくとも一つの像を含むボリュームデータを取得してもよい。
以下に図面を参照しつつ、本発明の好適な実施の形態について説明する。ただし、以下に記載されている構成部品の寸法、材質、形状およびそれらの相対配置などは、発明が適用される装置の構成や各種条件により適宜変更されるべきものであり、この発明の範囲を以下の記載に限定する趣旨のものではない。
本実施形態は、超音波画像データ及び光音響画像データに基づいた画像を表示する例を説明する。本実施形態に係るモダリティは、超音波診断装置と光音響装置の両方の機能を備えるマルチモダリティである。以下、本実施形態のモダリティの構成及び情報処理方法について説明する。
図4を用いて本実施形態に係るモダリティの構成を説明する。図4は、モダリティ全体の概略ブロック図である。本実施形態に係るモダリティは、光照射部110及び受信部120を含むプローブ180、駆動部130、信号収集部140、コンピュータ150、表示部160、及び入力部170を有する。
図5は、本実施形態に係るプローブ180の模式図を示す。測定対象は、被検体100である。駆動部130は、光照射部110と受信部120を駆動し、機械的な走査を行う。光照射部110が光を被検体100に照射し、被検体100内で音響波が発生する。光に起因して光音響効果により発生する音響波を光音響波とも呼ぶ。受信部120は、光音響波を受信することによりアナログ信号としての電気信号(光音響信号)を出力する。また、受信部120は、被検体100に対して超音波を送受信することにより、アナログ信号としての電気信号(超音波エコー信号)を出力する。
信号収集部140は、受信部120から出力されたアナログ信号をデジタル信号に変換し、コンピュータ150に出力する。コンピュータ150は、信号収集部140から出力されたデジタル信号を、光音響波及び超音波エコーに由来する信号データとして記憶する。
コンピュータ150は、記憶されたデジタル信号に対して信号処理を行うことにより、被検体100に関する情報(被検体情報)の3次元空間分布を表すボリュームデータ(光音響画像データ及び超音波画像データ)を生成する。また、コンピュータ150は、ボリュームデータに基づいた画像を表示部160に表示させる。ユーザーとしての医師は、表示部160に表示された画像を確認することにより、診断を行うことができる。表示画像は、ユーザーやコンピュータ150からの保存指示に基づいて、コンピュータ150内のメモリや、モダリティとネットワークで接続されたデータ管理システムなどに保存される。
また、コンピュータ150は、モダリティに含まれる構成の駆動制御も行う。また、表示部160は、コンピュータ150で生成された画像の他にGUIなどを表示してもよい。入力部170は、ユーザーが情報を入力できるように構成されている。ユーザーは、入力部170を用いて測定開始や終了、作成画像の保存指示などの操作を行うことができる。
以下、本実施形態に係るモダリティの各構成の詳細を説明する。
(光照射部110)
光照射部110は、光を発する光源111と、光源111から射出された光を被検体100へ導く光学系112とを含む。なお、光は、いわゆる矩形波、三角波などのパルス光を含む。
光源111が発する光のパルス幅としては、1ns以上、100ns以下のパルス幅であってもよい。また、光の波長として400nmから1600nm程度の範囲の波長であってもよい。血管を高解像度でイメージングする場合は、血管での吸収が大きい波長(400nm以上、700nm以下)を用いてもよい。生体の深部をイメージングする場合には、生体の背景組織(水や脂肪など)において典型的に吸収が少ない波長(700nm以上、1100nm以下)の光を用いてもよい。
光源111としては、レーザーや発光ダイオードを用いることができる。また、複数波長の光を用いて測定する際には、波長の変更が可能な光源であってもよい。なお、複数波長を被検体に照射する場合、互いに異なる波長の光を発生する複数台の光源を用意し、それぞれの光源から交互に照射することも可能である。複数台の光源を用いた場合もそれらをまとめて光源として表現する。レーザーとしては、固体レーザー、ガスレーザー、色素レーザー、半導体レーザーなど様々なレーザーを使用することができる。例えば、Nd:YAGレーザーやアレキサンドライトレーザーなどのパルスレーザーを光源として用いてもよい。また、Nd:YAGレーザー光を励起光とするTi:saレーザーやOPO(Optical Parametric Oscillators)レーザーを光源として用いてもよい。また、光源111としてフラッシュランプや発光ダイオードを用いてもよい。また、光源111としてマイクロウェーブ源を用いてもよい。
光学系112には、レンズ、ミラー、光ファイバ等の光学素子を用いることができる。乳房等を被検体100とする場合、パルス光のビーム径を広げて照射するために、光学系の光出射部は光を拡散させる拡散板等で構成されていてもよい。一方、光音響顕微鏡においては、解像度を上げるために、光学系112の光出射部はレンズ等で構成し、ビームをフォーカスして照射してもよい。
なお、光照射部110が光学系112を備えずに、光源111から直接被検体100に光を照射してもよい。
(受信部120)
受信部120は、音響波を受信することにより電気信号を出力するトランスデューサ121と、トランスデューサ121を支持する支持体122とを含む。また、トランスデューサ121は、音響波を送信する送信手段としてもよい。受信手段としてのトランスデューサと送信手段としてのトランスデューサとは、単一(共通)のトランスデューサでもよいし、別々の構成であってもよい。
トランスデューサ121を構成する部材としては、PZT(チタン酸ジルコン酸鉛)に代表される圧電セラミック材料や、PVDF(ポリフッ化ビニリデン)に代表される高分子圧電膜材料などを用いることができる。また、圧電素子以外の素子を用いてもよい。例えば、静電容量型トランスデューサ(CMUT:Capacitive Micro−machined Ultrasonic Transducers)、ファブリペロー干渉計を用いたトランスデューサなどを用いることができる。なお、音響波を受信することにより電気信号を出力できる限り、いかなるトランスデューサを採用してもよい。また、トランスデューサにより得られる信号は時間分解信号である。つまり、トランスデューサにより得られる信号の振幅は、各時刻にトランスデューサで受信される音圧に基づく値(例えば、音圧に比例した値)を表したものである。
光音響波を構成する周波数成分は、典型的には100KHzから100MHzであり、トランスデューサ121として、これらの周波数を検出することのできるものを採用することができる。
支持体122は、機械的強度が高い金属材料などから構成されていてもよい。照射光を被検体に多く入射させるために、支持体122の被検体100側の表面に鏡面もしくは光散乱させる加工が行われていてもよい。本実施形態において支持体122は半球殻形状であり、半球殻上に複数のトランスデューサ121を支持できるように構成されている。この場合、支持体122に配置されたトランスデューサ121の指向軸は半球の曲率中心付近に集まる。そして、複数のトランスデューサ121から出力された信号を用いて画像化したときに曲率中心付近の画質が高くなる。なお、支持体122はトランスデューサ121を支持できる限り、いかなる構成であってもよい。支持体122は、1Dアレイ、1.5Dアレイ、1.75Dアレイ、2Dアレイと呼ばれるような平面又は曲面内に、複数のトランスデューサを並べて配置してもよい。複数のトランスデューサ121が複数の受信手段に相当する。
また、支持体122は音響マッチング材210を貯留する容器として機能してもよい。すなわち、支持体122をトランスデューサ121と被検体100との間に音響マッチング材210を配置するための容器としてもよい。
また、受信部120が、トランスデューサ121から出力される時系列のアナログ信号を増幅する増幅器を備えてもよい。また、受信部120が、トランスデューサ121から出力される時系列のアナログ信号を時系列のデジタル信号に変換するA/D変換器を備えてもよい。すなわち、受信部120が後述する信号収集部140を備えてもよい。
なお、音響波を様々な角度で検出できるようにするために、理想的には被検体100を全周囲から囲むようにトランスデューサ121を配置してもよい。ただし、被検体100が大きく全周囲を囲むようにトランスデューサを配置できない場合は、半球状の支持体122上にトランスデューサを配置して全周囲を囲む状態に近づけてもよい。
受信部120は、把持部を含むハンドヘルド型であってもよい。また、受信部120は、トランスデューサ121を機械的に移動させる駆動部を含む機械走査型であってもよい。
なお、トランスデューサの配置や数及び支持体の形状は被検体に応じて最適化すればよく、本発明に関してはあらゆる受信部120を採用することができる。
受信部120と被検体100との間の空間は、光音響波が伝播することができる媒質で満たす。この媒質には、音響波が伝搬でき、被検体100やトランスデューサ121との界面において音響特性が整合し、できるだけ光音響波の透過率が高い材料を採用する。例えば、この媒質には、水、超音波ジェルなどを採用することができる。
図5(a)は、プローブ180の側面図を示し、図5(b)は、プローブ180の上面図(図5(a)の紙面上方向から見た図)を示す。図5に示された本実施形態に係るプローブ180は、開口を有する半球状の支持体122に複数のトランスデューサ121が3次元に配置された受信部120を有する。また、図5に示されたプローブ180は、支持体122の底部に光学系112の光射出部が配置されている。
本実施形態においては、図5に示すように被検体100は、保持部200に接触することにより、その形状が保持される。本実施形態では、被検体100が乳房の場合に、伏臥位の被検者を支持する寝台に乳房を挿入するための開口を設けて、開口から鉛直方向に垂らされた乳房を測定する形態を想定している。
受信部120と保持部200の間の空間は、光音響波が伝播することができる媒質(音響マッチング材210)で満たされる。この媒質には、光音響波が伝搬でき、被検体100やトランスデューサ121との界面において音響特性が整合し、できるだけ光音響波の透過率が高い材料を採用する。例えば、この媒質には、水、超音波ジェルなどを採用することができる。
保持手段としての保持部200は被検体100の形状を測定中に保持するために使用される。保持部200により被検体100を保持することによって、被検体100の動きの抑制および被検体100の位置を保持部200内に留めることができる。保持部200の材料には、ポリカーボネートやポリエチレン、ポリエチレンテレフタレート等、樹脂材料を用いることができる。
保持部200は、被検体100を保持できる硬度を有する材料であることが好ましい。保持部200は、測定に用いる光を透過する材料であってもよい。保持部200は、インピーダンスが被検体100と同程度の材料で構成されていてもよい。乳房等の曲面を有するものを被検体100とする場合、凹型に成型した保持部200であってもよい。この場合、保持部200の凹部分に被検体100を挿入することができる。
保持部200は、取り付け部201に取り付けられている。取り付け部201は、被検体の大きさに合わせて複数種類の保持部200を交換可能に構成されていてもよい。例えば、取り付け部201は、曲率半径や曲率中心などの異なる保持部に交換できるように構成されていてもよい。
また、保持部200には保持部200の情報が登録されたタグ202が設置されていてもよい。例えば、タグ202には、保持部200の曲率半径、曲率中心、音速、識別ID等の情報を登録することができる。タグ202に登録された情報は、読み取り部203により読み出され、コンピュータ150に転送される。保持部200が取り付け部201に取り付けられたときに容易にタグ202を読み取るために、読み取り部203は取り付け部201に設置されていてもよい。例えば、タグ202はバーコードであり、読み取り部203はバーコードリーダである。
(駆動部130)
駆動部130は、被検体100と受信部120との相対位置を変更する部分である。本実施形態では、駆動部130は、支持体122をXY方向に移動させる装置であり、ステッピングモーターを搭載した電動のXYステージある。駆動部130は、駆動力を発生させるステッピングモーターなどのモーターと、駆動力を伝達させる駆動機構と、受信部120の位置情報を検出する位置センサとを含む。駆動機構としては、リードスクリュー機構、リンク機構、ギア機構、油圧機構、などを用いることができる。また、位置センサとしては、エンコーダー、可変抵抗器、などを用いたポテンショメータなどを用いることができる。
なお、駆動部130は被検体100と受信部120との相対位置をXY方向(二次元)に変更させるものに限らず、一次元または三次元に変更させてもよい。移動経路は平面的にスパイラル状やライン&スペースで走査してもよいし、さらに三次元的に体表に沿うように傾けてもよい。また、被検体100の表面からの距離を一定に保つようにしてプローブ180を移動させてもよい。このとき駆動部130は、モーターの回転数をモニターするなどしてプローブの移動量を計測してもよい。
なお、駆動部130は、被検体100と受信部120との相対的な位置を変更できれば、受信部120を固定し、被検体100を移動させてもよい。被検体100を移動させる場合は、被検体100を保持する保持部を動かすことで被検体100を移動させる構成などが考えられる。また、被検体100と受信部120の両方を移動させてもよい。
駆動部130は、相対位置を連続的に移動させてもよいし、ステップアンドリピートによって移動させてもよい。駆動部130は、プログラムされた軌跡で移動させる電動ステージであってもよいし、手動ステージであってもよい。すなわち、本実施形態に係るモダリティは、駆動部130を有さずに、ユーザーがプローブ180を把持して操作するハンドヘルドタイプであってもよい。
また、本実施形態では、駆動部130は光照射部110と受信部120を同時に駆動して走査を行っているが、光照射部110だけを駆動したり、受信部120だけを駆動したりしてもよい。
(信号収集部140)
信号収集部140は、トランスデューサ121から出力されたアナログ信号である電気信号を増幅するアンプと、アンプから出力されたアナログ信号をデジタル信号に変換するA/D変換器とを含む。信号収集部140は、FPGA(Field Programmable Gate Array)チップなどで構成されてもよい。信号収集部140から出力されるデジタル信号は、コンピュータ150内の記憶部152に記憶される。信号収集部140は、Data Acquisition System(DAS)とも呼ばれる。本明細書において電気信号は、アナログ信号もデジタル信号も含む概念である。なお、信号収集部140は、光照射部110の光射出部に取り付けられた光検出センサと接続されており、光が光照射部110から射出されたことをトリガーに、同期して処理を開始してもよい。また、信号収集部140は、フリーズボタンなどを用いてなされる指示をトリガーに同期して、当該処理を開始してもよい。
(コンピュータ150)
情報処理装置としてのコンピュータ150は、演算部151、記憶部152、制御部153を含む。各構成の機能については処理フローの説明の際に説明する。
演算部151としての演算機能を担うユニットは、CPUやGPU(Graphics Processing Unit)等のプロセッサ、FPGA(Field Programmable Gate Array)チップ等の演算回路で構成されることができる。これらのユニットは、単一のプロセッサや演算回路から構成されるだけでなく、複数のプロセッサや演算回路から構成されていてもよい。演算部151は、入力部170から、被検体音速や保持部の構成などの各種パラメータを受けて、受信信号を処理してもよい。
記憶部152は、ROM(Read only memory)、磁気ディスクやフラッシュメモリなどの非一時記憶媒体で構成することができる。また、記憶部152は、RAM(Random Access Memory)などの揮発性の媒体であってもよい。なお、プログラムが格納される記憶媒体は、非一時記憶媒体である。なお、記憶部152は、1つの記憶媒体から構成されるだけでなく、複数の記憶媒体から構成されていてもよい。
記憶部152は、後述する方法で演算部151により生成される光音響画像を示す画像データを保存することができる。
制御部153は、CPUなどの演算素子で構成される。制御部153は、モダリティの各構成の動作を制御する。制御部153は、入力部170からの測定開始などの各種操作による指示信号を受けて、モダリティの各構成を制御してもよい。また、制御部153は、記憶部152に格納されたプログラムコードを読み出し、モダリティの各構成の作動を制御する。
コンピュータ150は専用に設計されたワークステーションであってもよい。また、コンピュータ150の各構成は異なるハードウェアによって構成されてもよい。また、コンピュータ150の少なくとも一部の構成は単一のハードウェアで構成されてもよい。
図6は、本実施形態に係るコンピュータ150の具体的な構成例を示す。本実施形態に係るコンピュータ150は、CPU154、GPU155、RAM156、ROM157、外部記憶装置158から構成される。また、コンピュータ150には、表示部160としての液晶ディスプレイ161、入力部170としてのマウス171、キーボード172が接続されている。
また、コンピュータ150および複数のトランスデューサ121は、共通の筺体に収められた構成で提供されてもよい。ただし、筺体に収められたコンピュータで一部の信号処理を行い、残りの信号処理を筺体の外部に設けられたコンピュータで行ってもよい。この場合、筺体の内部および外部に設けられたコンピュータを総称して、本実施形態に係るコンピュータとすることができる。すなわち、コンピュータを構成するハードウェアが一つの筺体に収められていなくてもよい。
(表示部160)
表示部160は、液晶ディスプレイや有機EL(Electro Luminescence)FED、メガネ型ディスプレイ、ヘッドマウントディスプレイなどのディスプレイである。コンピュータ150により得られたボリュームデータに基づいた画像や特定位置の数値等を表示する装置である。表示部160は、ボリュームデータに基づいた画像や装置を操作するためのGUIを表示してもよい。なお、被検体情報の表示にあたっては、表示部160またはコンピュータ150において画像処理(輝度値の調整等)を行った上で表示することもできる。表示部160は、モダリティとは別に提供されていてもよい。コンピュータ150は、光音響画像データを有線または無線で表示部160へ送信することができる。
(入力部170)
入力部170としては、ユーザーが操作可能な、マウスやキーボードなどで構成される操作コンソールを採用することができる。また、表示部160をタッチパネルで構成し、表示部160を入力部170として利用してもよい。
入力部170は、観察したい位置や深さの情報などを入力できるように構成されていてもよい。入力方法としては、数値を入力してもよいし、スライダーバーを操作することにより入力ができてもよい。また、入力された情報に応じて表示部160に表示される画像が更新されていってもよい。これにより、ユーザーは自身の操作によって決定されたパラメータにより生成された画像を確認しながら、適切なパラメータに設定できる。
なお、モダリティの各構成はそれぞれ別の装置として構成されてもよいし、一体となった1つの装置として構成されてもよい。また、モダリティの少なくとも一部の構成が一体となった1つの装置として構成されてもよい。
また、モダリティの各構成間で送受信される情報は、有線または無線でやりとりがなされる。
(被検体100)
被検体100はモダリティを構成するものではないが、以下に説明する。本実施形態に係るモダリティは、人や動物の悪性腫瘍や血管疾患などの診断や化学治療の経過観察などを目的として使用できる。よって、被検体100としては、生体、具体的には人体や動物の乳房や各臓器、血管網、頭部、頸部、腹部、手指および足指を含む四肢などの診断の対象部位が想定される。例えば、人体を光音響装置により撮影する場合、オキシヘモグロビンあるいはデオキシヘモグロビンやそれらを含む多く含む血管あるいは腫瘍の近傍に形成される新生血管などを光吸収体の対象としてもよい。また、頸動脈壁のプラークなどを光吸収体の対象としてもよい。また、メチレンブルー(MB)、インドシニアングリーン(ICG)などの色素、金微粒子、またはそれらを集積あるいは化学的に修飾した外部から導入した物質を光吸収体としてもよい。また、人体をMRA、CTA、造影超音波エコーでイメージングする場合は、それぞれガドリニウム造影剤、ヨード造影剤、ペルフルブタンマイクロバブル造影剤などに代表される造影剤を使用してもよい。
次に、本実施形態に係る情報処理を含む画像表示方法を、図7を参照して説明する。なお、各工程は、コンピュータ150がモダリティの構成の動作を制御することにより実行される。
(S100:第一の超音波画像データ及び第一の光音響画像データを取得する工程)
本実施形態に係るモダリティは、治療前の被検体100を撮影することにより、超音波画像データ11及び光音響画像データ12を生成し、記憶部152に保存する。本実施形態においては、治療前の同時期に超音波画像データ11と光音響画像データ12を生成するため、互いの画像データは座標系が対応づいている。すなわち、それぞれの画像データについては、モダリティの装置座標系と被検体100との位置関係が対応づいている。本実施形態においては、治療前に得られた超音波画像データを、第一の超音波画像データ(第一のボリュームデータ)と呼ぶ。また、治療前に得られた光音響画像データを、第一の光音響画像データ(第二のボリュームデータ)と呼ぶ。以下、本実施形態に係るモダリティによる画像データの生成方法を説明する。
まずユーザーが、被検体情報の取得のために必要な光照射部110の照射条件(繰り返し周波数や波長など)やプローブ180の位置などの制御パラメータを、入力部170を用いて指定する。コンピュータ150は、ユーザーの指示に基づいて決定された制御パラメータを設定する。また、コンピュータ150は、予め決定された制御パラメータを設定してもよい。
制御部153が、設定された制御パラメータに基づいて、駆動部130にプローブ180を指定の位置へ移動させる。複数位置での撮像が指定された場合には、駆動部130は、まずプローブ180を最初の指定位置へ移動させる。なお、駆動部130は、測定の開始指示がなされたときに、あらかじめプログラムされた位置にプローブ180を移動させてもよい。なお、ハンドヘルド型の場合、ユーザーがプローブ180を把持して所望の位置まで移動させてもよい。
光照射部110は、ユーザーにより指定された制御パラメータに基づいて、被検体100に光を照射する。光源111から発生した光は、光学系112を介してパルス光として被検体100に照射される。そして、被検体100内部でパルス光が吸収され、光音響効果により光音響波が生じる。光照射部110はパルス光の伝送と併せて信号収集部140へ同期信号を送信する。
信号収集部140は、光照射部110から送信された同期信号を受信すると、信号収集の動作を開始する。すなわち、信号収集部140は、受信部120から出力された光音響波に由来するアナログ電気信号を、増幅・AD変換することにより、増幅されたデジタル電気信号を生成し、コンピュータ150へ出力する。コンピュータ150は、信号収集部140から送信された信号を記憶部152に保存する。このようにして、コンピュータ150は、光音響信号データを取得することができる。
モダリティが光音響波に由来するデジタル信号の生成を行う一方で、受信部120は、被検体100に対して超音波の送受信を行うことにより、超音波エコーに由来するアナログ電気信号を出力する。また、受信部120は、超音波の送信と併せて信号収集部140に同期信号を送信する。
信号収集部140は、受信部120から送信された同期信号を受信すると、信号収集の動作を開始する。すなわち、信号収集部140は、受信部120から出力された超音波エコーに由来するアナログ電気信号を、増幅・AD変換することにより、増幅されたデジタル電気信号を生成し、コンピュータ150へ出力する。コンピュータ150は、信号収集部140から送信された信号を記憶部152に保存する。このようにして、コンピュータ150は、超音波エコー信号データを取得することができる。超音波の送受信は、光音響波の受信を妨げないタイミングに行うことが好ましい。そのため、光音響波の励起のためのパルス光の照射と、その次の光照射との間に超音波の送受信を行ってもよい。
なお、複数の走査位置での撮像が設定された場合には、各走査位置において上述したパルス光の照射、超音波の送受信、及び音響波に由来するデジタル信号の生成を繰り返すことができる。
コンピュータ150内の演算部151は、記憶部152に記憶された光音響信号データに基づいて、ボリュームデータとしての第一の光音響画像データを生成し、記憶部152に保存する。また、演算部151は、記憶部に記憶された超音波信号データに基づいて、ボリュームデータとしての第一の超音波画像データを生成し、記憶部152に保存する。
ここで、信号データを3次元空間分布としてのボリュームデータに変換する再構成アルゴリズムとしては、タイムドメインでの逆投影法、フーリエドメインでの逆投影法、モデルベース法(繰り返し演算法)などのあらゆる手法を採用することができる。例えば、タイムドメインでの逆投影法として、Universal back−projection(UBP)、Filtered back−projection(FBP)、または整相加算(Delay−and−Sum)などが挙げられる。例えば、演算部151は、光音響画像データとしての音響波の発生音圧(初期音圧)の3次元空間分布を取得する再構成の手法として、式(1)で表されるUBP法を採用してもよい。
ここで、rは再構成する位置(再構成位置、注目位置とも呼ぶ)を示す位置ベクトル、p(r,t)は再構成する位置での初期音圧、cは伝搬経路の音速を示す。また、ΔΩは再構成する位置からi番目のトランスデューサ121を見込む立体角、Nは再構成に用いるトランスデューサ121の個数を示す。式(1)は、受信信号p(r,t)に微分等の処理を行い、それらに立体角の加重をかけて整相加算すること(逆投影)を示している。式(1)のtは、注目位置とトランスデューサ121とを結ぶ音線を光音響波が伝搬する時間(伝搬時間)である。なお、b(r、t)の計算においては、他にも演算処理を施してもよい。例えば、周波数フィルタリング(ローパス、ハイパス、バンドパス等)、デコンボリューション、包絡線検波、ウェーブレットフィルタリング、等である。
また、演算部151は、被検体100に照射された光の被検体100の内部での光フルエンス分布を計算し、初期音圧分布を光フルエンス分布で除算することにより、吸収係数分布情報を取得してもよい。この場合、吸収係数分布情報を光音響画像データとして取得してもよい。コンピュータ150は、光を吸収、散乱する媒質における光エネルギーの挙動を示す輸送方程式や拡散方程式を数値的に解く方法により、被検体100の内部における光フルエンスの空間分布を算出することができる。数値的に解く方法としては、有限要素法、差分法、モンテカルロ法等を採用することができる。例えば、コンピュータ150は、式(2)に示す光拡散方程式を解くことにより、被検体100の内部における光フルエンスの空間分布を算出してもよい。
ここで、Dは拡散係数、μは吸収係数、Sは照射光の入射強度、φは到達する光フルエンス、rは位置、tは時間を示す。
また、複数の波長の光を用いて、S300、S400の工程を実行し、演算部151は、複数の波長の光のそれぞれに対応する吸収係数分布情報を取得してもよい。そして、演算部151は、複数の波長の光のそれぞれに対応する吸収係数分布情報に基づいて、分光情報として被検体100を構成する物質の濃度の空間分布情報を、光音響画像データとして取得してもよい。すなわち、演算部151は、複数の波長の光に対応する信号データを用いて、分光情報を取得してもよい。
なお、本実施形態では、モダリティが画像データを生成することにより、コンピュータ150が画像データを取得する例を説明したが、コンピュータ150が記憶部に保存された画像データを読み出すことにより、画像データを取得してもよい。例えば、ボリュームデータ取得手段としてのコンピュータ150は、事前にモダリティで生成されたボリュームデータをPACS(Picture Archiving and Communication System)等の記憶部から読み出すことにより取得してもよい。このように、本発明に係る情報処理方法は、事前に生成されたボリュームデータに対しても適用することができる。
(S200:第二の超音波画像データ及び第二の光音響画像データを取得する工程)
本実施形態に係るモダリティは、治療後の被検体100を撮影することにより、超音波画像データ21及び光音響画像データ22を生成し、記憶部152に保存する。本実施形態においては、治療後の同時期に超音波画像データ21と光音響画像データ22を生成するため、互いの画像データは座標系が対応づいている。すなわち、それぞれの画像データについては、モダリティの装置座標系と被検体100との位置関係が対応づいている。本実施形態においては、治療後に得られた超音波画像データ21を、第二の超音波画像データ(第三のボリュームデータ)と呼ぶ。また、治療後に得られた光音響画像データを、第二の光音響画像データ(第四のボリュームデータ)と呼ぶ。画像データの生成方法については、S100で説明した方法と同様である。
(S300:第一の超音波画像データに基づいた第一の超音波断層画像を表示する工程)
断層画像取得手段としてのコンピュータ150は、超音波画像データ11に基づいて、断層画像11aを生成し、記憶部152に保存する。そして、表示制御手段としてのコンピュータ150は、断層画像11aを表示部160に表示させる。本実施形態においては、治療前の超音波画像データ11に基づいて生成された断層画像11aを、第一の超音波断層画像(または第一の断層画像)と呼ぶ。
図8は、本実施形態に係る表示部160に表示されたGUIを示す。表示部160には、ユーザーの指示に基づいてスライス位置を調整可能なスライダー81、ユーザーの指示に基づいてスラブ厚を調整可能なスライダー82、及び治療後の断層画像の表示の有無を切り替えるアイテム83がGUIとして表示されている。図8(a)は、治療後の断層画像の表示をさせない表示モードのときの表示画面を示す。図8(b)は、治療後の断層画像を表示させる表示モードのときの表示画面を示す。
図8(a)の表示部160には、ユーザーの指示に基づいて決定されたスライス位置とスラブ厚で生成された断層画像11aが表示されている。断層画像11aは、図2に示した治療前の超音波画像データ11の断層画像である。ここでは、ユーザーが超音波画像データ11の中から腫瘍が描出された断層画像をスライダー81及び82を操作しながら探索することができる。
本実施形態において断層画像とは、特定の面に位置するボクセルの集合であってもよいし、ある領域のボクセル群をレンダリングすることにより得られる画像であってもよい。レンダリング方法としては、最大値投影法(MIP)、最小値投影法(MinIP)、Ray Sum、平均値投影法、中央値投影法、ボリュームレンダリング、サーフェイスレンダリングなどの公知のあらゆる手法を採用することができる。図8に示す例では、スライダー81で決定されたスライス位置を基準とした、スライダー82で決定されたスラブ厚に対応するボクセル群をレンダリングすることにより得られた画像を断層画像としている。
(S400:第一の光音響画像データから、第一の超音波断層画像に対応する第一の光音響断層画像を生成する工程)
コンピュータ150は、光音響画像データ12から、断層画像11aに対応する断層画像12aを生成し、保存する。本実施形態においては、断層画像11aに対応する治療前の光音響画像データ12の断層画像12aを、第一の光音響断層画像(第二の断層画像)と呼ぶ。
図8(a)には、超音波画像データ11の断層画像11aと、光音響画像データ12の断層画像12aとが並べて表示されている。断層画像11aと断層画像12aとは表示断面が対応づいており、同じ位置の画像を描出していることとなる。ただし、画像種別が異なるため、断層画像11aには主に腫瘍が描出されており、断層画像12aには主に血管が描出されている。
なお、本実施形態では、コンピュータ150が断層画像11aと断層画像12aとを並列表示させる例を説明したが、重畳表示させてもよいし、切替表示させてもよい。また、医師が腫瘍像のみを観察したい場合、コンピュータ150は、断層画像11aのみを表示部160に表示させ、断層画像12aを表示部160に表示させなくてもよい。
また、本実施形態では、ボリュームデータから断層画像11a及び断層画像12aを生成する例を説明したが、コンピュータ150は、ボリュームデータを介さずに断層画像11a及び断層画像12aを取得してもよい。例えば、コンピュータ150は、信号データから断層画像11a及び断層画像12aを生成してもよいし、予め生成された断層画像11a及び断層画像12aを記憶部152から読み出すことにより取得してもよい。
(S500:第二の光音響画像データから、第一の光音響断層画像と類似する第二の光音響断層画像の位置を特定する工程)
位置情報取得手段としてのコンピュータ150は、治療後の光音響画像データ22から、断層画像12aと類似する断層画像22bを特定し、その断層画像の位置を表す情報を取得する。本実施形態において、断層画像12aと類似する断層画像22bを、第二の光音響断層画像(第三の断層画像)と呼ぶ。
例えば、コンピュータ150は、断層画像12aと、光音響画像データ22の各断面の画像との間の類似度を算出し、類似度が高くなる断面の位置を表す情報を取得してもよい。コンピュータ150は、類似度が所定の閾値よりも高くなったときの光音響画像データ22の断層画像を、断層画像12aと類似する断層画像として決定してもよい。また、コンピュータ150は、断層画像12aと、光音響画像データ22の複数の断層画像との類似度を算出し、その中で最も高い類似度となった断層画像を、断層画像12aと類似する断層画像として決定してもよい。
例えば、類似度を算出する関数としては、SSD(Sum of Squared Difference)やSAD(Sum of Absolute Difference)、相互情報量、相互相関など、任意の類似度尺度が適用できる。また、例えば、光音響画像データから特徴的な形態を抽出し、それらの位置との一致度を測ることによって類似度関数を取得してもよい。抽出する特徴としては、血管などの解剖学的な特徴、エッジ検出やコーナー検出などの画像処理分野で一般的に用いられる公知の技術によって抽出された特徴を用いてもよい。また、抽出する特徴としては、コンピュータビジョン等の技術分野で一般的に使われるSIFT特徴やSURF特徴などのより高次の局所画像特徴等を用いてもよい。これらの方法によれば、画像データ間の輝度分布の相違やノイズの混入などに対して、より頑健な類似度関数を取得することができる。
また、表示部160に断層画像12aを表示させ、並列して光音響画像データ22の断層画像22aを表示させ、ユーザーが光音響画像データ22のスライス位置をスライダー81によって変更することにより、断層画像12aと類似している画像である断層画像22bを探索し、決定してもよい。すなわち、コンピュータ150は、ユーザーの指示に基づいて、断層画像22bの位置を表す情報を取得してもよい。
なお、断層画像12aと比較する光音響画像データ22の各断面の画像については、ある領域のボクセル群をレンダリングすることにより得られた画像であってもよい。その場合、光音響画像データ22の各断面の画像は、断層画像12aを生成したときのボリュームと同程度のボリュームをレンダリングして得られた画像であってもよい。
また、光音響画像データ12及び22から血管画像の特徴を記述する基底画像(φ)を生成し、基底画像同士を比較することにより、光音響画像データ22から断層画像12aと類似する断面を特定してもよい。なお、断層画像12aから血管画像の特徴を記述する基底画像を生成し、基底画像としての光音響画像データ22と比較してもよい。例えば、基底画像の生成方法としては、主成分分析、独立主成分分析、非負行列因数分解、スパース信号分解などがある。このような方法により画像の特徴を記述する基底画像が得られれば、光音響画像データから得られる血管画像p0,vesselは基底画像を用いて、式(3)のように近似的に表現できる。

・・・(3)
ここでa(i=0・・・n)は各基底での係数である。なお、得られた基底を並べた基底行列をΦ=(φ、・・・、φ)、得られた係数を並べた係数ベクトルをa=(a0、a1、・・・、an)とすると、式(3)は行列を用いてp0,vessel=Φaで表現できる。
(S600:第二の超音波画像データから、第二の光音響断層画像に対応する第二の超音波断層画像を生成する工程)
コンピュータ150は、断層画像22bの位置を表す情報に基づいて、超音波画像データ21から、断層画像22bに対応する断層画像21bを生成し、保存する。このとき、コンピュータ150は、断層画像21bの位置を表す情報を取得し、保存してもよい。本実施形態において、断層画像22bに対応する治療後の超音波画像データ21の断層画像21bを、第二の超音波断層画像(第四の断層画像)と呼ぶ。このように、治療前の断層画像11aと同じ病変部が描出された治療後の断層画像21bを生成することができる。
(S700:第一及び第二の超音波断層画像を表示する工程)
コンピュータ150は、図8(b)に示すように、断層画像11a及び断層画像21bを含む画像を表示部160に表示させる。断層画像11aと断層画像21bとは同じ病変部を描出しているため、このように両画像を含む画像を表示させることにより、医師は病変部の経過観察を行うことができる。
本実施形態においては、図8(a)の状態のときにユーザーが入力部170を用いてアイテム83を操作することにより、図8(b)の状態に切り替わる。すなわち、コンピュータ150は、ユーザーの指示に基づいて、治療後の断層画像21bの表示の有無を切り替えることができる。また、コンピュータ150は、治療後の断層画像21bが表示されているときのユーザーの指示に基づいて、治療前の断層画像11aの表示の有無を切り替えてもよい。また、コンピュータ150は、治療後の断層画像21bと、治療後の断層画像22bとを並列表示、重畳表示、及び切替表示の少なくとも一つの表示方法で表示部160に表示させてもよい。
なお、本工程では、断層画像22bを表示する例を説明したが、コンピュータ150は、断層画像22bの位置を表す情報を取得し、記憶部152に保存してもよい。すなわち、本実施形態においては、断層画像22bを表示しなくてもよい。また、断層画像22bの位置は、断層画像12bの位置から同定することができるため、コンピュータ150は、断層画像12bの位置を表す情報を取得し、記憶部152に保存し、断層画像22bの位置を表す情報を取得しなくてもよい。
なお、本実施形態では、光音響画像データ間で類似する画像を参照することにより、超音波画像データから病変部を同定することのできる画像を生成する例を説明したが、前述したようにその他のモダリティで得られたボリュームデータに対しても適用することができる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
11 治療前の超音波画像データ(第一の超音波画像データ、第一のボリュームデータ)
12 治療前の光音響画像データ(第一の光音響画像データ、第二のボリュームデータ)
21 治療後の超音波画像データ(第二の超音波画像データ、第三のボリュームデータ)
22 治療後の光音響画像データ(第二の光音響画像データ、第四のボリュームデータ)
150 コンピュータ
160 表示部

Claims (11)

  1. 互いに座標系が対応づけられ、かつ、互いに画像種別の異なる第一のボリュームデータ及び第二のボリュームデータを取得し、
    前記第一のボリュームデータと同じ画像種別であり、かつ、前記第一のボリュームデータとは座標系の異なる第三のボリュームデータを取得し、
    前記第二のボリュームデータと同じ画像種別であり、かつ、前記第三のボリュームデータと座標系が対応づけられた第四のボリュームデータを取得するボリュームデータ取得手段と、
    前記第一のボリュームデータから、ユーザーの指示に基づいて決定された断面に対応する第一の断層画像を生成し、
    前記第二のボリュームデータから、前記第一の断層画像に対応する第二の断層画像を生成する断層画像生成手段と、
    前記第四のボリュームデータから、前記第二の断層画像と類似する第三の断層画像を特定し、当該第三の断層画像の位置を表す情報を取得する位置情報取得手段と、
    表示制御手段と、
    を有し、
    前記断層画像生成手段は、
    前記第三の断層画像の位置を表す情報に基づいて、前記第三のボリュームデータから、前記第三の断層画像に対応する第四の断層画像を生成し、
    前記表示制御手段は、
    前記第四の断層画像を含む画像を表示手段に表示させる
    ことを特徴とする情報処理装置。
  2. 前記第一及び第三のボリュームデータは、腫瘍または炎症部位の像を含むボリュームデータである
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記第二及び第四のボリュームデータは、血管、リンパ管、及び皮膚の少なくとも一つの像を含むボリュームデータである
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記第一及び第三のボリュームデータは、超音波画像データ、MRI画像データ、またはCT画像データである
    ことを特徴とする請求項1に記載の情報処理装置。
  5. 前記第二及び第四のボリュームデータは、光音響画像データ、MRA画像データ、CTA画像データ、または造影超音波画像データである
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記表示制御手段は、
    前記第一の断層画像と前記第四の断層画像を含む画像を前記表示手段に表示させる
    ことを特徴とする請求項1に記載の情報処理装置。
  7. 第一の超音波画像データを取得し、
    前記第一の超音波画像データと座標系が対応づけられた第一の光音響画像データを取得し、
    前記第一の超音波画像データとは座標系の異なる第二の超音波画像データを取得し、
    前記第二の超音波画像データと座標系が対応づけられた第二の光音響画像データを取得する画像データ取得手段と、
    前記第一の超音波画像データから、ユーザーの指示に基づいて決定された断面に対応する第一の超音波断層画像を生成し、
    前記第一の光音響画像データから、前記第一の超音波断層画像に対応する第一の光音響断層画像を生成する断層画像生成手段と、
    前記第二の光音響画像データから、前記第一の光音響断層画像と類似する第二の光音響断層画像を特定し、当該第二の光音響断層画像の位置を表す情報を取得する位置情報取得手段と、
    表示制御手段と、
    を有し、
    前記断層画像生成手段は、
    前記第二の光音響断層画像の位置を表す情報に基づいて、前記第二の超音波画像データから、前記第二の光音響断層画像に対応する第二の超音波断層画像を生成し、
    前記表示制御手段は、
    前記第二の超音波断層画像を含む画像を表示手段に表示させる
    ことを特徴とする情報処理装置。
  8. 前記表示制御手段は、
    前記第一の超音波断層画像と前記第二の超音波断層画像を含む画像を前記表示手段に表示させる
    ことを特徴とする請求項7に記載の情報処理装置。
  9. 互いに座標系が対応づけられ、かつ、互いに画像種別の異なる第一のボリュームデータ及び第二のボリュームデータを取得し、
    前記第一のボリュームデータと同じ画像種別であり、かつ、前記第一のボリュームデータとは座標系の異なる第三のボリュームデータを取得し、
    前記第二のボリュームデータと同じ画像種別であり、かつ、前記第三のボリュームデータと座標系が対応づけられた第四のボリュームデータを取得し、
    前記第一のボリュームデータから、ユーザーの指示に基づいて決定された断面に対応する第一の断層画像を生成し、
    前記第二のボリュームデータから、前記第一の断層画像に対応する第二の断層画像を生成し、
    前記第四のボリュームデータから、前記第二の断層画像と類似する第三の断層画像を特定し、当該第三の断層画像の位置を表す情報を取得し、
    前記第三の断層画像の位置を表す情報に基づいて、前記第三のボリュームデータから、前記第三の断層画像に対応する第四の断層画像を生成し、
    前記第四の断層画像を含む画像を表示手段に表示させる
    ことを特徴とする情報処理方法。
  10. 第一の超音波画像データを取得し、
    前記第一の超音波画像データと座標系が対応づけられた第一の光音響画像データを取得し、
    前記第一の超音波画像データとは座標系の異なる第二の超音波画像データを取得し、
    前記第二の超音波画像データと座標系が対応づけられた第二の光音響画像データを取得し、
    前記第一の超音波画像データから、ユーザーの指示に基づいて決定された断面に対応する第一の超音波断層画像を生成し、
    前記第一の光音響画像データから、前記第一の超音波断層画像に対応する第一の光音響断層画像を生成し、
    前記第二の光音響画像データから、前記第一の光音響断層画像と類似する第二の光音響断層画像を特定し、当該第二の光音響断層画像の位置を表す情報を取得し、
    前記第二の光音響断層画像の位置を表す情報に基づいて、前記第二の超音波画像データから、前記第二の光音響断層画像に対応する第二の超音波断層画像を生成し、
    前記第二の超音波断層画像を含む画像を表示手段に表示させる
    ことを特徴とする情報処理方法。
  11. 請求項9または10に記載の情報処理方法をコンピュータに実行させるためのプログラム。
JP2017118013A 2017-06-15 2017-06-15 情報処理装置、情報処理方法、及びプログラム Pending JP2019000387A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017118013A JP2019000387A (ja) 2017-06-15 2017-06-15 情報処理装置、情報処理方法、及びプログラム
PCT/JP2018/021670 WO2018230409A1 (ja) 2017-06-15 2018-06-06 情報処理装置、情報処理方法、及びプログラム
EP18816978.3A EP3639754A1 (en) 2017-06-15 2018-06-06 Information processing device, information processing method, and program
US16/709,041 US20200113541A1 (en) 2017-06-15 2019-12-10 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017118013A JP2019000387A (ja) 2017-06-15 2017-06-15 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2019000387A true JP2019000387A (ja) 2019-01-10

Family

ID=64659891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017118013A Pending JP2019000387A (ja) 2017-06-15 2017-06-15 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US20200113541A1 (ja)
EP (1) EP3639754A1 (ja)
JP (1) JP2019000387A (ja)
WO (1) WO2018230409A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021251776A1 (ko) * 2020-06-12 2021-12-16 연세대학교 산학협력단 Ct 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765146A (ja) 1993-08-24 1995-03-10 Toshiba Corp 超音波診断装置
JP5835680B2 (ja) * 2007-11-05 2015-12-24 株式会社東芝 画像位置合わせ装置
JP5806448B2 (ja) * 2009-05-13 2015-11-10 株式会社東芝 核医学イメージング装置、画像処理装置および画像処理方法
US9398855B2 (en) * 2013-05-30 2016-07-26 Siemens Aktiengesellschaft System and method for magnetic resonance imaging based respiratory motion correction for PET/MRI
JP6289142B2 (ja) * 2014-02-07 2018-03-07 キヤノン株式会社 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP6713767B2 (ja) 2015-12-25 2020-06-24 Necプラットフォームズ株式会社 光増幅装置および光増幅方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021251776A1 (ko) * 2020-06-12 2021-12-16 연세대학교 산학협력단 Ct 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템
KR20210154447A (ko) * 2020-06-12 2021-12-21 연세대학교 산학협력단 Ct 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템
KR102428617B1 (ko) * 2020-06-12 2022-08-03 주식회사 온코소프트 Ct 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템

Also Published As

Publication number Publication date
WO2018230409A1 (ja) 2018-12-20
EP3639754A1 (en) 2020-04-22
US20200113541A1 (en) 2020-04-16

Similar Documents

Publication Publication Date Title
JP6576424B2 (ja) 表示制御装置、画像表示方法、及びプログラム
US10945678B2 (en) Image processing apparatus, image processing method, and non-transitory storage medium
US20190029526A1 (en) Image processing apparatus, image processing method, and storage medium
JP6921782B2 (ja) 表示制御装置、画像表示方法、及びプログラム
JP2018126389A (ja) 情報処理装置、情報処理方法、およびプログラム
EP3329843B1 (en) Display control apparatus, display control method, and program
JP2018061716A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2018230409A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20200275840A1 (en) Information-processing apparatus, method of processing information, and medium
JP6882108B2 (ja) 画像生成装置、画像生成方法、及びプログラム
US20190321005A1 (en) Subject information acquisition apparatus, subject information processing method, and storage medium using probe to receive acoustic wave
WO2020039641A1 (ja) 画像処理装置、画像処理方法、画像表示方法、および、プログラム
JP6929048B2 (ja) 表示制御装置、表示方法、及びプログラム
JP7277212B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6929204B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20200305727A1 (en) Image processing device, image processing method, and program
JP2017042603A (ja) 被検体情報取得装置
WO2020040174A1 (ja) 画像処理装置、画像処理方法、プログラム
JP2020110362A (ja) 情報処理装置、情報処理方法、プログラム