JP6316557B2 - 超音波診断装置、画像処理装置及び画像処理方法 - Google Patents

超音波診断装置、画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP6316557B2
JP6316557B2 JP2013180610A JP2013180610A JP6316557B2 JP 6316557 B2 JP6316557 B2 JP 6316557B2 JP 2013180610 A JP2013180610 A JP 2013180610A JP 2013180610 A JP2013180610 A JP 2013180610A JP 6316557 B2 JP6316557 B2 JP 6316557B2
Authority
JP
Japan
Prior art keywords
image
rendering
unit
superimposed image
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013180610A
Other languages
English (en)
Other versions
JP2014061288A (ja
Inventor
衣津紀 久我
衣津紀 久我
ワレンバーグ マグナス
ワレンバーグ マグナス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to CN201380045448.9A priority Critical patent/CN104602610B/zh
Priority to JP2013180610A priority patent/JP6316557B2/ja
Priority to PCT/JP2013/073445 priority patent/WO2014034905A1/ja
Publication of JP2014061288A publication Critical patent/JP2014061288A/ja
Priority to US14/634,177 priority patent/US10420534B2/en
Application granted granted Critical
Publication of JP6316557B2 publication Critical patent/JP6316557B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、超音波診断装置、画像処理装置及び画像処理方法に関する。
近年、被検体を3次元で走査可能な超音波プローブを用いることで、ボリュームデータを収集する超音波診断装置が実用化されている。このような超音波診断装置では、収集されたボリュームデータに対して、各種のレンダリング法によりレンダリングが行なわれる。例えば、超音波診断装置で用いられるレンダリング法として、3次元の情報を反映した2次元画像を生成するボリュームレンダリングが知られている。
さらに、近年では、グローバルイルミネーションと呼ばれるレンダリング法も知られている。グローバルイルミネーションは、現実世界における光の伝播(減衰や反射など)を考慮してボリュームデータをレンダリングすることで、よりリアルなイメージが得られる手法である。
特開2000−132664号公報
Henrik Wann Jensen,"Global Illumination using Photon Maps" Department of Graphical Communication,The Technical University of Denmark
本発明が解決しようとする課題は、操作者がレンダリング画像上で観察対象を容易に観察することができる超音波診断装置、画像処理装置及び画像処理方法を提供することである。
実施形態に係る超音波診断装置は、第1のレンダリング部と、第2のレンダリング部と、重畳処理部と、表示制御部と、判定部とを備える。第1のレンダリング部は、被検体を超音波で3次元走査して収集されたボリュームデータに基づいて、第1のレンダリング法により第1のレンダリング画像を生成する。第2のレンダリング部は、前記ボリュームデータに基づいて、前記第1のレンダリング法とは異なる第2のレンダリング法により第2のレンダリング画像を生成する。重畳処理部は、前記第1及び第2のレンダリング画像の少なくとも一部を重畳させた重畳画像を生成する。表示制御部は、前記重畳画像を表示装置に表示させる。判定部は、前記重畳画像の輝度値に基づいて、当該重畳画像が観察に適切であるか否かを判定する。また、重畳処理部は、前記判定部によって前記重畳画像が観察に適切でないと判定された場合に、前記重畳画像における前記第1又は第2のレンダリング画像の重畳比率を上げるように調整する。
図1は、第1の実施形態に係る超音波診断装置の概略構成を示すブロック図である。 図2は、第1の実施形態に係る超音波診断装置によって行われる処理の処理手順を示すフローチャートである。 図3は、第2の実施形態に係る超音波診断装置の概略構成を示すブロック図である。 図4は、第1又は第2の実施形態に係るグローバルイルミネーションレンダリング部によって生成されるグローバルイルミネーション画像の一例を示す図である。 図5は、第1又は第2の実施形態に係るボリュームレンダリング部によって生成されるボリュームレンダリング画像の一例を示す図である。 図6は、第1又は第2の実施形態に係る重畳処理部によって生成される重畳画像の一例である。 図7は、重畳処理部による重畳画像の区分けの一例を説明するための図である。 図8は、重畳処理部による重畳比率設定の一例を説明するための図(1)である。 図9は、重畳処理部による重畳比率設定の一例を説明するための図(2)である。 図10は、重畳処理部による重畳比率設定の一例を説明するための図(3)である。
以下、図面を参照して、超音波診断装置の実施形態を説明する。
(第1の実施形態)
まず、第1の実施形態について説明する。第1の実施形態に係る超音波診断装置は、被検体を超音波で3次元走査して収集されたボリュームデータに基づいて、グローバルイルミネーション画像及びボリュームレンダリング画像をそれぞれ生成し、グローバルイルミネーション画像とボリュームレンダリング画像とを重畳させた重畳画像を表示するものである。
ここで、グローバルイルミネーション画像とは、ボリュームデータをグローバルイルミネーションによってレンダリングすることで得られる画像である。グローバルイルミネーションでは、3次元空間中にボクセルを配置し、各ボクセルに割り当てられた輝度値と視点の位置とに基づいて投影像の表示を行う。なお、ボクセルの明るさは、3次元空間中の特定座標に配置された光源に基づいて変化させる。具体的には、光源から照射された光は各ボクセルによって減衰や散乱反射を起こすものとして、光の伝搬を計算する。そのため、画像上のボクセルの明るさは、ボクセルに割り当てられた輝度値と光源の位置だけでなく、他のボクセルによって減衰や散乱反射された光によって変化することとなる。また、光源は、3次元空間をどの方向から照らすか、光量はどの程度かなどを設定可能である。また、例えば、光が空間中を伝搬する際の、光の減衰係数を設定可能である。減衰係数を設定した場合、光源に近い領域のボクセルは明るく表示され、光源から遠いボクセルや他のボクセルによって光が遮られているボクセルは暗く表示される。なお、光源は点光源に限らず、平行な光であってもよい。また、光の方向の他に、構造物(ボクセル)による光の反射や、光の屈折などを考慮してボクセルの明るさを決定してもよい。
一方、ボリュームレンダリング画像とは、ボリュームデータをボリュームレンダリングによってレンダリングすることで得られる画像である。ボリュームレンダリングでは、3次元空間中にボクセルを配置し、各ボクセルに割り当てられたボクセル値(Bモードのボリュームデータの場合はBの輝度値)に応じて、各ボクセルの表示上の明るさや色を設定する。その上で、視点からボクセルを投影した投影像を表示する。なお、ボクセルの明るさや色の決定は、レンダリング時に指定した輝度(Luminance)や色相などのパラメータに基づいて行われる。また、光源の概念は無く、ボクセル値の高い領域であれば、光の届きにくい領域や管腔内部であっても明るく表示される。
従来、グローバルイルミネーションでは、非常にリアルなイメージが得られる反面、従来のボリュームレンダリングと異なる画像になるため、操作者が被検体のどの領域を観察しているのかを把握しにくく、混乱する場合があった。また、光源位置の設定によっては、観察対象が完全に影になってしまったり、影の付き方によって観察対象の輪郭が不明瞭になったりすることがあり、操作者による構造物の観察が難しくなる場合があった。
これに対し、第1の実施形態に係る超音波診断装置100によれば、グローバルイルミネーション画像とボリュームレンダリングイメージ画像とが重畳されて表示されるので、グローバルイルミネーション画像上で構造物の輪郭を補うことができる。これにより、操作者は、グローバルイルミネーションで用いられる光源位置の設定が適切でない場合でも、構造物を見失うことなく、観察対象を容易に観察することができる。以下、第1の実施形態に係る超音波診断装置について詳細に説明する。
図1は、第1の実施形態に係る超音波診断装置の概略構成を示すブロック図である。図1に示すように、第1の実施形態に係る超音波診断装置100は、超音波プローブ11と、送信部12と、受信部13と、入力装置14と、表示装置15と、グローバルイルミネーションレンダリング部16と、ボリュームレンダリング部17と、重畳処理部18と、表示制御部19と、入力受付処理部110とを有する。
超音波プローブ11は、被検体に超音波を送波し、その反射波を受波する。この超音波プローブ11は、被検体を超音波で3次元走査することで、ボリュームデータを収集することが可能である。送信部12は、超音波プローブ11に対して超音波送波のために駆動パルス信号を送信する。受信部13は、超音波プローブ11が受波した反射波を電気信号として受信する。なお、超音波プローブ11によって収集されたボリュームデータは、受信部13を介して、後述するグローバルイルミネーションレンダリング部16及びボリュームレンダリング部17へ送られる。
入力装置14は、操作者から各種操作を受け付ける。例えば、入力装置14は、マウスやキーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボールなどである。表示装置15は、各種画像や、操作者から各種操作の入力を受け付けるためのGUI(Graphical User Interface)などを表示する。例えば、表示装置15は、液晶モニタやCRT(Cathode Ray Tube)モニタなどである。
グローバルイルミネーションレンダリング部16は、超音波プローブ11によって収集されたボリュームデータをグローバルイルミネーションによってレンダリングすることでグローバルイルミネーション画像を生成する。
具体的には、グローバルイルミネーションレンダリング部16は、受信部13からボリュームデータが送られると、送られたボリュームデータをグローバルイルミネーションによってレンダリングすることで、グローバルイルミネーション画像を生成する。そして、グローバルイルミネーションレンダリング部16は、生成したグローバルイルミネーション画像を、後述する重畳処理部18に送る。
ここで、例えば、グローバルイルミネーションレンダリング部16は、以下で説明するフォトンマッピングを用いる手法(例えば、Henrik Wann Jensen,"Global Illumination using Photon Maps" Department of Graphical Communication,The Technical University of Denmarkを参照)によって、グローバルイルミネーション画像を作成する。
この手法において、フォトンとは、光をコンピュータで表現するために離散化し単位時間当たりの光エネルギーを運搬する本アルゴリズム用の定義である。この手法では、あらかじめシステムに設定された数のフォトン、或いは、操作者によって設定された数のフォトンが対象ボリューム内において衝突計算され、シーン内に配置される。
なお、フォトンには様々なパラメータ(光の伝搬を表現する様々な属性)を設定することができるが、ここでは計算の簡略化のため、減衰(物体による吸収)のみを計算することとする。物体(ボクセル)にはフォトンが持つRGB成分のうち、どの成分をどの程度減衰させるかを示す吸収率が設定されている。フォトンの減衰は、物体に設定されたRGBごとの吸収率によって起こる。この吸収率の設定は、あらかじめシステムに設定されるか、或いは、操作者によって設定される。そして、ある点におけるフォトンのふるまいを確率論的に計算して記録する(マッピング)ことで、3次元データであるフォトンマップが完成する。
フォトンマップが完成した後に、レンダリング処理を行う。レンダリング処理は、レイトレーシング法により行うが、計算においてボリュームデータをルックアップする際、対応する(x,y,z)位置周辺におけるフォトンの分布密度を用い、密度に応じた明るさにする。このとき、通常のボリュームレンダリングと同様に閾値や透明度を設定することができる。これにより、グローバルイルミネーション画像が生成される。
ボリュームレンダリング部17は、超音波プローブ11によって収集されたボリュームデータをボリュームレンダリングによってレンダリングすることでボリュームレンダリング画像を生成する。
具体的には、ボリュームレンダリング部17は、受信部13からボリュームデータが送られると、送られたボリュームデータをボリュームレンダリングによってレンダリングすることで、ボリュームレンダリング画像を生成する。そして、ボリュームレンダリング部17は、生成したボリュームレンダリング画像を、後述する重畳処理部18に送る。
ここで、例えば、ボリュームレンダリング部17は、レイトレーシング法によってボリュームデータをレンダリングすることで、ボリュームレンダリング画像を生成する。
重畳処理部18は、グローバルイルミネーションレンダリング部16によって生成されたグローバルイルミネーション画像と、ボリュームレンダリング部17によって生成されたボリュームレンダリング画像とを重畳させた重畳画像を生成する。
具体的には、重畳処理部18は、グローバルイルミネーションレンダリング部16からグローバルイルミネーション画像が送られ、かつ、ボリュームレンダリング部17からボリュームレンダリング画像が送られると、送られたグローバルイルミネーション画像とボリュームレンダリング画像とを重畳させた重畳画像を生成する。そして、重畳処理部18は、生成した重畳画像を、後述する表示制御部19に送る。
ここで、例えば、重畳処理部18は、以下に示す式(1)〜(3)のように、グローバルイルミネーション画像とボリュームレンダリング画像とを、操作者によって設定された重畳比率で、RGBそれぞれの成分ごとに線形補間によって混ぜ合わせることで、重畳画像を生成する。
OutputImge_r =(Igi_r *(1-ratio))+(Ivr_r * ratio)・・式(1)
OutputImge_g =(Igi_g *(1-ratio))+(Ivr_g * ratio)・・式(2)
OutputImge_b =(Igi_b *(1-ratio))+(Ivr_b * ratio)・・式(3)
なお、上記式(1)〜(3)において、OutputImageは、重畳画像を表しており、Igiは、グローバルイルミネーション画像を表しており、Ivrは、ボリュームレンダリング画像を表している。なお、OutputImage、Igi、及びIvrそれぞれに付加されている"_r"は、R(Red)成分を示しており、"_g"は、G(Green)成分を示しており、"_b"は、B(Blue)成分を示している。また、ratioは、操作者によって設定された重畳比率を表している。
なお、重畳処理部18は、グローバルイルミネーションレンダリング部16によるレンダリングの結果として生成される2次元画像と、ボリュームレンダリング部17によるレンダリングの結果として生成される2次元画像とを重畳させることで、重畳画像を生成する。または、重畳処理部18は、グローバルイルミネーションレンダリング部16によってレンダリングが行われる前に生成される3次元データと、ボリュームレンダリング部17によってレンダリングが行われる前に生成される3次元データとを重畳させることで、重畳画像を生成してもよい。
表示制御部19は、重畳処理部18によって生成された重畳画像を表示装置15に表示させる。具体的には、表示制御部19は、重畳処理部18から重畳画像が送られると、送られた重畳画像を表示装置15に表示させる。
入力受付処理部110は、入力装置14を介して各種操作を受け付け、受け付けた操作に応じた命令を超音波診断装置100の各部に入力する。なお、図1では、入力受付処理部110と各部との間の矢印は図示を省略している。
例えば、入力受付処理部110は、グローバルイルミネーションに関するレンダリング条件と、ボリュームレンダリングに関するレンダリング条件を設定する操作を受け付ける。ここで、グローバルイルミネーションに関するレンダリング条件には、視点位置やボリュームデータの投影方向、光源位置、光源の光量、光源の照射方向などが含まれる。また、ボリュームレンダリングに関するレンダリング条件には、視点位置やボリュームデータの投影方向、ボクセル値に応じたボクセルの表示上の明るさや色などが含まれる。但し、視点位置とボリュームデータの投影方向の条件については、グローバルイルミネーションとボリュームレンダリングとで共通の条件を用いる。そして、入力受付処理部110は、グローバルイルミネーションに関するレンダリング条件を受け付けると、グローバルイルミネーションレンダリング部16に対して、受け付けたレンダリング条件を送る。また、入力受付処理部110は、ボリュームレンダリングに関するレンダリング条件を受け付けると、ボリュームレンダリング部17に対して、受け付けたレンダリング条件を送る。レンダリング条件が送られたグローバルイルミネーションレンダリング部16及びボリュームレンダリング部17は、それぞれ、送られたレンダリング条件に基づいて、ボリュームデータをレンダリングする。
また、例えば、入力受付処理部110は、表示装置15に表示された重畳画像を回転又は移動させる操作を受け付ける。入力受付処理部110は、この操作を受け付けると、グローバルイルミネーションレンダリング部16に対して、グローバルイルミネーション画像を回転又は移動させる旨の命令を送り、ボリュームレンダリング部17に対して、ボリュームレンダリング画像を回転又は移動させる旨の命令を送る。このとき、回転量又は移動量は、グローバルイルミネーション画像とボリュームレンダリング画像とで共通である。この命令を受け付けたグローバルイルミネーションレンダリング部16は、回転後又は移動後のグローバルイルミネーション画像を再レンダリングにより生成し、生成したグローバルイルミネーション画像を重畳処理部18に送る。一方、ボリュームレンダリング部17も、入力受付処理部110からの命令を受け付けると、回転後又は移動後のボリュームレンダリング画像を再レンダリングにより生成し、生成したグローバルイルミネーション画像を重畳処理部18に送る。重畳処理部18は、送られたグローバルイルミネーション画像及びボリュームレンダリング画像を重畳させた重畳画像を生成し、生成した重畳画像を表示制御部19に送る。これにより、回転又は移動された重畳画像が表示装置15に表示される。
また、例えば、入力受付処理部110は、表示装置15に表示された重畳画像におけるグローバルイルミネーション画像とボリュームレンダリング画像との重畳比率を変更する操作を受け付ける。重畳処理部18は、入力受付処理部110によって受け付けられた操作に応じて、重畳画像におけるグローバルイルミネーション画像とボリュームレンダリング画像との重畳比率を調整する。
具体的な例として、例えば、入力受付処理部110は、ボリュームレンダリング画像の重畳比率をゼロに設定する操作を受け付けた場合には、重畳処理部18に対して、重畳画像におけるボリュームレンダリング画像の重畳比率をゼロに設定する旨の命令を送る。この命令を受け付けた重畳処理部18は、重畳画像を生成する処理をスキップし、グローバルイルミネーション画像のみを表示制御部19に送る。これにより、グローバルイルミネーション画像のみが表示装置15に表示される。
また、入力受付処理部110は、ボリュームレンダリング画像の重畳比率を変更する操作を受け付けた場合には、重畳処理部18に対して、受け付けた重畳比率にボリュームレンダリング画像の重畳比率を変更する旨の命令を送る。この命令を受け付けた重畳処理部18は、ボリュームレンダリング画像の重畳比率を変更して、重畳画像を生成し直す。そして、重畳処理部18は、生成した重畳画像を表示制御部19に送る。これにより、変更後の重畳比率でボリュームレンダリング画像が重畳された重畳画像が表示装置15に表示される。なお、このように重畳比率を変更する場合は、重畳画像のみを生成し直せばよいので、レンダリング後の2次元画像を重畳している場合には、グローバルイルミネーションレンダリング部16及びボリュームレンダリング部17による再レンダリングは不要である。
なお、重畳処理部18は、操作者によってボリュームレンダリング画像の重畳比率が変更されるたびに、重畳画像を生成し直して表示制御部19に送る。これにより、操作者は、ボリュームレンダリング画像の重畳比率を少しずつ変えながら、リアルタイムで重畳画像の変化を観察することができる。この結果、操作者は、グローバルイルミネーション画像とボリュームレンダリング画像との位置的な対応を容易に認識することができる。
また、グローバルイルミネーションの光源位置を調整することにより、グローバルイルミネーション画像が全体的に明るすぎたり、あるいは暗すぎたりする場合がある。例えば、光源位置と視点に対して非常に近い位置に減衰係数の低いボクセルが多数配置され、あるいは光源の光量が非常に大きく設定された場合は、グローバルイルミネーション画像が明るすぎる画像となってしまう。一方、視点位置に対してボクセルの反対側に光源位置が設定されたり、あるいは光源の光量が非常に小さく設定されたりした場合は、グローバルイルミネーション画像が暗すぎる画像となってしまう。操作者は、光源の調整中に、表示装置15に表示されている重畳画像が全体的に明るすぎる場合又は暗すぎる場合は、ボリュームレンダリング画像の重畳比率を上げることで、観察対象の輪郭を容易に視認することができる。また、操作者は、光源位置を調整した結果、グローバルイルミネーション画像が明瞭に表示されて、ボリュームレンダリング画像の重畳が不要になった場合には、ボリュームレンダリング画像の重畳比率を下げることで、グローバルイルミネーション画像のみを観察することができる。
次に、第1の実施形態に係る超音波診断装置100によって行われる処理について詳細に説明する。図2は、第1の実施形態に係る超音波診断装置によって行われる処理の処理手順を示すフローチャートである。なお、ここでは、超音波診断装置100が、ボリュームデータを収集してから重畳画像を表示するまでの処理手順を説明する。
図2に示すように、超音波診断装置100では、まず、超音波プローブ11が、観察対象が含まれるように被検体を超音波で3次元走査してボリュームデータを収集する(ステップS101)。
続いて、グローバルイルミネーションレンダリング部16が、収集されたボリュームデータに基づいてグローバルイルミネーション画像を生成する(ステップS102)。また、ボリュームレンダリング部17が、収集されたボリュームデータに基づいてボリュームレンダリング画像を生成する(ステップS103)。
その後、重畳処理部18が、グローバルイルミネーションレンダリング部16によって生成されたグローバルイルミネーション画像と、ボリュームレンダリング部17によって生成されたボリュームレンダリング画像とを重畳させた重畳画像を生成する(ステップS104)。そして、表示制御部19が、重畳処理部18によって生成された重畳画像を表示装置15に表示させる(ステップS105)。
なお、上述した処理手順において、グローバルイルミネーションレンダリング部16によるグローバルイルミネーション画像の生成と、ボリュームレンダリング部17によるボリュームレンダリング画像の生成とは、並行して行われてもよいし、いずれか一方が終わった後に他方が行われてもよい。
上述したように、第1の実施形態によれば、グローバルイルミネーション画像とボリュームレンダリングイメージ画像とが重畳されて表示されるので、グローバルイルミネーション画像上で構造物の輪郭が補われる結果、操作者がグローバルイルミネーション画像上で観察対象を容易に観察することができる。また、第1の実施形態によれば、操作者は、ボリュームレンダリング画像とグローバルイルミネーション画像との重畳比率を変えながら観察することで、それぞれの画像の対応を段階的に視覚的に理解することができる。
なお、第1の実施形態では、グローバルイルミネーションレンダリング部16及びボリュームレンダリング部17が、受信部13から受け付けたボリュームデータを用いてレンダリング画像(グローバルイルミネーション画像、ボリュームレンダリング画像)を生成する場合の例について説明した。しかし、グローバルイルミネーションレンダリング部16及びボリュームレンダリング部17は、超音波診断装置100が有する記憶部に保存されたボリュームデータを用いてレンダリング画像を生成してもよい。
また、第1の実施形態では、グローバルイルミネーションレンダリング部16が、フォトンマッピングを用いる手法によって、グローバルイルミネーション画像を生成する場合の例について説明した。しかし、グローバルイルミネーションレンダリング部16は、他のアルゴリズムによってグローバルイルミネーション画像を生成してもよい。例えば、グローバルイルミネーションレンダリング部16は、ラジオシティ法や、スペキュラマッピング、サーフェスレンダリングなどの種々の手法を用いて、グローバルイルミネーション画像に対応する画像を生成してもよい。
また、第1の実施形態では、グローバルイルミネーションレンダリング部16が、グローバルイルミネーション画像を生成する際に、減衰のみを加味する場合の例について説明した。しかし、グローバルイルミネーションレンダリング部16は、他の光源効果を加味してグローバルイルミネーション画像を生成してもよい。例えば、グローバルイルミネーションレンダリング部16は、反射や散乱などを加味して、グローバルイルミネーション画像を生成してもよい。
また、第1の実施形態では、重畳処理部18が、線形補間によって重畳画像を生成する場合の例について説明した。しかし、重畳処理部18は、他のアルゴリズムによって重畳画像を生成してもよい。例えば、重畳処理部18は、重畳比率に基づいて重み付けされた、ある点におけるグローバルイルミネーション画像及びボリュームレンダリング画像の強度を比較し、強度が低い方、もしくは高い方の強度を採用することで、重畳画像を生成してもよい。このアルゴリズムでも、構造物の輪郭を得ることができる。
また、第1の実施形態では、重畳処理部18が、重畳比率をゼロとした場合に、グローバルイルミネーション画像のみを表示させる場合の例について説明した。しかし、重畳処理部18は、重畳比率をゼロとした場合に、ボリュームレンダリング画像のみを表示させるようにしてもよい。つまり、重畳比率は、グローバルイルミネーション画像に対するボリュームレンダリング画像の重畳比率としてもよいし、ボリュームレンダリング画像に対するグローバルイルミネーション画像の重畳比率としてもよい。
(第2の実施形態)
次に、第2の実施形態について説明する。第1の実施形態では、操作者によって重畳比率が変更される場合の例について説明したが、第2の実施形態では、超音波診断装置によって重畳比率が自動的に調整される場合の例について説明する。
図3は、第2の実施形態に係る超音波診断装置の概略構成を示すブロック図である。図3に示すように、第2の実施形態に係る超音波診断装置200は、超音波プローブ11と、送信部12と、受信部13と、入力装置14と、表示装置15と、グローバルイルミネーションレンダリング部16と、ボリュームレンダリング部17と、重畳処理部28と、表示制御部19と、入力受付処理部110と、画像輝度判定部211とを有する。
なお、ここでは、図1に示した各部と同じ機能を有する部については、同じ符号を付すこととして、その詳細な説明を省略する。第2の実施形態では、重畳処理部28及び画像輝度判定部211が第1の実施形態とは異なる。なお、第2の実施形態に係る超音波診断装置200において、ボリュームデータを収集してから重畳画像を表示するまでの処理手順は、図2に示したものと同様である。
重畳処理部28は、グローバルイルミネーションレンダリング部16によって生成されたグローバルイルミネーション画像と、ボリュームレンダリング部17によって生成されたボリュームレンダリング画像とを重畳させた重畳画像を生成する。
具体的には、重畳処理部28は、グローバルイルミネーションレンダリング部16からグローバルイルミネーション画像が送られ、かつ、ボリュームレンダリング部17からボリュームレンダリング画像が送られると、送られたグローバルイルミネーション画像とボリュームレンダリング画像とを重畳させた重畳画像を生成する。そして、重畳処理部28は、生成した重畳画像を、表示制御部19及び後述する画像輝度判定部211に送る。
ここで、例えば、重畳処理部28は、以下に示す式(1)〜(3)のように、グローバルイルミネーション画像とボリュームレンダリング画像とを、システムに初期値として設定された重畳比率で、RGBそれぞれの成分ごとに線形補間によって混ぜ合わせることで、重畳画像を生成する。
OutputImge_r =(Igi_r *(1-ratio))+(Ivr_r * ratio)・・式(1)
OutputImge_g =(Igi_g *(1-ratio))+(Ivr_g * ratio)・・式(2)
OutputImge_b =(Igi_b *(1-ratio))+(Ivr_b * ratio)・・式(3)
なお、上記式(1)〜(3)において、OutputImageは、重畳画像を表しており、Igiは、グローバルイルミネーション画像を表しており、Ivrは、ボリュームレンダリング画像を表している。なお、OutputImage、Igi、及びIvrそれぞれに付加されている"_r"は、R(Red)成分を示しており、"_g"は、G(Green)成分を示しており、"_b"は、B(Blue)成分を示している。また、ratioは、システムによって設定された重畳比率を表している。
なお、重畳処理部28は、グローバルイルミネーションレンダリング部16によるレンダリングの結果として生成される2次元画像と、ボリュームレンダリング部17によるレンダリングの結果として生成される2次元画像とを重畳させることで、重畳画像を生成する。または、重畳処理部28は、グローバルイルミネーションレンダリング部16によってレンダリングが行われる前に生成される3次元データと、ボリュームレンダリング部17によってレンダリングが行われる前に生成される3次元データとを重畳させることで、重畳画像を生成してもよい。
画像輝度判定部211は、表示装置15によって表示された重畳画像の輝度値に基づいて、その重畳画像が観察に適切であるか否かを判定する。
具体的には、画像輝度判定部211は、重畳処理部28から重畳画像が送られると、送られた重畳画像の輝度値を統計的に解析して、その重畳画像が観察に適切であるか否かを判定する。そして、画像輝度判定部211は、重畳画像が適切でないと判定した場合には、ボリュームレンダリング画像の重畳比率を上げて重畳画像を再生成する旨の命令を重畳処理部28に送る。この命令を受け付けた重畳処理部28は、ボリュームレンダリング画像の重畳比率を所定の値だけ上げて重畳画像を生成し直す。そして、重畳処理部28は、生成した重畳画像を表示制御部19に送る。これにより、ボリュームレンダリング画像の重畳比率が高められた重畳画像が表示装置15に表示される。なお、画像輝度判定部211は、重畳画像が適切であると判定した場合には、重畳処理部28には命令を送らない。
ここで、例えば、画像輝度判定部211は、重畳処理部28から重畳画像が送られると、送られた重畳画像内の輝度のヒストグラムを生成する。そして、画像輝度判定部211は、生成したヒストグラムを解析して、統計的に極端に低い輝度値(暗すぎる)又は極端に高い輝度値(明るすぎる)に偏っている場合に、解析対象の重畳画像が観察に適切でないと判定する。このとき、例えば、画像輝度判定部211は、重畳画像全体の平均輝度値又は分散値を算出し、算出した平均輝度値が所定の下限閾値より低い場合、所定の上限閾値より高い場合、又は分散値が所定の閾値より小さい場合に、その重畳画像が観察に適切でないと判定する。ヒストグラムが統計的に極端に低い輝度値又は極端に高い輝度値に偏っている場合は、いずれの場合も、重畳画像において、グローバルイルミネーション画像上で構造物の輪郭が薄くなっていることを示している。このような場合は、重畳処理部28によって、ボリュームレンダリング画像の重畳比率が高められた重畳画像が自動的に表示装置15に表示されることになる。
なお、画像輝度判定部211は、上述した重畳画像の判定及び重畳比率の変更を所定の回数だけ繰り返し行うようにしてもよい。また、画像輝度判定部211は、入力装置14及び入力受付処理部110を介して、閾値を設定又は変更する操作を操作者から受け付け、受け付けた閾値を用いて、重畳画像の判定を行うようにしてもよい。
また、画像輝度判定部211は、ヒストグラムによる解析を、重畳画像内の全体の輝度値を用いて行ってもよいし、重畳画像内の半分の輝度値や重畳画像の中央部に設定された任意の範囲内の輝度値を用いて行ってもよい。また、画像輝度判定部211は、初回の判定は重畳画像の輝度値を用いて行うのではなく、判定対象となる重畳画像に用いられているグローバルイルミネーション画像の輝度値を用いて行ってもよい。
また、画像輝度判定部211は、グローバルイルミネーション及びボリュームレンダリングで用いられる視点と、グローバルイルミネーションで用いられる光源と、ボリュームデータに含まれる構造物との位置関係を監視し、光源が構造物の後方に回り込んだ場合に、前記重畳画像が観察に適切でないと判定してもよい。
また、重畳処理部28は、ボリュームレンダリング画像の重畳比率を上げる場合に、操作者に対してボリュームレンダリング画像の重畳比率が上げられていることを報知するようにしてもよい。例えば、重畳処理部18は、表示制御部19を介して、ボリュームレンダリング画像の重畳比率を示す数値や図形などを表示部15に表示させる。
また、重畳処理部28は、ボリュームレンダリング画像の重畳比率を上げる場合に、単体で生成されたグローバルイルミネーション画像と、ボリュームレンダリング画像とを、重畳画像と並列させて表示させてもよい。これにより操作者は、光源の設定が適切でない場合に、単体で生成されたグローバルイルミネーション画像とボリュームレンダリング画像とを見比べながら光源位置を把握することができる。
上述したように、第2の実施形態によれば、超音波診断装置によって重畳比率が自動的に調整されるので、グローバルイルミネーション画像に対して構造物の輪郭情報が常に補われる結果、操作者がグローバルイルミネーション画像上で観察対象を容易に観察することができる。また、操作者が観察対象を見失うことをより確実に防ぐことができる。
ここで、図4〜6を用いて、第1又は第2の実施形態に係る超音波診断装置による効果について具体的に説明する。図4は、第1又は第2の実施形態に係るグローバルイルミネーションレンダリング部によって生成されるグローバルイルミネーション画像の一例を示す図である。また、図5は、第1又は第2の実施形態に係るボリュームレンダリング部によって生成されるボリュームレンダリング画像の一例を示す図である。また、図6は、第1又は第2の実施形態に係る重畳処理部によって生成される重畳画像の一例である。なお、図4〜6は、それぞれ同一の胎児の足を描出した画像であり、各レンダリング画像を概念的に示している。
図4に示すように、グローバルイルミネーション画像では、影が付けられているため奥行き感があるが、影によって、例えば足の指などの構造物の輪郭が明瞭に描出されない。一方、図5に示すように、ボリュームレンダリング画像では、構造物の輪郭は明瞭であるが、影がないため奥行き感が乏しい。
これに対し、グローバルイルミネーション画像とボリュームレンダリング画像とを重畳した重畳画像では、グローバルイルミネーションによる影によって奥行き感があり、かつ、ボリュームレンダリング画像によって構造物の輪郭情報が補われる結果、足の指も分離して見える。このように、重畳処理部によって生成される重畳画像では、完全に影を付けるまではいかなくても、ボリュームレンダリング画像を重畳させることで、グローバルイルミネーション画像に対して構造物の輪郭を補うことができる。すなわち、グローバルイルミネーション画像とボリュームレンダリング画像とが補い合う結果、良好なレンダリング画像が得られる。
なお、上記実施形態では、操作者によって重畳比率が変更される場合と、超音波診断装置が重畳比率を自動的に調整する場合とを別々に説明したが、超音波診断装置が、第1の実施形態で説明した構成と第2の実施形態で説明した構成とを両方備えていてもよい。その場合には、例えば、超音波診断装置は、操作者がボリュームレンダリング画像の重畳比率を設定した場合でも、重畳画像における輝度の偏りを検出したときには、自動的に重畳比率を調整する。
また、上記実施形態では、超音波診断装置においてボリュームデータに対する処理が行なわれる場合について説明した。しかし、上述したボリュームデータに対する処理は、超音波診断装置とは独立に設置された画像処理装置によって行なわれてもよい。この場合、画像処理装置は、取得部と、第1のレンダリング部と、第2のレンダリング部と、重畳処理部と、表示制御部とを備える。
取得部は、被検体を超音波で3次元走査して得られたボリュームデータを取得する。例えば、取得部は、超音波診断装置やPACS(Picture Archiving and Communication Systems)のデータベース、電子カルテシステムのデータベースから受信したボリュームデータを取得する。第1のレンダリング部は、取得部によって取得されたボリュームデータに基づいてグローバルイルミネーション画像を生成する。第2のレンダリング部は、取得部によって取得されたボリュームデータに基づいてボリュームレンダリング画像を生成する。重畳処理部は、第1のレンダリング部によって生成されたグローバルイルミネーション画像と、第2のレンダリング部によって生成されたボリュームレンダリング画像とを重畳させた重畳画像を生成する。表示制御部は、重畳処理部によって生成された重畳画像を表示装置に表示させる。
また、上記実施形態で説明した画像処理方法は、あらかじめ用意された画像処理プログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。この場合、画像処理プログラムは、取得手順と、第1のレンダリング手順と、第2のレンダリング手順と、重畳処理手順と、表示制御手順とをコンピュータに実行させる。
取得手順では、コンピュータは、被検体を超音波で3次元走査して得られたボリュームデータを取得する。例えば、コンピュータは、超音波診断装置やPACS(Picture Archiving and Communication Systems)のデータベース、電子カルテシステムのデータベースから受信したボリュームデータを取得する。第1のレンダリング手順では、コンピュータは、取得手順によって取得されたボリュームデータに基づいてグローバルイルミネーション画像を生成する。第2のレンダリング手順では、コンピュータは、取得手順によって取得されたボリュームデータに基づいてボリュームレンダリング画像を生成する。重畳処理手順では、コンピュータは、第1のレンダリング手順によって生成されたグローバルイルミネーション画像と、第2のレンダリング手順によって生成されたボリュームレンダリング画像とを重畳させた重畳画像を生成する。表示制御手順では、コンピュータは、重畳処理部によって生成された重畳画像を表示装置に表示させる。
なお、上述した画像処理プログラムは、インターネットなどのネットワークを介して配布することができる。また、この画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM(Compact Disc Read Only Memory)、MO(Magneto-Optical disc)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されて実行されてもよい。
また、上述した各実施形態は、以下のように変形することも可能である。
例えば、上述した第2の実施形態では、重畳処理部28が、重畳画像に基づいてレンダリング画像の重畳比率を調整する場合の例を説明した。これに対し、重畳処理部28が、グローバルレンダリング画像に基づいて重畳比率を調整するようにしてもよい。その場合には、例えば、画像輝度判定部211が、重畳処理部28によって生成された重畳画像の代わりにグローバルイルミネーションレンダリング部16によって生成されたグローバルイルミネーション画像を用いて、第2の実施形態で説明した輝度値に基づく判定方法によって、当該グローバルイルミネーション画像が観察に適切であるか否かを判定する。
また、重畳処理部が、グローバルイルミネーション画像及びボリュームレンダリング画像の少なくとも一部を重畳させるようにしてもよい。この場合には、例えば、重畳処理部は、重畳画像の所定の領域について、グローバルイルミネーション画像とボリュームレンダリング画像とを重畳させる。
例えば、重畳処理部は、操作者によって指定された領域について、グローバルイルミネーション画像とボリュームレンダリング画像とを重畳させる。具体的には、重畳処理部は、入力装置14及び入力受付処理部110を介して、グローバルイルミネーション画像上又は重畳画像上に関心領域を設定する操作を操作者から受け付ける。ここで、重畳処理部が操作者から受け付ける関心領域の数は、1つであってもよいし、複数であってもよい。そして、重畳処理部は、操作者によって設定された関心領域について、グローバルイルミネーション画像とボリュームレンダリング画像とを重畳させる。これにより、操作者が、グローバルイルミネーション画像上又は重畳画像上で、構造物の輪郭を強調させたい領域を任意に指定することができるようになる。
また、例えば、重畳処理部は、グローバルイルミネーション画像上又は重畳画像上で所定の基準より暗くなっている領域又は明るくなっている領域について、グローバルイルミネーション画像とボリュームレンダリング画像とを重畳させる。具体的には、重畳処理部は、グローバルイルミネーション画像又は重畳画像において、輝度値が所定の閾値未満である画素からなる領域を抽出し、抽出した領域について、グローバルイルミネーション画像とボリュームレンダリング画像とを重畳させる。これにより、重畳画像において、影になって見えなくなった領域にある構造物の輪郭を自動的に強調させることができる。または、重畳処理部は、グローバルイルミネーション画像上又は重畳画像上で輝度値が所定の閾値以上である画素からなる領域を抽出し、抽出した領域について、グローバルイルミネーション画像とボリュームレンダリング画像とを重畳させる。これにより、重畳画像において、明るすぎて見えにくくなった領域にある構造物の輪郭を自動的に強調させることができる。
なお、重畳処理部は、上述したように所定の領域のみを重畳させる際には、例えば、グローバルイルミネーション画像における所定の領域のみに局所的にボリュームレンダリング画像を重畳させる重畳処理を行う。または、重畳処理部は、ボリュームレンダリング画像の重畳比率を、所定の領域についてはゼロより大きく設定し、それ以外の領域についてはゼロに設定して重畳処理を行うことで、結果的に、所定の領域のみについて各レンダリング画像を重畳させるようにしてもよい。
また、例えば、重畳処理部は、重畳画像を複数の区画に区分けし、区画ごとに重畳比率を設定するようにしてもよい。この場合には、例えば、重畳処理部は、あらかじめ決められた数及び形状の区画に重畳画像を区分けする。または、重畳処理部は、あらかじめ決められた大きさ及び形状の区画に重畳画像を区分けしてもよい。
図7は、重畳処理部による重畳画像の区分けの一例を説明するための図である。例えば、図7に示すように、重畳処理部は、重畳画像70を5行×5列に並ぶ四角い区画に区分けする。そして、例えば、重畳処理部は、区分けした区画ごとに、グローバルイルミネーション画像の当該区画に含まれる画素値の平均値を算出し、算出した平均値に応じて、各区画におけるボリュームレンダリング画像の重畳比率を設定する。このとき、例えば、重畳処理部は、あらかじめ決められたグローバルイルミネーション画像の輝度値とボリュームレンダリング画像の重畳比率との関係に基づいて、区画ごとにボリュームレンダリング画像の重畳比率を設定する。
図8〜10は、重畳処理部による重畳比率設定の一例を説明するための図である。図8〜10において、横軸は、グローバルイルミネーション画像の輝度値を示しており、縦軸は、ボリュームレンダリング画像の重畳比率を示している。例えば、重畳処理部は、図8〜10に示す関係に基づいて、区画ごとに、グローバルイルミネーション画像の輝度値の平均値からボリュームレンダリング画像の重畳比率を決定する。
ここで、例えば、図8に示すように、グローバルイルミネーション画像の輝度値とボリュームレンダリング画像の重畳比率との関係は、グローバルイルミネーション画像の輝度値が大きくなるにつれてボリュームレンダリング画像の重畳比率が低くなるように設定される。これにより、グローバルイルミネーションにおいて、暗い区画では、明るい区画と比べて構造物の輪郭がより強く強調されることになる。
また、例えば、図9に示すように、グローバルイルミネーション画像の輝度値とボリュームレンダリング画像の重畳比率との関係は、輝度値=0で重畳比率=100%、輝度値=P0で重畳比率がゼロ、輝度値=255で重畳比率=100%となるように設定される。また、0<輝度値<P0の範囲では、輝度値が大きくなるにつれて重畳比率が低くなるように設定され、P1<輝度値<255の範囲では、輝度値が大きくなるにつれて重畳比率が高くなるように設定される。これにより、グローバルイルミネーションにおいて、暗い区画及び明るい区画で構造物の輪郭がより強く強調されることになる。
また、例えば、図10に示すように、グローバルイルミネーション画像の輝度値とボリュームレンダリング画像の重畳比率との関係は、0≦輝度値<P1で重畳比率=100%、P1≦輝度値<P2で重畳比率=50%、P2≦輝度値<P3で重畳比率=0%、P3≦輝度値<P4で重畳比率=50%、P4≦輝度値<255で重畳比率=100%となるように設定される。すなわち、この場合には、グローバルイルミネーション画像の輝度値に対して、ボリュームレンダリング画像の重畳比率が段階的に設定される。
なお、重畳処理部による区分けの単位は図7に示したものに限られず、5行×5列より細かい単位で区分けが行われてもよいし、5行×5列より粗い単位で区分けが行われてもよい。また、区画の形状は四角に限られず、例えばひし形や6角形など、任意の形状であってよい。また、区画の大きさも均一である必要はなく、例えば、あらかじめ輝度の分布が分かっている場合には、輝度の変化が大きい範囲について区画を細かく設定し、輝度の変化が小さい範囲については区画を粗く設定してもよい。
また、例えば、重畳処理部は、重畳画像を画素ごとに区分けしてもよい。この場合には、例えば、重畳処理部は、画素ごとに、図8に示したグローバルイルミネーション画像の輝度値とボリュームレンダリング画像の重畳比率との関係に基づいて、グローバルイルミネーション画像の輝度値の平均値からボリュームレンダリング画像の重畳比率を決定する。このように、重畳画像を画素ごとに区分けして重畳比率を設定することで、画素より大きな単位で区分けする場合と比べて、構造物の輪郭の強調度合いがより自然に変化した重畳画像が得られる。
また、上述した各実施形態では、グローバルイルミネーション画像とボリュームレンダリング画像とを重畳させる場合の例を説明したが、重畳させるレンダリング画像を生成するためのレンダリング法は、グローバルイルミネーションとボリュームレンダリングとの組み合わせに限られない。
すなわち、超音波診断装置は、第1のレンダリング部と、第2のレンダリング部とを有する。第1のレンダリング部は、被検体を超音波で3次元走査して収集されたボリュームデータに基づいて、第1のレンダリング法により第1のレンダリング画像を生成する。また、第2のレンダリング部は、ボリュームデータに基づいて、第1のレンダリング法とは異なる第2のレンダリング法により第2のレンダリング画像を生成する。
ここで、例えば、第1のレンダリング法は、影を付けたレンダリング画像を生成する手法である。この場合に、例えば、第2のレンダリング法は、第1のレンダリング法と比べて、影の付き方が小さいレンダリング画像を生成する手法とする。すなわち、第2のレンダリング法は、第1のレンダリング法と比べて、構造物の輪郭が明瞭に描出される手法とする。このようなレンダリング手法の組み合わせによって生成されたレンダリング画像を重畳させることで、第1のレンダリング法によって生成された第1のレンダリング画像において影により輪郭が不明瞭になった部分を、第2のレンダリング法によって生成された第2のレンダリング画像により補うことができる。
例えば、第1のレンダリング法は、グローバルイルミネーションやグラディエント法などである。また、例えば、第2のレンダリング法は、影付けなしのボリュームレンダリングやサーフェスレンダリングなどである。
以上で説明した少なくとも一つの実施形態によれば、レンダリング画像上で観察対象を容易に観察することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
100 超音波診断装置
16 グローバルイルミネーションレンダリング部
17 ボリュームレンダリング部
18 重畳処理部
19 表示制御部

Claims (12)

  1. 被検体を超音波で3次元走査して収集されたボリュームデータに基づいて、第1のレンダリング法により第1のレンダリング画像を生成する第1のレンダリング部と、
    前記ボリュームデータに基づいて、前記第1のレンダリング法とは異なる第2のレンダリング法により第2のレンダリング画像を生成する第2のレンダリング部と、
    前記第1及び第2のレンダリング画像の少なくとも一部を重畳させた重畳画像を生成する重畳処理部と、
    前記重畳画像を表示装置に表示させる表示制御部と、
    前記重畳画像の輝度値に基づいて、当該重畳画像が観察に適切であるか否かを判定する判定部と、
    を備え、
    前記重畳処理部は、前記判定部によって前記重畳画像が観察に適切でないと判定された場合に、前記重畳画像における前記第1又は第2のレンダリング画像の重畳比率を上げるように調整する、
    超音波診断装置。
  2. 前記第1のレンダリング法は、影を付けたレンダリング画像を生成する手法である、
    請求項1に記載の超音波診断装置。
  3. 前記重畳処理部は、前記第1のレンダリング画像及び前記重畳画像の少なくとも一方に基づいて、前記重畳比率を調整する、
    請求項1又は2に記載の超音波診断装置。
  4. 前記重畳比率を変更する操作を操作者から受け付ける入力受付処理部をさらに備え、
    前記重畳処理部は、前記入力受付処理部によって受け付けられた操作に応じて、前記重畳比率を調整する、
    請求項1又は2に記載の超音波診断装置。
  5. 前記重畳処理部は、前記重畳画像の所定の領域について、前記第1及び前記第2のレンダリング画像を重畳させる、
    請求項1〜4のいずれか一つに記載の超音波診断装置。
  6. 前記重畳処理部は、前記重畳画像を複数の区画に区分けし、前記区画ごとに重畳比率を設定する、
    請求項1〜4のいずれか一つに記載の超音波診断装置。
  7. 前記判定部は、前記重畳画像の輝度値の平均値又は分散値に基づいて、当該重畳画像が観察に適切であるか否かを判定する、
    請求項1〜6のいずれか一つに記載の超音波診断装置。
  8. 前記判定部は、前記第1のレンダリング部によるレンダリング及び前記第2のレンダリング部によるレンダリングで用いられる視点と、前記第1のレンダリング部によるレンダリングで用いられる光源と、前記ボリュームデータに含まれる構造物との位置関係を監視し、前記光源が前記構造物の後方に回り込んだ場合に、前記重畳画像が観察に適切でないと判定する、
    請求項1〜7のいずれか一つに記載の超音波診断装置。
  9. 前記重畳処理部は、前記第1のレンダリング部によるレンダリングの結果として生成される2次元画像と、前記第2のレンダリング部によるレンダリングの結果として生成される2次元画像とを重畳させることで、前記重畳画像を生成する、
    請求項1〜8のいずれか一つに記載の超音波診断装置。
  10. 前記重畳処理部は、前記第1のレンダリング部によってレンダリングが行われる前に生成される3次元データと、前記第2のレンダリング部によってレンダリングが行われる前に生成される3次元データとを重畳させることで、前記重畳画像を生成する、
    請求項1〜8のいずれか一つに記載の超音波診断装置。
  11. 被検体を超音波で3次元走査して得られたボリュームデータを取得する取得部と、
    前記ボリュームデータに対し、光源の位置と、ボリュームデータを構成するボクセル値とに基づいて輝度値を定めた第1のレンダリング画像を生成する第1のレンダリング部と、
    前記ボリュームデータに対し、前記ボリュームデータを構成するボクセル値に基づいて輝度値を定めた第2のレンダリング画像を生成する第2のレンダリング部と、
    前記第1及び第2のレンダリング画像の少なくとも一部を重畳させた重畳画像を生成する重畳処理部と、
    前記重畳画像を表示装置に表示させる表示制御部と
    前記重畳画像の輝度値に基づいて、当該重畳画像が観察に適切であるか否かを判定する判定部と、
    を備え、
    前記重畳処理部は、前記判定部によって前記重畳画像が観察に適切でないと判定された場合に、前記重畳画像における前記第1又は第2のレンダリング画像の重畳比率を上げるように調整する、
    画像処理装置。
  12. 被検体を超音波で3次元走査して得られたボリュームデータを取得し、
    前記ボリュームデータに対し、光源の位置と、ボリュームデータを構成するボクセル値とに基づいて輝度値を定めた第1のレンダリング画像を生成し、
    前記ボリュームデータに対し、前記ボリュームデータを構成するボクセル値に基づいて輝度値を定めた第2のレンダリング画像を生成し、
    前記第1及び第2のレンダリング画像の少なくとも一方を重畳させた重畳画像を生成し、
    前記重畳画像を表示装置に表示させ、
    前記重畳画像の輝度値に基づいて、当該重畳画像が観察に適切であるか否かを判定する、
    ことを含み、
    前記重畳画像を生成する際に、前記重畳画像が観察に適切でないと判定された場合に、前記重畳画像における前記第1又は第2のレンダリング画像の重畳比率を上げるように調整する、
    画像処理方法。
JP2013180610A 2012-08-30 2013-08-30 超音波診断装置、画像処理装置及び画像処理方法 Active JP6316557B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201380045448.9A CN104602610B (zh) 2012-08-30 2013-08-30 超声波诊断装置、图像处理装置以及图像处理方法
JP2013180610A JP6316557B2 (ja) 2012-08-30 2013-08-30 超音波診断装置、画像処理装置及び画像処理方法
PCT/JP2013/073445 WO2014034905A1 (ja) 2012-08-30 2013-08-30 超音波診断装置、画像処理装置及び画像処理方法
US14/634,177 US10420534B2 (en) 2012-08-30 2015-02-27 Ultrasonic diagnostic device, image processing device, and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012190367 2012-08-30
JP2012190367 2012-08-30
JP2013180610A JP6316557B2 (ja) 2012-08-30 2013-08-30 超音波診断装置、画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2014061288A JP2014061288A (ja) 2014-04-10
JP6316557B2 true JP6316557B2 (ja) 2018-04-25

Family

ID=50183708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013180610A Active JP6316557B2 (ja) 2012-08-30 2013-08-30 超音波診断装置、画像処理装置及び画像処理方法

Country Status (4)

Country Link
US (1) US10420534B2 (ja)
JP (1) JP6316557B2 (ja)
CN (1) CN104602610B (ja)
WO (1) WO2014034905A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3139838B1 (en) * 2014-05-09 2018-12-19 Koninklijke Philips N.V. Imaging systems and methods for positioning a 3d ultrasound volume in a desired orientation
US10068368B2 (en) * 2014-09-23 2018-09-04 Siemens Healthcare Gmbh Method, visualization device, and computer program product for visualizing a three-dimensional object
KR102297346B1 (ko) * 2014-10-31 2021-09-03 삼성메디슨 주식회사 의료 영상 장치 및 그에 따른 의료 영상을 디스플레이 하는 방법
US9384548B1 (en) * 2015-01-23 2016-07-05 Kabushiki Kaisha Toshiba Image processing method and apparatus
US9659405B2 (en) 2015-04-01 2017-05-23 Toshiba Medical Systems Corporation Image processing method and apparatus
WO2017047232A1 (ja) * 2015-09-16 2017-03-23 株式会社日立製作所 超音波撮像装置
US10342633B2 (en) 2016-06-20 2019-07-09 Toshiba Medical Systems Corporation Medical image data processing system and method
WO2018047910A1 (ja) 2016-09-12 2018-03-15 富士フイルム株式会社 超音波診断システム及び超音波診断システムの制御方法
US10467798B2 (en) 2016-12-19 2019-11-05 Canon Medical Systems Corporation Rendering a global illumination image from a volumetric medical imaging data set
WO2019045144A1 (ko) * 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
KR20210098243A (ko) 2020-01-31 2021-08-10 삼성메디슨 주식회사 초음파 영상 장치, 그 제어 방법, 및 컴퓨터 프로그램
CN113520321B (zh) * 2021-07-14 2022-12-23 沈阳菁华医院有限公司 基于参数触发的助产条件判断平台

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10146395A (ja) * 1996-11-18 1998-06-02 Hitachi Ltd 放射線照射システム
US6008813A (en) * 1997-08-01 1999-12-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Real-time PC based volume rendering system
JP4260938B2 (ja) * 1998-10-23 2009-04-30 株式会社東芝 3次元超音波診断装置
JP2006130071A (ja) * 2004-11-05 2006-05-25 Matsushita Electric Ind Co Ltd 画像処理装置
GB0514715D0 (en) * 2005-07-18 2005-08-24 Isis Innovation Combination of images
US7912264B2 (en) * 2007-08-03 2011-03-22 Siemens Medical Solutions Usa, Inc. Multi-volume rendering of single mode data in medical diagnostic imaging
CN101601593B (zh) 2008-06-10 2013-01-16 株式会社东芝 超声波诊断装置
JP5491830B2 (ja) 2009-01-20 2014-05-14 株式会社東芝 超音波診断装置、超音波画像処理装置、画像処理方法および画像表示方法
JP4785936B2 (ja) * 2009-01-22 2011-10-05 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波画像表示方法および超音波診断装置
US8690776B2 (en) * 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
EP2535003A4 (en) * 2010-02-09 2017-03-15 Hitachi, Ltd. Ultrasonic diagnosis device and ultrasonic image display method
JP5762076B2 (ja) * 2010-03-30 2015-08-12 株式会社東芝 超音波診断装置、超音波画像処理装置及び医用画像診断装置

Also Published As

Publication number Publication date
JP2014061288A (ja) 2014-04-10
US10420534B2 (en) 2019-09-24
US20150164475A1 (en) 2015-06-18
CN104602610B (zh) 2018-12-11
WO2014034905A1 (ja) 2014-03-06
CN104602610A (zh) 2015-05-06

Similar Documents

Publication Publication Date Title
JP6316557B2 (ja) 超音波診断装置、画像処理装置及び画像処理方法
JP6735016B2 (ja) 医用画像処理装置
JP6147489B2 (ja) 超音波画像形成システム
US7889194B2 (en) System and method for in-context MPR visualization using virtual incision volume visualization
US8363048B2 (en) Methods and apparatus for visualizing data
CN102208118B (zh) 投影图像生成方法和设备
JP6688618B2 (ja) 医用画像処理装置及び医用画像診断装置
JP2009034521A (ja) 医学的な画像診断におけるデータを体積レンダリングするシステムと方法ならびにコンピュータ読み出し可能記憶媒体
JP4588736B2 (ja) 画像処理方法および装置並びにプログラム
US20120306849A1 (en) Method and system for indicating the depth of a 3d cursor in a volume-rendered image
JP2009531128A (ja) 立体画像誘導の手術ナビゲーションのための方法及び装置
JP2006187531A (ja) 関心領域指定方法、関心領域指定プログラム、関心領域指定装置
CN109937435B (zh) 用于在绘制的图像中进行模拟光源定位的系统和方法
US20090003668A1 (en) Image processing method, image processing program, and image processing device
EP2333577B1 (en) Methods and systems for defining a VOI in an ultrasound imaging space
JP2008259612A (ja) 投影画像生成装置およびそのプログラム
CN105007824A (zh) 医用图像处理装置以及图像处理方法
US20120308107A1 (en) Method and apparatus for visualizing volume data for an examination of density properties
JP4122314B2 (ja) 投影画像処理方法、投影画像処理プログラム、投影画像処理装置
US10380786B2 (en) Method and systems for shading and shadowing volume-rendered images based on a viewing direction
JP2006122663A (ja) 画像処理装置及び画像処理方法
CN114093464A (zh) 用于控制用于体积绘制图像的虚拟光源的方法和系统
JP6533687B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
Kalarat et al. Real-time volume rendering interaction in Virtual Reality
JP2019181168A (ja) 医用画像診断装置、医用画像処理装置及び医用画像処理プログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160601

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180328

R150 Certificate of patent or registration of utility model

Ref document number: 6316557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150