JP2013006019A - 医用画像診断装置、画像処理装置及び超音波診断装置 - Google Patents
医用画像診断装置、画像処理装置及び超音波診断装置 Download PDFInfo
- Publication number
- JP2013006019A JP2013006019A JP2012112767A JP2012112767A JP2013006019A JP 2013006019 A JP2013006019 A JP 2013006019A JP 2012112767 A JP2012112767 A JP 2012112767A JP 2012112767 A JP2012112767 A JP 2012112767A JP 2013006019 A JP2013006019 A JP 2013006019A
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- image
- viewpoint
- control unit
- parallax image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/466—Displaying means of special interest adapted to display 3D data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/388—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/462—Displaying means of special interest characterised by constructional features of the display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/483—Diagnostic techniques involving the acquisition of a 3D volume of data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/488—Diagnostic techniques involving Doppler signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- General Physics & Mathematics (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
Abstract
【課題】3次元の医用画像データを広範囲で同時に立体的に観察すること。
【解決手段】実施形態の超音波診断装置は、モニタ2と、レンダリング処理部16aと、制御部18とを備える。モニタ2は、所定視差数の視差画像である視差画像群を表示し、観察者により立体的に認識される立体画像を表示する。レンダリング処理部16aは、ボリュームデータに対して基準視点を中心とする複数視点からボリュームレンダリング処理を行なうことで視差画像群を生成する。制御部18は、基準視点の位置として複数の基準視点の位置を受け付け、当該受け付けた複数の基準視点それぞれに基づく視差画像群をレンダリング処理部16aに生成させる。そして、制御部18は、複数の基準視点それぞれに基づく複数の視差画像群それぞれを、モニタ2の表示領域を分割した複数の領域それぞれに割り振って表示させるように制御する。
【選択図】図1
【解決手段】実施形態の超音波診断装置は、モニタ2と、レンダリング処理部16aと、制御部18とを備える。モニタ2は、所定視差数の視差画像である視差画像群を表示し、観察者により立体的に認識される立体画像を表示する。レンダリング処理部16aは、ボリュームデータに対して基準視点を中心とする複数視点からボリュームレンダリング処理を行なうことで視差画像群を生成する。制御部18は、基準視点の位置として複数の基準視点の位置を受け付け、当該受け付けた複数の基準視点それぞれに基づく視差画像群をレンダリング処理部16aに生成させる。そして、制御部18は、複数の基準視点それぞれに基づく複数の視差画像群それぞれを、モニタ2の表示領域を分割した複数の領域それぞれに割り振って表示させるように制御する。
【選択図】図1
Description
本発明の実施形態は、医用画像診断装置、画像処理装置及び超音波診断装置に関する。
従来、2つの視点から撮影された2つの視差画像をモニタに表示することで、例えば、立体視用メガネ等の専用機器を用いた観察者が立体的に認識できる立体画像を表示する技術がある。また、近年、レンチキュラーレンズ等の光線制御子を用いて、複数の視点から撮影された多視差画像(例えば、9つの視差画像)をモニタに表示することで、裸眼の観察者に立体画像を表示する技術がある。
一方、超音波診断装置やX線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等の医用画像診断装置では、3次元の医用画像データ(ボリュームデータ)を生成可能な装置が実用化されている。従来、かかる医用画像診断装置により生成されたボリュームデータは、種々の画像処理(レンダリング処理)により2次元画像(レンダリング画像)とされ、汎用モニタ上にて2次元表示される。例えば、医用画像診断装置により生成されたボリュームデータは、ボリュームレンダリングにより3次元の情報を反映した2次元画像(ボリュームレンダリング画像)とされ、汎用モニタ上にて2次元表示される。
また、医用画像診断装置により生成されたボリュームデータに対して多視点からボリュームレンダリングすることで生成されたボリュームレンダリング画像を、上記の立体視可能なモニタにて立体的に表示させることが検討されている。しかし、立体視可能なモニタで立体視される立体画像は、所定視差数の視差画像群を用いているため、ボリュームデータを広範囲で同時に観察することができなかった。
本発明が解決しようとする課題は、3次元の医用画像データを広範囲で同時に立体的に観察することができる医用画像診断装置、画像処理装置及び超音波診断装置提供することである。
実施形態の医用画像診断装置は、表示部と、レンダリング処理部と、第1制御部と、第2制御部とを備える。表示部は、画像間の視差角が所定角度となる所定視差数の視差画像である視差画像群を表示し、観察者により立体的に認識される立体画像を表示する。レンダリング処理部は、3次元の医用画像データであるボリュームデータに対して基準視点を中心とする複数視点からボリュームレンダリング処理を行なうことで前記視差画像群を生成する。第1制御部は、前記基準視点の位置として複数の基準視点の位置を受け付け、当該受け付けた複数の基準視点それぞれに基づく視差画像群を前記レンダリング処理部に生成させる。第2制御部は、前記複数の基準視点それぞれに基づく複数の視差画像群それぞれを、前記表示部の表示領域を分割した複数の領域それぞれに割り振って表示させるように制御する。
以下、添付図面を参照して、超音波診断装置の実施形態を詳細に説明する。
最初に、以下の実施形態で用いる用語について説明すると、「視差画像群」とは、ボリュームデータに対して、所定の視差角ずつ視点位置を移動させてボリュームレンダリング処理を行なうことで生成された画像群のことである。すなわち、「視差画像群」は、「視点位置」が異なる複数の「視差画像」から構成される。また、「視差角」とは、「視差画像群」を生成するために設定された各視点位置のうち隣接する視点位置とボリュームデータによって表される空間内の所定位置(例えば、空間の中心)とにより定まる角度のことである。また、「視差数」とは、立体表示モニタにて立体視されるために必要となる「視差画像」の数のことである。また、以下で記載する「9視差画像」とは、9つの「視差画像」から構成される「視差画像群」のことである。また、以下で記載する「2視差画像」とは、2つの「視差画像」から構成される「視差画像群」のことである。また、「立体画像」とは、「視差画像群」を表示する立体表示モニタを参照する観察者により立体視される画像のことである。
(第1の実施形態)
まず、第1の実施形態に係る超音波診断装置の構成について説明する。図1は、第1の実施形態に係る超音波診断装置の構成例を説明するための図である。図1に示すように、第1の実施形態に係る超音波診断装置は、超音波プローブ1と、モニタ2と、入力装置3と、装置本体10とを有する。
まず、第1の実施形態に係る超音波診断装置の構成について説明する。図1は、第1の実施形態に係る超音波診断装置の構成例を説明するための図である。図1に示すように、第1の実施形態に係る超音波診断装置は、超音波プローブ1と、モニタ2と、入力装置3と、装置本体10とを有する。
超音波プローブ1は、複数の圧電振動子を有し、これら複数の圧電振動子は、後述する装置本体10が有する送信部11から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ1は、被検体Pからの反射波を受信して電気信号に変換する。また、超音波プローブ1は、圧電振動子に設けられる整合層と、圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。なお、超音波プローブ1は、装置本体10と着脱自在に接続される。
超音波プローブ1から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ1が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。
ここで、第1の実施形態に係る超音波プローブ1は、超音波により被検体Pを2次元で走査するとともに、被検体Pを3次元で走査することが可能な超音波プローブである。具体的には、第1の実施形態に係る超音波プローブ1は、被検体Pを2次元で走査する複数の超音波振動子を所定の角度(揺動角度)で揺動させることで、被検体Pを3次元で走査するメカニカルスキャンプローブである。或いは、第1の実施形態に係る超音波プローブ1は、複数の超音波振動子がマトリックス状に配置されることで、被検体Pを3次元で超音波走査することが可能な2次元超音波プローブである。なお、2次元超音波プローブは、超音波を集束して送信することで、被検体Pを2次元で走査することも可能である。
入力装置3は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等を有し、超音波診断装置の操作者からの各種設定要求を受け付け、装置本体10に対して受け付けた各種設定要求を転送する。
モニタ2は、超音波診断装置の操作者が入力装置3を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体10において生成された超音波画像等を表示したりする。
ここで、第1の実施形態に係るモニタ2は、画像間の視差角が所定角度となる所定視差数の視差画像である視差画像群を表示し、観察者により立体的に認識される立体画像を表示するモニタ(以下、立体表示モニタ)である。以下、立体表示モニタについて説明する。
現在最も普及している一般的な汎用モニタは、2次元画像を2次元で表示するものであり、2次元画像を立体表示することができない。仮に、観察者が汎用モニタにて立体視を要望する場合、汎用モニタに対して画像を出力する装置は、平行法や交差法により観察者が立体視可能な2視差画像を並列表示させる必要がある。又は、汎用モニタに対して画像を出力する装置は、例えば、左目用の部分に赤色のセロハンが取り付けられ、右目用の部分に青色のセロハンが取り付けられたメガネを用いて余色法により観察者が立体視可能な画像を表示する必要がある。
一方、立体表示モニタとしては、2視差画像(両眼視差画像とも称する)を表示することで、両眼視差による立体視を可能とするモニタ(以下、2視差モニタと記載する)がある。
図2A及び図2Bは、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図2A及び図2Bに示す一例は、シャッター方式により立体表示を行なう立体表示モニタであり、モニタを観察する観察者が装着する立体視用メガネとしてシャッターメガネが用いられる。かかる立体表示モニタは、モニタにて2視差画像を交互に出射する。例えば、図2Aに示すモニタは、左目用の画像と右目用の画像を、120Hzにて交互に出射する。ここで、モニタには、図2Aに示すように、赤外線出射部が設置され、赤外線出射部は、画像が切り替わるタイミングに合わせて赤外線の出射を制御する。
また、赤外線出射部から出射された赤外線は、図2Aに示すシャッターメガネの赤外線受光部により受光される。シャッターメガネの左右それぞれの枠には、シャッターが取り付けられており、シャッターメガネは、赤外線受光部が赤外線を受光したタイミングに合わせて左右のシャッターそれぞれの透過状態及び遮光状態を交互に切り替える。以下、シャッターにおける透過状態及び遮光状態の切り替え処理について説明する。
各シャッターは、図2Bに示すように、入射側の偏光板と出射側の偏光板とを有し、更に、入射側の偏光板と出射側の偏光板との間に液晶層を有する。また、入射側の偏光板と出射側の偏光板とは、図2Bに示すように、互いに直交している。ここで、図2Bに示すように、電圧が印加されていない「OFF」の状態では、入射側の偏光板を通った光は、液晶層の作用により90度回転し、出射側の偏光板を透過する。すなわち、電圧が印加されていないシャッターは、透過状態となる。
一方、図2Bに示すように、電圧が印加された「ON」の状態では、液晶層の液晶分子による偏光回転作用が消失するため、入射側の偏光板を通った光は、出射側の偏光板で遮られてしまう。すなわち、電圧が印加されたシャッターは、遮光状態となる。
そこで、例えば、赤外線出射部は、モニタ上に左目用の画像が表示されている期間、赤外線を出射する。そして、赤外線受光部は、赤外線を受光している期間、左目のシャッターに電圧を印加せず、右目のシャッターに電圧を印加させる。これにより、図2Aに示すように、右目のシャッターが遮光状態となり、左目のシャッターが透過状態となるため、観察者の左目に左目用の画像が入射する。一方、赤外線出射部は、モニタ上に右目用の画像が表示されている期間、赤外線の出射を停止する。そして、赤外線受光部は、赤外線が受光されない期間、右目のシャッターに電圧を印加せず、左目のシャッターに電圧を印加させる。これにより、左目のシャッターが遮光状態となり、右目のシャッターが透過状態であるため、観察者の右目に右目用の画像が入射する。このように、図2A及び図2Bに示す立体表示モニタは、モニタに表示される画像とシャッターの状態を連動させて切り替えることで、観察者が立体視可能な画像を表示させる。
なお、2視差モニタとしては、シャッター方式により立体表示を行なう装置以外にも、偏光メガネ方式により立体表示を行なう装置や、視差バリア方式により立体表示を行なう装置等がある。
更に、近年実用化された立体表示モニタとしては、レンチキュラーレンズ等の光線制御子を用いることで、例えば、9視差画像等の多視差画像を観察者が裸眼にて立体視可能とするものがある。かかる立体表示モニタは、両眼視差による立体視を可能とし、更に、観察者の視点移動に合わせて観察される映像も変化する運動視差による立体視も可能とする。
図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図3に示す立体表示モニタには、液晶パネル等の平面状の表示面200の前面に、光線制御子が配置される。例えば、図3に示す立体表示モニタには、光線制御子として、光学開口が垂直方向に延びる垂直レンチキュラーシート201が表示面200の前面に貼り付けられている。なお、図3に示す一例では、垂直レンチキュラーシート201の凸部が前面となるように貼り付けられているが、垂直レンチキュラーシート201の凸部が表示面200に対向するように貼り付けられる場合であっても良い。
表示面200には、図3に示すように、縦横比が3:1であり、縦方向にサブ画素である赤(R)、緑(G)、青(B)の3つが配置された画素202がマトリクス状に配置される。図3に示す立体表示モニタは、9つの画像により構成される9視差画像を、所定フォーマット(例えば格子状)に配置した中間画像に変換したうえで、表示面200に出力する。すなわち、図3に示す立体表示モニタは、9視差画像にて同一位置にある9つの画素それぞれを、9列の画素202に割り振って出力させる。9列の画素202は、視点位置の異なる9つの画像を同時に表示する単位画素群203となる。
表示面200において単位画素群203として同時に出力された9視差画像は、例えば、LED(Light Emitting Diode)バックライトにより平行光として放射され、更に、垂直レンチキュラーシート201により、多方向に放射される。9視差画像の各画素の光が多方向に放射されることにより、観察者の右目及び左目に入射する光は、観察者の位置(視点の位置)に連動して変化する。すなわち、観察者の見る角度により、右目に入射する視差画像と左目に入射する視差画像とは、視差角が異なる。これにより、観察者は、例えば、図3に示す9つの位置それぞれにおいて、撮影対象を立体的に視認できる。また、観察者は、例えば、図3に示す「5」の位置において、撮影対象に対して正対した状態で立体的に視認できるとともに、図3に示す「5」以外それぞれの位置において、撮影対象の向きを変化させた状態で立体的に視認できる。なお、図3に示す立体表示モニタは、あくまでも一例である。9視差画像を表示する立体表示モニタは、図3に示すように、「RRR・・・、GGG・・・、BBB・・・」の横ストライプ液晶である場合であっても良いし、「RGBRGB・・・」の縦ストライプ液晶である場合であっても良い。また、図3に示す立体表示モニタは、図3に示すように、レンチキュラーシートが垂直となる縦レンズ方式である場合であっても良いし、レンチキュラーシートが斜めとなる斜めレンズ方式である場合であっても良い。以下、図3を用いて説明した立体表示モニタを9視差モニタと記載する。
すなわち、2視差モニタは、画像間の視差角が所定角度となる2つの視差画像である視差画像群(2視差画像)を表示することで、観察者により立体的に認識される立体画像を表示する立体表示モニタである。また、9視差モニタは、画像間の視差角が所定角度となる9つの視差画像である視差画像群(9視差画像)を表示することで、観察者により立体的に認識される立体画像を表示する立体表モニタである。
なお、第1の実施形態は、モニタ2が2視差モニタである場合であっても、9視差モニタである場合であっても適用可能である。以下では、モニタ2が9視差モニタである場合について説明する。
図1に戻って、装置本体10は、超音波プローブ1が受信した反射波に基づいて超音波画像データを生成する装置である。具体的には、第1の実施形態に係る装置本体10は、超音波プローブ1が受信した3次元の反射波データに基づいて3次元の超音波画像データを生成可能な装置である。以下、3次元の超音波画像データを「ボリュームデータ」と記載する。
装置本体10は、図1に示すように、送信部11と、受信部12と、Bモード処理部13と、ドプラ処理部14と、画像生成部15と、ボリュームデータ処理部16と、画像メモリ17と、制御部18と、内部記憶部19とを有する。
送信部11は、トリガ発生回路、送信遅延回路及びパルサ回路等を有し、超音波プローブ1に駆動信号を供給する。パルサ回路は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、送信遅延回路は、超音波プローブ1から発生される超音波をビーム状に集束して送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルサ回路が発生する各レートパルスに対し与える。また、トリガ発生回路は、レートパルスに基づくタイミングで、超音波プローブ1に駆動信号(駆動パルス)を印加する。すなわち、遅延回路は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面からの送信方向を任意に調整する。
なお、送信部11は、後述する制御部18の指示に基づいて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有している。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、または、複数の電源ユニットを電気的に切り替える機構によって実現される。
受信部12は、アンプ回路、A/D変換器、加算器等を有し、超音波プローブ1が受信した反射波信号に対して各種処理を行なって反射波データを生成する。アンプ回路は、反射波信号をチャンネルごとに増幅してゲイン補正処理を行なう。A/D変換器は、ゲイン補正された反射波信号をA/D変換し、デジタルデータに受信指向性を決定するのに必要な遅延時間を与える。加算器は、A/D変換器によって処理された反射波信号の加算処理を行なって反射波データを生成する。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調される。
このように、送信部11及び受信部12は、超音波の送受信における送信指向性と受信指向性とを制御する。
ここで、第1の実施形態に係る送信部11は、超音波プローブ1から被検体Pに対して3次元の超音波ビームを送信させる。そして、第1の実施形態に係る受信部12は、超音波プローブ1が受信した3次元の反射波信号から3次元の反射波データを生成する。
Bモード処理部13は、受信部12から反射波データを受信し、対数増幅、包絡線検波処理等を行なって、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。
ドプラ処理部14は、受信部12から受信した反射波データから速度情報を周波数解析し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、平均速度、分散、パワー等の移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。
なお、第1の実施形態に係るBモード処理部13及びドプラ処理部14は、2次元の反射波データ及び3次元の反射波データの両方について処理可能である。すなわち、Bモード処理部13は、2次元の反射波データから2次元のBモードデータを生成し、3次元の反射波データから3次元のBモードデータを生成する。また、ドプラ処理部14は、2次元の反射波データから2次元のドプラデータを生成し、3次元の反射波データから3次元のドプラデータを生成する。
画像生成部15は、Bモード処理部13及びドプラ処理部14が生成したデータから超音波画像データを生成する。すなわち、画像生成部15は、Bモード処理部13が生成した2次元のBモードデータから反射波の強度を輝度にて表したBモード画像データを生成する。また、画像生成部15は、ドプラ処理部14が生成した2次元のドプラデータから移動体情報を表す平均速度画像、分散画像、パワー画像、又は、これらの組み合わせ画像としてのカラードプラ画像データを生成する。
ここで、画像生成部15は、一般的には、超音波走査の走査線信号列を、テレビなどに代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。具体的には、画像生成部15は、超音波プローブ1による超音波の走査形態に応じて座標変換を行なうことで、表示用の超音波画像データを生成する。また、画像生成部15は、超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク等を合成する。
更に、画像生成部15は、Bモード処理部13が生成した3次元のBモードデータに対して座標変換を行なうことで、3次元のBモード画像データを生成する。また、画像生成部15は、ドプラ処理部14が生成した3次元のドプラデータに対して座標変換を行なうことで、3次元のカラードプラ画像データを生成する。すなわち、画像生成部15は、「3次元のBモード画像データや3次元のカラードプラ画像データ」を「3次元の超音波画像データであるボリュームデータ」として生成する。
ボリュームデータ処理部16は、画像生成部15が生成したボリュームデータから表示用の超音波画像データを生成する。
具体的には、ボリュームデータ処理部16は、図1に示すように、レンダリング処理部16a及び視差画像合成部16bを有する。
レンダリング処理部16aは、ボリュームデータをモニタ2にて表示するための各種画像(2次元画像)を生成するために、ボリュームデータに対してレンダリング処理を行なう処理部である。レンダリング処理部16aが行なうレンダリング処理としては、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータからMPR画像を再構成する処理がある。また、レンダリング処理部16aが行なうレンダリング処理としては、ボリュームデータに対して「Curved MPR」を行なう処理や、ボリュームデータに対して「Intensity Projection」を行なう処理がある。
更に、レンダリング処理部16aが行なうレンダリング処理としては、3次元の情報を反映した2次元画像(ボリュームレンダリング画像)を生成するボリュームレンダリング処理がある。すなわち、レンダリング処理部16aは、3次元の超音波画像データであるボリュームデータに対して基準視点を中心とする複数視点からボリュームレンダリング処理を行なうことで視差画像群を生成する。具体的には、レンダリング処理部16aは、モニタ2が9視差モニタであることから、ボリュームデータに対して基準視点を中心とする9つの視点からボリュームレンダリング処理を行なうことで、9視差画像を生成する。
レンダリング処理部16aは、後述する制御部18の制御の下、図4に示すボリュームレンダリング処理を行なうことで9視差画像を生成する。図4は、視差画像群を生成するためのボリュームレンダリング処理の一例を説明するための図である。
例えば、レンダリング処理部16aが、図4の「9視差画像生成方式(1)」に示すように、レンダリング条件として、平行投影法を受け付け、更に、基準視点の位置(5)と視差角「1度」とを受け付けたとする。かかる場合、レンダリング処理部16aは、視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に平行移動して、平行投影法により視差角(視線方向間の角度)が1度ずつ異なる9つの視差画像を生成する。なお、平行投影法を行なう場合、レンダリング処理部16aは、視線方向に沿って無限遠から平行な光線を照射する光源を設定する。
或いは、レンダリング処理部16aが、図4の「9視差画像生成方式(2)」に示すように、レンダリング条件として、透視投影法を受け付け、更に、基準視点の位置(5)と視差角「1度」とを受け付けたとする。かかる場合、レンダリング処理部16aは、ボリュームデータの中心(重心)を中心に視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に回転移動して、透視投影法により視差角が1度ずつ異なる9つの視差画像を生成する。なお、透視投影法を行なう場合、レンダリング処理部16aは、視線方向を中心に光を3次元的に放射状に照射する点光源や面光源を各視点にて設定する。また、透視投影法を行なう場合、レンダリング条件によっては、視点(1)〜(9)は、平行移動される場合であってもよい。
なお、レンダリング処理部16aは、表示されるボリュームレンダリング画像の縦方向に対しては、視線方向を中心に光を2次元的に放射状に照射し、表示されるボリュームレンダリング画像の横方向に対しては、視線方向に沿って無限遠から平行な光線を照射する光源を設定することで、平行投影法と透視投影法とを併用したボリュームレンダリング処理を行なってもよい。
このようにして生成された9つの視差画像が、視差画像群である。すなわち、視差画像群は、ボリュームデータから生成された立体表示用の超音波画像群である。
なお、モニタ2が2視差モニタである場合、レンダリング処理部16aは、基準視点を中心にして、例えば、視差角が「1度」となる2つの視点を設定することで、2視差画像を生成する。
ここで、画像生成部15は、表示用の視差画像群に、視差画像群以外の情報(文字情報、目盛り、ボディーマーク等)を合成し、制御部18の制御の下、ビデオ信号としてモニタ2に出力する。
また、図1に示す視差画像合成部16bは、レンダリング処理部16aが異なる基準視点を用いて生成した複数の視差画像群を合成することで、視差画像群として用いられる合成画像群を生成する。なお、視差画像合成部16bについては、後に詳述する。
画像メモリ17は、画像生成部15及びボリュームデータ処理部16が生成した画像データを記憶するメモリである。また、画像メモリ17は、Bモード処理部13やドプラ処理部14が生成したデータを記憶することも可能である。
内部記憶部19は、超音波送受信、画像処理及び表示処理を行なうための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディーマーク等の各種データを記憶する。また、内部記憶部19は、必要に応じて、画像メモリ17が記憶する画像データの保管等にも使用される。
制御部18は、超音波診断装置の処理全体を制御する。具体的には、制御部18は、入力装置3を介して操作者から入力された各種設定要求や、内部記憶部19から読込んだ各種制御プログラム及び各種データに基づき、送信部11、受信部12、Bモード処理部13、ドプラ処理部14、画像生成部15及びボリュームデータ処理部16の処理を制御する。
また、制御部18は、画像メモリ17や内部記憶部19が記憶する表示用の超音波画像データをモニタ2にて表示するように制御する。具体的には、第1の実施形態に係る制御部18は、9視差画像を所定フォーマット(例えば格子状)に配置した中間画像に変換し、立体表示モニタとしてのモニタ2に出力することで、観察者(超音波診断装置の操作者)により立体的に認識される立体画像を表示させる。
以上、第1の実施形態に係る超音波診断装置の全体構成について説明した。かかる構成のもと、第1の実施形態に係る超音波診断装置は、3次元の超音波画像データであるボリュームデータを生成し、生成した超音波ボリュームデータから視差画像群を生成する。そして、第1の実施形態に係る超音波診断装置は、モニタ2にて視差画像群を表示する。これにより、超音波診断装置の操作者である観察者は、3次元の超音波画像データを立体的に観察することができる。
しかし、立体視モニタであるモニタ2で立体視される立体画像は、9視差画像のように、所定視差数の視差画像群を用いているため、ボリュームデータを広範囲で同時に観察することができなかった。
そこで、第1の実施形態に係る超音波診断装置の制御部18は、3次元の超音波画像データを広範囲で同時に立体的に観察することができるように、以下に説明する制御を行なう。
すなわち、第1の実施形態に係る制御部18は、第1制御において、基準視点の位置として複数の基準視点の位置を受け付け、当該受け付けた複数の基準視点それぞれに基づく視差画像群をレンダリング処理部16aに生成させる。以下に説明する第1の実施形態では、制御部18は、基準視点の位置の変更を時系列に沿って順次受け付けることで、複数の基準視点の位置を受け付ける。従って、第1の実施形態に係る制御部18は、第1制御として、基準視点の位置の変更を受け付けるごとに、当該受け付けた変更後の基準視点に基づく視差画像群をレンダリング処理部16aに生成させる。
第1制御において、制御部18が基準視点の位置の変更を受け付ける方法について、図5A及び図5Bを用いて説明する。図5A及び図5Bは、基準視点の位置の変更を受け付ける方法の一例を説明するための図である。
図5Aに示す一例は、観察者の移動を検出する検出部として、モニタ2に取り付けたカメラ2aを用いる方法である。すなわち、カメラ2aは、図5Aに示すように、観察者を撮影することで、観察者の移動を検出する。そして、制御部18は、図5Aに示すように、検出部であるカメラ2aが検出した観察者のモニタ2に対する移動(移動量及び移動方向)に基づいて、基準視点の位置の変更を受け付ける。
具体的には、カメラ2aは、顔認識機能を有する。そして、カメラ2aは、実空間における観察者の顔を顔認識機能により追跡(トラッキング)し、更に、認識した観察者の顔のモニタ2に対する移動量及び移動方向を制御部18に転送する。制御部18は、観察者の顔のモニタ2に対する移動量及び移動方向に応じて、ボリュームデータに対する基準視点の位置を変更する。
一方、図5Bに示す一例は、入力装置3が有するジョイスティックを用いる方法である。すなわち、入力装置3が有するジョイスティックは、図5Bに示すように、基準視点の位置を変更する操作を受け付ける。具体的には、ジョイスティックは、モニタ2の観察者から基準視点の位置を変更する操作を受け付ける。そして、制御部18は、図5Bに示すように、入力装置3が有するジョイスティックが受け付けた観察者の操作情報に基づいて、基準視点の位置の変更を受け付ける。
具体的には、観察者は、自身が観察したい位置に基準視点の位置を変更させるために、ジョイスティックを移動させる。ジョイスティックは、自装置の移動方向及び移動量を制御部18に転送する。制御部18は、ジョイスティックの移動量及び移動方向に応じて、ボリュームデータに対する基準視点の位置を変更する。なお、ジョイスティックはあくまでも一例であり、観察者の操作情報により基準視点の位置の変更を受け付ける場合に用いられる入力装置3は、トラックボールやマウス等であっても良い。
かかる方法により基準視点の位置の変更を受け付けることで、制御部18は、変更後の基準視点に基づく視差画像群をレンダリング処理部16aに生成させる。
そして、第1の実施形態に係る制御部18は、第2制御として、複数の基準視点それぞれに基づく複数の視差画像群それぞれを、モニタ2の表示領域を分割した複数の領域それぞれに割り振って表示させるように制御する。基準視点の位置の変更を時系列に沿って順次受け付ける第1の実施形態では、制御部18は、第2制御として、変更後の基準視点に基づく視差画像群と変更前の基準視点に基づく視差画像群とを、モニタ2の表示領域を分割した複数の領域それぞれに割り振って表示させるように制御する。なお、以下では、変更後の基準視点に基づく視差画像群を「第1の視差画像群」と記載し、変更前の基準視点に基づく視差画像群を「第2の視差画像群」と記載する場合がある。
具体的には、第1の実施形態に係る制御部18は、第2制御として、第1の視差画像群と第2の視差画像群とを同時に表示するために、モニタ2の表示領域を複数の領域に分割する。そして、第1の実施形態に係る制御部18は、第2制御として、第1の視差画像群と第2の視差画像群との合成画像群を、表示領域の分割パターンに応じて、視差画像合成部16bに生成させる。そして、第1の実施形態に係る制御部18は、視差画像合成部16bが生成した合成画像群をモニタ2に表示させる。
第2制御において、制御部18がモニタ2の表示領域を分割する一例について、図6を用いて説明する。図6は、モニタの表示領域の分割例を説明するための図である。
例えば、制御部18は、図6に示すように、モニタ2の表示領域を、横方向に2つに分割した「領域A」及び「領域B」を設定する。かかる設定により、視差画像合成部16bは、第1の視差画像群と第2の視差画像群とを横方向に並列して合成した合成画像群を生成する。すなわち、制御部18は、視差画像合成部16bに合成画像群を生成させることで、第1の視差画像群と第2の視差画像群とを複数の領域それぞれに割り振る。
上述した制御部18が実行する第1制御及び第2制御について、図7、図8A、図8B、図9A、図9B、図10及び図11を用いて、より詳細に説明する。図7は、基準視点の定義に用いる用語を説明するための図であり、図8A、図8B、図9A、図9B、図10及び図11は、第1の実施形態に係る制御部が行なう制御処理の一例を説明するための図である。
以下では、基準視点の位置を説明するために、図7に示す定義を用いる。図7に示す一例では、ボリュームデータを立方体で示している。そして、図7に示す一例では、ボリュームデータの手前に位置する面を「a」と定義し、面「a」に隣り合う面のうち右側にある面を「b」と定義し、面「a」に向かい合う面を「c」と定義する。また、図7に示す一例では、面「a」に隣り合う面のうち左側にある面を「d」と定義する。また、図7に示す一例では、面「a」に隣り合う面のうち上側にある面を「e」と定義し、面「a」に隣り合う面のうち下側にある面を「f」と定義する。
そして、面「a」に正対する位置から面「a」に向かう方向の視点を「視点a」と定義する。同様に、面「b」に正対する位置から面「b」に向かう方向の視点を「視点b」と定義する。同様に、面「c」に正対する位置から面「c」に向かう方向の視点を「視点c」と定義する。同様に、面「d」に正対する位置から面「d」に向かう方向の視点を「視点d」と定義する。同様に、面「e」に正対する位置から面「e」に向かう方向の視点を「視点e」と定義する。同様に、面「f」に正対する位置から面「f」に向かう方向の視点を「視点f」と定義する。
まず、制御部18が、図8Aに示すように、基準視点として「視点a」を最初に受け付けたとする。かかる場合、制御部18は、視点aを中心として9つの視点を設定することで、レンダリング処理部16aに9視差画像「a(1)〜a(9)」を生成させる。そして、制御部18は、図8の(A)に示すように、視差画像合成部16bに、9視差画像「a(1)〜a(9)」それぞれを横方向に重複して合成した合成画像群(9つの合成画像)を生成させる。すなわち、視差画像合成部16bは、図8の(A)に示すように、『合成画像「a(1),a(1)」、合成画像「a(2),a(2)」、・・・、合成画像「a(9),a(9)」』を生成する。
制御部18は、図8Aに示す9つの合成画像をモニタ2に表示させる。これにより、観察者は、領域A及び領域Bそれぞれで、ボリュームデータを視点aから観察した「立体画像a」を観察することができる。
続いて、制御部18が、図8Bに示すように、基準視点が「視点a」から、「視点a」と「視点d」の中間に位置する「視点da」に変更されたことを受け付けたとする。かかる場合、制御部18は、視点daを中心として9つの視点を設定することで、レンダリング処理部16aに9視差画像「da(1)〜da(9)」を生成させる。そして、制御部18は、図8Bに示すように、視差画像合成部16bに、変更前の9視差画像「a(1)〜a(9)」を領域Aに割り振り、変更後の9視差画像「da(1)〜da(9)」を領域Bに割り振って合成した合成画像群(9つの合成画像)を生成させる。すなわち、視差画像合成部16bは、図8Bに示すように、『合成画像「a(1),da(1)」、合成画像「a(2),da(2)」、・・・、合成画像「a(9),da(9)」』を生成する。
そして、制御部18は、図8Bに示す9つの合成画像をモニタ2に表示させる。これにより、観察者は、領域Aでボリュームデータを視点aから観察した「立体画像a」を観察し、領域Bでボリュームデータを視点daから観察した「立体画像da」を観察することができる。
続いて、制御部18が、図9Aに示すように、基準視点が「視点da」から、「視点a」と「視点b」の中間に位置する「視点ab」に変更されたことを受け付けたとする。かかる場合、制御部18は、視点abを中心として9つの視点を設定することで、レンダリング処理部16aに9視差画像「ab(1)〜ab(9)」を生成させる。そして、制御部18は、図9Aに示すように、視差画像合成部16bに、変更前の9視差画像「a(1)〜a(9)」を領域Aに割り振り、変更後の9視差画像「ab(1)〜ab(9)」を領域Bに割り振って合成した合成画像群(9つの合成画像)を生成させる。すなわち、視差画像合成部16bは、図9Aに示すように、『合成画像「a(1),ab(1)」、合成画像「a(2),ab(2)」、・・・、合成画像「a(9),ab(9)」』を生成する。
そして、制御部18は、図9Aに示す9つの合成画像をモニタ2に表示させる。これにより、観察者は、領域Aでボリュームデータを視点aから観察した「立体画像a」を観察し、領域Bでボリュームデータを視点abから観察した「立体画像ab」を観察することができる。
続いて、制御部18が、図9Bに示すように、基準視点が「視点ab」から「視点b」に変更されたことを受け付けたとする。かかる場合、制御部18は、視点bを中心として9つの視点を設定することで、レンダリング処理部16aに9視差画像「b(1)〜b(9)」を生成させる。そして、制御部18は、図9Bに示すように、視差画像合成部16bに、変更前の9視差画像「a(1)〜a(9)」を領域Aに割り振り、変更後の9視差画像「b(1)〜b(9)」を領域Bに割り振って合成した合成画像群(9つの合成画像)を生成させる。すなわち、視差画像合成部16bは、図9Bに示すように、『合成画像「a(1),b(1)」、合成画像「a(2),b(2)」、・・・、合成画像「a(9),b(9)」』を生成する。
そして、制御部18は、図9Bに示す9つの合成画像をモニタ2に表示させる。これにより、観察者は、領域Aでボリュームデータを視点aから観察した「立体画像a」を観察し、領域Bでボリュームデータを視点bから観察した「立体画像b」を観察することができる。
なお、図8A、図8B、図9A及び図9Bに示す一例では、第1の視差画像群である変更前の視差画像群を、最初に受け付けた基準視点を用いた視差画像群に固定する場合について説明した。しかし、本実施形態は、制御部18の制御により、変更前の視差画像群を、基準視点の変更直前に受け付けた基準視点を用いた視差画像群とする場合であっても良い。
具体的には、制御部18は、変更直前の視差画像群を領域Aに割り振り、変更後の視差画像群を領域Bに割り振るように制御する。例えば、図8A、図8B、図9A及び図9Bに示すように、「視点a」、「視点da」、「視点ab」、「視点b」の順に基準視点が変更されたとする。かかる場合、制御部18は、図10に示すように、最初に、「立体画像a」の9視差画像を領域A及び領域Bに割り振る。そして、「視点a」から「視点da」への基準視点変更にともない、制御部18は、図10に示すように、「立体画像a」の9視差画像を領域Aに割り振り、「立体画像da」の9視差画像を領域Bに割り振る。
そして、「視点da」から「視点ab」への基準視点変更にともない、制御部18は、図10に示すように、「立体画像da」の9視差画像を領域Aに割り振り、「立体画像ab」の9視差画像を領域Bに割り振る。そして、「視点ab」から「視点b」への基準視点変更にともない、制御部18は、図10に示すように、「立体画像ab」の9視差画像を領域Aに割り振り、「立体画像b」の9視差画像を領域Bに割り振る。
また、上記の一例では、表示領域が2つに分割される場合について説明した。しかし、本実施形態は、表示領域が3つ以上に分割される場合であっても良い。例えば、制御部18は、図11に示すように、モニタ2の表示領域を左側から右側方向に3つに分割した「領域A、領域B、領域C」を設定する。3つの領域を設定することで、制御部18は、図11に示すような第2制御を行なうことができる。例えば、上記と同様に、「視点a」、「視点da」、「視点ab」、「視点b」の順に基準視点が変更されたとする。
かかる場合、制御部18は、図11に示すように、最初に、「立体画像a」の9視差画像を領域A、領域B及び領域Cに割り振る。そして、「視点a」から「視点da」へと、基準視点が左側に変更されたことにともない、制御部18は、図11に示すように、「立体画像a」の9視差画像を領域B及び領域Cに割り振り、「立体画像da」の9視差画像を左側の領域Aに割り振る。
そして、基準視点が、「視点da」から「視点a」を超えて更に右側の「視点ab」へ変更されたことにともない、制御部18は、図11に示すように、「立体画像da」の9視差画像を左側の領域Aに割り振り、「立体画像a」の9視差画像を中央の領域Bに割り振り、「立体画像ab」の9視差画像を左側の領域Cに割り振る。
そして、基準視点が、「視点ab」から更に右側の「視点b」へ変更されたことにともない、制御部18は、図11に示すように、「立体画像da」の9視差画像を引き続き左側の領域Aに割り振り、「立体画像ab」の9視差画像を領域Cから中央の領域Bに変更して割り振り、「立体画像b」の9視差画像を左側の領域Cに割り振る。
ところで、上記の説明では、表示領域の分割方向が横方向であり、基準視点の位置の変更方向が横方向である場合について説明した。かかる場合、表示領域の分割方向と基準視点の位置の変更方向とが一致していることから、観察者にとって、ボリュームデータを違和感無く観察することができる。
しかし、基準視点の位置の変更方向は、横方向だけでなく、例えば、縦方向である場合もある。基準視点の位置の変更方向が縦方向であっても、上記のように、表示領域の分割方向を横方向として、変更後の基準視点に基づく視差画像群と変更前の基準視点に基づく視差画像群とを同時に表示させることで、観察者は、3次元の超音波画像データを広範囲で観察することができる。ただし、表示領域の分割方向が横方向であると、観察者は、基準視点を縦方向に変更させたにも関わらず、変更前後の立体画像が横方向に順次切り替わって表示させるので、違和感がある。
そこで、制御部18は、第2制御として、以下の変形例を行なっても良い。すなわち、制御部18は、基準視点の位置の移動方向に応じて、複数の領域の分割方向を変更する。図12A、図12B及び図12Cは、表示領域の分割に係る変形例を説明するための図である。
例えば、基準視点が、「視点a」、「視点a」と「視点e」の中間に位置する「視点ae」、「視点e」、「視点f」の順に基準視点が縦方向に変更されたとする。かかる場合、制御部18は、例えば、図12A、図12B及び図12Cに示すように、モニタ2の表示領域を下側から上側方向に2つに分割した「領域A、領域B」を設定する。
ここで、第1の視差画像群である変更前の視差画像群を、最初に受け付けた基準視点を用いた視差画像群に固定する場合は、制御部は、図12Aに示すパターンで第2制御を行なう。すなわち、制御部18は、図12Aに示すように、最初に、「立体画像a」の9視差画像を領域A及び領域Bに割り振る。そして、「視点a」から「視点ae」へと基準視点が変更されたことにともない、制御部18は、図12Aに示すように、「立体画像a」の9視差画像を領域Aに割り振り、「視点ae」の9視差画像である「立体画像ae」の9視差画像を領域Bに割り振る。
そして、「視点ae」から「視点e」へと基準視点が変更されたことにともない、制御部18は、図12Aに示すように、「立体画像a」の9視差画像を領域Aに割り振り、「視点e」の9視差画像である「立体画像e」の9視差画像を領域Bに割り振る。そして、「視点e」から「視点f」へと基準視点が変更されたことにともない、制御部18は、図12Aに示すように、「立体画像a」の9視差画像を領域Aに割り振り、「視点f」の9視差画像である「立体画像f」の9視差画像を領域Bに割り振る。
或いは、第1の視差画像群である変更前の視差画像群を変更直前の視差画像群として領域Aに割り振り、変更後の視差画像群を領域Bに割り振る場合は、制御部は、図12Bに示すパターンで第2制御を行なう。すなわち、制御部18は、図12Bに示すように、最初に、「立体画像a」の9視差画像を領域A及び領域Bに割り振る。そして、「視点a」から「視点ae」へと基準視点が変更されたことにともない、制御部18は、図12Bに示すように、「立体画像a」の9視差画像を領域Aに割り振り、「立体画像ae」の9視差画像を領域Bに割り振る。
そして、「視点ae」から「視点e」へと基準視点が変更されたことにともない、制御部18は、図12Bに示すように、「立体画像ae」の9視差画像を領域Aに割り振り、「立体画像e」の9視差画像を領域Bに割り振る。そして、「視点e」から「視点f」へと基準視点が変更されたことにともない、制御部18は、図12Bに示すように、「立体画像e」の9視差画像を領域Aに割り振り、「立体画像f」の9視差画像を領域Bに割り振る。
或いは、第1の視差画像群である変更前の視差画像群を変更直前の視差画像群とし、かつ、視差画像群の割り振りを基準視点の変更方向に応じて行なう場合は、制御部は、図12Cに示すパターンで第2制御を行なう。すなわち、制御部18は、図12C示すように、最初に、「立体画像a」の9視差画像を領域A及び領域Bに割り振る。そして、「視点a」から「視点ae」へと基準視点が上側に変更されたことにともない、制御部18は、図12Cに示すように、「立体画像a」の9視差画像を下側の領域Aに割り振り、「立体画像ae」の9視差画像を上側の領域Bに割り振る。
そして、「視点ae」から「視点e」へと基準視点が上側に変更されたことにともない、制御部18は、図12Cに示すように、「立体画像ae」の9視差画像を下側の領域Aに割り振り、「立体画像e」の9視差画像を上側の領域Bに割り振る。そして、「視点e」から「視点f」へと基準視点が下側に変更されたことにともない、制御部18は、図12Cに示すように、「立体画像f」の9視差画像を下側の領域Aに割り振り、「立体画像e」の9視差画像を上側の領域Bに割り振る。
なお、図8〜図12を用いた一例では、基準視点の変更方向が横方向や縦方向である場合について説明したが、本実施形態で説明した制御部18による制御は、表示領域の分割方向を横方向や縦方向に固定した状態で、基準視点の変更方向が斜め方向である場合であっても実行可能である。また、図8〜図12を用いた一例では、最初の基準視点の位置に基づく視差画像群を並列させた合成画像群が表示される場合について説明した。しかし、本実施形態は、最初の基準視点の位置に基づく視差画像群をそのままモニタ2の表示領域全体にて表示させる場合であっても良い。
このように、制御部18が変更前後の視差画像群を合成した合成画像群を表示領域の分割パターンに応じて生成させて、立体視モニタであるモニタ2に表示させるので、モニタ2の観察者は、3次元の医用画像データを広範囲で同時に立体的に観察することができる。
次に、図13を用いて、第1の実施形態に係る超音波診断装置の処理について説明する。図13は、第1の実施形態に係る超音波診断装置の処理を説明するためのフローチャートである。なお、以下では、最初の基準視点の位置に基づいてボリュームデータから視差画像群が生成されて表示された後の処理について説明する。
図13に示すように、第1の実施形態に係る超音波診断装置の制御部18は、基準視点の変更要求を受け付けたか否かを判定する(ステップS101)。ここで、基準視点の変更要求を受け付けない場合(ステップS101否定)、制御部18は、基準視点の変更要求を受け付けるまで待機する。
一方、基準視点の変更要求を受け付けた場合(ステップS101肯定)、制御部18の制御により、レンダリング処理部16aは、変更後の基準視点に基づく視差画像群を生成する(ステップS102)。
そして、制御部18の制御により、視差画像合成部16bは、モニタ2の表示領域の分割パターンに基づいて、変更後の視差画像群と変更前の視差画像群との合成画像群を生成する(ステップS103)。
そして、制御部18の制御により、モニタ2は、合成画像群を表示し(ステップS104)、処理を終了する。なお、第1の実施形態に係る超音波診断装置は、基準視点の変更要求を受け付けるたびに、ステップS102〜S104の処理を繰り返し実行する。
上述してきたように、第1の実施形態では、制御部18は、基準視点の位置の変更を受け付け、当該受け付けた変更後の基準視点に基づく視差画像群を生成させる。そして、制御部18は、変更後の基準視点に基づく第1の視差画像群と変更前の基準視点に基づく第2の視差画像群とを、モニタ2の表示領域を分割した複数の領域それぞれに割り振って表示させる。具体的には、制御部18は、変更前後の視差画像群を合成した合成画像群を表示領域の分割パターンに応じて生成させ、合成画像群を立体視モニタであるモニタ2に表示させる。従って、第1の実施形態では、3次元の超音波画像データを広範囲で同時に立体的に観察することができる。例えば、冠動脈のように心臓を取り囲むように走行する血管を観察する際に、かかる制御を行なうことで、観察者は、複数視点を用いた冠動脈の立体画像を、広い視野角で同時に観察することができる。
また、第1の実施形態では、観察者から基準視点の位置の変更要求を、カメラ2aや入力装置3等をインタフェースとして用いることで取得するので、観察者は、任意の複数視点からの立体画像を簡易に観察することができる。
また、第1の実施形態では、表示領域の分割パターンを基準視点の位置の変更方向に応じて変更することができるので、観察者は、任意の複数視点からの立体画像を違和感なく観察することができる。
ところで、上記の実施形態では、基準視点が変更されるごとに、例えば、9視差画像を生成する必要があるため、レンダリング処理部16aの処理負荷が増大し、合成画像群の表示におけるリアルタイム性が低下してしまう場合がある。そこで、制御部18は、以下に説明するように、視差数の減少制御を行なっても良い。
すなわち、第1の実施形態の変形例において、制御部18は、基準視点に基づく視差画像群の1つとして、当該基準視点を中心とする視差数を所定視差数より減少させた数の視差画像である視差数減少視差画像群をレンダリング処理部16aに生成させる。そして、制御部18は、複数の基準視点それぞれに基づく複数の視差画像群の少なくとも1つを視差数減少視差画像群として表示させるように制御する。具体的には、制御部18は、第1の視差画像群と第2の視差画像群の少なくともいずれか一方を視差数減少視差画像群として表示させるように制御する。例えば、制御部18は、変更後の基準視点に基づく視差数減少視差画像群と変更前の基準視点に基づく視差数減少視差画像群とを、複数の領域それぞれに割り振って表示させるように制御する。
図14は、第1の実施形態の変形例を説明するための図である。例えば、制御部18は、モニタ2で表示させる9視差画像の視差数を「3」に減少させると設定する。仮に、9視差画像の生成に用いられる視点(1)〜(9)のうち、視点(5)を基準視点とする。かかる場合、制御部18は、基準視点(5)と、基準視点(5)を中心として視差角が「1度」となる視点(4)及び視点(6)とを用いて3視差の視差画像(3視差画像)をレンダリング処理部16aに生成させると設定する。
更に、制御部18は、視点(1)〜視点(3)及び視点(7)〜視点(9)を用いた視差画像群に代わる画像として、例えば、全画素の色彩が白となる画像をレンダリング処理部16aに生成させると設定する。かかる設定が行なわれた状態で、入力装置3を介して制御部18が、図14に示すように、基準視点が「視点a」から「視点da」に変更されたことを受け付けたとする。
かかる場合、制御部18は、視点daを中心として3つの視点を設定することで、レンダリング処理部16aに3視差画像「da(3)、da(4)、da(5)」を生成させる。なお、レンダリング処理部16aは、視点aを中心とする3つの視点から3視差画像「a(3)、a(4)、a(5)」を生成している。そして、制御部18は、図14に示すように、視差画像合成部16bに、『合成画像「a(4),da(4)」、合成画像「a(5),da(5)」、合成画像「a(6),da(6)」』の合成画像群を生成させる。また、本来、制御部18は、視点(1)〜視点(3)及び視点(7)〜視点(9)を用いた合成画像群に代わって、全画素の色彩が白となる画像を合成した合成画像群を生成させる。
このようにして生成された合成画像群を、制御部18は、モニタ2に表示させる。これにより、観察者は、図14に示すように、領域Aでボリュームデータを視点aから観察した「立体画像a」を観察し、領域Bでボリュームデータを視点daから観察した「立体画像da」を観察することができる。ただし、観察者が「立体画像a」及び「立体画像da」を同時に観察される領域は、視差数が減少しているため、図14に示すように狭まることとなる。本変形例では、基準視点の変更要求は、観察者自身の移動をともなわない入力装置3を介して行なわれることが望ましい。なお、視差数減少視差画像群として表示される立体画像は、上記のように、第1の視差画像群及び第2の視差画像群双方の場合であっても良いし、第1の視差画像群又は第2の視差画像群のいずれか一方の場合であっても良い。かかる選択は、操作者により手動で行なわれる場合であっても良いし、例えば、レンダリング処理部16aの処理負荷の状況に応じて、制御部18が自動的に判定して行なう場合であって良い。
上述してきたように、第1の実施形態の変形例では、視差数を減少させた状態で、基準視点の位置の変更前後の視差画像群を同時に表示するので、複数視点の立体画像の表示におけるリアルタイム性を確保することができる。
(第2の実施形態)
第2の実施形態では、立体表示モニタの観察者が複数である場合に、制御部18が実行する制御処理について、図15A、図15B及び図15Cを用いて説明する。図15A、図15B及び図15Cは、第2の実施形態を説明するための図である。
第2の実施形態では、立体表示モニタの観察者が複数である場合に、制御部18が実行する制御処理について、図15A、図15B及び図15Cを用いて説明する。図15A、図15B及び図15Cは、第2の実施形態を説明するための図である。
例えば、超音波検査時では、検査者とベッドに横臥する被検体Pとの位置は、予め決まっている。換言すると、検査者のモニタ2に対する視点位置(観察位置)と、被検体Pのモニタ2に対する視点位置(観察位置)とは、図15Aに示すように、予め決まっている。そこで、第2の実施形態では、内部記憶部19に、検査者のモニタ2に対する視点位置と、被検体Pのモニタ2に対する視点位置とをプリセット情報として予め格納しておく。そして、第2の実施形態では、検査者と被検体Pとが、同時に同じ合成画像群に基づく立体画像を参照できるように、プリセット情報に基づく制御を行なう。
すなわち、第2の実施形態では、モニタ2を観察する複数の観察者の観察位置が予め設定される場合、制御部18は、複数の観察者それぞれが各観察位置において参照する画像が同一となる画像群を視差画像群から選択し、当該選択した画像群を複数の領域それぞれにおいて表示させるように制御する。
例えば、制御部18は、プリセット情報に基づいて、視点(1)の視差画像〜視点(9)の視差画像の9視差画像のうち「視点(3)の視差画像、視点(4)の視差画像、基準視点(5)の視差画像、視点(6)の視差画像」を表示用の視差画像群として選択する。そして、制御部18は、検査者及び被検体Pそれぞれが観察できるように、表示用の視差画像群を図15Bに示すように配列すると決定する。
図15Bに示す一例では、制御部18は、9列の画素202(図3を参照)において、表示用の視差画像群を「視点(3)〜視点(6)の視差画像、全画素の色彩が白となる画像(以下、画像W)、視点(3)〜視点(6)の視差画像」の順に配列すると決定する。
かかる設定が行なわれた状態で、制御部18が、基準視点が「視点ab」から「視点b」に変更されたことを受け付けたとする。かかる場合、制御部18は、視点bを中心として4つの視点を設定することで、レンダリング処理部16aに4視差画像「b(3)、b(4)、b(5)、b(6)」を生成させる。なお、レンダリング処理部16aは、視点abを中心とする3つの視点から4視差画像「ab(3)、ab(4)、ab(5)、ab(6)」を生成している。そして、制御部18は、視差画像合成部16bに、『合成画像「ab(3),b(3)」、合成画像「ab(4),b(4)」、合成画像「ab(5),b(5)」、合成画像「ab(6),b(6)」、合成画像「画像W,画像W」』を生成させる。
そして、図15Bで説明した配列に応じて、制御部18は、図15Cに示すように、『合成画像「ab(3),b(3)」〜合成画像「ab(6),b(6)」、合成画像「画像W,画像W」、合成画像「ab(3),b(3)」〜合成画像「ab(6),b(6)」』を、モニタ2に表示させる。これにより、検査者及び被検体Pそれぞれは、領域Aでボリュームデータを視点abから観察した「立体画像ab」を観察し、領域Bでボリュームデータを視点bから観察した「立体画像b」を観察することができる。
上述したように、第2の実施形態では、観察者が複数の場合であっても、各観察者が、3次元の超音波画像データを広範囲で同時に立体的に観察することができる。
なお、上述した第1及び第2の実施形態では、モニタ2が9視差モニタである場合について説明した。しかし、上述した第1及び第2の実施形態は、モニタ2が2視差モニタである場合であっても適用可能である。
また、上述した第1及び第2の実施形態では、基準視点の位置の変更を時系列に沿って順次受け付けることで、複数の基準視点の位置を受け付ける場合について説明した。しかし、上述した第1及び第2の実施形態は、複数の基準視点の位置を一括して受け付ける場合であっても適用可能である。図16及び図17は、第1の実施形態及び第2の実施形態の変形例を説明するための図である。
例えば、観察者は、図16に示すように、ジョイスティックやトラックボール、マウス等を用いて、2つの基準視点として「視点a」及び「視点da」を指定する。これにより、制御部18は、「視点a」及び「視点da」を2つの基準視点として受け付ける。そして、制御部18の制御により、レンダリング処理部16aは、「視点a」を基準視点とする9視差画像「a(1)〜a(9)」と、「視点da」を基準視点とする9視差画像「da(1)〜da(9)」とを生成する。そして、制御部18の制御により、視差画像合成部16bは、9視差画像「a(1)〜a(9)」それぞれと、9視差画像「da(1)〜da(9)」それぞれとを合成した合成画像群を生成する。これにより、モニタ2は、例えば、図16に示すように、「立体画像a」を領域Aに表示し、「立体画像da」を領域Bに表示する。
また、本変形例で制御部18が一括して受け付ける基準視点の位置は、3つ以上である場合であっても良い。例えば、観察者は、図17に示すように、3つの基準視点として「視点a」、「視点da」及び「視点ab」を指定する。これにより、制御部18は、「視点a」及び「視点da」を3つの基準視点として受け付ける。そして、制御部18の制御により、レンダリング処理部16aは、「視点a」を基準視点とする9視差画像「a(1)〜a(9)」と、「視点da」を基準視点とする9視差画像「da(1)〜da(9)」と、「視点ab」を基準視点とする9視差画像「ab(1)〜ab(9)」とを生成する。そして、制御部18の制御により、視差画像合成部16bは、9視差画像「a(1)〜a(9)」それぞれと、9視差画像「da(1)〜da(9)」それぞれと、9視差画像「ab(1)〜ab(9)」それぞれとを合成した合成画像群を生成する。これにより、モニタ2は、例えば、図17に示すように、「立体画像da」を領域Aに表示し、「立体画像a」を領域Bに表示し、「立体画像ab」を領域Cに表示する。
また、本変形例で制御部18が一括して受け付ける基準視点の位置は、上述したように、観察者により指定される場合であっても良いし、予め初期設定されている場合であっても良い。また、本変形例においても、視差数減少視差画像群が用いられる場合であっても良い。
また、上述した第1の実施形態、第2の実施形態及び変形例では、医用画像診断装置である超音波診断装置において、3次元の超音波画像データを広範囲で同時に立体的に観察するための制御が行なわれる場合について説明した。しかし、上述した第1の実施形態、第2の実施形態及び変形例で説明した処理は、超音波診断装置以外にも、3次元の医用画像データであるボリュームデータを生成可能なX線CT装置やMRI装置等の医用画像診断装置において実行される場合であっても良い。
また、上述した第1の実施形態、第2の実施形態及び変形例で説明した処理は、医用画像診断装置とは独立に設置された画像処理装置により実行される場合であっても良い。具体的には、図1に示すボリュームデータ処理部16及び制御部18の機能を有する画像処理装置が、各種の医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication Systems)のデータベースや、医用画像が添付された電子カルテを管理する電子カルテシステムのデータベース等から3次元の医用画像データであるボリュームデータを受信して、第1の実施形態、第2の実施形態及び変形例で説明した処理を行なう場合であってもよい。
以上、説明したとおり、第1の実施形態、第2の実施形態及び変形例によれば、3次元の医用画像データを広範囲で同時に立体的に観察することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 超音波プローブ
2 モニタ
3 入力装置
10 装置本体
11 送信部
12 受信部
13 Bモード処理部
14 ドプラ処理部
15 画像生成部
16 ボリュームデータ処理部
16a レンダリング処理部
16b 視差画像合成部
17 画像メモリ
18 制御部
19 内部記憶部
2 モニタ
3 入力装置
10 装置本体
11 送信部
12 受信部
13 Bモード処理部
14 ドプラ処理部
15 画像生成部
16 ボリュームデータ処理部
16a レンダリング処理部
16b 視差画像合成部
17 画像メモリ
18 制御部
19 内部記憶部
Claims (9)
- 画像間の視差角が所定角度となる所定視差数の視差画像である視差画像群を表示し、観察者により立体的に認識される立体画像を表示する表示部と、
3次元の医用画像データであるボリュームデータに対して基準視点を中心とする複数視点からボリュームレンダリング処理を行なうことで前記視差画像群を生成するレンダリング処理部と、
前記基準視点の位置として複数の基準視点の位置を受け付け、当該受け付けた複数の基準視点それぞれに基づく視差画像群を前記レンダリング処理部に生成させる第1制御部と、
前記複数の基準視点それぞれに基づく複数の視差画像群それぞれを、前記表示部の表示領域を分割した複数の領域それぞれに割り振って表示させるように制御する第2制御部と、
を備える、医用画像診断装置。 - 前記基準視点の位置の変更を時系列に沿って順次受け付けることで、前記複数の基準視点の位置を受け付ける場合であって、
前記第1制御部は、基準位置の変更を受け付けるごとに、当該受け付けた変更後の基準視点に基づく視差画像群を前記レンダリング処理部に生成させ、
前記第2制御部は、前記変更後の基準視点に基づく第1の視差画像群と変更前の基準視点に基づく第2の視差画像群とを、前記表示部の表示領域を分割した複数の領域それぞれに割り振って表示させるように制御する、請求項1に記載の医用画像診断装置。 - 前記観察者の移動を検出する検出部、
を更に備え、
前記第1制御部は、前記検出部が検出した前記観察者の前記表示部に対する移動に基づいて、前記基準視点の位置の変更を受け付ける、請求項2に記載の医用画像診断装置。 - 前記基準視点の位置を変更する操作を受け付ける入力部、
を更に備え、
前記第1制御部は、前記入力部が受け付けた前記観察者の操作情報に基づいて、前記基準視点の位置の変更を受け付ける、請求項2に記載の医用画像診断装置。 - 前記第2制御部は、前記基準視点の位置の移動方向に応じて、前記複数の領域の分割方向を変更する、請求項2に記載の医用画像診断装置。
- 前記第1制御部は、前記基準視点に基づく視差画像群の1つとして、当該基準視点を中心とする視差数を前記所定視差数より減少させた数の視差画像である視差数減少視差画像群を前記レンダリング処理部に生成させ、
前記第2制御部は、前記複数の基準視点それぞれに基づく複数の視差画像群の少なくとも1つを前記視差数減少視差画像群として表示させるように制御する、請求項1に記載の医用画像診断装置。 - 前記表示部を観察する複数の観察者の観察位置が予め設定される場合であって、
前記第2制御部は、
前記複数の観察者それぞれが各観察位置において参照する画像が同一となる画像群を前記視差画像群から選択し、当該選択した画像群を前記複数の領域それぞれにおいて表示させるように制御する、請求項1に記載の医用画像診断装置。 - 画像間の視差角が所定角度となる所定視差数の視差画像である視差画像群を表示し、観察者により立体的に認識される立体画像を表示する表示部と、
3次元の医用画像データであるボリュームデータに対して基準視点を中心とする複数視点からボリュームレンダリング処理を行なうことで前記視差画像群を生成するレンダリング処理部と、
前記基準視点の位置として複数の基準視点の位置を受け付け、当該受け付けた複数の基準視点それぞれに基づく視差画像群を前記レンダリング処理部に生成させる第1制御部と、
前記複数の基準視点それぞれに基づく複数の視差画像群それぞれを、前記表示部の表示領域を分割した複数の領域それぞれに割り振って表示させるように制御する第2制御部と、
を備える、画像処理装置。 - 画像間の視差角が所定角度となる所定視差数の視差画像である視差画像群を表示し、観察者により立体的に認識される立体画像を表示する表示部と、
3次元の超音波画像データであるボリュームデータに対して基準視点を中心とする複数視点からボリュームレンダリング処理を行なうことで前記視差画像群を生成するレンダリング処理部と、
前記基準視点の位置として複数の基準視点の位置を受け付け、当該受け付けた複数の基準視点それぞれに基づく視差画像群を前記レンダリング処理部に生成させる第1制御部と、
前記複数の基準視点それぞれに基づく複数の視差画像群それぞれを、前記表示部の表示領域を分割した複数の領域それぞれに割り振って表示させるように制御する第2制御部と、
を備える、超音波診断装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012112767A JP2013006019A (ja) | 2011-05-23 | 2012-05-16 | 医用画像診断装置、画像処理装置及び超音波診断装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011114918 | 2011-05-23 | ||
JP2011114918 | 2011-05-23 | ||
JP2012112767A JP2013006019A (ja) | 2011-05-23 | 2012-05-16 | 医用画像診断装置、画像処理装置及び超音波診断装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013006019A true JP2013006019A (ja) | 2013-01-10 |
Family
ID=47217134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012112767A Pending JP2013006019A (ja) | 2011-05-23 | 2012-05-16 | 医用画像診断装置、画像処理装置及び超音波診断装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20140063208A1 (ja) |
JP (1) | JP2013006019A (ja) |
CN (1) | CN102985013B (ja) |
WO (1) | WO2012161054A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6305242B2 (ja) * | 2014-06-25 | 2018-04-04 | 三菱電機株式会社 | マルチ画面表示装置 |
US10909771B2 (en) | 2014-09-15 | 2021-02-02 | Synaptive Medical Inc. | System and method for image processing |
US10522248B2 (en) | 2017-12-27 | 2019-12-31 | International Business Machines Corporation | Automatic creation of imaging story boards from medical imaging studies |
US11080326B2 (en) | 2017-12-27 | 2021-08-03 | International Business Machines Corporation | Intelligently organizing displays of medical imaging content for rapid browsing and report creation |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4298016B2 (ja) * | 1997-09-25 | 2009-07-15 | 株式会社東芝 | 超音波診断装置 |
JP2003337303A (ja) * | 2002-05-17 | 2003-11-28 | Canon Inc | 立体画像表示装置および立体画像表示システム |
JP3788974B2 (ja) * | 2003-02-25 | 2006-06-21 | 株式会社東芝 | 三次元画像表示装置及び画像表示方法 |
JP4015090B2 (ja) * | 2003-09-08 | 2007-11-28 | 株式会社東芝 | 立体表示装置および画像表示方法 |
US7525541B2 (en) * | 2004-04-05 | 2009-04-28 | Actuality Systems, Inc. | Data processing for three-dimensional displays |
JP2006030507A (ja) * | 2004-07-15 | 2006-02-02 | Toshiba Corp | 三次元空間画像表示装置及び三次元空間画像表示方法 |
US20060119622A1 (en) * | 2004-11-23 | 2006-06-08 | General Electric Company | Method and apparatus for volume rendering display protocol |
JP2007006052A (ja) * | 2005-06-23 | 2007-01-11 | Alpine Electronics Inc | 立体画像表示システム |
JP4767620B2 (ja) * | 2005-08-11 | 2011-09-07 | 富士フイルム株式会社 | 表示装置及び表示方法 |
CN101535828A (zh) * | 2005-11-30 | 2009-09-16 | 布拉科成像S.P.A.公司 | 用于扩散张量成像的方法和系统 |
WO2008042370A1 (en) * | 2006-10-03 | 2008-04-10 | Duke University | Systems and methods for assessing pulmonary gas transfer using hyperpolarized 129xe mri |
JP2008173174A (ja) * | 2007-01-16 | 2008-07-31 | Toshiba Corp | 超音波診断装置 |
JP2008188288A (ja) * | 2007-02-06 | 2008-08-21 | Toshiba Corp | 超音波診断装置及び超音波画像表示装置 |
JP2009053391A (ja) * | 2007-08-27 | 2009-03-12 | Seiko Epson Corp | 表示素子 |
JP2009075869A (ja) * | 2007-09-20 | 2009-04-09 | Toshiba Corp | 多視点画像描画装置、方法及びプログラム |
JP2009077234A (ja) * | 2007-09-21 | 2009-04-09 | Toshiba Corp | 三次元画像処理装置、方法及びプログラム |
JP2010259017A (ja) * | 2009-04-28 | 2010-11-11 | Nikon Corp | 表示装置、表示方法、および表示プログラム |
JP4876182B2 (ja) * | 2009-11-26 | 2012-02-15 | キヤノン株式会社 | 立体映像表示装置およびカーソル表示方法、プログラム、記憶媒体 |
JP5572437B2 (ja) * | 2010-03-29 | 2014-08-13 | 富士フイルム株式会社 | 3次元医用画像に基づいて立体視用画像を生成する装置および方法、並びにプログラム |
JP2011212218A (ja) * | 2010-03-31 | 2011-10-27 | Fujifilm Corp | 画像再構成装置 |
-
2012
- 2012-05-16 CN CN201280000696.7A patent/CN102985013B/zh active Active
- 2012-05-16 WO PCT/JP2012/062551 patent/WO2012161054A1/ja active Application Filing
- 2012-05-16 JP JP2012112767A patent/JP2013006019A/ja active Pending
-
2013
- 2013-11-11 US US14/076,493 patent/US20140063208A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2012161054A1 (ja) | 2012-11-29 |
CN102985013A (zh) | 2013-03-20 |
CN102985013B (zh) | 2015-04-01 |
US20140063208A1 (en) | 2014-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6058283B2 (ja) | 超音波診断装置 | |
JP6058282B2 (ja) | 医用画像診断装置及び画像処理装置 | |
US9479753B2 (en) | Image processing system for multiple viewpoint parallax image group | |
JP5868026B2 (ja) | 超音波診断装置 | |
US20120313933A1 (en) | Image processing system, image processing apparatus, and image processing method | |
US9426443B2 (en) | Image processing system, terminal device, and image processing method | |
JP5972533B2 (ja) | 画像処理システム及び方法 | |
JP2014161444A (ja) | 超音波診断装置、医用画像処理装置及び制御プログラム | |
WO2012161054A1 (ja) | 医用画像診断装置、画像処理装置及び超音波診断装置 | |
US9224240B2 (en) | Depth-based information layering in medical diagnostic ultrasound | |
JP5797485B2 (ja) | 画像処理装置、画像処理方法及び医用画像診断装置 | |
US9210397B2 (en) | Image processing system, apparatus, and method | |
JP2013038467A (ja) | 画像処理システム、画像処理装置、医用画像診断装置、画像処理方法及び画像処理プログラム | |
JP2013097772A (ja) | 医用画像診断装置及び画像処理装置 | |
JP2013121453A (ja) | 超音波診断装置及び画像処理装置 | |
JP6104982B2 (ja) | 画像処理装置、画像処理方法及び医用画像診断装置 | |
JP5835975B2 (ja) | 画像処理システム、装置、方法及び医用画像診断装置 | |
JP2013017056A (ja) | 画像処理装置、画像処理方法及び医用画像診断装置 | |
JP2013026738A (ja) | 報知装置、報知方法及び医用画像診断装置 | |
JP2011234788A (ja) | 超音波診断装置、超音波画像処理方法及び超音波画像処理プログラム | |
JP5835980B2 (ja) | 画像処理システム、装置、方法及び医用画像診断装置 | |
JP2013021459A (ja) | 画像処理装置、画像処理方法、画像処理システム及び医用画像診断装置 | |
JP2012223447A (ja) | 超音波診断装置 |