JP2013026736A - 画像処理システム、装置、方法及びプログラム - Google Patents

画像処理システム、装置、方法及びプログラム Download PDF

Info

Publication number
JP2013026736A
JP2013026736A JP2011158254A JP2011158254A JP2013026736A JP 2013026736 A JP2013026736 A JP 2013026736A JP 2011158254 A JP2011158254 A JP 2011158254A JP 2011158254 A JP2011158254 A JP 2011158254A JP 2013026736 A JP2013026736 A JP 2013026736A
Authority
JP
Japan
Prior art keywords
parallax
image
control unit
angle
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011158254A
Other languages
English (en)
Other versions
JP5921102B2 (ja
Inventor
Shinsuke Tsukagoshi
伸介 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011158254A priority Critical patent/JP5921102B2/ja
Priority to CN201210233148.0A priority patent/CN102892022B/zh
Priority to US13/544,319 priority patent/US9314224B2/en
Publication of JP2013026736A publication Critical patent/JP2013026736A/ja
Application granted granted Critical
Publication of JP5921102B2 publication Critical patent/JP5921102B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

【課題】立体感が最適となる立体視用の画像を表示すること。
【解決手段】実施形態の画像処理システムは、端末装置140の表示部142及び制御部145を備える。表示部142は、所定の視差数の視差画像を表示することで、観察者により立体的に認識される立体画像を表示する。制御部145は、所定の視差数の視差画像を3次元の医用画像データであるボリュームデータから生成する際に、被写体部分の形状に基づいて視差画像間の視差角を変更し、変更後の視差角となる所定の視差数の視差画像を表示部142に表示するように制御する。
【選択図】図7

Description

本発明の実施形態は、画像処理システム、装置、方法及びプログラムに関する。
従来、立体視用メガネ等の専用機器を用いて、2つの視点から撮影された2視差画像を立体視可能なモニタが実用化されている。また、近年、レンチキュラーレンズ等の光線制御子を用いて、複数の視点から撮影された多視差画像(例えば、9視差画像)を裸眼にて立体視可能なモニタが実用化されている。なお、立体視可能なモニタにて表示される2視差画像や9視差画像は、1視点から撮影された画像の奥行き情報を推定し、推定した情報を用いた画像処理により生成される場合もある。
一方、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置等の医用画像診断装置では、3次元の医用画像データ(以下、ボリュームデータ)を生成可能な装置が実用化されている。医用画像診断装置により生成されたボリュームデータからは、任意の視差角にて任意の視差数のボリュームレンダリング画像(視差画像)を生成することができる。そこで、ボリュームデータから生成された2次元のボリュームレンダリング画像を、近年実用化された立体視可能なモニタにて立体的に表示させることが検討されている。
特開2005−86414号公報
本発明が解決しようとする課題は、立体感が最適となる立体視用の画像を表示することができる画像処理システム、装置、方法及びプログラムを提供することである。
実施形態の画像処理システムは、立体表示装置と、制御部とを備える。立体表示装置は、所定の視差数の視差画像を表示することで、観察者により立体的に認識される立体画像を表示する。制御部は、前記所定の視差数の視差画像を3次元の医用画像データであるボリュームデータから生成する際に、被写体部分の形状に基づいて視差画像間の視差角を変更し、変更後の視差角となる所定の視差数の視差画像を前記立体表示装置に表示するように制御する。
図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。 図2は、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。 図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。 図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。 図5は、図4に示すレンダリング処理部の構成例を説明するための図である。 図6は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。 図7は、第1の実施形態に係る端末装置の構成例を説明するための図である。 図8−1は、立体画像において立体感の不均一性が生じる要因の一例を説明するための図(1)である。 図8−2は、立体画像において立体感の不均一性が生じる要因の一例を説明するための図(2)である。 図8−3は、立体画像において立体感の不均一性が生じる要因の一例を説明するための図(3)である。 図9は、視差角変更処理の具体例を説明するための図(1)である。 図10は、視差角変更処理の具体例を説明するための図(2)である。 図11は、第1の実施形態に係る画像処理システムを構成する端末装置の処理を説明するためのフローチャートである。 図12は、第2の実施形態に係るレンダリング処理部が予め生成する視差画像群を説明するための図である。 図13は、第2の実施形態に係る制御部を説明するための図である。 図14は、第2の実施形態に係る画像処理システムを構成する端末装置の処理を説明するためのフローチャートである。
以下、添付図面を参照して、画像処理システム及び画像処理装置の実施形態を詳細に説明する。なお、以下では、画像処理装置としての機能を有するワークステーションを含む画像処理システムを実施形態として説明する。ここで、以下の実施形態で用いる用語について説明すると、「視差画像群」とは、ボリュームデータに対して、所定の視差角ずつ視点位置を移動させてボリュームレンダリング処理を行なうことで生成された画像群のことである。すなわち、「視差画像群」は、「視点位置」が異なる複数の「視差画像」から構成される。また、「視差角」とは、「視差画像群」を生成するために設定された各視点位置のうち隣接する視点位置と、ボリュームデータによって表される空間内の所定位置(例えば、空間の中心)とにより定まる角度のことである。また、「視差数」とは、立体表示モニタにて立体視されるために必要となる「視差画像」の数のことである。また、以下で記載する「9視差画像」とは、9つの「視差画像」から構成される「視差画像群」のことである。また、以下で記載する「2視差画像」とは、2つの「視差画像」から構成される「視差画像群」のことである。また、「立体画像」とは、「視差数」の「視差画像」を表示する立体表示モニタを参照する観察者により立体視される画像のことである。すなわち、立体表示モニタは、「視差数」の「視差画像」を表示することで、観察者により立体的に認識される「立体画像」を表示する。
(第1の実施形態)
まず、第1の実施形態に係る画像処理システムの構成例について説明する。図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。
図1に示すように、第1の実施形態に係る画像処理システム1は、医用画像診断装置110と、画像保管装置120と、ワークステーション130と、端末装置140とを有する。図1に例示する各装置は、例えば、病院内に設置された院内LAN(Local Area Network)2により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、画像処理システム1にPACS(Picture Archiving and Communication System)が導入されている場合、各装置は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、医用画像等を相互に送受信する。
かかる画像処理システム1は、医用画像診断装置110により生成された3次元の医用画像データであるボリュームデータから視差画像群を生成し、この視差画像群を立体視可能なモニタに表示することで、病院内に勤務する医師や検査技師に立体視可能な医用画像を提供する。具体的には、第1の実施形態においては、ワークステーション130が、ボリュームデータに対して種々の画像処理を行ない、視差画像群を生成する。また、ワークステーション130及び端末装置140が、立体視可能なモニタを有し、ワークステーション130にて生成された視差画像群をこのモニタに表示する。また、画像保管装置120は、医用画像診断装置110にて生成されたボリュームデータや、ワークステーション130にて生成された視差画像群を保管する。すなわち、ワークステーション130や端末装置140は、この画像保管装置120からボリュームデータや視差画像群を取得し、これを処理したり、モニタに表示したりする。以下、各装置を順に説明する。
医用画像診断装置110は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT−CT装置、PET装置とX線CT装置とが一体化されたPET−CT装置、又はこれらの装置群等である。また、第1の実施形態に係る医用画像診断装置110は、3次元の医用画像データ(ボリュームデータ)を生成可能である。
具体的には、第1の実施形態に係る医用画像診断装置110は、被検体を撮影することによりボリュームデータを生成する。例えば、医用画像診断装置110は、被検体を撮影することにより投影データやMR信号等のデータを収集し、収集したデータから、被検体の体軸方向に沿った複数のアキシャル面の医用画像データを再構成することで、ボリュームデータを生成する。例えば、医用画像診断装置110は、500枚のアキシャル面の医用画像データを再構成する。この500枚のアキシャル面の医用画像データ群が、ボリュームデータである。なお、医用画像診断装置110により撮影された被検体の投影データやMR信号等自体をボリュームデータとしても良い。
また、第1の実施形態に係る医用画像診断装置110は、生成したボリュームデータを画像保管装置120に送信する。なお、医用画像診断装置110は、ボリュームデータを画像保管装置120に送信する際に、付帯情報として、例えば、患者を識別する患者ID、検査を識別する検査ID、医用画像診断装置110を識別する装置ID、医用画像診断装置110による1回の撮影を識別するシリーズID等を送信する。
画像保管装置120は、医用画像を保管するデータベースである。具体的には、第1の実施形態に係る画像保管装置120は、医用画像診断装置110から送信されたボリュームデータを記憶部に格納し、これを保管する。また、第1の実施形態に係る画像保管装置120は、ワークステーション130がボリュームデータから生成した視差画像群を記憶部に格納し、これを保管することも可能である。かかる場合、ワークステーション130は、生成した視差画像群を画像保管装置120に送信し、画像保管装置120は、ワークステーション130から送信された視差画像群を記憶部に格納し、これを保管する。なお、本実施形態は、大容量の画像を保管可能なワークステーション130を用いることで、図1に例示するワークステーション130と画像保管装置120とが統合される場合であっても良い。すなわち、本実施形態は、ワークステーション130そのものにボリュームデータもしくは視差画像群を記憶させる場合であっても良い。
なお、第1の実施形態において、画像保管装置120に保管されたボリュームデータや視差画像群は、患者ID、検査ID、装置ID、シリーズID等と対応付けて保管される。このため、ワークステーション130や端末装置140は、患者ID、検査ID、装置ID、シリーズID等を用いた検索を行なうことで、必要なボリュームデータや視差画像群を画像保管装置120から取得する。
ワークステーション130は、医用画像に対して画像処理を行なう画像処理装置である。具体的には、第1の実施形態に係るワークステーション130は、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。視差画像群とは、複数の視点から撮影された複数の視差画像のことであり、例えば、9視差画像を裸眼にて立体視可能なモニタにて表示される視差画像群とは、視点位置が異なる9つの視差画像のことである。
また、第1の実施形態に係るワークステーション130は、表示部として、立体視可能なモニタ(以下、立体表示モニタ)を有する。ワークステーション130は、視差画像群を生成し、生成した視差画像群を立体表示モニタに表示する。この結果、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、視差画像群生成のための操作を行なうことができる。
また、ワークステーション130は、生成した視差画像群を画像保管装置120に送信する。なお、ワークステーション130は、視差画像群を画像保管装置120に送信する際に、付帯情報として、例えば、患者ID、検査ID、装置ID、シリーズID等を送信する。また、視差画像群を画像保管装置120に送信する際に送信される付帯情報としては、視差画像群に関する付帯情報も挙げられる。視差画像群に関する付帯情報としては、視差画像の枚数(例えば、「9」)や、視差画像の解像度(例えば、「466画素×350画素」)等がある。また、ワークステーション130は、端末装置140からの立体視要求に応じて、生成した視差画像群を端末装置140に送信することもできる。
ここで、第1の実施形態に係るワークステーション130は、操作者の要求に応じてリアルタイムで視差画像群を生成する。例えば、第1の実施形態に係るワークステーション130は、自装置の操作者の要求に応じて視差画像群を生成する。或いは、第1の実施形態に係るワークステーション130は、以下に説明する端末装置140の操作者の要求に応じて視差画像群を生成し、生成した視差画像群を端末装置140に送信する。
端末装置140は、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置である。例えば、端末装置140は、病院内に勤務する医師や検査技師により操作されるPC(Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等である。具体的には、第1の実施形態に係る端末装置140は、表示部として立体表示モニタを有する。また、端末装置140は、ワークステーション130又は画像保管装置120から視差画像群を取得し、取得した視差画像群を立体表示モニタに表示する。この結果、観察者である医師や検査技師は、立体視可能な医用画像を閲覧することができる。
ここで、ワークステーション130や端末装置140が有する立体表示モニタについて説明する。現在最も普及している一般的な汎用モニタは、2次元画像を2次元で表示するものであり、2次元画像を立体表示することができない。仮に、観察者が汎用モニタにて立体視を要望する場合、汎用モニタに対して画像を出力する装置は、平行法や交差法により観察者が立体視可能な2視差画像を並列表示させる必要がある。又は、汎用モニタに対して画像を出力する装置は、例えば、左目用の部分に赤色のセロハンが取り付けられ、右目用の部分に青色のセロハンが取り付けられたメガネを用いて余色法により観察者が立体視可能な画像を表示する必要がある。
一方、立体表示モニタとしては、立体視用メガネ等の専用機器を用いることで、2視差画像(両眼視差画像とも称する)を立体視可能とするものがある。
図2は、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図2に示す一例は、シャッター方式により立体表示を行なう立体表示モニタであり、モニタを観察する観察者が装着する立体視用メガネとしてシャッターメガネが用いられる。かかる立体表示モニタは、モニタにて2視差画像を交互に出射する。例えば、図2の(A)に示すモニタは、左目用の画像と右目用の画像を、120Hzにて交互に出射する。ここで、モニタには、図2の(A)に示すように、赤外線出射部が設置され、赤外線出射部は、画像が切り替わるタイミングに合わせて赤外線の出射を制御する。
また、赤外線出射部から出射された赤外線は、図2の(A)に示すシャッターメガネの赤外線受光部により受光される。シャッターメガネの左右それぞれの枠には、シャッターが取り付けられており、シャッターメガネは、赤外線受光部が赤外線を受光したタイミングに合わせて左右のシャッターそれぞれの透過状態及び遮光状態を交互に切り替える。以下、シャッターにおける透過状態及び遮光状態の切り替え処理について説明する。
各シャッターは、図2の(B)に示すように、入射側の偏光板と出射側の偏光板とを有し、更に、入射側の偏光板と出射側の偏光板との間に液晶層を有する。また、入射側の偏光板と出射側の偏光板とは、図2の(B)に示すように、互いに直交している。ここで、図2の(B)に示すように、電圧が印加されていない「OFF」の状態では、入射側の偏光板を通った光は、液晶層の作用により90度回転し、出射側の偏光板を透過する。すなわち、電圧が印加されていないシャッターは、透過状態となる。
一方、図2の(B)に示すように、電圧が印加された「ON」の状態では、液晶層の液晶分子による偏光回転作用が消失するため、入射側の偏光板を通った光は、出射側の偏光板で遮られてしまう。すなわち、電圧が印加されたシャッターは、遮光状態となる。
そこで、例えば、赤外線出射部は、モニタ上に左目用の画像が表示されている期間、赤外線を出射する。そして、赤外線受光部は、赤外線を受光している期間、左目のシャッターに電圧を印加せず、右目のシャッターに電圧を印加させる。これにより、図2の(A)に示すように、右目のシャッターが遮光状態となり、左目のシャッターが透過状態となるため、観察者の左目に左目用の画像が入射する。一方、赤外線出射部は、モニタ上に右目用の画像が表示されている期間、赤外線の出射を停止する。そして、赤外線受光部は、赤外線が受光されない期間、右目のシャッターに電圧を印加せず、左目のシャッターに電圧を印加させる。これにより、左目のシャッターが遮光状態となり、右目のシャッターが透過状態であるため、観察者の右目に右目用の画像が入射する。このように、図2に示す立体表示モニタは、モニタに表示される画像とシャッターの状態を連動させて切り替えることで、観察者が立体視可能な画像を表示させる。なお、2視差画像を立体視可能な立体表示モニタとしては、上記のシャッター方式以外にも、偏光メガネ方式を採用したモニタも知られている。
更に、近年実用化された立体表示モニタとしては、レンチキュラーレンズ等の光線制御子を用いることで、例えば、9視差画像等の多視差画像を観察者が裸眼にて立体視可能とするものがある。かかる立体表示モニタは、両眼視差による立体視を可能とし、更に、観察者の視点移動に合わせて観察される映像も変化する運動視差による立体視も可能とする。
図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図3に示す立体表示モニタには、液晶パネル等の平面状の表示面200の前面に、光線制御子が配置される。例えば、図3に示す立体表示モニタには、光線制御子として、光学開口が垂直方向に延びる垂直レンチキュラーシート201が表示面200の前面に貼り付けられている。なお、図3に示す一例では、垂直レンチキュラーシート201の凸部が前面となるように貼り付けられているが、垂直レンチキュラーシート201の凸部が表示面200に対向するように貼り付けられる場合であっても良い。
表示面200には、図3に示すように、縦横比が3:1であり、縦方向にサブ画素である赤(R)、緑(G)、青(B)の3つが配置された画素202がマトリクス状に配置される。図3に示す立体表示モニタは、9つの画像により構成される9視差画像を、所定フォーマット(例えば格子状)に配置した中間画像に変換したうえで、表示面200に出力する。例えば、9視差画像は、9つの画像が「3行3列」に配置された格子状のフォーマットの中間画像に変換されて、表示面200に出力される。すなわち、図3に示す立体表示モニタは、9視差画像にて同一位置にある9つの画素それぞれを、9列の画素202に割り振って出力させる。9列の画素202は、視点位置の異なる9つの画像を同時に表示する単位画素群203となる。
表示面200において単位画素群203として同時に出力された9視差画像は、例えば、LED(Light Emitting Diode)バックライトにより平行光として放射され、更に、垂直レンチキュラーシート201により、多方向に放射される。9視差画像の各画素の光が多方向に放射されることにより、観察者の右目及び左目に入射する光は、観察者の位置(視点の位置)に連動して変化する。すなわち、観察者の見る角度により、右目に入射する視差画像と左目に入射する視差画像とは、視差角が異なる。これにより、観察者は、例えば、図3に示す9つの位置それぞれにおいて、撮影対象を立体的に視認できる。また、観察者は、例えば、図3に示す「5」の位置において、撮影対象に対して正対した状態で立体的に視認できるとともに、図3に示す「5」以外それぞれの位置において、撮影対象の向きを変化させた状態で立体的に視認できる。なお、図3に示す立体表示モニタは、あくまでも一例である。9視差画像を表示する立体表示モニタは、図3に示すように、「RRR・・・、GGG・・・、BBB・・・」の横ストライプ液晶である場合であっても良いし、「RGBRGB・・・」の縦ストライプ液晶である場合であっても良い。また、図3に示す立体表示モニタは、図3に示すように、レンチキュラーシートが垂直となる縦レンズ方式である場合であっても良いし、レンチキュラーシートが斜めとなる斜めレンズ方式である場合であっても良い。また、中間画像のフォーマットは、「3行3列」の格子状に限定されるものではない。例えば、中間画像のフォーマットは、「1行9列」や「9行1列」等、モニタの仕様に応じた任意のフォーマットである場合であっても良い。
以下、図2を用いて説明した立体表示モニタを2視差モニタと記載する。また、以下、図3を用いて説明した立体表示モニタを9視差モニタと記載する。すなわち、2視差モニタは、両眼視差による立体視を可能とする立体表示装置である。また、9視差モニタは、両眼視差による立体視を可能とし、更に、9つの画像(9視差画像)を同時に表示することで「観察者の視点移動(運動視差)」に応じて観察者が観察する画像を変更可能な立体表示装置である。
ここまで、第1の実施形態に係る画像処理システム1の構成例について簡単に説明した。なお、上述した画像処理システム1は、PACSが導入されている場合にその適用が限られるものではない。例えば、画像処理システム1は、医用画像が添付された電子カルテを管理する電子カルテシステムが導入されている場合にも、同様に適用される。この場合、画像保管装置120は、電子カルテを保管するデータベースである。また、例えば、画像処理システム1は、HIS(Hospital Information System)、RIS(Radiology Information System)が導入されている場合にも、同様に適用される。また、画像処理システム1は、上述した構成例に限られるものではない。各装置が有する機能やその分担は、運用の形態に応じて適宜変更されてよい。
次に、第1の実施形態に係るワークステーションの構成例について図4を用いて説明する。図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。なお、以下において、「視差画像群」とは、ボリュームデータに対してボリュームレンダリング処理を行なうことで生成された立体視用の画像群(ボリュームレンダリング画像群)のことである。また、「視差画像」とは、「視差画像群」を構成する個々の画像のことである。すなわち、「視差画像群」は、視点位置が異なる複数の「視差画像」から構成される。
第1の実施形態に係るワークステーション130は、画像処理等に適した高性能なコンピュータであり、図4に示すように、入力部131と、表示部132と、通信部133と、記憶部134と、制御部135と、レンダリング処理部136とを有する。なお、以下では、ワークステーション130が画像処理等に適した高性能なコンピュータである場合を用いて説明するが、これに限定されるものではなく、任意の情報処理装置であって良い。例えば、任意のパーソナルコンピュータであっても良い。
入力部131は、マウス、キーボード、トラックボール等であり、ワークステーション130に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る入力部131は、レンダリング処理の対象となるボリュームデータを画像保管装置120から取得するための情報の入力を受け付ける。例えば、入力部131は、患者ID、検査ID、装置ID、シリーズID等の入力を受け付ける。また、第1の実施形態に係る入力部131は、レンダリング処理に関する条件(レンダリング条件)の入力を受け付ける。
表示部132は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、第1の実施形態に係る表示部132は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、視差画像群等を表示する。例えば、表示部132は、2視差モニタや、9視差モニタである。以下では、表示部132が9視差モニタである場合について説明する。通信部133は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。
記憶部134は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。具体的には、第1の実施形態に係る記憶部134は、通信部133を介して画像保管装置120から取得したボリュームデータを記憶する。また、第1の実施形態に係る記憶部134は、レンダリング処理中のボリュームデータや、レンダリング処理により生成された視差画像群等を記憶する。
制御部135は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、ワークステーション130の全体制御を行なう。
例えば、第1の実施形態に係る制御部135は、表示部132に対するGUIの表示や視差画像群の表示を制御する。また、例えば、制御部135は、画像保管装置120との間で通信部133を介して行なわれるボリュームデータや視差画像群の送受信を制御する。また、例えば、制御部135は、レンダリング処理部136によるレンダリング処理を制御する。また、例えば、制御部135は、ボリュームデータの記憶部134からの読み込みや、視差画像群の記憶部134への格納を制御する。
レンダリング処理部136は、制御部135による制御の下、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。具体的には、第1の実施形態に係るレンダリング処理部136は、記憶部134からボリュームデータを読み込み、このボリュームデータに対して、まず前処理を行なう。次に、レンダリング処理部136は、前処理後のボリュームデータに対してボリュームレンダリング処理を行ない、視差画像群を生成する。続いて、レンダリング処理部136は、各種情報(目盛り、患者名、検査項目等)が描出された2次元画像を生成し、これを視差画像群それぞれに対して重畳することで、出力用の2次元画像を生成する。そして、レンダリング処理部136は、生成した視差画像群や出力用の2次元画像を記憶部134に格納する。なお、第1の実施形態において、レンダリング処理とは、ボリュームデータに対して行なう画像処理全体のことであり、ボリュームレンダリング処理とは、レンダリング処理の内、3次元の情報を反映した2次元画像を生成する処理のことである。レンダリング処理により生成される医用画像とは、例えば、視差画像が該当する。
図5は、図4に示すレンダリング処理部の構成例を説明するための図である。図5に示すように、レンダリング処理部136は、前処理部1361と、3次元画像処理部1362と、2次元画像処理部1363とを有する。前処理部1361が、ボリュームデータに対する前処理を行い、3次元画像処理部1362が、前処理後のボリュームデータから視差画像群を生成し、2次元画像処理部1363が、視差画像群に各種情報が重畳された出力用の2次元画像を生成する。以下、各部を順に説明する。
前処理部1361は、ボリュームデータに対してレンダリング処理を行なう際に、種々の前処理を行なう処理部であり、画像補正処理部1361aと、3次元物体フュージョン部1361eと、3次元物体表示領域設定部1361fとを有する。
画像補正処理部1361aは、2種類のボリュームデータを1つのボリュームデータとして処理する際に画像補正処理を行なう処理部であり、図5に示すように、歪み補正処理部1361b、体動補正処理部1361c及び画像間位置合わせ処理部1361dを有する。例えば、画像補正処理部1361aは、PET−CT装置により生成されたPET画像のボリュームデータとX線CT画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行なう。或いは、画像補正処理部1361aは、MRI装置により生成されたT1強調画像のボリュームデータとT2強調画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行なう。
また、歪み補正処理部1361bは、個々のボリュームデータにおいて、医用画像診断装置110によるデータ収集時の収集条件に起因するデータの歪みを補正する。また、体動補正処理部1361cは、個々のボリュームデータを生成するために用いられたデータの収集時期における被検体の体動に起因する移動を補正する。また、画像間位置合わせ処理部1361dは、歪み補正処理部1361b及び体動補正処理部1361cによる補正処理が行なわれた2つのボリュームデータ間で、例えば、相互相関法等を用いた位置合わせ(Registration)を行なう。
3次元物体フュージョン部1361eは、画像間位置合わせ処理部1361dにより位置合わせが行なわれた複数のボリュームデータをフュージョンさせる。なお、画像補正処理部1361a及び3次元物体フュージョン部1361eの処理は、単一のボリュームデータに対してレンダリング処理を行なう場合、省略される。
3次元物体表示領域設定部1361fは、操作者により指定された表示対象臓器に対応する表示領域を設定する処理部であり、セグメンテーション処理部1361gを有する。セグメンテーション処理部1361gは、操作者により指定された心臓、肺、血管等の臓器を、例えば、ボリュームデータの画素値(ボクセル値)に基づく領域拡張法により抽出する処理部である。
なお、セグメンテーション処理部1361gは、操作者により表示対象臓器が指定されなかった場合、セグメンテーション処理を行なわない。また、セグメンテーション処理部1361gは、操作者により表示対象臓器が複数指定された場合、該当する複数の臓器を抽出する。また、セグメンテーション処理部1361gの処理は、レンダリング画像を参照した操作者の微調整要求により再度実行される場合もある。
3次元画像処理部1362は、前処理部1361が処理を行なった前処理後のボリュームデータに対してボリュームレンダリング処理を行なう。ボリュームレンダリング処理を行なう処理部として、3次元画像処理部1362は、投影方法設定部1362aと、3次元幾何変換処理部1362bと、3次元物体アピアランス処理部1362fと、3次元仮想空間レンダリング部1362kとを有する。
投影方法設定部1362aは、視差画像群を生成するための投影方法を決定する。例えば、投影方法設定部1362aは、ボリュームレンダリング処理を平行投影法により実行するか、透視投影法により実行するかを決定する。
3次元幾何変換処理部1362bは、ボリュームレンダリング処理が実行されるボリュームデータを3次元幾何学的に変換するための情報を決定する処理部であり、平行移動処理部1362c、回転処理部1362d及び拡大縮小処理部1362eを有する。平行移動処理部1362cは、ボリュームレンダリング処理を行なう際の視点位置が平行移動された場合に、ボリュームデータを平行移動させる移動量を決定する処理部であり、回転処理部1362dは、ボリュームレンダリング処理を行なう際の視点位置が回転移動された場合に、ボリュームデータを回転移動させる移動量を決定する処理部である。また、拡大縮小処理部1362eは、視差画像群の拡大や縮小が要求された場合に、ボリュームデータの拡大率や縮小率を決定する処理部である。
3次元物体アピアランス処理部1362fは、3次元物体色彩処理部1362g、3次元物体不透明度処理部1362h、3次元物体材質処理部1362i及び3次元仮想空間光源処理部1362jを有する。3次元物体アピアランス処理部1362fは、これらの処理部により、例えば、操作者の要求に応じて、表示される視差画像群の表示状態を決定する処理を行なう。
3次元物体色彩処理部1362gは、ボリュームデータにてセグメンテーションされた各領域に対して着色される色彩を決定する処理部である。3次元物体不透明度処理部1362hは、ボリュームデータにてセグメンテーションされた各領域を構成する各ボクセルの不透過度(Opacity)を決定する処理部である。なお、ボリュームデータにおいて不透過度が「100%」とされた領域の後方の領域は、視差画像群において描出されないこととなる。また、ボリュームデータにおいて不透過度が「0%」とされた領域は、視差画像群において描出されないこととなる。
3次元物体材質処理部1362iは、ボリュームデータにてセグメンテーションされた各領域の材質を決定することで、この領域が描出される際の質感を調整する処理部である。3次元仮想空間光源処理部1362jは、ボリュームデータに対してボリュームレンダリング処理を行なう際に、3次元仮想空間に設置する仮想光源の位置や、仮想光源の種類を決定する処理部である。仮想光源の種類としては、無限遠から平行な光線を照射する光源や、視点から放射状の光線を照射する光源等が挙げられる。
3次元仮想空間レンダリング部1362kは、ボリュームデータに対してボリュームレンダリング処理を行ない、視差画像群を生成する。また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリング処理を行なう際、必要に応じて、投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fにより決定された各種情報を用いる。
ここで、3次元仮想空間レンダリング部1362kによるボリュームレンダリング処理は、レンダリング条件に従って行なわれることになる。例えば、レンダリング条件は、「平行投影法」又は「透視投影法」である。また、例えば、レンダリング条件は、「基準の視点位置及び視差角」である。また、例えば、レンダリング条件は、「視点位置の平行移動」、「視点位置の回転移動」、「視差画像群の拡大」、「視差画像群の縮小」である。また、例えば、レンダリング条件は、「着色される色彩」、「透過度」、「質感」、「仮想光源の位置」、「仮想光源の種類」である。このようなレンダリング条件は、入力部131を介して操作者から受け付ける場合や、初期設定される場合が考えられる。いずれの場合も、3次元仮想空間レンダリング部1362kは、制御部135からレンダリング条件を受け付け、このレンダリング条件に従って、ボリュームデータに対するボリュームレンダリング処理を行なう。また、このとき、上述した投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fが、このレンダリング条件に従って必要な各種情報を決定するので、3次元仮想空間レンダリング部1362kは、決定されたこれらの各種情報を用いて視差画像群を生成する。
図6は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。例えば、3次元仮想空間レンダリング部1362kが、図6の(A)に示すように、レンダリング条件として、平行投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、図6の(A)に示すように、視線方向に沿って無限遠から平行な光線を照射する光源を設定する。そして、3次元仮想空間レンダリング部1362kは、視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に平行移動して、平行投影法により視差角(視線方向間の角度)が1度ずつ異なる9つの視差画像を生成する。
或いは、3次元仮想空間レンダリング部1362kが、図6の(B)に示すように、レンダリング条件として、透視投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、図6の(B)に示すように、視線方向を中心に光を3次元的に放射状に照射する点光源や面光源を各視点にて設定する。そして、3次元仮想空間レンダリング部1362kは、例えば、ボリュームデータの切断面の中心(重心)を中心に視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に回転移動して、透視投影法により視差角が1度ずつ異なる9つの視差画像を生成する。なお、透視投影法を行なう場合、レンダリング条件によっては、視点(1)〜(9)は、平行移動される場合であってもよい。なお、視線方向は、図6の(A)及び(B)に示すように、視点からボリュームデータの切断面の中心(重心)に向かう方向となる。
或いは、3次元仮想空間レンダリング部1362kは、図6の(C)に示すように、表示されるボリュームレンダリング画像の縦方向に対しては、視線方向を中心に光を2次元的に放射状に照射し、表示されるボリュームレンダリング画像の横方向に対しては、視線方向に沿って無限遠から平行な光線を照射する光源を設定することで、平行投影法と透視投影法とを併用したボリュームレンダリング処理を行なってもよい。
このようにして生成された9つの視差画像が、視差画像群である。第1の実施形態において、9つの視差画像は、例えば制御部135により所定フォーマット(例えば格子状)に配置した中間画像に変換され、立体表示モニタとしての表示部132に出力される。すると、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、視差画像群生成のための操作を行なうことができる。
なお、図6の例では、レンダリング条件として、投影方法、基準の視点位置及び視差角を受け付けた場合を説明したが、レンダリング条件として、他の条件を受け付けた場合も同様に、3次元仮想空間レンダリング部1362kは、それぞれのレンダリング条件を反映しつつ、視差画像群を生成する。
また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリングだけでなく、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータからMPR画像を再構成する機能も有する。なお、3次元仮想空間レンダリング部1362kは、「Curved MPR」を行なう機能や、「Intensity Projection」を行なう機能も有する。
続いて、3次元画像処理部1362がボリュームデータから生成した視差画像群は、アンダーレイ(Underlay)とされる。そして、各種情報(目盛り、患者名、検査項目等)が描出されたオーバーレイ(Overlay)がアンダーレイに対して重畳されることで、出力用の2次元画像とされる。2次元画像処理部1363は、オーバーレイ及びアンダーレイに対して画像処理を行なうことで、出力用の2次元画像を生成する処理部であり、図5に示すように、2次元物体描画部1363a、2次元幾何変換処理部1363b及び輝度調整部1363cを有する。例えば、2次元画像処理部1363は、出力用の2次元画像の生成処理に要する負荷を軽減するために、9枚の視差画像(アンダーレイ)のそれぞれに対して1枚のオーバーレイを重畳することで、出力用の2次元画像を9枚、生成する。
2次元物体描画部1363aは、オーバーレイに描出される各種情報を描画する処理部であり、2次元幾何変換処理部1363bは、オーバーレイに描出される各種情報の位置を平行移動処理又は回転移動処理したり、オーバーレイに描出される各種情報の拡大処理又は縮小処理したりする処理部である。
また、輝度調整部1363cは、輝度変換処理を行なう処理部であり、例えば、出力先の立体表示モニタの諧調や、ウィンドウ幅(WW:Window Width)、ウィンドウレベル(WL:Window Level)等の画像処理用のパラメータに応じて、オーバーレイ及びアンダーレイの輝度を調整する処理部である。
このようにして生成された出力用の2次元画像は、例えば制御部135により一旦記憶部134に格納され、その後、通信部133を介して画像保管装置120に送信される。例えば、端末装置140が、画像保管装置120からこの出力用の2次元画像を取得し、所定フォーマット(例えば格子状)に配置した中間画像に変換した上で立体表示モニタに表示すると、観察者である医師や検査技師は、各種情報(目盛り、患者名、検査項目等)が描出された状態で、立体視可能な医用画像を閲覧することができる。或いは、出力用の2次元画像は、例えば制御部135により通信部133を介して、直接、端末装置140に送信される。
そして、第1の実施形態に係る端末装置140は、上述したように、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置であり、画像保管装置120又はワークステーション130からレンダリング処理部136が生成した視差画像群(出力用の2次元画像)を取得する。図7は、第1の実施形態に係る端末装置の構成例を説明するための図である。
第1の実施形態に係る端末装置140は、図7に示すように、入力部141と、表示部142と、通信部143と、記憶部144と、制御部145と、2次元画像処理部146とを有する。
入力部141は、マウス、キーボード、トラックボール等であり、端末装置140に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る入力部141は、操作者から立体視要求を受け付ける。例えば、入力部141は、立体視要求として、操作者が読影用の表示を要望するボリュームデータを指定するための患者ID、検査ID、装置ID、シリーズID等の入力を受け付ける。また、例えば、入力部141は、立体視要求として、操作者が読影用の表示を要望するボリュームデータに対するレンダリング条件も受け付ける。
表示部142は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、第1の実施形態に係る表示部142は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、立体視画像等を表示する。例えば、表示部142は、2視差モニタや、9視差モニタである。以下では、表示部142が9視差モニタである場合について説明する。
通信部143は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。例えば、第1の実施形態に係る通信部143は、入力部141が受け付けた立体視要求に関する情報を画像保管装置120に送信する。また、第1の実施形態に係る通信部143は、立体視要求に応じて、画像保管装置120又はワークステーション130が送信した視差画像群等を受信する。
記憶部144は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。具体的には、第1の実施形態に係る記憶部144は、通信部143を介して画像保管装置120又はワークステーション130から取得した視差画像群等を記憶する。また、記憶部144は、通信部143を介して画像保管装置120又はワークステーション130から取得した視差画像群の付帯情報(視差数や解像度等)も記憶する。
制御部145は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、端末装置140の全体制御を行なう。
例えば、制御部145は、画像保管装置120との間で通信部143を介して行なわれる立体視要求に関する情報の送受信や、画像保管装置120又はワークステーション130との間で通信部143を介して行なわれる視差画像群等の送受信を制御する。また、例えば、制御部145は、視差画像群等の記憶部144への格納や、視差画像群等の記憶部144からの読み込みを制御する。
また、第1の実施形態に係る制御部145は、表示部142に対するGUIの表示や視差画像群の表示を制御する。第1の実施形態に係る制御部145は、視差画像群を所定フォーマット(例えば格子状)に配置した中間画像に変換した上で9視差モニタである表示部142に表示する。
また、第1の実施形態に係る制御部145は、2次元画像処理部146による画像処理を制御する。
2次元画像処理部146は、図5を用いて説明した2次元画像処理部1363と同様の機能を有する。すなわち、2次元画像処理部146は、3次元画像処理部1362により生成されたアンダーレイとしての視差画像群に対して、オーバーレイを生成して重畳することで、表示部142に対する出力用の2次元画像を生成することができる。
更に、第1の実施形態に係る2次元画像処理部146は、2つの視差画像それぞれの奥行き情報を用いて、補間処理により、当該2つの視差画像から新たな視差画像を生成する補間機能を有する。なお、2次元画像処理部146の補間機能については、後に詳述する。
さて、上述したように、レンダリング処理部136は、制御部135による制御の下、ボリュームデータから視差画像群を生成する。例えば、制御部135は、端末装置140の操作者が指定したボリュームデータの付帯情報と、当該ボリュームデータに対するレンダリング条件を通信部143及び通信部133を介して取得する。そして、例えば、制御部135は、指定されたボリュームデータを画像保管装置120から取得し、取得したボリュームデータに対して、端末装置140から取得したレンダリング条件によるボリュームレンダリング処理をレンダリング処理部136に実行させる。これにより、レンダリング処理部136は、視差画像群を生成する。また、端末装置140は、例えば、ワークステーション130や画像保管装置120から視差画像群を取得して表示部142に表示する。これにより、端末装置140の操作者である医師や検査技師は、各種情報(目盛り、患者名、検査項目等)が描出された状態で、立体視可能な医用画像を閲覧することができる。
しかし、同一のレンダリング条件を用いて生成された様々な9視差画像を表示部142に表示させても、端末装置140の操作者(表示部142の観察者)により認識される立体画像の立体感は、必ずしも同一とはならない場合があった。図8−1、図8−2及び図8−3は、立体画像において立体感の不均一性が生じる要因の一例を説明するための図である。
ボリュームデータにおける被写体部分は、3次元的に様々な形状となる。例えば、図5に示すセグメンテーション処理部1361gにより抽出された被写体部分は、3次元的に様々な形状となる。
ここで、レンダリング条件として設定された「レンダリング処理における幾何条件(視差数:9、視差角:1度)」に基づいて、9つの視差画像を透視投影法により生成する際に、操作者が被写体部分の重心を通る直線を回転軸とし、回転軸に直交する平面上に設定した正円の円周に沿って視点の位置を移動させると設定したとする。
仮に、図8−1の(A)に示すように、視点の位置を移動させる正円Pにより被写体部分R1を切断した輪郭の形状が正円であるとする。かかる場合、被写体部分R1の重心C1と被写体部分R1の輪郭との距離は、図8−1の(A)に示すように、視点位置が異なっていても同じである。従って、図8−1の(A)に示す場合、視点位置が正円Pの上側に位置する場合であっても、視点位置が正円Pの左側に位置する場合であっても、9視差モニタである表示部142の観察者は、同一の立体感にて9視差画像を観察できる。
しかし、被写体部分の形状は、正円とは限らない。被写体部分の形状が正円でない場合、被写体部分の重心と被写体部分の輪郭との距離は、視点の位置により変化する。
例えば、図8−1の(B)に示すように、視点位置を移動させる正円Pにより被写体部分R2を切断した輪郭の形状が楕円であるとする。具体的には、図8−1の(B)に示す被写体部分R2に対応する楕円は、図8−1の(A)に示す被写体部分R1に対応する正円に外接しているとする。かかる場合、図8−1の(B)に示すように、視点と被写体部分R2の重心C2とを結ぶ直線において、重心C2と被写体部分R2の輪郭との距離は、視点の位置により変化する。更に、重心C2と被写体部分R2の輪郭との距離は、図8−1の(B)に示すように、視点方向が被写体部分R2の長軸への方向である場合と、視点方向が被写体部分R2の短軸への方向である場合とで大きく異なる。
ここで、図8−1の(B)に示す視点O1を基準位置にして「視差数:9、視差角:1度」の9視差画像を生成し「9視差モニタ」に出力表示させた場合を第1の場合とする。また、図8−1の(B)に示す視点O2を基準位置にして「視差数:9、視差角:1度」の9視差画像を生成し「9視差モニタ」に出力表示させた場合を第2の場合とする。
第1の場合と第2の場合を比較すると、ボリュームレンダリングを行なう際の視点から被写体部分の輪郭までの距離は、第1の場合より第2の場合の方が短い。また、第1の場合と第2の場合を比較すると、被写体部分の重心から被写体部分の輪郭までの距離は、第1の場合より第2の場合の方が長い。このため、「視差数:9、視差角:1度」の同一の条件により生成した立体視画像が「9視差モニタ」にて表示されたとしても、観察者が感じる立体感(奥行き感)は、第1の場合と比較して、第2の場合の方が大きい。すなわち、同一のレンダリング条件から生成した9視差画像を用いて立体画像を表示したとしても、視点の位置が異なると、被写体部分の形状により観察者が感じる立体感が異なる。なお、上記で説明した立体画像における立体感の不均一性が生じる要因は、視点と被写体部分の重心との距離が一定であることを前提としたものである。
このように、被写体部分の形状は、立体画像において立体感の不均一性が生じる要因となる。更に、立体画像において立体感の不均一性が生じる要因としては、被写体部分の形状とともに、立体表示モニタである表示部142のハードウェア仕様により定まる「飛び出し臨界」が大きな要因として挙げられる。すなわち、立体画像における立体感の不均一性は、被写体部分の形状により定まる「被写体部分の重心から被写体部分の輪郭までの距離」と立体表示モニタである表示部142のハードウェア仕様により定まる「飛び出し臨界」との関係により生じる。以下、「飛び出し臨界」について説明する。
立体表示モニタである表示部142を参照することで観察者が体感する立体感は、表示部142の仕様に応じて限界がある。すなわち、表示部142が表示可能な飛び出し方向の量(飛び出し量)には、表示部142の仕様により、限界(臨界)がある。以下、飛び出し量の臨界値を「飛び出し臨界量」と記載する。「飛び出し臨界量」は、正確には、「立体表示モニタの表示面と立体表示モニタを観察する観察者との距離である視距離」と、「立体表示モニタのハードウェア仕様」とに基づいて定まる値である。ここで、立体表示モニタと観察者との視距離は、観察者の位置を特定できなければ求めることができない。しかし、一般に、立体表示モニタである表示部142等は、立体表示モニタの観察位置を所定の位置に想定した上で設計される。このため、「飛び出し臨界量」は、所定の位置に想定された観察位置と立体表示モニタの表示面との距離である「想定視距離」と立体表示モニタのハードウェア仕様とに基づいて算出される。
例えば、「飛び出し臨界量」は、以下の(数1)により算出される値である。なお、以下の(数1)では、奥行き方向のうち、立体表示モニタの表示面を原点として、かかる表示面から観察者の視点に近づく方向を正としている。
(数1)=飛び出し限界量(mm)=想定視距離/{2×[(想定視距離+ギャップ)/想定視距離]×(サブピクセルピッチ/ギャップ)×飛び出し限界周波数+1}
図8−2を用いて、上記(数1)に示した「ギャップ」、「サブピクセルピッチ」等について説明する。図8−2は、図3に例示した立体表示モニタを縦方向から見た図である。図8−2に示すように、「ギャップ」は、LCD(Liquid Crystal Display)画素面とレンチキュラーレンズ201の焦点との距離を示す。また、「サブピクセルピッチ」は、立体表示モニタ内に配置されたLCD画素202間の距離を示す。また、「レンズピッチ」は、視差数分のLCD画素202の横方向の長さを示し、「サブピクセルピッチ×視差数」によって表される。
また、上記(数1)に示した「飛び出し限界周波数」は、単位が「CPR(cycles per radian)」であり、「最大表示可能周波数×N(0<N≦1)」によって表される。かかる「最大表示可能周波数」は、「視距離/(2×レンズピッチ)」によって表され、立体表示モニタの表示面上での解像度を示す。より具体的に説明すると、「CPR」は、立体表示モニタから照射される光線のうち観察者の眼から広がる光線錘に許容される光線の密度を示す。この「CPR」は、同一視距離の場合には、レンチキュラーレンズが配置される密度が高いほど大きくなり、レンチキュラーレンズが配置される密度が低いほど小さくなる。言い換えれば、「CPR」は、レンチキュラーレンズが配置される密度が同一である場合には、視距離が遠いほど大きくなり、視距離が近いほど小さくなる。「最大表示可能周波数」は、「CPR」が最大になる解像度である。すなわち、「最大表示可能周波数」は、立体表示モニタの表示面上の解像度を示す。
ここで、「被写体部分の重心から被写体部分の輪郭までの距離」が、上記(数1)により算出される「飛び出し臨界量」により定まる「飛び出し臨界」を超えている場合、立体表示モニタに表示される立体画像には、ボケが生じてしまう。例えば、図8−3に示すように、被写体部分R2の輪郭が飛び出し臨界Cに外接しているとする。かかる場合に、視点O1を基準位置にして生成された9視差画像を生成し「9視差モニタ」に表示させた立体画像には、「被写体部分の重心から被写体部分の輪郭までの距離」が「飛び出し臨界」に近い値となるため、ボケが生じにくい。一方、視点O2を基準位置にして生成された9視差画像を生成し「9視差モニタ」に表示させた立体画像は、「被写体部分の重心から被写体部分の輪郭までの距離」が「飛び出し臨界」を超えているため、ボケが生じる。
また、例えば、図8−1の(A)に示す被写体部分R1のように、「被写体部分の重心から被写体部分の輪郭までの距離」があらゆる角度から均一である場合であっても、当該距離が「飛び出し臨界」を超えているならば、立体画像は、あらゆる角度においてボケが生じる。
従って、立体画像にボケを生じさせないためには、あらゆる角度からの視点に対して、被写体部分の重心から被写体部分の輪郭までの距離が、飛び出し臨界内となることが望ましい。また、被写体部分の重心から被写体部分の輪郭までの距離が、飛び出し臨界内であっても、図8−1を用いて上述したように、被写体部分の形状によっては、視点から被写体部分の輪郭までの距離や被写体部分の重心から被写体部分の輪郭までの距離が、あらゆる角度からの視点に対して同一とならないことから、視点位置によっては立体画像における立体感が異なる。
しかし、飛び出し臨界は、立体表示モニタのハードウェア仕様により定まる値である。また、被写体部分の重心から被写体部分の輪郭までの距離は、レンダリング条件により定まる値である。
そこで、立体感が最適となる立体視用の画像を表示するために、第1の実施形態に係る制御部145は、所定の視差数の視差画像を3次元の医用画像データであるボリュームデータから生成する際に、被写体部分の形状に基づいて視差画像間の視差角を変更し、変更後の視差角となる所定の視差数の視差画像を表示部142に表示するように制御する。具体的には、第1の実施形態に係る制御部145は、被写体部分の形状と、表示部142において表示される立体画像の飛び出し方向における臨界である飛び出し臨界との関係に基づいて、視差画像間の視差角を変更する。
本実施形態では、制御部145は、例えば、操作者から入力部141を介して、9視差画像を生成するためのボリュームデータの指定と、当該ボリュームデータから9視差画像を生成するためのレンダリング条件を受け付ける。そして、制御部145は、受け付けたレンダリング条件により定まる被写体部分の形状に応じて、当該レンダリング条件にて設定された視差角を変更する。そして、本実施形態では、制御部145は、変更後の視差角となる9視差画像を表示部142に表示するように制御する。
具体的には、第1の実施形態に係る制御部145は、ボリュームデータに対してレンダリング処理を実行するレンダリング処理部136に対して、変更後の視差角となる所定の視差数の視差画像を生成するように制御する。そして、第1の実施形態に係る制御部145は、レンダリング処理部136が生成した画像群が表示部142に表示されるように制御する。
本実施形態では、制御部145は、レンダリング条件として設定されている視差角を変更後の視差角に置き換えることで、レンダリング条件を再設定する。そして、制御部145は、指定されたボリュームデータと、再設定したレンダリング条件とを、通信部143及び通信部133を介して制御部135に通知する。制御部135は、指定されたボリュームデータを画像保管装置120から取得し、取得したボリュームデータから再設定されたレンダリング条件により9視差画像を生成するようにレンダリング処理部136を制御する。そして、制御部135は、レンダリング処理部136が生成した9視差画像を通信部133及び通信部143を介して端末装置140の記憶部144に格納する。制御部145は、記憶部144に格納された9視差画像を中間画像に変換した後、表示部142に表示させる。
以下、制御部145がレンダリング条件により定まる被写体部分の形状に応じて行なう視差角変更処理の具体例について説明する。図9及び図10は、視差角変更処理の具体例を説明するための図である。
まず、被写体部分の重心から被写体部分の輪郭までの距離が、飛び出し臨界内である場合について説明する。なお、表示部142の飛び出し臨界量は、例えば、記憶部144に予め格納されている。図9に示す一例では、制御部145は、レンダリング処理における幾何条件として被写体部分にて設定された視点の位置を移動させるための重心から当該被写体部分における輪郭までの距離に基づいて視差画像間の視差角を変更する。すなわち、制御部145は、重心から輪郭までの距離が小さい程、視差角が大きくなるように変更する。換言すると、制御部145は、重心から輪郭までの距離が小さい場合には、視差角を大きくすることで、立体感を向上させる。
例えば、制御部145は、重心から輪郭までの距離(L)を代入することで、観察者が感じる立体感が同一となる視差角を算出する関数「F(L)」を用いる。
まず、制御部145は、セグメンテーション処理部1361gにより抽出された被写体部分の位置情報から、被写体部分の輪郭の位置情報を取得する。また、制御部145は、被写体部分の位置情報及び被写体部分のボクセル値から被写体部分の重心の位置情報を取得する。なお、制御部145は、制御部135から処理対象となるボリュームデータや被写体部分に関する位置情報を取得する。
そして、制御部145は、基準となる視点から被写体部分の重心に向かう直線と、被写体部分の輪郭との交点の位置情報を取得することで、重心から輪郭までの距離を算出する。
例えば、制御部145は、図9に示すように、9つの視点の基準となる視点O1から重心C2に向かう直線と、被写体部分の輪郭との交点の位置情報を取得することで、重心から輪郭までの距離「L1」を算出する。そして、制御部145は、関数「F(L)」に「L1」を代入することで、図9に示すように、例えば、「視差角:2度」を算出する。これにより、制御部145は、視点O1を基準とする「視差数:9、視差角:1度」の9視差画像ではなく、視点O1を基準とする「視差数:9、視差角:2度」の9視差画像を生成するとしたレンダリング条件を再設定する。
また、制御部145は、図9に示すように、9つの視点の基準となる視点O2から重心C2に向かう直線と、被写体部分の輪郭との交点の位置情報を取得することで、重心から輪郭までの距離「L2」を算出する。そして、制御部145は、関数「F(L)」に「L2」を代入することで、図9に示すように、例えば、「視差角:1.2度」を算出する。これにより、制御部145は、視点O2を基準とする「視差数:9、視差角:1度」の9視差画像ではなく、視点O2を基準とする「視差数:9、視差角:1.2度」の9視差画像を生成するとしたレンダリング条件を再設定する。
被写体の重心から被写体部分の輪郭までの距離が、飛び出し臨界内である場合、かかる処理が行なわれることで、例えば、端末装置140の操作者は、視点位置を、重心を中心とする正円の軌道上で変更した場合でも、略同一の立体感にて立体画像を観察することができる。なお、視差角の変更により、被写体部分は、仮想的に部分的な縮小又は拡大が行なわれる。このため、視差角を大きくすることで、仮想的な部分拡大により被写体部分が飛び出し臨界を越える場合がある。従って、制御部145は、視差角を大きく変更する場合、変更後の視差角により、被写体部分が飛び出し臨界を越えないよう上限値を設定する。制御部145は、上限値を、被写体部位の形状と飛び出し臨界量とにより算出する。
次に、被写体部分の重心から被写体部分の輪郭までの距離が、飛び出し臨界を超えている場合について説明する。かかる場合、第1の実施形態に係る制御部145は、レンダリング条件で設定されている視差角を小さくすることで、被写体部分の輪郭を飛び出し臨界近傍まで近づけるように、被写体部分の仮想的な部分的縮小を行なう。これにより、制御部145は、立体画像のボケを防止する。
例えば、制御部145は、『「被写体部分の重心から被写体部分の輪郭までの距離」と「表示部142の飛び出し臨界量」との比率』と、「被写体部分の輪郭を飛び出し臨界近傍まで近づけるための視差角」とを対応付けたテーブル用いて、視差角変更を行なう。
かかるテーブルを参照して、制御部145は、例えば、視点O1における視差角を、レンダリング条件「視差角:1度」と同じ「視差角:1度」を取得する。また、かかるテーブルを参照して、制御部145は、例えば、視点O2における視差角を、レンダリング条件「視差角:1度」より小さい値である「視差角:0.5度」を取得する。これにより、制御部145は、視点O2を基準とする「視差数:9、視差角:1度」の9視差画像ではなく、視点O2を基準とする「視差数:9、視差角:0.5度」の9視差画像を生成するとしたレンダリング条件を再設定する。
なお、上記では、被写体部分が飛び出し臨界を超えている場合に、視差角を小さくすることで、被写体部分の輪郭を飛び出し臨界近傍まで近づけて、ボケを防止する場合について説明した。しかし、本実施形態に係る制御部145は、被写体部分が飛び出し臨界内である場合に、例えば、上述したテーブルを用いてレンダリング条件で設定されている視差角を大きくしても良い。これにより、制御部145は、被写体部分の輪郭を飛び出し臨界近傍まで近づけて、任意角度からの視点において立体画像における立体感を最大限に向上させることができる。
また、視点位置を、重心を中心とする正円の軌道上で移動させるならば、被写体部分が飛び出し臨界を越えている場合でも、上記で説明した飛び出し臨界内である場合と同様の処理を合わせて行なっても良い。すなわち、制御部145は、視差角変更後の各視点の立体画像間の立体感が略同一となるように、被写体部分が飛び出し臨界内となる縮小範囲内で、重心から輪郭までの距離に基づいて視差角を変更させても良い。例えば、上述したように視点O2において「視差角:0.5度」が設定された場合、視点O2の9視差画像の立体画像と同様の立体感となるように、視点O1における視差角を変更しても良い。
例えば、制御部145は、「視点αにおける重心から輪郭までの距離(Lα)」と「視点αにおける視差角(θα)」と「視点βにおける重心から輪郭までの距離(Lβ)」とを代入することで、視点αにおいて観察者が感じる立体感が同一となる視点βの視差角(θβ)を算出する関数「F’(Lα,θα,Lβ)」を用いる。制御部145は、「F’(Lα,θα,Lβ)」に「Lα=L2,θα=0.5,Lβ=L1」を代入することで、視点O1における視差角を算出する。そして、制御部145は、算出した視点O1における視差角を適用することで仮想的に行なわれる被写体部分の縮小後又は拡大後の被写体部分が、飛び出し臨界内であるならば、視点O1の視差角変更処理を行なう。かかる処理を行なうことで、観察者は、ボケのない立体画像を観察することができるとともに、任意角度からの視点において、略同一の立体感にて立体画像を観察することができる。
なお、上記では、任意角度からの視点において、略同一の立体感にて立体画像を表示させるために、被写体部分の重心から輪郭までの距離に基づいて視差画像間の視差角を変更する場合について説明した。なお、被写体部分の重心は、レンダリング条件の幾何条件として被写体部分にて設定された、視点の位置を移動させるための点となる。すなわち、上記の具体例は、視点の移動が重心を中心とする回転移動である場合に限定されるものである。
しかし、被写体部分が飛び出し臨界内である場合に立体画像の立体感の不均一性が生じる要因は、図8−1に例示した要因だけではない。飛び出し臨界内である場合に立体画像の立体感の不均一性が生じる要因としての幾何条件には、例えば、透視投影法の場合にレンダリング条件として設定される「視点位置」、「視線方向」及び「視野角」等が挙げられる。なお、視野角とは、視点に設定された光源から放射状に照射される放射角度のことである。
そこで、制御部145は、幾何条件として設定された視点及び視線方向により算出される当該視点から被写体部分における輪郭までの距離に基づいて視差画像間の視差角を変更する。すなわち、制御部145は、視点から輪郭までの距離の大小に応じて、視差角を変更させる。
被写体部分が飛び出し臨界内である場合、例えば、制御部145は、視点から輪郭までの距離(L’)を代入することで、観察者が感じる立体感が同一となる視差角を算出する関数「F2(L’)」を用いる。
まず、制御部145は、被写体部分の輪郭の位置情報を取得し、視点及び視線方向に基づいて、視点から被写体部分における輪郭までの距離を算出する。
例えば、制御部145が、図10の(A)に示すように、レンダリング条件の幾何条件として、9つの視点の基準となる視点O3を受け付け、更に、視点O3から被写体部分内の点C3へ向かう方向を視線方向として受け付けたとする。かかる場合、制御部145は、図10に示すように、視点O3から点C3へ向かう直線と、被写体部分の輪郭との交点の位置情報を取得することで、視点から輪郭までの距離「L’1」を算出する。
そして、制御部145は、関数「F2(L’)」に「L’1」を代入することで、変更後の視差角を算出する。これにより、制御部145は、例えば、視点O3を基準とする「視差数:9、視差角:2度」の9視差画像を生成するとしたレンダリング条件を再設定する。
また、例えば、制御部145が、図10の(A)に示すように、レンダリング条件の幾何条件として、9つの視点の基準となる視点O4を受け付け、更に、視点O4から点C3へ向かう方向を視線方向として受け付けたとする。かかる場合、制御部145は、図10の(A)に示すように、視点O4から点C3へ向かう直線と、被写体部分の輪郭との交点の位置情報を取得することで、視点から輪郭までの距離「L’2」を算出する。
そして、制御部145は、関数「F2(L’)」に「L’2」を代入することで、変更後の視差角を算出する。これにより、制御部145は、例えば、視点O4を基準とする「視差数:9、視差角:1.2度」の9視差画像を生成するとしたレンダリング条件を再設定する。
被写体部分が飛び出し臨界内である場合に、かかる処理が行なわれることで、例えば、端末装置140の操作者は、視点位置及び視線方向を任意に変更した場合でも、略同一の立体感にて立体画像を観察することができる。
なお、制御部145は、被写体部分が飛び出し臨界を越えている場合に、視差角変更処理を行なったうえで、視差角変更後の各視点の立体画像間の立体感が略同一となるように、被写体部分が飛び出し臨界内となる縮小範囲内で、視点から輪郭までの距離に基づいて視差角を変更させても良い。
また、上述したように、被写体部分が飛び出し臨界内である場合に立体画像の立体感の不均一性が生じる要因としての幾何条件には、「視野角」が挙げられる。そこで、制御部145は、幾何条件として設定された視野角に応じて、視差画像間の視差角を変更する。すなわち、制御部145は、視野角の大小に基づいて視差画像間の視差角を変更させる。
例えば、制御部145は、視野角(θ)を代入することで、観察者が感じる立体感が同一となる視差角を算出する関数「F3(θ)」を用いる。
例えば、制御部145が、図10の(B)に示すように、レンダリング条件の幾何条件として、9つの視点からの視野角「θ1」を受け付けたとする。かかる場合、制御部145は、図10の(B)に示すように、関数「F3(θ)」に「θ1」を代入することで、変更後の視差角を算出する。これにより、制御部145は、レンダリング条件を再設定する。
かかる処理が行なわれることで、例えば、端末装置140の操作者は、視野角を任意に変更した場合でも、略同一の立体感にて立体画像を観察することができる。なお、被写体部分の形状及び視点の位置により、視野角中に含まれる被写体部分は、変動する。そこで、制御部145は、幾何条件として設定された視野角中に含まれる被写体部分の大小に応じて、視差角を変更させる。
なお、制御部145は、被写体部分が飛び出し臨界を越えている場合に、視差角変更処理を行なったうえで、視差角変更後の各視点の立体画像間の立体感が略同一となるように、被写体部分が飛び出し臨界内となる縮小範囲内で、視野角に基づいて視差角を変更させても良い。
また、レンダリング処理において、色彩等のアピアランス条件によっても、最適な視差角が異なることが知られている。従って、上記の視差角変更処理は、レンダリング処理におけるアピアランス条件に応じて、視差角が変更される場合であっても良い。例えば、記憶部144は、アピアランス条件として設定された色彩に最適となる視差角が対応付けられたテーブルを保持する。そして、制御部145は、かかるテーブルを参照して視差角変更処理を行なう。また、制御部145は、関数「F(L)」、関数「F2(L’)」及び関数「F3(θ)」の代わりに、距離「L」と最適視差角とが対応付けられたテーブルや、距離「L’」と最適視差角とが対応付けられたテーブルや、視野角「θ」と最適視差角とが対応付けられたテーブルを参照して視差角変更処理を行なっても良い。
なお、制御部145は、被写体部分が飛び出し臨界を越えている場合に、視差角変更処理を行なったうえで、視差角変更後の各視点の立体画像間の立体感が略同一となるように、被写体部分が飛び出し臨界内となる縮小範囲内で、アピアランス条件に基づいて視差角を変更させても良い。
このように、第1の実施形態に係る制御部145は、レンダリング条件として設定された幾何条件及びアピアランス条件の少なくとも1つに基づいて視差画像間の視差角を変更する。
次に、図11を用いて第1の実施形態に係る画像処理システム1の処理について説明する。図11は、第1の実施形態に係る画像処理システムを構成する端末装置の処理を説明するためのフローチャートである。
図11に示すように、第1の実施形態に係る画像処理システム1の端末装置140の制御部145は、処理対象として指定されたボリュームデータに対するレンダリング条件を受け付けたか否かを判定する(ステップS101)。ここで、レンダリング条件を受け付けない場合(ステップS101否定)、制御部145は、レンダリング条件を受け付けるまで待機する。
一方、レンダリング条件を受け付けた場合(ステップS101肯定)、制御部145は、レンダリング条件で設定される被写体部分の形状と飛び出し臨界との関係に基づいて、当該レンダリング条件にて指定された視差角を変更する(ステップS102)。そして、制御部145は、変更後の視差角によりレンダリング条件を再設定し(ステップS103)、再設定したレンダリング条件をワークステーション130に通知する(ステップS104)。再設定されたレンダリング条件が通知された制御部135の制御により、レンダリング処理部136は、9視差画像を生成する。
そして、制御部145は、通信部143がワークステーション130から9視差画像を受信したか否かを判定する(ステップS105)。ここで、9視差画像を受信しない場合(ステップS105否定)、制御部145は、9視差画像を受信するまで待機する。
一方、9視差画像を受信した場合(ステップS105肯定)、制御部145が受信した9視差画像を中間画像に変換して表示部142に出力することで、表示部142は、9視差画像を表示し(ステップS106)、処理を終了する。
上述してきたように、第1の実施形態では、被写体部分の形状に基づいて視差画像間の視差角を変更する。具体的には、第1の実施形態では、被写体部分の形状と飛び出し臨界との関係に基づいて視差画像間の視差角を変更する。これにより、9視差モニタである表示部142の観察者は、レンダリング条件を様々なパターンで変更しても、9視差画像を用いた鮮明な立体画像を観察できる。また、9視差モニタである表示部142の観察者は、レンダリング条件を様々なパターンで変更しても、略同一の立体感にて9視差画像を用いた立体画像を観察できる。従って、第1の実施形態では、立体感が最適となる立体視用の画像を表示することができる。
(第2の実施形態)
第2の実施形態では、視差角変更後のレンダリング条件に合致する画像群が選択される場合について説明する。
第2の実施形態に係る制御部145は、ボリュームデータに対してレンダリング処理を実行するレンダリング処理部136が予め生成した画像群から、変更後の視差角となる所定の視差数の視差画像となる画像群を選択し、当該選択した画像群が表示部142に表示されるように制御する。
かかる制御処理が実行可能とするために、まず、第2の実施形態に係る制御部135は、画像保管装置120に格納されているボリュームデータから様々なレンダリング条件により視差画像群を予め生成しておくように、レンダリング処理部136を指示する。図12は、第2の実施形態に係るレンダリング処理部が予め生成する視差画像群を説明するための図である。
例えば、制御部135は、視差画像間の視差角を変更後の視差角に合わせて任意に変更可能とするために、図12の(A)に示すように、被写体部分の重心を通る切断面上に正円を設定し、更に、正円の全周囲に沿って、視差角が1度間隔となるように360個の視点を設定する。なお、図12の(A)では、作図の都合上、42個しか視点が描出されていないが、実際には、360個の視点が設定されている。そして、レンダリング処理部136は、設定された360個の視点を用いて、360個の視差画像から構成される視差画像群を生成する。以下、図12の(A)に示すように、レンダリング対象に対して生成された全周囲の視差画像のことを全周囲データと記載する。
なお、制御部135は、正円の半径を複数設定することで、同一平面内で複数の正円を設定しても良い。また、制御部135は、例えば、「視差角:0.5度」を設定することで、720個の視差画像から構成される全周囲データを生成させても良い。また、制御部135は、被写体部分の重心だけでなく、被写体部分内に任意の点を設定し、当該設定した点を中心とする正円上に複数の視点を設定することで、全周囲データを生成しても良い。また、全周囲データ生成用の視点が設定される図形は、正円に限定されるものではなく、例えば、楕円や多角形等の任意形状の図形であっても良い。
或いは、制御部135は、以下の方法により全周囲データを生成しても良い。すなわち、制御部135は、視差画像間の視差角を変更後の視差角に合わせて任意に変更可能とするために、図12の(B)に示すように、正円に複数個の基準視点を設定し(図中の斜線付きの丸を参照)、設定した複数の基準視点を通る接線それぞれに沿って、視差角が1度間隔となるように9個の視点を設定する。そして、レンダリング処理部136は、各接線において設定された9個の視点を用いて、図6の(A)で説明した平行投影法により9視差画像を基準点ごとに生成する。
なお、図12の(B)に示す全周囲データにて設定される基準視点は、1度間隔や、0.5度間隔で設定される。また、制御部135は、上記と同様に、正円の半径を複数設定することで、同一平面内で複数の正円を設定しても良い。また、制御部135は、被写体部分の重心だけでなく、被写体部分内に任意の点を設定し、当該設定した点を中心とする正円上に複数の基準視点を設定することで、図12の(B)に示す全周囲データを生成しても良い。また、図12の(B)に示す全周囲データ生成用の基準視点が設定される図形は、正円に限定されるものではなく、例えば、楕円や多角形等の任意形状の図形であっても良い。
また、制御部135は、図12の(C)に示すように、被写体部分内の点(例えば、重心)を通る回転軸を複数設定する。これにより、制御部135は、被写体部分を任意方向により切断した切断面に任意形状の図形を設定し、各図形において、図12の(A)や図12の(B)に示す全周囲データが生成されるように制御する。
そして、制御部135は、レンダリング処理部136が生成した視差画像群を、生成元のボリュームデータに対応付けて、記憶部134又は画像保管装置120に格納する。以下では、視差画像群が画像保管装置120に通信部133を介して格納される場合について説明する。
端末装置140の操作者は、第1の実施形態と同様に、ボリュームデータの指定及びレンダリング条件を、入力部141を介して入力する。そして、制御部145は、入力部141が受け付けたボリュームデータに対応付けられた視差画像群を画像保管装置120から取得する。具体的には、通信部143は、制御部145の制御により、操作者が入力したボリュームデータの付帯情報を画像保管装置120に送信する。画像保管装置120は、受信した付帯情報に対応付けられたボリュームデータを検索し、検索したボリュームデータに対応付けられた画像群を端末装置140に送信する。
制御部145は、通信部143が受信した視差画像群から、変更後の視差角となる所定の視差数の視差画像となる画像群(9視差画像)を選択し、選択した画像群を中間画像に変換したうえで、表示部142に表示させる。図13は、第2の実施形態に係る制御部を説明するための図である。
例えば、視差画像群として「視差角:1度」の全周囲データを受信し、変更後の視差角が「視差角:2度」であったとする。かかる場合、制御部145は、「視差角:2度」の視差画像群を「視差角:1度」の全周囲データから選択可能であると判定する。そして、制御部145は、図13の(A)に示すように、「視差角:1度」の全周囲データから、「視差角:2度」となるように、1つおきに視差画像を9枚選択し、選択した9枚の画像を表示部142に出力させる。
なお、第2の実施形態に係る制御部145は、レンダリング処理部136が予め生成した画像群を用いて、変更後の視差角となる所定の視差数の視差画像を補間処理により生成させ、当該生成させた画像群が表示部142に表示されるように制御しても良い。
具体的には、制御部145は、2次元画像処理部146の補間機能を利用する。2次元画像処理部146は、上述したように、2つの視差画像それぞれの奥行き情報を用いて、補間処理により、当該2つの視差画像から新たな視差画像を生成する補間機能を有する。
2次元画像処理部146が実行する補間処理の具体例について、以下、説明する。例えば、画像Aと画像Bとの中間に位置する画像Cを生成する場合、2次元画像処理部146は、画像Aから画像Bへの方向を示す「画像Aと画像BとのWarp Field」を「Mutual Information法」によって算出する。そして、2次元画像処理部146は、「Warp Field」における各画素ベクトルの中間点(画像Aから画像Bへのベクトルの半分)を画像Aに積算することで、画像Cを生成する。また、画像Aと画像Bとの中間に位置する画像ではなく、例えば、「2:1」の角度位置の画像Cが必要な場合は、2次元画像処理部146は、「2:1」の比率に位置する画像Aから画像Bへのベクトルの画素を用いて画像Cを生成する。なお、画像Aと画像Bとの角度間隔が狭い場合、2次元画像処理部146は、奥行き情報を用いずに、画像Aと画像Bとを足し合わせた後に、画素値を半分にするといった単純な補間処理を行なっても良い。
かかる補間処理は、例えば、通信部143が受信した視差画像群に、変更後の視差角となる9視差画像が存在しない場合に実行される。例えば、視差画像群として「視差角:1度」の全周囲データを受信し、変更後の視差角が「視差角:0.5度」であったとする。かかる場合、制御部145は、「視差角:0.5度」の9視差画像全てを「視差角:1度」の全周囲データから選択不可であると判定する。そして、制御部145は、図13の(B)に示す黒丸で示す視点位置の視差画像を隣接する取得済みの2つの視差画像から補間処理により生成するように2次元画像処理部146を制御する。すなわち、2次元画像処理部146は、黒丸で示す視点位置に隣接する2つの視点により生成されている2つの視差画像それぞれの奥行き情報を用いて、補間処理により、黒丸で示す視点位置に対応する新たな視差画像を生成する。これにより、制御部145は、「視差角:0.5度」となる9枚の視差画像を表示部142に出力させる。
次に、図14を用いて第2の実施形態に係る画像処理システム1の処理について説明する。図14は、第2の実施形態に係る画像処理システムを構成する端末装置の処理を説明するためのフローチャートである。
図14に示すように、第2の実施形態に係る画像処理システム1の端末装置140は、処理対象となるボリュームデータが指定され、ボリュームデータに対するレンダリング条件を受け付けたか否かを判定する(ステップS201)。ここで、ボリュームデータの指定及びレンダリング条件の受け付けが操作者から行なわれない場合(ステップS201否定)、端末装置140は、待機状態となる。
一方、ボリュームデータの指定及びレンダリング条件の受け付けが操作者から行なわれた場合(ステップS201肯定)、制御部145は、指定されたボリュームデータに対応付けられた視差画像群を取得する(ステップ202)。
そして、制御部145は、レンダリング条件で設定される被写体部分の形状と飛び出し臨界との関係に基づいて、当該レンダリング条件にて指定された視差角を変更する(ステップS203)。そして、制御部145は、変更後の視差角に合致する9視差画像を選択処理、又は、補間処理により取得する(ステップS204)。
そして、制御部145が取得した9視差画像を中間画像に変換して表示部142に出力することで、表示部142は、9視差画像を表示し(ステップS205)、処理を終了する。
上述してきたように、第2の実施形態では、視差角を変更した所定視差数の視差画像をリアルタイムで生成することなく表示部142に表示させることができる。すなわち、第2の実施形態では、ボリュームレンダリング処理を行なうことなく、視差角を変更した所定視差数の視差画像を表示させることができる。従って、第2の実施形態では、立体感が最適となる立体視用の画像を、迅速に表示することができる。
なお、上記実施形態においては、9視差モニタを用いる場合について説明したが、上記実施形態で説明した視差角変更処理は、2視差モニタを用いる場合であっても適用可能である。また、上記実施形態においては、端末装置140の制御部145が、視差角変更処理を行なう場合について説明した。しかしながら、上記実施形態はこれに限られるものではない。例えば、ワークステーション130の制御部135が視差角変更処理を行なう場合であっても良い。かかる場合、制御部135は、視差角変更後の9視差画像を表示部142に表示するように制御部145に依頼する。
また、上記実施形態は、レンダリング処理を行なう装置を医用画像診断装置110とする場合であっても良い。例えば、上記実施形態は、医用画像診断装置110がレンダリング処理を行ない、視差角変更処理をワークステーション130や端末装置140が行なう場合であっても良い。
また、上記実施形態で説明した「視差角変更処理及び視差角変更後の視差画像群の表示」は、医用画像診断装置110のみで行なわれる場合や、ワークステーション130のみで行なわれる場合、端末装置140のみで行なわれる場合であっても良い。
すなわち、上記の実施形態で説明した処理は、画像処理システム1に含まれる各装置の各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
なお、上記の実施形態で説明した画像処理方法は、あらかじめ用意された画像処理プログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。この画像処理プログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD、Blu-ray Disc(登録商標)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
以上、説明したとおり、第1の実施形態及び第2の実施形態によれば、立体感が最適となる立体視用の画像を表示することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 画像処理システム
2 院内LAN(Local Area Network)
110 医用画像診断装置
120 画像保管装置
130 ワークステーション
131 入力部
132 表示部
133 通信部
134 記憶部
135 制御部
136 レンダリング処理部
140 端末装置
141 入力部
142 表示部
143 通信部
144 記憶部
145 制御部
146 2次元画像処理部

Claims (12)

  1. 所定の視差数の視差画像を表示することで、観察者により立体的に認識される立体画像を表示する立体表示装置と、
    前記所定の視差数の視差画像を3次元の医用画像データであるボリュームデータから生成する際に、被写体部分の形状に基づいて視差画像間の視差角を変更し、変更後の視差角となる所定の視差数の視差画像を前記立体表示装置に表示するように制御する制御部と、
    を備えたことを特徴とする画像処理システム。
  2. 前記制御部は、前記被写体部分の形状と、前記立体表示装置において表示される立体画像の飛び出し方向における臨界である飛び出し臨界との関係に基づいて、視差画像間の視差角を変更することを特徴とする請求項1に記載の画像処理システム。
  3. 前記制御部は、前記被写体部分に対するレンダリング条件として設定された幾何条件及びアピアランス条件の少なくとも1つに基づいて視差画像間の視差角を変更することを特徴とする請求項1又は2に記載の画像処理システム。
  4. 前記制御部は、前記幾何条件として前記被写体部分にて設定された視点の位置を移動させるための重心から当該被写体部分における輪郭までの距離に基づいて視差画像間の視差角を変更することを特徴とする請求項3に記載の画像処理システム。
  5. 前記制御部は、前記幾何条件として設定された視点及び視線方向により算出される当該視点から前記被写体部分における輪郭までの距離に基づいて視差画像間の視差角を変更することを特徴とする請求項3に記載の画像処理システム。
  6. 前記制御部は、前記幾何条件として設定された視野角に基づいて視差画像間の視差角を変更することを特徴とする請求項2に記載の画像処理システム。
  7. 前記制御部は、前記ボリュームデータに対してレンダリング処理を実行するレンダリング処理部に対して、変更後の視差角となる所定の視差数の視差画像を生成するように制御し、前記レンダリング処理部が生成した画像群が前記立体表示装置に表示されるように制御することを特徴とする請求項1〜6のいずれか1つに記載の画像処理システム。
  8. 前記制御部は、前記ボリュームデータに対してレンダリング処理を実行するレンダリング処理部が予め生成した画像群から、変更後の視差角となる所定の視差数の視差画像となる画像群を選択し、当該選択した画像群が前記立体表示装置に表示されるように制御することを特徴とする請求項1〜6のいずれか1つに記載の画像処理システム。
  9. 前記制御部は、前記ボリュームデータに対してレンダリング処理を実行するレンダリング処理部が予め生成した画像群を用いて、変更後の視差角となる所定の視差数の視差画像を補間処理により生成させ、当該生成させた画像群が前記立体表示装置に表示されるように制御することを特徴とする請求項8に記載の画像処理システム。
  10. 所定の視差数の視差画像を表示することで、観察者により立体的に認識される立体画像を表示する立体表示装置と、
    前記所定の視差数の視差画像を3次元の医用画像データであるボリュームデータから生成する際に、被写体部分の形状に基づいて視差画像間の視差角を変更し、変更後の視差角となる所定の視差数の視差画像を前記立体表示装置に表示するように制御する制御部と、
    を備えたことを特徴とする画像処理装置。
  11. 所定の視差数の視差画像を3次元の医用画像データであるボリュームデータから生成する際に、被写体部分の形状に基づいて視差画像間の視差角を変更し、変更後の視差角となる所定の視差数の視差画像を立体表示装置に表示するように制御する制御ステップ、
    を含んだことを特徴とする画像処理方法。
  12. 所定の視差数の視差画像を3次元の医用画像データであるボリュームデータから生成する際に、被写体部分の形状に基づいて視差画像間の視差角を変更し、変更後の視差角となる所定の視差数の視差画像を立体表示装置に表示するように制御する制御手順、
    をコンピュータに実行させることを特徴とする画像処理プログラム。
JP2011158254A 2011-07-19 2011-07-19 画像処理システム、装置、方法及びプログラム Active JP5921102B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011158254A JP5921102B2 (ja) 2011-07-19 2011-07-19 画像処理システム、装置、方法及びプログラム
CN201210233148.0A CN102892022B (zh) 2011-07-19 2012-07-05 图像处理系统、图像处理装置以及图像处理方法
US13/544,319 US9314224B2 (en) 2011-07-19 2012-07-09 Image processing system, image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011158254A JP5921102B2 (ja) 2011-07-19 2011-07-19 画像処理システム、装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2013026736A true JP2013026736A (ja) 2013-02-04
JP5921102B2 JP5921102B2 (ja) 2016-05-24

Family

ID=47535360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011158254A Active JP5921102B2 (ja) 2011-07-19 2011-07-19 画像処理システム、装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US9314224B2 (ja)
JP (1) JP5921102B2 (ja)
CN (1) CN102892022B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015022461A (ja) * 2013-07-18 2015-02-02 株式会社東芝 医用情報処理装置、医用画像処理装置及び医用画像表示装置
JP2019205796A (ja) * 2018-05-30 2019-12-05 大日本印刷株式会社 医用画像処理装置、医用画像処理方法、プログラム、及びmpr像生成方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6066066B2 (ja) * 2013-02-20 2017-01-25 株式会社ジオ技術研究所 立体視画像出力システム
TWI574547B (zh) * 2015-11-18 2017-03-11 緯創資通股份有限公司 立體影像的無線傳輸系統、方法及其裝置
JP6849430B2 (ja) * 2016-12-27 2021-03-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10755383B2 (en) * 2017-09-29 2020-08-25 Apple Inc. Multi-space rendering with configurable transformation parameters

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07254074A (ja) * 1994-03-15 1995-10-03 Toppan Printing Co Ltd 視差画像作成方法および装置
JP2006101329A (ja) * 2004-09-30 2006-04-13 Kddi Corp 立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末、レンダリング画像生成方法および立体視画像表示方法ならびにそのプログラムおよび記憶媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1264062C (zh) * 2002-12-31 2006-07-12 清华大学 一种多视角x射线立体成像的方法与系统
CN101841728B (zh) * 2003-04-17 2012-08-08 夏普株式会社 三维图像处理装置
JP4015090B2 (ja) 2003-09-08 2007-11-28 株式会社東芝 立体表示装置および画像表示方法
US8743109B2 (en) * 2006-08-31 2014-06-03 Kent State University System and methods for multi-dimensional rendering and display of full volumetric data sets
JP2008113800A (ja) * 2006-11-02 2008-05-22 Toshiba Corp 超音波診断装置
JP5342796B2 (ja) * 2008-03-27 2013-11-13 株式会社東芝 三次元画像表示方法および装置
JP2010211036A (ja) * 2009-03-11 2010-09-24 Sony Corp 立体表示装置
JP5677738B2 (ja) * 2009-12-24 2015-02-25 株式会社東芝 X線コンピュータ断層撮影装置
CN101794349B (zh) * 2010-02-09 2012-08-29 北京邮电大学 机器人遥操作增强现实实验系统及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07254074A (ja) * 1994-03-15 1995-10-03 Toppan Printing Co Ltd 視差画像作成方法および装置
JP2006101329A (ja) * 2004-09-30 2006-04-13 Kddi Corp 立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末、レンダリング画像生成方法および立体視画像表示方法ならびにそのプログラムおよび記憶媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015022461A (ja) * 2013-07-18 2015-02-02 株式会社東芝 医用情報処理装置、医用画像処理装置及び医用画像表示装置
JP2019205796A (ja) * 2018-05-30 2019-12-05 大日本印刷株式会社 医用画像処理装置、医用画像処理方法、プログラム、及びmpr像生成方法
JP7095409B2 (ja) 2018-05-30 2022-07-05 大日本印刷株式会社 医用画像処理装置、医用画像処理方法、プログラム、及びmpr像生成方法

Also Published As

Publication number Publication date
JP5921102B2 (ja) 2016-05-24
US9314224B2 (en) 2016-04-19
US20130021331A1 (en) 2013-01-24
CN102892022A (zh) 2013-01-23
CN102892022B (zh) 2015-07-22

Similar Documents

Publication Publication Date Title
JP5909055B2 (ja) 画像処理システム、装置、方法及びプログラム
JP6058290B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP6211764B2 (ja) 画像処理システム及び方法
US9542771B2 (en) Image processing system, image processing apparatus, and image processing method
JP5818531B2 (ja) 画像処理システム、装置及び方法
JP6005905B2 (ja) 画像処理システム、画像処理装置及び画像処理方法
JP5972533B2 (ja) 画像処理システム及び方法
US9445082B2 (en) System, apparatus, and method for image processing
JP6430149B2 (ja) 医用画像処理装置
JP5921102B2 (ja) 画像処理システム、装置、方法及びプログラム
JP5797485B2 (ja) 画像処理装置、画像処理方法及び医用画像診断装置
JP5784379B2 (ja) 画像処理システム、装置及び方法
JP5804760B2 (ja) 画像処理システム及び方法
JP6017124B2 (ja) 画像処理システム、画像処理装置、医用画像診断装置、画像処理方法及び画像処理プログラム
JP6005913B2 (ja) 報知装置、報知方法及び医用画像診断装置
JP5813986B2 (ja) 画像処理システム、装置、方法及びプログラム
JP6087618B2 (ja) 画像処理システムおよび画像処理方法
JP5868051B2 (ja) 画像処理装置、画像処理方法、画像処理システム及び医用画像診断装置
JP5835980B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151006

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160412

R150 Certificate of patent or registration of utility model

Ref document number: 5921102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350