JP2013027433A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2013027433A
JP2013027433A JP2011163688A JP2011163688A JP2013027433A JP 2013027433 A JP2013027433 A JP 2013027433A JP 2011163688 A JP2011163688 A JP 2011163688A JP 2011163688 A JP2011163688 A JP 2011163688A JP 2013027433 A JP2013027433 A JP 2013027433A
Authority
JP
Japan
Prior art keywords
image
opacity
volume data
section
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011163688A
Other languages
Japanese (ja)
Other versions
JP2013027433A5 (en
JP5693412B2 (en
Inventor
Tomohiko Shimoyama
朋彦 下山
康文 ▲高▼間
Yasufumi Takama
Kiyohide Sato
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011163688A priority Critical patent/JP5693412B2/en
Publication of JP2013027433A publication Critical patent/JP2013027433A/en
Publication of JP2013027433A5 publication Critical patent/JP2013027433A5/ja
Application granted granted Critical
Publication of JP5693412B2 publication Critical patent/JP5693412B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a technique by which a user can easily grasp a three-dimensional structure of a portion corresponding to an ultrasonic tomographic image being imaged.SOLUTION: When opacity in each position in volume data is set in the process of volume rendering, it is assumed that light beam tracing from a viewpoint for calculating the opacity intersects a cross section corresponding to the ultrasonic tomographic image in the volume data. In this case, with respect to the opacity in each position in a section included in the volume data of the light beam, the opacity in a position which is farther from the cross section is set to be smaller.

Description

本発明は、医用画像を処理する画像処理技術に関するもので、特に、超音波画像診断を行う際に、他のボリュームデータを処理して超音波断層像と共に提示する為の技術に関するものである。   The present invention relates to an image processing technique for processing a medical image, and particularly to a technique for processing other volume data and presenting it together with an ultrasonic tomographic image when performing ultrasonic image diagnosis.

医療の分野において、MRI等のモダリティによって被検体を撮像したボリュームデータ(以下、参照ボリュームデータ)中で病変部の位置を同定した上で、超音波診断装置によって該部位を撮像して観察する、という手順で画像診断を行う場合がある。このような診断を支援することを目的として、被検体に対する超音波プローブの位置と姿勢を計測することで、撮像している超音波断層像に対応した2次元の断層像を参照ボリュームデータから切り出して表示する装置が、例えば特許文献1で提案されている。このような装置では、参照ボリュームデータ中における病変部と、その病変部の超音波断層像と、を対比して表示することができる。   In the medical field, after identifying the position of a lesion in volume data obtained by imaging a subject with a modality such as MRI (hereinafter referred to as reference volume data), the site is imaged and observed by an ultrasonic diagnostic apparatus. In some cases, image diagnosis is performed by the following procedure. In order to support such diagnosis, the position and orientation of the ultrasonic probe relative to the subject are measured, and a two-dimensional tomographic image corresponding to the ultrasonic tomographic image being captured is cut out from the reference volume data. For example, Japanese Patent Application Laid-Open No. H10-228667 proposes a display device. In such an apparatus, it is possible to display the lesioned part in the reference volume data and the ultrasonic tomographic image of the lesioned part in comparison.

また、特許文献1では、参照ボリュームデータの全体像をボリュームレンダリングしたうえで、撮像している超音波断層像の位置を同一空間内に提示することがなされている。   Further, in Patent Document 1, the entire image of the reference volume data is subjected to volume rendering, and the position of the ultrasonic tomographic image being captured is presented in the same space.

特開2008−279272号公報JP 2008-279272 A

しかし、このような装置では、撮像している超音波断層像に対応した参照ボリュームデータの断層像が2次元の画像として提示されるため、参照ボリュームデータの3次元構造が把握しにくいという課題があった。また、参照ボリュームデータの全体像のボリュームレンダリングを行っているため、撮像している超音波断層像に対応した部位の3次元構造を把握することが困難であった。特に、超音波断層像を撮像する際に参照ボリュームデータでの病変部の3次元構造と対比したいという要求を満たすことができなかった。   However, in such an apparatus, since the tomographic image of the reference volume data corresponding to the ultrasonic tomographic image being captured is presented as a two-dimensional image, there is a problem that it is difficult to grasp the three-dimensional structure of the reference volume data. there were. Further, since volume rendering of the entire image of the reference volume data is performed, it is difficult to grasp the three-dimensional structure of the part corresponding to the ultrasonic tomographic image being captured. In particular, when an ultrasonic tomographic image is taken, the request to compare with the three-dimensional structure of the lesioned part in the reference volume data cannot be satisfied.

本発明は以上の問題に鑑みてなされたものであり、撮像している超音波断層像に対応した部位の3次元構造をユーザに容易に把握させる為の技術を提供する。   The present invention has been made in view of the above problems, and provides a technique for allowing a user to easily grasp the three-dimensional structure of a part corresponding to an ultrasonic tomographic image being captured.

本発明の目的を達成するため、例えば、本発明の画像処理装置は、被検体のボリュームデータを用いてボリュームレンダリングを行うことで、規定の視点から見た該ボリュームデータの画像を生成するレンダリング手段と、前記画像を表示する表示手段とを有する画像処理装置であって、超音波プローブによって得られる前記被検体の超音波断層像を取得する取得手段と、前記ボリュームレンダリングの過程で前記ボリュームデータ中の各位置における不透明度を設定する際、該不透明度を求めるために前記視点から追跡する光線が、前記ボリュームデータ中の前記超音波断層像に対応する断面と交差していれば、前記光線において前記ボリュームデータに含まれる区間内の各位置における不透明度を、前記断面からの距離がより大きい位置における不透明度がより小さくなるように設定するよう前記レンダリング手段を制御する制御手段とを備えることを特徴とする。   In order to achieve the object of the present invention, for example, the image processing apparatus of the present invention performs rendering of volume using volume data of a subject, thereby rendering an image of the volume data viewed from a specified viewpoint. And display means for displaying the image, an acquisition means for acquiring an ultrasonic tomographic image of the subject obtained by an ultrasonic probe, and in the volume data in the volume rendering process When setting the opacity at each of the positions, if the ray traced from the viewpoint for obtaining the opacity intersects the cross section corresponding to the ultrasonic tomographic image in the volume data, The opacity at each position in the section included in the volume data is a position where the distance from the cross section is larger. Opacity definitive is characterized in that it comprises a control means for controlling the rendering means to set so that smaller.

本発明の構成によれば、撮像している超音波断層像に対応した部位の3次元構造をユーザに容易に把握させることができる。   According to the configuration of the present invention, the user can easily grasp the three-dimensional structure of the part corresponding to the ultrasonic tomographic image being captured.

システムの構成例を示す図。The figure which shows the structural example of a system. 投影面の設定例を示す図。The figure which shows the example of a setting of a projection surface. 注目点Pにおける不透明度を説明する図。The figure explaining the opacity in the attention point P. 伝達関数の一例を示す図。The figure which shows an example of a transfer function. MRIボリュームデータ、視野平面、注目断面のそれぞれを示す図。The figure which shows each of MRI volume data, a visual field plane, and an attention cross section. 画像処理装置200が行う処理のフローチャート。10 is a flowchart of processing performed by the image processing apparatus 200. ステップS107における処理の詳細を示すフローチャート。The flowchart which shows the detail of the process in step S107. ステップS205における処理を説明する図。The figure explaining the process in step S205. 曲面としての注目断面を示す図。The figure which shows the attention cross section as a curved surface. 変形例1−2における注目断面の配置例を示す図。The figure which shows the example of arrangement | positioning of the attention cross section in the modification 1-2. フィルタ処理済み画像の生成過程を説明する図。The figure explaining the production | generation process of the filter processed image. 画像処理装置200が行う処理のフローチャート。10 is a flowchart of processing performed by the image processing apparatus 200. ステップS300における処理の詳細を示すフローチャート。The flowchart which shows the detail of the process in step S300.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の一つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態に係る画像処理装置は、予め撮像した被検体のMRIボリュームデータを参照ボリュームデータとし、参照ボリュームデータに基づいてボリュームレンダリングした画像と、この被検体の超音波断層像と、の対応関係を提示する。このボリュームレンダリングでは、超音波断層像に対応するMRIボリュームデータ中の断面(注目断面)からの距離が大きくなるにつれて透明度を上げる(不透明度を下げる)ような伝達関数を用いる。これにより、超音波断層像に対応した部位の3次元構造を容易に把握することができる。また、ボリュームレンダリングの際に(ボリュームレンダリングの過程で)追跡する光線が注目断面と交差しない画素に関しては、通常の伝達関数を用いたボリュームレンダリングを行う。これにより、被検体の中での超音波断層像の3次元的な位置を把握しながら、超音波断層像に対応した部位の3次元構造を把握することができる。
[First Embodiment]
The image processing apparatus according to the present embodiment uses MRI volume data of a subject imaged in advance as reference volume data, and a correspondence relationship between an image that has been volume-rendered based on the reference volume data and an ultrasonic tomographic image of the subject Present. In this volume rendering, a transfer function that increases the transparency (decreases the opacity) as the distance from the cross section (the cross section of interest) in the MRI volume data corresponding to the ultrasonic tomogram increases. Thereby, the three-dimensional structure of the part corresponding to the ultrasonic tomographic image can be easily grasped. In addition, for a pixel in which a ray to be traced during volume rendering (in the process of volume rendering) does not intersect the cross section of interest, volume rendering using a normal transfer function is performed. Thereby, it is possible to grasp the three-dimensional structure of the part corresponding to the ultrasonic tomographic image while grasping the three-dimensional position of the ultrasonic tomographic image in the subject.

先ず、本実施形態に係るシステムの構成例について、図1を用いて説明する。図1に示す如く、本実施形態に係るシステムは、画像処理装置200、表示装置100、データベース(DB)250、超音波診断装置220、超音波プローブ300、位置姿勢センサ301、を有する。   First, a configuration example of a system according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the system according to the present embodiment includes an image processing apparatus 200, a display apparatus 100, a database (DB) 250, an ultrasonic diagnostic apparatus 220, an ultrasonic probe 300, and a position / orientation sensor 301.

超音波プローブ300は周知の如く、超音波を照射して、被検体400の部位(図1では断面302)のデータを超音波データとして収集する。超音波プローブ300は、この収集した超音波データを、超音波診断装置220に送出する。   As is well known, the ultrasonic probe 300 irradiates ultrasonic waves, and collects data of a portion of the subject 400 (cross section 302 in FIG. 1) as ultrasonic data. The ultrasonic probe 300 sends the collected ultrasonic data to the ultrasonic diagnostic apparatus 220.

また、超音波プローブ300には、位置姿勢センサ301が取り付けられている。位置姿勢センサ301には、様々な測定方法の位置姿勢センサを適用することができ、本実施形態では如何なる位置姿勢センサを適用してもよい。位置姿勢センサ301は自身の位置姿勢を計測するものであり、以下では、位置姿勢センサ301が計測した位置姿勢を超音波プローブ300の位置姿勢として取り扱う。しかし、位置姿勢センサ301が計測した位置姿勢に規定のバイアスを加えたり、規定の変換を施したりしたものを、超音波プローブ300の位置姿勢として取り扱うようにしてもよい。さらには、本実施形態では、超音波プローブ300の位置姿勢を取得することができればよい為、例えば、カメラが撮像した超音波プローブ300の撮像画像を用いてこの超音波プローブ300の位置姿勢を求めるような方法を採用してもよい。然るに、本実施形態では、超音波プローブ300の位置姿勢を取得することができるのであれば、如何なる方法を採用してもよい。いずれにせよ、超音波プローブ300の位置姿勢(本実施形態では位置姿勢センサ301が計測した位置姿勢)は、画像処理装置200に入力される。   In addition, a position and orientation sensor 301 is attached to the ultrasonic probe 300. A position and orientation sensor of various measurement methods can be applied to the position and orientation sensor 301, and any position and orientation sensor may be applied in the present embodiment. The position and orientation sensor 301 measures its own position and orientation, and hereinafter, the position and orientation measured by the position and orientation sensor 301 is handled as the position and orientation of the ultrasonic probe 300. However, the position and orientation measured by the position and orientation sensor 301 may be treated as the position and orientation of the ultrasonic probe 300 by applying a specified bias or performing a specified conversion. Furthermore, in this embodiment, it is only necessary to acquire the position and orientation of the ultrasonic probe 300. For example, the position and orientation of the ultrasonic probe 300 is obtained using an image captured by the ultrasonic probe 300 captured by the camera. Such a method may be adopted. However, in the present embodiment, any method may be adopted as long as the position and orientation of the ultrasonic probe 300 can be acquired. In any case, the position and orientation of the ultrasonic probe 300 (in this embodiment, the position and orientation measured by the position and orientation sensor 301) are input to the image processing apparatus 200.

超音波診断装置220は、超音波プローブ300からの超音波データを用いて、超音波を照射した被検体400の部位(図1では断面302)の超音波断層像を生成する。超音波プローブ300が収集したデータから超音波断層像を生成するための技術については周知であるため、これについての説明は省略する。そして超音波診断装置220は、生成した超音波断層像を画像処理装置200に入力する。   The ultrasound diagnostic apparatus 220 uses the ultrasound data from the ultrasound probe 300 to generate an ultrasound tomographic image of the site of the subject 400 irradiated with ultrasound (section 302 in FIG. 1). Since a technique for generating an ultrasonic tomographic image from data collected by the ultrasonic probe 300 is well known, a description thereof will be omitted. Then, the ultrasonic diagnostic apparatus 220 inputs the generated ultrasonic tomographic image to the image processing apparatus 200.

DB250には、MRI等により予め撮像した被検体400のボリュームデータが保存されており、画像処理装置200は、このボリュームデータを適宜読み出すことができる。本実施形態では、このボリュームデータはMRIボリュームデータであるとするが、他の方法により収集したボリュームデータであってもよい。   The DB 250 stores volume data of the subject 400 imaged in advance by MRI or the like, and the image processing apparatus 200 can appropriately read this volume data. In this embodiment, this volume data is MRI volume data, but may be volume data collected by other methods.

次に、画像処理装置200について説明する。CPU11は、RAM12やROM13に格納されているコンピュータプログラムやデータを用いて、画像処理装置200全体の動作制御を行うと共に、画像処理装置200が行うものとして後述する各処理を実行する。   Next, the image processing apparatus 200 will be described. The CPU 11 uses the computer program and data stored in the RAM 12 and the ROM 13 to control the operation of the entire image processing apparatus 200 and executes each process described later as what the image processing apparatus 200 performs.

RAM12は、外部記憶装置15からロードされたコンピュータプログラムやデータ、I/F16を介してDB250、超音波診断装置220、位置姿勢センサ301から受信した様々な情報を一時的に記憶するためのエリアを有する。更にRAM12は、CPU11が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM12は、様々なエリアを適宜提供することができる。ROM13には、画像処理装置200の設定データやブートプログラムなどが格納されている。   The RAM 12 is an area for temporarily storing various information received from the computer program and data loaded from the external storage device 15, the DB 250, the ultrasonic diagnostic apparatus 220, and the position / orientation sensor 301 via the I / F 16. Have. Further, the RAM 12 has a work area used when the CPU 11 executes various processes. That is, the RAM 12 can provide various areas as appropriate. The ROM 13 stores setting data and a boot program for the image processing apparatus 200.

操作部14は、キーボードやマウスなどにより構成されており、画像処理装置200のユーザが操作することで、各種の指示をCPU11に対して入力することができる。   The operation unit 14 is configured by a keyboard, a mouse, and the like, and can input various instructions to the CPU 11 when operated by a user of the image processing apparatus 200.

外部記憶装置15は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置15には、OS(オペレーティングシステム)や、画像処理装置200が行うものとして後述する各処理をCPU11に実行させるためのコンピュータプログラムやデータが保存されている。また、外部記憶装置15には、以下の説明において既知の情報として取り扱っている情報も保存されている。外部記憶装置15に保存されているコンピュータプログラムやデータは、CPU11による制御に従って適宜RAM12にロードされ、CPU11による処理対象となる。   The external storage device 15 is a mass information storage device represented by a hard disk drive device. The external storage device 15 stores an OS (Operating System) and computer programs and data for causing the CPU 11 to execute processes described later as those performed by the image processing apparatus 200. The external storage device 15 also stores information handled as known information in the following description. Computer programs and data stored in the external storage device 15 are appropriately loaded into the RAM 12 under the control of the CPU 11 and are processed by the CPU 11.

I/F16には、DB250、超音波診断装置220、位置姿勢センサ301が接続されており、それぞれの機器とはこのI/F16を介して通信することになる。なお、図1では簡略化のために、それぞれの機器とのI/FはI/F16で兼用しているが、機器毎にI/Fを設けるようにしてもよい。また、上記の各部はバス17に接続されている。   The DB 250, the ultrasonic diagnostic apparatus 220, and the position / orientation sensor 301 are connected to the I / F 16 and communicate with each device via the I / F 16. In FIG. 1, for simplification, the I / F with each device is also used as the I / F 16, but an I / F may be provided for each device. Each of the above parts is connected to the bus 17.

画像処理装置200は、超音波診断装置220から送出された断面302の超音波断層像を受信すると、この超音波断層像を、表示装置100の表示画面上に超音波断層像102として表示する。   When receiving the ultrasonic tomographic image of the cross section 302 sent from the ultrasonic diagnostic apparatus 220, the image processing apparatus 200 displays this ultrasonic tomographic image as the ultrasonic tomographic image 102 on the display screen of the display device 100.

また画像処理装置200は、DB250から読み出した被検体400のMRIボリュームデータを用いてボリュームレンダリングを行うことで、規定の視点から見た被検体400のMRIボリュームデータの画像を生成する。そして画像処理装置200は、この生成した画像を、俯瞰図(103)として表示装置100の表示画面上に表示する。   In addition, the image processing apparatus 200 performs volume rendering using the MRI volume data of the subject 400 read from the DB 250, thereby generating an image of the MRI volume data of the subject 400 viewed from a specified viewpoint. Then, the image processing device 200 displays the generated image on the display screen of the display device 100 as an overhead view (103).

また、画像処理装置200は、断面302に対応するMRIボリュームデータ中の2次元断層像を生成し、生成した2次元断層像を、超音波断層像102に対応する参照画像101として表示装置100の表示画面上に表示する。なお、参照画像101の表示は必須ではない。   Further, the image processing apparatus 200 generates a two-dimensional tomographic image in the MRI volume data corresponding to the cross section 302, and uses the generated two-dimensional tomographic image as a reference image 101 corresponding to the ultrasonic tomographic image 102. Display on the display screen. Note that the display of the reference image 101 is not essential.

画像処理装置200が行う処理を、同処理のフローチャートを示す図6を用いて更に詳細に説明する。なお、図6のフローチャートに従った処理は、外部記憶装置15からRAM12にロードされたコンピュータプログラムやデータを用いてCPU11が実行するものである。そのため、特に説明がない限りは、図6に示した各ステップにおける処理の主体は何れもCPU11である。   Processing performed by the image processing apparatus 200 will be described in more detail with reference to FIG. 6 showing a flowchart of the processing. The process according to the flowchart of FIG. 6 is executed by the CPU 11 using a computer program or data loaded from the external storage device 15 to the RAM 12. Therefore, unless otherwise specified, the main body of processing in each step shown in FIG.

ステップS101では、DB250からRAM12に、被検体400のMRIボリュームデータを読み出す(ダウンロードする)。この読み出しは、ユーザが操作部14を用いて入力した読み出し指示をCPU11が検知したことに応じて行ってもよい。   In step S101, the MRI volume data of the subject 400 is read (downloaded) from the DB 250 to the RAM 12. This reading may be performed in response to the CPU 11 detecting a reading instruction input by the user using the operation unit 14.

ステップS102では、超音波診断装置220から送出された断面302の超音波断層像を受信してRAM12に一時的に格納し、その後、この超音波断層像を超音波断層像102として表示装置100の表示画面上に表示する。この表示は、ユーザが操作部14を用いて入力した表示指示をCPU11が検知したことに応じて行ってもよい。また、表示のオン/オフをこの表示指示によって切り替えてもよい。   In step S102, the ultrasonic tomographic image of the cross section 302 sent from the ultrasonic diagnostic apparatus 220 is received and temporarily stored in the RAM 12, and then this ultrasonic tomographic image is used as the ultrasonic tomographic image 102 of the display device 100. Display on the display screen. This display may be performed in response to the CPU 11 detecting a display instruction input by the user using the operation unit 14. Further, display on / off may be switched by this display instruction.

ステップS103では、位置姿勢センサ301から送出された超音波プローブ300の位置姿勢を受信してRAM12に一時的に格納する。   In step S103, the position and orientation of the ultrasonic probe 300 sent from the position and orientation sensor 301 are received and temporarily stored in the RAM 12.

ステップS104では、ステップS103で取得した位置姿勢(超音波プローブ300が断面302の超音波データを収集しているときに位置姿勢センサ301が計測した位置姿勢)を用いて、断面302に対応するMRIボリュームデータ中の断面を特定する。ステップS103で取得した位置姿勢を用いて、断面302に対応するMRIボリュームデータ中の断面を特定する処理は周知の技術であるため、これに係る説明は省略する。また、以下では、断面302に対応するMRIボリュームデータ中の断面を注目断面と呼称する。   In step S104, the MRI corresponding to the cross section 302 is obtained using the position and orientation acquired in step S103 (the position and orientation measured by the position and orientation sensor 301 when the ultrasonic probe 300 is collecting ultrasonic data of the cross section 302). Identify cross sections in volume data. Since the process of specifying the cross section in the MRI volume data corresponding to the cross section 302 using the position and orientation acquired in step S103 is a well-known technique, a description thereof will be omitted. Hereinafter, a cross section in the MRI volume data corresponding to the cross section 302 is referred to as a cross section of interest.

位置姿勢センサ301が位置姿勢を計測する座標系とMRIボリュームデータを配置する空間(仮想空間)の座標系との位置姿勢関係が既知であれば、位置姿勢センサ301が計測した位置姿勢に対応する仮想空間中の位置姿勢は周知の方法で特定可能である。然るに、超音波プローブ300が断面302の超音波データを収集しているときに位置姿勢センサ301が計測した位置姿勢を用いれば、周知の方法でもって、断面302に対応するMRIボリュームデータ中の断面は特定することができる。   If the position and orientation relationship between the coordinate system in which the position and orientation sensor 301 measures the position and orientation and the coordinate system of the space (virtual space) in which the MRI volume data is arranged is known, it corresponds to the position and orientation measured by the position and orientation sensor 301. The position and orientation in the virtual space can be specified by a known method. However, if the position / orientation measured by the position / orientation sensor 301 when the ultrasound probe 300 is collecting ultrasound data of the section 302 is used, the section in the MRI volume data corresponding to the section 302 is obtained by a known method. Can be identified.

次にステップS105では、ステップS101で受信したMRIボリュームデータから周知の技術でもって、ステップS104で特定した注目断面の2次元断層像を生成する。そしてステップS106では、ステップS105で生成した2次元断層像を、参照画像101として表示装置100の表示画面上に表示する。   Next, in step S105, a two-dimensional tomographic image of the cross section of interest identified in step S104 is generated from the MRI volume data received in step S101 by a known technique. In step S106, the two-dimensional tomographic image generated in step S105 is displayed on the display screen of the display device 100 as the reference image 101.

ステップS107では、MRIボリュームデータを用いてボリュームレンダリングすることで、規定の視点から見た被検体400のMRIボリュームデータの画像を生成する。ボリュームレンダリングを行う場合、MRIボリュームデータと視点との間に投影面(視野平面)を配置する。視野平面は、MRIボリュームデータ全体をボリュームレンダリングすることができるように配置されるもので、これは規定の位置姿勢で配置してもよいし、ユーザが操作部14を用いて位置姿勢を調整して配置してもよい。   In step S107, an image of the MRI volume data of the subject 400 viewed from a specified viewpoint is generated by performing volume rendering using the MRI volume data. When performing volume rendering, a projection plane (view plane) is arranged between the MRI volume data and the viewpoint. The field plane is arranged so that the entire MRI volume data can be volume-rendered. The field plane may be arranged in a specified position and orientation, or the user adjusts the position and orientation using the operation unit 14. May be arranged.

被検体400のMRIボリュームデータ、視野平面、注目断面のそれぞれを図5に示す。図5に示す如く、ステップS107では、被検体400のMRIボリュームデータ500と不図示の視点との間に視野平面508を配置する。501は断面302に対応するMRIボリュームデータ500中の注目断面である。   FIG. 5 shows the MRI volume data, the field plane, and the cross section of interest of the subject 400. As shown in FIG. 5, in step S107, a visual field plane 508 is arranged between the MRI volume data 500 of the subject 400 and a viewpoint (not shown). Reference numeral 501 denotes a cross section of interest in the MRI volume data 500 corresponding to the cross section 302.

そして更にステップS107では、MRIボリュームデータを用いてボリュームレンダリングを行うことで、この投影面上に、規定の視点から見た「被検体400のMRIボリュームデータ500」の画像を生成する。   In step S107, volume rendering is performed using the MRI volume data, thereby generating an image of “MRI volume data 500 of the subject 400” viewed from a specified viewpoint on the projection plane.

ステップS108では、ステップS107で生成した画像を、俯瞰図(103)として表示装置100の表示画面上に表示する。なお、参照画像101、超音波断層像102、俯瞰図(103)のそれぞれの表示レイアウトは図1に示した表示レイアウトに限るものではなく、任意の表示レイアウトが考え得る。また、超音波断層像102と俯瞰図(103)との対応関係をユーザに提示することができるのであれば、その表示方法は特定の表示方法に限るものではない。また、それぞれの画像の表示のオン/オフはユーザによる操作などに応じて切り替えるようにしてもよい。   In step S108, the image generated in step S107 is displayed on the display screen of the display device 100 as an overhead view (103). The display layouts of the reference image 101, the ultrasonic tomographic image 102, and the overhead view (103) are not limited to the display layout shown in FIG. 1, and any display layout can be considered. In addition, the display method is not limited to a specific display method as long as the correspondence between the ultrasonic tomographic image 102 and the overhead view (103) can be presented to the user. Further, on / off of display of each image may be switched according to a user operation or the like.

次に、ステップS107における処理の詳細を、図7のフローチャートを用いて説明する。ステップS107では、仮想空間中に上記の視点を設定し、この設定された視点から、投影面上の各画素位置への線分(光線)を設定し、該線分が注目断面と交差するか否かに応じて、該画素位置における透明度を決定するための伝達関数を切り替える。そしてボリュームレンダリングでは、投影面上の各画素位置における透明度をこの伝達関数に基づいて決定する。即ち本実施形態のボリュームレンダリングは、上記線分が注目断面と交差するのかに応じて伝達関数を切り替えること、交差する場合の伝達関数が注目断面からの距離に応じて不透明度を制御する関数であること以外は通常のボリュームレンダリングと考えてよい。すなわち、通常のボリュームレンダリングと同じように本実施形態でも、投影面上の各画素位置について光線追跡を行うことによって、レンダリング画像を得ている。   Next, details of the processing in step S107 will be described using the flowchart of FIG. In step S107, the above viewpoint is set in the virtual space, a line segment (light ray) from the set viewpoint to each pixel position on the projection plane is set, and whether the line segment intersects the target cross section. Depending on whether or not, the transfer function for determining the transparency at the pixel position is switched. In volume rendering, the transparency at each pixel position on the projection plane is determined based on this transfer function. That is, the volume rendering of the present embodiment is a function that switches the transfer function according to whether the line segment intersects the target section, and the transfer function when the line segment intersects is a function that controls opacity according to the distance from the target section. Other than that, you can think of it as normal volume rendering. That is, similarly to normal volume rendering, in this embodiment, a rendered image is obtained by performing ray tracing for each pixel position on the projection plane.

なお、図7のフローチャートは、投影面上の着目画素位置における画素値を決定するための処理であるため、実際にはステップS107では図7のフローチャートに従った処理を、投影面上の各画素位置について行うことになる。   7 is a process for determining a pixel value at the target pixel position on the projection plane. Actually, in step S107, the process according to the flowchart of FIG. 7 is performed for each pixel on the projection plane. Will be done about the position.

ステップS201では、仮想空間中に規定の視点を設定すると共に、この設定された視点から、投影面上の着目画素位置への線分(視線ベクトル)を設定する。   In step S201, a specified viewpoint is set in the virtual space, and a line segment (line-of-sight vector) from the set viewpoint to the target pixel position on the projection plane is set.

ステップS202では、ステップS201で設定した線分と、注目断面と、が交差するか否かを判断する。仮想空間中における断面(平面、局面にかかわらず)と線分とが交差しているか否かを判断するための技術については周知の技術であるため、これについての説明は省略する。この判断の結果、交差していると判断した場合は、処理はステップS203に進み、交差していないと判断した場合は、処理はステップS204に進む。   In step S202, it is determined whether or not the line segment set in step S201 intersects the target cross section. Since a technique for determining whether or not a cross section (regardless of a plane or an aspect) in the virtual space intersects with a line segment is a well-known technique, a description thereof will be omitted. As a result of this determination, if it is determined that they intersect, the process proceeds to step S203, and if it is determined that they do not intersect, the process proceeds to step S204.

ステップS204では、MRIボリュームデータ500中の各位置(各ボクセル)における値(ボクセル値)vが大きいほどより大きい不透明度(より小さい透明度)f(v)を返す伝達関数fを第1の関数として選択する。図4(a)に示した第1の関数の場合、0≦ボクセル値v<aの場合は不透明度=0を返し、a≦ボクセル値v<bの場合はボクセル値vに正比例する不透明度を返し、b≦ボクセル値vの場合は不透明度=1を返す関数である。このような第1の関数は以下の式(1)で表すことができる。   In step S204, the transfer function f that returns larger opacity (smaller transparency) f (v) as the value (voxel value) v at each position (each voxel) in the MRI volume data 500 is larger is used as the first function. select. In the case of the first function shown in FIG. 4A, opacity = 0 is returned if 0 ≦ voxel value v <a, and opacity is directly proportional to voxel value v if a ≦ voxel value v <b. , And when b ≦ voxel value v, the function returns opacity = 1. Such a first function can be expressed by the following equation (1).

ステップS203では、ボクセル値vが大きいほどより大きい不透明度(より小さい透明度)f(v、d)を返し且つ注目断面からの距離dが大きいほどより小さい不透明度(より大きい透明度)f(v、d)を返す伝達関数fを第2の関数として選択する。図4(b)に示した第2の関数の場合、距離d=0の場合は、第1の関数と同じ関数となるが、距離dが大きくなるに従って、第1の関数の値よりも小さい値を返す関数となっている。このような第2の関数は以下の式(2)で表すことができる。   In step S203, the larger the voxel value v, the larger the opacity (smaller transparency) f (v, d) is returned, and the smaller the distance d from the cross section of interest, the smaller the opacity (greater transparency) f (v, The transfer function f that returns d) is selected as the second function. In the case of the second function shown in FIG. 4B, when the distance d = 0, the function is the same as the first function, but becomes smaller than the value of the first function as the distance d increases. It is a function that returns a value. Such a second function can be expressed by the following equation (2).

もちろん、第1の関数、第2の関数はこの式に限るものではなく、上記の性質を有するのであれば、どのような式で表してもよい。例えば、第2の関数として、注目断面からの距離がc以内であれば通常の不透明度を返し、距離がcよりも大きい場合は距離の増加に応じて小さい不透明度を返す関数を用いてもよい。このような関数は以下の式(3)で表すことができる。   Of course, the first function and the second function are not limited to these expressions, and any expression may be used as long as it has the above properties. For example, as the second function, a function that returns normal opacity if the distance from the target cross section is within c, and returns small opacity as the distance increases is used. Good. Such a function can be expressed by the following equation (3).

また、注目断面からの距離がcよりも大きい場合は不透明度=0を返す関数を第2の関数として用いてもよい。このような関数は以下の式(4)で表すことができる。   When the distance from the target cross section is greater than c, a function that returns opacity = 0 may be used as the second function. Such a function can be expressed by the following equation (4).

また、第1の関数、第2の関数は関数プログラムとして実装できるが、ルックアップテーブルで実装してもよい。第1の関数を実装する第1のルックアップテーブルには、各ボクセル値vに対応する不透明度(若しくは透明度)が登録されることになる。また、第2の関数を実装する第2のルックアップテーブルには、各ボクセル値v、各距離d、の組み合わせ毎の不透明度(若しくは透明度)が登録されることになる。   Further, the first function and the second function can be implemented as a function program, but may be implemented by a lookup table. The opacity (or transparency) corresponding to each voxel value v is registered in the first look-up table that implements the first function. In addition, the opacity (or transparency) for each combination of the voxel value v and the distance d is registered in the second lookup table that implements the second function.

ステップS205では、ステップS201で求めた線分と被検体400のMRIボリュームデータ500との交点位置を求める。本ステップにおける処理について、図8を用いて説明する。図8に示す如く、ステップS201で求めた「視点800を通る線分890」とMRIボリュームデータ500との交点は、入射点801及び出射点802であるため、図8の場合、ステップS205では、入射点801及び出射点802の位置を求める。次に、入射点801と出射点802との間(線分890においてMRIボリュームデータ500に含まれる区間内)に適当なサンプリング間隔で点を設定する。以下では、入射点801及び出射点802、入射点801と出射点802との間に適当なサンプリング間隔で設定した各点、のそれぞれに対して、ステップS203若しくはステップS204で選択した関数を用いて不透明度を設定する。以下では、入射点801及び出射点802、入射点801と出射点802との間に適当なサンプリング間隔で設定した各点、のそれぞれを対象点と呼称する。   In step S205, the intersection position between the line segment obtained in step S201 and the MRI volume data 500 of the subject 400 is obtained. The process in this step will be described with reference to FIG. As shown in FIG. 8, since the intersection of the “line segment 890 passing through the viewpoint 800” obtained in step S201 and the MRI volume data 500 is the incident point 801 and the exit point 802, in the case of FIG. The positions of the incident point 801 and the outgoing point 802 are obtained. Next, a point is set at an appropriate sampling interval between the incident point 801 and the emission point 802 (in the section included in the MRI volume data 500 in the line segment 890). Hereinafter, the function selected in step S203 or step S204 is used for each of the incident point 801 and the emission point 802, and each point set at an appropriate sampling interval between the incidence point 801 and the emission point 802. Set the opacity. Hereinafter, each of the incident point 801 and the emission point 802 and each point set at an appropriate sampling interval between the incidence point 801 and the emission point 802 are referred to as target points.

ステップS206では、対象点のうち入射点801を注目点Pに設定する。ステップS207では、伝達関数として第1の関数が選択されたのか、第2の関数が選択されたのかに応じて処理が異なる。   In step S206, the incident point 801 among the target points is set as the attention point P. In step S207, the processing differs depending on whether the first function is selected as the transfer function or the second function is selected.

伝達関数として第1の関数が選択された場合、ステップS207では、注目点Pにおけるボクセルの値(ボクセル値)vをMRIボリュームデータ500から取得して第1の関数に入力し、第1の関数からの戻り値を、注目点Pに対する不透明度として取得する。   When the first function is selected as the transfer function, in step S207, the voxel value (voxel value) v at the point of interest P is acquired from the MRI volume data 500 and input to the first function. The return value from is acquired as the opacity for the point of interest P.

伝達関数として第2の関数が選択された場合、ステップS207では、注目点Pにおけるボクセルの値(ボクセル値)vをMRIボリュームデータ500から取得すると共に、注目点Pと注目断面との距離dを求める。そしてこの取得したボクセル値v及び求めた距離dを第2の関数に入力し、第2の関数からの戻り値を、注目点Pに対する不透明度として取得する。例えば、第2の関数として上記の式(2)を用いた場合、図3に示す如く、注目点Pにおける不透明度は、注目断面からの距離に反比例することになる。   When the second function is selected as the transfer function, in step S207, the voxel value (voxel value) v at the point of interest P is acquired from the MRI volume data 500, and the distance d between the point of interest P and the cross section of interest is obtained. Ask. The acquired voxel value v and the obtained distance d are input to the second function, and the return value from the second function is acquired as the opacity with respect to the attention point P. For example, when the above equation (2) is used as the second function, the opacity at the attention point P is inversely proportional to the distance from the attention section, as shown in FIG.

そして更に、ステップS207では、この取得した不透明度と注目点Pにおける色とを乗算した結果を、この時点で着目画素について求めた画素値(最初は0)に加算することで、着目画素の画素値を更新する。なお、色については、MRIボリュームデータなどから得てもよい。   Further, in step S207, the result of multiplying the acquired opacity and the color at the point of interest P is added to the pixel value (initially 0) obtained for the pixel of interest at this time, thereby obtaining the pixel of the pixel of interest. Update the value. The color may be obtained from MRI volume data.

次に、ステップS208では、ステップS206で注目点Pに設定した対象点に隣接する対象点(まだ注目点Pに設定していない対象点)を新たに注目点Pに設定する。   Next, in step S208, a target point adjacent to the target point set as the target point P in step S206 (a target point not yet set as the target point P) is newly set as the target point P.

ステップS209では、ステップS208で注目点Pに設定した対象点が出射点802であるか否かを判断する。この判断の結果、出射点802である場合は図7のフローチャートに従った処理は終了してステップS108に進み、出射点802ではない場合は、処理はステップS207に戻る。   In step S209, it is determined whether or not the target point set as the target point P in step S208 is the emission point 802. If the result of this determination is that the point is the exit point 802, the process according to the flowchart of FIG. 7 ends and the process proceeds to step S108. If the point is not the exit point 802, the process returns to step S207.

このように、図7のフローチャートに従った処理を行うことで、視点から、投影面上の着目画素位置への線分上の各点に対する不透明度を決定することができるため、この各点の不透明度から、着目画素位置における画素値を求めることができる。   In this way, by performing the processing according to the flowchart of FIG. 7, the opacity for each point on the line segment from the viewpoint to the target pixel position on the projection plane can be determined. From the opacity, the pixel value at the target pixel position can be obtained.

以上の説明により、本実施形態によれば、超音波断層像に対応するMRIボリュームデータ500中の断面の3次元構造を分かりやすく示すことができる。また、超音波断層像が被検体上のどのあたりを撮像したものであるのかも同時に示すことができる。   As described above, according to the present embodiment, the three-dimensional structure of the cross section in the MRI volume data 500 corresponding to the ultrasonic tomographic image can be shown in an easily understandable manner. In addition, it can be shown at the same time which area on the subject the ultrasonic tomographic image is taken.

また、式2のような伝達関数を適用することにより、注目断面501周辺の3次元的な構造をボリュームレンダリングによって描画することができる。また、このように伝達関数を切り替えることで、被検体400のどの部分を超音波プローブ300が走査しているのかがわかりやすく表示されるのと同時に、超音波断層像102に対応した部位の3次元構造を容易に把握することができる。   Further, by applying a transfer function such as Equation 2, a three-dimensional structure around the cross section 501 of interest can be drawn by volume rendering. Further, by switching the transfer function in this way, it is displayed in an easy-to-understand manner which part of the subject 400 is being scanned by the ultrasonic probe 300, and at the same time, 3 of the part corresponding to the ultrasonic tomographic image 102 is displayed. The dimensional structure can be easily grasped.

<変形例1−1>
第1の実施形態では、注目断面は平面であるものとしていたが、曲面であってもよい。注目断面が曲面となる例として、乳房を被検体としたケースが挙げられる。乳腺科における一般的な撮像プロトコルでは、MRI装置による撮像を伏臥位(うつ伏せの体位)で行い、超音波診断装置による検査を仰臥位(あお向けの体位)で行うことが多い。そのため、MRI撮像時と超音波検査時とでは乳房の形が異なり、両者で撮像した場所の対応関係は単純なものではなくなる。このとき、超音波プローブ300が走査する断面302が平面であったとしても、これに対応する(この断面302と同じ部位を表す)MRIボリュームデータ上の断面は曲面となる。すなわち、この対応断面を注目断面とするならば、図9に示すように断面302に対応する注目断面502は曲面になる。
<Modification 1-1>
In the first embodiment, the cross section of interest is a flat surface, but may be a curved surface. An example in which the cross section of interest is a curved surface is a case where the breast is the subject. In a general imaging protocol in a mammary gland department, imaging by an MRI apparatus is often performed in a prone position (depressed position), and an examination by an ultrasonic diagnostic apparatus is often performed in a supine position (a position facing the chin). For this reason, the shape of the breast is different between MRI imaging and ultrasound examination, and the correspondence between the locations imaged by both is not simple. At this time, even if the section 302 scanned by the ultrasonic probe 300 is a plane, the section on the MRI volume data corresponding to this (representing the same part as the section 302) is a curved surface. That is, if this corresponding cross section is the target cross section, the target cross section 502 corresponding to the cross section 302 is a curved surface as shown in FIG.

なお、断面302の位置から注目断面502を求めることは、物理変形シミュレーション等の公知の処理により被検体の変形を推定することで実施可能である。また、注目断面502が曲面の場合には、式(2)で示した伝達関数を修正する必要がある。すなわち、式(2)におけるdを、夫々のボクセルから注目断面502上の最も近い点までの距離とすればよい。あるいは、計算を簡略化するために、注目断面502の近似平面を求めて、夫々のボクセルからこの近似平面へ下した垂線と注目断面502との交点を求めたうで、夫々のボクセルからこの交点までの距離を求めてもよい。このように、注目断面502が曲面となる場合でも上記の実施形態が適用可能であることは、上記の記載から明らかである。   Note that the target cross section 502 can be obtained from the position of the cross section 302 by estimating the deformation of the subject by a known process such as a physical deformation simulation. In addition, when the cross section of interest 502 is a curved surface, it is necessary to correct the transfer function shown in Expression (2). That is, d in Equation (2) may be a distance from each voxel to the closest point on the cross section 502 of interest. Alternatively, in order to simplify the calculation, an approximate plane of the cross section 502 of interest is obtained, and the intersection of the normal section 502 drawn from each voxel to the approximate plane and the cross section of interest 502 is obtained, and this intersection is obtained from each voxel. You may ask for the distance to. Thus, it is clear from the above description that the above-described embodiment can be applied even when the attention cross section 502 is a curved surface.

<変形例1−2>
第1の実施形態では、超音波プローブ300で走査する断面302と、断面302の位置に応じて決定する注目断面501と、は同じ部位を表すものとしていた。しかし、断面302と注目断面501とはそれぞれ異なる部位を指し示すようにしてもよい。
<Modification 1-2>
In the first embodiment, the cross section 302 scanned with the ultrasonic probe 300 and the cross section of interest 501 determined according to the position of the cross section 302 represent the same part. However, the cross section 302 and the target cross section 501 may indicate different parts.

先に述べたように、超音波画像診断では、MRIボリュームデータ中で病変部を探し、その箇所を超音波診断装置で観察することが行われることがある。その際には、注目断面501の位置は、常に病変部を映している方が望ましい。   As described above, in ultrasonic image diagnosis, there are cases in which a lesion is searched for in MRI volume data and the position is observed with an ultrasonic diagnostic apparatus. In that case, it is desirable that the position of the target cross section 501 always reflects the lesioned part.

そこで本変形例では、図10に示すように、注目断面503の位置を病変部に固定し、注目断面503の姿勢のみ断面302と一致させる。この場合、ステップS101では、DB250から被検体400のMRIボリュームデータを読み出す際に、このMRIボリュームデータと関連づけてDB250に登録されている「病変部の位置情報」も読み出す。そして、取得した位置情報が表す病変部の位置を注目断面503の中心に設定したうえで、注目断面503の姿勢のみを断面302と一致させる。このように、断面302と注目断面503の位置を一致させず姿勢のみを一致させるようなケースであっても上記の実施形態が適用可能であることは、上記の記載から明らかである。   Therefore, in this modified example, as shown in FIG. 10, the position of the target cross section 503 is fixed to the lesioned part, and only the posture of the target cross section 503 is matched with the cross section 302. In this case, in step S101, when the MRI volume data of the subject 400 is read from the DB 250, “positional position information” registered in the DB 250 in association with the MRI volume data is also read. Then, after setting the position of the lesioned part represented by the acquired position information at the center of the attention section 503, only the posture of the attention section 503 is matched with the section 302. As described above, it is apparent from the above description that the above-described embodiment can be applied even in a case where only the posture is matched without matching the positions of the section 302 and the target section 503.

もちろん、より一般的に、断面302の位置と注目断面の位置になんらかの対応関係をつけることができるケースであっても上記の実施形態が適用可能であることは、上記の記載から明らかである。   Of course, more generally, it is clear from the above description that the above-described embodiment can be applied even in a case where some correspondence can be established between the position of the cross section 302 and the position of the target cross section.

[第2の実施形態]
本実施形態では、第1の実施形態に係る構成において、超音波断層像の撮像内容に応じてボリュームレンダリングに用いる伝達関数を調整する。以下では、第1の実施形態から変更した部分についてのみ説明する。即ち、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
[Second Embodiment]
In the present embodiment, in the configuration according to the first embodiment, the transfer function used for volume rendering is adjusted according to the imaging content of the ultrasonic tomographic image. Below, only the part changed from 1st Embodiment is demonstrated. That is, unless otherwise specified below, it is the same as in the first embodiment.

本実施形態に係る画像処理装置は、超音波断層像102上で病変部と疑われる部分の分布に応じてボリュームレンダリングの伝達関数を決定する。これにより、病変部と疑われる部分がMRIボリュームデータ上でどのように撮像されているかを利用者に提示することができる。   The image processing apparatus according to the present embodiment determines a volume rendering transfer function according to the distribution of a portion suspected to be a lesion on the ultrasonic tomographic image 102. Thereby, it is possible to present to the user how the portion suspected of being a lesion is imaged on the MRI volume data.

本実施形態が第1の実施形態と異なるのは、画像処理装置200が行う処理にある。本実施形態における画像処理装置200による処理を、同処理のフローチャートを示す図12を用いて説明する。図12のフローチャートは、図6のフローチャートにおいてステップS102とステップS103との間でステップS300における処理を行うと共に、ステップS107で式(2)を用いる場合にはこの式がステップS300の処理に応じて変化するものである。即ち、それ以外は図6のフローチャートと同じである。然るに以下では、本実施形態でステップS300,S107において行う処理について説明する。   The present embodiment is different from the first embodiment in processing performed by the image processing apparatus 200. Processing performed by the image processing apparatus 200 in the present embodiment will be described with reference to FIG. 12 showing a flowchart of the processing. The flowchart of FIG. 12 performs the process in step S300 between step S102 and step S103 in the flowchart of FIG. 6, and when using the expression (2) in step S107, this expression corresponds to the process of step S300. It will change. That is, other than that is the same as the flowchart of FIG. However, hereinafter, the processing performed in steps S300 and S107 in the present embodiment will be described.

ステップS300では、超音波診断装置220から取得した超音波断層像から、伝達関数に対する重み値を求める。ステップS300における処理の詳細を、図13のフローチャートを用いて説明する。   In step S300, a weight value for the transfer function is obtained from the ultrasonic tomogram acquired from the ultrasonic diagnostic apparatus 220. Details of the processing in step S300 will be described using the flowchart of FIG.

ステップS301では、超音波断層像中の病変部を検出するための周知の画像処理を、超音波診断装置220から取得した超音波断層像に対して施すことで、病変部(患部)の領域を検出する。本実施形態では、超音波断層像を構成する各画素に、該画素の輝度値があらかじめ設定した輝度値よりも小さい場合はビット値1、該画素の輝度値があらかじめ設定した輝度値よりも大きい場合はビット値0を割り当てる。これにより、超音波断層像の各画素に対するビット値から成る2値画像を生成することができるので、ビット値1が割り当てられた画素から成る領域を病変部の領域として検出することができる。なお、病変部と疑われる領域の検出方法はこれに限るものではなく、様々な方法を適用することができる。例えば、ベクトル集中度フィルタやパターンマッチング等のより高度な検出手法を用いて病変部と疑われる領域を検出してもよい。このような検出手法は何れも周知の技術であるため、これについての説明は省略する。   In step S301, the well-known image processing for detecting the lesioned part in the ultrasonic tomographic image is performed on the ultrasonic tomographic image acquired from the ultrasonic diagnostic apparatus 220, whereby the region of the lesioned part (affected part) is determined. To detect. In this embodiment, for each pixel constituting the ultrasonic tomographic image, the bit value is 1 when the luminance value of the pixel is smaller than a preset luminance value, and the luminance value of the pixel is larger than the preset luminance value. In this case, the bit value 0 is assigned. As a result, a binary image composed of bit values for each pixel of the ultrasonic tomographic image can be generated, so that an area composed of pixels to which the bit value 1 is assigned can be detected as a lesion area. Note that the method for detecting a region suspected of being a lesion is not limited to this, and various methods can be applied. For example, a region suspected of being a lesion may be detected using a more advanced detection method such as a vector concentration filter or pattern matching. Since all such detection methods are well-known techniques, description thereof will be omitted.

ステップS302では、MRIボリュームデータと超音波断層像との位置合わせの誤差や見かけ上の病変部の大きさの差を考慮し、ステップS301で検出した領域を拡張する。具体的には、ステップS301で検出された領域を包含する領域を構成する各画素に対するビット値を1に更新することで、上記の2値画像を更新する。もちろん、この拡張処理は必要に応じて省いてもよい。   In step S302, the region detected in step S301 is expanded in consideration of the alignment error between the MRI volume data and the ultrasonic tomographic image and the apparent difference in the size of the lesion. Specifically, the binary image is updated by updating the bit value for each pixel constituting the region including the region detected in step S301 to 1. Of course, this expansion process may be omitted as necessary.

次に、ステップS303では、ステップS302で更新された2値画像に対してローパスフィルタを用いたフィルタ処理を行うことで、フィルタ処理済み画像(各画素は0〜1の間の画素値を有する)を生成する。ここで、フィルタ処理済み画像上の各画素位置(超音波断層像上の各画素位置)に対応する注目断面上の位置、注目断面上の各位置に対応するフィルタ処理済み画像上の画素位置、は周知の技術により特定可能である。   Next, in step S303, filtering processing using a low-pass filter is performed on the binary image updated in step S302, so that the filtered image (each pixel has a pixel value between 0 and 1). Is generated. Here, the position on the target cross section corresponding to each pixel position on the filtered image (each pixel position on the ultrasonic tomographic image), the pixel position on the filtered image corresponding to each position on the target cross section, Can be identified by a known technique.

ステップS107では、第2の関数を選択した場合に次のような処理を行う。即ち、各対応点について、該対応点から注目断面に垂直におろした垂線が注目断面と交差する位置(x、y)に対応するフィルタ処理済み画像上の座標位置を求め、求めた座標位置の画素値を該対応点に対する重み値とする。そして、第2の関数を用いて算出した不透明度にこの重み値を乗じた結果を、該対応点の不透明度とする。   In step S107, the following processing is performed when the second function is selected. That is, for each corresponding point, a coordinate position on the filtered image corresponding to a position (x, y) where a perpendicular line perpendicular to the cross section of interest intersects the cross section of interest is obtained. Let the pixel value be a weight value for the corresponding point. Then, the result of multiplying the opacity calculated using the second function by this weight value is set as the opacity of the corresponding point.

ここで、超音波診断装置220が生成した超音波断層像が図11(a)に示した画像であるとする。超音波断層像中の病変部を検出するための周知の画像処理をこの超音波断層像に対して施すことで得られる上記の2値画像を図11(b)に示す。そしてこの2値画像中の病変部の領域を拡張した結果を図11(c)に示す。図11(c)では、病変部の領域を包含する楕円形の領域に拡張している。そして図11(c)に示した2値画像に対してローパスフィルタを用いたフィルタ処理を行うことで得られるフィルタ処理済み画像を図11(d)に示す。   Here, it is assumed that the ultrasonic tomographic image generated by the ultrasonic diagnostic apparatus 220 is the image shown in FIG. FIG. 11B shows the binary image obtained by performing known image processing for detecting a lesion in an ultrasonic tomographic image on the ultrasonic tomographic image. FIG. 11C shows the result of expanding the lesion area in the binary image. In FIG.11 (c), it has expanded to the elliptical area | region containing the area | region of a lesioned part. FIG. 11D shows a filtered image obtained by performing a filtering process using a low-pass filter on the binary image shown in FIG.

このように、超音波断層像で病変部と疑われる部分を重点的に表示することにより、利用者に注目すべき部分を示すとともに、不要な部分を表示しないことで注目すべき部分をより明確に表示することができる。   In this way, by highlighting the suspected lesion area in the ultrasonic tomogram, it is possible to show the part that should be noticed to the user and to clarify the part that should be noticed by not displaying the unnecessary part. Can be displayed.

以上の説明により、本実施形態によれば、超音波断層像で病変部と疑われる部分の近傍の不透明度に重みづけをすることで、病変部と疑われる部分がMRIボリュームデータ上でどのように撮像されているかを特に強調して提示できる。これにより、不要な部分を表示せずに注目すべき部分をより明確に表示することができる。   As described above, according to the present embodiment, by weighting the opacity in the vicinity of a portion suspected to be a lesion in an ultrasonic tomographic image, how the portion suspected to be a lesion is represented on the MRI volume data. It is possible to present with particular emphasis on whether the image is captured. Thereby, it is possible to more clearly display a notable part without displaying an unnecessary part.

<変形例2−1>
第2の実施形態では、2値画像に対してローパスフィルタを用いたフィルタ処理を行ったが、このフィルタ処理は必須ではない。また、画素ごとに病変部らしさが0〜1の尤度として得られるような検出処理をステップS301で行う場合には、この尤度の画像をそのまま上記のフィルタ処理済み画像の代わりに重み画像として用いてもよい。
<Modification 2-1>
In the second embodiment, filter processing using a low-pass filter is performed on a binary image, but this filter processing is not essential. In addition, in the case where detection processing is performed in step S301 so that the likelihood of a lesion is obtained for each pixel as a likelihood of 0 to 1, this likelihood image is directly used as a weighted image instead of the filtered image. It may be used.

[第3の実施形態]
本実施形態では、参照画像101として2次元断層像ではなく、ボリュームレンダリングによる3次元断層像を表示する。参照画像101と超音波断層像102とを並列して表示することで、両者を同じ視点/同じ大きさで比較できる。また、参照画像101を3次元断層像とすることで、参照画像101の近傍も同時に表示することができる。このことは、参照画像101に映った病変部が超音波断層像102にて写っている場所を探す際に、超音波断層像102のどのあたりに病変部が写っているのかが分かりやすい。
[Third Embodiment]
In this embodiment, not a two-dimensional tomographic image but a three-dimensional tomographic image by volume rendering is displayed as the reference image 101. By displaying the reference image 101 and the ultrasonic tomographic image 102 in parallel, both can be compared with the same viewpoint / size. Further, by making the reference image 101 a three-dimensional tomographic image, the vicinity of the reference image 101 can be displayed simultaneously. This makes it easy to understand where the lesioned part is reflected in the ultrasonic tomographic image 102 when searching for a place where the lesioned part reflected in the reference image 101 is reflected in the ultrasonic tomographic image 102.

特に、病変部が小さい場合に参照画像101が2次元断層像であると、MRIボリュームデータと超音波断層像102との位置合わせの精度の限界から、参照画像101には病変部が映るが超音波断層像102には映らないことがある。このとき、参照画像101が厚みを持った3次元断層像であれば、超音波断層像102の位置がある程度ずれていても参照画像101に病変部を映すことができる。   In particular, if the reference image 101 is a two-dimensional tomographic image when the lesion is small, the reference image 101 shows a lesion in the reference image 101 due to the limit of the alignment accuracy between the MRI volume data and the ultrasonic tomogram 102. The sonic tomographic image 102 may not be reflected. At this time, if the reference image 101 is a three-dimensional tomographic image having a thickness, even if the position of the ultrasonic tomographic image 102 is shifted to some extent, a lesioned part can be reflected on the reference image 101.

以下では、第1の実施形態と異なる部分についてのみ説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。本実施形態では、図2に示す如く、注目断面501をその法線方向に所定距離(例えば10cm)だけ移動させた面として投影面507を設定し、この投影面を用いたボリュームレンダリングを行うことで、この投影面上に参照画像101を生成する。   In the following, only the parts different from the first embodiment will be described, and unless otherwise noted, the same as the first embodiment. In the present embodiment, as shown in FIG. 2, the projection plane 507 is set as a plane in which the cross section of interest 501 is moved by a predetermined distance (for example, 10 cm) in the normal direction, and volume rendering using this projection plane is performed. Thus, the reference image 101 is generated on the projection plane.

本実施形態では、上記のステップS105及びステップS106において以下のような処理を行う。即ち、ステップS105では、上記のように投影面を設定した後、この投影面を用いてボリュームレンダリングを行い、ステップS106では、このボリュームレンダリングによる結果を参照画像101として表示装置100の表示画面上に表示する。   In the present embodiment, the following processing is performed in steps S105 and S106 described above. That is, in step S105, after setting the projection plane as described above, volume rendering is performed using the projection plane. In step S106, the result of the volume rendering is displayed on the display screen of the display device 100 as the reference image 101. indicate.

以上の説明により、本実施形態によれば、3次元断層像としての参照画像101と超音波断層像102とを並列して表示することで、両者を同じ視点/同じ大きさで比較できると共に、参照画像101の近傍も同時に表示することができる。   As described above, according to the present embodiment, by displaying the reference image 101 as the three-dimensional tomographic image and the ultrasonic tomographic image 102 in parallel, both can be compared at the same viewpoint / same size, The vicinity of the reference image 101 can also be displayed at the same time.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (6)

被検体のボリュームデータを用いてボリュームレンダリングを行うことで、規定の視点から見た該ボリュームデータの画像を生成するレンダリング手段と、
前記画像を表示する表示手段と
を有する画像処理装置であって、
超音波プローブによって得られる前記被検体の超音波断層像を取得する取得手段と、
前記ボリュームレンダリングの過程で前記ボリュームデータ中の各位置における不透明度を設定する際、該不透明度を求めるために前記視点から追跡する光線が、前記ボリュームデータ中の前記超音波断層像に対応する断面と交差していれば、前記光線において前記ボリュームデータに含まれる区間内の各位置における不透明度を、前記断面からの距離がより大きい位置における不透明度がより小さくなるように設定するよう前記レンダリング手段を制御する制御手段と
を備えることを特徴とする画像処理装置。
Rendering means for generating an image of the volume data viewed from a prescribed viewpoint by performing volume rendering using the volume data of the subject;
An image processing apparatus having display means for displaying the image,
An acquisition means for acquiring an ultrasonic tomographic image of the subject obtained by an ultrasonic probe;
When setting the opacity at each position in the volume data in the volume rendering process, a ray traced from the viewpoint to obtain the opacity corresponds to the ultrasonic tomographic image in the volume data. The opacity at each position in the section included in the volume data in the ray is set so that the opacity at a position where the distance from the cross section is larger is smaller. An image processing apparatus comprising: control means for controlling
前記制御手段は、
前記画像を生成するために前記視点と前記ボリュームデータとの間に配置される投影面上の各画素について、前記視点と該画素とを通る光線が前記断面と交差するか否かを判断する判断手段と、
前記視点と着目画素とを通る光線が前記断面と交差しないと判断した場合、ボクセル値が大きいほどより大きい不透明度を返す第1の関数を選択し、前記視点と着目画素とを通る光線が前記断面と交差すると判断した場合、ボクセル値が大きいほどより大きい不透明度を返し且つ前記断面からの距離が大きいほどより小さい不透明度を返す第2の関数を選択する選択手段とを備え、
前記レンダリング手段は前記ボリュームレンダリングの過程で、
前記選択手段が第1の関数を選択した場合、前記視点と着目画素とを通る光線において前記ボリュームデータに含まれる区間内の各位置におけるボクセル値を前記第1の関数に入力することで得られる不透明度を該各位置における不透明度に設定し、
前記選択手段が第2の関数を選択した場合、前記視点と着目画素とを通る光線において前記ボリュームデータに含まれる区間内の各位置におけるボクセル値及び該各位置から前記断面までの距離を前記第2の関数に入力することで得られる不透明度を該各位置における不透明度に設定することで、前記ボリュームデータ中の各位置における不透明度を設定することを特徴とする請求項1に記載の画像処理装置。
The control means includes
Judgment for determining whether or not a ray passing through the viewpoint and the pixel intersects the cross-section for each pixel on the projection plane arranged between the viewpoint and the volume data to generate the image Means,
If it is determined that a ray passing through the viewpoint and the pixel of interest does not intersect the cross section, a first function that returns greater opacity as the voxel value is larger is selected, and a ray passing through the viewpoint and the pixel of interest is And selecting means for selecting a second function that returns greater opacity as the voxel value is larger and returns smaller opacity as the distance from the cross section is greater,
The rendering means is in the process of volume rendering,
When the selection means selects the first function, it is obtained by inputting the voxel value at each position in the section included in the volume data to the first function in the light ray passing through the viewpoint and the target pixel. Set the opacity to the opacity at each position,
When the selection unit selects the second function, the voxel value at each position in the section included in the volume data and the distance from the position to the cross section in the light ray passing through the viewpoint and the target pixel are calculated. 2. The image according to claim 1, wherein the opacity at each position in the volume data is set by setting the opacity obtained by inputting into the function of 2 to the opacity at each position. Processing equipment.
更に、
前記超音波断層像において規定の画素値を有する画素から成る領域を病変部の領域として検出し、該病変部の領域と該領域いがいの領域とを異なる画素値で表す2値画像、若しくは該2値画像に対してローパスフィルタを用いたフィルタ処理を行うことでフィルタ処理済み画像を生成する生成手段を備え、
前記レンダリング手段は、前記選択手段が第2の関数を選択した場合、前記視点と着目画素とを通る光線において前記ボリュームデータに含まれる区間内の各位置について、該位置から前記断面におろした垂線と該断面との交点位置を求め、該交点位置に対応する前記2値画像じょうの座標位置、若しくは前記フィルタ処理済み画像上の座標位置における画素値を該位置の重み値として特定し、
前記各位置のそれぞれについて、該位置について前記第2の関数から得られる不透明度に該位置の重み値を乗じた結果を、該位置における不透明度に設定する
ことを特徴とする請求項2に記載の画像処理装置。
Furthermore,
A region composed of pixels having a prescribed pixel value in the ultrasonic tomographic image is detected as a region of a lesion, and a binary image representing the region of the lesion and the region of irrigation with different pixel values; or A generating unit that generates a filtered image by performing a filtering process using a low-pass filter on the binary image;
The rendering means, when the selection means selects the second function, for each position in the section included in the volume data in a light ray passing through the viewpoint and the pixel of interest, a perpendicular line taken from the position to the cross section And the cross-sectional position of the binary image corresponding to the cross-point position, or the pixel value at the coordinate position on the filtered image as the weight value of the position,
The opacity at the position is set as a result of multiplying the opacity obtained from the second function for the position by the weight value of the position for each of the positions. Image processing apparatus.
前記表示手段は更に、前記超音波断層像を表示することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display unit further displays the ultrasonic tomographic image. 被検体のボリュームデータを用いてボリュームレンダリングを行うことで、規定の視点から見た該ボリュームデータの画像を生成するレンダリング手段と、
前記画像を表示する表示手段と
を有する画像処理装置が行う画像処理方法であって、
前記画像処理装置の取得手段が、超音波プローブによって得られる前記被検体の超音波断層像を取得する取得工程と、
前記画像処理装置の制御手段が、前記ボリュームレンダリングの過程で前記ボリュームデータ中の各位置における不透明度を設定する際、該不透明度を求めるために前記視点から追跡する光線が、前記ボリュームデータ中の前記超音波断層像に対応する断面と交差していれば、前記光線において前記ボリュームデータに含まれる区間内の各位置における不透明度を、前記断面からの距離がより大きい位置における不透明度がより小さくなるように設定するよう前記レンダリング手段を制御する制御工程と
を備えることを特徴とする画像処理方法。
Rendering means for generating an image of the volume data viewed from a prescribed viewpoint by performing volume rendering using the volume data of the subject;
An image processing method performed by an image processing apparatus having display means for displaying the image,
An acquisition step in which the acquisition unit of the image processing apparatus acquires an ultrasonic tomographic image of the subject obtained by an ultrasonic probe;
When the control means of the image processing apparatus sets opacity at each position in the volume data in the volume rendering process, a ray traced from the viewpoint to obtain the opacity is included in the volume data. If it intersects the cross section corresponding to the ultrasonic tomographic image, the opacity at each position in the section included in the volume data in the light ray is reduced, and the opacity at a position where the distance from the cross section is larger is smaller. And a control step of controlling the rendering means so as to set the image processing method.
コンピュータを、請求項1乃至4の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。   The computer program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 4.
JP2011163688A 2011-07-26 2011-07-26 Image processing apparatus and image processing method Expired - Fee Related JP5693412B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011163688A JP5693412B2 (en) 2011-07-26 2011-07-26 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011163688A JP5693412B2 (en) 2011-07-26 2011-07-26 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2013027433A true JP2013027433A (en) 2013-02-07
JP2013027433A5 JP2013027433A5 (en) 2014-07-31
JP5693412B2 JP5693412B2 (en) 2015-04-01

Family

ID=47785132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011163688A Expired - Fee Related JP5693412B2 (en) 2011-07-26 2011-07-26 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5693412B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016195759A (en) * 2015-04-03 2016-11-24 デンタル・イメージング・テクノロジーズ・コーポレーション System and method for displaying volume image
JP2020000602A (en) * 2018-06-29 2020-01-09 大日本印刷株式会社 Medical image processing apparatus, medical image processing method, program, and data creation method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003190117A (en) * 2001-12-25 2003-07-08 Hitachi Medical Corp Medical operation support system
JP2010259604A (en) * 2009-05-01 2010-11-18 Canon Inc Image diagnosis device and image diagnosis method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003190117A (en) * 2001-12-25 2003-07-08 Hitachi Medical Corp Medical operation support system
JP2010259604A (en) * 2009-05-01 2010-11-18 Canon Inc Image diagnosis device and image diagnosis method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016195759A (en) * 2015-04-03 2016-11-24 デンタル・イメージング・テクノロジーズ・コーポレーション System and method for displaying volume image
JP2020000602A (en) * 2018-06-29 2020-01-09 大日本印刷株式会社 Medical image processing apparatus, medical image processing method, program, and data creation method
JP7155670B2 (en) 2018-06-29 2022-10-19 大日本印刷株式会社 Medical image processing apparatus, medical image processing method, program, and data creation method

Also Published As

Publication number Publication date
JP5693412B2 (en) 2015-04-01

Similar Documents

Publication Publication Date Title
US10417517B2 (en) Medical image correlation apparatus, method and storage medium
JP5737858B2 (en) Image processing apparatus, image processing method, and program
JP5430203B2 (en) Image processing apparatus and image processing method
US9332965B2 (en) Method and apparatus for managing and displaying ultrasound image according to an observation operation
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP2011224362A (en) Method and system for determining region of interest in ultrasound data
JP2012213558A (en) Image processing apparatus, image processing method, and program
JP5631453B2 (en) Image processing apparatus and image processing method
US9504450B2 (en) Apparatus and method for combining three dimensional ultrasound images
JP2011125567A (en) Information processor, information processing method, information processing system and program
JP2011125570A (en) Image processor, image processing method and program
JP2011167331A (en) Ultrasonic diagnostic device
US10433815B2 (en) Ultrasound diagnostic image generating device and method
JP2010528750A (en) Inspection of tubular structures
JP2015054051A (en) Information processor, and information processing method
JPWO2009136461A1 (en) Ultrasonic diagnostic equipment
JP2016202351A (en) Medical support system, medical support method, image processing apparatus, control method and control program thereof
JP2015188574A (en) Three dimensional direction setting apparatus, method, and program
EP2601637B1 (en) System and method for multi-modality segmentation of internal tissue with live feedback
CN106028946B (en) System for monitoring lesion size trend and method of operation thereof
JP5693412B2 (en) Image processing apparatus and image processing method
JP2019063504A (en) Image processing device and image processing method
JP2010259536A (en) Image processor, and method for controlling the same
JP6200618B1 (en) Medical image diagnosis support system and apparatus, and program
US20130296702A1 (en) Ultrasonic diagnostic apparatus and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140611

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150203

R151 Written notification of patent or utility model registration

Ref document number: 5693412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees