JP2018192306A - Information processing apparatus - Google Patents

Information processing apparatus Download PDF

Info

Publication number
JP2018192306A
JP2018192306A JP2018165937A JP2018165937A JP2018192306A JP 2018192306 A JP2018192306 A JP 2018192306A JP 2018165937 A JP2018165937 A JP 2018165937A JP 2018165937 A JP2018165937 A JP 2018165937A JP 2018192306 A JP2018192306 A JP 2018192306A
Authority
JP
Japan
Prior art keywords
image
dimensional
information
tomographic image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018165937A
Other languages
Japanese (ja)
Other versions
JP6548798B2 (en
JP2018192306A5 (en
Inventor
遠藤 隆明
Takaaki Endo
隆明 遠藤
佐藤 清秀
Kiyohide Sato
清秀 佐藤
亮 石川
Ryo Ishikawa
亮 石川
石田 卓也
Takuya Ishida
卓也 石田
和大 宮狭
Kazuhiro Miyasa
和大 宮狭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2018192306A publication Critical patent/JP2018192306A/en
Publication of JP2018192306A5 publication Critical patent/JP2018192306A5/en
Application granted granted Critical
Publication of JP6548798B2 publication Critical patent/JP6548798B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To allow a user to efficiently search for a corresponding region on a two-dimensional image which corresponds to a region of interest in a three-dimensional image.SOLUTION: An information processing apparatus is capable of projecting a given region (e.g., a region of interest or a lesion of interest) in a three-dimensional image (e.g., an MRI image or an X-ray CT image) onto a plane including a two-dimensional image (e.g., ultrasonic image) of an object, and causes display means to display an error range caused by projection (a range where a corresponding region of the region of interest in the two-dimensional image may exist, also referred to as a search range) including the projected region in such a manner that the error range is overlaid on the two-dimensional image.SELECTED DRAWING: Figure 1

Description

本発明は、モダリティ、撮影体位、撮影日時等の撮影条件が異なる画像間の注目領域に対応する領域を効率良く探索するための情報処理装置に関する。   The present invention relates to an information processing apparatus for efficiently searching for a region corresponding to a region of interest between images having different photographing conditions such as modality, photographing position, photographing date and time.

医療の分野において、医師は被検体を撮像した医用画像(被検体内部の三次元的な情報を表す断層画像群からなる三次元画像データ)をモニタに表示し、表示された画像を読影して病変部の診断を行う。医用画像を撮像する医用画像収集装置(以下、モダリティと呼ぶ)としては、超音波画像診断装置、磁気共鳴映像装置(以下、MRI装置と呼ぶ)、X線コンピュータ断層撮影装置(以下、X線CT装置と呼ぶ)などが挙げられる。   In the medical field, doctors display medical images (three-dimensional image data consisting of tomographic image groups representing three-dimensional information inside the subject) on a monitor, and interpret the displayed images. Diagnose the lesion. Examples of medical image acquisition devices (hereinafter referred to as modalities) that capture medical images include ultrasonic diagnostic imaging devices, magnetic resonance imaging devices (hereinafter referred to as MRI devices), X-ray computed tomography devices (hereinafter referred to as X-ray CT). And the like).

これらの個々のモダリティで撮像された医用画像を観察するだけでは、病変部の状態を正しく診断することは困難である。そこで、複数のモダリティで撮像された夫々の医用画像や、異なる日時に撮像された夫々の医用画像中の病変部を比較することによって、病変部の状態を正しく診断しようとする試みがなされている。   It is difficult to correctly diagnose the state of a lesioned part only by observing medical images taken with these individual modalities. Therefore, an attempt has been made to correctly diagnose the state of a lesion by comparing each medical image captured with a plurality of modalities and a lesion in each medical image captured at different dates and times. .

複数種類の医用画像を診断に利用するためには、夫々の医用画像における病変部等を同定する(対応付ける)ことが重要である。モダリティの違いや被検体の変形等の影響で画像処理による同定の自動化が困難であるため、医師等の作業者は画像を見ながら同定の作業を手動で行うことが一般的である。作業者は、一方の医用画像(以下、参照画像)で指摘されている注目する注目病変部の画像を見ながら、病変部の形状やその周辺部の見え方等の類似性を手がかりにして、その病変部に対応する対応病変部を他方の医用画像(以下、対象画像)から探索し同定している。ここで、医用画像を提示する装置が、参照画像の座標系における注目病変部の位置から対象画像の座標系における対応病変部の位置を推定して提示する機能を備えているならば、作業者はその推定位置を手掛かりにして対応病変部の探索を行うことができる。   In order to use a plurality of types of medical images for diagnosis, it is important to identify (correlate) a lesioned portion or the like in each medical image. Since it is difficult to automate identification by image processing due to differences in modalities, deformation of the subject, etc., it is common for an operator such as a doctor to manually perform the identification work while viewing the image. While looking at the image of the target lesion of interest noted in one of the medical images (hereinafter referred to as the reference image), the worker uses the similarities such as the shape of the lesion and the appearance of the surrounding area as a clue, The corresponding lesion part corresponding to the lesion part is searched and identified from the other medical image (hereinafter, target image). Here, if the device that presents the medical image has a function of estimating and presenting the position of the corresponding lesion part in the coordinate system of the target image from the position of the target lesion part in the coordinate system of the reference image, the operator Can search for a corresponding lesion using the estimated position as a clue.

そこで、超音波探触子の位置と姿勢を計測することで、対象画像である超音波断層画像と参照画像との座標系の関係を求め、超音波断層画像の座標系(超音波座標系)における対応病変部の位置を推定して探触子の操作を誘導する試みがなされている。例えば、現在の超音波断層画像に対して、リファレンス像(X線CT装置やMRI装置等の三次元画像の断面画像)で設定したターゲット(注目病変部)の中心までの距離と方向を計算し、該距離と方向に基づく三次元の矢印像と数値を表示することが、特許文献1に開示されている。これにより、操作者は、現在の超音波断層画像からターゲットまでの距離を視覚的に把握できるので、リファレンス像と超音波断層画像との対応(位置関係)を把握することが容易になる。   Therefore, by measuring the position and orientation of the ultrasonic probe, the relationship of the coordinate system between the ultrasonic tomographic image that is the target image and the reference image is obtained, and the coordinate system of the ultrasonic tomographic image (ultrasonic coordinate system) Attempts have been made to guide the operation of the probe by estimating the position of the corresponding lesion in. For example, for the current ultrasonic tomographic image, the distance and direction to the center of the target (target lesion area) set in the reference image (cross-sectional image of a three-dimensional image such as an X-ray CT apparatus or MRI apparatus) is calculated. Patent Document 1 discloses displaying a three-dimensional arrow image and a numerical value based on the distance and direction. Thereby, since the operator can visually grasp the distance from the current ultrasonic tomographic image to the target, it becomes easy to grasp the correspondence (positional relationship) between the reference image and the ultrasonic tomographic image.

また、過去の超音波断層画像(ボリューム又はスライス)から選択した画像追跡点(注目病変部)が与えられた場合に、現在の超音波断層画像からの距離と方向に基づく大きさや色の正方形を平面内指示子として該現在の超音波断層画像に重ねて表示することが、特許文献2に開示されている。これにより、甲状腺中の小結節の数や肝臓中の転移の数等を計数する場合に、プローブの角度や位置を変えても、現在視覚化されている構造が新しく識別されたものか、あるいは既に識別されて計数済のものかを判別することができる。   In addition, when an image tracking point (target lesion) selected from a past ultrasonic tomographic image (volume or slice) is given, a square of a size or color based on the distance and direction from the current ultrasonic tomographic image is displayed. Patent Document 2 discloses that the current ultrasonic tomographic image is displayed as an in-plane indicator. Thus, when counting the number of nodules in the thyroid gland, the number of metastases in the liver, etc., even if the angle and position of the probe are changed, the currently visualized structure is newly identified, or It can be determined whether it has already been identified and counted.

特開2008−246264号公報JP 2008-246264 A 特開2008−212680号公報JP 2008-212680 A

ところで、超音波探触子の位置と姿勢の計測精度は完全ではなく、また、参照画像撮影時と超音波断層画像撮影時の被検体の形状は必ずしも一致していない。そのため、超音波断層画像の座標系における対応病変部の推定位置には誤差が含まれており、実際の対応病変部の位置とは位置ずれしたものとなる。
しかしながら、上記特許文献1及び2で開示されている距離と方向に基づく指示には上記位置ずれは考慮されていない。このため、上記指示を考慮しても位置ずれの程度によっては、ユーザは実際の対応病変部を同定できない(見つけられない)可能性がある。この場合、結局、ユーザが超音波断層画像全体から実際の対応病変部を探索することになり、探索の効率が悪い。
By the way, the measurement accuracy of the position and orientation of the ultrasonic probe is not perfect, and the shape of the subject at the time of reference image capturing and ultrasonic tomographic image capturing does not necessarily match. Therefore, an error is included in the estimated position of the corresponding lesion in the coordinate system of the ultrasonic tomographic image, and the position is shifted from the actual position of the corresponding lesion.
However, the positional deviation is not considered in the instructions based on the distance and direction disclosed in Patent Documents 1 and 2. For this reason, even if the above instruction is taken into account, the user may not be able to identify (cannot find) the actual corresponding lesion depending on the degree of positional deviation. In this case, the user eventually searches for the actual corresponding lesion from the entire ultrasonic tomographic image, and the search efficiency is poor.

本発明に係る情報処理装置は、
被検体の三次元画像を取得する三次元画像取得手段と、
前記被検体の二次元画像を含む平面上に前記三次元画像の所定の領域を投影した投影領域を含む前記投影による誤差範囲を前記二次元画像上に重ねて表示手段に表示させる表示制御手段と、
を有することを特徴とする。
An information processing apparatus according to the present invention includes:
3D image acquisition means for acquiring a 3D image of the subject;
Display control means for displaying an error range by the projection including a projection area obtained by projecting a predetermined area of the three-dimensional image on a plane including the two-dimensional image of the subject on the two-dimensional image and displaying on the display means; ,
It is characterized by having.

本発明によれば、被検体の二次元画像(例えば、超音波画像。)を含む平面上に三次元画像(例えば、MRI画像やX線CT画像。)の所定の領域(例えば、注目領域や注目病変部。)を投影することができ、該投影した投影領域を含む該投影による誤差範囲(注目領域に対応する二次元画像上の対応領域の存在し得る範囲、探索範囲とも呼ぶ。)を該二次元画像上に重ねて表示手段に表示させることができる。これにより、ユーザは、二次元画像上の実際の対応領域を探索する探索範囲が分かるので、実際の対応領域を効率良く探索して同定することができる。   According to the present invention, a predetermined region (for example, a region of interest or the like) of a three-dimensional image (for example, an MRI image or an X-ray CT image) on a plane including a two-dimensional image (for example, an ultrasonic image) of a subject. The target lesion area) can be projected, and an error range by the projection including the projected projection area (a range where a corresponding area on the two-dimensional image corresponding to the attention area can exist, also referred to as a search range). It can be displayed on the display means by being superimposed on the two-dimensional image. As a result, the user knows the search range for searching for the actual corresponding area on the two-dimensional image, and can thus efficiently search for and identify the actual corresponding area.

第1の実施形態に係る情報処理装置の処理手順を示すフロー図である。It is a flowchart which shows the process sequence of the information processing apparatus which concerns on 1st Embodiment. 第2の実施形態に係る情報処理装置の機器構成を示す図である。It is a figure which shows the apparatus structure of the information processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る情報処理装置の処理手順を示すフロー図である。It is a flowchart which shows the process sequence of the information processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る情報処理装置の探索モードにおける画像合成の処理手順を示すフロー図である。It is a flowchart which shows the process sequence of the image composition in the search mode of the information processing apparatus which concerns on 2nd Embodiment. 第1及び第2の実施形態に係る情報処理装置の断層画像と存在範囲とを表示する表示方法を説明するための図である。It is a figure for demonstrating the display method which displays the tomographic image and presence range of the information processing apparatus which concerns on 1st and 2nd embodiment. 第一の領域と第二の領域の例を示す図である。It is a figure which shows the example of a 1st area | region and a 2nd area | region. 第3の実施形態に係る情報処理装置の機器構成を示す図である。It is a figure which shows the apparatus structure of the information processing apparatus which concerns on 3rd Embodiment. 第4の実施形態に係る情報処理装置の機器構成を示す図である。It is a figure which shows the apparatus structure of the information processing apparatus which concerns on 4th Embodiment. 第3の実施形態に係る情報処理装置の処理手順を示すフロー図である。It is a flowchart which shows the process sequence of the information processing apparatus which concerns on 3rd Embodiment. 第4の実施形態に係る情報処理装置の処理手順を示すフロー図である。It is a flowchart which shows the process sequence of the information processing apparatus which concerns on 4th Embodiment. 第5の実施形態に係る情報処理装置の機器構成を示す図である。It is a figure which shows the apparatus structure of the information processing apparatus which concerns on 5th Embodiment. 第5の実施形態に係る情報処理装置の処理手順を示すフロー図である。It is a flowchart which shows the process sequence of the information processing apparatus which concerns on 5th Embodiment. 3次元存在範囲における超音波断層画像の位置情報を示す図である。It is a figure which shows the positional information on the ultrasonic tomographic image in a three-dimensional existence range. 相対的位置情報のカラーテーブルへの対応付けを示す図である。It is a figure which shows matching with the color table of relative position information. 存在範囲表示情報を示す図である。It is a figure which shows presence range display information. 存在範囲表示情報が重畳表示された超音波断層画像を示す図である。It is a figure which shows the ultrasonic tomographic image on which the existence range display information was superimposed and displayed. 本実施形態に係る情報処理装置の各部をソフトウェアにより実現することのできるコンピュータの基本構成を示す図である。It is a figure which shows the basic composition of the computer which can implement | achieve each part of the information processing apparatus which concerns on this embodiment with software.

以下、添付図面に従って本発明に係る情報処理システム(情報処理装置)の好ましい実施形態について詳説する。ただし、発明の範囲は図示例に限定されるものではない。   Hereinafter, preferred embodiments of an information processing system (information processing apparatus) according to the present invention will be described in detail with reference to the accompanying drawings. However, the scope of the invention is not limited to the illustrated examples.

(第1の実施形態:誤差)
本実施形態に係る情報処理装置は、被検体の二次元画像(例えば、超音波画像。)を含む平面上に三次元画像(例えば、MRI画像やX線CT画像。)の所定の領域(例えば、注目領域や注目病変部。)を投影することができ、該投影した投影領域を含む該投影による誤差範囲(注目領域に対応する二次元画像上の対応領域の存在し得る範囲、探索範囲とも呼ぶ。)を該二次元画像上に重ねて表示手段に表示させることができる。これにより、ユーザは、二次元画像上の実際の対応領域を探索する探索範囲が分かるので、実際の対応領域を効率良く探索して同定することができる。
(First embodiment: error)
The information processing apparatus according to the present embodiment has a predetermined region (for example, an MRI image or an X-ray CT image) on a plane including a two-dimensional image (for example, an ultrasonic image) of a subject. , A region of interest and a lesion part of interest) can be projected, and an error range by the projection including the projected projection region (a range where a corresponding region on the two-dimensional image corresponding to the region of interest can exist, a search range) Can be superimposed on the two-dimensional image and displayed on the display means. As a result, the user knows the search range for searching for the actual corresponding area on the two-dimensional image, and can thus efficiently search for and identify the actual corresponding area.

なお、本実施形態は、上記投影を前提にしている技術である。すなわち、上記投影した場合、上記投影による誤差がなければ、被検体の二次元画像上には所定の領域に対応する領域が表示され続けることになる。ただし、例えば後述する座標変換による誤差等により、被検体の二次元画像上に所定の領域に対応する領域が表示されない場合がある。このため、この誤差範囲を二次元画像上に表示することにより、ユーザが所定の領域に対応する領域を探索し易くすることができる。   The present embodiment is a technique based on the above projection. That is, when the projection is performed, if there is no error due to the projection, a region corresponding to a predetermined region is continuously displayed on the two-dimensional image of the subject. However, an area corresponding to a predetermined area may not be displayed on the two-dimensional image of the subject due to, for example, an error due to coordinate conversion described later. Therefore, by displaying this error range on the two-dimensional image, the user can easily search for a region corresponding to the predetermined region.

ここで、所定の領域の位置を三次元画像の三次元座標系から二次元画像の三次元座標系(例えば、位置姿勢センサの基準座標系)に座標変換(対応付け、位置合わせ)することが好ましい。これにより、座標変換による誤差に基づいて上記投影による誤差範囲を算出することができる。また、所定の領域(第一の領域)よりも大きく且つ該所定の領域を含む領域(第二の領域)を三次元画像に設定してから、この領域(第二の領域)の位置を上記座標変換することにより、上記投影による誤差範囲を算出することができる。このとき、第二の領域の大きさは、座標変換の誤差に基づいて設定されることが好ましい。例えば、図6(a)に示すように、第一の領域701が大きさを持たない点として定義されている場合には、第一の領域701が中心で座標変換の誤差が半径となる球を第二の領域702とすることができる。また、図6(b)に示すように、第一の領域703が大きさを持つ閉領域として定義されている場合には、座標変換の誤差が第一の領域703の最近傍点までの距離となるような閉曲面を求め、その内部を第二の領域704としてもよい。   Here, the position of the predetermined region may be coordinate-transformed (associated or aligned) from the 3D coordinate system of the 3D image to the 3D coordinate system of the 2D image (for example, the reference coordinate system of the position and orientation sensor). preferable. Thus, the error range due to the projection can be calculated based on the error due to coordinate conversion. Further, after setting a region (second region) larger than the predetermined region (first region) and including the predetermined region in the three-dimensional image, the position of this region (second region) is By converting the coordinates, the error range due to the projection can be calculated. At this time, the size of the second region is preferably set based on an error in coordinate conversion. For example, as shown in FIG. 6A, when the first area 701 is defined as a point having no size, a sphere having the first area 701 as the center and a coordinate conversion error as a radius. Can be the second region 702. In addition, as shown in FIG. 6B, when the first region 703 is defined as a closed region having a size, the error in coordinate transformation is the distance to the nearest point of the first region 703. Such a closed curved surface may be obtained, and the inside thereof may be used as the second region 704.

次に、本実施形態に係る情報処理システムについて図1を用いて説明する。図1は、本実施形態に係る情報処理装置の処理手順を示すフロー図である。   Next, the information processing system according to the present embodiment will be described with reference to FIG. FIG. 1 is a flowchart showing a processing procedure of the information processing apparatus according to the present embodiment.

まず、S1において、誤差取得部123が誤差要因情報を情報処理装置100に入力する。例えば、誤差要因情報として、超音波探触子と位置姿勢センサとの距離を入力する。一般的に、該距離が長くなると、上記投影(例えば、座標変換)による誤差が大きくなる。   First, in S <b> 1, the error acquisition unit 123 inputs error factor information to the information processing apparatus 100. For example, the distance between the ultrasonic probe and the position and orientation sensor is input as error factor information. In general, as the distance increases, an error due to the projection (for example, coordinate conversion) increases.

次に、S2において、断層画像取得部110が断層画像(例えば、超音波断層画像)を取得する。   Next, in S2, the tomographic image acquisition unit 110 acquires a tomographic image (for example, an ultrasonic tomographic image).

また、S3において、誤差取得部123が誤差(上記投影による誤差)を取得する。例えば、S1で取得した誤差要因情報が、超音波探触子と位置姿勢センサとの距離である場合、予め記憶されているテーブル(以下、誤差を算出するための情報とも呼ぶ。)により、S該距離を用いて誤差を求めることができる。   In S3, the error acquisition unit 123 acquires an error (error due to the projection). For example, when the error factor information acquired in S1 is the distance between the ultrasound probe and the position / orientation sensor, S is stored in accordance with a previously stored table (hereinafter also referred to as information for calculating an error). The error can be obtained using the distance.

また、S4において、注目領域(注目病変部)の存在し得る範囲(上記誤差による誤差範囲、探索範囲)を取得する。具体的には、超音波断層画像を含む平面上に三次元画像の所定の領域を投影した投影領域を含む該投影による誤差範囲を取得する。このとき、例えば、投影領域が中心で、誤差として求めた上記距離が半径となる円を描き、該円が超音波断層画像と重複する領域を取得する。   Further, in S4, a range (an error range due to the above error, a search range) in which the region of interest (target lesion portion) can exist is acquired. Specifically, an error range by the projection including a projection area obtained by projecting a predetermined area of the three-dimensional image on a plane including the ultrasonic tomographic image is acquired. At this time, for example, a circle whose center is the projection area and whose radius is the distance obtained as an error is drawn, and an area where the circle overlaps the ultrasonic tomographic image is acquired.

また、S5において、上記重複する領域を該超音波断層画像上に重ねて表示手段に表示する。例えば、図5(a)のような画像を表示手段に表示する。このとき、対応病変部の存在し得る範囲を円で表示し、その円の外側に半透明のマスクをかけ、内側の超音波断層画像を通常通りに表示させることが好ましい。これにより、実際の注目領域を探索する探索領域が明確になる。また、ユーザが実際の対応領域を探索し易いので、効率良く探索できる。また、対応領域の存在し得る範囲を円のラインのみで描画しても良い。また、対応領域の存在し得る範囲の内側に色を付ける場合には、探索できる程度に透明な色を付けることが好ましい。   In S5, the overlapping area is displayed on the display unit so as to overlap the ultrasonic tomographic image. For example, an image as shown in FIG. 5A is displayed on the display means. At this time, it is preferable to display a range where the corresponding lesion can exist in a circle, put a translucent mask on the outside of the circle, and display the inner ultrasonic tomographic image as usual. Thereby, a search area for searching for an actual attention area is clarified. In addition, since the user can easily search the actual corresponding area, the search can be performed efficiently. Further, the range in which the corresponding area can exist may be drawn with only a circle line. In addition, when a color is added to the inside of the range where the corresponding region can exist, it is preferable to add a color that is transparent enough to be searched.

なお、図5(a)において、ユーザが超音波断層画像上の上記投影による誤差範囲内で所定の箇所の位置を対応領域の位置として指定することができる。これにより、例えば、二次元画像上の所定の箇所に対応領域(所定の領域に対応する二次元画像上の領域)であることを示すマーク(例えば、円やバツ印)を重ねて表示手段に表示させることができる。このため、二次元画像上の対応領域の位置が分かり易くなるので、診断効率が向上する。また、上記指定された所定の箇所と投影領域との差分に基づいて該二次元画像における投影による誤差を補正することが好ましい。これにより、再度取得した二次元画像上の上記所定の箇所に対応する箇所に、上記マークを表示させ続けることができる。   In FIG. 5A, the user can designate the position of a predetermined location as the position of the corresponding region within the error range due to the projection on the ultrasonic tomographic image. Thereby, for example, a mark (for example, a circle or a cross) indicating that it is a corresponding region (a region on the two-dimensional image corresponding to the predetermined region) is superimposed on a predetermined portion on the two-dimensional image on the display means. Can be displayed. For this reason, since the position of the corresponding region on the two-dimensional image is easily understood, the diagnostic efficiency is improved. Further, it is preferable to correct an error due to projection in the two-dimensional image based on the difference between the designated predetermined location and the projection area. Thereby, the mark can be continuously displayed at a location corresponding to the predetermined location on the two-dimensional image acquired again.

また、図5(a)において、ユーザが所定の箇所の位置を指定しない場合には、超音波断層画像を繰り返し取得する。このとき、超音波断層画像の位置や姿勢に応じて上記投影による誤差範囲の大きさが変わることになる。このとき、上記所定の領域(第一の領域)と上記投影領域(第一の領域に対応する超音波断層画像上の領域)とが同一の位置にあるとき(超音波断層画像のスキャン面が所定の領域を通るとき)、上記投影による誤差範囲の大きさが最大になる。図5(b)に示すように、この最大の大きさになる誤差範囲804を実際の誤差範囲502と区別できるように超音波画像503上に常に表示させても良い。   In FIG. 5A, when the user does not designate the position of a predetermined location, ultrasonic tomographic images are repeatedly acquired. At this time, the size of the error range due to the projection changes according to the position and orientation of the ultrasonic tomographic image. At this time, when the predetermined area (first area) and the projection area (area on the ultrasonic tomographic image corresponding to the first area) are at the same position (the scan plane of the ultrasonic tomographic image is When passing through a predetermined region), the size of the error range due to the projection is maximized. As shown in FIG. 5B, the error range 804 having the maximum size may be always displayed on the ultrasonic image 503 so that it can be distinguished from the actual error range 502.

(第2の実施形態:探索モードと連動モード)
本実施形態に係る情報処理システムは、三次元画像データ中の注目領域(例えば、注目病変部)が存在し得る領域を、実時間で撮影している超音波断層画像中に表示する。そうすることで、三次元画像データ中の注目領域に対応する対応領域(対応病変部)を、操作者(医師や技師)が超音波断層画像上で容易に描出できるようにする。なお、本実施形態では、被検体内部の三次元的な情報を表す断層画像群を三次元画像データとして取り扱う場合について説明する。以下、本実施形態に係る情報処理システムについて説明する。
(Second Embodiment: Search Mode and Linkage Mode)
The information processing system according to the present embodiment displays an area in which a region of interest (for example, a lesion of interest) in 3D image data may exist in an ultrasonic tomographic image captured in real time. By doing so, the operator (doctor or engineer) can easily draw the corresponding region (corresponding lesion) corresponding to the region of interest in the three-dimensional image data on the ultrasonic tomographic image. In the present embodiment, a case will be described in which a tomographic image group representing three-dimensional information inside a subject is handled as three-dimensional image data. The information processing system according to this embodiment will be described below.

図2は、本実施形態に係る情報処理システムの構成を示す。同図に示すように、本実施形態における情報処理装置100は、断層画像取得部(二次元画像取得部とも呼ぶ。)110、位置姿勢取得部112、三次元画像データ取得部(三次元画像取得部とも呼ぶ。)120、注目領域取得部122、誤差取得部123、断面画像生成部(断面画像取得部とも呼ぶ。)130、存在範囲算出部135、画像合成部140、表示制御部150によって構成される。そして、三次元画像データや後に記述する誤差要因情報等を保持するデータサーバ190に接続されている。また、情報処理装置100は、被検体の超音波断層画像を撮像する第2医用画像収集装置180としての超音波画像診断装置にも接続されている。   FIG. 2 shows a configuration of the information processing system according to the present embodiment. As shown in the figure, the information processing apparatus 100 according to the present embodiment includes a tomographic image acquisition unit (also referred to as a two-dimensional image acquisition unit) 110, a position and orientation acquisition unit 112, and a three-dimensional image data acquisition unit (three-dimensional image acquisition). 120, a region of interest acquisition unit 122, an error acquisition unit 123, a cross-sectional image generation unit (also referred to as a cross-sectional image acquisition unit) 130, an existence range calculation unit 135, an image composition unit 140, and a display control unit 150. Is done. It is connected to a data server 190 that holds 3D image data and error factor information described later. The information processing apparatus 100 is also connected to an ultrasonic image diagnostic apparatus as the second medical image acquisition apparatus 180 that captures an ultrasonic tomographic image of a subject.

(三次元画像データの入力)
データサーバ190が保持する三次元画像データは、第1医用画像収集装置170としてのMRI装置やX線CT装置などによって被検体を予め撮像して得られた参照断層画像群である。なお、以下では第1医用画像収集装置170としてMRI装置を用いる場合を例とし、被検体としては人体の乳房を撮影対象として説明する。
(Input of 3D image data)
The three-dimensional image data held by the data server 190 is a reference tomographic image group obtained by imaging a subject in advance by an MRI apparatus or an X-ray CT apparatus as the first medical image acquisition apparatus 170. In the following, a case where an MRI apparatus is used as the first medical image collection apparatus 170 is described as an example, and a human breast is described as an object to be imaged.

MRI装置で撮像された参照断層画像群を三次元画像データとして構成する各断層画像の位置姿勢は、MRI装置座標系における位置姿勢で表されている。ここでMRI装置座標系とは、MRI装置を基準とした空間中の1点を原点として定義した座標系のことを表す。MRI装置座標系で表現された三次元画像データは、三次元画像データ取得部120により取得され、情報処理装置100に入力される。なお、三次元画像データ取得部120は、三次元のボクセルに輝度値を格納した三次元ボリュームデータを参照断層画像群から生成して、これを保持する。そして、断面画像生成部130からの要求にしたがって、保持している三次元ボリュームデータを断面画像生成部130へと出力する。   The position and orientation of each tomographic image that constitutes the reference tomographic image group captured by the MRI apparatus as three-dimensional image data is represented by the position and orientation in the MRI apparatus coordinate system. Here, the MRI apparatus coordinate system represents a coordinate system in which one point in the space with the MRI apparatus as a reference is defined as the origin. The 3D image data expressed in the MRI apparatus coordinate system is acquired by the 3D image data acquisition unit 120 and input to the information processing apparatus 100. Note that the three-dimensional image data acquisition unit 120 generates three-dimensional volume data in which luminance values are stored in three-dimensional voxels from the reference tomographic image group, and holds this. Then, in accordance with a request from the cross-sectional image generation unit 130, the held three-dimensional volume data is output to the cross-sectional image generation unit 130.

さらに、データサーバ190は、三次元画像データ中の注目領域として、予め指定された病変部(注目病変部)の位置を保持している。注目病変部の位置は、例えば、操作者が不図示の画像ビューア上に参照断層画像群を順次表示して、注目病変部が写っている断層画像を選び出し、不図示のマウスで注目病変部をクリックすることによって指定することができる。データサーバ190が保持する注目病変部の位置は、注目領域取得部122により取得され、情報処理装置100に入力される。また、注目領域取得部122は、保持している注目病変部の位置を誤差取得部123及び存在範囲算出部135及び画像合成部140へと出力する。なお、以下の説明では、注目病変部の位置も、三次元画像データと同様にMRI装置座標系で表されているものとする。   Furthermore, the data server 190 holds the position of a lesion (designated lesion) that is designated in advance as a region of interest in the 3D image data. For example, the operator can sequentially display a reference tomographic image group on an image viewer (not shown), select a tomographic image in which the target lesion is shown, and select the target lesion with a mouse (not shown). It can be specified by clicking. The position of the attention lesion part held by the data server 190 is acquired by the attention area acquisition unit 122 and input to the information processing apparatus 100. In addition, the attention area acquisition unit 122 outputs the position of the attention lesion part that is held to the error acquisition unit 123, the existence range calculation unit 135, and the image composition unit 140. In the following description, it is assumed that the position of the lesion of interest is also expressed in the MRI apparatus coordinate system in the same manner as the three-dimensional image data.

(誤差推定値の取得)
また、データサーバ190は、三次元画像データ中の病変部の位置の誤差を算出するための情報を保持している。ここで、誤差を算出するための情報とは、三次元画像データ中の注目病変部に対応する対応領域(対応病変部)の位置が、超音波断層画像上においてどの程度の誤差を含んで射影されるかを算出するための情報である。言い換えれば、三次元画像データと超音波断層画像の間の位置合わせの誤差(対応病変部の存在範囲)を算出するための情報である。なお、本実施形態では、MRI装置座標系における超音波断層画像の位置姿勢を位置姿勢取得部112が算出することで、三次元画像データと超音波断層画像の間の位置合わせが実施される。以下の説明では、この誤差推定値を算出するための情報を誤差要因情報(詳細は後述する)と呼ぶ。データサーバ190が保持する誤差要因情報は、誤差取得部123を介して情報処理装置100に入力される。また、誤差取得部123は、誤差要因情報に基づいて三次元画像データと超音波断層画像との間の位置合わせの誤差推定値(対応病変部の存在範囲)を算出する。そして、算出した誤差推定値を存在範囲算出部135へと出力する。このとき、存在範囲算出部135は、注目病変部の位置を中心として半径が誤差である球を超音波断面で切り取ることによって得られる円を算出して、対応病変部の存在範囲を示す情報として画像合成部140へと出力する。
(Acquire error estimate)
In addition, the data server 190 holds information for calculating an error in the position of the lesion in the 3D image data. Here, the information for calculating the error is a projection including how much the position of the corresponding region (corresponding lesion) corresponding to the target lesion in the three-dimensional image data on the ultrasonic tomographic image includes. This is information for calculating whether or not to be performed. In other words, it is information for calculating an alignment error (existing range of the corresponding lesion) between the three-dimensional image data and the ultrasonic tomographic image. In the present embodiment, the position / orientation acquisition unit 112 calculates the position and orientation of the ultrasonic tomographic image in the MRI apparatus coordinate system, so that the alignment between the three-dimensional image data and the ultrasonic tomographic image is performed. In the following description, information for calculating the error estimated value is referred to as error factor information (details will be described later). The error factor information held by the data server 190 is input to the information processing apparatus 100 via the error acquisition unit 123. In addition, the error acquisition unit 123 calculates an error estimation value for alignment between the three-dimensional image data and the ultrasonic tomographic image (existing range of the corresponding lesion) based on the error factor information. Then, the calculated error estimation value is output to the existence range calculation unit 135. At this time, the existence range calculation unit 135 calculates a circle obtained by cutting out a sphere having an error in radius around the position of the lesion of interest with an ultrasonic cross section, and serves as information indicating the existence range of the corresponding lesion. The image is output to the image composition unit 140.

(断層画像の取得)
第2医用画像収集装置180としての超音波画像診断装置は、被検体の超音波断層画像を実時間で撮像する。超音波断層画像は、断層画像取得部110により取得され、情報処理装置100に逐次入力される。また、断層画像取得部110は、取得された超音波断層画像を必要に応じてデジタルデータに変換して、位置姿勢取得部112から取得した位置姿勢に対応付けて保持する。そして、画像合成部140からの要求にしたがって、保持している超音波断層画像を画像合成部140へと出力する。
(Acquisition of tomographic images)
The ultrasonic diagnostic imaging apparatus as the second medical image acquisition apparatus 180 captures an ultrasonic tomographic image of a subject in real time. The ultrasonic tomographic image is acquired by the tomographic image acquisition unit 110 and is sequentially input to the information processing apparatus 100. In addition, the tomographic image acquisition unit 110 converts the acquired ultrasonic tomographic image into digital data as necessary, and stores it in association with the position and orientation acquired from the position and orientation acquisition unit 112. Then, in accordance with a request from the image composition unit 140, the held ultrasonic tomographic image is output to the image composition unit 140.

通常、操作者は、超音波画像診断装置の撮像部(不図示)としての超音波探触子を手に持って、これを自由に動かしながら被検体の撮像を行う。超音波探触子により超音波を検出して超音波断層画像を取得することができる。このとき、超音波断層画像が被検体を基準とした空間中のどの位置姿勢を撮像したものなのかが明らかではない。そこで、本実施形態では、不図示の位置姿勢センサを超音波画像診断装置に装着して、超音波探触子の位置姿勢を計測する。位置姿勢センサは、例えば、米国Polhemus社のFASTRAK等によって構成される。なお、位置姿勢センサは、超音波探触子の位置姿勢が計測できるのであれば、どのように構成されていてもよい。   Usually, the operator holds an ultrasonic probe as an imaging unit (not shown) of the ultrasonic diagnostic imaging apparatus and picks up an image of the subject while moving it freely. An ultrasonic tomographic image can be acquired by detecting an ultrasonic wave with an ultrasonic probe. At this time, it is not clear which position and orientation in the space the ultrasonic tomographic image is based on the subject. Therefore, in the present embodiment, a position / orientation sensor (not shown) is attached to the ultrasonic image diagnostic apparatus, and the position / orientation of the ultrasonic probe is measured. The position / orientation sensor is configured by, for example, FASTRAK of Polhemus, USA. The position / orientation sensor may be configured in any way as long as the position / orientation of the ultrasonic probe can be measured.

以上のようにして得られた超音波探触子の位置姿勢は、位置姿勢取得部112により取得され、情報処理装置100に入力される。ここで、超音波探触子の位置姿勢は、例えば基準座標系における位置姿勢で表されている。ここで、基準座標系とは、被検体を基準とした空間中の1点を原点として定義した座標系のことを表す。また、位置姿勢取得部112は、基準座標系における超音波探触子の位置姿勢を取得して、これに基づいてMRI装置座標系における超音波断層画像の位置姿勢を算出する。そして、断面画像生成部130からの要求にしたがって、算出した位置姿勢を断面画像生成部130へと出力する。なお、この算出の処理は、超音波探触子と超音波断層画像との間の相対位置関係と、基準座標系とMRI装置座標系との間の相対位置関係に基づいて、公知の座標変換演算によって実行される。本実施形態では、これらの相対位置関係の情報(以後、校正データ)は、公知の校正手法によって予め導出されていて、位置姿勢取得部112内のメモリに既知の値として保持されているものとする。   The position and orientation of the ultrasound probe obtained as described above are acquired by the position and orientation acquisition unit 112 and input to the information processing apparatus 100. Here, the position and orientation of the ultrasonic probe are represented by a position and orientation in the reference coordinate system, for example. Here, the reference coordinate system represents a coordinate system in which one point in the space with the subject as a reference is defined as the origin. The position and orientation acquisition unit 112 acquires the position and orientation of the ultrasonic probe in the reference coordinate system, and calculates the position and orientation of the ultrasonic tomographic image in the MRI apparatus coordinate system based on the acquired position and orientation. Then, in accordance with a request from the cross-sectional image generation unit 130, the calculated position and orientation are output to the cross-sectional image generation unit 130. Note that this calculation process is based on a known coordinate transformation based on the relative positional relationship between the ultrasonic probe and the ultrasonic tomographic image and the relative positional relationship between the reference coordinate system and the MRI apparatus coordinate system. It is executed by calculation. In the present embodiment, the relative positional relationship information (hereinafter referred to as calibration data) is derived in advance by a known calibration method and is held as a known value in the memory in the position / orientation acquisition unit 112. To do.

(断面画像の生成)
断面画像生成部130は、三次元画像データ取得部120の出力である三次元ボリュームデータと、位置姿勢取得部112の出力である超音波断層画像の位置姿勢と、注目領域取得部122の出力である注目病変部の位置を入力する。そして、これらのデータに基づいて、断面画像(第二の二次元断面画像)を三次元ボリュームデータから生成して、画像合成部140へと出力する。なお、断面画像生成部130は、後述する二つの操作モードに応じて異なる処理を行う。このとき、画像合成部140は、対応病変部の存在範囲(第二の領域)を示す情報を存在範囲算出部135から取得して、断層画像取得部110から取得した超音波断層画像上に重畳して描画する。さらに、その画像と、断面画像生成部130から取得した断面画像とを合成した合成画像を表示制御部150あるいは外部へと出力する。なお、対応病変部の存在範囲を超音波断層画像上に重ねた画像と、断面画像上に所定の領域(第一の領域)を重ねた画像とを並べて表示手段に表示させても良い。また、表示制御部150は、画像合成部140の出力である合成画像を取得し、これを表示部160に表示する。
(Cross section image generation)
The cross-sectional image generation unit 130 uses the 3D volume data output from the 3D image data acquisition unit 120, the position and orientation of the ultrasonic tomographic image output from the position and orientation acquisition unit 112, and the output of the attention area acquisition unit 122. Enter the position of a certain lesion. Based on these data, a cross-sectional image (second two-dimensional cross-sectional image) is generated from the three-dimensional volume data and output to the image composition unit 140. The cross-sectional image generation unit 130 performs different processes according to two operation modes described later. At this time, the image composition unit 140 acquires information indicating the existence range (second region) of the corresponding lesion part from the existence range calculation unit 135 and superimposes it on the ultrasonic tomographic image acquired from the tomographic image acquisition unit 110. And draw. Further, a composite image obtained by combining the image and the cross-sectional image acquired from the cross-sectional image generation unit 130 is output to the display control unit 150 or the outside. Note that an image obtained by superimposing the existence range of the corresponding lesion on the ultrasonic tomographic image and an image obtained by superimposing a predetermined region (first region) on the cross-sectional image may be displayed side by side on the display unit. In addition, the display control unit 150 acquires a composite image that is an output of the image composition unit 140 and displays the composite image on the display unit 160.

なお、図2に示した各部(断層画像取得部110、位置姿勢取得部112、三次元画像データ取得部120、注目領域取得部122、誤差取得部123、断面画像生成部130、存在範囲算出部135、画像合成部140、表示制御部150)の少なくとも一部は、独立した装置として実現してもよい。または、夫々一つもしくは複数のコンピュータにインストールし、コンピュータのCPUにより実行することで、その機能を実現するソフトウェアとして実現してもよい。本実施形態では、各部はそれぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。   2 (tomographic image acquisition unit 110, position and orientation acquisition unit 112, three-dimensional image data acquisition unit 120, attention area acquisition unit 122, error acquisition unit 123, cross-sectional image generation unit 130, existence range calculation unit 135, the image composition unit 140, and the display control unit 150) may be realized as independent devices. Alternatively, it may be implemented as software that implements its function by installing it on one or a plurality of computers and executing it by the CPU of the computer. In the present embodiment, each unit is realized by software and installed in the same computer.

(コンピュータの基本構成)
図17は、断層画像取得部110、位置姿勢取得部112、三次元画像データ取得部120、注目領域取得部122、誤差取得部123、断面画像生成部130、存在範囲算出部135、画像合成部140、表示制御部150の夫々の機能を、ソフトウェアを実行することで実現するためのコンピュータの基本構成を示す図である。
(Basic computer configuration)
FIG. 17 illustrates a tomographic image acquisition unit 110, a position / orientation acquisition unit 112, a 3D image data acquisition unit 120, a region of interest acquisition unit 122, an error acquisition unit 123, a cross-sectional image generation unit 130, an existence range calculation unit 135, and an image synthesis unit. 140 is a diagram illustrating a basic configuration of a computer for realizing the functions of the display control unit 150 by executing software. FIG.

CPU1001は、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行う。また、断層画像取得部110、位置姿勢取得部112、三次元画像データ取得部120、注目領域取得部122、誤差取得部123、断面画像生成部130、存在範囲算出部135、画像合成部140、表示制御部150の夫々におけるソフトウェアの実行を制御して、各部の機能を実現する。
RAM1002は、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。
The CPU 1001 controls the entire computer using programs and data stored in the RAM 1002 and the ROM 1003. In addition, the tomographic image acquisition unit 110, the position / orientation acquisition unit 112, the 3D image data acquisition unit 120, the attention area acquisition unit 122, the error acquisition unit 123, the cross-sectional image generation unit 130, the existence range calculation unit 135, the image composition unit 140, The execution of software in each of the display control units 150 is controlled to realize the function of each unit.
The RAM 1002 includes an area for temporarily storing programs and data loaded from the external storage device 1007 and the storage medium drive 1008, and a work area required for the CPU 1001 to perform various processes.

ROM1003は、一般にコンピュータのプログラムや設定データなどが格納されている。キーボード1004、マウス1005は入力デバイスであり、操作者はこれらを用いて、各種の指示をCPU1001に入力することができる。   The ROM 1003 generally stores computer programs and setting data. A keyboard 1004 and a mouse 1005 are input devices, and an operator can input various instructions to the CPU 1001 using these devices.

表示部1006は、CRTや液晶ディスプレイなどにより構成されており、表示部160がこれに相当する。表示部1006は、画像合成部140が生成する合成画像の他に、画像処理のために表示すべきメッセージやGUI等を表示することができる。   The display unit 1006 includes a CRT, a liquid crystal display, or the like, and the display unit 160 corresponds to this. The display unit 1006 can display a message to be displayed for image processing, a GUI, and the like in addition to the composite image generated by the image composition unit 140.

外部記憶装置1007は、ハードディスクドライブなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やCPU1001が実行するプログラム等を保存する。また本実施形態の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。   The external storage device 1007 is a device that functions as a large-capacity information storage device such as a hard disk drive, and stores an OS (operating system), a program executed by the CPU 1001, and the like. In the description of the present embodiment, information that is described as being known is stored here, and loaded into the RAM 1002 as necessary.

記憶媒体ドライブ1008は、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。   The storage medium drive 1008 reads a program or data stored in a storage medium such as a CD-ROM or DVD-ROM in accordance with an instruction from the CPU 1001 and outputs it to the RAM 1002 or the external storage device 1007.

I/F1009は、アナログビデオポートあるいはIEEE1394等のデジタル入出力ポートや、合成画像などの情報を外部へ出力するためのイーサネット(登録商標)ポート等によって構成される。夫々が入力したデータはI/F1009を介してRAM1002に取り込まれる。断層画像取得部110、位置姿勢取得部112、三次元画像データ取得部120、注目領域取得部122、および誤差取得部123の機能の一部は、I/F1009によって実現される。   The I / F 1009 includes an analog video port or a digital input / output port such as IEEE 1394, an Ethernet (registered trademark) port for outputting information such as a composite image to the outside, and the like. The data input by each is taken into the RAM 1002 via the I / F 1009. Some of the functions of the tomographic image acquisition unit 110, the position / orientation acquisition unit 112, the 3D image data acquisition unit 120, the attention area acquisition unit 122, and the error acquisition unit 123 are realized by the I / F 1009.

上述した各構成要素は、バス1010によって相互に接続される。   The above-described components are connected to each other by a bus 1010.

(探索モードと連動モード)
上述の情報処理システムは、操作モードとして探索モード(対応病変部を探索するモード)と連動モード(対応付けた病変部を観察して確認するモード)の二つのモードを有する。超音波断層画像の位置姿勢と注目病変部の位置が与えられると、これらの情報に基づいてMRIの三次元画像データからモードに応じた断面画像が生成(取得)される。探索モードで生成される断面画像は、先述の超音波断層画像を含む平面と平行な断面画像であって、かつ、注目病変部を通る断面画像である。このような断面画像を生成することで、超音波探触子がどのような姿勢であっても、二つの断面画像(超音波断層画像とMRIの断面画像)の被検体に対する傾き(姿勢)を常に揃えて表示できる。その結果、操作者は超音波探触子を押し当てる位置のみをMRIデータと合わせればよい。傾きを揃える手間を省くことができるため、操作者による位置合わせを容易にさせることができる。探索モードと連動モードの切り替えは、超音波断層画像中で対応病変部を特定し、その位置を指摘することで行われる。連動モードでは、超音波断層画像と同じ断面をMRIの三次元画像データから切り出した画像が、MRIの断面画像として表示される。このモードでは、超音波探触子の位置姿勢に連動した注目病変周辺のMRI断面画像と、超音波断層画像とを同時に見ながら、病変の拡がりなどを観察することが可能となる。
(Search mode and linked mode)
The above-described information processing system has two modes as operation modes: a search mode (a mode for searching for a corresponding lesion site) and a linked mode (a mode for observing and confirming the associated lesion site). Given the position and orientation of the ultrasonic tomographic image and the position of the lesion of interest, a cross-sectional image corresponding to the mode is generated (acquired) from the three-dimensional image data of MRI based on these pieces of information. The cross-sectional image generated in the search mode is a cross-sectional image parallel to the plane including the above-described ultrasonic tomographic image and a cross-sectional image passing through the lesion of interest. By generating such a cross-sectional image, the inclination (posture) of two cross-sectional images (an ultrasonic tomographic image and an MRI cross-sectional image) with respect to the subject can be obtained regardless of the posture of the ultrasonic probe. You can always display them aligned. As a result, the operator only needs to match the position where the ultrasonic probe is pressed with the MRI data. Since it is possible to save the trouble of aligning the tilts, it is possible to easily perform alignment by the operator. Switching between the search mode and the interlocking mode is performed by specifying the corresponding lesion in the ultrasonic tomographic image and pointing out its position. In the interlock mode, an image obtained by cutting out the same cross section as the ultrasonic tomographic image from the three-dimensional image data of MRI is displayed as an MRI cross-sectional image. In this mode, it is possible to observe the spread of the lesion while simultaneously viewing the MRI cross-sectional image around the lesion of interest linked to the position and orientation of the ultrasound probe and the ultrasound tomographic image.

超音波断層画像と、MRIの断面画像はそれぞれ表示部160に表示される。操作者は探索モードでは、超音波探触子を押し当てる位置を変えながら夫々の画像に映った内容が一致するか否かを見比べて、位置合わせを行うことができる。連動モードでは、位置合わせが行われた夫々の画像を見ながら、病変の周囲を観察することができる。   The ultrasonic tomographic image and the MRI cross-sectional image are displayed on the display unit 160, respectively. In the search mode, the operator can perform alignment by comparing whether or not the contents shown in the respective images match while changing the position where the ultrasonic probe is pressed. In the interlocking mode, it is possible to observe the periphery of the lesion while viewing each image that has been aligned.

図3は、情報処理装置100が行う全体の処理手順を示すフローチャートである。同フローチャートは、本実施形態ではCPU1001が各部の機能を実現するプログラムを実行することにより実現される。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、例えば外部記憶装置1007からRAM1002に既にロードされているものとする。   FIG. 3 is a flowchart illustrating an overall processing procedure performed by the information processing apparatus 100. In the present embodiment, the flowchart is realized by the CPU 1001 executing a program that realizes the function of each unit. It is assumed that the program code according to the flowchart is already loaded from, for example, the external storage device 1007 to the RAM 1002 in the previous stage of performing the following processing.

(S3000:データの入力)
ステップS3000において、情報処理装置100は、三次元画像データ取得部120の処理として、データサーバ190から三次元画像データとして参照断層画像群を取得する。そして、参照断層画像群から、各断層画像の各画素を三次元的に配置・補間することで、三次元のボクセルに輝度値を格納した三次元ボリュームデータを生成する。また、注目領域取得部122の処理として、データサーバ190から注目病変部の位置を取得する。
(S3000: Data input)
In step S3000, the information processing apparatus 100 acquires a reference tomographic image group as 3D image data from the data server 190 as processing of the 3D image data acquisition unit 120. Then, from the reference tomographic image group, each pixel of each tomographic image is three-dimensionally arranged and interpolated to generate three-dimensional volume data in which luminance values are stored in three-dimensional voxels. Further, as the processing of the attention area acquisition unit 122, the position of the attention lesion part is acquired from the data server 190.

(S3005:誤差要因情報の入力)
ステップS3005において、情報処理装置100は、誤差取得部123の処理として、誤差推定値の算出に用いる各種の誤差要因情報(後述)をデータサーバ190から取得する。
(S3005: Input of error factor information)
In step S3005, the information processing apparatus 100 acquires, from the data server 190, various error factor information (described later) used for calculation of the error estimated value as processing of the error acquisition unit 123.

(S3010:断層画像の取得)
ステップS3010において、情報処理装置100は、断層画像取得部110の処理として、第2医用画像収集装置180から超音波断層画像を取得する。また、位置姿勢取得部112の処理として、上記超音波断層画像を撮像した際の超音波探触子の位置姿勢を第2医用画像収集装置180から取得する。そして、既知の値として予め記憶している前述の校正データを利用して、基準座標系における超音波探触子の位置姿勢から、MRI装置座標系における超音波断層画像の位置姿勢を算出する。さらに、位置合わせの補正パラメータを保持している場合には、超音波断層画像の位置の算出値を補正パラメータ分だけ補正することによって、注目病変部と対応病変部を正確に位置合わせする。なお、ステップS3000における注目病変部の位置の取得と、本ステップにおける超音波断層画像の位置姿勢の算出によって、注目病変部(注目領域)と断層画像との相対関係の推定が実現される。
(S3010: Acquisition of tomographic image)
In step S <b> 3010, the information processing apparatus 100 acquires an ultrasonic tomographic image from the second medical image acquisition apparatus 180 as processing of the tomographic image acquisition unit 110. Further, as the processing of the position / orientation acquisition unit 112, the position / orientation of the ultrasonic probe when the ultrasonic tomographic image is captured is acquired from the second medical image acquisition device 180. Then, the position and orientation of the ultrasonic tomographic image in the MRI apparatus coordinate system are calculated from the position and orientation of the ultrasonic probe in the reference coordinate system using the calibration data stored in advance as known values. Further, in the case where the alignment correction parameter is held, the calculated value of the position of the ultrasonic tomographic image is corrected by the correction parameter, thereby accurately aligning the target lesion portion and the corresponding lesion portion. Note that the estimation of the relative relationship between the lesion of interest (region of interest) and the tomographic image is realized by acquiring the position of the lesion of interest in step S3000 and calculating the position and orientation of the ultrasonic tomographic image in this step.

(S3015:誤差推定値の取得)
ステップS3015において、情報処理装置100は、誤差取得部123の処理として、ステップS3005で取得した誤差の算出に用いる各種データに基づいて、誤差推定値を算出する。
(S3015: Acquisition of estimated error value)
In step S3015, the information processing apparatus 100 calculates an error estimated value based on various data used for calculation of the error acquired in step S3005 as processing of the error acquisition unit 123.

本実施形態において、MRI装置座標系と基準座標系との間の関係は剛体変換により表すものとしている。しかし、MRI画像を撮影した際のMRI装置座標系に対する被検体の位置姿勢と、超音波撮影を行う際の基準座標系に対する被検体の位置姿勢は、必ずしも正しく剛体変換の関係にあるとは限らない。そのため、前記座標系の間の関係を剛体変換により表す場合には、誤差が混入する場合がある。また、仮に前記両座標系における被検体の位置姿勢の違いが、正に剛体変換の関係にあったとしても、現実的にはその剛体変換を正しく求めることは困難であり、やはり誤差が混入する場合がある。また、誤差には、位置姿勢取得部112が取得する位置姿勢計測値に混入する誤差(位置姿勢計測誤差)も含まれている。   In the present embodiment, the relationship between the MRI apparatus coordinate system and the reference coordinate system is expressed by rigid body transformation. However, the position and orientation of the subject with respect to the MRI apparatus coordinate system when the MRI image is captured and the position and orientation of the subject with respect to the reference coordinate system when performing ultrasonic imaging are not necessarily in a rigid body transformation relationship. Absent. Therefore, an error may be mixed when the relationship between the coordinate systems is expressed by rigid transformation. Further, even if the difference in position and orientation of the subject in the two coordinate systems is exactly related to rigid transformation, it is practically difficult to obtain the rigid transformation correctly, and errors are still mixed. There is a case. In addition, the error includes an error (position and orientation measurement error) mixed in the position and orientation measurement value acquired by the position and orientation acquisition unit 112.

誤差推定値を算出する処理は、例えば第2医用画像収集装置180の超音波探触子の位置姿勢を計測する位置姿勢センサの特性等に基づいて実行することができる。例えば位置姿勢センサの計測方式毎に予め誤差の基準値を定めておき、使用するセンサの計測方式に応じて値を選択するようにできる。例えば、光学式センサに対して磁気式センサは一般に計測精度が低いため、光学式センサを使用しているという情報を誤差要因情報としてデータサーバ190から取得し、それに基づいて磁気式センサを使用している場合にくらべて小さい値として誤差推定値を算出するようにできる。また誤差推定値は、位置姿勢センサの計測方式の違いに限らず、位置姿勢センサの計測基準に対する空間的な位置や姿勢の関係に基づいて算出するようにできる。例えば、位置姿勢センサが磁気式のセンサにより構成される場合には、計測の基準となる磁気発生装置と超音波探触子との距離の関数として誤差の推定値を定義し、その距離が大きい場合には前記誤差として大きな値を算出するようにできる。また位置姿勢センサが光学式センサにより構成される場合にも、計測の基準に対する超音波探触子の距離や姿勢などに基づいて前記誤差を算出するようにできる。   The process of calculating the error estimation value can be executed based on, for example, the characteristics of a position and orientation sensor that measures the position and orientation of the ultrasonic probe of the second medical image acquisition apparatus 180. For example, an error reference value can be determined in advance for each measurement method of the position and orientation sensor, and a value can be selected according to the measurement method of the sensor to be used. For example, since the measurement accuracy of a magnetic sensor is generally lower than that of an optical sensor, information indicating that the optical sensor is used is acquired from the data server 190 as error factor information, and the magnetic sensor is used based on the information. The estimated error value can be calculated as a small value compared to the case where Further, the error estimation value is not limited to the difference in the measurement method of the position / orientation sensor, and can be calculated based on the relationship between the spatial position and orientation with respect to the measurement reference of the position / orientation sensor. For example, when the position / orientation sensor is composed of a magnetic sensor, an estimated error value is defined as a function of the distance between the magnetism generation device that is a measurement reference and the ultrasonic probe, and the distance is large. In this case, a large value can be calculated as the error. Even when the position / orientation sensor is constituted by an optical sensor, the error can be calculated based on the distance or orientation of the ultrasonic probe with respect to the measurement reference.

また誤差推定値は、注目病変部が存在する被検体における部位等に基づいて算出するようにできる。例えば、注目病変部が被検体の乳房などの軟組織に存在する場合には、MRI画像の撮影時点と、超音波画像の撮影時点とで被検体の当該部位に変形が生じることが想定される。したがって、そのような部位に注目病変部が存在する場合には、誤差推定値を大きく算出するようにできる。同様に心拍による位置の変動が大きい心臓および心臓近傍の領域、または呼吸による位置の変動が大きい、肺および肺近傍の領域では、誤差推定値を大きく算出するようにできる。具体的には、注目病変部が存在する被検体内における部位(臓器名や臓器内における位置)を表す情報と、前記部位と誤差の大きさとの対応を記したデータ(テーブル)を誤差要因情報として取得し、これらの情報に基づいて誤差推定値を算出することができる。   In addition, the error estimation value can be calculated based on a part or the like in the subject where the lesion of interest exists. For example, when the lesion of interest is present in a soft tissue such as the breast of the subject, it is assumed that deformation occurs in the relevant part of the subject between the time when the MRI image is captured and the time when the ultrasound image is captured. Therefore, when the target lesion part exists in such a part, the error estimated value can be calculated large. Similarly, a large error estimate can be calculated in the heart and a region in the vicinity of the heart where the position variation due to the heartbeat is large, or in the lung and the region near the lung where the position variation due to respiration is large. Specifically, information indicating a part (organ name or position in the organ) in the subject where the target lesion is present and data (table) describing correspondence between the part and the magnitude of the error are error factor information. And an error estimation value can be calculated based on these pieces of information.

また、MRI装置座標系と基準座標系との校正を行う際に指標として用いた部位の位置等に関する情報を誤差要因情報として取得し、これらの部位と注目病変部との位置の関係に基づいて誤差推定値を算出するようにできる。例えば、前記校正に用いた指標が被検体の剣状突起である場合には、MRI画像中における剣状突起の位置と、注目病変部との距離の関数として、誤差推定値を算出するようにできる。同様に、乳頭の位置を指標として用いる場合には、MRI画像中における乳頭と注目病変部との距離の関数として、誤差推定値を算出するようにできる。また、以上に例示した方法等を複数用いて複合的に誤差の推定を行い、誤差推定値を取得するようにしても良い。   Further, information on the position of the part used as an index when the MRI apparatus coordinate system and the reference coordinate system are calibrated is acquired as error factor information, and based on the positional relationship between these parts and the target lesion part. An error estimated value can be calculated. For example, if the index used for the calibration is the xiphoid process of the subject, an error estimation value is calculated as a function of the distance between the position of the xiphoid process in the MRI image and the lesion of interest. it can. Similarly, when the position of the nipple is used as an index, an error estimated value can be calculated as a function of the distance between the nipple and the lesion of interest in the MRI image. In addition, an error estimation value may be acquired by performing multiple error estimations using a plurality of the methods exemplified above.

(S3020:探索モードであるか否かの判定)
ステップS3020において、情報処理装置100は現在の操作モードが探索モードであるか、連動モードであるかの判定を行う。操作モードが探索モードの場合はステップS3030へと処理が進み、連動モードの場合はステップS3070へと処理が進む。なお、本実施形態の初期状態における操作モードは、探索モードであるものとする。
(S3020: Determination of whether or not in search mode)
In step S3020, the information processing apparatus 100 determines whether the current operation mode is the search mode or the interlock mode. If the operation mode is the search mode, the process proceeds to step S3030. If the operation mode is the interlock mode, the process proceeds to step S3070. Note that the operation mode in the initial state of the present embodiment is the search mode.

(S3030:探索モードにおける画像の生成及び表示)
ステップS3030において、情報処理装置100は、探索モードにおける画像の生成及び表示を行う。本ステップの処理の詳細は、図4に示すフローチャートを用いて後に詳しく説明する。
(S3030: Generation and display of image in search mode)
In step S3030, the information processing apparatus 100 generates and displays an image in the search mode. Details of the processing in this step will be described later in detail using the flowchart shown in FIG.

次に、情報処理装置100は、以下の処理(ステップS3040及びS3050)によって、超音波断層画像上における対応病変部の位置を操作者が指定した場合に、注目病変部の位置と対応病変部が実際に存在する位置との間のずれの補正を行う。   Next, when the operator designates the position of the corresponding lesion on the ultrasonic tomographic image by the following processing (steps S3040 and S3050), the information processing apparatus 100 determines the position of the target lesion and the corresponding lesion. Correction of deviation from the actual position is performed.

(S3040:断層画像上の対応病変部の位置の指定)
ステップS3040において、情報処理装置100は、位置姿勢取得部112の処理として、超音波断層画像上の対応病変部の位置が指定されたか否かの判定を行う。対応病変部の位置は、例えば、表示部160に表示された超音波断層画像上の対応病変部の位置を、操作者がマウス1005でクリックすることによって指定する。対応病変部の位置が指定された場合には、超音波断層画像上における対応病変部の位置と、超音波断層画像の位置姿勢に基づいて、MRI装置座標系における対応病変部の位置を算出する。そして、ステップS3050へと処理を進める。一方、位置が指定されていない場合には、ステップS3100へと処理を進める。例えば、超音波断層画像上に対応病変部が表示されていない場合には、ユーザは位置を指定せずに、S3010で再度超音波断層画像を取得する。
(S3040: designation of position of corresponding lesion on tomographic image)
In step S3040, the information processing apparatus 100 determines whether or not the position of the corresponding lesion on the ultrasonic tomographic image has been designated as the processing of the position / orientation acquisition unit 112. For example, the position of the corresponding lesion part is designated by the operator clicking the position of the corresponding lesion part on the ultrasonic tomographic image displayed on the display unit 160 with the mouse 1005. When the position of the corresponding lesion is designated, the position of the corresponding lesion in the MRI apparatus coordinate system is calculated based on the position of the corresponding lesion on the ultrasonic tomographic image and the position and orientation of the ultrasonic tomographic image. . Then, the process proceeds to step S3050. On the other hand, if the position is not designated, the process proceeds to step S3100. For example, if the corresponding lesion is not displayed on the ultrasonic tomographic image, the user acquires the ultrasonic tomographic image again in S3010 without designating the position.

(S3050:補正値の算出)
ステップS3050において、情報処理装置100は、位置姿勢取得部112の処理として、ステップS3040で取得した対応病変部の位置と、ステップS3000で取得した注目病変部の位置との間のオフセット(補正値)を算出する。そして、この値を位置合わせの補正パラメータとしてメモリに保持する。なお、位置姿勢取得部112は、補正パラメータを保持している場合には、S3010で新たに取得した超音波断層画像をMRI装置座標系に変換し、該変換した座標系における超音波断層画像の位置を補正パラメータ(オフセット)分だけ補正する(差し引く)。これにより、位置姿勢センサの計測誤差や被検体の変形などの影響を補正することができる。
(S3050: Calculation of correction value)
In step S3050, the information processing apparatus 100 performs an offset (correction value) between the position of the corresponding lesion part acquired in step S3040 and the position of the target lesion part acquired in step S3000 as processing of the position / orientation acquisition unit 112. Is calculated. This value is stored in the memory as a correction parameter for alignment. If the position / orientation acquisition unit 112 holds the correction parameter, the position / orientation acquisition unit 112 converts the ultrasonic tomographic image newly acquired in S3010 to the MRI apparatus coordinate system, and converts the ultrasonic tomographic image in the converted coordinate system. The position is corrected (subtracted) by the correction parameter (offset). Thereby, it is possible to correct the influence of the measurement error of the position and orientation sensor and the deformation of the subject.

(S3060:探索モードから連動モードへの切り替え)
ステップS3060において、情報処理装置100は、システムの操作モードを探索モードから連動モードに切り替え、ステップS3100へと処理を進める。このモードの場合、超音波断層画像から位置を指定する工程を経ずに、上記補正された超音波断層画像を取得し続けることができる。例えば、ユーザが手術で切除する病変の大きさを知る必要がある場合に、病変の広がり具合を観察したいことがある。この場合、補正された超音波断層画像により対応病変部の周辺を観察することができるので、便利である。
(S3060: Switching from search mode to interlocking mode)
In step S3060, the information processing apparatus 100 switches the operation mode of the system from the search mode to the interlock mode, and advances the process to step S3100. In this mode, the corrected ultrasonic tomographic image can be continuously acquired without going through the step of specifying the position from the ultrasonic tomographic image. For example, when the user needs to know the size of a lesion to be excised by surgery, the user may want to observe the extent of the lesion. In this case, the periphery of the corresponding lesion can be observed with the corrected ultrasonic tomographic image, which is convenient.

(S3070:連動モードにおける画像の生成及び表示)
ステップS3070において、情報処理装置100は、連動モードにおける画像の生成及び表示を行う。具体的には、断面画像生成部130の処理として、ステップS3010で得た超音波断層画像の位置姿勢に基づき、当該断層画像と同じ断面を三次元ボリュームデータから切り出した断面画像を生成する。そして、画像合成部140の処理として、ステップS3010で得た超音波断層画像と、ステップS6030で得た断面画像とを合成する。例えば、これらの画像を左右に並べた画像を生成する。このとき、断面画像の平面内に注目病変部の位置が含まれる場合には、超音波断層画像と断面画像の夫々の対応する位置に、注目病変部を表す矩形マーク等を重畳して描画する。また、表示制御部150の処理として、合成した画像を表示部160に表示する。
(S3070: Generation and display of image in linked mode)
In step S3070, the information processing apparatus 100 generates and displays an image in the interlock mode. Specifically, as the processing of the cross-sectional image generation unit 130, based on the position and orientation of the ultrasonic tomographic image obtained in step S3010, a cross-sectional image obtained by cutting out the same cross section as the tomographic image from the three-dimensional volume data is generated. Then, as the processing of the image composition unit 140, the ultrasonic tomographic image obtained in step S3010 and the cross-sectional image obtained in step S6030 are synthesized. For example, an image in which these images are arranged side by side is generated. At this time, when the position of the lesion of interest is included in the plane of the cross-sectional image, a rectangular mark or the like representing the lesion of interest is superimposed and drawn at a corresponding position in the ultrasonic tomographic image and the slice image. . Further, as a process of the display control unit 150, the synthesized image is displayed on the display unit 160.

(S3080:連動モードから探索モードに切り替えるか否かの判定)
ステップS3080において、情報処理装置100は、システムの操作モードを連動モードから探索モードに切り替えるか否かの判定を行う。例えば、操作者がキーボード1004の所定のキー(操作モード切替キー)を押すなどして入力した切り替えの指示を取得する。そして、操作モードを切り替えると判定した場合にはステップS3090へと処理を進め、切り替えないと判定した場合にはS3100へと処理を進める。例えば、対応病変部の画像と類似する画像が表示されている場合、ユーザがS3040で実際の対応病変部とは異なる領域を指定している可能性がある。このような場合、ユーザは、連動モードで再度取得した超音波断層画像により対応病変部の周辺を観察して、もし実際の対応病変部に気がついた場合には、S3080で探索モードに切り替えて、対応病変部の位置を取得し直すことができる。
(S3080: Determination of whether or not to switch from the interlock mode to the search mode)
In step S3080, the information processing apparatus 100 determines whether to switch the system operation mode from the interlock mode to the search mode. For example, the switching instruction input by the operator pressing a predetermined key (operation mode switching key) on the keyboard 1004 is acquired. If it is determined that the operation mode is to be switched, the process proceeds to step S3090. If it is determined that the operation mode is not to be switched, the process proceeds to S3100. For example, when an image similar to the image of the corresponding lesion is displayed, there is a possibility that the user designates a region different from the actual corresponding lesion in S3040. In such a case, the user observes the periphery of the corresponding lesioned part by using the ultrasonic tomographic image acquired again in the interlock mode. If the user notices the actual corresponding lesioned part, the user switches to the search mode in S3080, The position of the corresponding lesion can be reacquired.

(S3090:連動モードから探索モードへの切り替え)
ステップS3090において、情報処理装置100は、システムの操作モードを連動モードから探索モードに切り替え、ステップS3100へと処理を進める。
(S3090: Switch from linked mode to search mode)
In step S3090, the information processing apparatus 100 switches the operation mode of the system from the interlock mode to the search mode, and advances the process to step S3100.

(S3100:全体の処理を終了するか否かの判定)
ステップS3100において、情報処理装置100は、全体の処理を終了するか否かの判定を行う。例えば、キーボード1004の所定のキー(終了キー)を操作者が押すなどして入力した終了の指示を取得する。終了すると判定した場合には、情報処理装置100の処理の全体を終了させる。一方、終了すると判定しなかった場合には、ステップS3010へと処理を戻し、新たに撮像される超音波断層画像に対して、ステップS3010以降の処理を再度実行する。
(S3100: Determination of whether to end the entire process)
In step S3100, the information processing apparatus 100 determines whether to end the entire process. For example, an end instruction input by an operator pressing a predetermined key (end key) on the keyboard 1004 is acquired. When it is determined that the processing is to be ended, the entire processing of the information processing apparatus 100 is ended. On the other hand, if it is not determined that the process is to be terminated, the process returns to step S3010, and the processes after step S3010 are executed again on the newly acquired ultrasonic tomographic image.

以上によって、情報処理装置100の処理が実行される。   As described above, the process of the information processing apparatus 100 is executed.

(探索モードにおける画像の生成及び表示)
次に、ステップS3030において情報処理装置100が行う、探索モードにおける表示画像の生成処理の詳細を、図4のフローチャートを用いて説明する。
(Generation and display of images in search mode)
Next, details of the display image generation processing in the search mode performed by the information processing apparatus 100 in step S3030 will be described with reference to the flowchart of FIG.

(S4000:断面画像の取得)
ステップS4000において、情報処理装置100は、断面画像生成部130の処理として、ステップS3000で得た三次元ボリュームデータおよび注目病変部の位置と、ステップS3010で得た超音波断層画像の位置姿勢とに基づき、探索モードにおける断面画像を生成する。
(S4000: Acquisition of cross-sectional image)
In step S4000, the information processing apparatus 100 performs processing by the cross-sectional image generation unit 130 on the three-dimensional volume data and the position of the lesion of interest obtained in step S3000 and the position and orientation of the ultrasonic tomographic image obtained in step S3010. Based on this, a cross-sectional image in the search mode is generated.

はじめに、断面画像生成部130は、注目病変部の位置と超音波断層画像の姿勢に基づく断面(平面)を算出する。具体的には、まず、断面座標系(断面の位置姿勢を表す座標系)の位置姿勢を初期化する。次に、断面の姿勢が超音波断層画像の姿勢と一致するように、断面を回転させる。そして、注目病変部が断面上に位置するように、断面を並行移動させる。以上によって算出された断面は、注目病変部を面内に含んで(すなわち、断面を表す平面が注目病変部を通って)、かつ、超音波断層画像と同一の姿勢を有する(超音波断層画像と平行な)断面となる。最後に、断面上において断面画像を生成する範囲を算出する。例えば、超音波断層画像の位置姿勢に基づいて超音波断層画像の4隅の点の位置を算出し、夫々の点から上記断面に下ろした垂線の足からなる4点によって、生成する断面画像の範囲を決定する。これにより、超音波断層画像の姿勢を動かしても、断面画像の姿勢も連動して動くため、ユーザは観察し易い。   First, the cross-sectional image generation unit 130 calculates a cross-section (plane) based on the position of the target lesion and the posture of the ultrasonic tomographic image. Specifically, first, the position and orientation of the cross-sectional coordinate system (coordinate system representing the position and orientation of the cross section) are initialized. Next, the cross section is rotated so that the posture of the cross section matches the posture of the ultrasonic tomographic image. Then, the cross section is moved in parallel so that the target lesion is located on the cross section. The cross section calculated as described above includes the lesion of interest in the plane (that is, the plane representing the cross section passes through the lesion of interest) and has the same posture as the ultrasound tomographic image (ultrasound tomographic image). (In parallel). Finally, a range for generating a cross-sectional image on the cross-section is calculated. For example, the positions of the four corner points of the ultrasonic tomographic image are calculated based on the position and orientation of the ultrasonic tomographic image, and the generated cross-sectional image is composed of four points consisting of perpendicular feet drawn from the respective points to the cross section. Determine the range. As a result, even if the posture of the ultrasonic tomographic image is moved, the posture of the cross-sectional image also moves in conjunction with each other, so that the user can easily observe.

最後に、断面画像生成部130は、上記で求めた断面に対応する画像を、三次元ボリュームデータから切り出して生成する。なお、指定した断面の画像を三次元ボリュームデータから切り出して生成する方法については周知であるので、その詳細に関する説明は省略する。   Finally, the cross-sectional image generation unit 130 generates an image corresponding to the cross section obtained above by cutting it out from the three-dimensional volume data. Note that a method for cutting out and generating a specified cross-sectional image from the three-dimensional volume data is well known, and a detailed description thereof will be omitted.

(S4010:注目病変部の存在範囲の取得)
ステップS4010において、情報処理装置100は、存在範囲算出部135の処理として、ステップS3010で得た超音波断層画像上における対応病変部の存在範囲を算出する。本実施形態において、3次元空間中における対応病変部の存在範囲は、ステップS3000で得た注目病変の位置が中心で、S3015で得た誤差推定値が半径である球として定義される。また、超音波断層画像上における対応病変部の存在範囲は、3次元空間中における対応病変部の存在範囲を表わす球と当該断層画像とが交差する領域(球の断面)である円として定義される。したがって、画像合成部140は、超音波断層画像上におけるこの円の中心位置と半径を算出する。なお、3次元空間中で定義される球と平面との交差領域の算出方法は周知のものであるので、その説明は省略する。なお、存在範囲を表す球と超音波断層画像が交差しない場合には、「断面上に存在範囲はない」という情報が保存される。
(S4010: Acquisition of the presence range of the target lesion)
In step S4010, the information processing apparatus 100 calculates the existence range of the corresponding lesion portion on the ultrasonic tomographic image obtained in step S3010 as the processing of the existence range calculation unit 135. In the present embodiment, the existence range of the corresponding lesion portion in the three-dimensional space is defined as a sphere centered on the position of the target lesion obtained in step S3000 and the error estimated value obtained in step S3015 is a radius. In addition, the existence range of the corresponding lesion part on the ultrasonic tomographic image is defined as a circle that is a region (cross section of the sphere) where the sphere representing the existence range of the corresponding lesion part in the three-dimensional space and the tomographic image intersect. The Therefore, the image composition unit 140 calculates the center position and radius of this circle on the ultrasonic tomographic image. In addition, since the calculation method of the intersection area | region of the sphere and plane defined in three-dimensional space is a well-known thing, the description is abbreviate | omitted. If the sphere representing the existence range and the ultrasonic tomographic image do not intersect, information that “there is no existence range on the cross section” is stored.

(S4020:断層画像に注目病変部の存在範囲を描画)
ステップS4020において、情報処理装置100は、画像合成部140の処理として、ステップS4010で算出した超音波断層画像上における対応病変部の存在範囲を表す情報を、当該超音波画像上に重畳して描画する。このとき、対応病変部の存在し得る範囲を円で表示し、その円の外側に半透明のマスクをかけ、内側の超音波断層画像を通常通りに表示させることが好ましい。これにより、実際の対応病変部を探索する探索領域が明確になる。また、ユーザが実際の対応病変部を探索し易いので、効率良く探索できる。また、対応病変部の存在し得る範囲を円のラインのみで描画しても良い。また、対応病変部の存在し得る範囲の内側に色を付ける場合には、探索できる程度に透明な色を付けることが好ましい。本ステップの処理の結果として、図5(a)に示すような、対応病変部501の存在範囲502が断層画像上に重畳された超音波断層画像503が生成される。なお、ステップS4010において「断面上に存在範囲はない」と判定され場合には、本ステップの処理は実行されない。
(S4020: Draw the existence range of the lesion of interest on the tomographic image)
In step S4020, the information processing apparatus 100 superimposes and draws information representing the existence range of the corresponding lesion on the ultrasonic tomographic image calculated in step S4010 on the ultrasonic image as processing of the image synthesis unit 140. To do. At this time, it is preferable to display a range where the corresponding lesion can exist in a circle, put a translucent mask on the outside of the circle, and display the inner ultrasonic tomographic image as usual. As a result, a search area for searching for an actual corresponding lesion is clarified. In addition, since the user can easily search for an actual corresponding lesion, it can be searched efficiently. Further, the range in which the corresponding lesioned part may exist may be drawn using only a circle line. In addition, when coloring inside the range where the corresponding lesion can exist, it is preferable to add a color that is transparent enough to be searched. As a result of the processing in this step, an ultrasonic tomographic image 503 in which the existence range 502 of the corresponding lesion 501 is superimposed on the tomographic image as shown in FIG. 5A is generated. If it is determined in step S4010 that “there is no existing area on the cross section”, the process in this step is not executed.

(S4030:断層画像と断面画像を合成)
ステップS4030において、情報処理装置100は、画像合成部140の処理として、ステップS4000で得た断面画像と、ステップS4020で得た超音波断層画像(正確には、対応病変部の存在範囲が断層画像上に重畳された画像)を合成した画像を生成する。例えば、これらの画像を左右に並べた画像を生成する。そして、表示制御部150の処理として、合成した画像を表示部160に表示する。また、必要に応じて、I/F1009を介してこれを外部へと出力し、さらに、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。
(S4030: Compositing a tomographic image and a cross-sectional image)
In step S4030, the information processing apparatus 100 performs processing by the image composition unit 140 as a cross-sectional image obtained in step S4000 and an ultrasonic tomographic image obtained in step S4020 (more precisely, the existence range of the corresponding lesion part is a tomographic image. An image obtained by synthesizing the image superimposed on the image is generated. For example, an image in which these images are arranged side by side is generated. Then, as a process of the display control unit 150, the synthesized image is displayed on the display unit 160. Further, if necessary, this is output to the outside via the I / F 1009 and further stored in the RAM 1002 as a state usable by other applications.

以上によって、超音波断層画像と同じ姿勢で注目病変部を含む断面画像と、対応病変部の存在範囲が描画された超音波断層画像との合成画像が、操作者に提示される。   As described above, a composite image of the cross-sectional image including the lesion of interest in the same posture as the ultrasound tomographic image and the ultrasound tomographic image in which the existence range of the corresponding lesion is drawn is presented to the operator.

以上のように、本実施形態に係る情報処理装置によると、操作者が対応病変部を探索する際の目安として、位置合わせの誤差を考慮した対応病変部の存在範囲が超音波断層画像上に提示される。その結果、必要以上に広い範囲を探してしまうという操作者の不要な作業を減らし、探索の作業負荷を軽減することができる。また、探索の範囲を限定できるので、操作者が誤った対応付けを行ってしまう危険性を軽減することができる。   As described above, according to the information processing apparatus according to the present embodiment, the existence range of the corresponding lesion part in consideration of the alignment error is displayed on the ultrasonic tomographic image as a guide when the operator searches for the corresponding lesion part. Presented. As a result, the operator's unnecessary work of searching a wider range than necessary can be reduced, and the search work load can be reduced. In addition, since the search range can be limited, it is possible to reduce the risk of an operator performing an incorrect association.

なお、上記の実施形態では、対応病変部の存在範囲を超音波断層画像上に重畳して提示する際に、MRIの断面画像として超音波断層画像と同じ姿勢で注目病変部を含む断面画像を提示していた。しかし、提示するMRIの断面画像はその他の形態であってもよい。例えば、本実施形態の連動モードと同様に、超音波断層画像の位置と姿勢の両方と連動した(超音波断層画像と同一の断面を切り出した)断面画像を表示してもよい。また、医師が指定したMRIの断面画像を静止画像として(姿勢を連動させずに)表示してもよい。例えば、医師が注目病変部を指摘した際のMRIの断面画像を表示してもよい。また、MRIの断面画像は必ずしも表示しなくてもよい。   In the above-described embodiment, when the existence range of the corresponding lesion is superimposed and presented on the ultrasonic tomographic image, a cross-sectional image including the lesion of interest in the same posture as the ultrasonic tomographic image is obtained as an MRI cross-sectional image. Was presenting. However, the presented MRI cross-sectional image may be in other forms. For example, as in the interlocking mode of the present embodiment, a cross-sectional image that is interlocked with both the position and orientation of the ultrasonic tomographic image (the same cross section as the ultrasonic tomographic image is cut out) may be displayed. Further, the MRI cross-sectional image designated by the doctor may be displayed as a still image (without linking the posture). For example, an MRI cross-sectional image when the doctor points out the lesion of interest may be displayed. Further, the MRI cross-sectional image is not necessarily displayed.

また、超音波断層画像の位置と姿勢の両方と連動した断面画像を表示する場合、注目病変部の数は複数であってもよい。この場合、夫々の注目病変部に関して3次元空間中における対応病変部の存在範囲が球として定義されるので、夫々の球と超音波断層画像の交差領域を求め、当該断層画像上での対応病変部の存在範囲として表示してもよい。   Moreover, when displaying the cross-sectional image interlock | cooperated with both the position and attitude | position of an ultrasonic tomographic image, the number of attention lesion parts may be plural. In this case, since the existence range of the corresponding lesion part in the three-dimensional space is defined as a sphere with respect to each target lesion part, an intersection region between each sphere and the ultrasonic tomographic image is obtained, and the corresponding lesion on the tomographic image is obtained. It may be displayed as a part existing range.

(第3の実施形態)
本実施形態に係る情報処理システムは、三次元画像データ(参照画像)中の注目領域(例えば、注目病変部)に対応する対応領域(対応病変部)が存在し得る領域を、実時間で撮影している超音波断層画像(対象画像)中に表示する。そうすることで、操作者(医師や技師)が超音波断層画像上で対応領域を容易に探索して同定できるようにする。以下、本実施形態に係る情報処理システムについて説明する。
(Third embodiment)
The information processing system according to the present embodiment captures, in real time, a region where a corresponding region (corresponding lesion) corresponding to a region of interest (for example, a target lesion) in 3D image data (reference image) can exist. Is displayed in the ultrasonic tomographic image (target image). By doing so, the operator (physician or engineer) can easily search and identify the corresponding region on the ultrasonic tomographic image. The information processing system according to this embodiment will be described below.

図7は、本実施形態に係る情報処理システムの構成を示す。同図に示すように、本実施形態における情報処理装置900は、断層画像取得部(二次元画像取得部とも呼ぶ。)910、位置姿勢取得部912、三次元画像データ取得部(三次元画像取得部とも呼ぶ。)920、注目領域取得部922、誤差取得部923、断面画像生成部(断面画像取得部とも呼ぶ。)930、存在範囲算出部935、画像合成部940、表示制御部950によって構成される。そして、三次元画像データや後に記述する誤差要因情報等を保持するデータサーバ990に接続されている。また、情報処理装置900は、被検体の超音波断層画像を撮像する第2医用画像収集装置980としての超音波画像診断装置にも接続されている。   FIG. 7 shows a configuration of the information processing system according to the present embodiment. As shown in the figure, an information processing apparatus 900 according to this embodiment includes a tomographic image acquisition unit (also referred to as a two-dimensional image acquisition unit) 910, a position and orientation acquisition unit 912, and a three-dimensional image data acquisition unit (three-dimensional image acquisition). 920, a region of interest acquisition unit 922, an error acquisition unit 923, a cross-sectional image generation unit (also referred to as a cross-sectional image acquisition unit) 930, an existence range calculation unit 935, an image composition unit 940, and a display control unit 950. Is done. It is connected to a data server 990 that holds 3D image data and error factor information described later. The information processing apparatus 900 is also connected to an ultrasonic image diagnostic apparatus as a second medical image collection apparatus 980 that captures an ultrasonic tomographic image of a subject.

(三次元画像データの取得)
データサーバ990が保持する三次元画像データは、第1医用画像収集装置970としてのMRI装置やX線CT装置などによって被検体を予め撮像して得られた画像である。なお、以下では第1医用画像収集装置970としてMRI装置を用いる場合を例として説明する。本実施例では、三次元画像データは、三次元のボクセルに輝度値を格納した三次元ボリュームデータとして表現されているものとする。また、各ボクセルの座標はMRI装置座標系で表現されているものとする。データサーバ990が保持する三次元画像データは、三次元画像データ取得部920により取得され、情報処理装置900に入力される。
(Acquisition of 3D image data)
The three-dimensional image data held by the data server 990 is an image obtained by imaging a subject in advance with an MRI apparatus or an X-ray CT apparatus as the first medical image acquisition apparatus 970. Hereinafter, a case where an MRI apparatus is used as the first medical image collection apparatus 970 will be described as an example. In this embodiment, it is assumed that the 3D image data is expressed as 3D volume data in which luminance values are stored in 3D voxels. The coordinates of each voxel are expressed in the MRI apparatus coordinate system. The 3D image data held by the data server 990 is acquired by the 3D image data acquisition unit 920 and input to the information processing apparatus 900.

(注目領域の取得)
さらに、データサーバ990は、三次元画像データ中の注目領域を表す情報(詳細は後述する)を保持している。データサーバ990が保持する注目領域を表す情報は、注目領域取得部922により取得され、情報処理装置900に入力される。なお、以下の説明では、注目領域を表す情報も、三次元画像データと同様にMRI装置座標系で表されているものとする。
(Obtain attention area)
Furthermore, the data server 990 holds information (details will be described later) representing a region of interest in the 3D image data. Information representing the attention area held by the data server 990 is acquired by the attention area acquisition unit 922 and input to the information processing apparatus 900. In the following description, it is assumed that the information indicating the region of interest is also expressed in the MRI apparatus coordinate system, like the three-dimensional image data.

(断層画像の取得)
第2医用画像収集装置980としての超音波画像診断装置は、被検体の超音波断層画像を実時間で撮像する。超音波断層画像は、断層画像取得部910により取得され、情報処理装置900に逐次入力される。また、超音波探触子の位置姿勢は不図示の位置姿勢センサで計測され、位置姿勢取得部912により取得されて、情報処理装置900に入力される。ここで、超音波探触子の位置姿勢は、例えば被検体を基準とした基準座標系における位置姿勢で表されている。また、位置姿勢取得部912は、基準座標系における超音波探触子の位置姿勢を取得して、これに基づいてMRI装置座標系における超音波断層画像の位置姿勢を算出する。
(Acquisition of tomographic images)
The ultrasonic diagnostic imaging apparatus as the second medical image acquisition apparatus 980 captures an ultrasonic tomographic image of a subject in real time. The ultrasonic tomographic image is acquired by the tomographic image acquisition unit 910 and is sequentially input to the information processing apparatus 900. Further, the position and orientation of the ultrasonic probe are measured by a position and orientation sensor (not shown), acquired by the position and orientation acquisition unit 912, and input to the information processing apparatus 900. Here, the position and orientation of the ultrasonic probe are represented by the position and orientation in a reference coordinate system with the subject as a reference, for example. Further, the position / orientation acquisition unit 912 acquires the position / orientation of the ultrasonic probe in the reference coordinate system, and calculates the position / orientation of the ultrasonic tomographic image in the MRI apparatus coordinate system based on the acquired position / orientation.

(存在範囲の算出)
存在範囲算出部935は、注目領域取得部922が取得した注目領域を表す情報と、位置姿勢取得部912が取得した超音波断層画像の位置姿勢とに基づいて、注目領域に対応する領域(対応領域)を超音波座標系上で推定する。ここで超音波座標系とは、超音波断層画像を基準とした3次元座標系であり、例えば、該断層画像上の1点を原点として、該断層画像の平面上にx軸とy軸を設定し、該平面に直交する方向にz軸を設定した座標系として定義できる。そして、この推定した対応領域と、後述する誤差取得部923で取得する誤差推定値とに基づいて、超音波断層画像上における対応領域の存在範囲(第二の領域)を算出する。
(Calculation of existence range)
The existence range calculation unit 935 generates a region (corresponding to the attention region) based on the information indicating the attention region acquired by the attention region acquisition unit 922 and the position and orientation of the ultrasonic tomographic image acquired by the position and orientation acquisition unit 912. Region) is estimated on the ultrasonic coordinate system. Here, the ultrasonic coordinate system is a three-dimensional coordinate system based on the ultrasonic tomographic image. For example, the x-axis and the y-axis are set on the plane of the tomographic image with one point on the tomographic image as the origin. It can be defined as a coordinate system in which the z axis is set in a direction perpendicular to the plane. Then, based on the estimated corresponding area and an error estimated value acquired by an error acquisition unit 923 described later, an existence range (second area) of the corresponding area on the ultrasonic tomographic image is calculated.

(誤差推定値の取得)
データサーバ990は、前述した情報に加えて、対応領域の誤差推定値を算出するための情報(誤差要因情報。詳細は後述する。)を保持している。ここで、誤差要因情報とは、言い換えれば、超音波断層画像上における対応領域の存在範囲を算出するための情報である。データサーバ990が保持する誤差要因情報は、誤差取得部923を介して情報処理装置900に入力される。誤差取得部923は、取得した誤差要因情報に基づいて対応領域の誤差推定値を算出する。そして、算出した誤差推定値を存在範囲算出部935へと出力する。
(Acquire error estimate)
In addition to the information described above, the data server 990 holds information (error factor information; details will be described later) for calculating an estimated error value of the corresponding region. Here, the error factor information is, in other words, information for calculating the existence range of the corresponding region on the ultrasonic tomographic image. The error factor information held by the data server 990 is input to the information processing apparatus 900 via the error acquisition unit 923. The error acquisition unit 923 calculates an error estimation value for the corresponding region based on the acquired error factor information. Then, the calculated error estimation value is output to the existence range calculation unit 935.

(断面画像の生成)
断面画像生成部930は、三次元画像データ取得部920の出力である三次元ボリュームデータと、位置姿勢取得部912の出力である超音波断層画像の位置姿勢を入力する。そして、これらのデータに基づいて、超音波断層画像に対応する断面画像を三次元ボリュームデータから生成して、画像合成部940へと出力する。画像合成部940は、対応病変部の存在範囲(第二の領域)を示す情報を存在範囲算出部935から取得して、断層画像取得部910から取得した超音波断層画像上に重畳して描画する。さらに、その画像と、断面画像生成部930から取得した断面画像とを合成した(例えば左右に並べた)合成画像を生成して、これを表示制御部950あるいは外部へと出力する。表示制御部950は、画像合成部940の出力である合成画像を取得し、これを表示部960に表示する。
(Cross section image generation)
The cross-sectional image generation unit 930 receives the 3D volume data that is the output of the 3D image data acquisition unit 920 and the position and orientation of the ultrasonic tomographic image that is the output of the position and orientation acquisition unit 912. Based on these data, a cross-sectional image corresponding to the ultrasonic tomographic image is generated from the three-dimensional volume data and output to the image composition unit 940. The image composition unit 940 obtains information indicating the existence range (second region) of the corresponding lesion part from the existence range calculation unit 935 and superimposes it on the ultrasonic tomographic image obtained from the tomographic image acquisition unit 910 for drawing. To do. Further, a composite image obtained by combining the image and the cross-sectional image acquired from the cross-sectional image generation unit 930 (for example, arranged side by side) is generated and output to the display control unit 950 or the outside. The display control unit 950 acquires the composite image that is the output of the image composition unit 940 and displays it on the display unit 960.

なお、図7に示した各部(断層画像取得部910、位置姿勢取得部912、三次元画像データ取得部920、注目領域取得部922、誤差取得部923、断面画像生成部930、存在範囲算出部935、画像合成部940、表示制御部950)の少なくとも一部は、独立した装置として実現してもよい。または、夫々一つもしくは複数のコンピュータにインストールし、コンピュータのCPUにより実行することで、その機能を実現するソフトウェアとして実現してもよい。本実施形態では、各部はそれぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。   7 (tomographic image acquisition unit 910, position and orientation acquisition unit 912, three-dimensional image data acquisition unit 920, attention area acquisition unit 922, error acquisition unit 923, cross-sectional image generation unit 930, existence range calculation unit 935, the image composition unit 940, and the display control unit 950) may be realized as independent devices. Alternatively, it may be implemented as software that implements its function by installing it on one or a plurality of computers and executing it by the CPU of the computer. In the present embodiment, each unit is realized by software and installed in the same computer.

(コンピュータの基本構成)
図17は、断層画像取得部910、位置姿勢取得部912、三次元画像データ取得部920、注目領域取得部922、誤差取得部923、断面画像生成部930、存在範囲算出部935、画像合成部940、表示制御部950の夫々の機能を、ソフトウェアを実行することで実現するためのコンピュータの基本構成を示す図である。
(Basic computer configuration)
FIG. 17 illustrates a tomographic image acquisition unit 910, a position / orientation acquisition unit 912, a three-dimensional image data acquisition unit 920, an attention area acquisition unit 922, an error acquisition unit 923, a cross-sectional image generation unit 930, an existence range calculation unit 935, and an image synthesis unit. 940 is a diagram illustrating a basic configuration of a computer for realizing the functions of the display control unit 950 by executing software. FIG.

CPU1001は、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行う。また、断層画像取得部910、位置姿勢取得部912、三次元画像データ取得部920、注目領域取得部922、誤差取得部923、断面画像生成部930、存在範囲算出部935、画像合成部940、表示制御部950の夫々におけるソフトウェアの実行を制御して、各部の機能を実現する。   The CPU 1001 controls the entire computer using programs and data stored in the RAM 1002 and the ROM 1003. In addition, the tomographic image acquisition unit 910, the position / orientation acquisition unit 912, the 3D image data acquisition unit 920, the attention area acquisition unit 922, the error acquisition unit 923, the cross-sectional image generation unit 930, the existence range calculation unit 935, the image composition unit 940, The execution of software in each of the display control units 950 is controlled to realize the function of each unit.

RAM1002は、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。   The RAM 1002 includes an area for temporarily storing programs and data loaded from the external storage device 1007 and the storage medium drive 1008, and a work area required for the CPU 1001 to perform various processes.

ROM1003は、一般にコンピュータのプログラムや設定データなどが格納されている。キーボード1004、マウス1005は入力デバイスであり、操作者はこれらを用いて、各種の指示をCPU1001に入力することができる。   The ROM 1003 generally stores computer programs and setting data. A keyboard 1004 and a mouse 1005 are input devices, and an operator can input various instructions to the CPU 1001 using these devices.

表示部1006は、CRTや液晶ディスプレイなどにより構成されており、表示部960がこれに相当する。表示部1006は、画像合成部940が生成する合成画像の他に、画像処理のために表示すべきメッセージやGUI等を表示することができる。   The display unit 1006 includes a CRT, a liquid crystal display, or the like, and the display unit 960 corresponds to this. The display unit 1006 can display a message to be displayed for image processing, a GUI, and the like in addition to the composite image generated by the image composition unit 940.

外部記憶装置1007は、ハードディスクドライブなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やCPU1001が実行するプログラム等を保存する。また本実施形態の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。   The external storage device 1007 is a device that functions as a large-capacity information storage device such as a hard disk drive, and stores an OS (operating system), a program executed by the CPU 1001, and the like. In the description of the present embodiment, information that is described as being known is stored here, and loaded into the RAM 1002 as necessary.

記憶媒体ドライブ1008は、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。   The storage medium drive 1008 reads a program or data stored in a storage medium such as a CD-ROM or DVD-ROM in accordance with an instruction from the CPU 1001 and outputs it to the RAM 1002 or the external storage device 1007.

I/F1009は、アナログビデオポートあるいはIEEE1394等のデジタル入出力ポートや、合成画像などの情報を外部へ出力するためのイーサネット(登録商標)ポート等によって構成される。夫々が入力したデータはI/F1009を介してRAM1002に取り込まれる。断層画像取得部910、位置姿勢取得部912、三次元画像データ取得部920、注目領域取得部922、および誤差取得部923の機能の一部は、I/F1009によって実現される。   The I / F 1009 includes an analog video port or a digital input / output port such as IEEE 1394, an Ethernet (registered trademark) port for outputting information such as a composite image to the outside, and the like. The data input by each is taken into the RAM 1002 via the I / F 1009. Some of the functions of the tomographic image acquisition unit 910, position and orientation acquisition unit 912, 3D image data acquisition unit 920, attention area acquisition unit 922, and error acquisition unit 923 are realized by the I / F 1009.

上述した各構成要素は、バス1010によって相互に接続される。   The above-described components are connected to each other by a bus 1010.

図9は、情報処理装置900が行う全体の処理手順を示すフローチャートである。同フローチャートは、本実施形態ではCPU1001が各部の機能を実現するプログラムを実行することにより実現される。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、例えば外部記憶装置1007からRAM1002に既にロードされているものとする。   FIG. 9 is a flowchart illustrating an overall processing procedure performed by the information processing apparatus 900. In the present embodiment, the flowchart is realized by the CPU 1001 executing a program that realizes the function of each unit. It is assumed that the program code according to the flowchart is already loaded from, for example, the external storage device 1007 to the RAM 1002 in the previous stage of performing the following processing.

(S11000:データの入力)
ステップS11000において、情報処理装置900は、三次元画像データ取得部920の処理として、データサーバ990から三次元画像データを取得する。また、注目領域取得部922の処理として、データサーバ990から注目領域を表す情報を取得する。ここで、注目領域を表す情報とは、例えば、注目病変部の位置(領域の重心位置)や、注目病変部の領域境界に位置する点群の座標である。
(S11000: Data input)
In step S <b> 11000, the information processing apparatus 900 acquires 3D image data from the data server 990 as processing of the 3D image data acquisition unit 920. Further, as processing of the attention area acquisition unit 922, information representing the attention area is acquired from the data server 990. Here, the information indicating the attention area is, for example, the position of the attention lesion (the position of the center of gravity of the area) or the coordinates of the point group located at the area boundary of the attention lesion.

(S11010:誤差要因情報の入力)
ステップS11010において、情報処理装置900は、誤差取得部923の処理として、誤差推定値の算出に用いる各種の誤差要因情報(後述)をデータサーバ990から取得する。
(S11010: Input of error factor information)
In step S <b> 11010, the information processing apparatus 900 acquires, from the data server 990, various error factor information (described later) used for calculation of an error estimated value as processing of the error acquisition unit 923.

(S11020:断層画像の取得)
ステップS11020において、情報処理装置900は、断層画像取得部910の処理として、第2医用画像収集装置980から超音波断層画像を取得する。また、位置姿勢取得部912の処理として、上記超音波断層画像を撮像した際の超音波探触子の位置姿勢を第2医用画像収集装置980から取得する。そして、既知の値として予め記憶している校正データを利用して、基準座標系における超音波探触子の位置姿勢から、MRI装置座標系における超音波断層画像の位置姿勢を算出する。
(S11020: Acquisition of tomographic image)
In step S11020, the information processing apparatus 900 acquires an ultrasonic tomographic image from the second medical image acquisition apparatus 980 as processing of the tomographic image acquisition unit 910. Further, as the processing of the position / orientation acquisition unit 912, the position / orientation of the ultrasonic probe when the ultrasonic tomographic image is captured is acquired from the second medical image acquisition device 980. Then, using the calibration data stored in advance as known values, the position and orientation of the ultrasonic tomographic image in the MRI apparatus coordinate system are calculated from the position and orientation of the ultrasonic probe in the reference coordinate system.

(S11030:誤差推定値の取得)
ステップS11030において、情報処理装置900は、誤差取得部923の処理として、ステップS11010で取得した各種の誤差要因情報(誤差の算出に用いる各種データ)に基づいて、誤差推定値を算出する。
(S11030: Acquisition of error estimated value)
In step S11030, the information processing apparatus 900 calculates an error estimated value based on the various error factor information (various data used for error calculation) acquired in step S11010 as processing of the error acquisition unit 923.

本実施形態において、MRI装置座標系と基準座標系との間の関係は剛体変換により表すものとしている。しかし、MRI画像を撮影した際のMRI装置座標系に対する被検体の位置姿勢と、超音波撮影を行う際の基準座標系に対する被検体の位置姿勢は、必ずしも正しく剛体変換の関係にあるとは限らない。そのため、前記座標系の間の関係を剛体変換により表す場合には、誤差が混入する場合がある。また、仮に前記両座標系における被検体の位置姿勢の違いが、正に剛体変換の関係にあったとしても、現実的にはその剛体変換を正しく求めることは困難であり、やはり誤差が混入する場合がある。また、誤差には、位置姿勢取得部912が取得する位置姿勢計測値に混入する誤差(位置姿勢計測誤差)も含まれている。   In the present embodiment, the relationship between the MRI apparatus coordinate system and the reference coordinate system is expressed by rigid body transformation. However, the position and orientation of the subject with respect to the MRI apparatus coordinate system when the MRI image is captured and the position and orientation of the subject with respect to the reference coordinate system when performing ultrasonic imaging are not necessarily in a rigid body transformation relationship. Absent. Therefore, an error may be mixed when the relationship between the coordinate systems is expressed by rigid transformation. Further, even if the difference in position and orientation of the subject in the two coordinate systems is exactly related to rigid transformation, it is practically difficult to obtain the rigid transformation correctly, and errors are still mixed. There is a case. The error also includes an error (position and orientation measurement error) mixed in the position and orientation measurement value acquired by the position and orientation acquisition unit 912.

誤差推定値を算出する処理は、例えば第2医用画像収集装置980の超音波探触子の位置姿勢を計測する位置姿勢センサの特性等に基づいて実行することができる。例えば位置姿勢センサの計測方式毎に予め誤差の基準値を定めておき、使用するセンサの計測方式に応じて値を選択するようにできる。例えば、光学式センサに対して磁気式センサは一般に計測精度が低いため、光学式センサを使用しているという情報を誤差要因情報としてデータサーバ990から取得し、それに基づいて磁気式センサを使用している場合にくらべて小さい値として誤差推定値を算出するようにできる。また誤差推定値は、位置姿勢センサの計測方式の違いに限らず、位置姿勢センサの計測基準に対する空間的な位置や姿勢の関係に基づいて算出するようにできる。例えば、位置姿勢センサが磁気式のセンサにより構成される場合には、計測の基準となる磁気発生装置と超音波探触子との距離の関数として誤差の推定値を定義し、その距離が大きい場合には前記誤差推定値として大きな値を算出するようにできる。また位置姿勢センサが光学式センサにより構成される場合には、超音波探触子に配置された複数の指標(マーカ)の位置を光学式センサで計測し、それらの位置に基づいて超音波探触子の位置姿勢を算出している。ここで、計測の基準となる光学式センサから見た複数の指標の分布が偏っている場合には、位置姿勢の誤差が大きくなる。そこで、光学式センサと超音波探触子との距離の関数として誤差の推定値を定義し、その値が大きい場合には、前記誤差推定値として大きな値を算出するようにできる。また、光学式センサから超音波探触子に向かうベクトルと複数の指標が配置された面の法線方向とのなす角度の関数として誤算推定値を定義し、その値が大きい場合には、前記誤差推定値として大きな値を算出するようにできる。   The process of calculating the error estimation value can be executed based on, for example, the characteristics of a position / orientation sensor that measures the position / orientation of the ultrasonic probe of the second medical image acquisition device 980. For example, an error reference value can be determined in advance for each measurement method of the position and orientation sensor, and a value can be selected according to the measurement method of the sensor to be used. For example, since the measurement accuracy of a magnetic sensor is generally lower than that of an optical sensor, information indicating that the optical sensor is used is acquired from the data server 990 as error factor information, and the magnetic sensor is used based on the information. The estimated error value can be calculated as a small value compared to the case where Further, the error estimation value is not limited to the difference in the measurement method of the position / orientation sensor, and can be calculated based on the relationship between the spatial position and orientation with respect to the measurement reference of the position / orientation sensor. For example, when the position / orientation sensor is composed of a magnetic sensor, an estimated error value is defined as a function of the distance between the magnetism generation device that is a measurement reference and the ultrasonic probe, and the distance is large. In this case, a large value can be calculated as the error estimated value. When the position / orientation sensor is constituted by an optical sensor, the positions of a plurality of indices (markers) arranged on the ultrasonic probe are measured by the optical sensor, and the ultrasonic probe is detected based on these positions. The position and orientation of the tentacle are calculated. Here, when the distribution of a plurality of indices as viewed from the optical sensor that is the measurement reference is biased, the position and orientation error becomes large. Therefore, an estimated value of error is defined as a function of the distance between the optical sensor and the ultrasonic probe, and when the value is large, a large value can be calculated as the estimated error value. Further, when an error calculation estimated value is defined as a function of an angle formed by a vector from the optical sensor toward the ultrasonic probe and a normal direction of a surface on which a plurality of indices are arranged, and the value is large, A large value can be calculated as the error estimation value.

また誤差推定値は、注目病変部が存在する被検体における部位等に基づいて算出するようにできる。例えば、注目病変部が被検体の乳房などの軟組織に存在する場合には、MRI画像の撮影時点と、超音波画像の撮影時点とで被検体の当該部位に変形が生じることが想定される。したがって、そのような部位に注目病変部が存在する場合には、誤差推定値を大きく算出するようにできる。同様に心拍による位置の変動が大きい心臓および心臓近傍の領域、または呼吸による位置の変動が大きい、肺および肺近傍の領域では、誤差推定値を大きく算出するようにできる。具体的には、注目病変部が存在する被検体内における部位(臓器名や臓器内における位置)を表す情報と、前記部位と誤差の大きさとの対応を記したデータ(テーブル)を誤差要因情報として取得し、これらの情報に基づいて誤差推定値を算出することができる。   In addition, the error estimation value can be calculated based on a part or the like in the subject where the lesion of interest exists. For example, when the lesion of interest is present in a soft tissue such as the breast of the subject, it is assumed that deformation occurs in the relevant part of the subject between the time when the MRI image is captured and the time when the ultrasound image is captured. Therefore, when the target lesion part exists in such a part, the error estimated value can be calculated large. Similarly, a large error estimate can be calculated in the heart and a region in the vicinity of the heart where the position variation due to the heartbeat is large, or in the lung and the region near the lung where the position variation due to respiration is large. Specifically, information indicating a part (organ name or position in the organ) in the subject where the target lesion is present and data (table) describing correspondence between the part and the magnitude of the error are error factor information. And an error estimation value can be calculated based on these pieces of information.

また誤差推定値は、軸方向ごとに異なる値を算出するようにもできる。例えば、注目病変部が被検体の乳房などの軟組織に存在する場合、超音波探触子の操作方向には押しやりによる変形が生じやすいため、操作方向の誤差推定値を(操作方向と直交する2方向と比べて)大きく算出するようにできる。なお、超音波探触子の操作方向は、超音波探触子の現在と過去(例えば100ミリ秒前)の位置姿勢に基づいて、公知の方法で算出することができる。この場合、誤差推定値は、方向と大きさを表す3本の直交するベクトルとして表現される。   The error estimation value may be calculated as a different value for each axial direction. For example, when the lesion of interest is present in a soft tissue such as the breast of the subject, the operation direction of the ultrasonic probe is likely to be deformed by pushing, so the error estimation value in the operation direction is orthogonal to the operation direction. It can be calculated larger (compared to two directions). The operation direction of the ultrasonic probe can be calculated by a known method based on the current position and the past (for example, 100 milliseconds before) of the ultrasonic probe. In this case, the error estimation value is expressed as three orthogonal vectors representing the direction and the magnitude.

また、MRI装置座標系と基準座標系との校正を行う際に指標として用いた部位の位置等に関する情報を誤差要因情報として取得し、これらの部位と注目病変部との位置の関係に基づいて誤差推定値を算出するようにできる。例えば、前記校正に用いた指標が被検体の剣状突起である場合には、MRI画像中における剣状突起の位置と、注目病変部との距離の関数として、誤差推定値を算出するようにできる。同様に、乳頭の位置を校正の指標として用いた場合には、MRI画像中における乳頭と注目病変部との距離の関数として、誤差推定値を算出するようにできる。また、以上に例示した方法等を複数用いて複合的に誤差の推定を行い、誤差推定値を取得するようにしても良い。   Further, information on the position of the part used as an index when the MRI apparatus coordinate system and the reference coordinate system are calibrated is acquired as error factor information, and based on the positional relationship between these parts and the target lesion part. An error estimated value can be calculated. For example, if the index used for the calibration is the xiphoid process of the subject, an error estimation value is calculated as a function of the distance between the position of the xiphoid process in the MRI image and the lesion of interest. it can. Similarly, when the position of the nipple is used as a calibration index, an error estimated value can be calculated as a function of the distance between the nipple and the lesion of interest in the MRI image. In addition, an error estimation value may be acquired by performing multiple error estimations using a plurality of the methods exemplified above.

(S11040:断面画像の取得)
ステップS11040において、情報処理装置900は、断面画像生成部930の処理として、ステップS11020で得た超音波断層画像に対応する参照画像の断面画像を生成する。具体的には、ステップS11020で得た超音波断層画像の位置姿勢に基づき、ステップS11000で得た三次元ボリュームデータから該超音波断層画像と同じ断面を切り出した断面画像を生成する。
(S11040: Acquisition of cross-sectional image)
In step S11040, the information processing apparatus 900 generates a cross-sectional image of a reference image corresponding to the ultrasonic tomographic image obtained in step S11020 as processing of the cross-sectional image generation unit 930. Specifically, based on the position and orientation of the ultrasonic tomographic image obtained in step S11020, a cross-sectional image is generated by cutting out the same cross section as the ultrasonic tomographic image from the three-dimensional volume data obtained in step S11000.

(S11050:存在範囲の取得)
ステップS11050において、情報処理装置900は、存在範囲算出部935の処理として、ステップS11020で得た超音波断層画像上における対応領域の存在範囲を算出する。
(S11050: Acquisition of existence range)
In step S11050, the information processing apparatus 900 calculates the existence range of the corresponding region on the ultrasonic tomographic image obtained in step S11020 as the processing of the existence range calculation unit 935.

具体的には、存在範囲算出部935は、まず、超音波座標系における注目領域に対する対応領域を推定する。例えば、注目領域を表す情報として注目病変部の位置が与えられている場合には、対応領域を表す情報として、超音波座標系上における対応病変部の位置を推定する。また、注目領域を表す情報として注目病変部の領域境界に位置する点群の座標が与えられている場合には、対応領域を表す情報として、対応病変部の境界領域に位置する点群の座標を超音波座標系上で推定する。これらの推定は、位置姿勢取得部912が取得した超音波断層画像の位置姿勢に基づいて行うことができる。   Specifically, the existence range calculation unit 935 first estimates a corresponding area for the attention area in the ultrasonic coordinate system. For example, when the position of the target lesion is given as information representing the attention area, the position of the corresponding lesion on the ultrasonic coordinate system is estimated as information representing the corresponding area. In addition, when the coordinates of the point group located at the region boundary of the target lesion area are given as information representing the attention area, the coordinates of the point group located at the boundary area of the corresponding lesion section are used as information representing the corresponding area. Is estimated on the ultrasonic coordinate system. These estimations can be performed based on the position and orientation of the ultrasonic tomographic image acquired by the position and orientation acquisition unit 912.

次に、存在範囲算出部135は、上記で推定した対応領域とステップS11030で取得した誤差推定値とに基づいて、超音波断層画像上における対応領域の存在範囲を算出する。   Next, the existence range calculation unit 135 calculates the existence range of the corresponding region on the ultrasonic tomographic image based on the corresponding region estimated above and the error estimated value acquired in step S11030.

対応領域を表す情報が対応病変部の位置であって、かつ、誤差推定値が軸方向に依存していない場合には、超音波座標系における対応病変部の三次元の存在範囲は、推定した対応病変部の位置が中心で、誤差推定値が半径である球として定義される。また、超音波断層画像上における対応病変部の存在範囲は、当該球と当該断層画像とが交差する領域(球の断面)である円として定義される。したがって、存在範囲算出部935は、対応病変部の存在範囲として、超音波断層画像上におけるこの円の中心位置と半径を算出する。なお、3次元空間中で定義される球と平面との交差領域の算出方法は周知のものであるので、その説明は省略する。なお、当該球と当該断層画像が交差しない場合には、「断面上に存在範囲はない」という情報が保存される。   When the information indicating the corresponding region is the position of the corresponding lesion and the error estimation value does not depend on the axial direction, the three-dimensional existence range of the corresponding lesion in the ultrasonic coordinate system is estimated. It is defined as a sphere centered at the location of the corresponding lesion and the error estimate is a radius. In addition, the existence range of the corresponding lesion on the ultrasonic tomographic image is defined as a circle that is an area (cross section of the sphere) where the sphere and the tomographic image intersect. Therefore, the existence range calculation unit 935 calculates the center position and radius of this circle on the ultrasonic tomographic image as the existence range of the corresponding lesion part. In addition, since the calculation method of the intersection area | region of the sphere and plane defined in three-dimensional space is a well-known thing, the description is abbreviate | omitted. When the sphere and the tomographic image do not intersect, information that “there is no existing range on the cross section” is stored.

また、対応領域を表す情報が対応病変部の位置であって、かつ、誤差推定値が軸方向ごとに与えられる場合には、超音波座標系における対応病変部の三次元の存在範囲は、推定した対応病変部の位置を中心として、各軸方向の誤差推定値を夫々の軸方向の半径とした楕円体として定義される。したがって、存在範囲算出部935は、該楕円体と当該断層画像との交差領域(楕円体の断面)を、超音波断層画像上における対応病変部の存在範囲として算出する。   In addition, when the information representing the corresponding region is the position of the corresponding lesion and an error estimation value is given for each axial direction, the three-dimensional existence range of the corresponding lesion in the ultrasonic coordinate system is estimated. Centering on the position of the corresponding lesion, the error estimation value in each axial direction is defined as an ellipsoid having a radius in each axial direction. Therefore, the existence range calculation unit 935 calculates the intersection region (cross section of the ellipsoid) between the ellipsoid and the tomographic image as the existence range of the corresponding lesion on the ultrasonic tomographic image.

一方、対応領域を表す情報が対応病変部の領域境界に位置する点群の座標である場合には、該点群の夫々について上記と同様に誤差推定値を半径とする球または楕円体を求め、その和集合として定義される領域が対応領域の三次元の存在範囲として定義できる。したがって、存在範囲算出部935は、該領域と超音波断層画像との交差領域を、該断層画像上における対応領域の存在範囲として算出する。   On the other hand, when the information representing the corresponding region is the coordinates of the point group located at the region boundary of the corresponding lesion, a sphere or ellipsoid having the radius of the error estimation value is obtained for each point group as described above. The region defined as the union can be defined as the three-dimensional existence range of the corresponding region. Therefore, the existence range calculation unit 935 calculates the intersection area between the area and the ultrasonic tomographic image as the existence range of the corresponding area on the tomographic image.

(S11060:断層画像に存在範囲を描画)
ステップS11060において、情報処理装置900は、画像合成部940の処理として、ステップS11050で算出した超音波断層画像上における対応病変部の存在範囲を表す情報を、当該超音波画像上に重畳して描画する。このとき、対応病変部の存在し得る範囲を閉曲線で表示し、その閉曲線の外側に半透明のマスクをかけ、内側の超音波断層画像を通常通りに表示させることが好ましい。これにより、実際の対応病変部を探索する探索領域が明確になる。また、ユーザが実際の対応病変部を探索し易いので、効率良く探索できる。また、対応病変部の存在し得る範囲を閉曲線のラインのみで描画しても良い。また、対応病変部の存在し得る範囲の内側に色を付ける場合には、探索できる程度に透明な色を付けることが好ましい。本ステップの処理の結果として、図5(a)に示すような、対応病変部501の存在範囲502が断層画像上に重畳された超音波断層画像503が生成される。なお、ステップS11050において「断面上に存在範囲はない」と判定され場合には、本ステップの処理は実行されない。
(S11060: Draw the existence range on the tomographic image)
In step S11060, the information processing apparatus 900 superimposes and draws information representing the existence range of the corresponding lesion on the ultrasonic tomographic image calculated in step S11050 on the ultrasonic image as processing of the image synthesis unit 940. To do. At this time, it is preferable to display the range where the corresponding lesion can exist as a closed curve, put a translucent mask outside the closed curve, and display the inner ultrasonic tomographic image as usual. As a result, a search area for searching for an actual corresponding lesion is clarified. In addition, since the user can easily search for an actual corresponding lesion, it can be searched efficiently. In addition, the range in which the corresponding lesioned part may exist may be drawn using only a closed curve line. In addition, when coloring inside the range where the corresponding lesion can exist, it is preferable to add a color that is transparent enough to be searched. As a result of the processing in this step, an ultrasonic tomographic image 503 in which the existence range 502 of the corresponding lesion 501 is superimposed on the tomographic image as shown in FIG. 5A is generated. If it is determined in step S11050 that “there is no area on the cross section”, the processing in this step is not executed.

なお、該断層画像がステップS11050で求めた対応領域自身と交差しているか否かを判定して、交差している場合には該断層画像上における交差領域を該断層画像上に重畳して表示するようにしてよい。   Note that it is determined whether or not the tomographic image intersects with the corresponding region itself obtained in step S11050. If the tomographic image intersects, the intersecting region on the tomographic image is superimposed and displayed on the tomographic image. You may do it.

(S11070:断層画像と断面画像を合成)
ステップS11070において、情報処理装置900は、画像合成部940の処理として、ステップS11040で得た断面画像と、ステップS11060で得た超音波断層画像に対応病変部の存在範囲を重畳した画像を生成する。例えば、これらの画像を左右に並べた画像を生成する。そして、表示制御部950の処理として、合成した画像を表示部960に表示する。また、必要に応じて、I/F1009を介してこれを外部へと出力し、さらに、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。
(S11070: Combining a tomographic image and a cross-sectional image)
In step S11070, the information processing apparatus 900 generates, as the processing of the image synthesis unit 940, an image in which the cross-sectional image obtained in step S11040 and the ultrasonic lesion image obtained in step S11060 are superimposed with the corresponding lesion part existing range. . For example, an image in which these images are arranged side by side is generated. Then, as a process of the display control unit 950, the synthesized image is displayed on the display unit 960. Further, if necessary, this is output to the outside via the I / F 1009 and further stored in the RAM 1002 as a state usable by other applications.

(S11080:全体の処理を終了するか否かの判定)
ステップS11080において、情報処理装置900は、全体の処理を終了するか否かの判定を行う。例えば、キーボード1004の所定のキー(終了キー)を操作者が押すなどして入力した終了の指示を取得する。終了すると判定した場合には、情報処理装置900の処理の全体を終了させる。一方、終了すると判定しなかった場合には、ステップS11010へと処理を戻し、新たに撮像される超音波断層画像に対して、ステップS11010以降の処理を再度実行する。
(S11080: Determination of whether to end the entire process)
In step S11080, the information processing apparatus 900 determines whether to end the entire process. For example, an end instruction input by an operator pressing a predetermined key (end key) on the keyboard 1004 is acquired. When it is determined that the processing is to be ended, the entire processing of the information processing apparatus 900 is ended. On the other hand, if it is not determined to end, the process returns to step S11010, and the processes subsequent to step S11010 are executed again on the ultrasonic tomographic image that is newly imaged.

以上によって、情報処理装置900の処理が実行される。   As described above, the processing of the information processing apparatus 900 is executed.

以上のように、本実施形態に係る情報処理装置によると、操作者が対応病変部を探索する際の目安として、位置推定の誤差を考慮した対応病変部の存在範囲が超音波断層画像上に提示される。その結果、必要以上に広い範囲を探してしまうという操作者の不要な作業を減らし、探索の作業負荷を軽減することができる。また、探索の範囲を限定できるので、操作者が誤った対応付けを行ってしまう危険性を軽減することができる。   As described above, according to the information processing apparatus according to the present embodiment, the presence range of the corresponding lesion portion in consideration of the position estimation error is displayed on the ultrasonic tomographic image as a guide when the operator searches for the corresponding lesion portion. Presented. As a result, the operator's unnecessary work of searching a wider range than necessary can be reduced, and the search work load can be reduced. In addition, since the search range can be limited, it is possible to reduce the risk of an operator performing an incorrect association.

なお、上記の実施形態では、超音波断層画像と同一となる断面を参照画像である三次元画像データから切り出した断面画像を超音波断層画像と並べて提示していたが、この断面画像は必ずしも表示しなくてよい。この場合、参照画像である三次元画像データの取得や、断面画像の生成処理は行わなくてもよい。   In the above-described embodiment, the cross-section image cut out from the three-dimensional image data that is the reference image of the cross section that is the same as the ultrasonic tomographic image is presented side by side with the ultrasonic tomographic image, but this cross-sectional image is not necessarily displayed. You don't have to. In this case, acquisition of 3D image data that is a reference image and generation processing of a cross-sectional image may not be performed.

(第4の実施形態:変形推定を含む)
第3の実施形態に係る情報処理システムは、三次元画像データ撮影時の被検体の形状と、超音波撮影時の被検体の形状は変化していない(剛体である)と仮定していた。そして、被検体に対する超音波探触子の位置姿勢を計測することで、超音波座標系における注目領域の対応領域(及びその存在範囲)を推定していた。これに対し、本実施形態では、三次元画像データ撮影時の被検体の形状から超音波撮影時の被検体の形状への変形を推定して対応領域を求める場合に、その変形推定の曖昧さを考慮することによって、対応領域の存在範囲を推定する場合について説明する。以下、本実施形態に係る情報処理システムについて、第3の実施形態との相違部分についてのみ説明する。
(Fourth embodiment: including deformation estimation)
In the information processing system according to the third embodiment, it is assumed that the shape of the subject at the time of photographing the three-dimensional image data and the shape of the subject at the time of ultrasonic photographing are not changed (is a rigid body). Then, by measuring the position and orientation of the ultrasonic probe with respect to the subject, the corresponding region (and its existence range) of the region of interest in the ultrasonic coordinate system has been estimated. On the other hand, in this embodiment, when estimating the deformation from the shape of the subject at the time of 3D image data imaging to the shape of the object at the time of ultrasonic imaging and obtaining the corresponding region, the ambiguity of the deformation estimation A case where the existence range of the corresponding region is estimated by considering the above will be described. Hereinafter, only the difference between the information processing system according to the present embodiment and the third embodiment will be described.

図8は、本実施形態に係る情報処理システムの構成を示す。なお、図7と同じ部分については同じ番号、記号を付けており、その説明を省略する。図8に示すように、本実施形態における情報処理装置1000は、形状計測装置1085に接続されている。   FIG. 8 shows a configuration of the information processing system according to the present embodiment. The same parts as those in FIG. 7 are given the same numbers and symbols, and the description thereof is omitted. As illustrated in FIG. 8, the information processing apparatus 1000 according to this embodiment is connected to a shape measuring apparatus 1085.

形状計測装置1085としてのレンジセンサは、超音波撮影時の被検体の表面形状を計測して表面形状データを得る。なお、形状計測装置1085は、対象物体の形状を計測できるのであればどのように構成されていてもよく、例えばステレオ画像計測装置などであってもよい。   The range sensor as the shape measuring device 1085 measures the surface shape of the subject at the time of ultrasonic imaging to obtain surface shape data. The shape measuring device 1085 may be configured in any way as long as it can measure the shape of the target object, and may be a stereo image measuring device, for example.

形状取得部1027は、情報処理装置1000へと入力される被検体の表面形状データを取得し、変形推定部1028へと出力する。   The shape acquisition unit 1027 acquires the surface shape data of the subject input to the information processing apparatus 1000 and outputs it to the deformation estimation unit 1028.

変形推定部1028は、形状取得部1027が取得した表面形状データに基づいて被検体の変形状態を推定する。そして、変形パラメータの変動範囲(詳細は後述する)を算出して、これを存在範囲算出部1035へと出力する。また、三次元画像データを超音波撮影時の被検体の形状へと変形させた変形三次元画像を生成し、これを断面画像生成部1030へと出力する。   The deformation estimation unit 1028 estimates the deformation state of the subject based on the surface shape data acquired by the shape acquisition unit 1027. Then, a variation range (details will be described later) of the deformation parameter is calculated and output to the existence range calculation unit 1035. Also, a deformed three-dimensional image is generated by deforming the three-dimensional image data into the shape of the subject at the time of ultrasonic imaging, and this is output to the cross-sectional image generation unit 1030.

存在範囲算出部1035は、注目領域取得部122が取得した注目領域を表す情報と、変形推定部1028が推定した変形パラメータの変動範囲とに基づいて、超音波断層画像上における対応領域の存在範囲を算出する。   The existence range calculation unit 1035 is based on the information representing the attention region acquired by the attention region acquisition unit 122 and the variation range of the deformation parameter estimated by the deformation estimation unit 1028, and the existence range of the corresponding region on the ultrasonic tomographic image. Is calculated.

断面画像生成部1030は、変形推定部1028の出力である変形三次元画像と、位置姿勢取得部112の出力である超音波断層画像の位置姿勢に基づいて、該超音波断層画像に対応する断面画像を変形三次元画像から生成して、画像合成部140へと出力する。   The cross-sectional image generation unit 1030 corresponds to the ultrasonic tomographic image based on the deformed three-dimensional image that is the output of the deformation estimation unit 1028 and the position and orientation of the ultrasonic tomographic image that is the output of the position and orientation acquisition unit 112. An image is generated from the deformed three-dimensional image and output to the image composition unit 140.

図10は、本実施例に係る情報処理装置1000が行う全体の処理手順を示すフローチャートである。   FIG. 10 is a flowchart illustrating an overall processing procedure performed by the information processing apparatus 1000 according to the present embodiment.

(S12000:データの入力)
ステップS12000において、情報処理装置1000は、第3の実施形態におけるステップS11000と同様の処理を行い、三次元画像データと注目領域を表す情報を取得する。また、形状取得部1027の処理として、形状計測装置1085から被検体の表面形状データを取得する。
(S12000: Data input)
In step S12000, the information processing apparatus 1000 performs processing similar to that in step S11000 in the third embodiment, and acquires 3D image data and information representing a region of interest. Further, as the processing of the shape acquisition unit 1027, the surface shape data of the subject is acquired from the shape measuring device 1085.

(S12005:変形推定)
ステップS12005において、情報処理装置1000は、変形推定部1028の処理として、ステップS12000で取得した表面形状データに基づいて被検体の変形状態を推定する。例えば、特開2011−092263に記載の変形推定方法を用いて、三次元画像データから被検体の変形モデルを生成し、これを該形状データにあてはめることでその変形パラメータを推定する。また、推定した変形パラメータに基づいて、三次元画像データを超音波撮影時の被検体の形状へと変形させた変形三次元画像を生成する。
(S12005: Deformation estimation)
In step S12005, the information processing apparatus 1000 estimates the deformation state of the subject based on the surface shape data acquired in step S12000 as processing of the deformation estimation unit 1028. For example, using a deformation estimation method described in Japanese Patent Application Laid-Open No. 2011-092263, a deformation model of a subject is generated from three-dimensional image data, and the deformation parameter is estimated by applying this to the shape data. Further, based on the estimated deformation parameter, a deformed three-dimensional image is generated by deforming the three-dimensional image data into the shape of the subject at the time of ultrasonic imaging.

(S12010:変形パラメータの変動範囲の算出)
ステップS12010において、情報処理装置1000は、変形推定部1028の処理として、変形パラメータの変動範囲を算出する。ここで、変形パラメータの変動範囲とは、変形パラメータの値を推定値の近傍で変動させた場合に、形状データと変形形状との一致度の評価値が一定の範囲内におさまるようなパラメータの範囲である。この変動範囲は、変形パラメータの推定値の曖昧さを表している。
(S12010: Calculation of variation range of deformation parameter)
In step S12010, the information processing apparatus 1000 calculates a variation range of the deformation parameter as a process of the deformation estimation unit 1028. Here, the variation range of the deformation parameter is a parameter such that when the deformation parameter value is varied in the vicinity of the estimated value, the evaluation value of the degree of coincidence between the shape data and the deformation shape falls within a certain range. It is a range. This fluctuation range represents the ambiguity of the estimated value of the deformation parameter.

(S12015:3次元空間中の存在範囲の算出)
ステップS12015において、情報処理装置1000は、存在範囲算出部1035の処理として、変形推定における解の曖昧さに基づいて、3次元空間中における対応領域の存在範囲を算出する。具体的には、ステップS12010で求めた変動範囲で変形パラメータを変動させ、夫々の変形パラメータによる対応領域の変位を算出する。そして、その変位後の全ての領域を内包する領域を3次元空間中における対応領域の存在範囲とする。例えば、変位後の全ての領域を内包する最小の楕円体を導出して、これを対応領域の存在範囲とする。
(S12015: Calculation of existence range in three-dimensional space)
In step S12015, the information processing apparatus 1000 calculates the existence range of the corresponding region in the three-dimensional space based on the solution ambiguity in the deformation estimation as the processing of the existence range calculation unit 1035. Specifically, the deformation parameter is varied within the variation range obtained in step S12010, and the displacement of the corresponding region by each deformation parameter is calculated. Then, a region including all the regions after the displacement is set as a corresponding region existing range in the three-dimensional space. For example, the smallest ellipsoid that includes all the areas after displacement is derived, and this is used as the existence range of the corresponding area.

(S12020:断層画像の取得)
ステップS12020において、情報処理装置1000は、第3の実施形態におけるステップS11020と同様の処理を行い、超音波断層画像とその位置姿勢を取得する。
(S12020: Acquisition of tomographic image)
In step S12020, the information processing apparatus 1000 performs processing similar to that in step S11020 in the third embodiment, and acquires an ultrasonic tomographic image and its position and orientation.

(S12040:断面画像の取得)
ステップS12040において、情報処理装置1000は、断面画像生成部1030の処理として、ステップS12020で得た超音波断層画像に対応する変形三次元画像の断面画像を生成する。
(S12040: Acquisition of cross-sectional image)
In step S12040, the information processing apparatus 1000 generates a cross-sectional image of a deformed three-dimensional image corresponding to the ultrasonic tomographic image obtained in step S12020 as processing of the cross-sectional image generation unit 1030.

(S12050:断面画像上の存在範囲の取得)
ステップS12050において、情報処理装置1000は、存在範囲算出部1035の処理として、超音波断層画像上における対応領域の存在範囲を算出する。具体的には、ステップS12015で算出した3次元空間中における対応領域の存在範囲を超音波断面で切り取ることによって、2次元平面上における対応領域の存在範囲を算出する。
(S12050: Acquisition of existence range on cross-sectional image)
In step S12050, the information processing apparatus 1000 calculates the existence range of the corresponding region on the ultrasonic tomographic image as the processing of the existence range calculation unit 1035. Specifically, the existence range of the corresponding area on the two-dimensional plane is calculated by cutting out the existence area of the corresponding area in the three-dimensional space calculated in step S12015 with an ultrasonic cross section.

なお、ステップS12060,S12070,S12080の処理は、第3の実施形態におけるステップS11060,S11070,S11080と同様であるので説明を省略する。   Note that the processing in steps S12060, S12070, and S12080 is the same as steps S11060, S11070, and S11080 in the third embodiment, and thus description thereof is omitted.

以上のように、本実施例に係る情報処理装置は、三次元画像データ撮影時の被検体の形状から超音波撮影時の被検体の形状への変形を推定して対応領域を求める場合に、その変形推定の曖昧さを考慮することによって、対応領域の存在範囲を算出する。そうすることで、注目病変部が被検体の乳房などの軟組織に存在する場合にも、ユーザは二次元画像上の実際の対応領域の探索範囲がより正確に分かるので、実際の対応領域をさらに効率良く探索することができる。   As described above, the information processing apparatus according to the present embodiment determines the corresponding region by estimating the deformation from the shape of the subject at the time of photographing the three-dimensional image data to the shape of the subject at the time of ultrasonic photographing. The existence range of the corresponding area is calculated by taking into account the ambiguity of the deformation estimation. By doing so, even when the lesion of interest exists in a soft tissue such as the breast of the subject, the user can more accurately know the search range of the actual corresponding area on the two-dimensional image. It is possible to search efficiently.

(第4の実施形態の変形例1:事前の変形シミュレーション群から算出)
本実施形態では、変形推定の曖昧さを考慮することで対応領域の存在範囲を算出する方法の一例として、変形パラメータ推定時の解周辺のパラメータの変動範囲に基づく方法を説明したが、本発明の実施はこれに限らない。
(Variation 1 of the fourth embodiment: calculated from a group of previous deformation simulations)
In the present embodiment, as an example of a method for calculating the existence range of the corresponding region by considering the ambiguity of the deformation estimation, a method based on the parameter fluctuation range around the solution at the time of deformation parameter estimation has been described. The implementation of is not limited to this.

例えば、複数の変形シミュレーションによって変位した注目領域のばらつきに基づいて、対応領域の存在範囲を算出してもよい。例えば、注目病変部の重心位置を様々な変形シミュレーションによって変位させた後に、その変位後の全ての位置を内包する多面体(例えば全ての位置の凸包)や閉曲面(例えば楕円体)を算出して、それを対応病変部の存在範囲とすることができる。   For example, the existence range of the corresponding region may be calculated based on variations in the attention region displaced by a plurality of deformation simulations. For example, after displacing the center of gravity of the lesion of interest by various deformation simulations, a polyhedron (for example, a convex hull at all positions) or a closed surface (for example, an ellipsoid) containing all the positions after the displacement is calculated. Thus, it can be set as the existence range of the corresponding lesion.

(第4の実施形態の変形例2:変形に関する誤差推定値を用いる)
また、第4の実施形態のように変形を考慮する場合においても、第3の実施形態と同様に、誤差推定値を取得してそれに基づいて対応領域の存在範囲を算出しても良い。
(Modification 2 of the fourth embodiment: using an error estimation value related to deformation)
Also, when considering deformation as in the fourth embodiment, an estimated error value may be acquired and the existence range of the corresponding region may be calculated based on the error estimation value, as in the third embodiment.

例えば、過去の症例における変形推定の誤差分布に基づいて、対応領域の存在範囲を算出してもよい。例えば、乳房の大きさや病変の存在部位毎に誤差の統計値がデータサーバに保持されている場合を考える。このとき、被検体に関する乳房の大きさや病変の存在部位の情報を画像から取得し、それに基づき対応する統計値を取得して、これを誤差推定値として存在範囲を算出することもできる。   For example, the existence range of the corresponding region may be calculated based on the deformation estimation error distribution in the past cases. For example, consider a case in which a statistical value of error is held in the data server for each size of the breast and each site where a lesion exists. At this time, information on the size of the breast and the location of the lesion relating to the subject can be acquired from the image, and a corresponding statistical value can be acquired based on the acquired information, and the existing range can be calculated using this as an error estimation value.

また、変形推定部が変形パラメータを推定する際の残差(超音波撮影時の被検体の形状と変形三次元画像の形状との乖離量)に基づいて誤差推定値を算出してもよい。例えば、残差が大きい場合には、誤差推定値を大きく算出するようにできる。   Further, the error estimation value may be calculated based on a residual when the deformation estimation unit estimates the deformation parameter (an amount of deviation between the shape of the subject at the time of ultrasonic imaging and the shape of the deformed three-dimensional image). For example, when the residual is large, it is possible to calculate a large error estimated value.

また、使用する変形推定方法に応じて誤差推定値を切り替えてもよい。例えば、高精度な変形推定方法を用いる場合には誤差推定値を小さく算出し、簡易な変形推定方法を用いる場合には誤差推定値を小さく算出するようにできる。   Further, the error estimation value may be switched according to the deformation estimation method to be used. For example, the error estimation value can be calculated to be small when a highly accurate deformation estimation method is used, and the error estimation value can be calculated to be small when a simple deformation estimation method is used.

また、超音波探触子の表面位置と、断面画像中の体表位置との差異を算出し、これに基づいて誤差推定値を算出してもよい。例えば、差異が大きい場合には誤差推定値を大きく算出するようにできる。   Further, the difference between the surface position of the ultrasonic probe and the body surface position in the cross-sectional image may be calculated, and the error estimation value may be calculated based on the difference. For example, when the difference is large, it is possible to calculate a large error estimated value.

また、誤差推定値は、変形推定の前処理として実施される体表検出など画像解析の信頼度に基づいて算出してもよい。例えば、画像解析の信頼度が低い場合には誤差推定値を大きく算出するようにできる。   Further, the error estimated value may be calculated based on the reliability of image analysis such as body surface detection performed as pre-processing for deformation estimation. For example, when the reliability of image analysis is low, the error estimation value can be calculated to be large.

なお、本変形例において、誤差推定値を一つの値として算出する場合には、対応病変部の存在範囲は、第3の実施形態と同様に、注目病変位置が中心で誤差推定値が半径である球として定義すればよい。   In this modification, when the error estimated value is calculated as a single value, the corresponding lesion part existing range is the center of the target lesion position and the error estimated value is the radius, as in the third embodiment. It may be defined as a certain sphere.

(第5の実施形態)
上述した実施形態によれば、三次元画像(参照画像)データ中の所定の箇所(注目領域、注目病変部)に対応する箇所(対応領域、対応病変部)を含む三次元存在範囲のうち、超音波断層画像における対応病変部が存在し得る範囲(二次元領域)を、位置推定の誤差を考慮することで算出することができる。ここで、3次元存在範囲とは、対応病変部が存在し得る三次元領域のことであり、超音波断層画像(対象画像)と同じ空間(座標系)で表したものである。そして、ユーザが対応病変部を探索する際の目安として、該存在範囲が超音波断層画像上に提示される。これにより、ユーザは、対応病変部の探索を行うべき範囲(探索範囲)が分かるので、対応病変部を効率良く探索して同定することができる。
(Fifth embodiment)
According to the above-described embodiment, among the three-dimensional existence range including a portion (corresponding region, corresponding lesion portion) corresponding to a predetermined portion (attention region, attention lesion portion) in the three-dimensional image (reference image) data, The range (two-dimensional region) in which the corresponding lesion portion can exist in the ultrasonic tomographic image can be calculated by considering the error of position estimation. Here, the three-dimensional existence range is a three-dimensional region in which a corresponding lesion can exist, and is expressed in the same space (coordinate system) as the ultrasonic tomographic image (target image). The existence range is presented on the ultrasonic tomographic image as a guide when the user searches for the corresponding lesion. As a result, the user knows the range (search range) in which the corresponding lesion should be searched, so that the user can efficiently search for and identify the corresponding lesion.

しかしながら、上述した実施形態では、対応病変部の三次元存在範囲の一断面を表示しているだけなので、三次元の存在範囲のどの場所を切り出したものなのかを容易に把握することが出来なかった。例えば、三次元の存在範囲が球形状で与えられる場合には、超音波断層画像が三次元の存在範囲のどの部分と交差していても、断層画像上における2次元存在範囲は常に円形状で表示される。従って、球の大きさを知らないユーザにとっては、現在の交差位置が球の中心に近い部分なのか、球の端に近い部分なのかを把握することが容易ではない。   However, in the above-described embodiment, since only one section of the three-dimensional existence range of the corresponding lesion is displayed, it is not possible to easily grasp which part of the three-dimensional existence range is cut out. It was. For example, when the three-dimensional existence range is given in a spherical shape, the two-dimensional existence range on the tomographic image is always circular even if the ultrasonic tomographic image intersects any part of the three-dimensional existence range. Is displayed. Therefore, it is not easy for a user who does not know the size of the sphere to know whether the current intersection position is near the center of the sphere or near the end of the sphere.

そこで、本実施形態の画像処理システムは、三次元存在範囲のうち、超音波断層画像として、どの位置が切り出されているのかを示す情報(例えば、断層画像の位置情報に対応付けられた色情報)を、二次元領域(交差領域)を示す情報(表示形態)に付加して表示する。このとき、表示形態変更部(表示情報生成部937の一例)が、断層画像の位置情報に応じて、該位置情報に対応付けられた上記2次元領域を示す表示形態に変更する。これにより、ユーザは、三次元存在範囲(三次元領域)の全体像を容易に把握でき、対応病変部を効率良く探索して同定することができる。なお、三次元画像の注目領域を手動あるいは自動に指定する指定部(不図示)を有することが望ましい。また、注目領域に対応する対応領域が存在する存在範囲を所定の領域として決定する決定部(表示情報生成部937の一例)を有することが望ましい。   Therefore, the image processing system according to the present embodiment has information indicating which position is cut out as an ultrasonic tomographic image in the three-dimensional existence range (for example, color information associated with position information of the tomographic image). ) Is added to the information (display form) indicating the two-dimensional area (intersection area) and displayed. At this time, the display form changing unit (an example of the display information generating unit 937) changes the display form to indicate the two-dimensional area associated with the position information according to the position information of the tomographic image. Thereby, the user can easily grasp the whole image of the three-dimensional existence range (three-dimensional region), and can efficiently search and identify the corresponding lesion part. Note that it is desirable to have a designation unit (not shown) for manually or automatically design the attention area of the three-dimensional image. In addition, it is desirable to have a determination unit (an example of a display information generation unit 937) that determines a presence range in which a corresponding region corresponding to a region of interest exists as a predetermined region.

まず、図11は、本実施形態に係る情報処理システムの構成を示す。本実施形態における情報処理装置900は、断層画像取得部910、位置姿勢取得部912、3次元画像データ取得部920(三次元画像取得部とも呼ぶ)、注目領域取得部922、誤差取得部923、断面画像生成部930、三次元存在範囲算出部(三次元領域取得部とも呼ぶ)935、2次元存在範囲取得部(二次元領域取得部、交差領域取得部とも呼ぶ)934、位置情報算出部936、画像合成部940、表示制御部950によって構成される。そして、3次元画像データや後に記述する誤差要因情報等を保持するデータサーバ990に接続されている。また、情報処理装置900は、被検体の超音波断層画像を撮像する第2医用画像収集装置980としての超音波画像診断装置にも接続されている。   First, FIG. 11 shows a configuration of an information processing system according to the present embodiment. The information processing apparatus 900 according to this embodiment includes a tomographic image acquisition unit 910, a position / orientation acquisition unit 912, a three-dimensional image data acquisition unit 920 (also referred to as a three-dimensional image acquisition unit), an attention area acquisition unit 922, an error acquisition unit 923, A cross-sectional image generation unit 930, a three-dimensional existence range calculation unit (also referred to as a three-dimensional region acquisition unit) 935, a two-dimensional existence range acquisition unit (also referred to as a two-dimensional region acquisition unit or an intersection region acquisition unit) 934, and a position information calculation unit 936 The image composition unit 940 and the display control unit 950 are configured. It is connected to a data server 990 that holds 3D image data and error factor information described later. The information processing apparatus 900 is also connected to an ultrasonic image diagnostic apparatus as a second medical image collection apparatus 980 that captures an ultrasonic tomographic image of a subject.

(三次元画像データの取得)
データサーバ990が保持する3次元画像データは、第1医用画像収集装置970としてのMRI装置やX線CT装置などによって被検体を予め撮像して得られた画像である。なお、以下では第1医用画像収集装置970としてMRI装置を用いる場合を例として説明する。本実施例では、3次元画像データは、3次元のボクセルに輝度値を格納した三次元ボリュームデータとして表現されているものとする。また、各ボクセルの座標はMRI装置座標系で表現されているものとする。データサーバ990が保持する3次元画像データは、三次元画像データ取得部920により取得され、情報処理装置900に入力される。
(Acquisition of 3D image data)
The three-dimensional image data held by the data server 990 is an image obtained by imaging a subject in advance with an MRI apparatus or an X-ray CT apparatus as the first medical image acquisition apparatus 970. Hereinafter, a case where an MRI apparatus is used as the first medical image collection apparatus 970 will be described as an example. In this embodiment, it is assumed that the three-dimensional image data is expressed as three-dimensional volume data in which luminance values are stored in three-dimensional voxels. The coordinates of each voxel are expressed in the MRI apparatus coordinate system. The 3D image data held by the data server 990 is acquired by the 3D image data acquisition unit 920 and input to the information processing apparatus 900.

(注目領域の取得)
さらに、データサーバ990は、3次元画像データ中の注目領域を表す情報(詳細は後述する)を保持している。データサーバ990が保持する注目領域を表す情報は、注目領域取得部922により取得され、情報処理装置900に入力される。なお、以下の説明では、注目領域を表す情報も、3次元画像データと同様にMRI装置座標系で表されているものとする。
(Obtain attention area)
Furthermore, the data server 990 holds information (details will be described later) representing a region of interest in the three-dimensional image data. Information representing the attention area held by the data server 990 is acquired by the attention area acquisition unit 922 and input to the information processing apparatus 900. In the following description, it is assumed that the information indicating the region of interest is also expressed in the MRI apparatus coordinate system, like the three-dimensional image data.

(断層画像の取得)
第2医用画像収集装置980としての超音波画像診断装置は、被検体の超音波断層画像を実時間で撮像する。超音波断層画像は、断層画像取得部910により取得され、情報処理装置900に逐次入力される。また、超音波探触子の位置姿勢は不図示の位置姿勢センサで計測され、位置姿勢取得部912により取得されて、情報処理装置900に入力される。ここで、超音波探触子の位置姿勢は、例えば被検体を基準とした基準座標系における位置姿勢で表されている。また、位置姿勢取得部912は、基準座標系における超音波探触子の位置姿勢を取得して、これに基づいてMRI装置座標系における超音波断層画像の位置姿勢を算出する。
(Acquisition of tomographic images)
The ultrasonic diagnostic imaging apparatus as the second medical image acquisition apparatus 980 captures an ultrasonic tomographic image of a subject in real time. The ultrasonic tomographic image is acquired by the tomographic image acquisition unit 910 and is sequentially input to the information processing apparatus 900. Further, the position and orientation of the ultrasonic probe are measured by a position and orientation sensor (not shown), acquired by the position and orientation acquisition unit 912, and input to the information processing apparatus 900. Here, the position and orientation of the ultrasonic probe are represented by the position and orientation in a reference coordinate system with the subject as a reference, for example. Further, the position / orientation acquisition unit 912 acquires the position / orientation of the ultrasonic probe in the reference coordinate system, and calculates the position / orientation of the ultrasonic tomographic image in the MRI apparatus coordinate system based on the acquired position / orientation.

(三次元存在範囲の算出)
三次元存在範囲算出部935は、注目領域取得部922が取得した注目領域を表す情報と、位置姿勢取得部912が取得した超音波断層画像の位置姿勢とに基づいて、注目領域に対応する領域(対応領域)を超音波座標系上で推定する。ここで超音波座標系とは、超音波断層画像を基準とした三次元座標系であり、例えば、該断層画像上の1点を原点として、該断層画像の平面上にx軸とy軸を設定し、該平面に直交する方向にz軸を設定した座標系として定義できる。そして、この推定した対応領域と、後述する誤差取得部923で取得する誤差推定値とに基づいて、超音波座標系における対応領域の三次元存在範囲(本実施形態における3次元領域)を算出する。
(Calculation of 3D existence range)
The three-dimensional existence range calculation unit 935 is an area corresponding to the attention area based on the information indicating the attention area acquired by the attention area acquisition unit 922 and the position and orientation of the ultrasonic tomographic image acquired by the position and orientation acquisition unit 912. (Corresponding region) is estimated on the ultrasonic coordinate system. Here, the ultrasonic coordinate system is a three-dimensional coordinate system based on the ultrasonic tomographic image. For example, the origin is one point on the tomographic image, and the x axis and the y axis are on the plane of the tomographic image. It can be defined as a coordinate system in which the z axis is set in a direction perpendicular to the plane. Then, based on the estimated corresponding area and an error estimated value acquired by an error acquisition unit 923 described later, a three-dimensional existence range (three-dimensional area in the present embodiment) of the corresponding area in the ultrasonic coordinate system is calculated. .

(二次元存在範囲の取得)
二次元存在範囲取得部934は、三次元存在範囲算出部935が算出した三次元存在範囲に基づいて、超音波断層画像と三次元存在範囲との交差領域を求め、これを超音波断層画像上における対応領域の二次元存在範囲として表示情報生成部937へと出力する。
(Acquisition of 2D existence range)
The two-dimensional existence range acquisition unit 934 obtains an intersection area between the ultrasonic tomographic image and the three-dimensional existence range based on the three-dimensional existence range calculated by the three-dimensional existence range calculation unit 935, and calculates this on the ultrasonic tomographic image. Is output to the display information generation unit 937 as a two-dimensional existence range of the corresponding region.

(位置情報の算出)
位置情報算出部936は、三次元存在範囲算出部935から取得した超音波座標系における対応領域の3次元存在範囲を表す情報と、超音波断層画像の位置姿勢の情報とに基づいて、三次元存在範囲に対する超音波断層画像の相対的な位置情報を算出する。そして、算出した相対的な位置情報を表示情報生成部937へと出力する。
(Calculation of location information)
The position information calculation unit 936 is based on information representing the three-dimensional existence range of the corresponding region in the ultrasonic coordinate system acquired from the three-dimensional existence range calculation unit 935 and information on the position and orientation of the ultrasonic tomographic image. The relative position information of the ultrasonic tomographic image with respect to the existence range is calculated. Then, the calculated relative position information is output to the display information generation unit 937.

(存在範囲の表示情報生成)
表示情報生成部937は、二次元存在範囲取得部934から取得した二次元存在範囲の情報と、位置情報算出部936から取得した超音波断層画像の相対的な位置情報とに基づいて、相対的な位置情報を付加した二次元存在範囲の表示情報を生成する。
(Generate display information of existence range)
The display information generation unit 937 performs relative processing based on the information on the two-dimensional existence range acquired from the two-dimensional existence range acquisition unit 934 and the relative position information on the ultrasonic tomographic image acquired from the position information calculation unit 936. Display information of a two-dimensional existence range to which various position information is added.

(誤差推定値の取得)
データサーバ990は、前述した情報に加えて、対応領域の誤差推定値を算出するための情報(誤差要因情報。詳細は後述する。)を保持している。ここで、誤差要因情報とは、言い換えれば、超音波断層画像上における対応領域の三次元存在範囲を算出するための情報である。データサーバ990が保持する誤差要因情報は、誤差取得部923を介して情報処理装置900に入力される。誤差取得部923は、取得した誤差要因情報に基づいて対応領域の誤差推定値を算出する。そして、算出した誤差推定値を3次元存在範囲算出部935へと出力する。
(Acquire error estimate)
In addition to the information described above, the data server 990 holds information (error factor information; details will be described later) for calculating an estimated error value of the corresponding region. Here, the error factor information is, in other words, information for calculating the three-dimensional existence range of the corresponding region on the ultrasonic tomographic image. The error factor information held by the data server 990 is input to the information processing apparatus 900 via the error acquisition unit 923. The error acquisition unit 923 calculates an error estimation value for the corresponding region based on the acquired error factor information. Then, the calculated error estimation value is output to the three-dimensional existence range calculation unit 935.

(断面画像の生成)
断面画像生成部930は、三次元画像データ取得部920の出力である三次元ボリュームデータと、位置姿勢取得部912の出力である超音波断層画像の位置姿勢を入力する。そして、これらのデータに基づいて、超音波断層画像に対応する断面画像を三次元ボリュームデータから生成して、画像合成部940へと出力する。画像合成部940は、二次元存在範囲の表示情報を表示情報生成部936から取得して、断層画像取得部910から取得した超音波断層画像上に重畳して描画する。さらに、その画像と、断面画像生成部930から取得した断面画像とを合成した(例えば左右に並べた)合成画像を生成して、これを表示制御部950あるいは外部へと出力する。表示制御部950は、画像合成部940の出力である合成画像を取得し、これを表示部960に表示する。
(Cross section image generation)
The cross-sectional image generation unit 930 receives the 3D volume data that is the output of the 3D image data acquisition unit 920 and the position and orientation of the ultrasonic tomographic image that is the output of the position and orientation acquisition unit 912. Based on these data, a cross-sectional image corresponding to the ultrasonic tomographic image is generated from the three-dimensional volume data and output to the image composition unit 940. The image composition unit 940 obtains the display information of the two-dimensional existence range from the display information generation unit 936, and superimposes and draws it on the ultrasonic tomographic image obtained from the tomographic image acquisition unit 910. Further, a composite image obtained by combining the image and the cross-sectional image acquired from the cross-sectional image generation unit 930 (for example, arranged side by side) is generated and output to the display control unit 950 or the outside. The display control unit 950 acquires the composite image that is the output of the image composition unit 940 and displays it on the display unit 960.

なお、図11に示した各部(断層画像取得部910、位置姿勢取得部912、三次元画像データ取得部920、注目領域取得部922、誤差取得部923、断面画像生成部930、三次元存在範囲算出部935、二次元存在範囲取得部934、位置情報算出部936、表示情報生成部937、画像合成部940、表示制御部950)の少なくとも一部は、独立した装置として実現しても良い。または、夫々一つもしくは複数のコンピュータにインストールし、コンピュータのCPUにより実行することで、その機能を実現するソフトウェアとして実現しても良い。本実施形態では、各部はそれぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。   11 (tomographic image acquisition unit 910, position / orientation acquisition unit 912, 3D image data acquisition unit 920, attention area acquisition unit 922, error acquisition unit 923, cross-sectional image generation unit 930, 3D existence range) At least a part of the calculation unit 935, the two-dimensional existence range acquisition unit 934, the position information calculation unit 936, the display information generation unit 937, the image synthesis unit 940, and the display control unit 950) may be realized as an independent device. Alternatively, it may be implemented as software that implements its function by being installed in one or a plurality of computers and executed by the CPU of the computer. In the present embodiment, each unit is realized by software and installed in the same computer.

(コンピュータの基本構成)
図17は、断層画像取得部910、位置姿勢取得部912、三次元画像データ取得部920、注目領域取得部922、誤差取得部923、断面画像生成部930、三次元存在範囲算出部935、二次元存在範囲取得部934、位置情報算出部936、表示情報生成部937、画像合成部940、表示制御部950の夫々の機能を、ソフトウェアを実行することで実現するためのコンピュータの基本構成を示す図である。
(Basic computer configuration)
FIG. 17 illustrates a tomographic image acquisition unit 910, a position / orientation acquisition unit 912, a 3D image data acquisition unit 920, an attention area acquisition unit 922, an error acquisition unit 923, a cross-sectional image generation unit 930, a 3D existence range calculation unit 935, A basic configuration of a computer for realizing the functions of the dimension existence range acquisition unit 934, the position information calculation unit 936, the display information generation unit 937, the image composition unit 940, and the display control unit 950 by executing software is shown. FIG.

CPU1001は、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行う。また、断層画像取得部910、位置姿勢取得部912、3次元画像データ取得部920、注目領域取得部922、誤差取得部923、断面画像生成部930、3次元存在範囲算出部935、2次元存在範囲取得部934、位置情報算出部936、表示情報生成部937、画像合成部940、表示制御部950の夫々におけるソフトウェアの実行を制御して、各部の機能を実現する。   The CPU 1001 controls the entire computer using programs and data stored in the RAM 1002 and the ROM 1003. In addition, the tomographic image acquisition unit 910, the position / orientation acquisition unit 912, the three-dimensional image data acquisition unit 920, the attention area acquisition unit 922, the error acquisition unit 923, the cross-sectional image generation unit 930, the three-dimensional existence range calculation unit 935, and the two-dimensional existence The execution of software in each of the range acquisition unit 934, the position information calculation unit 936, the display information generation unit 937, the image composition unit 940, and the display control unit 950 is controlled to realize the function of each unit.

RAM1002は、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。   The RAM 1002 includes an area for temporarily storing programs and data loaded from the external storage device 1007 and the storage medium drive 1008, and a work area required for the CPU 1001 to perform various processes.

ROM1003は、一般にコンピュータのプログラムや設定データなどが格納されている。キーボード1004、マウス1005は入力デバイスであり、ユーザはこれらを用いて、各種の指示をCPU1001に入力することができる。   The ROM 1003 generally stores computer programs and setting data. A keyboard 1004 and a mouse 1005 are input devices, and a user can input various instructions to the CPU 1001 using these devices.

表示部1006は、CRTや液晶ディスプレイなどにより構成されており、表示部960がこれに相当する。表示部1006は、画像合成部940が生成する合成画像の他に、画像処理のために表示すべきメッセージやGUI等を表示することができる。   The display unit 1006 includes a CRT, a liquid crystal display, or the like, and the display unit 960 corresponds to this. The display unit 1006 can display a message to be displayed for image processing, a GUI, and the like in addition to the composite image generated by the image composition unit 940.

外部記憶装置1007は、ハードディスクドライブなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やCPU1001が実行するプログラム等を保存する。また本実施形態の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。   The external storage device 1007 is a device that functions as a large-capacity information storage device such as a hard disk drive, and stores an OS (operating system), a program executed by the CPU 1001, and the like. In the description of the present embodiment, information that is described as being known is stored here, and loaded into the RAM 1002 as necessary.

記憶媒体ドライブ1008は、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。   The storage medium drive 1008 reads a program or data stored in a storage medium such as a CD-ROM or DVD-ROM in accordance with an instruction from the CPU 1001 and outputs it to the RAM 1002 or the external storage device 1007.

I/F1009は、アナログビデオポートあるいはIEEE1394等のデジタル入出力ポートや、合成画像などの情報を外部へ出力するためのイーサネット(登録商標)ポート等によって構成される。夫々が入力したデータはI/F1009を介してRAM1002に取り込まれる。断層画像取得部910、位置姿勢取得部912、3次元画像データ取得部920、注目領域取得部922、および誤差取得部923の機能の一部は、I/F1009によって実現される。
上述した各構成要素は、バス1010によって相互に接続される。
The I / F 1009 includes an analog video port or a digital input / output port such as IEEE 1394, an Ethernet (registered trademark) port for outputting information such as a composite image to the outside, and the like. The data input by each is taken into the RAM 1002 via the I / F 1009. Some of the functions of the tomographic image acquisition unit 910, the position and orientation acquisition unit 912, the three-dimensional image data acquisition unit 920, the attention area acquisition unit 922, and the error acquisition unit 923 are realized by the I / F 1009.
The above-described components are connected to each other by a bus 1010.

図12は、情報処理装置900が行う全体の処理手順を示すフローチャートである。同フローチャートは、本実施形態ではCPU1001が各部の機能を実現するプログラムを実行することにより実現される。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、例えば外部記憶装置1007からRAM1002に既にロードされているものとする。   FIG. 12 is a flowchart illustrating an overall processing procedure performed by the information processing apparatus 900. In the present embodiment, the flowchart is realized by the CPU 1001 executing a program that realizes the function of each unit. It is assumed that the program code according to the flowchart is already loaded from, for example, the external storage device 1007 to the RAM 1002 in the previous stage of performing the following processing.

(S11000:データの入力)
ステップS11000において、情報処理装置900は、三次元画像データ取得部920の処理として、データサーバ990から3次元画像データを取得する。また、注目領域取得部922の処理として、データサーバ990から注目領域を表す情報を取得する。ここで、注目領域を表す情報とは、例えば、注目病変部の位置(領域の重心位置)や、注目病変部の領域境界に位置する点群の座標である。
(S11000: Data input)
In step S <b> 11000, the information processing apparatus 900 acquires 3D image data from the data server 990 as a process of the 3D image data acquisition unit 920. Further, as processing of the attention area acquisition unit 922, information representing the attention area is acquired from the data server 990. Here, the information indicating the attention area is, for example, the position of the attention lesion (the position of the center of gravity of the area) or the coordinates of the point group located at the area boundary of the attention lesion.

(S11010:誤差要因情報の入力)
ステップS11010において、情報処理装置900は、誤差取得部923の処理として、誤差推定値の算出に用いる各種の誤差要因情報をデータサーバ990から取得する。ここで、誤差要因情報とは、超音波断層画像上における対応領域の存在領域を算出するための情報である。例えば、超音波探触子の位置姿勢を計測する位置姿勢センサの種別(例えば、センサA,センサBなど)を表す情報を、誤差要因情報としてデータサーバ990から取得する。
(S11010: Input of error factor information)
In step S <b> 11010, the information processing apparatus 900 acquires various error factor information used for calculation of an error estimated value from the data server 990 as processing of the error acquisition unit 923. Here, the error factor information is information for calculating the existence region of the corresponding region on the ultrasonic tomographic image. For example, information indicating the type (for example, sensor A, sensor B, etc.) of the position and orientation sensor that measures the position and orientation of the ultrasound probe is acquired from the data server 990 as error factor information.

(S11020:断層画像の取得)
ステップS11020において、情報処理装置900は、断層画像取得部910の処理として、第2医用画像収集装置980から超音波断層画像を取得する。また、位置姿勢取得部912の処理として、上記超音波断層画像を撮像した際の超音波探触子の位置姿勢を第2医用画像収集装置980から取得する。そして、既知の値として予め記憶している校正データを利用して、基準座標系における超音波探触子の位置姿勢から、MRI装置座標系における超音波断層画像の位置姿勢を算出する。
(S11020: Acquisition of tomographic image)
In step S11020, the information processing apparatus 900 acquires an ultrasonic tomographic image from the second medical image acquisition apparatus 980 as processing of the tomographic image acquisition unit 910. Further, as the processing of the position / orientation acquisition unit 912, the position / orientation of the ultrasonic probe when the ultrasonic tomographic image is captured is acquired from the second medical image acquisition device 980. Then, using the calibration data stored in advance as known values, the position and orientation of the ultrasonic tomographic image in the MRI apparatus coordinate system are calculated from the position and orientation of the ultrasonic probe in the reference coordinate system.

(S11030:誤差推定値の取得)
ステップS11030において、情報処理装置900は、誤差取得部923の処理として、ステップS11010で取得した各種の誤差要因情報(誤差の算出に用いる各種データ)に基づいて、誤差推定値を算出し、三次元存在領域算出部935に出力する。
(S11030: Acquisition of error estimated value)
In step S11030, the information processing apparatus 900 calculates an error estimation value based on the various error factor information (various data used for error calculation) acquired in step S11010 as a process of the error acquisition unit 923, and performs three-dimensional The data is output to the existence area calculation unit 935.

誤差推定値を算出する処理は、例えば超音波探触子の位置姿勢を計測する位置姿勢センサの特性等に基づいて実行することができる。位置姿勢センサの種別毎に予め誤差の基準値を定めておき、使用するセンサの種別に応じて値を選択するようにできる。例えば、ステップS11010で入力した誤差要因情報が、光学式センサであるセンサAを使用しているという情報の場合、磁気式センサであるセンサBを使用している場合に比べて小さい値として誤差推定値を算出するようにできる。誤差を推定する処理は、他の処理であっても良い。   The process of calculating the error estimation value can be executed based on, for example, characteristics of a position / orientation sensor that measures the position / orientation of the ultrasonic probe. An error reference value is determined in advance for each type of position and orientation sensor, and a value can be selected according to the type of sensor to be used. For example, when the error factor information input in step S11010 is information that the sensor A that is an optical sensor is used, the error is estimated as a smaller value than when the sensor B that is a magnetic sensor is used. The value can be calculated. The process for estimating the error may be another process.

(S11040:断面画像の取得)
ステップS11040において、情報処理装置900は、断面画像生成部930の処理として、ステップS11020で得た超音波断層画像に対応する参照画像の断面画像を生成する。具体的には、ステップS11020で得た超音波断層画像の位置姿勢に基づき、ステップS11000で得た3次元ボリュームデータから該超音波断層画像と同じ断面を切り出した断面画像を生成する。
(S11040: Acquisition of cross-sectional image)
In step S11040, the information processing apparatus 900 generates a cross-sectional image of a reference image corresponding to the ultrasonic tomographic image obtained in step S11020 as processing of the cross-sectional image generation unit 930. Specifically, based on the position and orientation of the ultrasonic tomographic image obtained in step S11020, a cross-sectional image is generated by cutting out the same cross section as the ultrasonic tomographic image from the three-dimensional volume data obtained in step S11000.

(S11050:3次元存在範囲の取得)
ステップS11050において、情報処理装置900は、三次元存在範囲算出部935の処理として、ステップS11020で得た超音波断層画像の超音波座標系における対応領域の三次元存在範囲(3次元領域)を算出する。
(S11050: Acquisition of 3D existence range)
In step S11050, the information processing apparatus 900 calculates the three-dimensional existence range (three-dimensional area) of the corresponding area in the ultrasonic coordinate system of the ultrasonic tomographic image obtained in step S11020 as the processing of the three-dimensional existence range calculation unit 935. To do.

具体的には、三次元存在範囲算出部935は、まず、超音波座標系における注目領域に対する対応領域を推定する。例えば、注目領域を表す情報として注目病変部の位置が与えられている場合には、対応領域を表す情報として、超音波座標系における対応病変部の位置を推定する。   Specifically, the three-dimensional existence range calculation unit 935 first estimates a corresponding area for the attention area in the ultrasonic coordinate system. For example, when the position of the target lesion is given as information representing the region of interest, the position of the corresponding lesion in the ultrasonic coordinate system is estimated as information representing the corresponding region.

次に、三次元存在範囲算出部935は、上記で推定した対応領域とステップS11030で取得した誤差推定値とに基づいて、超音波座標系における対応領域の三次元存在範囲を算出する。例えば、対応領域を表す情報が対応病変部の位置であって、かつ、誤差推定値が軸方向に依存していない場合には、超音波座標系における対応病変部の3次元存在範囲は、推定した対応病変部の位置が中心で、誤差推定値が半径である球として算出される。   Next, the three-dimensional existence range calculation unit 935 calculates the three-dimensional existence range of the corresponding area in the ultrasonic coordinate system based on the corresponding area estimated above and the error estimated value acquired in step S11030. For example, when the information representing the corresponding region is the position of the corresponding lesion, and the error estimation value does not depend on the axial direction, the three-dimensional existence range of the corresponding lesion in the ultrasonic coordinate system is estimated. It is calculated as a sphere centered at the position of the corresponding lesion and the error estimate is a radius.

(S11051:2次元存在範囲の取得)
ステップS11051において、情報処理装置900は、2次元存在範囲取得部934の処理として、3次元存在範囲算出部935が算出した3次元存在範囲に基づいて、超音波断層画像と3次元存在範囲との交差領域(2次元存在範囲)を求め、これを表示情報生成部937へと出力する。3次元存在範囲が球の場合、2次元存在範囲は当該球と当該断層画像とが交差する領域(球の断面)である円として定義される。したがって、2次元存在範囲取得部934は、超音波断層画像上におけるこの円の中心位置と半径を2次元存在範囲として算出する。なお、3次元空間中で定義される球と平面との交差領域の算出方法は周知のものであるので、その説明は省略する。なお、当該球と当該断層画像が交差しない場合には、「断面上に存在範囲はない」という情報が保存される。
(S11051: Acquisition of two-dimensional existence range)
In step S11051, the information processing apparatus 900 performs processing of the two-dimensional existence range acquisition unit 934 based on the three-dimensional existence range calculated by the three-dimensional existence range calculation unit 935 based on the ultrasonic tomographic image and the three-dimensional existence range. The intersection region (two-dimensional existence range) is obtained and output to the display information generation unit 937. When the three-dimensional existence range is a sphere, the two-dimensional existence range is defined as a circle that is an area (a cross section of the sphere) where the sphere and the tomographic image intersect. Therefore, the two-dimensional existence range acquisition unit 934 calculates the center position and radius of this circle on the ultrasonic tomographic image as the two-dimensional existence range. In addition, since the calculation method of the intersection area | region of the sphere and plane defined in three-dimensional space is a well-known thing, the description is abbreviate | omitted. When the sphere and the tomographic image do not intersect, information that “there is no existing range on the cross section” is stored.

(S11052:断層画像の位置情報を算出)
ステップS11052において、情報処理装置900は、位置情報算出部936の処理として、3次元存在範囲算出部935から3次元存在範囲と超音波断層画像の位置情報を取得し、3次元存在範囲における超音波断層画像の相対的位置情報を算出する。ただし、ステップS11051において「断面上に存在範囲はない」と判定された場合には、本ステップの処理は実行されない。以下に、具体的な算出方法を示す。
(S11052: Calculate position information of tomographic image)
In step S11052, the information processing apparatus 900 acquires the position information of the three-dimensional existence range and the ultrasonic tomographic image from the three-dimensional existence range calculation unit 935 as the processing of the position information calculation unit 936, and acquires ultrasonic waves in the three-dimensional existence range. The relative position information of the tomographic image is calculated. However, if it is determined in step S11051 that “there is no existing area on the cross section”, the processing in this step is not executed. The specific calculation method is shown below.

図13は、3次元存在範囲における超音波断層画像の位置情報を示す図である。301は3次元存在範囲、302は超音波断層画像、303はステップS11050で算出した、3次元存在範囲301を超音波断面302によって切り取ることで得られた2次元存在範囲を表している。   FIG. 13 is a diagram illustrating position information of an ultrasonic tomographic image in a three-dimensional existence range. Reference numeral 301 denotes a three-dimensional existence range, 302 denotes an ultrasonic tomographic image, and 303 denotes a two-dimensional existence range obtained by cutting out the three-dimensional existence range 301 by the ultrasonic cross section 302 calculated in step S11050.

このとき、情報処理装置900は、超音波断層画像302と平行な平面(以降、平行平面と呼ぶ)を3次元空間中に設定し、設定した平行平面を超音波断層画像302に直交する軸に沿って平行移動させたときに、平行平面が3次元存在範囲301と交差し始める位置と交差し終える位置をそれぞれ算出する。ここで、交差し始める位置を開始位置(所定の位置の一例)、交差し終える位置を終了位置(所定の位置の一例)と定義する。304は開始位置、305は終了位置を表す。   At this time, the information processing apparatus 900 sets a plane parallel to the ultrasonic tomographic image 302 (hereinafter referred to as a parallel plane) in a three-dimensional space, and sets the set parallel plane as an axis orthogonal to the ultrasonic tomographic image 302. A position where the parallel plane starts to intersect with the three-dimensional existence range 301 and a position where the intersection ends are calculated when translated along. Here, a position where the intersection starts is defined as a start position (an example of a predetermined position), and a position where the intersection ends is defined as an end position (an example of the predetermined position). Reference numeral 304 denotes a start position, and 305 denotes an end position.

次に、情報処理装置900は、超音波断層画像302と直交する軸上に、超音波断層画像302の対応する位置、開始位置の対応する位置、終了位置の対応する位置をプロットし、それぞれ、断層画像対応位置、開始対応位置、終了対応位置と定義する。Axは超音波断層画像302に直交する直交軸、Psは断層画像対応位置、P0は開始対応位置、P1は終了対応位置を表す。そして、断層画像対応位置Psの、開始対応位置P0及び終了対応位置P1の間における相対位置(位置関係)を、相対的位置情報として算出する。本実施形態では、例えば、軸Ax上のP0の座標が0、P1の座標が1となるように正規化したときの、その間のPsの座標(例:0.3)を相対的位置情報とする。   Next, the information processing apparatus 900 plots the corresponding position of the ultrasonic tomographic image 302, the corresponding position of the start position, and the corresponding position of the end position on an axis orthogonal to the ultrasonic tomographic image 302. It is defined as a tomographic image corresponding position, a start corresponding position, and an end corresponding position. Ax is an orthogonal axis orthogonal to the ultrasonic tomographic image 302, Ps is a tomographic image corresponding position, P0 is a start corresponding position, and P1 is an end corresponding position. Then, the relative position (positional relationship) of the tomographic image corresponding position Ps between the start corresponding position P0 and the end corresponding position P1 is calculated as relative position information. In this embodiment, for example, when normalized so that the coordinate of P0 on the axis Ax is 0 and the coordinate of P1 is 1, the coordinate of Ps between them (eg, 0.3) is used as the relative position information. To do.

このように、超音波断層画像302に直交する軸に沿って3次元存在範囲301の開始位置304と終了位置305を求め、その間での超音波断層画像302の相対的位置情報を算出している。これは、ユーザが表示中の超音波断層画像302の姿勢を固定したまま超音波プローブを平行移動させたときに、3次元存在範囲と交わり始める位置と交わり終える位置に対する現在の超音波断層画像302の相対的位置情報を求めることを意味する。これにより、ユーザが超音波断層画像302の姿勢を固定したまま超音波プローブを平行移動させる時、どの方向にどの程度平行移動させれば、3次元存在範囲のどちら側の端部に到達できるかを容易に把握できる。   As described above, the start position 304 and the end position 305 of the three-dimensional existence range 301 are obtained along the axis orthogonal to the ultrasonic tomographic image 302, and the relative position information of the ultrasonic tomographic image 302 between them is calculated. . This is because the current ultrasonic tomographic image 302 with respect to the position where the user begins to intersect with the three-dimensional existence range and the position where the user finishes intersecting when the ultrasonic probe is translated while the posture of the ultrasonic tomographic image 302 being displayed is fixed. It means that the relative position information is obtained. As a result, when the user translates the ultrasonic probe while the posture of the ultrasonic tomographic image 302 is fixed, to which direction and how much to translate, which side of the three-dimensional existence range can be reached Can be easily grasped.

ただし、開始位置及び終了位置の算出方法は、超音波断層画像と直交する軸に沿って平行平面を平行移動させる方法に限られるものではない。例えば、平行平面を任意の軸に沿って平行移動させ、3次元存在範囲301と交差し始める位置と交差し終える位置をそれぞれ算出することで求めても良い。   However, the calculation method of the start position and the end position is not limited to the method of translating the parallel plane along the axis orthogonal to the ultrasonic tomographic image. For example, the parallel plane may be translated along an arbitrary axis, and the position where the three-dimensional existence range 301 starts to intersect and the position where the intersection ends can be calculated.

そして、算出した相対的位置情報を表示情報生成部937へと送信する。   Then, the calculated relative position information is transmitted to the display information generation unit 937.

(S11054:位置情報を付与した存在範囲の表示情報を生成)
ステップS11054において、情報処理装置900は、表示情報生成部937の処理として、2次元存在範囲取得部934から取得した2次元存在範囲の輪郭を表す形状情報と、位置情報算出部936から取得した超音波断層画像の相対的位置情報とに基づいて、2次元存在範囲に相対的位置情報を付与した表示情報を生成する。ただし、ステップS11051において「断面上に存在範囲はない」と判定され場合には、本ステップの処理は実行されない。以下に、具体的な生成方法を示す。
(S11054: Generate display information of existence range to which position information is added)
In step S <b> 11054, the information processing apparatus 900 performs processing of the display information generation unit 937 as shape information representing the outline of the two-dimensional existence range acquired from the two-dimensional existence range acquisition unit 934 and the super information acquired from the position information calculation unit 936. Display information in which the relative position information is added to the two-dimensional existence range is generated based on the relative position information of the acoustic tomographic image. However, if it is determined in step S11051 that “there is no existing area on the cross section”, the process of this step is not executed. A specific generation method is shown below.

最初に、情報処理装置900は、超音波断層画像の相対的位置情報を、カラーテーブルに対応付けることで、3次元存在範囲における超音波断層画像の位置に対応する色情報を得る。   First, the information processing apparatus 900 obtains color information corresponding to the position of the ultrasonic tomographic image in the three-dimensional existence range by associating the relative position information of the ultrasonic tomographic image with the color table.

図14(a)は、相対的位置情報のカラーテーブルへの対応付けを示す図である。Ax、Ps、P1、P2は、図13と同様のものを表す。このとき、軸Axに沿って、位置P0とP1の間で、その位置に応じて色が変化(変更)するカラーテーブルを設定する。本実施形態では、例えば、P0に近いほど色が薄くなり、P1に近いほど色が濃くなるような、特定色の強度が連続的に変化するカラーテーブルを設定する。そして、ステップS10052でP0とP1の間で正規化された超音波断層画像の相対的位置情報に対応する、カラーテーブル上の色情報を取得する。T1はカラーテーブル、C1は相対的位置情報に対応する色情報を表す。例えば、カラーテーブルT1が、青色の強度が変化するカラーテーブルを表し(P0からP1の方向に、薄い青色→濃い青色)、Psの相対的位置情報が0.3である場合、PsはP0に近いカラーテーブル上の位置にマッピングされるため、色情報C1は、やや薄い青色で表される。この色情報を参照することで断層像対応位置Psが、比較的位置P0に近いことが直観的に分かる。   FIG. 14A is a diagram illustrating association of relative position information with a color table. Ax, Ps, P1, and P2 represent the same as in FIG. At this time, a color table is set between the positions P0 and P1 along the axis Ax so that the color changes (changes) according to the position. In the present embodiment, for example, a color table in which the intensity of a specific color continuously changes is set such that the closer to P0, the lighter the color, and the closer to P1, the darker the color. In step S10052, color information on the color table corresponding to the relative position information of the ultrasonic tomographic image normalized between P0 and P1 is acquired. T1 represents a color table, and C1 represents color information corresponding to relative position information. For example, when the color table T1 represents a color table in which the intensity of blue changes (light blue → dark blue in the direction from P0 to P1), and the relative position information of Ps is 0.3, Ps is set to P0. Since the color information C1 is mapped to a position on a close color table, the color information C1 is represented in a slightly light blue color. By referring to this color information, it is intuitively understood that the tomographic image corresponding position Ps is relatively close to the position P0.

ただし、カラーテーブルの設定方法は上述の方法に限られるものではない。例えば、特定色の強度が連続的ではなく、段階的に変化するような(例:10段階)カラーテーブルを用いても良い。或いは、単色ではなく、複数の典型的な色をP0とP1の間に所定の間隔で配置し、隣り合う色の間で連続的に色が変化するような(例:P0からP1の方向に、黒→青→緑→黄→赤→白)カラーテーブルを用いても良い。無論、P0とP1の間を複数の段階に分けて、段階ごとに異なる色を割り当てたカラーテーブルを用いても良い。   However, the color table setting method is not limited to the above-described method. For example, a color table may be used in which the intensity of a specific color is not continuous but changes stepwise (for example, 10 steps). Alternatively, instead of a single color, a plurality of typical colors are arranged at a predetermined interval between P0 and P1, and the color continuously changes between adjacent colors (eg, in the direction from P0 to P1). Black → Blue → Green → Yellow → Red → White) A color table may be used. Of course, a color table in which P0 and P1 are divided into a plurality of stages and different colors are assigned to the respective stages may be used.

次に、情報処理装置900は、取得した超音波断層画像の相対的位置情報に対応する色情報をもとに、2次元存在範囲の形状情報に関連付けた表示情報を生成する。これを、存在範囲表示情報と呼ぶこととする。本実施形態では、取得した色情報を2次元存在範囲の輪郭形状に付加した表示情報を得る。   Next, the information processing apparatus 900 generates display information associated with the shape information of the two-dimensional existence range based on the color information corresponding to the relative position information of the acquired ultrasonic tomographic image. This is called presence range display information. In this embodiment, display information obtained by adding the acquired color information to the contour shape of the two-dimensional existence range is obtained.

図15は、存在範囲表示情報を示す図である。図15(a)は、存在範囲の輪郭形状(輪郭線)に色情報を付加した表示情報を表す。図15(a)において、S1は色情報が付加された存在範囲の輪郭形状(輪郭線)を表す。例えば、相対的位置情報が0.3であり上述のようにやや薄い青色にマッピングされている場合は、S1はやや薄い青色で色付けられた輪郭形状(輪郭線)となる。   FIG. 15 is a diagram showing the existence range display information. FIG. 15A shows display information in which color information is added to the contour shape (contour line) of the existence range. In FIG. 15A, S1 represents the contour shape (contour line) of the existence range to which color information is added. For example, when the relative position information is 0.3 and is mapped to slightly light blue as described above, S1 has a contour shape (contour line) colored slightly light blue.

ただし、存在範囲表示情報の生成方法は上述の方法に限られるものではない。例えば、2次元存在範囲の形状情報に、超音波断層画像の相対的位置情報を色情報として付加するのではなく、形状を示す曲線を点線で表し、その点線の密度によって表現しても良い。この場合、事前にカラーテーブルの代わりに位置P0とP1の間で、その位置に応じて点線の密度が変化するテーブルを設定し(例:P0からP1の方向に、粗い点線→密な点線)、位置Psをテーブル上にマッピングしておく必要がある。図15(b)は、存在範囲の輪郭形状に点線の密度情報を付加した表示情報を表す。図15(b)において、S2は点線の密度情報が付加された存在範囲の形状を表す。例えば、相対的位置情報が上述と同様0.3であり、やや粗い点線にマッピングされている場合は、S2はやや粗い点線で描かれた輪郭形状となる。   However, the generation method of the existence range display information is not limited to the above method. For example, instead of adding the relative position information of the ultrasonic tomographic image as color information to the shape information of the two-dimensional existence range, a curve indicating the shape may be represented by a dotted line and represented by the density of the dotted line. In this case, instead of the color table, a table in which the density of the dotted line changes according to the position between the positions P0 and P1 is set in advance (eg, a rough dotted line → a dense dotted line in the direction from P0 to P1). The position Ps needs to be mapped on the table. FIG. 15B shows display information obtained by adding dotted line density information to the contour shape of the existence range. In FIG. 15B, S2 represents the shape of the existence range to which the dotted line density information is added. For example, when the relative position information is 0.3 as described above and is mapped to a slightly rough dotted line, S2 has a contour shape drawn with a slightly rough dotted line.

また、超音波断層画像の相対的位置情報を付与する対象は、2次元存在範囲の輪郭形状に限られるものではない。例えば、2次元存在範囲の内部領域に着色しても良い。図15(c)は、存在範囲の内部領域に色情報を付加した表示情報を表す。図15(c)において、R1は色情報が付加された存在範囲の内部領域を表す。例えば相対位置情報が上述のようにやや薄い青色にマッピングされている場合は、R1はやや薄い青色で色付けされた領域となる。或いは、逆に2次元存在範囲の外部領域に着色しても良い。図15(d)は、存在範囲の外部領域に色情報を付加した表示情報を表す。図15(d)において、R2は色情報が付加された存在範囲の外部領域を表す。上述と同様の色のマッピングが行われた場合、R2はやや薄い青色で色付けされた領域となる。そして、生成した存在範囲表示情報を画像合成部940へと送信する。   Further, the target to which the relative position information of the ultrasonic tomographic image is given is not limited to the contour shape in the two-dimensional existence range. For example, the inner area of the two-dimensional existence range may be colored. FIG. 15C shows display information in which color information is added to the internal region of the existence range. In FIG. 15C, R1 represents an internal area of the existence range to which color information is added. For example, when the relative position information is mapped to slightly light blue as described above, R1 is an area colored with light blue. Or, conversely, the outer region of the two-dimensional existence range may be colored. FIG. 15D shows display information in which color information is added to the external area of the existence range. In FIG. 15D, R2 represents an external area of the existence range to which color information is added. When the same color mapping as described above is performed, R2 is an area colored with slightly light blue. Then, the generated existence range display information is transmitted to the image composition unit 940.

(S11060:断層画像に存在範囲を描画)
ステップS11060において、情報処理装置900は、画像合成部940の処理として、表示情報生成部937から取得した、対応病変部の2次元存在範囲に超音波断層画像の相対的位置情報を付加させた存在範囲表示情報を、当該超音波画像上に重畳して描画する。ただし、ステップS11051において「断面上に存在範囲はない」と判定され場合には、本ステップの処理は実行されない。
(S11060: Draw the existence range on the tomographic image)
In step S11060, the information processing apparatus 900, as the processing of the image composition unit 940, is obtained by adding the relative position information of the ultrasonic tomographic image to the two-dimensional existence range of the corresponding lesion part acquired from the display information generation unit 937. The range display information is drawn by being superimposed on the ultrasonic image. However, if it is determined in step S11051 that “there is no existing area on the cross section”, the process of this step is not executed.

図16は、存在範囲表示情報が重畳表示された超音波断層画像を示す図である。図16(a)は、相対的位置情報を色情報として2次元存在範囲の輪郭形状に付加した表示情報を重畳表示した超音波断層画像を表す。図16(a)において、601は超音波断層画像、602は対応病変部、S1は図15(a)と同様の存在範囲表示情報を表す。このとき、超音波断層画像601上に存在範囲表示情報S1が重畳されることにより、実際の対応病変部を探索する探索領域が明確になる。また、ユーザが実際の対応病変部を探索し易いので、効率良く探索できる。   FIG. 16 is a diagram illustrating an ultrasonic tomographic image on which existence range display information is superimposed and displayed. FIG. 16A shows an ultrasonic tomographic image in which display information obtained by adding relative position information as color information to a contour shape of a two-dimensional existence range is superimposed and displayed. In FIG. 16A, reference numeral 601 denotes an ultrasonic tomographic image, 602 denotes a corresponding lesion, and S1 denotes existing range display information similar to that in FIG. At this time, by superimposing the existence range display information S1 on the ultrasonic tomographic image 601, a search region for searching for an actual corresponding lesion is clarified. In addition, since the user can easily search for an actual corresponding lesion, it can be searched efficiently.

そして、ユーザは存在範囲の輪郭形状に付加された色情報を参照することで、3次元存在範囲における超音波断層画像601の相対的位置情報を直観的に把握できる。図15(a)のように色情報がやや薄い青色で表される場合は、超音波断層画像601は3次元存在範囲に対して、図13の開始位置304に近い場所に位置することが容易に分かる。   The user can intuitively grasp the relative position information of the ultrasonic tomographic image 601 in the three-dimensional existence range by referring to the color information added to the contour shape of the existence range. When the color information is expressed in slightly light blue as shown in FIG. 15A, the ultrasonic tomographic image 601 can be easily located near the start position 304 in FIG. 13 with respect to the three-dimensional existence range. I understand.

ここで、超音波断層画像上に描画される存在範囲表示情報は、上述の図16(a)の表示情報に限らない。例えば、相対的位置情報が2次元存在範囲の輪郭形状を描画する曲線の密度によって表現された表示情報を超音波断層画像上に描画しても良い。図16(b)は、相対的位置情報が輪郭形状の密度によって表現された2次元存在範囲が重畳された超音波断層画像を表す。図16(b)において、601及び602は図16(a)と同様のもの、S2は図15(b)と同様のものを表す。   Here, the existence range display information drawn on the ultrasonic tomographic image is not limited to the display information shown in FIG. For example, display information expressed by the density of a curve that draws the contour shape of the two-dimensional existence range as relative position information may be drawn on the ultrasonic tomographic image. FIG. 16B shows an ultrasonic tomographic image on which a two-dimensional existence range in which relative position information is expressed by the density of the contour shape is superimposed. In FIG. 16B, 601 and 602 represent the same as in FIG. 16A, and S2 represents the same as in FIG. 15B.

図16(b)より、ユーザは存在範囲の輪郭形状に付加された点線の密度情報を参照することで、3次元存在範囲における超音波断層画像601の相対的位置情報を直観的に把握できる。さらに、輪郭形状に着色する場合は色が薄くなると輪郭形状が視認しづらくなる可能性があるが、この場合は、輪郭形状を表す色を視認し易い色に設定しておけば、点線の密度が変化しても点線は容易に視認することができる。図15(b)のように点線がやや粗い密度で表される場合は、超音波断層画像601は3次元存在範囲に対して、図13の開始位置304に近い場所に位置することが容易に分かる。   From FIG. 16B, the user can intuitively grasp the relative position information of the ultrasonic tomographic image 601 in the three-dimensional existence range by referring to the density information of the dotted line added to the outline shape of the existence range. In addition, when coloring the contour shape, it may be difficult to visually recognize the contour shape as the color becomes lighter. Even if changes, the dotted line can be easily recognized. When the dotted lines are expressed with a slightly coarse density as shown in FIG. 15B, the ultrasonic tomographic image 601 can be easily located near the start position 304 in FIG. 13 with respect to the three-dimensional existence range. I understand.

また、相対的位置情報を表す色情報が、2次元存在範囲の内部領域に着色された表示情報を超音波断層画像上に描画しても良い。図16(c)は、相対的位置情報が内部領域に描画された2次元存在範囲が重畳された超音波断層画像を表す。図16(c)において、601及び602は図16(a)と同様のもの、R1は図15(c)と同様のものを表す。   Further, display information in which color information representing relative position information is colored in an internal region of a two-dimensional existence range may be drawn on an ultrasonic tomographic image. FIG. 16C shows an ultrasonic tomographic image on which a two-dimensional existence range in which relative position information is drawn in an internal region is superimposed. In FIG. 16C, 601 and 602 are the same as those in FIG. 16A, and R1 is the same as that in FIG. 15C.

図16(c)より、ユーザは存在範囲の内部領域に着色された色情報を参照することで、超音波断層画像601の相対的位置情報を直観的に把握できる。さらに、領域内部に着色することで、輪郭形状に着色する場合に比べて、色情報をより視認し易くなる。このとき、内部領域にはユーザが対応病変部602を探索できる程度に透明な色を付けることが好ましい。   From FIG. 16C, the user can intuitively grasp the relative position information of the ultrasonic tomographic image 601 by referring to the color information colored in the internal region of the existence range. Further, by coloring the inside of the region, it becomes easier to visually recognize the color information as compared with the case of coloring the contour shape. At this time, it is preferable that the inner region is colored so transparent that the user can search for the corresponding lesion 602.

また、図16(c)の場合とは逆に、相対的位置情報を表す色情報が、2次元存在範囲の外部領域に着色された表示情報を超音波断層画像上に描画しても良い。図16(d)は、相対的位置情報が外部領域に描画された2次元存在範囲が重畳された超音波断層画像を表す。図16(d)において、601及び602は図16(a)と同様のもの、R2は図16(d)と同様のものを表す。   In contrast to the case of FIG. 16C, display information in which color information indicating relative position information is colored in an external region of the two-dimensional existence range may be drawn on the ultrasonic tomographic image. FIG. 16D shows an ultrasonic tomographic image on which a two-dimensional existence range in which relative position information is drawn in an external region is superimposed. In FIG. 16D, 601 and 602 represent the same as in FIG. 16A, and R2 represents the same as in FIG.

図16(d)より、ユーザは存在範囲の外部領域に着色された色情報を参照することで、超音波断層画像601の相対的位置情報を直観的に把握できる。さらに、この場合、領域内部には着色されないため、領域内部に着色する場合に比べ、領域内部が観察し易くなり、対応病変部の探索が容易になる。このとき、外部領域には、2次元存在範囲の外側の超音波断層画像の様子が観察できる程度に透明な色を付けることが好ましい。   From FIG. 16D, the user can intuitively grasp the relative position information of the ultrasonic tomographic image 601 by referring to the color information colored in the outer region of the existence range. Further, in this case, since the inside of the region is not colored, the inside of the region can be observed more easily than in the case where the inside of the region is colored, and the corresponding lesion portion can be easily searched. At this time, it is preferable that the outer region is colored so transparent that the state of the ultrasonic tomographic image outside the two-dimensional existence range can be observed.

なお、該断層画像がステップS11050で求めた対応領域自身と交差しているか否かを判定して、交差している場合には該断層画像上における交差領域を該断層画像上に重畳して表示するようにして良い。   Note that it is determined whether or not the tomographic image intersects with the corresponding region itself obtained in step S11050. If the tomographic image intersects, the intersecting region on the tomographic image is superimposed and displayed on the tomographic image. You can do it.

(S11070:断層画像と断面画像を合成)
ステップS11070において、情報処理装置900は、画像合成部940の処理として、ステップS11040で得た断面画像と、ステップS11060で得た超音波断層画像に対応病変部の存在範囲を重畳した画像を合成する。例えば、これらの画像を左右に並べた画像を生成する。そして、表示制御部950の処理として、合成した画像を表示部960に表示する。また、必要に応じて、I/F1009を介してこれを外部へと出力し、さらに、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。
(S11070: Combining a tomographic image and a sectional image)
In step S11070, the information processing apparatus 900 synthesizes the cross-sectional image obtained in step S11040 and the image obtained by superimposing the existence range of the corresponding lesion on the ultrasonic tomographic image obtained in step S11060 as the processing of the image synthesis unit 940. . For example, an image in which these images are arranged side by side is generated. Then, as a process of the display control unit 950, the synthesized image is displayed on the display unit 960. Further, if necessary, this is output to the outside via the I / F 1009 and further stored in the RAM 1002 as a state usable by other applications.

(S11080:全体の処理を終了するか否かの判定)
ステップS11080において、情報処理装置900は、全体の処理を終了するか否かの判定を行う。例えば、キーボード1004の所定のキー(終了キー)をユーザが押すなどして入力した終了の指示を取得する。終了すると判定した場合には、情報処理装置900の処理の全体を終了させる。一方、終了すると判定しなかった場合には、ステップS11020へと処理を戻し、新たに撮像される超音波断層画像に対して、ステップS11020以降の処理を再度実行する。以上によって、情報処理装置900の処理が実行される。
(S11080: Determination of whether to end the entire process)
In step S11080, the information processing apparatus 900 determines whether to end the entire process. For example, an end instruction input by the user pressing a predetermined key (end key) on the keyboard 1004 is acquired. When it is determined that the processing is to be ended, the entire processing of the information processing apparatus 900 is ended. On the other hand, if it is not determined that the process is to be terminated, the process returns to step S11020, and the processes after step S11020 are executed again on the ultrasonic tomographic image that is newly imaged. As described above, the processing of the information processing apparatus 900 is executed.

以上のように、本実施例に係る情報処理装置は、表示中の超音波断層画像の相対的位置情報を付加した2次元存在範囲を、超音波断層画像上に表示することにより、ユーザは超音波断層画像上の2次元存在範囲に注目した状態で、3次元存在範囲に対する超音波断層画像の現在位置を容易に把握することができる。従って、ユーザは探索すべき存在範囲が後どの程度残されているかを容易に把握でき、対応病変部を効率良く探索して同定することができる。   As described above, the information processing apparatus according to the present embodiment displays the two-dimensional existence range to which the relative position information of the displayed ultrasonic tomographic image is added on the ultrasonic tomographic image, so that the user can It is possible to easily grasp the current position of the ultrasonic tomographic image with respect to the three-dimensional existence range while paying attention to the two-dimensional existence range on the acoustic tomographic image. Therefore, the user can easily grasp how much the existence range to be searched is left behind, and can efficiently search and identify the corresponding lesion part.

(第6の実施形態)
第5の実施形態に係る情報処理システムでは、超音波断層画像の位置情報のカラーテーブルへのマッピングは、3次元存在範囲の開始位置と終了位置とに基づいて行っていた。これに対し、本実施形態では、上記開始位置や終了位置の他に、3次元存在範囲を代表する位置情報(代表位置とも言う、所定の位置の一例)に基づいてカラーテーブルへのマッピングを行う。本実施形態に係る情報処理システムの構成は図11と同様であるが、表示情報生成部937の処理の一部のみが第5の実施形態とは異なっている。また、本実施形態に係る情報処理システムの処理のフローは図12と同様であるが、ステップS11054の処理の一部のみが第5の実施形態とは異なっている。以下、本実施形態に係る情報処理システムについて、第5の実施形態との相違部分についてのみ説明する。
(Sixth embodiment)
In the information processing system according to the fifth embodiment, the mapping of the position information of the ultrasonic tomographic image to the color table is performed based on the start position and end position of the three-dimensional existence range. On the other hand, in the present embodiment, in addition to the start position and end position, mapping to a color table is performed based on position information representative of a three-dimensional existence range (also referred to as a representative position, which is an example of a predetermined position). . The configuration of the information processing system according to the present embodiment is the same as that of FIG. 11, but only part of the processing of the display information generation unit 937 is different from that of the fifth embodiment. The processing flow of the information processing system according to the present embodiment is the same as that in FIG. 12, but only part of the processing in step S11054 is different from the fifth embodiment. Hereinafter, the information processing system according to the present embodiment will be described only with respect to differences from the fifth embodiment.

ステップS11054において、情報処理装置1000は、表示情報生成部937の処理として、3次元存在範囲算出部935から取得した2次元存在範囲の輪郭を表す形状情報と、位置情報算出部936から取得した超音波断層画像の位置情報と、3次元存在範囲を代表する位置情報とに基づいて、2次元存在範囲に相対的位置情報を付与した表示情報を生成する。以下に、具体的な生成方法を示す。なお、本実施形態では、3次元存在範囲を代表する位置情報として、3次元存在範囲の重心対応位置を用いた場合につて説明する。   In step S <b> 11054, the information processing apparatus 1000 processes the display information generation unit 937 as shape information representing the outline of the two-dimensional existence range acquired from the three-dimensional existence range calculation unit 935 and the super information acquired from the position information calculation unit 936. Display information in which relative position information is added to the two-dimensional existence range is generated based on the position information of the acoustic tomographic image and the position information representing the three-dimensional existence range. A specific generation method is shown below. In the present embodiment, a case will be described in which the position corresponding to the center of gravity of the three-dimensional existence range is used as position information representing the three-dimensional existence range.

まず、表示情報生成部937は、3次元存在範囲の重心位置を反映させたカラーテーブルを設定し、超音波断層画像の相対的位置情報をカラーテーブルに対応付ける。   First, the display information generation unit 937 sets a color table reflecting the position of the center of gravity of the three-dimensional existence range, and associates the relative position information of the ultrasonic tomographic image with the color table.

図14(b)は、重心対応位置を反映させたカラーテーブルへの相対的位置情報の対応付けを示す図である。Ax、P0、P1、Psは図13と同様のものを表す。また、Pgは上述の重心対応位置を表す。このとき、軸Axに沿って、位置P0とP1の間でカラーテーブルを設定する際、P0とPg、PgとP1のそれぞれの間で、その位置に応じて色が連続的に変化するカラーテーブルを設定する。具体的には、Pgの位置で色の強度が最大になり、PgからP0、P1それぞれの方向に近づくにつれ色の強度が下がるようなカラーテーブルを設定する。そして、ステップS10052でP0とP1の間で正規化された断層画像対応位置Psの相対的位置情報に対応する、カラーテーブル上の色情報を取得する。   FIG. 14B is a diagram illustrating the association of relative position information with the color table reflecting the position corresponding to the center of gravity. Ax, P0, P1, and Ps represent the same as in FIG. Pg represents the position corresponding to the center of gravity described above. At this time, when setting the color table between the positions P0 and P1 along the axis Ax, the color table in which the color continuously changes according to the position between P0 and Pg and between Pg and P1. Set. Specifically, a color table is set so that the color intensity becomes maximum at the position of Pg, and the color intensity decreases as it approaches P0 and P1 from Pg. In step S10052, color information on the color table corresponding to the relative position information of the tomographic image corresponding position Ps normalized between P0 and P1 is acquired.

T2は重心対応位置Pgの位置を反映したカラーテーブル、C2は相対的位置情報に対応する色情報を表す。例えば、カラーテーブルT2が、青色の強度が変化するカラーテーブルを表し、Psの相対的位置情報が0.3である場合、PsはPgの位置0.5に近いカラーテーブル上の位置にマッピングされるため、色情報C2は、やや濃い青色で表される。この色情報を参照することで超音波断層画像が、比較的3次元存在範囲の重心位置に近いことが直観的に分かる。   T2 represents a color table reflecting the position of the center of gravity corresponding position Pg, and C2 represents color information corresponding to the relative position information. For example, when the color table T2 represents a color table in which the intensity of blue changes, and the relative position information of Ps is 0.3, Ps is mapped to a position on the color table close to the position 0.5 of Pg. Therefore, the color information C2 is represented in a slightly dark blue color. By referring to this color information, it can be intuitively understood that the ultrasonic tomographic image is relatively close to the position of the center of gravity of the three-dimensional existence range.

また、P0、Pg、P1の位置に異なる典型的な色を設定し、それらの間で位置に応じて色が連続的に変化するカラーテーブルを設定しても良い。例えば、P0に赤色、Pgに緑色、P1に青色を設定し、P0とPgの間では赤色から緑色、PgとP1の間では緑色から青色に変化するカラーテーブルを設定する。これにより、超音波断層画像が、P0、Pg、P1のどの位置に近いのかが直観的に分かる。また、P0とPgの間、PgとP1の間では配色が異なるため、超音波断層画像が3次元存在範囲の重心位置に対してP0、P1のどちら側に位置しているのかが容易に分かる。Psの相対的位置情報が0.3のときは、赤色と緑色の間で緑色に近い色で表される。無論、P0とPgとP1の間を複数の段階に分けて、段階ごとに異なる色を割り当てたカラーテーブルを用いても良い。   Alternatively, different typical colors may be set at the positions P0, Pg, and P1, and a color table in which the colors continuously change according to the position may be set. For example, red is set for P0, green is set for Pg, and blue is set for P1, and a color table that changes from red to green between P0 and Pg and from green to blue is set between Pg and P1. Thereby, it is intuitively understood which position of the ultrasonic tomographic image is close to P0, Pg, and P1. In addition, since the color scheme is different between P0 and Pg, and between Pg and P1, it is easy to determine which side of the ultrasonic tomographic image is P0 or P1 with respect to the barycentric position of the three-dimensional existence range. . When the relative position information of Ps is 0.3, it is represented by a color close to green between red and green. Of course, a color table in which P0, Pg, and P1 are divided into a plurality of stages and different colors are assigned to the respective stages may be used.

次に、情報処理装置1000は、第5の実施形態と同様に、取得した超音波断層画像の相対的位置情報に対応する色情報をもとに、2次元存在範囲の形状情報に関連付けた存在範囲表示情報を生成する。   Next, as in the fifth embodiment, the information processing apparatus 1000 is associated with the shape information of the two-dimensional existence range based on the color information corresponding to the relative position information of the acquired ultrasonic tomographic image. Generate range display information.

なお、3次元存在範囲を代表する位置情報は、重心位置に限られるものではない。例えば、超音波断層画像302に平行な平面を直交軸Axに沿って平行移動させたときに、3次元存在範囲301と超音波断層画像302が交差する領域(2次元存在範囲303)の面積が最大になるときの平面の位置を求め、これを直交軸Axにプロットした位置を、3次元存在範囲を代表する位置情報としても良い。   Note that the position information representing the three-dimensional existence range is not limited to the position of the center of gravity. For example, when a plane parallel to the ultrasonic tomographic image 302 is translated along the orthogonal axis Ax, the area of the region where the three-dimensional existence range 301 and the ultrasonic tomographic image 302 intersect (two-dimensional existence range 303) is as follows. The position of the plane when the maximum is obtained and the position plotted on the orthogonal axis Ax may be used as position information representing the three-dimensional existence range.

これにより、3次元存在範囲における超音波断層画像の位置が、3次元存在範囲の重心位置にどの程度近いかを読み取ることができ、位置の把握をより直観的に行うことができる。   Thereby, it is possible to read how close the position of the ultrasonic tomographic image in the three-dimensional existence range is to the center of gravity position of the three-dimensional existence range, and the position can be grasped more intuitively.

(変形例)
上記第5の実施形態および第6の実施形態では、対応病変部が存在しうる3次元存在範囲を3次元領域とする例を説明したが、実施形態はこれに限られるものではない。例えば、X線CT画像やMRI画像における病変部や臓器などの注目部位を表す領域を3次元領域としても良い。これは、上記実施形態におけるステップS11020で取得される超音波断層画像を、現在表示しているスライス画像に置き換え、さらに、ステップS11050で取得される3次元存在範囲を、注目部位の3次元領域に置き換えることにより、実現することができる。
(Modification)
In the fifth embodiment and the sixth embodiment, the example in which the three-dimensional existence range in which the corresponding lesion portion can exist is a three-dimensional region has been described. However, the embodiment is not limited to this. For example, a region representing a site of interest such as a lesion or organ in an X-ray CT image or MRI image may be a three-dimensional region. This replaces the ultrasonic tomographic image acquired in step S11020 in the above embodiment with the slice image currently displayed, and further converts the three-dimensional existence range acquired in step S11050 to the three-dimensional region of the target region. This can be realized by replacement.

これにより、医師がX線CT画像やMRI画像を読影する際に、現在表示中のスライス画像に写る注目部位が、スライス画像の直交方向における注目部位の3次元領域のどの場所に位置するのかが直観的に把握できる。従って、読影すべき注目部位の3次元領域が後どの程度残されているのかが容易に分かるため、効率的に読影することが可能になる。   As a result, when a doctor interprets an X-ray CT image or an MRI image, the position of the attention site in the slice image currently displayed is located in the three-dimensional region of the attention site in the orthogonal direction of the slice image. Intuitive grasp. Therefore, it is easy to know how much of the three-dimensional region of the target region to be interpreted is left behind, so that it is possible to interpret efficiently.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

100 情報処理装置
110 断層画像取得部
112 位置姿勢取得部
120 三次元画像データ取得部
122 注目領域取得部
123 誤差取得部
130 断面画像生成部
135 存在範囲算出部
140 画像合成部
150 表示制御部
DESCRIPTION OF SYMBOLS 100 Information processing apparatus 110 Tomographic image acquisition part 112 Position and orientation acquisition part 120 Three-dimensional image data acquisition part 122 Attention area acquisition part 123 Error acquisition part 130 Cross-sectional image generation part 135 Existence range calculation part 140 Image composition part 150 Display control part

Claims (18)

被検体の二次元画像を取得する二次元画像取得手段と、
前記二次元画像を含む平面上に前記被検体の三次元画像の所定の領域を投影した投影領域を含む前記投影による誤差範囲を前記二次元画像上に重ねて表示手段に表示させる表示制御手段と、
を有することを特徴とする情報処理装置。
Two-dimensional image acquisition means for acquiring a two-dimensional image of the subject;
Display control means for displaying on the display means an error range by the projection including a projection area obtained by projecting a predetermined area of the three-dimensional image of the subject on a plane including the two-dimensional image; ,
An information processing apparatus comprising:
前記投影による誤差範囲は、前記所定の領域に対応する前記二次元画像の領域が存在し得る範囲であることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the error range by the projection is a range in which a region of the two-dimensional image corresponding to the predetermined region can exist. 前記所定の領域の位置を前記三次元画像の三次元座標系から前記二次元画像の三次元座標系に座標変換する座標変換手段と、
前記座標変換による誤差に基づいて前記投影による誤差範囲を算出する算出手段と、
を有することを特徴とする請求項1あるいは2に記載の情報処理装置。
Coordinate conversion means for converting the position of the predetermined region from the three-dimensional coordinate system of the three-dimensional image to the three-dimensional coordinate system of the two-dimensional image;
Calculating means for calculating an error range due to the projection based on an error due to the coordinate transformation;
The information processing apparatus according to claim 1, further comprising:
前記所定の領域よりも大きく且つ該所定の領域を含む領域を前記三次元画像に設定する設定手段を有し、
前記座標変換手段が、前記領域の位置を前記三次元画像の三次元座標系から前記二次元画像の三次元座標系に座標変換することを特徴とする請求項3に記載の情報処理装置。
Setting means for setting a region larger than the predetermined region and including the predetermined region in the three-dimensional image;
The information processing apparatus according to claim 3, wherein the coordinate conversion unit converts the position of the region from a three-dimensional coordinate system of the three-dimensional image to a three-dimensional coordinate system of the two-dimensional image.
前記投影による誤差範囲内から所定の箇所を指定する指定手段と、
前記所定の箇所と前記投影領域との差分に基づいて該二次元画像における前記投影による誤差を補正する補正手段と、
を有することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
Designating means for designating a predetermined location from within the error range by the projection;
Correction means for correcting an error due to the projection in the two-dimensional image based on a difference between the predetermined portion and the projection region;
The information processing apparatus according to claim 1, further comprising:
前記表示制御手段は、前記二次元画像上の前記所定の箇所に前記所定の領域に対応する前記二次元画像の領域であることを示すマークを重ねて前記表示手段に表示させることを特徴とする請求項5に記載の情報処理装置。   The display control unit causes the display unit to display a mark indicating that the region of the two-dimensional image corresponds to the predetermined region at the predetermined position on the two-dimensional image. The information processing apparatus according to claim 5. 前記補正手段により補正されると、再度取得した前記被検体の二次元画像上に前記投影による誤差範囲を表示させずに、該二次元画像上に前記所定の箇所が表示されている場合には前記マークを該二次元画像上に重ねて前記表示手段に表示させるモードに切り替える切替手段を有することを特徴とする請求項6に記載の情報処理装置。   When the predetermined portion is displayed on the two-dimensional image without displaying the error range due to the projection on the two-dimensional image of the subject acquired again after being corrected by the correcting means. The information processing apparatus according to claim 6, further comprising a switching unit that switches to a mode in which the mark is displayed on the display unit while being superimposed on the two-dimensional image. 前記三次元画像における前記所定の領域の位置と前記二次元画像の姿勢とに基づいて前記所定の領域を通り且つ前記姿勢に対応する前記三次元画像の断面画像を取得する断面画像取得手段を有することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。   Cross-sectional image acquisition means for acquiring a cross-sectional image of the three-dimensional image that passes through the predetermined region and corresponds to the posture based on the position of the predetermined region in the three-dimensional image and the posture of the two-dimensional image. The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus. 前記二次元画像を取得するために前記被検体からの超音波を検出する超音波探触子と、前記超音波探触子の位置及び姿勢を取得する位置姿勢取得手段と、を有し、
前記超音波探触子の位置及び姿勢に基づいて前記二次元画像の姿勢を取得することを特徴とする請求項8に記載の情報処理装置。
An ultrasonic probe that detects ultrasonic waves from the subject to acquire the two-dimensional image, and a position and orientation acquisition unit that acquires the position and orientation of the ultrasonic probe;
The information processing apparatus according to claim 8, wherein an attitude of the two-dimensional image is acquired based on a position and an attitude of the ultrasonic probe.
前記表示制御手段が、前記投影による誤差範囲を該二次元画像上に重ねた画像と前記断面画像上に前記所定の領域を重ねた画像とを前記表示手段に表示させることを特徴とする請求項8あるいは9に記載の情報処理装置。   The display control means causes the display means to display an image in which an error range due to the projection is overlaid on the two-dimensional image and an image in which the predetermined region is overlaid on the cross-sectional image. The information processing apparatus according to 8 or 9. 被検体の三次元画像の所定の箇所を指定する指定手段と、
前記被検体の二次元画像を取得する二次元画像取得手段と、
前記二次元画像の位置情報に応じて、前記所定の箇所に対応する箇所を含む三次元領域のうち前記二次元画像における二次元領域を示す表示形態を表示手段に表示させる表示制御手段と、
を有することを特徴とする情報処理装置。
A designation means for designating a predetermined portion of the three-dimensional image of the subject;
Two-dimensional image acquisition means for acquiring a two-dimensional image of the subject;
Display control means for displaying on the display means a display form indicating a two-dimensional area in the two-dimensional image among three-dimensional areas including a place corresponding to the predetermined place according to the position information of the two-dimensional image;
An information processing apparatus comprising:
前記表示制御手段が、前記位置情報に対応付けられた色情報を示す表示形態により、前記二次元領域を前記表示手段に表示させることを特徴とする請求項11に記載の情報処理装置。   The information processing apparatus according to claim 11, wherein the display control unit causes the display unit to display the two-dimensional area in a display form indicating color information associated with the position information. 前記表示制御手段が、前記位置情報に対応付けられた前記二次元領域の輪郭線を前記表示手段に表示させることを特徴とする請求項11に記載の情報処理装置。   The information processing apparatus according to claim 11, wherein the display control unit causes the display unit to display an outline of the two-dimensional area associated with the position information. 前記断層画像の位置情報に応じて、該位置情報に対応付けられた表示形態に変更する表示形態変更手段を有し、
前記表示制御手段が、前記位置情報に対応付けられた表示形態により、前記2次元領域を前記表示手段に表示させることを特徴とする請求項11に記載の情報処理装置。
According to the position information of the tomographic image, the display form changing means for changing to the display form associated with the position information,
The information processing apparatus according to claim 11, wherein the display control unit causes the display unit to display the two-dimensional area in a display form associated with the position information.
前記二次元領域における所定の位置と前記断層画像との位置関係に基づいて、前記断層画像の位置情報を算出する算出手段を有することを特徴とする請求項11乃至14のいずれか1項に記載の情報処理装置。   15. The calculation apparatus according to claim 11, further comprising a calculation unit configured to calculate position information of the tomographic image based on a positional relationship between a predetermined position in the two-dimensional region and the tomographic image. Information processing device. 前記算出手段が、前記二次元領域の開始位置及び終了位置と代表位置とを前記所定の位置として特定し、前記開始位置と前記終了位置と前記代表位置と前記断層画像との位置関係に基づいて、前記位置情報を算出することを特徴とする請求項15に記載の情報処理装置。   The calculation means specifies a start position, an end position, and a representative position of the two-dimensional area as the predetermined position, and based on a positional relationship between the start position, the end position, the representative position, and the tomographic image. The information processing apparatus according to claim 15, wherein the position information is calculated. 前記所定の箇所に対応する箇所は、前記断層画像の座標系で表され、
前記表示制御手段が、前記断層画像の座標系における前記断層画像の位置情報に応じて、前記2次元領域を示す表示形態を前記断層画像に重ねて前記表示手段に表示させることを特徴とする請求項11乃至16のいずれか1項に記載の情報処理装置。
A location corresponding to the predetermined location is represented by a coordinate system of the tomographic image,
The display control unit causes the display unit to display a display form indicating the two-dimensional region on the tomographic image in accordance with position information of the tomographic image in a coordinate system of the tomographic image. Item 17. The information processing apparatus according to any one of Items 11 to 16.
被検体の二次元画像を取得する二次元画像取得手段と、
前記被検体の三次元画像の所定の箇所に対応する箇所を含む三次元領域のうち前記二次元画像における二次元領域を示す表示形態を表示手段に表示させる表示制御手段と、
を有することを特徴とする情報処理装置。
Two-dimensional image acquisition means for acquiring a two-dimensional image of the subject;
Display control means for causing a display means to display a display form indicating a two-dimensional area in the two-dimensional image among three-dimensional areas including a position corresponding to a predetermined position of the three-dimensional image of the subject;
An information processing apparatus comprising:
JP2018165937A 2011-04-06 2018-09-05 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM Active JP6548798B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011084495 2011-04-06
JP2011084495 2011-04-06
JP2012008205 2012-01-18
JP2012008205 2012-01-18

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017149946A Division JP6400160B2 (en) 2011-04-06 2017-08-02 Information processing device

Publications (3)

Publication Number Publication Date
JP2018192306A true JP2018192306A (en) 2018-12-06
JP2018192306A5 JP2018192306A5 (en) 2019-03-14
JP6548798B2 JP6548798B2 (en) 2019-07-24

Family

ID=56824539

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016114650A Expired - Fee Related JP6188874B2 (en) 2011-04-06 2016-06-08 Information processing apparatus, method, and program
JP2017149946A Expired - Fee Related JP6400160B2 (en) 2011-04-06 2017-08-02 Information processing device
JP2018165937A Active JP6548798B2 (en) 2011-04-06 2018-09-05 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016114650A Expired - Fee Related JP6188874B2 (en) 2011-04-06 2016-06-08 Information processing apparatus, method, and program
JP2017149946A Expired - Fee Related JP6400160B2 (en) 2011-04-06 2017-08-02 Information processing device

Country Status (1)

Country Link
JP (3) JP6188874B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3485816A1 (en) * 2017-11-21 2019-05-22 Koninklijke Philips N.V. Method and apparatus for guiding an ultrasound probe
CN110916707B (en) * 2019-12-18 2023-06-27 上海皓桦科技股份有限公司 Two-dimensional bone image acquisition method, system and device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070015995A1 (en) * 1998-09-14 2007-01-18 Philipp Lang Joint and cartilage diagnosis, assessment and modeling
US20080123910A1 (en) * 2006-09-19 2008-05-29 Bracco Imaging Spa Method and system for providing accuracy evaluation of image guided surgery
JP2008212680A (en) * 2007-03-06 2008-09-18 General Electric Co <Ge> Method and apparatus for tracking points in ultrasound image
JP2008246264A (en) * 2003-05-08 2008-10-16 Hitachi Medical Corp Ultrasonic diagnostic apparatus
US20090129650A1 (en) * 2007-11-19 2009-05-21 Carestream Health, Inc. System for presenting projection image information
JP2010131269A (en) * 2008-12-05 2010-06-17 Canon Inc Information processor and information processing method
JP2011011001A (en) * 2009-07-06 2011-01-20 Toshiba Corp Ultrasonic diagnostic apparatus and processing program therefor

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4699062B2 (en) * 2005-03-29 2011-06-08 株式会社日立メディコ Ultrasonic device
US8771188B2 (en) * 2007-06-20 2014-07-08 Perception Raisonnement Action En Medecine Ultrasonic bone motion tracking system
JP5689591B2 (en) * 2009-06-01 2015-03-25 株式会社東芝 Ultrasonic diagnostic apparatus and ultrasonic image processing program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070015995A1 (en) * 1998-09-14 2007-01-18 Philipp Lang Joint and cartilage diagnosis, assessment and modeling
JP2008246264A (en) * 2003-05-08 2008-10-16 Hitachi Medical Corp Ultrasonic diagnostic apparatus
US20080123910A1 (en) * 2006-09-19 2008-05-29 Bracco Imaging Spa Method and system for providing accuracy evaluation of image guided surgery
JP2008212680A (en) * 2007-03-06 2008-09-18 General Electric Co <Ge> Method and apparatus for tracking points in ultrasound image
US20090129650A1 (en) * 2007-11-19 2009-05-21 Carestream Health, Inc. System for presenting projection image information
JP2010131269A (en) * 2008-12-05 2010-06-17 Canon Inc Information processor and information processing method
JP2011011001A (en) * 2009-07-06 2011-01-20 Toshiba Corp Ultrasonic diagnostic apparatus and processing program therefor

Also Published As

Publication number Publication date
JP6548798B2 (en) 2019-07-24
JP2017200619A (en) 2017-11-09
JP6188874B2 (en) 2017-08-30
JP2016154998A (en) 2016-09-01
JP6400160B2 (en) 2018-10-03

Similar Documents

Publication Publication Date Title
JP5950619B2 (en) Information processing device
JP5430203B2 (en) Image processing apparatus and image processing method
US9123096B2 (en) Information processing apparatus and control method thereof
JP6039903B2 (en) Image processing apparatus and operation method thereof
JP5631453B2 (en) Image processing apparatus and image processing method
US20110245660A1 (en) Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
JP6071282B2 (en) Information processing apparatus, ultrasonic imaging apparatus, and information processing method
US20180344408A1 (en) Navigation, tracking and guiding system for the positioning of operatory instruments within the body of a patient
JP2012213558A (en) Image processing apparatus, image processing method, and program
JP6400160B2 (en) Information processing device
WO2016054775A1 (en) Ultrasonic virtual endoscopic imaging system and method, and apparatus thereof
JP6487999B2 (en) Information processing apparatus, information processing method, and program
JP6263248B2 (en) Information processing apparatus, information processing method, and program
JP2013158361A (en) Information processor and information processing method
JP6336025B2 (en) Information processing apparatus, method of operating information processing apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190625

R151 Written notification of patent or utility model registration

Ref document number: 6548798

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151