JP6387166B2 - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method

Info

Publication number
JP6387166B2
JP6387166B2 JP2017162689A JP2017162689A JP6387166B2 JP 6387166 B2 JP6387166 B2 JP 6387166B2 JP 2017162689 A JP2017162689 A JP 2017162689A JP 2017162689 A JP2017162689 A JP 2017162689A JP 6387166 B2 JP6387166 B2 JP 6387166B2
Authority
JP
Japan
Prior art keywords
dimensional
image
distance
information processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017162689A
Other languages
Japanese (ja)
Other versions
JP2017202399A (en
Inventor
浩一 石津
浩一 石津
貴之 上野
貴之 上野
石田 卓也
卓也 石田
遠藤 隆明
隆明 遠藤
佐藤 清秀
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017162689A priority Critical patent/JP6387166B2/en
Publication of JP2017202399A publication Critical patent/JP2017202399A/en
Application granted granted Critical
Publication of JP6387166B2 publication Critical patent/JP6387166B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、断層像を取り扱う技術に関するものである。   The present invention relates to a technique for handling a tomographic image.

医療の分野において、医師は、複数のモダリティで撮像した医用画像(被検体内部の3次元的な情報を表す3次元画像データ)や、異なる日時に撮像した医用画像を用いて診断を行っている。複数種類の医用画像を診断に利用するためには、夫々の医用画像において注目する病変部等の部位(注目部位、注目病変部)を対応付ける(同定する)ことが重要である。そのため、医師は、一方の医用画像上で指摘されている注目病変部の画像を見ながら、病変部の形状やその周辺部の見え方等の類似性を手がかりにして、その病変部に対応する部位(対応部位,対応病変部)を他方の医用画像から探索するという作業を行っている。   In the medical field, a doctor makes a diagnosis using medical images (three-dimensional image data representing three-dimensional information inside a subject) captured with a plurality of modalities and medical images captured at different dates and times. . In order to use a plurality of types of medical images for diagnosis, it is important to associate (identify) a site (a site of interest, a site of interest) such as a lesion site of interest in each medical image. Therefore, the doctor responds to the lesion by using the similarities such as the shape of the lesion and the appearance of the periphery thereof while looking at the image of the lesion of interest pointed out on one medical image. An operation of searching for a region (corresponding region, corresponding lesion) from the other medical image is performed.

乳腺科では、伏臥位で撮像した乳房のMRI画像上で病変部等が指摘された後に、仰臥位による超音波検査で超音波断層画像上における対応病変部を探索して(同定して)診断を行うことがある。しかし、被検体である乳房が柔らかく、かつ、体位の差異が大きいため、病変部の位置や見え方が大きく変化してしまうという課題がある。そのため、対応病変部の探索は容易ではなく、何らかのコンピュータ支援による負荷の軽減が求められている。   In the department of mammary gland, lesions etc. are pointed out on the MRI image of the breast imaged in the prone position, and then the corresponding lesion in the ultrasonic tomographic image is searched (identified) for diagnosis by ultrasonic examination in the supine position. May be performed. However, since the subject breast is soft and there is a large difference in body position, there is a problem that the position and appearance of the lesioned part greatly change. Therefore, it is not easy to search for a corresponding lesion, and some kind of computer-assisted load reduction is required.

特許文献1では、伏臥位から仰臥位への乳房の変形推定を行う技術が示されている。この変形推定結果を用いれば、仰臥位における病変部の位置を推定し、推定位置を超音波探触子操作の支援情報として提示できる。また、特許文献2では、乳房の単純X線画像から乳頭位置を自動で抽出し、そこから一定の範囲内に含まれる画像中の領域を該画像中に描画する技術が示されている。   Patent Document 1 discloses a technique for estimating breast deformation from the prone position to the supine position. By using this deformation estimation result, the position of the lesion in the supine position can be estimated, and the estimated position can be presented as support information for ultrasonic probe operation. Patent Document 2 discloses a technique for automatically extracting a nipple position from a simple X-ray image of a breast and drawing a region in the image included in a certain range therefrom in the image.

特開2011-123682号公報JP 2011-123682 A 特開2010-227215号公報JP 2010-227215 A

特許文献1に記載の方法を用いる場合、有限要素法等の変形シミュレーションの計算が必要なため、操作者(医師)は計算が終了するまで待たなくてはならないという課題がある。また、変形シミュレーションを実施するために操作者が入力すべき計測情報が幾つか存在するが、その入力の手間が許容されない場合があるという課題がある。さらに、乳房の変形を正確に推定すること自体が容易ではないという課題も残されている。また、特許文献2に記載の方法では、被検体の特徴点から一定の範囲内の領域を知ることができるが、それは画像中に特徴点が含まれる断面のみであるため、任意の断面でその領域を知ることができない。   When the method described in Patent Document 1 is used, calculation of deformation simulation such as a finite element method is necessary, and thus there is a problem that an operator (physician) has to wait until the calculation is completed. In addition, there are some pieces of measurement information to be input by the operator in order to perform the deformation simulation, but there is a problem that the input effort may not be allowed. Furthermore, there remains a problem that it is not easy to accurately estimate the deformation of the breast. Further, in the method described in Patent Document 2, it is possible to know a region within a certain range from the feature point of the subject. However, since this is only a cross-section including the feature point in the image, the cross-section can be selected with any cross-section. I cannot know the area.

本発明はこのような問題に鑑みてなされたものであり、画像中で病変部等を探索する際の支援情報を、多くの計測情報を用いずに簡易な計算のみで導出して提示する為の技術を提供する。   The present invention has been made in view of such problems, and is intended to derive and present support information for searching for a lesion in an image by simple calculation without using much measurement information. Provide technology.

本発明の一様態によれば、被検体の二次元画像を取得する取得手段と、
空間中における前記被検体の基準点の三次元位置を表す情報を取得する基準点位置取得手段と、
前記基準点の前記三次元位置から所定の三次元距離だけ離間した部分に対応する前記二次元画像中の箇所を特定する特定手段と、
前記二次元画像に前記箇所を示す情報を合成した合成画像を生成する生成手段と
を備え
前記特定手段は、前記基準点の前記三次元位置を中心とし且つ前記所定の三次元距離を半径とする球を前記二次元画像に対応する断面で切り取った円を特定し、該円のうち前記二次元画像に含まれる円弧を前記箇所として特定し、
前記生成手段は、前記二次元画像に前記円弧を重畳した前記合成画像を生成する
ことを特徴とする。
According to one aspect of the present invention, acquisition means for acquiring a two-dimensional image of a subject;
Reference point position acquisition means for acquiring information representing the three-dimensional position of the reference point of the subject in space;
Identifying means for identifying a location in the two-dimensional image corresponding to a portion separated by a predetermined three-dimensional distance from the three-dimensional position of the reference point;
Generating means for generating a synthesized image obtained by synthesizing information indicating the location on the two-dimensional image ,
The specifying means specifies a circle obtained by cutting a sphere centered on the three-dimensional position of the reference point and having a radius of the predetermined three-dimensional distance in a cross section corresponding to the two-dimensional image, Identify the arc included in the two-dimensional image as the location,
The generating means generates the composite image in which the arc is superimposed on the two-dimensional image .

本発明の構成によれば、画像中で病変部等を探索する際の支援情報を、多くの計測情報を用いずに簡易な計算のみで導出して提示することができる。   According to the configuration of the present invention, it is possible to derive and present support information for searching for a lesioned part or the like in an image only by simple calculation without using much measurement information.

情報処理システムの機能構成例を示すブロック図。The block diagram which shows the function structural example of an information processing system. コンピュータのハードウェア構成例を示すブロック図。The block diagram which shows the hardware structural example of a computer. コンピュータが行う処理のフローチャート。The flowchart of the process which a computer performs. 合成画像の一例を示す図。The figure which shows an example of a synthesized image. 情報処理システムの機能構成例を示すブロック図。The block diagram which shows the function structural example of an information processing system. コンピュータが行う処理のフローチャート。The flowchart of the process which a computer performs. 合成画像の一例を示す図。The figure which shows an example of a synthesized image. 合成画像の一例を示す図。The figure which shows an example of a synthesized image. 合成画像の一例を示す図。The figure which shows an example of a synthesized image. 合成画像の一例を示す図。The figure which shows an example of a synthesized image. データサーバ560に保持されている情報を説明する図である。FIG. 6 is a diagram for explaining information held in a data server 560. 統計情報について説明する図。The figure explaining statistical information. 情報処理システムの機能構成例を示すブロック図。The block diagram which shows the function structural example of an information processing system. コンピュータが行う処理のフローチャート。The flowchart of the process which a computer performs. 第3の実施形態における合成画像の例を説明する図である。It is a figure explaining the example of the synthesized image in 3rd Embodiment.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態に係る情報処理システムは、MRI等のモダリティで取得した画像上で病変部等の注目部位が指摘された後に、超音波検査で超音波断層画像上における対応部位を探索(同定)して診断する場合に、その探索の支援情報を操作者に提示するものである。本システムは、乳房を検査対象とした場合、伏臥位・仰臥位といった体位の違いに関わらず、乳頭から病変部等の注目部位までの3次元距離(乳頭注目部位間距離)が保たれる傾向にあるという知見に基づいて、対応部位が存在する可能性の高い場所を超音波断層像上に提示する。また、乳頭から画像上の各点までの距離が把握できるような情報を超音波断層像上に表示することで、超音波断層画像上での対応部位の探索を容易にする。以下、本実施形態に係る情報処理システムについて説明する。
[First Embodiment]
The information processing system according to the present embodiment searches for (identifies) a corresponding part on an ultrasonic tomographic image by ultrasonic examination after an attention part such as a lesion is pointed out on an image acquired by a modality such as MRI. In this case, the search support information is presented to the operator. This system tends to maintain a three-dimensional distance from the nipple to the site of interest, such as a lesion, regardless of the body position, such as prone or supine, when the breast is examined. Based on the knowledge that the corresponding part exists, a place where the corresponding part is likely to exist is presented on the ultrasonic tomographic image. In addition, by displaying information on the ultrasonic tomographic image so that the distance from the nipple to each point on the image can be grasped, it is easy to search for a corresponding part on the ultrasonic tomographic image. The information processing system according to this embodiment will be described below.

先ず、本実施形態に係る情報処理システムの機能構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係る情報処理システムは、データサーバ160、情報処理装置100、医用画像収集装置170、表示部180、を有する。   First, a functional configuration example of the information processing system according to the present embodiment will be described with reference to the block diagram of FIG. As illustrated in FIG. 1, the information processing system according to the present embodiment includes a data server 160, an information processing apparatus 100, a medical image collection apparatus 170, and a display unit 180.

先ず、データサーバ160について説明する。データサーバ160は、観察対象である被検体の基準点(乳頭)から注目部位までの3次元距離(基準点注目部位間距離)等の情報を保持しており、これを情報処理装置100へと出力する。データサーバ160が保持する基準点注目部位間距離は、同一被検体を撮影したMRI画像等の他の3次元の医用画像から予め算出された数値である。この値は、例えばMRI画像から画像処理によって基準点の位置(乳頭位置)を検出し、操作者が同画像上で指摘した注目部位の位置との間の3次元距離を算出する処理を不図示の画像処理システムが実行することで取得できる。   First, the data server 160 will be described. The data server 160 holds information such as a three-dimensional distance from the reference point (papillae) of the subject to be observed to the site of interest (distance between the sites of interest of the reference point) and the like to the information processing apparatus 100. Output. The distance between the reference point attention sites held by the data server 160 is a numerical value calculated in advance from another three-dimensional medical image such as an MRI image obtained by imaging the same subject. This value is not shown, for example, by detecting the position of the reference point (papillary position) from the MRI image by image processing and calculating the three-dimensional distance from the position of the target region pointed out by the operator on the image. It can be acquired by executing this image processing system.

なお、図1ではデータサーバ160は情報処理装置100の外部装置として示しているが、情報処理装置100内の機器としてもよく、例えば、情報処理装置100に内蔵されているハードディスクなどの機器であっても構わない。   In FIG. 1, the data server 160 is shown as an external device of the information processing apparatus 100. However, the data server 160 may be a device in the information processing apparatus 100, for example, a device such as a hard disk built in the information processing apparatus 100. It doesn't matter.

次に、医用画像収集装置170について説明する。本実施形態では、医用画像収集装置170は超音波画像診断装置であるものとして説明する。医用画像収集装置170は、被検体の超音波断層画像(断層像)を実時間で撮像する。医用画像収集装置170によって撮像された各フレームの超音波断層画像は順次、断層画像取得部110を介して情報処理装置100に入力される。また、医用画像収集装置170は、不図示の超音波探触子の空間中の位置姿勢(3次元位置姿勢)を実時間で計測するためのセンサシステムを有している。このセンサシステムによって計測された超音波探触子の位置姿勢は順次、位置姿勢取得部120を介して情報処理装置100に入力される。超音波探触子の位置姿勢を計測するためのセンサシステムには様々な構成が考えられる。例えば、超音波探触子の画像を実時間で撮像し、該画像から超音波探触子の位置姿勢を計算により求めても構わないし、磁気センサや超音波センサ、光学式センサを用いた周知の計測方法で計測しても構わない。   Next, the medical image collection apparatus 170 will be described. In the present embodiment, the medical image collection apparatus 170 will be described as an ultrasonic diagnostic imaging apparatus. The medical image acquisition apparatus 170 captures an ultrasonic tomographic image (tomographic image) of a subject in real time. The ultrasonic tomographic images of each frame imaged by the medical image acquisition apparatus 170 are sequentially input to the information processing apparatus 100 via the tomographic image acquisition unit 110. The medical image collection apparatus 170 has a sensor system for measuring the position and orientation (three-dimensional position and orientation) of an ultrasound probe (not shown) in the space in real time. The position and orientation of the ultrasound probe measured by this sensor system are sequentially input to the information processing apparatus 100 via the position and orientation acquisition unit 120. Various configurations are conceivable for the sensor system for measuring the position and orientation of the ultrasonic probe. For example, an image of an ultrasonic probe may be captured in real time, and the position and orientation of the ultrasonic probe may be obtained from the image by calculation, or a known sensor using a magnetic sensor, an ultrasonic sensor, or an optical sensor may be used. You may measure by the measuring method.

次に、情報処理装置100について説明する。情報処理装置100には、例えば、一般のPC(パーソナルコンピュータ)などを適用することもできるし、専用のハードウェアを適用することもできる。   Next, the information processing apparatus 100 will be described. For example, a general PC (personal computer) or the like can be applied to the information processing apparatus 100, or dedicated hardware can be applied.

基準距離取得部105は、データサーバ160から送出される基準点注目部位間距離を、基準距離として取得する。断層画像取得部110は上記の通り、医用画像収集装置170から順次送出される超音波断層画像を後段の画像生成部140に転送する。位置姿勢取得部120は上記の通り、医用画像収集装置170から順次送出される位置姿勢を後段の画像生成部140に転送する。   The reference distance acquisition unit 105 acquires the distance between the reference point attention sites transmitted from the data server 160 as the reference distance. As described above, the tomographic image acquisition unit 110 transfers the ultrasonic tomographic images sequentially transmitted from the medical image collection device 170 to the subsequent image generation unit 140. As described above, the position / orientation acquisition unit 120 transfers the position / orientation sequentially transmitted from the medical image collection apparatus 170 to the subsequent image generation unit 140.

基準点位置取得部130は、操作者の指示に基づき、超音波探触子の位置姿勢を利用して、空間中における基準点の位置を取得する。   The reference point position acquisition unit 130 acquires the position of the reference point in the space using the position and orientation of the ultrasonic probe based on an instruction from the operator.

画像生成部140は、基準距離と、基準点の位置と、超音波探触子の位置姿勢と、に基づいて後述する計算処理を行うことで、基準点を中心とし且つ基準距離を半径とする球を、超音波断層画像に対応する断層面で切り取った部分(円)を算出する。そして画像生成部140は、この算出した円のうち超音波断層画像に含まれる部分(円弧)に関する情報を超音波断層画像上に重畳(合成)して、表示制御部150に対して送出する。   The image generation unit 140 performs calculation processing to be described later based on the reference distance, the position of the reference point, and the position and orientation of the ultrasonic probe, so that the reference point is the center and the reference distance is the radius. A portion (circle) obtained by cutting the sphere at the tomographic plane corresponding to the ultrasonic tomographic image is calculated. Then, the image generation unit 140 superimposes (combines) information on a portion (arc) included in the ultrasonic tomographic image of the calculated circle on the ultrasonic tomographic image, and sends the information to the display control unit 150.

表示制御部150は、画像生成部140から送出された合成画像、即ち、超音波断層画像上に円弧に関する情報が重畳された画像を、表示部180に送出することで、該画像を表示部180に表示させる。   The display control unit 150 sends the composite image sent from the image generation unit 140, that is, the image in which the information about the arc is superimposed on the ultrasonic tomographic image to the display unit 180, so that the image is displayed on the display unit 180. To display.

表示部180は、CRTや液晶画面などにより構成されており、情報処理装置100による処理結果を画像や文字などでもって表示する。表示部180は例えば、後述する合成画像やGUI(グラフィカルユーザインターフェース)などを表示することができる。   The display unit 180 is configured by a CRT, a liquid crystal screen, or the like, and displays a processing result by the information processing apparatus 100 using an image, text, or the like. The display unit 180 can display, for example, a composite image or a GUI (graphical user interface) described later.

ここで、情報処理装置100を構成する各機能部は何れもハードウェアで構成しても良いが、その一部をソフトウェア(コンピュータプログラム)で構成しても良い。この場合、このソフトウェアは、情報処理装置100が有する制御部によって実行されることで対応する機能が実現されることになる。また、情報処理装置100を構成する各機能部のうち1以上を外部の独立した機器としても構わない。もちろん、情報処理装置100を構成する各機能部をソフトウェアで実現させても良い。   Here, all the functional units constituting the information processing apparatus 100 may be configured by hardware, but a part thereof may be configured by software (computer program). In this case, the corresponding function is realized by the software being executed by the control unit included in the information processing apparatus 100. Further, one or more of the functional units constituting the information processing apparatus 100 may be external independent devices. Of course, each functional unit constituting the information processing apparatus 100 may be realized by software.

本実施形態では、情報処理装置100を構成する各機能部は何れもソフトウェアで構成するものとして説明する。この場合、情報処理装置100には、図2に示すようなハードウェア構成を有するコンピュータを適用することができる。   In the present embodiment, each functional unit constituting the information processing apparatus 100 will be described as being configured by software. In this case, a computer having a hardware configuration as shown in FIG. 2 can be applied to the information processing apparatus 100.

CPU1001はRAM1002やROM1003に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の動作制御を行うと共に、本コンピュータを適用する情報処理装置100が行うものとして後述する各処理を実行する。   The CPU 1001 controls the operation of the entire computer using computer programs and data stored in the RAM 1002 and the ROM 1003, and executes each process described later as what the information processing apparatus 100 to which this computer applies.

RAM1002は、外部記憶装置1007や記憶媒体ドライブ1008からロードされたコンピュータプログラムやデータ、I/F(インターフェース)1009を介して外部機器から受信したデータを一時的に記憶するためのエリアを有する。また、RAM1002は、CPU1001が各種の処理を実行する際に用いるワークエリアも有する。すなわち、RAM1002は、各種のエリアを適宜提供することができる。ROM1003には、本コンピュータの設定データやブートプログラムなどが格納されている。   The RAM 1002 has an area for temporarily storing computer programs and data loaded from the external storage device 1007 and the storage medium drive 1008 and data received from an external device via an I / F (interface) 1009. The RAM 1002 also has a work area used when the CPU 1001 executes various processes. That is, the RAM 1002 can provide various areas as appropriate. The ROM 1003 stores setting data and a boot program for the computer.

キーボード1004やマウス1005は、本コンピュータの操作者が操作することで各種の指示をCPU1001に入力するためのものである。然るに、各種の指示をCPU1001に入力するための機器であれば、キーボード1004、マウス1005以外の機器を用いても構わない。   A keyboard 1004 and a mouse 1005 are used to input various instructions to the CPU 1001 when operated by an operator of the computer. However, devices other than the keyboard 1004 and the mouse 1005 may be used as long as they are devices for inputting various instructions to the CPU 1001.

外部記憶装置1007は、ハードディスクドライブ装置などの大容量情報記憶装置として機能するものである。外部記憶装置1007には、OS(オペレーティングシステム)や、本コンピュータを適用する情報処理装置100が行うものとして後述する各処理をCPU1001に実行させるためのコンピュータプログラムやデータが保存されている。外部記憶装置1007に保存されているコンピュータプログラムには、情報処理装置100内の機能部として図1に示した機能部(105〜150)の機能をCPU1001に実行させるためのコンピュータプログラムが含まれている。外部記憶装置1007に保存されているデータには、以下の説明において既知の情報として取り扱うものが含まれている。   The external storage device 1007 functions as a large-capacity information storage device such as a hard disk drive device. The external storage device 1007 stores a computer program and data for causing the CPU 1001 to execute processes described later as those performed by the OS (operating system) and the information processing apparatus 100 to which the present computer is applied. The computer program stored in the external storage device 1007 includes a computer program for causing the CPU 1001 to execute the functions of the function units (105 to 150) illustrated in FIG. Yes. Data stored in the external storage device 1007 includes data handled as known information in the following description.

外部記憶装置1007に保存されているものとして説明したコンピュータプログラムやデータは、CPU1001による制御に従って適宜RAM1002にロードされ、CPU1001による処理対象となる。なお、データサーバ160に保存されているものとして説明した情報をこの外部記憶装置1007に保存させるようにしても構わない。   The computer programs and data described as being stored in the external storage device 1007 are appropriately loaded into the RAM 1002 under the control of the CPU 1001 and are processed by the CPU 1001. Information described as being stored in the data server 160 may be stored in the external storage device 1007.

記憶媒体ドライブ1008は、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているコンピュータプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。外部記憶装置1007に保存されているものとして説明したコンピュータプログラムやデータのうち一部をこの記憶媒体に記憶させておくようにしても構わない。   The storage medium drive 1008 reads out computer programs and data stored in a storage medium such as a CD-ROM or DVD-ROM in accordance with instructions from the CPU 1001 and outputs them to the RAM 1002 or the external storage device 1007. Some of the computer programs and data described as being stored in the external storage device 1007 may be stored in this storage medium.

I/F1009は、アナログビデオポートあるいはIEEE1394等のデジタル入出力ポートや、合成画像などの情報を外部へ出力するためのイーサネットポート等によって構成される。このI/F1009には、上記のデータサーバ160、医用画像収集装置170、表示部180が接続される。なお、一形態として、基準距離取得部105、断層画像取得部110、位置姿勢取得部120、および基準点位置取得部130の機能の一部は、I/F1009によって実現される。以上説明した各部は、バス1010を介して相互に接続される。   The I / F 1009 includes an analog video port or a digital input / output port such as IEEE 1394, an Ethernet port for outputting information such as a composite image to the outside, and the like. The I / F 1009 is connected to the data server 160, the medical image collection device 170, and the display unit 180. As one form, some of the functions of the reference distance acquisition unit 105, the tomographic image acquisition unit 110, the position and orientation acquisition unit 120, and the reference point position acquisition unit 130 are realized by the I / F 1009. Each unit described above is connected to each other via a bus 1010.

次に、情報処理装置100として動作する図2のコンピュータが行う処理について、同処理のフローチャートを示す図3を用いて説明する。なお、図3のフローチャートに従った処理をCPU1001に実行させるためのコンピュータプログラムやデータは外部記憶装置1007に保存されている。CPU1001はこのコンピュータプログラムやデータを外部記憶装置1007からRAM1002にロードし、該コンピュータプログラムやデータを用いて処理を実行する。これにより図2のコンピュータは、図3のフローチャートに従った処理を実行することになる。   Next, processing performed by the computer of FIG. 2 that operates as the information processing apparatus 100 will be described with reference to FIG. 3 showing a flowchart of the processing. Note that a computer program and data for causing the CPU 1001 to execute processing according to the flowchart of FIG. 3 are stored in the external storage device 1007. The CPU 1001 loads the computer program and data from the external storage device 1007 to the RAM 1002, and executes processing using the computer program and data. As a result, the computer of FIG. 2 executes processing according to the flowchart of FIG.

(S3000:基準距離の取得)
ステップS3000においてCPU1001は基準距離取得部105として機能し、データサーバ160から送出される基準点注目部位間距離を基準距離として取得する。なお、データサーバ160が基準点注目部位間距離を保持しておらず、この基準点注目部位間距離がデータサーバ160から得られない場合には、本ステップでは基準距離は取得しない。
(S3000: Acquisition of reference distance)
In step S3000, the CPU 1001 functions as the reference distance acquisition unit 105, and acquires the distance between the reference point attention sites transmitted from the data server 160 as the reference distance. If the data server 160 does not hold the distance between the reference point attention parts and the distance between the reference point attention parts cannot be obtained from the data server 160, the reference distance is not acquired in this step.

(S3010:断層画像の取得)
ステップS3010においてCPU1001は断層画像取得部110として機能し、医用画像収集装置170から超音波断層画像を取得する。また、本ステップではCPU1001は位置姿勢取得部120として機能し、医用画像収集装置170から、該超音波断層画像を撮像した際の超音波探触子の位置姿勢を取得する。
(S3010: Acquisition of tomographic image)
In step S3010, the CPU 1001 functions as the tomographic image acquisition unit 110, and acquires an ultrasonic tomographic image from the medical image collection apparatus 170. In this step, the CPU 1001 functions as the position / orientation acquisition unit 120 and acquires the position / orientation of the ultrasonic probe when the ultrasonic tomographic image is captured from the medical image acquisition apparatus 170.

(S3020:基準点位置の取得)
ステップS3020においてCPU1001は基準点位置取得部130として機能し、空間中における基準点の位置(乳頭位置)を取得する。この取得処理は、操作者が超音波探触子の所定の部位(例えば、探触子面の中央部)を被検体の乳頭位置に接触させた状態でキーボード1004を操作した際(例えば、基準点位置取得コマンドが割り当てられたキーを押下した際)に実行される。すなわち、上記の操作が実行された時点で位置姿勢取得部120が取得している超音波探触子の位置姿勢から上記所定の部位の位置を求め、これを基準点の位置として取得する。超音波探触子の位置姿勢から上記所定の部位の位置を求める場合、位置姿勢に規定のバイアスを加える方法や規定のマトリクス変換を行う方法がある。
(S3020: Acquisition of reference point position)
In step S3020, the CPU 1001 functions as the reference point position acquisition unit 130, and acquires the position of the reference point (papillary position) in the space. This acquisition process is performed when the operator operates the keyboard 1004 in a state where a predetermined part of the ultrasonic probe (for example, the center of the probe surface) is in contact with the nipple position of the subject (for example, the reference This is executed when a key to which a point position acquisition command is assigned is pressed. That is, the position of the predetermined part is obtained from the position and orientation of the ultrasonic probe acquired by the position and orientation acquisition unit 120 at the time when the above operation is executed, and this is acquired as the position of the reference point. When obtaining the position of the predetermined part from the position and orientation of the ultrasonic probe, there are a method of applying a prescribed bias to the position and orientation and a method of carrying out a prescribed matrix conversion.

なお、基準点が被検体の体内に存在する場合には、操作者が超音波探触子を操作して該基準点が超音波断層画像上に描出されるようにした後に、該断層画像上の該基準点の座標を操作者が指摘することで、その位置を取得する。   When the reference point exists in the body of the subject, the operator operates the ultrasonic probe so that the reference point is drawn on the ultrasonic tomographic image, and then When the operator points out the coordinates of the reference point, the position is acquired.

(S3030:画像の合成)
ステップS3030においてCPU1001は画像生成部140として機能し、対応部位が存在する可能性の高い場所を示す情報を超音波断層像上に重畳した画像を生成して、表示部180に送出する。
(S3030: Image composition)
In step S <b> 3030, the CPU 1001 functions as the image generation unit 140, generates an image in which information indicating a place where a corresponding site is likely to exist is superimposed on an ultrasonic tomographic image, and sends the generated image to the display unit 180.

ここで、画像生成部140(CPU1001)が行う処理について説明する。まず、画像生成部140は、ステップS3020で得た基準点の位置を中心として、ステップS3000で得た基準距離を半径とする球を求める。次に、ステップS3010で得た超音波探触子の位置姿勢に基づいて超音波断層画像が含まれる空間中の平面(すなわち、超音波断面(撮像断面))を求め、その平面で上記球を切り取ってできる円を算出する。最後に、算出した円のうち超音波断層画像に含まれる部分(円弧)を超音波断層画像上に重畳して、合成画像を生成する。   Here, processing performed by the image generation unit 140 (CPU 1001) will be described. First, the image generation unit 140 obtains a sphere having the radius of the reference distance obtained in step S3000 with the position of the reference point obtained in step S3020 as the center. Next, based on the position and orientation of the ultrasonic probe obtained in step S3010, a plane in the space including the ultrasonic tomographic image (that is, an ultrasonic cross section (imaging cross section)) is obtained, and the sphere is defined on the plane. Calculate the circle that can be cut. Finally, a portion (arc) included in the ultrasonic tomographic image in the calculated circle is superimposed on the ultrasonic tomographic image to generate a composite image.

図4に、本処理によって生成される合成画像の一例を示す。図4では、基準点の位置としての乳頭位置410を中心として半径が基準距離420である球を上記平面で切り取ってできる円のうち超音波断層画像に含まれる円弧430が超音波断層画像440に重畳されている。ここで、円弧430は、乳頭位置410からの3次元距離が、ステップS3000で得た基準距離と一致している点の集合である。該被検体において乳頭から病変部までの3次元距離が維持されているならば、対応部位450は円弧430の近辺以外には存在しないので、操作者は円弧430を頼りに対応部位450の探索を行うことができる。   FIG. 4 shows an example of a composite image generated by this process. In FIG. 4, an arc 430 included in the ultrasonic tomographic image is included in the ultrasonic tomographic image 440 out of a circle formed by cutting out a sphere having a reference distance 420 as a center with the nipple position 410 serving as the reference point position cut by the plane. It is superimposed. Here, the arc 430 is a set of points where the three-dimensional distance from the nipple position 410 matches the reference distance obtained in step S3000. If the three-dimensional distance from the nipple to the lesioned part is maintained in the subject, the corresponding part 450 does not exist outside the vicinity of the arc 430, so the operator can search for the corresponding part 450 by relying on the arc 430. It can be carried out.

なお、基準距離を基準として、超音波断層画像上の各点がそこからどれくらい離れているのかを示す補助的な情報(基準点から断層画像上の各点までの3次元距離と基準距離との関係を示す情報)をこの超音波断層画像上に重畳させて提示するようにしてもよい。例えば、基準距離に所定の値を加減していくつかの距離を求める。そして求めたそれぞれの距離について、ステップS3020で得た基準点の位置を中心として該距離を半径とする球を求める。そしてそれぞれの距離について求めた球について、同様にして上記平面で切り取る円を求め、求めた円のうち超音波断層画像に含まれる部分(円弧)を超音波断層画像上に重畳して、合成画像を生成する。   It should be noted that auxiliary information indicating how far each point on the ultrasonic tomographic image is from the reference distance (the three-dimensional distance from the reference point to each point on the tomographic image and the reference distance) Information indicating the relationship) may be presented superimposed on the ultrasonic tomographic image. For example, several distances are obtained by adding or subtracting a predetermined value to the reference distance. Then, for each of the obtained distances, a sphere having the radius as the center around the position of the reference point obtained in step S3020 is obtained. Then, for each sphere obtained for each distance, a circle to be cut out in the above plane is obtained in the same manner, and a portion (arc) included in the ultrasonic tomographic image of the obtained circle is superimposed on the ultrasonic tomographic image, and a composite image is obtained. Is generated.

図7に、等間隔に設定した複数の値(例えば、5mm、10mm、15mm)を所定の値として用いた場合に、本処理によって生成される合成画像の例を示す。図7では、図4における円弧430と共に、基準距離に所定の値を加減した値を半径とするいくつかの同心球について求めた円弧が、補助線735として超音波断層画像440に重畳されている。また、夫々の補助線が基準距離からどれだけ離れているかを示す文字情報(「−5mm」「+10mm」など)が、付加情報として補助線付近に重畳されている。このような合成画像を表示部180に表示することにより、操作者は、画像上の夫々の点が基準点注目部位間距離からどの程度離れているかを知ることができる。なお、補助線の線種や色は、基準距離からの距離に従って変えてもよい。これらの補助線は常に描画してもよいし、操作者が描画するかどうかをキーボード1004やマウス1005を操作して選べるような構成であってもよい。   FIG. 7 shows an example of a composite image generated by this processing when a plurality of values (for example, 5 mm, 10 mm, and 15 mm) set at equal intervals are used as predetermined values. In FIG. 7, together with the arc 430 in FIG. 4, arcs obtained for several concentric spheres whose radius is a value obtained by adding or subtracting a predetermined value to the reference distance are superimposed on the ultrasonic tomographic image 440 as auxiliary lines 735. . Also, character information (such as “−5 mm” and “+10 mm”) indicating how far each auxiliary line is away from the reference distance is superimposed in the vicinity of the auxiliary line as additional information. By displaying such a composite image on the display unit 180, the operator can know how far each point on the image is from the distance between the reference point attention sites. The line type and color of the auxiliary line may be changed according to the distance from the reference distance. These auxiliary lines may always be drawn, or may be configured such that the operator can select whether to draw by operating the keyboard 1004 or the mouse 1005.

なお、ステップS3000で基準距離を取得しなかった場合には、画像生成部140は、上記の処理の代わりに以下の処理を実行する。まず、ステップS3020で得た基準点の位置を中心として、所定の距離(例えば、10mmから100mmまでの10mm刻みの各距離)を半径とする複数の球を算出する。そして、ステップS3010で得た超音波探触子の位置姿勢に基づいて、これらの球を超音波断面で切り取ってできる円を算出する。そして、算出した複数の円において超音波断層画像に含まれる部分(円弧)と夫々の距離を示す情報を超音波断層画像上に重畳することで、合成画像を生成する。図8に、本処理によって生成される合成画像の例を示す。図8では、乳頭位置410を中心として半径が所定の距離(20mm〜60mm)である同心球について求めた円弧が、円弧830として超音波断層画像440に重畳されている。この表示は特に、基準点注目部位間距離を操作者が頭の中で把握している場合に効果を発揮する。すなわち、基準点注目部位間距離をシステムが取得していない場合であっても、操作者は、超音波断層画像上に提示された乳頭からの距離の情報を頼りに、対応部位450を探すことができる。ステップS3000で基準距離を取得している場合であっても、操作者からのキーボード1004やマウス1005を介した指示に応じて表示(基準点注目部位間距離の表示)と本表示(所定の等間隔の距離の表示)を任意に切り換えられる構成であってもよい。また、これらの情報を混在させて提示する構成であってもよい。なお、基準点の位置が未取得の場合には、画像生成部140は、超音波断層画像を出力画像とする。   If the reference distance is not acquired in step S3000, the image generation unit 140 executes the following process instead of the above process. First, a plurality of spheres having a radius of a predetermined distance (for example, each distance in increments of 10 mm from 10 mm to 100 mm) are calculated with the position of the reference point obtained in step S3020 as the center. Then, based on the position and orientation of the ultrasonic probe obtained in step S3010, a circle that can be obtained by cutting these spheres along an ultrasonic cross section is calculated. Then, a composite image is generated by superimposing on the ultrasonic tomographic image information indicating the distance (arc) included in the ultrasonic tomographic image and the respective distances in the calculated plurality of circles. FIG. 8 shows an example of a composite image generated by this processing. In FIG. 8, an arc obtained for a concentric sphere having a radius of a predetermined distance (20 mm to 60 mm) around the nipple position 410 is superimposed on the ultrasonic tomographic image 440 as an arc 830. This display is particularly effective when the operator grasps the distance between the reference point attention sites in his / her head. That is, even when the system does not obtain the distance between the reference point attention sites, the operator searches for the corresponding site 450 by relying on the distance information from the nipple presented on the ultrasonic tomographic image. Can do. Even when the reference distance is acquired in step S3000, the display (display of the distance between the reference point attention sites) and the main display (predetermined, etc.) according to instructions from the operator via the keyboard 1004 and the mouse 1005 The display may be arbitrarily switched (display of the distance of the interval). Moreover, the structure which mixes and presents these information may be sufficient. If the position of the reference point has not been acquired, the image generation unit 140 uses the ultrasonic tomographic image as an output image.

(S3040:終了判定)
ステップS3040においてCPU1001は、全体の処理を終了するか否かの判定を行う。例えば、キーボード1004の所定のキー(終了キー)が操作者によって押下されたことを検知した場合には、処理を終了すると判断する。
(S3040: End determination)
In step S3040, the CPU 1001 determines whether to end the entire process. For example, when it is detected that a predetermined key (end key) on the keyboard 1004 is pressed by the operator, it is determined that the process is to be ended.

終了すると判定した場合には、CPU1001は処理の全体を終了させる。一方、終了すると判定しなかった場合には、ステップS3010へと処理を戻し、新たに撮像される超音波断層画像に対して、ステップS3010以降の処理を再度実行する。   If it is determined that the process is to be ended, the CPU 1001 ends the entire process. On the other hand, if it is not determined that the process is to be terminated, the process returns to step S3010, and the processes after step S3010 are executed again on the newly acquired ultrasonic tomographic image.

なお、本実施形態では、乳房を被検体として、乳頭を基準点とした場合を例にとり説明したが、注目部位と基準点との距離が保存される傾向にある対象であれば、被検体や基準点は何れであってもよい。   In the present embodiment, the case where the breast is the subject and the nipple is the reference point has been described as an example. However, if the subject tends to store the distance between the region of interest and the reference point, the subject or The reference point may be any.

このように、本実施形態によれば、基準点(乳頭)から超音波画像上の各点までの3次元の距離を、操作者に容易に把握させることができる。特に、基準点(乳頭)からの距離が「基準点注目部位間距離」となるような点やその近辺の点を示すことで、対応部位の存在する可能性が高い場所を操作者に提示できる。本実施形態によると、超音波断層画像中で対応部位を探索する際の目安が超音波断層画像中に表示されるので、操作者が対応部位を探索する範囲を限定することができる。また、探索の範囲を限定できるので、操作者の作業負荷を軽減するとともに、誤った対応付けを行ってしまう危険性を軽減することができる。また、変形推定等の計算は行わないため、操作者を待たせることなく対応部位の検索を支援することができる。また、必要とする入力情報が少ないため、操作者を煩わせることなく対応部位の検索を支援することができる。   Thus, according to the present embodiment, the operator can easily grasp the three-dimensional distance from the reference point (nipple) to each point on the ultrasonic image. In particular, a point where the distance from the reference point (papillae) is the “distance between the reference point attention sites” or a point in the vicinity thereof can be presented to the operator where there is a high possibility that the corresponding site exists. . According to the present embodiment, since a guideline for searching for a corresponding part in the ultrasonic tomographic image is displayed in the ultrasonic tomographic image, the range in which the operator searches for the corresponding part can be limited. In addition, since the search range can be limited, the operator's workload can be reduced and the risk of incorrect association can be reduced. Further, since calculation such as deformation estimation is not performed, it is possible to support the search for the corresponding part without waiting for the operator. In addition, since less input information is required, it is possible to assist in searching for a corresponding part without bothering the operator.

<第1の実施形態の変形例>
第1の実施形態では、医用画像収集装置170として超音波画像診断装置を用いる場合を例としたが、医用画像収集装置170は他の何れのモダリティであってもよい。医用画像収集装置170がCTやMRIの場合には、情報処理装置100は、3次元画像を事前に取得しておく。そして、ステップS3010の処理において、周知の医用画像ビューアにあるようなGUIを用いて注目断面を指定し、該3次元画像から断面画像を取得するとともに、その断面の位置姿勢を取得するようにすればよい。また、ステップS3020の処理において、周知の医用画像ビューアにあるようなGUIを用いて該3次元画像中における基準点の3次元座標を取得するようにすればよい。
<Modification of First Embodiment>
In the first embodiment, an example in which an ultrasonic diagnostic imaging apparatus is used as the medical image collection apparatus 170 is described as an example. However, the medical image collection apparatus 170 may be any other modality. When the medical image collection apparatus 170 is CT or MRI, the information processing apparatus 100 acquires a three-dimensional image in advance. In the process of step S3010, a cross section of interest is designated using a GUI as in a known medical image viewer, a cross section image is acquired from the three-dimensional image, and the position and orientation of the cross section are acquired. That's fine Further, in the process of step S3020, the three-dimensional coordinates of the reference point in the three-dimensional image may be acquired using a GUI as in a known medical image viewer.

また、データサーバ160が保持する基準点注目部位間距離は、MRI画像から得たものでなくてもよい。例えば、他のモダリティや過去の超音波検査の際に得た画像から、基準点と注目部位の位置を得ることで求めた距離であってもよい。   Further, the distance between the reference point attention sites held by the data server 160 may not be obtained from the MRI image. For example, the distance obtained by obtaining the position of the reference point and the region of interest from an image obtained in other modalities or past ultrasonic examinations may be used.

また、第1の実施形態では、基準距離取得部105は、データサーバ160から基準点注目部位間距離を取得していたが、基準点注目部位間距離の取得方法はこれに限るものではない。例えば、不図示のGUIを用いて操作者がキーボード1004やマウス1005を用いて入力した距離を基準距離取得部105が基準距離として取得する構成であってもよい。また、基準距離取得部105がデータサーバ160から被検体の医用画像を取得し、この医用画像から注目部位や基準点の位置(乳頭位置)を基準距離取得部105が取得して基準点注目部位間距離を算出する構成であってもよい。また、基準距離取得部105がデータサーバ160から被検体の医用画像と注目部位の位置を取得し、この医用画像から基準点の位置のみを基準距離取得部105が取得して基準点注目部位間距離を算出する構成であってもよい。なお、基準距離取得部105が医用画像から注目部位や基準点の位置を取得する場合、その位置を操作者が手作業で入力する構成であってもよいし、画像処理によって自動検出する構成であってもよい。   In the first embodiment, the reference distance acquisition unit 105 acquires the distance between reference point attention parts from the data server 160, but the method of acquiring the distance between reference point attention parts is not limited to this. For example, the reference distance acquisition unit 105 may acquire the distance input by the operator using the keyboard 1004 or the mouse 1005 using a GUI (not shown) as the reference distance. Further, the reference distance acquisition unit 105 acquires a medical image of the subject from the data server 160, and the reference distance acquisition unit 105 acquires the position of interest and the position of the reference point (papillary position) from the medical image, and the reference point attention part. It may be configured to calculate the inter-distance. In addition, the reference distance acquisition unit 105 acquires the medical image of the subject and the position of the target region from the data server 160, and the reference distance acquisition unit 105 acquires only the position of the reference point from the medical image, so The structure which calculates a distance may be sufficient. When the reference distance acquisition unit 105 acquires the position of the target region or the reference point from the medical image, the operator may manually input the position, or may be automatically detected by image processing. There may be.

[第2の実施形態]
第1の実施形態では、基準点注目部位間距離が保存される傾向にある対象に共通して利用可能な(対象を限定しない)実施形態について説明した。第2の実施形態は、伏臥位のMRI画像から乳頭注目部位間距離を取得し、仰臥位の超音波検査を支援する場合のように、対象、すなわち、臓器(乳房)、基準点(乳頭)、および前後の体位(伏臥位と仰臥位)が特定される場合の実施形態である。本実施形態は、このような特定の対象に関する基準点注目部位間距離の統計情報を取得し、その統計情報に基づいて支援情報を制御することを特徴とする。さらに本実施形態では、乳頭注目部位間距離の統計的な振る舞いが被検体や注目領域の属性によって異なることを考慮し、被検体や注目領域の属性に応じた統計情報に基づいて支援情報を制御することを特徴とする。ここで、被検体や注目領域の属性とは、その差異によって乳頭注目部位間距離の統計的な振る舞いが異なることが知られている属性、例えば、被験者の年齢、バストサイズ、乳房内において注目部位が属する領域等である。以下、統計情報を用いて表示を制御することを特徴とする本実施形態に係る情報システムについて、第1の実施形態との相違部分についてのみ説明する。即ち、以下で特に触れない限りは、第1の実施形態と同様である。
[Second Embodiment]
In the first embodiment, the embodiment that can be used in common for the objects that tend to store the distance between the reference point attention sites (the object is not limited) has been described. In the second embodiment, the distance between the nipple attention sites is acquired from the MRI image in the prone position, and the object, that is, the organ (breast) and the reference point (nipple) are supported as in the case of supporting the supine ultrasound examination. This is an embodiment in the case where the front and back positions (the prone position and the supine position) are specified. The present embodiment is characterized in that statistical information on the distance between reference point attention sites regarding such a specific target is acquired, and support information is controlled based on the statistical information. Furthermore, in this embodiment, taking into consideration that the statistical behavior of the distance between nipple attention regions varies depending on the attributes of the subject and the attention area, the support information is controlled based on the statistical information corresponding to the attributes of the subject and the attention area. It is characterized by doing. Here, the attributes of the subject and the attention area are attributes whose statistical behavior of the distance between the nipple attention areas is different depending on the difference, for example, the age of the subject, the bust size, the attention area within the breast Is a region to which the file belongs. Hereinafter, only the difference from the first embodiment of the information system according to the present embodiment, which is characterized in that the display is controlled using statistical information, will be described. That is, it is the same as that of the first embodiment unless otherwise mentioned below.

本実施形態に係る情報処理システムの機能構成例について、図5のブロック図を用いて説明する。なお、図5において図1と同じ機能部については同じ参照番号を付しており、説明は省略する。図5に示す如く、本実施形態に係る情報処理システムは、データサーバ560、情報処理装置500、医用画像収集装置170、表示部180、を有する。   A functional configuration example of the information processing system according to the present embodiment will be described with reference to the block diagram of FIG. In FIG. 5, the same functional units as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted. As illustrated in FIG. 5, the information processing system according to the present embodiment includes a data server 560, an information processing apparatus 500, a medical image collection apparatus 170, and a display unit 180.

データサーバ560は、被検体の基準点注目部位間距離に加え、当該基準点注目部位間距離を取得する元となった被検体の3次元画像データを保持している。また、その3次元画像データ内での注目部位の位置(3次元座標)を保持している。また、注目部位が乳房内の何れの領域に属すかを表す情報を保持している。例えば、図11(a)に示すような、乳房の内側と外側の何れに属すかを表す情報を保持している。あるいは、図11(b)に示すような、乳房のA領域(内側上部),B領域(内側下部),C領域(外側上部),D領域(外側下部),E領域(乳輪部)の何れに属すかを表す情報を保持している。また、被験者の年齢やバストサイズ(カップサイズや乳房領域の体積等)の情報等を保持している。データサーバ560は、保持している上記のデータを情報処理装置500へと出力する。   The data server 560 holds the three-dimensional image data of the subject from which the distance between the reference point attention sites of the subject is acquired. Further, the position (three-dimensional coordinates) of the target region in the three-dimensional image data is held. In addition, information indicating which region in the breast the attention site belongs to is held. For example, as shown in FIG. 11A, information indicating whether the breast belongs to the inside or the outside is held. Alternatively, as shown in FIG. 11 (b), the A region (inner upper portion), B region (inner lower portion), C region (outer upper portion), D region (outer lower portion), and E region (areola portion) of the breast. It holds information indicating to which it belongs. It also holds information such as the subject's age and bust size (cup size, breast area volume, etc.). The data server 560 outputs the stored data to the information processing apparatus 500.

対応距離算出部510は、データサーバ560から、被検体の3次元画像データ、3次元画像データ内での注目部位の位置、注目部位が乳房内の何れの領域に属するのか、及び、被験者の年齢やバストサイズの情報等を取得する。そして対応距離算出部510は、これらの情報に基づいて基準点注目部位間距離の統計情報を取得し、この統計情報に基づいて基準点注目部位間距離(基準距離)から基準点対応部位間距離の推定値(以下、対応距離)を算出する。そして、算出した対応距離の値を画像生成部540に出力する。   Corresponding distance calculation unit 510 receives from data server 560 the position of the region of interest in the 3D image data of the subject, the region of interest in the 3D image data, which region in the breast the region of interest belongs to, and the age of the subject And bust size information. Then, the corresponding distance calculation unit 510 acquires the statistical information of the distance between the reference point attention parts based on these pieces of information, and based on this statistical information, the distance between the reference point attention parts (reference distance) from the reference point corresponding part distance. An estimated value (hereinafter referred to as a corresponding distance) is calculated. Then, the calculated corresponding distance value is output to the image generation unit 540.

ここで、本実施形態における統計情報と対応距離について説明する。例えば、伏臥位から仰臥位に体位が変化すると乳頭注目部位間距離が平均的にはα倍になるという統計情報がある場合には、基準距離r[mm]にαを乗算した値を対応距離r’(対応部位が最も存在しそうな距離)とする。また、伏臥位から仰臥位に体位が変化すると乳頭注目部位間距離が標準偏差σ[mm]で維持されるという統計情報がある場合には、r−2σ,r−σ,r,r+σ,r+2σの各距離を対応距離(対応部位が存在しそうな距離の範囲を表す情報)とする。また、上記のαとσが共に得られている場合には、r’−2σ,r’−σ,r’,r’+σ,r’+2σの各距離を対応距離とする。すなわち、本実施形態における統計情報とは、上記の倍率αや標準偏差σを表す。また、対応距離とは、これらの統計情報と基準距離から導出される、体位の変化後に対応部位が存在しそうな距離やその範囲を表すものとする。   Here, the statistical information and the corresponding distance in the present embodiment will be described. For example, when there is statistical information that the distance between the nipple attention regions on average is α times when the body position changes from the prone position to the supine position, the value obtained by multiplying the reference distance r [mm] by α is the corresponding distance. Let r ′ be the distance where the corresponding site is most likely to exist. Further, when there is statistical information that the distance between the nipple attention sites is maintained with the standard deviation σ [mm] when the body position changes from the prone position to the supine position, r−2σ, r−σ, r, r + σ, r + 2σ. Each distance is taken as a corresponding distance (information indicating a range of distances where a corresponding part is likely to exist). When both α and σ are obtained, the distances r′−2σ, r′−σ, r ′, r ′ + σ, and r ′ + 2σ are set as corresponding distances. That is, the statistical information in the present embodiment represents the magnification α and the standard deviation σ described above. Further, the correspondence distance represents a distance and a range where a corresponding portion is likely to exist after a change in body posture, which is derived from the statistical information and the reference distance.

対応距離算出部510は、多数の症例について収集した伏臥位と仰臥位における乳頭注目部位間距離の計測値を用いて、これらに(症例を区別せずに)統計処理を施すことで算出した、被検体によらない統計情報として上記のαとσを管理している。また、対応距離算出部510は、多数の症例を病変部の属する領域(内側/外側、あるいはA〜E領域)で分類した上で領域毎に統計処理を施すことで算出した、領域ごとの統計情報を管理している。同様に、対応距離算出部510は、被験者の年齢とバストサイズ、乳頭注目部位間距離、体表注目部位間距離、乳腺密度等を所定の区間で区切り、多数の症例を夫々の基準で分類した上で統計処理を施すことで算出した、夫々の基準における区間ごとの統計情報を管理している。なお、統計情報としては、多数の症例に実際に統計処理を施すことで得た値を用いることは必須ではなく、(装置設計者等が)人手で設定した値を用いる構成であってもよい。   Corresponding distance calculation unit 510 was calculated by performing statistical processing (without distinguishing cases) on these using the measured values of the nipple attention site distance in the prone position and the supine position collected for a large number of cases. The above α and σ are managed as statistical information that does not depend on the subject. In addition, the correspondence distance calculation unit 510 classifies a large number of cases according to the region (inside / outside or A to E region) to which the lesion belongs, and then performs statistical processing for each region. Information is managed. Similarly, the corresponding distance calculation unit 510 divides a subject's age and bust size, distance between nipple attention areas, distance between body area attention areas, mammary gland density, and the like into predetermined sections, and classifies a large number of cases according to respective criteria. The statistical information for each section in each reference calculated by performing statistical processing is managed. As statistical information, it is not essential to use values obtained by actually performing statistical processing on a large number of cases, and a configuration using manually set values (by the device designer or the like) may be used. .

なお、統計情報の管理の仕方は、統計処理を施した区間毎の統計情報を保持する方法に限定されるものではなく、他の方法であってもよい。例えば、被験者の年齢、バストサイズ、乳頭注目部位間距離、体表注目部位間距離、乳腺密度等の少なくとも1つ以上の組合せを入力パラメータxとして、統計情報を近似するxの関数を保持するようにしてもよい。すなわち、xを入力としてαを出力する関数f_α(x)や、xを入力としてσを出力する関数f_σ(x)の形で統計情報を管理するようにしてもよい。   Note that the method of managing statistical information is not limited to the method of holding statistical information for each section subjected to statistical processing, and may be another method. For example, a function of x that approximates statistical information is held using at least one combination of the subject's age, bust size, distance between nipple attention regions, body surface attention region distance, mammary gland density, and the like as input parameters x. It may be. That is, the statistical information may be managed in the form of a function f_α (x) that outputs α with x as an input or a function f_σ (x) that outputs σ with x as an input.

画像生成部540は、対応距離算出部510が算出した対応距離と、基準点位置と超音波探触子の位置姿勢に基づいて、基準点を中心とし対応距離を半径とする球を断層面で切り取ってできる円を算出する。そして画像生成部540は、算出した円のうち超音波断層画像に含まれる部分(円弧)に関する情報を超音波断層画像上に重畳して、合成画像を生成して、表示制御部150に対して送出する。即ち、基準距離の代わりに対応距離を用いること以外は、第1の実施形態と同様にして合成画像を生成している。   Based on the correspondence distance calculated by the correspondence distance calculation unit 510, the reference point position, and the position and orientation of the ultrasonic probe, the image generation unit 540 generates a sphere centered on the reference point and having a radius of the correspondence distance on the tomographic plane. Calculate the circle that can be cut. Then, the image generation unit 540 generates a composite image by superimposing information on a portion (arc) included in the ultrasonic tomographic image of the calculated circle on the ultrasonic tomographic image, and outputs the composite image to the display control unit 150. Send it out. That is, a composite image is generated in the same manner as in the first embodiment except that the corresponding distance is used instead of the reference distance.

なお、図5に示した情報処理装置500中の各機能部をコンピュータプログラムで実装した場合には、第1の実施形態と同様、この情報処理装置500には、図2のコンピュータを適用することができる。即ち、情報処理装置500中の各機能部をコンピュータプログラムで実装した場合には、このコンピュータプログラムはCPU1001によって実行されることになり、これによりこのコンピュータは情報処理装置500として機能することになる。   When each functional unit in the information processing apparatus 500 shown in FIG. 5 is implemented by a computer program, the computer shown in FIG. 2 is applied to the information processing apparatus 500 as in the first embodiment. Can do. That is, when each functional unit in the information processing apparatus 500 is implemented by a computer program, the computer program is executed by the CPU 1001, and thus the computer functions as the information processing apparatus 500.

次に、情報処理装置500として動作する図2のコンピュータが行う処理について、同処理のフローチャートを示す図6を用いて説明する。なお、図6のフローチャートに従った処理をCPU1001に実行させるためのコンピュータプログラムやデータは外部記憶装置1007に保存されている。CPU1001はこのコンピュータプログラムやデータを外部記憶装置1007からRAM1002にロードし、該コンピュータプログラムやデータを用いて処理を実行する。これにより図2のコンピュータは、図6のフローチャートに従った処理を実行することになる。   Next, processing performed by the computer of FIG. 2 that operates as the information processing apparatus 500 will be described with reference to FIG. 6 showing a flowchart of the processing. Note that a computer program and data for causing the CPU 1001 to execute processing according to the flowchart of FIG. 6 are stored in the external storage device 1007. The CPU 1001 loads the computer program and data from the external storage device 1007 to the RAM 1002, and executes processing using the computer program and data. As a result, the computer of FIG. 2 executes processing according to the flowchart of FIG.

また、図6において、ステップS6000,S6010,S6020,S6040のそれぞれは、図3に示すフローチャートのステップS3000,S3010,S3020,S3040と同じ処理ステップであるため、これらのステップに係る説明は省略する。   In FIG. 6, steps S6000, S6010, S6020, and S6040 are the same processing steps as steps S3000, S3010, S3020, and S3040 in the flowchart shown in FIG. 3, and thus description of these steps is omitted.

(S6003:算出方法の取得)
ステップS6003においてCPU1001は、操作者がキーボード1004の所定のキーを押下するなどにより入力した、対応距離の算出方法を取得する。本実施形態では、以下の算出方法のいずれかを操作者が選択することになる。
(S6003: Acquisition of calculation method)
In step S6003, the CPU 1001 acquires a corresponding distance calculation method input by the operator pressing a predetermined key on the keyboard 1004 or the like. In this embodiment, the operator selects one of the following calculation methods.

1. 被検体によらない統計情報に基づく算出
2. 注目部位が属する領域に基づく算出
3. 被験者の年齢とバストサイズに基づく算出
4. 注目部位の乳頭からの距離(乳頭注目部位間距離)に基づく算出
5. 注目部位の体表からの距離(体表注目部位間距離)に基づく算出
6. 被検体の乳腺密度に基づく算出
例えばこの6つの選択肢を選択可能に表示するGUIを表示部180に表示する。そして、操作者がキーボード1004やマウス1005を用いてこの6つの選択肢のうちの1つを選択する指示を入力すると、CPU1001がこの選択された選択肢を、以降で採用する算出方法として検知するようにしてもよい。
1. 1. Calculation based on statistical information that does not depend on the subject 2. Calculation based on the region to which the site of interest belongs 3. Calculation based on subject's age and bust size 4. Calculation based on the distance from the nipple of the region of interest (distance between nipple regions of interest) 5. Calculation based on the distance from the body surface of the region of interest (distance between body surface regions of interest) Calculation based on the mammary gland density of the subject For example, the display unit 180 displays a GUI for selectively displaying these six options. When the operator inputs an instruction to select one of the six options using the keyboard 1004 or the mouse 1005, the CPU 1001 detects the selected option as a calculation method to be used later. May be.

もちろん、算出方法を指定する方法はこのような方法に限るものではなく、予め定められていてもよいし、検査内容やコンピュータが属する科に応じて決められてもよい。また、選択肢(算出方法)も上記の6つに限るものではない。   Of course, the method for designating the calculation method is not limited to such a method, and may be determined in advance, or may be determined according to the examination contents and the department to which the computer belongs. Also, the options (calculation methods) are not limited to the above six.

(S6005:各種データの取得)
ステップS6005においてCPU1001は対応距離算出部510として機能する。これにより、CPU1001は、データサーバ560から、基準距離、被検体の3次元画像データ、3次元画像データ内での注目部位の位置、注目部位が乳房内の何れの領域に属するのか、及び、被験者の年齢やバストサイズの情報等を取得する。
(S6005: Acquisition of various data)
In step S6005, the CPU 1001 functions as the corresponding distance calculation unit 510. As a result, the CPU 1001 receives from the data server 560 the reference distance, the 3D image data of the subject, the position of the region of interest in the 3D image data, which region in the breast the region of interest belongs to, and the subject. Get age and bust size information.

(S6025:対応距離の算出)
ステップS6025においてCPU1001は対応距離算出部510として機能し、ステップS6005で取得したデータに基づいて、前述の対応距離を算出する。この処理は、統計情報としての倍率αと標準偏差σを得て、その値に基づき基準距離rから対応距離の代表値r’と、その範囲r’−2σ,r’−σ,r’+σ,r’+2σを求めることで実行される。
(S6025: Calculation of corresponding distance)
In step S6025, the CPU 1001 functions as the corresponding distance calculation unit 510, and calculates the above-described corresponding distance based on the data acquired in step S6005. This process obtains the magnification α and the standard deviation σ as statistical information, and based on the values, the representative value r ′ of the corresponding distance from the reference distance r, and the range r′−2σ, r′−σ, r ′ + σ. , R ′ + 2σ is executed.

ステップS6003で方法1(被検体によらない統計情報に基づく算出)が選択されている場合には、被検体によらない統計情報α,σを、以降で用いる統計情報として選択する。   If Method 1 (calculation based on statistical information that does not depend on the subject) is selected in step S6003, statistical information α and σ that do not depend on the subject are selected as statistical information to be used later.

ステップS6003で方法2(注目部位が属する領域に基づく算出)が選択されている場合には、ステップS6005で取得した注目部位が属する領域(内側/外側、あるいはA〜E領域)に対応するαとσの値を、以降で用いる統計情報として選択する。例えば、図12(a)に示すように、被験者1の注目部位がC領域に、被験者2の注目部位がB領域に存在していたとする。このとき、本ステップの処理として、被験者1では、C領域に対応する統計情報である倍率αCと分散σCが選択される。また、被験者2では、B領域に対応する統計情報である倍率αBと分散σBが選択される。 If method 2 (calculation based on the region to which the site of interest belongs) is selected in step S6003, α corresponding to the region (inside / outside, or A to E regions) to which the site of interest acquired in step S6005 belongs. The value of σ is selected as statistical information to be used later. For example, as shown in FIG. 12A, it is assumed that the site of interest of the subject 1 exists in the C region and the site of interest of the subject 2 exists in the B region. At this time, as the processing of this step, the subject 1 selects the magnification α C and the variance σ C that are statistical information corresponding to the C region. In the subject 2, the magnification α B and the variance σ B which are statistical information corresponding to the B region are selected.

ステップS6003で方法3(被験者の年齢とバストサイズに基づく算出)が選択されている場合には、ステップS6005で取得した被験者の年齢とバストサイズとの組み合わせに対応するαとσの値を、以降で用いる統計情報として選択する。   If Method 3 (calculation based on subject's age and bust size) is selected in step S6003, the values of α and σ corresponding to the combination of the subject's age and bust size acquired in step S6005 are set as follows. Select as statistical information used in.

ステップS6003で方法4(乳頭注目部位間距離に基づく算出)が選択されている場合には、ステップS6000で取得した乳頭注目部位間距離に対応するαとσの値を、以降で用いる統計情報として選択する。   When Method 4 (calculation based on the distance between nipple attention regions) is selected in step S6003, the values of α and σ corresponding to the distance between nipple attention regions acquired in step S6000 are used as statistical information to be used later. select.

ステップS6003で方法5(体表注目部位間距離に基づく算出)が選択されている場合には、体表注目部位間距離を導出し、導出した体表注目部位間距離に対応するαとσの値を、以降で用いる統計情報として選択する。ここで、体表注目部位間距離の導出は、以下の処理によって行う。まず、CPU1001は対応距離算出部510として機能し、3次元画像データに画像処理を施し、体表領域(乳房領域と体外との境界領域)を導出する。そして、注目部位に対する体表位置の最近傍点を探索し、注目部位から最近傍点までの距離を体表注目部位間距離として算出する。   When Method 5 (calculation based on the distance between the body surface attention sites) is selected in step S6003, the distance between the body surface attention sites is derived, and α and σ corresponding to the derived body surface attention site distances are derived. The value is selected as statistical information to be used later. Here, the derivation of the body surface attention site distance is performed by the following processing. First, the CPU 1001 functions as the corresponding distance calculation unit 510, performs image processing on the three-dimensional image data, and derives a body surface region (a boundary region between the breast region and the outside of the body). Then, the nearest point of the body surface position with respect to the site of interest is searched, and the distance from the site of interest to the nearest point is calculated as the distance between the body surface sites of interest.

また、ステップS6003で方法6(被検体の乳腺密度に基づく算出)が選択されている場合には、被検体の乳腺密度を導出し、導出した乳腺密度に対応するαとσの値を、以降で用いる統計情報として選択する。ここで、被検体の乳腺密度の導出は、以下の処理によって行う。例えば、3次元画像データから乳房領域を取得し、その中の脂肪領域と乳腺領域を分類し、乳房領域に含まれる乳腺領域の割合を求めることで、乳腺密度を算出する。乳房領域は、体表から胸壁までの間の領域であり、体側方向には左右の乳房の乳腺外縁が含まれるような範囲であるような領域として、画像処理によって取得できる。上記の乳房領域内での脂肪領域と乳腺領域の分類法として、例えば、画像の輝度値に基づいて、ある閾値で領域内を2値化処理するなどの方法で分類することができる。このようにして乳房領域内での乳腺領域の割合を求め、これを乳腺密度とすることができる。また、乳房領域内での輝度値の平均値を求めて、乳腺密度を表す値として取得してもよい。また、注目部位と乳頭の位置(基準点位置)を考慮することで、乳頭−注目部位間の近辺の局所的な乳腺密度を求める構成であってもよい。例えば、注目部位と乳頭を結ぶ線分を中心とした所定の半径の円柱を定義し、この円柱の範囲内における乳腺密度を求めるようにしてもよい。また、乳房領域を数十ボクセル程度のブロックに分割して夫々のブロック内での乳腺密度を求め、注目部位と乳頭を結ぶ線分から各ブロックまでの距離に応じた重みづけをした各ブロックの乳腺密度の加重平均値を乳腺密度としてもよい。   If method 6 (calculation based on the mammary gland density of the subject) is selected in step S6003, the mammary gland density of the subject is derived, and the values of α and σ corresponding to the derived mammary gland density are thereafter determined. Select as statistical information used in. Here, the mammary gland density of the subject is derived by the following processing. For example, a breast region is acquired from three-dimensional image data, a fat region and a mammary gland region are classified therein, and a mammary gland density is calculated by obtaining a ratio of the mammary gland region included in the breast region. The breast region is a region from the body surface to the chest wall, and can be acquired by image processing as a region that includes the breast outer periphery of the left and right breasts in the body side direction. As a classification method of the fat region and the mammary gland region in the breast region, for example, the region can be classified by a method of binarizing the region with a certain threshold value based on the luminance value of the image. In this way, the ratio of the mammary gland region in the breast region can be obtained and used as the mammary gland density. Further, an average value of luminance values in the breast region may be obtained and obtained as a value representing the mammary gland density. Moreover, the structure which calculates | requires the local mammary gland density of the vicinity between a nipple and an attention site | part may be considered by considering the attention site | part and the position of a nipple (reference point position). For example, a cylinder having a predetermined radius centered on a line segment connecting the site of interest and the nipple may be defined, and the mammary gland density within the range of this cylinder may be obtained. In addition, the breast area is divided into blocks of about several tens of voxels, the mammary gland density in each block is obtained, and the mammary gland of each block weighted according to the distance from the line segment connecting the target region and the nipple to each block The weighted average value of the density may be the mammary gland density.

なお、被験者の年齢、バストサイズ、乳頭注目部位間距離、体表注目部位間距離、乳腺密度等を入力パラメータxとする関数の形で統計情報を保持している場合には、被験者に関する当該パラメータをこの関数に入力することで、倍率αと標準偏差σを算出する。   If statistical information is held in the form of a function having the input parameter x as the subject's age, bust size, distance between nipple attention sites, body surface attention region distance, mammary gland density, etc. Is input to this function to calculate the magnification α and the standard deviation σ.

(S6030:画像の合成)
ステップS6030でCPU1001は画像生成部540として機能し、超音波断層画像、超音波探触子の位置姿勢、基準点位置、対応距離、に基づいて、対応部位が存在する可能性の高い場所を示す情報を超音波断層像上に重畳した画像を生成する。そしてCPU1001は生成した画像を表示部180に送出する。
(S6030: Image composition)
In step S6030, the CPU 1001 functions as the image generation unit 540, and indicates a place where a corresponding portion is likely to exist based on the ultrasonic tomographic image, the position and orientation of the ultrasonic probe, the reference point position, and the corresponding distance. An image in which information is superimposed on an ultrasonic tomographic image is generated. Then, the CPU 1001 sends the generated image to the display unit 180.

まず、画像生成部540(CPU1001)は、ステップS6020で得た基準点の位置を中心として、ステップS6025で得た対応距離の夫々(r’−2σ,r’−σ,r’,r’+σ,r’+2σ)を半径とする球を求める。ここでは中心位置は同じで半径が異なる5つの球を求めることになる。   First, the image generation unit 540 (CPU 1001) sets each of the corresponding distances obtained in step S6025 (r′−2σ, r′−σ, r ′, r ′ + σ) around the position of the reference point obtained in step S6020. , R ′ + 2σ) as a radius. Here, five spheres having the same center position and different radii are obtained.

次に、ステップS6010で得た超音波探触子の位置姿勢に基づいて超音波断層画像が含まれる空間中の平面(すなわち、超音波断面(撮像断面))を求め、その平面で上記球(5の球)を切り取ってできる円(5つの円)を算出する。最後に、算出した円のうち超音波断層画像に含まれる部分(円弧)を超音波断層画像上に重畳して、合成画像を生成する。   Next, based on the position and orientation of the ultrasonic probe obtained in step S6010, a plane in the space including the ultrasonic tomographic image (that is, an ultrasonic cross section (imaging cross section)) is obtained, and the sphere ( A circle (5 circles) formed by cutting out 5 balls) is calculated. Finally, a portion (arc) included in the ultrasonic tomographic image in the calculated circle is superimposed on the ultrasonic tomographic image to generate a composite image.

図9に、本処理によって生成される合成画像の例を示す。図9では、乳頭位置410を中心として半径が対応距離の夫々である同心球の断面が、円弧930及び補助線935として超音波断層画像440に重畳されている。また、標準偏差を示す文字情報(「−2σ」「−σ」「σ」「2σ」など)が、付加情報として夫々の補助線付近に重畳表示されている。前述の図12(a)の状況を考えると、乳頭注目部位間距離が同じrであっても、図12(b)のように、被験者1ではC領域の統計情報に基づく情報が、被験者2ではB領域の統計情報に基づく情報が重畳表示される。   FIG. 9 shows an example of a composite image generated by this processing. In FIG. 9, cross sections of concentric spheres each having a radius corresponding to the center of the nipple position 410 are superimposed on the ultrasonic tomographic image 440 as an arc 930 and an auxiliary line 935. In addition, character information (“−2σ”, “−σ”, “σ”, “2σ”, etc.) indicating standard deviation is superimposed and displayed near each auxiliary line as additional information. Considering the situation of FIG. 12A described above, even if the distance between the nipple attention sites is the same r, as shown in FIG. Then, information based on the statistical information of the B area is displayed in a superimposed manner.

図10は、本実施形態における合成画像の別の例であり、標準偏差σ内の領域と2σ内の領域を半透明に色付けして、存在範囲1035として提示している。このように提示された支援情報を参考にして対応部位450を探索することで、操作者は探索の範囲を絞ることができる。   FIG. 10 is another example of the composite image in the present embodiment, and the region within the standard deviation σ and the region within 2σ are colored translucently and presented as the existence range 1035. By searching the corresponding part 450 with reference to the support information presented in this way, the operator can narrow down the search range.

以上によって、乳頭注目部位間距離に関する統計情報を利用して、対応部位が存在する可能性の高い位置を超音波断層画像中に描画して、操作者に提示することができる。また、被検体や注目領域の属性に応じた統計情報を用いることで、より可能性の高い位置を提示できる。この提示をすることで、より効果的な探索範囲を操作者に示すことができ、操作者が誤った対応付けを行うことを防ぎ、広範囲を探索する手間をさらに低減することができる。   As described above, using the statistical information related to the distance between the nipple attention regions, the position where the corresponding region is likely to exist can be drawn in the ultrasonic tomographic image and presented to the operator. Further, by using statistical information according to the attributes of the subject and the region of interest, a more likely position can be presented. By presenting this, it is possible to show the operator a more effective search range, to prevent the operator from making an incorrect association, and to further reduce the trouble of searching for a wide range.

[第3の実施形態]
第3の実施形態は、注目部位の空間的な広がり(サイズ)を考慮した提示を行う実施形態である。以下、本実施形態に係る情報システムについて、第1の実施形態との相違部分についてのみ説明する。即ち、以下で特に触れない限りは、第1の実施形態と同様である。
[Third Embodiment]
The third embodiment is an embodiment in which presentation is performed in consideration of the spatial extent (size) of the region of interest. Hereinafter, only the difference from the first embodiment of the information system according to the present embodiment will be described. That is, it is the same as that of the first embodiment unless otherwise mentioned below.

本実施形態に係る情報処理システムの機能構成例について、図13のブロック図を用いて説明する。なお、図13において図1と同じ機能部については同じ参照番号を付しており、説明は省略する。図13に示す如く、本実施形態に係る情報処理システムは、データサーバ1360、情報処理装置1300、医用画像収集装置170、表示部180、を有する。   A functional configuration example of the information processing system according to the present embodiment will be described with reference to the block diagram of FIG. In FIG. 13, the same functional units as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted. As illustrated in FIG. 13, the information processing system according to the present embodiment includes a data server 1360, an information processing device 1300, a medical image collection device 170, and a display unit 180.

データサーバ1360は、第1の実施形態で説明した基準点注目部位間距離等の情報に加えて、注目部位の空間的な広がりに関する情報を保持している。ここで、注目部位の空間的な広がりに関する情報とは、例えば、注目部位の最大径Rである。あるいは、基準点から注目部位の最も近い点までの距離(最小距離Dmin)、及び、最も遠い点までの距離(最大距離Dmax)である。前者の情報は、基準点注目部位間距離を取得する元となった被検体の3次元画像データから、画像処理によって注目部位を表す領域を検出して求めることができる。また後者の情報は、該3次元画像データ内における乳頭位置と、注目部位のボクセルにラベル付けをした情報に基づいて算出することができる。データサーバ1360は、保持している上記データを情報処理装置1300へと出力する。   The data server 1360 holds information related to the spatial extent of the target region in addition to the information such as the distance between the reference point target regions described in the first embodiment. Here, the information regarding the spatial spread of the site of interest is, for example, the maximum diameter R of the site of interest. Alternatively, the distance from the reference point to the closest point of the target region (minimum distance Dmin) and the distance to the farthest point (maximum distance Dmax). The former information can be obtained by detecting a region representing the target region by image processing from the three-dimensional image data of the subject from which the distance between the reference point target regions is acquired. Further, the latter information can be calculated based on the nipple position in the three-dimensional image data and information obtained by labeling the voxel of the site of interest. The data server 1360 outputs the stored data to the information processing apparatus 1300.

表示範囲算出部1310は、データサーバ1360から、注目部位の空間的な広がりに関する情報を取得する。そして、この情報に基づいて基準距離に対する表示範囲を算出する。そして、算出した表示範囲の値を画像生成部1340に出力する。   The display range calculation unit 1310 acquires information regarding the spatial extent of the site of interest from the data server 1360. Based on this information, the display range for the reference distance is calculated. Then, the calculated display range value is output to the image generation unit 1340.

画像生成部1340は、第1の実施形態の画像生成部140と同様に、基準距離と、基準点の位置と、超音波探触子の位置姿勢とに基づいて、基準点からの距離が基準距離となる円弧の情報を超音波断層画像上に重畳する。また、表示範囲算出部1310で算出した表示範囲の値を更に用いることで、基準距離から幅を持たせた領域の情報を超音波断層画像上に重畳する。   Similar to the image generation unit 140 of the first embodiment, the image generation unit 1340 uses the reference distance, the position of the reference point, and the position and orientation of the ultrasonic probe as the reference distance. The information on the arc as the distance is superimposed on the ultrasonic tomographic image. Further, by further using the value of the display range calculated by the display range calculation unit 1310, information on a region having a width from the reference distance is superimposed on the ultrasonic tomographic image.

なお、図13に示した情報処理装置1300中の各機能部をコンピュータプログラムで実装した場合には、第1の実施形態と同様、この情報処理装置1300には、図2のコンピュータを適用することができる。即ち、情報処理装置1300中の各機能部をコンピュータプログラムで実装した場合には、このコンピュータプログラムはCPU1001によって実行されることになり、これによりこのコンピュータは情報処理装置1300として機能することになる。   When each functional unit in the information processing apparatus 1300 shown in FIG. 13 is implemented by a computer program, the computer shown in FIG. 2 is applied to the information processing apparatus 1300 as in the first embodiment. Can do. That is, when each functional unit in the information processing apparatus 1300 is implemented by a computer program, the computer program is executed by the CPU 1001, and thus the computer functions as the information processing apparatus 1300.

次に、情報処理装置1300として動作する図2のコンピュータが行う処理について、同処理のフローチャートを示す図14を用いて説明する。なお、図14のフローチャートに従った処理をCPU1001に実行させるためのコンピュータプログラムやデータは外部記憶装置1007に保存されている。CPU1001はこのコンピュータプログラムやデータを外部記憶装置1007からRAM1002にロードし、該コンピュータプログラムやデータを用いて処理を実行する。これにより図2のコンピュータは、図14のフローチャートに従った処理を実行することになる。   Next, processing performed by the computer of FIG. 2 that operates as the information processing apparatus 1300 will be described with reference to FIG. 14 showing a flowchart of the processing. Note that a computer program and data for causing the CPU 1001 to execute processing according to the flowchart of FIG. 14 are stored in the external storage device 1007. The CPU 1001 loads the computer program and data from the external storage device 1007 to the RAM 1002, and executes processing using the computer program and data. As a result, the computer of FIG. 2 executes processing according to the flowchart of FIG.

図14において、ステップS14000、S14010、S14020、S14040の夫々は、図3に示すフローチャートのステップS3000、S3010、S3020、S3040と同じ処理ステップであるため、これらのステップに係る説明は省略する。   In FIG. 14, steps S14000, S14010, S14020, and S14040 are the same processing steps as steps S3000, S3010, S3020, and S3040 in the flowchart shown in FIG. 3, and thus description of these steps is omitted.

(S14005:注目部位の空間的な広がりの取得)
ステップS14005においてCPU1001は表示範囲算出部1310として機能し、データサーバ1360から、注目部位の空間的な広がりに関する情報を取得する。例えば、注目部位の最大径Rや、基準点から注目部位までの最小距離Dmin及び最大距離Dmaxを取得する。
(S14005: Acquisition of spatial extent of the region of interest)
In step S <b> 14005, the CPU 1001 functions as the display range calculation unit 1310 and acquires information regarding the spatial spread of the region of interest from the data server 1360. For example, the maximum diameter R of the site of interest, the minimum distance Dmin from the reference point to the site of interest, and the maximum distance Dmax are acquired.

(S14007:表示範囲の算出)
ステップS14007においてCPU1001は表示範囲算出部1310として機能し、ステップS14005 で取得した注目部位の空間的な広がりに関する情報に基づいて表示範囲を算出する。具体的には、基準点位置からの距離の下限値と上限値を表示範囲として定める。例えば、注目部位の最大径Rを取得している場合には、基準距離rに基づいて、下限値r−R/2から上限値r+R/2までを表示範囲とする。また、乳頭注目部位間の最小距離Dmin及び最大距離Dmaxを取得している場合には、下限値Dminから上限値Dmaxまでを表示範囲とする。
(S14007: Display range calculation)
In step S14007, the CPU 1001 functions as the display range calculation unit 1310, and calculates the display range based on the information regarding the spatial spread of the site of interest acquired in step S14005. Specifically, the lower limit value and the upper limit value of the distance from the reference point position are determined as the display range. For example, when the maximum diameter R of the target region is acquired, the display range is from the lower limit value r−R / 2 to the upper limit value r + R / 2 based on the reference distance r. When the minimum distance Dmin and the maximum distance Dmax between the nipple attention sites are acquired, the display range is from the lower limit value Dmin to the upper limit value Dmax.

(S14030:画像の合成)
ステップS14030においてCPU1001は画像生成部1340として機能し、対応部位の空間的な広がりを考慮した上で、対応部位が存在する可能性の高い場所を示す情報を超音波断層像上に重畳した画像を生成する。具体的には、ステップS14007で取得した表示範囲、すなわち、距離の上限値と下限値の夫々に対応する円弧を超音波断層画像上に重畳した合成画像を生成する。あるいは、該円弧で囲まれる領域を半透明に色付けして超音波断層画像上に重畳した合成画像を生成する。なお、基準点から所定の距離にある超音波断層画像上の円弧を求める処理は、第1の実施形態のステップS3030における基準距離に対する処理と同様であるので、説明を省略する。
(S14030: Image composition)
In step S14030, the CPU 1001 functions as the image generation unit 1340, and in consideration of the spatial extent of the corresponding part, an image in which information indicating a place where the corresponding part is likely to exist is superimposed on the ultrasonic tomographic image is displayed. Generate. Specifically, a composite image is generated in which the display range acquired in step S14007, that is, an arc corresponding to each of the upper limit value and the lower limit value of the distance is superimposed on the ultrasonic tomographic image. Alternatively, a synthetic image is generated by superimposing the region surrounded by the arc on the ultrasonic tomographic image by translucent coloring. Note that the process for obtaining the arc on the ultrasonic tomographic image at a predetermined distance from the reference point is the same as the process for the reference distance in step S3030 of the first embodiment, and thus the description thereof is omitted.

図15は、本実施形態における合成画像の例である。この例では、基準距離の円弧430を描画すると同時に、基準点から半径r−R/2、r+R/2の球で囲まれる範囲内を半透明で色付けして、存在範囲1510として提示している。   FIG. 15 is an example of a composite image in the present embodiment. In this example, the arc 430 of the reference distance is drawn, and at the same time, the range surrounded by the spheres with the radii r−R / 2 and r + R / 2 from the reference point is colored translucently and presented as the existence range 1510. .

以上によって、注目部位の空間的な広がりを考慮した提示を行う。この提示により、操作者は、対象部位の空間的な広がりを考慮した探索を行うことができる。   As described above, presentation is performed in consideration of the spatial spread of the region of interest. By this presentation, the operator can perform a search considering the spatial extent of the target part.

[第4の実施形態]
上記の説明において、画面内に一度に表示するものとして説明した情報は、一度に表示することに限るものではなく、そのうちのいくつかを表示するようにしても構わないし、ユーザ指示に応じて切り替えて表示してもよい。
[Fourth Embodiment]
In the above description, the information described as being displayed on the screen at a time is not limited to being displayed at a time, but some of them may be displayed and switched according to user instructions. May be displayed.

また、上記の説明では、対応部位が存在する可能性の高い位置を様々な形態で超音波断層画像中に描画して操作者に提示していたが、乳腺上で発生する病変ではない場合等、病変の種類によってはこのような提示は誤ったものとなる。そこで、病変の種類に応じて、上記合成処理を行う/行わないを切り替えるようにしても構わない。   In the above description, the position where the corresponding part is likely to exist is drawn in the ultrasonic tomographic image in various forms and presented to the operator, but it is not a lesion occurring on the mammary gland, etc. Depending on the type of lesion, this presentation may be incorrect. Therefore, whether or not to perform the above synthesis processing may be switched according to the type of lesion.

例えば、操作者が病変の種類を識別し、乳腺上で発生する病変ではないと判断した場合には、上記合成処理を行わないようにキーボード1004やマウス1005を用いて指定してもよい。   For example, when the operator identifies the type of lesion and determines that the lesion does not occur on the mammary gland, it may be designated using the keyboard 1004 or the mouse 1005 so as not to perform the above synthesis process.

また、超音波断層画像と、MRIによる3次元画像において対応する断面画像と、を同じ画面上に並べて表示する。いわゆる「Fusion表示」というものがある。このようなFusion表示では、それぞれ同じ断面位置における画像を並べて表示することが好ましいが、患者の体動等の影響により超音波断層画像の撮像中にそれぞれの断面位置がずれてしまう。   In addition, the ultrasonic tomographic image and the corresponding cross-sectional image in the three-dimensional image by MRI are displayed side by side on the same screen. There is a so-called “Fusion display”. In such Fusion display, it is preferable to display images at the same cross-sectional position side by side, but the respective cross-sectional positions are shifted during imaging of an ultrasonic tomographic image due to the influence of the patient's body movement or the like.

そこで、「位置合わせモード」と「撮影モード」とを設ける。例えば、表示部180の画面上に「位置合わせモード」を選択指示するためのボタン画像と、「撮影モード」を選択指示するためのボタン画像とを表示させる。そして、操作者がキーボード1004やマウス1005を操作して「位置合わせモード」のボタン画像を指定した場合、CPU1001はコンピュータのモードを「位置合わせモード」に設定する。一方、操作者がキーボード1004やマウス1005を操作して「撮影モード」のボタン画像を指定した場合、CPU1001はコンピュータのモードを「撮影モード」に設定する。なお、モードの設定方法はこれに限るものではない。そして、「位置合わせモード」が設定されると、CPU1001は上記合成処理を許可し、「撮影モード」が設定されると、CPU1001は上記合成処理を禁止する。これにより、同じ断面位置における画像を並べて表示すべく、操作者が超音波探触子の位置を調節する場合の参考情報を提示することができる。   Therefore, a “positioning mode” and a “shooting mode” are provided. For example, a button image for instructing to select “positioning mode” and a button image for instructing to select “shooting mode” are displayed on the screen of the display unit 180. When the operator operates the keyboard 1004 or the mouse 1005 to specify a button image of “alignment mode”, the CPU 1001 sets the computer mode to “alignment mode”. On the other hand, when the operator operates the keyboard 1004 or the mouse 1005 to specify a button image of “shooting mode”, the CPU 1001 sets the computer mode to “shooting mode”. The mode setting method is not limited to this. When the “positioning mode” is set, the CPU 1001 permits the above composition processing, and when the “photographing mode” is set, the CPU 1001 prohibits the above composition processing. Accordingly, it is possible to present reference information when the operator adjusts the position of the ultrasonic probe so that images at the same cross-sectional position are displayed side by side.

また、伏臥位−仰臥位の各画像をFusion表示する場合は上記合成処理を許可し、仰臥位−仰臥位の各画像をFusion表示する場合には上記合成処理を禁止させるようにしても構わない。   Further, the above-described combining process may be permitted when the images of the prone position and the supine position are fusion-displayed, and the above-described combining process may be prohibited when the respective images of the supine position and the supine position are fusion-displayed. .

このように、情報処理システムを使用する目的や状況に応じて、上記合成処理を許可したり禁止したりすることも可能である。また、合成処理全てを禁止したり許可したりするのではなく、例えば、円弧及び該円弧に対応する文字情報(例えば5mm、10mm、15mmなど))の何れかのみを許可/禁止してもよい。また、合成処理の許可/禁止に代えて、円弧及び該円弧に対応する文字情報のセットをいくつ表示するのかを制御してもよい。例えば、上記「位置合わせモード」では表示セット数を増加させ、「撮影モード」では表示セット数を減少させる。また、上記の説明は適宜組み合わせて使用しても構わない。   As described above, it is possible to permit or prohibit the synthesis process according to the purpose and situation of using the information processing system. Further, instead of prohibiting or permitting all the composition processing, for example, only one of arcs and character information (for example, 5 mm, 10 mm, 15 mm, etc.) corresponding to the arcs may be permitted / prohibited. . Further, instead of permitting / prohibiting the synthesis process, it may be controlled how many sets of character information corresponding to the arc and the arc are displayed. For example, in the “positioning mode”, the number of display sets is increased, and in the “shooting mode”, the number of display sets is decreased. Moreover, you may use combining said description suitably.

このように、上記の説明の骨子は、被検体の断層像を取得し、被検体における基準点から規定距離だけ離間した部分に対応する断層像中の箇所を特定し、断層像に該特定した箇所を示す情報を合成した合成画像を生成して出力する技術を基本とするものである。   As described above, the outline of the above description is that the tomographic image of the subject is acquired, the location in the tomographic image corresponding to the portion separated from the reference point in the subject by the specified distance is specified, and the tomographic image is specified. This is based on a technique for generating and outputting a composite image obtained by combining information indicating locations.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

100:情報処理装置 110:断層画像取得部 120:位置姿勢取得部 130:基準点位置取得部 140:画像生成部 150:表示制御部 105:基準距離取得部   DESCRIPTION OF SYMBOLS 100: Information processing apparatus 110: Tomographic image acquisition part 120: Position and orientation acquisition part 130: Reference point position acquisition part 140: Image generation part 150: Display control part 105: Reference distance acquisition part

Claims (23)

被検体の二次元画像を取得する取得手段と、
空間中における前記被検体の基準点の三次元位置を表す情報を取得する基準点位置取得手段と、
前記基準点の前記三次元位置から所定の三次元距離だけ離間した部分に対応する前記二次元画像中の箇所を特定する特定手段と、
前記二次元画像に前記箇所を示す情報を合成した合成画像を生成する生成手段と
を備え
前記特定手段は、前記基準点の前記三次元位置を中心とし且つ前記所定の三次元距離を半径とする球を前記二次元画像に対応する断面で切り取った円を特定し、該円のうち前記二次元画像に含まれる円弧を前記箇所として特定し、
前記生成手段は、前記二次元画像に前記円弧を重畳した前記合成画像を生成する
ことを特徴とする情報処理装置。
Acquisition means for acquiring a two-dimensional image of the subject;
Reference point position acquisition means for acquiring information representing the three-dimensional position of the reference point of the subject in space;
Identifying means for identifying a location in the two-dimensional image corresponding to a portion separated by a predetermined three-dimensional distance from the three-dimensional position of the reference point;
Generating means for generating a synthesized image obtained by synthesizing information indicating the location on the two-dimensional image ,
The specifying means specifies a circle obtained by cutting a sphere centered on the three-dimensional position of the reference point and having a radius of the predetermined three-dimensional distance in a cross section corresponding to the two-dimensional image, Identify the arc included in the two-dimensional image as the location,
The information processing apparatus , wherein the generation unit generates the composite image in which the arc is superimposed on the two-dimensional image .
前記二次元画像の位置姿勢を表す情報を取得する位置姿勢取得手段
を更に備え、
前記特定手段は、前記基準点の前記三次元位置を表す情報及び前記二次元画像の前記位置姿勢を表す情報に基づいて、前記基準点の前記三次元位置から前記所定の三次元距離だけ離間した部分に対応する前記二次元画像中の箇所を特定する
ことを特徴とする請求項1に記載の情報処理装置。
A position and orientation acquisition means for acquiring information representing the position and orientation of the two-dimensional image;
The specifying means is separated from the three-dimensional position of the reference point by the predetermined three-dimensional distance based on information indicating the three-dimensional position of the reference point and information indicating the position and orientation of the two-dimensional image. The information processing apparatus according to claim 1, wherein a location in the two-dimensional image corresponding to a part is specified.
前記合成画像を表示手段に表示させる表示制御手段を更に備える
ことを特徴とする請求項1又は2に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising display control means for displaying the composite image on a display means.
前記生成手段は、前記二次元画像に前記所定の三次元距離を示す文字を重畳した前記合成画像を生成する
ことを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
It said generating means, the information processing apparatus according to any one of claims 1 to 3, characterized in that to generate the composite image by superimposing a character indicating the predetermined three-dimensional distance to the two-dimensional image.
前記所定の三次元距離は、互いに異なる複数の三次元距離を含み、
前記特定手段は、前記所定の三次元距離に含まれているそれぞれの三次元距離に対して、前記基準点の前記三次元位置から該三次元距離だけ離間した部分に対応する前記二次元画像中の箇所を特定し、
前記生成手段は、前記二次元画像に該それぞれの三次元距離について特定した箇所を示す情報を合成した前記合成画像を生成する
ことを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
The predetermined three-dimensional distance includes a plurality of different three-dimensional distances,
In the two-dimensional image corresponding to a portion separated from the three-dimensional position of the reference point by the three-dimensional distance with respect to each three-dimensional distance included in the predetermined three-dimensional distance. Identify the location of
Said generating means according to any one of claims 1 to 4, characterized in that to generate the composite image of information indicating the specified position on the three-dimensional distance of the respective said two-dimensional image Information processing device.
前記複数の三次元距離は等間隔である
ことを特徴とする請求項に記載の情報処理装置。
The information processing apparatus according to claim 5 , wherein the plurality of three-dimensional distances are equally spaced.
前記被検体の体位の変化に応じて前記所定の三次元距離を変化させる手段を更に備える
ことを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 6 , further comprising means for changing the predetermined three-dimensional distance in accordance with a change in the posture of the subject.
前記被検体の特性情報に基づいて、前記所定の三次元距離を変化させる手段を更に備える
ことを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 6 , further comprising means for changing the predetermined three-dimensional distance based on characteristic information of the subject.
前記被検体は乳房であり、前記特性情報は乳腺密度である
ことを特徴とする請求項に記載の情報処理装置。
The information processing apparatus according to claim 8 , wherein the subject is a breast, and the characteristic information is a mammary gland density.
前記二次元画像は、超音波画像診断装置を用いて生成された超音波断層画像である
ことを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
The two-dimensional image processing apparatus according to any one of claims 1 to 9, characterized in that the ultrasonic tomographic image generated using an ultrasound system.
前記被検体は乳房であり、前記基準点は該乳房における乳頭である
ことを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 10 , wherein the subject is a breast, and the reference point is a nipple in the breast.
被検体の二次元画像を取得し、
空間中における前記被検体の基準点の三次元位置を表す情報を取得し、
前記基準点の前記三次元位置を中心とし且つ所定の三次元距離を半径とする球を前記二次元画像に対応する断面で切り取った円を特定し、
前記円のうち前記二次元画像に含まれる円弧を特定し、
前記二次元画像に前記円弧を重畳した合成画像を生成する
ことを特徴とする情報処理方法。
Acquire a two-dimensional image of the subject,
Obtaining information representing the three-dimensional position of the reference point of the subject in space;
A sphere centered on the three-dimensional position of the reference point and having a radius of a predetermined three-dimensional distance is identified as a circle cut by a cross section corresponding to the two-dimensional image;
Identify the arc included in the two-dimensional image of the circle ,
A composite image in which the arc is superimposed on the two-dimensional image is generated.
前記二次元画像の位置姿勢を表す情報を取得し、
前記基準点の前記三次元位置を表す情報及び前記二次元画像の前記位置姿勢を表す情報に基づいて、前記基準点の前記三次元位置から前記所定の三次元距離だけ離間した部分に対応する前記二次元画像中の箇所を特定する
ことを特徴とする請求項12に記載の情報処理方法。
Obtaining information representing the position and orientation of the two-dimensional image,
Based on the information representing the three-dimensional position of the reference point and the information representing the position and orientation of the two-dimensional image, the part corresponding to a portion separated from the three-dimensional position of the reference point by the predetermined three-dimensional distance. The information processing method according to claim 12 , wherein a location in the two-dimensional image is specified.
前記合成画像を表示手段に表示させる
ことを特徴とする請求項12又は13に記載の情報処理方法。
The information processing method according to claim 12 or 13, characterized in that for displaying the composite image on the display unit.
前記二次元画像に前記所定の三次元距離を示す文字を重畳した前記合成画像を生成する
ことを特徴とする請求項12乃至14の何れか1項に記載の情報処理方法。
The information processing method according to any one of claims 12 to 14 , wherein the composite image in which characters indicating the predetermined three-dimensional distance are superimposed on the two-dimensional image is generated.
前記所定の三次元距離は、互いに異なる複数の三次元距離を含み、
前記所定の三次元距離に含まれているそれぞれの三次元距離に対して、前記基準点の前記三次元位置から該三次元距離だけ離間した部分に対応する前記二次元画像中の箇所を特定し、
前記二次元画像に該それぞれの三次元距離について特定した箇所を示す情報を合成した前記合成画像を生成する
ことを特徴とする請求項12乃至15の何れか1項に記載の情報処理方法。
The predetermined three-dimensional distance includes a plurality of different three-dimensional distances,
For each three-dimensional distance included in the predetermined three-dimensional distance, a location in the two-dimensional image corresponding to a portion separated by the three-dimensional distance from the three-dimensional position of the reference point is specified. ,
The information processing method according to any one of claims 12 to 15 , wherein the combined image is generated by combining the two-dimensional image with information indicating a location specified for each three-dimensional distance.
前記複数の三次元距離は等間隔である
ことを特徴とする請求項16に記載の情報処理方法。
The information processing method according to claim 16 , wherein the plurality of three-dimensional distances are equally spaced.
前記被検体の体位の変化に応じて前記所定の三次元距離を変化させる
ことを特徴とする請求項12乃至17の何れか1項に記載の情報処理方法。
The information processing method according to any one of claims 12 to 17 , wherein the predetermined three-dimensional distance is changed in accordance with a change in the posture of the subject.
前記被検体の特性情報に基づいて、前記所定の三次元距離を変化させる
ことを特徴とする請求項12乃至17の何れか1項に記載の情報処理方法。
The information processing method according to any one of claims 12 to 17 , wherein the predetermined three-dimensional distance is changed based on characteristic information of the subject.
前記被検体は乳房であり、前記特性情報は乳腺密度である
ことを特徴とする請求項19に記載の情報処理方法。
The information processing method according to claim 19 , wherein the subject is a breast, and the characteristic information is a breast density.
前記二次元画像は、超音波画像診断装置を用いて生成された超音波断層画像である
ことを特徴とする請求項12乃至20の何れか1項に記載の情報処理方法。
The information processing method according to any one of claims 12 to 20 , wherein the two-dimensional image is an ultrasonic tomographic image generated using an ultrasonic diagnostic imaging apparatus.
前記被検体は乳房であり、前記基準点は該乳房における乳頭である
ことを特徴とする請求項12乃至21の何れか1項に記載の情報処理方法。
The information processing method according to any one of claims 12 to 21 , wherein the subject is a breast, and the reference point is a nipple in the breast.
コンピュータを、請求項1乃至11の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。 The computer program for functioning a computer as each means of the information processing apparatus of any one of Claims 1 thru | or 11 .
JP2017162689A 2017-08-25 2017-08-25 Information processing apparatus and information processing method Active JP6387166B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017162689A JP6387166B2 (en) 2017-08-25 2017-08-25 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017162689A JP6387166B2 (en) 2017-08-25 2017-08-25 Information processing apparatus and information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013188717A Division JP6200249B2 (en) 2013-09-11 2013-09-11 Information processing apparatus and information processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018151961A Division JP6752254B2 (en) 2018-08-10 2018-08-10 Information processing device, information processing method

Publications (2)

Publication Number Publication Date
JP2017202399A JP2017202399A (en) 2017-11-16
JP6387166B2 true JP6387166B2 (en) 2018-09-05

Family

ID=60321817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017162689A Active JP6387166B2 (en) 2017-08-25 2017-08-25 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP6387166B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2660955A1 (en) * 2006-08-16 2008-02-21 Mevis Breastcare Gmbh & Co. Kg Method, apparatus and computer program for presenting cases comprising images
JP5015580B2 (en) * 2006-12-25 2012-08-29 日立アロカメディカル株式会社 Ultrasonic diagnostic apparatus and report image creation method
JP5822554B2 (en) * 2011-06-17 2015-11-24 キヤノン株式会社 Image processing apparatus, image processing method, photographing system, and program

Also Published As

Publication number Publication date
JP2017202399A (en) 2017-11-16

Similar Documents

Publication Publication Date Title
JP6200249B2 (en) Information processing apparatus and information processing method
JP6073971B2 (en) Medical image processing device
JP6039903B2 (en) Image processing apparatus and operation method thereof
JP5538862B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP6401459B2 (en) Image processing apparatus and image processing method
JP6448356B2 (en) Image processing apparatus, image processing method, image processing system, and program
US20120321161A1 (en) Image processing apparatus, image processing method, image pickup system, and program
EP2495700A1 (en) Image-based diagnosis assistance apparatus, its operation method and program
JP3989896B2 (en) Medical image processing apparatus, region of interest extraction method, and program
JP6383182B2 (en) Image processing apparatus, image processing system, image processing method, and program
US11756673B2 (en) Medical information processing apparatus and medical information processing method
JP6066197B2 (en) Surgery support apparatus, method and program
JP6752254B2 (en) Information processing device, information processing method
US10896501B2 (en) Rib developed image generation apparatus using a core line, method, and program
JP6461743B2 (en) Medical image processing apparatus and medical image processing method
JP6487999B2 (en) Information processing apparatus, information processing method, and program
JP6387166B2 (en) Information processing apparatus and information processing method
JP6263248B2 (en) Information processing apparatus, information processing method, and program
JP2012085833A (en) Image processing system for three-dimensional medical image data, image processing method for the same, and program
JP5159195B2 (en) Medical image processing device
JP2019217264A (en) Medical image processing apparatus, medical image diagnostic apparatus, and medical image processing method
JP2014042830A (en) Image processor, image processing method, image processing system, and program
US20220079539A1 (en) Medical image display apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170925

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180425

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180810

R151 Written notification of patent or utility model registration

Ref document number: 6387166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151