JP6643416B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6643416B2
JP6643416B2 JP2018145408A JP2018145408A JP6643416B2 JP 6643416 B2 JP6643416 B2 JP 6643416B2 JP 2018145408 A JP2018145408 A JP 2018145408A JP 2018145408 A JP2018145408 A JP 2018145408A JP 6643416 B2 JP6643416 B2 JP 6643416B2
Authority
JP
Japan
Prior art keywords
image
cross
deformed
deformation
estimation error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018145408A
Other languages
Japanese (ja)
Other versions
JP2018171513A (en
Inventor
佐藤 清秀
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018145408A priority Critical patent/JP6643416B2/en
Publication of JP2018171513A publication Critical patent/JP2018171513A/en
Application granted granted Critical
Publication of JP6643416B2 publication Critical patent/JP6643416B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像間の位置合わせを行う画像処理装置、画像処理方法およびプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for performing alignment between images.

医用画像(被検体内部の情報を表す3次元断層画像)を用いた画像診断において、医師は、複数の撮像装置(モダリティ)、異なる体位、時刻、撮像パラメータ等で撮像した画像を対比しながら診断を行う。しかし、画像間で被検体の姿勢や形状が異なるため、病変部の同定や対比を行うことが困難である。そこで、複数画像間の位置合わせを行うことが試みられている。これにより、一方の画像に姿勢の変換や変形を施して他方と同一にした画像を生成することが可能となる。   2. Description of the Related Art In image diagnosis using medical images (three-dimensional tomographic images representing information inside a subject), a doctor performs diagnosis while comparing images captured by a plurality of imaging devices (modalities), different body positions, times, imaging parameters, and the like. I do. However, since the posture and shape of the subject are different between the images, it is difficult to identify or compare a lesion. Therefore, it has been attempted to perform registration between a plurality of images. As a result, it is possible to generate an image in which one of the images is subjected to the transformation or deformation of the posture and the same as the other image.

しかし、一般的な位置合わせの結果は誤差を含むのであり、必ずしも正確ではない。そのため、医師は、位置合わせの結果をどの程度信頼して良いのか判断できないという課題がある。   However, the result of general alignment includes an error and is not always accurate. For this reason, there is a problem that the doctor cannot judge how much the result of the alignment is reliable.

これに対して特許文献1は、位置合わせの誤差を推定する方法として、変形位置合わせの結果として推定した変形パラメータの不安定さ(解の曖昧さ)に基づく手法を開示している。特許文献1の手法では、不安定なパラメータを意図的に変動させた際の注目点の対応点の推定位置の変動範囲に基づいて、当該位置の誤差を推定している。   On the other hand, Patent Literature 1 discloses a method for estimating an alignment error based on the instability (ambiguity of a solution) of a deformation parameter estimated as a result of the deformation alignment. In the method of Patent Literature 1, an error of the position is estimated based on a fluctuation range of an estimated position of a corresponding point of a target point when an unstable parameter is intentionally changed.

特開2013−198722号公報JP 2013-198722 A

しかしながら、特許文献1に記載の誤差の推定方法では、推定パラメータの不安定さ以外の要因を考慮できないという課題があった。   However, the error estimation method described in Patent Literature 1 has a problem that factors other than instability of the estimation parameter cannot be considered.

本発明は、上記の課題に鑑みてなされたものであり、複数画像間の位置合わせ(特に、補間に起因する位置合わせ)における推定誤差や信頼度を取得する方法を提供することを目的とする。   The present invention has been made in view of the above problems, and has as its object to provide a method for acquiring an estimation error and reliability in alignment between a plurality of images (particularly, alignment caused by interpolation). .

上記の目的を達成する本発明の一態様による画像処理装置は、以下の構成を備える。すなわち、
画像の変形情報を取得する情報取得手段と、
前記変形情報に基づいて、前記画像に対して座標変換を行うことにより変形画像を生成する画像生成手段と、
前記変形画像における変形の推定誤差又は信頼度を表すボリュームデータを取得する取得手段と、
前記変形画像の断面画像と、前記変形画像の断面画像の断面に対応する、前記ボリュームデータにおける断面を示すマップとを重畳して表示部に表示させる表示制御手段と、
を有することを特徴とする。
An image processing apparatus according to one embodiment of the present invention that achieves the above object has the following configuration. That is,
Information acquisition means for acquiring image deformation information,
Image generation means for generating a deformed image by performing coordinate transformation on the image based on the deformation information,
A resulting unit preparative you get the volume data representing the estimated error or the reliability of deformation in the deformation image,
A display control unit that superimposes a cross-sectional image of the deformed image and a map indicating a cross-section in the volume data corresponding to a cross-section of the cross-sectional image of the deformed image on a display unit;
It is characterized by having.

本発明によれば、複数画像間の位置合わせにおける推定誤差や信頼度を取得することができる。   ADVANTAGE OF THE INVENTION According to this invention, the estimation error in the position alignment between several images and reliability can be acquired.

第1実施形態に係る画像処理システムおよび画像処理装置の機能構成を示す図。FIG. 1 is a diagram illustrating a functional configuration of an image processing system and an image processing apparatus according to a first embodiment. 第1実施形態に係る画像処理装置の処理手順を示すフローチャート。5 is a flowchart illustrating a processing procedure of the image processing apparatus according to the first embodiment. 第1実施形態における推定誤差表示の例を示す模式図。FIG. 4 is a schematic diagram illustrating an example of an estimation error display according to the first embodiment. 第2実施形態における推定誤差表示の例を示す模式図。FIG. 10 is a schematic diagram illustrating an example of an estimation error display according to the second embodiment.

以下、添付の図面を参照しながら、本発明の実施の形態について詳説する。ただし、本発明の範囲は図示例に限定されるものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the scope of the present invention is not limited to the illustrated example.

(第1実施形態)
本実施形態に係る画像処理装置は、複数の3次元断層画像間の変形位置合わせを行う装置であり、一方の3次元断層画像を他方の3次元断層画像に位置や形状が合うように変形させた変形画像を生成する。このとき、生成した変形画像の夫々の位置における位置合わせの推定誤差や信頼度を求めて、その分布を変形画像と対応付けて表示することを第一の特徴とする。以下、本実施形態に係る画像処理装置について説明する。
(1st Embodiment)
The image processing apparatus according to the present embodiment is an apparatus that performs deformation alignment between a plurality of three-dimensional tomographic images, and deforms one three-dimensional tomographic image so that the position and shape match the other three-dimensional tomographic image. Generated transformed image. At this time, the first feature is that an estimation error and reliability of the alignment at each position of the generated deformed image are obtained, and the distribution is displayed in association with the deformed image. Hereinafter, the image processing apparatus according to the present embodiment will be described.

<1.画像処理システム1の構成>
図1は、本実施形態に係る画像処理システム1の構成を示す。同図に示すように、本実施形態における画像処理システム1は、画像処理装置10と、データサーバ20と、ディスプレイ30とを有している。画像処理装置10は、画像取得部110、対応情報取得部120、設定部125、位置合わせ部130、画像生成部140、推定誤差取得部150、および表示制御部160を備えている。
<1. Configuration of Image Processing System 1>
FIG. 1 shows a configuration of an image processing system 1 according to the present embodiment. As shown in FIG. 1, the image processing system 1 according to the present embodiment includes an image processing device 10, a data server 20, and a display 30. The image processing apparatus 10 includes an image acquisition unit 110, a correspondence information acquisition unit 120, a setting unit 125, a positioning unit 130, an image generation unit 140, an estimated error acquisition unit 150, and a display control unit 160.

画像取得部110は、位置合わせの対象である被検体の複数の3次元断層画像(すなわち、第1の画像と第2の画像)を、データサーバ20から取得する。   The image acquisition unit 110 acquires, from the data server 20, a plurality of three-dimensional tomographic images (that is, a first image and a second image) of the subject to be aligned.

対応情報取得部120は、第1の画像および第2の画像の夫々の画像座標系における対応情報を取得する。   The correspondence information acquisition unit 120 acquires correspondence information in the respective image coordinate systems of the first image and the second image.

設定部125は、位置合わせ処理(変形推定処理)を実行する際の条件(第1の条件)を設定する。条件設定の詳細は後述する。また、設定部125は、第1の条件に基づいて当該第1の条件とは異なる第2の条件を設定する。   The setting unit 125 sets a condition (first condition) for executing the alignment process (deformation estimation process). Details of the condition setting will be described later. The setting unit 125 sets a second condition different from the first condition based on the first condition.

位置合わせ部130は、対応情報取得部120により取得された対応情報に基づいて、設定部125により設定された条件下で、第1の画像と第2の画像の位置合わせ処理(変形推定処理)を実行する。   The alignment unit 130 performs an alignment process (a deformation estimation process) between the first image and the second image under the conditions set by the setting unit 125, based on the correspondence information acquired by the correspondence information acquisition unit 120. Execute

画像生成部140は、位置合わせ部130により得られた位置合わせ結果に基づいて、第2の画像と一致するように第1の画像に座標変換を施した新たな画像(変形画像)を生成する。   The image generation unit 140 generates a new image (deformed image) obtained by performing coordinate transformation on the first image so as to match the second image based on the alignment result obtained by the alignment unit 130. .

推定誤差取得部150は、設定部125により設定された第1の条件下で得られた位置合わせ結果と、第2の条件下で得られた位置合わせ結果とに基づいて、画像生成部140により得られた変形画像上の各点における位置合わせの推定誤差や信頼度を計算し、その分布を示す推定誤差画像を生成する。   The estimation error acquisition unit 150 controls the image generation unit 140 based on the alignment result obtained under the first condition set by the setting unit 125 and the alignment result obtained under the second condition. The estimation error and the reliability of the alignment at each point on the obtained deformed image are calculated, and an estimation error image showing the distribution is generated.

表示制御部160は、第2の画像の断面画像と、画像生成部140により生成された変形画像の対応断面画像とをディスプレイ30に表示する制御を行う。   The display control unit 160 performs control to display the cross-sectional image of the second image and the corresponding cross-sectional image of the deformed image generated by the image generation unit 140 on the display 30.

ここで、データサーバ20は、位置合わせの対象である被検体の複数の3次元断層画像を保持している。なお、夫々の3次元断層画像は、付帯情報として、画像のサイズ、解像度、モダリティの種類、撮像情報(撮像部位、体位など)、症例情報(患者情報、臓器領域情報、注目領域情報など)等を含んでいる。これらの付帯情報は、必要に応じて、画像と共に画像処理装置10へと送信される。   Here, the data server 20 holds a plurality of three-dimensional tomographic images of the subject to be aligned. Each of the three-dimensional tomographic images includes, as incidental information, image size, resolution, modality type, imaging information (imaging part, body position, etc.), case information (patient information, organ area information, attention area information, etc.), etc. Contains. These supplementary information is transmitted to the image processing apparatus 10 together with the image as needed.

<2.画像処理装置10が実施する処理>
次に、図2のフローチャートを参照して、本実施形態に係る画像処理装置10が実施する処理の手順について説明する。なお、以下の説明では、同一の被検体を異なる体位で撮像した第1の画像と第2の画像を複数の3次元断層画像としてデータサーバ20から読み込み、第1の画像に変形処理を施し、第2の画像と位置や形状が合うように変形させた変形画像を生成する場合を例にとって説明する。
<2. Processing Performed by Image Processing Apparatus 10>
Next, a procedure of processing performed by the image processing apparatus 10 according to the present embodiment will be described with reference to a flowchart of FIG. In the following description, the first image and the second image obtained by imaging the same subject in different body positions are read from the data server 20 as a plurality of three-dimensional tomographic images, and the first image is subjected to a deformation process. A case where a deformed image deformed so as to match the position and shape with the second image will be described as an example.

(ステップS200;入力画像の取得)
ステップS200において、画像取得部110は、位置合わせの対象である被検体の複数の3次元断層画像(すなわち、第1の画像と第2の画像)を、データサーバ20から取得する。そして、取得した画像を、画像生成部140および表示制御部160に送信する。
(Step S200; acquisition of input image)
In step S200, the image acquisition unit 110 acquires from the data server 20 a plurality of three-dimensional tomographic images (that is, a first image and a second image) of the subject to be aligned. Then, the acquired image is transmitted to image generation section 140 and display control section 160.

(ステップS210;対応情報の取得)
ステップS210において、対応情報取得部120は、第1の画像および第2の画像の夫々の画像座標系における対応情報を取得する。そして、取得した対応情報を、位置合わせ部130に送信する。ここで、対応情報とは、2つの画像間で対応する点や線や面の情報のことである。対応情報の取得は、例えば、ユーザが目視で同定した画像間の対応点を画像処理装置10に入力することによって実行される。具体的には、ディスプレイ30に表示されている夫々の3次元断層画像の断面画像を比較しながら、夫々の画像上において解剖学的に同じとみなした位置を、不図示のマウスのクリック等によって対応点として入力することによって取得する。
(Step S210: Acquisition of correspondence information)
In step S210, the correspondence information acquisition unit 120 acquires correspondence information in the respective image coordinate systems of the first image and the second image. Then, the acquired correspondence information is transmitted to the positioning unit 130. Here, the correspondence information is information on points, lines, and planes corresponding between two images. The acquisition of the correspondence information is executed, for example, by inputting the corresponding points between the images visually identified by the user to the image processing apparatus 10. More specifically, while comparing the cross-sectional images of the respective three-dimensional tomographic images displayed on the display 30, the positions considered anatomically the same on the respective images are clicked by a mouse (not shown) or the like. Acquired by inputting as corresponding points.

(ステップS220;パラメータの設定)
ステップS220において、設定部125は、位置合わせ処理(変形推定処理)を実行する際の条件(第1の条件)を設定して(ユーザの選択を取得して)、位置合わせ部130に送信する。第1の条件は、変形を推定する際に使用する変形記述モデルの種類と、前記変形記述モデルの詳細設定とを含む。例えば、以下の条件に関するユーザの選択を取得する。
(Step S220; parameter setting)
In step S220, the setting unit 125 sets a condition (first condition) for executing the positioning process (the deformation estimation process) (acquires the user's selection) and transmits the condition to the positioning unit 130. . The first condition includes the type of the deformation description model used when estimating the deformation and the detailed setting of the deformation description model. For example, a user's selection regarding the following conditions is acquired.

・変形記述モデルの選択(例えば、FFD(Free−Form Deformation)を用いるか、放射基底関数を用いるかの選択)
・FFDを用いる場合の、制御点のグリッドサイズの選択(例えば、5mm、10mm、15mm、および20mmからの選択)
・放射基底関数を用いる場合の、放射基底関数の形状の選択(例えば、TPS(Thin Plate Spline)関数、Gauss関数、Wendland関数、およびcubic関数からの選択)
・変形の最適化計算に用いるコスト関数における各種の正則化項(体積の保存や滑らかさの維持などを評価する項)の有無や重みの設定
なお、全ての条件をユーザが設定する必要は必ずしも必要ではなく、一部の条件のみをユーザが設定可能な状態としておいて、他の条件は既定の値を設定するようにしてもよい。もちろん、上記の条件は一例にすぎず、採用する変形記述モデルや位置合わせ手法に応じて、上記以外の条件を設定可能とすることが望ましい。
Selection of a deformation description model (for example, selection between using FFD (Free-Form Deformation) or using a radial basis function)
Selection of grid size of control points when using FFD (for example, selection from 5 mm, 10 mm, 15 mm, and 20 mm)
Selection of the shape of the radial basis function when using the radial basis function (for example, selection from TPS (Thin Plate Spline) function, Gauss function, Wendland function, and cubic function)
-Presence or absence of various regularization terms (terms for evaluating preservation of volume, maintenance of smoothness, etc.) in the cost function used for optimization calculation of deformation and setting of weights Note that the user does not necessarily need to set all conditions It is not necessary that only some of the conditions can be set by the user, and other conditions may be set to predetermined values. Of course, the above conditions are only examples, and it is desirable that conditions other than the above can be set according to the deformation description model and the alignment method to be adopted.

(ステップS230;位置合わせ)
ステップS230において、位置合わせ部130は、ステップS210で取得した対応情報に基づいて、ステップS220で設定した条件下で、第1の画像と第2の画像の位置合わせ処理(変形推定処理)を実行する。すなわち、設定条件下で第1の画像を変形した場合に第2の画像との間での対応点位置の残差が(あるいは、該残差を含むコスト関数が)最小となるような変形情報(第1の変形情報)を(当該条件下における変形パラメータを)推定する。そして、得られた推定結果(以下、第1の位置合わせ結果と呼ぶ)を、画像生成部140および推定誤差取得部150へと送信する。なお、以下の説明では、本ステップで推定される変形情報を、第1の画像の座標pの第2の画像への写像関数φ(p)と表記する。
(Step S230; alignment)
In step S230, based on the correspondence information acquired in step S210, the positioning unit 130 executes a positioning process (deformation estimation process) between the first image and the second image under the conditions set in step S220. I do. That is, when the first image is deformed under the set conditions, the deformation information such that the residual of the corresponding point position between the first image and the second image is minimized (or a cost function including the residual) is minimized. (First deformation information) is estimated (the deformation parameter under the condition). Then, the obtained estimation result (hereinafter, referred to as a first alignment result) is transmitted to the image generation unit 140 and the estimation error acquisition unit 150. In the following description, the deformation information estimated in this step is expressed as a mapping function φ (p) of the coordinates p of the first image onto the second image.

(ステップS240;条件変動下での位置合わせ)
ステップS240において、設定部125は、ステップS220で設定した第1の条件に基づいて、該条件とは異なる1つ以上の(N通りの)条件(第2の条件)を設定する。そして、位置合わせ部130は、新たに設定した夫々の条件下で、ステップS210で取得した対応情報に基づいて、第1の画像と第2の画像の位置合わせ処理を実行する。夫々の条件を設定した後の処理は、ステップS230と同様である。そして、得られた複数の推定結果である変形情報(第2の変形情報)(以下、第2の位置合わせ結果と呼ぶ)を、推定誤差取得部150へと送信する。なお、以下の説明では、本ステップで推定されるi番目の変形情報を、第1の画像の座標pの第2の画像への写像関数φi(p)と表記する。
(Step S240: Alignment under condition fluctuation)
In step S240, based on the first condition set in step S220, the setting unit 125 sets one or more (N kinds of) conditions (second conditions) different from the first condition. Then, the alignment unit 130 executes the alignment processing of the first image and the second image based on the correspondence information acquired in step S210 under each newly set condition. The processing after setting the respective conditions is the same as in step S230. Then, deformation information (second deformation information) (hereinafter, referred to as a second alignment result), which is a plurality of obtained estimation results, is transmitted to estimation error acquisition section 150. In the following description, the i-th deformation information estimated in this step is referred to as a mapping function φi (p) of the coordinates p of the first image onto the second image.

ここで、第2の条件の設定は、ステップS220で設定した第1の条件から一部の条件以外を固定し、固定しなかった一部の条件(変動条件)の値を変動させることで行う。すなわち、第1の条件の少なくとも一部を変更することにより、第2の条件を設定する。この時、変動条件は、第1の条件に応じて定めることができる。例えば、第1の条件として設定した変形記述モデルに応じて、変動条件を決定する。例えば、第1の条件の変形記述モデルに応じて、夫々の変形記述モデルの詳細設定の一部を変動条件とする。   Here, the setting of the second condition is performed by fixing other than some of the first conditions set in step S220 and changing the values of some of the conditions (variable conditions) that are not fixed. . That is, the second condition is set by changing at least a part of the first condition. At this time, the fluctuation condition can be determined according to the first condition. For example, a variation condition is determined according to the deformation description model set as the first condition. For example, according to the modification description model of the first condition, a part of the detailed settings of each modification description model is set as a variation condition.

より具体的には、第1の条件で変形記述モデルとしてFFDが設定されている場合には、例えば制御点のグリッドサイズを変動条件とする。このとき、例えば、第1の条件で制御点のグリッドサイズが5mmに設定されている場合には、FFDのグリッドサイズを5mm以外の値、即ち、10mm、15mm、および20mmに変更した場合の夫々を第2の条件とする。   More specifically, when FFD is set as the deformation description model under the first condition, for example, the grid size of the control point is set as the change condition. At this time, for example, if the grid size of the control points is set to 5 mm under the first condition, the grid size of the FFD is changed to a value other than 5 mm, that is, 10 mm, 15 mm, and 20 mm, respectively. Is the second condition.

また、第1の条件で変形記述モデルとして放射基底関数が設定されている場合には、放射基底関数の形状を変動条件とする。このとき、例えば、第1の条件で放射基底関数としてTPS関数が設定されている場合には、放射基底関数をTPS関数以外の関数、即ち、Gauss関数、Wendland関数、およびcubic関数に変更した場合の夫々を第2の条件とする。   When the radial basis function is set as the deformation description model under the first condition, the shape of the radial basis function is set as the variation condition. At this time, for example, when the TPS function is set as the radiation basis function under the first condition, the radiation basis function is changed to a function other than the TPS function, that is, a Gauss function, a Wendland function, and a cubic function. Are the second conditions.

あるいは、第1の条件における夫々の正則化処理の有効・無効の設定に応じて、変動条件を決定するようにしてもよい。例えば、第1の条件で有効と設定されている正則化処理に関して、該当する正則化項の重みを、設定されている値以外の様々な値に変更した場合の夫々を第2の条件とすることができる。なお、変動条件は、設定部125を介してユーザが指定する構成であってもよい。   Alternatively, the variation condition may be determined according to the setting of the validity / invalidity of each regularization process under the first condition. For example, regarding the regularization processing that is set to be valid under the first condition, each case where the weight of the corresponding regularization term is changed to various values other than the set value is set as the second condition. be able to. Note that the variation conditions may be configured to be specified by the user via the setting unit 125.

(ステップS250;変形画像の生成)
ステップS250において、画像生成部140は、ステップS230で得た位置合わせ結果に基づいて、第2の画像と一致するように第1の画像に座標変換を施した新たな画像(変形画像)を生成する。
(Step S250; generation of deformed image)
In step S250, the image generation unit 140 generates a new image (deformed image) obtained by performing coordinate transformation on the first image so as to match the second image based on the alignment result obtained in step S230. I do.

(ステップS260;推定誤差の取得)
ステップS260において、推定誤差取得部150は、ステップS230およびステップS240で得た位置合わせ結果(第1の変形情報および第2の変形情報の差異)に基づいて、ステップS250で得た変形画像上の各点における位置合わせの推定誤差や信頼度を計算し、その分布を示す推定誤差画像を生成する。そして、生成した推定誤差画像を、表示制御部160へ送信する。
(Step S260: Acquisition of estimation error)
In step S260, the estimation error acquisition unit 150 determines the position on the deformed image obtained in step S250 based on the alignment result (difference between the first deformation information and the second deformation information) obtained in steps S230 and S240. The estimation error and the reliability of the alignment at each point are calculated, and an estimation error image indicating the distribution is generated. Then, the generated estimated error image is transmitted to display control section 160.

本実施形態における推定誤差画像は、各ボクセル値が、その位置における位置合わせの推定誤差を示すボリューム画像である。以下に、推定誤差画像の注目ボクセル(座標qとおく)における、推定誤差の取得方法を説明する。まず、ステップS230で得た写像φ(第1の変形情報)に基づき、φによって座標qに写像される第1の画像の座標pを導出する(すなわち、q=φ(p)となるpを求める)。次に、ステップS240で得た写像φi(第2の変形情報)の夫々で該座標pを写像し、変形画像の座標qi=φi(p)を導出する。ここで、第1の画像の座標pにとって、座標qは、ステップS230の位置合わせ結果に基づく変位先であり、一方、座標qiは、ステップS240の夫々の位置合わせ結果に基づく変位先である。そこで、座標pの変位先としての座標qの推定誤差を、座標qと座標qiの関係に基づいて算出する。より具体的には、座標qに対する座標qiのばらつきに基づいて算出する。例えば、qと夫々のqiとの3次元距離の平均値、メディアン値、最大値の何れかを推定誤差と定義する。あるいは、qと夫々のqiとのx,y,z各軸の距離を求め、軸毎の推定誤差を同様に求めるようにしてもよい。また、qとqiを合わせた点群の分散や標準偏差を求め、これを推定誤差として用いてもよい。また、このようにして求めた値に所定の正規化処理を施すことで0〜1に換算した値を、信頼度として保持するようにしてもよい。信頼度は、第1の変形情報と第2の変形情報の差異、若しくは推定誤差に基づいて求められ、変形画像上の各点がどの程度信頼して良いのかを示す指標である。例えば、第1の変形情報と第2の変形情報の差異、若しくは推定誤差が小さければ、信頼度が高い。第1の変形情報と第2の変形情報の差異、若しくは推定誤差が大きければ、信頼度が低い。   The estimation error image in the present embodiment is a volume image in which each voxel value indicates the estimation error of the alignment at that position. Hereinafter, a method of acquiring an estimation error in a voxel of interest (referred to as a coordinate q) of the estimation error image will be described. First, based on the mapping φ (first deformation information) obtained in step S230, the coordinates p of the first image mapped to the coordinates q by φ are derived (that is, p where q = φ (p) is obtained). Ask). Next, the coordinates p are mapped with each of the mappings φi (second deformation information) obtained in step S240, and coordinates qi = φi (p) of the deformed image are derived. Here, for the coordinate p of the first image, the coordinate q is a displacement destination based on the alignment result in step S230, while the coordinate qi is a displacement destination based on each alignment result in step S240. Therefore, the estimation error of the coordinate q as the displacement destination of the coordinate p is calculated based on the relationship between the coordinate q and the coordinate qi. More specifically, it is calculated based on the variation of the coordinates qi with respect to the coordinates q. For example, one of the average value, median value, and maximum value of the three-dimensional distance between q and each qi is defined as an estimation error. Alternatively, the distance between q and each qi on the x, y, and z axes may be obtained, and the estimation error for each axis may be obtained in the same manner. Alternatively, the variance or standard deviation of the point cloud obtained by combining q and qi may be obtained, and this may be used as the estimation error. Further, a value converted into 0 to 1 by performing a predetermined normalization process on the value obtained in this way may be held as the reliability. The reliability is obtained based on a difference between the first deformation information and the second deformation information or an estimation error, and is an index indicating how reliable each point on the deformed image is. For example, if the difference between the first deformation information and the second deformation information or the estimation error is small, the reliability is high. If the difference between the first deformation information and the second deformation information or the estimation error is large, the reliability is low.

以上の処理を、変形画像上の所定のボクセルに対して実行することで、誤差推定画像を生成する。なお、推定誤差を計算する領域は、変形画像の全体(全てのボクセル)としてもよいし、注目する臓器領域内や病変等の注目領域内としてもよい。後者の場合、ステップS200でデータサーバ20から取得した臓器領域や注目領域の情報を参照する。もしくは、画像の閾値処理や既存の領域抽出の方法を用いて臓器領域や病変領域を取得する。あるいは、ユーザが指定した画像上の領域を注目領域として取得する。そして領域内の点を注目点として設定し、夫々の注目点について推定誤差を取得する。このようにすることで、後段の処理に不要な計算を省略できる。また、注目点は、領域内の全ボクセルとしてもよいし、一定間隔毎(例えば、5ボクセルおき)としてもよい。このようにすることで、推定誤差の計算時間を短縮することができる。   The above processing is performed on a predetermined voxel on the deformed image to generate an error estimation image. Note that the region for calculating the estimation error may be the entire deformed image (all voxels), or may be within a region of interest such as an organ region of interest or a lesion. In the latter case, the information of the organ region and the region of interest acquired from the data server 20 in step S200 is referred to. Alternatively, an organ region or a lesion region is acquired by using an image thresholding method or an existing region extraction method. Alternatively, an area on the image specified by the user is acquired as the attention area. Then, a point in the region is set as a point of interest, and an estimation error is obtained for each point of interest. This makes it possible to omit calculations unnecessary for the subsequent processing. In addition, the point of interest may be all voxels in the region or at regular intervals (for example, every five voxels). By doing so, the calculation time of the estimation error can be reduced.

(ステップS270;断面画像と推定誤差の表示)
ステップS270において、表示制御部160は、第2の画像の断面画像と、ステップS250で生成した変形画像の対応断面画像とを、ユーザの操作に応じて、ディスプレイ30に表示する制御を行う。また、表示制御部160は、ステップS260で取得した推定誤差画像から、変形画像の該断面画像に対応する断面を切り出して、推定誤差マップとしてディスプレイ30に表示する制御を行う。
(Step S270: Display of cross-sectional image and estimation error)
In step S270, the display control unit 160 performs control to display the cross-sectional image of the second image and the corresponding cross-sectional image of the deformed image generated in step S250 on the display 30 according to a user operation. In addition, the display control unit 160 performs control to cut out a cross section corresponding to the cross-sectional image of the deformed image from the estimated error image acquired in step S260 and display the cut-out image on the display 30 as an estimated error map.

図3(a)に、ディスプレイ30に表示される変形画像の断面画像310の例を示す。また、図3(b)に、ディスプレイ30に表示される推定誤差マップの表示の一例を示す。この例では、変形画像の断面画像310に重畳する形で、推定誤差マップ320が表示されている。ここで表示される推定誤差マップ320は、ステップS260で取得した推定誤差画像(ボリュームデータ)を、変形画像の断面画像310と対応する断面で切った断面画像である。画像の輝度値は、推定誤差マップのボクセル値を変換した値とする。例えば、所定の推定誤差(例えば、推定誤差10mm)を輝度値255、推定誤差0mmを輝度値0に変換することでグレースケールの推定誤差マップを作成して、これに疑似カラーを割りあて疑似カラーマップとして表示する。   FIG. 3A shows an example of a cross-sectional image 310 of a deformed image displayed on the display 30. FIG. 3B shows an example of a display of the estimated error map displayed on the display 30. In this example, the estimation error map 320 is displayed so as to be superimposed on the cross-sectional image 310 of the deformed image. The estimated error map 320 displayed here is a cross-sectional image obtained by cutting the estimated error image (volume data) acquired in step S260 by a cross section corresponding to the cross-sectional image 310 of the deformed image. The luminance value of the image is a value obtained by converting the voxel value of the estimation error map. For example, by converting a predetermined estimation error (for example, an estimation error of 10 mm) to a luminance value of 255 and converting an estimation error of 0 mm to a luminance value of 0, a grayscale estimation error map is created, and a pseudo color is assigned to the map. Display as a map.

なお、推定誤差マップは断面画像に並べて表示してもよいし、重畳して表示してもよい。重畳表示のオン/オフは、例えば、ディスプレイ30に表示される不図示のGUI上の重畳表示ボタンをユーザがオン/オフすることで制御できる。このボタンがオフの場合は、推定誤差マップを非表示にして断面画像310のみを表示し、オンの場合は、推定誤差マップ320と断面画像310とを重畳表示する。また、ステップS260で各軸方向の推定誤差を求めている場合には、夫々の推定誤差マップを並べて表示するようにしてもよいし、何れの軸方向の推定誤差マップを表示するかを選択できるようにしてもよい。   The estimated error map may be displayed side by side on the cross-sectional image or may be displayed in a superimposed manner. On / off of the superimposed display can be controlled, for example, by the user turning on / off a superimposed display button on a GUI (not shown) displayed on the display 30. When this button is off, the estimated error map is not displayed, and only the cross-sectional image 310 is displayed. When the button is on, the estimated error map 320 and the cross-sectional image 310 are displayed in a superimposed manner. When the estimation error in each axis direction is obtained in step S260, the respective estimation error maps may be displayed side by side, or it is possible to select which axis direction estimation error map to display. You may do so.

なお、本ステップで表示する推定誤差マップは、推定誤差画像に所定の加工を施したものであってもよい。例えば、推定誤差が閾値以上のボクセルの上にのみ赤色等を半透明で重畳表示することで、推定誤差の不十分な部位をより明示的に確認できるようにしてもよい。もちろん、何れの推定誤差マップを重畳表示するかを、ユーザが選択できることが望ましい。   Note that the estimated error map displayed in this step may be a map obtained by performing a predetermined process on the estimated error image. For example, red and the like may be translucently superimposed and displayed only on voxels having an estimation error equal to or larger than a threshold value, so that a portion where the estimation error is insufficient may be more clearly confirmed. Of course, it is desirable that the user can select which estimation error map is to be superimposed.

以上説明したように、本実施形態に係る画像処理装置(画像処理装置10)は、第1の条件で第1の画像と第2の画像との間の変形を推定して第1の変形情報を取得する第1の推定部(位置合わせ部130、S230)と、第1の条件とは異なる第2の条件で第1の画像と第2の画像との間の変形を推定して第2の変形情報を取得する第2の推定部(位置合わせ部130、S240)と、第1の変形情報と第2の変形情報との差異に基づいて、画像上の点における変形の推定誤差または信頼度を取得する取得部(推定誤差取得部150、S260)とを備える。   As described above, the image processing device (image processing device 10) according to the present embodiment estimates the deformation between the first image and the second image under the first condition, and obtains the first deformation information. And a second estimating unit (positioning unit 130, S230) for estimating the deformation between the first image and the second image under a second condition different from the first condition. A second estimating unit (positioning unit 130, S240) that acquires the deformation information of the image, and an estimation error or reliability of the deformation at a point on the image based on the difference between the first deformation information and the second deformation information. And an acquisition unit (estimation error acquisition unit 150, S260) for acquiring a degree.

本実施形態によれば、変形の推定誤差または信頼度を取得することができる。また、変形画像の断面画像上に推定誤差マップが重畳表示されるため、ユーザは、表示された断面画像の各点がその位置にあることの信頼度(どの程度信頼して良いのか)を、容易に把握できる。   According to the present embodiment, it is possible to acquire the estimation error or the reliability of the deformation. Further, since the estimated error map is superimposed and displayed on the cross-sectional image of the deformed image, the user can determine the reliability (how much reliability is required) that each point of the displayed cross-sectional image is at that position. Easy to grasp.

(変形例1)
ステップS260のボリューム画像としての推定誤差画像の生成は必ずしも必須ではない。その代わりに、ステップS270の処理で表示することが決定された変形画像の断面画像上の各ボクセルについてのみ推定誤差の取得を行い、表示する推定誤差の断面画像を直接生成してもよい。
(Modification 1)
The generation of the estimated error image as the volume image in step S260 is not always essential. Instead, an estimation error may be obtained only for each voxel on the cross-sectional image of the deformed image determined to be displayed in the process of step S270, and a cross-sectional image of the estimated error to be displayed may be directly generated.

(変形例2)
ステップS210で対応情報取得部120が実行する対応情報の取得は、画像解析処理によって自動的に行ってもよい。例えば、夫々の画像から画像パターンの特徴的な点や線を検出し、画像パターンの類似性に基づいて自動で取得するようにしてもよい。また、画像解析処理によって自動取得した対応点を候補として、ユーザが手動で修正した点を最終的な対応点の位置としてもよい。なお、対応情報の取得は、データサーバ20が保持している情報を読み込むことにより行ってもよい。
(Modification 2)
The acquisition of the correspondence information performed by the correspondence information acquisition unit 120 in step S210 may be automatically performed by an image analysis process. For example, a characteristic point or line of an image pattern may be detected from each image and automatically acquired based on the similarity of the image pattern. Alternatively, a corresponding point automatically acquired by the image analysis processing may be set as a candidate, and a point manually corrected by the user may be set as a final corresponding point position. Note that acquisition of the correspondence information may be performed by reading information held by the data server 20.

(変形例3)
ステップS240で位置合わせ部130が実施する処理において、推定方法(推定条件)を変動させる方法は上記に限定されない。例えば、複数の異なる変形記述モデルを用いることで、異なる変形推定結果を得るようにしてもよい。例えば、ステップS230でFFDを用いた変形推定が実施される場合に、本ステップでは放射基底関数を用いた変形推定を行うようにしてもよい。
(Modification 3)
In the processing performed by the positioning unit 130 in step S240, the method of changing the estimation method (estimation condition) is not limited to the above. For example, different deformation estimation results may be obtained by using a plurality of different deformation description models. For example, when the deformation estimation using the FFD is performed in step S230, the deformation estimation using the radial basis function may be performed in this step.

<第2実施形態>
第1実施形態では、推定誤差の分布を可視化した推定誤差マップを変形画像の断面画像上に重畳表示する例について説明した。これに対して、第2実施形態に係る画像処理装置は、マップ以外の形態で推定誤差の表示を行うことを特徴とする。以下、本実施形態に係る画像処理装置について、第1実施形態と異なる部分についてのみ説明する。
<Second embodiment>
In the first embodiment, the example has been described in which the estimation error map in which the distribution of the estimation error is visualized is superimposed on the cross-sectional image of the deformed image. On the other hand, the image processing apparatus according to the second embodiment is characterized in that the estimation error is displayed in a form other than the map. Hereinafter, in the image processing apparatus according to the present embodiment, only the parts different from the first embodiment will be described.

本実施形態における画像処理システム1の構成、画像処理装置10の各部の動作、処理手順は、第1の実施形態と概ね同様である。ただし、ステップS270で表示制御部160が行う処理のみが、第1実施形態と異なっている。   The configuration of the image processing system 1, the operation of each unit of the image processing apparatus 10, and the processing procedure in this embodiment are substantially the same as those in the first embodiment. However, only the processing performed by the display control unit 160 in step S270 is different from the first embodiment.

(ステップS270;断面画像と推定誤差の表示)
ステップS270において、表示制御部160は、第2の画像の断面画像と、ステップS250で生成した変形画像の対応断面画像とを、ユーザの操作に応じて、ディスプレイ30に表示する制御を行う。また、表示制御部160は、変形画像の該断面画像上でユーザが指示した点の推定誤差を、ステップS260で取得した推定誤差画像から取得して、ディスプレイ30に表示する制御を行う。
(Step S270: Display of cross-sectional image and estimation error)
In step S270, the display control unit 160 performs control to display the cross-sectional image of the second image and the corresponding cross-sectional image of the deformed image generated in step S250 on the display 30 according to a user operation. In addition, the display control unit 160 performs control to acquire an estimated error of a point designated by the user on the cross-sectional image of the deformed image from the estimated error image acquired in step S260 and display the acquired error on the display 30.

図4に、本実施形態における推定誤差の表示の例を示す。表示制御部160は、ディスプレイ30に表示した変形画像の断面画像310上の座標の、マウス等による指示を取得すると、該座標における推定誤差を推定誤差画像から取得する。そして、例えば図4(a)に示すように、カーソル410の示す座標に対して、該座標における推定誤差を表す文字情報420を、カーソル410の近傍に重畳表示する。あるいは、図4(b)に示すように、カーソル430の示す座標に対して、該座標における推定誤差の断面画像上での分布(誤差推定範囲)440を示す楕円を表示する。これにより、表示された断面画像310上でカーソルを移動させるだけで、ユーザは、当該座標における誤差の推定値を知ることができる。   FIG. 4 shows an example of the display of the estimation error in the present embodiment. When the display control unit 160 acquires an instruction by a mouse or the like of the coordinates on the cross-sectional image 310 of the deformed image displayed on the display 30, the display control unit 160 acquires an estimation error at the coordinates from the estimation error image. Then, for example, as shown in FIG. 4A, character information 420 indicating an estimated error at the coordinates indicated by the cursor 410 is superimposed and displayed near the cursor 410. Alternatively, as shown in FIG. 4B, an ellipse indicating the distribution (error estimation range) 440 on the cross-sectional image of the estimation error at the coordinates indicated by the cursor 430 is displayed. Thus, the user can know the estimated value of the error in the coordinates only by moving the cursor on the displayed cross-sectional image 310.

このように、第1実施形態では推定誤差の分布を可視化した推定誤差マップを変形画像の断面画像上に重畳表示し、第2実施形態では、カーソルの示す座標に対して、推定誤差を表す文字情報や誤差推定範囲を変形画像の断面画像上に表示している。ただし、この際の変形情報の取得方法や推定誤差または信頼度の取得方法は、第1実施形態で説明した方法に限定されず、種々の方法を用いてもよい。変形画像と推定誤差または信頼度とが対応付けられて表示されることにより、表示された断面画像の各点がその位置にあることの信頼度(どの程度信頼して良いのか)をユーザが把握できればよい。   As described above, in the first embodiment, the estimated error map in which the distribution of the estimated error is visualized is superimposed and displayed on the cross-sectional image of the deformed image. In the second embodiment, a character representing the estimated error is displayed at the coordinates indicated by the cursor. Information and an error estimation range are displayed on the cross-sectional image of the deformed image. However, the method of obtaining the deformation information and the method of obtaining the estimation error or the reliability at this time are not limited to the methods described in the first embodiment, and various methods may be used. By displaying the deformed image and the estimation error or the reliability in association with each other, the user can grasp the reliability (how much reliable) that each point of the displayed cross-sectional image is at that position. If possible.

以上説明したように、第1乃至第2実施形態に係る画像処理装置(画像処理装置10)は、画像の変形情報を取得する情報取得部(対応情報取得部120、位置合わせ部130等)と、変形情報に基づいて画像に座標変換を施した変形画像を生成する画像生成部(画像生成部140)と、変形画像上における変形の推定誤差または信頼度を取得する取得部(推定誤差取得部150)と、変形画像と推定誤差または信頼度を示す情報(第1実施形態では推定誤差マップ320、第2実施形態では文字情報420や誤差推定範囲440を示す楕円など)とを対応付けて(例えば、重畳して)表示させる表示制御部(表示制御部160)とを備える。   As described above, the image processing apparatuses (image processing apparatuses 10) according to the first and second embodiments include an information acquisition unit (corresponding information acquisition unit 120, the positioning unit 130, and the like) that acquires deformation information of an image. An image generation unit (image generation unit 140) that generates a deformed image obtained by performing coordinate transformation on an image based on deformation information, and an obtaining unit (estimated error obtaining unit) that obtains an estimated error or reliability of deformation on the deformed image 150) and information indicating the estimation error or the reliability (the estimation error map 320 in the first embodiment, the character information 420 and the ellipse indicating the error estimation range 440 in the second embodiment, etc.) are associated with the deformed image (eg, 150). For example, a display control unit (display control unit 160) for displaying (superimposed).

本実施形態によれば、変形の推定誤差または信頼度をマップ以外の表示方法で提示することが可能となり、誤差推定マップ等の重畳によって断面画像が見にくくなるというデメリットを回避できる。   According to the present embodiment, the estimation error or the reliability of the deformation can be presented by a display method other than the map, and the disadvantage that the cross-sectional image is difficult to see due to the superposition of the error estimation map or the like can be avoided.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program and reads the program. This is the process to be performed.

10:画像処理装置、20:データサーバ、30:ディスプレイ、110:画像取得部、120:対応情報取得部、125:設定部、130:位置合わせ部、140:画像生成部、150:推定誤差取得部、160:表示制御部   10: image processing device, 20: data server, 30: display, 110: image acquisition unit, 120: correspondence information acquisition unit, 125: setting unit, 130: alignment unit, 140: image generation unit, 150: estimation error acquisition Section, 160: display control section

Claims (10)

画像の変形情報を取得する情報取得手段と、
前記変形情報に基づいて、前記画像に対して座標変換を行うことにより変形画像を生成する画像生成手段と、
前記変形画像における変形の推定誤差又は信頼度を表すボリュームデータを取得する取得手段と、
前記変形画像の断面画像と、前記変形画像の断面画像の断面に対応する、前記ボリュームデータにおける断面を示すマップとを重畳して表示部に表示させる表示制御手段と、
を有することを特徴とする画像処理装置。
Information acquisition means for acquiring image deformation information,
Image generation means for generating a deformed image by performing coordinate transformation on the image based on the deformation information,
Acquisition means for acquiring volume data representing an estimation error or reliability of the deformation in the deformed image,
A display control unit that superimposes a cross-sectional image of the deformed image and a map indicating a cross-section in the volume data corresponding to a cross-section of the cross-sectional image of the deformed image on a display unit;
An image processing apparatus comprising:
前記取得手段は、前記推定誤差の分布を表す推定誤差画像を生成し、
前記表示制御手段は、前記変形画像の断面画像に対応する、前記推定誤差画像の断面を前記マップとして前記表示部に表示させることを特徴とする請求項1に記載の画像処理装置。
The obtaining means generates an estimated error image representing a distribution of the estimated error,
The image processing apparatus according to claim 1, wherein the display control unit causes the display unit to display a cross section of the estimated error image corresponding to the cross section image of the deformed image as the map.
前記表示制御手段は、ユーザからの指示に応じて、前記変形画像の断面画像と前記マップとを重畳して表示させるか否かを切り替えることを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display control unit switches whether to display the cross-sectional image of the deformed image and the map in a superimposed manner in accordance with an instruction from a user. apparatus. 前記取得手段は、前記変形画像上の各点における変形の推定誤差又は信頼度を表す前記ボリュームデータを取得することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the obtaining unit obtains the volume data representing an estimation error or reliability of deformation at each point on the deformed image. 前記取得手段は、前記変形画像上の注目領域内における変形の推定誤差又は信頼度を表す前記ボリュームデータを取得することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   4. The image processing apparatus according to claim 1, wherein the acquiring unit acquires the volume data representing an estimation error or reliability of a deformation in a region of interest on the deformed image. 5. . 前記マップは、前記推定誤差又は前記信頼度に基づいて変換されたカラーマップであることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the map is a color map converted based on the estimation error or the reliability. 前記表示制御手段は、前記変形画像の断面画像と、前記推定誤差又は前記信頼度が所定の閾値以上である、前記マップ上の点とを重畳して表示させることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   4. The display control unit according to claim 1, wherein the cross-sectional image of the deformed image is superimposed on a point on the map at which the estimation error or the reliability is equal to or more than a predetermined threshold. 7. The image processing device according to any one of 6. 前記信頼度は、前記推定誤差に正規化処理を施した値であることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the reliability is a value obtained by performing a normalization process on the estimation error. 画像の変形情報を取得する情報取得工程と、
前記変形情報に基づいて、前記画像に対して座標変換を行うことにより変形画像を生成する画像生成工程と、
前記変形画像における変形の推定誤差又は信頼度を表すボリュームデータを取得する取得工程と、
前記変形画像の断面画像と、前記変形画像の断面画像の断面に対応する、前記ボリュームデータにおける断面を示すマップとを重畳して表示部に表示させる表示制御工程と、
を有することを特徴とする画像処理方法。
An information acquisition step of acquiring deformation information of the image,
An image generation step of generating a deformed image by performing coordinate transformation on the image based on the deformation information,
An acquisition step of acquiring volume data representing an estimation error or reliability of the deformation in the deformed image,
A display control step of superimposing and displaying a cross-sectional image of the deformed image and a map indicating a cross-section in the volume data corresponding to the cross-section of the cross-sectional image of the deformed image on a display unit;
An image processing method comprising:
請求項1乃至のいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させることを特徴とするプログラム。 A program characterized by causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 8.
JP2018145408A 2018-08-01 2018-08-01 Image processing apparatus, image processing method, and program Active JP6643416B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018145408A JP6643416B2 (en) 2018-08-01 2018-08-01 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018145408A JP6643416B2 (en) 2018-08-01 2018-08-01 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014123815A Division JP6383189B2 (en) 2014-06-16 2014-06-16 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2018171513A JP2018171513A (en) 2018-11-08
JP6643416B2 true JP6643416B2 (en) 2020-02-12

Family

ID=64106869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018145408A Active JP6643416B2 (en) 2018-08-01 2018-08-01 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6643416B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7155277B2 (en) 2019-03-15 2022-10-18 株式会社東芝 Structure evaluation system, structure evaluation device, and structure evaluation method
JP7332403B2 (en) * 2019-09-11 2023-08-23 株式会社東芝 Position estimation device, mobile control system, position estimation method and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100475150C (en) * 2003-06-03 2009-04-08 株式会社日立医药 Ultrasonograph
JP4356831B2 (en) * 2003-08-28 2009-11-04 株式会社Aze Non-rigid registration method between multiple images
US8135199B2 (en) * 2006-12-19 2012-03-13 Fujifilm Corporation Method and apparatus of using probabilistic atlas for feature removal/positioning
JP5403400B2 (en) * 2009-02-13 2014-01-29 オリンパス株式会社 Image processing apparatus, imaging apparatus, and image processing program
JP5323795B2 (en) * 2010-10-12 2013-10-23 富士フイルム株式会社 Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP5950619B2 (en) * 2011-04-06 2016-07-13 キヤノン株式会社 Information processing device
CN104603836A (en) * 2012-08-06 2015-05-06 范德比尔特大学 Enhanced method for correcting data for deformations during image guided procedures

Also Published As

Publication number Publication date
JP2018171513A (en) 2018-11-08

Similar Documents

Publication Publication Date Title
JP6383189B2 (en) Image processing apparatus, image processing method, and program
US10537247B2 (en) Information processing apparatus, method, and programmed storage medium, for calculating ranges of regions of interest of scanned or other images
US9962129B2 (en) Method and apparatuses for assisting a diagnosing practitioner with describing the location of a target structure in a breast
US10262417B2 (en) Tooth axis estimation program, tooth axis estimation device and method of the same, tooth profile data creation program, tooth profile data creation device and method of the same
JP6467221B2 (en) Image processing apparatus and method
JP6740033B2 (en) Information processing device, measurement system, information processing method, and program
JP6393106B2 (en) Image processing apparatus, image processing method, and program
EP3406196A1 (en) X-ray system and method for standing subject
CN109544606B (en) Rapid automatic registration method and system based on multiple Kinects
JP6376873B2 (en) Image processing apparatus, image processing method, and program
EP2663237A1 (en) Visualization of catheter in three-dimensional ultrasound
US20190080500A1 (en) Deformation field calculation apparatus, method, and computer readable storage medium
US20170251999A1 (en) Ultrasound diagnostic image generating device and method
JP6643416B2 (en) Image processing apparatus, image processing method, and program
JP2022111705A (en) Leaning device, image processing apparatus, medical image pick-up device, leaning method, and program
CN112233161B (en) Hand image depth determination method and device, electronic equipment and storage medium
JP2022111704A (en) Image processing apparatus, medical image pick-up device, image processing method, and program
WO2017003424A1 (en) Metric 3d stitching of rgb-d data
JP6894398B2 (en) Object tracking device, object tracking method, and object tracking program
JP5693412B2 (en) Image processing apparatus and image processing method
CN106887017B (en) Image processing apparatus, image processing system, and image processing method
US10467759B2 (en) Intelligent contouring of anatomy with structured user click points
JP2019032292A (en) Symmetry visualization device, symmetry visualization method and program
JP2020017096A (en) Measurement instrument, measurement method, and measurement program
JP7376201B1 (en) Information processing system, information processing method and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180828

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190412

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R151 Written notification of patent or utility model registration

Ref document number: 6643416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151