JP6847011B2 - 3D image processing equipment and methods and programs - Google Patents
3D image processing equipment and methods and programs Download PDFInfo
- Publication number
- JP6847011B2 JP6847011B2 JP2017182196A JP2017182196A JP6847011B2 JP 6847011 B2 JP6847011 B2 JP 6847011B2 JP 2017182196 A JP2017182196 A JP 2017182196A JP 2017182196 A JP2017182196 A JP 2017182196A JP 6847011 B2 JP6847011 B2 JP 6847011B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- image
- projection
- information
- graph structure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 45
- 238000000034 method Methods 0.000 title claims description 37
- 210000000621 bronchi Anatomy 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 2
- 238000003672 processing method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 12
- 238000003745 diagnosis Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 238000002910 structure generation Methods 0.000 description 6
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013276 bronchoscopy Methods 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
Description
本発明は、被検体を撮影して得られた3次元画像を用いて気管支のような体内の管路への内視鏡の挿入を支援する3次元画像処理装置および方法並びにプログラムに関するものである。 The present invention relates to a three-dimensional image processing device, a method, and a program that support the insertion of an endoscope into a duct in the body such as a bronchus by using a three-dimensional image obtained by photographing a subject. ..
近年、撮影装置の進歩に伴い、撮影装置で撮影された画像データの分解能が向上しており、画像データに基づいて被検体の詳細な解析が可能になっている。たとえば、マルチスライスCT(Multi Detector-row Computed Tomography)は、一度に複数枚の断層画像を撮影することが可能であり、薄いスライス厚で断層画像を撮影することが可能である。スライス厚が薄くなることで、複数の断層画像を積層した3次元画像の体軸方向の分解能が上がり、より詳細な3次元画像を得ることができる。このような3次元画像を表示し解析することで、これまで見つけることが困難であった病変などを見つけることも可能になっている。 In recent years, with the progress of the photographing apparatus, the resolution of the image data photographed by the photographing apparatus has been improved, and detailed analysis of the subject can be performed based on the image data. For example, multi-slice CT (Multi Detector-row Computed Tomography) can take a plurality of tomographic images at a time, and can take a tomographic image with a thin slice thickness. By reducing the slice thickness, the resolution in the body axis direction of the three-dimensional image obtained by stacking a plurality of tomographic images is increased, and a more detailed three-dimensional image can be obtained. By displaying and analyzing such a three-dimensional image, it is possible to find lesions and the like that have been difficult to find until now.
上述したような3次元画像を用いた表示方法の1つとして、仮想内視鏡表示がある(たとえば特許文献1および特許文献2参照)。仮想内視鏡表示とは、管腔の内部に視点位置を設定し、その視点位置に基づいて透視投影画像を生成して表示する方法である。仮想内視鏡表示では、ユーザが逐次的に視点位置を変更することで、あたかも内視鏡のカメラが身体内部を移動しながら撮影したような画像を提供することができる。
As one of the display methods using the three-dimensional image as described above, there is a virtual endoscopic display (see, for example,
特に、内視鏡を用いた検査である気管支鏡検査では、気管支の分岐が非常に複雑であるため、上述した仮想内視鏡表示を「地図」として参照しながら、内視鏡を挿入することが行われている。この際、実際の内視鏡の動きに合わせて、仮想内視鏡表示を手動で順次変更するのは煩わしいため、内視鏡の先端が体内のどこになるかを推定して、仮想内視鏡画像を作成することが行われている。 In particular, in bronchoscopy, which is an examination using an endoscope, the branching of the bronchus is very complicated, so insert the endoscope while referring to the above-mentioned virtual endoscopic display as a "map". Is being done. At this time, since it is troublesome to manually change the virtual endoscope display according to the actual movement of the endoscope, it is estimated where the tip of the endoscope will be in the body, and the virtual endoscope is used. An image is being created.
たとえば特許文献1においては、内視鏡の先端位置を推定するために、仮想内視鏡画像と、内視鏡によって実際に撮影された内視鏡画像との位置合わせ処理を行うことが提案されている。
For example, in
ここで、ナビゲーションのために内視鏡の先端位置の推定を行うには、複数の視点からの仮想内視鏡画像を生成し、それらを実際に撮影された内視鏡画像と位置合わせ処理をして最も一致するものを選ぶ必要がある。 Here, in order to estimate the tip position of the endoscope for navigation, virtual endoscope images from a plurality of viewpoints are generated, and they are aligned with the actually captured endoscope image. And choose the one that best matches.
しかしながら、内視鏡の先端位置の推定精度や安定性を上げるには、仮想内視鏡画像を大量に生成する必要があるが、仮想内視鏡画像を生成する処理であるボリュームレンダリング処理は非常に時間がかかる。 However, in order to improve the estimation accuracy and stability of the tip position of the endoscope, it is necessary to generate a large number of virtual endoscope images, but the volume rendering process, which is the process of generating virtual endoscope images, is extremely difficult. It takes time.
なお、特許文献3においては、気管支の3次元画像からグラフ構造を生成し、そのグラフ構造に含まれる複数の分岐点のそれぞれについて、その分岐点からの分岐先をその分岐点を含む2次元平面上に投影した投影画像を生成することが提案されているが、その投影画像は、分岐先を示す模式的な画像であり、気管支の穴の形状などを正確に表した画像ではないため、上述したような内視鏡画像との位置合わせ処理には適していない。 In Patent Document 3, a graph structure is generated from a three-dimensional image of the bronchus, and for each of a plurality of branch points included in the graph structure, the branch destination from the branch point is a two-dimensional plane including the branch point. It has been proposed to generate a projected image projected above, but the projected image is a schematic image showing the branch destination, not an image that accurately represents the shape of the bronchial hole, etc. It is not suitable for the alignment process with the endoscopic image as described above.
本発明は、上記事情に鑑み、内視鏡画像との位置合わせ処理が可能なように端的な特徴を残した画像を高速な処理によって生成することができる3次元画像処理装置および方法並びにプログラムを提供することを目的とするものである。 In view of the above circumstances, the present invention provides a three-dimensional image processing apparatus, method, and program capable of generating an image with simple features so that it can be aligned with an endoscopic image by high-speed processing. It is intended to be provided.
本発明の3次元画像処理装置は、被検体を撮影して得られた3次元画像を取得する3次元画像取得部と、3次元画像に含まれる管状構造物のグラフ構造を生成するグラフ構造生成部と、グラフ構造上の各点における管状構造物の輪郭情報を取得する輪郭情報取得部と、管状構造物内における視点情報を取得する視点情報取得部と、視点情報とグラフ構造とに基づいて、グラフ構造上の各点の中から投影点を特定する投影点特定部と、投影点の輪郭情報を2次元平面上に投影した投影画像を生成する投影画像生成部とを備える。 The three-dimensional image processing apparatus of the present invention has a three-dimensional image acquisition unit that acquires a three-dimensional image obtained by photographing a subject, and a graph structure generation that generates a graph structure of a tubular structure included in the three-dimensional image. Based on the part, the contour information acquisition part that acquires the contour information of the tubular structure at each point on the graph structure, the viewpoint information acquisition part that acquires the viewpoint information in the tubular structure, and the viewpoint information and the graph structure. It is provided with a projection point specifying unit that specifies a projection point from each point on the graph structure, and a projection image generation unit that generates a projection image in which contour information of the projection points is projected on a two-dimensional plane.
また、上記本発明の3次元画像処理装置において、投影点特定部は、グラフ構造上の1つの点を起点として特定し、その起点からグラフ構造をたどり、予め設定された範囲内に含まれる点を投影候補点として特定し、投影候補点の中から投影点を特定することができる。 Further, in the three-dimensional image processing apparatus of the present invention, the projection point specifying unit identifies one point on the graph structure as a starting point, traces the graph structure from the starting point, and includes points within a preset range. Can be specified as a projection candidate point, and the projection point can be specified from the projection candidate points.
また、上記本発明の3次元画像処理装置において、投影点特定部は、輪郭情報の形状情報に基づいて、投影点を特定することができる。 Further, in the three-dimensional image processing apparatus of the present invention, the projection point specifying unit can specify the projection point based on the shape information of the contour information.
また、上記本発明の3次元画像処理装置において、投影画像生成部は、投影点が属する枝の情報を取得し、枝の情報を投影画像に付加することができる。 Further, in the three-dimensional image processing apparatus of the present invention, the projection image generation unit can acquire information on the branch to which the projection point belongs and add the branch information to the projection image.
また、上記本発明の3次元画像処理装置においては、投影画像と、その投影画像とは異なる画像との間の位置合わせ処理の結果と投影画像の視点情報とに基づいて、異なる画像の視点情報を推定する視点情報推定部を備えることができる。 Further, in the three-dimensional image processing apparatus of the present invention, the viewpoint information of different images is based on the result of the alignment processing between the projected image and the image different from the projected image and the viewpoint information of the projected image. It is possible to provide a viewpoint information estimation unit for estimating.
また、上記本発明の3次元画像処理装置においては、投影画像と、その投影画像とは異なる画像との間の位置合せ処理の結果に基づいて、投影画像に含まれる輪郭情報に対応する異なる画像に含まれる輪郭情報を推定する輪郭情報推定部を備えることができる。 Further, in the three-dimensional image processing apparatus of the present invention, different images corresponding to the contour information included in the projected image are obtained based on the result of the alignment processing between the projected image and the image different from the projected image. The contour information estimation unit for estimating the contour information included in the above can be provided.
また、上記本発明の3次元画像処理装置において、投影画像とは異なる画像は、被検体を撮影した2次元画像とすることができる。 Further, in the three-dimensional image processing apparatus of the present invention, an image different from the projected image can be a two-dimensional image obtained by photographing the subject.
また、上記本発明の3次元画像処理装置において、上記2次元画像は、内視鏡によって撮影された画像とすることができる。 Further, in the three-dimensional image processing apparatus of the present invention, the two-dimensional image can be an image taken by an endoscope.
また、上記本発明の3次元画像処理装置においては、投影画像を表示装置に表示させる表示制御部を備えることができる。 Further, the three-dimensional image processing device of the present invention may include a display control unit for displaying a projected image on the display device.
また、上記本発明の3次元画像処理装置において、管状構造物は気管支とすることができる。 Further, in the three-dimensional image processing apparatus of the present invention, the tubular structure can be a bronchus.
本発明の3次元画像処理方法は、被検体を撮影して得られた3次元画像を取得し、3次元画像に含まれる管状構造物のグラフ構造を生成し、グラフ構造上の各点における管状構造物の輪郭情報を取得し、管状構造物内における視点情報を取得し、視点情報とグラフ構造とに基づいて、グラフ構造上の各点の中から投影点を特定し、投影点の輪郭情報を2次元平面上に投影した投影画像を生成する。 The three-dimensional image processing method of the present invention acquires a three-dimensional image obtained by photographing a subject, generates a graph structure of a tubular structure included in the three-dimensional image, and is tubular at each point on the graph structure. The contour information of the structure is acquired, the viewpoint information in the tubular structure is acquired, the projection point is specified from each point on the graph structure based on the viewpoint information and the graph structure, and the contour information of the projection point is obtained. Is projected onto a two-dimensional plane to generate a projected image.
本発明の3次元画像処理プログラムは、コンピュータを、被検体を撮影して得られた3次元画像を取得する3次元画像取得部と、3次元画像に含まれる管状構造物のグラフ構造を生成するグラフ構造生成部と、グラフ構造上の各点における管状構造物の輪郭情報を取得する輪郭情報取得部と、管状構造物内における視点情報を取得する視点情報取得部と、視点情報とグラフ構造とに基づいて、グラフ構造上の各点の中から投影点を特定する投影点特定部と、投影点の輪郭情報を2次元平面上に投影した投影画像を生成する投影画像生成部として機能させる。 The three-dimensional image processing program of the present invention uses a computer to generate a three-dimensional image acquisition unit that acquires a three-dimensional image obtained by photographing a subject and a graph structure of a tubular structure included in the three-dimensional image. A graph structure generation unit, a contour information acquisition unit that acquires contour information of a tubular structure at each point on the graph structure, a viewpoint information acquisition unit that acquires viewpoint information in the tubular structure, and a viewpoint information and a graph structure. Based on the above, it functions as a projection point identification unit that specifies a projection point from each point on the graph structure and a projection image generation unit that generates a projection image in which contour information of the projection point is projected on a two-dimensional plane.
本発明の他の3次元画像処理装置は、コンピュータに実行させるための命令を記憶するメモリと、記憶された命令を実行するよう構成されたプロセッサを備え、プロセッサが、被検体を撮影して得られた3次元画像を取得し、3次元画像に含まれる管状構造物のグラフ構造を生成する処理と、グラフ構造上の各点における管状構造物の輪郭情報を取得する処理と、管状構造物内における視点情報を取得する処理と、視点情報とグラフ構造とに基づいて、グラフ構造上の各点の中から投影点を特定する処理と、投影点の輪郭情報を2次元平面上に投影した投影画像を生成する処理とを実行するように構成されている。 The other three-dimensional image processing apparatus of the present invention includes a memory for storing instructions to be executed by a computer and a processor configured to execute the stored instructions, and the processor obtains a photograph of a subject. The process of acquiring the obtained 3D image and generating the graph structure of the tubular structure included in the 3D image, the process of acquiring the contour information of the tubular structure at each point on the graph structure, and the inside of the tubular structure. The process of acquiring the viewpoint information in the above, the process of specifying the projection point from each point on the graph structure based on the viewpoint information and the graph structure, and the projection of the contour information of the projection point projected on the two-dimensional plane. It is configured to perform the process of generating an image.
本発明の3次元画像処理装置および方法並びプログラムによれば、被検体を撮影して得られた3次元画像を取得し、3次元画像に含まれる管状構造物のグラフ構造を生成し、グラフ構造上の各点における管状構造物の輪郭情報を取得する。そして、管状構造物内における視点情報を取得し、視点情報とグラフ構造とに基づいて、グラフ構造上の各点の中から投影点を特定し、投影点の輪郭情報を2次元平面上に投影した投影画像を生成する。 According to the three-dimensional image processing apparatus and method sequence program of the present invention, a three-dimensional image obtained by photographing a subject is acquired, and a graph structure of a tubular structure included in the three-dimensional image is generated to generate a graph structure. Obtain contour information of the tubular structure at each of the above points. Then, the viewpoint information in the tubular structure is acquired, the projection point is specified from each point on the graph structure based on the viewpoint information and the graph structure, and the contour information of the projection point is projected on the two-dimensional plane. Generate the projected image.
したがって、内視鏡画像との位置合わせ処理が可能なように端的な特徴を残した投影画像を、高速な処理によって生成することができる。 Therefore, it is possible to generate a projected image with a simple feature so that the alignment process with the endoscopic image can be performed by high-speed processing.
以下、本発明の3次元画像処理装置および方法並びにプログラムの一実施形態を用いた内視鏡画像診断支援システムについて、図面を参照しながら詳細に説明する。図1は、本実施形態の内視鏡画像診断支援システムの概略構成を示すブロック図である。 Hereinafter, the endoscopic image diagnosis support system using the three-dimensional image processing apparatus and method of the present invention and one embodiment of the program will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of the endoscopic image diagnosis support system of the present embodiment.
本実施形態の内視鏡画像診断支援システム1は、図1に示すように、3次元画像処理装置10と、表示装置20と、入力装置30と、3次元画像保管サーバ40とを備えている。
As shown in FIG. 1, the endoscopic image
3次元画像処理装置10は、コンピュータに本実施形態の3次元画像処理プログラムをインストールすることによって構成されたものである。
The three-dimensional
そして、3次元画像処理装置10は、中央処理装置(CPU)および半導体メモリや上述した3次元画像処理プログラムがインストールされたハードディスクやSSD(Solid State Drive)等のストレージデバイスなどを備えており、これらのハードウェアによって
The three-dimensional
、図1に示すような3次元画像取得部11、グラフ構造生成部12、輪郭情報取得部13、視点情報取得部14、投影点特定部15、投影画像生成部16、気管支3次元画像生成部17および表示制御部18が構成されている。そして、ハードディスクにインストールされた3次元画像処理プログラムが中央処理装置によって実行されることによって上記各部がそれぞれ動作する。
, 3D
3次元画像取得部11は、内視鏡装置を用いた手術前または検査前などに予め撮影された被検体の3次元画像を取得するものである。3次元画像としては、たとえばCT装置およびMRI(Magnetic Resonance Imaging)装置などから出力されたスライスデータから再構成されたボリュームデータ、並びにMS(Multi Slice)CT装置およびコーンビー
The three-dimensional
ムCT装置から出力されたボリュームデータなどがある。3次元画像は、3次元画像保管サーバ40に被検体の識別情報と併せて予め保管されており、3次元画像取得部11は、入力装置30において入力された被検体の識別情報に対応する3次元画像を3次元画像保管サーバ40から読み出すものである。
There is volume data output from the CT device. The three-dimensional image is stored in advance in the three-dimensional
グラフ構造生成部12は、3次元画像取得部11によって取得された3次元画像が入力され、その入力された3次元画像に含まれる管状構造物のグラフ構造を生成するものである。本実施形態においては、管状構造物のグラフ構造として気管支のグラフ構造を生成する。以下、このグラフ構造の生成方法の一例を説明する。
The graph
3次元画像に含まれる気管支は、気管支の内部の画素は空気領域に相当するためCT画像上では低いCT値(画素値)を示す領域として表れるが、気管支壁は比較的高いCT値を示す円柱あるいは管状の構造物であると考えられる。そこで、画素毎にCT値の分布に基づく形状の構造解析を行なって気管支を抽出する。 The bronchi included in the three-dimensional image appear as a region showing a low CT value (pixel value) on the CT image because the pixels inside the bronchus correspond to the air region, but the bronchial wall is a cylinder showing a relatively high CT value. Alternatively, it is considered to be a tubular structure. Therefore, the bronchi are extracted by performing structural analysis of the shape based on the distribution of CT values for each pixel.
気管支は多段階に分岐し末端に近づくほど気管支の径は小さくなっていく。異なるサイズの気管支を検出することができるように、三次元画像を多重解像度変換したガウシアンピラミッド画像、つまり異なる解像度の複数の三次元画像を予め生成し、その生成したガウシアンピラミッドの画像毎に検出アルゴリズムを走査することで異なるサイズの管状構造物を検出する。 The bronchus branches in multiple stages, and the diameter of the bronchus becomes smaller as it approaches the end. A Gaussian pyramid image obtained by converting a three-dimensional image into multiple resolutions so that bronchi of different sizes can be detected, that is, a plurality of three-dimensional images having different resolutions are generated in advance, and a detection algorithm is used for each generated Gaussian pyramid image. Detects tubular structures of different sizes by scanning.
まず、各解像度の三次元画像の各画素のヘッセ行列を算出し、ヘッセ行列の固有値の大小関係から管状構造物内の画素であるかを判定する。ヘッセ行列は、各軸(三次元画像のx軸、y軸、z軸)方向における濃度値の2階の偏微分係数を要素とする行列であり、下式のように3×3行列となる。 First, the Hessian matrix of each pixel of the three-dimensional image of each resolution is calculated, and it is determined whether or not the pixels are in the tubular structure from the magnitude relation of the eigenvalues of the Hessian matrix. The Hessian matrix is a matrix whose elements are the second-order partial differential coefficients of the density values in each axis (x-axis, y-axis, z-axis of the three-dimensional image) direction, and is a 3 × 3 matrix as shown in the following equation. ..
任意の画素におけるヘッセ行列の固有値をλ1、λ2、λ3としたとき、固有値のうち2つの固有値が大きく、1つの固有値が0に近い場合、例えば、λ3、λ2≫λ1、λ1≒0を満たすとき、その画素は管状構造物であることが知られている。また、ヘッセ行列の最小の固有値(λ1≒0)に対応する固有ベクトルが管状構造物の主軸方向に一致する。 When the eigenvalues of the Hessian matrix in an arbitrary pixel are λ1, λ2, and λ3, two of the eigenvalues are large and one eigenvalue is close to 0, for example, when λ3, λ2 >> λ1, λ1≈0 is satisfied. , The pixels are known to be tubular structures. Further, the eigenvectors corresponding to the minimum eigenvalues (λ1≈0) of the Hessian matrix coincide with the spindle direction of the tubular structure.
気管支はグラフ構造で表すことができるが、このようにして抽出された管状構造物は、腫瘍などの影響により、全ての管状構造物が繋がった1つのグラフ構造として検出されるとは限らない。そこで、三次元画像全体の判別が終了後、検出された管状構造物が一定の距離内にあり、かつ抽出された二つの管状構造物上の任意の点を結ぶ基本線の向きと各管状構造物の主軸方向とが成す角が一定角度以内であるかについて評価することにより、複数の管状構造物が接続されるものであるか否かを判定して抽出された管状構造物の接続関係を再構築する。この再構築により、気管支のグラフ構造の抽出が完了する。 Although the bronchi can be represented by a graph structure, the tubular structure extracted in this way is not always detected as one graph structure in which all the tubular structures are connected due to the influence of a tumor or the like. Therefore, after the discrimination of the entire three-dimensional image is completed, the detected tubular structure is within a certain distance, and the direction of the basic line connecting arbitrary points on the two extracted tubular structures and each tubular structure. By evaluating whether the angle formed by the main axis direction of the object is within a certain angle, it is determined whether or not a plurality of tubular structures are connected, and the connection relationship of the extracted tubular structures is determined. Rebuild. This reconstruction completes the extraction of the bronchial graph structure.
そして、抽出したグラフ構造を、開始点、端点、分岐点および枝に分類し、開始点、端点および分岐点を枝で連結することによって、気管支を表すグラフ構造を得ることができる。本実施形態においては、このグラフ構造の各位置における気管支の径や各枝の長さ(気管支の分岐点間の長さ)などの特徴量もグラフ構造と併せて取得する。図2は、グラフ構造の一例を示すものである。図2では、Spが開始点であり、分岐点Bpを白丸、端点Epを黒丸、枝Eを線で表している。 Then, the extracted graph structure is classified into a start point, an end point, a branch point, and a branch, and by connecting the start point, the end point, and the branch point with a branch, a graph structure representing a bronchi can be obtained. In the present embodiment, features such as the diameter of the bronchus and the length of each branch (the length between the bifurcation points of the bronchi) at each position of the graph structure are also acquired together with the graph structure. FIG. 2 shows an example of a graph structure. In FIG. 2, Sp is a start point, a branch point Bp is represented by a white circle, an end point Ep is represented by a black circle, and a branch E is represented by a line.
なお、グラフ構造の生成方法としては、上述した方法に限らず、その他の公知な方法を用いることができる。 The graph structure generation method is not limited to the above-mentioned method, and other known methods can be used.
輪郭情報取得部13は、グラフ構造上の各点における気管支の輪郭情報を取得するものである。本実施形態の輪郭情報取得部13は、上述したように気管支のグラフ構造を生成する際に検出された管状構造物の輪郭情報を取得するものである。輪郭情報は、グラフ構造の各点について取得されるが、各点の間隔は、気管支の分岐点間よりも小さい間隔を任意に設定することができる。たとえば1mm〜2mm程度に設定することが好ましい。図3は、グラフ構造上の各点における気管支の輪郭情報の一例を示す図である。なお、図3では、気管支のグラフ構造も含まれている。
The contour
視点情報取得部14は、気管支内における視点情報を取得するものである。視点情報は、ユーザが入力装置30を用いて任意に設定入力されるものであり、視点情報取得部14は、入力装置30において受け付けられた視点情報を取得するものである。視点情報の設定入力は、たとえば表示装置20に表示された気管支の3次元画像上においてユーザがマウスなどの入力装置30を用いて指定するようにすればよい。
The viewpoint
なお、本実施形態においては、視点情報をユーザが設定入力するようにしたが、これに限らず、予め設定された条件に基づいて、自動的に視点情報を設定するようにしてもよい。具体的には、たとえば気管支の基端部に視点情報を設定するようにしてもよいし、基端部から最初の分岐に視点情報を設定するようにしてもよい。 In the present embodiment, the viewpoint information is set and input by the user, but the present invention is not limited to this, and the viewpoint information may be automatically set based on preset conditions. Specifically, for example, the viewpoint information may be set at the base end of the bronchus, or the viewpoint information may be set at the first branch from the base end.
投影点特定部15は、視点情報に基づいて、グラフ構造上の1つの点を起点として特定し、起点からグラフ構造をたどり、グラフ構造上の各点の中から投影点を特定するものである。以下、投影点特定部15による投影点の特定について、図4に示すフローチャートおよび図5〜図10を参照しながら説明する。
The projection
投影点特定部15は、まず、図5に示すように、ユーザによって設定入力された視点情報Sから最も近いグラフ構造上の点を起点Nsとして特定する(S10)。そして、起点Nsから気管支の下流側(基端側とは反対側)に向けてグラフ構造をたどり、予め設定された範囲NR内に含まれる点を投影候補点として特定する(S12)。範囲NRとしては、たとえば起点Nsからの予め設定された距離の範囲としたり、起点Nsからグラフ構造をたどった際に、通過する分岐点が予め設定された数となる範囲とすることができる。
As shown in FIG. 5, the projection
次に、投影点特定部15は、予め設定された範囲NR内に含まれる複数の投影候補点の中から、予め設定された投影点条件に基づいて一部の投影点を特定する(S14)。予め設定された条件としては、たとえば範囲NRにおけるグラフ構造における各枝の中央の点、最初の点または最後の点を投影点として特定することができる。なお、最初の点および最後の点とは、グラフ構造を下流側にたどった際の各辺の最初の点および最後の点である。また、範囲NRにおけるグラフ構造における各枝について、分岐点から予め設定された距離以上離れた最初の点を投影点として特定することができる。図4は、S14において特定された投影点Npの一例を点線丸印で示している。
Next, the projection
次いで、投影点特定部15は、S14において特定された投影点が、予め設定された投影画像条件を満たすか否かを確認する(S16)。図6は、範囲NR内のグラフ構造上の各点の輪郭情報の一例を示す図である。なお、図6においては、見やすくするために一部の点の輪郭情報を図示省略している。また、図6に示す0〜6の数値は、各枝に付加された枝番号であり、各輪郭情報の近傍に示す数値は、グラフ構造上の各点に付加されたノード番号である。ここでは、たとえば上述した起点Nsが図6に示すノード80にある場合の投影点の特定方法について説明する。
Next, the projection
まず、S14において特定された投影点が、図6に示すノード98とノード99である場合、この2つのノード点の輪郭情報を2次元平面上に投影して投影画像を生成すると図7に示すような投影画像となる。なお、上記2次元平面とは、被検体の体軸方向に直交する平面である。図7に示す投影画像では、2つの輪郭情報が重なり合ってしまっているので投影画像としてはあまり好ましくない。これはS14によって特定された投影点が分岐点に対して近すぎるからである。
First, when the projection points specified in S14 are the
そこで、投影点特定部15は、図7に示す投影画像のように2つの輪郭情報が重なり合う場合には、投影点を変更し、その変更後の投影点の輪郭情報を用いて、再び投影画像を生成し、その投影画像の輪郭情報が重なり合うか否かを確認する。具体的には、ノード98とノード99の投影点の少なくとも一方を分岐点から遠い投影点に変更し、変更後の投影点の輪郭情報を用いて、再び投影画像を生成する。たとえばノード98の投影点をノード107の投影点に変更し、ノード99の投影点をノード110の投影点に変更する。
Therefore, when the two contour information overlaps with each other as in the projected image shown in FIG. 7, the projection
すなわち、投影点特定部15は、投影画像の輪郭情報が重なり合わないという投影画像条件を満たすか否かを確認し、投影画像条件を満たさない場合には(S16,NO)、投影点を予め設定された条件に基づいて変更する(S18)。そして、変更後の投影点の輪郭情報を用いて、再び投影画像を生成し、投影画像条件を満たすか否かを確認し、投影画像条件を満たすまで投影点の変更と投影画像の生成とを繰り返す。図8は、投影画像条件を満たすノード123とノード119の投影点の輪郭情報を用いて生成された投影画像を示す図である。
That is, the projection
そして、図6に示す枝1の先に繋がる枝3および枝4と、枝2に繋がる枝5および枝6とについても、上記と同様に、投影画像の輪郭情報が重なり合わないという投影画像条件を満たすまで、投影点の変更と投影画像の生成とを繰り返す。その結果、図9に示すような投影画像が生成されたとすると、親の枝である枝1のノード123からはみ出した枝4のノード289および枝3のノード296と、親の枝である枝2のノード119の輪郭情報からはみ出した枝6のノード214の輪郭情報とについては、起点であるノード80から実際に気管支内を撮影した内視鏡画像上では見えない輪郭情報であるので削除することが好ましい。
As for the branch 3 and the branch 4 connected to the tip of the
したがって、投影点特定部15は、子の枝については、親の枝のノードの輪郭情報内に子の枝の輪郭情報が包含されるという投影画像条件を満たす投影点を特定する。なお、子の枝についての投影画像条件としては、これに限らず、たとえば親の枝のノードの輪郭情報内に子の枝の輪郭情報が包含されていない場合でも、親の枝のノードの輪郭情報と子の枝の輪郭情報との距離が予め設定された閾値以内である場合には、削除することなく、最終的な投影点として残すようにしてもよい。具体的には、図9に示す枝6のノード214の輪郭情報については、枝2のノード119の輪郭情報に近いので残すようにしてもよい。また、子の枝のノードの輪郭情報が、親の枝のノードの輪郭情報内に包含されていたとしても、その輪郭情報の形状が、図9に示すノード289の輪郭情報のように、長径に対する短径の比率が予め設定された閾値以下の楕円である場合、または子の枝のノードの輪郭情報が投影できない場合もしくは親の枝のノードの輪郭情報の大きさに対する子の枝のノードの輪郭情報の大きさの比率が閾値以下であって、子の枝のノードの輪郭情報が小さすぎる場合には、その輪郭情報を削除するようにしてもよい。
Therefore, the projection
上述したようにして投影画像条件を満たすように投影点の変更および削除を繰り返して行って最終的な投影点を特定する(S20)。図10は、最終的に特定された投影点の輪郭情報を用いて生成された投影画像を示す図である。 As described above, the final projection point is specified by repeatedly changing and deleting the projection point so as to satisfy the projection image condition (S20). FIG. 10 is a diagram showing a projected image generated using the contour information of the finally identified projection point.
なお、上述した投影画像条件を満たしているか否かの確認については、投影点の輪郭情報の形状情報を用いるようにすればよい。具体的には、形状情報として、輪郭情報の径(半径、直径、短径および長径など)および中心間の距離などを用いるようにすればよい。 For confirmation of whether or not the above-mentioned projection image conditions are satisfied, the shape information of the contour information of the projection point may be used. Specifically, as the shape information, the diameter (radius, diameter, minor axis, major axis, etc.) of the contour information, the distance between the centers, and the like may be used.
また、上記説明では、仮に特定した投影点の輪郭情報を用いて投影画像を一旦生成し、その投影画像が、投影画像条件を満たすか否かを確認することによって最終的な投影点を特定するようにしたが、必ずしも投影画像を生成しなくてもよく、仮の特定した投影点の3次元座標空間上における位置関係とその投影点の輪郭情報の大きさとに基づいて、投影画像条件を満たすか否かを確認するようにしてもよい。 Further, in the above description, the final projection point is specified by temporarily generating a projection image using the contour information of the tentatively specified projection point and confirming whether or not the projection image satisfies the projection image condition. However, it is not always necessary to generate a projected image, and the projected image condition is satisfied based on the positional relationship of the tentatively specified projection point on the three-dimensional coordinate space and the magnitude of the contour information of the projection point. You may want to check if it is.
また、上記説明では、仮に特定した投影点の輪郭情報が投影画像条件を満たすか否かを確認することによって最終的な投影点を特定するようにしたが、投影画像条件については必ずしも確認しなくてもよく、S14において投影点条件に基づいて特定された投影点を最終的な投影点とし、その輪郭情報を用いて投影画像を生成するようにしてもよい。 Further, in the above description, the final projection point is specified by confirming whether or not the contour information of the specified projection point satisfies the projection image condition, but the projection image condition is not necessarily confirmed. Alternatively, the projection point specified based on the projection point condition in S14 may be used as the final projection point, and the projection image may be generated using the contour information.
図1に戻り、気管支3次元画像生成部17は、3次元画像取得部11において取得された3次元画像に対してボリュームレンダリング処理を施すことによって、気管支の形態を表す気管支3次元画像を生成し、この気管支3次元画像を表示制御部18に出力するものである。
Returning to FIG. 1, the bronchial three-dimensional
表示制御部18は、投影画像生成部16によって生成された投影画像および気管支3次元画像生成部17によって生成された気管支3次元画像を表示装置20に表示させるものである。
The
表示装置20は、たとえば液晶ディスプレイなどを備えたものである。また、表示装置20をタッチパネルによって構成し、入力装置43と兼用するようにしてもよい。
The
入力装置30は、マウスやキーボードなどを備えたものであり、ユーザによる種々の設定入力を受け付けるものである。
The
上記実施形態の内視鏡画像診断支援システムによれば、被検体を撮影して得られた3次元画像を取得し、3次元画像に含まれる管状構造物のグラフ構造を生成し、グラフ構造上の各点における管状構造物の輪郭情報を取得する。そして、管状構造物内における視点情報を取得し、視点情報に基づいて、グラフ構造上の1つの点を起点として特定し、起点からグラフ構造をたどり、グラフ構造上の各点の中から投影点を特定し、投影点の輪郭情報を2次元平面上に投影した投影画像を生成する。 According to the endoscopic image diagnosis support system of the above embodiment, a three-dimensional image obtained by photographing a subject is acquired, a graph structure of a tubular structure included in the three-dimensional image is generated, and the graph structure is displayed. The contour information of the tubular structure at each point of is acquired. Then, the viewpoint information in the tubular structure is acquired, one point on the graph structure is specified as the starting point based on the viewpoint information, the graph structure is traced from the starting point, and the projection point is selected from each point on the graph structure. Is specified, and a projected image in which the contour information of the projection point is projected on a two-dimensional plane is generated.
したがって、内視鏡画像との位置合わせ処理が可能なように端的な特徴を残した投影画像を、高速な処理によって生成することができる。 Therefore, it is possible to generate a projected image with a simple feature so that the alignment process with the endoscopic image can be performed by high-speed processing.
また、上記実施形態においては、投影画像生成部16が、投影点が属する枝の情報を取得し、その枝の情報を投影画像に付加することによって、投影画像上に枝の情報を表示させるようにしてもよい。図11は、投影画像に対して枝の情報として「A」〜「D」を付加して表示させた例を示す図である。
Further, in the above embodiment, the projection
また、上記実施形態において、さらに内視鏡装置50によって実際に気管支内を撮影した2次元画像の内視鏡画像を取得し、その内視鏡画像と投影画像との関係に基づいて、内視鏡画像の視点情報(内視鏡の先端位置に相当する)を推定するようにしてもよい。すなわち、図12に示すように、視点情報推定部21を設けるようにしてもよい。視点情報推定部21は、具体的には、投影画像生成部16によって生成された投影画像Aと、内視鏡装置50から出力された内視鏡画像Bとの間で位置合わせ処理を行う。位置合わせ処理としては、たとえば剛体レジストレーションまたは非剛体レジストレーションを用いることができる。
Further, in the above embodiment, an endoscopic image of a two-dimensional image actually taken in the bronchi by the
そして、視点情報推定部21は、図13に示すように、位置合わせ処理によって得られた投影画像Aと内視鏡画像Bとのずれ量と、投影画像Aの視点情報とに基づいて、内視鏡画像Bの視点情報bを推定する。なお、位置合わせ処理の対象の投影画像Aは、たとえばグラフ構造の分岐点毎に生成されており、その複数の投影画像Aのうち、ずれ量が最も小さい投影画像Aとその視点情報とに基づいて、内視鏡画像の視点情報bが推定されるものとする。内視鏡画像Bの視点情報bの推定方法としては、たとえば投影画像Aに含まれる輪郭情報の大きさと内視鏡画像Bに含まれる気管支の穴の大きさだけが異なる場合には、その大きさの拡縮率と投影画像Aの視点情報aと投影面との距離に基づいて、視点情報aを投影面に対して移動させることによって視点情報bを推定することができる。なお、視点情報bの推定方法としては、このような方法に限らず、幾何学的な関係に基づく種々の推定方法を用いることができる。
Then, as shown in FIG. 13, the viewpoint
視点情報推定部21によって推定された視点情報bは、たとえばその3次元座標を表示装置20に表示させるようにしてもよいし、表示装置20に表示された気管支3次元画像上に表示させるようにしてもよい。
The viewpoint information b estimated by the viewpoint
また、投影画像に含まれる輪郭情報とその輪郭情報に付加された枝の情報に基づいて、内視鏡装置50から出力された内視鏡画像に含まれる穴に対して、枝の情報を付加するようにしてもよい。すなわち、図12に示すように、輪郭情報推定部22を設けるようにしてもよい。輪郭情報推定部22は、具体的には、投影画像生成部16によって生成された投影画像Aと、内視鏡装置50から出力された内視鏡画像Bとの間で位置合わせ処理を行う。位置合わせ処理としては、たとえば剛体レジストレーションまたは非剛体レジストレーションを用いることができる。そして、輪郭情報推定部22は、位置合わせ処理を行うことによって、図14に示すように、投影画像Aに含まれる輪郭情報に対応する内視鏡画像Bに含まれる穴(輪郭情報)を推定する。そして、輪郭情報推定部22は、投影画像Aの各輪郭情報に付加された枝の情報「A」〜「D」を内視鏡画像に含まれる対応する穴に付加する。内視鏡画像の各穴に付加された枝の情報は、たとえば内視鏡画像と併せて表示装置20に表示される。
Further, based on the contour information included in the projected image and the branch information added to the contour information, branch information is added to the holes included in the endoscope image output from the
また、上記説明では、視点情報推定部21および輪郭情報推定部22において、位置合わせ処理を行う際、内視鏡装置50から出力された内視鏡画像そのものを用いるようにしたが、これに限らず、図15に示すように、内視鏡画像から穴の輪郭を抽出した輪郭画像を用いるようにしてもよい。輪郭画像の生成方法としては、たとえば輝度が閾値以下の画素が円状に分布している領域を内視鏡画像から検出し、その領域の輪郭を穴の輪郭として抽出して輪郭画像を生成するようにすればよい。
Further, in the above description, the viewpoint
1 内視鏡画像診断支援システム
10 3次元画像処理装置
11 3次元画像取得部
12 グラフ構造生成部
13 輪郭情報取得部
14 視点情報取得部
15 投影点特定部
16 投影画像生成部
17 気管支3次元画像生成部
18 表示制御部
20 表示装置
21 視点情報推定部
22 輪郭情報推定部
30 入力装置
40 3次元画像保管サーバ
43 入力装置
50 内視鏡装置
Bp 分岐点
E 枝
Ep 端点
Np 投影点
NR 予め設定された範囲
Ns 起点
S 視点情報
1 Endoscopic image
Claims (13)
前記3次元画像に含まれる管状構造物のグラフ構造を生成するグラフ構造生成部と、
前記グラフ構造上の各点における前記管状構造物の径および形状を表す輪郭情報を取得する輪郭情報取得部と、
前記管状構造物内における視点情報を取得する視点情報取得部と、
前記視点情報と前記グラフ構造とに基づいて、前記グラフ構造上の各点の中から、該各点の前記輪郭情報を前記視点情報に基づく視点の方向にある2次元平面上に投影した場合に、前記輪郭情報が重なり合わないという条件を満たす点を投影点に特定する投影点特定部と、
前記投影点の前記輪郭情報を前記2次元平面上に投影した投影画像を生成する投影画像生成部とを備えた3次元画像処理装置。 A 3D image acquisition unit that acquires a 3D image obtained by photographing a subject, and
A graph structure generator that generates a graph structure of a tubular structure included in the three-dimensional image,
A contour information acquisition unit that acquires contour information representing the diameter and shape of the tubular structure at each point on the graph structure, and
A viewpoint information acquisition unit that acquires viewpoint information in the tubular structure,
When the contour information of each point is projected onto a two-dimensional plane in the direction of the viewpoint based on the viewpoint information from each point on the graph structure based on the viewpoint information and the graph structure. , A projection point specifying unit that specifies a point that satisfies the condition that the contour information does not overlap as a projection point,
A three-dimensional image processing apparatus including a projection image generation unit that generates a projection image obtained by projecting the contour information of the projection point onto the two-dimensional plane.
前記3次元画像に含まれる管状構造物のグラフ構造を生成し、
前記グラフ構造上の各点における前記管状構造物の径および形状を表す輪郭情報を取得し、
前記管状構造物内における視点情報を取得し、
前記視点情報と前記グラフ構造とに基づいて、前記グラフ構造上の各点の中から、該各点の前記輪郭情報を前記視点情報に基づく視点の方向にある2次元平面上に投影した場合に、前記輪郭情報が重なり合わないという条件を満たす点を投影点に特定し、
前記投影点の前記輪郭情報を前記2次元平面上に投影した投影画像を生成する3次元画像処理方法。 Acquire the three-dimensional image obtained by photographing the subject,
A graph structure of the tubular structure included in the three-dimensional image is generated.
The contour information representing the diameter and shape of the tubular structure at each point on the graph structure is acquired.
Obtaining viewpoint information in the tubular structure,
When the contour information of each point is projected onto a two-dimensional plane in the direction of the viewpoint based on the viewpoint information from each point on the graph structure based on the viewpoint information and the graph structure. , The point that satisfies the condition that the contour information does not overlap is specified as the projection point.
A three-dimensional image processing method for generating a projected image in which the contour information of the projection point is projected onto the two-dimensional plane.
被検体を撮影して得られた3次元画像を取得する3次元画像取得部と、
前記3次元画像に含まれる管状構造物のグラフ構造を生成するグラフ構造生成部と、
前記グラフ構造上の各点における前記管状構造物の径および形状を表す輪郭情報を取得する輪郭情報取得部と、
前記管状構造物内における視点情報を取得する視点情報取得部と、
前記視点情報と前記グラフ構造とに基づいて、前記グラフ構造上の各点の中から、該各点の前記輪郭情報を前記視点情報に基づく視点の方向にある2次元平面上に投影した場合に、前記輪郭情報が重なり合わないという条件を満たす点を投影点に特定する投影点特定部と、
前記投影点の前記輪郭情報を前記2次元平面上に投影した投影画像を生成する投影画像生成部として機能させる3次元画像処理プログラム。 Computer,
A 3D image acquisition unit that acquires a 3D image obtained by photographing a subject, and
A graph structure generator that generates a graph structure of a tubular structure included in the three-dimensional image,
A contour information acquisition unit that acquires contour information representing the diameter and shape of the tubular structure at each point on the graph structure, and
A viewpoint information acquisition unit that acquires viewpoint information in the tubular structure,
When the contour information of each point is projected onto a two-dimensional plane in the direction of the viewpoint based on the viewpoint information from each point on the graph structure based on the viewpoint information and the graph structure. , A projection point specifying unit that specifies a point that satisfies the condition that the contour information does not overlap as a projection point,
A three-dimensional image processing program that functions as a projection image generation unit that generates a projection image obtained by projecting the contour information of the projection point onto the two-dimensional plane.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/906,235 US10475235B2 (en) | 2017-03-29 | 2018-02-27 | Three-dimensional image processing apparatus, three-dimensional image processing method, and three-dimensional image processing program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017065096 | 2017-03-29 | ||
JP2017065096 | 2017-03-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018167018A JP2018167018A (en) | 2018-11-01 |
JP6847011B2 true JP6847011B2 (en) | 2021-03-24 |
Family
ID=64018129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017182196A Active JP6847011B2 (en) | 2017-03-29 | 2017-09-22 | 3D image processing equipment and methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6847011B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5028191B2 (en) * | 2007-09-03 | 2012-09-19 | オリンパスメディカルシステムズ株式会社 | Endoscope device |
JP5188879B2 (en) * | 2008-05-23 | 2013-04-24 | オリンパスメディカルシステムズ株式会社 | Medical equipment |
JP5785120B2 (en) * | 2012-03-15 | 2015-09-24 | 富士フイルム株式会社 | Medical image diagnosis support apparatus and method, and program |
JP5826082B2 (en) * | 2012-03-21 | 2015-12-02 | 富士フイルム株式会社 | Medical image diagnosis support apparatus and method, and program |
JP6254053B2 (en) * | 2014-08-13 | 2017-12-27 | 富士フイルム株式会社 | Endoscopic image diagnosis support apparatus, system and program, and operation method of endoscopic image diagnosis support apparatus |
-
2017
- 2017-09-22 JP JP2017182196A patent/JP6847011B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018167018A (en) | 2018-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10475235B2 (en) | Three-dimensional image processing apparatus, three-dimensional image processing method, and three-dimensional image processing program | |
JP5785120B2 (en) | Medical image diagnosis support apparatus and method, and program | |
JP5826082B2 (en) | Medical image diagnosis support apparatus and method, and program | |
JP6273291B2 (en) | Image processing apparatus and method | |
JP5777070B2 (en) | Region extraction apparatus, region extraction method, and region extraction program | |
CN109035141B (en) | Rib deployment device and method | |
US10970875B2 (en) | Examination support device, examination support method, and examination support program | |
CN108320314B (en) | Image processing method and device based on CT transverse image and display system | |
JP6824078B2 (en) | Endoscope positioning device, method and program | |
JP2008212396A (en) | Image processor and its program | |
JP2015066023A (en) | Image positioning apparatus, method, and program, and three-dimensional deformation model generation method | |
US9530238B2 (en) | Image processing apparatus, method and program utilizing an opacity curve for endoscopic images | |
CN110634554A (en) | Spine image registration method | |
CN102573640B (en) | Medical image-processing apparatus and medical image processing method | |
WO2016104082A1 (en) | Image processing device and image processing method | |
JP2020014711A (en) | Inspection support device, method, and program | |
US9585569B2 (en) | Virtual endoscopic projection image generating device, method and program | |
JP6820805B2 (en) | Image alignment device, its operation method and program | |
JP5554028B2 (en) | Medical image processing apparatus, medical image processing program, and X-ray CT apparatus | |
JP2012061019A (en) | Image processing apparatus, image processing method, and image processing program | |
JP6847011B2 (en) | 3D image processing equipment and methods and programs | |
WO2015111308A1 (en) | Three-dimensional medical image display control device, operation method thereof, and three-dimensional medical image display control program | |
JP6487999B2 (en) | Information processing apparatus, information processing method, and program | |
US11003946B2 (en) | Examination support device, examination support method, and examination support program | |
JP2017023834A (en) | Picture processing apparatus, imaging system, and picture processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200616 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201217 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20201217 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20201225 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6847011 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |