JP7447595B2 - Medical image display device, medical image display method, and program - Google Patents

Medical image display device, medical image display method, and program Download PDF

Info

Publication number
JP7447595B2
JP7447595B2 JP2020050987A JP2020050987A JP7447595B2 JP 7447595 B2 JP7447595 B2 JP 7447595B2 JP 2020050987 A JP2020050987 A JP 2020050987A JP 2020050987 A JP2020050987 A JP 2020050987A JP 7447595 B2 JP7447595 B2 JP 7447595B2
Authority
JP
Japan
Prior art keywords
image
display
functional
morphological
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020050987A
Other languages
Japanese (ja)
Other versions
JP2021148711A (en
Inventor
恒 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2020050987A priority Critical patent/JP7447595B2/en
Publication of JP2021148711A publication Critical patent/JP2021148711A/en
Application granted granted Critical
Publication of JP7447595B2 publication Critical patent/JP7447595B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)

Description

本開示は、医用画像表示装置及び画像表示方法に関し、特に、組織の構造を示す形態画像と生体活動を示す機能画像との重畳表示に関する。 The present disclosure relates to a medical image display device and an image display method, and particularly relates to a superimposed display of a morphological image showing a tissue structure and a functional image showing a biological activity.

いわゆる断層画像を用いる画像診断において、組織の構造を示す形態画像と、生体活動を示す機能画像が用いられている。形態画像は、X線断層撮像や超音波診断装置によるBモード画像、CT(Computed Tomography)やMRI(Magnetic Resonance Imaging)などから得た組織の構造を示す画像であり、組織の形状や大きさ、構造の異なる異物の検出に適しているが、構造の類似した異物の検出や組織の生体活動の評価が難しい。一方、機能画像は、PET(Positron Emission Tomography)、造影CTなどから得た組織の生体活動の程度を示す画像であり、生体活動の状態について分布状態を評価できるが、組織間の境界が直接的に示されるとは限らず、どの組織による生体活動であるかの同定が困難な場合がある。そこで、例えば、形態画像上に機能画像を重ね合わせ重畳表示することにより、形態画像を用いて機能画像における位置の同定が行われる。 In image diagnosis using so-called tomographic images, morphological images showing tissue structures and functional images showing biological activities are used. Morphological images are images that show the structure of tissues obtained from X-ray tomography, B-mode images from ultrasound diagnostic equipment, CT (Computed Tomography), MRI (Magnetic Resonance Imaging), etc. Although it is suitable for detecting foreign objects with different structures, it is difficult to detect foreign objects with similar structures or evaluate tissue biological activity. On the other hand, functional images are images obtained from PET (Positron Emission Tomography), contrast-enhanced CT, etc. that show the degree of biological activity of tissues, and can evaluate the distribution state of biological activity, but the boundaries between tissues are In some cases, it may be difficult to identify which tissue is responsible for the biological activity. Therefore, for example, by superimposing and displaying a functional image on a morphological image, the position in the functional image is identified using the morphological image.

特開2016-16250号公報Unexamined Japanese Patent Publication No. 2016-16250

一般に、形態画像に機能画像を重畳した場合、すべての画素について対応する空間的(三次元的)位置が同一となることがないため、着目したい領域のみにおいて形態画像と機能画像との間で画素が示す空間的位置が一致するように位置合わせを行う必要がある。そのため、読影医等の操作者は、着目したい領域の読影に適するように、解剖学的見地に基づいて形態画像と機能画像との位置合わせの微調整を行っている。しかしながら、機能画像は一般に輪郭が不明瞭であり、形態画像との位置合わせにおいて視認性が低い課題がある。 In general, when a functional image is superimposed on a morphological image, the corresponding spatial (three-dimensional) positions of all pixels are not the same, so pixels between the morphological image and the functional image are separated only in the area of interest. It is necessary to perform alignment so that the spatial positions indicated by . Therefore, an operator such as an image interpreting doctor performs fine adjustment of the alignment between the morphological image and the functional image based on an anatomical viewpoint so as to be suitable for interpreting the region of interest. However, functional images generally have unclear outlines and have low visibility when aligned with morphological images.

本開示は、上記課題に鑑みてなされたものであり、機能画像と形態画像の重畳表示において画像間の位置合わせを容易とすることを目的とする。 The present disclosure has been made in view of the above problems, and an object of the present disclosure is to facilitate alignment between images in superimposed display of a functional image and a morphological image.

本開示の一態様に係る医用画像表示装置は、被検者の同一の部位から取得された、組織の構造を示す2次元画像である第1の画像と、生体の活動状態を示す2次元画像である第2の画像とを取得する画像取得部と、前記第1の画像に前記第2の画像を重畳した第1の合成画像を生成する画像合成部と、示部と、前記第1の合成画像を前記表示部に表示させる表示制御部と、ユーザーから、前記第1の画像と前記第2の画像との相対的な位置調整が必要であることを示す第1の指示と、前記第1の画像と前記第2の画像との相対位置をどれだけ変更するかを示す第2の指示の入力を受け付ける入力部とを備え、前記入力部が前記第1の指示の入力を受け付けると、前記画像合成部は、前記第1の画像と前記第2の画像の少なくとも一方に強調処理を行った上で、前記受け付けられた第2の指示による前記相対位置の変更に基づいて、前記強調処理が行われた後の前記第1の画像に前記第2の画像を重畳した状態の第2の合成画像を生成し、前記表示制御部は、前記第2の合成画像を前記表示部に表示させる A medical image display device according to an aspect of the present disclosure includes a first image that is a two-dimensional image showing a tissue structure and a two-dimensional image showing an active state of a living body, which are obtained from the same site of a subject. an image acquisition unit that acquires a second image, an image synthesis unit that generates a first composite image in which the second image is superimposed on the first image, a display unit, and the first a display control unit that displays a composite image of the first image on the display unit; a first instruction from a user indicating that relative positional adjustment between the first image and the second image is necessary; , an input unit that accepts an input of a second instruction indicating how much to change the relative position of the first image and the second image , the input unit receiving the input of the first instruction . Upon receiving the instruction, the image synthesizing section performs an emphasis process on at least one of the first image and the second image, and then performs an emphasizing process based on the change in the relative position according to the accepted second instruction . Generates a second composite image in which the second image is superimposed on the first image after the enhancement process , and the display control unit displays the second composite image on the display unit. to be displayed .

上記構成によれば、第1の画像と第2の画像との重畳表示を行う場合において、第1の画像と第2の画像との位置合わせの少なくとも一方が強調された状態で表示される。したがって、視認性を向上させた状態で第1の画像と第2の画像との位置合わせを行うことができるため、読影医等の操作者による位置合わせが容易となる。 According to the above configuration, when the first image and the second image are displayed in a superimposed manner, at least one of the alignments of the first image and the second image is displayed in an emphasized state. Therefore, the first image and the second image can be aligned with improved visibility, which facilitates alignment by an operator such as an image interpretation doctor.

実施の形態に係る画像表示システム1000の機能ブロック図である。FIG. 1 is a functional block diagram of an image display system 1000 according to an embodiment. 実施の形態に係る画像表示装置100の動作を示すフローチャートである。3 is a flowchart showing the operation of the image display device 100 according to the embodiment. (a)は形態画像の一例であり、(b)は機能画像の一例であり、(c)は形態画像と機能画像に基づく表示画像の一例である。(a) is an example of a morphological image, (b) is an example of a functional image, and (c) is an example of a display image based on the morphological image and the functional image. (a)は強調処理後の形態画像の一例であり、(b)は強調処理後の機能画像の一例であり、(c)は表示画像の一例である。(a) is an example of a morphological image after emphasis processing, (b) is an example of a functional image after emphasis processing, and (c) is an example of a display image. 表示画像の一例である。This is an example of a display image. 表示画像の他の一例である。This is another example of a display image.

≪実施の形態≫
以下、実施の形態に係る画像表示システム1000について、図面を参照しながら説明する。
≪Embodiment≫
An image display system 1000 according to an embodiment will be described below with reference to the drawings.

≪全体構成≫
図1は、実施の形態に係る画像表示システム1000の機能ブロック図である。図1に示すように、画像表示システム1000は、形態画像データベース10と、機能画像データベース20と、画像表示装置100と、表示部31と、入力部32とを含んでなる。
≪Overall composition≫
FIG. 1 is a functional block diagram of an image display system 1000 according to an embodiment. As shown in FIG. 1, the image display system 1000 includes a morphological image database 10, a functional image database 20, an image display device 100, a display section 31, and an input section 32.

<形態画像データベース10>
形態画像データベース10は、被検者の一部を撮像した形態画像を記憶管理するサーバ装置である。形態画像とは、体内の組織や器官の形態を示す2次元画像であり、例えば、断層画像である。より具体的には、例えば、単純X線断層画像、超音波Bモード画像であってもよいし、CTまたはMRIによって取得された3次元ボクセルデータから形成された断層画像であってもよい。形態画像データベース10は、形態画像を記憶するためのストレージと、画像表示装置100と通信するためのインターフェースとを備える。形態画像データベース10は、例えば、プロセッサとメモリ、および、ソフトウェアを備えるコンピュータとして実現され、ストレージとして、例えば、ハードディスク、SSD等を備え、インターフェースとして、例えば、10GBASE-T対応のインタフェースカードを備える。
<Morphological image database 10>
The morphological image database 10 is a server device that stores and manages morphological images obtained by capturing a portion of a subject. A morphological image is a two-dimensional image showing the morphology of internal tissues and organs, and is, for example, a tomographic image. More specifically, for example, it may be a simple X-ray tomographic image, an ultrasound B-mode image, or a tomographic image formed from three-dimensional voxel data acquired by CT or MRI. The morphological image database 10 includes storage for storing morphological images and an interface for communicating with the image display device 100. The morphological image database 10 is realized as a computer including, for example, a processor, a memory, and software, and includes, for example, a hard disk, SSD, etc. as a storage, and includes, for example, a 10GBASE-T compatible interface card as an interface.

<機能画像データベース20>
機能画像データベース20は、被検者の一部を撮像した機能画像を記憶管理するサーバ装置である。機能画像とは、体内における生体活動状態を示す2次元画像であり、例えば、PET画像、造影断層画像等である。PET画像としては、例えば、15Oをトレーサーとした酸素または水の分布を示す画像、18Fをトレーサーとしたブドウ糖(グルコース)の分布を示す画像などがある。造影断層画像としては、造影剤を用いて血管や特定の組織のみを撮像した断層画像、または、CTまたはMRIによって取得された3次元ボクセルデータから形成された断層画像が挙げられる。機能画像データベース20は、形態画像を記憶するためのストレージと、画像表示装置100と通信するためのインターフェースとを備える。機能画像データベース20は、例えば、プロセッサとメモリ、および、ソフトウェアを備えるコンピュータとして実現され、ストレージとして、例えば、ハードディスク、SSD等を備え、インターフェースとして、例えば、10GBASE-T対応のインタフェースカードを備える。なお、機能画像データベース20は、形態画像データベース10と同一のハードウェア上に実現されてもよい。
<Functional image database 20>
The functional image database 20 is a server device that stores and manages functional images obtained by capturing a portion of a subject. A functional image is a two-dimensional image that shows the state of biological activity in the body, and is, for example, a PET image, a contrast-enhanced tomographic image, or the like. Examples of PET images include images showing the distribution of oxygen or water using 15 O as a tracer, and images showing the distribution of glucose using 18 F as a tracer. Examples of the contrast-enhanced tomographic image include a tomographic image in which only a blood vessel or a specific tissue is imaged using a contrast agent, or a tomographic image formed from three-dimensional voxel data acquired by CT or MRI. The functional image database 20 includes storage for storing morphological images and an interface for communicating with the image display device 100. The functional image database 20 is realized, for example, as a computer including a processor, memory, and software, and includes, for example, a hard disk, SSD, etc. as storage, and includes, for example, a 10GBASE-T compatible interface card as an interface. Note that the functional image database 20 may be realized on the same hardware as the morphological image database 10.

<表示部31>
表示部31は、画像表示装置100と接続され、画像表示装置100から出力される画像を表示するディスプレイ装置である。表示部31は、例えば、液晶ディスプレイ、有機ELディスプレイ、CRT等を備え、画像表示装置100から画像を受信するためのインターフェースとして、例えば、DVI、DisplayPort等を備える。
<Display section 31>
The display unit 31 is a display device that is connected to the image display device 100 and displays images output from the image display device 100. The display unit 31 includes, for example, a liquid crystal display, an organic EL display, a CRT, etc., and includes, for example, a DVI, a DisplayPort, etc. as an interface for receiving images from the image display device 100.

<入力部32>
入力部32は、画像表示装置100と接続され、画像表示装置100に対してユーザーから入力された指示を出力する入力デバイスである。入力部32は、例えば、マウス、トラックボール、スライドパッドなどのポインティングデバイスを備え、画像表示装置100に支持を送信するためのインターフェースとして、例えば、USB、Bluetooth(登録商標)等を備える。なお、入力部32は表示部31の表示領域上のタッチパネルとして実現されてもよい。
<Input section 32>
The input unit 32 is an input device that is connected to the image display device 100 and outputs instructions input by a user to the image display device 100. The input unit 32 includes, for example, a pointing device such as a mouse, a trackball, and a slide pad, and includes, for example, a USB, Bluetooth (registered trademark), etc. as an interface for transmitting support to the image display device 100. Note that the input unit 32 may be realized as a touch panel on the display area of the display unit 31.

≪画像表示装置100の構成≫
画像表示装置100は、同一の被検者の同一部位を同一の断面に沿って撮像した機能画像と形態画像とを、それぞれ、機能画像データベース20と形態画像データベース10から取得し、縮尺(解像度)と画素が示す位置とを一致させた状態で、形態画像上に機能画像を重畳して表示画像を生成し、表示部31に表示させる装置である。画像表示装置100は、例えば、一般的なCPU(Central Processing Unit)およびGPU(Graphics Processing Unit)とRAMと、これらで実行されるプログラムを備えるコンピュータとして実現される。画像表示装置100は、図1に示すように、形態画像取得部110、機能画像取得部120、画像合成部130、表示制御部140、制御部150を備える。
<<Configuration of image display device 100>>
The image display device 100 acquires a functional image and a morphological image obtained by imaging the same part of the same subject along the same cross section from the functional image database 20 and the morphological image database 10, respectively, and calculates the scale (resolution) This is a device that generates a display image by superimposing a functional image on a morphological image with the position indicated by the pixel and the position indicated by the pixel matching, and displays it on the display unit 31. The image display device 100 is realized, for example, as a computer including a general CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a RAM, and a program executed by these. As shown in FIG. 1, the image display device 100 includes a morphological image acquisition section 110, a functional image acquisition section 120, an image composition section 130, a display control section 140, and a control section 150.

<形態画像取得部110>
形態画像取得部110は、形態画像データベース10から、被検者の一部を撮像した形態画像を取得する回路である。
<Morphological image acquisition unit 110>
The morphological image acquisition unit 110 is a circuit that acquires a morphological image of a part of the subject from the morphological image database 10.

図3(a)は、形態画像200の一例である。形態画像200は、被検者を特定の断面に沿って撮像した断層画像であり、例えば、X線の透過率、または、X線の透過率に基づいて算出された密度を2次元直交座標上に濃淡情報としてマッピングしたグレースケール画像である。図中の像210は被検者に対応し、像220は被検者が横たわっている寝台に対応する。また、像210は、皮膚の像201、臓器の像203、204、骨格の像202、205を含んでいる。なお、形態画像取得部110は、形態画像がグレースケール画像でない場合、例えば、カラーマップ等であれば、グレースケール画像に変換する。また、形態画像取得部110は、形態画像に加えて、形態画像の撮像条件や解像度情報、形態画像内の画素と被検者体内の3次元位置との対応情報などを形態画像データベース10から取得してもよい。 FIG. 3(a) is an example of a morphological image 200. The morphological image 200 is a tomographic image obtained by imaging the subject along a specific cross section, and for example, the X-ray transmittance or the density calculated based on the X-ray transmittance is expressed on two-dimensional orthogonal coordinates. This is a grayscale image mapped as shading information. An image 210 in the figure corresponds to the subject, and an image 220 corresponds to the bed on which the subject lies. The image 210 also includes a skin image 201, organ images 203 and 204, and skeleton images 202 and 205. Note that if the morphological image is not a grayscale image, for example, if it is a color map, the morphological image acquisition unit 110 converts it into a grayscale image. In addition to the morphological image, the morphological image acquisition unit 110 also acquires morphological image imaging conditions, resolution information, correspondence information between pixels in the morphological image and three-dimensional positions within the subject's body, etc. from the morphological image database 10. You may.

形態画像取得部110は、取得した形態画像を画像合成部130に出力する。 The morphological image acquisition section 110 outputs the acquired morphological image to the image composition section 130.

<機能画像取得部120>
機能画像取得部120は、機能画像データベース20から、被検者の一部を撮像した機能画像を取得する回路である。
<Functional image acquisition unit 120>
The functional image acquisition unit 120 is a circuit that acquires a functional image of a part of the subject from the functional image database 20.

図3(b)は、機能画像300の一例である。機能画像300は、被検者の特定の断面に沿った領域における生体活動を示した画像であり、例えば、特定の物質や反応の密度を2次元直交座標上に色情報としてマッピングしたカラーマップ画像である。具体的には、例えば、18F-FDG(Fluorodeoxy Glucose)をトレーサーとしたPETの場合、ブドウ糖(グルコース)の密度を示すカラーマップ画像である。図中において境界311内の領域301は、ブドウ糖の密度が高い領域を示し、境界312内の領域302はブドウ糖の密度が中程度である領域を示し、境界313内の領域303はブドウ糖の密度が低い領域を示す。なお、機能画像300は、形態画像200と同一の被検者について同一の断面に沿って撮像した断層画像である。ここで、実施の形態では、機能画像の中心点が指し示す被検者体内の3次元位置および解像度(縮尺)、画像の向きは形態画像200と同一であるとし、中心点同士を重ね合わせるだけで機能画像300を形態画像200との重畳処理が可能であるとする。なお、形態画像200と機能画像300との間で、基準点の位置、縮尺、画像の向きの1以上が異なっていてもよい。この場合、形態画像取得部110と機能画像取得部120の少なくとも一方が、形態画像200と機能画像300との基準点の位置、縮尺、画像の向きが一致するように拡大または縮小、平行移動、回転等の処理を行うことが好ましい。なお、機能画像取得部120は、機能画像がカラーマップでない場合、例えば、グレースケール画像等であれば、カラーマップに変換する。また、機能画像取得部120は、機能画像に加えて、機能画像の撮像条件や解像度情報、機能画像内の画素と被検者体内の3次元位置との対応情報などを機能画像データベース20から取得してもよい。 FIG. 3(b) is an example of the functional image 300. The functional image 300 is an image showing biological activity in a region along a specific cross section of the subject, and is, for example, a color map image in which the density of a specific substance or reaction is mapped as color information on two-dimensional orthogonal coordinates. It is. Specifically, for example, in the case of PET using 18 F-FDG (Fluorodeoxy Glucose) as a tracer, it is a color map image showing the density of glucose. In the figure, a region 301 within a boundary 311 indicates a region with a high glucose density, a region 302 within a boundary 312 indicates a region with a medium glucose density, and a region 303 within a boundary 313 indicates a region with a high glucose density. Indicates low area. Note that the functional image 300 is a tomographic image taken along the same cross section of the same subject as the morphological image 200. Here, in the embodiment, it is assumed that the three-dimensional position within the subject's body pointed by the center point of the functional image, the resolution (scale), and the orientation of the image are the same as those of the morphological image 200, and the center points are simply superimposed on each other. It is assumed that the functional image 300 can be superimposed on the morphological image 200. Note that the morphological image 200 and the functional image 300 may differ in one or more of the position of the reference point, the scale, and the orientation of the image. In this case, at least one of the morphological image acquisition unit 110 and the functional image acquisition unit 120 enlarges, reduces, or translates the morphological image 200 and the functional image 300 so that the reference point position, scale, and image orientation match. It is preferable to perform processing such as rotation. Note that if the functional image is not a color map, for example, if it is a grayscale image, the functional image acquisition unit 120 converts it into a color map. In addition to the functional image, the functional image acquisition unit 120 also acquires from the functional image database 20 imaging conditions and resolution information for the functional image, correspondence information between pixels in the functional image and three-dimensional positions within the subject's body, etc. You may.

機能画像取得部120は、取得した機能画像を画像合成部130に出力する。 The functional image acquisition section 120 outputs the acquired functional image to the image composition section 130.

<画像合成部130>
画像合成部130は、形態画像上に機能画像を重畳した表示画像を生成する回路である。
<Image synthesis unit 130>
The image synthesis unit 130 is a circuit that generates a display image in which a functional image is superimposed on a morphological image.

画像合成部130は、機能画像と形態画像のそれぞれから、各画素の画素値を抽出する。そして、各画素について、機能画像の透過度を用いて、表示画像の各画素の画素値を算出する。具体的には、座標(i,j)における形態画像の画素値をVs(i,j)、座標(i,j)における機能画像の画素値をVf(i,j)、機能画像の不透明度(以下、「透過度」とも呼ぶ)をα、座標(i,j)における表示画像の画素値をVv(i,j)としたとき、これらは以下の式を満たす。
Vv(i,j)=α・Vf(i,j)+(1-α)・Vs(i,j)
そして、画像合成部130は、算出した各画素の画素値を2次元直交座標上にマッピングし、表示画像を生成する。
The image synthesis unit 130 extracts the pixel value of each pixel from each of the functional image and the morphological image. Then, for each pixel, the pixel value of each pixel of the display image is calculated using the transparency of the functional image. Specifically, the pixel value of the morphological image at coordinates (i, j) is Vs (i, j), the pixel value of the functional image at coordinates (i, j) is Vf (i, j), and the opacity of the functional image is (hereinafter also referred to as "transparency") is α, and the pixel value of the display image at coordinates (i, j) is Vv(i, j), these satisfy the following equation.
Vv(i,j)=α・Vf(i,j)+(1−α)・Vs(i,j)
The image synthesis unit 130 then maps the calculated pixel value of each pixel onto two-dimensional orthogonal coordinates to generate a display image.

機能画像の不透明度αは、例えば、0.3、0.5など、所定の値を用いてもよい。または、例えば、後述する制御部150からの指示により設定または変更するとしてもよい。 For the opacity α of the functional image, a predetermined value such as 0.3 or 0.5 may be used, for example. Alternatively, for example, it may be set or changed by an instruction from the control unit 150, which will be described later.

また、画像合成部130は、後述する制御部150からの指示がある場合に、重畳前の形態画像と機能画像の一方、または、両方に、強調処理を行ってから重畳合成を行う。強調処理としては、例えば、画素値の増幅、ガンマ補正、エッジ強調処理などを用いることができる。このとき、強調の程度は、透過度に応じて変更する、とすることができる。特に、不透明度αが小さい(表示画像において明瞭でない)ほど強調を強くすることにより、エッジを見やすくして機能画像と形態画像の重なりが適正かを容易に確認することができる。 In addition, when receiving an instruction from the control unit 150 described later, the image synthesis unit 130 performs an enhancement process on one or both of the morphological image and the functional image before superimposition, and then performs superposition synthesis. As the emphasis processing, for example, pixel value amplification, gamma correction, edge emphasis processing, etc. can be used. At this time, the degree of emphasis can be changed depending on the degree of transparency. In particular, by increasing the emphasis as the opacity α is smaller (less clear in the displayed image), edges can be more easily seen and it is possible to easily confirm whether the overlap between the functional image and the morphological image is appropriate.

画像合成部130は、生成した表示画像を、表示制御部140に出力する。 The image synthesis section 130 outputs the generated display image to the display control section 140.

<表示制御部140>
表示制御部140は、画像合成部130が生成した表示画像を表示部31で表示可能な映像信号に変換する回路である。
<Display control unit 140>
The display control unit 140 is a circuit that converts the display image generated by the image synthesis unit 130 into a video signal that can be displayed on the display unit 31.

<制御部150>
制御部150は、上述した各機能部を制御する。また、制御部150は、入力部32を介してユーザーからの指示を受け付け、その反映を行う。具体的には、ユーザーが機能画像と形態画像の相対的な位置関係を修正すべき指示を行った場合に、機能画像の表示位置をシフトして表示画像を再生成するとともに、指示の受付中において形態画像と機能画像の一方、または、両方に、強調処理を行わせる。より具体的には、ユーザーが入力部32であるマウスを用いて表示画像上でドラッグを開始した場合、形態画像と機能画像の強調処理と、ドラッグの向き及び距離だけ機能画像の位置変更とを行った上で表示画像の再生成を行わせる。そして、ユーザーがドラッグを終了した場合、形態画像と機能画像の強調処理を終了させ、ドラッグの向き及び距離に応じた機能画像の位置変更のみ反映した状態で表示画像の再生成を行わせる。なお、ユーザーが機能画像と形態画像の相対的な位置関係を修正すべき指示の開始と終了はドラッグの開始と終了に限らず、例えば、表示部31に表示した位置調整モードアイコンのクリックにより開始し、当該アイコンの再度のクリックにより終了する、としてもよい。
<Control unit 150>
The control unit 150 controls each of the above-mentioned functional units. Further, the control unit 150 receives instructions from the user via the input unit 32 and reflects the instructions. Specifically, when a user gives an instruction to correct the relative positional relationship between a functional image and a morphological image, the display position of the functional image is shifted and the displayed image is regenerated, and while the instruction is being accepted. In this step, one or both of the morphological image and the functional image is subjected to enhancement processing. More specifically, when the user starts dragging on the displayed image using the mouse, which is the input unit 32, the morphological image and the functional image are emphasized, and the position of the functional image is changed by the direction and distance of the drag. After that, the display image is regenerated. When the user finishes dragging, the emphasizing process for the morphological image and the functional image is finished, and the display image is regenerated with only the change in the position of the functional image according to the direction and distance of the drag being reflected. Note that the start and end of instructions for the user to correct the relative positional relationship between the functional image and the morphological image are not limited to the start and end of dragging, but can also be started by, for example, clicking the position adjustment mode icon displayed on the display unit 31. However, the process may be ended by clicking the icon again.

なお、機能画像と形態画像の相対的な位置関係とは、形態画像の座標と機能画像の座標との対応関係を指し、具体的には、形態画像の基準点と対応する表示画像上の画素から、基準画像の基準点に対応する表示画像上の画素までのベクトルで表示される。すなわち、形態画像の基準点と機能画像の基準点とを重ね合わせて重畳合成する場合、相対的な位置関係はゼロベクトルで示される。また、形態画像の基準点からx方向にa、y方向にb移動した点と機能画像の基準点とを重畳合成する場合、相対的な位置関係は(a,b)で示される。 Note that the relative positional relationship between the functional image and the morphological image refers to the correspondence between the coordinates of the morphological image and the coordinates of the functional image, and specifically, the relative positional relationship between the coordinates of the morphological image and the coordinates of the functional image. It is displayed as a vector from the reference point of the reference image to the pixel on the display image corresponding to the reference point of the reference image. That is, when the reference points of the morphological image and the reference points of the functional image are superimposed and synthesized, the relative positional relationship is indicated by a zero vector. Further, when a point moved a in the x direction and b in the y direction from the reference point of the morphological image is superimposed and synthesized with the reference point of the functional image, the relative positional relationship is indicated by (a, b).

≪動作≫
以下、画像表示装置100の動作について、図面を参照しながら説明する。図2は画像表示装置100の動作を示すフローチャートである。
≪Operation≫
The operation of the image display device 100 will be described below with reference to the drawings. FIG. 2 is a flowchart showing the operation of the image display device 100.

まず、形態画像取得部110において、形態画像を取得する(ステップS10)。 First, the morphological image acquisition unit 110 acquires a morphological image (step S10).

次に、機能画像取得部120において、機能画像を取得する(ステップS20)。 Next, the functional image acquisition unit 120 acquires a functional image (step S20).

次に、形態画像と機能画像を重畳合成する(ステップS30)。ここでは、所定の不透明率α=0.5(50%)を用いて、形態画像と機能画像を重畳合成する。これにより、図3(a)に示す形態画像200に図3(b)に示す機能画像300が重畳合成され、表示画像400が形成される。この例では、臓器の像203の内部に境界301が存在し、当該臓器内に活動領域である領域301が表示されている。同様に、臓器の像204の内部に境界302が存在し、当該臓器内の活動領域である領域312が表示されている。一方、皮下の活動領域である領域303は、その境界313の一部が皮膚の像201の外部に存在しており、被検者が存在しない位置に活動領域のみが存在する画像となっている。この理由は、機能画像300と形態画像200が同時に取得されておらず、皮膚表面と臓器との相対位置関係が機能画像300と形態画像200とで一致しないためである。ここでは、基準点と皮膚表面との相対位置関係が機能画像300と形態画像200とで一致しているため、表示画像400は、図3(c)に示すように、皮膚の像近傍では、器官の像に対応する皮膚表面と、当該器官の像に重畳された活動領域に対応する場所である皮膚表面とが一致しており、位置ずれが生じない。一方で、臓器の像202、203の近傍では、臓器の像に対応する実際の臓器の領域と、当該臓器の像に重畳された活動領域に対応する実際の臓器の領域とが一致せず、臓器の像と活動領域の表示位置に位置ずれが生じる。 Next, the morphological image and the functional image are superimposed and synthesized (step S30). Here, the morphological image and the functional image are superimposed and synthesized using a predetermined opacity rate α=0.5 (50%). As a result, the functional image 300 shown in FIG. 3(b) is superimposed on the morphological image 200 shown in FIG. 3(a), and a display image 400 is formed. In this example, a boundary 301 exists inside the organ image 203, and a region 301 that is an active region is displayed within the organ. Similarly, a boundary 302 exists within the organ image 204, and a region 312 that is an active region within the organ is displayed. On the other hand, a part of the boundary 313 of the region 303, which is a subcutaneous active region, exists outside the skin image 201, resulting in an image in which only the active region exists in a position where the subject is not present. . The reason for this is that the functional image 300 and the morphological image 200 are not acquired at the same time, and the relative positional relationship between the skin surface and the organ does not match between the functional image 300 and the morphological image 200. Here, since the relative positional relationship between the reference point and the skin surface is the same between the functional image 300 and the morphological image 200, the displayed image 400 has, as shown in FIG. The skin surface corresponding to the image of the organ and the skin surface corresponding to the active area superimposed on the image of the organ match, and no positional deviation occurs. On the other hand, in the vicinity of the organ images 202 and 203, the actual organ area corresponding to the organ image and the actual organ area corresponding to the active area superimposed on the organ image do not match. A positional shift occurs between the organ image and the display position of the active area.

次に、機能画像300と形態画像200との位置調整が必要か否かの入力を受け付ける(ステップS40)。位置調整が必要である旨の入力は、例えば、表示画像上でのドラッグの開始とすることができる。または、例えば、表示画像上または表示画像の側面等に、位置調整モードのアイコンを表示し、アイコンがクリックされたことを位置調整が必要である旨の入力としてもよい。 Next, an input as to whether positional adjustment between the functional image 300 and the morphological image 200 is necessary is accepted (step S40). The input indicating that position adjustment is necessary can be, for example, the start of dragging on the displayed image. Alternatively, for example, a position adjustment mode icon may be displayed on the display image or on the side of the display image, and clicking the icon may be used as an input indicating that position adjustment is necessary.

ユーザーから位置調整が必要であるとの入力があった場合(ステップS40でYes)、まず、機能画像の透過度に基づいて機能画像の強調処理を行う。このとき、不透明率は50%であるので、強調処理の程度は中程度であると決定する。なお、不透明率が小さい(表示画像において明瞭でない)場合は、強調を強く、不透明率が大きい場合には、強調を弱くする、としてもよい。このようにすることで、表示画像上において機能画像が不鮮明であるほど強調を強くして位置調整を容易とすることができる。図4(b)に示す強調後の機能画像350は、図3(b)に示す強調前の機能画像300に対して強調処理を行った結果である。図4(b)に示すとおり、強調処理によって、境界361、362、363が強調され、また、領域351、352、353が均一かつ明瞭な領域となっている。 When the user inputs that position adjustment is necessary (Yes in step S40), first, the functional image is emphasized based on the transparency of the functional image. At this time, since the opacity rate is 50%, the degree of emphasis processing is determined to be medium. Note that if the opacity is small (not clear in the displayed image), the emphasis may be strong, and if the opacity is large, the emphasis may be weak. By doing so, the more unclear the functional image is on the display image, the stronger the emphasis can be made to facilitate position adjustment. The enhanced functional image 350 shown in FIG. 4(b) is the result of performing enhancement processing on the pre-emphasized functional image 300 shown in FIG. 3(b). As shown in FIG. 4B, the boundaries 361, 362, and 363 are emphasized by the emphasis process, and the regions 351, 352, and 353 are uniform and clear regions.

次に、形態画像の透過度に基づいて形態画像の強調処理を行う。このとき、透過率は50%であるので、強調処理の程度は中程度であると決定する。なお、透過率が大きい(表示画像上での表示が弱い)場合は、強調を強く、透過率が小さい場合には、強調を弱くする、としてもよい。このようにすることで、表示画像上において形態画像が不鮮明であるほど強調を強くして位置調整を容易とすることができる。図4(a)に示す強調後の形態画像250は、図3(a)に示す強調前の形態画像200に対して強調処理を行った結果である。図4(a)に示すとおり、強調処理によって、組織の像251、252、253、254が明瞭な境界を有する状態となっている。 Next, the morphological image is enhanced based on the transparency of the morphological image. At this time, since the transmittance is 50%, the degree of enhancement processing is determined to be medium. Note that if the transmittance is high (the display on the display image is weak), the emphasis may be strong, and if the transmittance is small, the emphasis may be weak. By doing so, the more unclear the morphological image is on the display image, the stronger the emphasis can be made to facilitate position adjustment. The enhanced morphological image 250 shown in FIG. 4(a) is the result of performing enhancement processing on the unenhanced morphological image 200 shown in FIG. 3(a). As shown in FIG. 4A, the tissue images 251, 252, 253, and 254 have clear boundaries due to the enhancement process.

次に、ユーザーから位置調整の指示を受け付ける(ステップS70)。例えば、入力部32がマウスやトラックボールである場合には、ドラッグ動作による移動の向きと距離を位置調整の指示として受け付ける。また、入力部32がタッチパネルである場合には、例えば、ドラッグ動作による移動前座標と移動後座標との差を位置調整の指示として受け付ける。なお、入力はこれに限られず、入力部32がキーボードを含む場合は、カーソルキーの押下を当該方向への位置調整の指示として受け付けてもよい。 Next, an instruction for position adjustment is received from the user (step S70). For example, when the input unit 32 is a mouse or a trackball, the direction and distance of movement by a drag operation are accepted as position adjustment instructions. Further, when the input unit 32 is a touch panel, for example, the difference between the coordinates before movement and the coordinates after movement due to a drag operation is accepted as an instruction for position adjustment. Note that the input is not limited to this, and if the input unit 32 includes a keyboard, pressing of a cursor key may be accepted as an instruction to adjust the position in that direction.

次に、強調後の形態画像に強調後の機能画像を重畳合成する(ステップS80)。このとき、ステップS70において受け付けた入力に基づいて形態画像と機能画像との相対位置を変更する。例えば、ステップS70において、機能画像の位置をx方向にdxだけ、y方向にdyだけ移動させる指示を受け付けた場合、形態画像の基準点である中心点から、機能画像の基準点である中心点へのベクトルが(dx,dy)となるように相対位置を調整する。すなわち、合成後の表示画像の座標(x1,y1)の画素値は、強調処理後の形態画像の座標(x1,y1)の画素値と、強調処理後の機能画像の座標(x1-dx,y1-dy)の画素値との重畳合成によって生成される。したがって、入力がなければ図4(c)に示すような合成後の表示画像が生成されるところ、入力を反映し図5(a)に示すように、臓器の像351の内部に活動領域251が存在するような状態の表示画像が生成される。このとき、形態画像と表示画像はいずれも強調処理がなされているため、ユーザーは、表示画像により、着目したい領域において、形態画像と機能画像が適切に重畳されているかを確認することができる。ここでは、臓器の像301の近傍に着目したいため、臓器の像351の内部に活動領域251が存在する状態であるか否かを確認できる。 Next, the enhanced functional image is superimposed and synthesized on the enhanced morphological image (step S80). At this time, the relative positions of the morphological image and the functional image are changed based on the input received in step S70. For example, in step S70, if an instruction is received to move the position of the functional image by dx in the x direction and by dy in the y direction, from the center point that is the reference point of the morphological image to the center point that is the reference point of the functional image. Adjust the relative position so that the vector to becomes (dx, dy). That is, the pixel value at the coordinates (x1, y1) of the display image after synthesis is the pixel value at the coordinates (x1, y1) of the morphological image after the emphasis process, and the coordinate (x1-dx, It is generated by superimposition synthesis with the pixel value of y1-dy). Therefore, if there is no input, a synthesized display image as shown in FIG. 4(c) would be generated, but as shown in FIG. A display image is generated in such a state that . At this time, since both the morphological image and the display image have been subjected to enhancement processing, the user can check whether the morphological image and the functional image are appropriately superimposed in the area of interest from the display image. Here, since it is desired to focus on the vicinity of the organ image 301, it is possible to check whether or not the active region 251 exists inside the organ image 351.

次に、ユーザーから形態画像と機能画像の相対位置を確定するか否かの指示を受け付ける(ステップS90)。例えば、表示画像上でのドラッグの開始を位置調整が必要である旨の入力とした場合には、ドラッグの終了を形態画像と機能画像の相対位置を確定する旨の入力とすることができる。または、例えば、位置調整モードのアイコンのクリックを位置調整が必要である旨の入力とした場合には、位置調整モードのアイコンの再度のクリックを形態画像と表示画像の相対位置を確定する旨の入力としてもよい。形態画像と機能画像の相対位置を確定する旨の入力がない場合(ステップS90でNo)、ステップS70に戻り、位置調整指示をさらに受け取って再度のステップS80によりこれを表示画像に反映する。このとき、形態画像と機能画像の相対位置としては、全てのステップS70において受け付けた入力を累積したものを適用する。 Next, an instruction is received from the user as to whether or not to determine the relative positions of the morphological image and the functional image (step S90). For example, if the start of dragging on the display image is an input indicating that position adjustment is necessary, the end of dragging can be an input indicating that the relative positions of the morphological image and the functional image are to be determined. Or, for example, if clicking the position adjustment mode icon is used as an input that position adjustment is necessary, clicking the position adjustment mode icon again can be used as an input to confirm the relative position of the morphological image and the display image. It can also be used as input. If there is no input to confirm the relative position of the morphological image and the functional image (No in step S90), the process returns to step S70, receives a further position adjustment instruction, and reflects this on the display image in step S80 again. At this time, as the relative positions of the morphological image and the functional image, the accumulated inputs received in all steps S70 are applied.

一方、形態画像と表示画像の相対位置を確定する旨の入力がある場合(ステップS90でYes)、強調前の形態画像上に強調前の機能画像を重畳合成する(ステップS100)。このとき、形態画像と機能画像との相対位置関係としては、最後にステップS80で反映した状態を反映する。すなわち、ステップS70が一度だけ実施された場合、当該ステップS70において受け付けた入力を反映する。また、ステップS70が2度以上実施された場合、それぞれのステップS70で受け付けた入力を累積したものを反映する。すなわち、1度目のステップS70の入力が(dx1,dy1)に対応し、2度目のステップS70の入力が(dx2,dy2)に対応する場合、(dx1+dx2,dy1+dy2)だけ、形態画像の基準点である中心点から機能画像の基準点である中心点の位置をずらした状態で重畳合成を行う。したがって、最後に実施されたステップS80で生成された表示画像に対し、形態画像と機能画像の強調処理が解除された状態の画像が形成される。例えば、ステップS80において図5(a)の表示画像410を生成した場合、図5(b)の表示画像400に示すように強調処理のみが解除された状態となる。これにより、形態画像と機能画像との位置合わせの際の強調処理が、読影時のノイズや誤診の原因となり得るようなものであっても、ステップS80で形成された表示画像を読影することにより、強調処理が読影に悪影響を与えることを抑止できる。 On the other hand, if there is an input to determine the relative position of the morphological image and the display image (Yes in step S90), the functional image before emphasis is superimposed and synthesized on the morphological image before emphasis (step S100). At this time, the state last reflected in step S80 is reflected as the relative positional relationship between the morphological image and the functional image. That is, when step S70 is performed only once, the input received in step S70 is reflected. Furthermore, if step S70 is performed twice or more, the accumulated inputs received in each step S70 are reflected. In other words, if the input in step S70 for the first time corresponds to (dx1, dy1) and the input for step S70 for the second time corresponds to (dx2, dy2), only (dx1+dx2, dy1+dy2) is added at the reference point of the morphological image. Superposition synthesis is performed with the center point, which is the reference point of the functional image, shifted from a certain center point. Therefore, with respect to the display image generated in the last step S80, an image is formed in which the emphasis processing of the morphological image and the functional image has been canceled. For example, when the display image 410 of FIG. 5(a) is generated in step S80, only the emphasis processing is canceled as shown in the display image 400 of FIG. 5(b). As a result, even if the emphasis processing when aligning the morphological image and the functional image may cause noise or misdiagnosis during image interpretation, the displayed image formed in step S80 can be interpreted. , it is possible to prevent the enhancement process from having a negative effect on image interpretation.

なお、機能画像300と形態画像200との位置調整が必要である旨の入力がない場合(ステップS40でNo)、ステップS30で生成した表示画像を読影することができる。 Note that if there is no input indicating that positional adjustment between the functional image 300 and the morphological image 200 is necessary (No in step S40), the displayed image generated in step S30 can be interpreted.

≪小括≫
上記構成によれば、機能画像と形態画像との重畳を行う際、機能画像と形態画像に強調処理を行うことで、形態画像内の組織の像と機能画像内の活動領域とを容易に対応付けることができる。したがって、同一の被検者の同一部位を同一の断面に沿った機能画像と形態画像との間で器官間の位置関係が同一でない場合にも、着目した器官や領域について位置合わせを容易に行うことができ、画像に基づきより正確な診断が可能となる。また、上記構成では、機能画像と形態画像の位置合わせの完了後、機能画像と形態画像への強調処理を解除する。この構成によれば、強調処理によって虚像の生成や活動領域の拡大や変形といった読影に影響するノイズが生成する場合においても、読影時にノイズの影響を排除することができる。したがって、読影の精度に影響させることなく、機能画像と形態画像の位置合わせのみを精度良く行うことができる。
≪Summary≫
According to the above configuration, when the functional image and the morphological image are superimposed, the tissue image in the morphological image and the active area in the functional image can be easily matched by performing emphasis processing on the functional image and the morphological image. be able to. Therefore, even if the positional relationship between organs is not the same between a functional image and a morphological image of the same part of the same subject along the same cross section, it is easy to align the organs or regions of interest. This enables more accurate diagnosis based on images. Further, in the above configuration, after the alignment of the functional image and the morphological image is completed, the emphasis processing on the functional image and the morphological image is canceled. According to this configuration, even when noise that affects image interpretation, such as generation of a virtual image or enlargement or deformation of an active region, is generated due to enhancement processing, the influence of noise can be eliminated during image interpretation. Therefore, only the positioning of the functional image and the morphological image can be performed with high precision without affecting the accuracy of image interpretation.

≪実施の形態に係るその他の変形例≫
(1)実施の形態では、機能画像と形態画像の両方に強調を行うとした。しかしながら、機能画像と形態画像の一方のみに強調を行うとしてもよい。このとき、不透明度の低い画像に強調を行うことで、強調の効果を向上させることができる。例えば、機能画像の不透明度が50%より大きい場合には図6(a)のように形態画像の強調を行い、機能画像の不透明度が50%以下であるときには図6(b)のように機能画像の強調を行うとしてもよい。このようにすることで、表示画像における明瞭性の低い画像を強調することができ、器官の像と活動領域の形状との比較が容易となって位置合わせが容易となる。
≪Other modifications of the embodiment≫
(1) In the embodiment, it is assumed that both functional images and morphological images are emphasized. However, only one of the functional image and the morphological image may be emphasized. At this time, the effect of emphasis can be improved by emphasizing an image with low opacity. For example, when the opacity of the functional image is greater than 50%, the morphological image is emphasized as shown in Figure 6(a), and when the opacity of the functional image is less than 50%, the morphological image is emphasized as shown in Figure 6(b). Functional images may be emphasized. By doing so, images with low clarity in the displayed image can be emphasized, and the image of the organ and the shape of the active region can be easily compared, and alignment can be facilitated.

(2)実施の形態では、機能画像と形態画像はいずれも2次元画像として画像表示装置に取得されるとした。しかしながら、例えば、少なくとも一方が3次元ボクセルデータであるとしてもよい。一例として、形態画像が被検者体内の位置情報を含む2次元画像であり、機能画像が被検者体内の位置情報を含む3次元ボクセルデータであってもよく、この場合、機能画像取得部は、形態画像の位置情報に沿って3次元ボクセルデータから2次元カラーマップを生成すればよい。 (2) In the embodiment, it is assumed that both the functional image and the morphological image are acquired by the image display device as two-dimensional images. However, for example, at least one of the data may be three-dimensional voxel data. As an example, the morphological image may be a two-dimensional image containing positional information within the subject's body, and the functional image may be three-dimensional voxel data containing positional information within the subject's body. In this case, the functional image acquisition unit What is necessary is to generate a two-dimensional color map from three-dimensional voxel data in accordance with the position information of the morphological image.

(3)実施の形態では、形態画像がグレースケール画像、機能画像がカラーマップであるとした。しかしながら、機能画像がグレースケール画像であってもよい。この場合、機能画像取得部または画像合成部は、機能画像をカラーマップに変換してから重畳合成することが好ましい。また、機能画像と形態画像とで基準点の位置、縮尺、画像の向きが異なる場合に、機能画像取得部と形態画像取得部とのうち少なくとも一方が基準点の位置、縮尺、画像の向きを揃える処理を行うとしたが、この処理を画像合成部が重畳合成や強調処理に先立って行うとしてもよい。 (3) In the embodiment, the morphological image is a grayscale image, and the functional image is a color map. However, the functional image may be a grayscale image. In this case, it is preferable that the functional image acquisition unit or the image synthesis unit converts the functional images into a color map and then performs superimposition synthesis. Furthermore, when the position, scale, and orientation of the reference point are different between the functional image and the morphological image, at least one of the functional image acquisition section and the morphological image acquisition section may change the position, scale, and orientation of the reference point. Although the alignment processing is performed, this processing may be performed by the image compositing section prior to the superimposition compositing or emphasis processing.

(4)なお、本発明を上記実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されず、以下のような場合も本発明に含まれる。 (4) Although the present invention has been described based on the above embodiments, the present invention is not limited to the above embodiments, and the following cases are also included in the present invention.

例えば、本発明において、画像表示装置は、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)をプロセッサとした装置であってもよい。また、画像表示装置と表示部と入力部とは、単一の装置として実現されてもよい。 For example, in the present invention, the image display device may be a device using an FPGA (Field Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit) as a processor. Further, the image display device, the display section, and the input section may be realized as a single device.

また、上記の各装置を構成する構成要素の一部又は全部は、1つのシステムLSI(Large Scale Integration(大規模集積回路))から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。なお、LSIは、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。上記RAMには、上記各装置と同様の動作を達成するコンピュータプログラムが記憶されている。上記マイクロプロセッサが、上記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。例えば、本発明の画像表示方法がLSIのプログラムとして格納されており、このLSIがコンピュータ内に挿入され、所定のプログラムを実施する場合も本発明に含まれる。 Furthermore, some or all of the components constituting each of the above devices may be composed of one system LSI (Large Scale Integration). A system LSI is a super-multifunctional LSI manufactured by integrating multiple components on a single chip, and specifically, it is a computer system that includes a microprocessor, ROM, RAM, etc. . These may be integrated into one chip individually, or may be integrated into one chip including some or all of them. Note that LSIs are sometimes called ICs, system LSIs, super LSIs, and ultra LSIs depending on the degree of integration. The RAM stores a computer program that achieves the same operations as each of the devices described above. The system LSI achieves its functions by the microprocessor operating according to the computer program. For example, the present invention also includes a case where the image display method of the present invention is stored as an LSI program, and this LSI is inserted into a computer to execute a predetermined program.

なお、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGAや、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサー(Reconfigurable Processor)を利用してもよい。 Note that the method of circuit integration is not limited to LSI, and may be implemented using a dedicated circuit or a general-purpose processor. An FPGA that can be programmed or a reconfigurable processor that can reconfigure the connections and settings of circuit cells inside the LSI may be used after the LSI is manufactured.

さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。 Furthermore, if an integrated circuit technology that replaces LSI emerges due to advancements in semiconductor technology or other derived technology, then of course the functional blocks may be integrated using that technology.

上記実施の形態に係る形態画像データベースおよび機能画像データベースでは、記憶部をサーバに含む構成としたが、記憶部はこれに限定されず、半導体メモリ、ハードディスクドライブ、光ディスクドライブ、磁気記憶装置、等が、サーバに外部から接続される構成であってもよい。または、記憶部またはこれに代わる機構を含む装置、例えば、ファイルサーバの機能を有するサーバコンピュータが、断層画像データベースとは独立して画像表示システムに含まれる構成であってもよい。 In the morphological image database and functional image database according to the above embodiments, the storage unit is included in the server, but the storage unit is not limited to this, and may include a semiconductor memory, a hard disk drive, an optical disk drive, a magnetic storage device, etc. , the configuration may be such that the server is connected to the server from the outside. Alternatively, a device including a storage unit or a mechanism in place of the storage unit, for example, a server computer having the function of a file server, may be included in the image display system independently of the tomographic image database.

また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。 Furthermore, the division of functional blocks in the block diagram is just an example; multiple functional blocks may be realized as one functional block, one functional block may be divided into multiple functional blocks, or some functions may be moved to other functional blocks. It's okay. Further, functions of a plurality of functional blocks having similar functions may be processed in parallel or in a time-sharing manner by a single piece of hardware or software.

また、上記のステップが実行される順序は、本発明を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 Further, the order in which the above steps are executed is merely an example for specifically explaining the present invention, and an order other than the above may be used. Further, some of the above steps may be executed simultaneously (in parallel) with other steps.

また、各実施の形態に係る画像表示装置、及びその変形例の機能のうち少なくとも一部を組み合わせてもよい。更に上記で用いた数字は、全て本発明を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。 Further, at least some of the functions of the image display device according to each embodiment and the modified examples thereof may be combined. Furthermore, all the numbers used above are exemplified to specifically explain the present invention, and the present invention is not limited to the exemplified numbers.

さらに、本実施の形態に対して当業者が思いつく範囲内の変更を施した各種変形例も本発明に含まれる。 Furthermore, the present invention also includes various modifications of the present embodiment that are within the scope of those skilled in the art.

≪まとめ≫
(1)本開示の一態様に係る医用画像表示装置は、被検者の同一の部位から取得された、組織の構造を示す2次元画像である第1の画像と、生体の活動状態を示す2次元画像である第2の画像とを取得する画像取得部と、前記第1の画像に前記第2の画像を重畳した合成画像を生成する画像合成部と、前記合成画像を表示する表示部と、前記第1の画像の基準画素と前記第2の画像の基準画素との相対位置を示す入力を受け付ける入力部とを備え、前記入力部が前記相対位置を示す入力を受け付けると、前記画像合成部は、前記第1の画像と前記第2の画像の少なくとも一方に強調処理を行った上で、前記相対位置に基づいて、前記第1の画像に前記第2の画像を重畳した合成画像を再度合成し、前記表示部は、前記再度合成された合成画像を表示する。
≪Summary≫
(1) A medical image display device according to one aspect of the present disclosure includes a first image, which is a two-dimensional image showing a tissue structure, obtained from the same region of a subject, and a first image showing an active state of a living body. an image acquisition unit that acquires a second image that is a two-dimensional image; an image synthesis unit that generates a composite image by superimposing the second image on the first image; and a display unit that displays the composite image. and an input section that receives an input indicating a relative position between a reference pixel of the first image and a reference pixel of the second image, and when the input section receives an input indicating the relative position, the input section The compositing unit performs enhancement processing on at least one of the first image and the second image, and then creates a composite image in which the second image is superimposed on the first image based on the relative position. are synthesized again, and the display unit displays the synthesized image that has been synthesized again.

また、本開示の一態様に係る医用画像表示方法は、被検者の同一の部位から取得された、組織の構造を示す2次元画像である第1の画像と、生体の活動状態を示す2次元画像である第2の画像とを取得し、前記第1の画像に前記第2の画像を重畳した合成画像を生成して表示し、前記第1の画像の基準画素と前記第2の画像の基準画素との相対位置を示す入力を受け付けると、前記第1の画像と前記第2の画像の少なくとも一方に強調処理を行った上で、前記相対位置に基づいて、前記第1の画像に前記第2の画像を重畳した合成画像を再度合成して表示することを特徴とする。 Further, a medical image display method according to an aspect of the present disclosure includes a first image that is a two-dimensional image showing a tissue structure obtained from the same region of a subject, and a second image showing an active state of a living body. a second image that is a dimensional image, generate and display a composite image in which the second image is superimposed on the first image, and display the reference pixel of the first image and the second image. When an input indicating a relative position with respect to a reference pixel is received, an emphasis process is performed on at least one of the first image and the second image, and an image is displayed on the first image based on the relative position. The present invention is characterized in that a composite image obtained by superimposing the second image is composited again and displayed.

また、本開示の一態様に係るプログラムは、コンピュータに医用画像を表示させるプログラムであって、前記医用画像を表示する処理は、被検者の同一の部位から取得された、構造を示す断層画像である第1の画像と、生体の活動状態を示す断層画像である第2の画像とを取得し、前記第1の画像の基準画素と前記第2の画像の基準画素との相対位置を示す入力を受け付けると、前記第1の画像と前記第2の画像の少なくとも一方に強調処理を行った上で、前記相対位置に基づいて前記第1の画像に前記第2の画像を重畳した合成画像を生成することを特徴とする。 Further, a program according to an aspect of the present disclosure is a program that causes a computer to display a medical image, and the process of displaying the medical image includes a tomographic image showing a structure obtained from the same region of the subject. A first image, which is a tomographic image, and a second image, which is a tomographic image showing an active state of the living body, are acquired, and the relative positions of a reference pixel of the first image and a reference pixel of the second image are indicated. When the input is received, a composite image is created in which the second image is superimposed on the first image based on the relative position after performing emphasis processing on at least one of the first image and the second image. It is characterized by generating.

上記医用画像表示装置、医用画像表示方法、またはプログラムによれば、第1の画像と第2の画像との重畳表示を行う場合において、第1の画像と第2の画像との位置合わせの少なくとも一方が強調された状態で表示される。したがって、視認性を向上させた状態で第1の画像と第2の画像との位置合わせを行うことができるため、ユーザーによる位置合わせが容易となる。 According to the above medical image display device, medical image display method, or program, when performing superimposed display of the first image and the second image, at least One side is displayed with emphasis. Therefore, since the first image and the second image can be aligned with improved visibility, alignment by the user is facilitated.

(2)また、上記(1)の医用画像表示装置は、前記画像合成部は、前記表示画像を生成する際の第2の画像の不透明率が低いほど、前記第2の画像の強調処理の強調度を強くする、としてもよい。 (2) Further, in the medical image display device of (1) above, the image synthesis unit is configured to increase the emphasis processing of the second image as the opacity of the second image is lower when generating the display image. It is also possible to increase the degree of emphasis.

上記構成により、第2の画像の視認性が低いほど強調度を強くすることで、過度の強調を抑止しつつ適度な強調により視認性を向上させることができる。 With the above configuration, the degree of emphasis is made stronger as the visibility of the second image is lower, thereby making it possible to improve visibility through appropriate emphasis while suppressing excessive emphasis.

(3)また、上記(1)~(2)の医用画像表示装置は、前記第2の画像は、PET、造影CT、造影MRIのいずれかである、としてもよい。 (3) Furthermore, in the medical image display device of (1) to (2) above, the second image may be one of PET, contrast-enhanced CT, and contrast-enhanced MRI.

上記構成により、生体内の物質または反応程度の分布に基づいて生体の活動状態を評価することができる。 With the above configuration, the activity state of the living body can be evaluated based on the distribution of substances or reaction levels within the living body.

(4)また、上記(1)~(3)の医用画像表示装置は、前記画像合成部は、前記表示画像を生成する際の第1の画像の不透明率が低いほど、前記第1の画像の強調処理の強調度を強くする、としてもよい。 (4) Furthermore, in the medical image display device according to (1) to (3) above, the image synthesis unit is configured such that the lower the opacity of the first image when generating the display image, the lower the opacity of the first image. It is also possible to increase the emphasis level of the emphasis process.

上記構成により、第1の画像の視認性が低いほど強調度を強くすることで、過度の強調を抑止しつつ視適度な強調により視認性を向上させることができる。 With the above configuration, by increasing the degree of emphasis as the visibility of the first image is lower, it is possible to improve visibility by appropriately emphasizing visibility while suppressing excessive emphasis.

(5)また、上記(1)~(4)の医用画像表示装置は、前記第1の画像は、CTまたはMRIから生成された断層画像、断層X線、超音波断層画像のいずれかである、としてもよい。 (5) Furthermore, in the medical image display device of (1) to (4) above, the first image is any one of a tomographic image generated from CT or MRI, a tomographic X-ray, or an ultrasound tomographic image. , may also be used.

上記構成により、解剖学的見地に基づいて、生体の活動状態を評価することができる。 With the above configuration, the activity state of the living body can be evaluated based on an anatomical viewpoint.

(6)また、上記(1)~(5)の医用画像表示装置は、前記入力部が前記相対位置関係の入力の受付を終了したとき、前記強調処理を解除する、としてもよい。 (6) Furthermore, in the medical image display device of (1) to (5) above, the emphasis processing may be canceled when the input unit finishes accepting the input of the relative positional relationship.

上記構成により、位置合わせのための強調が読影の精度を低下させることを抑止することができる。 With the above configuration, it is possible to prevent enhancement for alignment from deteriorating the accuracy of image interpretation.

本開示はPET画像等の機能画像を、CTやMRIの断層画像と組み合わせて読影する際に容易に位置調整をする技術として有用である。 The present disclosure is useful as a technique for easily adjusting the position when interpreting a functional image such as a PET image in combination with a tomographic image of CT or MRI.

100 画像表示装置
110 形態画像取得部
120 機能画像取得部
130 画像合成部
140 表示制御部
150 制御部
10 形態画像データベース
20 機能画像データベース
31 表示部
32 入力部
100 Image display device 110 Morphological image acquisition section 120 Functional image acquisition section 130 Image composition section 140 Display control section 150 Control section 10 Morphological image database 20 Functional image database 31 Display section 32 Input section

Claims (8)

被検者の同一の部位から取得された、組織の構造を示す2次元画像である第1の画像と、生体の活動状態を示す2次元画像である第2の画像とを取得する画像取得部と、
前記第1の画像に前記第2の画像を重畳した第1の合成画像を生成する画像合成部と、
示部と、
前記第1の合成画像を前記表示部に表示させる表示制御部と、
ユーザーから、前記第1の画像と前記第2の画像との相対的な位置調整が必要であることを示す第1の指示と、前記第1の画像と前記第2の画像との相対位置をどれだけ変更するかを示す第2の指示の入力を受け付ける入力部と
を備え、
前記入力部が前記第1の指示の入力を受け付けると、前記画像合成部は、前記第1の画像と前記第2の画像の少なくとも一方に強調処理を行った上で、前記受け付けられた第2の指示による前記相対位置の変更に基づいて、前記強調処理が行われた後の前記第1の画像に前記第2の画像を重畳した状態の第2の合成画像を生成し、前記表示制御部は、前記第2の合成画像を前記表示部に表示させる
ことを特徴とする医用画像表示装置。
an image acquisition unit that acquires a first image, which is a two-dimensional image showing the structure of the tissue, and a second image, which is a two-dimensional image showing the active state of the living body, obtained from the same part of the subject; and,
an image synthesis unit that generates a first composite image in which the second image is superimposed on the first image;
A display section;
a display control unit that causes the first composite image to be displayed on the display unit;
A first instruction from a user indicating that relative positional adjustment between the first image and the second image is required, and a relative position adjustment between the first image and the second image. an input section that accepts input of a second instruction indicating how much to change the position ;
When the input unit receives the input of the first instruction , the image synthesis unit performs an emphasis process on at least one of the first image and the second image, and then generates a second composite image in which the second image is superimposed on the first image after the emphasis processing , based on the change in the relative position according to the instruction from the display controller ; causes the second composite image to be displayed on the display unit.
A medical image display device characterized by:
前記画像合成部は、前記第2の合成画像を生成する際の第2の画像の不透明率が低いほど、前記第2の画像の強調処理の強調度を強くする
ことを特徴とする請求項1に記載の医用画像表示装置。
1 . The image synthesis unit, when generating the second composite image, increases the degree of emphasis in the enhancement process of the second image as the opacity of the second image decreases. The medical image display device described in .
前記第2の画像は、PET、造影CT、造影MRIのいずれかである
ことを特徴とする請求項1または2に記載の医用画像表示装置。
The medical image display device according to claim 1 or 2, wherein the second image is one of PET, contrast-enhanced CT, and contrast-enhanced MRI.
前記画像合成部は、前記第2の合成画像を生成する際の第1の画像の不透明率が低いほど、前記第1の画像の強調処理の強調度を強くする
ことを特徴とする請求項1から3のいずれか1項に記載の医用画像表示装置。
1 . The image synthesis unit is configured to increase the degree of emphasis in the enhancement process of the first image as the opacity of the first image is lower when generating the second synthesized image. 10 . 3. The medical image display device according to any one of 3 to 3.
前記第1の画像は、CTまたはMRIから生成された断層画像、超音波断層画像のいずれかである
ことを特徴とする請求項1から4に記載の医用画像表示装置。
The medical image display device according to claim 1, wherein the first image is either a tomographic image generated from CT or MRI, or an ultrasound tomographic image.
前記入力部は、ユーザーからさらに、前記第2の指示により変更された前記相対位置を確定することを示す第3の指示の入力を受け付け、
前記画像合成部は、前記入力部が前記第3の指示の入力を受け付けると、前記確定した前記相対位置に基づいて、強調前の前記第1の画像に強調前の前記第2の画像を重畳した第3の合成画像を生成し、前記表示制御部は、前記第3の合成画像を前記表示部に表示させる
ことを特徴とする請求項1から5のいずれか1項に記載の医用画像表示装置。
The input unit further receives input from the user of a third instruction indicating that the relative position changed by the second instruction is to be determined,
When the input unit receives the input of the third instruction, the image synthesis unit superimposes the second image before emphasis on the first image before emphasis based on the determined relative position. and the display control unit displays the third composite image on the display unit .
The medical image display device according to any one of claims 1 to 5.
被検者の同一の部位から取得された、組織の構造を示す2次元画像である第1の画像と、生体の活動状態を示す2次元画像である第2の画像とを取得し、
前記第1の画像に前記第2の画像を重畳した第1の合成画像を生成して表示部に表示し、
ユーザーから、前記第1の画像と前記第2の画像との相対的な位置調整が必要であることを示す第1の指示の入力を受け付けると、前記第1の画像と前記第2の画像の少なくとも一方に強調処理を行った上で、ユーザーから、前記第1の画像と前記第2の画像との相対位置をどれだけ変更するかを示す第2の指示の入力を受け付けると、前記受け付けられた第2の指示による前記相対位置の変更に基づいて、前記強調処理が行われた後の前記第1の画像に前記第2の画像を重畳した状態の第2の合成画像を生成して前記表示部に表示する
ことを特徴とする医用画像表示方法。
Obtaining a first image, which is a two-dimensional image showing the structure of the tissue, and a second image, which is a two-dimensional image showing the active state of the living body, obtained from the same part of the subject,
generating a first composite image in which the second image is superimposed on the first image and displaying it on a display unit ;
Upon receiving input from the user of a first instruction indicating that relative position adjustment between the first image and the second image is necessary , the first image and the second image are adjusted. After performing enhancement processing on at least one of the images , when receiving input from a user of a second instruction indicating how much to change the relative position of the first image and the second image, Generating a second composite image in which the second image is superimposed on the first image after the enhancement process is performed , based on the change in the relative position according to the accepted second instruction . A medical image display method, characterized in that the image is displayed on the display section .
コンピュータに医用画像を表示させるプログラムであって、
前記医用画像を表示する処理は、
被検者の同一の部位から取得された、構造を示す断層画像である第1の画像と、生体の活動状態を示す断層画像である第2の画像とを取得し、
前記第1の画像に前記第2の画像を重畳した第1の合成画像を生成して表示部に表示し、
ユーザーから、前記第1の画像と前記第2の画像との相対的な位置調整が必要であることを示す第1の指示の入力を受け付けると、前記第1の画像と前記第2の画像の少なくとも一方に強調処理を行った上で、ユーザーから、前記第1の画像と前記第2の画像との相対位置をどれだけ変更するかを示す第2の指示の入力を受け付けると、前記受け付けられた第2の指示による前記相対位置の変更に基づいて、前記強調処理が行われた後の前記第1の画像に前記第2の画像を重畳した状態の第2の合成画像を生成して前記表示部に表示する
ことを特徴とするプログラム。
A program that displays medical images on a computer,
The process of displaying the medical image includes:
acquiring a first image, which is a tomographic image showing the structure, and a second image, which is a tomographic image showing the active state of the living body, obtained from the same part of the subject;
generating a first composite image in which the second image is superimposed on the first image and displaying it on a display unit;
When inputting a first instruction indicating that relative positional adjustment between the first image and the second image is required from the user , the first image and the second image are adjusted. After performing enhancement processing on at least one of the images , when receiving input from a user of a second instruction indicating how much to change the relative position of the first image and the second image, Generating a second composite image in which the second image is superimposed on the first image after the enhancement process is performed, based on the change in the relative position according to the accepted second instruction . A program characterized in that the program is configured to display on the display section .
JP2020050987A 2020-03-23 2020-03-23 Medical image display device, medical image display method, and program Active JP7447595B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020050987A JP7447595B2 (en) 2020-03-23 2020-03-23 Medical image display device, medical image display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020050987A JP7447595B2 (en) 2020-03-23 2020-03-23 Medical image display device, medical image display method, and program

Publications (2)

Publication Number Publication Date
JP2021148711A JP2021148711A (en) 2021-09-27
JP7447595B2 true JP7447595B2 (en) 2024-03-12

Family

ID=77848481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020050987A Active JP7447595B2 (en) 2020-03-23 2020-03-23 Medical image display device, medical image display method, and program

Country Status (1)

Country Link
JP (1) JP7447595B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048086A1 (en) * 2022-08-30 2024-03-07 ソニーグループ株式会社 Information processing device, information processing method, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070287905A1 (en) 2006-06-08 2007-12-13 Siemens Aktiengesellschaft Method for registering functional MR image data using radioscopy
JP2008050823A (en) 2006-08-24 2008-03-06 Orient Sokki Computer Kk Electronic key device
WO2008050823A1 (en) 2006-10-26 2008-05-02 Hitachi Medical Corporation Medical image display device
JP2009273597A (en) 2008-05-13 2009-11-26 Canon Inc Alignment processing device, aligning method, program and storage medium
JP5298417B2 (en) 2006-10-03 2013-09-25 株式会社デンソー Map data utilization device, navigation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070287905A1 (en) 2006-06-08 2007-12-13 Siemens Aktiengesellschaft Method for registering functional MR image data using radioscopy
JP2008050823A (en) 2006-08-24 2008-03-06 Orient Sokki Computer Kk Electronic key device
JP5298417B2 (en) 2006-10-03 2013-09-25 株式会社デンソー Map data utilization device, navigation device
WO2008050823A1 (en) 2006-10-26 2008-05-02 Hitachi Medical Corporation Medical image display device
JP2009273597A (en) 2008-05-13 2009-11-26 Canon Inc Alignment processing device, aligning method, program and storage medium

Also Published As

Publication number Publication date
JP2021148711A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
KR102269467B1 (en) Measurement point determination in medical diagnostic imaging
US8675944B2 (en) Method of registering image data
JP6367026B2 (en) Medical image processing apparatus and medical image processing method
US9471987B2 (en) Automatic planning for medical imaging
US8730237B2 (en) Coupling the viewing direction of a blood vessel&#39;s CPR view with the viewing angle on the 3D tubular structure&#39;s rendered voxel volume and/or with the C-arm geometry of a 3D rotational angiography device&#39;s C-arm system
US7796835B2 (en) Computer readable medium for image processing and image processing method
US8497862B2 (en) Method and apparatus for processing three dimensional images, and recording medium having a program for processing three dimensional images recorded therein
US9179893B2 (en) Image processing apparatus, image processing method, image processing system, and program
CN107194909B (en) Medical image processing apparatus and medical image processing method
US9390546B2 (en) Methods and systems for removing occlusions in 3D ultrasound images
CN110717961B (en) Multi-modal image reconstruction method and device, computer equipment and storage medium
US20100249591A1 (en) System and method for displaying ultrasound motion tracking information
US8907949B2 (en) Image display apparatus, method and program
US20040017370A1 (en) Medical visible image generating method
JP6429958B2 (en) Image processing apparatus, image processing method, and program
JP3989896B2 (en) Medical image processing apparatus, region of interest extraction method, and program
JP7447595B2 (en) Medical image display device, medical image display method, and program
CN115311191A (en) Generating reformatted views of three-dimensional anatomical scans using deep learning estimated scan scheme masks
US11317875B2 (en) Reconstruction of flow data
CN113658284A (en) X-ray image synthesis from CT images for training nodule detection systems
US11730384B2 (en) Fluid analysis apparatus, method for operating fluid analysis apparatus, and fluid analysis program
CN107170021B (en) Refined reconstruction of time-varying data
JP5100041B2 (en) Image processing apparatus and image processing program
US11335014B2 (en) Medical image diagnostic apparatus, medical image diagnostic method, and ultrasonic diagnostic apparatus
JP5383467B2 (en) Image processing apparatus, image processing method, image processing system, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210917

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20211005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240212

R150 Certificate of patent or registration of utility model

Ref document number: 7447595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150