JP2010172515A - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP2010172515A
JP2010172515A JP2009019054A JP2009019054A JP2010172515A JP 2010172515 A JP2010172515 A JP 2010172515A JP 2009019054 A JP2009019054 A JP 2009019054A JP 2009019054 A JP2009019054 A JP 2009019054A JP 2010172515 A JP2010172515 A JP 2010172515A
Authority
JP
Japan
Prior art keywords
image
human body
medical image
connected component
connected components
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009019054A
Other languages
Japanese (ja)
Inventor
Satoshi Ihara
聡志 井原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009019054A priority Critical patent/JP2010172515A/en
Publication of JP2010172515A publication Critical patent/JP2010172515A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To separate a human body area from the other area in a medical image even when a human body is brought into contact with a subject other than the human body such as a bed. <P>SOLUTION: An image acquiring part 1 acquires a plurality of CT images constituted of respective slice images when the head of a subject is sliced at a plurality of slice positions. A multi-valuing part 2 multi-values the respective CT images and generates multi-valued images. A coupling part 3 couples the connection components of the multi-valued images. A deleting part 4 deletes an area other than the human body from the CT images. A pseudo three-dimensional medical image generating part 5 generates a pseudo three-dimensional medical image by performing a minIP method, for example, on the basis of image information expressing the human body area of the CT images from which the area other than the human body is deleted. A display part 6 displays the pseudo three-dimensional medical image which is generated by the pseudo three-dimensional medical image generating part 5. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、医用画像から不要な部分を削除する画像処理装置および方法並びに画像処理方法をコンピュータに実行させることを特徴とするプログラムに関するものである。   The present invention relates to an image processing apparatus and method for deleting an unnecessary part from a medical image, and a program for causing a computer to execute the image processing method.

通常、X線CT装置等で人体を撮影する場合、被験者を寝台により支えて撮影を行うため、撮影により取得される医用画像には、人体の領域とともに寝台の領域が含まれることとなる。このような寝台の領域は、医用画像においては診断の邪魔となるため、診断前に除去することが好ましい。このため、特許文献1,2に示すように、医用画像を二値化処理し、医用画像を人体の領域とそれ以外の領域とに分離し、人体以外の領域を医用画像から削除する手法が提案されている。   Usually, when a human body is imaged with an X-ray CT apparatus or the like, the subject is imaged while being supported by a couch, so the medical image acquired by imaging includes the area of the couch along with the area of the human body. Such a bed area is a hindrance to diagnosis in a medical image, and is preferably removed before diagnosis. For this reason, as shown in Patent Documents 1 and 2, there is a technique in which a medical image is binarized, the medical image is separated into a human body region and a region other than the human body, and the region other than the human body is deleted from the medical image. Proposed.

一方、医療分野においては、複数の医用画像に対して、3次元的な画像の構築を可能とする画像投影法(Intensity Projection法、以下IP法という)を実行することにより、疑似3次元医用画像を生成することが行われている。   On the other hand, in the medical field, by executing an image projection method (Intensity Projection method, hereinafter referred to as IP method) that enables a three-dimensional image to be constructed on a plurality of medical images, a pseudo three-dimensional medical image is obtained. Has been made to generate.

画像投影法は、処理対象であるすべての医用画像に対して、対応するそれぞれのピクセルについて最大値(もしくは最小値,特定値)を取り出して投影することで得られた疑似3次元医用画像を得る処理である。すなわち、図11に示すような場合、奥行き方向に得られた第1番目から第N番目までの医用画像に対して、同一ピクセルでの最大値(もしくは最小値,特定値)を取り出す処理を全ピクセルについて行うことにより、疑似3次元医用画像を得ることを可能としている。   The image projection method obtains a pseudo three-dimensional medical image obtained by extracting and projecting the maximum value (or minimum value or specific value) for each corresponding pixel for all medical images to be processed. It is processing. That is, in the case shown in FIG. 11, all the processes for extracting the maximum value (or minimum value, specific value) at the same pixel are performed on the first to Nth medical images obtained in the depth direction. By performing the process on the pixel, it is possible to obtain a pseudo three-dimensional medical image.

この画像投影法としては、複数の医用画像のそれぞれから最大値を取り出して疑似3次元医用画像を生成するMIP(Maximum Intensity Projection)法、および複数の医用画像のそれぞれから最小値を取り出して疑似3次元医用画像を生成するminIP(Minimum Intensity Projection)法が知られている。   As this image projection method, the MIP (Maximum Intensity Projection) method in which a maximum value is extracted from each of a plurality of medical images to generate a pseudo three-dimensional medical image, and the minimum value is extracted from each of a plurality of medical images. A minIP (Minimum Intensity Projection) method for generating a three-dimensional medical image is known.

特開平9−187444号公報JP-A-9-187444 特開2003−70782号公報JP 2003-70782 A

しかしながら、上記特許文献1,2に記載された手法は二値化処理により人体とそれ以外の領域とを分離するものであるため、人体と寝台とが接触していると、人体と寝台とが同一の領域となるようにラベリングされてしまう。このため、人体と寝台とが接触している場合、特許文献1,2に記載された手法によっては、人体と寝台とを分離することができず、その結果、医用画像から寝台の領域を削除することができない。このように医用画像から寝台の領域を削除できないと、とくに、上述した疑似3次元医用画像を生成する場合においては、3次元医用画像に寝台が含まれてしまうことから、診断の妨げとなる。   However, since the methods described in Patent Documents 1 and 2 separate the human body and the other areas by binarization processing, if the human body and the bed are in contact, the human body and the bed are They are labeled so that they are in the same area. For this reason, when the human body and the couch are in contact, depending on the methods described in Patent Documents 1 and 2, the human body and the couch cannot be separated, and as a result, the couch region is deleted from the medical image. Can not do it. If the bed area cannot be deleted from the medical image in this way, especially when the above-described pseudo three-dimensional medical image is generated, the bed is included in the three-dimensional medical image, which hinders diagnosis.

本発明は上記事情に鑑みなされたものであり、人体と寝台等の人体以外の被写体とが接触していても、医用画像において、人体の領域と人体以外の領域とを分離することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to separate a human body region and a non-human body region in a medical image even when the human body and a subject other than the human body such as a bed are in contact. To do.

本発明による画像処理装置は、人体を撮影することにより取得した医用画像を多値化して多値化画像を生成する多値化手段と、
前記多値化画像の連結成分同士を、該連結成分同士の接触状況に基づいて結合する結合手段と、
前記結合結果に基づいて、前記医用画像から前記人体以外の領域を削除する削除手段とを備えたことを特徴とするものである。
An image processing apparatus according to the present invention includes a multi-value quantization unit that multi-values a medical image acquired by photographing a human body to generate a multi-value image.
Coupling means for coupling the connected components of the multi-valued image based on the contact status of the connected components;
Delete means for deleting an area other than the human body from the medical image based on the combination result is provided.

なお、本発明による画像処理装置においては、前記医用画像はCT画像であってもよい。   In the image processing apparatus according to the present invention, the medical image may be a CT image.

また、本発明による画像処理装置においては、前記多値化手段を、前記医用画像を輝度域が異なる3つの連結成分に分離するよう多値化する手段とし、
前記結合手段を、前記3つの連結成分のうちの輝度域が隣接する2つの連結成分同士が接触している部分の長さを測定し、前記2つの連結成分において前記接触している部分の長さの、該2つの連結成分のうちの一方の連結成分の周囲長に対する比率を算出し、該比率が所定のしきい値以上の場合に、該接触している2つの連結成分を1つの連結成分に結合する手段とし、
前記削除手段を、前記結合された連結成分および前記3つの連結成分のうち、最大領域となる連結成分以外の連結成分を前記医用画像から削除する手段としてもよい。
Further, in the image processing apparatus according to the present invention, the multi-value conversion means is a means for multi-value so as to separate the medical image into three connected components having different luminance ranges,
The coupling means measures the length of a portion where two connected components adjacent to each other in the luminance range of the three connected components are in contact with each other, and the length of the contacted portion of the two connected components Then, the ratio of one of the two connected components to the perimeter of the connected component is calculated, and when the ratio is equal to or greater than a predetermined threshold value, the two connected connected components are connected to one connected component. As a means of binding to the ingredients,
The deletion unit may be a unit that deletes, from the medical image, a connected component other than the connected component that is the maximum region among the combined connected component and the three connected components.

また、本発明による画像処理装置においては、前記医用画像がCT画像である場合、前記多値化手段を、該医用画像を低CT値領域からなる第1の連結成分、中CT値領域からなる第2の連結成分および高CT値領域からなる第3の連結成分に多値化する手段とし、
前記結合手段を、前記第2の連結成分と前記第3の連結成分における前記接触している部分の長さを測定し、前記第2および前記第3の連結成分が接触している部分の長さの、該第2または該第3の連結成分の周囲長に対する比率を算出し、該比率が所定のしきい値以上の場合に、該接触している前記第2および前記第3の連結成分を1つの連結成分に結合する手段とし、
前記削除手段を、前記第2の連結成分、前記第3の連結成分、および前記結合された第2および第3の連結成分のうち、最大領域となる連結成分以外の連結成分を前記医用画像から削除する手段としてもよい。
In the image processing apparatus according to the present invention, when the medical image is a CT image, the multi-value quantization unit includes the first connected component including a low CT value region and a medium CT value region. As a means for multi-valued into a third connected component consisting of a second connected component and a high CT value region,
The coupling means measures the length of the contacting portion of the second connected component and the third connected component, and the length of the contacted portion of the second and third connected components. Calculating the ratio of the second or third connected component to the peripheral length, and the second and third connected components in contact with each other when the ratio is equal to or greater than a predetermined threshold value. As a means of combining one connected component,
The deletion unit is configured to extract, from the medical image, a connected component other than a connected component that is a maximum region among the second connected component, the third connected component, and the combined second and third connected components. It is good also as a means to delete.

また、本発明による画像処理装置においては、前記削除手段を、前記人体の横断面を示す複数の医用画像のそれぞれから前記人体以外の領域を削除する手段とし、
前記人体以外の領域が削除された前記複数の医用画像に基づき画像投影法を実行することにより3次元医用画像を生成する3次元医用画像生成手段をさらに備えるものとしてもよい。
Further, in the image processing apparatus according to the present invention, the deletion unit is a unit that deletes a region other than the human body from each of a plurality of medical images showing a cross section of the human body,
The image processing method may further include a three-dimensional medical image generation unit that generates a three-dimensional medical image by executing an image projection method based on the plurality of medical images from which regions other than the human body are deleted.

「3次元医用画像生成部」は、画像投影法のうち、minIP法またはMIP法いずれかの手法を実行するものであってもよい。   The “three-dimensional medical image generation unit” may execute any one of the minIP method and the MIP method among the image projection methods.

本発明による画像処理方法は、多値化画像生成手段が、人体を撮影することにより取得した医用画像を多値化して多値化画像を生成し、
結合手段が、前記多値化画像の連結成分同士を、該連結成分同士の接触状況に基づいて結合し、
削除手段が、前記結合結果に基づいて、前記医用画像から前記人体以外の領域を削除することを特徴とするものである。
In the image processing method according to the present invention, the multi-valued image generating means multi-values a medical image acquired by photographing a human body to generate a multi-valued image,
A combining unit combines the connected components of the multi-valued image based on a contact state between the connected components,
The deletion means deletes an area other than the human body from the medical image based on the combination result.

なお、本発明による画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。   The image processing method according to the present invention may be provided as a program for causing a computer to execute the image processing method.

本発明によれば、医用画像が多値化されて多値化画像が生成される。多値化画像においては、多値化する際のしきい値を適切に設定することにより、人体と、骨および寝台等の不要部分と、何も存在しない(空気のみが存在する)部分とをそれぞれ別個の連結領域とすることができる。ここで、撮影時に人体を寝台により支えた場合、人体と寝台との接触部分は、人体または寝台の全領域の周囲長と比較して小さいものとなる。このため、多値化画像の連結成分同士を、連結成分同士の接触状況に基づいて結合し、結合結果に基づいて、医用画像における人体以外の領域を削除することにより、人体と寝台等の人体以外の被写体とが接触していても、医用画像から人体以外の領域を削除することができる。   According to the present invention, a medical image is multivalued to generate a multivalued image. In a multi-valued image, by appropriately setting a threshold value when multi-valued, a human body, an unnecessary part such as a bone and a bed, and a part where nothing exists (only air exists) Each can be a separate connection region. Here, when the human body is supported by the bed at the time of photographing, the contact portion between the human body and the bed is smaller than the perimeter of the whole area of the human body or the bed. For this reason, the connected components of the multi-valued image are combined based on the contact status of the connected components, and based on the combined result, the region other than the human body in the medical image is deleted, thereby the human body such as the human body and the bed. Even if the subject is in contact with other subjects, the region other than the human body can be deleted from the medical image.

また、医用画像を輝度域が異なる3つの連結成分に分離するように多値化し、3つの連結成分のうちの輝度域が隣接する2つの連結成分同士が接触している部分の長さを測定し、これら2つの連結成分において接触している部分の長さの、2つの連結成分のうちの一方の連結成分の周囲長に対する比率を算出し、その比率が所定のしきい値以上の場合に、接触している2つの連結成分を1つの連結成分に結合することにより、人体の連結成分と、寝台の連結成分とが1つの連結成分に結合されることがなくなる。したがって、人体と寝台等の人体以外の被写体とが接触していても、医用画像から寝台等の人体以外の領域を確実に削除することができる。   In addition, the medical image is multi-valued so as to be separated into three connected components having different luminance ranges, and the length of the portion where the two connected components having adjacent luminance ranges among the three connected components are in contact with each other is measured. Then, when the ratio of the length of the portion in contact between these two connected components to the circumference of one of the two connected components is calculated, and the ratio is equal to or greater than a predetermined threshold value By connecting the two connected components in contact with one connected component, the connected component of the human body and the connected component of the bed are not combined into one connected component. Therefore, even if a human body and a subject other than the human body such as a bed are in contact, a region other than the human body such as a bed can be reliably deleted from the medical image.

とくに、医用画像をCT画像とした場合において、医用画像を低CT値領域からなる第1の連結成分、中CT値領域からなる第2の連結成分および高CT値領域からなる第3の連結成分に多値化し、第2の連結成分と第3の連結成分における接触している部分の長さを測定し、第2および第3の連結成分が接触している部分の長さの、第2または第3の連結成分の周囲長に対する比率を算出し、比率が所定のしきい値以上の場合に、接触している第2および第3の連結成分を1つの連結成分に結合し、第2の連結成分、第3の連結成分、および結合された第2および第3の連結成分のうち、最大領域以外の連結成分を医用画像から削除することにより、医用画像から寝台を確実に削除することができる。   In particular, when the medical image is a CT image, the medical image is a first connected component composed of a low CT value region, a second connected component composed of a medium CT value region, and a third connected component composed of a high CT value region. Multi-valued, and the length of the contact portion between the second connected component and the third connected component is measured, and the length of the portion where the second and third connected components are in contact with each other is measured. Alternatively, the ratio of the third connected component to the perimeter is calculated, and when the ratio is equal to or greater than a predetermined threshold, the second and third connected components that are in contact are combined into one connected component, and the second Of the connected component, the third connected component, and the combined second and third connected components other than the maximum region are deleted from the medical image, thereby reliably deleting the bed from the medical image. Can do.

また、予め撮像された人体の横断面を示す複数の医用画像のそれぞれから人体以外の領域を削除し、人体以外の領域が削除された複数の医用画像に基づき画像投影法を実行して3次元医用画像を生成することにより、生成された3次元医用画像には寝台が含まれることがなくなる。したがって、3次元医用画像を用いての診断を、寝台に邪魔されることなく、効率よく行うことができる。   Further, a region other than the human body is deleted from each of a plurality of medical images showing a cross section of the human body imaged in advance, and the image projection method is executed based on the plurality of medical images from which the region other than the human body has been deleted to perform three-dimensional By generating a medical image, the generated three-dimensional medical image does not include a bed. Therefore, the diagnosis using the three-dimensional medical image can be performed efficiently without being disturbed by the bed.

本発明の実施形態による画像処理装置の構成を示す概略ブロック図1 is a schematic block diagram showing the configuration of an image processing apparatus according to an embodiment of the present invention. CT画像の例を示す図Diagram showing an example of a CT image 図2に示すCT画像を多値化することにより生成した多値化画像を示す図The figure which shows the multi-valued image produced | generated by multi-value-izing the CT image shown in FIG. 撮影時の頭部と寝台との関係を示す図Diagram showing the relationship between the head and the bed when shooting 本実施形態において生成されるマスク画像を示す図The figure which shows the mask image produced | generated in this embodiment 本実施形態によりCT画像から寝台が削除された状態を示す図The figure which shows the state by which the bed was deleted from CT image by this embodiment 本実施形態において行われる処理を示すフローチャートA flowchart showing processing performed in the present embodiment 図2に示すCT画像を二値化することにより生成した二値化画像を示す図The figure which shows the binarized image produced | generated by binarizing the CT image shown in FIG. 二値化処理により生成されるマスク画像を示す図The figure which shows the mask image produced | generated by the binarization process 二値化処理を行った場合におけるCT画像から寝台が削除された状態を示す図The figure which shows the state from which the bed was deleted from CT image at the time of performing a binarization process 疑似3次元医用画像上の指定点と対応する医用画像の対応点との一例を示す図The figure which shows an example of the corresponding point of the medical image corresponding to the designated point on a pseudo three-dimensional medical image

以下、図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態による画像処理装置の構成を示す概略ブロック図である。図1に示すように、本実施形態による画像処理装置10は、人体の横断面を示す複数の医用画像を取得する画像取得部1、複数の医用画像のそれぞれを多値化する多値化部2、多値化画像の連結成分同士を結合する結合部3、結合結果に基づいて、各医用画像から人体以外の領域を削除する削除部4、人体以外の領域が削除された医用画像における人体の領域を表す画像情報に基づき、画像投影法を実行することにより疑似3次元医用画像を生成する疑似3次元医用画像生成部5、および疑似3次元医用画像および/または医用画像を表示する表示部6を備える。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic block diagram showing the configuration of an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 1, an image processing apparatus 10 according to the present embodiment includes an image acquisition unit 1 that acquires a plurality of medical images showing a cross section of a human body, and a multi-value conversion unit that multi-values each of the plurality of medical images. 2. Joining unit 3 that joins the connected components of the multi-valued image; Deletion unit 4 that removes a region other than the human body from each medical image based on the joining result; Human body in a medical image from which a region other than the human body is deleted A pseudo three-dimensional medical image generation unit 5 that generates a pseudo three-dimensional medical image by executing an image projection method based on image information representing the region of the image, and a display unit that displays the pseudo three-dimensional medical image and / or the medical image 6 is provided.

画像取得部1は、複数の医用画像(例えば、CT画像やMRI画像等)を記録した記録媒体を読み取ることにより、もしくはCT装置(コンピュータ断層撮影装置;Computed Tomography)やMRI装置(核磁気共鳴撮像装置)から通信回線を経由することにより、複数の医用画像を取得するものである。なお、画像取得部1が、CT装置やMRI装置であってもよい。ここで、本実施形態においては、被写体の頭部を複数の切断位置で切断したときの各輪切の画像からなる複数のCT画像を医用画像として取得するものとする。   The image acquisition unit 1 reads a recording medium on which a plurality of medical images (for example, CT images and MRI images) are recorded, or a CT apparatus (Computed Tomography) or MRI apparatus (Nuclear Magnetic Resonance Imaging). A plurality of medical images are acquired from a device via a communication line. The image acquisition unit 1 may be a CT apparatus or an MRI apparatus. Here, in the present embodiment, it is assumed that a plurality of CT images made up of images of each ring when a subject's head is cut at a plurality of cutting positions are acquired as medical images.

多値化部2は、複数のCT画像のそれぞれを多値化する。ここで、CT画像におけるCT値は−1000(空気のCT値)から+4000までの範囲に分布している。また、CT画像において、被写体が存在せず空気のみが存在するすぬけ部、骨の内部の空間部分および照射野外の領域はCT値が−200より低く、人体組織はCT値が−200〜+400に分布し、寝台、骨および造影血管等はCT値が+400よりも高くなる。したがって、多値化部2は、−200程度の第1のしきい値Th1および+400程度の第2のしきい値Th2によりCT画像を多値化する。具体的には、CT画像において、CT値が第1のしきい値Th1未満の低CT値を有する画素を0に、CT値が第1のしきい値Th1以上第2のしきい値Th2未満の中CT値を有する画素を0.5に、CT値が第2のしきい値Th2以上の高CT値を有する画素を1に置き換える処理を行って多値化画像を生成する。なお、多値化画像における画素値は、1が最高輝度(白)、0が最低輝度(黒)、0.5がグレーとなって表現される。   The multi-value quantization unit 2 multi-values each of the plurality of CT images. Here, CT values in the CT image are distributed in a range from −1000 (CT value of air) to +4000. Further, in the CT image, the CT value is lower than −200 in the hollow portion where no subject exists and only air exists, the space inside the bone, and the region outside the irradiation field, and the CT value of human body tissue is −200 to +400. The CT values of the bed, bones, contrasted blood vessels, etc. are higher than +400. Therefore, the multi-value quantization unit 2 multi-values the CT image with the first threshold value Th1 of about −200 and the second threshold value Th2 of about +400. Specifically, in the CT image, a pixel having a low CT value with a CT value less than the first threshold Th1 is set to 0, and the CT value is greater than or equal to the first threshold Th1 and less than the second threshold Th2. A multi-valued image is generated by performing a process of replacing the pixel having a medium CT value with 0.5 and the pixel having a high CT value with a CT value equal to or greater than the second threshold Th2 with 1. Note that pixel values in a multi-valued image are represented by 1 being the highest luminance (white), 0 being the lowest luminance (black), and 0.5 being gray.

図2はCT画像の例を示す図、図3は図2に示すCT画像を第1のしきい値Th1および第2のしきい値Th2により多値化することにより生成した多値化画像を示す図である。なお、図2に示すCT画像は、図4に示すようにクッション21を介して寝台20に載せた人体の頭部22をCT装置により撮影することにより取得したものであり、CT画像には、頭部22に対応する頭部領域、および寝台20に対応する寝台領域が含まれている。なお、クッション21はX線を透過するため、CT画像にはクッション21は現れないこととなる。また、CT画像における頭部領域内には、頭部組織、骨、骨内部の空間および造影血管等が含まれる。   FIG. 2 shows an example of a CT image, and FIG. 3 shows a multi-valued image generated by multi-valued the CT image shown in FIG. 2 with a first threshold value Th1 and a second threshold value Th2. FIG. The CT image shown in FIG. 2 is obtained by photographing the human head 22 placed on the bed 20 via the cushion 21 as shown in FIG. 4 with a CT apparatus. A head region corresponding to the head 22 and a bed region corresponding to the bed 20 are included. Since the cushion 21 transmits X-rays, the cushion 21 does not appear in the CT image. Further, the head region in the CT image includes a head tissue, a bone, a space inside the bone, a contrasted blood vessel, and the like.

なお、図3に示すように多値化画像においては、CT画像における空気の領域は最低輝度、寝台、骨および造影血管の領域は最高輝度、人体組織の領域は中間輝度のグレーとなっている。   As shown in FIG. 3, in the multi-valued image, the region of air in the CT image has the lowest luminance, the region of the bed, the bone and the contrast blood vessel has the highest luminance, and the region of the human body tissue has the intermediate luminance of gray. .

結合部3は、まず多値化画像をラベリング処理する。ラベリング処理とは、繋がっているすべての画素(連結成分)に同じ番号(ラベル)を付与し、異なる連結成分には別の番号を付与する処理である。例えば、隣接する画素が互いに0.5の場合には、これらの画素は繋がっていることになる。これにより、多値化画像は、低CT値の連結成分(第1の連結成分とする)、中CT値の連結成分(第2の連結成分とする)、および高CT値の連結成分(第3の連結成分とする)にラベリングされる。   The combining unit 3 first performs a labeling process on the multilevel image. The labeling process is a process of assigning the same number (label) to all connected pixels (connected components) and assigning different numbers to different connected components. For example, when adjacent pixels are 0.5, these pixels are connected. Accordingly, the multi-valued image includes a low CT value connected component (referred to as a first connected component), a medium CT value connected component (referred to as a second connected component), and a high CT value connected component (referred to as a first connected component). 3 connected components).

また、結合部3は、第2および第3の連結成分同士の接触部分の長さを算出し、その長さの第3の連結成分の周囲長の対する割合がしきい値Th3以上(例えば40%以上)となる場合に、その第2および第3の連結成分を結合する。例えば、図3に示す多値化画像において、頭部領域内における頭部組織は主に第2の連結成分となるが、頭部領域の内部には骨等の第3の連結成分が存在する。頭部領域内部の第3の連結成分の、頭部組織の第2の連結成分と接触する部分の長さは、第3の連結成分の周囲長と略一致するものとなっている。このため、結合部3は、頭部領域の内部においては、第2および第3の連結成分を結合する。なお、第2および第3の連結成分同士の接触部分の長さの、第2の連結成分の周囲長の対する割合がしきい値Th3以上となる場合に、その第2および第3の連結成分を結合するようにしてもよい。   Further, the coupling unit 3 calculates the length of the contact portion between the second and third connected components, and the ratio of the length to the peripheral length of the third connected component is equal to or greater than a threshold Th3 (for example, 40 % And above), the second and third connected components are combined. For example, in the multi-valued image shown in FIG. 3, the head tissue in the head region is mainly the second connected component, but the third connected component such as a bone exists in the head region. . The length of the portion of the third connected component inside the head region that is in contact with the second connected component of the head tissue is substantially the same as the peripheral length of the third connected component. For this reason, the coupling | bond part 3 couple | bonds the 2nd and 3rd connection component in the inside of a head region. When the ratio of the length of the contact portion between the second and third connected components to the peripheral length of the second connected component is equal to or greater than the threshold Th3, the second and third connected components. May be combined.

一方、図3に示す多値化画像において、その左側にある左耳の領域は左側の寝台領域と接触している。ここで、左耳の領域と左側の寝台領域との接触部分の長さは非常に短く、左側の寝台領域の周囲長に対するその接触部分の長さの割合は非常に小さいものとなっている。したがって、左耳の領域に対応する第2の連結成分と、左側の寝台領域に対応する第3の連結成分とは接触しているものの、その接触部分の長さの左側の寝台領域の周囲長に対する割合はしきい値Th3未満となることから、結合部3は、左耳の領域に対応する第2の連結成分と、左側の寝台領域に対応する第3の連結成分とを結合しない。   On the other hand, in the multilevel image shown in FIG. 3, the left ear region on the left side is in contact with the left bed region. Here, the length of the contact portion between the left ear region and the left couch region is very short, and the ratio of the length of the contact portion to the peripheral length of the left couch region is very small. Therefore, although the second connected component corresponding to the left ear region and the third connected component corresponding to the left bed region are in contact, the peripheral length of the left bed region of the length of the contact portion Since the ratio to is less than the threshold value Th3, the combining unit 3 does not combine the second connected component corresponding to the left ear region and the third connected component corresponding to the left bed region.

なお、右耳の領域は右側の寝台領域と接触していないため、結合部3は、右耳の領域に対応する第2の連結成分と右側の寝台領域に対応する第3の連結成分とを結合しない。   Since the right ear region is not in contact with the right bed region, the coupling unit 3 includes a second connected component corresponding to the right ear region and a third connected component corresponding to the right bed region. Do not combine.

削除部4は、各CT画像の多値化画像に含まれる第2の連結成分、第3の連結成分、および結合された第2および第3の連結成分(以下結合成分とする)のうち、最も画素数が多い連結成分(最大連結成分)を人体の領域に設定し、各CT画像から人体の領域以外の領域を削除する。   The deletion unit 4 includes a second connected component, a third connected component, and a combined second and third connected component (hereinafter referred to as a combined component) included in the multi-valued image of each CT image. A connected component having the largest number of pixels (maximum connected component) is set in the human body region, and regions other than the human body region are deleted from each CT image.

具体的には、削除部4は、多値化画像において、最大連結成分を残し、それ以外の連結成分の画素を0に置き換える。具体的には、ラベリングした多値化画像を走査し、最も画素数が多かったラベル値を有する画素を残し、それ以外の画素を0に置き換える。   Specifically, the deletion unit 4 leaves the maximum connected component in the multi-valued image, and replaces other connected component pixels with 0. Specifically, the labeled multi-valued image is scanned, the pixels having the label value with the largest number of pixels are left, and the other pixels are replaced with 0.

そして、削除部4は、最大連結成分の輪郭を追跡し、最大連結成分の最外周の輪郭線を抽出する。具体的には、最大連結成分のみが残された多値化画像の左上隅画素から横に走査し、最初に出会った非ゼロのラベル値を有する画素を開始点として反時計回り方向に輪郭を追跡し、開始点に戻ったら追跡を終了する。上記輪郭線上の画素にはラベル値とは異なる値、例えば1を代入しておく。   Then, the deletion unit 4 tracks the contour of the maximum connected component and extracts the outermost contour line of the maximum connected component. Specifically, the image is scanned horizontally from the upper left corner pixel of the multi-valued image in which only the maximum connected component is left, and the contour having the non-zero label value first encountered is defined in the counterclockwise direction. Track and stop tracking when you return to the starting point. A value different from the label value, for example, 1 is assigned to the pixels on the contour line.

さらに削除部4は、輪郭線の内部を1で塗りつぶし、マスク画像を作成する。図5はマスク画像を示す図である。図5に示すようにマスク画像におけるマスク領域は、CT画像における頭部領域にのみ相当するものとなっている。   Further, the deletion unit 4 fills the inside of the contour line with 1 to create a mask image. FIG. 5 shows a mask image. As shown in FIG. 5, the mask area in the mask image corresponds only to the head area in the CT image.

そして削除部4は、CT画像とマスク画像とを掛け合わせて、マスク領域外の画素をCT画像から削除する。具体的には、マスク画像を1画素ずつ調べ、ゼロの画素を検出したら、その画素の座標に対応するCT画像の画素を最低輝度(CT画像の場合は−1000)に置き換える処理をする。これを全画素について行えば、マスク領域外の画素がCT画像から削除される。   Then, the deletion unit 4 multiplies the CT image and the mask image to delete pixels outside the mask area from the CT image. Specifically, the mask image is examined pixel by pixel, and if a zero pixel is detected, a process of replacing the pixel of the CT image corresponding to the coordinates of the pixel with the lowest luminance (-1000 in the case of a CT image) is performed. If this is performed for all pixels, pixels outside the mask area are deleted from the CT image.

これにより、CT画像からは図6に示すように寝台に相当する領域が削除され、頭部領域のみが残ることとなる。   As a result, the area corresponding to the bed is deleted from the CT image as shown in FIG. 6, and only the head area remains.

疑似3次元医用画像生成部5は、寝台の領域が削除された複数のCT画像に基づき、画像投影法を実行することにより疑似3次元医用画像を生成する。画像投影法としては、例えば、minIP法またはMIP法を用いる。   The pseudo three-dimensional medical image generation unit 5 generates a pseudo three-dimensional medical image by executing an image projection method based on a plurality of CT images from which the bed area is deleted. As the image projection method, for example, the minIP method or the MIP method is used.

表示部6は、医用画像や疑似3次元医用画像を表示するモニタ、CRT画面、液晶画面等である。   The display unit 6 is a monitor, a CRT screen, a liquid crystal screen, or the like that displays a medical image or a pseudo 3D medical image.

次いで、本実施形態において行われる処理について説明する。図7は本実施形態において行われる処理を示すフローチャートである。   Next, processing performed in the present embodiment will be described. FIG. 7 is a flowchart showing processing performed in the present embodiment.

まず、画像取得部1が複数のCT画像を取得する(ステップST1)。次いで、多値化部2が、複数のCT画像のそれぞれを多値化して多値化画像を生成し(ステップST2)、結合部3が、多値化画像の連結成分同士を結合する(ステップST3)。そして削除部4が、各CT画像から人体以外の領域を削除し(ステップST4)、疑似3次元医用画像生成部5が、人体以外の領域が削除された各CT画像の人体領域を表す画像情報に基づいて、上述したminIP法を実行することにより疑似3次元医用画像を生成する(ステップST5)。そして、表示部6が、疑似3次元医用画像生成部3により生成された疑似3次元医用画像を表示し(ステップST6)、処理を終了する。   First, the image acquisition unit 1 acquires a plurality of CT images (step ST1). Next, the multi-value quantization unit 2 multi-values each of the plurality of CT images to generate a multi-value image (step ST2), and the combining unit 3 combines the connected components of the multi-value image (step ST2). ST3). Then, the deletion unit 4 deletes a region other than the human body from each CT image (step ST4), and the pseudo three-dimensional medical image generation unit 5 displays image information representing the human body region of each CT image from which the region other than the human body has been deleted. Based on the above, a pseudo three-dimensional medical image is generated by executing the above-described minIP method (step ST5). Then, the display unit 6 displays the pseudo three-dimensional medical image generated by the pseudo three-dimensional medical image generation unit 3 (step ST6), and the process ends.

ここで、従来の二値化処理による手法と本実施形態による手法とを比較する。図8は図2に示すCT画像を、1つのしきい値(=−200)により二値化することにより生成した二値化画像を示す図である。図8に示すように二値化画像においては、CT画像における空気の領域は最低輝度、寝台、骨および造影血管の領域、並びに人体組織の領域は最高輝度となっている。   Here, the conventional binarization method and the method according to the present embodiment are compared. FIG. 8 is a diagram showing a binarized image generated by binarizing the CT image shown in FIG. 2 with one threshold value (= −200). As shown in FIG. 8, in the binarized image, the region of air in the CT image has the lowest luminance, the region of the bed, the bone and the contrasted blood vessels, and the region of the human tissue have the highest luminance.

このように生成された二値化画像は、低CT値の連結成分と、それ以外の連結成分の2つにラベリングされることとなる。このようにラベリングされた二値化画像においては、図3に示す本実施形態により生成した多値化画像と比較して、左耳の領域と左側の寝台領域とが同一の輝度となっている。このため、削除部4において、二値化画像の最大連結成分を残し、それ以外の連結成分の画素を0に置き換えた場合、マスク画像は図9に示すように頭部領域と左側の寝台領域にマスク領域を有するものとなるため、マスク領域外の画素をCT画像から削除した場合、CT画像には図10に示すように頭部領域の他に寝台領域が残ってしまう。   The binarized image generated in this way is labeled with two components, a low CT value connected component and other connected components. In the binarized image labeled in this way, the left ear region and the left couch region have the same luminance as compared to the multi-valued image generated by the present embodiment shown in FIG. . Therefore, when the deletion unit 4 leaves the maximum connected component of the binarized image and replaces the other connected component pixels with 0, the mask image has a head region and a left bed region as shown in FIG. Therefore, when pixels outside the mask area are deleted from the CT image, a bed area remains in the CT image in addition to the head area as shown in FIG.

本実施形態においては、CT画像を多値化するようにしたものである。ここで、多値化画像においては、多値化のしきい値を適切に設定することにより、人体と、骨および寝台等の不要部分と、何も存在しない(空気のみが存在する)部分とをそれぞれ別個の連結領域とすることができる。一方、撮影時に人体を寝台により支えた場合、人体と寝台との接触部分は、人体の全領域の周囲長と比較して小さいものとなる。このため、多値化画像の連結成分同士を、連結成分同士の接触状況に基づいて結合し、結合結果に基づいて、医用画像における人体以外の領域を削除することにより、人体と寝台とが接触していても、医用画像から人体以外の寝台等の領域を削除することができる。   In the present embodiment, the CT image is multi-valued. Here, in a multi-valued image, by appropriately setting a multi-valued threshold value, a human body, unnecessary parts such as bones and a bed, and a part where nothing exists (only air exists) Can be separate connection regions. On the other hand, when the human body is supported by a bed at the time of shooting, the contact portion between the human body and the bed is smaller than the perimeter of the entire area of the human body. For this reason, the connected components of the multi-valued image are combined based on the contact status between the connected components, and the human body and the bed are contacted by deleting regions other than the human body in the medical image based on the combined result. Even so, it is possible to delete a region such as a bed other than the human body from the medical image.

したがって、本実施形態によれば、図6に示すように、CT画像から寝台に相当する領域をすべて削除することができるため、3次元医用画像を生成した際に、生成された3次元医用画像には寝台が含まれることがなくなる。したがって、3次元医用画像を用いての診断を、寝台に邪魔されることなく、効率よく行うことができる。   Therefore, according to the present embodiment, as shown in FIG. 6, since the region corresponding to the bed can be deleted from the CT image, the generated three-dimensional medical image is generated when the three-dimensional medical image is generated. No longer includes a couch. Therefore, the diagnosis using the three-dimensional medical image can be performed efficiently without being disturbed by the bed.

なお、上記実施形態においては、頭部のCT画像を対象として処理を行っているが、医用画像として、MRI画像を用いることも可能である。また、被写体としても頭部に限定されるものではなく、人体の各種部分の医用画像を対象とすることが可能である。   In the above embodiment, processing is performed on the CT image of the head, but an MRI image can also be used as a medical image. In addition, the subject is not limited to the head, and medical images of various parts of the human body can be targeted.

また、上記実施形態においては、複数のCT画像から人体以外の領域を削除して疑似3次元医用画像を生成しているが、疑似3次元医用画像を生成しない場合にも本発明を適用できることはもちろんである。   In the above embodiment, a region other than the human body is deleted from a plurality of CT images to generate a pseudo 3D medical image. However, the present invention can also be applied to a case where a pseudo 3D medical image is not generated. Of course.

また、上記実施形態においては、2つのしきい値により医用画像を多値化しているが、3以上のしきい値により医用画像を多値化してもよい。   In the above embodiment, the medical image is multi-valued with two threshold values, but the medical image may be multi-valued with three or more threshold values.

以上、本発明の実施形態に係る装置10について説明したが、コンピュータを、上記の画像取得部1、多値化部2、結合部3、削除部4および疑似3次元医用画像生成部5に対応する手段として機能させ、図7に示すような処理を行わせるプログラムも本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も、本発明の実施形態の1つである。   As described above, the apparatus 10 according to the embodiment of the present invention has been described. However, the computer corresponds to the image acquisition unit 1, the multi-value conversion unit 2, the combination unit 3, the deletion unit 4, and the pseudo three-dimensional medical image generation unit 5. A program that functions as a means for performing the processing as shown in FIG. 7 is also one embodiment of the present invention. A computer-readable recording medium in which such a program is recorded is also one embodiment of the present invention.

1 画像取得部
2 多値化部
3 結合部
4 削除部
5 疑似3次元医用画像生成部
6 表示部
10 画像処理装置
DESCRIPTION OF SYMBOLS 1 Image acquisition part 2 Multi-value-izing part 3 Combining part 4 Deletion part 5 Pseudo three-dimensional medical image generation part 6 Display part 10 Image processing apparatus

Claims (7)

人体を撮影することにより取得した医用画像を多値化して多値化画像を生成する多値化手段と、
前記多値化画像の連結成分同士を、該連結成分同士の接触状況に基づいて結合する結合手段と、
前記結合結果に基づいて、前記医用画像から前記人体以外の領域を削除する削除手段とを備えたことを特徴とする画像処理装置。
Multi-value conversion means for generating a multi-value image by converting the medical image acquired by photographing a human body into a multi-value;
Coupling means for coupling the connected components of the multi-valued image based on the contact status of the connected components;
An image processing apparatus comprising: deletion means for deleting an area other than the human body from the medical image based on the combination result.
前記医用画像は、CT画像であることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the medical image is a CT image. 前記多値化手段は、前記医用画像を輝度域が異なる3つの連結成分に分離するよう多値化する手段であり、
前記結合手段は、前記3つの連結成分のうちの輝度域が隣接する2つの連結成分同士が接触している部分の長さを測定し、前記2つの連結成分において前記接触している部分の長さの、該2つの連結成分のうちの一方の連結成分の周囲長に対する比率を算出し、該比率が所定のしきい値以上の場合に、該接触している2つの連結成分を1つの連結成分に結合する手段であり、
前記削除手段は、前記結合された連結成分および前記3つの連結成分のうち、最大領域となる連結成分以外の連結成分を前記医用画像から削除する手段であることを特徴とする請求項1または2記載の画像処理装置。
The multi-value conversion means is a means for multi-value so as to separate the medical image into three connected components having different luminance ranges,
The coupling means measures a length of a portion where two connected components adjacent to each other in the luminance range of the three connected components are in contact with each other, and a length of the contacted portion in the two connected components. Then, the ratio of one of the two connected components to the perimeter of the connected component is calculated, and when the ratio is equal to or greater than a predetermined threshold value, the two connected connected components are connected to one connected component. A means of binding to the ingredients,
The deletion unit is a unit that deletes, from the medical image, a connected component other than a connected component that becomes a maximum region among the combined connected component and the three connected components. The image processing apparatus described.
前記医用画像がCT画像である場合、前記多値化手段は、該医用画像を低CT値領域からなる第1の連結成分、中CT値領域からなる第2の連結成分および高CT値領域からなる第3の連結成分に多値化する手段であり、
前記結合手段は、前記第2の連結成分と前記第3の連結成分における前記接触している部分の長さを測定し、前記第2および前記第3の連結成分が接触している部分の長さの、該第2または該第3の連結成分の周囲長に対する比率を算出し、該比率が所定のしきい値以上の場合に、該接触している前記第2および前記第3の連結成分を1つの連結成分に結合する手段であり、
前記削除手段は、前記第2の連結成分、前記第3の連結成分、および前記結合された第2および第3の連結成分のうち、最大領域となる連結成分以外の連結成分を前記医用画像から削除する手段であることを特徴とする請求項3記載の画像処理装置。
When the medical image is a CT image, the multi-value quantization unit determines the medical image from a first connected component including a low CT value region, a second connected component including a medium CT value region, and a high CT value region. The third connected component is a multivalued means,
The coupling means measures the length of the contacting portion in the second connected component and the third connected component, and the length of the contacted portion of the second and third connected components. Calculating the ratio of the second or third connected component to the peripheral length, and the second and third connected components in contact with each other when the ratio is equal to or greater than a predetermined threshold value. Is a means for combining
The deletion means includes, from the medical image, the second connected component, the third connected component, and the connected components other than the connected component serving as the maximum region among the combined second and third connected components from the medical image. 4. The image processing apparatus according to claim 3, wherein the image processing apparatus is means for deleting.
前記削除手段は、前記人体の横断面を示す複数の医用画像のそれぞれから前記人体以外の領域を削除する手段であり、
前記人体以外の領域が削除された前記複数の医用画像に基づき画像投影法を実行することにより、3次元医用画像を生成する3次元医用画像生成手段をさらに備えたことを特徴とする請求項1から4のいずれか1項5記載の画像処理装置。
The deletion means is means for deleting an area other than the human body from each of a plurality of medical images showing a cross section of the human body,
2. The apparatus according to claim 1, further comprising: a three-dimensional medical image generating unit configured to generate a three-dimensional medical image by executing an image projection method based on the plurality of medical images from which the region other than the human body has been deleted. 6. The image processing device according to any one of 5 to 4.
多値化画像生成手段が、人体を撮影することにより取得した医用画像を多値化して多値化画像を生成し、
結合手段が、前記多値化画像の連結成分同士を、該連結成分同士の接触状況に基づいて結合し、
削除手段が、前記結合結果に基づいて、前記医用画像から前記人体以外の領域を削除することを特徴とする画像処理方法。
The multi-valued image generating means multi-values a medical image acquired by photographing a human body to generate a multi-valued image,
A combining unit combines the connected components of the multi-valued image based on a contact state between the connected components,
An image processing method, wherein deletion means deletes an area other than the human body from the medical image based on the combination result.
人体を撮影することにより取得した医用画像を多値化して多値化画像を生成する手順と、
前記多値化画像の連結成分同士を、該連結成分同士の接触状況に基づいて結合する手順と、
前記結合結果に基づいて、前記医用画像から前記人体以外の領域を削除する手順とを有する画像処理方法をコンピュータに実行させることを特徴とするプログラム。
A procedure for generating a multi-valued image by converting a medical image obtained by imaging a human body,
A procedure for combining the connected components of the multi-valued image based on the contact state of the connected components;
A program causing a computer to execute an image processing method including a procedure for deleting a region other than the human body from the medical image based on the combination result.
JP2009019054A 2009-01-30 2009-01-30 Image processing apparatus and method, and program Withdrawn JP2010172515A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009019054A JP2010172515A (en) 2009-01-30 2009-01-30 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009019054A JP2010172515A (en) 2009-01-30 2009-01-30 Image processing apparatus and method, and program

Publications (1)

Publication Number Publication Date
JP2010172515A true JP2010172515A (en) 2010-08-12

Family

ID=42704026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009019054A Withdrawn JP2010172515A (en) 2009-01-30 2009-01-30 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP2010172515A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012179360A (en) * 2011-02-28 2012-09-20 Toshiba Corp Medical image processing apparatus, x-ray computer tomography device, and medical image processing program
JP7151841B1 (en) 2021-08-27 2022-10-12 コニカミノルタ株式会社 Image processing device, radiation imaging system, image processing program, and image processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012179360A (en) * 2011-02-28 2012-09-20 Toshiba Corp Medical image processing apparatus, x-ray computer tomography device, and medical image processing program
US9305356B2 (en) 2011-02-28 2016-04-05 Kabushiki Kaisha Toshiba Image processing method and apparatus
JP7151841B1 (en) 2021-08-27 2022-10-12 コニカミノルタ株式会社 Image processing device, radiation imaging system, image processing program, and image processing method
JP2023032705A (en) * 2021-08-27 2023-03-09 コニカミノルタ株式会社 Image processing device, radiographic system, image processing program and image processing method

Similar Documents

Publication Publication Date Title
CN106725570B (en) Imaging method and system
JP5994858B2 (en) Radiation tomographic image generation apparatus and radiation tomographic image generation method
CN102024251B (en) System and method for multi-image based virtual non-contrast image enhancement for dual source CT
KR102165610B1 (en) X-ray Imaging Apparatus and Image Processing Method of X-ray Imaging Apparatus
CN104644202A (en) Medical image data processing apparatus, medical image data processing method and medical image data processing program
US20150003708A1 (en) Clinically driven image fusion
CN104700389B (en) Object identifying method in dual intensity CT scan image
US10631810B2 (en) Image processing device, radiation imaging system, image processing method, and image processing program
JP2008043756A (en) Classification method and device
US9741104B2 (en) Apparatus, method, and computer-readable medium for quad reconstruction using hybrid filter convolution and high dynamic range tone-mapping
CN104700390B (en) Calcification part recognition methods in dual intensity CT contrast enhanced scans image
JP2010213760A (en) Image processing device, and image processing program
Dabass et al. Biomedical image enhancement using different techniques-a comparative study
JP2014188378A (en) Medical image processing apparatus and medical image processing method
JP5940474B2 (en) Body motion detection device and method
JP2002542915A (en) Method and system for fusion of two digital radiographic images
Xie et al. Artificial intelligence–based computed tomography processing framework for surgical telementoring of congenital heart disease
JP2010172515A (en) Image processing apparatus and method, and program
KR102527017B1 (en) Apparatus and method for generating 2d medical image based on plate interpolation
JP7349870B2 (en) Medical image processing device, tomography device, medical image processing method and program
JP5317612B2 (en) Tomographic image processing apparatus, X-ray CT apparatus, and program
KR102078159B1 (en) System for manufacturing Breast Implant using 3D Printer
JP2003224775A (en) Device for displaying time-series processed image
US20160148355A1 (en) Radiation-image processing device and method
US20190164286A1 (en) Information processing apparatus, information processing method, and non-transient computer readable storage medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120403