JP7465469B2 - Learning device, estimation device, learning program, and estimation program - Google Patents
Learning device, estimation device, learning program, and estimation program Download PDFInfo
- Publication number
- JP7465469B2 JP7465469B2 JP2020086303A JP2020086303A JP7465469B2 JP 7465469 B2 JP7465469 B2 JP 7465469B2 JP 2020086303 A JP2020086303 A JP 2020086303A JP 2020086303 A JP2020086303 A JP 2020086303A JP 7465469 B2 JP7465469 B2 JP 7465469B2
- Authority
- JP
- Japan
- Prior art keywords
- joint
- image
- unit
- position information
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 60
- 238000000605 extraction Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 19
- 238000007781 pre-processing Methods 0.000 claims description 18
- 239000000284 extract Substances 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 12
- 210000000988 bone and bone Anatomy 0.000 claims description 11
- 238000010801 machine learning Methods 0.000 claims description 5
- 238000000513 principal component analysis Methods 0.000 claims description 4
- 238000002203 pretreatment Methods 0.000 claims 1
- 230000010365 information processing Effects 0.000 description 16
- 210000003811 finger Anatomy 0.000 description 14
- 238000000034 method Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 210000001145 finger joint Anatomy 0.000 description 8
- 206010039073 rheumatoid arthritis Diseases 0.000 description 8
- 210000004247 hand Anatomy 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 210000004932 little finger Anatomy 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 208000006820 Arthralgia Diseases 0.000 description 1
- 208000023275 Autoimmune disease Diseases 0.000 description 1
- 206010061818 Disease progression Diseases 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 230000005750 disease progression Effects 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000000987 immune system Anatomy 0.000 description 1
- 230000002757 inflammatory effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Analysis (AREA)
Description
本発明は、生体内の骨組織が撮影された撮影画像における関節の位置を推定するための学習装置、推定装置、学習プログラム、及び推定プログラムに関する。 The present invention relates to a learning device, an estimation device, a learning program, and an estimation program for estimating the position of a joint in an image of bone tissue inside a living body.
近年、関節リウマチ患者の数は増加している。関節リウマチは、自己の免疫が主に手足の関節を侵すことで、関節痛、関節の変形が生じる炎症性自己免疫疾患である。 In recent years, the number of rheumatoid arthritis patients has been increasing. Rheumatoid arthritis is an inflammatory autoimmune disease in which the body's own immune system attacks the joints, mainly of the hands and feet, causing joint pain and deformation.
関節リウマチは、早期からの治療により予後の改善が可能な疾患である。従って、関節リウマチ患者に適切な治療を施すために疾患の進行度合いを正確に評価する必要がある。 Rheumatoid arthritis is a disease in which early treatment can improve the prognosis. Therefore, in order to provide appropriate treatment to rheumatoid arthritis patients, it is necessary to accurately evaluate the degree of disease progression.
関節リウマチの進行度合いは、例えばmTS(modified Total Sharp)スコアによって評価される。 The progression of rheumatoid arthritis is evaluated, for example, by the mTS (modified Total Sharp) score.
従来、mTSスコアを算出するために、関節リウマチ患者の手指又は足指が撮影されたX線画像における関節位置を医師が手動で特定する必要があった。この関節位置を手動で特定する作業は医師にとって手間であった。また、関節位置の特定精度が医師の技量に依存するという問題もあった。 Conventionally, to calculate the mTS score, doctors had to manually identify the joint positions in X-ray images of the fingers or toes of a rheumatoid arthritis patient. This task of manually identifying joint positions was time-consuming for doctors. There was also the problem that the accuracy of identifying joint positions depended on the doctor's skill.
このため、関節位置を自動で特定できる画像処理の開発が望まれている。ここで、関節位置を自動で特定できる画像処理において演算負荷が大きければ、処理時間の増大などの新たな問題が生じる。 Therefore, there is a demand for the development of image processing that can automatically identify joint positions. However, if the computational load is large in image processing that can automatically identify joint positions, new problems such as increased processing time will arise.
なお、特許文献1には指関節の位置を自動的に識別する技術が開示されているが、手固定具、センサ等を必要とする技術であり、使い勝手の悪いものであった。
本発明は、上記の状況に鑑み、画像処理における演算負荷を抑制しつつ、関節の位置を推定するために必要な学習結果を得ることができる学習装置及び学習プログラムを提供することを目的とする。 In view of the above, the present invention aims to provide a learning device and a learning program that can obtain the learning results necessary to estimate the position of joints while reducing the computational load in image processing.
また本発明は、上記の状況に鑑み、画像処理における演算負荷を抑制しつつ、関節の位置を推定することができる推定装置及び推定プログラムを提供することを目的とする。 In view of the above, the present invention also aims to provide an estimation device and an estimation program that can estimate the position of a joint while reducing the computational load in image processing.
上記目的を達成するために本発明の第1局面に係る学習装置は、複数の関節それぞれの領域を含む画像における前記複数の関節それぞれの位置を特定する第1特定部と、前記複数の関節間の相対位置をモデル位置情報として特定する第2特定部と、を備え、前記モデル位置情報は所定数のパラメータを有し、前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さい構成(第1の構成)とする。 To achieve the above object, a learning device according to a first aspect of the present invention includes a first identification unit that identifies the position of each of the multiple joints in an image including the area of each of the multiple joints, and a second identification unit that identifies the relative positions between the multiple joints as model position information, the model position information having a predetermined number of parameters, the predetermined number being smaller than the product of the number of the multiple joints and the number of dimensions of each coordinate indicating the position of each of the multiple joints (first configuration).
上記目的を達成するために本発明の第2局面に係る学習装置は、生体内の骨組織が撮影された第1及び第2撮影画像を取得する取得部と、前記第1撮影画像を複数の領域に分割し、分割した領域の画像特徴量を求める演算部と、前記画像特徴量を機械学習することにより、任意の領域が関節領域である第1クラスを含む少なくとも一つのクラスのうちのどのクラスに属するかを識別するための識別器を生成する生成部と、前記第2撮影画像から複数の関節間の相対位置をモデル位置情報として抽出する抽出部と、を備え、前記モデル位置情報は所定数のパラメータを有し、前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さい構成(第2の構成)とする。 To achieve the above object, the learning device according to the second aspect of the present invention includes an acquisition unit that acquires first and second captured images of bone tissue in a living body, a calculation unit that divides the first captured image into a plurality of regions and determines image features of the divided regions, a generation unit that generates a classifier for identifying which of at least one class including a first class that is a joint region an arbitrary region belongs to by machine learning the image features, and an extraction unit that extracts the relative positions between a plurality of joints from the second captured image as model position information, the model position information having a predetermined number of parameters, and the predetermined number is configured to be smaller than the product of the number of the plurality of joints and the number of dimensions of each coordinate indicating the position of each of the plurality of joints (second configuration).
上記第2の構成の学習装置において、前記第2撮影画像は複数枚あり、複数枚の第2撮影画像それぞれは異なる生体を被写体として撮影された画像であり、前記抽出部は、複数枚の第2撮影画像の関節位置を主成分分析することによって前記モデル位置情報を抽出する構成(第3の構成)であってもよい。 In the learning device of the second configuration, the second captured images may be multiple, each of the multiple second captured images being captured with a different living body as a subject, and the extraction unit may be configured to extract the model position information by performing principal component analysis on the joint positions of the multiple second captured images (third configuration).
上記第2又は第3の構成の学習装置において、前記少なくとも一つのクラスは、指先領域である第2クラスを含む構成(第4の構成)であってもよい。 In the learning device of the second or third configuration, the at least one class may be configured to include a second class that is a fingertip region (fourth configuration).
上記第2~第4いずれかの構成の学習装置において、前記取得部と前記演算部及び前記抽出部との間に設けられる前処理部を備え、前記前処理部は、前記第1撮影画像及び前記第2撮影画像を水平線によって複数のブロックに分割し、前記複数のブロックそれぞれにおいて前記生体が写っている被写体領域と前記生体が写っていない背景領域との境界となる画素値を画素値ヒストグラムに基づき求め、前記複数のブロック間の前記境界となる画素値のシフトが小さくなるように前記ブロック単位で画素値を補正する構成(第5の構成)であってもよい。 The learning device of any one of the second to fourth configurations may further include a pre-processing unit provided between the acquisition unit and the calculation unit and the extraction unit, and the pre-processing unit may divide the first captured image and the second captured image into a plurality of blocks by horizontal lines, obtain pixel values that are the boundaries between the subject area in which the living body is captured and the background area in which the living body is not captured in each of the plurality of blocks based on a pixel value histogram, and correct the pixel values on a block-by-block basis so that the shift in pixel values at the boundaries between the plurality of blocks is small (fifth configuration).
上記目的を達成するために本発明の第3局面に係る学習プログラムは、コンピュータを、複数の関節それぞれの領域を含む画像における前記複数の関節それぞれの位置を特定する第1特定部、及び前記複数の関節間の相対位置をモデル位置情報として特定する第2特定部、として機能させる学習プログラムであって、前記モデル位置情報は所定数のパラメータを有し、前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さい構成(第6の構成)とする。 To achieve the above object, the learning program according to the third aspect of the present invention is a learning program that causes a computer to function as a first identification unit that identifies the position of each of the multiple joints in an image including the area of each of the multiple joints, and a second identification unit that identifies the relative positions between the multiple joints as model position information, the model position information having a predetermined number of parameters, the predetermined number being smaller than the product of the number of the multiple joints and the number of dimensions of each coordinate indicating the position of each of the multiple joints (sixth configuration).
上記目的を達成するために本発明の第4局面に係る学習プログラムは、コンピュータを、生体内の骨組織が撮影された第1及び第2撮影画像を取得する取得部、前記第1撮影画像を複数の領域に分割し、分割した領域の画像特徴量を求める演算部、前記画像特徴量を機械学習することにより、任意の領域が関節領域である第1クラスを含む少なくとも一つのクラスのうちのどのクラスに属するかを識別するための識別器を生成する生成部、及び前記第2撮影画像から複数の関節間の相対位置をモデル位置情報として抽出する抽出部、として機能させる学習プログラムであって、前記モデル位置情報は所定数のパラメータを有し、前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さい構成(第7の構成)とする。 In order to achieve the above object, the learning program according to the fourth aspect of the present invention is a learning program that causes a computer to function as an acquisition unit that acquires first and second captured images of bone tissue in a living body, a calculation unit that divides the first captured image into multiple regions and determines image features of the divided regions, a generation unit that generates a classifier for identifying which of at least one class including a first class that is a joint region an arbitrary region belongs to by machine learning the image features, and an extraction unit that extracts the relative positions between multiple joints as model position information from the second captured image, where the model position information has a predetermined number of parameters, and the predetermined number is configured to be smaller than the product of the number of the multiple joints and the number of dimensions of each coordinate indicating the position of each of the multiple joints (seventh configuration).
上記目的を達成するために本発明の第5局面に係る推定装置は、学習装置によって生成された識別器及び前記学習装置によって抽出されたモデル位置情報を有する推定装置であって、前記学習装置は、上記第2~第5いずれかの構成の学習装置であり、前記推定装置は、生体内の骨組織が撮影された推定対象画像を複数の領域に分割し、前記複数の領域それぞれに対して画像特徴量を求める第1処理部と、前記第1処理部によって求められた前記画像特徴量から、前記識別器を用いて、前記複数の領域それぞれに対して関節らしさを示す度合を求める第2処理部と、前記関節らしさを示す度合に基づき前記推定対象画像における関節の候補を求める第3処理部と、前記関節の候補に基づき前記モデル位置情報の前記パラメータを変更し、前記モデル位置情報における各関節に対応する前記識別器で求められた前記関節らしさを示す度合の合計を最大化するように基づき前記パラメータの更新を収束させる第4処理部と、を備える構成(第8の構成)とする。 In order to achieve the above object, the estimation device according to the fifth aspect of the present invention is an estimation device having a classifier generated by a learning device and model position information extracted by the learning device, the learning device being a learning device having any of the second to fifth configurations described above, and the estimation device is configured to include a first processing unit that divides an estimation target image in which bone tissue in a living body is photographed into a plurality of regions and obtains image features for each of the plurality of regions, a second processing unit that uses the classifier to obtain a degree of joint-likeness for each of the plurality of regions from the image features obtained by the first processing unit, a third processing unit that obtains joint candidates in the estimation target image based on the degree of joint-likeness, and a fourth processing unit that changes the parameters of the model position information based on the joint candidates and converges the update of the parameters based on maximizing the sum of the degrees of joint-likeness obtained by the classifier corresponding to each joint in the model position information (eighth configuration).
上記目的を達成するために本発明の第6局面に係る推定プログラムは、コンピュータを、学習装置によって生成された識別器及び前記学習装置によって抽出されたモデル位置情報を有する推定装置として機能させる推定プログラムであって、前記学習装置は、上記第1~第4いずれかの構成の学習装置であり、前記推定装置は、生体内の骨組織が撮影された推定対象画像を複数の領域に分割し、前記複数の領域それぞれに対して画像特徴量を求める第1処理部と、前記第1処理部によって求められた前記画像特徴量から、前記識別器を用いて、前記複数の領域それぞれに対して関節らしさを示す度合を求める第2処理部と、前記関節らしさを示す度合に基づき前記推定対象画像における関節の候補を求める第3処理部と、前記関節の候補に基づき前記モデル位置情報の前記パラメータを変更し、前記モデル位置情報における各関節に対応する前記識別器で求められた前記関節らしさを示す度合の合計を最大化するように前記パラメータの更新を収束させる第4処理部と、を備える構成(第9の構成)とする。 In order to achieve the above object, the estimation program according to the sixth aspect of the present invention is an estimation program that causes a computer to function as an estimation device having a classifier generated by a learning device and model position information extracted by the learning device, the learning device being a learning device having any of the first to fourth configurations described above, and the estimation device is configured to include a first processing unit that divides an estimation target image in which bone tissue in a living body is photographed into a plurality of regions and obtains image features for each of the plurality of regions, a second processing unit that uses the classifier to obtain a degree of joint-likeness for each of the plurality of regions from the image features obtained by the first processing unit, a third processing unit that obtains joint candidates in the estimation target image based on the degree of joint-likeness, and a fourth processing unit that changes the parameters of the model position information based on the joint candidates and converges the update of the parameters so as to maximize the sum of the degrees of joint-likeness obtained by the classifier corresponding to each joint in the model position information (ninth configuration).
本発明に係る学習装置及び学習プログラムによると、画像処理における演算負荷を抑制しつつ、関節の位置を推定するために必要な学習結果を得ることができる。 The learning device and learning program of the present invention can obtain the learning results necessary to estimate the position of joints while reducing the computational load in image processing.
本発明に係る推定装置及び推定プログラムによると、画像処理における演算負荷を抑制しつつ、関節の位置を推定することができる。 The estimation device and estimation program of the present invention can estimate the position of joints while reducing the computational load in image processing.
本発明の実施形態について図面を参照して以下に説明する。 An embodiment of the present invention will be described below with reference to the drawings.
<1.情報処理装置の構成>
図1は、本発明の一実施形態に係る情報処理装置の構成を示す図である。本発明の一実施形態に係る情報処理装置1(以下、情報処理装置1という)は、制御部2、記憶部3、通信部4、表示部5、及び操作部6を備える。
1. Configuration of information processing device
1 is a diagram showing the configuration of an information processing device according to an embodiment of the present invention. The
制御部2は、例えばマイクロコンピュータである。制御部2は、情報処理装置1の全体を統括的に制御する。制御部2は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。
The
記憶部3は、例えばフラッシュメモリ、ハードディスクドライブ等である。各種のデータ、情報処理装置1によって実行される学習プログラム及び推定プログラム等を記憶する。
The
通信部4は、外部装置との通信を行うための通信インターフェースである。通信部4と外部装置との通信方法は、有線通信でもよく、無線通信でもよく、有線と無線とを組み合わせた通信であってもよい。外部装置としては、例えばX線撮影画像を撮影するX線撮影装置、X線撮影画像を記憶している記憶装置等を挙げることができる。
The
表示部5は、例えば液晶表示装置、有機EL(Electro Luminescence)表示装置等である。表示部5は、制御部2の制御に基づいて各種の画像を表示する。
The
操作部6は、例えばキーボード、ポインティングデバイス等である。操作部6は、ユーザの操作内容に応じた信号を制御部2に出力する。
The
<2.情報処理装置の機能>
図2は、情報処理装置1の機能の一例を示す機能ブロック図である。情報処理装置1は、学習プログラムを実行することによって学習装置10として機能する。情報処理装置1は、推定プログラムを実行することによって推定装置20として機能する。なお、本実施形態では、1台の情報処理装置1が学習装置10及び推定装置20を機能部として含んでいるが、本実施形態とは異なり、学習装置10を機能部として含む情報処理装置と、推定装置20を機能部として含む情報処理装置とが別々の情報処理装置であってもよい。
2. Functions of the information processing device
2 is a functional block diagram showing an example of the functions of the
<2-1.学習装置>
学習装置10は、取得部11、前処理部12、演算部13、生成部14、及び抽出部15を含む。
<2-1. Learning device>
The
取得部11は、生体内の骨組織が撮影された第1及び第2撮影画像を取得する。具体的には、取得部11は、通信部4(図1参照)によって外部装置から第1及び第2撮影画像を取得する。
The
本実施形態では、第1撮影画像と第2撮影画像とは同一の画像である。なお、本実施形態とは異なり、第1撮影画像と第2撮影画像とは異なる撮影画像であってもよい。 In this embodiment, the first captured image and the second captured image are the same image. However, unlike this embodiment, the first captured image and the second captured image may be different captured images.
また、本実施形態では、取得部11は複数の第1撮影画像(=第2撮影画像)を取得する。より詳細には、取得部11は、複数の第1撮影画像(=第2撮影画像)として複数のX線撮影画像を取得する。本実施形態では、取得部11によって取得された複数のX線撮影画像は、レントゲン撮影装置によって撮影された異なる複数人の両手の画像である。
In addition, in this embodiment, the
図3は、取得部11によって取得されたX線撮影画像の一例であり、関節リウマチが進行していない人の両手の画像である。図4は、取得部11によって取得されたX線撮影画像の他の例であり、関節リウマチが進行した人の両手の画像である。
Figure 3 is an example of an X-ray image acquired by the
図3及び図4から分かるように、X線撮影画像の上部は暗くなっており、X線撮影画像の下部は明るくなっている。このような上下方向における明暗の発生は、レントゲン撮影装置の特性に起因するものである。 As can be seen from Figures 3 and 4, the upper part of the X-ray image is dark, and the lower part of the X-ray image is bright. This occurrence of light and dark in the vertical direction is due to the characteristics of the X-ray imaging device.
そこで、前処理部12は、図5に示す模式図のように第1撮影画像(=第2撮影画像)を等間隔に並ぶ水平線H1~H9によってブロックB1~B10に分割する。ここでは、図示を簡単にするために分割数を10にしたが、実際の分割数は例えば100~400程度が好ましい。分割数が少なすぎると、滑らかな補正が行えず、逆に分割数が多すぎると、各ブロックの領域が狭くなり、ノイズ耐性が劣化するからである。本実施形態では、実際の分割数を200としている。それから、前処理部12は、ブロックB1~B10それぞれにおいて手領域(前景)と非手領域(背景)との境界となる画素値(しきい値)を求める。手領域(前景)と非手領域(背景)との境界となる画素値(しきい値)を求める手法は特に限定されないが、本実施形態では大津のしきい値法を用いる。そして、前処理部12は、ブロックB1~B10間の境界となる画素値のシフトが小さくなるようにブロックB1~B10単位で画素値を補正する。例えば、ブロックの番号と、境界となる画素値とが図6に示す関係であって指数関数E1で近似できる場合、当該指数関数E1が直線L1に変換されるように、ブロックB1~B10毎に異なるパラメータを設定し、当該パラメータを画素値に演算することで画素値を補正する。つまり、画素値を補正した後、ブロックB1~B10それぞれにおいて手領域(前景)と非手領域(背景)との境界となる画素値(しきい値)を画素値ヒストグラムに基づき大津のしきい値法で求めると、ブロックの番号と、境界となる画素値(しきい値)との関係が直線L1で近似できる。
Therefore, the preprocessing
なお、上述したX線撮影画像に対する補正処理は、学習装置10でしか実行できない処理ではなく、X線撮影画像に対して画像処理を行う画像処理装置全般に適用することができる。
The correction process for X-ray images described above is not a process that can only be performed by the
次に、前処理部12は、第1撮影画像(=第2撮影画像)から手領域を自動抽出する。具体的には、前処理部12は、図6に示す直線L1の縦軸座標値である境界となる画素値(しきい値)TH1より高い画素値を手領域とする。さらに、前処理部12は、境界となる画素値(しきい値)TH1以下の画素値を非手領域とし、手領域及び非手領域それぞれにおいて穴や孤立点の除去、形状の平滑化、微小面積領域の除去を行って、手領域及び非手領域それぞれを確定する。
Next, the
次に、前処理部12は、左手と右手との分割を行う。右手と左手を分割する手法は特に限定されないが、本実施形態では大津のしきい値法を用いる。具体的には、本実施形態において前処理部12は、第1撮影画像(=第2撮影画像)から水平方向に手領域の画素値ヒストグラムを作成し、その手領域の画素値ヒストグラムに基づき大津のしきい値法で第1撮影画像(=第2撮影画像)における左手と右手との分割ラインを決定する。右手領域は、前処理部12によって左右反転され、以後は左手として取り扱われる。つまり、右手領域を左右反転してから後は、一つの第1撮影画像(=第2撮影画像)に二つの左手が存在することになる。これにより、一つの第1撮影画像(=第2撮影画像)から左手に関するデータが2つ得られる。このようにしてデータ数を2倍に増やすことで、学習装置10における学習精度及び推定装置20における推定精度を向上できる。
Next, the preprocessing
本実施形態では、演算部13は、垂直方向100画素×水平方向100画素の領域を設定し、各々の第1撮影画像を複数の領域に分割する。演算部13によって設定される領域の垂直方向画素数は100に限定されない。同様に、演算部13によって設定される領域の水平方向画素数も100に限定されない。演算部13によって設定される領域の垂直方向画素数と演算部13によって設定される領域の水平方向画素数とは同一であってもよく同一でなくてもよい。また、本実施形態では、隣接する領域間で重複部分がない態様で各々の第1撮影画像が複数の領域に分割されるが、隣接する領域間で重複部分がある態様で各々の第1撮影画像が複数の領域に分割されてもよい。
In this embodiment, the
次に、演算部13は、領域それぞれの画像特徴量を求める。本実施形態では、画像特徴量として、HOG(Histograms of Oriented Gradients)特徴量を使用している。HOG特徴量は幾何学的変換に強く、第1撮影画像の明るさの変動に頑健であることが、HOG特徴量を使用した理由である。なお、本実施形態とは異なり、演算部13がHOG特徴量以外の画像特徴量を求めてもよい。
Next, the
生成部14は、関節領域である第1クラスを含む複数のクラスを設定する。
The
本実施形態では、生成部14は、関節領域である第1クラスと、指先領域である第2クラスと、関節領域でもなく指先領域でもない領域である第3クラスと、を設定する。生成部14が指先領域である第2クラスを設定することにより、学習装置10が指先領域を誤って関節領域であると学習することを抑制することができる。なお、本実施形態とは異なり、生成部14が、関節領域である第1クラス及び非関節領域であるクラスの二つのクラスのみを設定してもよい。また、本実施形態とは異なり、生成部14が関節領域である第1クラスのみを設定してもよい。
In this embodiment, the
生成部14は、各々の第1撮影画像内の各々の左手領域から、操作部6(図1参照)の出力信号に基づき第1クラスにおいて14個の領域を選択する。つまり、第1クラスにおける領域選択は手動である。当該14個の領域は、母指第1関節に対応する領域、母指第2関節に対応する領域、示指第1関節に対応する領域、示指第2関節に対応する領域、示指第3関節に対応する領域、中指第1関節に対応する領域、中指第2関節に対応する領域、中指第3関節に対応する領域、環指第1関節に対応する領域、環指第2関節に対応する領域、環指第3関節に対応する領域、小指第1関節に対応する領域、小指第2関節に対応する領域、及び小指第3関節に対応する領域である。演算部13は、上述したように各々の第1撮影画像内の各々の左手領域から第1クラスにおいて14個の領域を選択するので、複数の関節それぞれの領域を含む画像における複数の関節それぞれの位置を特定する第1特定部であるともいえる。
The generating
生成部14は、各々の第1撮影画像内の各々の左手領域から、操作部6(図1参照)の出力信号に基づき第2クラスにおいて5個の領域を選択する。つまり、第2クラスにおける領域選択は手動である。当該5個の領域は、母指の指先に対応する領域、示指の指先に対応する領域、中指の指先に対応する領域、環指の指先に対応する領域、及び小指の指先に対応する領域である。
The
生成部14は、各々の第1撮影画像内の各々の左手領域から、第1クラスの領域及び第2クラスの領域を除いた後、第3クラスにおいて例えば25個の領域をランダムに選択する。つまり、第3クラスにおける領域選択は自動である。本実施形態では、演算部13は、第3クラスにおいて複数の領域を所定の条件を満たした上でランダムに選択する。当該所定の条件は、第3クラスにおいて選択される各領域が第3クラスにおいて選択される他の領域と重複せず、且つ、第3クラスにおいて選択される各領域が偏在しないように平均的に配置されるという条件である。
The
次に、生成部14は、複数の第1撮影画像それぞれに対してコントラストを変更する。コントラストの変更は一種類でもよく複数種類でもよい。元の第1撮影画像とコントラストを変更した第1撮影画像とが学習データとして用いられる。
Next, the
生成部14は、上述した学習データ、領域それぞれの画像特徴量を演算部13から受け取る。生成部14は、上述した学習データを用いて、第1クラスの領域それぞれの画像特徴量、第2クラスの領域それぞれの画像特徴量、及び第3クラスの領域それぞれの画像特徴量を機械学習することにより、任意の領域が第1~第3クラスのうちのどのクラスに属するかを識別するための識別器を生成する。識別器を生成する手法は特に限定されないが、本実施形態ではサポートベクターマシンにより識別器を生成する。
The
抽出部15は、第2撮影画像(=第1撮影画像)の各指関節の中心位置を前処理部12から受け取る。なお、前処理部12は、第2撮影画像(=第1撮影画像)の各指関節の中心位置を操作部6(図1参照)の出力信号に基づき選択する。つまり、第2撮影画像(=第1撮影画像)の各指関節の中心位置の選択は手動である。抽出部15は、複数の第2撮影画像に対して関節毎に座標の平均値を求め、関節毎の座標の平均値に基づいて複数の第2撮影画像それぞれに対して剛体レジストレーションを実行する。抽出部15は、剛体レジストレーション後の複数の第2撮影画像に対して関節毎に座標の平均値を求め、関節毎の座標の平均値に基づいて複数の第2撮影画像それぞれに対して剛体レジストレーションを実行する。抽出部15は、剛体レジストレーションが収束するまで、関節毎の座標の平均値算出と剛体レジストレーションとを繰り返す。抽出部15は、剛体レジストレーションが収束した第2撮影画像(=第1撮影画像)から複数の関節間の相対位置をモデル位置情報として抽出する。モデル位置情報は所定数のパラメータを有する。そして、所定数は、複数の関節の個数と複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さい。これにより、複数の関節それぞれの位置を示す各座標によってモデル位置情報を構成する場合と比較して、画像処理における演算負荷を抑制しつつ、関節の位置を推定することができる。抽出部15は、上述したように第2撮影画像(=第1撮影画像)から複数の関節間の相対位置をモデル位置情報として抽出するので、複数の関節間の相対位置をモデル位置情報として特定する第2特定部であるともいえる。
The
本実施形態では、抽出部15は、レントゲン撮影装置によって撮影された異なる複数人の両手の画像から複数の手指関節間の相対位置をモデル位置情報として抽出する。本実施形態では、モデル位置情報は3個のパラメータを有し、モデル位置情報における複数の手指関節の個数は14個であり、複数の手指関節それぞれの位置を示す各座標は2次元である。なお、モデル位置情報における所定数のパラメータは3個のパラメータに限定されず、上述したように所定数が複数の関節の個数と複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さければよい。
In this embodiment, the
また、本実施形態では、抽出部15は、M枚の第2撮影画像の関節位置を主成分分析することによってモデル位置情報を抽出する。一つの手には14個の関節点が存在し、各関節点は第2撮影画像において2次元の座標を有するので、一つの手(例えば右手)の各関節点の座標を1次元ベクトル化すると、以下のようなベクトルaとなる。
a=[x1R1,y1R1,x1R2,y1R2,…,x1R14,y1R14]
In this embodiment, the
a = [ x1R1 , y1R1 , x1R2 , y1R2 , ..., x1R14 , y1R14 ]
したがって、M枚の第2撮影画像の関節位置の情報は、以下のようなM行28列の行列Aとなる。
抽出部15は、行列Aを主成分分析することによってモデル位置情報を抽出する。本実施形態で、モデル位置情報は、平均ベクトル+主成分スコア×主成分ベクトルで表現される。平均ベクトルと主成分ベクトルとは共通である。主成分ベクトルは、最も分散の大きい方向(第1主成分ベクトル)、2番目に分散の大きい方向(第2主成分ベクトル)、…、及びn番目に分散の大きい方向(第n主成分ベクトル)によって構成されるn次元のベクトルである。本実施形態では、n=3とすることで、上述したようにモデル位置情報が3個のパラメータを有することになる。
The
主成分スコアは、第1主成分ベクトルの係数となる第1パラメータ、第2主成分ベクトルの係数となる第2パラメータ、及び第3主成分ベクトルの係数となる第3パラメータによって構成される。主成分スコアは、各個人の手指の関節間の相対位置の平均からの変動を示すパラメータである。 The principal component score is composed of a first parameter that is the coefficient of the first principal component vector, a second parameter that is the coefficient of the second principal component vector, and a third parameter that is the coefficient of the third principal component vector. The principal component score is a parameter that indicates the variation from the average relative position between the finger joints of each individual.
以上説明した学習装置10は、例えば図7に示すフローチャートのように動作する。以下、図7に示す動作例について説明する。
The
まず学習装置10は、第1及び第2撮影画像を取得する(ステップS1)。
First, the
次に、学習装置10は、第1及び第2撮影画像の上下方向における明暗を低減するための補正処理を第1及び第2撮影画像に対して実行する(ステップS2)。
Next, the
次に、学習装置10は、第1及び第2撮影画像それぞれの手領域及び非手領域それぞれを確定する(ステップS3)。
Next, the
次に、学習装置10は、左手と右手とを分割し、右手領域に対して左右反転処理を行う(ステップS4)。
Next, the
次に、学習装置10は、第1撮影画像を複数の領域に分割し、分割した領域それぞれの画像特徴量を求める(ステップS5)。
Next, the
次に、学習装置10は、第1~第3クラスを設定し、第1~第3クラスそれぞれの領域を選択する(ステップS6)。
Next, the
次に、学習装置10は、第1撮影画像に対してコントラストを変更して学習データのデータ数を増加させる(ステップS7)。
Next, the
次に、学習装置10は、元の第1撮影画像とコントラストを変更した第1撮影画像とを学習データとして用いて、任意の領域が第1~第3クラスのうちのどのクラスに属するかを識別するための識別器を生成する。(ステップS8)。
Next, the
次に、学習装置10は、第2撮影画像に対して剛体レジストレーションを実行する(ステップS9)。
Next, the
最後に、学習装置10は、剛体レジストレーションが収束した第2撮影画像から複数の関節間の相対位置をモデル位置情報として抽出する(ステップS10)。
Finally, the
<2-2.推定装置>
推定装置20は、第1処理部21、第2処理部22、第3処理部23、第4処理部24を含む。
<2-2. Estimation device>
The
第1処理部21は、推定対象画像を取得する。具体的には、第1処理部21は、通信部4(図1参照)によって外部装置から推定対象画像を取得する。本実施形態では、第1処理部21によって取得された推定対象画像は、レントゲン撮影装置によって撮影された人の両手の画像である。
The
次に、第1処理部21は、推定対象画像に対して前処理部12と同一の処理を行う。
Next, the
次に、第1処理部21は、前処理部12と同一の処理が行われた後の推定対象画像を複数の領域に分割し、複数の領域それぞれに対して画像特徴量を求める。本実施形態では、第1処理部21は、垂直方向100画素×水平方向100画素の領域を設定し、推定対象画像を複数の領域に分割する。なお、本実施形態では、隣接する領域間で重複部分がない態様で推定対象画像が複数の領域に分割されるが、隣接する領域間で重複部分がある態様で推定対象画像が複数の領域に分割されてもよい。また、本実施形態では、演算部13と同様に第1処理部21においても、画像特徴量として、HOG特徴量を使用している。
Next, the
第2処理部22は、第1処理部21によって求められた複数の領域それぞれの画像特徴量から、生成部14によって生成された識別器を用いて、複数の領域それぞれに対して関節らしさを示す度合を求める。なお、上述した第1クラスは関節らしさを意味しており、上述した第2クラスは指先らしさを意味しており、上述した第3クラスは背景らしさを意味している。本実施形態では、関節らしさを示す度合は0以上1以下の任意の値をとり、関節らしいほど関節らしさを示す度合の値は大きくなる。
The
第3処理部23は、関節らしさを示す度合に基づき推定対象画像における関節の候補を求める。
The
具体的には、第3処理部23は、関節らしさを示す度合を用いて、最も関節らしい領域を関節の候補として抽出し、関節の候補として抽出した領域の周辺領域を関節の候補から除外する。そして、第3処理部23は、関節らしさを示す度合を用いて、残った領域(関節の候補として抽出された領域及び関節の候補から除外された領域以外の領域)の中で最も関節らしい領域を関節の候補として抽出し、関節の候補として抽出した領域の周辺領域を関節の候補から除外する。上記の処理を繰り返して、第3処理部23は、一つの手の領域に対して20個の関節の候補を抽出する。
Specifically, the
第3処理部23は、一つの手の領域に対して20個の関節の候補から14個の関節位置を選択する。一つの手の領域に対して20個の関節の候補から14個の関節位置を選択する手法は特に限定されないが、本実施形態ではICP(Iterative Closest Point)アルゴリズムを用いる。具体的には、本実施形態において第3処理部23は、一つの手の領域に対して20個の関節の候補から10個をランダムに選び、そのランダムに選ばれた10個と平均位置と抽出部15によって抽出されたモデル位置情報の平均ベクトルで表される位置とを比較して一致度を確認しながら、ICP(Iterative Closest Point)アルゴリズムを用いて14個の関節位置を選択する。
The
第4処理部24は、関節の候補に基づきモデル位置情報のパラメータを変更し、モデル位置情報における各関節に対応する識別器で求められた関節らしさを示す度合の合計に基づきパラメータの更新を収束させる。具体的には、第4処理部24は、20個の関節の候補から選択された14個の関節位置に基づき、抽出部15によって抽出されたモデル位置情報の第1~第3パラメータを変更する。そして、第4識別器24は、モデル位置情報における各関節に対応する識別器で求められた関節らしさを示す度合の合計を最大化するように第1~第3パラメータの更新を収束させる。更新が収束した第1~第3パラメータを有するモデル位置情報が、推定対象画像の手指の関節位置の推定結果となる。
The
以上説明した推定装置20は、例えば図8に示すフローチャートのように動作する。以下、図8に示す動作例について説明する。
The
まず推定装置20は、推定対象画像を取得する(ステップS11)。
First, the
次に、推定装置20は、推定対象画像の上下方向における明暗を低減するための補正処理を推定対象画像に対して実行する(ステップS12)。
Next, the
次に、推定装置20は、推定対象画像の手領域及び非手領域それぞれを確定する(ステップS13)。
Next, the
次に、推定装置20は、左手と右手とを分割し、右手領域に対して左右反転処理を行う(ステップS14)。
Next, the
次に、推定装置20は、定対象画像を複数の領域に分割し、複数の領域それぞれに対して画像特徴量を求める(ステップS15)。
Next, the
次に、推定装置20は、複数の領域それぞれの画像特徴量から、学習装置10によって生成された識別器を用いて、複数の領域それぞれに対して関節らしさを示す度合を求める(ステップS16)。
Next, the
次に、推定装置20は、関節らしさを示す度合に基づき推定対象画像における関節の候補を求める(ステップS17)。
Next, the
最後に、推定装置20は、関節の候補に基づきモデル位置情報のパラメータを変更し、モデル位置情報における各関節に対応する識別器で求められた関節らしさを示す度合の合計に基づきパラメータの更新を収束させる(ステップS18)。
Finally, the
<3.その他>
なお、本発明の構成は、上記実施形態のほか、発明の主旨を逸脱しない範囲で種々の変更を加えることが可能である。上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。
<3. Other>
In addition to the above-described embodiment, the configuration of the present invention can be modified in various ways without departing from the spirit of the invention. The above-described embodiment is illustrative in all respects and should be considered as not limiting, and the technical scope of the present invention is indicated by the claims, not the description of the above-described embodiment, and should be understood to include all modifications that fall within the meaning and scope of the claims.
例えば、上述した実施形態では、第1撮影画像、第2撮影画像、及び推定対象画像は、X線撮影画像であったが、超音波撮影画像などであってもよい。また、MRI(Magnetic Resonance Imaging)画像、3D-CT(Computed Tomography)画像などの3D画像であってもよい。第1撮影画像、第2撮影画像、及び推定対象画像が3D画像である場合、関節の座標は3次元になる。 For example, in the above-described embodiment, the first captured image, the second captured image, and the estimation target image are X-ray images, but they may be ultrasound images, etc. Also, they may be 3D images such as MRI (Magnetic Resonance Imaging) images and 3D-CT (Computed Tomography) images. When the first captured image, the second captured image, and the estimation target image are 3D images, the coordinates of the joint are three-dimensional.
撮影対象は、人間に限らず、骨組織を有する生体であればよい。 The subject to be imaged is not limited to humans, but can be any living organism that has bone tissue.
10 学習装置
11 取得部
12 前処理部
13 演算部
14 生成部
15 抽出部
20 推定装置
21 第1処理部
22 第2処理部
23 第3処理部
24 第4処理部
REFERENCE SIGNS
Claims (7)
前記第1撮影画像を複数の領域に分割し、分割した領域の画像特徴量を求める演算部と、
前記画像特徴量を機械学習することにより、任意の領域が関節領域である第1クラスを含む少なくとも一つのクラスのうちのどのクラスに属するかを識別するための識別器を生成する生成部と、
前記第2撮影画像から複数の関節間の相対位置をモデル位置情報として抽出する抽出部と、
を備え、
前記モデル位置情報は所定数のパラメータを有し、
前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さいことを特徴とする学習装置。 an acquisition unit that acquires first and second captured images of bone tissue in a living body;
A calculation unit that divides the first captured image into a plurality of regions and obtains image feature amounts of the divided regions;
a generation unit that generates a classifier for identifying to which class an arbitrary region belongs among at least one class including a first class that is a joint region, by machine learning the image feature amount;
an extraction unit that extracts relative positions between a plurality of joints from the second captured image as model position information;
Equipped with
The model position information has a predetermined number of parameters;
A learning device, characterized in that the predetermined number is smaller than a product of the number of the plurality of joints and the number of dimensions of each coordinate indicating the position of each of the plurality of joints.
前記抽出部は、複数枚の第2撮影画像の関節位置を主成分分析することによって前記モデル位置情報を抽出する、請求項1に記載の学習装置。 The second captured images include a plurality of images, each of which is an image captured using a different living body as a subject;
The learning device according to claim 1 , wherein the extraction unit extracts the model position information by performing principal component analysis on joint positions in the plurality of second captured images.
前記前処理部は、
前記第1撮影画像及び前記第2撮影画像を水平線によって複数のブロックに分割し、
前記複数のブロックそれぞれにおいて前記生体が写っている被写体領域と前記生体が写っていない背景領域との境界となる画素値を画素値ヒストグラムに基づき求め、
前記複数のブロック間の前記境界となる画素値のシフトが小さくなるように前記ブロック単位で画素値を補正する請求項1~3のいずれか一項に記載の学習装置。 a pre-processing unit provided between the acquisition unit and the calculation unit and the extraction unit;
The pre-treatment unit includes:
Dividing the first captured image and the second captured image into a plurality of blocks by horizontal lines;
determining a pixel value that is a boundary between a subject region in which the living body is captured and a background region in which the living body is not captured in each of the plurality of blocks based on a pixel value histogram;
4. The learning device according to claim 1, wherein pixel values are corrected on a block-by-block basis so that a shift in pixel values at the boundaries between the plurality of blocks is reduced.
生体内の骨組織が撮影された第1及び第2撮影画像を取得する取得部、
前記第1撮影画像を複数の領域に分割し、分割した領域の画像特徴量を求める演算部、
前記画像特徴量を機械学習することにより、任意の領域が関節領域である第1クラスを含む少なくとも一つのクラスのうちのどのクラスに属するかを識別するための識別器を生成する生成部、及び
前記第2撮影画像から複数の関節間の相対位置をモデル位置情報として抽出する抽出部、
として機能させる学習プログラムであって、
前記モデル位置情報は所定数のパラメータを有し、
前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さいことを特徴とする学習プログラム。 Computer,
an acquisition unit that acquires first and second captured images of bone tissue in a living body;
A calculation unit that divides the first captured image into a plurality of regions and obtains image feature amounts of the divided regions;
a generation unit that generates a classifier for identifying to which class an arbitrary region belongs among at least one class including a first class that is a joint region, by machine learning the image feature amount; and an extraction unit that extracts relative positions between a plurality of joints from the second captured image as model position information.
A learning program that functions as
The model position information has a predetermined number of parameters;
The learning program, wherein the predetermined number is smaller than a product of the number of the plurality of joints and the number of dimensions of each coordinate indicating the position of each of the plurality of joints.
前記学習装置は、請求項1~4のいずれか一項に記載の学習装置であり、
前記推定装置は、
生体内の骨組織が撮影された推定対象画像を複数の領域に分割し、前記複数の領域それぞれに対して画像特徴量を求める第1処理部と、
前記第1処理部によって求められた前記画像特徴量から、前記識別器を用いて、前記複数の領域それぞれに対して関節らしさを示す度合を求める第2処理部と、
前記関節らしさを示す度合に基づき前記推定対象画像における関節の候補を求める第3処理部と、
前記関節の候補に基づき前記モデル位置情報の前記パラメータを変更し、前記モデル位置情報における各関節に対応する前記識別器で求められた前記関節らしさを示す度合の合計を最大化するように前記パラメータの更新を収束させる第4処理部と、
を備えることを特徴とする推定装置。 An estimation device having a classifier generated by a learning device and model position information extracted by the learning device,
The learning device is a learning device according to any one of claims 1 to 4 ,
The estimation device comprises:
a first processing unit that divides an estimation target image obtained by capturing an image of bone tissue in a living body into a plurality of regions and obtains an image feature amount for each of the plurality of regions;
a second processing unit that uses the classifier to determine a degree of likelihood of each of the plurality of regions being a joint from the image feature amount determined by the first processing unit;
a third processing unit that obtains candidates for the joint in the estimation target image based on the degree of joint resemblance;
a fourth processing unit that changes the parameters of the model position information based on the joint candidates and converges the update of the parameters so as to maximize a sum of the degrees of joint-likeness determined by the classifier corresponding to each joint in the model position information;
An estimation device comprising:
学習装置によって生成された識別器及び前記学習装置によって抽出されたモデル位置情報を有する推定装置として機能させる推定プログラムであって、
前記学習装置は、請求項1~4のいずれか一項に記載の学習装置であり、
前記推定装置は、
生体内の骨組織が撮影された推定対象画像を複数の領域に分割し、前記複数の領域それぞれに対して画像特徴量を求める第1処理部と、
前記第1処理部によって求められた前記画像特徴量から、前記識別器を用いて、前記複数の領域それぞれに対して関節らしさを示す度合を求める第2処理部と、
前記関節らしさを示す度合に基づき前記推定対象画像における関節の候補を求める第3処理部と、
前記関節の候補に基づき前記モデル位置情報の前記パラメータを変更し、前記モデル位置情報における各関節に対応する前記識別器で求められた前記関節らしさを示す度合の合計を最大化するように前記パラメータの更新を収束させる第4処理部と、
を備えることを特徴とする推定プログラム。 Computer,
An estimation program for causing an estimation device to function as an estimation device having a classifier generated by a learning device and model position information extracted by the learning device,
The learning device is a learning device according to any one of claims 1 to 4 ,
The estimation device comprises:
a first processing unit that divides an estimation target image obtained by capturing an image of bone tissue in a living body into a plurality of regions and obtains an image feature amount for each of the plurality of regions;
a second processing unit that uses the classifier to determine a degree of likelihood of each of the plurality of regions being a joint from the image feature amount determined by the first processing unit;
a third processing unit that obtains candidates for the joint in the estimation target image based on the degree of joint resemblance;
a fourth processing unit that changes the parameters of the model position information based on the joint candidates and converges the update of the parameters so as to maximize a sum of the degrees of joint-likeness determined by the classifier corresponding to each joint in the model position information;
An estimation program comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020086303A JP7465469B2 (en) | 2020-05-15 | 2020-05-15 | Learning device, estimation device, learning program, and estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020086303A JP7465469B2 (en) | 2020-05-15 | 2020-05-15 | Learning device, estimation device, learning program, and estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021178151A JP2021178151A (en) | 2021-11-18 |
JP7465469B2 true JP7465469B2 (en) | 2024-04-11 |
Family
ID=78509749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020086303A Active JP7465469B2 (en) | 2020-05-15 | 2020-05-15 | Learning device, estimation device, learning program, and estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7465469B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007010893A1 (en) | 2005-07-19 | 2007-01-25 | Nec Corporation | Joint object position and posture estimating device, its method, and program |
JP2010515557A (en) | 2007-01-16 | 2010-05-13 | オプタジア メディカル リミテッド | Image processing system and method. |
JP2013020578A (en) | 2011-07-14 | 2013-01-31 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional posture estimation device, three-dimensional posture estimation method and program |
JP2017191576A (en) | 2016-04-15 | 2017-10-19 | キヤノン株式会社 | Information processor, control method information processor and program |
WO2017217050A1 (en) | 2016-06-16 | 2017-12-21 | ソニー株式会社 | Information processing device, information processing method and storage medium |
JP2018005727A (en) | 2016-07-06 | 2018-01-11 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2018161397A (en) | 2017-03-27 | 2018-10-18 | 国立大学法人 東京大学 | Diagnostic image processing apparatus, evaluation support method, and program |
-
2020
- 2020-05-15 JP JP2020086303A patent/JP7465469B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007010893A1 (en) | 2005-07-19 | 2007-01-25 | Nec Corporation | Joint object position and posture estimating device, its method, and program |
JP2010515557A (en) | 2007-01-16 | 2010-05-13 | オプタジア メディカル リミテッド | Image processing system and method. |
JP2013020578A (en) | 2011-07-14 | 2013-01-31 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional posture estimation device, three-dimensional posture estimation method and program |
JP2017191576A (en) | 2016-04-15 | 2017-10-19 | キヤノン株式会社 | Information processor, control method information processor and program |
WO2017217050A1 (en) | 2016-06-16 | 2017-12-21 | ソニー株式会社 | Information processing device, information processing method and storage medium |
JP2018005727A (en) | 2016-07-06 | 2018-01-11 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP2018161397A (en) | 2017-03-27 | 2018-10-18 | 国立大学法人 東京大学 | Diagnostic image processing apparatus, evaluation support method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021178151A (en) | 2021-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kaur et al. | A generalized method for the segmentation of exudates from pathological retinal fundus images | |
Niemeijer et al. | Comparative study of retinal vessel segmentation methods on a new publicly available database | |
JP2015154918A (en) | Apparatus and method for lesion detection | |
CN109124662B (en) | Rib center line detection device and method | |
US20210133473A1 (en) | Learning apparatus and learning method | |
JP2018061771A (en) | Image processing apparatus and image processing method | |
CN110717372A (en) | Identity verification method and device based on finger vein recognition | |
JP6458166B2 (en) | MEDICAL IMAGE PROCESSING METHOD, DEVICE, SYSTEM, AND PROGRAM | |
US11615508B2 (en) | Systems and methods for consistent presentation of medical images using deep neural networks | |
JP2006034585A (en) | Picture display device and picture display method, and program thereof | |
CN114450716A (en) | Image processing for stroke characterization | |
CN114359277A (en) | Brain image processing method and system for stroke patient | |
KR20200108686A (en) | Programs and applications for sarcopenia analysis using deep learning algorithms | |
Salih et al. | Fast optic disc segmentation using FFT-based template-matching and region-growing techniques | |
EP4315245A2 (en) | Medical image analysis using neural networks | |
JPWO2007013300A1 (en) | Abnormal shadow candidate detection method and abnormal shadow candidate detection apparatus | |
CN114332132A (en) | Image segmentation method and device and computer equipment | |
Nugroho et al. | Automated segmentation of optic disc area using mathematical morphology and active contour | |
CN112529918B (en) | Method, device and equipment for segmenting brain room area in brain CT image | |
JP7465469B2 (en) | Learning device, estimation device, learning program, and estimation program | |
EP3858245B1 (en) | Automatic recognition method for measurement point in cephalo image | |
CN113222996A (en) | Heart segmentation quality evaluation method, device, equipment and storage medium | |
JP6827707B2 (en) | Information processing equipment and information processing system | |
Giancardo et al. | Quality assessment of retinal fundus images using elliptical local vessel density | |
US10307124B2 (en) | Image display device, method, and program for determining common regions in images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7465469 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |