JP2021178151A - 学習装置、推定装置、学習プログラム、及び推定プログラム - Google Patents

学習装置、推定装置、学習プログラム、及び推定プログラム Download PDF

Info

Publication number
JP2021178151A
JP2021178151A JP2020086303A JP2020086303A JP2021178151A JP 2021178151 A JP2021178151 A JP 2021178151A JP 2020086303 A JP2020086303 A JP 2020086303A JP 2020086303 A JP2020086303 A JP 2020086303A JP 2021178151 A JP2021178151 A JP 2021178151A
Authority
JP
Japan
Prior art keywords
joint
joints
image
position information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020086303A
Other languages
English (en)
Other versions
JP7465469B2 (ja
Inventor
昌司 小橋
Masashi Kobashi
淳一 平本
Junichi Hiramoto
健人 盛田
Taketo Morita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ASTROSTAGE Inc
Hyogo Public University Corp
Original Assignee
ASTROSTAGE Inc
Hyogo Public University Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ASTROSTAGE Inc, Hyogo Public University Corp filed Critical ASTROSTAGE Inc
Priority to JP2020086303A priority Critical patent/JP7465469B2/ja
Publication of JP2021178151A publication Critical patent/JP2021178151A/ja
Application granted granted Critical
Publication of JP7465469B2 publication Critical patent/JP7465469B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像処理における演算負荷を抑制しつつ、関節の位置を推定するために必要な学習結果を得る。【解決手段】学習装置は、取得部、演算部、生成部、及び抽出部を備える。取得部は、生体内の骨組織が撮影された第1及び第2撮影画像を取得する。演算部は、第1撮影画像を複数の領域に分割し、分割した領域の画像特徴量を求める。生成部は、画像特徴量を機械学習することにより、任意の領域が関節領域である第1クラスを含む少なくとも一つのクラスのうちのどのクラスに属するかを識別するための識別器を生成する。抽出部は、第2撮影画像から複数の関節間の相対位置をモデル位置情報として抽出する。モデル位置情報は所定数のパラメータを有する。所定数は、複数の関節の個数と複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さい。【選択図】図2

Description

本発明は、生体内の骨組織が撮影された撮影画像における関節の位置を推定するための学習装置、推定装置、学習プログラム、及び推定プログラムに関する。
近年、関節リウマチ患者の数は増加している。関節リウマチは、自己の免疫が主に手足の関節を侵すことで、関節痛、関節の変形が生じる炎症性自己免疫疾患である。
関節リウマチは、早期からの治療により予後の改善が可能な疾患である。従って、関節リウマチ患者に適切な治療を施すために疾患の進行度合いを正確に評価する必要がある。
関節リウマチの進行度合いは、例えばmTS(modified Total Sharp)スコアによって評価される。
特表2017−534397号公報(段落0009、0010)
従来、mTSスコアを算出するために、関節リウマチ患者の手指又は足指が撮影されたX線画像における関節位置を医師が手動で特定する必要があった。この関節位置を手動で特定する作業は医師にとって手間であった。また、関節位置の特定精度が医師の技量に依存するという問題もあった。
このため、関節位置を自動で特定できる画像処理の開発が望まれている。ここで、関節位置を自動で特定できる画像処理において演算負荷が大きければ、処理時間の増大などの新たな問題が生じる。
なお、特許文献1には指関節の位置を自動的に識別する技術が開示されているが、手固定具、センサ等を必要とする技術であり、使い勝手の悪いものであった。
本発明は、上記の状況に鑑み、画像処理における演算負荷を抑制しつつ、関節の位置を推定するために必要な学習結果を得ることができる学習装置及び学習プログラムを提供することを目的とする。
また本発明は、上記の状況に鑑み、画像処理における演算負荷を抑制しつつ、関節の位置を推定することができる推定装置及び推定プログラムを提供することを目的とする。
上記目的を達成するために本発明の第1局面に係る学習装置は、複数の関節それぞれの領域を含む画像における前記複数の関節それぞれの位置を特定する第1特定部と、前記複数の関節間の相対位置をモデル位置情報として特定する第2特定部と、を備え、前記モデル位置情報は所定数のパラメータを有し、前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さい構成(第1の構成)とする。
上記目的を達成するために本発明の第2局面に係る学習装置は、生体内の骨組織が撮影された第1及び第2撮影画像を取得する取得部と、前記第1撮影画像を複数の領域に分割し、分割した領域の画像特徴量を求める演算部と、前記画像特徴量を機械学習することにより、任意の領域が関節領域である第1クラスを含む少なくとも一つのクラスのうちのどのクラスに属するかを識別するための識別器を生成する生成部と、前記第2撮影画像から複数の関節間の相対位置をモデル位置情報として抽出する抽出部と、を備え、前記モデル位置情報は所定数のパラメータを有し、前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さい構成(第2の構成)とする。
上記第2の構成の学習装置において、前記第2撮影画像は複数枚あり、複数枚の第2撮影画像それぞれは異なる生体を被写体として撮影された画像であり、前記抽出部は、複数枚の第2撮影画像の関節位置を主成分分析することによって前記モデル位置情報を抽出する構成(第3の構成)であってもよい。
上記第2又は第3の構成の学習装置において、前記少なくとも一つのクラスは、指先領域である第2クラスを含む構成(第4の構成)であってもよい。
上記第2〜第4いずれかの構成の学習装置において、前記取得部と前記演算部及び前記抽出部との間に設けられる前処理部を備え、前記前処理部は、前記第1撮影画像及び前記第2撮影画像を水平線によって複数のブロックに分割し、前記複数のブロックそれぞれにおいて前記生体が写っている被写体領域と前記生体が写っていない背景領域との境界となる画素値を画素値ヒストグラムに基づき求め、前記複数のブロック間の前記境界となる画素値のシフトが小さくなるように前記ブロック単位で画素値を補正する構成(第5の構成)であってもよい。
上記目的を達成するために本発明の第3局面に係る学習プログラムは、コンピュータを、複数の関節それぞれの領域を含む画像における前記複数の関節それぞれの位置を特定する第1特定部、及び前記複数の関節間の相対位置をモデル位置情報として特定する第2特定部、として機能させる学習プログラムであって、前記モデル位置情報は所定数のパラメータを有し、前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さい構成(第6の構成)とする。
上記目的を達成するために本発明の第4局面に係る学習プログラムは、コンピュータを、生体内の骨組織が撮影された第1及び第2撮影画像を取得する取得部、前記第1撮影画像を複数の領域に分割し、分割した領域の画像特徴量を求める演算部、前記画像特徴量を機械学習することにより、任意の領域が関節領域である第1クラスを含む少なくとも一つのクラスのうちのどのクラスに属するかを識別するための識別器を生成する生成部、及び前記第2撮影画像から複数の関節間の相対位置をモデル位置情報として抽出する抽出部、として機能させる学習プログラムであって、前記モデル位置情報は所定数のパラメータを有し、前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さい構成(第7の構成)とする。
上記目的を達成するために本発明の第5局面に係る推定装置は、学習装置によって生成された識別器及び前記学習装置によって抽出されたモデル位置情報を有する推定装置であって、前記学習装置は、上記第2〜第5いずれかの構成の学習装置であり、前記推定装置は、生体内の骨組織が撮影された推定対象画像を複数の領域に分割し、前記複数の領域それぞれに対して画像特徴量を求める第1処理部と、前記第1処理部によって求められた前記画像特徴量から、前記識別器を用いて、前記複数の領域それぞれに対して関節らしさを示す度合を求める第2処理部と、前記関節らしさを示す度合に基づき前記推定対象画像における関節の候補を求める第3処理部と、前記関節の候補に基づき前記モデル位置情報の前記パラメータを変更し、前記モデル位置情報における各関節に対応する前記識別器で求められた前記関節らしさを示す度合の合計を最大化するように基づき前記パラメータの更新を収束させる第4処理部と、を備える構成(第8の構成)とする。
上記目的を達成するために本発明の第6局面に係る推定プログラムは、コンピュータを、学習装置によって生成された識別器及び前記学習装置によって抽出されたモデル位置情報を有する推定装置として機能させる推定プログラムであって、前記学習装置は、上記第1〜第4いずれかの構成の学習装置であり、前記推定装置は、生体内の骨組織が撮影された推定対象画像を複数の領域に分割し、前記複数の領域それぞれに対して画像特徴量を求める第1処理部と、前記第1処理部によって求められた前記画像特徴量から、前記識別器を用いて、前記複数の領域それぞれに対して関節らしさを示す度合を求める第2処理部と、前記関節らしさを示す度合に基づき前記推定対象画像における関節の候補を求める第3処理部と、前記関節の候補に基づき前記モデル位置情報の前記パラメータを変更し、前記モデル位置情報における各関節に対応する前記識別器で求められた前記関節らしさを示す度合の合計を最大化するように前記パラメータの更新を収束させる第4処理部と、を備える構成(第9の構成)とする。
本発明に係る学習装置及び学習プログラムによると、画像処理における演算負荷を抑制しつつ、関節の位置を推定するために必要な学習結果を得ることができる。
本発明に係る推定装置及び推定プログラムによると、画像処理における演算負荷を抑制しつつ、関節の位置を推定することができる。
本発明の一実施形態に係る情報処理装置の構成を示す図 図1に示す情報処理装置の機能の一例を示す機能ブロック図 取得部によって取得されたX線撮影画像の一例を示す図 取得部によって取得されたX線撮影画像の他の例を示す図 第1撮影画像を水平線で分割する様子を示す模式図 ブロックの番号と、境界となる画素値との関係を示す図 学習装置の概略動作例を示すフローチャート 推定装置の概略動作例を示すフローチャート
本発明の実施形態について図面を参照して以下に説明する。
<1.情報処理装置の構成>
図1は、本発明の一実施形態に係る情報処理装置の構成を示す図である。本発明の一実施形態に係る情報処理装置1(以下、情報処理装置1という)は、制御部2、記憶部3、通信部4、表示部5、及び操作部6を備える。
制御部2は、例えばマイクロコンピュータである。制御部2は、情報処理装置1の全体を統括的に制御する。制御部2は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。
記憶部3は、例えばフラッシュメモリ、ハードディスクドライブ等である。各種のデータ、情報処理装置1によって実行される学習プログラム及び推定プログラム等を記憶する。
通信部4は、外部装置との通信を行うための通信インターフェースである。通信部4と外部装置との通信方法は、有線通信でもよく、無線通信でもよく、有線と無線とを組み合わせた通信であってもよい。外部装置としては、例えばX線撮影画像を撮影するX線撮影装置、X線撮影画像を記憶している記憶装置等を挙げることができる。
表示部5は、例えば液晶表示装置、有機EL(Electro Luminescence)表示装置等である。表示部5は、制御部2の制御に基づいて各種の画像を表示する。
操作部6は、例えばキーボード、ポインティングデバイス等である。操作部6は、ユーザの操作内容に応じた信号を制御部2に出力する。
<2.情報処理装置の機能>
図2は、情報処理装置1の機能の一例を示す機能ブロック図である。情報処理装置1は、学習プログラムを実行することによって学習装置10として機能する。情報処理装置1は、推定プログラムを実行することによって推定装置20として機能する。なお、本実施形態では、1台の情報処理装置1が学習装置10及び推定装置20を機能部として含んでいるが、本実施形態とは異なり、学習装置10を機能部として含む情報処理装置と、推定装置20を機能部として含む情報処理装置とが別々の情報処理装置であってもよい。
<2−1.学習装置>
学習装置10は、取得部11、前処理部12、演算部13、生成部14、及び抽出部15を含む。
取得部11は、生体内の骨組織が撮影された第1及び第2撮影画像を取得する。具体的には、取得部11は、通信部4(図1参照)によって外部装置から第1及び第2撮影画像を取得する。
本実施形態では、第1撮影画像と第2撮影画像とは同一の画像である。なお、本実施形態とは異なり、第1撮影画像と第2撮影画像とは異なる撮影画像であってもよい。
また、本実施形態では、取得部11は複数の第1撮影画像(=第2撮影画像)を取得する。より詳細には、取得部11は、複数の第1撮影画像(=第2撮影画像)として複数のX線撮影画像を取得する。本実施形態では、取得部11によって取得された複数のX線撮影画像は、レントゲン撮影装置によって撮影された異なる複数人の両手の画像である。
図3は、取得部11によって取得されたX線撮影画像の一例であり、関節リウマチが進行していない人の両手の画像である。図4は、取得部11によって取得されたX線撮影画像の他の例であり、関節リウマチが進行した人の両手の画像である。
図3及び図4から分かるように、X線撮影画像の上部は暗くなっており、X線撮影画像の下部は明るくなっている。このような上下方向における明暗の発生は、レントゲン撮影装置の特性に起因するものである。
そこで、前処理部12は、図5に示す模式図のように第1撮影画像(=第2撮影画像)を等間隔に並ぶ水平線H1〜H9によってブロックB1〜B10に分割する。ここでは、図示を簡単にするために分割数を10にしたが、実際の分割数は例えば100〜400程度が好ましい。分割数が少なすぎると、滑らかな補正が行えず、逆に分割数が多すぎると、各ブロックの領域が狭くなり、ノイズ耐性が劣化するからである。本実施形態では、実際の分割数を200としている。それから、前処理部12は、ブロックB1〜B10それぞれにおいて手領域(前景)と非手領域(背景)との境界となる画素値(しきい値)を求める。手領域(前景)と非手領域(背景)との境界となる画素値(しきい値)を求める手法は特に限定されないが、本実施形態では大津のしきい値法を用いる。そして、前処理部12は、ブロックB1〜B10間の境界となる画素値のシフトが小さくなるようにブロックB1〜B10単位で画素値を補正する。例えば、ブロックの番号と、境界となる画素値とが図6に示す関係であって指数関数E1で近似できる場合、当該指数関数E1が直線L1に変換されるように、ブロックB1〜B10毎に異なるパラメータを設定し、当該パラメータを画素値に演算することで画素値を補正する。つまり、画素値を補正した後、ブロックB1〜B10それぞれにおいて手領域(前景)と非手領域(背景)との境界となる画素値(しきい値)を画素値ヒストグラムに基づき大津のしきい値法で求めると、ブロックの番号と、境界となる画素値(しきい値)との関係が直線L1で近似できる。
なお、上述したX線撮影画像に対する補正処理は、学習装置10でしか実行できない処理ではなく、X線撮影画像に対して画像処理を行う画像処理装置全般に適用することができる。
次に、前処理部12は、第1撮影画像(=第2撮影画像)から手領域を自動抽出する。具体的には、前処理部12は、図6に示す直線L1の縦軸座標値である境界となる画素値(しきい値)TH1より高い画素値を手領域とする。さらに、前処理部12は、境界となる画素値(しきい値)TH1以下の画素値を非手領域とし、手領域及び非手領域それぞれにおいて穴や孤立点の除去、形状の平滑化、微小面積領域の除去を行って、手領域及び非手領域それぞれを確定する。
次に、前処理部12は、左手と右手との分割を行う。右手と左手を分割する手法は特に限定されないが、本実施形態では大津のしきい値法を用いる。具体的には、本実施形態において前処理部12は、第1撮影画像(=第2撮影画像)から水平方向に手領域の画素値ヒストグラムを作成し、その手領域の画素値ヒストグラムに基づき大津のしきい値法で第1撮影画像(=第2撮影画像)における左手と右手との分割ラインを決定する。右手領域は、前処理部12によって左右反転され、以後は左手として取り扱われる。つまり、右手領域を左右反転してから後は、一つの第1撮影画像(=第2撮影画像)に二つの左手が存在することになる。これにより、一つの第1撮影画像(=第2撮影画像)から左手に関するデータが2つ得られる。このようにしてデータ数を2倍に増やすことで、学習装置10における学習精度及び推定装置20における推定精度を向上できる。
本実施形態では、演算部13は、垂直方向100画素×水平方向100画素の領域を設定し、各々の第1撮影画像を複数の領域に分割する。演算部13によって設定される領域の垂直方向画素数は100に限定されない。同様に、演算部13によって設定される領域の水平方向画素数も100に限定されない。演算部13によって設定される領域の垂直方向画素数と演算部13によって設定される領域の水平方向画素数とは同一であってもよく同一でなくてもよい。また、本実施形態では、隣接する領域間で重複部分がない態様で各々の第1撮影画像が複数の領域に分割されるが、隣接する領域間で重複部分がある態様で各々の第1撮影画像が複数の領域に分割されてもよい。
次に、演算部13は、領域それぞれの画像特徴量を求める。本実施形態では、画像特徴量として、HOG(Histograms of Oriented Gradients)特徴量を使用している。HOG特徴量は幾何学的変換に強く、第1撮影画像の明るさの変動に頑健であることが、HOG特徴量を使用した理由である。なお、本実施形態とは異なり、演算部13がHOG特徴量以外の画像特徴量を求めてもよい。
生成部14は、関節領域である第1クラスを含む複数のクラスを設定する。
本実施形態では、生成部14は、関節領域である第1クラスと、指先領域である第2クラスと、関節領域でもなく指先領域でもない領域である第3クラスと、を設定する。生成部14が指先領域である第2クラスを設定することにより、学習装置10が指先領域を誤って関節領域であると学習することを抑制することができる。なお、本実施形態とは異なり、生成部14が、関節領域である第1クラス及び非関節領域であるクラスの二つのクラスのみを設定してもよい。また、本実施形態とは異なり、生成部14が関節領域である第1クラスのみを設定してもよい。
生成部14は、各々の第1撮影画像内の各々の左手領域から、操作部6(図1参照)の出力信号に基づき第1クラスにおいて14個の領域を選択する。つまり、第1クラスにおける領域選択は手動である。当該14個の領域は、母指第1関節に対応する領域、母指第2関節に対応する領域、示指第1関節に対応する領域、示指第2関節に対応する領域、示指第3関節に対応する領域、中指第1関節に対応する領域、中指第2関節に対応する領域、中指第3関節に対応する領域、環指第1関節に対応する領域、環指第2関節に対応する領域、環指第3関節に対応する領域、小指第1関節に対応する領域、小指第2関節に対応する領域、及び小指第3関節に対応する領域である。演算部13は、上述したように各々の第1撮影画像内の各々の左手領域から第1クラスにおいて14個の領域を選択するので、複数の関節それぞれの領域を含む画像における複数の関節それぞれの位置を特定する第1特定部であるともいえる。
生成部14は、各々の第1撮影画像内の各々の左手領域から、操作部6(図1参照)の出力信号に基づき第2クラスにおいて5個の領域を選択する。つまり、第2クラスにおける領域選択は手動である。当該5個の領域は、母指の指先に対応する領域、示指の指先に対応する領域、中指の指先に対応する領域、環指の指先に対応する領域、及び小指の指先に対応する領域である。
生成部14は、各々の第1撮影画像内の各々の左手領域から、第1クラスの領域及び第2クラスの領域を除いた後、第3クラスにおいて例えば25個の領域をランダムに選択する。つまり、第3クラスにおける領域選択は自動である。本実施形態では、演算部13は、第3クラスにおいて複数の領域を所定の条件を満たした上でランダムに選択する。当該所定の条件は、第3クラスにおいて選択される各領域が第3クラスにおいて選択される他の領域と重複せず、且つ、第3クラスにおいて選択される各領域が偏在しないように平均的に配置されるという条件である。
次に、生成部14は、複数の第1撮影画像それぞれに対してコントラストを変更する。コントラストの変更は一種類でもよく複数種類でもよい。元の第1撮影画像とコントラストを変更した第1撮影画像とが学習データとして用いられる。
生成部14は、上述した学習データ、領域それぞれの画像特徴量を演算部13から受け取る。生成部14は、上述した学習データを用いて、第1クラスの領域それぞれの画像特徴量、第2クラスの領域それぞれの画像特徴量、及び第3クラスの領域それぞれの画像特徴量を機械学習することにより、任意の領域が第1〜第3クラスのうちのどのクラスに属するかを識別するための識別器を生成する。識別器を生成する手法は特に限定されないが、本実施形態ではサポートベクターマシンにより識別器を生成する。
抽出部15は、第2撮影画像(=第1撮影画像)の各指関節の中心位置を前処理部12から受け取る。なお、前処理部12は、第2撮影画像(=第1撮影画像)の各指関節の中心位置を操作部6(図1参照)の出力信号に基づき選択する。つまり、第2撮影画像(=第1撮影画像)の各指関節の中心位置の選択は手動である。抽出部15は、複数の第2撮影画像に対して関節毎に座標の平均値を求め、関節毎の座標の平均値に基づいて複数の第2撮影画像それぞれに対して剛体レジストレーションを実行する。抽出部15は、剛体レジストレーション後の複数の第2撮影画像に対して関節毎に座標の平均値を求め、関節毎の座標の平均値に基づいて複数の第2撮影画像それぞれに対して剛体レジストレーションを実行する。抽出部15は、剛体レジストレーションが収束するまで、関節毎の座標の平均値算出と剛体レジストレーションとを繰り返す。抽出部15は、剛体レジストレーションが収束した第2撮影画像(=第1撮影画像)から複数の関節間の相対位置をモデル位置情報として抽出する。モデル位置情報は所定数のパラメータを有する。そして、所定数は、複数の関節の個数と複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さい。これにより、複数の関節それぞれの位置を示す各座標によってモデル位置情報を構成する場合と比較して、画像処理における演算負荷を抑制しつつ、関節の位置を推定することができる。抽出部15は、上述したように第2撮影画像(=第1撮影画像)から複数の関節間の相対位置をモデル位置情報として抽出するので、複数の関節間の相対位置をモデル位置情報として特定する第2特定部であるともいえる。
本実施形態では、抽出部15は、レントゲン撮影装置によって撮影された異なる複数人の両手の画像から複数の手指関節間の相対位置をモデル位置情報として抽出する。本実施形態では、モデル位置情報は3個のパラメータを有し、モデル位置情報における複数の手指関節の個数は14個であり、複数の手指関節それぞれの位置を示す各座標は2次元である。なお、モデル位置情報における所定数のパラメータは3個のパラメータに限定されず、上述したように所定数が複数の関節の個数と複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さければよい。
また、本実施形態では、抽出部15は、M枚の第2撮影画像の関節位置を主成分分析することによってモデル位置情報を抽出する。一つの手には14個の関節点が存在し、各関節点は第2撮影画像において2次元の座標を有するので、一つの手(例えば右手)の各関節点の座標を1次元ベクトル化すると、以下のようなベクトルaとなる。
a=[x1R1,y1R1,x1R2,y1R2,…,x1R14,y1R14
したがって、M枚の第2撮影画像の関節位置の情報は、以下のようなM行28列の行列Aとなる。
Figure 2021178151
抽出部15は、行列Aを主成分分析することによってモデル位置情報を抽出する。本実施形態で、モデル位置情報は、平均ベクトル+主成分スコア×主成分ベクトルで表現される。平均ベクトルと主成分ベクトルとは共通である。主成分ベクトルは、最も分散の大きい方向(第1主成分ベクトル)、2番目に分散の大きい方向(第2主成分ベクトル)、…、及びn番目に分散の大きい方向(第n主成分ベクトル)によって構成されるn次元のベクトルである。本実施形態では、n=3とすることで、上述したようにモデル位置情報が3個のパラメータを有することになる。
主成分スコアは、第1主成分ベクトルの係数となる第1パラメータ、第2主成分ベクトルの係数となる第2パラメータ、及び第3主成分ベクトルの係数となる第3パラメータによって構成される。主成分スコアは、各個人の手指の関節間の相対位置の平均からの変動を示すパラメータである。
以上説明した学習装置10は、例えば図7に示すフローチャートのように動作する。以下、図7に示す動作例について説明する。
まず学習装置10は、第1及び第2撮影画像を取得する(ステップS1)。
次に、学習装置10は、第1及び第2撮影画像の上下方向における明暗を低減するための補正処理を第1及び第2撮影画像に対して実行する(ステップS2)。
次に、学習装置10は、第1及び第2撮影画像それぞれの手領域及び非手領域それぞれを確定する(ステップS3)。
次に、学習装置10は、左手と右手とを分割し、右手領域に対して左右反転処理を行う(ステップS4)。
次に、学習装置10は、第1撮影画像を複数の領域に分割し、分割した領域それぞれの画像特徴量を求める(ステップS5)。
次に、学習装置10は、第1〜第3クラスを設定し、第1〜第3クラスそれぞれの領域を選択する(ステップS6)。
次に、学習装置10は、第1撮影画像に対してコントラストを変更して学習データのデータ数を増加させる(ステップS7)。
次に、学習装置10は、元の第1撮影画像とコントラストを変更した第1撮影画像とを学習データとして用いて、任意の領域が第1〜第3クラスのうちのどのクラスに属するかを識別するための識別器を生成する。(ステップS8)。
次に、学習装置10は、第2撮影画像に対して剛体レジストレーションを実行する(ステップS9)。
最後に、学習装置10は、剛体レジストレーションが収束した第2撮影画像から複数の関節間の相対位置をモデル位置情報として抽出する(ステップS10)。
<2−2.推定装置>
推定装置20は、第1処理部21、第2処理部22、第3処理部23、第4処理部24を含む。
第1処理部21は、推定対象画像を取得する。具体的には、第1処理部21は、通信部4(図1参照)によって外部装置から推定対象画像を取得する。本実施形態では、第1処理部21によって取得された推定対象画像は、レントゲン撮影装置によって撮影された人の両手の画像である。
次に、第1処理部21は、推定対象画像に対して前処理部12と同一の処理を行う。
次に、第1処理部21は、前処理部12と同一の処理が行われた後の推定対象画像を複数の領域に分割し、複数の領域それぞれに対して画像特徴量を求める。本実施形態では、第1処理部21は、垂直方向100画素×水平方向100画素の領域を設定し、推定対象画像を複数の領域に分割する。なお、本実施形態では、隣接する領域間で重複部分がない態様で推定対象画像が複数の領域に分割されるが、隣接する領域間で重複部分がある態様で推定対象画像が複数の領域に分割されてもよい。また、本実施形態では、演算部13と同様に第1処理部21においても、画像特徴量として、HOG特徴量を使用している。
第2処理部22は、第1処理部21によって求められた複数の領域それぞれの画像特徴量から、生成部14によって生成された識別器を用いて、複数の領域それぞれに対して関節らしさを示す度合を求める。なお、上述した第1クラスは関節らしさを意味しており、上述した第2クラスは指先らしさを意味しており、上述した第3クラスは背景らしさを意味している。本実施形態では、関節らしさを示す度合は0以上1以下の任意の値をとり、関節らしいほど関節らしさを示す度合の値は大きくなる。
第3処理部23は、関節らしさを示す度合に基づき推定対象画像における関節の候補を求める。
具体的には、第3処理部23は、関節らしさを示す度合を用いて、最も関節らしい領域を関節の候補として抽出し、関節の候補として抽出した領域の周辺領域を関節の候補から除外する。そして、第3処理部23は、関節らしさを示す度合を用いて、残った領域(関節の候補として抽出された領域及び関節の候補から除外された領域以外の領域)の中で最も関節らしい領域を関節の候補として抽出し、関節の候補として抽出した領域の周辺領域を関節の候補から除外する。上記の処理を繰り返して、第3処理部23は、一つの手の領域に対して20個の関節の候補を抽出する。
第3処理部23は、一つの手の領域に対して20個の関節の候補から14個の関節位置を選択する。一つの手の領域に対して20個の関節の候補から14個の関節位置を選択する手法は特に限定されないが、本実施形態ではICP(Iterative Closest Point)アルゴリズムを用いる。具体的には、本実施形態において第3処理部23は、一つの手の領域に対して20個の関節の候補から10個をランダムに選び、そのランダムに選ばれた10個と平均位置と抽出部15によって抽出されたモデル位置情報の平均ベクトルで表される位置とを比較して一致度を確認しながら、ICP(Iterative Closest Point)アルゴリズムを用いて14個の関節位置を選択する。
第4処理部24は、関節の候補に基づきモデル位置情報のパラメータを変更し、モデル位置情報における各関節に対応する識別器で求められた関節らしさを示す度合の合計に基づきパラメータの更新を収束させる。具体的には、第4処理部24は、20個の関節の候補から選択された14個の関節位置に基づき、抽出部15によって抽出されたモデル位置情報の第1〜第3パラメータを変更する。そして、第4識別器24は、モデル位置情報における各関節に対応する識別器で求められた関節らしさを示す度合の合計を最大化するように第1〜第3パラメータの更新を収束させる。更新が収束した第1〜第3パラメータを有するモデル位置情報が、推定対象画像の手指の関節位置の推定結果となる。
以上説明した推定装置20は、例えば図8に示すフローチャートのように動作する。以下、図8に示す動作例について説明する。
まず推定装置20は、推定対象画像を取得する(ステップS11)。
次に、推定装置20は、推定対象画像の上下方向における明暗を低減するための補正処理を推定対象画像に対して実行する(ステップS12)。
次に、推定装置20は、推定対象画像の手領域及び非手領域それぞれを確定する(ステップS13)。
次に、推定装置20は、左手と右手とを分割し、右手領域に対して左右反転処理を行う(ステップS14)。
次に、推定装置20は、定対象画像を複数の領域に分割し、複数の領域それぞれに対して画像特徴量を求める(ステップS15)。
次に、推定装置20は、複数の領域それぞれの画像特徴量から、学習装置10によって生成された識別器を用いて、複数の領域それぞれに対して関節らしさを示す度合を求める(ステップS16)。
次に、推定装置20は、関節らしさを示す度合に基づき推定対象画像における関節の候補を求める(ステップS17)。
最後に、推定装置20は、関節の候補に基づきモデル位置情報のパラメータを変更し、モデル位置情報における各関節に対応する識別器で求められた関節らしさを示す度合の合計に基づきパラメータの更新を収束させる(ステップS18)。
<3.その他>
なお、本発明の構成は、上記実施形態のほか、発明の主旨を逸脱しない範囲で種々の変更を加えることが可能である。上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。
例えば、上述した実施形態では、第1撮影画像、第2撮影画像、及び推定対象画像は、X線撮影画像であったが、超音波撮影画像などであってもよい。また、MRI(Magnetic Resonance Imaging)画像、3D−CT(Computed Tomography)画像などの3D画像であってもよい。第1撮影画像、第2撮影画像、及び推定対象画像が3D画像である場合、関節の座標は3次元になる。
撮影対象は、人間に限らず、骨組織を有する生体であればよい。
10 学習装置
11 取得部
12 前処理部
13 演算部
14 生成部
15 抽出部
20 推定装置
21 第1処理部
22 第2処理部
23 第3処理部
24 第4処理部

Claims (9)

  1. 複数の関節それぞれの領域を含む画像における前記複数の関節それぞれの位置を特定する第1特定部と、
    前記複数の関節間の相対位置をモデル位置情報として特定する第2特定部と、
    を備え、
    前記モデル位置情報は所定数のパラメータを有し、
    前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さいことを特徴とする学習装置。
  2. 生体内の骨組織が撮影された第1及び第2撮影画像を取得する取得部と、
    前記第1撮影画像を複数の領域に分割し、分割した領域の画像特徴量を求める演算部と、
    前記画像特徴量を機械学習することにより、任意の領域が関節領域である第1クラスを含む少なくとも一つのクラスのうちのどのクラスに属するかを識別するための識別器を生成する生成部と、
    前記第2撮影画像から複数の関節間の相対位置をモデル位置情報として抽出する抽出部と、
    を備え、
    前記モデル位置情報は所定数のパラメータを有し、
    前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さいことを特徴とする学習装置。
  3. 前記第2撮影画像は複数枚あり、複数枚の第2撮影画像それぞれは異なる生体を被写体として撮影された画像であり、
    前記抽出部は、複数枚の第2撮影画像の関節位置を主成分分析することによって前記モデル位置情報を抽出する、請求項2に記載の学習装置。
  4. 前記少なくとも一つのクラスは、指先領域である第2クラスを含む、請求項2又は請求項3に記載の学習装置。
  5. 前記取得部と前記演算部及び前記抽出部との間に設けられる前処理部を備え、
    前記前処理部は、
    前記第1撮影画像及び前記第2撮影画像を水平線によって複数のブロックに分割し、
    前記複数のブロックそれぞれにおいて前記生体が写っている被写体領域と前記生体が写っていない背景領域との境界となる画素値を画素値ヒストグラムに基づき求め、
    前記複数のブロック間の前記境界となる画素値のシフトが小さくなるように前記ブロック単位で画素値を補正する請求項1〜3のいずれか一項に記載の学習装置。
  6. コンピュータを、
    複数の関節それぞれの領域を含む画像における前記複数の関節それぞれの位置を特定する第1特定部、及び
    前記複数の関節間の相対位置をモデル位置情報として特定する第2特定部、
    として機能させる学習プログラムであって、
    前記モデル位置情報は所定数のパラメータを有し、
    前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さいことを特徴とする学習プログラム。
  7. コンピュータを、
    生体内の骨組織が撮影された第1及び第2撮影画像を取得する取得部、
    前記第1撮影画像を複数の領域に分割し、分割した領域の画像特徴量を求める演算部、
    前記画像特徴量を機械学習することにより、任意の領域が関節領域である第1クラスを含む少なくとも一つのクラスのうちのどのクラスに属するかを識別するための識別器を生成する生成部、及び
    前記第2撮影画像から複数の関節間の相対位置をモデル位置情報として抽出する抽出部、
    として機能させる学習プログラムであって、
    前記モデル位置情報は所定数のパラメータを有し、
    前記所定数は、前記複数の関節の個数と前記複数の関節それぞれの位置を示す各座標の次元数との乗算値よりも小さいことを特徴とする学習プログラム。
  8. 学習装置によって生成された識別器及び前記学習装置によって抽出されたモデル位置情報を有する推定装置であって、
    前記学習装置は、請求項2〜5のいずれか一項に記載の学習装置であり、
    前記推定装置は、
    生体内の骨組織が撮影された推定対象画像を複数の領域に分割し、前記複数の領域それぞれに対して画像特徴量を求める第1処理部と、
    前記第1処理部によって求められた前記画像特徴量から、前記識別器を用いて、前記複数の領域それぞれに対して関節らしさを示す度合を求める第2処理部と、
    前記関節らしさを示す度合に基づき前記推定対象画像における関節の候補を求める第3処理部と、
    前記関節の候補に基づき前記モデル位置情報の前記パラメータを変更し、前記モデル位置情報における各関節に対応する前記識別器で求められた前記関節らしさを示す度合の合計を最大化するように前記パラメータの更新を収束させる第4処理部と、
    を備えることを特徴とする推定装置。
  9. コンピュータを、
    学習装置によって生成された識別器及び前記学習装置によって抽出されたモデル位置情報を有する推定装置として機能させる推定プログラムであって、
    前記学習装置は、請求項2〜5のいずれか一項に記載の学習装置であり、
    前記推定装置は、
    生体内の骨組織が撮影された推定対象画像を複数の領域に分割し、前記複数の領域それぞれに対して画像特徴量を求める第1処理部と、
    前記第1処理部によって求められた前記画像特徴量から、前記識別器を用いて、前記複数の領域それぞれに対して関節らしさを示す度合を求める第2処理部と、
    前記関節らしさを示す度合に基づき前記推定対象画像における関節の候補を求める第3処理部と、
    前記関節の候補に基づき前記モデル位置情報の前記パラメータを変更し、前記モデル位置情報における各関節に対応する前記識別器で求められた前記関節らしさを示す度合の合計を最大化するように前記パラメータの更新を収束させる第4処理部と、
    を備えることを特徴とする推定プログラム。
JP2020086303A 2020-05-15 2020-05-15 学習装置、推定装置、学習プログラム、及び推定プログラム Active JP7465469B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020086303A JP7465469B2 (ja) 2020-05-15 2020-05-15 学習装置、推定装置、学習プログラム、及び推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020086303A JP7465469B2 (ja) 2020-05-15 2020-05-15 学習装置、推定装置、学習プログラム、及び推定プログラム

Publications (2)

Publication Number Publication Date
JP2021178151A true JP2021178151A (ja) 2021-11-18
JP7465469B2 JP7465469B2 (ja) 2024-04-11

Family

ID=78509749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020086303A Active JP7465469B2 (ja) 2020-05-15 2020-05-15 学習装置、推定装置、学習プログラム、及び推定プログラム

Country Status (1)

Country Link
JP (1) JP7465469B2 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8135209B2 (en) 2005-07-19 2012-03-13 Nec Corporation Articulated object position and posture estimation device, method and program
WO2008087556A2 (en) 2007-01-16 2008-07-24 Optasia Medical, Limited Image processing systems and methods
JP5555207B2 (ja) 2011-07-14 2014-07-23 日本電信電話株式会社 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP6723061B2 (ja) 2016-04-15 2020-07-15 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
WO2017217050A1 (ja) 2016-06-16 2017-12-21 ソニー株式会社 情報処理装置、情報処理方法及び記憶媒体
JP2018005727A (ja) 2016-07-06 2018-01-11 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6858047B2 (ja) 2017-03-27 2021-04-14 国立大学法人 東京大学 診断画像処理装置、評価支援方法及びプログラム

Also Published As

Publication number Publication date
JP7465469B2 (ja) 2024-04-11

Similar Documents

Publication Publication Date Title
JP6947759B2 (ja) 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法
Kaur et al. A generalized method for the segmentation of exudates from pathological retinal fundus images
CN107909622B (zh) 模型生成方法、医学成像的扫描规划方法及医学成像系统
WO2020062840A1 (zh) 一种检测骨龄的方法及装置
KR102030533B1 (ko) 근감소증 분석지원을 위한 인공 신경망 기반의 인체 형태 분석법을 채용하는 영상 처리 장치 및 이를 이용한 영상 처리 방법
US11615508B2 (en) Systems and methods for consistent presentation of medical images using deep neural networks
JP2007111533A (ja) コンピュータ断層撮影ボリュームデータにおける脊髄検出の方法およびシステム
JP6458166B2 (ja) 医用画像処理方法及び装置及びシステム及びプログラム
JP2006034585A (ja) 画像表示装置、画像表示方法およびそのプログラム
US8948483B2 (en) Automated contrast enhancement for contouring
JPWO2007013300A1 (ja) 異常陰影候補検出方法及び異常陰影候補検出装置
CN114332132A (zh) 图像分割方法、装置和计算机设备
KR20200108686A (ko) 딥러닝 알고리즘을 이용한 근감소증 분석 프로그램 및 애플리케이션
JP7083191B2 (ja) セファロ画像における計測点の自動認識方法
Vasamsetti et al. Automatic landmark identification in lateral cephalometric images using optimized template matching
CN114202516A (zh) 一种异物检测方法、装置、电子设备及存储介质
Mukherjee et al. Automatic detection and classification of solitary pulmonary nodules from lung CT images
JP7465469B2 (ja) 学習装置、推定装置、学習プログラム、及び推定プログラム
JP7439990B2 (ja) 医療画像処理装置、医療画像処理プログラム、および医療画像処理方法
Wang et al. Supraspinatus segmentation from shoulder ultrasound images using a multilayer self-shrinking snake
CN115880358A (zh) 定位模型的构建方法、影像标志点的定位方法及电子设备
JP6501569B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN114549553A (zh) 角度测量方法、装置、计算机设备及可读存储介质
JP5343973B2 (ja) 医用画像処理装置及びプログラム
US11116442B1 (en) Image integrity and repeatability system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240319

R150 Certificate of patent or registration of utility model

Ref document number: 7465469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150