WO2022176813A1 - 学習装置、学習方法、学習装置の作動プログラム、教師データ生成装置、機械学習モデル及び医療用撮影装置 - Google Patents

学習装置、学習方法、学習装置の作動プログラム、教師データ生成装置、機械学習モデル及び医療用撮影装置 Download PDF

Info

Publication number
WO2022176813A1
WO2022176813A1 PCT/JP2022/005744 JP2022005744W WO2022176813A1 WO 2022176813 A1 WO2022176813 A1 WO 2022176813A1 JP 2022005744 W JP2022005744 W JP 2022005744W WO 2022176813 A1 WO2022176813 A1 WO 2022176813A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
learning
human body
image
model
Prior art date
Application number
PCT/JP2022/005744
Other languages
English (en)
French (fr)
Inventor
將高 菅原
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2023500828A priority Critical patent/JPWO2022176813A1/ja
Priority to EP22756131.3A priority patent/EP4295771A1/en
Priority to CN202280013806.7A priority patent/CN116829074A/zh
Publication of WO2022176813A1 publication Critical patent/WO2022176813A1/ja
Priority to US18/360,817 priority patent/US20230368384A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/08Auxiliary means for directing the radiation beam to a particular spot, e.g. using light beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

学習装置は、医療用撮影装置に対してポジショニングされた状態の被検者を光学カメラで撮影したカメラ画像を入力として、仮想カセッテカメラ画像に写る仮想カセッテ被検者の撮影部位及び撮影方向を導出する機械学習モデルを学習させる学習装置であって、プロセッサと仮想カセッテプロセッサに接続又は内蔵されたメモリとを有し、仮想カセッテプロセッサは、三次元のコンピュータグラフィックスデータによって構成される人体モデルに基づいて生成された人体の疑似画像であって、仮想カセッテ医療用撮影装置に対してポジショニングされた状態の仮想カセッテ被検者を模した疑似画像を、仮想カセッテ撮影部位及び撮影方向の組み合わせ毎に複数生成し、生成された仮想カセッテ疑似画像と、仮想カセッテ組み合わせの正解データとで構成される複数の教師データを用い、仮想カセッテ機械学習モデルを学習させる。

Description

学習装置、学習方法、学習装置の作動プログラム、教師データ生成装置、機械学習モデル及び医療用撮影装置
  本開示の技術は、学習装置、学習方法、学習装置の作動プログラム、教師データ生成装置、機械学習モデル及び医療用撮影装置に関する。
 医療用撮影装置として、例えば放射線撮影装置が知られている。放射線撮影の際には、撮影の依頼元の医師によって取得した撮影オーダに基づいて、技師は、放射線撮影装置と被検者との相対的な位置関係を調整するポジショニングを行う(例えば特開2020-192440号公報)。撮影オーダにおいては、胸部又は腹部といった撮影部位と、正面又は背面といった撮影方向とが規定される。技師は、撮影オーダの内容に基づいて被検者のポジショニングを行う。
 特開2020-192440号公報には、放射線撮影装置に対してポジショニングされた状態の被検者を光学カメラで撮影し、撮影したカメラ画像と理想的なポジショニングの状態を示すマークとを合成した合成画像を技師に確認させることにより、適切なポジショニングのアシストを行う技術が開示されている。
 上記のようなカメラ画像を、被検者の撮影部位及び撮影方向が撮影オーダの内容に適合しているか否かの確認に利用することが検討されている。具体的には、カメラ画像を入力として、カメラ画像に写る被検者の撮影部位及び撮影方向を機械学習モデルに導出させることが検討されている。これによれば、撮影オーダで指定された撮影部位と異なる撮影部位を撮影してしまうといった間違いを抑制することができる。医療用撮影の場合、被写体となる被検者は体の自由が利かない場合も多く、再撮影の負担が大きい場合があるため、他の用途と比較して、再撮影を抑制する必要性が高い。そのため、こうした機械学習モデルを医療用撮影で利用する場合は、カメラ画像に写る被検者の撮影部位及び撮影方向の認識精度が高い機械学習モデルが望まれる。
 機械学習モデルの認識精度を向上させるには、カメラ画像と撮影部位及び撮影方向の組み合わせの正解データとで構成される教師データの数は多いほどよい。特に、撮影部位及び撮影方向の組み合わせ毎に、教師データのカメラ画像が多様であるほど、機械学習モデルの認識精度は向上する。同じ撮影部位及び撮影方向の組み合わせであっても、カメラ画像に写る被検者の姿勢又は被検者の外見などは多様である。被検者の姿勢又は外見が異なる場合でも、機械学習モデルには、同じ撮影部位及び撮影方向の組み合わせであると認識させる必要がある。そのためには、教師データに用いるカメラ画像としては、撮影部位及び撮影方向の組み合わせ毎に、被検者の姿勢及び外見などが異なる多様なカメラ画像を数多く収集する必要がある。
 しかしながら、こうしたカメラ画像を数多く収集するのは、非常に手間が掛かるので、機械学習モデルの認識精度を効率的に向上させる方法が要望されていた。
 本開示に係る技術は、カメラ画像に写る被検者の撮影部位及び撮影方向を導出する機械学習モデルを、カメラ画像のみを教師データとして用いる場合と比較して、効率的に学習させることが可能な学習装置、学習方法、学習プログラム、教師データ生成装置、及び機械学習モデルを提供する。
 上記目的を達成するために、本開示の学習装置は、医療用撮影装置に対してポジショニングされた状態の被検者を光学カメラで撮影したカメラ画像を入力として、カメラ画像に写る被検者の撮影部位及び撮影方向を導出する機械学習モデルを学習させる学習装置であって、プロセッサとプロセッサに接続又は内蔵されたメモリとを有し、プロセッサは、三次元のコンピュータグラフィックスデータによって構成される人体モデルに基づいて生成された人体の疑似画像であって、医療用撮影装置に対してポジショニングされた状態の被検者を模した疑似画像を、撮影部位及び撮影方向の組み合わせ毎に複数生成し、生成された疑似画像と、組み合わせの正解データとで構成される複数の教師データを用い、機械学習モデルを学習させる。
 三次元のコンピュータグラフィックスデータには、人体モデルの姿勢及び外見のうちの少なくとも一方を変更するためのモデリングパラメータが付帯されていてもよい。
 モデリングパラメータは、人体モデルの体格を表す体格情報、性別、姿勢情報、皮膚の色、髪の色、髪型、及び服装のうちの少なくとも1つを含んでいてもよい。
 プロセッサは、設定された視点から人体モデルをレンダリングすることにより疑似画像を生成することが可能であり、視点はレンダリングパラメータによって変更可能であってもよい。
 視点を設定するための視点情報には、視点に仮想的に設置される仮想カメラの焦点距離と仮想カメラから人体モデルまでの距離である撮影距離とが含まれていてもよい。
 疑似画像と正解データとで構成される教師データを第1教師データとした場合において、プロセッサは、第1教師データに加えて、光学カメラで撮影したカメラ画像と正解データとで構成される第2教師データを用いて、機械学習モデルを学習させてもよい。
 さらに、疑似画像と人体モデルの体格を表す体格情報の正解データとで構成される複数の体格出力用教師データを用いて、カメラ画像を入力として被検者の体格を表す体格情報を導出する体格出力用機械学習モデルを学習させてもよい。
 医療用撮影装置は、放射線撮影装置及び超音波撮影装置のうちの少なくとも1つを含んでもよい。
 本開示の学習方法は、医療用撮影装置に対してポジショニングされた状態の被検者を光学カメラで撮影したカメラ画像を入力として、カメラ画像に写る被検者の撮影部位及び撮影方向を導出する機械学習モデルを、コンピュータを用いて学習させる学習方法であって、三次元のコンピュータグラフィックスデータによって構成される人体モデルに基づいて生成された人体の疑似画像であって、医療用撮影装置に対してポジショニングされた状態の被検者を模した疑似画像を、撮影部位及び撮影方向の組み合わせ毎に複数生成し、生成された疑似画像と、組み合わせの正解データとで構成される複数の教師データを用い、機械学習モデルを学習させる。
 学習装置の作動プログラムは、医療用撮影装置に対してポジショニングされた状態の被検者を光学カメラで撮影したカメラ画像を入力として、カメラ画像に写る被検者の撮影部位及び撮影方向を導出する機械学習モデルを学習させる学習装置として、コンピュータを機能させる学習装置の作動プログラムであって、三次元のコンピュータグラフィックスデータによって構成される人体モデルに基づいて生成された人体の疑似画像であって、医療用撮影装置に対してポジショニングされた状態の被検者を模した疑似画像を、撮影部位及び撮影方向の組み合わせ毎に複数生成し、生成された疑似画像と、組み合わせの正解データとで構成される複数の教師データを用い、機械学習モデルを学習させる学習装置として、コンピュータを機能させる学習装置の作動プログラム。
 本開示の教師データ生成装置は、医療用撮影装置に対してポジショニングされた状態の被検者を光学カメラで撮影したカメラ画像を入力として、カメラ画像に写る被検者の撮影部位及び撮影方向を導出する機械学習モデルを学習させるために用いる教師データを生成する教師データ生成装置であって、プロセッサとプロセッサに接続又は内蔵されたメモリとを有し、プロセッサは、人体の疑似画像を生成するための人体モデルを構成する三次元のコンピュータグラフィックスデータであって、人体モデルの姿勢及び外見のうちの少なくとも一方を変更するためのパラメータが付帯されている三次元のコンピュータグラフィックスデータを用い、パラメータを変化させることにより、人体モデルの姿勢及び外見のうちの少なくとも一方が異なる複数の疑似画像を撮影部位及び撮影方向の組み合わせ毎に生成し、生成した複数の疑似画像と組み合わせの正解データとで構成される複数の教師データを生成する。
 本開示の機械学習モデルは、医療用撮影装置に対してポジショニングされた状態の被検者を光学カメラで撮影したカメラ画像を入力として、カメラ画像に写る被検者の撮影部位及び撮影方向を導出する機械学習モデルであって、三次元のコンピュータグラフィックスデータによって構成される人体モデルに基づいて生成された人体の疑似画像であって、医療用撮影装置に対してポジショニングされた状態の被検者を模した疑似画像と、撮影部位及び撮影方向の組み合わせの正解データとで構成され、組み合わせ毎に生成される複数の教師データ用いて学習されている。
 本開示の医療用撮影装置は、機械学習モデルを備えている。
 本開示の技術によれば、カメラ画像に写る被検者の撮影部位及び撮影方向を導出する機械学習モデルを、カメラ画像のみを教師データとして用いる場合と比較して、効率的に学習させることができる。
学習装置及び放射線撮影システムの概略構成を示す図である。 撮影オーダを説明する図である。 照射条件の決定方法を説明する図である。 コンソールの機能を説明する図である。 学習済みモデルを説明する図である。 学習装置のハードウェア構成を示す図である。 学習装置の機能を説明する図である。 3DCGデータの一例を示す図である。 教師データ生成部の機能を示す図である。 疑似画像の一例を示す図である。 疑似画像の一例を示す図である。 疑似画像の一例を示す図である。 疑似画像の一例を示す図である。 疑似画像の一例を示す図である。 疑似画像の一例を示す図である。 学習装置の処理手順を示すメインフローチャートである。 教師データ生成手順を示すフローチャートである。 学習手順を示すフローチャートである。 教師データとして疑似画像とカメラ画像とが混在する変形例を示す図である。 照合部を追加した変形例を示す図である。 体格出力用学習済みモデルを説明する図である。 体格出力用機械学習モデルの学習に用いる教師データを説明する図である。 超音波撮影装置に適用した教師データ生成部を説明する図である。
 図1は、本開示の学習装置40と放射線撮影システム10の全体構成の概略を示す図である。放射線撮影システム10は、本開示の技術に係る医療用撮影装置の一例であり、かつ、放射線撮影装置の一例である。放射線撮影システム10は、放射線Rを用いて被検者Hを撮影することにより、被検者Hの放射線画像XPを得る。また、放射線撮影システム10を用いて放射線撮影を行う場合は、オペレータである放射線技師(以下、単に技師という)RGが、被検者Hを放射線撮影システム10に対してポジショニングを行う。
 本例の放射線撮影システム10は、被検者Hが撮影オーダ31に応じて適切にポジショニングされているかを技師RGが確認する確認作業を支援する撮影支援機能を有している。詳細は後述するが、撮影支援機能は、機械学習モデルLM0を学習させることにより生成された学習済みモデルLMを用いて行われる。学習装置40は、機械学習モデルLM0を学習させる学習部52を有している。学習部52は、放射線撮影システム10に提供される学習済みモデルLMを生成するために、機械学習モデルLM0を学習させるために用いられる。
 ここで、学習済みモデルLMも機械学習モデルであるが、学習装置40による学習の対象となる機械学習モデルLM0と便宜上区別し、学習装置40による学習が少なくとも1回行われ、放射線撮影システム10において運用に供される機械学習モデルを学習済みモデルLMと呼ぶ。なお、機械学習モデルLM0は、未学習の機械学習モデルでもよいし、追加学習の対象となる学習済みモデルLMであってもよい。以下において、放射線撮影システム10の概略を説明した後、学習装置40を説明する。
 図1に示すように、放射線撮影システム10は、放射線源11と、線源制御装置12と、電子カセッテ13と、コンソール14とを備えている。電子カセッテ13は、被検者Hを透過した放射線Rを受けることにより、被検者Hの放射線画像XPを検出する放射線画像検出器の一例であり、可搬型の放射線画像検出器である。また、本例の放射線撮影システム10は、光学カメラ15を有している。上述の撮影支援機能を実現するための構成であり、光学カメラ15は、放射線撮影システム10に対してポジショニングされた被検者Hの状態を撮影するために用いられる。
 放射線撮影を行う場合のポジショニングは、被検者Hと、電子カセッテ13及び放射線源11との相対的な位置を調整する作業であり、一例として次のように行われる。技師RGは、まず、電子カセッテ13の位置を被検者Hの撮影部位に合わせる。図1の例では、電子カセッテ13は、被検者Hの胸部と対向した状態で配置されている。そして、被検者Hの撮影部位に位置決めされた状態の電子カセッテ13と放射線源11とが対向するように放射線源11の位置を調整する。また、図1の例では、放射線源11は被検者Hの胸部の背面と対向しており、放射線Rを照射する向きである撮影方向が被検者Hの背面となっている。胸部を正面から撮影する場合は、技師RGは、被検者Hの胸部の正面と放射線源11とを対向させる。このようなポジショニングを行うことにより、放射線Rを被検者Hの背面から照射することにより、被検者Hの胸部の放射線画像XPを撮影することができる。
 図1の例では、電子カセッテ13は、被検者Hを立位姿勢で撮影するための立位撮影台25にセットされている。電子カセッテ13は、被検者Hを臥位姿勢で撮影するための臥位撮影台などにセットされてもよい。また、電子カセッテ13は、可搬型であるため、撮影台から取り外して単体で使用することも可能である。
 放射線源11は、放射線Rを発生する放射線管11Aと、放射線Rが照射される領域である照射野を限定する照射野限定器11Bとを備える。放射線管11Aは、例えば、熱電子を放出するフィラメントと、フィラメントから放出された熱電子が衝突して放射線を放射するターゲットとを有している。照射野限定器11Bは、例えば、放射線Rを遮蔽する4枚の鉛板を四角形の各辺上に配置することにより、放射線Rを透過させる四角形の照射開口が中央に形成されたものである。照射野限定器11Bにおいて、鉛板の位置が移動されることで照射開口の大きさが変化する。これにより照射野の大きさが調節される。放射線源11は、放射線管11Aに加えて、照射開口を通じて可視光を被検者Hに投影することによって、照射野を可視化するための照射野表示光源(図示せず)を内蔵していてもよい。
 放射線源11は、図1の例では天井吊り下げ型であり、伸縮可能な支柱22に取り付けられている。放射線源11は、支柱22を伸縮させることにより、放射線源11の垂直方向の高さを調節することが可能である。また、支柱22は、天井に配置されたレール上を走行する天井走行装置(図示せず)に取り付けられており、レールに沿って水平方向に移動可能である。さらに、放射線源11は、放射線管11Aの焦点を回転中心として、回転が可能である。放射線源11は、こうした各種の変位機構によって放射線Rを照射する向きを調節することが可能である。
 線源制御装置12は、放射線源11を制御する。線源制御装置12には、図示しない操作パネルが設けられている。技師RGが操作パネルを操作することにより、放射線の照射条件及び照射野限定器11Bの照射開口の大きさが設定される。放射線の照射条件には、放射線源11に印加する管電圧(単位:kv)、管電流(単位:mA)、及び放射線の照射時間(単位:mS)が含まれる。
 線源制御装置12は、放射線管11Aに印加する電圧を発生する電圧発生部と、タイマとを有している。線源制御装置12は、電圧発生部及びタイマを制御することにより、照射条件に応じた放射線Rを発生するように放射線源11を動作させる。また、線源制御装置12には、照射スイッチ16がケーブル等を介して接続されている。照射スイッチ16は、放射線の照射を開始する際に技師RGによって操作される。照射スイッチ16が操作されると、線源制御装置12は、放射線管11Aに放射線を発生させる。これにより、照射野に向けて放射線Rが照射される。
 電子カセッテ13は、上述したとおり、放射線源11から照射されて被検者Hの撮影部位を透過した放射線Rに基づく放射線画像XPを検出する。電子カセッテ13は、一例として、無線通信部及びバッテリを有し、ワイヤレスで動作することが可能である。電子カセッテ13は、検出した放射線画像XPをコンソール14に無線送信する。
 光学カメラ15は、CMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ又はCCD(Charge Coupled Device)型イメージセンサなどを含んで構成された光学式のデジタルカメラであって、一例として可視光に基づく撮影を行う。光学カメラ15は、一例として、静止画撮影及び動画撮影が可能である。
 光学カメラ15は、電子カセッテ13及び放射線源11に対してポジショニングされた状態の被検者Hを撮影するためのものである。そのため、一例として、光学カメラ15は、例えば放射線源11の照射野限定器11Bの外周部に取り付けられており、照射開口の近くに配置されている。また、光学カメラ15は、光学カメラ15の光軸と、放射線源11の放射線Rの照射軸とが平行になる姿勢で取り付けられている。光学カメラ15は、放射線Rの照射野を含む領域を光学的に撮影することにより、可視光による光学画像であるカメラ画像CPを生成する。放射線源11は、被検者Hの撮影部位に位置決めされるため、その状態で撮影されたカメラ画像CPには、被検者Hの撮影部位が描出される。本例において、カメラ画像CPは、例えばカラーの静止画である。
 本例では、光学カメラ15は、照射野限定器11Bの外周部に取り付けられているが、光学カメラ15は、放射線源11の外周部に取り付けられていなくてもよく、放射線源11に内蔵されていてもよい。
 光学カメラ15は、有線又は無線によりコンソール14に接続されている。コンソール14は、光学カメラ15の制御装置として機能することにより、撮影タイミングなど光学カメラ15の撮影動作を制御する。技師RGは、例えば、被検者Hのポジショニングを行った状態で光学カメラ15による撮影指示をコンソール14に入力する。
 コンソール14には、ネットワークNを介して、放射線撮影システム10に設けられたRIS(Radiology Information System)及びPACS(Picture Archiving and Communication System)に接続されている。
 RISは、放射線撮影システム10に対する撮影オーダ31を管理する装置である。例えば、医療施設において、内科及び外科などの診療科の医師は、放射線撮影を担当する放射線科に対して放射線撮影を依頼する。撮影オーダ31は、診療科の医師から放射線科に向けて発行される。RISは、診療科の医師からの撮影オーダ31を管理する。放射線撮影システム10が複数有る場合には、RISが管理する複数の撮影オーダ31は、撮影オーダの内容及び放射線撮影システム10の稼働状態などに応じて、複数の放射線撮影システム10に割り当てられる。コンソール14は、RISから送信される撮影オーダ31を受け付ける。
 図2に撮影オーダ31の一例を示す。撮影オーダ31の内容には、オーダ毎に発行されるオーダID(Identification Data)、被検者H毎に発行される被検者ID、撮影手技、及び撮影目的(図示せず)などが含まれる。ここで、撮影手技とは、少なくとも撮影部位と撮影方向の組み合わせによって規定された撮影方法である。医師は、撮影オーダ31において、被検者Hの検査目的に応じて、撮影部位及び撮影方向を含む撮影手技を指定する。例えば、検査目的が肺がんの診断の場合は、撮影部位が胸部で、撮影方向が背面又は正面の撮影手技が指定される。図2において、オーダIDが「N0001」の撮影オーダ31では、撮影手技として「胸部/背面」が指定されている。オーダIDが「N0002」の撮影オーダ31では、撮影手技として「胸部/正面」が指定されている。オーダIDが「N0003」の撮影オーダ31では、撮影手技として「腹部/正面」が指定されている。オーダIDが「N0004」の撮影オーダ31では、撮影手技として「両膝/正面」が指定されている。オーダIDが「N0005」の撮影オーダ31では、撮影手技として「右膝/側面」が指定されている。
 また、図3に示すように、撮影手技の情報は、被検者Hの体格情報とともに、放射線源11の照射条件を技師RGが決定するために用いられる。例えば、技師RGは、撮影手技が「胸部/背面」である場合は、被検者Hの体格情報(主として体厚)を考慮して、胸部の体厚を推定し、管電圧、管電流、及び照射時間を決定する。一般に体厚が厚いほど、放射線Rの透過率は低下するため、放射線Rの照射量は多く設定される。照射量は、管電流及び照射時間の積であるmAs値によって規定される。
 図1に戻って、PACSは、放射線撮影システム10によって撮影された放射線画像XPを保存する。コンソール14は、電子カセッテ13から受信した放射線画像XPを撮影オーダ31と関連付けた状態でPACSに送信する。PACSにおいて、放射線画像XPは、例えばDICOM(Digital Imaging and Communication in Medicine)規格に準拠した形式の画像ファイルに変換された状態で保存される。PACSに保存された放射線画像XPは、撮影オーダ31を発行した依頼元の診療科の医師などの閲覧に供される。
 コンソール14は、例えばパーソナルコンピュータ又はワークステーションなどのコンピュータで構成される。コンソール14は、撮影オーダ31を受け付けるオーダ受付機能、電子カセッテ13の各種の設定を行う設定機能、及び電子カセッテ13から受信した放射線画像XPをディスプレイ14Cに表示する機能を備えている。コンソール14は、こうした基本機能に加えて、コンソール14は、上述の撮影支援機能を備えている。
 図1に加えて図4にも拡大して示すように、撮影支援機能に関連する構成として、コンソール14は、撮影オーダ受付部14Aと撮影手技判定部14Bとを備えている。撮影オーダ受付部14Aは、RISから受け付けた撮影オーダ31をディスプレイ14Cに表示する。撮影手技判定部14Bは、学習済みモデルLMを用いてカメラ画像CPを画像解析することにより、ポジショニングされた被検者Hの撮影手技を導出する。撮影手技判定部14Bは、学習済みモデルLMが導出した撮影手技を含む判定結果32を出力する。コンソール14は、撮影オーダ受付部14Aが受け付けた撮影オーダ31と、撮影手技判定部14Bによる判定結果32とを含むポジショニング確認画面36をディスプレイ14Cに表示する。
 ポジショニング確認画面36において、一例として、撮影オーダ31と、判定結果32とは比較しやすいように並べて表示される。撮影オーダ31については、撮影手技に関する部分だけ抜き出して、例えば、「撮影オーダは「胸部/背面」です」、といったメッセージ31Aが表示される。また、判定結果32には、撮影手技判定部14Bが判定した撮影手技(図4の例では「胸部/背面」とカメラ画像CPとが含まれている。判定結果32において、撮影手技は、一例として、「カメラ画像から判定された撮影手技は「胸部/背面」です。」といったメッセージの形態で表示される。
 ポジショニング確認画面36を通じて、技師RGは、撮影オーダ31と判定結果32に含まれる撮影手技とを目視で照合することにより、被検者Hのポジショニングの状態が撮影オーダ31に適合しているかを確認することができる。
 図5に示すように、学習済みモデルLMとしては、例えば、画像解析に適した畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が用いられる。学習済みモデルLMは、例えば、エンコーダ37と、分類部38とを有する。
 エンコーダ37は、CNNで構成されており、カメラ画像CPに対して畳み込み処理とプーリング処理とを行うことにより、カメラ画像CPの特徴を表す複数種類の特徴マップを抽出する。周知のように、CNNにおいて、畳み込みは、例えば、3×3などのサイズを有するフィルタを複数種類用いた空間フィルタリング処理である。3×3のフィルタの場合、9マスのそれぞれにフィルタ係数が割り当てられている。畳み込みにおいては、こうしたフィルタの中心のマスをカメラ画像CPの注目画素に合わせて、注目画素とその周囲を囲む8画素の合計9画素の画素値の積和が出力される。出力された積和は、フィルタを適用した注目領域の特徴量を表す。そして、例えば注目画素を1画素ずつずらしながらフィルタをカメラ画像CPの全画素に適用していくことで、カメラ画像CPの画素数と同等の特徴量を有する特徴マップが出力される。フィルタ係数が異なる複数種類のフィルタを適用することで、複数種類の特徴マップが出力される。フィルタの数に応じた特徴マップの数はチャンネル数とも呼ばれる。
 こうした畳み込みは、カメラ画像CPのサイズを縮小しながら繰り返される。カメラ画像CPを縮小する処理はプーリング処理と呼ばれる。プーリング処理は、隣接画素の間引き処理及び平均処理などを施すことによって行われる。プーリング処理によって、カメラ画像CPのサイズが、1/2、1/4、及び1/8というように段階的に縮小される。カメラ画像CPのサイズ毎に複数チャンネルの特徴マップが出力される。カメラ画像CPのサイズが大きい場合は、カメラ画像CPには被写体の細かな形態的特徴が描出されるのに対して、カメラ画像CPのサイズが小さい場合(すなわち解像度が低い場合)は、カメラ画像CPから細かな形態的特徴は捨象され、カメラ画像CPには被写体の大まかな形態的特徴のみが描出される。そのため、カメラ画像CPが大きい場合の特徴マップは、カメラ画像CPに描出される被写体のミクロ的な特徴を表し、サイズが小さい場合の特徴マップは、カメラ画像CPに描出される被写体のマクロ的な特徴を表す。エンコーダ37は、カメラ画像CPに対してこのような畳み込み処理とプーリング処理とを施すことにより、カメラ画像CPのマクロ的及びミクロ的な特徴を表す複数チャンネルの特徴マップを抽出する。
 学習済みモデルLMは、一例として、複数の撮影手技の中からカメラ画像CPが示す撮影手技として最も可能性の高い1つの撮影手技を導出する分類モデルである。そのため、エンコーダ37が抽出したカメラ画像CPの特徴量に基づいて、1つの撮影手技を導出する構成として、分類部38が設けられる。分類部38は、例えば、複数の入力ノードに対して1つの出力ノードを持つパーセプトロンを複数備えている。また、パーセプトロンには、複数の入力ノードの重要度を示す重みが割り当てられている。各パーセプトロンにおいて、複数の入力ノードに入力された入力値のそれぞれに重みを乗じた値の和である積和が出力ノードから出力値として出力される。こうしたパーセプトロンは一例としてシグモイド関数などの活性化関数によって定式化される。
 出力部において、複数のパーセプトロンの出力と入力とが結合されることにより、入力層と出力層との間に複数の中間層を有する複数階層のニューラルネットワークが形成される。階層間の複数のパーセプトロンの結合方法としては、例えば、次の階層の1つの入力ノードに前の階層のすべての出力ノードが結合する全結合が採用される。
 分類部38の入力層においては、カメラ画像CPの特徴マップに含まれるすべての特徴量が入力される。分類部38の各階層を構成するパーセプトロンにおいて、入力ノードに特徴量が入力値として入力される。そして、入力ノード毎に特徴量に重みを乗じた値の和である積和が出力ノードから出力値として出力され、出力値が次の階層のパーセプトロンの入力ノードに引き渡される。分類部38において、最終階層の出力層では、複数のパーセプトロンの出力値に基づいて、ソフトマックス関数などを用いて複数種類の撮影手技のそれぞれの確率を出力する。そして、この確率に基づいて最も可能性の高い1つの撮影手技が導出される。図5においては、カメラ画像CPに基づいて、「胸部/背面」という撮影手技が導出される例を示している。
 本例は一例であり、学習済みモデルLMとしては、カメラ画像CPに基づいて撮影手技を導出可能な分類モデルであれば、別の態様でもよい。
 次に、図6及び図7を用いて学習装置40について説明する。図6において、学習装置40のハードウェア構成を示す。学習装置40は、パーソナルコンピュータ又はワークステーションなどのコンピュータによって構成される。学習装置40は、ディスプレイ41と、入力デバイス42と、CPU43と、メモリ44と、ストレージデバイス46と、通信部47とを備えている。これらはデータバス48を介して相互に接続されている。
 ディスプレイ41は、GUI(Graphical User Interface)による操作機能が備えられた各種操作画面を表示する表示部である。入力デバイス42は、タッチパネル又はキーボード等を含む入力操作部である。
 ストレージデバイス46は、例えばHDD(Hard Disk Drive)及びSSD(Solid State Drive)で構成され、学習装置40に内蔵されるか、あるいは、学習装置40に外部接続されている。外部接続は、ケーブルあるいはネットワークを通じて接続される。ストレージデバイス46には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、及びこれらのプログラムに付随する各種データ等が記憶されている。各種アプリケーションプログラムの1つには、コンピュータを学習装置40として機能させる作動プログラムAPが含まれる。各種データには、学習処理の対象となる機械学習モデルLM0、学習処理が終了した学習済みモデルLM、及び学習に使用する教師データTD、三次元のコンピュータグラフィックスデータ(以下、3DCGデータという)56、及びパラメータ指定情報61が含まれる。
 メモリ44は、CPU43が処理を実行するためのワークメモリである。CPU43は、ストレージデバイス46に記憶されたプログラムをメモリ44へロードし、プログラムにしたがって処理を実行することにより、学習装置40の各部を統括的に制御する。
 通信部47は、コンソール14とネットワークNを介して通信を行う。通信部47は、例えば、学習装置40からコンソール14への学習済みモデルLMの送信、及びコンソール14の学習済みモデルLMを追加学習させるためにコンソール14から学習装置40への学習済みモデルLMの送信など、学習済みモデルLMの受け渡しに使用される。
 なお、図6において、学習装置40を実現するためのコンピュータのハードウェア構成を示したが、上述したコンソール14のハードウェア構成も同様である。すなわち、コンソール14の撮影オーダ受付部14A及び撮影手技判定部14Bといった構成は、CPU43などのプロセッサと、メモリ44などのCPU43に内蔵又は接続されたメモリと、CPU43によって実行されるプログラムとの協働によって実現される。
 図7に示すように、学習装置40は、教師データ生成部51と学習部52とを有する。これらの各処理部は、CPU43によって実現される。教師データ生成部51は、3DCGデータ56によって構成される人体モデル56Aに基づいて生成された人体の疑似画像SPを、撮影部位及び撮影方向の組み合わせである撮影手技毎に複数生成する。疑似画像SPは、医療用撮影装置の一例である放射線撮影システム10に対してポジショニングされた状態の被検者Hを模した二次元画像である。
 より具体的には、教師データ生成部51は、三次元のコンピュータグラフィックスデータ(以下、3DCGデータという)56と、パラメータ指定情報61とに基づいて、疑似画像SPを生成する。パラメータ指定情報61には、人体を模した三次元の人体モデル56Aをモデリングする際に指定されるモデリングパラメータ(以下、M-パラメータという)指定情報61Mと、視点を設定して人体モデル56Aをレンダリングする際に指定されるレンダリングパラメータ(以下、R-パラメータという)指定情報61Rとが含まれる。人体モデル56Aのモデリングと、人体モデル56Aのレンダリングによる疑似画像SPの生成方法の詳細については後述する。
 そして、教師データ生成部51は、生成された疑似画像SPと、撮影部位と撮影方向の組み合わせの正解データADとで構成される教師データTDを生成する。図7に示す教師データTDは、撮影部位と撮影方向の組み合わせである撮影手技が「胸部/背面」の場合の例である。すなわち、図7に示す教師データTDにおいて、疑似画像SPは人体の胸部の背面を示しており、撮影手技として「胸部/背面」を示す画像であり、これに対応して正解データADの撮影手技も「胸部/背面」となっている。
 また、学習部52は、本処理部52A、評価部52B、及び更新部52Cを有する。本処理部52Aは、学習処理の対象となる機械学習モデルLM0をストレージデバイス46から読み込み、読み込んだ機械学習モデルLM0に対して疑似画像SPを入力する。そして、機械学習モデルLM0に対して、入力した疑似画像SPが示す撮影手技を導出する処理を実行させる。機械学習モデルLM0の基本構成は、図5において説明した学習済みモデルLMと同様であるが、機械学習モデルLM0が学習前の状態では、エンコーダ37におけるフィルタ係数及び分類部38におけるパーセプトロンの重みなどの値が学習済みモデルLMと異なっている。
 本処理部52Aは、機械学習モデルLM0が導出した撮影手技を出力データODとして、評価部52Bに出力する。評価部52Bは、出力データODと、教師データTDに含まれる正解データADとを比較し、損失関数を用いて両者の差を損失として評価する。上述した学習済みモデルLMと同様に、本例の機械学習モデルLM0においては、疑似画像SPが示す複数の撮影手技は、それぞれ確率として出力される。そのため、出力データODの撮影手技が不正解の場合の損失はもちろん、正解している場合でも、その確率として出力される出力値が目標値に対して低い場合は、目標値と出力値との差は損失と評価される。評価部52Bは、評価した損失を評価結果として更新部52Cに出力する。
 更新部52Cは、評価結果に含まれる損失が小さくなるように、エンコーダ37におけるフィルタ係数及び分類部38におけるパーセプトロンの重みなどの値を更新する。教師データTDの入力から更新へ至る一連の処理は、終了タイミングが到来するまで繰り返される。終了タイミングとしては、例えば、予定されている数の教師データTDの学習がすべて終了した場合、損失が目標値を下回った場合などである。
 以下、図8~図15を用いて教師データ生成部51が実行する疑似画像SPの生成方法について詳細に説明する。まず、図8を用いて3DCGデータ56の構成を説明する。本例の3DCGデータ56は、人体モデル56Aを構成するためのデータである。3DCGデータ56には、人体モデル56Aの構成データに加えて、モデリングパラメータ(M-パラメータという)56Bが付帯されている。人体モデル56Aは、人体を模した三次元(X方向、Y方向及びZ方向)のデータである。M-パラメータ56Bは、人体モデル56Aをモデリングする際に変更可能なパラメータであり、人体モデル56Aの姿勢及び外見のうちの少なくとも一方を変更するためのパラメータである。M-パラメータ56Bは、M-パラメータ指定情報61Mによって指定されるパラメータである。
 具体的には、M-パラメータ56Bは、一例として、体格情報、性別、姿勢情報、皮膚の色、髪の色、髪型、及び服装といった各種の項目を有する。体格情報は、身長、体重、座高、股下長さ、頭囲、首囲、肩幅、胸囲、胴囲、及び手の長さ、手首囲、手幅、足長、足幅、太もも囲、及びふくらはぎ囲などの各種の項目を有する。姿勢情報には、立位、臥位、及び座位などの基本姿勢を示す項目の他に、手足の屈曲の有無といった項目が含まれている。手足の屈曲については、例えば、右手、左手、右膝、左膝、及び両膝などの屈曲させる部位と、屈曲方向及び屈曲角などが指定される。またM-パラメータ56Bにおいて、膝関節の内旋又は外旋を指定できるようにしてもよい。この場合は、さらに、内側又は外側の旋回方向と、旋回角を指定できるようにしてもよい。
 図4に示すように、人体モデル56Aにおいて、屈曲可能な関節57は予め設定されており、関節57が設定されている箇所は屈曲させることが可能である。こうしたM-パラメータ56Bを指定することによって、人体モデル56Aのモデリングの際に人体の姿勢及び外見を変更することが可能である。関節57を細かく設定することで、同じ撮影部位であっても、姿勢が僅かに異なる疑似画像SPを生成することが可能である。なお、人体モデル56Aにおいて、関節57の数及び場所を任意に変更できるようにしてもよい。これにより、人体モデル56Aの関節57の数を多く設定することで、人体モデル56Aに複雑な姿勢をとらせることが可能となる。一方、関節57の数を少なく設定することで、M-パラメータ56Bの数を減らすことが可能となり、モデリングの処理速度を速くすることが可能となる。
 図9に示すように、教師データ生成部51は、モデリング部51Aとレンダリング部51Bとを有している。モデリング部51Aは、3DCGデータ56とM-パラメータ指定情報61Mとに基づいて、M-パラメータ指定情報61Mによって指定された人体の姿勢及び外見を有する人体モデル56Aをモデリングする。図9において、M-パラメータ指定情報61Mには、複数のM-パラメータセットMPSが含まれている。各M-パラメータセットMPS毎に、姿勢及び外見が異なる人体モデル56Aが生成される。
 図10にも示すように、一例として、M-パラメータセットMPS1においては、体格情報として、身長が170cm、体重が70kgと指定され、性別として男性が指定されている。姿勢情報としては、立位で、かつ、手足の屈曲は無と指定されている。こうしたM-パラメータセットMPS1に基づいて、モデリング部51Aは、M-パラメータセットMPS1によって指定された姿勢と外見を有する人体モデル56A_MPS1を有する3DCGデータ56を生成する。
 また、図8において示したM-パラメータ56Bにおいて示したとおり、M-パラメータセットMPSにおいて、肌の色、髪型及び髪の色などを指定することにより、人体モデル56Aの肌の色、髪型及び髪の色などを変更することも可能である。また、M-パラメータセットMPSにおいて、服装を指定することにより、人体モデル56Aの服装を変更することも可能である。このようにM-パラメータ56Bには、体格情報及び肌の色といった外見に関わる情報と、姿勢情報とが含まれている。そのため、姿勢情報を変更することなく体格情報又は肌の色など外見に関わる情報を変更することで、姿勢は同じだが外見が異なる複数の人体モデル56Aを生成したり、外見に関わる情報を変更することなく姿勢が異なる人体モデル56Aを生成することが可能である。また、撮影部位が胸部の場合は、髪型及び髪の色は、胸部のカメラ画像CPに写らない場合が多いが、撮影部位が頭部の場合は、頭部のカメラ画像CPには写る。そのため、頭部の疑似画像SPを生成する場合に、髪型及び髪の色を変更できることは有効である。
 レンダリング部51Bは、モデリング部51Aがモデリングした人体モデル56A(図9及び図10の例では人体モデル56A_MPS1)を用いて、設定された視点から人体モデル56Aをレンダリングすることにより二次元の疑似画像SPを生成することが可能である。本例に即して言えば、レンダリングは、光学カメラ15を用いて被検者Hのカメラ画像CPを取得する処理を、3DCGデータ56を用いて仮想的に行う処理である。すなわち、光学カメラ15に対応する仮想的な仮想カメラ15Vを、人体モデル56Aが配置される三次元空間内に設定して、被検者Hを模した人体モデル56Aを仮想的に撮影することにより疑似画像SPを取得する。
 図9においては、R-パラメータ指定情報61Rには、複数のR-パラメータセットRPSが含まれている。各R-パラメータセットRPS毎に、疑似画像SPが生成される。R-パラメータセットRPSは、人体モデル56Aをレンダリング部51Bがレンダリングする際の視点位置等を指定する情報である。
 図9及び図10に示すR-パラメータセットRPS1には、一例として、撮影手技情報と仮想カメラ情報とが含まれる。撮影手技情報には、撮影部位と撮影方向が含まれている。撮影手技情報として、「胸部/背面」が指定されている場合は、人体モデル56Aの胸部を背面から撮影可能な位置に仮想カメラ15Vの位置がおおまかに設定される。
 仮想カメラ情報は、仮想カメラ15Vの位置等をより詳細に規定する情報であり、撮影距離、焦点距離、設置高さ、及び視点方向などが設定される。撮影距離は、仮想カメラ15Vから人体モデル56Aまでの距離である。仮想カメラ15Vは、放射線源11に取り付けられる光学カメラ15を仮想したものであるため、撮影距離は、放射線源11と電子カセッテ13との間の距離であるSID(Source to image receptor distance)に対応して設定される。SIDは撮影手技等に応じて適宜変更される値であり、図9の例の撮影距離は90cmmに設定されている。焦点距離は、仮想カメラ15Vの画角を規定するための情報である。撮影距離と焦点距離とを規定することにより仮想カメラ15Vの撮影範囲SR(図11及び図12等を参照)が規定される。撮影範囲SRは、放射線源11の照射野を含む大きさに設定される。本例では一例として焦点距離は40mmに設定される。設置高さは、仮想カメラ15Vが設置されるZ方向の位置であり、撮影部位に応じて設定される。本例では、撮影部位が胸部であるため、立位の人体モデル56Aの胸部に位置する高さに設定される。視点方向は、人体モデル56Aの姿勢と撮影手技の撮影方向とに応じて設定される。図10に示す例では、人体モデル56Aが立位であり、かつ、撮影方向が背面であるため、-Y方向に設定される。このように、レンダリング部51Bは、疑似画像SPを生成する視点をR-パラメータセットRPSに応じて変更可能である。
 レンダリング部51Bは、R-パラメータセットRPSに基づいて人体モデル56Aをレンダリングする。これによって疑似画像SPが生成される。図10の例では、モデリング部51AがM-パラメータセットMPS1の指定に基づいてモデリングした人体モデル56A_MPS1を、レンダリング部51BがR-パラメータセットRPS1の指定に基づいてレンダリングすることにより疑似画像SP1-1が生成される。
 また、図10において、人体モデル56Aが配された三次元空間内には、仮想的な電子カセッテ13である仮想カセッテ13Vが配置されている。これは撮影部位の位置を明瞭にするために便宜上図示したものである。しかし、モデリングの際に人体モデル56Aに加えて仮想カセッテ13Vのモデリングも行って、モデリングされた仮想カセッテ13Vを含めてレンダリングを行ってもよい。
 図11は、撮影手技が「胸部/正面」の疑似画像SPを生成する例を示す。図11のM-パラメータセットMPS1は図10の例と同様であり、人体モデル56A_MPS1は、図10の例と同様である。図11のR-パラメータセットRPS2は、図10のR-パラメータセットRPS1と異なり、撮影方向が「背面」から「正面」に変更されている。撮影方向の変更に伴って仮想カメラ情報の視点方向が「Y方向」に変更されている。図11のR-パラメータセットRPS2において、その他の点は図10のR-パラメータセットRPS1と同様である。
 このようなR-パラメータセットRPS2に基づいて、仮想カメラ15Vの位置等が設定されて、レンダリングが行われる。これにより、人体モデル56A_MPS1の「胸部」を「正面」から撮影し、「胸部/正面」の撮影手技に対応した疑似画像SP1-2が生成される。
 図12は、撮影手技が「腹部/正面」の疑似画像SPを生成する例を示す。図12のM-パラメータセットMPS1は図10及び図11の例と同様であり、人体モデル56A_MPS1は、図10及び図11の例と同様である。図12のR-パラメータセットRPS3は、図10のR-パラメータセットRPS1と異なり、撮影部位が「胸部」から「腹部」に変更されている。撮影方向は「正面」であり、図10の「背面」とは異なるが、図11の例と同様である。図12のR-パラメータセットRPS3において、その他の点は図11のR-パラメータセットRPS2と同様である。
 このようなR-パラメータセットRPS3に基づいて、仮想カメラ15Vの位置等が設定されて、人体モデル56A_MPS1のレンダリングが行われる。これにより、人体モデル56A_MPS1の「胸部/正面」の撮影手技に対応した疑似画像SP1-3が生成される。
 図13は、撮影手技が「両膝/正面」の疑似画像SPを生成する例を示す。図13のM-パラメータセットMPS2は図10~図13の例と異なり、姿勢情報として「座位」と「両足屈曲有」が指定されている。これにより、人体モデル56A_MPS2は、座位で、両足が屈曲した姿勢にモデリングされる。図13のR-パラメータセットRPS4は、撮影手技情報において、撮影部位は「両膝」に、撮影方向は「正面」と指定されている。仮想カメラ情報においては、座位姿勢の人体モデル56A_MPS2の両膝を正面から撮影可能な高さとして、設置高さは150cmが指定され、撮影方向は、Z方向の下向き、すなわち「-Z方向」が指定されている。
 このようなR-パラメータセットRPS4に基づいて、仮想カメラ15Vの位置等が設定されて、人体モデル56A_MPS2のレンダリングが行われる。これにより、人体モデル56A_MPS2の「両膝/正面」の撮影手技に対応した疑似画像SP2-4が生成される。
 図14は、図11と同様に、撮影手技が「胸部/正面」の疑似画像SPを生成する例を示す。図14の例はR-パラメータセットRPS2が図11の例と同様である。相違点は、図14のM-パラメータセットMPS4の体格情報であり、図11のMパラメータセットMPS1と比較して、体重の他、図示しないが胸囲及び胴囲等の値が大きくなっている。つまり、図14のM-パラメータセットMPS4に基づいてモデリングされた人体モデル56A_MPS4は、図11の人体モデル56A_MPS1と比較して太っている。その他の点は図11の例と同様である。これにより、太った体格の人体モデル56A_MPS4について、「胸部/正面」の撮影手技に対応した疑似画像SP4-2が生成される。
 図15は、図13と同様に、撮影手技が「両膝/正面」の疑似画像SPを生成する例を示す。図13の例と異なる点は、M-パラメータセットMPS5において、皮膚の色が褐色に指定されている点である。その他の点は、図13の例と同様である。これにより、皮膚の色が褐色の人体モデル56A_MPS5について、「両膝/正面」の疑似画像SP5-4が生成される。
 教師データ生成部51は、パラメータ指定情報61に基づいて、疑似画像SPを撮影部位及び撮影方向の組み合わせ毎に複数生成する。例えば、教師データ生成部51は、「胸部/正面」及び「胸部/背面」などの撮影手技毎に、異なるパラメータセット(M-パラメータセットMPS及びR-パラメータセットRPS)を使用して疑似画像SPを複数生成する。
 次に、図16~図18に示すフローチャートを用いて上記構成の学習装置40の作用について説明する。図16のメインフローチャートに示すように、学習装置40は、3DCGデータに基づいて教師データTDを生成し(ステップS100)、生成した教師データTDを用いて機械学習モデルLM0を学習させる(ステップS200)。
 図17は、教師データTDを生成するステップS100の詳細を示す。図17に示すように、ステップS100においては、まず、学習装置40の教師データ生成部51は、3DCGデータ56を取得する(ステップS101)。次に教師データ生成部51は、パラメータ指定情報61を取得する。本例では、ステップS101及びステップS102において、教師データ生成部51は、ストレージデバイス46内に格納された3DCGデータ56及びパラメータ指定情報61をストレージデバイス46から読み出す。
 パラメータ指定情報61には、例えば、複数のM-パラメータセットMPSと複数のR-パラメータセットRPSが記録されている。教師データ生成部51は、図10~図15において例示されているように、1つのM-パラメータセットMPSと1つのR-パラメータセットRPSの組み合わせ毎にモデリングとレンダリングとを行って、1枚の疑似画像SPを生成する(ステップS103)。教師データ生成部51は、生成した疑似画像SPと正解データADとを組み合わせることにより教師データTDを生成する(ステップS104)。生成された教師データTDはストレージデバイス46に格納される。
 ステップS105において、教師データ生成部51は、取得したパラメータ指定情報61に含まれるパラメータセット(M-パラメータセットMPS及びR-パラメータセットRPSの組み合わせ)のうち、未入力のパラメータセットがある場合は(ステップS105においてYES)、ステップS103及びステップS104の処理を実行する。教師データ生成部51は、「胸部/正面」及び「胸部/背面」などの撮影手技毎に、異なるパラメータセット(M-パラメータセットMPS及びR-パラメータセットRPS)を使用して疑似画像SPを複数生成する。未入力のパラメータセットが無い場合は(ステップS105においてNO)は、教師データ生成処理を終了する。
 図18は、生成した教師データTDを用いて機械学習モデルLM0を学習させるステップS200の詳細を示す。図18に示すように、ステップS200においては、まず、学習装置40の学習部52において、本処理部52Aは、ストレージデバイス46から機械学習モデルLM0を取得する(ステップS201)。そして、本処理部52Aは、教師データ生成部51によって生成された教師データTDをストレージデバイス46から取得し、教師データTDに含まれる疑似画像SPを機械学習モデルLM0に1枚ずつ入力する(ステップS202)。そして、本処理部52Aは、機械学習モデルLM0に撮影手技を含む出力データODを導出させる(ステップS203)。次に、評価部52Bは、正解データADと出力データODとを比較して、出力データODを評価する(ステップS204)。更新部52Cは、出力データODの評価結果に基づいて機械学習モデルLM0のフィルタ係数及びパーセプトロンの重みなどの値を更新する(ステップS205)。終了タイミングが到来するまでの間(ステップS206でYES)、学習部52はステップS202~ステップS205までの一連の処理を繰り返す。予定されている数の教師データTDの学習がすべて終了した場合、損失が目標値を下回った場合などの終了タイミングが到来した場合は(ステップS206でNO)、学習部52は、学習を終了し、学習済みモデルLMを出力する(ステップS207)。
 以上のように、本実施形態に係る学習装置40は、3DCGデータによって構成される人体モデル56Aに基づいて生成された人体の疑似画像SPであって、医療用撮影装置の一例としての放射線撮影システム10に対してポジショニングされた状態の被検者Hを模した疑似画像SPを、撮影部位及び撮影方向の組み合わせ毎に複数生成する。そして、生成された疑似画像SPと、組み合わせの正解データADとで構成される複数の教師データTDを用い、機械学習モデルLM0を学習させる。教師データTDを構成する疑似画像SPは、3DCGデータによって構成される人体モデル56Aに基づいて生成される。そのため、撮影部位及び撮影方向の組み合わせである撮影手技を示すカメラ画像CPを、光学カメラ15によって取得する場合と比較して、撮影手技を示す教師データTDの数を増やしやすい。そのため、カメラ画像CPに写る被検者Hの撮影部位及び撮影方向を導出する学習済みモデルLMを、カメラ画像CPのみを教師データTDとして用いる場合と比較して、効率的に学習させることができる。
 また、上記例の3DCGデータには、人体モデル56Aの姿勢及び外見のうちの少なくとも一方を変更するためのM-パラメータ56Bが付帯されている。そのため、例えば、パラメータ指定情報61によってM-パラメータ56Bを変更するだけで、人体モデル56Aの姿勢及び外見のうちの少なくとも一方が異なる複数の疑似画像SPを生成することができる。そのため、人体モデル56Aの姿勢又は外見のうちの少なくとも一方が異なる多様な疑似画像SPを生成しやすい。実際の被検者Hの姿勢又は外見も個人差がある。多様な被検者Hのカメラ画像CP又は様々な姿勢の被検者Hのカメラ画像CPを収集するには非常に手間がかかる。こうした実情に鑑みれば、M-パラメータ56Bの変更により簡便に人体モデル56Aの姿勢又は外見を変化させる方法は、非常に有効である。
 また、M-パラメータ56Bには、人体モデル56Aの体格情報、性別、姿勢情報、皮膚の色、髪の色、髪型、及び服装のうちの少なくとも1つを含む。本開示の技術においては、外見に関わる情報及び姿勢情報を細かく指定可能にすることで、実際のカメラ画像CPでは収集しにくい外見又は姿勢の人体の画像を簡便に収集することができる。そのため、例えば、撮影部位及び撮影方向が同じ場合でも、多種多様な外見の被検者Hを模した人体モデル56Aの疑似画像SPを教師データTDとして、機械学習モデルLM0を学習させることができる。これにより、体格情報などの指定が不可能な場合と比較して、学習済みモデルLMにおいて、カメラ画像CPから撮影部位及び撮影方向を導出する精度を向上させることができる。
 上記例において、体格情報には、身長、体重、座高、股下長さ、頭囲、頭幅、首囲、肩幅、胸囲(バスト)、胴囲(ウエスト)、手の長さ、及び手首囲、手幅、足長、足幅、太もも囲、ふくらはぎ囲などが含まれる例で説明したが、これらのうちの少なくとも1つが含まれていればよい。もちろん、体格情報の項目が増えるほど、人体モデル56Aの多様性を確保できるため、好ましい。また、身長及び体重などを数値で規定する例で説明したが、数値の他に、細目、標準、及び太目などの評価情報でもよい。
 また、本実施形態において、レンダリング部51Bは、設定された視点から人体モデル56Aをレンダリングすることにより疑似画像SPを生成することが可能であり、視点はレンダリングパラメータを規定するR-パラメータセットRPSによって変更可能である。そのため、こうしたレンダリングパラメータが無い場合と比べて、視点変更が容易になり、多様な疑似画像SPを生成しやすい。
 視点を設定するための視点情報には、視点に仮想的に設置される仮想カメラ15Vの焦点距離と仮想カメラ15Vから人体モデル56Aまでの距離である撮影距離とが含まれる。撮影距離と焦点距離が変更可能であることにより、仮想カメラ15Vの撮影範囲SRを変更しやすい。
 上記実施形態において、医療撮影装置及び放射線撮影装置の一例である放射線撮影システム10に本開示の技術を適用した例で説明した。放射線撮影においては、「胸部/正面」、「腹部/正面」及び「両足/正面」など、撮影部位及び撮影方向の組み合わせを指定する撮影オーダの種類が多い。このように撮影オーダの種類が多い医療用撮影装置に用いる場合に本件は特に有効である。
 上記例において、図9に示したパラメータ指定情報61を用い、複数の疑似画像SPを連続的に生成するバッチ処理を実行してもよい。パラメータ指定情報91には、M-パラメータ指定情報61MとR-パラメータ指定情報61Rとを有する。そして、図9に示したとおり、M-パラメータ指定情報61Mには、複数のM-パラメータセットMPSを指定することが可能であり、R-パラメータ指定情報61Rには、複数のR-パラメータセットRPSを指定することが可能である。M-パラメータセットMPSとR-パラメータセットRPSの組が指定されることで、1枚の疑似画像SPが生成される。そのため、パラメータ指定情報91を用いることで、複数の疑似画像SPを連続的に生成するバッチ処理を実行することが可能である。3DCGデータ56を用いて疑似画像SPを生成する場合には、このようなバッチ処理が可能となる。バッチ処理を行うことで効率的に複数の疑似画像SPを生成することが可能となる。
 また、上記例では、光学カメラ15が静止画撮影をする例で説明したが、動画撮影をしてもよい。光学カメラ15に動画撮影をさせる場合は、被検者Hのポジショニングを開始する前に技師RGが撮影指示を入力することにより、光学カメラ15に動画撮影を開始させ、光学カメラ15が撮影した動画をリアルタイムでコンソール14に送信させてもよい。この場合は、例えば、動画を構成するフレーム画像が学習済みモデルLMに対する入力データとして用いられる。
 「変形例1」
 上記例では、疑似画像SPのみを教師データTDとして用いる例で説明したが、図19に示すように、疑似画像SPに加えて、カメラ画像CPを混在させて機械学習モデルLM0を学習させてもよい。ここで、疑似画像SPと正解データADとで構成される教師データTDを第1教師データとした場合において、カメラ画像CPと正解データADとで構成される教師データを第2教師データTD2とする。学習部52は、第1教師データTDと第2教師データTD2の両方を用いて機械学習モデルLM0を学習させる。学習済みモデルLMの運用時に用いられるカメラ画像CPを用いて学習させることにより、疑似画像SPのみを用いる場合と比較して、撮影部位及び撮影方向を導出する精度が向上する。
 「変形例2」
 上記例では、図4に示したように、学習済みモデルLMの運用フェーズにおいて、撮影手技判定部14Bは、撮影オーダ31に含まれる撮影手技(「胸部/背面」など)と、学習済みモデルLMが導出した撮影手技(「胸部/背面」など)とをそのままディスプレイ14Cに出力する。しかし、図20に示すように、撮影手技判定部14Bに照合部14Dを設け、撮影オーダ31に含まれる撮影手技と学習済みモデルLMが導出する撮影手技とを照合部14Dが照合するようにしてもよい。この場合、照合部14Dは、両者の撮影手技が一致するか否かの照合結果を出力し、ポジショニング確認画面36に照合結果を表示してもよい。照合結果は、図20の例では、「判定された撮影手技は撮影オーダと一致しています」などのメッセージの形態で表示される。また、照合結果が、両者の撮影手技が一致しないという照合結果の場合は、ポジショニング確認画面36に、「判定された撮影手技は撮影オーダと一致していません」といったメッセージ(図示せず)が照合結果として表示される。このようなメッセージは、技師RGに対して、ポジショニングミスを気付かせるアラートとして機能する。さらに、アラートとして、音声、警告音、及び警告ランプなどを用いてもよい。
 上記実施形態においては、学習装置40が教師データ生成部51を有しており、学習装置40が教師データ生成装置としても機能しているが、教師データ生成部51を学習装置40から切り離して独立した装置としてもよい。
 「第2実施形態」
 図21及び図22に示す第2実施形態は、カメラ画像CPを入力として、カメラ画像CPに写る被検者Hの体格を表す体格情報を導出する体格出力用学習済みモデルLMTを考える。第2実施形態は、こうした体格出力用学習済みモデルLMTを生成するために、体格出力学習済みモデルLMTのベースとなる体格出力用機械学習モデルLMT0の学習に、疑似画像SPを用いる例である。図21に示すように、体格出力用学習済みモデルLMTは、例えば、エンコーダ37と、回帰部68とを備える。エンコーダ37は、図5で示した撮影手技を導出する学習済みモデルLMと同様である。体格出力用学習済みモデルLMTは、カメラ画像CPの特徴マップから、カメラ画像CPに写る被検者Hの体格情報として、例えば体厚の数値を推定する回帰モデルである。回帰部68としては、例えば、線形回帰モデル、サポートベクターマシンなどが用いられる。
 図22に示すように、学習部52は、疑似画像SPを用いた複数の体格出力用教師データTDTを用いて体格出力用機械学習モデルLMT0を学習させる。体格出力用教師データTDTは、疑似画像SPと人体モデル56Aの体格を表す体格情報の正解データADTとで構成される。
 図3において示したように、被検者Hの体厚は、照射条件を決定する際の基礎情報として利用される。そのため、カメラ画像CPから体厚を導出できれば放射線撮影において利便性が向上する。
 「第3実施形態」
 図23に示す第3実施形態は、医療用撮影装置として超音波撮影装置に本開示の技術を適用した例である。超音波撮影装置は、超音波の発信部と受信部とを備えたプローブ71を有している。超音波撮影は、プローブ71を被検者Hの撮影部位に接触させることにより行われる。超音波撮影においても、撮影オーダによって撮影部位が指定されており、また、撮影方向(プローブ71の向き)も撮影目的に応じて定まる場合がある。撮影部位及び撮影方向が不適切な場合は、適切な超音波画像を取得できない場合もある。
 特に、超音波撮影は、放射線撮影と異なり、医師の他、看護師及び介護士によっても可能であり、将来的には、撮影に不慣れな被検者H自身がプローブ71を操作して超音波撮影を行うケースも想定されつつある。この場合において、撮影ガイダンスのためにカメラ画像CPを利用することも検討されている。その場合には、カメラ画像CPを入力として撮影部位及び撮影方向を導出する学習済みモデルLMが利用される場面も多くなると考えられる。すなわち、超音波撮影において、カメラ画像CPは、被検者Hの撮影部位にプローブ71が当てられた状態、すなわち、プローブ71に対してポジショニングされた被検者Hの状態を、光学カメラ15を用いて撮影された画像である。こうした学習済みモデルLMの導出精度として、撮影ガイダンスの利用に耐えうる精度を確保するには、多種多様な教師データTDを用いて学習済みモデルLMを学習させることが重要である。本開示の技術を用いることで、多種多様な疑似画像SPの教師データTDによる学習を効率的に行うことが可能となる。
 図23に示すように、本開示の技術を超音波撮影に用いる場合においても、教師データ生成部51は、人体モデル56Aと仮想的なプローブ71とをポジショニングした状態を、仮想カメラ15Vによって設定された視点でレンダリングすることにより、疑似画像SPを生成する。図7に示すように、生成された疑似画像SPの教師データTDを用いて機械学習モデルLMが学習される。
 上記各実施形態において、例えば、教師データ生成部51及び学習部52といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。
 各種のプロセッサには、CPU、プログラマブルロジックデバイス(Programmable Logic Device:PLD)、専用電気回路等が含まれる。CPUは、周知のとおりソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサである。PLDは、FPGA(Field Programmable Gate Array) 等の、製造後に回路構成を変更可能なプロセッサである。専用電気回路は、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成
してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。
 本開示の技術は、上記各実施形態に限らず、本開示の技術の要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する、コンピュータで読み取り可能な記憶媒体にもおよぶ。
 以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。

Claims (13)

  1.  医療用撮影装置に対してポジショニングされた状態の被検者を光学カメラで撮影したカメラ画像を入力として、前記カメラ画像に写る前記被検者の撮影部位及び撮影方向を導出する機械学習モデルを学習させる学習装置であって、
     プロセッサと前記プロセッサに接続又は内蔵されたメモリとを有し、
     前記プロセッサは、
     三次元のコンピュータグラフィックスデータによって構成される人体モデルに基づいて生成された人体の疑似画像であって、前記医療用撮影装置に対してポジショニングされた状態の前記被検者を模した疑似画像を、前記撮影部位及び撮影方向の組み合わせ毎に複数生成し、
     生成された前記疑似画像と、前記組み合わせの正解データとで構成される複数の教師データを用い、前記機械学習モデルを学習させる学習装置。
  2.  前記三次元のコンピュータグラフィックスデータには、前記人体モデルの姿勢及び外見のうちの少なくとも一方を変更するためのモデリングパラメータが付帯されている、請求項1に記載の学習装置。
  3.  前記モデリングパラメータは、前記人体モデルの体格を表す体格情報、性別、姿勢情報、皮膚の色、髪の色、髪型、及び服装のうちの少なくとも1つを含む、請求項2に記載の学習装置。
  4.  前記プロセッサは、設定された視点から前記人体モデルをレンダリングすることにより前記疑似画像を生成することが可能であり、前記視点はレンダリングパラメータによって変更可能である請求項1から請求項3のうちのいずれか1項に記載の学習装置。
  5.  前記視点を設定するための視点情報には、前記視点に仮想的に設置される仮想カメラの焦点距離と前記仮想カメラから前記人体モデルまでの距離である撮影距離とが含まれる請求項4に記載の学習装置。
  6.  前記疑似画像と前記正解データとで構成される教師データを第1教師データとした場合において、
     前記プロセッサは、
     前記第1教師データに加えて、光学カメラで撮影したカメラ画像と前記正解データとで構成される第2教師データを用いて、前記機械学習モデルを学習させる、請求項1から請求項5のうちのいずれか1項に記載の学習装置。
  7.  さらに、前記疑似画像と前記人体モデルの体格を表す体格情報の正解データとで構成される複数の体格出力用教師データを用いて、前記カメラ画像を入力として前記被検者の体格を表す体格情報を導出する体格出力用機械学習モデルを学習させる請求項1から請求項6のうちのいずれか1項に記載の学習装置。
  8.  前記医療用撮影装置は、放射線撮影装置及び超音波撮影装置のうちの少なくとも1つを含む、請求項1から請求項7のうちのいずれか1項に記載の学習装置。
  9.  医療用撮影装置に対してポジショニングされた状態の被検者を光学カメラで撮影したカメラ画像を入力として、前記カメラ画像に写る前記被検者の撮影部位及び撮影方向を導出する機械学習モデルを、コンピュータを用いて学習させる学習方法であって、
     三次元のコンピュータグラフィックスデータによって構成される人体モデルに基づいて生成された人体の疑似画像であって、前記医療用撮影装置に対してポジショニングされた状態の前記被検者を模した疑似画像を、前記撮影部位及び撮影方向の組み合わせ毎に複数生成し、
     生成された前記疑似画像と、前記組み合わせの正解データとで構成される複数の教師データを用い、前記機械学習モデルを学習させる学習方法。
  10.  医療用撮影装置に対してポジショニングされた状態の被検者を光学カメラで撮影したカメラ画像を入力として、前記カメラ画像に写る前記被検者の撮影部位及び撮影方向を導出する機械学習モデルを学習させる学習装置として、コンピュータを機能させる学習装置の作動プログラムであって、
     三次元のコンピュータグラフィックスデータによって構成される人体モデルに基づいて生成された人体の疑似画像であって、前記医療用撮影装置に対してポジショニングされた状態の前記被検者を模した疑似画像を、前記撮影部位及び撮影方向の組み合わせ毎に複数生成し、
     生成された前記疑似画像と、前記組み合わせの正解データとで構成される複数の教師データを用い、前記機械学習モデルを学習させる学習装置として、コンピュータを機能させる学習装置の作動プログラム。
  11.  医療用撮影装置に対してポジショニングされた状態の被検者を光学カメラで撮影したカメラ画像を入力として、前記カメラ画像に写る前記被検者の撮影部位及び撮影方向を導出する機械学習モデルを学習させるために用いる教師データを生成する教師データ生成装置であって、
     プロセッサと前記プロセッサに接続又は内蔵されたメモリとを有し、
     前記プロセッサは、
     人体の疑似画像を生成するための人体モデルを構成する三次元のコンピュータグラフィックスデータであって、前記人体モデルの姿勢及び外見のうちの少なくとも一方を変更するためのパラメータが付帯されている三次元のコンピュータグラフィックスデータを用い、
     前記パラメータを変化させることにより、前記人体モデルの姿勢及び外見のうちの少なくとも一方が異なる複数の前記疑似画像を前記撮影部位及び撮影方向の組み合わせ毎に生成し、
     生成した複数の前記疑似画像と前記組み合わせの正解データとで構成される複数の教師データを生成する、教師データ生成装置。
  12.  医療用撮影装置に対してポジショニングされた状態の被検者を光学カメラで撮影したカメラ画像を入力として、前記カメラ画像に写る前記被検者の撮影部位及び撮影方向を導出する機械学習モデルであって、
     三次元のコンピュータグラフィックスデータによって構成される人体モデルに基づいて生成された人体の疑似画像であって、前記医療用撮影装置に対してポジショニングされた状態の前記被検者を模した疑似画像と、前記撮影部位及び撮影方向の組み合わせの正解データとで構成され、前記組み合わせ毎に生成される複数の教師データ用いて学習された機械学習モデル。
  13.  請求項12に記載の機械学習モデルを備えた医療用撮影装置。
PCT/JP2022/005744 2021-02-17 2022-02-14 学習装置、学習方法、学習装置の作動プログラム、教師データ生成装置、機械学習モデル及び医療用撮影装置 WO2022176813A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2023500828A JPWO2022176813A1 (ja) 2021-02-17 2022-02-14
EP22756131.3A EP4295771A1 (en) 2021-02-17 2022-02-14 Learning device, learning method, learning device operation program, training data generation device, machine learning model and medical imaging device
CN202280013806.7A CN116829074A (zh) 2021-02-17 2022-02-14 学习装置、学习方法、学习装置的工作程序、教师数据生成装置、机器学习模型及医疗用摄影装置
US18/360,817 US20230368384A1 (en) 2021-02-17 2023-07-28 Learning device, learning method, operation program of learning device, teacher data generation device, machine learning model, and medical imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-023759 2021-02-17
JP2021023759 2021-02-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/360,817 Continuation US20230368384A1 (en) 2021-02-17 2023-07-28 Learning device, learning method, operation program of learning device, teacher data generation device, machine learning model, and medical imaging apparatus

Publications (1)

Publication Number Publication Date
WO2022176813A1 true WO2022176813A1 (ja) 2022-08-25

Family

ID=82930555

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/005744 WO2022176813A1 (ja) 2021-02-17 2022-02-14 学習装置、学習方法、学習装置の作動プログラム、教師データ生成装置、機械学習モデル及び医療用撮影装置

Country Status (5)

Country Link
US (1) US20230368384A1 (ja)
EP (1) EP4295771A1 (ja)
JP (1) JPWO2022176813A1 (ja)
CN (1) CN116829074A (ja)
WO (1) WO2022176813A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116563246A (zh) * 2023-05-10 2023-08-08 之江实验室 一种用于医学影像辅助诊断的训练样本生成方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013102851A (ja) * 2011-11-11 2013-05-30 Konica Minolta Medical & Graphic Inc 医用画像撮影システム、医用画像処理装置及びプログラム
US20200226752A1 (en) * 2019-01-16 2020-07-16 Samsung Electronics Co., Ltd. Apparatus and method for processing medical image
WO2020209256A1 (ja) * 2019-04-11 2020-10-15 富士フイルム株式会社 放射線撮影システム及びその作動方法並びに放射線撮影システム用コンソール
JP2020192440A (ja) 2020-09-03 2020-12-03 富士フイルム株式会社 放射線撮影システムとその作動方法
JP2020199163A (ja) * 2019-06-12 2020-12-17 キヤノン株式会社 放射線撮影支援システム、放射線撮影支援方法及びプログラム
WO2021020112A1 (ja) * 2019-07-29 2021-02-04 富士フイルム株式会社 医用撮影システム及び医用撮影処理装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013102851A (ja) * 2011-11-11 2013-05-30 Konica Minolta Medical & Graphic Inc 医用画像撮影システム、医用画像処理装置及びプログラム
US20200226752A1 (en) * 2019-01-16 2020-07-16 Samsung Electronics Co., Ltd. Apparatus and method for processing medical image
WO2020209256A1 (ja) * 2019-04-11 2020-10-15 富士フイルム株式会社 放射線撮影システム及びその作動方法並びに放射線撮影システム用コンソール
JP2020199163A (ja) * 2019-06-12 2020-12-17 キヤノン株式会社 放射線撮影支援システム、放射線撮影支援方法及びプログラム
WO2021020112A1 (ja) * 2019-07-29 2021-02-04 富士フイルム株式会社 医用撮影システム及び医用撮影処理装置
JP2020192440A (ja) 2020-09-03 2020-12-03 富士フイルム株式会社 放射線撮影システムとその作動方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116563246A (zh) * 2023-05-10 2023-08-08 之江实验室 一种用于医学影像辅助诊断的训练样本生成方法及装置
CN116563246B (zh) * 2023-05-10 2024-01-30 之江实验室 一种用于医学影像辅助诊断的训练样本生成方法及装置

Also Published As

Publication number Publication date
CN116829074A (zh) 2023-09-29
JPWO2022176813A1 (ja) 2022-08-25
EP4295771A1 (en) 2023-12-27
US20230368384A1 (en) 2023-11-16

Similar Documents

Publication Publication Date Title
US10507002B2 (en) X-ray system and method for standing subject
US10170155B2 (en) Motion information display apparatus and method
CN105816190B (zh) X射线记录系统
JP7098485B2 (ja) 撮像で使用する仮想位置合わせ画像
US9204825B2 (en) Method and apparatus for monitoring an object
JP6181373B2 (ja) 医用情報処理装置及びプログラム
JP7051307B2 (ja) 医用画像診断装置
CN111724904A (zh) 用于针对医学扫描的患者建模的多任务渐进式网络
CN112022201A (zh) 机器引导的成像技术
US20230368384A1 (en) Learning device, learning method, operation program of learning device, teacher data generation device, machine learning model, and medical imaging apparatus
JP7466541B2 (ja) 医療用x線撮像機器の位置決め
CN111770735A (zh) 手术仿真信息生成方法及程序
JP6598422B2 (ja) 医用情報処理装置、システム及びプログラム
JP6967983B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6824641B2 (ja) X線ct装置
JP7387409B2 (ja) 医用画像処理装置、医用画像処理方法、医用画像処理プログラム
JP7404857B2 (ja) 画像判定装置、画像判定方法及びプログラム
WO2014104357A1 (ja) 動作情報処理システム、動作情報処理装置及び医用画像診断装置
JP6956514B2 (ja) X線ct装置及び医用情報管理装置
JP7427136B2 (ja) 一次元位置インジケータ
JP7292191B2 (ja) 医用画像処理装置、医用画像処理方法、および医用画像処理プログラム
EP4197449A1 (en) Fluoroscopic positioning guidance
CN114502075B (zh) 用于x射线管检测器校准的用户界面
JP6918443B2 (ja) 医用情報処理装置
CN117323581A (zh) 表面引导的监测中确定感兴趣区的方法、系统和可读介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22756131

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023500828

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280013806.7

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2022756131

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022756131

Country of ref document: EP

Effective date: 20230918