JP2024027651A - 情報処理装置、放射線撮影システム、情報処理方法及びプログラム - Google Patents

情報処理装置、放射線撮影システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2024027651A
JP2024027651A JP2022130614A JP2022130614A JP2024027651A JP 2024027651 A JP2024027651 A JP 2024027651A JP 2022130614 A JP2022130614 A JP 2022130614A JP 2022130614 A JP2022130614 A JP 2022130614A JP 2024027651 A JP2024027651 A JP 2024027651A
Authority
JP
Japan
Prior art keywords
information
optical image
area information
subject
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022130614A
Other languages
English (en)
Inventor
智樹 玉田
Tomoki Tamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022130614A priority Critical patent/JP2024027651A/ja
Publication of JP2024027651A publication Critical patent/JP2024027651A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】光学画像において放射線検出装置のポジショニングを好適に行うこと。【解決手段】情報処理装置は、光学画像撮影装置により取得された光学画像における照射野領域情報と、放射線検出装置における照射野領域情報とを取得する第1取得部と、光学画像における照射野領域情報と放射線検出装置における照射野領域情報とを用いて、放射線検出装置を配置する目標領域である、光学画像における目標領域情報を取得する第2取得部と、を備える。【選択図】図2

Description

開示の技術は、情報処理装置、放射線撮影システム、情報処理方法及びプログラムに関する。
従来、放射線撮影システムにより被写体の撮影部位を放射線撮影する場合、被写体のポジショニングについては、撮影部位が正しく撮影可能なポジションになるように技師が被写体を放射線撮影に適した撮影位置に誘導することが必要とされる。
特許文献1には、光学カメラを用いて被写体の放射線撮影に適した撮影位置を示すガイド線等の被写体の目標位置を生成し、表示機器に表示する方法が提案されている。
近年では、可搬型の放射線検出装置として、ワイヤレスで持ち運びが可能なカセッテが普及してきている。カセッテによる撮影方法はフリー撮影と呼ばれるが、カセッテの位置は固定されないため、被写体のポジショニングだけでなく、カセッテのポジショニングも必要とされる。したがって、技師が撮影時に見ることができる表示機器には被写体の目標位置だけでなく、カセッテの目標位置も表示されることが望ましい。
特許文献2には、被写体のポジショニングおよびカセッテのポジショニングに関し、カセッテの現在位置を光学カメラにより検出し、カセッテが移動した場合でも正しい被写体の目標位置、およびカセッテの枠線を、光学カメラで撮影された光学画像に重畳表示する技術が開示されている。
特開2011-188665号公報 特開2020-192440号公報
しかしながら、カセッテが被写体などにより覆い隠されたり、カセッテが光学画像の画角に収まらない状況では、光学画像においてカセッテを検出することができない場合が生じ得る。特許文献2の従来技術では、光学カメラで撮影された光学画像においてカセッテを検出できない場合、カセッテの目標位置の算出ができないため、カセッテのポジショニングが困難な場合が生じ得る。
開示の技術は、光学画像において放射線検出装置のポジショニングを好適に行うことを目的とする。
開示の技術の一態様による情報処理装置は、光学画像撮影手段により取得された光学画像における照射野領域情報と、放射線検出手段における照射野領域情報とを取得する第1取得手段と、
前記光学画像における照射野領域情報と前記放射線検出手段における照射野領域情報とを用いて、前記放射線検出手段を配置する目標領域である、前記光学画像における目標領域情報を取得する第2取得手段と、を備える。
開示の技術によれば、光学画像において放射線検出装置のポジショニングを好適に行うことが可能になる。
実施形態の放射線撮影システムの構成例を示す図。 実施形態の放射線撮影システムの機能的な構成を示すブロック図。 実施形態1の放射線撮影の処理の流れを説明するフローチャート。 実施形態2の放射線撮影の処理の流れを説明するフローチャート。 実施形態3の放射線撮影の処理の流れを説明するフローチャート。 実施形態4の放射線撮影の処理の流れを説明するフローチャート。 実施形態1に用いる光学画像と放射線画像とを例示する図。 実施形態2、実施形態3に用いる光学画像と放射線画像とを例示する図。 カセッテが検出できた場合の光学画像を例示する図。 カセッテおよび被写体のポジショニングを説明する図。 被写体目標領域情報の変更を説明する図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
開示の技術における放射線には、放射線崩壊によって放出される粒子(光子を含む)の作るビームであるα線、β線、γ線などの他に、同程度以上のエネルギーを有するビーム、例えばX線や粒子線、宇宙線なども、含まれるものとする。
また、開示の技術の説明における領域情報には、位置情報、角度情報、幅・高さ情報のうち少なくとも1つの情報が含まれるものとする。
[実施形態1]
図1は、実施形態に係る放射線撮影システム101を示す図である。図1に示すように、放射線撮影システム101は、被写体Pに照射する放射線を発生する放射線発生装置102と、放射線発生装置102から発生して被写体Pを透過した放射線を検出し、放射線画像を取得する放射線検出装置(カセッテ103)と、システムにおける情報処理を司る情報処理装置251と、を備える。本実施形態では、一例として、放射線検出装置は、可搬型の放射線検出装置(カセッテ103)とし、放射線発生装置102が架台105などにより固定されている放射線撮影システム101の構成を説明する。放射線発生装置102には、放射線を発生する管球と、管球において発生した放射線の広がり角を規定するコリメータが含まれる。
放射線撮影を実施する際に、カセッテ103が撮影室に運ばれて、被写体Pの撮影部位に応じて、カセッテ103の位置合わせが行われる。カセッテ103は、被写体Pを載置する載置部104と、被写体Pとの間に載置される。架台105にはカセッテ103と被写体Pとの両方を撮影可能な光学カメラ106が設置されている。光学カメラ106は、例えば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor Device)カメラ等により構成され、光学画像を撮影するための光学画像撮影装置である。光学画像を取得可能であれば、種々の形式の光学画像撮影装置(光学カメラ106)を用いることが可能である。
以下では、放射線検出装置(カセッテ103)により撮影(取得)された画像を「放射線画像」といい、光学画像撮影装置(光学カメラ106)により撮影(取得)された画像を「光学画像」と記載する。
本実施形態において、光学カメラ106は、放射線発生装置102から放射線が照射される領域を含む領域(例えば、放射線が照射される領域又はそれより大きめの領域)の光学画像を取得するために設けられたものであり、放射線発生装置102の近傍に設けられている。光学カメラ106は、情報処理装置251からの指示に従って、光学画像を撮影し、撮影した光学画像を情報処理装置251に送信する。
技師Rは、操作部210を操作することで被写体Pを放射線撮影し、撮影中または撮影前後に、光学カメラ106により取得された光学画像を表示機器209で確認することが可能である。なお、光学カメラ106および表示機器209は任意の位置に設定することが可能である。また、図1において、載置部104に載置された被写体Pの撮影部位は一例として胸部としているが、被写体Pの撮影部位はこれに限定されるものではなく、任意の撮影部位を撮影することが可能である。
図2は放射線撮影システム101の機能的な構成を示すブロック図である。図2において、一点鎖線のブロックは、実施形態1及び実施形態4の放射線撮影システム101における情報処理を司る情報処理装置251の機能的な構成を示す。また、二点鎖線のブロックは、実施形態2及び実施形態3の放射線撮影システム101における情報処理を行うための機能構成252であり、実施形態2、3では、情報処理装置251および機能構成252が連携して放射線撮影システム101における情報処理を実行する。図2において、実線の矢印は電気的な接続状態を表す。以下、図2を用いて、放射線撮影システム101における情報処理装置251の処理を説明する。情報処理装置251及びカセッテ103の間には、例えば、無線通信リンクが確立され、この通信リンクを介して、相互にデータ通信を行うことが可能である。
放射線画像格納部201は、放射線検出装置(カセッテ103)から放射線画像を取得し、格納する。また、光学画像格納部202は、光学画像を光学カメラ106から取得し、格納する。
演算処理部203は、光学画像格納部202に格納された光学画像において、カセッテ103の検出可否の判定を行う。カセッテ103の検出可否の判定方法として、演算処理部203は、種々の画像処理方法を適用することが可能である。演算処理部203は、例えば、エッジ検出処理により検出可否の判定を行うことが可能である。
また、演算処理部203は、光学画像において所定の画素値を有する面積を計算し、面積に応じて検出可否の判定を行うことも可能である。演算処理部203は、例えば、一定の面積値以上であれば、その領域をカセッテ103と判定し、一定の面積値以上の領域を検出することができない場合に、光学画像において、カセッテ103を検出できないと判定する。
また、画像処理方法の他、カセッテ103の形状を予め機械学習させたAIのアルゴリズムを用いてもよい。演算処理部203は、光学画像を機械学習済のアルゴリズムに入力し、光学画像に含まれる物体のラベリングをして、光学画像におけるカセッテ103の位置を推定してもよい。機械学習済のアルゴリズムを用いる場合、例えば、被写体Pがカセッテ103の一部を覆っていても、覆われた部分を補間するアルゴリズムを用いることにより、光学画像におけるカセッテ103の位置を推定することが可能である。
カセッテ103が検出できた場合、演算処理部203は、カセッテ目標領域情報格納部204に、光学画像におけるカセッテ103の領域情報を格納する。光学画像において検出されたカセッテ103の領域情報は、後に説明するカセッテ103の目標領域情報に等しい情報である。以下、カセッテ103の目標領域情報を単にカセッテ目標領域情報ともいう。
カセッテ103が検出できなかった場合、演算処理部203は、第1取得部として機能する。第1取得部は、光学画像撮影装置(光学カメラ106)により取得された光学画像における照射野領域情報と、放射線検出装置(カセッテ103)における照射野領域情報とを取得する。演算処理部203(第1取得部)は、光学画像に対して画像処理を行い、例えば、光学画像における照射野ランプによる照射領域(光学画像における照射野ランプの領域ともいう)を検出することにより、光学画像における照射野領域情報を取得し、領域情報格納部205に格納する。
また、演算処理部203は、光学画像と対応する放射線画像を取得し、取得した放射線画像に対して画像処理を行うことにより、カセッテ103における照射野領域情報を取得する。ここで、光学画像と放射線画像とは、放射線照射実行時に撮影された画像として対応付けられ、光学画像は光学画像格納部202に格納され、放射線画像は放射線画像格納部201に格納されている。演算処理部203は、光学画像と対応する放射線画像を放射線画像格納部201から取得する。演算処理部203は、取得した放射線画像に対して画像処理(エッジ検出、所定の画素値を有する面積計算等)を行い、カセッテ103における照射野領域情報を取得し、領域情報格納部205に格納する。
図7は、実施形態1における光学画像と放射線画像とを例示する図である。図7のST71は光学画像を例示し、図7のST72は放射線画像を例示する。光学画像における照射野領域情報とは、図7の光学画像(ST71のC)において、U-V座標系で表される、位置情報(R,R)、幅・高さ(WRUV,HRUV)、角度情報の少なくとも一つを含む情報を意味する。ここで、位置情報(R,R)は、照射野Rの左上の点の位置を示す情報である。幅・高さ(WRUV,HRUV)は、照射野Rの幅及び高さを示す情報である。また、放射線検出装置(カセッテ103)を配置する目標領域である、光学画像における目標領域情報とは、位置情報、幅・高さ、角度情報の少なくとも一つを含む情報を意味する。
また、カセッテ103(ST72のF)における照射野領域情報とは、図7の放射線画像(ST72のR)において、X-Y座標系で表される、位置情報(R,R)、幅・高さ(WRXY,HRXY)、角度情報の少なくとも一つを含む情報を意味する。ここで、位置情報(R,R)は、照射野Rの左上の点の位置を示す情報である。幅・高さ(WRXY,HRXY)は、照射野Rの幅及び高さを示す情報である。
図7のST71には、そのほかに、光学画像Cにおいて、カセッテF、カセッテFの左上の点(F,F)、照射野R(照射野領域R)が示されている。また、図7のST72には、カセッテF、カセッテの左上の点(F,F)、照射野R(照射野領域R)、有効画素領域Rが示されている。
演算処理部203は、領域情報格納部205に格納された、光学画像Cにおける照射野領域情報、及び、カセッテ103(ST72のF)における照射野領域情報を用いて、光学画像Cにおいてカセッテ103(ST72のF)を配置(ポジショニング)する、カセッテ103の目標領域情報を取得し、カセッテ目標領域情報格納部204に格納する。演算処理部203は、第2取得部として機能する。第2取得部は、光学画像Cにおける照射野領域情報と放射線検出装置(カセッテ103)における照射野領域情報とを用いて、放射線検出装置(カセッテ103)を配置する目標領域である、光学画像Cにおけるカセッテ103の目標領域情報を取得する。以下、カセッテ103の目標領域情報を単にカセッテ目標領域情報ともいう。
また、演算処理部203は、光学画像格納部202に格納された光学画像を用いて、光学画像Cにおいて被写体Pを配置(ポジショニング)する、被写体Pの目標領域情報を取得し、被写体目標領域情報格納部206に格納する。以下、被写体Pの目標領域情報を単に被写体目標領域情報ともいう。演算処理部203は、光学画像Cにおいて、カセッテ目標領域情報に基づいて配置されるカセッテ103に対して、被写体Pを配置する被写体目標領域情報を取得する。
演算処理部203は、カセッテ目標領域情報と、被写体目標領域情報との相対的な位置関係を示す相対座標を取得し、目標位置相対座標格納部218に格納する。
合成画像生成部207は、カセッテ目標領域情報および被写体目標領域情報を光学画像Cに重畳した重畳画像を生成する。情報処理装置251の表示制御部部(不図示)は、合成画像生成部207により生成された重畳画像を、ユーザインターフェース部208を介して、モニタなどの表示機器209に表示させる。
図3は、実施形態1の放射線撮影の処理の流れを説明するフローチャートである。図3のフローチャートは、2つの処理フロー3A及び3Bにより構成される。処理フロー3Aは、S301~S309の処理ステップを有している。処理フロー3Aによる放射線撮影を第1放射線撮影とする。
処理フロー3Bは、S310~S316の処理ステップを有している。処理フロー3Bによる放射線撮影を第2放射線撮影とする。第2放射線撮影は、第1放射線撮影における被写体と同じ被写体Pの撮影部位について、第1放射線撮影の後に行われる放射線撮影である。第2放射線撮影は、第1放射線撮影の後の異なるタイミング、例えば、別時刻や異なる年月日に行われる放射線撮影である。第1放射線撮影における被写体と同じ被写体Pの撮影部位について、経過観察等で、第1放射線撮影(3A)の後、複数回の放射線撮影が必要とされる場合には、処理フロー3Bの処理を行えばよい。
(第1放射線撮影:3A)
S301において、放射線撮影が開始されると、S302において、技師Rはカセッテ103、および被写体Pのポジショニングを行う。ポジショニング完了後、S303において、技師Rが照射スイッチなどを操作することにより放射線発生装置102は放射線照射を実行する。
S304において、光学画像格納部202は、放射線照射実行時に撮影された光学画像を光学カメラ106から取得し、格納する。また、放射線画像格納部201は、放射線検出装置(カセッテ103)から放射線画像を取得し、格納する。
光学画像と放射線画像とは、放射線照射実行時に撮影された画像として対応付けられ、光学画像格納部202及び放射線画像格納部201に格納されている。例えば、対応付けを示す識別番号を付与し、画像データと組み合わせて格納してもよい。例えば、光学画像を指定すれば、この光学画像に対応する放射線画像を放射線画像格納部201から取得することができる。
S305において、演算処理部203は、光学画像格納部202に格納された光学画像において、カセッテ103が検出されたか否かの判定を行う。カセッテ103の検出可否の判定方法は、先に説明したように、種々の画像処理方法や、カセッテ103の形状を予め機械学習させたAIのアルゴリズムを用いて判定することが可能である。
S305の判定処理により、カセッテ103が光学画像において検出できた場合(S305-YES)、演算処理部203は処理をS307に進める。
S307において、演算処理部203は、カセッテ103の目標領域情報(光学画像におけるカセッテ領域情報に等しい)を取得し、カセッテ目標領域情報格納部204に格納する。
図9は、カセッテ103(図9のF)が検出できた場合の光学画像Cを例示する図である。図9では、検出されたカセッテFと、光学画像Cにおける照射野ランプによる照射領域の検出により、あらかじめ得られた照射野Rの領域情報と、を光学画像Cに重畳表示した状態を示している。光学画像Cの座標系をU-V座標系で表し、U-V座標系でのカセッテFの左上の点を(F,F)、カセッテFの幅をWFUV,カセッテFの高さをHFUVで示している。図9に示す例では、被写体Pの手がカセッテFの一部を覆っていても、種々の画像処理方法等を用いることにより、カセッテFを検出するのに十分な領域が、光学画像Cにおいて検出されている。
一方、S305の判定処理により、カセッテ103が光学画像において検出できなかった場合(S305-NO)、演算処理部203は処理をS306に進める。
S306において、演算処理部203は、光学画像における照射野領域情報と、カセッテ103における照射野領域情報とを取得し、領域情報格納部205に格納する。
演算処理部203は、光学画像に対して画像処理(エッジ検出、所定の画素値を有する面積計算等)を行い、光学画像における照射野ランプによる照射領域を検出することにより、光学画像における照射野領域情報を取得する。演算処理部203は、光学画像における照射野領域情報として、例えば、図7のST71に示すように、U-V座標系において、(R,R)、WRUV,HRUVを取得し、領域情報格納部205に格納する。なお、演算処理部203は、光学画像における照射野領域情報のうちWRUV,HRUVを、放射線発生装置102の放射線源の位置とカセッテ103の位置とから得られるSID(Source Image Distance)と、コリメータの開口部の開口率とに応じて算出(取得)することも可能である。
また、演算処理部203は、S304で格納した光学画像と対応する放射線画像を放射線画像格納部201から取得する。演算処理部203は、取得した放射線画像に対して画像処理(エッジ検出、所定の画素値を有する面積計算等)を行い、カセッテ103(ST72のF)における照射野領域情報を取得する。演算処理部203は、カセッテ103(図7に示すF)において、有効画素領域Rに対する照射野領域Rの相対座標の情報、および有効画素領域Rに対するカセッテ103(図7に示すF)の筐体外枠の相対座標の情報を用いて、カセッテ103(図7に示すF)における照射野領域情報を取得する。演算処理部203は、カセッテ103(図7に示すF)における照射野領域情報として、例えば、X-Y座標系において、(Rx,R)、WRXY,HRXYを取得し、領域情報格納部205に格納する。なお、演算処理部203は、カセッテ103における照射野領域情報のうちWRXY,HRXYを、放射線発生装置102の放射線源の位置とカセッテ103の位置とから得られるSID(Source Image Distance)と、コリメータの開口部の開口率とに応じて算出(取得)することも可能である。
演算処理部203は、光学画像Cにおける照射野領域R(ST71)、及び、カセッテ103における照射野領域R(ST72)のサイズを合わせる倍率調整情報Sを取得する。演算処理部203は、光学画像における照射野領域情報のうち、幅を示すWRUVを、カセッテ103における照射野領域情報のうち、幅を示すWRXYで除算して、倍率調整情報S(=WRUV/WRXY)を取得する。ここで、倍率調整情報Sの取得の例として、幅(WRUV、WRXY)を用いる例を示したが、高さ(HRUV、HRXY)を用いてもよい。この場合、演算処理部203は、光学画像における照射野領域情報のうち、高さを示すHRUVを、カセッテ103における照射野領域情報のうち、高さを示すHRXYで除算して、倍率調整情報S(=HRUV/HRXY)を取得してもよい。
次に、演算処理部203は、光学画像における照射野領域R(ST71)、及び、カセッテ103における照射野領域R(ST72)の傾き(傾斜角)を合わせる傾斜角情報θを取得する。傾斜角情報θは、光学画像における照射野領域Rに対して、カセッテ103のハードウエア的な辺の傾きを示す情報である。
ここで、図7の光学画像Cにおいて、照射野Rの左上の点の位置を示す位置情報(R,R)を始点として、幅(WRUV)の方向に、ベクトルL(L、L)を設定する。同様に、演算処理部203は、カセッテ103(図7のF)の照射野Rの左上の点の位置を示す位置情報(R,R)を始点として、幅(WRXY)の方向に、ベクトルL(L、L)を設定する。2つのベクトルL、Lのなす傾斜角情報θは、ベクトルの内積(L・L+L・L)を、(Lの長さ×Lの長さ)で除算する公式により取得することが可能である。演算処理部203は、本ステップで取得した、倍率調整情報S及び傾斜角情報θを、領域情報格納部205に格納する。
S307において、演算処理部203は、S306で格納した領域情報から、光学画像におけるカセッテ目標領域情報(光学画像におけるカセッテ領域情報に等しい)を取得する。演算処理部203は、X-Y座標系における、カセッテ103(ST72のF)の左上の点(F,F)の位置情報、及び、照射野Rの左上の点の位置情報(R,R)の間の相対情報(F-RX、-R)を取得する。
そして、演算処理部203は、倍率調整情報S及び傾斜角情報θを用いて、取得した相対情報(F-RX、-R)を、U-V座標系の光学画像における相対情報(δR、δR)に座標変換する。
具体的には、演算処理部203は、以下の数1式の演算により、U-V座標系における相対情報(δR、δR)を取得する。ここで、数1式におけるS、θは、S306で取得した倍率調整情報S及び傾斜角情報θである。
Figure 2024027651000002
U-V座標系で表される、光学画像における照射野領域情報のうち、照射野Rの左上の点の基準位置情報(R,R)と、数1式により取得された相対情報(δR、δR)とを用いて、光学画像におけるカセッテ103(図7のST71のF)の左上の点の基準位置情報(F,F)は、以下の数2式で得られる。
[数2]
= δR + R
= δR + R
演算処理部203は、光学画像におけるカセッテ103(ST71のF)の左上の点の基準位置情報(F,F)を数2式により取得する。演算処理部203は、カセッテ103の左上の点の基準位置情報(F,F)を原点として、カセッテ103(ST71のF)の筐体外枠の幅WFUV、及び高さHFUVに相当する領域を光学画像Cに設定する。これにより、演算処理部203は、光学画像におけるカセッテ103の目標領域情報を取得し、カセッテ目標領域情報格納部204に格納する。
S308において、演算処理部203は、光学画像格納部202から取得した光学画像において、カセッテ目標領域情報に基づいて配置されるカセッテ103に対して、被写体Pを配置する被写体Pの目標領域情報(被写体目標領域情報)を取得する。演算処理部203は、取得した被写体目標領域情報を被写体目標領域情報格納部206に格納し、その後、撮影を終了する(S309)。
(第2放射線撮影:3B)
S303の放射線撮影(第1放射線撮影)後の異なるタイミング、例えば、別時刻や異なる年月日に行われる放射線撮影(第2放射線撮影)において、S310以降の処理が開始する。
S310で撮影が開始した後、S311において、光学画像格納部202は、光学画像を光学カメラ106から取得し、格納する。
S312において、第1放射線撮影における被写体と同じ被写体Pの撮影部位について、放射線撮影(第2放射線撮影)を行う場合には、合成画像生成部207は、過去の放射線撮影(第1放射線撮影)の際に取得された、光学画像におけるカセッテ103の目標領域情報(カセッテ目標領域情報)、及び被写体Pの目標領域情報(被写体目標領域情報)を取得する。合成画像生成部207は、カセッテ103の目標領域情報をカセッテ目標領域情報格納部204から取得し、被写体Pの目標領域情報を被写体目標領域情報格納部206から取得する。
合成画像生成部207は、カセッテ103の目標領域情報および被写体Pの目標領域情報を光学画像に重畳した重畳画像を生成する。合成画像生成部207は、S311で格納された光学画像に、過去の放射線撮影(第1放射線撮影)で得られたカセッテ103の目標領域情報、および被写体Pの目標領域情報を重畳した重畳画像を生成する。
S313において、情報処理装置251の表示制御部部(不図示)は、合成画像生成部207により、S312で生成された重畳画像を、ユーザインターフェース部208を介して、表示機器209に表示させる。
S314において、技師Rはカセッテ103、および被写体Pのポジショニングを行う。技師Rは、表示機器209に表示されたカセッテ103の目標領域情報および被写体Pの目標領域情報を確認しながら、カセッテ103の位置、被写体Pの位置合わせ(ポジショニング)を行う。技師Rは、カセッテ103の目標領域情報および被写体Pの目標領域情報を視認することにより、カセッテ103および被写体Pのポジショニングを容易に実施することができる。
このとき、表示機器209は放射線発生装置102の側に設置されてもよいし、操作部210が載置されている操作室側に設置されていてもよい。また、S312で生成された重畳画像を投光器で載置部104に投影してもよい。重畳画像の情報をもとに、システムから自動音声を出力して、技師Rに正しくポジショニングできるように促す音声情報を提供してもよいし、表示機器以外の方法で正しくポジショニングできるように技師Rの作業を誘導する情報を提供してもよい。
ポジショニング完了後、S315において、技師Rが照射スイッチなどを操作することにより放射線発生装置102は放射線照射を実行する(第2放射線撮影)。
放射線照射を実行後(S315)、S316において、放射線撮影(第2放射線撮影)は終了となる。
実施形態1の開示の技術によれば、光学画像において放射線検出装置が検出できない場合においても、光学画像において放射線検出装置を配置する目標領域情報を取得することが可能になる。また、光学画像における被写体の目標領域情報を取得することが可能することができる。
[実施形態2]
実施形態1では、撮影対象の被写体Pに対して過去に実施された放射線撮影(第1放射線撮影)において取得された、光学画像における照射野領域情報と、光学画像に対応する放射線画像における照射野領域情報とを用いて、光学画像におけるカセッテ103の目標領域情報を取得する構成について説明した。
実施形態2では、撮影対象の被写体Pの光学画像が存在し、撮影対象の被写体Pに対して過去に実施された放射線撮影による放射線画像が存在しない場合を想定する。被写体Pを撮影した放射線画像に代わり、撮影対象の被写体Pの光学画像と、学習済の機械学習モデルとを用いて、放射線画像を推定する構成について説明する。
機械学習においては、撮影対象の被写体Pとは異なる複数の別被写体に対して行われた過去の放射線撮影時に得た放射線画像群と、放射線画像群に対応する光学画像群と、を用いた機械学習よる学習済の機械学習モデルを用いる。
被写体Pの光学画像と、推定された放射線画像とを用いて、光学画像における照射野領域情報を取得する。また、機械学習で用いた放射線画像群からカセッテ103における照射野領域情報を取得する。
そして、光学画像における照射野領域情報と、放射線検出装置(カセッテ103)における照射野領域情報とを用いて、光学画像におけるカセッテ103の目標領域情報を取得する。
実施形態2は、放射線撮影時に照射野ランプが点灯されなかったなどの理由で照射野が光学画像において検出できない場合にも適用可能である。また、被写体Pに対する放射線撮影が行われていない場合、すなわち、被写体Pに対する最初の放射線撮影を行う場合にも適用可能である。実施形態1と異なる点は、領域情報格納部205に格納する領域情報(光学画像における照射野領域情報、放射線検出装置(カセッテ103)における照射野領域情報)の算出方法である。以下、具体的な処理の内容について説明する。
図2の機能構成252において、放射線画像群格納部216には、複数の別被写体に対して過去に実施された放射線撮影により得られた放射線画像群が格納される。特徴点放射線画像群格納部211には、放射線画像群格納部216に格納された放射線画像群から抽出した特徴点の点群データ(例えば、図8のST82のP,P)が被写体数分だけ格納されている。
光学画像群格納部217には、放射線画像群に対応した光学画像群が格納されている。光学画像群と放射線画像群との対応付けは実施形態1と同様であり、光学画像群と放射線画像群とは、各被写体の放射線照射実行時に撮影された画像として対応付けられ、格納される。
特徴点光学画像群格納部212には、光学画像群格納部217に格納されている光学画像群から抽出した特徴点の点群データ(例えば、図8のST81のP,P)が被写体数分だけ格納されている。
学習実行部213は、特徴点光学画像群格納部212のデータ(特徴点により構成される光学画像群)を入力データとし、特徴点放射線画像群格納部211のデータ(特徴点により構成される放射線画像群)を出力データとし、機械学習を実行する。学習実行部213は、学習済の機械学習モデル(第1機械学習モデル)を学習済モデル格納部214に格納する。第1機械学習モデルは、撮影対象の被写体とは異なる複数の別被写体に対する撮影により取得された、特徴点により構成される光学画像群を入力とし、複数の別被写体に対する撮影により取得された、特徴点により構成される放射線画像群を出力とする機械学習により取得される。
なお、学習実行部213は、機械学習における入力データと出力データとを入れ替えた機械学習を行うことも可能である。学習実行部213は、特徴点光学画像群格納部212のデータ(特徴点により構成される光学画像群)を出力データとし、特徴点放射線画像群格納部211のデータ(特徴点により構成される放射線画像群)を入力データとし、機械学習を実行することが可能である。学習実行部213は、学習済の機械学習モデル(第2機械学習モデル)を学習済モデル格納部214に格納する。第2機械学習モデルは、撮影対象の被写体とは異なる複数の別被写体に対する撮影により取得された、特徴点により構成される放射線画像群を入力とし、複数の別被写体に対する撮影により取得された、特徴点により構成される光学画像群を出力とする機械学習により取得される。
本実施形態では、機械学習は、例えば、Convolution Neural Network(以下、CNN)を用いている。機械学習はこの他にもRecurrent Neural Network、Long Short-Term Memory等の他の深層学習や、Support vector MachineやAdaBoost等のいかなる機械学習アルゴリズムを適用することが可能である。
図8は光学画像と放射線画像とを例示する図である。図8のST81は光学画像を例示し、図8のST82は放射線画像を例示する。図8のST81に示す光学画像Cは、左上の点を原点とするU-V座標系で表される。図8のST81には、カセッテF、カセッテFの左上の点(F,F)、カセッテFの幅WFUV、カセッテFの高さHFUV、照射野R(照射野領域R)が示されている。また、ST81には、光学画像群格納部217に格納されている光学画像群から抽出した特徴点の点群データ(P,P)が示されている。
また、図8のST82に示す放射線画像は、カセッテFの有効画素領域Rの左上の点を原点とするX-Y座標系で表される。図8のST82には、カセッテF、カセッテFの左上の点(F,F)、カセッテFの有効画素領域R、照射野R(照射野領域R)が示されている。また、ST82には、放射線画像群格納部216に格納された放射線画像群から抽出した特徴点の点群データ(P,P)が示されている。
推定処理部219は、学習済モデル格納部214の学習済の機械学習モデル(第1機械学習モデル)と、撮影対象の被写体Pの放射線撮影時に取得した光学画像(光学画像格納部202に格納)とを用いて、特徴点群のみから成る放射線画像を推定する。推定処理部219は、推定した放射線画像を推定画像格納部215に格納する。図8のST82において、放射線画像を構成する特徴点の点群データ(P,P)は、推定処理部219により推定されたデータである。
演算処理部203は、推定画像格納部215に格納された特徴点群のみから成る、推定された放射線画像と、光学画像格納部202に格納された光学画像とから、光学画像における照射野領域情報を取得し、領域情報格納部205に格納する。なお、光学画像に関しては、撮影対象の被写体Pの放射線撮影時に取得した光学画像に限られず、放射線撮影時とは別時刻にて取得した光学画像を用いてもよいし、撮影対象の被写体Pの放射線照射前に取得された光学画像を用いてもよい。
特徴点群は、被写体またはカセッテの輪郭を形成する点群でもよいし、被写体が写っていない部分を形成する点群でもよいし、解剖学的な特徴点(背骨、関節、またはそれ以外)から得た点群でもよい。
図4は、実施形態2の放射線撮影の処理の流れを説明するフローチャートである。S401において、撮影対象の被写体Pとは異なる複数の別被写体について、放射線撮影時に得た光学画像群および放射線画像群を準備する。光学画像群および放射線画像群を構成する各光学画像と各放射線画像とは対応付けられたデータである。光学画像群および放射線画像群から抽出された特徴点群データを被写体の人数分だけ用意し、それぞれ特徴点光学画像群格納部212と、特徴点放射線画像群格納部211に格納する。
S402において、学習実行部213は機械学習を実行し、S403において、学習実行部213は、学習済の機械学習モデルを学習済モデル格納部214に格納する。なお、S401~S403の処理は、S404の処理を行うための前処理であり、S401~S403の処理が完了している場合には、次回の撮影時には、S401~S403の処理を省略して、S404から処理を開始してもよい。
S404において、目的の被写体Pの撮影を開始する。S405において、光学画像格納部202は、光学画像を光学カメラ106から取得し、格納する。なお、光学画像に関しては、撮影対象の被写体Pの放射線撮影時に取得した光学画像に限られず、放射線撮影時とは別時刻にて取得した光学画像を用いてもよいし、撮影対象の被写体Pの放射線照射前に取得された光学画像を用いてもよい。
S406において、推定処理部219は、光学画像格納部202に格納された光学画像(撮影対象の被写体Pの光学画像)と、学習済モデル格納部214に格納された学習済の機械学習モデルとを用いて、特徴点群のみから成る放射線画像を推定する。推定処理部219は、撮影対象の被写体Pの光学画像を学習済の機械学習モデル(第1機械学習モデル)に入力し、特徴点群のみから成る放射線画像を推定する。
S407において、演算処理部203は、推定処理部219により推定された放射線画像と、光学画像とを用いて、光学画像における照射野領域情報を取得し、領域情報格納部205に格納する。
推定された放射線画像においては、例えば、図8のST82のように、点線で示された体の輪郭、背骨、鎖骨等が点群情報として得られる。一方、光学画像に関して、演算処理部203は、光学画像に対する画像処理により、被写体Pの輪郭や、手を広げている被写体Pの腕や首との相対的な位置関係から鎖骨の位置や背骨の位置等の光学画像における被写体Pの特徴情報を取得する。演算処理部203は、推定された放射線画像における点群情報を、光学画像における被写体Pの特徴情報に合わせるように調整する。合わせ込みにおける倍率や傾斜角の調整は、例えば、S306で説明した倍率調整情報S及び傾斜角情報θによる調整と同様である。例えば、倍率調整の場合、点群情報における、背骨の長さや左右の鎖骨の端部を、光学画像における被写体Pの背骨の長さや左右の鎖骨の端部に合わせるように倍率調整を行えばよい。演算処理部203は、幅及び高さが調整された点群情報の領域の幅及び高さに基づいて、光学画像における照射野領域情報(例えば、図8のST81のR)を取得し、領域情報格納部205に格納する。
S408において、演算処理部203は、カセッテ103における照射野領域情報を、放射線画像群格納部216のデータから取得し、領域情報格納部205に格納する。ここで、カセッテ103における照射野領域情報は、放射線画像群格納部216に格納されている代表的な一つまたは複数の放射線画像から取得してもよいし、放射線画像群格納部216に格納されている放射線画像群から平均値をとることで取得してもよい。
なお、ステップS407及びS408の実行順は、例えば、S407の後にS408を実施してもよいし、S408の後にS407を実施してもよい。
S409において、演算処理部203は、領域情報格納部205に格納されている光学画像における照射野領域情報(S407)と、カセッテ103における照射野領域情報(S408)とを用いてカセッテ目標領域情報を取得し、カセッテ目標領域情報格納部204に格納する。カセッテ目標領域情報を取得する処理は、実施形態1で説明したS306、S307の処理と同様である。
また、演算処理部203は、光学画像格納部202から取得した光学画像において、カセッテ目標領域情報に基づいて配置されるカセッテ103に対して、被写体Pを配置する被写体Pの目標領域情報(被写体目標領域情報)を取得する。演算処理部203は、取得した被写体目標領域情報を被写体目標領域情報格納部206に格納する。
そして、合成画像生成部207は、カセッテ103の目標領域情報をカセッテ目標領域情報格納部204から取得し、被写体Pの目標領域情報を被写体目標領域情報格納部206から取得する。合成画像生成部207は、カセッテ103の目標領域情報および被写体Pの目標領域情報を光学画像に重畳した重畳画像を生成する。
S410において、情報処理装置251の表示制御部部(不図示)は、合成画像生成部207により、S409で生成された重畳画像を、ユーザインターフェース部208を介して、表示機器209に表示させる。
S411において、技師Rはカセッテ103、および被写体Pのポジショニングを行う。技師Rは、表示機器209に表示されたカセッテ103の目標領域情報および被写体Pの目標領域情報を確認しながら、カセッテ103の位置、被写体Pの位置合わせ(ポジショニング)を行う。
ポジショニング完了後、S412において、技師Rが照射スイッチなどを操作することにより放射線発生装置102は放射線照射を実行する。
放射線照射を実行後(S412)、S413において、放射線撮影は終了とする。
実施形態2の開示の技術によれば、撮影対象の被写体に対して過去に実施された放射線撮影による放射線画像が存在しない場合であっても、光学画像において放射線検出装置を配置する目標領域情報を取得することが可能になる。また、光学画像における被写体の目標領域情報を取得することが可能することができる。
[実施形態3]
先に説明した実施形態2では、撮影対象の被写体Pの光学画像が存在し、撮影対象の被写体Pに対して過去に実施された放射線撮影による放射線画像が存在しない場合を説明したが、実施形態3では、この逆の場合について説明する。実施形態3では、被写体Pに対して過去に実施された放射線撮影による放射線画像が存在し、撮影対象の被写体Pの光学画像が存在しない場合を説明する。実施形態3では実施形態2とは異なり、撮影対象の被写体Pの放射線画像を用いる。
被写体Pを撮影した光学画像に代わり、撮影対象の被写体Pの放射線画像と、学習済の機械学習モデル(第2機械学習モデル)とを用いて、光学画像を推定する構成について説明する。
機械学習においては、撮影対象の被写体Pとは異なる複数の別被写体に対して行われた過去の放射線撮影時に得た特徴点放射線画像群と、特徴点放射線画像群に対応する特徴点光学画像群と、を用いた機械学習よる学習済の機械学習モデル(第2機械学習モデル)を用いる。
実施形態3では、学習実行部213は、特徴点光学画像群格納部212のデータを出力データとし、特徴点放射線画像群格納部211のデータを入力データとして機械学習を実行する。学習実行部213は、学習済の機械学習モデル(第2機械学習モデル)を学習済モデル格納部214に格納する。実施形態3における学習済の機械学習モデル(第2機械学習モデル)は、実施形態2で説明した学習済の機械学習モデル(第1機械学習モデル)と入力データと出力データとの関係が逆である。
推定処理部219は、学習済モデル格納部214の学習済の機械学習モデル(第2機械学習モデル)と、撮影対象の被写体Pの放射線撮影時に取得した放射線画像(放射線画像格納部201に格納)とを用いて、特徴点群のみから成る光学画像を推定する。推定処理部219は、推定した光学画像を推定画像格納部215に格納する。
演算処理部203は、推定画像格納部215に格納された特徴点群のみから成る、推定された光学画像と、放射線画像格納部201に格納された放射線画像とから、光学画像における照射野領域情報を取得し、領域情報格納部205に格納する。
図5は、実施形態3の放射線撮影の処理の流れを説明するフローチャートである。図5のフローチャートでは、図4のフローチャートと同一の処理について、同一のステップ番号を付している。
S401において、撮影対象の被写体Pとは異なる複数の別被写体について、放射線撮影時に得た光学画像群および放射線画像群を準備する。光学画像群および放射線画像群から抽出された特徴点群データ[O02101]を被写体の人数分だけ用意し、それぞれ特徴点光学画像群格納部212と、特徴点放射線画像群格納部211に格納する。
S501において、学習実行部213は機械学習を実行する。実施形態3では、実施形態2とは異なり、特徴点光学画像群格納部212のデータを出力データとし、特徴点放射線画像群格納部211のデータを入力データとして学習を実行する。S502において、学習実行部213は、学習済の機械学習モデルを学習済モデル格納部214に格納する。なお、S401、S501~S502の処理は、S506の処理を行うための前処理であり、S401、S501~S502の処理が完了している場合には、次回の撮影時には、S401、S501~S502の処理を省略してもよい。
図5のフローチャートは、放射線撮影について2つの処理フロー5A及び5Bを有する。処理フロー5Aは、S503~S505の処理ステップを有している。処理フロー5Aによる放射線撮影を第1放射線撮影とする。
処理フロー5Bは、S404、S506~S508、S409~S412の処理ステップを有している。処理フロー5Bによる放射線撮影を第2放射線撮影とする。第2放射線撮影は、第1放射線撮影における被写体Pと同じ被写体Pの撮影部位について、第1放射線撮影の後に行われる放射線撮影である。第2放射線撮影は、第1放射線撮影の後の異なるタイミング、例えば、別時刻や異なる年月日に行われる放射線撮影である。第1放射線撮影における被写体Pと同じ被写体Pの撮影部位について、経過観察等で、第1放射線撮影(5A)の後、複数回の放射線撮影が必要とされる場合には、処理フロー5Bの処理を行えばよい。
S503において、目的の被写体Pの撮影を開始する。S504において、技師Rが照射スイッチなどを操作することにより放射線発生装置102は放射線照射を実行する。放射線画像格納部201は、放射線検出装置(カセッテ103)から取得した放射線画像を格納し、S505において、放射線撮影を終了する。
S505の放射線撮影(第1放射線撮影)後の異なるタイミング、例えば、別時刻や異なる年月日に行われる放射線撮影(第2放射線撮影)において、S404以降の処理が開始する。
S506において、推定処理部219は、放射線画像格納部201に格納された放射線画像(S504)と、学習済モデル格納部214に格納された学習済の機械学習モデル(S502)とを用いて、特徴点群のみから成る光学画像を推定する。推定処理部219は、撮影対象の被写体Pの放射線画像を学習済の機械学習モデルに入力し、特徴点群のみから成る光学画像を推定する。
S507において、演算処理部203は、推定処理部219により推定された光学画像と、放射線画像とを用いて、光学画像における照射野領域情報を取得し、領域情報格納部205に格納する。本ステップにおける処理は、S407における処理と同様である。なお、本ステップでは、例えば、図7のST72に示すような放射線画像における、被写体Pの輪郭、背骨、鎖骨等の情報を、推定された光学画像における点群情報に合わせるように調整する。合わせ込みにおける倍率や傾斜角の調整は、例えば、S306で説明した倍率調整情報S及び傾斜角情報θによる調整と同様である。演算処理部203は、放射線画像から合わせ込まれた領域の幅及び高さに基づいて、光学画像における照射野領域情報(例えば、図8のST81のR)を取得し、領域情報格納部205に格納する。
S508において、演算処理部203は、カセッテ103における照射野領域情報を、放射線画像群格納部216、または放射線画像格納部201から取得し、領域情報格納部205に格納する。カセッテ103における照射野領域情報を放射線画像群格納部216のデータから取得する場合、放射線画像群格納部216に格納されている代表的な一つまたは複数の放射線画像から取得してもよいし、放射線画像群格納部216に格納されている放射線画像群から平均値をとることで取得してもよい。カセッテ103における照射野領域情報を放射線画像格納部201のデータから取得する場合は、実施形態1のS306と同様である。
なお、ステップS507及びS508の実行順は、例えば、S507の後にS508を実施してもよいし、S508の後にS507を実施してもよい。
S409~S412の処理は、実施形態2のS409~S412で説明した処理と同様である。
実施形態3の開示の技術によれば、撮影対象の被写体の光学画像が存在しない場合であっても、光学画像において放射線検出装置を配置する目標領域情報を取得することが可能になる。また、光学画像における被写体の目標領域情報を取得することが可能することができる。
[実施形態4]
実施形態4では、カセッテ目標領域情報または被写体目標領域情報を技師Rによって調整可能にする構成について説明する。図6は、実施形態4の放射線撮影の処理の流れを説明するフローチャートである。図6のフローチャートでは、図3のフローチャートと同一の処理について、同一のステップ番号を付しており、説明の一部を省略する。図3のフローチャートと同様に、図6のフローチャートは、2つの処理フロー6A及び6Bにより構成される。処理フロー6Aは、図3のS301~S309の処理ステップに加えて、S601の処理ステップを有している。処理フロー6Aによる放射線撮影を第1放射線撮影とする。
S308の後、S601において、演算処理部203は、カセッテ目標領域情報格納部204に格納されたカセッテ目標領域情報と、被写体目標領域情報格納部206に格納された被写体目標領域情報との相対的な位置関係を示す相対座標を取得し、目標位置相対座標格納部218に格納する。
処理フロー6Bは、図3のS310~S316の処理ステップに加えて、S602~S607の処理ステップを有している。処理フロー6Bによる放射線撮影を第2放射線撮影とする。第2放射線撮影は、第1放射線撮影における被写体と同じ被写体Pの撮影部位について、第1放射線撮影の後に行われる放射線撮影である。第2放射線撮影は、第1放射線撮影の後の異なるタイミング、例えば、別時刻や異なる年月日に行われる放射線撮影である。
S313において、重畳画像が表示機器209に表示された後に、S602において、カセッテ目標領域情報の調整が必要であると技師Rが判断した場合(S602-YES)、処理はS603に進められる。
S603において、技師Rがマウス、タッチパネル、キーボードなどの操作部210を操作することで、ユーザインターフェース部208を介して入力された操作情報に基づいて、演算処理部203は、カセッテ目標領域情報を変更し、変更したカセッテ目標領域情報をカセッテ目標領域情報格納部204に格納する。
その後、S604において、演算処理部203は、光学画像格納部202から取得した光学画像において、変更されたカセッテ目標領域情報に基づいて配置されるカセッテ103に対して、被写体Pを配置する被写体Pの目標領域情報(被写体目標領域情報)を取得する。
演算処理部203は、変更されたカセッテ目標領域情報と、目標位置相対座標格納部218に格納された情報とを用いて、被写体目標領域情報を再計算(変更)し、被写体目標領域情報格納部206に格納する。S604の処理の後、処理はステップS312に戻され、同様の処理が実行される。
演算処理部203は、操作部210から入力された操作情報に基づいて、カセッテ103の目標領域情報を変更し(S603)、カセッテ103の目標領域情報の変更に応じて、被写体Pの目標領域情報を変更する(S604)。
一方、S602において、カセッテ目標領域情報の調整が必要とされない場合は(S602-NO)、処理はS605に進められる。
S605において、技師Rは、被写体目標領域情報の調整が必要か否かを確認する。被写体目標領域情報の調整が必要であると技師Rが判断した場合(S605-YES)、処理はS606に進められる。
S606において、技師Rが操作部210を操作することで、ユーザインターフェース部208を介して入力された操作情報に基づいて、演算処理部203は、被写体目標領域情報を変更し、変更した被写体目標領域情報を被写体目標領域情報格納部206に格納する。
その後、S607において、演算処理部203は、変更された被写体目標領域情報と、目標位置相対座標格納部218に格納された情報とを用いて、カセッテ目標領域情報を再計算(変更)し、カセッテ目標領域情報格納部204に格納する。S607の後、処理はステップS312に戻され、同様の処理が実行される。
演算処理部203は、操作部210から入力された操作情報に基づいて、被写体Pの目標領域情報を変更し(S606)、被写体Pの目標領域情報の変更に応じて、カセッテ103の目標領域情報を変更する(S607)。
合成画像生成部207は、放射線検出装置(カセッテ103)の目標領域情報および被写体Pの目標領域情報のうち少なくとも一方の変更に応じて重畳画像を変更し、情報処理装置251の表示制御部部(不図示)は、合成画像生成部207により変更された重畳画像を表示機器209に表示させる。
また、演算処理部203は、放射線検出装置(カセッテ103)の目標領域情報および被写体Pの目標領域情報のうち少なくとも一方の変更に応じて、放射線発生装置102におけるコリメータの角度を変更する。これにより、カセッテ103及び被写体Pのポジショニングに合わせて放射線の広がり角を規定することができる。
一方、S605において、被写体目標領域情報の調整が必要とされない場合は(S605-NO)、処理はS314に進められる。
S314において、技師Rはカセッテ103、および被写体Pのポジショニングを行う。技師Rは、表示機器209に表示されたカセッテ103の目標領域情報および被写体Pの目標領域情報を確認しながら、カセッテ103の位置、被写体Pの位置合わせ(ポジショニング)を行う。技師Rは、カセッテ103の目標領域情報および被写体Pの目標領域情報を視認することにより、カセッテ103および被写体Pのポジショニングを容易に実施することができる。
図10は、カセッテ103および被写体Pのポジショニングを説明する図であり、図11は、被写体目標領域情報の変更(微調整)を説明する図である。図10に示す光学画像Cにおいて、P'は被写体が現在位置する領域を示し、F'はカセッテが現在位置する領域を示している。また、Pは光学画像Cにおける被写体目標領域情報を示し、Fは光学画像Cにおけるカセッテ目標領域情報を示している。
技師Rは、表示機器209に表示されたカセッテ103の目標領域情報および被写体Pの目標領域情報を確認しながら、現在位置する被写体P'及びカセッテF'の位置合わせ(ポジショニング)を行う。
被写体目標領域情報の調整が必要であると、技師Rが判断した場合、図11に示すように、技師Rは、マウス、タッチパネル、キーボードなどの操作部210を操作することにより、ユーザインターフェース部208を介して、被写体の目標領域情報が変更(微調整)される。なお、図11では、被写体目標領域情報の変更(微調整)を例示的に説明しているが、カセッテ目標領域情報の変更(微調整)の場合も同様である。
演算処理部203は、変更された被写体目標領域情報と、目標位置相対座標格納部218に格納された情報とを用いて、カセッテ目標領域情報を再計算する。合成画像生成部207は、演算処理部203による再計算の結果に基づいて、カセッテ目標領域情報の表示位置を変更する。合成画像生成部207は、被写体目標領域情報の変更に連動してカセッテ目標領域情報の表示位置を自動的に変更し、カセッテ103の目標領域情報、および被写体Pの目標領域情報を重畳した重畳画像を生成する。
なお、図6のフローチャートにおいて、S602~S604の実行順は、例えば、S602~S604のフローの後にS605~S607のフローを実行してもよいし、S605~S607のフローの後にS602~S604のフローを実行してもよい。
また、S306及びS307(図3)において、照射野ランプの領域を検出することで得られた光学画像における照射野領域と、カセッテ103における照射野領域情報とを用いてカセッテ目標領域情報を取得する際に、演算処理部203は、現在投影されている照射野ランプの領域に合わせてカセッテ目標領域情報を設定して、表示機器209に表示してもよい。その場合は、演算処理部203は、カセッテ目標領域情報および目標位置相対座標格納部218に格納されている情報を用いて、被写体目標領域情報を必要に応じて再計算する。これにより、数1式や数2式を実行するために要する演算負荷を低減することができる。
また、上記の各実施形態では、例えば、静止画撮影だけでなく動画の撮影にも適用可能である。動画の撮影への適用例としては、同一の被写体Pについて経過観察等で複数回の撮影が必要とされる場合、例えば、骨密度(Bone Mineral Density:BMD)測定などにおいて、被写体Pおよびカセッテ103の精密な位置決めが必要になる場合などが挙げられる。
実施形態4の開示の技術によれば、光学画像において放射線検出装置を配置する目標領域情報を取得することが可能になる。また、光学画像における被写体の目標領域情報を取得することが可能することができる。
被写体目標領域情報およびカセッテ目標領域情報を光学画像に映し出し、光学画像を確認しながら技師Rがポジショニングを行うことで、放射線検出装置及び被写体のポジショニングを容易に行うことが可能になる。
ポジショニングにおける被写体P、及び技師Rの負担を低減することができ、技師の熟練度の相違による撮影の手間・時間のばらつきを解消することが可能になる。また、技師Rが操作室に移動した後でも、光学画像を確認しながら被写体Pの位置ずれを撮影室における被写体や他の技師に教えることができ、操作室に居ながら、操作室から離れた位置にある撮影室の被写体Pの位置の修正を容易に行うことが可能となる。
本明細書の開示は、以下の情報処理装置、放射線撮影システム、情報処理方法、プログラムを含む。
(項目1) 光学画像撮影手段により取得された光学画像における照射野領域情報と、放射線検出手段における照射野領域情報とを取得する第1取得手段と、
前記光学画像における照射野領域情報と前記放射線検出手段における照射野領域情報とを用いて、前記放射線検出手段を配置する目標領域である、前記光学画像における目標領域情報を取得する第2取得手段と、を備える情報処理装置。
(項目2) 前記第1取得手段は、被写体の放射線撮影よりも前に前記被写体を前記光学画像撮影手段により撮影して得た前記光学画像と前記放射線検出手段により取得された放射線画像とを用いて、前記光学画像における照射野領域情報と前記放射線検出手段における照射野領域情報とを取得する項目1に記載の情報処理装置。
(項目3) 前記第1取得手段は、
前記光学画像における照射野ランプによる照射領域を検出することにより、前記光学画像における照射野領域情報を取得し、
前記放射線検出手段の有効画素領域に対する照射野領域の相対座標の情報と、前記有効画素領域に対する前記放射線検出手段の相対座標の情報とを用いて、前記放射線検出手段における照射野領域情報を取得する項目1または2に記載の情報処理装置。
(項目4) 前記放射線撮影よりも前に撮影された前記放射線画像が存在しない場合、前記第1取得手段は、
前記放射線撮影よりも前に撮影された、前記光学画像と、学習済の第1機械学習モデルとを用いて推定された放射線画像とを用いて、前記放射線検出手段における照射野領域情報を取得する項目2に記載の情報処理装置。
(項目5) 前記第1機械学習モデルは、撮影対象の被写体とは異なる複数の別被写体に対して取得された、特徴点により構成される光学画像群を入力とし、前記複数の別被写体に対して取得された、特徴点により構成される放射線画像群を出力とする機械学習により取得される項目4に記載の情報処理装置。
(項目6) 前記放射線撮影よりも前に撮影された前記光学画像が存在しない場合、前記第1取得手段は、
前記放射線撮影よりも前に撮影された、前記放射線画像と、学習済の第2機械学習モデルとを用いて推定された光学画像とを用いて、前記光学画像における照射野領域情報を取得する項目2に記載の情報処理装置。
(項目7) 前記第2機械学習モデルは、撮影対象の被写体とは異なる複数の別被写体に対する撮影により取得された、特徴点により構成される放射線画像群を入力とし、前記複数の別被写体に対する撮影により取得された、特徴点により構成される光学画像群を出力とする機械学習により取得される項目6に記載の情報処理装置。
(項目8) 前記第2取得手段は、
前記光学画像における照射野領域情報と前記放射線検出手段における照射野領域情報とを用いて、前記光学画像における照射野領域、及び前記放射線検出手段における照射野領域における、サイズを合わせる倍率調整情報と、傾きを合わせる傾斜角情報とを取得する項目1乃至7のいずれか1項目に記載の情報処理装置。
(項目9) 前記第2取得手段は、前記倍率調整情報、及び、前記倍率調整情報を用いて、前記放射線検出手段の位置情報、及び、前記放射線検出手段における照射野領域の位置情報の間の相対情報を、前記光学画像における相対情報に変換する項目8に記載の情報処理装置。
(項目10) 前記第2取得手段は、前記光学画像における相対情報と、前記光学画像における照射野領域の基準位置情報とを用いて、前記光学画像における前記放射線検出手段の基準位置情報を取得し、
前記放射線検出手段の基準位置情報と、前記放射線検出手段の幅及び高さの情報とを用いて定められる領域情報を、前記目標領域情報として取得する項目9に記載の情報処理装置。
(項目11) 前記第2取得手段は、前記光学画像において、前記目標領域情報に基づいて配置される前記放射線検出手段に対して、被写体を配置する前記被写体の目標領域情報を取得する項目1乃至10のいずれか1項目に記載の情報処理装置。
(項目12) 前記第2取得手段は、操作手段から入力された操作情報に基づいて、前記放射線検出手段の目標領域情報を変更し、
前記放射線検出手段の目標領域情報の変更に応じて、前記被写体の目標領域情報を変更する項目11に記載の情報処理装置。
(項目13) 前記第2取得手段は、操作手段から入力された操作情報に基づいて、前記被写体の目標領域情報を変更し、
前記被写体の目標領域情報の変更に応じて、前記放射線検出手段の目標領域情報を変更する項目11に記載の情報処理装置。
(項目14) 前記放射線検出手段の目標領域情報および前記被写体の目標領域情報を前記光学画像に重畳した重畳画像を生成する生成手段と、
前記重畳画像を表示手段に表示させる表示制御手段と、を更に備える項目11乃至13のいずれか1項目に記載の情報処理装置。
(項目15) 前記生成手段は、前記放射線検出手段の目標領域情報および前記被写体の目標領域情報のうち少なくとも一方の変更に応じて前記重畳画像を変更し、
変更した前記重畳画像を前記表示手段に表示する項目14に記載の情報処理装置。
(項目16) 前記第2取得手段は、前記放射線検出手段の目標領域情報および前記被写体の目標領域情報のうち少なくとも一方の変更に応じて、放射線発生手段におけるコリメータの角度を変更する項目11乃至15のいずれか1項目に記載の情報処理装置。
(項目17) 項目1乃至16のいずれか1項目に記載の情報処理装置と、
前記光学画像撮影手段と、
前記放射線検出手段と、を備える放射線撮影システム。
(項目18) 光学画像撮影手段により取得された光学画像における照射野領域情報と、放射線検出手段における照射野領域情報とを取得する工程と、
前記光学画像における照射野領域情報と前記放射線検出手段における照射野領域情報とを用いて、前記放射線検出手段を配置する目標領域である、前記光学画像における目標領域情報を取得する工程と、
を備える情報処理方法。
(項目19) コンピュータに、項目18に記載された情報処理方法を実行させるプログラム。
[その他の実施形態]
開示の技術は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
開示の技術は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
101:放射線撮影システム、102:放射線発生装置、103:カセッテ(放射線検出装置)、106:光学カメラ(光学画像撮影装置)、251、252:情報処理装置

Claims (19)

  1. 光学画像撮影手段により取得された光学画像における照射野領域情報と、放射線検出手段における照射野領域情報とを取得する第1取得手段と、
    前記光学画像における照射野領域情報と前記放射線検出手段における照射野領域情報とを用いて、前記放射線検出手段を配置する目標領域である、前記光学画像における目標領域情報を取得する第2取得手段と、
    を備える情報処理装置。
  2. 前記第1取得手段は、被写体の放射線撮影よりも前に前記被写体を前記光学画像撮影手段により撮影して得た前記光学画像と前記放射線検出手段により取得された放射線画像とを用いて、前記光学画像における照射野領域情報と前記放射線検出手段における照射野領域情報とを取得する請求項1に記載の情報処理装置。
  3. 前記第1取得手段は、
    前記光学画像における照射野ランプによる照射領域を検出することにより、前記光学画像における照射野領域情報を取得し、
    前記放射線検出手段の有効画素領域に対する照射野領域の相対座標の情報と、前記有効画素領域に対する前記放射線検出手段の相対座標の情報とを用いて、前記放射線検出手段における照射野領域情報を取得する請求項1に記載の情報処理装置。
  4. 前記放射線撮影よりも前に撮影された前記放射線画像が存在しない場合、
    前記第1取得手段は、
    前記放射線撮影よりも前に撮影された、前記光学画像と、学習済の第1機械学習モデルとを用いて推定された放射線画像とを用いて、前記放射線検出手段における照射野領域情報を取得する請求項2に記載の情報処理装置。
  5. 前記第1機械学習モデルは、撮影対象の被写体とは異なる複数の別被写体に対して取得された、特徴点により構成される光学画像群を入力とし、前記複数の別被写体に対して取得された、特徴点により構成される放射線画像群を出力とする機械学習により取得される請求項4に記載の情報処理装置。
  6. 前記放射線撮影よりも前に撮影された前記光学画像が存在しない場合、
    前記第1取得手段は、
    前記放射線撮影よりも前に撮影された、前記放射線画像と、学習済の第2機械学習モデルとを用いて推定された光学画像とを用いて、前記光学画像における照射野領域情報を取得する請求項2に記載の情報処理装置。
  7. 前記第2機械学習モデルは、撮影対象の被写体とは異なる複数の別被写体に対する撮影により取得された、特徴点により構成される放射線画像群を入力とし、前記複数の別被写体に対する撮影により取得された、特徴点により構成される光学画像群を出力とする機械学習により取得される請求項6に記載の情報処理装置。
  8. 前記第2取得手段は、
    前記光学画像における照射野領域情報と前記放射線検出手段における照射野領域情報とを用いて、前記光学画像における照射野領域、及び前記放射線検出手段における照射野領域における、サイズを合わせる倍率調整情報と、傾きを合わせる傾斜角情報とを取得する請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記第2取得手段は、
    前記倍率調整情報、及び、前記倍率調整情報を用いて、前記放射線検出手段の位置情報、及び、前記放射線検出手段における照射野領域の位置情報の間の相対情報を、前記光学画像における相対情報に変換する請求項8に記載の情報処理装置。
  10. 前記第2取得手段は、
    前記光学画像における相対情報と、前記光学画像における照射野領域の基準位置情報とを用いて、前記光学画像における前記放射線検出手段の基準位置情報を取得し、
    前記放射線検出手段の基準位置情報と、前記放射線検出手段の幅及び高さの情報とを用いて定められる領域情報を、前記目標領域情報として取得する請求項9に記載の情報処理装置。
  11. 前記第2取得手段は、前記光学画像において、前記目標領域情報に基づいて配置される前記放射線検出手段に対して、被写体を配置する前記被写体の目標領域情報を取得する請求項1に記載の情報処理装置。
  12. 前記第2取得手段は、操作手段から入力された操作情報に基づいて、前記放射線検出手段の目標領域情報を変更し、
    前記放射線検出手段の目標領域情報の変更に応じて、前記被写体の目標領域情報を変更する請求項11に記載の情報処理装置。
  13. 前記第2取得手段は、操作手段から入力された操作情報に基づいて、前記被写体の目標領域情報を変更し、
    前記被写体の目標領域情報の変更に応じて、前記放射線検出手段の目標領域情報を変更する請求項11に記載の情報処理装置。
  14. 前記放射線検出手段の目標領域情報および前記被写体の目標領域情報を前記光学画像に重畳した重畳画像を生成する生成手段と、
    前記重畳画像を表示手段に表示させる表示制御手段と、を更に備える請求項11乃至13のいずれか1項に記載の情報処理装置。
  15. 前記生成手段は、前記放射線検出手段の目標領域情報および前記被写体の目標領域情報のうち少なくとも一方の変更に応じて前記重畳画像を変更し、
    変更した前記重畳画像を前記表示手段に表示する請求項14に記載の情報処理装置。
  16. 前記第2取得手段は、前記放射線検出手段の目標領域情報および前記被写体の目標領域情報のうち少なくとも一方の変更に応じて、放射線発生手段におけるコリメータの角度を変更する請求項11に記載の情報処理装置。
  17. 請求項1に記載の情報処理装置と、
    前記光学画像撮影手段と、
    前記放射線検出手段と、を備える放射線撮影システム。
  18. 光学画像撮影手段により取得された光学画像における照射野領域情報と、放射線検出手段における照射野領域情報とを取得する工程と、
    前記光学画像における照射野領域情報と前記放射線検出手段における照射野領域情報とを用いて、前記放射線検出手段を配置する目標領域である、前記光学画像における目標領域情報を取得する工程と、
    を備える情報処理方法。
  19. コンピュータに、請求項18に記載された情報処理方法を実行させるプログラム。
JP2022130614A 2022-08-18 2022-08-18 情報処理装置、放射線撮影システム、情報処理方法及びプログラム Pending JP2024027651A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022130614A JP2024027651A (ja) 2022-08-18 2022-08-18 情報処理装置、放射線撮影システム、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022130614A JP2024027651A (ja) 2022-08-18 2022-08-18 情報処理装置、放射線撮影システム、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2024027651A true JP2024027651A (ja) 2024-03-01

Family

ID=90039670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022130614A Pending JP2024027651A (ja) 2022-08-18 2022-08-18 情報処理装置、放射線撮影システム、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2024027651A (ja)

Similar Documents

Publication Publication Date Title
US7494277B2 (en) Method and apparatus for medical X-radiography
US8705695B2 (en) Region of interest determination for X-ray imaging
US20060025672A1 (en) Radiation emission control method, apparatus and program
JP5567963B2 (ja) 画像処理装置、放射線画像システム、画像処理方法およびプログラム
JP2007282877A (ja) 放射線照射対象部位の位置決め装置および位置決め方法
JP6970203B2 (ja) コンピュータ断層撮影および撮像されるべき解剖学的構造の位置決め
WO2016124554A1 (en) Object localization in projective x-ray images by geometric considerations
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
KR102204309B1 (ko) 증강현실 기반의 엑스선 영상 표시 방법
EP3370616B1 (en) Device for imaging an object
JP2017169715A (ja) 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム
KR101577564B1 (ko) 의료측정용 자를 내장한 방사선 촬영장치와 그 방법
JP2024027651A (ja) 情報処理装置、放射線撮影システム、情報処理方法及びプログラム
US6760469B1 (en) Flipping stereoscopic radiographs
JP2005012248A (ja) 画像読影支援方法及び装置
JP5562184B2 (ja) 放射線画像撮影装置、方法およびプログラム
JP6991751B2 (ja) 放射線撮影システム、放射線撮影方法及びプログラム
CN111050647B (zh) 放射线摄影装置
JP2020509890A5 (ja)
WO2023243280A1 (ja) 医用画像処理装置及び医用画像処理方法
JP2020509890A (ja) コンピュータ断層撮影および撮影されるボリュームの位置決め
EP4162882A1 (en) Computer-implemented method for positioning a patient for x-ray image recording
US20240090864A1 (en) Radiographic imaging support system, radiographic imaging support method, and recording medium
JP7508859B2 (ja) 動態解析システム、補正装置及びプログラム
US20240065663A1 (en) Contactless measurement and visualization of respiration for chest radiography image examinations