JP7328861B2 - 医用情報処理装置、医用情報処理システム、医用情報処理プログラム、および医用画像撮像装置 - Google Patents

医用情報処理装置、医用情報処理システム、医用情報処理プログラム、および医用画像撮像装置 Download PDF

Info

Publication number
JP7328861B2
JP7328861B2 JP2019186320A JP2019186320A JP7328861B2 JP 7328861 B2 JP7328861 B2 JP 7328861B2 JP 2019186320 A JP2019186320 A JP 2019186320A JP 2019186320 A JP2019186320 A JP 2019186320A JP 7328861 B2 JP7328861 B2 JP 7328861B2
Authority
JP
Japan
Prior art keywords
examination room
shape data
identification information
function
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019186320A
Other languages
English (en)
Other versions
JP2021058530A (ja
Inventor
毅 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2019186320A priority Critical patent/JP7328861B2/ja
Priority to US17/064,246 priority patent/US11717243B2/en
Publication of JP2021058530A publication Critical patent/JP2021058530A/ja
Application granted granted Critical
Publication of JP7328861B2 publication Critical patent/JP7328861B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/08Auxiliary means for directing the radiation beam to a particular spot, e.g. using light beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4464Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit or the detector unit being mounted to ceiling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4476Constructional features of apparatus for radiation diagnosis related to motor-assisted motion of the source unit
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0407Supports, e.g. tables or beds, for the body or parts of the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、医用情報処理装置、医用情報処理システム、医用情報処理プログラム、および医用画像撮像装置に関する。
従来、血管や心臓等の循環器系の撮像において、可動のCアームや可動の寝台を備えたX線アンギオ(Angio)装置等の医用画像撮像装置が用いられている。このような医用画像撮像装置においては、医用画像撮像装置を構成するCアームや寝台等のユニットの位置情報を管理することにより、ユニット間の接触を回避するように制御する技術が知られている。
また、カメラによって検査室内を撮像した画像に基づいて医用画像撮像装置の周辺に位置する機器または作業者を検出し、検出された機器または作業者とCアームや寝台等との接触を回避する技術も知られている。しかしながら、従来技術においては、撮像画像に描出された回避対象物の外形と、予め記憶された立体形状モデルとをマッチングすることにより、回避対象物の立体形状を特定していた。このような形状対形状のマッチング処理には、処理時間を要する場合があった。
特開2014-176495号公報
本発明が解決しようとする課題は、検査室内に存在する回避対象物の立体形状を迅速に特定することである。
実施形態に係る医用情報処理装置は、取得部と、第1の特定部と、第2の特定部と、第3の特定部とを備える。取得部は、可動機構を有する医用画像撮像装置が設置された検査室内が撮像された検査室画像を取得する。第1の特定部は、検査室画像と、検査室画像に描出された対象物の識別情報との対応関係を示す第1の対応情報とに基づいて、検査室画像に描出された対象物の識別情報を特定する。第2の特定部は、対象物の識別情報と該対象物の外形を表す3次元形状データとの対応関係を示す第2の対応情報に基づいて、第1の特定部によって特定された対象物の識別情報に対応する3次元形状データを特定する。第3の特定部は、検査室画像を撮像した検査室撮像装置から検査室画像に描出された対象物までの距離を示す深度情報に基づいて、検査室内の空間を表す仮想3次元空間内における3次元形状データの位置を特定する。
図1は、第1の実施形態に係る医用画像撮像装置が設置された検査室の外観の一例を示す図である。 図2は、第1の実施形態に係る医用情報処理システムの全体構成の一例を示すブロック図である。 図3は、第1の実施形態に係る学習済モデルの一例を示す図である。 図4は、第1の実施形態に係るバウンディングボックスの一例を示す図である。 図5は、第1の実施形態に係る対象物情報の一例を示す図である。 図6は、第1の実施形態に係る3次元形状データおよび回避領域の一例を示す図である。 図7は、第1の実施形態に係る対象物特定処理の流れの一例を示すフローチャートである。 図8は、第2の実施形態に係る可動部位を有する対象物の一例を示す図である。 図9は、第2の実施形態に係る拡張後の回避領域81の一例を示す図である。 図10は、第3の実施形態に係る第2の学習済モデルの一例を示す図である。 図11は、第4の実施形態に係る医用情報処理システムの全体構成の一例を示すブロック図である。 図12は、第4の実施形態に係る学習処理について説明する図である。
以下、図面を参照しながら、医用情報処理装置、医用情報処理システム、医用情報処理プログラム、および医用画像撮像装置の実施形態について詳細に説明する。
(第1の実施形態)
図1は、本実施形態に係るX線診断装置10が設置された検査室Rの一例を示す図である。図1に示すように、X線診断装置10は、X線管およびX線検出器等を保持するCアーム105a,105b(以下、特に区別しない場合は単にCアーム105という)と、寝台104とを備える。Cアーム105、および寝台104は、移動可能なユニットであり、本実施形態における可動機構の一例である。
Cアーム105、および寝台104は、後述のCアーム・寝台制御回路による制御の下、上下方向の移動、左右方向(鉛直方向)の移動、傾斜、または回転が可能である。本実施形態においては、上下方向の移動、左右方向(鉛直方向)の移動、傾斜、または回転を総称して単に「移動」という場合がある。また、Cアーム105aとCアーム105bとは、それぞれ別個に移動可能である。また、寝台104は、被検体P1を載置する天板104aと、天板104aを支持する基台104bとを備える。天板104aと基台104bとの両方が移動可能であるものとしても良いし、天板104aのみが移動する構成であっても良い。
また、X線診断装置10は、本実施形態における医用画像撮像装置の一例である。
なお、図1では、X線診断装置10が2本のCアーム105を備えるバイプレーンの例を図示するが、X線診断装置10は、1本のCアーム105を備えるシングルプレーンの構成であっても良い。また、天井から懸下されたCアーム105aは、Ω(オメガ)アームともいう。
検査室R内には、X線診断装置10以外にも物または人が存在する。例えば、図1に示す例では、検査室R内には、X線診断装置10の操作を行う医師または技師等の操作者P2、超音波診断装置50、バケツ51等が検査室R内に存在する。本実施形態においては、検査室R内に存在するX線診断装置10以外の物または人を、対象物または回避対象物という。
また、対象物は、Cアーム105、または寝台104等の可動機構の移動の障害となる可能性がある物または人であり、可動機構の移動の障害とならない物体は対象物に含まれない。可動機構の移動の障害とならない物体は、例えば、検査室の壁に貼られたポスターやカレンダー等であるが、これらに限定されるものではない。
なお、図1に示す被検体P1、操作者P2、超音波診断装置50、バケツ51は、X線診断装置10には含まれない。また、検査室R内には、複数の操作者P2が存在する場合もある。
また、検査室R内には、ステレオカメラ20が設置されている。ステレオカメラ20は、検査室R内を撮像する。ステレオカメラ20は、本実施形態における検査室撮像装置の一例である。
ステレオカメラ20が検査室R内を撮像した画像は、本実施形態における検査室画像の一例である。ステレオカメラ20は、例えば、2眼レンズにより、視差のある2枚の検査室画像を同時に撮像する。
また、ステレオカメラ20は、撮像した検査室画像を、ネットワークを介して医用情報処理装置30に送信する。
医用情報処理装置30は、例えば、病院内に設置されたサーバ装置またはPC(Personal Computer)等である。図1では、医用情報処理装置30は、検査室R外に設置されているが、検査室R内に設置されても良い。
次に、図2を用いて本実施形態に係る医用情報処理システムについて説明する。
図2は、本実施形態に係る医用情報処理システムSの全体構成の一例を示すブロック図である。図2に示すように、医用情報処理システムSは、X線診断装置10と、ステレオカメラ20と、医用情報処理装置30とを備える。X線診断装置10と、ステレオカメラ20と、医用情報処理装置30とは、病院内に設置された院内LAN(Local Area Network)等のネットワークNによって接続している。
X線診断装置10は、X線高電圧装置101と、X線管102と、X線絞り103と、寝台104(天板104aおよび基台104bを備える)と、Cアーム105と、X線検出器106と、Cアーム回転・移動機構107と、天板・寝台移動機構108と、Cアーム・天板機構制御回路109と、処理回路120と、入力インターフェース110と、ディスプレイ130と、記憶回路140と、通信インターフェース150とを有する。なお、図2では寝台104の基台104bを省略している。また、図2では、2本のCアーム105を1本に省略して記載している。
X線高電圧装置101は、高電圧を発生し、発生した高電圧をX線管102に供給する高電圧電源である。
X線管102は、X線高電圧装置101から供給される高電圧を用いて、X線を発生する。X線絞り103は、X線管102が発生したX線を、被検体P1の関心領域(Region Of Interest:ROI)に対して選択的に照射されるように絞り込む。X線検出器106は、被検体Pを透過したX線を検出し、検出結果を処理回路120に送信する。
Cアーム105は、X線管102、X線絞り103、およびX線検出器106を保持する。また、Cアーム105は、Cアーム回転・移動機構107によって、上下左右方向の移動、または回転移動する。
Cアーム回転・移動機構107は、Cアーム105を移動させる駆動機構であり、モータおよびアクチュエータ等を含む。また、Cアーム回転・移動機構107は、Cアーム・天板機構制御回路109による制御の下、Cアーム105を移動させる。
寝台104は、天板104aと、基台104bとを備える。天板104aは、被検体P1が載置されるベッドであり、基台104bの上に配置される。天板104aは、上下方向または水平方向の移動、または傾斜(チルト)が可能である。また、基台104bは、上下左右方向の移動、または回転移動が可能である。
天板・寝台移動機構108は、Cアーム・天板機構制御回路109の制御の下、被検体Pが載置された天板104aを、水平方向および上下方向に移動する駆動機構であり、モータおよびアクチュエータ等を含む。また、天板・寝台移動機構108は、基台104bを、水平方向および上下方向に移動する。天板・寝台移動機構108は、例えば、基台104bの内部に設置される。また、天板・寝台移動機構108は、天板104aおよび基台104bの位置を検出するセンサを備える。天板・寝台移動機構108は、検出した位置をCアーム・天板機構制御回路109に送出する。
Cアーム・天板機構制御回路109は、処理回路120による制御の下、Cアーム回転・移動機構107および天板・寝台移動機構108を制御することで、Cアーム105、天板104a、または基台104bを移動させる。また、Cアーム・天板機構制御回路109は、天板・寝台移動機構108から天板104aおよび基台104bの位置を取得して処理回路120に送信する。Cアーム・天板機構制御回路109は、例えば、後述の記憶回路140に記憶されたプログラムを読み出して実行するプロセッサである。なお、Cアーム制御回路と、天板機構制御回路とが別個に設けられても良い。
入力インターフェース110は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路120に出力する。例えば、入力インターフェース110は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行なうタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路、X線の照射などを行うためのフットスイッチ等により実現される。
なお、入力インターフェース110は、X線診断装置10本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース110は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、X線診断装置10とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路120へ出力する電気信号の処理回路も入力インターフェース110の例に含まれる。
ディスプレイ130は、液晶ディスプレイまたはCRT(Cathode Ray Tube)ディスプレイ等であり、各種の情報を表示する。ディスプレイ130は、例えば、入力インターフェース33を介して操作者P2から各種指示や各種設定等を受け付けるためのGUI(Graphical User Interface)を表示する。ディスプレイ130は、デスクトップ型でもよいし、X線診断装置10本体と無線通信可能なタブレット端末等で構成されることにしても構わない。
記憶回路140は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、記憶回路140は、X線診断装置10に含まれる回路で実行されるプログラムを記憶する。
通信インターフェース150は、処理回路120に接続され、ネットワークNを介して接続された医用情報処理装置30との間で行われる各種データの伝送および通信を制御する。例えば、通信インターフェース150は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。なお、記憶回路140は、クラウドによって実現されても良い。
処理回路120は、X線診断装置10全体を制御し、被検体P1を撮像する撮像処理を実行する。また、処理回路120は、通信インターフェース150を介して医用情報処理装置30から送信された検査室Rを示す仮想3次元空間内における対象物を示す3次元形状データの位置および向きと、該3次元形状データに対応付けられた回避領域および回避動作とを受信(取得)する。処理回路120は、医用情報処理装置30から送信されたこれらの情報に基づいて、可動機構が対象物を回避するように可動機構の移動を制御する。
例えば、処理回路120は、医用情報処理装置30から送信された情報に基づいて、Cアーム・天板機構制御回路109に対して、Cアーム105、天板104a、または基台104bを移動させる位置、角度、および移動速度を指示する。また、処理回路120は、医用情報処理装置30から送信された情報に基づいて、Cアーム・天板機構制御回路109に対して、Cアーム105、天板104a、または基台104bの移動の停止を指示する。また、これらの制御は、Cアーム・天板機構制御回路109によって実行されても良い。
医用情報処理装置30から送信される仮想3次元空間内における3次元形状データの位置および向きと、該3次元形状データに対応付けられた回避領域および回避動作の詳細については、後述する。
処理回路120は、例えば、記憶回路140に記憶されたプログラムを読み出して実行するプロセッサである。処理回路120は、本実施形態における制御部の一例である。また、Cアーム・天板機構制御回路109を本実施形態における制御部の一例としても良い。また、処理回路120とCアーム・天板機構制御回路109の両方を制御部の一例としても良い。
医用情報処理装置30は、通信インターフェース31と、記憶回路32と、入力インターフェース33と、ディスプレイ34と、処理回路35とを備える。
通信インターフェース31は、処理回路120に接続され、ネットワークNを介して接続されたX線診断装置10、またはステレオカメラ20との間で行われる各種データの伝送および通信を制御する。
記憶回路32は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現され、処理回路35で実行されるプログラムを記憶する。また、記憶回路32は、学習済モデルと、対象物情報と、検査室R内の空間を表す仮想3次元空間を示す3次元空間データを記憶する。学習済モデル、対象物情報、および3次元空間データについては後述する。記憶回路32は、本実施形態における記憶部の一例である。なお、記憶回路32は、クラウドによって実現されても良い。
入力インターフェース33は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路35に出力する。ディスプレイ34は、液晶ディスプレイまたはCRTディスプレイ等であり、各種の情報を表示する。
処理回路35は、記憶回路32からプログラムを読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。処理回路35は、取得機能351と、第1の算出機能352と、認識機能353と、第1の特定機能354と、第2の算出機能355と、第2の特定機能356と、第3の特定機能357と、送信機能358とを備える。取得機能351は、取得部の一例である。第1の算出機能352は、第1の算出部の一例である。認識機能353は、認識部の一例である。第1の特定機能354は、第1の特定部の一例である。第2の算出機能355は、第2の算出部の一例である。なお、第1の算出機能352と第2の算出機能355とを総称して、算出部の一例としても良い。第2の特定機能356は、第2の特定部の一例である。第3の特定機能357は、第3の特定部の一例である。送信機能358は、送信部の一例である。
ここで、例えば、処理回路35の構成要素である取得機能351と、第1の算出機能352と、認識機能353と、第1の特定機能354と、第2の算出機能355と、第2の特定機能356と、第3の特定機能357と、送信機能358とは、コンピュータによって実行可能なプログラムの形態で記憶回路32に記憶されている。処理回路35は、各プログラムを記憶回路32から読み出し、読み出した各プログラムを実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路35は、図2の処理回路35内に示された各機能を有することとなる。なお、図2においては、単一の処理回路35にて、取得機能351、第1の算出機能352、認識機能353、第1の特定機能354、第2の算出機能355、第2の特定機能356、第3の特定機能357、および送信機能358の各処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路35を構成し、各プロセッサが各プログラムを実行することにより各処理機能を実現するものとしても良い。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、およびフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。なお、記憶回路140または記憶回路32にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
取得機能351は、通信インターフェース31を介して、ステレオカメラ20から、視差のある複数の検査室画像を取得する。取得機能351は、取得した検査室画像を、第1の算出機能352と、認識機能353と、第3の特定機能357とに送出する。
第1の算出機能352は、取得機能351によって取得された視差のある2枚の検査室画像を画像処理することにより、深度情報を算出する。深度情報は、検査室画像に描出される被写体とステレオカメラ20との距離である。第1の算出機能352は、算出した深度情報を、認識機能353に送出する。
認識機能353は、画像処理によって、検査室画像における回避対象外の物体を認識する。回避対象外の物体は、対象物以外の物体であり、例えば、検査室の壁に貼られたポスターやカレンダー等である。回避対象外の物体は、予め定められて記憶回路32に記憶されても良い。また、認識機能353は、認識した回避対象外の物体を、検査室画像から削除する。
認識機能353は、例えば、R-CNN(Reagions with CNN Features)等のディープラーニング(深層学習)による画像認識モデルを用いて回避対象外の物体を認識するものとする。また、認識機能353は、パターン認識等のその他の画像認識の手法を用いても良い。
また、認識機能353は、第1の算出機能352によって算出された深度情報に基づいて、検査室画像における可動機構の動作範囲外の画像領域を認識する。可動機構の動作範囲は、例えば、予め記憶回路32に保存されても良いし、X線診断装置10から取得されても良い。認識機能353は、認識結果に基づいて、検査室画像における可動機構の動作範囲外の画像領域を、回避対象外の画像領域と判定する。なお、本実施形態において認識機能353が検査室画像に施す画像処理は一例であり、認識機能353は、補正等のその他の画像処理を検査室画像に施しても良い。
認識機能353は、回避対象外の物体の削除、回避対象外の画像領域を示す情報、またはその他の画像処理を施した検査室画像を、第1の特定機能354に送出する。回避対象外の画像領域を示す情報は、例えば、検査室画像上の回避対象外の画像領域を示す座標情報である。
第1の特定機能354は、認識機能353によって画像処理された検査室画像と、学習済モデルとに基づいて、検査室画像に描出された対象物の識別情報と、検査室画像における対象物が描出された領域とを特定する。第1の特定機能354が検査室画像に描出された対象物の識別情報を特定することを、対象物の認識、対象物の判定、または対象物の検出ともいう。また、本実施形態においては、第1の特定機能354は、認識機能353によって回避対象外の画像領域と判定された範囲を、対象物の認識処理の対象から除外する。
なお、第1の特定機能354は、取得機能351によって取得された視差のある2枚の検査室画像のうちのいずれかを対象物の認識処理に使用しても良いし、両方を用いて対象物の認識処理を行っても良い。
学習済モデルは、検査室画像と、検査室画像に描出された対象物の識別情報と、検査室画像における対象物が描出された領域との対応関係を示すモデルである。学習済モデルは、本実施形態における第1の対応情報の一例である。
図3は、本実施形態に係る学習済モデルM1の一例を示す図である。学習済モデルM1においては、検査室画像201と、検査室画像201において対象物が描出された領域を示すバウンディングボックスと、検査室画像201に描出された対象物および対象物の部位の名称を示すラベルとが対応付けられている。図3に示すように、学習済モデルM1は、入力データとして検査室画像201が入力された場合に、検査室画像201において対象物が描出された領域を示すバウンディングボックスと、対象物および対象物の部位の名称を示すラベルとを出力データ900として出力する。
対象物の名称は、本実施形態における対象物の識別情報の一例である。なお、学習済モデルM1には、対象物の識別情報として、対象物のID等が対応付けられても良い。なお、本実施形態の学習済モデルM1を、第1の学習済モデルともいう。
図4は、本実施形態に係るバウンディングボックス90a~90eの一例を示す図である。以下、バウンディングボックス90a~90eを特に区別しない場合は単にバウンディングボックス90という。
図4に示す例では、検査室画像201中に描出された対象物は、バケツ51と、超音波診断装置50と、操作者P2と、被検体P1である。バウンディングボックス90aは、検査室画像201中のバケツ51が描出された領域を示す。また、バウンディングボックス90bは、検査室画像201中の超音波診断装置50が描出された領域を示す。バウンディングボックス90cは、検査室画像201中の操作者P2が描出された領域を示す。バウンディングボックス90dは、検査室画像201中の被検体P1が描出された領域を示す。
また、学習済モデルM1は、対象物全体だけではなく、対象物の部位が描出された領域を示すバウンディングボックス90を出力しても良い。図4に示す例では、バウンディングボックス90eは、超音波診断装置50のディスプレイ501が描出された領域を示す。超音波診断装置50のディスプレイ501は、対象物の部位の一例である。
本実施形態においては、学習済モデルM1は、ニューラルネットワークと、学習済みパラメータデータとによって構成されるものとする。
学習済モデルM1は、例えば、R-CNN等のディープラーニング(深層学習)による画像認識モデルである。また、学習済モデルM1は、その他のディープラーニングの手法によって生成されたものでも良い。ディープラーニングの手法としては、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)や、畳み込みニューラルネットワーク(CDBN:Convolutional Deep Belief Neural Network)などの多層のニューラルネットワークを適用することができる。また、学習済モデルM1は、サポートベクターマシン(SVM:Support Vector Machine)等の他の機械学習の手法で生成されたものであっても良い。
本実施形態においては、学習済モデルM1は、医用情報処理システムS外の他の情報処理装置によって生成され、医用情報処理装置30の記憶回路32に保存されるものとする。
学習済モデルM1による対象物の物体認識においては、検査室画像201に対象物の外形の全体が描出されていなくとも良い。例えば第1の特定機能354は、学習済モデルM1によって、検査室画像201に描出された対象物の外形の一部の形状または色等に基づいて、対象物の位置を示すバウンディングボックス、対象物の名称、対象物の部位の名称を特定する。
第1の特定機能354は、対象物の位置を示すバウンディングボックス、対象物の名称、対象物の部位の名称を、第2の算出機能355と、第2の特定機能356および第3の特定機能357に送出する。また、第1の特定機能354は、検査室画像201に、対象物の名称が特定できない対象物が存在するか否かを判定し、判定結果を第2の算出機能355と、第3の特定機能357に送出する。
図2に戻り、第2の算出機能355は、取得機能351によって取得された視差のある2枚の検査室画像と、第1の特定機能354によって特定された対象物とに基づいて、該対象物の深度情報、すなわち、該対象物とステレオカメラ20との距離を算出する。なお、前述の第1の算出機能352が、検査室画像全体を範囲として、検査室画像に描出された被写体の深度情報を算出するのに対して、第2の算出機能355は、深度情報の算出対象を第1の特定機能354によって特定された対象物に限定し、より高精度な深度情報を算出するものとする。第2の算出機能355は、算出した対象物ごとの深度情報を、第3の特定機能357に送出する。
第2の特定機能356は、対象物の名称と、対象物情報とに基づいて、対象物の3次元形状データと、対象物の1または複数の回避領域と、該1または複数の回避領域の各々における回避動作と、を特定する。
図5は、本実施形態に係る対象物情報3201の一例を示す図である。対象物情報3201は、対象物の識別情報と該対象物の外形を表す3次元形状データとの対応関係を示す情報であり、本実施形態における第2の対応情報の一例である。
本実施形態においては、図5に示すように、対象物情報3201は、複数の対象物の名称と、該複数の対象物の各々の3次元形状データと、該複数の対象物の1または複数の回避領域と、該1または複数の回避領域の各々における回避動作と、が対応付けられている。なお、対象物の名称は対象物の識別情報の一例であり、対象物の名称の代わりにID等が用いられても良い。対象物情報3201において、複数の対象物の識別情報と、該複数の対象物の外形を表す複数の3次元形状データとは、1対1で対応付けられている。
3次元形状データは、対象物の外形を示す情報である。3次元形状データは、3次元モデルまたは立体モデルともいう。3次元形状データは、例えば、検査室R内に設置される可能性のある医療機器等の設計データに基づいて作成される。また、3次元形状データは、メジャー等で手動で計測された寸法情報に基づいて作成されても良いし、ステレオカメラや3Dカメラ等によって複数の角度から撮像された撮像結果に基づいて作成されても良い。
図6は、本実施形態に係る3次元形状データ80および回避領域81a,81bの一例を示す図である。例えば、対象物が四角柱形状の“A装置”である場合、A装置の3次元形状データ80は、A装置の縦、横、奥行の寸法を示す。
回避領域81a,81b(以下、第1の回避領域81aと第2の回避領域81bとを特に区別しない場合は、単に回避領域81という)は、3次元形状データ80の外形を拡大した3次元の領域である。対象物と3次元形状データ80とは、1対1で対応付けられる。また、本実施形態の対象物情報3201においては、1つの対象物および3次元形状データ80に対して、大きさの異なる複数の回避領域81が対応付けられる。
例えば、図6に示すように、A装置の第1の回避領域81aは、A装置の3次元形状データ80に距離d1を加えた3次元の領域である。また、A装置の第2の回避領域81bは、第1の回避領域81aよりも小さい領域であり、A装置の3次元形状データ80に距離d2を加えた3次元の領域である。距離d2は距離d1よりも短いものとする。なお、各対象物に対応付けられる回避領域81の数は2つよりも多くても良い。
また、回避動作は、対象物を回避するためのX線診断装置10の可動機構(Cアーム105、寝台104等)の動作である。対象物情報3201においては、複数の回避領域81の各々に、異なる回避動作が対応付けられる。1つの対象物における回避領域81と、回避動作とは、1対1で対応付けられる。例えば、図5,6に示す例では、A装置の第1の回避領域81aにおいては回避動作は“減速”であり、第2の回避領域81bにおいては回避動作は“停止”である。1つの対象物に対して複数の回避領域81が設けられている場合、複数の回避領域81のうち、小さい回避領域81ほど、可動機構の速度が遅くなるように回避動作が定められるものとする。つまり、可動機構と対象物の距離が近くなるほど、可動機構の速度が遅くなるように、回避動作が定められる。
第2の特定機能356は、特定した3次元形状データ80、回避領域81、および回避動作を、第3の特定機能357に送出する。
図2に戻り、第3の特定機能357は、深度情報に基づいて、検査室R内の空間を表す仮想3次元空間内における3次元形状データ80の位置および向きを特定する。
例えば、第3の特定機能357は、第2の算出機能355によって算出された対象物の深度情報と、第1の特定機能354によって検査室画像201における対象物が描出された領域として特定されたバウンディングボックスとに基づいて、検査室Rにおける対象物の位置および向きを特定する。第3の特定機能357は、特定した検査室Rにおける対象物の位置および向きに基づいて、仮想3次元空間に、第2の特定機能356によって特定された3次元形状データ80を配置する。仮想3次元空間を示す3次元空間データについては、記憶回路32に記憶されているものとする。
例えば、深度情報は、ステレオカメラ20と、検査室画像201に描出された対象物との間の距離を示すため、第3の特定機能357は、深度情報に基づいて、対象物の位置と、対象物のステレオカメラ20側を向いている面の角度と、を特定する。第3の特定機能357は、特定した位置および対象物のステレオカメラ20側を向いている面の角度に合わせて、対象物の3次元形状データ80の位置および向きを特定する。これにより、第3の特定機能357は、対象物のステレオカメラ20側を向いていない面や、対象物のうち検査室画像201の撮像範囲からはみ出した部分についても3次元形状データ80によって仮想3次元空間内に再現する。
第3の特定機能357は、X線診断装置10の可動機構の可動範囲内に対象物が存在すると判断した場合、仮想3次元空間内における3次元形状データ80の位置および向きの特定結果と、該3次元形状データ80に対応付けられた回避領域81および回避動作とを、送信機能358に送出する。仮想3次元空間内の3次元形状データ80の位置および向きは、例えば、3次元の空間座標によって表される。
また、第3の特定機能357は、第1の特定機能354によって対象物の名称が特定できない対象物が検査室画像201に存在すると判定されている場合には、深度情報に基づいて、当該対象物の位置および向きを特定し、仮想3次元空間に配置しても良い。
送信機能358は、第3の特定機能357によって特定された仮想3次元空間内における3次元形状データ80の位置および向きと、該3次元形状データ80に対応付けられた回避領域81および回避動作とを、X線診断装置10に送信する。
次に、以上のように構成された本実施形態の医用情報処理装置30で実行される対象物認識処理の流れについて説明する。
図7は、本実施形態に係る対象物特定処理の流れの一例を示すフローチャートである。このフローチャートの処理は、操作者P2等による開始操作の入力を受けた場合に開始しても良いし、X線診断装置10から、撮像開始の通知を受けて開始しても良い。
まず、取得機能351は、通信インターフェース31を介して、ステレオカメラ20から、検査室画像201を取得する(S1)。
次に、第1の算出機能352は、取得機能351によって取得された視差のある2枚の検査室画像を画像処理することにより、深度情報を算出する。当該処理を、第1の深度算出処理という(S2)。
次に、認識機能353は、画像処理によって、検査室画像における回避対象外の物体を認識し、認識した回避対象外の物体を、検査室画像201から削除する(S3)。
次に、第1の特定機能354は、認識機能353によって画像処理された検査室画像201と、学習済モデルM1とに基づいて、対象物が描出された領域を示すバウンディングボックス、対象物の名称、および対象物の部位の名称を特定する(S4)。具体的には、第1の特定機能354は、検査室画像201を学習済モデルM1に入力し、出力結果として、バウンディングボックス、対象物の名称、および対象物の部位の名称を得る。
次に、第2の算出機能355は、取得機能351によって取得された視差のある2枚の検査室画像と、第1の特定機能354によって特定された対象物とに基づいて、該対象物の深度情報を算出する。当該処理を、第2の深度算出処理という(S5)。
次に、第2の特定機能356は、対象物の名称と、対象物情報3201とに基づいて、対象物の3次元形状データ80と、対象物の1または複数の回避領域81と、該1または複数の回避領域の各々における回避動作と、を特定する(S6)。
次に、第3の特定機能357は、第2の算出機能355によって算出された深度情報と、第1の特定機能354によって特定されたバウンディングボックスとに基づいて、仮想3次元空間における3次元形状データ80の位置および向きを特定する(S7)。
次に、送信機能358は、第3の特定機能357によって特定された仮想3次元空間内における3次元形状データ80の位置および向きと、該3次元形状データ80に対応付けられた回避領域81および回避動作とを、X線診断装置10に送信する(S8)。
X線診断装置10の処理回路120は、通信インターフェース150を介して医用情報処理装置30から送信された情報を受信し、医用情報処理装置30から送信されたこれらの情報に基づいて、可動機構が対象物を回避するように可動機構の移動を制御する。
例えば、X線診断装置10の処理回路120は、医用情報処理装置30から送信された情報に基づいて、Cアーム105または寝台104の可動範囲内に存在する対象物の有無を判断する。処理回路120は、Cアーム105または寝台104の可動範囲内に対象物が存在すると判断した場合、当該対象物を回避するように、Cアーム105または寝台104の動作を制御する。
例えば、処理回路120は、可動機構の移動ルート上に対象物の3次元形状データ80の回避領域81が存在する場合には、回避領域81を回避して目的位置に到達可能な回避ルートを探索または生成する。また、処理回路120は、回避領域81に対応付けられた回避動作に応じて、可動機構の速度の変更や、可動機構の停止等の制御を実行する。
また、X線診断装置10の処理回路120は、回避ルートでは可動機構の移動に時間を要する場合や、対象物を回避可能な回避ルートが存在しない場合は、ディスプレイ130に、対象物の移動等を提案するメッセージを表示させても良い。
また、医用情報処理装置30の取得機能351は、入力インターフェース33を介して操作者からの検査の終了の指示を取得したか否かを判断する(S9)。取得機能351は、操作者からの検査の終了の指示を取得していないと判断した場合(S9“No”)、S1の処理に戻り、対象物認識処理を継続する。本実施形態においては、医用情報処理装置30で実行される対象物認識処理は、X線診断装置10がCアーム105を移動させる時だけではなく、X線診断装置10による被検体P1の検査の終了まで継続し、新たな対象物を検出したり、検出済みの対象物の位置または姿勢の変化が検出したりした場合には、検出結果をX線診断装置10に送信する。
また、取得機能351が操作者からの検査の終了の指示を取得したと判断した場合(S9“No”)、このフローチャートの処理は終了する。なお、検査の終了の指示は、X線診断装置10から送信されても良い。
このように、本実施形態の医用情報処理装置30は、ステレオカメラ20から取得した検査室画像201と、検査室画像201と検査室画像201に描出された対象物の識別情報との対応関係を示す第1の対応情報(学習済モデルM)とに基づいて、検査室画像201に描出された対象物の識別情報を特定し、特定した対象物の識別情報に対応する3次元形状データ80を、第2の対応情報(対象物情報3201)に基づいて特定する。また、医用情報処理装置30は、特定した3次元形状データ80の位置を、ステレオカメラ20から対象物までの距離を示す深度情報に基づいて特定する。このように、本実施形態の医用情報処理装置30によれば、検査室画像201上の対象物の外形と3次元形状データ80とのマッチング処理をせずに、検査室画像201に描出された対象物に対応する3次元形状データ80を特定するため、迅速に対象物の立体形状を特定することができる。
例えば、比較例として、検査室画像に描出された対象物の形状と、予め記憶された3次元形状データとの形状対形状のマッチング処理により、対象物に相当する3次元形状データを特定する技術がある。このような技術においては、対象物の立体形状を特定するための処理負荷が重くなり、処理に時間を要する場合がある。これに対して、本実施形態の医用情報処理装置30によれば、検査室画像201上の対象物の外形と3次元形状データ80とのマッチング処理をしなくとも、対象物の立体形状を特定することができるため、処理時間を低減することができる。
また、本実施形態の対象物情報3201は、複数の対象物の識別情報と、該複数の対象物の各々の外形を示す複数の3次元形状データ80と、該複数の対象物の1または複数の回避領域81と、該1または複数の回避領域81の各々における回避動作と、が対応付けられた情報である。また、医用情報処理装置30は、仮想3次元空間内における3次元形状データ80の位置および向きと、3次元形状データ80に対応付けられた1または複数の回避領域81と、1または複数の回避領域81の各々における回避動作とを、X線診断装置10に送信する。このため、本実施形態の医用情報処理装置30によれば、X線診断装置10に、特定された対象物の回避領域81に対応付けられた回避動作に応じた可動機構の制御を、実行させることができる。
また、本実施形態の回避領域は、3次元形状データ80の外形を拡大した3次元の領域である。また、対象物情報3201においては、1つの3次元形状データ80に対して、大きさの異なる複数の回避領域が対応付けられ、複数の回避領域の各々に、異なる回避動作が対応付けられる。このため、本実施形態の医用情報処理装置30によれば、X線診断装置10に、対象物との接近の度合に応じて、適切な回避動作を実行させることができる。
また、本実施形態の第1の対応情報は、検査室画像201と、検査室画像201に描出された前記対象物の識別情報とが対応付けられた学習済モデルM1である。このため、本実施形態の医用情報処理装置30によれば、検査室画像201に描出された対象物を高精度に認識することができる。例えば、上述の比較例のように、検査室画像に描出された対象物の形状と、予め記憶された3次元形状データとをマッチングする技術においては、対象物の外形のうち、検査室画像に映り込んだ範囲が小さい場合には、対応する3次元形状データの特定が困難な場合がある。また、対象物の撮像角度によっては、検査室画像から立体形状を特定することが困難な場合がある。これに対して、本実施形態の医用情報処理装置30は、検査室画像201に対象物の外形の全体が描出されていない場合においても、学習済モデルM1を用いることにより、検査室画像201に描出された対象物の外形の一部の形状または色等に基づいて、対象物の識別情報を特定することができる。
また、本実施形態のX線診断装置10は、医用情報処理装置30から送信された仮想3次元空間内における対象物を示す3次元形状データ80の位置に基づいて、可動機構が検査室R内に存在する対象物を回避するように、可動機構の移動を制御する。このため、本実施形態のX線診断装置10によれば、対象物を高精度に回避することができる。
なお、本実施形態では、X線診断装置10を、被検体P1を撮像可能な医用画像撮像装置の一例としたが、医用画像撮像装置はこれに限定されるものではない。例えば、医用画像撮像装置は、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、X線診断装置10とX線CT装置とが一体となったシステム等であっても良い。
また、本実施形態では、ステレオカメラ20を検査室撮像装置の一例としたが、検査室撮像装置はこれに限定されるものではない。例えば、検査室撮像装置は、ToF(Time of Flight)方式、パターン照射方式、または光切断方式等により対象物との距離測定が可能なセンサまたはカメラであっても良い。また、検査室撮像装置は、その他の公知の技術により対象物との距離測定が可能な3Dカメラ(Depthカメラ)であっても良い。なお、各種の検査室撮像装置によって撮像される検査室画像は、静止画でも良いし、動画でも良い。
検査室R内を撮像すると共に深度情報を取得する3Dカメラ等を検査室撮像装置として採用する場合は、取得機能351は、検査室撮像装置から、検査室画像と、深度情報とを取得する。当該構成を採用する場合、処理回路35内で深度情報を算出しなくとも良いため、処理回路35は、第1の算出機能352および第2の算出機能355を備え無くとも良い。
また、3Dカメラは画素ごとの深度を検出するため、当該構成を採用する場合、第3の特定機能357は、3Dカメラから取得した深度情報と、第1の特定機能354によって検査室画像201における対象物が描出された領域として特定されたバウンディングボックスとを照合し、検査室画像201における対象物が描出された領域の画素ごとの深度(奥行)を特定する。そして、第3の特定機能357は、特定した画素ごとの深度に基づいて、検査室Rにおける対象物の位置および向きを特定するものとする。
また、本実施形態においては、第1の特定機能354は、検査室画像201と、学習済モデルM1に基づいて、対象物の名称と、バウンディングボックス90とを特定するとしたが、第1の特定機能354は、対象物の名称と、バウンディングボックス90とを特定するために、さらに深度情報を用いても良い。また、この場合、学習済モデルM1は、検査室画像と、深度情報と、検査室画像に描出された対象物の識別情報と、検査室画像における対象物が描出された領域との対応関係を示すモデルであっても良い。すなわち、学習済モデルM1は、検査室画像と対象物の名称と、バウンディングボックス90だけではなく、深度情報、検査室画像に描出された対象物の識別情報、検査室画像における対象物が描出された領域を示す情報等の入力に基づいて、対象物の3次元形状を学習したモデルであっても良い。
また、本実施形態においては、学習済モデルM1は記憶回路32に保存されるものとしたが、学習済モデルM1に含まれるニューラルネットワークと学習済みパラメータデータとのうち、学習済みパラメータデータのみが記憶回路32に保存されるものとしても良い。この場合、第1の特定機能354が学習済モデルM1のニューラルネットワークを含むものとする。
また、学習済モデルM1は、検査室画像における対象物の特定結果に対する操作者P2等のフィードバックを取得することにより、学習済モデルM1の内部アルゴリズムを更新する「自己学習するモデル」を含むものであってもよい。
また、本実施形態においては、学習済モデルM1を第1の対応情報の一例としたが、第1の対応情報は、少なくとも検査室画像と、検査室画像に描出された対象物の識別情報との対応関係を示す情報であれば良く、学習済モデルM1に限定されるものではない。例えば、第1の対応情報は、数式モデル、ルックアップテーブル、またはデータベース等であっても良い。
また、本実施形態では、第1の特定機能354は、認識機能353によって画像処理された検査室画像に基づいて特定処理を行うものとしたが、第1の特定機能354は、取得機能351によって取得された検査室画像に基づいて特定処理を行っても良い。
また、本実施形態では、医用情報処理装置30は、X線診断装置10の可動機構の可動範囲内に対象物が存在する場合、仮想3次元空間内における3次元形状データ80の位置および向きの特定結果と、回避領域81および回避動作とを、X線診断装置10に送信するものとしたが、可動範囲内の対象物の有無に関わらず、これらの情報をX線診断装置10に送信しても良い。
(第2の実施形態)
この第2の実施形態では、医用情報処理装置30は、さらに、検査室画像201に描出された対象物の可動部位を認識し、認識結果に応じて回避領域を変更する。
本実施形態の医用情報処理システムSの全体構成は、第1の実施形態と同様である。また、本実施形態のX線診断装置10、ステレオカメラ20、および医用情報処理装置30の構成は、第1の実施形態と同様である。
本実施形態の医用情報処理装置30の処理回路35は、第1の実施形態と同様に、取得機能351と、第1の算出機能352と、認識機能353と、第1の特定機能354と、第2の算出機能355と、第2の特定機能356と、第3の特定機能357と、送信機能358とを備える。取得機能351と、第1の算出機能352と、第1の特定機能354と、第2の算出機能355と、第3の特定機能357と、送信機能358とは、第1の実施形態と同様の機能を備える。
本実施形態の認識機能353は、第1の実施形態と同様の機能を備えた上で、検査室画像に描出された対象物の可動部位を認識する。可動部位は、屈折、回転、または伸縮等の変形が可能な部位であり、例えばアームの関節(ジョイント)部等である。可動部位は、モータ等の機構によって自動的に変形するものであっても良いし、操作者P2等が手動で変形させるものであっても良い。
図8は、本実施形態に係る可動部位70a~70cを有する対象物の一例を示す図である。図8には、対象物の一例としてインジェクタ52を記載する。インジェクタ52は、可動のアーム521aと、アーム521aの先端に取り付けられたヘッド521bとを有する。
可動のアーム521aは、可動部位70a~70cを有する。以下、可動部位70a~70cを特に区別しない場合は単に可動部位70という。例えば、インジェクタ52は、可動部位70が変形することにより、図8の左側に示す状態から、図8の右側に示す状態に形状が変化する。また、インジェクタ52の形状は、図8の右側に示す状態から図8の左側に示すにも変化する。
認識機能353は、パターン認識等の画像認識の手法によって、検査室画像201から、可動部位70を認識する。
また、認識機能353は、さらに、エッジ検出等の画像認識の手法によって、検査室画像201から、対象物の端部71a~71dを認識する。以下、端部71a~71dを特に区別しない場合は単に端部71という。図8においては、認識機能353は、位置が可変なヘッド521bの端部71のみを認識しているが、他の部位の端部71も認識しても良い。なお、可動部位70の認識の手法、および端部71の認識の手法は上述の例に限定されるものではなく、ディープラーニング等の手法が採用されても良い。
認識機能353は、可動部位70および端部71の認識結果を、第2の特定機能356に送出する。
また、本実施形態の第2の特定機能356は、第1の実施形態と同様の機能を備えた上で、対象物情報3201から特定した3次元形状データ80に対応付けられた1または複数の回避領域81における可動部位70の近傍の箇所を拡張する、
図9は、本実施形態に係る拡張後の回避領域81の一例を示す図である。図9に示す例では、第2の特定機能356は、インジェクタ52の3次元形状データ80aの回避領域81cの、可動部位70近傍の箇所を拡張している。図9に示す距離d4は、拡張前の回避領域81における3次元形状データ80aと回避領域81cの外周との距離である。第2の特定機能356は、可動部位70の近傍については、3次元形状データ80aと回避領域81cの外周との距離を、距離d4よりも長い距離d3に拡張している。
なお、第2の特定機能356は、可動部位70を含むアーム521aの全体の近傍について、回避領域81cを拡張しても良い。
このように、本実施形態の医用情報処理装置30は、検査室画像201に描出された対象物の可動部位70を認識し、対象物の3次元形状データ80に対応付けられた1または複数の回避領域81における可動部位70の近傍の箇所を拡張する。このため、本実施形態の医用情報処理装置30によれば、第1の実施形態の効果を備えた上で、対象物の形状が変形しても、回避領域81を確保することができる。
また、本実施形態の第2の特定機能356は、記憶回路32に記憶された3次元形状データ80を、可動部位70および端部71の認識結果に基づいて、検査室画像201に描出された対象物の形状に合わせるように変形しても良い。この場合、変形パターン分の3次元形状データ80が予め用意されていなくとも、対象物の形状の変更を3次元形状データ80に反映可能であるため、予め記憶される3次元形状データ80のパターンの数を削減することができる。
(第3の実施形態)
この第3の実施形態では、医用情報処理装置30は、検査室画像201に対象物の全体が描出されていない場合に、検査プロトコルに基づいて、該対象物を検出する。
本実施形態の医用情報処理システムSの全体構成は、第1の実施形態と同様である。また、本実施形態のX線診断装置10、ステレオカメラ20、および医用情報処理装置30の構成は、第1の実施形態と同様である。
本実施形態の医用情報処理装置30の記憶回路32は、第1の実施形態と同様の内容に加えて、第2の学習済モデルを記憶する。第2の学習済モデルの詳細については後述する。
本実施形態の医用情報処理装置30の処理回路35は、第1の実施形態と同様に、取得機能351と、第1の算出機能352と、認識機能353と、第1の特定機能354と、
第2の算出機能355と、第2の特定機能356と、第3の特定機能357と、送信機能358とを備える。取得機能351と、第1の算出機能352と、認識機能353と、第2の算出機能355と、第2の特定機能356と、第3の特定機能357と、送信機能358とは、第1の実施形態と同様の機能を備える。
本実施形態の第1の特定機能354は、第1の実施形態と同様の機能を備えた上で、X線診断装置10で実行される検査プロトコルに基づいて、検査室R内に存在する対象物の識別情報(例えば名称)および位置を推定する。
検査プロトコルは、X線診断装置10における検査の手順を示す情報であり、スキャン対象部位や、各種のスキャンの実行順が定義されている。
より詳細には、本実施形態の第1の特定機能354は、X線診断装置10で実行される検査プロトコルと、第2の学習済モデルと、に基づいて、検査室R内に存在する対象物の識別情報および位置を推定する。そして、本実施形態の第1の特定機能354は、対象物の識別情報および位置を推定結果に基づいて、検査室画像から対象物を認識する。例えば、第1の特定機能354は、検査室画像に映り込んだ部分が少ない対象物や、他の対象物に遮られて検査室画像に描出されていない対象物を特定する際に、検査プロトコルと、第2の学習済モデルとに基づく推定結果を採用することにより、対象物の認識率を向上させる。
第2の学習済モデルは、複数の検査プロトコルごとに、検査室R内に存在する対象物の識別情報と、該対象物の位置とが対応付けられたモデルである。
検査室Rに設置される医療機器または操作者P2等の対象物は、検査プロトコルによって配置が決まっている場合がある。本実施形態の第2の学習済モデルは、検査プロトコルごとの対象物の配置の学習によって生成される。
図10は、本実施形態に係る第2の学習済モデルM2の一例を示す図である。図10に示すように、第2の学習済モデルM2は、入力データとして検査プロトコルデータ3202が入力された場合に、検査室R内に存在する対象物の識別情報と、該対象物の位置とを出力する。
X線診断装置10で実行される検査プロトコルは、例えば、取得機能351が、通信インターフェース31を介してX線診断装置10から取得しても良いし、入力インターフェース33から、操作者P2によって入力されても良い。
このように、本実施形態の医用情報処理装置30は、X線診断装置10で実行される検査プロトコルに基づいて、検査室R内に存在する対象物の識別情報と、該対象物の位置とを推定することにより、第1の実施形態の効果を備えた上で、対象物の認識率を向上させることができる。
なお、本実施形態では、第2の学習済モデルM2は学習済モデルM1とは別個のモデルとしたが、学習済モデルM1に、第2の学習済モデルM2が統合されても良い。
また、X線診断装置10を操作する操作者P2によって、検査室R内の医療機器または操作者P2等の配置が決まっている場合がある。このため、第1の特定機能354は、X線診断装置10の操作者P2に基づいて、検査室R内の対象物の識別情報および位置を推定しても良い。
例えば、第2の学習済モデルM2は、複数の操作者P2ごとに、検査室R内に存在する対象物の識別情報と、該対象物の位置とが対応付けられたモデルであっても良い。
当該構成を採用する場合、例えば、X線診断装置10を操作する操作者P2を特定可能な識別情報が入力インターフェース33から、操作者P2によって入力されるものとする。
当該構成を採用する場合においても、本実施形態の医用情報処理装置30は、X線診断装置10を操作する操作者P2に基づいて、検査室R内に存在する対象物の識別情報と、該対象物の位置とを推定することにより、対象物の認識率を向上させることができる。
(第4の実施形態)
上述の第1から第3の実施形態では、第1の学習済モデルM1または第2の学習済モデルM2は、医用情報処理システムS外の他の情報処理装置によって生成され、医用情報処理装置30の記憶回路32に保存されるものとしたが、この第4の実施形態では、医用情報処理装置30は、第1の学習済モデルM1または第2の学習済モデルM2を生成する学習機能を有する。
図11は、本実施形態に係る医用情報処理システムSの全体構成の一例を示すブロック図である。本実施形態の医用情報処理システムSの全体構成は、第1の実施形態と同様である。また、本実施形態のX線診断装置10、およびステレオカメラ20の構成は、第1の実施形態と同様である。
本実施形態の医用情報処理装置30の処理回路35は、取得機能351と、第1の算出機能352と、認識機能353と、第1の特定機能354と、第2の算出機能355と、第2の特定機能356と、第3の特定機能357と、送信機能358と、学習機能359と、表示制御機能360とを備える。取得機能351と、第1の算出機能352と、認識機能353と、第1の特定機能354と、第2の算出機能355と、第2の特定機能356と、第3の特定機能357と、送信機能358とは、第1の実施形態と同様の機能を備える。
図12は、本実施形態に係る学習処理について説明する図である。
図12に示すように、学習機能359は、例えば、学習データとしての複数の検査室画像201a~201nと、複数の検査室画像201a~201nの各々に対応する教師データ9001a~9001nとに基づいて、検査室画像201と、検査室画像201に描出された対象物の識別情報と、検査室画像201における対象物が描出された領域(バウンディングボックス90)との対応関係を学習することによって、第1の学習済モデルM1を生成する。
教師データ9001は、例えば、検査室画像201に描出された対象物の識別情報(例えば名称)と、検査室画像201における対象物が描出された領域(バウンディングボックス90)である。教師データ9001は、例えば、通信インターフェース31を介して外部から取得されても良い。また、後述の表示制御機能360によって検査室画像201がディスプレイ34に表示される場合に、表示された検査室画像201に体操する教師データ9001が、入力インターフェース33から、操作者P2によって入力されても良い。
検査室画像201は、例えば、静止中または動作中のX線診断装置10が描出された検査室画像である。
また、学習機能359は、X線診断装置10の写真、X線診断装置10の3Dグラフィックス画像、検査室Rで用いられる医療機器の写真、検査室Rで用いられる医療機器の3Dグラフィックス画像、または、X線診断装置10および検査室Rで用いられる医療機器を含む3Dグラフィックス画像等を、学習データとして使用しても良い。
学習の手法としては、第1の実施形態で説明したように、R-CNN、畳み込みニューラルネットワーク(CNN)や、畳み込みニューラルネットワーク(CDBN)などの多層のニューラルネットワーク等のディープラーニングの手法や、サポートベクターマシン(SVM)等の他の機械学習の手法を採用しても良い。
また、学習機能359は、さらに第2の学習済モデルM2を生成しても良い。この場合、学習データは、検査プロトコルデータ3202または操作者P2の識別情報となる。また、教師データ9001は、仮想3次元空間内の対象物の3次元形状データ80の位置および向きと、対象物の識別情報となる。
学習機能359は、学習データと、教師データ9001とに基づいて、検査プロトコルデータ3202または操作者P2の識別情報と、仮想3次元空間内の対象物の3次元形状データ80の位置および向きと、対象物の識別情報との対応関係を学習することによって、第2の学習済モデルM2を生成しても良い。
図11に戻り、表示制御機能360は、学習データとしての検査室画像201をディスプレイ34に表示させる。
本実施形態の医用情報処理装置30によれば、医用情報処理装置30内で第1の学習済モデルM1または第2の学習済モデルM2を生成することにより、第1の実施形態の効果を備えた上で、検査室Rで使用される医療機器や、検査プロトロコル等が新規に追加された場合にも、迅速に第1の学習済モデルM1または第2の学習済モデルM2の生成または更新をすることができる。
(変形例1)
上述の各実施形態では、医用情報処理装置30は、最新の検査室画像201に基づいて対象物の3次元形状データ80の位置および向きを特定していたが、医用情報処理装置30は、過去に対象物が認識された位置に基づいて、仮想3次元空間内における対象物の3次元形状データ80の位置および向きを特定しても良い。
例えば、X線診断装置10の可動機構や、検査室R内の医療機器の移動によって、対象物が陰に隠れることにより、ステレオカメラ20で撮影できなくなってしまう場合がある。このような場合に、本変形例の医用情報処理装置30は、例えば、対象物が最後に検出された位置を記憶し、当該位置に物体がある可能性を踏まえて、想定される対象物の3次元形状データ80の位置および向きをX線診断装置10に送信しても良い。また、X線診断装置10側で、対象物が最後に検出された位置を記憶し、当該位置に物体がある可能性を踏まえて、可動機構を制御しても良い。
また、医用情報処理装置30の第1の特定機能354は、時系列に撮像された複数の検査室画像201に基づいて、検査室R内を移動する対象物を認識しても良い。例えば、第1の特定機能354は、検査室画像201における対象物の認識結果を、次に撮像された検査室画像201における対象物の認識処理に利用することで、検査室R内を移動する対象物を、複数の検査室画像201に渡って追跡しても良い。当該構成を採用すると、医用情報処理装置30は、対象物が時間の経過と共に他の物体の背後に移動して隠れてしまう場合に、該対象物の全体像のうち、検査室画像201に映り込む割合が時間の経過ともに減少しても、該対象物を継続して認識することができる。
(変形例2)
上述の各実施形態における医用情報処理装置30の機能は、X線診断装置10の機能として構成されても良い。例えば、X線診断装置10の処理回路120は、取得機能と、第1の算出機能と、認識機能と、第1の特定機能と、第2の算出機能と、第2の特定機能と、第3の特定機能とを備えるものとしても良い。
また、上述の各実施形態における医用情報処理装置30の機能は、ステレオカメラ20等の検査室撮像装置の機能として構成されても良い。例えば、ステレオカメラ20は、取得機能と、第1の算出機能と、認識機能と、第1の特定機能と、第2の特定機能と、第2の算出機能と、第3の特定機能と、送信機能とを備えるものとしても良い。当該構成を採用する場合、取得機能は、撮像機能ともいう。また、当該構成を採用する場合、検査室撮像装置を医用情報処理装置の一例としても良い。
(変形例3)
上述の各実施形態では、対象物の3次元形状データ80は予め生成されて記憶回路32または記憶回路140に記憶されているものとしたが、医用情報処理装置30の処理回路35またはX線診断装置10の処理回路120が、3次元形状データ80を生成する構成を採用しても良い。
例えば、医用情報処理装置30の処理回路35またはX線診断装置10の処理回路120は、検査室撮像装置による撮像画像および深度情報に基づいて、対象物の外形を計測し、計測結果を3次元形状データ80として記憶回路32または記憶回路140に登録する登録機能を備えても良い。
例えば、登録機能は、学習済モデルM1,M2および対象物情報3201に基づいて特定できない対象物が検査室画像201上に存在すると判定された場合に、当該対象物の3次元形状データ80を生成し、生成結果に基づいて学習済モデルM1,M2および対象物情報3201を更新する。
また、上述の各実施形態では、図5で説明したように、回避領域81は、対象物の名称および3次元形状データ80に対応付けられて、記憶回路32または記憶回路140に予め保存されているものとしたが、医用情報処理装置30の処理回路35またはX線診断装置10の処理回路120が、回避領域81を算出する構成を採用しても良い。例えば、当該構成を採用する場合、大きさの異なる複数の回避領域81ごとに、3次元形状データ80から回避領域81の外縁までの距離(例えば、図6の距離d1、および距離d2)が記憶回路32または記憶回路140に予め保存されるものとする。そして、第2の特定機能356は、第1の特定機能354による対象物の認識結果と、3次元形状データ80と、距離d1,d2とに基づいて、回避領域81を算出しても良い。
以上説明した少なくとも1つの実施形態によれば、検査室内に存在する回避対象物の位置および向きを高精度に把握することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10 X線診断装置
20 ステレオカメラ
30 医用情報処理装置
31 通信インターフェース
32 記憶回路
33 入力インターフェース
34 ディスプレイ
35 処理回路
70,70a~70c 可動部位
71,71a~71d 端部
80,80a 3次元形状データ
81,81a,81b 回避領域
90,90a~90e バウンディングボックス
104 寝台
104a 天板
104b 基台
105,105a,105b Cアーム
106 X線検出器
107 Cアーム回転・移動機構
108 天板・寝台移動機構
109 Cアーム・天板機構制御回路
110 入力インターフェース
120 処理回路
130 ディスプレイ
140 記憶回路
150 通信インターフェース
201,201a~201n 検査室画像
351 取得機能
352 第1の算出機能
353 認識機能
354 第1の特定機能
355 第2の算出機能
356 第2の特定機能
357 第3の特定機能
358 送信機能
359 学習機能
360 表示制御機能
3201 対象物情報
3202 検査プロトコルデータ
M1 学習済モデル(第1の学習済モデル)
M2 第2の学習済モデル
P1 被検体
P2 操作者
R 検査室
S 医用情報処理システム

Claims (11)

  1. 可動機構を有する医用画像撮像装置が設置された検査室内が撮像された検査室画像を取得する取得部と、
    前記検査室画像と、前記検査室画像に描出された対象物の識別情報との対応関係を示す第1の対応情報とに基づいて、前記検査室画像に描出された前記対象物の識別情報を特定する第1の特定部と、
    前記対象物の識別情報と該対象物の外形を表す3次元形状データとの対応関係を示す第2の対応情報に基づいて、前記第1の特定部によって特定された前記対象物の識別情報に対応する前記3次元形状データを特定する第2の特定部と、
    前記検査室画像を撮像した検査室撮像装置から前記検査室画像に描出された前記対象物までの距離を示す深度情報に基づいて、前記検査室内の空間を表す仮想3次元空間内における前記3次元形状データの位置を特定する第3の特定部と、
    を備える医用情報処理装置。
  2. 前記第2の対応情報は、複数の対象物の識別情報と、該複数の対象物の各々の外形を示す複数の3次元形状データと、該複数の対象物の1または複数の回避領域と、該1または複数の回避領域の各々における回避動作と、が対応付けられた情報であり、
    前記第3の特定部によって特定された前記仮想3次元空間内における前記3次元形状データの位置および向きと、前記3次元形状データに対応付けられた前記1または複数の回避領域と、前記1または複数の回避領域の各々における回避動作とを前記医用画像撮像装置に送信する送信部、をさらに備える、
    請求項1に記載の医用情報処理装置。
  3. 前記1または複数の回避領域は、前記3次元形状データの外形を拡大した3次元の領域であり、
    前記第2の対応情報においては、1つの前記3次元形状データに対して、大きさの異なる複数の回避領域が対応付けられ、複数の回避領域の各々に、異なる回避動作が対応付けられる、
    請求項2に記載の医用情報処理装置。
  4. 前記第1の対応情報は、前記検査室画像と、前記検査室画像に描出された前記対象物の前記識別情報とが対応付けられた学習済モデルである、
    請求項1から3のいずれか1項に記載の医用情報処理装置。
  5. 前記検査室画像に描出された前記対象物の可動部位を認識する認識部、をさらに備え、
    前記第2の特定部は、前記対象物の前記3次元形状データに対応付けられた前記1または複数の回避領域における前記可動部位の近傍の箇所を拡張する、
    請求項2または3に記載の医用情報処理装置。
  6. 前記第1の特定部は、さらに、前記医用画像撮像装置で実行される検査プロトコルまたは前記医用画像撮像装置の操作者に基づいて、前記検査室内に存在する前記対象物の識別情報および位置を推定し、推定結果に基づいて、前記検査室画像に描出された前記対象物の識別情報を特定する、
    請求項1から5のいずれか1項に記載の医用情報処理装置。
  7. 前記第1の特定部は、前記医用画像撮像装置で実行される検査プロトコルと、複数の検査プロトコルごとに前記検査室内に存在する前記対象物の前記識別情報および位置とが対応付けられた学習済モデルと、に基づいて、前記検査室内に存在する前記対象物の識別情報および位置を推定する、
    請求項6に記載の医用情報処理装置。
  8. 前記第1の特定部は、前記医用画像撮像装置の操作者と、複数の操作者ごとに前記検査室内に存在する前記対象物の前記識別情報および位置とが対応付けられた学習済モデルと、に基づいて、前記対象物の識別情報と、前記検査室内に存在する前記対象物の識別情報および位置を推定する、
    請求項6に記載の医用情報処理装置。
  9. 被検体を撮像可能な医用画像撮像装置と、検査室撮像装置と、医用情報処理装置とを備え、
    前記医用画像撮像装置は、
    移動可能な可動機構と、
    前記医用画像撮像装置から送信された検査室内の空間を表す仮想3次元空間内における対象物を示す3次元形状データの位置に基づいて、前記可動機構が前記対象物を回避するように前記可動機構の移動を制御する制御部と、を備え、
    前記検査室撮像装置は、前記医用画像撮像装置が設置された検査室内を撮像し、
    前記医用情報処理装置は、
    前記検査室撮像装置によって撮像された検査室画像と、前記検査室画像に描出された対象物の識別情報との対応関係を示す第1の対応情報とに基づいて、前記検査室画像に描出された前記対象物の識別情報を特定する第1の特定部と、
    前記対象物の識別情報と該対象物の外形を表す3次元形状データとの対応関係を示す第2の対応情報に基づいて、前記第1の特定部によって特定された前記対象物の識別情報に対応する前記3次元形状データを特定する第2の特定部と、
    前記検査室撮像装置から前記検査室画像に描出された前記対象物までの距離を示す深度情報に基づいて、前記検査室内の空間を表す仮想3次元空間内における前記3次元形状データの位置を特定する第3の特定部と、
    前記第3の特定部によって特定された前記仮想3次元空間内における前記3次元形状データの位置を、前記医用画像撮像装置に送信する送信部と、
    を備える、医用情報処理システム。
  10. 可動機構を有する医用画像撮像装置が設置された検査室内が撮像された検査室画像を取得し、
    前記検査室画像と、前記検査室画像に描出された対象物の識別情報との対応関係を示す第1の対応情報とに基づいて、前記検査室画像に描出された前記対象物の識別情報を特定し、
    前記対象物の識別情報と該対象物の外形を表す3次元形状データとの対応関係を示す第2の対応情報に基づいて、前記対象物の識別情報に対応する前記3次元形状データを特定し、
    前記検査室画像を撮像した検査室撮像装置から前記検査室画像に描出された前記対象物までの距離を示す深度情報に基づいて、前記検査室内の空間を表す仮想3次元空間内における前記3次元形状データの位置を特定する、
    各処理をコンピュータに実行させる医用情報処理プログラム。
  11. 検査室内に設置され、被検体を撮像可能な医用画像撮像装置であって、
    移動可能な可動機構と、
    前記検査室内が撮像された検査室画像を取得する取得部と、
    前記検査室画像と、前記検査室画像に描出された対象物の識別情報との対応関係を示す第1の対応情報とに基づいて、前記検査室画像に描出された前記対象物の識別情報を特定する第1の特定部と、
    前記対象物の識別情報と該対象物の外形を表す3次元形状データとの対応関係を示す第2の対応情報に基づいて、前記第1の特定部によって特定された前記対象物の識別情報に対応する前記3次元形状データを特定する第2の特定部と、
    前記検査室画像を撮像した検査室撮像装置から前記検査室画像に描出された前記対象物までの距離を示す深度情報に基づいて、前記検査室内の空間を表す仮想3次元空間内における前記3次元形状データの位置を特定する第3の特定部と、
    前記3次元形状データの位置に基づいて、前記可動機構が検査室内に存在する前記対象物を回避するように、前記可動機構の移動を制御する制御部と、
    を備える医用画像撮像装置。
JP2019186320A 2019-10-09 2019-10-09 医用情報処理装置、医用情報処理システム、医用情報処理プログラム、および医用画像撮像装置 Active JP7328861B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019186320A JP7328861B2 (ja) 2019-10-09 2019-10-09 医用情報処理装置、医用情報処理システム、医用情報処理プログラム、および医用画像撮像装置
US17/064,246 US11717243B2 (en) 2019-10-09 2020-10-06 Medical information processing apparatus, medical diagnostic apparatus, medical information processing system, medical information processing method, medical imaging apparatus, and medical treatment apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019186320A JP7328861B2 (ja) 2019-10-09 2019-10-09 医用情報処理装置、医用情報処理システム、医用情報処理プログラム、および医用画像撮像装置

Publications (2)

Publication Number Publication Date
JP2021058530A JP2021058530A (ja) 2021-04-15
JP7328861B2 true JP7328861B2 (ja) 2023-08-17

Family

ID=75380918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019186320A Active JP7328861B2 (ja) 2019-10-09 2019-10-09 医用情報処理装置、医用情報処理システム、医用情報処理プログラム、および医用画像撮像装置

Country Status (2)

Country Link
US (1) US11717243B2 (ja)
JP (1) JP7328861B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3671641A1 (en) * 2018-12-20 2020-06-24 Koninklijke Philips N.V. Automated detection of abnormal subject configuration for medical imaging
WO2022036261A1 (en) * 2020-08-13 2022-02-17 Opsis Health, Inc. Object-recognition training

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009022602A (ja) 2007-07-20 2009-02-05 Canon Inc 放射線画像取得装置及びその方法
US20130083894A1 (en) 2011-09-30 2013-04-04 Siemens Aktiengesellschaft Method for controlling the movement of an x-ray apparatus and x-ray system
JP2018506352A (ja) 2015-02-25 2018-03-08 マコ サージカル コーポレーション 外科手術中の追跡中断を低減するナビゲーションシステム及び方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19743500A1 (de) 1997-10-01 1999-04-29 Siemens Ag Medizinische Einrichtung mit einer Vorrichtung zum Erfassen der Position zumindest eines sich in einem Raum befindenden Objektes
JP2014176495A (ja) 2013-03-14 2014-09-25 Toshiba Corp ベッドの移動制御装置、その移動制御方法及びその移動制御プログラム
WO2014192960A1 (ja) 2013-05-31 2014-12-04 株式会社 東芝 X線診断装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009022602A (ja) 2007-07-20 2009-02-05 Canon Inc 放射線画像取得装置及びその方法
US20130083894A1 (en) 2011-09-30 2013-04-04 Siemens Aktiengesellschaft Method for controlling the movement of an x-ray apparatus and x-ray system
JP2018506352A (ja) 2015-02-25 2018-03-08 マコ サージカル コーポレーション 外科手術中の追跡中断を低減するナビゲーションシステム及び方法

Also Published As

Publication number Publication date
US11717243B2 (en) 2023-08-08
US20210106303A1 (en) 2021-04-15
JP2021058530A (ja) 2021-04-15

Similar Documents

Publication Publication Date Title
CN107016717B (zh) 用于患者的透视视图的系统和方法
US10881353B2 (en) Machine-guided imaging techniques
JP5430203B2 (ja) 画像処理装置、画像処理方法
JP6983482B2 (ja) 医用イメージングシステムにおいて対象3dポイントクラウドを生成するための方法及びシステム
US20160074004A1 (en) Positioning of an examination table relative to a medical imaging apparatus
US20140171799A1 (en) Systems and methods for providing ultrasound probe location and image information
JP2012213558A (ja) 画像処理装置、画像処理方法およびプログラム
JP2011125570A (ja) 画像処理装置、画像処理方法、及びプログラム
JP5631453B2 (ja) 画像処理装置、画像処理方法
JP2008018172A (ja) 手術支援装置
JP2015071032A (ja) 画像処理装置、画像処理方法
US20140369583A1 (en) Ultrasound diagnostic device, ultrasound diagnostic method, and computer-readable medium having recorded program therein
CN113287158A (zh) 用于远程医疗的方法和装置
JP7328861B2 (ja) 医用情報処理装置、医用情報処理システム、医用情報処理プログラム、および医用画像撮像装置
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
JP6329953B2 (ja) カテーテルのためのx線撮像システム
JP6493877B2 (ja) 基準点評価装置、方法およびプログラム、並びに位置合せ装置、方法およびプログラム
JP6714097B2 (ja) マルチモーダルx線撮像における光学カメラ選択
US20240054745A1 (en) Systems and methods for registering a 3d representation of a patient with a medical device for patient alignment
CN115998311A (zh) 一种移动医学影像扫描系统、方法、装置和介质
JP2012147939A (ja) 画像処理装置
JP2017042423A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US11672612B2 (en) Optical coherence tomography guided robotic ophthalmic procedures
US20210298854A1 (en) Robotically-assisted surgical device, robotically-assisted surgical method, and system
WO2024064111A1 (en) Systems and methods of aligning a patient with a medical device leveraging outside-in tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230804

R150 Certificate of patent or registration of utility model

Ref document number: 7328861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150