JP2020028680A - 検査支援プログラム、検査支援方法および検査支援装置 - Google Patents

検査支援プログラム、検査支援方法および検査支援装置 Download PDF

Info

Publication number
JP2020028680A
JP2020028680A JP2018157844A JP2018157844A JP2020028680A JP 2020028680 A JP2020028680 A JP 2020028680A JP 2018157844 A JP2018157844 A JP 2018157844A JP 2018157844 A JP2018157844 A JP 2018157844A JP 2020028680 A JP2020028680 A JP 2020028680A
Authority
JP
Japan
Prior art keywords
inspection
detection
scanning
map
inspection support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018157844A
Other languages
English (en)
Other versions
JP7149516B2 (ja
Inventor
小松 正明
Masaaki Komatsu
正明 小松
吉田 裕之
Hiroyuki Yoshida
裕之 吉田
彬 酒井
Akira Sakai
彬 酒井
明彦 関沢
Akihiko Sekizawa
明彦 関沢
隆 松岡
Takashi Matsuoka
隆 松岡
隆二 浜本
Ryuji Hamamoto
隆二 浜本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NATIONAL CANCER CENTER
Fujitsu Ltd
Showa University
RIKEN Institute of Physical and Chemical Research
Original Assignee
NATIONAL CANCER CENTER
Fujitsu Ltd
Showa University
RIKEN Institute of Physical and Chemical Research
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NATIONAL CANCER CENTER, Fujitsu Ltd, Showa University, RIKEN Institute of Physical and Chemical Research filed Critical NATIONAL CANCER CENTER
Priority to JP2018157844A priority Critical patent/JP7149516B2/ja
Priority to US16/544,924 priority patent/US11291431B2/en
Publication of JP2020028680A publication Critical patent/JP2020028680A/ja
Application granted granted Critical
Publication of JP7149516B2 publication Critical patent/JP7149516B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • Pregnancy & Childbirth (AREA)
  • Physiology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Vascular Medicine (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)

Abstract

【課題】異常の有無が容易に判断可能な部位検知マップを提供できる検査支援プログラム、検査支援方法および検査支援装置を提供する。【解決手段】検査支援プログラムは、検査対象について走査により取得された複数の超音波検査画像それぞれについて、物体検知技術を用いた部位の検知を行う処理をコンピュータに実行させる。検査支援プログラムは、検知結果に基づき、検査対象に含まれる複数の部位それぞれの検知結果を走査と対応付けた部位検知マップを表示する処理をコンピュータに実行させる。【選択図】図1

Description

本発明は、検査支援プログラム、検査支援方法および検査支援装置に関する。
対象を破壊することなく内部構造の異常の有無を検査する超音波検査が知られている。超音波検査では、例えば、検査対象に対して二次元走査断面を撮像し、当該走査断面の画像を確認することで検査を行う。走査断面の画像は、撮像に用いるプローブが、例えば人によって走査されるため、撮像環境の変化の影響を強く受ける。このため、走査断面の画像、つまり超音波検査画像の確認は、目視によって行われることが多い。また、診断に有用な情報を提供する技術としては、CT(Computed Tomography)やMRI(Magnetic Resonance Imaging)等でのスキャン結果から3次元モデルを生成し、任意の切断面の情報を提示する技術が知られている。
さらに、画像にどの様な物体が映っているかを検知する物体検知技術が知られている。物体検知技術は、例えば、機械学習によって画像内の物体を検知する手法として、DPM(Deformable Parts Model)やYOLO(You Only Look Once)が提案されている。
M.A.Sadeghi and D.Forsyth,"30Hz Object Detection with DPM V5",In Computer Vision-ECCV 2014,pages 65-79,Springer,2014 Joseph Redmon,Santosh Divvala,Ross Girshick,Ali Farhadi,"You Only Look Once: Unified, Real-Time Object Detection",arXiv:1506.02640v5 [cs.CV],9 May 2016
しかしながら、超音波検査では、複数の画像から複数の部位をそれぞれ確認することが求められるため、部位の状況を確認する画像を選択するための操作の負担が大きくなる。つまり、超音波検査において異常の有無を判断するための負担が大きくなる。
一つの側面では、異常の有無が容易に判断可能な部位検知マップを提供できる検査支援プログラム、検査支援方法および検査支援装置を提供することにある。
一つの態様では、検査支援プログラムは、検査対象について走査により取得された複数の超音波検査画像それぞれについて、物体検知技術を用いた部位の検知を行う処理をコンピュータに実行させる。検査支援プログラムは、前記検知結果に基づき、前記検査対象に含まれる複数の部位それぞれの検知結果を前記走査と対応付けた部位検知マップを表示する処理をコンピュータに実行させる。
異常の有無が容易に判断可能な部位検知マップを提供できる。
図1は、実施例1の検査支援装置の構成の一例を示すブロック図である。 図2は、物体検知技術に基づく部位検知マップの一例を示す図である。 図3は、プローブの走査方法の一例を示す図である。 図4は、プローブの走査方法の他の一例を示す図である。 図5は、プローブの走査方法の他の一例を示す図である。 図6は、プローブの走査方法の他の一例を示す図である。 図7は、超音波検査画像の取得の一例を示す図である。 図8は、正常パターンの部位検知マップの一例を示す図である。 図9は、異常パターンの部位検知マップの一例を示す図である。 図10は、異常パターンの部位検知マップの他の一例を示す図である。 図11は、判定不能パターンの部位検知マップの一例を示す図である。 図12は、判定不能パターンの部位検知マップの他の一例を示す図である。 図13は、部位検知マップの一例を示す図である。 図14は、超音波検査画像の一例を示す図である。 図15は、部位の検知結果の一例を示す図である。 図16は、部位検知マップの他の一例を示す図である。 図17は、超音波検査画像の他の一例を示す図である。 図18は、部位の検知結果の他の一例を示す図である。 図19は、実施例1の検査支援処理の一例を示すフローチャートである。 図20は、実施例2の検査対象および検査方法の一例を示す図である。 図21は、映っているべきコンポーネントの一例を示す図である。 図22は、実施例2の部位検知マップの一例を示す図である。 図23は、検査支援プログラムを実行するコンピュータの一例を示す図である。
以下、図面に基づいて、本願の開示する検査支援プログラム、検査支援方法および検査支援装置の実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。
図1は、実施例1の検査支援装置の構成の一例を示すブロック図である。図1に示す検査支援装置100は、検査対象について走査により取得された複数の超音波検査画像それぞれについて、物体検知技術を用いた部位の検知を行う。検査支援装置100は、検知結果に基づき、検査対象に含まれる複数の部位それぞれの検知結果を走査と対応付けた部位検知マップを表示する。これにより、検査支援装置100は、異常の有無が容易に判断可能な部位検知マップを提供できる。
まず、本実施例に係る超音波検査における物体検知について説明する。超音波検査を行う場面では、検査対象の物体は、内部構造が一定であることが多い。このため、超音波検査では、プローブ位置等の情報から本来存在するべき構造を、検査における知見や設計図等を用いて推定することが可能である。そこで、本実施例では、正常な場合の内部構造が判明している検査対象に対し、機械学習を用いた物体検知技術にて検知した内部構造と、本来存在するべき正常構造とを比較することで、各部位の検知結果を表す部位検知マップを生成する。なお、機械学習を用いた物体検知技術は、現状では人の水準(平均精度mAP=80程度)には及ばないものの、処理結果を統計的に処理することで十分に信頼のおける結果を計算できる。また、本実施例では、検査対象として胎児の心臓を一例として説明するが、他の臓器等にも適用可能である。
図2は、物体検知技術に基づく部位検知マップの一例を示す図である。図2に示すように、検査支援装置100は、検査対象について走査により取得された複数の超音波検査画像11に対して、機械学習を用いた物体検知技術を適用して部位の検知を行い、検知結果12を取得する。なお、走査方向は、例えば、順方向の走査とすることができるが、逆方向の走査であってもよい。検査支援装置100は、検知結果12に基づき、検査対象に含まれる複数の「部位A」〜「部位F」の検知結果を走査の「断面1」〜「断面9」と対応付けた部位検知マップ13を生成して表示する。ここで、検知結果は、部位の確信度となる。部位検知マップ13では、十分な確信度で検知した部位を「○」で表し、不十分な確信度で検知した部位を「△」で表し、未検知を「×」で表している。
次に、検査支援装置100の構成について説明する。図1に示すように、検査支援装置100は、プローブ110と、表示部111と、操作部112と、記憶部120と、制御部130とを有する。なお、検査支援装置100は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイス等の機能部を有することとしてもかまわない。
プローブ110は、検査対象に対して超音波を照射するとともに、検査対象内部で反射した超音波を受信する探触子の一例である。プローブ110は、例えば、リニア型、コンベックス型、セクタ型といった各種のプローブを用いることができる。また、プローブ110は、例えば、2MHz〜20MHz程度の周波数の超音波を用いることができる。プローブ110は、受信データを制御部130に出力する。
ここで、図3から図6を用いてプローブの走査方法について説明する。図3は、プローブの走査方法の一例を示す図である。図3は、スライド走査の場合を表す。スライド走査は、プローブ110を縦または横方向に持ち、母体20に対して角度を変えずに直交する方向に滑らせて平行移動させる走査法である。
図4は、プローブの走査方法の他の一例を示す図である。図4は、回転走査の場合を表す。回転走査は、プローブ110の中心を軸にして、母体20に対して描出位置をずらさないように回転させる走査法である。
図5は、プローブの走査方法の他の一例を示す図である。図5は、扇状走査の場合を表す。扇状走査は、母体20に対してプローブ110の位置はそのままで、手首を使って扇状にプローブ110を振る走査法である。
図6は、プローブの走査方法の他の一例を示す図である。図6は、振り子走査の場合を表す。振り子走査は、コンベックス型のプローブ110を用いて、コンベックスの半円形の曲面を利用して、母体20に対してプローブ110を左右に振る走査法である。
図1に説明に戻って、表示部111は、各種情報を表示するための表示デバイスである。表示部111は、例えば、表示デバイスとして液晶ディスプレイ等によって実現される。表示部111は、制御部130から入力された表示画面等の各種画面を表示する。
操作部112は、検査支援装置100のユーザから各種操作を受け付ける入力デバイスである。操作部112は、例えば、入力デバイスとして、キーボードやマウス等によって実現される。操作部112は、ユーザによって入力された操作を操作情報として制御部130に出力する。なお、操作部112は、入力デバイスとして、タッチパネル等によって実現されるようにしてもよく、表示部111の表示デバイスと、操作部112の入力デバイスとは、一体化されるようにしてもよい。
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部120は、画像記憶部121と、物体データ記憶部122と、学習モデル記憶部123と、部位検知データ記憶部124とを有する。また、記憶部120は、制御部130での処理に用いる情報を記憶する。
画像記憶部121は、プローブ110から入力された受信データに基づいて生成された複数の超音波検査画像を記憶する。ここで、複数の超音波検査画像とは、例えば、複数のフレームを持つ動画像とすることができる。なお、以下の説明では、複数の超音波検査画像を動画像と表し、動画像の1フレームの画像を検査画像または超音波検査画像と表す場合がある。
物体データ記憶部122は、検査対象の物体の構造を表す物体データを記憶する。物体データは、例えば、プローブ110の現在位置や、前後のフレームの関係等を用いて推定されたルールベースのデータを用いることができる。また、物体データは、人手での入力や設計図に基づいた三次元モデル等に基づくデータを用いてもよい。すなわち、物体データは、何らかの手法を用いて取得した、時刻tにおける検査画像m_tに映っているべき部位の集合R_tと表すことができる。従って、以下の説明では、時刻tにおける検査画像m_tに映っているべき部位の集合R_tを、物体データR_tとも表現する。また、物体データR_tが存在する検査画像m_tに対応する時刻tの区間を時刻集合T_Rで表し、時刻集合T_Rに対応する検査画像m_tの集合を全検査画像Mで表す。すなわち、物体データ記憶部122は、物体データR_tとともに、時刻集合T_Rを記憶する。なお、時刻集合T_Rに対応する物体データR_tは、物体データRと表す。
学習モデル記憶部123は、検査対象の物体について、物体の構造Hに関する複数の要素hを学習させた学習モデルを記憶する。学習モデルは、YOLO、SSD(Single Shot MultiBox Detector)、Faster−RNN(Recurrent Neural Network)等の物体検知アルゴリズムによって、予め物体の構造Hの各要素hを学習したものである。学習モデルは、例えば、ニューラルネットワークの各種パラメータ(重み係数)等を記憶する。
部位検知データ記憶部124は、検査画像m_tごとに、学習モデルを用いて物体の構造Hの各要素hを検知したデータである部位検知データを記憶する。部位検知データは、時刻tにおける検査画像m_tに映っている部位(要素h)の集合D_tと表すことができる。従って、以下の説明では、時刻tにおける検査画像m_tに映っている部位の集合D_tを、部位検知データD_tとも表現する。また、部位検知データD_tは、時刻tにおける検査画像m_tに映っている部位(要素h)の確信度P_h(m_t)の集合に着目すると、確信度マップD(h,t)と表現することもできる。つまり、確信度マップD(h,t)は、時刻tにおける検査画像m_tに映っている部位(要素h)の確信度P_h(m_t)の集合である。すなわち、確信度マップD(h,t)は、部位検知マップの一例である。なお、時刻集合T_Rに対応する部位検知データD_tは、部位検知データDと表す。
制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部130は、取得部131と、判定部132と、検知部133と、表示制御部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
取得部131は、動画像の取得の開始が指示されると、プローブ110から受信データの取得を開始する。取得部131は、取得した受信データに基づいて、動画像の生成を開始する。すなわち、取得部131は、動画像の取得を開始する。なお、受信データに基づく検査画像は、超音波を照射してから反射波が返ってくるまでの時間から距離を算出することで得られ、例えば、Bモード、Mモード、カラードップラー等の各種の検査画像を用いることができる。また、取得部131は、取得した動画像について、例えば胎児が動く等により走査方向が戻る部分がある場合には、動画像の各フレームを比較することで戻り部分のフレームを除去する。取得部131は、取得した動画像を画像記憶部121に記憶するとともに、判定部132に出力する。
ここで、図7を用いて動画像の取得、つまり複数の超音波検査画像の取得について説明する。図7は、超音波検査画像の取得の一例を示す図である。図7の例では、母体20内の胎児21について、母体20の腹部をプローブ110で走査することで検査画像(超音波検査画像)を取得する。プローブ110は、例えば、医師によって胎児21の胃付近から心臓上部にかけて連続的に走査される。この場合の検査画像としては、心臓の前後の検査画像例と、心臓の検査画像例として、検査画像22〜24が取得される。検査画像22には、肋骨25、脊椎26、下行大動脈27、胃胞28および臍静脈29が映っている。
検査画像23には、肋骨25、脊椎26、下行大動脈27および心臓30が映っている。また、検査画像23には、心臓30の内部構造の各部位である、右心室31、右心房32、左心室33、左心房34、心室中隔35および心交差36が映っている。ここで、心臓30は、物体の構造H、つまり心臓構造の集合に相当する。また、右心室31、右心房32、左心室33、左心房34、心室中隔35および心交差36は、各要素hに相当する。検査画像24には、肋骨25、脊椎26、下行大動脈27、肺動脈37、上行大動脈38および上大静脈39が映っている。本実施例では、走査が開始され検査画像に心臓が映っている区間(時刻集合T_R)について、物体データRと部位検知データDとを比較することで各部位についての確信度を求めて表示する。なお、図7における検査画像22〜24は、説明のために各部位を判りやすく描いているが、実際の検査画像では、このように明確に各部位が表示されるものではない。
図1の説明に戻って、判定部132は、動画像の前後のフレームの関係を用いて、検査画像m_tに検査対象の物体の構造H(心臓)が映っているか否かを判定する。判定部132は、取得部131から動画像が入力されると、入力された動画像から1フレームの検査画像m_tを抽出する。判定部132は、心臓が大きく拍動していることを利用し、下記の式(1)を用いて、拍動に対応するスコア(rule_score)を算出する。つまり、判定部132は、動画像のフレーム間の差分に基づいて、拍動に対応するスコアを算出する。
式(1)において、xは画面の縦軸を示し、yは画面の横軸を示す。また、m_t(x,y)は、時刻tにおける検査画像(フレーム)の座標(x,y)の画素を示し、式(1)全体は、時刻tより時間aだけ遡った時刻の検査画像と、時刻tの検査画像の差異の総和を、スコアとして求めることを意味している。このスコアが高いほど、時間aの間で検査画像が大きく変化している、つまり拍動していると判断できる。t’はt−a、つまりtから所定の差分aを引いた値である。差分aは、例えば「1〜20」程度であり、40fpsの動画では時間単位は1/40秒であるから、「1/40秒〜1/2秒」程度となる。
判定部132は、算出したスコアが予め設定した閾値k_rを超えたか否かを判定することで、検査画像m_tに検査対象の物体の構造H(心臓)が映っているか否かを判定する。閾値k_rは、任意の値でよいが、例えば「3.0」といった値を採用することができる。判定部132は、検査画像m_tに検査対象の物体の構造H(心臓)が映っていると判定した場合には、時刻tにおける検査画像m_tに映っているべき部位の集合R_tを下記の式(2)と算出する。一方、判定部132は、検査画像m_tに検査対象の物体の構造H(心臓)が映っていないと判定した場合には、物体データR_tを下記の式(3)(R_t=空集合)と算出する。なお、式(2)では、6つの要素hに基づいて、物体の構造Hが映っている物体データR_tを算出したが、任意の数の要素hに基づいて、物体データR_tを算出してもよい。
R_t={右心室,右心房,左心室,左心房,心室中隔,心交差} ・・・(2)
また、判定部132は、物体データR_tを式(2)と算出した場合には、時刻tを時刻集合T_Rに追加する。判定部132は、算出した物体データR_tと、時刻集合T_Rとを物体データ記憶部122に記憶する。また、判定部132は、抽出した検査画像m_tを検知部133に出力する。
さらに、判定部132は、検知部133から終了判定指示が入力されると、動画像が終了したか否かを判定する。つまり、判定部132は、抽出した検査画像m_tが動画像の最後のフレームであったか否かを判定する。判定部132は、動画像が終了していないと判定した場合には、時刻tを1つ進めて、動画像から次の検査画像m_tを抽出し、物体の構造H(心臓)が映っているか否かの判定を繰り返す。一方、判定部132は、動画像が終了したと判定した場合には、生成指示を表示制御部134に出力する。
検知部133は、判定部132から検査画像m_tが入力されると、学習モデル記憶部123を参照し、入力された検査画像m_tに対して、学習モデルを用いて物体の構造H(心臓)の各要素h(部位)の検知を行う。すなわち、検知部133は、検査画像m_tに映っている部位(要素h)の集合D_tである部位検知データD_tを、下記の式(4)を用いて算出する。
D_t={h|P_h(m_t)が閾値k_d以上} ・・・(4)
式(4)において、P_hは、学習モデルを用いて要素hを検知する際に算出される、要素hの位置の確信度(probability)を示す。閾値k_dは、要素hの位置の確信度に対して、当該要素hの検知を判定するための閾値である。すなわち、検知部133は、式(4)を用いて、検査画像m_tから、各要素h(部位)の検知結果を部位検知データD_tとして算出する。なお、閾値k_dは、任意の値でよいが、例えば「3.0」といった値を採用することができる。また、閾値k_dは、その値を調整することにより、「完全な要素の欠落」〜「正常データからの逸脱」の範囲内で、検出の鋭敏性を設定することができる。
また、式(4)は、確信度P_hに着目すると、下記の式(5)を用いて確信度マップD(h,t)として表すこともできる。
なお、式(5)における確信度P_hおよび閾値k_dは、式(4)と同様である。検知部133は、算出した部位検知データD_tを部位検知データ記憶部124に記憶するとともに、終了判定指示を判定部132に出力する。
言い換えると、検知部133は、判定部132が選択した複数の超音波検査画像それぞれについて、物体検知技術を用いた部位の検知を行う。
表示制御部134は、判定部132から生成指示が入力されると、物体データ記憶部122を参照し、時刻集合T_Rを取得する。また、表示制御部134は、部位検知データ記憶部124を参照し、時刻集合T_Rに対応する部位検知データDを取得する。表示制御部134は、時刻集合T_Rおよび部位検知データDに基づいて、全検査画像Mに対応する部位検知マップを生成する。このとき、表示制御部134は、時刻集合T_Rにない時刻tのフレームは、検査対象の部位がないはずであるので、未検知であるとすることができる。また、表示制御部134は、部位検知マップを生成する際に、物体データ記憶部122の物体データRを参照してもよい。
すなわち、表示制御部134は、時刻集合T_Rおよび部位検知データDに基づいて、式(5)を用いて、検査画像m_tごとの各部位(要素h)の検知結果を走査方向(時刻t方向)に並べた部位検知マップである確信度マップD(h,t)を生成する。表示制御部134は、生成した部位検知マップを表示部111に出力して表示させる。
表示制御部134は、部位検知マップを生成する際に、検知結果である部位検知データD_tのある部位に対応するデータが、未検知、または、確信度が所定値より低い値である状態が所定の時刻t以上連続する場合に、当該部位に対応する部分を強調して表示する。つまり、表示制御部134は、ある部位がある程度の範囲の検査画像に渡って検出されない場合、当該部位に対応する部位検知マップの箇所を強調表示することで、異常である可能性が高いことを提示できる。
また、表示制御部134は、複数の部位の全ての部位が未検知である検知結果となる検査画像がある場合、当該検査画像に対応する部位検知マップの箇所を強調表示することで、当該検査画像の画質に問題があることを提示できる。さらに、表示制御部134は、未検知や、検知した場合の確信度に応じて、例えば、確信度が高いほど、ユーザが気付きやすい色を表示することで、確信度に応じた表示を行うことができる。また、表示制御部134は、部位検知マップにおいて、検知結果が指定されると、指定された検知結果に対応する検査画像を表示する。さらに、表示制御部134は、複数の部位の全ての部位が未検知である検知結果が走査方向(時刻t方向)に連続する場合に、走査が不良である旨を表示する。
言い換えると、表示制御部134は、検知結果に基づき、検査対象に含まれる複数の部位それぞれの検知結果を走査と対応付けた部位検知マップを表示する。また、表示制御部134は、検知結果が未検知の部位、および、検知結果の確信度が所定値より低い部位のうち、いずれか1つ以上の部位が走査において所定区間以上連続する場合に、部位検知マップにおける部位に対応する部分を強調して表示する。ここで、所定区間は、例えば、時刻t=6以上に対応する走査方向の区間とすることができる。また、表示制御部134は、複数の部位の全ての部位が未検知である検知結果について、部位検知マップの検知結果に対応する部分を強調して表示する。また、表示制御部134は、検知結果について、未検知、および、検知結果の確信度に応じて異なる態様で表示する。また、表示制御部134は、部位検知マップにおいて、検知結果が指定されると、指定された検知結果に対応する超音波検査画像を表示する。また、表示制御部134は、複数の部位の全ての部位が未検知である検知結果が連続する場合に、走査が不良である旨を表示する。
ここで、図8から図12を用いて、様々なパターンの部位検知マップについて説明する。図8は、正常パターンの部位検知マップの一例を示す図である。図8に示す部位検知マップ40は、正常パターンである部位検知マップの一例である。図8に示す部位検知マップ40は、確信度マップD(h,t)の値について、要素hである部位を縦軸、時刻tに対応する断面(検査画像)を横軸にしたものである。部位検知マップ40は、「部位A」〜「部位F」がある程度の断面(検査画像)に跨って十分な確信度で検知されていることを表す。なお、各断面における各部位の確信度は、図2に示す部位検知マップ13と同様に、十分な確信度で検知した部位を「○」で表し、不十分な確信度で検知した部位を「△」で表し、未検知を「×」で表している。また、「断面6」では、全ての部位が検知されていないが、前後の断面では部位が検知されているため、検査対象の異常ではなく、「断面6」の検査画像の画質の問題である可能性が高い。このため、検査支援装置100は、例えば枠41を表示して「断面6」の列を強調表示することで、検査の補助を行うことができる。
図9は、異常パターンの部位検知マップの一例を示す図である。図9に示す部位検知マップ42は、異常パターンである部位検知マップの一例である。図9に示す部位検知マップ42は、確信度マップD(h,t)の値について、要素hである部位を縦軸、時刻tに対応する断面(検査画像)を横軸にしたものである。部位検知マップ42では、「部位A」と「部位C」〜「部位F」とは、ある程度の断面(検査画像)に跨って十分な確信度で検知されているが、「部位B」がある程度の断面(検査画像)に跨って検知されていない状態を表す。従って、部位検知マップ42では、「部位B」に関連した異常がある可能性が高い。このため、検査支援装置100は、例えば枠43を表示して「部位B」の行を強調表示することで、検査の補助を行うことができる。また、検査支援装置100は、検査において着目する部位の行を強調表示するようにしてもよい。なお、部位検知マップ42では、部位検知マップ40と同様に「断面6」について、枠41を表示して「断面6」の列を強調表示することで、検査の補助を行うことができる。
図10は、異常パターンの部位検知マップの他の一例を示す図である。図10に示す部位検知マップ44は、部位検知マップ42とは異なるパターンの異常パターンである部位検知マップの一例である。図10に示す部位検知マップ44は、確信度マップD(h,t)の値について、要素hである部位を縦軸、時刻tに対応する断面(検査画像)を横軸にしたものである。部位検知マップ44では、「部位A」と「部位C」〜「部位F」とは、ある程度の断面(検査画像)に跨って十分な確信度で検知されているが、「部位B」がある程度の断面(検査画像)に跨って確信度が低い状態で検知されていること表す。つまり、部位検知マップ44では、「部位B」の形やテクスチャ等が正常の場合と異なるので、「部位B」に関連した異常がある可能性が高い。このため、検査支援装置100は、例えば枠45を表示して「部位B」の行を強調表示することで、検査の補助を行うことができる。なお、部位検知マップ44では、部位検知マップ40と同様に「断面6」について、枠41を表示して「断面6」の列を強調表示することで、検査の補助を行うことができる。
図11は、判定不能パターンの部位検知マップの一例を示す図である。図11に示す部位検知マップ46は、判定不能パターンである部位検知マップの一例である。図11に示す部位検知マップ46は、確信度マップD(h,t)の値について、要素hである部位を縦軸、時刻tに対応する断面(検査画像)を横軸にしたものである。部位検知マップ46では、「断面3」、「断面4」において各部位が検知されているものの、他の断面においては検知されていない。検査支援装置100は、このように、部位が検知されている断面の数が著しく少ない場合、判定不能であるとして、例えば、プローブ110の走査が不良である旨を表示部111に表示する。
図12は、判定不能パターンの部位検知マップの他の一例を示す図である。図12に示す部位検知マップ47は、部位検知マップ46とは異なる判定不能パターンである部位検知マップの一例である。図12に示す部位検知マップ47は、確信度マップD(h,t)の値について、要素hである部位を縦軸、時刻tに対応する断面(検査画像)を横軸にしたものである。部位検知マップ47では、「断面5」、「断面6」において各部位が検知されていない断面が連続している。検査支援装置100は、このように、大多数の部位が検知されない断面が持続的に続いている場合、判定不能であるとして、例えば、プローブ110の走査が不良である旨を表示部111に表示する。
続いて、図13から図18を用いて、胎児の心臓を検査対象とした場合の部位検知マップ、超音波検査画像、超音波検査画像における部位の検知結果の例について説明する。図13は、部位検知マップの一例を示す図である。図13に示す部位検知マップ48は、確信度マップD(h,t)の値について、要素hを縦軸、時刻tを横軸にしたものである。部位検知マップ48では、図8から図12の「○」、「△」、「×」といった印に変えて、グレースケールで確信度マップD(h,t)の値を表している。部位検知マップ48では、例えば、未検知、検知(確信度20%未満)、検知(確信度20%以上)の3段階で表している。なお、部位検知マップ48は、未検知をグレーとし、検知(確信度20%未満)と検知(確信度20%以上)とを異なる色、例えば、白色と青色とで表すようにしてもよい。ここで、枠49で示す断面の235番から285番までを抜粋して超音波検査画像および部位の検知結果について説明する。
図14は、超音波検査画像の一例を示す図である。図14では、図13で抜粋した断面のうち、235番、245番、255番、265番、275番および285番の超音波検査画像を表す。これらの超音波検査画像では、245番、255番の断面に渡って、影がかかっていることがわかる。
図15は、部位の検知結果の一例を示す図である。図15では、図14の超音波検査画像のうち、235番、255番および275番についての部位の検知結果を示す。235番では、脊椎26、下行大動脈27、右心室31、右心房32、左心室33、左心房34、心室中隔35および心交差36が検知されている。255番では、脊椎26、下行大動脈27、右心室31、右心房32および心室中隔35が検知されている。つまり、255番では、影の影響により、左心室33、左心房34および心交差36が検知されていない。275番では、脊椎26、下行大動脈27、右心室31、右心房32、左心室33、左心房34、心室中隔35および心交差36が検知されている。
従って、部位検知マップ48の抜粋部分である235番から285番までの断面では、255番における未検知の部位が、255番の前後の断面で検知されているので、各部位は正常であることがわかる。つまり、245番、255番の断面の影は、プローブ110の走査の影響によるものであることがわかる。なお、検査支援装置100は、プローブ110の走査中に表示部111に表示するモニタ用の超音波検査画像に対して、図15に示すような部位の検知結果の枠をリアルタイムに表示するようにしてもよい。また、検査支援装置100は、図15に示すような部位の検知結果の枠に、例えば部位の名称等のラベルを表示するようにしてもよい。
図16は、部位検知マップの他の一例を示す図である。図16に示す部位検知マップ50は、図13の部位検知マップ48と同様に、確信度マップD(h,t)の値について、要素hを縦軸、時刻tを横軸にしたものである。部位検知マップ50は、代表的な先天性心疾患であるファロー四徴症の検知結果を表したものである。部位検知マップ50では、ファロー四徴症の症状を反映し、心交差36の欠損(心室中隔35の穴)と、肺動脈37の欠損を読み取ることができる。心交差36の欠損に対応する断面は、例えば131番が挙げられる。また、肺動脈37の欠損に対応する断面は、例えば212番が挙げられる。
図17は、超音波検査画像の他の一例を示す図である。図17では、図16の131番および212番に対応する超音波検査画像を表す。131番では、心交差36が欠損していることがわかる。また、212番では、肺動脈37が狭窄により細くなっていることがわかる。なお、異常部位と各疾患との関係は、例えば、異常部位が心交差36である場合、完全型・不完全型房室中隔欠損症およびファロー四徴症(TOF)に対応する。例えば、異常部位が心交差36および心室中隔35である場合、左室型単心室症に対応する。例えば、異常部位が左心房34である場合、純型肺動脈閉塞症およびEbstain奇形に対応する。例えば、異常部位が肺動脈37である場合、僧帽弁閉鎖症に対応する。例えば、異常部位が下行大動脈27および脊椎26である場合、完全大血管転位症、総動脈幹症およびファロー四徴症(TOF)に対応する。
図18は、部位の検知結果の他の一例を示す図である。図18では、図17の131番および212番についての部位の検知結果を示す。131番では、下行大動脈27、右心室31、右心房32、左心室33、左心房34、心室中隔35および上行大動脈38が検知されている。これに対し、131番では、心交差36は欠損しているため検知されていない。212番では、下行大動脈27および上行大動脈38が検知されている。これに対し、212番では、肺動脈37は狭窄により細くなっているため検知されていない。つまり、部位検知マップ50から、心交差36と肺動脈37の欠損とが読み取れることに対し、対応する超音波検査画像においても欠損が認められることがわかる。
次に、実施例1の検査支援装置100の動作について説明する。図19は、実施例1の検査支援処理の一例を示すフローチャートである。
取得部131は、動画像の取得の開始が指示されると、プローブ110から取得した受信データに基づいて、動画像の取得を開始する(ステップS1)。取得部131は、取得した動画像を画像記憶部121に記憶するとともに、判定部132に出力する。
判定部132は、取得部131から動画像が入力されると、入力された動画像から1フレームの検査画像m_tを抽出する(ステップS2)。判定部132は、抽出した検査画像m_tから物体データR_tを算出する(ステップS3)。判定部132は、検査画像m_tに検査対象の物体の構造H(心臓)が映っていると判定した場合には、時刻tを時刻集合T_Rに追加する(ステップS4)。判定部132は、算出した物体データR_tと、時刻集合T_Rとを物体データ記憶部122に記憶する。また、判定部132は、抽出した検査画像m_tを検知部133に出力する。
検知部133は、判定部132から検査画像m_tが入力されると、学習モデル記憶部123を参照し、入力された検査画像m_tに対して、学習モデルを用いて物体の構造H(心臓)の各要素h(部位)の検知を行う。つまり、検知部133は、検査画像m_tから部位検知データD_tを算出する(ステップS5)。検知部133は、算出した部位検知データD_tを部位検知データ記憶部124に記憶するとともに、終了判定指示を判定部132に出力する。
判定部132は、検知部133から終了判定指示が入力されると、動画像が終了したか否かを判定する(ステップS6)。判定部132は、動画像が終了していないと判定した場合には(ステップS6:否定)、時刻tを1つ進めて、つまり動画像を1フレーム進めて、ステップS2に戻る。一方、判定部132は、動画像が終了したと判定した場合には(ステップS6:肯定)、生成指示を表示制御部134に出力する。
表示制御部134は、判定部132から生成指示が入力されると、物体データ記憶部122を参照し、時刻集合T_Rを取得する。また、表示制御部134は、部位検知データ記憶部124を参照し、時刻集合T_Rに対応する部位検知データDを取得する。表示制御部134は、時刻集合T_Rおよび部位検知データDに基づいて、部位検知マップを生成する(ステップS7)。表示制御部134は、生成した部位検知マップを表示部111に出力して表示させる(ステップS8)。これにより、検査支援装置100は、異常の有無が容易に判断可能な部位検知マップを提供できる。また、検査支援装置100は、走査の精度が十分でなかったり、検査対象が時間的に大きく変化するものであっても、部位の検知結果(物体認識結果)を経時的に表示することにより、診断に有用な情報とすることができる。また、検査支援装置100は、部位検知マップを用いて検査対象の動画像全体における各部位の検知具合を一覧することができるため、確認に要する時間を削減することができる。また、検査支援装置100は、ユーザ(検者)の技能によらずに部位を特定できるため、ユーザによる検査結果のばらつきを抑えることができる。
本実施例を従来の超音波検査と比較すると、従来の超音波検査では、ある特定の部位が正常に二次元走査断面の画像に写り込んでいるかどうかで検査が行われることがある。この検査の二次元走査断面の画像は、ノイズ、影、検査対象の動き等で画質が安定しないため、直接部位を検出することは困難である。これに対し、本実施例の検査支援装置100では、複数の超音波検査画像それぞれについて、物体検知技術を用いた部位の検知を行い、検査対象に含まれる複数の部位それぞれの検知結果を走査と対応付けた部位検知マップを表示する。これにより、検者は、部位検知マップを参照することで、容易に検査を行うことができる。
ここで、本実施例による検査支援装置100を用いた超音波検査を従来の超音波検査と比較する。例えば、従来の超音波検査では、複数の部位を超音波による二次元走査断面の画像から確認することにより検査が行われることがある。超音波検査による二次元走査断面の画像は、ノイズ、腕などによる影、心臓の拍動などの検査対象の動き等の複数の要因により、画像の映り込む内容や画質が安定しない。すなわち、検者は、二次元走査断面による複数の画像のうち、複数の部位を確認することができる一または複数の画像から、複数の部位をそれぞれ確認する必要がある。このため、従来の超音波検査では、複数の部位をそれぞれ確認するために適切な画像を特定し、特定した画像から部位の状況を確認する熟練の作業が必要であり、適切な検査結果を得るためには検者の技能に頼る必要があった。
これに対し、本実施例の検査支援装置100では、複数の超音波検査画像それぞれについて、物体検知技術を用いた部位の検知を行い、検査対象に含まれる複数の部位それぞれの検知結果を走査と対応付けた部位検知マップを表示する。これを利用した超音波検査により、検者は、部位検知マップを参照することで、複数の部位を確認することができる画像の特定が不要となる。このため、熟練の検者でなくても安定した品質の検査を行うことができる。また、事後的に検査データを第三者が確認する場合、検査データが超音波検査の二次元操作断面の動画であっても、部位検知マップを参照することで、動画像の再生および確認を行うことなく、検査の確認を行うことができる。
このように、検査支援装置100は、検査対象について走査により取得された複数の超音波検査画像それぞれについて、物体検知技術を用いた部位の検知を行う。また、検査支援装置100は、検知結果に基づき、検査対象に含まれる複数の部位それぞれの検知結果を走査と対応付けた部位検知マップを表示する。その結果、検査支援装置100は、異常の有無が容易に判断可能な部位検知マップを提供できる。
また、検査支援装置100は、検知結果が未検知の部位、および、検知結果の確信度が所定値より低い部位のうち、いずれか1つ以上の部位が走査において所定区間以上連続する場合に、部位検知マップにおける部位に対応する部分を強調して表示する。その結果、検査支援装置100は、異常の可能性が高い部位を教示できる。
また、検査支援装置100は、複数の部位の全ての部位が未検知である検知結果について、部位検知マップの検知結果に対応する部分を強調して表示する。その結果、検査支援装置100は、走査の不良の可能性が高い検知結果(検査画像)を教示できる。
また、検査支援装置100は、検知結果について、未検知、および、検知結果の確信度に応じて異なる態様で表示する。その結果、検査支援装置100は、一覧性の高い部位検知マップを提供できる。
また、検査支援装置100は、部位検知マップにおいて、検知結果が指定されると、指定された検知結果に対応する超音波検査画像を表示する。その結果、検査支援装置100は、部位検知マップにおいて異常の可能性が高い検知結果に対応する超音波検査画像を表示できる。
また、検査支援装置100は、複数の部位の全ての部位が未検知である検知結果が連続する場合に、走査が不良である旨を表示する。その結果、検査支援装置100は、再走査を促すことができる。
また、検査支援装置100では、走査は、順方向の走査である。その結果、検査支援装置100は、順方向の走査に応じた部位検知マップを表示することができる。
また、検査支援装置100では、走査は、スライド走査、回転走査、扇状走査または振り子走査、あるいは、これらの組み合わせである。その結果、検査支援装置100は、走査方法に応じた部位検知マップを表示することができる。
ここで、従来のCTやMRI等でのスキャン結果に基づく任意の切断面の情報を提示する技術と、本実施例の部位検知マップを生成・表示する技術とを対比して説明する。
CTやMRI等でのスキャン結果から切断面の情報を提示する場合、3次元モデルを生成するのに十分な精度の測定データが必要である。さらに、これらの技術では、測定データが時間的に大きく変化しないことが求められる。一方、超音波検査からは、そのような十分な精度の測定データを得ることは困難であり、従来技術により切断面の情報を提示するための3次元モデルを構成することが困難である。
一方、本実施例の検査支援装置100では、複数の超音波検査画像それぞれについて、物体検知技術を用いた部位の検知を行い、検査対象に含まれる複数の部位それぞれの検知結果を走査と対応付けた部位検知マップを表示することができる。
上記実施例1では、検査対象として胎児の心臓を一例として説明したが、超音波検査が可能な物体であれば適用でき、例えば半導体パッケージを検査対象としてもよく、この場合の実施の形態につき、実施例2として説明する。なお、実施例2では、実施例1の検査支援装置100と検査対象が異なるのみであるので、検査対象に関する説明を行い、重複する構成および動作の説明については省略する。
近年の半導体パッケージでは、三次元実装技術の発展等によって、SiP(System in Package)と呼ばれる多くのチップ類(コンポーネント)が同じパッケージに実装されることが増加している。この様な半導体パッケージは、内部構造が複雑化しているため、従来の超音波検査による探傷に留まらず、内部構造の実装の状況も確認することが求められている。
図20は、実施例2の検査対象および検査方法の一例を示す図である。図20に示すパッケージ60は、半導体パッケージの一例である。パッケージ60は、基板61の上に複数のチップ62が実装され、パッケージ樹脂63で封止されている。実施例2では、パッケージ60を水槽64に沈め、水槽64の水面に対して平行にプローブ65を動かすことで、検査画像を取得する。なお、プローブ65は、検査支援装置100のプローブ110に対応する。
実施例2では、検査支援装置100は、パッケージ60の設計図に基づいて、物体データR_tを算出する。つまり、実施例2では、検査支援装置100は、パッケージ60の設計図に基づいて、断面である検査画像m_tに映っているべきコンポーネントの種類と、時刻tとを求めて物体データR_tを算出する。また、検査支援装置100は、コンポーネントが映っているべき区間ごとに、時刻集合T_Rを求める。なお、物体データR_tの算出は、実施例1と同様であるので、その説明を省略する。
図21は、映っているべきコンポーネントの一例を示す図である。図21に示すように、パッケージ60の平面図66には、映っているべきコンポーネントとして、複数のチップ62a,62b,62cがあるものとする。実施例2では、断面67をプローブ走査方向に移動させた場合に、チップ62a,62b,62cについて、部位検知マップ、つまり確信度マップD(h,t)を生成する。実施例2では、チップ62aが断面67に現れる箇所から、断面67からチップ62bが消える箇所までの区間に対応する時刻tを時刻集合T_Rとする。
検査支援装置100は、検査画像m_tから部位検知データD_tを算出する。検査支援装置100は、時刻集合T_R、および、時刻集合T_Rに対応する部位検知データDに基づいて、部位検知マップ、つまり確信度マップD(h,t)を生成する。表示制御部134は、生成した部位検知マップを表示部111に出力して表示させる。なお、部位検知データD_tの算出は、実施例1と同様であるので、その説明を省略する。
図22は、実施例2の部位検知マップの一例を示す図である。図22に示す部位検知マップ68は、パッケージ60の平面図66に対応する部位検知マップの一例である。図22に示す部位検知マップ68は、確信度マップD(h,t)の値について、要素hであるチップを縦軸、時刻tに対応する断面(検査画像)を横軸にしたものである。図22に示すように、部位検知マップ68では、チップ62a,62b,62cのそれぞれについて、各断面の確信度が表示される。このとき、例えば、パッケージ樹脂63内に気泡があった場合、その断面の検査画像だけでは気泡の下になったチップ62は見ることができないが、各断面の確信度を見ることで、当該チップ62があることがわかる。また、部位検知マップ68では、チップ62a,62b,62cのそれぞれの位置の関係性を含めて実装状態が一目で判別できる。このように、実施例2の検査支援装置100は、検査対象が半導体パッケージであっても、超音波検査画像の結果に基づき、部位検知マップ提供することができる。
なお、上記各実施例では、図13,16,20,21において、走査方向を示したが、図示した走査方向に限定されない。例えば、動画像の各フレームを比較することで走査方向を特定し、重複するフレームを除去した所定範囲の検査画像の集合から、物体データR_tと部位検知データD_tとを算出し、所定範囲の部位検知マップを生成するようにしてもよい。
また、上記各実施例では、物体検知アルゴリズムとして、YOLO、SSD、Faster−RNNを一例として挙げたが、これに限定されない。例えば、DPM、Fast−RNNなど様々なニューラルネットワークを用いた物体検知アルゴリズムを用いることができる。また、学習の手法も、誤差逆伝播以外にも公知の様々な手法を採用することができる。また、ニューラルネットワークは、例えば入力層、中間層(隠れ層)、出力層から構成される多段構成であり、各層は複数のノードがエッジで結ばれる構造を有する。各層は、「活性化関数」と呼ばれる関数を持ち、エッジは「重み」を持ち、各ノードの値は、前の層のノードの値、接続エッジの重みの値、層が持つ活性化関数から計算される。なお、計算方法については、公知の様々な手法を採用できる。また、機械学習としては、ニューラルネットワーク以外にも、SVM(support vector machine)等の各種手法を用いてもよい。
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、判定部132と検知部133とを統合してもよい。また、図示した各処理は、上記の順番に限定されるものでなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。
さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。
ところで、上記の各実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の各実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図23は、検査支援プログラムを実行するコンピュータの一例を示す図である。
図23に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置204と、各種装置と接続するためのインタフェース装置205と、他の情報処理装置等と有線または無線により接続するための通信装置206とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM207と、ハードディスク装置208とを有する。また、各装置201〜208は、バス209に接続される。
ハードディスク装置208には、図1に示した取得部131、判定部132、検知部133および表示制御部134の各処理部と同様の機能を有する検査支援プログラムが記憶される。また、ハードディスク装置208には、画像記憶部121、物体データ記憶部122、学習モデル記憶部123、部位検知データ記憶部124、および、検査支援プログラムを実現するための各種データが記憶される。入力装置202は、例えば、コンピュータ200のユーザから操作情報等の各種情報の入力を受け付ける。モニタ203は、例えば、コンピュータ200のユーザに対して表示画面等の各種画面を表示する。インタフェース装置205は、例えばプローブ等が接続される。通信装置206は、例えば、図示しないネットワークと接続され、他の情報処理装置と各種情報をやりとりする。
CPU201は、ハードディスク装置208に記憶された各プログラムを読み出して、RAM207に展開して実行することで、各種の処理を行う。また、これらのプログラムは、コンピュータ200を図1に示した取得部131、判定部132、検知部133および表示制御部134として機能させることができる。
なお、上記の検査支援プログラムは、必ずしもハードディスク装置208に記憶されている必要はない。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラムを、コンピュータ200が読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD−ROMやDVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこの検査支援プログラムを記憶させておき、コンピュータ200がこれらから検査支援プログラムを読み出して実行するようにしてもよい。
100 検査支援装置
110 プローブ
111 表示部
112 操作部
120 記憶部
121 画像記憶部
122 物体データ記憶部
123 学習モデル記憶部
124 部位検知データ記憶部
130 制御部
131 取得部
132 判定部
133 検知部
134 表示制御部

Claims (10)

  1. 検査対象について走査により取得された複数の超音波検査画像それぞれについて、物体検知技術を用いた部位の検知を行い、
    前記検知結果に基づき、前記検査対象に含まれる複数の部位それぞれの検知結果を前記走査と対応付けた部位検知マップを表示する、
    処理をコンピュータに実行させる検査支援プログラム。
  2. 前記表示する処理は、前記検知結果が未検知の部位、および、前記検知結果の確信度が所定値より低い部位のうち、いずれか1つ以上の部位が前記走査において所定区間以上連続する場合に、前記部位検知マップにおける前記部位に対応する部分を強調して表示する、
    請求項1に記載の検査支援プログラム。
  3. 前記表示する処理は、前記複数の部位の全ての部位が未検知である検知結果について、前記部位検知マップの前記検知結果に対応する部分を強調して表示する、
    請求項1または2に記載の検査支援プログラム。
  4. 前記表示する処理は、前記検知結果について、未検知、および、前記検知結果の確信度に応じて異なる態様で表示する、
    請求項1〜3のいずれか1つに記載の検査支援プログラム。
  5. 前記表示する処理は、前記部位検知マップにおいて、前記検知結果が指定されると、指定された前記検知結果に対応する前記超音波検査画像を表示する、
    請求項1〜4のいずれか1つに記載の検査支援プログラム。
  6. 前記表示する処理は、前記複数の部位の全ての部位が未検知である検知結果が連続する場合に、前記走査が不良である旨を表示する、
    請求項1に記載の検査支援プログラム。
  7. 前記走査は、順方向の走査である、
    請求項1〜6のいずれか1つに記載の検査支援プログラム。
  8. 前記走査は、スライド走査、回転走査、扇状走査または振り子走査、あるいは、これらの組み合わせである、
    請求項1〜7のいずれか1つに記載の検査支援プログラム。
  9. 検査対象について走査により取得された複数の超音波検査画像それぞれについて、物体検知技術を用いた部位の検知を行い、
    前記検知結果に基づき、前記検査対象に含まれる複数の部位それぞれの検知結果を前記走査と対応付けた部位検知マップを表示する、
    処理をコンピュータが実行する検査支援方法。
  10. 検査対象について走査により取得された複数の超音波検査画像それぞれについて、物体検知技術を用いた部位の検知を行う検知部と、
    前記検知結果に基づき、前記検査対象に含まれる複数の部位それぞれの検知結果を前記走査と対応付けた部位検知マップを表示する表示制御部と、
    を有する検査支援装置。
JP2018157844A 2018-08-24 2018-08-24 検査支援プログラム、検査支援方法および検査支援装置 Active JP7149516B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018157844A JP7149516B2 (ja) 2018-08-24 2018-08-24 検査支援プログラム、検査支援方法および検査支援装置
US16/544,924 US11291431B2 (en) 2018-08-24 2019-08-20 Examination assisting method, examination assisting apparatus, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018157844A JP7149516B2 (ja) 2018-08-24 2018-08-24 検査支援プログラム、検査支援方法および検査支援装置

Publications (2)

Publication Number Publication Date
JP2020028680A true JP2020028680A (ja) 2020-02-27
JP7149516B2 JP7149516B2 (ja) 2022-10-07

Family

ID=69584029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018157844A Active JP7149516B2 (ja) 2018-08-24 2018-08-24 検査支援プログラム、検査支援方法および検査支援装置

Country Status (2)

Country Link
US (1) US11291431B2 (ja)
JP (1) JP7149516B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021192781A1 (ja) * 2020-03-24 2021-09-30
JP2022513225A (ja) * 2018-12-17 2022-02-07 コーニンクレッカ フィリップス エヌ ヴェ フレームのインデックス付け及び画像レビューのためのシステム及び方法
EP4102456A1 (en) 2021-06-10 2022-12-14 Fujitsu Limited Calculation program, calculation method, and calculation device
JP7490533B2 (ja) 2020-10-30 2024-05-27 株式会社東芝 超音波画像処理装置および超音波画像処理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7149516B2 (ja) * 2018-08-24 2022-10-07 富士通株式会社 検査支援プログラム、検査支援方法および検査支援装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008264167A (ja) * 2007-04-19 2008-11-06 Toshiba Corp 画像リスト表示装置、画像リスト表示方法、及び画像リスト表示プログラム
JP2014004149A (ja) * 2012-06-25 2014-01-16 Toshiba Corp 超音波診断装置および超音波診断装置制御プログラム
JP2015112450A (ja) * 2013-12-16 2015-06-22 日立アロカメディカル株式会社 超音波診断装置及びプログラム
JP2017023347A (ja) * 2015-07-21 2017-02-02 コニカミノルタ株式会社 超音波画像処理装置及びプログラム
WO2017158998A1 (ja) * 2016-03-14 2017-09-21 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
JP2018079000A (ja) * 2016-11-15 2018-05-24 株式会社日立製作所 超音波診断装置、及び画像処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL302332A (ja) * 1963-01-02
US7556602B2 (en) * 2000-11-24 2009-07-07 U-Systems, Inc. Breast cancer screening with adjunctive ultrasound mammography
WO2007137411A1 (en) * 2006-05-26 2007-12-06 Queen's University At Kingston Method for improved ultrasonic detection
US20090062624A1 (en) * 2007-04-26 2009-03-05 Thomas Neville Methods and systems of delivering a probability of a medical condition
CA2821395A1 (en) * 2010-12-17 2012-06-21 Aarhus Universitet Method for delineation of tissue lesions
WO2013177061A1 (en) * 2012-05-21 2013-11-28 The Regents Of The University Of Colorado, A Body Corporate Three-dimensional mapping and therapy of prostate cancer
US10140421B1 (en) * 2017-05-25 2018-11-27 Enlitic, Inc. Medical scan annotator system
US11424027B2 (en) * 2017-12-28 2022-08-23 Cilag Gmbh International Method for operating surgical instrument systems
JP7149516B2 (ja) * 2018-08-24 2022-10-07 富士通株式会社 検査支援プログラム、検査支援方法および検査支援装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008264167A (ja) * 2007-04-19 2008-11-06 Toshiba Corp 画像リスト表示装置、画像リスト表示方法、及び画像リスト表示プログラム
JP2014004149A (ja) * 2012-06-25 2014-01-16 Toshiba Corp 超音波診断装置および超音波診断装置制御プログラム
JP2015112450A (ja) * 2013-12-16 2015-06-22 日立アロカメディカル株式会社 超音波診断装置及びプログラム
JP2017023347A (ja) * 2015-07-21 2017-02-02 コニカミノルタ株式会社 超音波画像処理装置及びプログラム
WO2017158998A1 (ja) * 2016-03-14 2017-09-21 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法
JP2018079000A (ja) * 2016-11-15 2018-05-24 株式会社日立製作所 超音波診断装置、及び画像処理装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022513225A (ja) * 2018-12-17 2022-02-07 コーニンクレッカ フィリップス エヌ ヴェ フレームのインデックス付け及び画像レビューのためのシステム及び方法
JP7427002B2 (ja) 2018-12-17 2024-02-02 コーニンクレッカ フィリップス エヌ ヴェ フレームのインデックス付け及び画像レビューのためのシステム及び方法
JPWO2021192781A1 (ja) * 2020-03-24 2021-09-30
WO2021192781A1 (ja) * 2020-03-24 2021-09-30 富士フイルム株式会社 超音波診断装置、超音波診断装置の制御方法および超音波診断装置用プロセッサ
JP7288550B2 (ja) 2020-03-24 2023-06-07 富士フイルム株式会社 超音波診断装置、超音波診断装置の制御方法および超音波診断装置用プロセッサ
JP7490533B2 (ja) 2020-10-30 2024-05-27 株式会社東芝 超音波画像処理装置および超音波画像処理方法
EP4102456A1 (en) 2021-06-10 2022-12-14 Fujitsu Limited Calculation program, calculation method, and calculation device

Also Published As

Publication number Publication date
US11291431B2 (en) 2022-04-05
US20200060659A1 (en) 2020-02-27
JP7149516B2 (ja) 2022-10-07

Similar Documents

Publication Publication Date Title
Nyrnes et al. Blood speckle-tracking based on high–frame rate ultrasound imaging in pediatric cardiology
JP7149516B2 (ja) 検査支援プログラム、検査支援方法および検査支援装置
Sjøli et al. Diagnostic capability and reproducibility of strain by Doppler and by speckle tracking in patients with acute myocardial infarction
JP5596063B2 (ja) 心臓mモード像の自動分析
Galderisi et al. Recommendations of the European Association of Echocardiography How to use echo-Doppler in clinical trials: different modalities for different purposes
KR101565311B1 (ko) 3 차원 심초음파 검사 데이터로부터 평면들의 자동 검출
Simpson et al. Three-dimensional echocardiography in congenital heart disease
US20060210130A1 (en) Ultrasonic doppler system for determining movement of artery walls
BR112015025074B1 (pt) Sistema de imageamento por ultrassom e método para gerar e avaliar vistas bidimensionais padrão a partir de dados de volume ultrassônico tridimensional
KR20170016461A (ko) 메디컬 이미징에서 공간 및 시간 제약들을 이용하는 랜드마크 검출
JP2020028679A (ja) 異常判別プログラム、異常判別方法および異常判別装置
JP2003250804A (ja) 画像処理装置及び超音波診断装置
JP5611546B2 (ja) 自動診断支援装置、超音波診断装置及び自動診断支援プログラム
JP4327139B2 (ja) 画像処理方法および画像処理プログラム
Patra et al. Multi-anatomy localization in fetal echocardiography videos
CN111448614B (zh) 用于分析超声心动图的方法和装置
EP4129197A1 (en) Computer program, information processing method, information processing device, and method for generating model
WO2022071264A1 (ja) プログラム、モデル生成方法、情報処理装置及び情報処理方法
Storve et al. Realtime automatic assessment of cardiac function in echocardiography
Wheeler et al. Right ventricular assessment in adult congenital heart disease patients with right ventricle–to–pulmonary artery conduits
US20230346339A1 (en) Systems and methods for imaging and measuring epicardial adipose tissue
WO2022071265A1 (ja) プログラム、情報処理装置及び情報処理方法
Hlavacek et al. Feasibility and Utility of Three‐Dimensional Color Flow Echocardiography of the Aortic Arch: The “Echocardiographic Angiogram”
Bellows et al. Validation of a computerized technique for automatically tracking and measuring the inferior vena cava in ultrasound imagery
US20230240645A1 (en) Systems and methods for measuring cardiac stiffness

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20190408

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220915

R150 Certificate of patent or registration of utility model

Ref document number: 7149516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150