JP7163195B2 - 人工知能ネットワークを活用した超音波画像認識システムと方法 - Google Patents

人工知能ネットワークを活用した超音波画像認識システムと方法 Download PDF

Info

Publication number
JP7163195B2
JP7163195B2 JP2018567018A JP2018567018A JP7163195B2 JP 7163195 B2 JP7163195 B2 JP 7163195B2 JP 2018567018 A JP2018567018 A JP 2018567018A JP 2018567018 A JP2018567018 A JP 2018567018A JP 7163195 B2 JP7163195 B2 JP 7163195B2
Authority
JP
Japan
Prior art keywords
ultrasound
ultrasound image
image recognition
images
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018567018A
Other languages
English (en)
Other versions
JP2019509871A (ja
JP2019509871A5 (ja
Inventor
ニコラオス パグーラートス、
ラーマチャンドラ ペイルーア、
ケビン グッドウィン、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EchoNous Inc
Original Assignee
EchoNous Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EchoNous Inc filed Critical EchoNous Inc
Publication of JP2019509871A publication Critical patent/JP2019509871A/ja
Publication of JP2019509871A5 publication Critical patent/JP2019509871A5/ja
Application granted granted Critical
Publication of JP7163195B2 publication Critical patent/JP7163195B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply
    • A61B8/565Details of data transmission or power supply involving data transmission via a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physiology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

関連出願への相互参照
本出願は、2016年3月9日に出願された米国仮出願第62/305,980号、および2016年3月25日に出願された米国仮出願第62/313,601号に基づく、35U.S.C第119条(e)に定められた優先権を主張し、これらの出願は、その内容全体を参照することにより本願に組み込まれる。
背景
(技術分野)
この開示は、一般的には超音波撮像システム(ultrasound imaging systems)と方法に関し、より詳細には、超音波撮像ならびに超音波画像の評価、および患者の1つまたは複数の器官(organs)についての臨床的に望ましい見え方(view)を表す超音波画像が取得されたか否かを判定するシステムならびに方法に用いられる、人工知能に基づくネットワーク(artificial intelligence based networks)に関する。
(関連技術の記述)
超音波撮像(Ultrasound imaging)は、典型的には臨床現場において、訓練された超音波熟練者により行われる。超音波画像診断には、器官や他の組織や身体の特徴(たとえば体液や骨や関節など)の特定の見え方が臨床的に重要である。このような見え方は、対象器官や診断目的などによって、超音波技師によってキャプチャされる(captured)見え方として、臨床標準によって規定されている場合がある。超音波技師には、一般に、超音波撮像設備を適切に操作するための、また患者の器官や他の組織や身体の特徴について取得された画像または見え方が、いつ臨床的に望ましい見え方を適切に表しているかを見分けるための、特別な訓練が求められる。それにもかかわらず、超音波技師によってキャプチャされた超音波画像は、典型的には、キャプチャされた画像が臨床的に望ましいかまたは標準的な見え方を十分に表しているか否かを判定するために、医師によって再検討されている。
従来の超音波撮像システムは、病院や同様の臨床現場における大部分の患者には適しているかもしれないが、このようなシステムには、操作の面と、臨床的に望ましい見え方を適切にキャプチャするための著しい訓練が必要となる。熟練した専門家しか従来の超音波撮像装置(ultrasound imaging devices)を適切に動作させることができないので、このことは、このような超音波撮像の全体的なコストを増大させ、さらに、超音波撮像の患者への利用可能性を制限してしまう。
簡単な要約
本開示は、超音波画像認識(ultrasound image recognition)を容易にする超音波システムおよび方法を提供する。特に、この超音波システムおよび方法は、超音波撮像装置によって取得された超音波画像が、患者の1つまたは複数の器官や組織や身体の特徴に関して既知の、臨床的に望ましい見え方に対応しているか否かを判定するように動作可能である。超音波撮像装置によってキャプチャされた超音波画像に関してそのような判定を行うために、人工知能の手法(Artificial intelligence approaches)が超音波画像認識モジュール(ultrasound image recognition module)において用いられる。
一実施形態では、超音波撮像装置と超音波画像認識モジュールとを含む超音波システム(ultrasound system)が提供される。超音波撮像装置は、患者の超音波画像を取得するように構成されている。超音波画像認識モジュールは、取得された超音波画像(acquired ultrasound images)を超音波撮像装置から受信し、受信された超音波画像が器官や他の身体の特徴に関して臨床的に望ましい見え方を表しているか否かを判定するように構成されている。そして、臨床的に望ましい見え方がキャプチャされたか否かを示すために、視覚的な(visual)または可聴的な(audible)合図(cue)を用いるような、正または負のフィードバックが使用者に提供されてよい。臨床的に望ましい見え方がキャプチャされたか否かの判定においてシステムを補助するために、使用者は、画像キャプチャプロセス(image capture process)の前または最中に、使用者がキャプチャしたい特定の画像の透視図(perspective)または見え方を識別し、そしてシステムはこの入力を、望ましい見え方が実際にキャプチャされているか否かの識別を補助するために用いることができる。
別の実施形態では、患者の1つまたは複数の超音波画像を超音波撮像装置によって取得するステップと、取得された患者の超音波画像を超音波画像認識モジュールに送信するステップと、超音波画像認識モジュールによって取得された超音波画像が、器官や他の身体の特徴についての臨床的に望ましい見え方を表しているか否かを判定するステップとを含む方法が提供される。
別の実施形態では、患者の超音波画像を取得するように構成された超音波撮像装置と、取得された超音波画像が器官や他の身体の特徴についての臨床的に望ましい見え方を表しているか否かを判定する超音波画像認識手段とを含む超音波システムが提供される。
本開示は、さらに、超音波画像取得と解釈のための、超音波画像認識を容易にする超音波データ情報システムおよび方法を提供する。特に、超音波データ情報システムおよび方法は、画像取得の状況において、超音波撮像装置によって取得された超音波画像が、1つまたは複数の器官や組織や身体の特徴についての既知の臨床的に望ましい見え方に対応しているか、または、画像解釈の状況において、超音波撮像装置によって取得された超音波画像が特定の病変または正常機能のどちらを示しているかを決定するように動作することができる。人工知能の手法は、患者の超音波画像に関する認識および/または決定を行うように訓練された、中央人工知能(AI)超音波画像認識訓練ネットワーク(central artificial intelligence (AI) ultrasound image recognition training network)で使用される。AI訓練ネットワーク(AI training network)および/またはAI訓練ネットワークによって成長させられた知識(knowledge)は、どこにでも配置されうる多数の超音波撮像装置に供給され、それらによって実装されてよい。したがって、AI訓練ネットワークによって生成された超音波画像知識(ultrasound image knowledge)を利用して、超音波撮像装置は患者の画像を取得し、たとえば、取得された画像が臨床的に望ましい1つまたは複数の見え方を表しているか否かを判定しうる。次いで、超音波撮像装置によって取得された超音波画像は、訓練入力情報(training input information)としてAI訓練ネットワークへ送り返され、これによってAI訓練ネットワークをさらに訓練し、さらなるおよび/または洗練された超音波画像知識を成長させる。
超音波撮像装置は、AI訓練ネットワークから定期的な更新(updates)(たとえば、毎月、毎週、毎日、またはより頻繁に)を受信してよく、したがって、更新のたびに、AI訓練ネットワークに記憶された、直近に成長させられた超音波画像知識を受信する。
少なくとも1つの実施形態では、1つまたは複数のプロセッサを有するコンピュータ装置に少なくとも部分的に記憶された超音波画像認識訓練ネットワークを含む超音波データ情報システムが提供される。超音波画像認識訓練ネットワークは、超音波訓練画像(ultrasound training images)を受信し、受信された超音波訓練画像に基づいて超音波画像知識を成長させるように構成されている。超音波データ情報システムは、患者の超音波画像を取得するように構成された超音波撮像装置と、超音波撮像装置内の超音波画像認識モジュールとをさらに含んでいる。超音波画像認識モジュールは、超音波画像知識を受信し、取得された超音波画像を超音波撮像装置から受信し、超音波画像知識に基づいて、受信された超音波画像が器官またはある種の病変についての臨床的に望ましい見え方を表しているか否かを判定するように構成されている。
別の実施形態では、本開示は、超音波画像認識訓練ネットワークによって超音波訓練画像を受信するステップを含む方法を提供する。本方法はさらに、超音波画像認識訓練ネットワークによって、受信された超音波訓練画像に基づいて超音波画像知識を生成し、超音波画像認識訓練ネットワークとは別個であって離れて位置する超音波撮像装置に送信するステップを含んでいる。このようにして、超音波撮像装置は、患者の超音波画像を取得し、超音波画像知識に基づいて、取得された超音波画像が器官の臨床的に望ましい見え方を表しているか否かを判定しうる。
図1は、本開示の1つまたは複数の実施形態による超音波画像認識システムを示すブロック図である。 図2は、本開示の1つまたは複数の実施形態による超音波画像認識モジュールの訓練を示すブロック図である。 図3は、本開示の1つまたは複数の実施形態による超音波画像認識モジュールによって実装されうるニューラルネットワーク(neural network)を示すブロック図である。 図4は、本開示の1つまたは複数の実施形態による超音波撮像装置の概略図である。 図5は、本開示の1つまたは複数の実施形態による超音波画像認識方法を示すフローチャートである。 図6は、本開示の1つまたは複数の実施形態による超音波データ情報システムを示すブロック図である。 図7は、本開示の1つまたは複数の実施形態による超音波撮像装置を示すブロック図である。 図8は、本開示の1つまたは複数の実施形態による人工知能超音波画像認識訓練ネットワークの訓練を示すブロック図である。 図9は、本開示の1つまたは複数の実施形態による超音波画像認識方法を示すフローチャートである。
詳細な説明
本開示は、超音波画像認識システムおよび方法のいくつかの実施形態を提供する。本明細書で提供されるシステムおよび方法は、非熟練の超音波技師によって実行される超音波撮像および/または非伝統的な臨床現場で行われうるハンドヘルド(handheld)もしくはモバイル型(mobile)の超音波撮像装置を利用する超音波撮像に特に有用でありうる。本明細書で提供されるシステムおよび方法は、人工知能の手法を用いて、取得された超音波画像が患者の器官や他の組織、患者における特徴や関心領域の望ましい見え方を正確に描写または表現しているか否かを判定することができる。そしてこれらのシステムは、患者の器官や他の組織や特徴の望ましい見え方がキャプチャされたか否かを示すために、使用者にフィードバックを提供してもよい。その代わりにまたはそれに加えて、これらのシステムは、使用者がキャプチャしたい患者の器官の特定の見え方に関する使用者からの入力を受け入れてよい。さらに、このシステムは、特定の解剖学的構造の1つまたは複数の特定の見え方を順番にキャプチャしようとするように使用者を誘導し、1つまたは複数の望ましい見え方がキャプチャされたか否かを使用者に確認してよい。
本開示はさらに、超音波撮像のための人工知能ネットワークシステムおよび方法のいくつかの実施形態を提供する。本明細書で提供される人工知能システムおよび方法は、あらゆる技能水準の超音波技師によって実行される超音波撮像、および/または非伝統的な臨床現場で行われうるハンドヘルドもしくはモバイル型の超音波撮像装置を使用する超音波撮像に対して特に有用でありうる。本明細書で提供されるシステムおよび方法は、人工知能の手法を用いて、(i)取得された超音波画像が、たとえば患者の器官や他の組織、患者における特徴もしくは関心領域を含めた構造および/または解剖学的構造の望ましい見え方を、正確にもしくは実質的に正確に描写もしくは表しているか否か、または不正確にもしくは実質的に不正確に描写もしくは表しているか否か、そして(ii)臨床的に望ましい解剖学的見え方を表している取得された画像が、正常な機能または特定の病変のどちらを示しているか、を判定することができる。たとえば、心臓の特定の見え方を実質的に正確に描写または表していると判定された取得済みの超音波画像に基づいて、人工知能の手法はさらに、心臓における僧帽弁(mitral valves)の特定の問題を示しうる。
人工知能超音波画像認識訓練ネットワーク(「AI訓練ネットワーク」("AI training network"))は、クラウドベース(cloud-based)または分散コンピューティングネットワーク(distributed computing network)であってよく、多数の超音波撮像装置にアクセス可能であってよい。AI訓練ネットワークは、既知のまたは臨床的に判定された見え方を表す多数の超音波画像を用いて訓練されてよく、これらの見え方の中で超音波画像は正常または病的な機能を表しうる。訓練プロセスを通じて、AI訓練ネットワークのパラメータは、患者の器官や組織や任意の他の関心領域のような様々な構造の見え方の認識について、および様々な正常な状態ならびに病的な状態について、最適化される。AI訓練ネットワークおよび/またはネットワークパラメータ(network parameters)(たとえば、訓練プロセスを通じてAI訓練ネットワークによって学習された知識)は、取得された超音波画像について認識し、解釈し、および/または判定を行うために、超音波撮像装置によってダウンロードされ、実装されうる。したがって、超音波撮像装置は必ずしも個別に訓練される必要はない(これは計算集約的なプロセス(computationally intensive process)である)。超音波撮像装置によって取得された超音波画像は、AI訓練ネットワークをさらに訓練するための訓練入力として、AI訓練ネットワークに送り返されてよい。
図1は、本開示の実施形態による超音波システム100のブロック図を示した図である。図1に示したように、超音波システム100は、超音波撮像装置110と、通信ネットワーク(communications network)102と、超音波画像認識モジュール120と、画像知識データベース(image knowledge database)122とを含んでいる。これらの各々は、ハンドヘルド装置やポータブル型装置などの単一の超音波装置に組み込まれていてよく、または互いに動作可能にリンクされるかまたはリンク可能な複数の装置を構成していてもよい。
超音波撮像装置110は、患者の超音波画像を取得するように動作可能な任意の超音波装置であり、たとえばハンドヘルド超音波撮像装置であってよい。超音波撮像装置110は、ディスプレイ112と、メモリ114と、1つまたは複数のプロセッサ116とを含んでいてよい。超音波撮像装置110は、超音波プローブ(ultrasound probe)118に動作可能なように接続されている。
メモリ114は、たとえば、読み出し専用メモリ(read-only memory (ROM))、ランダムアクセスメモリ(random access memory (RAM))、フラッシュメモリ(flash memory)、ハードディスクドライブ(hard disk drive)、光学的記憶装置(optical storage device)、磁気記憶装置(magnetic storage device)、電気的消去可能プログラマブル読み出し専用メモリ(electrically erasable programmable read-only memory (EEPROM))、有機記憶媒体(organic storage media)などを含む、任意のコンピュータ可読記憶媒体(computer-readable storage medium)であってよい。
プロセッサ116は、本明細書で説明するような超音波撮像装置110の機能を実行する命令(たとえばメモリ114に記憶された命令)を処理するように動作可能な任意のコンピュータプロセッサであってよい。
超音波プローブ118は、超音波撮像装置110によって駆動され、患者の目標領域に向かって信号を送信し、その送信された信号に応答して目標領域から戻るエコー信号(echo signals)を受信する。動作中、超音波装置110の使用者は、所望の超音波画像を取得するための位置および角度で、患者の身体に対してプローブ118を保持する場合がある。プローブによって受信された信号(すなわちエコー信号)は、超音波撮像装置110へ伝達され、患者の目標領域の超音波画像を形成するか、または形成するように処理されてよい。さらに、超音波画像は、超音波画像および/または任意の他の関連情報を使用者に対して表示しうるディスプレイ112へ供給されてよい。
したがって、超音波撮像装置110によって取得された超音波画像は、通信ネットワーク102を介して超音波画像認識モジュール120へ供給されてよい。超音波撮像装置110から得られた超音波画像は、参照符号101で示したように、超音波画像認識モジュール120へ供給される。通信ネットワーク102は、ローカルエリアネットワーク(local area networks)、無線ネットワーク(wireless networks)、専用線(dedicated lines)、イントラネット(intranets)、インターネット(the Internet)などを含む1つまたは複数の物理ネットワークを介して通信するために1つまたは複数のプロトコルを利用してよい。
1つまたは複数の実施形態では、超音波画像認識モジュール120は超音波撮像装置110内に設けられていてよく、または、超音波画像認識モジュール120の局所的な複製および/もしくは画像知識データベース122に記憶された超音波知識は超音波撮像装置110内に含まれていてよく、この超音波撮像装置110は、たとえば、更新された超音波画像認識アルゴリズムおよび/または知識を受信するための、離れて位置する(たとえば1つまたは複数のサーバコンピュータまたは「クラウド」に記憶された)超音波画像認識モジュール120にアクセスする。
超音波画像認識モジュール120は、超音波撮像装置110から取得された超音波画像を受信し、受信された超音波画像の1つまたは複数が患者の器官または他の態様、領域または特徴についての臨床的に望ましい見え方を表しているか否かを判定する。超音波画像認識モジュール120は、受信された超音波画像が臨床的に望ましい見え方を表しているか否かを判定するために、画像知識データベース122からもたらされる、人工知能を用いた任意の計算機による知的システム(computationally intelligent system)によって実装されてよい。本明細書に記載した、超音波画像認識モジュールによって行われる判定の一部または全部は、たとえば取得された超音波画像の受信に応答して、超音波画像認識モジュール120によって自動的に実行されてよい。
本明細書内の「人工知能」の語は、(たとえば訓練データに基づいて)知識を学習することができ、そして1つまたは複数の問題を解決するための手法を適用させるためにそのような学習された知識を用いることのできる、あらゆる計算機による知的システムおよび方法を広く表すために用いられている。人工知能機械(Artificially intelligent machines)は、画像認識(image recognition)などの問題を解決するために、たとえばニューラルネットワーク(neural network)、深層学習(deep learning)、畳み込みニューラルネットワーク(convolutional neural network)、ベイジアンプログラム学習法(Bayesian program learning techniques)などを用いることがある。さらに、人工知能は、以下に挙げる、制約プログラム(constraint program)、ファジィ論理(fuzzy logic)、クラスタ分析(classification)、従来型の人工知能(conventional artificial intelligence)、記号操作(symbolic manipulation)、ファジィ集合理論(fuzzy set theory)、進化計算(evolutionary computation)、サイバネティックス(cybernetics)、データマイニング(data mining)、近似推論(approximate reasoning)、派生自由最適化(derivative-free optimization)、決定ツリー(decision trees)、および/またはソフトコンピューティング(soft computing)などの計算技法(computational techniques)の任意の1つまたはそれらの組み合わせを含んでいてよい。1つまたは複数の計算機による知的技術(computationally intelligent techniques)を用いることにより、超音波画像認識モジュール120は、より良い性能を得るために学習し、未知の環境および/または変化する環境に適応しうる。
画像知識データベース122は、受信された超音波画像について、超音波画像認識モジュール120による画像解析を容易にするような種々の情報を含んでいてよい。特に、画像知識データベース122は、様々な器官の様々な画像の見え方に関する情報を含んでいてよい。たとえば、画像知識データベース122は、心臓の臨床的に標準的な見え方または望ましい見え方に関連する情報を含んでいてよい。心臓の臨床的に標準的な見え方には、たとえば、胸骨上(suprasternal)、肋骨下(subcostal)、短軸および長軸の傍胸骨(short- and long-axis parasternal)、心尖部2腔(2-chamber apical)、心尖部3腔(3-chamber apical)、心尖部4腔(4-chamber apical)、心尖部5腔(5-chamber apical)の見え方が含まれうる。さらに、臨床的に標準的な見え方に関連する情報は、3次元像(three-dimensional view)、2次元断面像(two-dimensional cross section view)および/または1組の2次元断面像に関連する情報であってよい。画像知識データベース122は、超音波画像認識モジュール120によってアクセス可能な任意のコンピュータ可読記憶媒体に記憶されていてよい。
超音波画像認識モジュール120は、本明細書で説明した種々の機能や動作を実行するように構成されたコンピュータプロセッサ(computer processor)を含むか、さもなければそれによって実行されてよい。たとえば、超音波画像認識モジュール120は、汎用コンピュータもしくは記憶されたコンピュータプログラムによって選択的に起動されるかもしくは再構成された(reconfigured)データプロセッサ(data processor)によって実行されてよく、または本明細書で説明する特徴や動作を実行するために特別に構成されたコンピュータプラットフォーム(computing platform)であってもよい。
図2は、1つまたは複数の実施形態による超音波画像認識モジュール120の訓練を示すブロック図である。超音波画像認識モジュール120は、訓練画像210に基づいて訓練されてよい。訓練画像210は、いかなる超音波画像情報をも含んでいてよい。たとえば、訓練画像210は、心臓のような器官の既知の見え方に関連する様々な超音波画像情報を含んでいてよい。さらなる例として、訓練画像210は、たとえば心臓の胸骨上の見え方の臨床的に望ましい画像であってよい。そのような場合、訓練画像210は、心臓の臨床的に望ましい胸骨上の見え方を適切に示すように、(たとえば医師によって)あらかじめ判定された超音波画像であってよい。そのような訓練画像210の各々は、わずかに異なる特性(たとえば、高品質画像、低品質画像、ぼやけた画像、わずかに異なる角度で撮影された画像など)を有する場合があるが、 それでもなおそのような各訓練画像210は、心臓の臨床的に望ましい見え方を適切に表しているものとしてあらかじめ判定されていてよい。
さらに、訓練画像210は、臨床的に標準的な見え方または臨床的に望ましい見え方に関連する画像情報だけでなく、臨床的には望ましくない見え方に関連する画像情報をさらに含んでいてもよい。したがって超音波認識モジュール120は、たとえば特定の臨床的に望ましい見え方(たとえば胸骨上、肋骨下、短軸および長軸の傍胸骨、心尖部2腔、心尖部3腔、心尖部4腔、心尖部5腔の見え方)を表していない心臓の見え方を受信することがある。そのような場合、超音波認識モジュール120は、それでもなおその画像を心臓の見え方として認識する場合があり、さらにその画像を、たとえば心尖部2腔の見え方と心尖部3腔の見え方との間のどこかの画像であると認識する場合がある。臨床的に標準的な心尖部3腔の見え方は、一般に、たとえば超音波撮像プローブを心尖部2腔の見え方に対して反時計回りに約60°回転させることによって得ることができる。心尖部2腔の見え方に対して反時計回りにたとえば5°から55°の間のどこかの回転角度においてプローブによって得られた超音波画像は、心臓の臨床的に望ましい見え方を表していないものと判定される場合がある。しかし、超音波画像認識モジュール120は、心臓の、既知ではあるが臨床的には望ましくない様々な見え方(たとえば心尖部2腔の見え方と心尖部3腔の見え方との間のどこかの見え方)を示す訓練画像210を用いて訓練されてよく、そのような見え方を認識しうる(たとえば超音波画像認識モジュール120は心尖部2腔の見え方に対してプローブ118の反時計回りに35°の回転を表す見え方を認識しうる)。
他の訓練入力220が訓練のために超音波画像認識モジュール120にさらに供給されてよい。他の訓練入力220は、たとえば、訓練プロセスを通じて画像認識モジュール120内で成長させられた画像認識モデルを調整するか、さもなければ管理するための、手作業で入力された入力(manually-entered input)を含んでいてよい。
超音波画像認識モジュール120は、訓練画像210を用いて反復訓練プロセスを実装しうる。訓練は、様々な学習規則(learning rules)または訓練アルゴリズム(training algorithms)に基づいていてよい。たとえば、学習規則は、以下に挙げる、バックプロパゲーション(back-propagation)、リアルタイムリカレント学習(real-time recurrent learning)、パターンバイパターン学習(pattern-by-pattern learning)、教師あり学習(supervised learning)、補間(interpolation)、加重和(weighted sum)、強化学習(reinforced learning)、時間差学習(temporal difference learning)、教師なし学習(unsupervised learning)および/または記録学習(recording learning)のうちの1つまたは複数を含んでいてよい。
バックプロパゲーション学習アルゴリズム(The back-propagation learning algorithm)は、人工ニューラルネットワーク(artificial neural networks)を訓練する一般的な方法である(たとえば図3に示す人工ニューラルネットワーク300で使用されうる)。バックプロパゲーションには、一般に、伝播(propagation)と重みの更新(weight update)の2つのフェーズが含まれる。伝播フェーズでは、伝播の出力活性(output activations)を生成するために、訓練パターンの入力がニューラルネットワークを通って順方向に伝播される。次に、すべての出力ニューロンと隠れニューロン(hidden neurons)とのデルタ(すなわち入力値と出力値との間の差)を生成するために、伝播の出力活性が訓練パターンターゲット(training pattern target)を用いてニューラルネットワークを通って逆方向に伝播される。重み更新フェーズにおいては、それぞれの重みシナプス(weight-synapse)について、以下のステップが一般的に実行される。1.重みの勾配(gradient)を得るために、その出力デルタと入力活性(input activation)とを乗ずる。2.重みから勾配の比率(パーセンテージ)を減じる。伝播フェーズと重み更新フェーズとは、ネットワークの性能が満足できるものになるまで必要なだけ繰り返される。
訓練の結果として、超音波画像認識モジュール120は、訓練画像210に応答してその挙動を修正し、超音波画像知識230を取得するかまたは生成することを学習しうる。超音波画像知識230は、超音波画像認識モジュール120が新しいデータや状況に対する適切な応答を決定しうるいかなる情報も表していてよい。特に、超音波画像知識230は、超音波画像と器官の1つまたは複数の見え方との間の関連性(たとえば1つまたは複数の関数であって超音波画像パラメータ(ultrasound image parameters)、係数(coefficients)、重み付け情報(weighting information)、図3に示したニューラルネットワークの例に関連するパラメータ、またはそのような任意の変数に基づいて器官の1つまたは複数の見え方を描写するもの)を表す。超音波画像知識230は、超音波画像知識データベース122内に記憶されていてよい。
超音波画像認識モジュール120は、訓練画像210に基づいて学習し、その挙動を変更してよく、画像知識データベース122内に含まれている知識を適用して、新しい入力、たとえば超音波撮像装置110から受信された超音波画像情報に関して、決定を行う方法を変更しうる。
図3は、1つまたは複数の実施形態による、超音波画像認識モジュール120によって実装されうる人工ニューラルネットワーク300の一例を示すブロック図である。人工ニューラルネットワーク(ANNs)は、多数の入力(それは一般的には未知である)に依存しうる関数を推定するかまたは近似させるために用いられる人工知能モデルである。そのようなニューラルネットワークは一般に、互いに情報をやりとりする相互接続された「ニューロン」("neurons")のシステムを含んでいる。その接続は、経験に基づいて調整されうる数値重み(numeric weights)を有し、したがってニューラルネットワークは、入力に適応し、学習することができる。
図3に示した人工ニューラルネットワーク300は、入力ニューロンiからiを含む1つの入力層310と、隠れ層ニューロンhからhを含む1つの隠れ層320と、出力ニューロンfおよびfを含む1つの出力層330とからなる3つの層を含んでいる。図3のニューラルネットワーク300は3つの層を有するように示されているが、超音波画像認識モジュール120の最適な訓練と性能とを達成するために、必要に応じてニューラルネットワーク300に追加の層を含めうることは容易に理解されるべきである。同様に、各層のニューロンは例示的な目的のために示されており、各層が図3に示したものよりも多くの、さらにはるかに多くのニューロンを含みうることは容易に理解されるべきである。
ニューラルネットワーク300は、訓練画像210を入力層310に供給することによって訓練されてよい。図2に関して述べたように、訓練画像は、たとえば様々な器官の見え方、様々な画像品質または特徴、様々な画像化角度(imaging angles)などを含んだ広範な既知の特性を有する超音波画像情報を含んでいてよい。ニューラルネットワーク300は、訓練を通じて、入力層310に供給された訓練画像210を出力層330における既知の出力情報(たとえば心臓の肋骨下での見え方、胸骨上での見え方などの画像の分類)へとマッピングする重み付けされた結合(weighted connections)を表す隠れ層320を生成し、および/または修正しうる。訓練プロセスを通じて形成され、重み結合関係(weight connection relationships)を含みうる、入力層310と隠れ層320と出力層330とにおけるニューロン間の関係を、本明細書では「超音波画像知識」("ultrasound image knowledge")と総称し、それはたとえば超音波画像知識データベース122内に記憶されてよい。
ニューラルネットワーク300がいったん十分に訓練されると、ニューラルネットワーク300には、入力層310において非訓練用超音波画像(すなわち超音波撮像装置110を利用して撮影された患者の超音波画像)が供給されうる。ニューラルネットワーク300は、超音波画像知識データベース122内に記憶された超音波画像知識(それらはたとえばニューラルネットワーク300のニューロン間の重み付けされた結合情報(weighted connection information)を含みうる)を用いて、受信された超音波画像情報についての判定を出力層330において行いうる。たとえば、ニューラルネットワーク300は、受信された超音波画像が器官の1つまたは複数の臨床的に望ましい見え方を表しているか否かを判定しうる。
図3のニューラルネットワーク300は、受信された超音波画像情報に関して判定を行うために人工知能を用いる超音波画像認識モジュール120の種々ありうる実施例中の単なる一例として提供されているにすぎない。たとえば、超音波画像認識モジュール120は、患者の受信された超音波画像に関する判定を行うために、ニューラルネットワーク、深層学習、畳み込みニューラルネットワーク、ベイジアンプログラム学習法のいずれかを実装しうる。
さらに、超音波認識モジュール120は、受信された超音波画像情報に関する様々な判定を行うために、様々な訓練画像210および/または訓練画像210の様々なシーケンス(sequences)を利用して訓練されうる。たとえば、超音波認識モジュール120は、受信された超音波画像が1つまたは複数の臨床的に標準的な見え方または望ましい見え方を表しているか否かを判定するように訓練されるか、さもなければそのように構成されうる。さらに、超音波認識モジュール120は、受信された超音波画像が臨床的には望ましくない見え方を表しているか否かを判定し(そして患者内の特定の器官もしくは他の組織についての特定の見え方または角度であるような、臨床的には望ましくない見え方を認識する場合がある)、さらに、受信された超音波画像のシーケンスに基づいて、画像が器官の臨床的に望ましい見え方に近づいているかまたは遠ざかっているかということをさらに判定しうる。画像が器官の臨床的に望ましい見え方に近づいているかまたは遠ざかっているかということを認識すること、および/またはキャプチャされた実際の画像を認識することに基づいて、このシステムは、たとえば使用者がプローブを動かすことを望みうる方向および/または使用者がプローブに角度をつけたいと望みうる回転の角度もしくは向きを示すことによって、使用者にフィードバックを提供し、器官の望ましい見え方をキャプチャする際に使用者を支援するように構成されていてよい。
たとえば、上述したように、超音波画像認識モジュール120は、心臓についての、既知ではあるが臨床的には望ましくない様々な見え方(たとえば心尖部2腔の見え方と心尖部3腔の見え方と間のどこかの見え方など)を示す訓練画像210を用いて訓練されてよく、そのため、そのような見え方を認識することがある(たとえば超音波画像認識モジュール120は、心尖部2腔の見え方に対してプローブ118の反時計回りに35°の回転を表している見え方を認識することがある)。さらに、超音波画像認識モジュール120は、認識されたものの臨床的には標準的でない、または臨床的には望ましくない心臓の見え方のシーケンスを用いて訓練されてよい。たとえば、超音波画像認識モジュール120は、心尖部2腔の見え方に対して反時計回りに0°から60°までの間の各回転角度(すなわち心尖部2腔の見え方と心尖部3腔の見え方との間のあらゆる角度)において心臓の見え方を表している超音波画像を認識するように訓練されてよい。さらに、超音波画像認識モジュール120は、臨床的には望ましくない見え方が臨床的に望ましい見え方に向かうような、および/またはそれから遠ざかるようなシーケンスや漸進(progression)を認識するように訓練されうる(たとえば訓練画像210は、プローブ118を、心尖部2腔の見え方から心尖部3腔の見え方に向かって、および/または心尖部3腔の見え方から離れる方向へと回転させることを表現する超音波画像のシーケンスを含む場合がある)。したがって、超音波画像認識モジュール120は、受信された超音波画像が、特定の臨床的に望ましい見え方を表してはいないものの、臨床的に望ましい見え方へと連続的に近づいていく(または遠ざかっていく)ことを認識するように訓練されうる。
さらに、超音波画像認識モジュール120は、受信された超音波画像が器官についての複数の臨床的に望ましい見え方のいずれかを表しているか否かを超音波画像認識モジュール120が判定しうるように、訓練されてよい。器官についてのそのような臨床的に望ましい見え方には、たとえば胸骨上、肋骨下、短軸および長軸の傍胸骨、心尖部2腔、心尖部3腔、心尖部4腔、心尖部5腔での心臓の見え方が含まれうる。
再び図1を参照すると、超音波画像認識モジュール120は、以下でさらに詳細に説明するように、超音波撮像装置110へ(参照符号103で示した)フィードバック信号を供給してよい。フィードバック信号103は、受信された超音波画像に関して超音波画像認識モジュール120が行う判定への応答として供給されてよい。
図4は、1つまたは複数の実施形態による超音波撮像装置110を概略的に示した図である。超音波撮像装置110は、1つまたは複数の入力要素412、1つもしくは複数の視覚的フィードバック要素420および/または可聴的フィードバック要素430および/または触覚フィードバック要素440を含むユーザインタフェース410と、ディスプレイ112とを含んでいてよい。
ユーザインタフェース410によって、使用者は、超音波撮像装置110を制御するか、さもなければそれと通信することが可能になる。様々な種類の使用者の入力が、たとえばボタンや同様の使用者入力要素であってよい使用者入力要素412を介して供給されうる。これに加えてまたはこれに代えて、ディスプレイ112はタッチスクリーンディスプレイであってよく、使用者の入力がディスプレイ112を介して受信されてもよい。使用者は、超音波撮像装置110を使用して、患者において撮像されるべき器官の望ましい見え方を、(たとえば入力要素412および/またはディスプレイ112を介して)選択するか、さもなければ入力してよい。たとえば、使用者は、超音波撮像装置110内に記憶されていて使用者に対して提示された複数の臨床的に望ましい見え方のうちから1つの見え方(たとえば心臓の肋骨下での見え方)を選択してよい。超音波撮像装置110は、選択された見え方を超音波画像認識モジュール120に伝達してよく、したがって超音波画像認識モジュール120は、受信された超音波画像が選択された見え方を表しているか否かを判定するように構成されていてよい。すなわち、超音波画像認識モジュール120は、画像知識データベース122内の適切な超音波画像知識(たとえば心臓の肋骨下での見え方に関連する知識や規則や関係性)にアクセスし、そのことによって、受信された超音波画像は、選択された見え方に対応する知識と比較されるか、またはそれによって処理されうる。あるいは、使用者は、上述したように、心臓のような器官の1つまたは複数の一連の標準的な見え方のうちの1つの見え方をキャプチャすることを通じてシステムが使用者を誘導するような動作モード(mode of operation)を選択してもよい。そのようなモードにおいては、システムはまず、撮像されるべき器官の望ましい見え方を選択し、次いで、望ましい画像がキャプチャされたときに使用者に対して確認する、および/または最初にキャプチャされた画像に基づいて使用者を望ましい見え方へと導く。そしてシステムは、撮像されるべき器官の望ましい標準的な見え方のそれぞれについて、このプロセスを連続して繰り返すことになる。あるいは、システムは、キャプチャされるべき各画像とキャプチャされたあらゆる画像とを比較して、最初にキャプチャされるべき画像を初めに指示されることなしに、1つまたは複数の望ましい標準的な見え方がキャプチャされた時に確認するように動作することも可能である。
視覚的フィードバック要素(visual feedback elements)420は、超音波撮像装置110の使用者に視覚的表示(visual indication)を提供することのできる任意の要素であってよく、静止画であれ動画であれ、たとえば1つまたは複数の光や色や形状やアイコン(icons)などであってよい。可聴的フィードバック要素(audible feedback element)430は、超音波撮像装置110の使用者に対する可聴指示(audible indication)を呈示することのできる任意の要素であってよく、たとえば、キャプチャされた画像とキャプチャしたいと望まれる画像との間の関連性および関連性の欠如に関連づけられた様々なトーン(tones)や音(sounds)を呈示するためのスピーカであってよい。同様に、触覚フィードバック要素(haptic feedback element)440は、超音波撮像装置110の使用者に触覚効果(haptic effect)を提供することのできる任意の要素であってよく、たとえば振動装置(vibration device)であってよい。
超音波画像認識モジュール120によって提供されるフィードバック信号103は、超音波撮像装置110から受信された超音波画像に関する、超音波画像認識モジュール120によって行われたあらゆる様々な判定を示してよい。
たとえば、超音波画像認識モジュール120は、現在または直近に(most recently)受信された超音波画像が器官についての臨床的に望ましい見え方(たとえば選択された臨床的に望ましい見え方)を表していることを示すフィードバック信号103を提供してよい。さらなる例では、超音波画像認識モジュール120は、受信された超音波画像が器官についての臨床的に望ましい見え方に連続的に接近しているかまたは遠ざかっているかを判定し、受信された超音波画像が器官についての臨床的に望ましい見え方に連続的に接近しているかまたは遠ざかっているかということを示すフィードバック信号103を提供してよい。このフィードバック信号は、特定の方法でプローブを移動させるか、もしくは角度を付けるように使用者に指示するための、視覚的な、もしくは可聴的なコマンド(command)を含めることができ、または、器官についての望ましい画像によりよく近づけるためにプローブに求められる移動の方向および/もしくは移動の角度を示す、まっすぐもしくは曲がった矢印などのアイコンを含めることもできる。
超音波撮像装置110は、フィードバック信号103を受信し、それに応答して、超音波撮像装置110の使用者にフィードバック効果を提供するために、1つまたは複数のフィードバック要素(すなわち視覚的フィードバック要素420および/または可聴的フィードバック要素430および/または触覚フィードバック要素440)を作動させてよい。たとえば、フィードバック信号103は、現在または直近に受信された超音波画像が、器官についての臨床的に望ましい見え方を表していることを示してよい。このような場合、超音波撮像装置110によって提供されるフィードバック効果は、視覚的フィードバック要素420の緑色光420aの発光や、可聴的フィードバック要素430からの可聴トーン(audible tone)もしくはビープ音、および/または触覚フィードバック要素440によって提供される振動パルス(vibrational pulse)を含んでいてよい。発光する緑色光420aおよび/または可聴音および/または振動パルスは、望ましい見え方が得られたことを使用者に示し、したがって使用者は、(たとえば1つまたは複数の使用者入力要素412を使用することによって)望ましい見え方の超音波画像を保持し、そして画像を超音波画像データベース115に記憶させうる。
これに加えてまたはこれに代えて、受信された超音波画像に器官の臨床的に望ましい見え方が表されていると判定すると、超音波画像認識モジュール120は、(たとえばフィードバック信号103によって)超音波撮像装置110に、その超音波画像を自動的に保持して超音波画像データベース115に記憶させるようにしてもよい。使用者が既に所望の画像をキャプチャしているか否か、または撮像された特定の患者について所望の画像がキャプチャされている状態を維持しているか否かを示すために、それぞれの望ましい種類の画像の隣に適切な表記と共に表(table)が表示されるようになっていてもよい。
フィードバック信号103が、受信された超音波画像が器官の臨床的に望ましい見え方に連続的に近づいていくかまたは遠ざかっていくことを示す実施形態においては、超音波撮像装置110は、たとえば、受信された超音波画像が臨床的に望ましい見え方に近づく(または遠ざかる)につれて周波数が増加する(または減少する)可聴音や、受信された超音波画像が臨床的に望ましい見え方に近づく(またはそこから遠ざかる)につれて増加する(または減少する)強度を有する一連の振動パルス、および/または受信された超音波画像が臨床的に望ましい見え方に近づいているかまたは遠ざかっているときに、色や位置が異なる光源を発光させる(たとえば、受信された超音波画像が臨床的に望ましい見え方に近づくにつれて、外側に位置する赤い光源420cを発光させ、次に中間に位置する黄色の光源420bを発光させ、そして、中心に位置する緑色の光源420aを発光させる)等の変化するフィードバック効果を提供することによって、そのことを使用者に伝達してよい。
超音波撮像装置110に動作可能なように接続されたプローブ118は、たとえば加速度計(accelerometers)やジャイロスコープ(gyroscopes)などを含む任意の動きセンサ(motion sensors)であってよい1つまたは複数の動きセンサ450を含んでいてよい。したがって、超音波撮像装置110は、プローブ118の位置および/または動きを判定しうる。特に、超音波撮像装置110は、患者における1つまたは複数の既知の点に対するプローブ118の位置および/または動きを判定しうる。たとえば、使用者は、患者における既知の点(たとえば患者の胸の特定の点)において既知の向き(orientation)(たとえば患者の皮膚に対して実質的に垂直)にプローブ118を配置する場合があり、超音波撮像装置110は、この位置を基準点または初期化点として(たとえば使用者入力要素412を介して)キャプチャしてよい。したがって、超音波撮像装置110は、たとえば慣性航法技術(inertial navigation techniques)を含む任意の既知の位置決めアルゴリズムを利用して、既知の基準点に対する自身の位置を判定しうる。同様に、超音波画像認識モジュール120は、たとえば(本明細書で説明するように)臨床的に望ましい見え方から遠ざかる方向に移動していることを判定してよく、臨床的に望ましい見え方を得るために、患者における既知の点に関してのプローブ118の動きを(たとえばフィードバック信号103によって)提案してよい。たとえば、超音波画像認識モジュール120は、たとえば受信された超音波画像が心尖部2腔の見え方に関して反時計回りに45°、40°、そして35°の回転に伴う心臓の連続的な見え方を表していると判定しうる。臨床的に望ましい見え方は、たとえば、心尖部2腔の見え方に対してプローブ118を約60°回転させることによって得ることのできる心尖部3腔の見え方である場合がある。したがって、超音波画像認識モジュール120は、受信された超音波画像が臨床的に望ましい見え方から遠ざかっていると判定する場合があり、さらに、たとえば、心尖部3腔の見え方を得るために、使用者がプローブ118を反時計回りに約25°回転させることを提案してよい(直近の見え方が心尖部2腔の見え方に関して反時計回りに35°の回転を表す場合があり、反時計回りに追加的に25°だけ回転させることにより、望ましい心尖部3腔の見え方が得られる)。
本明細書では、超音波画像認識モジュール120は、超音波撮像装置110から分離されていて、通信ネットワーク102を介してアクセス可能なものとして説明したが、超音波画像認識モジュール120は超音波撮像装置110内に含まれていてもよいということは容易に理解されるべきである。すなわち、超音波画像認識モジュール120(画像認識モジュール120自体または遠隔に位置する画像認識モジュール120の局所的な複製(local copy)のいずれか)は、超音波撮像装置110内に含まれていてよく、たとえばメモリ114に記憶されていてよく、超音波画像認識モジュール120の特徴および/または機能は、プロセッサ116によって実行されるか、さもなければ実装されてよい。
図5は、1つまたは複数の実施形態による超音波画像認識方法500を示すフローチャートである。ブロック502において、方法500は、超音波撮像装置110によって患者の超音波画像を取得するステップを含んでいる。取得された超音波画像は、たとえば患者の器官の見え方を含んでいてよい。
ブロック504において、方法500は、取得された超音波画像を超音波画像認識モジュール120へ送信するステップを含んでいる。取得された超音波画像は、通信ネットワーク102を介して送信されてよく、あるいは、超音波画像認識モジュール120が超音波撮像装置110内に含まれていてもよく、取得された超音波画像は実配線による接続(hardwired connection)を介して送信されてもよい。
ブロック506において、方法500は、取得された超音波画像が器官についての臨床的に望ましい見え方を表しているか否かを超音波画像認識モジュール120によって判定するステップを含んでいる。超音波画像認識モジュール120は、たとえば図2および図3に示して説明したように、判定を容易にする任意の人工知能の方法を用いてよい。
ブロック508において、方法500は、受信された超音波画像が器官についての臨床的に望ましい見え方を表しているか否かを判定することに応答して、フィードバック信号103を超音波撮像装置110へ送信するステップをさらに含んでいてよい。フィードバック信号103は、種々ありうるメッセージを超音波撮像装置110に通信してよい。たとえば、フィードバック信号103は、取得された超音波画像が臨床的に望ましい見え方を表していること、臨床的に望ましい見え方を表していないこと、および/または画像が臨床的に望ましい見え方に連続的に近づいているか、もしくは遠ざかっていることを示してよい。
ブロック510において、方法100は、取得された超音波画像が器官についての臨床的に望ましい見え方を表していると判定した超音波画像認識モジュール120に応答して、取得された超音波画像を記憶するステップをさらに含んでいてよい。そのような場合、取得された超音波画像は、たとえば超音波画像データベース115内に自動的に記憶されてよい。これに加えてまたはこれに代えて、超音波撮像装置110の使用者は、たとえばユーザインタフェース410を介して超音波撮像装置110へ入力を供給することによって、取得された超音波画像を記憶するように促されてもよい。
図6は、本開示の実施形態による超音波データ情報システム(ultrasound data information system)600のブロック図を示した図である。図6に示したように、超音波データ情報システム600は、多数の超音波撮像装置610と、通信ネットワーク602と、クラウドベースの人工知能(AI)超音波画像認識訓練ネットワーク620(以下「AI訓練ネットワーク120」という)と、超音波画像知識データベース622とを含んでいる。超音波データ情報システム600はさらに、1つまたは複数のユーザコンピュータ装置(user computer devices)630を含んでいてよい。
AI訓練ネットワーク620は、超音波画像を認識するように訓練された、クラウドベースであるかまたは分散コンピューティングの人工知能ネットワークである。特に、AI訓練ネットワーク620は、受信された超音波画像が患者の器官もしくは他の態様、領域もしくは特徴について、臨床的に望ましい見え方を表しているか否か、または臨床的に望ましい見え方が正常な機能もしくは特定の病変のどちらを示しているか、を判定するように訓練されていてよい。AI訓練ネットワーク620は、(たとえば画像知識データベース622に記憶されているような)知識を学習するか、さもなければ生成するために訓練入力からもたらされる、人工知能を用いた任意の計算機による知能システムによって実装されてよく、これは、受信された超音波画像が臨床的に望ましい見え方を表しているか否か、または臨床的に望ましい見え方が正常な機能もしくは特定の病変をどちらを示しているかを判定するために利用される。
AI訓練ネットワーク620は、1つまたは複数の計算機による知能技術を用いて、より良い性能を得るために学習し、未知のおよび/または変化する環境に適応しうる。
AI訓練ネットワーク620は、人工知能訓練プロセスを通じて、知識を学習し、これは画像知識データベース622に記憶されている。画像知識データベース622内に記憶された知識は、受信された超音波画像に関して、AI訓練ネットワーク620および/または超音波撮像装置610内の超音波画像認識モジュール621による超音波画像解析を容易にする種々の情報を含んでいてよく、これについては本明細書でさらに詳しく説明する。特に、たとえば画像知識データベース622は、様々な器官の様々な画像の見え方、および様々な器官の正常な状態や病理学的状態に関する情報を含んでいてよい。たとえば画像知識データベース622は、心臓の臨床的に標準的な見え方または望ましい見え方に関連する情報を含んでいてよい。心臓の臨床的に標準的な見え方には、たとえば、胸骨上、肋骨下、短軸および長軸の傍胸骨、心尖部2腔、心尖部3腔、心尖部4腔、心尖部5腔の見え方が含まれうる。さらに、臨床的に標準的な見え方に関連する情報は、3次元の見え方、2次元断面の見え方、および/または1組の2次元断面の見え方に関連する情報である場合がある。同様に、画像知識データベース622は、たとえば心筋収縮性や弁機能を含む、心臓のような器官の正常な機能や器官の様々な病的状態に関連する情報を含んでいてよい。画像知識データベース622は、AI訓練ネットワーク620によってアクセス可能な任意のコンピュータ可読記憶媒体に記憶されていてよい。
AI訓練ネットワーク620は、本明細書で説明する様々な機能や動作を行うように構成された1つまたは複数のコンピュータプロセッサを含んでいてよいし、さもなければそれによって実行されてよい。たとえば、AI訓練ネットワーク620は、記憶されたコンピュータプログラムによって選択的に起動されるかもしくは構成される、1つもしくは複数の汎用コンピュータもしくはデータプロセッサによって実行されてよく、または本明細書で述べる特徴や動作を実行するために特別に構成されたコンピューティングプラットフォーム(computing platform)であってもよい。特に、AI訓練ネットワーク620は、超音波画像知識を生成するために非常に多数(たとえば数万またはそれを超える数)の訓練画像を受信して処理することのできるような高度な計算能力を有するクラウドベースかまたは分散コンピューティングの人工知能ネットワークであってよい。1つまたは複数の実施形態では、AI訓練ネットワーク620は、超音波撮像装置610内に含まれていてよく、および/または超音波撮像装置610内で実行されてよい。
超音波撮像装置610は、患者の超音波画像を取得するように動作可能な任意の超音波装置であってよく、たとえばハンドヘルドの超音波撮像装置であってよい。図6に示した超音波撮像装置610は、図1に示した超音波撮像装置110と同じであるか、または実質的に同じであってよい。特に、超音波撮像装置610は、超音波撮像装置110に関して上述した(そしてたとえば図1から図4に示した)のと同じ特徴を含んでいてよく、図7に関して以下に述べるような追加の特徴をさらに含んでいてもよい。
図7を参照すると、超音波撮像装置610は、ディスプレイ112と、メモリ114と、1つまたは複数のプロセッサ116と、超音波画像認識モジュール621とを含んでいてよい。超音波撮像装置610に含まれている超音波画像認識モジュール621は、図1に示してそれに関連して説明した超音波画像認識モジュール120と本質的に同じであってよい。1つ異なるのは、超音波画像認識モジュール621(および局所的な超音波知識データベース612)が図8における超音波撮像装置610内に配置されているのに対し、超音波画像認識モジュール120は図1における超音波撮像装置110に対して離れて位置しているということである。
超音波撮像装置610は、取得された超音波画像のデータベース(acquired ultrasound image database)615および/または局所的な超音波画像知識データベース612をさらに含んでいてよい。超音波撮像装置610は、超音波プローブ118に動作可能なように接続されている。
メモリ114と、プロセッサ116と、超音波プローブ118と、ディスプレイ112とは、図1の超音波撮像装置110に関して上述したとおりである。
超音波画像認識モジュール621は、たとえば、画像知識データベース622内に取得され記憶された画像知識を含む、あらかじめ訓練されたクラウドベースのAI訓練ネットワーク620の一部または全部を組み込んでいてよい。すなわち、超音波撮像装置610は、通信ネットワーク602を介して、AI訓練ネットワーク620および/または超音波画像知識データベース622に記憶された超音波画像知識(それらはたとえば局所的な超音波画像知識データベース612内に記憶されていてよい)をダウンロードしてよい。したがって、AI訓練ネットワーク620によって学習された画像知識は、超音波撮像装置610によって取得された超音波画像に関する処理や決定を行うために、超音波画像認識モジュール621によって適用されうる。通信ネットワーク602は、ローカルエリアネットワークや、無線ネットワークや、専用線や、イントラネットや、インターネットなどを含む1つまたは複数の物理ネットワークを介して通信するために1つまたは複数のプロトコルを利用してよい。
したがって、超音波撮像装置610によって取得された超音波画像は超音波画像認識モジュール621に供給され、そして超音波画像認識モジュール621によって処理されてよい。超音波画像認識モジュール621は、超音波撮像装置610によって取得された超音波画像を受信し、受信された超音波画像の1つまたは複数が器官もしくは他の態様、患者における領域もしくは特徴の臨床的に望ましい見え方を表しているか否か、または臨床的に望ましい見え方が正常な機能もしくは特定の病変のどちらを示しているか、を判定する。超音波画像認識モジュール621は、受信された超音波画像が臨床的に望ましい見え方を表しているか否か、または臨床的に望ましい見え方が正常な機能もしくは特定の病変のどちらを示しているかを判定するために、局所的な超音波画像知識データベース612内に含まれているような学習された知識からもたらされる、人工知能を用いた任意の計算機による知能システムによって実装されてよい。
超音波画像知識データベース622は、図1に示した超音波画像知識データベース122に類似のものであるか、またはそれと同じであってよい。AI訓練ネットワーク620は、超音波撮像装置610によって取得された超音波画像に関連した判定を行うためにAI訓練ネットワーク620が訓練され、かつ超音波画像知識(超音波画像知識データベース622内に記憶されている)を成長させるという点において、図1に示した超音波画像認識モジュール120と同様である。しかしながら、1つ異なるのは、AI訓練ネットワーク620は、部分的に、多数の超音波撮像装置610によって取得された実際の超音波画像によって訓練されていて、それらの多数の超音波撮像装置610が追加的なまたは洗練された超音波画像知識をさらに訓練して成長させるためにAI訓練ネットワーク620に提供される、という点である。
図8は、1つまたは複数の実施形態によるクラウドベースのAI訓練ネットワーク620の訓練を示すブロック図である。AI訓練ネットワーク620は、最初に訓練画像810を用いて訓練されてよい。訓練画像810は、あらゆる超音波画像情報を含んでいてよく、図2に示して説明した訓練画像210と同じであるかまたは類似したものであってよい。たとえば、訓練画像810は、器官についての既知の見え方(たとえば心臓の胸骨上の臨床的に望ましい見え方など)に関連する様々な超音波画像情報を含んでいてよい。さらに、訓練画像810は、特定の臨床的に望ましい見え方を適切に表すように(たとえば医師によって)あらかじめ判定された超音波画像であってよい。さらに、訓練画像810には、正常な機能および/または特定の病変を表す様々な特性を持った多種多様な画像が含まれていてよい。
さらに、訓練画像810は、超音波画像認識モジュール120を訓練するために供給される訓練画像210に関して図2に示して上述したように、臨床的には望ましくない見え方に関連する画像情報を含んでいてもよい。したがって、AI訓練ネットワーク620は、たとえば、臨床的に望ましいいかなる見え方も表していないが、それでもなお心臓の見え方であると画像を認識しうる心臓の見え方を受信することがあり、たとえば、さらに、その画像を心尖部2腔の見え方と心尖部3腔の見え方との間のどこかの画像であると認識することがある。AI訓練ネットワーク620は、心臓についての、既知ではあるが臨床的には望ましくない様々な見え方(心尖部2腔の見え方と心尖部3腔の見え方との間のどこかの見え方など)を示す訓練画像810によって訓練されてよく、したがってそのような見え方の認識を容易にする知識を成長させうる(たとえばAI訓練ネットワーク620は、心尖部2腔の見え方に関してプローブ118を反時計回りに35°だけ回転させたものを表す見え方を認識しうる)。1つまたは複数の実施形態によれば、たとえば図1(フィードバック103)に関して説明したように、キャプチャされた画像の認識(またはその欠如)および識別または解釈(またはそれらの欠如)に関するフィードバックが使用者に提供される。
他の訓練入力820が訓練のためにAI訓練ネットワーク620にさらに提供されてよい。他の訓練入力820は、たとえば訓練プロセスを通じてAI訓練ネットワーク620内で成長させられた画像認識モデルを調整するか、さもなければ管理するための、手作業で入力された入力を含んでいてよい。
訓練画像810を用いることによって、AI訓練ネットワーク620は反復訓練プロセスを実装しうる。訓練は、さまざまな学習規則や訓練アルゴリズムに基づいていてよい。たとえば、学習規則は、以下に挙げるバックプロパゲーション、リアルタイムリカレント学習、パターンバイパターン学習、教師あり学習、補間、加重和、強化学習、時間差学習、教師なし学習、および/または記録学習のうちの1つまたは複数を含んでいてよい。
図3に関して先に説明したように、バックプロパゲーション学習アルゴリズムは、人工ニューラルネットワークを訓練する一般的な方法である(そして、たとえばAI訓練ネットワーク620によって利用されるか、それにより実装されうる、図3に示した人工ニューラルネットワーク300で使用されうる)。
訓練の結果として、AI訓練ネットワーク620は、学習して、訓練画像810に応答してその挙動を修正してよく、そして超音波画像知識830を取得するかまたは生成しうる。超音波画像知識830は、人工知能ネットワーク(たとえばAI訓練ネットワーク620および/または超音波画像認識モジュール621)が新しいデータや状況に対する適切な応答であると判断することのできる任意の情報を表すことがある。特に、超音波画像知識830は、超音波画像と器官についての1つまたは複数の見え方と器官についての正常に対する病理状態との間の関連性(たとえば超音波画像パラメータ、係数、重み付け情報、図3に示した例示的なニューラルネットワークに関連するパラメータ、またはそのような変数に基づいた器官についての1つまたは複数の見え方を描く1つまたは複数の機能)を表す。超音波画像知識830は、超音波画像知識データベース622内に記憶されてよい。
AI訓練ネットワーク620が最初の訓練画像810に基づいていったん十分に訓練されると、超音波撮像装置610は、訓練されたAI訓練ネットワーク620および/またはAI訓練ネットワーク620によって成長させられて超音波画像知識データベース622内に記憶された画像知識を、通信ネットワーク602を介して(たとえば参照符号603で示したように)ダウンロードしうる。すなわち、超音波撮像装置610内の超音波画像認識モジュール621は、たとえば、すでに訓練されたAI訓練ネットワーク620の1つもしくは複数の部分を含んでいてよく、またはその完全な複製であってよく、超音波撮像装置610内の局所的な超音波画像知識データベース612には、超音波画像知識データベース622内に記憶された超音波画像知識のいくつか、または全てが供給されてよい。
したがって、超音波撮像装置610は、通常の動作使用中に未知の超音波画像を取得したり、取得された超音波画像が患者についての臨床的に望ましい見え方を表しているか否か、または臨床的に望ましい見え方が正常な機能もしくは特定の病変のどちらを示しているかを(たとえば超音波画像認識モジュール621によって)判定したりする能力を有している。
取得された超音波画像のデータベース615内には、通常の動作使用中に超音波撮像装置610によって取得された画像(たとえば患者について取得された診断画像817)が記憶されてよく、(図6においてたとえば参照符号601で示した)AI訓練ネットワーク620へ追加の訓練入力としてさらに供給され、それによってAI訓練ネットワーク620をさらに訓練してよい。そのような取得された超音波画像(acquired ultrasound images)817は、超音波撮像装置610によって直接取得された画像であってよく、および/またはAI訓練ネットワーク620をさらに訓練するための訓練データとして使用するための、検証され、変更され、および/または臨床的に判定された画像であってよい。たとえば、取得された超音波画像817は、超音波撮像装置610によって取得され、局所的な超音波画像認識モジュール621によっては正しく判定されなかった画像を含む場合がある。たとえば、超音波画像認識モジュール621は、特定の画像が臨床的には望ましい見え方(たとえば心臓の胸骨上での見え方)を表していないと判断する場合があるが、しかし実際には同じ画像が臨床的に望ましい見え方を表している可能性がある。たとえば、医師または他のそのような専門家が、その超音波画像の独立した再検討の際に、画像が心臓の胸骨上の臨床的に十分な見え方を実際に示していると判断したものの、超音波画像認識モジュール621は同じ判定を行わなかった場合があり、したがってこのことは、超音波画像認識モジュール621が、画像を正確に判定または認識するようにさらに最適化されうることを示している。そのような場合、取得された超音波画像は、取得された画像が臨床的に望ましい見え方(たとえば心臓の胸骨上での見え方)を表していることを示すように変更されるか、ラベル付けされるか、さもなければ訓練データに関連付けられてよく、したがって取得された超音波画像は、AI訓練ネットワーク620をさらに訓練するための取得された超音波画像817として供給されてよく、これは今度は超音波画像認識モジュール621を更新するために用いられる。
超音波撮像装置610によって取得された超音波画像は、取得された超音波画像のデータベース615内に記憶されてよく、および/または訓練情報(たとえば画像が特定の臨床的に望ましい見え方や通常の機能や既知の病変を表しているかまたは表していないかというような、画像についてのあらゆる既知の特性を示すようなもの)を含むように変更され、次いで、取得された超音波画像のデータベース615内に記憶されてよい。したがって、取得された超音波画像817に関する1つまたは複数の既知の特性を示す訓練情報を備えた取得済みの超音波画像817は、超音波画像知識830をさらに訓練し、さらに成長させ、および/またはさらに改良するために、AI訓練ネットワーク620へ供給されうる。
AI訓練ネットワーク620をさらに訓練するために用いられる取得された超音波画像817は、超音波撮像装置610から直接に(たとえば取得された画像のデータベース615内に記憶された画像を、通信ネットワーク602を介してAI訓練ネットワーク620へアップロードすることによって)受信されてよく、および/または1つまたは複数のユーザコンピュータデバイス630から受信されてもよい。たとえば医師は、超音波画像を超音波撮像装置610からユーザコンピュータ装置630へダウンロードしてよく、さらにそれを修正したり、ラベル付けしたり、さもなければ超音波画像に関連する1つまたは複数の既知の特性を示す超音波画像に訓練データを追加したりしてよい。したがってユーザコンピュータ装置630は、取得された超音波画像817(これはたとえば1つまたは複数の既知の特性を示す訓練データを含んでいてよい)をAI訓練ネットワーク620へ送信してさらに訓練するために利用されうる。ユーザコンピュータ装置630は、さらに、または代替的に、関連する任意の超音波撮像装置610と通信しうるAI訓練ネットワーク620から、更新された知識を受信するために使用されうる。
したがって、取得された超音波画像817は、AI訓練ネットワーク620をさらに訓練するために用いられる訓練画像である。すなわち、訓練画像の初期のセット(initial set of training images)810は、AI訓練ネットワーク620を最初に訓練するために用いられ、取得された超音波画像817は、AI訓練ネットワーク620をさらに訓練するために供給されるのであり、それは、1つまたは複数の超音波撮像装置610が配置され、訓練値を供給しうる超音波画像を1つまたは複数の超音波撮像装置610が取得した後に供給される。訓練画像810と取得された超音波画像817とは、同種の情報、すなわち超音波画像情報とそれに関連する訓練ラベルとを含んでいる。
AI訓練ネットワーク620を訓練するための訓練画像810および/または取得された超音波画像817は、一連の画像(たとえば連続して取得された画像フレームのシーケンスを有するビデオクリップ(video clip))を含んでいてよい。たとえば、クリップは、心臓の動き/収縮のような動的現象を示す一連の画像を含んでいてよい。そのようなクリップは、初期訓練画像810および/または取得された超音波画像817として、AI訓練ネットワーク620をさらに訓練するためにAI訓練ネットワーク620へ供給されてよい。
AI訓練ネットワーク620は、訓練画像810に基づいて学習し、その動作を変更してよく、そして、画像知識データベース622に含まれている知識を適用して新たな入力、たとえば超音波撮像装置610から受信された取得済みの超音波画像情報817などに関する判定を行う方法を変更してよい。取得された超音波画像817は、通信ネットワーク602を介してAI訓練ネットワーク620へ供給されてよく、したがって、AI訓練ネットワーク620をさらに訓練するための追加の訓練入力として用いられてよく、そして、さらに成長させられた画像知識830を生成するために用いられてよく、この画像知識830は画像知識データベース622内に記憶されうる。
1つまたは複数の実施形態による、AI訓練ネットワーク620および/または超音波画像認識モジュール621によって、人工ニューラルネットワーク(たとえば図3に示した人工ニューラルネットワーク300)が実装されてよい。上述したように、図3に示した人工ニューラルネットワーク300は、3つの層、すなわち入力ニューロンiからiを含む1つの入力層310と、隠れ層ニューロンhからhを含む1つの隠れ層320と、出力ニューロンfおよびfを含む1つの出力層330とを含んでいる。図3におけるニューラルネットワーク300は3つの層を有しているように示したが、AI訓練ネットワーク620および/または超音波画像認識モジュール621の最適な訓練と性能とを得るために、必要に応じて追加の層をニューラルネットワーク300内に含めてもよいことは容易に理解されるべきである。同様に、各層におけるニューロンは例示的な目的のために示したものであり、各層が図3に示したのよりも多くの、さらにはるかに多くのニューロンを含んでいてもよいということは容易に理解されるべきである。
ニューラルネットワーク300は、訓練画像810および/または取得された超音波画像817を入力層310へ供給することによって(たとえばAI訓練ネットワーク620がニューラルネットワーク300である実施形態において)訓練されてよい。図8に関して述べたように、訓練画像810(およびAI訓練ネットワーク620への訓練入力として供給される、取得された超音波画像817)は、様々な既知の特性を有する超音波画像情報、たとえば器官についての様々な見え方、正常な機能、様々な病変、様々な画像品質または画像特性、様々な撮像角度などを含む多種多様な画像を含んでいてよい。ニューラルネットワーク300は、訓練を通じて、入力層310において供給された訓練画像810および/または取得された超音波画像817を、出力層330における既知の出力情報(たとえば心臓の肋骨下での見え方や胸骨上での見え方などとしての画像の分類)へとマッピングする重み付けされた結合を表す隠れ層320を生成し、および/または修正しうる。訓練プロセスを通じて形成され、重み結合関係を含みうる、入力層310と隠れ層320と出力層330とにおけるニューロン間の関係を、本明細書では「超音波画像知識」と総称し、それはたとえば超音波画像知識データベース622内に記憶されてよい。
ニューラルネットワーク300が十分に訓練されると、ニューラルネットワーク300は超音波撮像装置610へと供給され、たとえば超音波画像認識モジュール621によって実装される。このように、ニューラルネットワーク300は、入力層310において訓練用ではない超音波画像(すなわち超音波撮像装置610を用いて撮影された患者についての超音波画像)を受信しうる。超音波画像知識データベース622(これは局所的な超音波画像知識データベース612へと供給され、その中に記憶されてよく、たとえばニューラルネットワーク300のニューロン間の重み付けされた結合情報を含んでいてよい)内に記憶された超音波画像知識を用いて、ニューラルネットワーク300は出力層330において受信された超音波画像情報に関する判定を行ってよい。たとえば、ニューラルネットワーク300は、受信された超音波画像が器官の1つまたは複数の臨床的に望ましい見え方を表しているか否かを判定してよい。
したがって、クラウドベースのAI訓練ネットワーク620は、超音波撮像装置610内の超音波画像認識モジュール621内に実装するのに十分なネットワークおよび/または画像知識を成長させるために、最初に訓練される。そしてクラウドベースのAI訓練ネットワーク620は、超音波装置610によって取得され、通信ネットワーク602を介してAI訓練ネットワーク620へと供給される、(たとえば図6に参照符号601で示した)取得済みの超音波画像817に基づいて、さらに訓練され続ける。AI訓練ネットワーク620の継続的な訓練の結果として、AI訓練ネットワーク620は、超音波画像知識データベース622内に記憶される追加の超音波画像知識を成長させ、改良し、さもなければ生成し続ける。したがって超音波撮像装置610は、(図6においてたとえば参照符号603で示した)超音波画像知識データベース622内に記憶された更新された超音波画像知識を、所定のスケジュールに従って自動的にダウンロードされる更新を通じて、または使用者によって望まれるかもしくは要求された特定の時間に、または撮像装置が最後に更新されてからネットワークがさらに訓練される結果となった特定の閾値数の追加画像をデータベースが受信した時に自動的に、定期的に受信してよい。
図3のニューラルネットワーク300は、AI訓練ネットワーク620および/または受信された超音波画像情報に関する判定を行うために人工知能を用いる超音波画像認識モジュール621の、種々ありうる実施形態のうちの単なる一例として提供されているにすぎない。たとえば、AI訓練ネットワーク620および/または超音波画像認識モジュール621は、患者についての受信された超音波画像に関する判定を行うために、ニューラルネットワーク、深層学習、畳み込みニューラルネットワーク、ベイジアンプログラム学習法のいずれかを実装してよい。
さらにAI訓練ネットワーク620は、受信された超音波画像情報に関連する様々な判定を行うために、様々な訓練画像810および/または取得された超音波画像817を利用して訓練されてよい(さらに訓練画像810および/または取得された超音波画像817の様々なシーケンスを利用して訓練されてよい)。たとえば、AI訓練ネットワーク620は、受信された超音波画像が1つもしくは複数の臨床的に標準的な見え方もしくは望ましい見え方を表しているか否か、または臨床的に望ましい見え方が正常な機能もしくは特定の病変のどちらを示しているか、を判定するように訓練されてよいし、さもなければそのように判定するように構成されていてもよい。さらに、AI訓練ネットワーク620は、受信された超音波画像が臨床的には望ましくない見え方を表しているか否かを判定するように訓練されてよく(そしてそのような臨床的には望ましくない見え方を、患者内の特定の器官または他の組織についての特定の見え方または角度として認識してよい)、受信された超音波画像のシーケンスに基づいて、画像が器官についての臨床的に望ましい見え方に近づいているかまたは遠ざかっているかをさらに判定してよい。
AI訓練ネットワーク620および/またはAI訓練ネットワーク620によって成長させられて超音波画像知識データベース622内に記憶された超音波画像知識をダウンロードすることによって、超音波撮像装置610内の超音波画像認識モジュール621と局所的な超音波画像知識データベース612とは、訓練されたAI訓練ネットワーク620と超音波画像知識データベース622とに関して本明細書で説明する特徴や機能のすべてを含んでいてよい。
たとえば、上述したように、AI訓練ネットワーク620は、訓練画像810および/または患者における器官もしくは他の構造についての既知ではあるが臨床上は望ましくない様々な見え方を示す取得された超音波画像817を用いて訓練されてよく、したがって超音波装置610内の超音波画像認識モジュール621は、そのような見え方を認識しうる。さらに、AI訓練ネットワーク620は、認識されているが臨床的には標準的でないか、または望ましくない見え方の1つもしくは複数のシーケンスを用いて訓練されてよく、AI訓練ネットワーク620は、そのような臨床的には望ましくない見え方のシーケンスまたは漸進が、臨床的に望ましい見え方へと向かうこと、および/または遠ざかることを認識するように訓練されてよい(たとえば訓練画像810は、心尖部2腔の見え方から心尖部3腔の見え方に向かっていく、および/またはそこから離れていく、プローブ118の回転を表す一連の超音波画像を含んでいてよい)。したがって、AI訓練ネットワーク620は、受信された超音波画像が特定の臨床的に望ましい見え方を表していないものの臨床的に望ましい見え方へと連続的に近づいていく(または遠ざかっていく)ことを認識するように訓練されてよい(したがって超音波撮像装置610内の超音波画像認識モジュール621がそのように実装されうる)。
さらに、AI訓練ネットワーク620は、超音波撮像装置610内における超音波画像認識モジュール621として実装されたときに、超音波画像認識モジュール621が、受信された超音波画像が器官についての複数の臨床的に望ましい見え方のいずれかを表しているか否かを判定しうるように訓練されてよい。器官についてのこのような臨床的に望ましい見え方には、たとえば、胸骨上、肋骨下、短軸および長軸の傍胸骨、心尖部2腔、心尖部3腔、心尖部4腔および心尖部5腔での心臓の見え方が含まれうる。
図6は、クラウドベースの超音波画像認識AI訓練ネットワーク620を含む超音波データ情報システム600を示しているが、1つまたは複数の別の実施形態においては、超音波画像認識AI訓練ネットワーク620は、1つまたは複数の超音波装置610内に含まれていてもよい。したがって、超音波撮像装置610内のAI訓練ネットワーク620は、上述したように(そしてたとえば図8に示したように)初期訓練画像810に基づいて訓練されてよく、さらに、超音波撮像装置610によって取得され、訓練情報を供給するために何らかの方法でラベル付けされた、および/または修正された取得済みの超音波画像817に基づいて訓練されてよい。たとえば、超音波撮像装置610によって取得された超音波画像が、超音波画像認識モジュール621および/またはAI訓練ネットワーク620によって、心臓などの特定の器官についての望ましい臨床的な見え方を表していないとして判定されることがある。超音波撮像装置610を操作する超音波技師は、たとえば、取得された画像が実際には臨床的に望ましい見え方を表していることを知りうるが、しかしながら、患者の心臓は非定型の解剖学的構造を有しており、したがって超音波画像認識モジュール621および/またはAI訓練ネットワーク620は、画像が臨床的に望ましい見え方であると正しく認識しない。そのような場合、超音波技師は、(たとえば超音波撮像装置610上の対応するボタンを押すことによって、取得された画像を、超音波撮像装置610および/もしくはユーザコンピュータ装置630もしくはそれに類するものを利用して医師または他の熟練した専門家によるラベル付けのために、取得された超音波画像のデータベース615に記憶することよって)取得された画像を臨床的に望ましい見え方であるとしてラベル付けしてよい。画像は、臨床的に望ましい見え方を適切に表しているとしてラベル付けされると、AI訓練ネットワーク620および/または超音波撮像装置610内の超音波画像認識モジュール621をさらに訓練するための訓練入力(たとえば取得された超音波画像817)として供給される。したがって、超音波撮像装置610は、超音波撮像装置610によって取得された画像に基づいて、その内部にある超音波画像認識モジュール621を自己訓練する能力を含んでいてよい。
さらに、複数の組織(たとえば病院や診療所)または超音波撮像装置610の使用者のグループ(たとえば業界団体や非公式のグループ)は、それぞれ独自のAI訓練ネットワーク(組織もしくはグループ内の超音波撮像装置610によって取得された超音波画像に基づいて、更新された画像知識を供給するための、中央AI訓練ネットワーク620、もしくは別個の、組織もしくはグループのAI訓練ネットワークなど)および/または彼らの組織もしくはグループのための知識データベースを保有している場合があり、そのような組織またはグループ内の超音波撮像装置610によって取得された超音波画像から、更新が生成される。
図9は、1つまたは複数の実施形態による方法900を示すフローチャートである。ブロック902において、方法900は、超音波画像認識訓練ネットワーク(たとえばAI訓練ネットワーク620)によって超音波訓練画像810を受信するステップを含んでいる。
ブロック904において、方法900は、超音波画像認識訓練ネットワークによって、受信された超音波訓練画像810に基づいて超音波画像知識830を生成するステップを含んでいる。超音波画像知識830は、たとえば超音波画像知識データベース622内に記憶されていてよい。
ブロック906において、方法900は、超音波画像知識830を超音波撮像装置610へ送信するステップを含んでいる。超音波撮像装置610は、知識を更新するためにAI訓練ネットワーク620を定期的にポーリング(poll)してよく、このポーリングに応答して超音波画像知識830が送信されてよい。追加的にまたは代替的に、AI訓練ネットワーク620は、更新された超音波画像知識830を超音波撮像装置610へ定期的にプッシュ(push)してもよい。1つまたは複数の実施形態では、1つまたは複数の超音波撮像装置610および/またはユーザコンピュータ装置630は、更新された超音波画像知識830を受信し、更新された超音波画像知識830を(たとえばピアツーピア(peer-to-peer)または他のローカルネットワークを介して)1つまたは複数の他の超音波撮像装置610へと分配(distribute)してよい。たとえば、1つまたは複数のユーザコンピュータ装置630は、病院などの臨床現場内に配置されていてよく、更新された超音波画像知識830を受信して、それを同じ現場内に位置する複数の超音波撮像デバイス610へ供給してよい。
超音波画像知識830は、たとえば、超音波画像知識データベース622から直接に、またはAI訓練ネットワーク620から、超音波撮像装置610へ送信されてよい。あるいは、超音波画像知識830は、超音波画像知識830をさらに1つまたは複数の超音波撮像装置610へ送信するユーザコンピュータ装置630へ供給されてもよい。送信された超音波画像知識は、超音波撮像装置610内に含まれていてよい局所的な超音波画像知識データベース612内に記憶されてよい。
ブロック908において、方法900はさらに、超音波撮像装置610によって患者の超音波画像を取得するステップを含んでいる。ブロック910において、方法900は、取得された超音波画像が器官についての臨床的に望ましい見え方を表しているか否かを超音波撮像装置610によって(たとえば超音波画像認識モジュール621を利用して)判定するステップを含んでいる。判定は、たとえば超音波画像知識830に基づいて実行されてよい。
ブロック912において、方法900は、さらなる訓練のために、取得された患者についての超音波画像を超音波画像認識訓練ネットワークへ送信するステップを含んでいる。送信された患者についての取得された超音波画像は、取得された超音波画像に関連する1つまたは複数の既知の特性を示す訓練データを含んでいてよい。
上述の様々な実施形態は、さらなる実施形態を提供するために組み合わせることができる。上記の詳細な説明に照らし、これらの変更および他の変更を実施形態に対して適用することができる。一般に、後述の特許請求の範囲において使用されている用語は、特許請求の範囲を明細書および特許請求の範囲に開示される特定の実施形態に限定するものと解釈されるべきではなく、そのような特許請求の範囲が与えられる等価物の全範囲とともに実現可能なすべての実施形態を含むものと解釈されるべきである。したがって、特許請求の範囲は、本開示によって制限されない。

Claims (34)

  1. ハンドヘルドのプローブの移動中に患者の超音波画像を取得するように構成された前記ハンドヘルドのプローブを有する超音波撮像装置と、
    超音波画像認識モジュールとを含んでおり、
    前記超音波画像認識モジュールは、
    取得された前記超音波画像を前記超音波撮像装置から受信し、
    患者の診察中に前記ハンドヘルドのプローブが移動する間に、継続的に訓練されたニューラルネットワークを実装することによって、受信された前記超音波画像が器官についての臨床的に望ましい見え方を表しているか否かを自動的に判定し、ここで、前記臨床的に望ましい器官の見え方は、胸骨上、肋骨下、短軸傍胸骨、長軸傍胸骨、心尖部2腔、心尖部3腔、心尖部4腔、および心尖部5腔での心臓の見え方の少なくとも一つを含んでおり、
    前記器官についての臨床的に望ましい見え方を取得するために、前記ハンドヘルドのプローブについての、特定の使用者の動きを自動的に判定し、
    前記特定の使用者の動きについての表示を前記使用者に提供するように構成され、ここで前記表示は、前記ハンドヘルドのプローブについての使用者の回転の表示、および、特定の方向における前記ハンドヘルドのプローブについての使用者の並進の表示のうちの少なくとも一つを含んでおり、
    ここで前記超音波画像認識モジュールは、前記受信された超音波画像が前記器官についての前記臨床的に望ましい見え方に連続的に近づいているか、または前記器官についての前記臨床的に望ましい見え方から連続的に遠ざかっているかを自動的に判定するようになっている
    超音波システム。
  2. 前記訓練されたニューラルネットワークは、深層学習ネットワークおよび畳み込みニューラルネットワークのうちの少なくとも1つを含む
    請求項1に記載の超音波システム。
  3. 前記超音波撮像装置は、前記器官についての複数の前記臨床的に望ましい見え方のうちの1つの選択を受信するように動作可能なユーザインタフェースを含んでおり、前記超音波画像認識モジュールは、前記受信された超音波画像が前記器官についての選択された前記臨床的に望ましい見え方を表しているか否かを判定するように構成されている
    請求項1に記載の超音波システム。
  4. 前記超音波画像認識モジュールは、前記受信された超音波画像が、前記器官についての複数の前記臨床的に望ましい見え方の少なくとも1つを表しているか否かを自動的に判定するように動作可能である
    請求項1に記載の超音波システム。
  5. 前記超音波画像認識モジュールは、前記受信された超音波画像が前記器官についての前記臨床的に望ましい見え方を表しているか否かの判定に応答して、前記超音波撮像装置へフィードバック信号を供給するようにさらに構成されている
    請求項1に記載の超音波システム。
  6. 前記フィードバック信号は、直近に受信された超音波画像が前記器官についての前記臨床的に望ましい見え方を表しているか否かを示す
    請求項5に記載の超音波システム。
  7. 前記フィードバック信号は、前記受信された超音波画像が前記器官についての前記臨床的に望ましい見え方に連続的に近づいているか、または前記器官についての前記臨床的に望ましい見え方から連続的に遠ざかっているかを示す
    請求項5に記載の超音波システム。
  8. 前記超音波撮像装置は、フィードバック要素を含んでおり、前記超音波撮像装置が、前記フィードバック信号に基づいて前記超音波撮像装置の使用者へフィードバック効果を提供するために前記フィードバック要素を作動させるように構成されている
    請求項5に記載の超音波システム。
  9. 前記フィードバック要素は、視覚的な、可聴的な、または触覚のフィードバック要素のうちの少なくとも1つを含む
    請求項8に記載の超音波システム。
  10. 非一時的なコンピュータ可読記憶媒体をさらに備えており、前記超音波撮像装置は、前記超音波画像認識モジュールが、前記取得された超音波画像が前記器官についての前記臨床的に望ましい見え方を表していると判定することに応答して、取得された超音波画像を、記憶用の前記記憶媒体へ供給するように構成されている
    請求項1に記載の超音波システム。
  11. 前記超音波画像認識モジュールは、前記超音波撮像装置内で動作する
    請求項1に記載の超音波システム。
  12. 超音波撮像装置におけるハンドヘルドのプローブによって患者の超音波画像を前記ハンドヘルドのプローブの移動中に取得するステップと、
    前記患者について取得された前記超音波画像を超音波画像認識モジュールへ送信するステップと、
    前記患者の診察の間、前記ハンドヘルドのプローブの移動中に、前記取得された超音波画像が器官についての臨床的に望ましい見え方を表しているか否かを、訓練されたニューラルネットワークを実装する前記超音波画像認識モジュールによって自動的に判定するステップと、ここで、前記器官についての前記臨床的に望ましい見え方は、胸骨上、肋骨下、短軸傍胸骨、長軸傍胸骨、心尖部2腔、心尖部3腔、心尖部4腔、および心尖部5腔での心臓の見え方の少なくとも一つを含んでおり、
    前記器官についての前記臨床的に望ましい見え方を取得するために、ハンドヘルドのプローブについての特定の使用者の動きを自動的に判定するステップと、
    前記使用者に前記特定の使用者の動きについての表示を提供するステップ、ここで前記表示は、前記ハンドヘルドのプローブについての使用者の回転、及び、特定の方向における前記ハンドヘルドのプローブについての使用者の並進のうちの少なくとも一つの表示を含んでいる、
    を含んでおり、
    ここで前記超音波画像認識モジュールは、前記受信された超音波画像が前記器官についての前記臨床的に望ましい見え方に連続的に近づいているか、または前記器官についての前記臨床的に望ましい見え方から連続的に遠ざかっているかを自動的に判定するようになっている
    方法。
  13. 前記訓練されたニューラルネットワークを実装することは、深層学習ネットワーク、および、畳み込みニューラルネットワークのうちの少なくとも1つの実装を含む
    請求項12に記載の方法。
  14. 複数の前記器官についての前記臨床的に望ましい見え方の中からの1つの選択を受信するステップをさらに含んでおり、前記超音波画像認識モジュールは、前記受信された超音波画像が前記器官についての選択された前記臨床的に望ましい見え方を表しているか否かを判定するように構成されている
    請求項12に記載の方法。
  15. 前記受信された超音波画像が前記器官についての前記臨床的に望ましい見え方を表しているか否かを判定することに応答して、フィードバック信号を前記超音波撮像装置へ送信するステップをさらに含む
    請求項12に記載の方法。
  16. 記フィードバック信号は、前記受信された超音波画像が前記器官についての前記臨床的に望ましい見え方に連続的に近づいているか、または前記器官についての前記臨床的に望ましい見え方から連続的に遠ざかっているかを示す
    請求項15に記載の方法。
  17. 前記超音波撮像装置の使用者にフィードバック効果を提供するために、前記フィードバック信号に基づいて、前記超音波撮像装置内のフィードバック要素を作動させるステップをさらに含む
    請求項15に記載の方法。
  18. 前記取得された超音波画像が前記器官についての前記臨床的に望ましい見え方を表していると判定する前記超音波画像認識モジュールに応答して、取得された超音波画像を非一時的なコンピュータ可読記憶媒体に記憶するステップをさらに含む
    請求項12に記載の方法。
  19. 1つまたは複数のプロセッサを有するコンピュータ装置上に少なくとも部分的に記憶された超音波画像認識訓練ネットワークと、ここで前記超音波画像認識訓練ネットワークは、超音波訓練画像を受信するように構成され、かつ、受信された前記超音波訓練画像に基づいて超音波画像知識を成長させるように構成されたニューラルネットワークを含んでおり、
    ハンドヘルドのプローブの移動中に患者の超音波画像を取得するように構成された前記ハンドヘルドのプローブを有する超音波撮像装置と、
    前記超音波撮像装置内の超音波画像認識モジュールとを備えており、ここで前記超音波画像認識モジュールは、
    前記超音波画像知識を受信し、
    取得された前記超音波画像を前記超音波撮像装置から受信し、
    前記患者の診察の間であって前記ハンドヘルドのプローブの移動中に、前記超音波画像知識に基づいて、受信された前記超音波画像が器官についての臨床的に望ましい見え方を表しているか否かを判定し、ここで前記器官についての前記臨床的に望ましい見え方は、胸骨上、肋骨下、短軸傍胸骨、長軸傍胸骨、心尖部2腔、心尖部3腔、心尖部4腔、および心尖部5腔での心臓の見え方の少なくとも一つを含んでおり、
    前記器官についての前記臨床的に望ましい見え方を取得するために、ハンドヘルドのプローブについての特定の使用者の動きを自動的に判定し、
    前記使用者に前記特定の使用者の動きについての表示を提供する、ここで前記表示は、前記ハンドヘルドのプローブの使用者の回転、又は、特定の方向における前記ハンドヘルドのプローブの使用者の並進のうちの少なくとも一つについての表示を含む
    ように構成されており、
    ここで前記超音波画像認識モジュールは、前記受信された超音波画像が前記器官についての前記臨床的に望ましい見え方に連続的に近づいているか、または前記器官についての前記臨床的に望ましい見え方から連続的に遠ざかっているかを自動的に判定するようになっている
    超音波データ情報システム。
  20. 前記超音波画像認識訓練ネットワークの前記ニューラルネットワークは、深層学習ネットワーク、および、畳み込みニューラルネットワークの少なくとも1つを含む
    請求項19に記載の超音波データ情報システム。
  21. 前記超音波画像認識モジュールは、前記受信された超音波画像が前記器官についての複数の前記臨床的に望ましい見え方のうちの少なくとも1つを表しているか否かを判定するように動作可能である
    請求項19に記載の超音波データ情報システム。
  22. 前記超音波撮像装置は、さらに、前記超音波画像認識訓練ネットワークをさらに訓練して、更新された超音波画像知識を成長させるために、前記取得された超音波画像を前記超音波画像認識訓練ネットワークへ供給するように構成されている
    請求項19に記載の超音波データ情報システム。
  23. 前記超音波画像認識訓練ネットワークは、超音波訓練画像を受信するように構成されており、前記超音波訓練画像は、初期訓練画像と前記超音波撮像装置によって取得された前記超音波画像とを含む
    請求項19に記載の超音波データ情報システム。
  24. 前記超音波画像認識訓練ネットワークと通信可能に接続されていて、前記超音波画像知識を記憶するように構成された超音波画像知識データベースと、
    前記超音波撮像装置と通信可能に接続されていて、前記超音波画像知識の少なくとも一部を記憶するように構成された局所的な超音波画像知識データベースとをさらに含む
    請求項19に記載の超音波データ情報システム。
  25. 前記超音波画像認識モジュールは、前記超音波画像知識に基づいて、前記受信された超音波画像が正常な機能または特定の病変のどちらを示しているかを判定するようにさらに構成されている
    請求項19に記載の超音波データ情報システム。
  26. ニューラルネットワークを含む超音波画像認識訓練ネットワークによって、超音波訓練画像を受信するステップと、
    前記超音波画像認識訓練ネットワークによって、受信された前記超音波訓練画像に基づいて超音波画像知識を生成するステップと、
    前記超音波画像知識を、ハンドヘルドのプローブを有する超音波撮像装置へ送信するステップとを含み、ここで前記超音波撮像装置は、前記超音波画像認識訓練ネットワークとは別個であって、それから離れて位置しており、
    さらに、前記超音波撮像装置により、患者の超音波画像を、前記ハンドヘルドのプローブの移動中に取得するステップと、
    前記患者の診察の間、前記ハンドヘルドのプローブの移動中に、前記超音波画像知識に基づいて、前記取得された超音波画像が、構造についての臨床的に望ましい見え方を表しているかどうかを、超音波画像認識モジュールが自動的に判定するステップと、ここで、前記構造についての前記臨床的に望ましい見え方は、胸骨上、肋骨下、短軸傍胸骨、長軸傍胸骨、心尖部2腔、心尖部3腔、心尖部4腔、および心尖部5腔での心臓の見え方の少なくとも一つを含んでおり、
    前記構造についての前記臨床的に望ましい見え方を取得するために、ハンドヘルドのプローブについての特定の使用者の動きを自動的に判定するステップと、
    前記使用者に前記特定の使用者の動きについての表示を提供するステップと、ここで前記表示は、前記ハンドヘルドのプローブの使用者の回転、および、特定の方向における前記ハンドヘルドのプローブの使用者の並進のうちの少なくとも一つについての表示を含む、
    を含んでおり、
    前記超音波画像認識モジュールは、前記受信された超音波画像が前記器官についての前記臨床的に望ましい見え方に連続的に近づいているか、または前記器官についての前記臨床的に望ましい見え方から連続的に遠ざかっているかを自動的に判定するようになっている
    方法。
  27. 前記超音波画像認識訓練ネットワークをさらに訓練し、更新された超音波画像知識を生成するために、前記患者について前記取得された超音波画像を前記超音波画像認識訓練ネットワークへ送信するステップをさらに含む
    請求項26に記載の方法。
  28. 前記ニューラルネットワークは、深層学習ネットワーク、および、畳み込みニューラルネットワークの少なくとも1つを含む
    請求項26に記載の方法。
  29. 前記患者についての送信された前記取得された超音波画像は、前記取得された超音波画像に関連する1つまたは複数の既知の特性を示す訓練データを含む
    請求項27に記載の方法。
  30. 前記取得された超音波画像が正常な機能または特定の病変のどちらを示しているかを、前記超音波画像知識に基づいて判定するステップをさらに含む
    請求項26に記載の方法。
  31. 前記超音波撮像装置は、前記ハンドヘルドのプローブ内に動きセンサを有しており、かつ、前記超音波撮像装置は、前記ハンドヘルドのプローブの位置及び向きを、前記動きセンサの出力に基づいて判定するように構成されている
    請求項1に記載の超音波システム。
  32. 前記超音波画像認識モジュールは、前記器官についての臨床的に望ましい見え方を使用者が取得することを、前記ハンドヘルドのプローブの位置及び向きに基づいて、前記ハンドヘルドのプローブの前記特定の使用者の動きの前記表示を提供することによって支援するように構成されている
    請求項31に記載の超音波システム。
  33. 前記超音波撮像装置は、
    前記ハンドヘルドのプローブについての前記判定された位置及び向きにおいて取得された超音波画像が前記器官についての臨床的に望ましくない見え方を表すことを判定するように、そして
    前記器官についての臨床的の望ましい見え方を取得するために、前記ハンドヘルドのプローブの前記特定の使用者の動きの表示を提供するように
    構成されている請求項31に記載の超音波システム。
  34. 前記超音波画像認識モジュールは、受信した前記超音波画像が前記器官についての臨床的に望ましい見え方ではないという判定に対応して前記ハンドヘルドのプローブについての前記特定の使用者の動きの前記表示を提供することによって、前記器官についての臨床的に望ましい見え方を使用者が取得することを支援するように構成されている
    請求項1に記載の超音波システム。
JP2018567018A 2016-03-09 2017-03-09 人工知能ネットワークを活用した超音波画像認識システムと方法 Active JP7163195B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662305980P 2016-03-09 2016-03-09
US62/305,980 2016-03-09
US201662313601P 2016-03-25 2016-03-25
US62/313,601 2016-03-25
PCT/US2017/021668 WO2017156329A1 (en) 2016-03-09 2017-03-09 Ultrasound image recognition systems and methods utilizing an artificial intelligence network

Publications (3)

Publication Number Publication Date
JP2019509871A JP2019509871A (ja) 2019-04-11
JP2019509871A5 JP2019509871A5 (ja) 2020-04-16
JP7163195B2 true JP7163195B2 (ja) 2022-10-31

Family

ID=58358983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018567018A Active JP7163195B2 (ja) 2016-03-09 2017-03-09 人工知能ネットワークを活用した超音波画像認識システムと方法

Country Status (9)

Country Link
US (2) US10964424B2 (ja)
EP (1) EP3426158A1 (ja)
JP (1) JP7163195B2 (ja)
KR (1) KR102425141B1 (ja)
CN (2) CN112957074A (ja)
AU (1) AU2017230722B2 (ja)
CA (1) CA3016903A1 (ja)
RU (1) RU2740698C2 (ja)
WO (1) WO2017156329A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3291735A1 (en) * 2015-05-07 2018-03-14 Koninklijke Philips N.V. System and method for motion compensation in medical procedures
US10964424B2 (en) * 2016-03-09 2021-03-30 EchoNous, Inc. Ultrasound image recognition systems and methods utilizing an artificial intelligence network
EP3471623B1 (en) * 2016-06-20 2023-01-25 Butterfly Network, Inc. Automated image acquisition for assisting a user to operate an ultrasound device
FR3059541B1 (fr) * 2016-12-07 2021-05-07 Bay Labs Inc Navigation guidee d'une sonde ultrason
US20210327303A1 (en) * 2017-01-24 2021-10-21 Tienovix, Llc System and method for augmented reality guidance for use of equipment systems
US20210327304A1 (en) * 2017-01-24 2021-10-21 Tienovix, Llc System and method for augmented reality guidance for use of equpment systems
US20210295048A1 (en) * 2017-01-24 2021-09-23 Tienovix, Llc System and method for augmented reality guidance for use of equipment systems
CA3049148A1 (en) 2017-01-24 2018-08-02 Tietronix Software, Inc. System and method for three-dimensional augmented reality guidance for use of medical equipment
JP2020522334A (ja) * 2017-06-06 2020-07-30 アヴェント インコーポレイテッド ディープラーニングネットワークを使用して解剖学的対象物を識別及びナビゲートするためのシステム及び方法
EP3420913B1 (en) * 2017-06-26 2020-11-18 Samsung Medison Co., Ltd. Ultrasound imaging apparatus and control method thereof
US20190076127A1 (en) * 2017-09-12 2019-03-14 General Electric Company Method and system for automatically selecting ultrasound image loops from a continuously captured stress echocardiogram based on assigned image view types and image characteristic metrics
CN107767928A (zh) * 2017-09-15 2018-03-06 深圳市前海安测信息技术有限公司 基于人工智能的医学影像报告生成系统及方法
US10507009B2 (en) 2017-10-05 2019-12-17 EchoNous, Inc. System and method for fusing ultrasound with additional signals
US11382601B2 (en) * 2018-03-01 2022-07-12 Fujifilm Sonosite, Inc. Method and apparatus for annotating ultrasound examinations
EP3763295B1 (en) * 2018-03-05 2024-04-17 FUJIFILM Corporation Ultrasound diagnosis device and method for controlling ultrasound diagnosis device
EP3536245A1 (en) * 2018-03-08 2019-09-11 Koninklijke Philips N.V. A system and method of identifying characteristics of ultrasound images
WO2019174953A1 (en) * 2018-03-12 2019-09-19 Koninklijke Philips N.V. Ultrasound imaging dataset acquisition for neural network training and associated devices, systems, and methods
JP7407725B2 (ja) * 2018-03-12 2024-01-04 コーニンクレッカ フィリップス エヌ ヴェ ニューラルネットワークのための超音波撮像平面整列ガイダンス並びに関連するデバイス、システム、及び方法
US20190282208A1 (en) * 2018-03-14 2019-09-19 Butterfly Network, Inc. Methods and apparatuses for generating and displaying ultrasound images using an explaining model
ES2938515T3 (es) * 2018-05-15 2023-04-12 Univ New York Sistema y método para orientar la captura de imágenes de ultrasonidos
US11497478B2 (en) * 2018-05-21 2022-11-15 Siemens Medical Solutions Usa, Inc. Tuned medical ultrasound imaging
US20190388060A1 (en) * 2018-06-22 2019-12-26 General Electric Company Imaging system and method with live examination completeness monitor
JP7099901B2 (ja) * 2018-08-06 2022-07-12 富士フイルムヘルスケア株式会社 超音波画像処理装置およびプログラム
JP2022508629A (ja) 2018-10-08 2022-01-19 エコーノース インコーポレーテッド 超音波センサ、聴診センサ、及び周囲ノイズセンサを含む装置
JP7462624B2 (ja) 2018-10-16 2024-04-05 コーニンクレッカ フィリップス エヌ ヴェ 深層学習に基づく超音波撮像ガイダンス並びに関連するデバイス、システム、及び方法
CN109616195A (zh) * 2018-11-28 2019-04-12 武汉大学人民医院(湖北省人民医院) 基于深度学习的纵隔超声内镜图像实时辅助诊断系统及方法
KR102261869B1 (ko) 2018-12-19 2021-06-07 포인드 주식회사 메타학습된 생성적 대립 네트워크를 이용한 인공지능의 빠른 이미지 생성 방법
KR102284356B1 (ko) 2019-01-31 2021-08-02 동서대학교 산학협력단 컴퓨터 네트워크 시스템의 생성적 대립 네트워크를 이용한 데이터의 불균형 해결방법
US20200245970A1 (en) * 2019-01-31 2020-08-06 Bay Labs, Inc. Prescriptive guidance for ultrasound diagnostics
US20220000448A1 (en) * 2019-02-04 2022-01-06 Google Llc Instrumented Ultrasound Probes For Machine-Learning Generated Real-Time Sonographer Feedback
KR102266950B1 (ko) 2019-03-25 2021-06-17 동서대학교 산학협력단 데이터 불균형 해결을 위한 언더샘플링 기반 앙상블 방법
US11707255B2 (en) 2019-04-02 2023-07-25 Siemens Medical Solutions Usa, Inc. Image-based probe positioning
JP7269778B2 (ja) * 2019-04-04 2023-05-09 富士フイルムヘルスケア株式会社 超音波撮像装置、および、画像処理装置
KR102224627B1 (ko) * 2019-04-08 2021-03-09 울산대학교 산학협력단 임신 1분기 초음파 이미지 분석 방법 및 장치
US11844654B2 (en) 2019-08-19 2023-12-19 Caption Health, Inc. Mid-procedure view change for ultrasound diagnostics
CN110432928B (zh) * 2019-08-22 2021-11-26 深圳瀚维智能医疗科技有限公司 超声图像扫查方法、装置及设备
CN114760929A (zh) * 2019-11-21 2022-07-15 皇家飞利浦有限公司 用于获得医学超声图像的系统和方法
WO2021137755A1 (en) * 2019-12-30 2021-07-08 Medo Dx Pte. Ltd Apparatus and method for automated analyses of ultrasound images
CN113116377B (zh) * 2019-12-31 2023-07-28 无锡祥生医疗科技股份有限公司 超声成像导航方法、超声设备及存储介质
JP7428020B2 (ja) * 2020-03-06 2024-02-06 コニカミノルタ株式会社 超音波診断装置、超音波画像生成方法、プログラム及びモデル訓練装置
CN111513759B (zh) * 2020-04-26 2021-08-17 珠海格力电器股份有限公司 监测健康状态的方法、装置、电子设备和计算机可读介质
US11514326B2 (en) * 2020-06-18 2022-11-29 International Business Machines Corporation Drift regularization to counteract variation in drift coefficients for analog accelerators
CN112767305B (zh) * 2020-12-15 2024-03-08 首都医科大学附属北京儿童医院 先天性心脏病的超声心动图识别方法及装置
WO2022182603A1 (en) * 2021-02-23 2022-09-01 West Virginia University Board of Governors on behalf of West Virginia University Radon transform and persistent homology patient barcodes
IT202100004376A1 (it) * 2021-02-25 2022-08-25 Esaote Spa Metodo di determinazione di piani di scansione nell’acquisizione di immagini ecografiche e sistema ecografico per l’attuazione del detto metodo
US11763428B2 (en) 2021-06-22 2023-09-19 Saudi Arabian Oil Company System and method for de-noising an ultrasonic scan image using a convolutional neural network
CN113539438A (zh) * 2021-07-07 2021-10-22 众享健康医疗科技(浙江)有限公司 一种面向胎儿先天性心脏病筛查的人工智能辅助系统
CA3237255A1 (en) * 2021-11-05 2023-05-11 Styliani Stella DASKALOPOULOU Method and system for detection of histopathological plaque features in medical images using deep neural networks
CN114419044B (zh) * 2022-03-30 2022-06-17 广东恒腾科技有限公司 一种基于人工智能的医用超声图像分析系统及方法
CN117114072A (zh) * 2023-08-31 2023-11-24 四川维思模医疗科技有限公司 一种超声图像用于模拟系统训练应用的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5186269B2 (ja) 2007-04-12 2013-04-17 富士フイルム株式会社 画像認識結果判定装置、方法、およびプログラム
WO2015087218A1 (en) 2013-12-09 2015-06-18 Koninklijke Philips N.V. Imaging view steering using model-based segmentation
WO2016001784A1 (en) 2014-06-30 2016-01-07 Koninklijke Philips N.V. Translation of ultrasound array responsive to anatomical orientation

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6607488B1 (en) 2000-03-02 2003-08-19 Acuson Corporation Medical diagnostic ultrasound system and method for scanning plane orientation
US6438401B1 (en) * 2000-04-28 2002-08-20 Alpha Intervention Technology, Inc. Indentification and quantification of needle displacement departures from treatment plan
US7421140B2 (en) 2001-11-21 2008-09-02 Shraga Rottem Method and system for enhancing the quality of device images
JP4088104B2 (ja) 2002-06-12 2008-05-21 株式会社東芝 超音波診断装置
FI114367B (fi) * 2002-10-31 2004-09-30 Nokia Corp Päätelaite ja menetelmä näytön ohjaamiseksi päätelaitteessa
US7458936B2 (en) * 2003-03-12 2008-12-02 Siemens Medical Solutions Usa, Inc. System and method for performing probabilistic classification and decision support using multidimensional medical image databases
US7092749B2 (en) * 2003-06-11 2006-08-15 Siemens Medical Solutions Usa, Inc. System and method for adapting the behavior of a diagnostic medical ultrasound system based on anatomic features present in ultrasound images
US7912528B2 (en) * 2003-06-25 2011-03-22 Siemens Medical Solutions Usa, Inc. Systems and methods for automated diagnosis and decision support for heart related diseases and conditions
JP4263579B2 (ja) 2003-10-22 2009-05-13 アロカ株式会社 超音波診断装置
CN1934589A (zh) * 2004-03-23 2007-03-21 美国西门子医疗解决公司 为医学成像提供自动决策支持的系统和方法
WO2006034366A1 (en) 2004-09-21 2006-03-30 Siemens Medical Solutions Usa, Inc. Hierarchical medical image view determination
US7648460B2 (en) * 2005-08-31 2010-01-19 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging optimization based on anatomy recognition
US7693349B2 (en) 2006-08-15 2010-04-06 General Electric Company Systems and methods for interactive image registration
US7565262B2 (en) * 2006-10-05 2009-07-21 Siemens Corporate Research, Inc. Bayesian sensor estimation for machine condition monitoring
US8073215B2 (en) * 2007-09-18 2011-12-06 Siemens Medical Solutions Usa, Inc. Automated detection of planes from three-dimensional echocardiographic data
US8556814B2 (en) * 2007-10-04 2013-10-15 Siemens Medical Solutions Usa, Inc. Automated fetal measurement from three-dimensional ultrasound data
US8348847B2 (en) * 2008-08-05 2013-01-08 Guardsman Scientific, Inc. System and method for managing a patient
CN102469988B (zh) * 2009-07-16 2014-12-03 尤奈克斯公司 超声波血管检查装置
RU2589625C2 (ru) 2010-02-09 2016-07-10 Конинклейке Филипс Электроникс Н.В. Устройство, система и способ для визуализации и лечения с использованием оптического определения положения
JP5560750B2 (ja) * 2010-02-09 2014-07-30 日産自動車株式会社 車両の警報音発生装置
GB2479406A (en) * 2010-04-09 2011-10-12 Medaphor Ltd Ultrasound Simulation Training System
US20120065508A1 (en) 2010-09-09 2012-03-15 General Electric Company Ultrasound imaging system and method for displaying a target image
CN103189869B (zh) * 2010-10-27 2017-08-11 皇家飞利浦电子股份有限公司 成像系统信息的传送
US9734430B2 (en) 2012-01-02 2017-08-15 Mackay Memorial Hospital Evaluation system or determination of cardiovascular function parameters
US8777856B2 (en) * 2012-06-26 2014-07-15 General Electric Company Diagnostic system and method for obtaining an ultrasound image frame
GB2507987A (en) 2012-11-15 2014-05-21 Imp Innovations Ltd Method of automatically processing an ultrasound image
US9918700B2 (en) * 2013-02-01 2018-03-20 Siemens Medical Solutions Usa, Inc. Tuning ultrasound acquisition parameters
WO2014162232A1 (en) 2013-04-03 2014-10-09 Koninklijke Philips N.V. 3d ultrasound imaging system
WO2014207642A1 (en) 2013-06-28 2014-12-31 Koninklijke Philips N.V. Ultrasound acquisition feedback guidance to a target view
US9668699B2 (en) * 2013-10-17 2017-06-06 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
US9700219B2 (en) * 2013-10-17 2017-07-11 Siemens Healthcare Gmbh Method and system for machine learning based assessment of fractional flow reserve
US9730643B2 (en) 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
KR20150069830A (ko) * 2013-12-16 2015-06-24 삼성전자주식회사 의료 영상을 이용한 혈관 분석 정보 제공 방법 및 장치
CN203825644U (zh) * 2014-03-26 2014-09-10 国家电网公司 一种基于图像识别输电线路的雾等级的系统
US9436995B2 (en) 2014-04-27 2016-09-06 International Business Machines Corporation Discriminating between normal and abnormal left ventricles in echocardiography
KR20160014470A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 비시각 정보 제공 기반의 컴퓨터 보조 진단 지원 장치 및 방법과, 컴퓨터 보조 진단 시스템
JP2016036644A (ja) * 2014-08-11 2016-03-22 セイコーエプソン株式会社 超音波血圧計測装置および血圧計測方法
US9918701B2 (en) 2014-09-03 2018-03-20 Contextvision Ab Methods and systems for automatic control of subjective image quality in imaging of objects
KR102328269B1 (ko) 2014-10-23 2021-11-19 삼성전자주식회사 초음파 영상 장치 및 그 제어 방법
WO2016194161A1 (ja) 2015-06-03 2016-12-08 株式会社日立製作所 超音波診断装置、及び画像処理方法
EP3323086A1 (en) 2015-07-15 2018-05-23 Oxford University Innovation Limited System and method for structures detection and multi-class image categorization in medical imaging
US20170086785A1 (en) * 2015-09-30 2017-03-30 General Electric Company System and method for providing tactile feedback via a probe of a medical imaging system
US10964424B2 (en) * 2016-03-09 2021-03-30 EchoNous, Inc. Ultrasound image recognition systems and methods utilizing an artificial intelligence network
US10813595B2 (en) * 2016-12-09 2020-10-27 General Electric Company Fully automated image optimization based on automated organ recognition
EP3621525A1 (en) 2017-05-11 2020-03-18 Verathon, Inc. Probability map-based ultrasound scanning
WO2018210714A1 (en) 2017-05-18 2018-11-22 Koninklijke Philips N.V. Convolutional deep learning analysis of temporal cardiac images
US20200170615A1 (en) * 2017-08-17 2020-06-04 Koninklijke Philips N.V. Ultrasound system with extraction of image planes from volume data using touch interaction with an image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5186269B2 (ja) 2007-04-12 2013-04-17 富士フイルム株式会社 画像認識結果判定装置、方法、およびプログラム
WO2015087218A1 (en) 2013-12-09 2015-06-18 Koninklijke Philips N.V. Imaging view steering using model-based segmentation
WO2016001784A1 (en) 2014-06-30 2016-01-07 Koninklijke Philips N.V. Translation of ultrasound array responsive to anatomical orientation

Also Published As

Publication number Publication date
JP2019509871A (ja) 2019-04-11
AU2017230722B2 (en) 2022-08-11
RU2740698C2 (ru) 2021-01-19
US20210272679A1 (en) 2021-09-02
CA3016903A1 (en) 2017-09-14
US10964424B2 (en) 2021-03-30
EP3426158A1 (en) 2019-01-16
CN112957074A (zh) 2021-06-15
KR20180130511A (ko) 2018-12-07
RU2018135297A (ru) 2020-04-09
RU2018135297A3 (ja) 2020-06-30
KR102425141B1 (ko) 2022-07-26
CN109362221A (zh) 2019-02-19
AU2017230722A1 (en) 2018-10-04
US20170262982A1 (en) 2017-09-14
WO2017156329A1 (en) 2017-09-14

Similar Documents

Publication Publication Date Title
JP7163195B2 (ja) 人工知能ネットワークを活用した超音波画像認識システムと方法
US11354791B2 (en) Methods and system for transforming medical images into different styled images with deep neural networks
KR102294734B1 (ko) 영상 정합 장치, 영상 정합 방법 및 영상 정합 장치가 마련된 초음파 진단 장치
KR102328269B1 (ko) 초음파 영상 장치 및 그 제어 방법
US20210077068A1 (en) Systems and methods for automated ultrasound image labeling and quality grading
EP3930617A1 (en) Training data collection for machine learning models
JP2021520939A (ja) 適応的超音波スキャニング
CN111432731A (zh) 用于检测图像伪影的智能超声系统
US20210330285A1 (en) Systems and methods for automated physiological parameter estimation from ultrasound image sequences
CN108938002A (zh) 用于获取超声检查的医学图像的方法和系统
US20220273267A1 (en) Ultrasonic imaging method and ultrasonic imaging system
KR20210010321A (ko) 초음파 이미징 데이터로부터 태아 이미지들을 프로세싱 및 디스플레이하기 위한 방법들 및 시스템들
US20230111601A1 (en) Assessing artificial intelligence to assess difficulty level of ultrasound examinations
EP4078511A1 (en) Generating a segmentation confidence map from node variations in a plurality of differently perturbed, model-based anatomical image segmentations

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221019

R150 Certificate of patent or registration of utility model

Ref document number: 7163195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150