CN115245344A - 学习模型生成方法、处理设备和存储介质 - Google Patents

学习模型生成方法、处理设备和存储介质 Download PDF

Info

Publication number
CN115245344A
CN115245344A CN202210319612.1A CN202210319612A CN115245344A CN 115245344 A CN115245344 A CN 115245344A CN 202210319612 A CN202210319612 A CN 202210319612A CN 115245344 A CN115245344 A CN 115245344A
Authority
CN
China
Prior art keywords
learning
image
weight
patient
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210319612.1A
Other languages
English (en)
Inventor
渕辺章太郎
石原阳太郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Precision Healthcare LLC
Original Assignee
GE Precision Healthcare LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Precision Healthcare LLC filed Critical GE Precision Healthcare LLC
Publication of CN115245344A publication Critical patent/CN115245344A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4869Determining body composition
    • A61B5/4872Body fat
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0037Performing a preliminary scan, e.g. a prescan for identifying a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/70Means for positioning the patient in relation to the detecting, measuring or recording means
    • A61B5/704Tables
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4064Arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
    • A61B6/4078Fan-beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4064Arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
    • A61B6/4085Cone-beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/542Control of apparatus or devices for radiation diagnosis involving control of exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Pulmonology (AREA)
  • Fuzzy Systems (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)

Abstract

问题提供一种可容易地采集患者的体重信息的技术。解决方案一种处理部件84,该处理部件基于患者40躺在X射线CT设备1的工作台4上的相机图像来推导该患者40的体重,该处理部件包括:生成部件841,该生成部件基于该相机图像来生成输入图像61;和推导部件842,该推导部件在将该输入图像61输入到学习模型91a中时推导该患者40的体重,其中该学习模型91a通过神经网络91使用以下项执行学习来生成:(1)多个学习图像C1至Cn,该多个学习图像基于多个相机图像来生成;和(2)多个正确应答数据G1至Gn,该多个正确应答数据对应于该多个学习图像C1至Cn,其中该多个正确应答数据G1至Gn中的每个正确应答数据表示包括在对应学习图像中的人类的体重。

Description

学习模型生成方法、处理设备和存储介质
技术领域
本发明涉及一种生成用于推导体重的学习模型的方法、一种执行用于确定躺在工作台上的成像受检者的体重的过程的处理设备和一种存储用于致使处理器执行用于确定体重的过程的命令的存储介质。
背景技术
X射线CT设备被称为一种医疗设备,其非侵入性地捕获患者体内的图像。X射线CT设备可捕获要在短时间段内成像的部位的图像,并且因此已在医院和其它医疗设施中变得普遍。
另一方面,CT设备使用X射线来检查患者,并且因为CT设备变得更加普遍,所以对于检查期间的患者暴露的担忧越来越多。因此,从尽可能多地减少来自X射线的患者暴露剂量等角度来看,重要的是控制患者暴露剂量。因此,已开发了用于控制剂量的技术。例如,专利文献1公开了一种剂量控制系统。
引文列表
专利文献
[专利文献1]日本未经审查的专利申请2015-173889
发明内容
技术问题
近年来,剂量控制已基于厚生劳动省的指南而变得更严格,并且这些指南表明剂量控制应当基于诊断参考水平(DRL)。必须参考诊断参考水平的指南来控制剂量。此外,不同的患者具有不同的体格,并且因此,重要的是,不仅控制患者在CT扫描期间经受的暴露剂量,而且控制患者体重信息,以便控制每个患者的剂量。因此,医疗机构获得每个患者的体重信息,并且将信息记录在RIS(放射学信息系统)中。
在医疗机构中,例如,在CT扫描之前通过定秤测量患者的体重,以便获得患者体重信息。一旦测量患者的体重,则将所测量的体重记录在RIS中。然而,并非总能够针对每次CT扫描在定秤上测量患者的体重。因此,记录在RIS中的体重信息可能过时,并且不希望用过时体重信息来控制剂量。此外,还存在问题的情况是,如果患者使用轮椅或担架,则体重测量本身并不容易。
因此,需要可容易地采集患者的体重信息的技术。
问题的解决方案
本发明的第一方面是一种生成学习模型的学习模型生成方法,该学习模型在输入成像受检者躺在医疗设备的工作台上的输入图像时输出该成像受检者的体重,其中神经网络通过使用以下项执行学习来生成该学习模型:
(1)多个学习图像,该多个学习图像基于人类躺在医疗设备的工作台上的多个相机图像来生成;和
(2)多个正确应答数据,该多个正确应答数据对应于该多个学习图像,其中该多个正确应答数据中的每个正确应答数据表示包括在对应学习图像中的人类的体重。
本发明的第二方面是一种处理设备,该处理设备执行基于成像受检者躺在医疗设备的工作台上的相机图像来确定该成像受检者的体重的过程。
本发明的第三方面是一种存储介质,包括:一个或多个非易失性计算机可读存储介质,该一个或多个非易失性计算机可读存储介质存储能够由一个或多个处理器执行的一个或多个命令,其中
该一个或多个命令致使该一个或多个处理器执行基于成像受检者躺在医疗设备的工作台上的相机图像来确定该成像受检者的体重的过程。
本发明的第四方面是一种医疗设备,该医疗设备执行基于成像受检者躺在医疗设备的工作台上的相机图像来确定该成像受检者的体重的过程。
本发明的第五方面是一种学习模型,该学习模型在输入成像受检者躺在医疗设备的工作台上的输入图像时输出该成像受检者的体重,其中该学习模型通过神经网络使用以下项执行学习来生成:
(1)多个学习图像,该多个学习图像基于人类躺在医疗设备的工作台上的多个相机图像来生成;和
(2)多个正确应答数据,该多个正确应答数据对应于该多个学习图像,其中该多个正确应答数据中的每个正确应答数据表示包括在对应学习图像中的人类的体重。
本发明的第六方面是一种生成学习模型的学习模型生成设备,该学习模型在输入成像受检者躺在医疗设备的工作台上的输入图像时输出该成像受检者的体重,其中神经网络通过使用以下项执行学习来生成该学习模型:
(1)多个学习图像,该多个学习图像基于人类躺在医疗设备的工作台上的多个相机图像来生成;和
(2)多个正确应答数据,该多个正确应答数据对应于该多个学习图像,其中该多个正确应答数据中的每个正确应答数据表示包括在对应学习图像中的人类的体重。
发明效果
在人类体格和体重之间存在某种相关性。因此,可基于人类的相机图像来生成学习图像,并且学习图像可用人类的体重标记为正确应答数据。然后,神经网络可使用学习图像执行学习并且校正应答数据以生成可推导体重的学习模型。此外,医疗设备包括在患者躺在工作台上时执行扫描的医疗设备(诸如CT设备、MRI设备等)。因此,如果准备了用于采集患者躺在工作台上的相机图像的相机,则可采集包括患者的相机图像。因此,基于所采集的相机图像,可生成要输入到学习模型的输入图像,并且可将输入图像输入到学习模型以推导患者的体重。
因此,可推导患者的体重,而不必针对每次检查测量患者的体重,并且因此可管理患者在检查时的体重。
此外,如果已知BMI和身高,则可计算体重。因此,也可通过推导身高而不是体重并且基于所推导身高和BMI来计算体重来获得体重信息。
附图说明
图1为医院网络系统的说明图。医院网络系统的说明图。
图2为X射线CT设备的示意图。
图3为门架2、工作台4和操作控制台8的说明图。
图4为示出处理部件84的主要功能块的图。
图5为示出学习阶段的流程图的图。
图6为学习阶段的说明图。
图7为示出检查流程的图。
图8为示出所生成输入图像61的示意图的图。
图9为推导阶段的说明图。
图10为示出输入图像611的图。
图11为向操作员确认是否更新体重的方法的说明图。
图12为传输到PACS 11的各种数据的示例的说明图。
图13为示出根据实施方案2的处理部件84的主要功能块的图。
图14为示意性地示出学习图像CI1至CIn的图。
图15为示出根据实施方案2的检查流程的图。
图16为示意性地示出输入图像62的图。
图17为推导患者40的身高的推导阶段的说明图。
图18为确认是否更新体重和身高的方法的说明图。
图19为针对姿势(1)至(4)准备的学习图像和正确应答数据的说明图。
图20为步骤ST2的说明图。
图21为示意性地示出输入图像64的图。
图22为推导患者40的体重的推导阶段的说明图。
图23为示出根据实施方案4的处理部件84的主要功能块的图。
图24为步骤ST2的说明图。
图25为示出根据实施方案4的患者40的检查流程的图。
图26为推导体重的推导阶段的说明图。
具体实施方式
下文将描述用于执行本发明的实施方案,但本发明不限于以下实施方案。
图1为医院网络系统的说明图。
网络系统10包括多个模态Q1至Qa。多个模态Q1至Qa中的每个模态是执行患者诊断、治疗等的模态。
每个模态是具有医疗设备和操作控制台的医疗系统。医疗设备是从患者收集数据的设备,并且操作控制台连接到医疗设备并且用于操作医疗设备。医疗设备是从患者收集数据的设备。可使用的医疗设备的示例包括简单的X射线设备、X射线CT设备、PET-CT设备、MRI设备、MRI-PET设备、乳房X线摄影设备和各种其它设备。需注意,在图1中,系统10包括多个模态,但可包括单个模态而不是多个模态。
此外,系统10也具有PACS(图片存档与通信系统)11。PACS 11经由通信网络12接收由每个模态获得的图像和其它数据并且存储所接收的数据。此外,PACS 11还根据需要经由通信网络12传送所存储的数据。
此外,系统10具有多个工作站W1至Wb。工作站W1至Wb包括例如在医院信息系统(HIS)、放射信息系统(RIS)、临床信息系统(CIS)、心血管信息系统(CVIS)、文库信息系统(LIS)、电子病历(EMR)系统和/或其它图像与信息管理系统等中使用的工作站,以及由图像解译器用于图像检查工作的工作站。
网络系统10如上所述进行配置。接下来,将描述X射线CT设备的配置的示例,这是模态的示例。
图2为X射线CT设备的示意图。
如图2所示,X射线CT设备1包括门架2、工作台4、相机6和操作控制台8。
门架2和工作台4安装在扫描室100中。门架2具有显示面板20。操作员可输入操作信号以从显示面板20操作门架2和工作台4。相机6安装在扫描室100的天花板101上。操作控制台8安装在操作室200中。
相机6的视场被设定为包括工作台4和该工作台的周边。因此,当作为成像受检者的患者40躺在工作台4上时,相机6可采集包括患者40的相机图像。
接下来,将参考图3描述门架2、工作台4和操作控制台8。
图3是门架2、工作台4和操作控制台8的说明图。
门架2具有界定孔洞21的内壁,该孔洞是患者40可在其中移动的空间。
此外,门架2具有X射线管22、孔23、准直器24、X射线检测器25、数据采集系统26、旋转部件27、高压电源28、孔驱动设备29、旋转部件驱动设备30、GT(门架工作台)控制部件31等。
X射线管22、孔23、准直器24、X射线检测器25和数据采集系统26安装在旋转部件27上。
X射线管22用X射线照射患者40。X射线检测器25检测从X射线管22发射的X射线。X射线检测器25设置在孔洞21的与X射线管22相对的一侧上。
孔23设置在X射线管22和孔洞21之间。孔23将从X射线管22的X射线焦点朝向X射线检测器25发射的X射线成形为扇形束或锥形束。
X射线检测器25检测传输穿过患者40的X射线。
准直器24设置在X射线检测器25的X射线入射侧上,并且移除散射的X射线。
高压电源28向X射线管22提供高电压和电流。
孔驱动设备29驱动孔23以使其开口变形。
旋转部件驱动设备30旋转并且驱动旋转部件27。
工作台4具有支架41、支架支撑件42和驱动设备43。支架41支撑作为成像受检者的患者40。支架支撑件42在y方向和z方向上可移动地支撑支架41。驱动设备43驱动支架41和支架支撑件42。需注意,在本文中,支架41的纵向方向是z方向,工作台4的高度方向是y方向,并且与z方向和y方向正交的水平方向是x方向。
GT控制部件31控制门架2中的每个设备和每个部件、工作台4的驱动设备43等。
操作控制台8具有输入部件81、显示部件82、存储部件83、处理部件84、控制台控制部件85等。
输入部件81包括键盘、指向设备等,以用于接受从操作员输入的指令和信息并且执行各种操作。显示部件82显示用于设定扫描条件的设定屏幕、相机图像、CT图像等,并且是例如LCD(液晶显示器)、OLED(电发光)显示器等。
存储部件83存储用于由处理器执行各种过程的程序。此外,存储部件83还存储各种数据、各种文件等。存储部件83具有硬盘驱动器(HDD)、固态驱动器(SSD)、动态随机存取存储器(DRAM)、只读存储器(ROM)等。此外,存储部件83还可包括便携式存储介质90,诸如CD(光盘)、DVD(数字通用光盘)等。
处理部件84基于由门架2采集的患者40的数据来执行图像重新配置过程和各种其它操作。处理部件84具有一个或多个处理器,并且一个或多个处理器执行存储在存储部件83中的程序中描述的各种过程。
图4为示出处理部件84的主要功能块的图。
处理部件84具有生成部件841、推导部件842、确认部件843和重新配置部件844。
生成部件841基于相机图像来生成要输入到学习模型的输入图像。
推导部件842将输入图像输入到学习模型以推导患者的体重。
确认部件843向操作员确认是否要更新所推导体重。
重新配置部件844基于从扫描获得的投影数据来重新配置CT图像。
需注意,在稍后描述的检查流程(参见图7)的每个步骤中将描述生成部件841、推导部件842、确认部件843和重新配置部件844的细节。
用于执行前述功能的程序存储在存储部件83中。处理部件84通过执行程序来实现前述功能。可由一个或多个处理器执行的一个或多个命令存储在存储部件83中。一个或多个命令致使一个或多个处理器执行以下操作(a1)至(a4):
(a1)基于相机图像来生成要输入到学习模型的输入图像(生成部件841)
(a2)将输入图像输入到学习模型以推导患者的体重(推导部件842)
(a3)向操作员确认是否要更新体重(确认部件843)
(a4)基于投影数据来重新配置CT图像(重新配置部件844)
控制台8的处理部件84可读取存储在存储部件83中的程序,并且执行前述操作(a1)至(a4)。
控制台控制部件85基于来自输入部件81的输入来控制显示部件82和处理部件84。
X射线CT设备1如上所述进行配置。
图3示出作为模态的示例的CT设备,但医院还配备有除CT设备之外的医疗设备,诸如MRI设备、PET设备等。
近年来,已需要在执行使用X射线的检查(诸如CT扫描等)时严格控制患者暴露剂量。在医疗机构中,例如,在CT扫描之前通过定秤测量患者的体重,以便获得患者体重信息。一旦测量患者的体重,则将所测量的体重记录在RIS中。然而,并非总能够针对每次CT扫描在定秤上测量患者的体重。因此,记录在RIS中的体重信息可能过时,并且不希望用过时体重信息来控制剂量。此外,还存在问题的情况是,如果患者使用轮椅或担架,则体重测量本身并不容易。因此,在本实施方案中,为了解决这个问题,使用DL(深度学习)生成可推导患者的体重的学习模型。
下面参考图5和图6描述用于生成学习模型的学习阶段。
图5是示出学习阶段的流程图的图,并且图6是学习阶段的说明图。
在步骤ST1中,准备要在学习阶段中使用的多个学习图像。图6示意性地示出学习图像C1至Cn。每个学习图像Ci(1≦i≦n)可通过以下方式来准备:通过利用来自工作台上方的相机进行成像来采集人类以仰卧姿势躺在工作台上的相机图像,以及相对于相机图像执行规定图像处理。学习图像C1至Cn包括人类在头先条件下呈仰卧姿势的图像和人类在脚先条件下呈仰卧姿势的图像。
需注意,要对相机图像执行的规定图像处理的示例包括图像裁剪、标准化处理、归一化处理等。此外,学习图像C1至Cn包括人类在头先条件下呈仰卧姿势的图像和人类在脚先条件下呈仰卧姿势的图像,如上所述。然而,脚先人类的头脚方向与头先人类的头脚方向相反。因此,在实施方案1中,规定图像处理包括将图像旋转180°以便匹配人类的头脚方向的过程。参见图6,学习图像C1是头先的,而学习图像Cn是脚先的。因此,学习图像Cn旋转180°,使得学习图像Cn中的人类头脚方向匹配学习图像C1中的人类头脚方向。由此,学习图像C1至Cn被创建成使得人类头脚方向匹配。
此外,还准备了多个正确应答数据G1至Gn。每个正确应答数据Gi(1≤i≤n)是表示多个学习图像C1至Cn中的对应学习图像Ci中的人类体重的数据。每个正确应答数据Gi利用多个学习图像C1至Cn中的对应学习图像Ci标记。
在准备学习图像和正确应答数据之后,流程前进至步骤ST2。
在步骤ST2中,计算机(学习模型生成设备)用于致使神经网络(NN)91使用学习图像C1至Cn和正确应答数据G1至Gn执行学习,如图6所示。由此,神经网络(NN)91使用学习图像C1至Cn和正确应答数据G1至Gn执行学习。因此,可生成学习模型91a。
由此生成的学习模型91a存储在存储部件(例如,CT设备的存储部件或连接到CT设备的外部设备的存储部件)中。
从前述学习阶段获得的学习模型91a用于在检查患者40期间推导患者40的体重。下面将描述患者40的检查流程。
图7是示出检查流程的图。
在步骤ST11中,操作员将作为成像受检者的患者40引导到扫描室100中,并且使患者40以仰卧姿势躺在工作台4上,如图2所示。
相机6采集扫描室内部的相机图像并将相机图像输出到控制台8。如有必要,控制台8对从相机6接收到的相机图像执行规定数据处理,并且然后将相机图像输出到门架2的显示面板20。显示面板20可显示由相机6成像的扫描室中的相机图像。
在使患者40躺在工作台4上之后,流程前进至步骤ST12。
在步骤ST12中,使用学习模型91a推导患者40的体重。下文将具体描述推导患者40的体重的方法。
首先,作为用于推导的预处理步骤,生成要输入到学习模型91a的输入图像。
生成部件841(参考图4)通过对由相机6获得的相机图像执行规定图像处理来生成用于体重推导的输入图像。规定图像处理的示例包括图像裁剪、标准化处理、归一化处理等。图8为示出所生成输入图像61的示意图的图。
需注意,当患者40躺在工作台4上时,患者40在躺上工作台4的同时调整其在工作台4上的姿势,并且进入仰卧姿势,这是用于成像的姿势。因此,当生成输入图像61时,必须确定用于生成输入图像61的相机图像中的患者40的姿势是否为仰卧姿势。可使用规定图像处理技术来确定患者40的姿势是否为仰卧姿势。
在生成输入图像61之后,推导部件842(参见图4)基于输入图像61来推导患者40的体重。图9为推导阶段的说明图。
推导部件842将输入图像61输入到学习模型91a。
需注意,在学习阶段(参见图6)中,脚先的学习图像旋转180°。因此,如果在推导阶段生成脚先的输入图像,则输入图像必须旋转180°。在本实施方案中,患者40的取向是头先的,而不是脚先的,并且因此,推导部件842确定不需要将输入图像旋转180°。因此,推导部件842在不旋转180°的情况下将输入图像61输入到学习模型91a。
另一方面,如果患者40的取向是脚先的,则获得如图10所示的输入图像611。在这种情况下,在将输入图像611旋转180°之后,输入图像612被输入到学习模型91a。因此,通过基于患者40的取向来确定是否将输入图像旋转180°,可将推导阶段中的患者40的头脚方向与学习阶段中的头脚方向匹配,从而提高推导准确度。
需注意,当确定是否将输入图像旋转180°时,必须识别患者40是否取向成头先或脚先。例如,可基于RIS中的信息来执行识别方法。RIS包括患者40在检查时的取向,并且因此,生成部件841可从RIS识别患者的取向。因此,生成部件841可基于患者40的取向来确定是否将输入图像旋转180°。
当输入图像61输入到学习模型91a时,学习模型91a推导并且输出输入图像61中的患者40的体重。在推导出体重之后,流程前进至步骤ST13。
在步骤ST13中,确认部件843(参见图4)向操作员确认是否要更新在步骤ST12中推导出的体重。图11为向操作员确认是否更新体重的方法的说明图。
确认部件843在显示部件82(参见图3)上显示患者信息70连同显示窗口71。窗口71是向操作员确认是否要更新在步骤ST12中推导出的体重的窗口。一旦显示窗口71,则流程前进至步骤ST14。
在步骤ST14中,操作员决定是否要更新体重。操作员点击窗口71上的否按钮以不更新体重,并且点击窗口71上的是按钮以更新体重。如果点击否按钮,则确认部件843确定将不更新患者40的体重,并且原样保存过去的体重。另一方面,如果点击是按钮,则确认部件843确定要更新患者40的体重。如果更新患者40的体重,则RIS管理所更新体重作为患者40的体重。
一旦完成体重更新(或取消更新),流程就前进至步骤ST15。
在步骤ST15中,将患者40移动到孔洞21中并且执行定位扫描(scout scan)。
当执行定位扫描时,重新配置部件844(参见图4)基于从定位扫描获得的投影数据来重新配置定位图像。操作员基于定位图像来设定扫描范围。此外,流程前进至步骤ST16,并且执行诊断扫描以采集用于患者40的诊断的各种CT图像。重新配置部件844基于从诊断扫描获得的投影数据来重新配置用于诊断的CT图像。一旦完成诊断扫描,则流程前进至步骤ST17。
在步骤ST17中,操作员执行检查结束操作。当执行检查结束操作时,生成传输到PACS 11(参见图1)的各种数据。
图12为传输到PACS 11的各种数据的示例的说明图。
X射线CT设备创建DICOM文件FS1至FSa和FD1至FDb。
DICOM文件FS1至FSa存储在定位扫描中采集的定位图像,并且DICOM文件FD1至FDb存储在诊断扫描中采集的CT图像。
DICOM文件FS1至FSa存储定位图像的像素数据和补充信息。需注意,DICOM文件FS1至FSa存储不同切片的定位图像的像素数据。
此外,DICOM文件FS1至FSa存储检查列表中描述的患者信息、指示定位扫描的成像条件的成像条件信息等作为补充信息的数据元素。患者信息包括所更新体重等。此外,DICOM文件FS1至FSa还存储补充信息的数据元素,诸如输入图像61(参见图9)协议数据等。
另一方面,DICOM文件FD1至FDb存储从诊断扫描获得的CT图像的像素数据和补充信息。需注意,DICOM文件FD1至FDb存储不同切片的CT图像的像素数据。
此外,DICOM文件FD1至FDb存储成像条件信息,该成像条件信息指示诊断扫描中的成像条件、剂量信息、检查列表中描述的患者信息等作为补充信息。患者信息包括所更新体重等。此外,类似于DICOM文件FS1至FSa,DICOM文件FD1至FDb也存储输入图像61和协议数据作为补充信息。
X射线CT设备1(参见图2)将前述结构的DICOM文件FS1至FSa和FD1至FDb传输到PACS 11(参见图1)。
此外,操作员通知患者40检查完成并且使患者40从工作台4离开。由此,患者40的检查完成。
在本实施方案中,通过基于患者40躺在工作台4上的相机图像来生成输入图像61并将输入图像61输入到学习模型91a来推导患者40的体重。因此,可在不使用测量仪器(诸如定秤等)来测量患者40的体重的情况下获得患者40在检查时的体重信息,并且因此可管理与患者40在检查时的体重对应的患者40的剂量信息。此外,基于在患者40躺在工作台4上时采集的相机图像来推导患者40的体重,并且因此,不需要诸如技术人员、护士等医院工作人员来在定秤上测量患者40的体重,这也减少了工作人员的工作负荷。
实施方案1描述了患者40以仰卧姿势经历检查的示例。然而,当患者40以与仰卧姿势不同的姿势经历检查时,也可应用本发明。例如,如果预期患者40以右侧卧姿势经历检查,则可利用右侧卧姿势的学习图像来训练神经网络,以准备右侧卧姿势的学习模型,并且学习模型可用于估计患者40在右侧卧姿势时的体重。
在实施方案1中,要求操作员确认是否要更新体重(步骤ST13)。然而,可省略确认步骤,并且可自动更新所推导体重。
需注意,在实施方案1中,系统10包括PACS 11,但是可使用患者数据和图像的另一个管理系统来代替PACS 11。
实施方案2
在实施方案1中,体重是推导出的,但在实施方案2中,身高是推导出的并且体重是根据所推导身高和BMI计算出的。
图13为示出根据实施方案2的处理部件84的主要功能块的图。
处理部件84具有生成部件940、推导部件941、计算部件942、确认部件943和重新配置部件944。
生成部件940基于相机图像来生成要输入到学习模型的输入图像。
推导部件941将输入图像输入到学习模型以推导患者的重量。
计算部件942基于BMI和所推导身高来计算患者的体重。
确认部件943向操作员确认是否要更新所计算体重。
重新配置部件944基于从扫描获得的投影数据来重新配置CT图像。
此外,可由一个或多个处理器执行的一个或多个命令存储在存储部件83中。一个或多个命令致使一个或多个处理器执行以下操作(b1)至(b5):
(b1)基于相机图像来生成要输入到学习模型的输入图像(生成部件940)
(b2)将输入图像输入到学习模型以推导患者的身高(推导部件941)
(b3)基于BMI和所推导身高来计算患者的体重(计算部件942)
(b4)向操作员确认是否要更新体重(确认部件943)
(b5)基于投影数据来重新配置CT图像(重新配置部件944)
控制台8的处理部件84可读取存储在存储部件83中的程序,并且执行前述操作(b1)至(b5)。
首先,将描述根据实施方案2的学习阶段。需注意,实施方案2中的学习阶段也以与实施方案1中相同的方式描述,参考图5中所示的流程。
在步骤ST1中,准备要在学习阶段中使用的多个学习图像。图14示意性地示出学习图像CI1至CIn。每个学习图像CIi(1≦i≦n)可通过以下方式来准备:通过利用来自工作台上方的相机进行成像来采集人类以仰卧姿势躺在工作台上的相机图像,以及相对于相机图像执行规定图像处理。在实施方案2中,在实施方案1的步骤ST1中使用的学习图像C1至Cn(参见图6)可用作学习图像CI1至CIn。
此外,还准备了多个正确应答数据GI1至GIn。每个正确应答数据GIi(1≤i≤n)是表示多个学习图像CI1至CIn中的对应学习图像CIi中的人类重量的数据。每个正确应答数据GIi利用多个学习图像CI1至CIn中的对应学习图像CIi标记。
在准备学习图像和正确应答数据之后,流程前进至步骤ST2。
在步骤ST2中,生成学习模型。
具体地,如图14所示,计算机用于致使神经网络(NN)92使用学习图像CI1至CIn和正确应答数据GI1至GIn执行学习。由此,神经网络(NN)92使用学习图像CI1至CIn和正确应答数据GI1至GIn执行学习。因此,可生成学习模型92a。
由此生成的学习模型92a存储在存储部件(例如,CT设备的存储部件或连接到CT设备的外部设备的存储部件)中。
从前述学习阶段获得的学习模型92a用于在检查患者40期间推导患者40的重量。下面将描述患者40的检查流程。
图15为示出根据实施方案2的检查流程的图。
在步骤ST21中,操作员将患者40引导到扫描室中并且使患者40躺在工作台4上。此外,相机6采集扫描室中的相机图像。
在使患者40躺在工作台4上之后,流程前进至步骤ST30和步骤ST22。
在步骤ST30中,设定扫描条件并且执行定位扫描。当执行定位扫描时,重新配置部件944(参见图13)基于从定位扫描获得的投影数据来重新配置定位图像。
在执行步骤ST30时,执行步骤ST22。
在步骤ST22中,确定患者40的体重。下文将描述确定患者40的体重的方法。需注意,步骤ST22具有步骤ST221、ST222和ST223,并且因此,在下文按顺序描述每个步骤ST221、ST222和ST223。
在步骤ST221中,生成部件940(参见图13)首先生成输入到学习模型的输入图像,以便推导患者40的身高。在实施方案2中,患者40的姿势是仰卧姿势,类似于实施方案1。因此,生成部件940通过对患者40以仰卧姿势躺在工作台4上的相机图像执行规定图像处理来生成用于身高推导的输入图像。图16示出所生成输入图像62的示意图。
接下来,推导部件941(参见图13)基于输入图像62来推导患者40的身高。
图17为推导患者40的身高的推导阶段的说明图。
推导部件941将输入图像62输入到学习模型92a。学习模型92a推导并且输出包括在输入图像62中的患者40的身高。因此,可推导患者40的身高。一旦已推导出患者40的身高,则流程前进至步骤ST222。
在步骤ST222中,计算部件942(参见图13)计算患者40的体质指数(BMI)。BMI可使用已知方法基于CT图像来计算。可使用的BMI计算方法的示例包括在以下中描述的方法;Menke J.,“用于成人身体CT中的单独剂量调整的不同身体大小参数的比较(Comparisonof Different Body SizeParameters for Individual Dose Adaptation in Body CT ofAdults)”放射学2005;236:565-571。在实施方案2中,在步骤ST30中采集作为CT图像的定位图像,并且因此,一旦在步骤ST30中采集到定位图像,则计算部件942可基于定位图像来计算BMI。
接下来,在步骤ST223中,计算部件942基于在步骤ST222中计算出的BMI和在步骤ST221中推导出的身高来计算患者40的体重。以下关系表达式(1)在BMI、身高和体重之间保持成立。
BMI=体重÷(身高2)...(1)
如上所述,BMI和身高是已知的,并且因此,可根据以上表达式(1)计算体重。在计算出体重之后,流程前进至步骤ST23。
在步骤ST23中,确认部件943向操作员确认是否要更新在步骤ST22中计算出的体重。在实施方案2中,窗口71(参见图11)显示在显示部件82上(类似于实施方案1),以允许操作员确认体重。
在步骤ST24中,操作员决定是否要更新体重。操作员点击窗口71上的否按钮以不更新体重,并且点击窗口71上的是按钮以更新体重。如果点击否按钮,则确认部件843确定将不更新患者40的体重,并且原样保存过去的体重。另一方面,如果点击是按钮,则确认部件843确定要更新患者40的体重。如果更新患者40的体重,则RIS管理所更新体重作为患者40的体重。
需注意,在步骤ST23中,如图18所示,可确认是否更新身高而不是仅更新体重。操作员点击是按钮以更新身高,或点击否按钮以不更新身高。因此,可管理体重和身高两者的患者信息。
由此,完成体重更新过程的流程。
此外,当正在更新体重时,也执行步骤ST31和ST32。步骤ST31和ST32与实施方案1的步骤ST16和ST17相同,并且因此省略了描述。
由此,图15所示的流程完成。
在实施方案2中,推导身高而不是体重,并且基于所推导身高来计算体重。因此,可推导身高,并且可根据BMI公式计算体重。
实施方案3
实施方案1和2假设患者40的姿势是仰卧姿势。然而,根据患者40经受的检查,患者40可能必须处于与仰卧姿势不同的姿势(例如,右侧卧姿势)。因此,在实施方案3中,描述了一种方法,其即使在患者40的姿势基于患者40经受的检查而变化时也可以足够的准确度推导患者40的体重。
需注意,参考图4所示的功能框,将类似于实施方案1描述实施方案3中的处理部件84。
在实施方案3中,以下四个姿势(1)至(4)被视作患者在成像期间的姿势,但除了姿势(1)至(4)之外,还可包括另一个姿势。
(1)仰卧姿势
(2)俯卧姿势
(3)左侧卧姿势
(4)右侧卧姿势
下文将描述根据实施方案3的学习阶段。需注意,实施方案3中的学习阶段也以与实施方案1中相同的方式描述,参考图5中所示的流程。
在步骤ST1中,准备在学习阶段中使用的学习图像和正确应答数据。
在实施方案3中,对于前述姿势(1)至(4)中的每个姿势,准备在学习阶段中使用的多个学习图像和正确应答数据。图19为针对上文所述的姿势(1)至(4)准备的学习图像和正确应答数据的说明图。针对每个姿势准备的学习图像和正确应答数据如下。
(1)姿势:仰卧姿势
准备n1数目个学习图像CA1至CAn1作为对应于仰卧姿势的学习图像。每个学习图像CAi(1≦i≦n1)可通过以下方式来准备:通过利用来自工作台上方的相机进行成像来采集人类以仰卧姿势躺在工作台上的相机图像,以及相对于相机图像执行规定图像处理。学习图像CA1至CAn1包括人类在头先条件下呈仰卧姿势的图像和人类在脚先条件下呈仰卧姿势的图像。
要对相机图像执行的规定图像处理的示例包括图像裁剪、标准化处理、归一化处理等。此外,如上所述,学习图像CA1至CAn1包括人类在头先条件下呈仰卧姿势的图像和人类在脚先条件下呈仰卧姿势的图像。因此,规定图像处理包括将学习图像旋转180°以便匹配人类的头脚方向的过程。例如,学习图像CA1是头先的,而学习图像CAn1是脚先的。因此,学习图像CAn1旋转180°,使得学习图像CAn1中的人类头脚方向匹配学习图像CA1中的人类头脚方向。由此,学习图像CA1至CAn1被创建成使得人类头脚方向匹配。
此外,还准备了正确应答数据GA1至GAn1。每个正确应答数据GAi(1≤i≤n1)是表示多个学习图像CA1至CAn1中的对应学习图像CAi中的人类体重的数据。每个正确应答数据GAi利用多个学习图像CA1至CAn1中的对应学习图像标记。
(2)姿势:俯卧姿势
准备n2数目个学习图像CB1至CBn2作为对应于俯卧姿势的学习图像。每个学习图像CBi(1≦i≦n2)可通过以下方式来准备:通过利用来自工作台上方的相机进行成像来采集人类以俯卧姿势躺在工作台上的相机图像,以及相对于相机图像执行规定图像处理。学习图像CB1至CBn1包括人类在头先条件下呈俯卧姿势的图像和人类在脚先条件下呈俯卧姿势的图像。
要对相机图像执行的规定图像处理的示例包括图像裁剪、标准化处理、归一化处理等。此外,如上所述,学习图像CB1至CBn2包括人类在头先条件下呈俯卧姿势的图像和人类在脚先条件下呈俯卧姿势的图像。因此,规定图像处理包括将学习图像旋转180°以便匹配人类的头脚方向的过程。例如,学习图像CB1是头先的,但学习图像CBn2是脚先的。因此,学习图像CBn2旋转180°,使得学习图像CBn2中的人类的头脚方向匹配学习图像CB1中的人类的头脚方向。
此外,还准备了正确应答数据GB1至GBn2。每个正确应答数据GBi(1≤i≤n2)是表示多个学习图像CB1至CBn2中的对应学习图像CBi中的人类体重的数据。每个正确应答数据GBi利用多个学习图像CB1至CBn2中的对应学习图像标记。
(3)姿势:左侧卧姿势
准备n3数目个学习图像CC1至CCn3作为对应于左侧卧姿势的学习图像。每个学习图像CCi(1≦i≦n3)可通过以下方式来准备:通过利用来自工作台上方的相机进行成像来采集人类以左侧卧姿势躺在工作台上的相机图像,以及相对于相机图像执行规定图像处理。学习图像CC1至CCn3包括人类在头先条件下呈左侧卧姿势的图像和人类在脚先条件下呈左侧卧姿势的图像。
要对相机图像执行的规定图像处理的示例包括图像裁剪、标准化处理、归一化处理等。此外,如上所述,学习图像CC1至CCn3包括人类在头先条件下呈左侧卧姿势的图像和人类在脚先条件下呈左侧卧姿势的图像。因此,规定图像处理包括将学习图像旋转180°以便匹配人类的头脚方向的过程。例如,学习图像CC1是头先的,但学习图像CCn3是脚先的。因此,学习图像CCn3旋转180°,使得学习图像CCn3中的人类的头脚方向匹配学习图像CC1中的人类的头脚方向。
此外,还准备了正确应答数据GC1至GCn3。每个正确应答数据GCi(1≤i≤n3)是表示多个学习图像CC1至CCn3中的对应学习图像CCi中的人类体重的数据。每个正确应答数据GCi利用多个学习图像CC1至CCn3中的对应学习图像标记。
(4)姿势:右侧卧姿势
准备n4数目个学习图像CC1至CCn4作为对应于右侧卧姿势的学习图像。每个学习图像CDi(1≦i≦n4)可通过以下方式来准备:通过利用来自工作台上方的相机进行成像来采集人类以右侧卧姿势躺在工作台上的相机图像,以及相对于相机图像执行规定图像处理。学习图像CC1至CCn4包括人类在头先条件下呈右侧卧姿势的图像和人类在脚先条件下呈右侧卧姿势的图像。
要对相机图像执行的规定图像处理的示例包括图像裁剪、标准化处理、归一化处理等。此外,如上所述,学习图像CD1至CDn4包括人类在头先条件下呈右侧卧姿势的图像和人类在脚先条件下呈右侧卧姿势的图像。因此,规定图像处理包括将图像旋转180°以便匹配人类的头脚方向的过程。例如,学习图像CD1是头先的,但学习图像CDn4是脚先的。因此,学习图像CDn4旋转180°,使得学习图像CDn4中的人类的头脚方向匹配学习图像CD1中的人类的头脚方向。
此外,还准备了正确应答数据GD1至GDn4。每个正确应答数据GDi(1≤i≤n4)是表示多个学习图像CD1至CDn4中的对应学习图像CDi中的人类体重的数据。每个正确应答数据GDi利用多个学习图像CD1至CDn4中的对应学习图像标记。
在准备前述学习图像和正确应答数据之后,流程前进至步骤ST2。
图20为步骤ST2的说明图。
在步骤ST2中,使用计算机致使神经网络(NN)93使用呈以上描述的姿势(1)至(4)时的学习图像和正确应答数据(参见图19)执行学习。由此,神经网络(NN)93使用呈以上描述的姿势(1)至(4)时的学习图像和正确应答数据执行学习。因此,可生成学习模型93a。
由此生成的学习模型93a存储在存储部件(例如,CT设备的存储部件或连接到CT设备的外部设备的存储部件)中。
从前述学习阶段获得的学习模型93a用于在检查患者40期间推导患者40的体重。下面将使用患者的姿势为右侧卧姿势的示例来描述患者40的检查流程。需注意,实施方案3中的患者40的检查流程还将参考图7中所示的流程来描述,类似于实施方案1。
在步骤ST11中,操作员将患者40引导到扫描室中并且使患者40躺在工作台4上。患者40的相机图像显示在门架2的显示面板20上。
在使患者40躺在工作台4上之后,流程前进至步骤ST12。
在步骤ST12中,使用学习模型93a推导患者40的体重。下文将具体描述推导患者40的体重的方法。
首先,生成要输入到学习模型93a的输入图像。
生成部件841通过对由相机6获得的相机图像执行规定图像处理来生成用于体重推导的输入图像。规定图像处理的示例包括图像裁剪、标准化处理、归一化处理等。图21示出所生成输入图像64的示意图。
在生成输入图像64之后,推导部件842(参见图4)基于输入图像64来推导患者40的体重。图22为推导患者40的体重的推导阶段的说明图。
推导部件842将输入图像输入到学习模型93a。
需注意,在学习阶段(参见图19)中,脚先的学习图像旋转180°。因此,如果在推导阶段生成脚先的输入图像,则输入图像必须旋转180°。在本实施方案中,患者40的取向是脚先的。因此,推导部件842将输入图像64旋转180°,并且在旋转180°之后将输入图像641输入到学习模型93a。学习模型93a推导并且输出输入图像641中的患者40的体重。在推导出体重之后,流程前进至步骤ST13。
在步骤ST13中,确认部件843向操作员确认是否要更新在步骤ST12(参见图11)中推导出的体重。在步骤ST14中,操作员确定是否要更新体重。然后,流程前进至步骤ST15。
在步骤ST15中,将患者40移动到孔洞21中并且执行定位扫描。当执行定位扫描时,重新配置部件844基于从定位扫描获得的投影数据来重新配置定位图像。操作员基于定位图像来设定扫描范围。此外,流程前进至步骤ST16,并且执行诊断扫描以采集用于患者40的诊断的各种CT图像。当诊断扫描完成时,流程前进至步骤ST17以执行检查结束操作。因此,患者40的检查完成。
在实施方案3中,姿势(1)至(4)被视作患者姿势,并且准备对应于每个姿势的学习图像和正确应答数据以生成学习模型93a(参见图20)。因此,即使当患者40的姿势对于每次检查不同时,也可推导出患者40的体重。
在实施方案3中,使用对应于四个姿势的学习图像和正确应答数据来生成学习模型93a。然而,可使用对应于以上描述的四个姿势中的一些姿势(例如,仰卧姿势和左侧卧姿势)的学习图像和正确应答数据来生成学习模型。
需注意,在实施方案3中,体重用作正确应答数据以生成学习模型,但代替体重,身高可用作正确应答数据以生成学习模型推导身高。使用学习模型,即使当患者40的姿势对于每次检查不同时,也可推导出患者40的身高,并且因此,可根据以上表达式(1)计算出患者40的体重。
实施方案4
实施方案3指示神经网络93通过使用姿势(1)至(4)的学习图像和正确应答数据执行学习来生成学习模型的示例。在实施方案4中,描述了针对每个姿势生成学习模型的示例。
在实施方案4中,处理部件84具有以下功能块。
图23为示出根据实施方案4的处理部件84的主要功能块的图。
实施方案4的处理部件84具有生成部件841、选择部件8411、推导部件8421、确认部件843和重新配置部件844作为主要功能块。在这些功能块中,生成部件841、确认部件843和重新配置部件844与实施方案1相同,并且因此省略了描述。将描述选择部件8411和推导部件8421。
选择部件8411从多个学习模型中选择要用于推导患者的体重的学习模型。
推导部件8421通过将由生成部件841生成的输入图像输入到由选择部件8411选择的学习模型来推导患者的体重。
此外,可由一个或多个处理器执行的一个或多个命令存储在存储部件83中。一个或多个命令致使一个或多个处理器执行以下操作(c1)至(c5):
(c1)基于相机图像来生成要输入到学习模型的输入图像(生成部件841)
(c2)从多个学习模型中选择要用于推导患者的体重的学习模型(选择部件8411)
(c3)将输入图像输入到选择学习模型以推导患者的体重(推导部件8421)
(c4)向操作员确认是否要更新体重(确认部件843)
(c5)基于投影数据来重新配置CT图像(重新配置部件844)
控制台8的处理部件84可读取存储在存储部件83中的程序,并且执行前述操作(c1)至(c5)。
下文将描述根据实施方案4的学习阶段。需注意,实施方案4中的学习阶段也以与实施方案3中相同的方式描述,参考图5中所示的流程。
在步骤ST1中,准备在学习阶段中使用的学习图像和正确应答数据。
在实施方案4中,图19中所示的姿势(1)至(4)被视作患者的姿势,类似于实施方案3。因此,在实施方案4中,还准备图19中所示的学习图像和正确应答数据。
一旦准备了图19中所示的学习图像和正确应答数据,则流程前进至步骤ST2。
图24为步骤ST2的说明图。
在步骤ST2中,使用计算机致使神经网络(NN)941至944分别使用呈前述姿势(1)至(4)时的学习图像和正确应答数据(参见图19)执行学习。由此,神经网络(NN)941至944使用呈以上描述的姿势(1)至(4)时的学习图像和正确应答数据(参见图19)执行学习。因此,可生成对应于上述四个姿势的学习模型941a至944a。
由此生成的学习模型941a至944a存储在存储部件(例如,CT设备的存储部件或连接到CT设备的外部设备的存储部件)中。
从前述学习阶段获得的学习模型941a至944a用于在检查患者40期间推导患者40的体重。下面将描述患者40的检查流程。
图25为示出根据实施方案4的患者40的检查流程的图。
在步骤ST51中,操作员将患者40引导到扫描室中并且使患者40躺在工作台4上。
在使患者40躺在工作台4上之后,流程前进至步骤ST52。
在步骤ST52中,选择部件8411(参见图23)从学习模型941a至944a中选择用于推导患者40的体重的学习模型。
在本文中,假设患者40处于右侧卧姿势。因此,选择部件8411从学习模型941a至944a中选择对应于右侧卧姿势的学习模型944a(参见图24)。
需注意,为了从学习模型941a至944a中选择学习模型944a,必须识别患者的姿势为右侧卧姿势。例如,可基于RIS中的信息来执行识别方法。RIS包括患者40在检查时的姿势,并且因此,选择部件8411可从RIS识别患者的取向和患者的姿势。因此,选择部件8411可从学习模型941a至944a中选择学习模型944a。
在选择学习模型944a之后,流程前进至步骤ST53。
在步骤ST53中,使用学习模型推导患者40的体重。下文将具体描述推导患者40的体重的方法。
首先,生成要输入到学习模型944a的输入图像。生成部件841通过对由相机6获得的相机图像执行规定图像处理来生成用于体重推导的输入图像。在实施方案4中,患者40的姿势是右俯卧姿势,类似于实施方案3。因此,生成部件841基于患者40以右侧卧姿势躺在工作台4上的相机图像来生成要输入到学习模型944a的输入图像64(参见图21)。
在生成输入图像64之后,推导部件842(参见图23)基于输入图像64来推导患者40的体重。图26为推导体重的推导阶段的说明图。
推导部件842在将输入图像64旋转180°之后将输入图像641输入到在步骤ST52中选择的学习模型944a,并且然后推导患者40的体重。一旦已推导出患者40的体重,则流程前进至步骤ST54。步骤ST54至ST58与实施方案1中的步骤ST13至ST17相同,并且因此省略了描述。
因此,可针对患者的每个姿势准备学习模型,并且可选择对应于在检查期间的患者的取向和患者的姿势的学习模型。
需注意,在实施方案4中,体重用作正确应答数据以生成学习模型。然而,代替体重,身高可用作正确应答数据,并且可生成学习模型以针对每个姿势推导身高。在这种情况下,通过选择对应于患者40的姿势的学习模型,即使当患者40的姿势对于每次检查不同时,也可推导出患者40的身高,并且因此,可根据以上表达式(1)计算出患者40的体重。
需注意,在实施方案1至4中,学习模型通过以下来生成:神经网络使用整个人体的学习图像执行学习。然而,学习模型可通过以下来生成:使用包括人体的仅一部分的学习图像学习来执行学习,或者使用包括人体的仅一部分的学习图像和包括整个人体的学习图像执行学习。
在实施方案1至4中,描述了用于管理由X射线CT设备成像的患者40的体重的方法,但本发明也可应用于管理在除X射线CT设备之外的设备(例如,MRI设备)中成像的患者的体重的情况。
在实施方案1至4中,推导由CT设备执行。然而,推导可在CT设备可通过网络访问的外部计算机上执行。
需注意,在实施方案1至4中,学习模型通过DL(深度学习)创建,并且此学习模型用于推导患者的体重或身高。然而,除DL之外的机器学习可用于推导体重或身高。此外,可使用统计方法分析相机图像以获得患者的体重或身高。
代码说明
1:CT设备
2:门架
4:工作台
6:相机
8:操作控制台
10:网络系统
11:PACS
12:通信网络
20:显示面板
21:孔洞
22:X射线管
23:孔
24:准直器
25:X射线检测器
26:数据采集系统
27:旋转部件
28:高压电源
29:孔驱动设备
30:旋转部件驱动设备
31:GT控制部件
40:患者
41:支架
42:支架支撑件
43:驱动设备
61,62,64,611,612,641:输入图像
70:患者信息
71:窗口
81:输入部件
82:显示部件
83:存储部件
84:处理部件
85:控制台控制部件
90:存储介质
91a,92a,93a,944a:学习模型
91,92,93:神经网络
100:扫描室
101:天花板
200:操作室
841,940:生成部件
842,941,8421:推导部件
843,943:确认部件
844,944:配置部件
942:计算部件
8411:选择部件

Claims (16)

1.一种生成学习模型的学习模型生成方法,所述学习模型在输入成像受检者躺在医疗设备的工作台上的输入图像时输出所述成像受检者的体重,其中神经网络通过使用以下项执行学习来生成所述学习模型:
(1)多个学习图像,所述多个学习图像基于人类躺在医疗设备的工作台上的多个相机图像来生成;和
(2)多个正确应答数据,所述多个正确应答数据对应于所述多个学习图像,其中所述多个正确应答数据中的每个正确应答数据表示包括在对应学习图像中的人类的体重。
2.根据权利要求1所述的学习模型生成方法,其中所述多个学习图像包括人类以规定姿势躺在工作台上的图像。
3.根据权利要求2所述的学习模型生成方法,其中所述多个学习图像包括所述人类以与所述规定姿势不同的姿势躺在工作台上的图像。
4.根据权利要求3所述的学习模型生成方法,其中所述多个学习图像包括以下项中的至少两者:
所述人类以仰卧姿势躺着的第一学习图像;
所述人类以俯卧姿势躺着的第二学习图像;
所述人类以左侧卧姿势躺着的第三学习图像;和
所述人类以右侧卧姿势躺着的第四学习图像。
5.根据权利要求1至4中任一项所述的学习模型生成方法,其中所述多个学习图像包括所述人类在头先条件下躺在工作台上的图像和所述人类在脚先条件下躺在工作台上的图像。
6.一种处理设备,所述处理设备执行基于成像受检者躺在医疗设备的工作台上的相机图像来确定所述成像受检者的体重的过程。
7.根据权利要求6所述的处理设备,所述处理设备包括:学习模型,所述学习模型在输入基于所述相机图像来生成的输入图像时输出所述成像受检者的所述体重。
8.根据权利要求7所述的处理设备,所述处理设备包括:
生成部件,所述生成部件基于所述相机图像来生成所述输入图像;和
推导部件,所述推导部件通过将所述输入图像输入到所述学习模型中来推导所述成像受检者的所述体重。
9.根据权利要求7或8所述的处理设备,其中所述学习模型通过神经网络使用以下项执行学习来生成:
(1)多个学习图像,所述多个学习图像基于人类躺在医疗设备的工作台上的多个相机图像来生成;和
(2)多个正确应答数据,所述多个正确应答数据对应于所述多个学习图像,其中所述多个正确应答数据中的每个正确应答数据表示包括在对应学习图像中的人类的体重。
10.根据权利要求8或9所述的处理设备,所述处理设备包括:
选择部件,所述选择部件从对应于所述成像受检者在成像期间的多个可能的姿势的所述多个学习模型中选择用于推导所述成像受检者的所述体重的学习模型,其中
所述推导部件使用所选择学习模型推导所述成像受检者的所述体重。
11.根据权利要求8至10中任一项所述的处理设备,所述处理设备包括:确认部件,所述确认部件用于向操作员确认是否更新所推导体重。
12.根据权利要求6所述的处理设备,所述处理设备包括:
推导部件,所述推导部件推导所述成像受检者的身高,所述推导部件包含学习模型,所述学习模型在输入基于所述相机图像来生成的输入图像时输出所述成像受检者的所述身高;和
计算部件,所述计算部件基于所述成像受检者的所述身高和BMI来计算所述成像受检者的所述体重。
13.根据权利要求12所述的处理设备,其中所述学习模型通过神经网络使用以下项执行学习来生成:
(1)多个学习图像,所述多个学习图像基于人类躺在医疗设备的工作台上的多个相机图像来生成;和
(2)多个正确应答数据,所述多个正确应答数据对应于所述多个学习图像,其中所述多个正确应答数据中的每个正确应答数据表示包括在对应学习图像中的人类的身高。
14.根据权利要求12或13所述的处理设备,所述处理设备还包括:生成部件,所述生成部件基于所述相机图像来生成所述输入图像。
15.根据权利要求12至14中任一项所述的处理设备,所述处理设备包括:
重新配置部件,所述重新配置部件重新配置通过定位扫描所述成像受检者获得的定位图像,其中
所述计算部件基于所述定位图像来计算所述BMI。
16.一种存储介质,所述存储介质包括一个或多个非易失性计算机可读存储介质,所述一个或多个非易失性计算机可读存储介质存储能够由一个或多个处理器执行的一个或多个命令,其中
所述一个或多个命令致使所述一个或多个处理器执行基于成像受检者躺在医疗设备的工作台上的相机图像来确定所述成像受检者的体重的过程。
CN202210319612.1A 2021-04-28 2022-03-29 学习模型生成方法、处理设备和存储介质 Pending CN115245344A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-076887 2021-04-28
JP2021076887A JP7167241B1 (ja) 2021-04-28 2021-04-28 学習済みモデル生成方法、処理装置、および記憶媒体

Publications (1)

Publication Number Publication Date
CN115245344A true CN115245344A (zh) 2022-10-28

Family

ID=83698361

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210319612.1A Pending CN115245344A (zh) 2021-04-28 2022-03-29 学习模型生成方法、处理设备和存储介质

Country Status (3)

Country Link
US (1) US20220346710A1 (zh)
JP (1) JP7167241B1 (zh)
CN (1) CN115245344A (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5677889B2 (ja) * 2011-04-28 2015-02-25 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー X線ct装置およびx線ctシステム
US10321728B1 (en) * 2018-04-20 2019-06-18 Bodygram, Inc. Systems and methods for full body measurements extraction
EP3571997B1 (de) * 2018-05-23 2022-11-23 Siemens Healthcare GmbH Verfahren und vorrichtung zum bestimmen eines patientenge-wichts und/oder eines body-mass-index
US11703373B2 (en) * 2019-02-25 2023-07-18 Siemens Healthcare Gmbh Patient weight estimation from surface data using a patient model
US11559221B2 (en) * 2019-03-22 2023-01-24 Siemens Healthcare Gmbh Multi-task progressive networks for patient modeling for medical scans
CN112017231B (zh) * 2020-08-27 2024-04-05 中国平安财产保险股份有限公司 基于单目摄像头的人体体重识别方法、装置及存储介质

Also Published As

Publication number Publication date
JP7167241B1 (ja) 2022-11-08
JP2022172418A (ja) 2022-11-16
US20220346710A1 (en) 2022-11-03

Similar Documents

Publication Publication Date Title
JP5283839B2 (ja) 医用画像診断システム
US11083428B2 (en) Medical image diagnosis apparatus
JP4942024B2 (ja) 医用画像撮影方法及び医用画像撮影装置
WO2007061099A1 (ja) 医用画像診断装置、医用画像保管通信システム用サーバ、画像参照装置、及び医用画像診断システム
JP5019199B2 (ja) 医用画像撮影装置
JP6929695B2 (ja) 医用画像診断装置及び管理装置
US10765321B2 (en) Image-assisted diagnostic evaluation
US11051781B2 (en) Medical diagnostic imaging apparatus
JP5389113B2 (ja) 医用画像撮影装置
JP6959612B2 (ja) 診断画像システム
JP2016209267A (ja) 医用画像処理装置及びプログラム
JP6824641B2 (ja) X線ct装置
JP2023014243A (ja) 医用画像診断装置及び方法
US10835197B2 (en) Medical diagnostic-imaging apparatus and medical-information management apparatus
CN115245344A (zh) 学习模型生成方法、处理设备和存储介质
JP6925786B2 (ja) X線ct装置
JP2017202307A (ja) 医用画像診断装置及び医用情報管理装置
JP6956514B2 (ja) X線ct装置及び医用情報管理装置
JP6676359B2 (ja) 制御装置、制御システム、制御方法、及びプログラム
JP2020039622A (ja) 診断支援装置
US11672494B2 (en) Imaged-range defining apparatus, medical apparatus, and program
JP7199839B2 (ja) X線ct装置及び医用画像処理方法
JP2018000943A (ja) 医用画像診断装置及び医用画像処理装置
JP7179497B2 (ja) X線ct装置及び画像生成方法
JP6855173B2 (ja) X線ct装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination