CN105686848A - 用于产生指示对象的体位标识的方法和设备 - Google Patents

用于产生指示对象的体位标识的方法和设备 Download PDF

Info

Publication number
CN105686848A
CN105686848A CN201510455280.XA CN201510455280A CN105686848A CN 105686848 A CN105686848 A CN 105686848A CN 201510455280 A CN201510455280 A CN 201510455280A CN 105686848 A CN105686848 A CN 105686848A
Authority
CN
China
Prior art keywords
position mark
mark
controller
user
equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510455280.XA
Other languages
English (en)
Inventor
宋珉姃
李珉珠
李承周
徐真揆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Medison Co Ltd
Original Assignee
Samsung Medison Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Medison Co Ltd filed Critical Samsung Medison Co Ltd
Publication of CN105686848A publication Critical patent/CN105686848A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/468Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4405Device being mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4427Device being portable or laptop-like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4472Wireless probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply
    • A61B8/565Details of data transmission or power supply involving data transmission via a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本发明提供一种用于产生表示对象的体位标识的方法和设备,产生体位标识的方法包括:基于医学图像中示出的对象在预先存储的多个体位标识中选择第一体位标识;通过根据用户输入改变第一体位标识的形状产生第二体位标识;显示第二体位标识。

Description

用于产生指示对象的体位标识的方法和设备
本申请要求于2014年12月15日在韩国知识产权局提交的第10-2014-0180499号韩国专利申请的权益,该韩国申请的公开内容通过引用全部包含于此。
技术领域
一个或更多个示例性实施例涉及一种用于产生指示对象的体位标识的方法、设备和系统。
背景技术
超声诊断设备将由探头的换能器产生的超声信号发送到对象并接收从对象反射的回波信号,从而获得对象的内部(例如,软组织或血流)的至少一幅图像。具体地讲,超声诊断设备用于医疗目的,包括对对象内部的观察,对外来物的检测以及对对象的损害的诊断。与X-射线设备相比,这样的超声诊断设备稳定性高,实时地显示图像,且因为没有放射性暴露所以是安全的。因此,超声诊断设备与其它图像诊断设备(包括计算机断层扫描(CT)设备、磁共振成像(MRI)设备等)一起被广泛使用。
通常,当用户选择多个预先产生的体位标识中的一个时,体位标识被添加至超声图像。然而,基于在超声图像中示出的体位标识难以准确地确定超声图像示出的对象的形状或方位。此外,用户可能需要大量的时间来选择多个预先产生的体位标识中的一个。
发明内容
一个或更多个示例性实施例包括一种用于产生指示对象的体位标识的方法、设备和系统。此外,还包括记录有程序的非暂时性计算机可读记录介质,在由计算机运行时所述程序执行所述方法。
将在以下描述中部分阐述另外方面,并且这一部分从说明书将是明显的,或可通过呈现的示例性实施例的实践得知。
根据一个或更多个示例性实施例,一种产生体位标识的方法包括基于医学图像中示出的对象在预先存储的多个体位标识中选择第一体位标识;通过根据用户输入改变第一体位标识来产生第二体位标识;以及显示第二体位标识。
第二体位标识可包括通过关于垂直轴翻转第一体位标识而产生的体位标识。
第二体位标识可包括通过关于第一体位标识的中心轴旋转第一体位标识而产生的体位标识。
第二体位标识可包括通过按照顺时针方向旋转第一体位标识而产生的体位标识。
第二体位标识可包括通过按照逆时针方向旋转第一体位标识而产生的体位标识。
所述选择步骤可包括接收用于在预先存储的多个体位标识中选择与对象对应的第一体位标识的用户输入,以及基于接收到的用户输入选择第一体位标识。
所述选择步骤可包括选择医学图像中示出的对象部分,并基于选择的对象部分选择第一体位标识。
预先存储的所述多个体位标识被分类为多个应用组。
第一体位标识和第二体位标识可以是2-维或3-维的。
用户输入可包括在触摸屏上输入的用户手势。
所述显示可包括将第一体位标识和第二体位标识显示在单个屏幕上。
根据一个或更多个示例性实施例,提供了一种记录有程序的非暂时性计算机可读记录介质,在由计算机运行时所述程序执行所述方法。
根据一个或更多个示例性实施例,一种用于产生体位标识的设备包括:显示器,显示示出对象的医学图像;控制器,基于对象在预先存储的多个体位标识中选择第一体位标识,并通过根据用户输入改变第一体位标识的形状产生第二体位标识。所述显示器显示第二体位标识。
第二体位标识可包括通过关于垂直轴翻转第一体位标识而产生的体位标识。
第二体位标识可包括通过关于水平轴翻转第一体位标识而产生的体位标识。
第二体位标识可包括通过按照顺时针方向旋转第一体位标识而产生的体位标识。
第二体位标识可包括通过按照逆时针方向旋转第一体位标识而产生的体位标识。
所述设备还可包括接收用于在预先存储的多个体位标识中选择与对象对应的第一体位标识的用户输入的输入单元,并且所述控制器可基于接收到的用户输入选择第一体位标识。
所述设备还包括从医学图像选择对象部分的图像处理器,并且所述控制器可基于选择的对象部分选择第一体位标识。
预先存储的所述多个体位标识被分类为多个应用组。
第一体位标识和第二体位标识可以是2-维或3-维的。
用户输入可包括在触摸屏上输入的用户手势。
显示器可将第一体位标识和第二体位标识显示在单个屏幕上。
附图说明
现在将参照附图更充分地描述示例性实施例,在附图中,标号表示结构元件,其中:
图1A和图1B是示出根据示例性实施例的超声诊断系统的示图;
图2是示出根据示例性实施例的超声诊断系统的框图;
图3是示出根据示例性实施例的无线探头的框图;
图4是示出根据示例性实施例的用于产生体位标识的设备的框图;
图5A至图5C是示出根据示例性实施例的第一体位标识的示图;
图6是示出根据示例性实施例的第二体位标识的示图;
图7A和图7B是示出根据示例性实施例的用于产生第二体位标识的图像的示图;
图8A和图8B是示出根据示例性实施例的控制器产生第二体位标识的示例的示图;
图9A和图9B是示出根据示例性实施例的控制器产生第二体位标识的另一示例的示图;
图10A至图10D是示出根据示例性实施例的控制器产生第二体位标识的另一示例的示图;
图11A和图11B是示出根据示例性实施例的控制器产生第二体位标识的另一示例的示图;
图12A和图12B是示出根据示例性实施例的控制器产生第二体位标识的另一示例的示图;
图13A和图13B是示出根据示例性实施例的控制器产生第二体位标识的另一示例的示图;
图14A和图14B是示出根据示例性实施例的控制器产生第二体位标识的另一示例的示图;
图15是示出根据另一示例性实施例的用于产生体位标识的设备的框图;
图16A和图16B是示出根据示例性实施例的输入单元接收用于选择第一体位标识的用户输入的示例的示图;
图17是示出根据另一示例性实施例的用于产生体位标识的设备的框图;
图18A和图18B是示出根据示例性实施例的从医学图像选择对象的一部分的图像处理器的示例的示图;
图19是示出根据示例性实施例的产生体位标识的方法的流程图。
具体实施方式
说明书中使用的术语是本领域中考虑关于本发明构思的功能而被当前广泛使用的那些通常术语,这些术语可根据本领域的普通技术人员的意图、本领域的先例或新技术而改变。此外,一些术语可能是申请人任意选择的,在这种情况下,选择的术语的含义将在本说明书的具体实施方式中详细描述。因此,说明书中使用的术语不应仅被简单地理解为名称,而应基于这些术语的意思和本发明构思的全部描述来理解。如在此使用的,术语“和/或”包括列出的相关联的项目中的一个或更多个的任意和全部组合。诸如“…中的至少一个”的表述,当位于所列元素后面时,修饰列出的整个元素而不是修饰列出的个别元素。
贯穿说明书,还应理解,当部件“包括”元件时,除非另有与其相反的描述,否则应理解所述部件不排除其它元件,而是还可包括其它元件。此外,诸如“…单元”、“…模块”等的术语指的是执行至少一种功能或操作的单元,并且所述单元可被实施为硬件或软件或被实施为硬件和软件的组合。
在整个说明书中,“超声图像”是指使用超声波获得的对象的图像或包括在对象中的感兴趣区域的图像。感兴趣区域是用户想要聚焦的对象中的区域(例如,病变)。另外,“对象”可以是人、动物、或者人或动物的部位。例如,对象可以是器官(例如,肝脏、心脏、子宫、脑部、乳房或腹部)、血管或其组合。此外,对象可以是模型。所述模型是指具有接近于生物体的密度、有效原子序数和体积的材料。例如,所述模型可以是具有类似于人体属性的球形模型。
在整个说明书中,“用户”可以是例如医生的医学专家、护士、医疗保健技术人员或医学成像专家,或修理医疗设备的工程师,但不限于此。
现在将参照附图更充分地描述示例性实施例。
图1A和图1B是示出根据示例性实施例的超声诊断系统1000的示图。
参照图1A,探头20可有线连接到超声诊断系统1000的超声成像装置100。换言之,发送和接收超声的探头20可经由导线110连接到超声诊断系统1000的主体(即,超声成像装置100)。
参照图1B,探头20可以无线连接到超声诊断系统1001中的超声成像装置210。换言之,探头20和超声成像装置210可经由无线网络连接。例如,探头20可经由毫米波(mmWave)无线网络连接到超声成像装置210,经由换能器接收回波信号,并将60GHz频率范围内的回波信号发送到超声成像装置210。此外,超声成像装置210可通过使用接收到的60GHz频率范围内的回波信号来产生各种模式的超声图像,并显示所产生的超声图像。根据无线千兆联盟(WiGig)标准,可以使用毫米波无线网络,但不限于此。
图2是示出根据示例性实施例的超声诊断系统1002的框图。
参照图2,超声诊断系统1002可包括探头20和超声成像装置100。参照图2,超声成像装置100可包括可经由总线1800相互连接的超声收发器1100、图像处理器1200、通信模块1300、显示器1400、存储器1500、输入单元1600和控制器1700。
超声成像装置100可以是推车式设备或便携式设备。便携式超声诊断设备的示例可包括但不限于图像存档和通信系统(PACS)查看器、智能电话、膝上型计算机、个人数字助理(PDA)和平板PC。
探头20可响应于由超声收发器1100施加的驱动信号而将超声波发送到对象10(或对象10中的感兴趣区域),并接收由对象10(或对象10中的感兴趣区域)反射的回波信号。探头20包括多个换能器,所述多个换能器响应于电信号而振动,并产生声能(即,超声波)。另外,探头20可以有线或无线地连接到超声诊断系统1002的主体,超声诊断系统1002可包括多个探头20。
发送器1110向探头20供应驱动信号。发送器1110包括脉冲产生器1112、发送延迟单元1114、脉冲器1116。脉冲产生器1112基于预定的脉冲重复频率(PRF)产生用于形成发送超声波的脉冲,发送延迟单元1114将所述脉冲延迟确定发送方向所需要的延迟时间。已被延迟的脉冲分别对应于包括在探头20中的多个压电振动器。脉冲器1116基于与已被延迟的每个脉冲对应的时序将驱动信号(或驱动脉冲)施加到探头20。
接收器1120通过对从探头20接收到的回波信号进行处理来产生超声数据。接收器1120可包括放大器1122、模数转换器(ADC)1124、接收延迟单元1126、求和单元1128。放大器1122对每个信道的回波信号进行放大,ADC1124对放大后的回波信号执行模数转换。接收延迟单元1126将由ADC124输出的数字回波信号延迟确定接收方向所需要的延迟时间,求和单元1128通过对由接收延迟单元1126处理的回波信号进行求和来产生超声数据。在一些实施例中,接收器1120可以不包括放大器1122。换言之,如果探头20的灵敏度或ADC1124处理位的能力得到加强,则放大器1122可以省略。
图像处理器1200通过对由超声收发器1100产生的超声数据进行扫描转换来产生超声图像。超声图像不仅可以是通过按照幅度(A)模式、亮度(B)模式和运动(M)模式扫描对象10而获得的灰度超声图像,也可以通过多普勒效应示出对象10的移动的多普勒图像。多普勒图像可以是示出血液的流动的血流多普勒图像(也称为彩色多普勒图像)、示出组织的移动的组织多普勒图像或以波形示出对象10的移动速度的光谱多普勒图像。
B模式处理器1212从超声数据提取B模式分量,并处理B模式分量。图像产生器1220可基于提取的B模式分量1212来产生以亮度指示信号强度的超声图像。
类似地,多普勒处理器1214可从超声数据提取多普勒分量,图像产生器1220可基于提取的多普勒分量来产生以颜色或波形指示对象10的移动的多普勒图像。
根据实施例,图像产生器1220可经由对体数据进行体渲染来产生三维(3D)超声图像,并可通过对对象10的因压力而产生的形变进行成像来产生弹性图像。此外,图像产生器1220可通过使用文本和图表来显示超声图像中的多个附加信息。此外,产生的超声图像可存储在存储器1500中。
此外,图像处理器1200可选择超声图像中示出的对象10的一部分。
显示器1400显示产生的超声图像。显示器1400利用图形用户界面(GUI)在屏幕图像上不仅可显示超声图像,还可显示由超声成像装置100处理的各种信息。此外,根据实施例,超声成像装置100可包括两个或更多个显示器1400。
此外,显示器1400可显示存储在存储器1500中的多个体位标识中的至少一个体位标识,显示器1400可显示根据用户输入而产生的第二体位标识。
通信模块1300有线或无线地连接到网络30,以与外部装置或服务器进行通信。此外,当探头20经由无线网络连接到超声成像装置100时,通信模块1300可以与探头20通信。
通信模块1300可以与医院中的经由PACS相互连接的其它医疗设备或医院服务器交换数据。此外,通信模块1300可根据医学数字成像与通信(DICOM)标准来执行数据通信。
通信模块1300可经由网络30发送或接收与对象10的诊断相关的数据(例如,对象10的超声图像、超声数据和多普勒数据),并还可发送或接收由其它医疗设备(例如,计算机断层扫描(CT)设备、磁共振成像(MRI)设备或X-射线设备)捕获的医学图像。另外,通信模块1300可以从服务器接收关于病人的诊断历史或医疗计划的信息,并利用接收到的信息来对病人进行诊断。此外,通信模块1300不仅可以与医院的医疗设备或服务器执行数据通信,也可以与医生或病人的便携式终端执行数据通信。
通信模块1300可有线或无线地连接到网络30,以与服务器32、医疗设备34或便携式终端36交换数据。通信模块1300可包括用于与外部装置通信的一个或更多个部件。例如,通信模块1300可包括局域通信模块1310、有线通信模块1320和移动通信模块1330。
局域网通信模块1310是指用于在预定距离内进行局域通信的模块。根据实施例的局域通信技术的示例可包括但不限于无线LAN、Wi-Fi、蓝牙、ZigBee、Wi-Fi直连(WFD)、超带宽(UWB)、红外数据协会(IrDA)、蓝牙低功耗(BLE)和近场通信(NFC)。
有线通信模块1320是指利用电信号或光信号进行通信的模块。根据实施例的有线通信技术的示例可包括经由双绞线、同轴线缆、光纤线缆和以太网线缆的通信。
移动通信模块1330将无线信号发送到从移动通信网络上的基站、外部终端或服务器中选择的至少一个,或从移动通信网络上的基站、外部终端或服务器中选择的至少一个接收无线信号。无线信号可以是语音呼叫信号、视频呼叫信号或用于发送和接收文本/多媒体消息的各种类型的数据。
存储器1500存储由超声成像装置100处理的各种数据。例如,存储器1500可存储与对象10的诊断相关的医学数据(诸如输入或输出的超声数据和超声图像),并可存储将在超声成像装置100中执行的算法或程序。
此外,存储器1500可存储预先产生的体位标识和由控制器1700产生的体位标识。
存储器1500可以是各种存储介质(诸如,闪存、硬盘驱动器、EEPROM等)的任意介质。另外,超声成像装置100可利用在线执行存储器1500的存储功能的网页存储器或云服务器。
输入单元1600是指用户可输入用于控制超声成像装置100的数据的单元。输入单元1600可包括硬件部件(诸如键盘、鼠标、触摸板、触摸屏、滚轮开关)和用于驱动所述硬件部件的软件模块。然而,示例性实施例不限于此,输入单元1600还可包括包含心电图(ECG)测量模块、呼吸测量模块、语音识别传感器、手势识别传感器、指纹识别传感器、虹膜识别传感器、深度传感器、距离传感器等的各种输入单元中的任意单元。
此外,输入单元1600可接收用于在存储器1500中存储的体位标识中选择第一体位标识的用户输入。
控制器1700可控制超声成像装置100的全部操作。换言之,控制器1700可控制图1中示出的探头20、超声收发器1100、图像处理器1200、通信模块1300、显示器1400、存储器1500和输入单元1600的操作。
根据示例性实施例的控制器1700可基于对象10在预先存储的体位标识中选择第一体位标识。所述预先存储的体位标识是不管显示在超声图像上的对象的形状或位置如何而被预设且存储在存储器1500中的体位标识。
此外,控制器1700可根据用户的输入通过调整或改变第一体位标识的方位来产生第二体位标识。用户输入是经由输入单元1600作出的输入,并包括用户执行的手势(例如,点击、触摸并保持、双击、拖拽、平移、翻转、拖放、挤压、拉伸)。
例如,可根据由输入单元1600接收的用户输入,从存储在存储器1500中的体位标识选择第一体位标识。将参照图15、图16A和图16B详细描述根据用户输入而被选择的第一体位标识的示例。作为另一示例,可基于图像处理器1200从超声图像选择的对象10的一部分,来从存储在存储器1500的体位标识中选择第一体位标识。将参照图17、图18A和图18B详细描述基于从超声图像选择的对象的所述部分而被选择的第一体位标识的示例。
探头20、超声收发器1100、图像处理器1200、通信模块1300、显示器1400、存储器1500、输入单元1600和控制器1700中的全部或部分可被实施为软件模块。另外,从超声收发器1100、图像处理器1200、通信模块1300选择的至少一个可包括在控制器1700中。然而,示例性实施例不限于此。
图3是示出根据示例性实施例的无线探头的框图。
如参照图3所述,无线探头2000可包括多个换能器,根据实施例,无线探头2000可包括图2中示出的超声收发器1100的部分部件或全部部件。
根据图3中示出的实施例的超声探头2000包括发送器2100、换能器2200和接收器2300。由于已参照图2给出其描述,因此这里将省略其详细描述。此外,根据实施例,无线探头2000可选择性地包括接收延迟单元2330和求和单元2340。
无线探头2000可将超声信号发送到对象,从对象接收回波信号,产生超声数据,并将超声数据无线地发送到图2中示出的超声诊断系统1002。
图4是示出根据示例性实施例的用于产生体位标识的设备的框图。
参照图4,设备101可包括控制器1701和显示器1401。控制器1701和显示器1401的一个或两者可被实施为软件模块,但不限于此。控制器1701和显示器1401中的一个可被实施为硬件。此外,显示器1401可包括独立的控制模块。
此外,控制器1701可以与图2的控制器1700相同,并且显示器1401可以与图2的显示器1400相同。如果设备101是包括在超声成像装置中的部件,则除了控制器1701和显示器1401之外,设备101还可包括图2中示出的超声收发器1100、图像处理器1200、通信模块1300、存储器1500和输入单元1600。
控制器1701可基于在医学图像中示出的对象从预先存储的体位标识选择第一体位标识。体位标识可存储在设备101的存储器(未示出)中。
体位标识是指添加到医学图像(例如,超声图像)使得医学图像的查看者(例如,用户)可容易地识别医学图像中示出的对象的图形(figure)。
根据示例性实施例的第一体位标识是指预先产生并存储在设备101中的体位标识。即,第一体位标识是指不管医学图像中示出的对象的当前形状或位置的信息如何而由用户的制造商预先产生的体位标识。
由于第一体位标识不反映对象的当前形状或位置,因此当第一体位标识被添加至医学图像时,医学图像的查看者可能无法准确地识别对象的形状、位置或方位。此外,由于第一体位标识被从预先存储的体位标识中选择,因此用户可能需要大量的时间来针对对象选择合适的体位标识。在下文中,将参照图5A至图5C详细描述第一体位标识。
图5A至图5C是示出根据示例性实施例的第一体位标识的示图。
参照图5A,屏幕3110显示了预先存储的体位标识3120的示例。控制器1701可基于医学图像中示出的对象从体位标识3120中的任意一个选择第一体位标识。
体位标识3120可被分类为应用组3130。应用是指基于人或动物的身体部位或器官而确定的诊断类型。
例如,应用组3130可包括腹部组、小部位组(包括胸部、嘴、性器官等)、血管组、肌骨骼组、产科组、妇科组、心脏组、脑部组、泌尿组和兽医组。然而,应用组3130不限于此。人或动物的身体部位和器官可基于预定标准被分类为多个应用组。
显示器1401可将被分类为应用组3130的体位标识3120显示在屏幕3110上。例如,用户可从表示显示在屏幕3110上的应用组3130的图标选择(例如,点击或轻触)“血管”图标。然后,显示器1401可将体位标识3120中包括在血管组中的体位标识显示在屏幕3110上。
体位标识3120被预先产生和存储。因此,用户必须检查体位标识3120并选择最适合于医学图像中的对象的第一体位标识。因此,用户可能需要大量时间来选择第一体位标识。
此外,从体位标识3120选择的第一体位标识可能不包括对象的准确信息。将参照图5B对此进行详细描述。
图5B示出了显示在屏幕3210上的医学图像3220和添加至医学图像3220的第一体位标识3230的示例。为了描述的方便,在假设医学图像3220是示出血管的一部分的超声图像的情况下描述图5B。
为了便于医学图像3220的查看者的理解,第一体位标识3230可被添加至医学图像3220。第一体位标识3230被从预先产生的体位标识选择。因此,通过仅查看第一体位标识3230,查看者仅能够识别所获得的医学图像3220是抓取的血管图像,而不知道医学图像3220中示出的是血管的哪一部分。
第一体位标识3230不能按照任何其它的方式旋转或修改。根据对第一体位标识3230中示出的血管3250的方向,第一体位标识3230可能无法准确地指示医学图像3220中示出的血管3240的方位。例如,参照图5B,医学图像3220中的血管3240相对于X-轴定向,而第一体位标识3230中的血管3250相对于Y-轴定向。因此,第一体位标识3230未能提供关于对象的准确信息。
图5C示出了显示在屏幕3310上的医学图像3320和添加至医学图像3320的第一体位标识3330的示例。为了描述的方便,在假设医学图像3320是示出胎儿的超声图像的情况下描述图5C。
超声图像3320的胎儿3340被示出为平行于X-轴并面朝下躺着。然而,第一体位标识3330的胎儿3350被示出为平行于X-轴并面朝上躺着。因此,第一体位标识3330未能提供关于超声图像3320中示出的胎儿3340的准确信息。
如上面参照图5A至图5C所描述的,作为预先产生的体位标识的第一体位标识不能准确地表示医学图像中包含的对象。
根据示例性实施例的控制器1701可通过改变第一体位标识的形状、方位或位置来产生第二体位标识。因此,控制器1701可产生准确地示出关于对象的信息的体位标识。在下文中,将参照图6详细描述第二体位标识。
图6是示出根据示例性实施例的第二体位标识3430的示图。
图6是示出显示在屏幕3410上的医学图像3420和添加至医学图像3420的第二体位标识3430的示例,在假设医学图像3320为示出胎儿的超声图像的情况下描述图6。
超声图像3420的胎儿3440被示出为平行于X-轴并面朝下躺着。第二体位标识3430的胎儿3450也被示出为平行于X-轴并面朝下躺着。换言之,第二体位标识3430准确地示出了超声图像3420的胎儿3440的方位和朝向。
如上面参照图5C所描述的,第一体位标识3330无法准确地示出超声图像3320的胎儿3340的朝向。因此,查看者仅基于第一体位标识3330可能无法获得关于超声图像3320中示出的胎儿3340的准确信息。然而,如图6所示,第二体位标识3430准确地示出了超声图像3420的胎儿3440的方位和位置,因此,查看者可仅基于第二体位标识3430获得关于超声图像3420中示出的胎儿3440的准确信息。
参照回图4,控制器1701可通过根据用户输入改变第一体位标识的形状来产生第二体位标识。例如,控制器1701可根据经由设备101中的输入单元(未示出)接收的用户输入来改变第一体位标识的形状、方位或位置。设备101中的输入单元可以与参照图2描述的输入单元1600相同。
例如,在输入单元包括硬件部件(诸如键盘、鼠标、轨迹球和滚轮开关)和用于驱动所述硬件部件的软件模块的情况下,用户输入可包括点击屏幕上的预定点或输入从屏幕上的一点至屏幕上的另一点的拖拽手势。作为另一示例,在输入单元包括触摸屏和用于驱动触摸屏的软件模块的情况下,用户输入可包括在触摸屏上输入的用户手势。手势可包括例如点击、触摸并保持、双击、拖拽、滚动、翻转、拖放、挤捏、拉伸。
例如,控制器1701可通过根据用户输入使第一体位标识关于垂直轴翻转来产生第二体位标识。作为另一示例,控制器1701可通过根据用户输入使第一体位标识关于第一体位标识的中心轴旋转来产生第二体位标识。作为另一示例,控制器1701可通过根据用户输入使第一体位标识顺时针或逆时针旋转来产生第二体位标识。
显示器1401可将示出对象的医学图像显示在屏幕上。此外,显示器1401可将由控制器1701产生的第二体位标识显示在屏幕上。显示器1401可将第一体位标识和第二体位标识显示在单个屏幕上。
控制器1701可通过根据用户输入改变第一体位标识的形状来产生第二体位标识。为了帮助用户准确地输入数据,显示器1401可将第一体位标识和预定引导图像显示在屏幕上。在下文中,将参照图7A和图7B详细描述由显示器1401显示的第一体位标识和预定引导图像。
图7A和图7B是根据示例性实施例的用于产生第二体位标识的图像的示图。
图7A示出了显示在屏幕4110上的第一体位标识4120和第一至第三引导图像4130、4140和4150的示例。用户可基于显示在屏幕4110上的第一体位标识4120和第一至第三引导图像4130、4140和4150向设备101提供用户输入。
用户可根据预定规则选择引导图像4130、4140和4150上的点,或输入从引导图像4130、4140和4150上的一点开始至引导图像4130、4140和4150上另一点的拖拽手势。此外,控制器1701可根据用户输入改变第一体位标识4120的形状、方位或位置。
为了描述的方便,假设用户输入为图7A至图14B中的由用户执行的手势。然而,用户输入不限于此。如上所述,用户可通过使用各种硬件部件(诸如键盘或鼠标)向设备101提供用户输入。
例如,当用户点击第一引导图像4130或沿着第一引导图像4130周围的点沿顺时针或逆时针方向输入拖拽手势时,控制器1701可使第一体位标识4120关于第一体位标识4120的中心轴旋转。
作为另一示例,当用户点击第二引导图像4140时,控制器1701可以使第一体位标识4120的一部分朝第二引导图像4140旋转。
作为另一示例,当用户点击第三引导图像4150或沿着第三引导图像4150周围的点按照顺时针或逆时针方向输入拖拽手势时,控制器1701可使第一体位标识4120的一部分沿顺时针或逆时针方向旋转。
可选地,如图7B所示,可以仅将第一体位标识4120显示在屏幕4160上。换言之,可以从屏幕4160省略图7A的第一至第三引导图像4130、4140和4150。在图7B的情况下,如参照图7A所述,用户还可以向设备101提供用户输入,并且控制器1701可根据用户输入改变第一体位标识4120的形状、方位或位置。
在下文中,将参照图8A至图14B详细描述控制器1701通过调整第一体位标识的形状来产生第二体位标识的示例。在图8A至图14B中,假设引导图像4130、4140和4150未显示在屏幕上。
图8A和图8B是示出根据示例性实施例的产生第二体位标识的控制器1701的示例的示图。
例如,控制器1701可通过根据用户输入第一体位标识4220的一部分旋转来产生第二体位标识4230。
图8A示出了显示第一体位标识4220的屏幕4210的示例。用户可选择(例如,点击)第一体位标识4220的外部点,控制器1701可将第一体位标识4220的所述部分旋转至用户选择的点。
图8B示出了通过使第一体位标识4220的所述部分旋转产生的第二体位标识4230的示例。例如,当第一体位标识4220表示胎儿时,控制器1701可使第一体位标识4220的该部分旋转,使得胎儿的头部朝向用户选择的点4240定位。在这种情况下,控制器1701可按照顺时针或逆时针方向使第一体位标识4220的该部分旋转。
根据第二体位标识4230的一部分的旋转角度,第二体位标识4230可以与第一体位标识4220关于水平轴翻转后的体位标识相同。
因此,控制器1701可通过朝着用户选择的点4240旋转第一体位标识4220的一部分来产生第二体位标识4230。此外,控制器1701可将第二体位标识4230存储在设备101的存储器中。
图9A和图9B是示出根据示例性实施例的控制器1701产生第二体位标识的另一示例的示图。
例如,控制器1701可通过根据用户输入按照顺时针或逆时针方向旋转第一体位标识4320的一部分来产生第二体位标识4330。
图9A示出了显示第一体位标识4320的屏幕4310的示例。用户可按照顺时针或逆时针方向输入从第一体位标识4320上的一个外部点至第一体位标识4320上的另一外部点的拖拽手势,控制器1701可根据用户输入的拖拽手势按照顺时针或逆时针方向第一体位标识4320的该部分旋转。
图9B示出了通过按照顺时针方向旋转第一体位标识4320的该部分产生的第二体位标识4330。例如,假设第一体位标识4320表示胎儿,用户按照顺时针方向输入从胎儿的头部指向的点4340至第一体位标识4320上的另一点4350的拖拉手势。在这种情况下,控制器1701可按照顺时针方向旋转第一体位标识4320的该部分,使得胎儿的头部指向拖拽手势停止的点4350。
因此,控制器1701可通过按照顺时针方向朝着用户选择的点4350旋转第一体位标识4320的所述部分来产生第二体位标识4330。此外,控制器1701可将第二体位标识4330存储在设备101的存储器中。
如以上参照图9A至图9B所描述的,控制器1701可通过按照顺时针方向旋转第一体位标识4320的所述部分来产生第二体位标识4330。然而,当用户按照逆时针方向输入拖拉手势时,控制器1701可通过按照逆时针方向朝着拖拉手势停止的点旋转第一体位标识来产生第二体位标识。
图10A至图10D是示出根据示例性实施例的控制器1701产生第二体位标识的另一示例的示图。
例如,控制器1701可通过根据用户输入使第一体位标识4420的一部分关于第一体位标识4420的中心轴旋转来产生第二体位标识4440、4450和4460。
图10A示出了显示第一体位标识4420的屏幕4410的示例。用户可选择(例如,点击)第一体位标识4420的中心轴通过的点4430,控制器1701可根据用户选择的点使第一体位标识4420的一部分关于第一体位标识4420的中心轴旋转。
虽然图10B至图10D示出了第一体位标识4420按照逆时针方向关于第一体位标识的中心轴旋转,但示例性实施例不限于此。换言之,控制器1701可基于预定规则使第一体位标识4420的一部分按照顺时针方向关于第一体位标识4420的中心轴旋转。
图10B示出了通过将第一体位标识4420的该部分关于第一体位标识4420的中心轴旋转90°而产生的第二体位标识4440的示例。例如,假设第一体位标识4420表示胎儿,用户点击第一体位标识4420的中心轴穿过的点4430。在这种情况下,控制器1701可使第一体位标识4420的该部分关于第一体位标识4420的中心轴沿逆时针方向旋转90°。
图10C示出了通过将图10B的第二体位标识4440的该部分关于第二体位标识4440的中心轴旋转90°而产生的第二体位标识4450的示例。例如,假设第二体位标识4440表示胎儿,并且用户点击第二体位标识4440的中心轴穿过的点4430。在这种情况下,控制器1701可将第二体位标识4440的一部分关于第二体位标识4420的中心轴沿逆时针方向旋转90°。
图10D示出了通过关于第二体位标识4450的中心轴将图10C的第二体位标识4450的所述部分旋转90°而产生的第二体位标识4460的示例。例如,假设第二体位标识4450表示胎儿,并且用户点击第二体位标识4450的中心轴穿过的点4430。在这种情况下,控制器1701可将第二体位标识4450的所述部分关于第二体位标识4450的中心轴按照逆时针方向旋转90°。
因此,控制器1701可通过使第一体位标识4420的该部分关于第一体位标识4420的中心轴旋转来产生第二体位标识4440、4450和4460。此外,控制器1701可将第二体位标识4440、4450和4460存储在设备101的存储器中。
如以上参照图10A至图10D所描述的,控制器1701可根据由用户执行的点击围绕第一体位标识4420的中心轴来旋转第一体位标识4420的部分。所述点击可以连续或不连续,但不限于此。
例如,假设用户按照顺时针方向输入从第一体位标识4420上的第一体位标识4420的中心轴穿过的点至第一体位标识4420上的另一点的拖拉手势。基于拖拉手势的距离,控制器1701可按照顺时针方向使第一体位标识4420关于第一体位标识4420的中心轴旋转。例如,当用户按照顺时针方向输入从第一点至第二点的拖拉手势时(其中,第一点和第二点之间的距离为1mm),控制器1701可按照顺时针方向将第一体位标识4420旋转20°。然而,示例性实施例不限于此。拖拉手势的距离和第一体位标识4420的旋转角度可以改变。
图11A和图11B是示出根据示例性实施例的产生第二体位标识的控制器1701的另一示例的示图。
例如,控制器1701可通过根据用户输入使第一体位标识4520关于垂直轴翻转来产生第二体位标识4540。
图11A示出了显示第一体位标识4520的屏幕4510的示例。当用户选择(例如,点击)第一体位标识4520上的外部点4530时,控制器1701可使第一体位标识4520关于垂直轴翻转。
图11B示出了通过关于垂直轴翻转第一体位标识4520而产生的第二体位标识4540的示例。例如,当第一体位标识4520表示对象的右手手掌时,控制器1701可关于垂直轴翻转第一体位标识4520,以显示右手手掌的反转图像。
因此,控制器1701可通过关于垂直轴翻转第一体位标识4520来产生第二体位标识4540。此外,控制器1701可将第二体位标识4540存储在设备101的存储器中。
图12A和图12B是示出根据示例性实施例的产生第二体位标识的控制器1701的另一示例的示图。
例如,控制器1701可通过根据用户输入反转第一体位标识4620来产生第二体位标识4640(即,按照顺时针或逆时针方向关于第一体位标识4620的中心轴将第一体位标识4620旋转180°)
图12A示出了显示第一体位标识4620的屏幕4610的示例。当用户选择(例如,点击)第一体位标识4620的中心轴穿过的点4630时,控制器1701可反转第一体位标识4620。
图12B示出了通过反转第一体位标识4620而产生的第二体位标识4640的示例。例如,当第一体位标识4620表示右手手掌时,控制器1701可反转第一体位标识4620,以显示右手手掌的背面。
因此,控制器1701可通过反转第一体位标识4620来产生第二体位标识4640。此外,控制器1701可将第二体位标识4640存储在设备101的存储器中。
如以上参照图8A至图12B所述,控制器1701可通过利用表示单个对象的第一体位标识来产生表示单个对象的第二体位标识。然而,体位标识可表示多个对象。例如,当通过捕获怀有双胞胎的孕妇的子宫而获得医学图像时,添加至医学图像的体位标识需要表示出双胞胎(即,多个对象)。
根据示例性实施例的控制器1701可通过利用表示单个对象的第一体位标识来产生表示多个对象的第二体位标识。在下文中,将参照图13A至图14B描述表示多个对象的第二体位标识的控制器1701的示例。
图13A和图13B是示出根据示例性实施例的产生第二体位标识的控制器1701的另一示例的示图。
图13A示出了显示代表单个对象的第一体位标识4720的屏幕4710的示例。为了描述的方便,假设第一体位标识4720代表胎儿。
控制器1701可根据用户输入改变由体位标识表示的对象的数量。例如,当用户选择(例如,点击)显示在屏幕4710上的预定位置的图标4730时,显示器1401可显示示出可由体位标识表示的对象的数量的弹出窗口4740。因此,用户可设置将由体位标识表示的对象的数量。
如图13B所示,当用户已将体位标识设置为表示2个对象时,控制器1701可产生包括2个胎儿的第二体位标识4750。此外,控制器1701可将第二体位标识4750存储在设备101的存储器中。
控制器1701可改变包括在体位标识中的多个对象的形状、方位或位置。例如,当通过捕获怀有双胞胎的孕妇的子宫而获得医学图像时,每个胎儿可能朝着不同的方向。因此,控制器1701可改变体位标识中的多个对象的形状、方位或位置,从而产生准确地显示关于所述对象的信息的体位标识。
在下文中,将参照图14A和图14B描述控制器1701通过改变根据包括在体位标识中的多个对象的形状、方位或位置而产生第二体位标识的示例。
图14A和图14B是示出根据示例性实施例的产生第二体位标识的控制器1701的另一示例的示图。
图14A示出了显示包括多个对象的第一体位标识4820的屏幕4810的示例。为了描述的方便,假设第一体位标识4820包括双胞胎。此外,如以上参照图13A和图13B所述,控制器1701可通过使用包括单个胎儿的体位标识来产生第一体位标识。
基于用户输入,控制器1701可在包括在体位标识的多个对象中选择对象。例如,当用户从显示在屏幕4810上的胎儿4831和4833选择(例如,点击)胎儿4833时,控制器1701可确定胎儿4833作为将被改变形状、方位或位置的对象。在这种情况下,显示器1401可将胎儿4831和4833为使得被选择的胎儿4833与未被选择的胎儿4831不同(例如,改变线的粗细或线的颜色)。因此,用户可容易地识别被选择的胎儿4833。
控制器1701可根据用户输入改变胎儿4833的形状、方位或位置。用户输入可以与以上参照图8A至图12B描述的相同。例如,假设用户输入按照顺时针方向从胎儿4833的头部朝向的点4840至另一点4850的拖拽手势。在这种情况下,控制器1701可旋转胎儿4833,使得所述头部朝向拖拽手势停止的点4850。
参照图14B,控制器1701可产生图14A的胎儿4833的位置改变后的第二体位标识4860。此外,控制器1701可将第二体位标识4860存储在设备101的存储器中。
虽然以上参照图7A至图14B描述的第二体位标识是2维的,但示例性实施例不限于此。换言之,控制器1701可产生3维的第二体位标识。
图15是示出根据另一示例性实施例的用于产生体位标识的设备102的框图。
参照图15,设备102可包括控制器1702、显示器1402和输入单元1601。控制器1702、显示器1402和输入单元1601中的全部或部分可被实施为软件模块,但不限于此。控制器1702、显示器1402和输入单元1601中的一些可被实施为硬件。此外,显示器1402和输入单元1601中的每个可包括独立的控制模块。
此外,控制器1702可以与图4的控制器1701相同,显示器1402可以与图4的显示器1401相同,并且输入单元1601可以与图2的输入单元1600相同。如果设备102是包括在超声成像装置中的部件,则除了控制器1702、显示器1402和输入单元1601之外,设备102还可包括图2中示出的超声收发器1100、图像处理器1200、通信模块1300和存储器1500。
显示器1402的操作与以上参照图4至图14B描述的对应部件的操作相同。因此,将不重复描述显示器1402的详细描述。
输入单元1601可接收用于选择与医学图像中的对象相应的第一体位标识的用户输入。用户输入是指从预存储的体位标识选择第一体位标识的输入。
控制器1702可基于从输入单元1601发送的用户输入选择第一体位标识。此外,控制器1702可在用户输入了用于选择第一体位标识之后通过根据接收到的用户输入改变第一体位标识的形状,来产生第二体位标识。由于以上已参照图8A至图14B详细描述了产生第二体位标识的控制器1702的示例,因此,将不重复这些示例的描述。
在下文中,将参照图16A和图16B详细描述输入单元1601接收用户输入和控制器1702选择第一体位标识的示例。
图16A和图16B是示出根据示例性实施例的输入单元接收用于选择第一体位标识的用户输入的示例的示图。
参照图16A,屏幕5110显示预先存储在设备102中的多个体位标识5120。在这种情况下,如以上参照图5A所述,体位标识5120可被分类为应用组5130。
用户可在显示在屏幕5110上的体位标识5120中选择体位标识5140。例如,当输入单元1601包括硬件部件(诸如键盘、鼠标、轨迹球和滚轮开关)和用于驱动所述硬件部件的软件模块时,用户可点击体位标识5120中的体位标识5140。作为另一示例,当输入单元1601包括触摸屏和用于驱动触摸屏的软件模块时,用户可点击体位标识5120中的体位标识5140。
控制器1702可基于用户输入选择第一体位标识。换言之,用户选择的体位标识5140被选择作为第一体位标识。然后,如图16B所示,显示器1402可将第一体位标识5160显示在屏幕5150上。
如以上参照图16A和图16B所述,控制器1702可选择用户确定的体位标识作为第一体位标识。然而,示例性实施例不限于此。例如,控制器1702可基于显示在医学图像中的对象的形状选择第一体位标识。在下文中,将参照图17、图18A和图18B描述控制器1702基于对象的形状选择第一体位标识的示例。
图17是示出根据另一示例性实施例的用于产生体位标识的设备103的框图。
参照图17,设备103可包括控制器1703、显示器1403和图像处理器1201。控制器1703、显示器1403和图像处理器1201的全部或部分可被实施为软件模块,但不限于此。控制器1703、显示器1403和图像处理器1201的一些可被实施为硬件。此外,显示器1403和图像处理器1201中的每个可包括独立的控制模块。
此外,控制器1703可以与图4的控制器1701相同,显示器1403可以与图4的显示器1401相同,图像处理器1201可以与图2的图像处理器1200相同。如果设备103是包括在超声成像装置中的部件,则,除了控制器1703、显示器1403和图像处理器1201之外,设备103还可包括在图2中示出的超声收发器1100、通信模块1300、存储器1500和输入单元1600。
显示器1403的操作与以上参照图4至图14B描述的对应部件的操作相同。因此,将不重复显示器1403的详细描述。
图像处理器1201从医学图像选择对象部分。例如,图像处理器1201可检测医学图像中的对象的轮廓,连接检测到的轮廓,从而选择对象部分。图像处理器1201可通过使用各种方法(例如,阈值方法、K-means算法、基于压缩的方法、基于直方图的方法、边缘检测、区域生长方法、基于偏微分方程的方法和图形分割方法)来选择对象部分。由于以上方法对于本领域的普通技术人员而言是公知的,因此,将省略其详细描述。
控制器1703可基于对象的形状的信息选择第一体位标识。例如,控制器1703可从存储在设备103中的多个体位标识中选择具有与所述对象最相似的形状的第一体位标识。
此外,控制器1703可在选择了第一体位标识之后通过根据接收到的用户输入改变第一体位标识的形状、方位或位置,来产生第二体位标识。由于已参照图8A至图14B详细描述了控制器1703产生第二体位标识的示例,因此,将不重复描述这些示例。
在下文中,将参照图18A和图18B详细描述图像处理器1201从医学图像选择对象部分和控制器1702选择第一体位标识的示例。
图18A和图18B是示出根据示例性实施例的图像处理器从医学图像选择对象部分的示例的示图。
参照图18A,屏幕5210显示了示出对象5230的医学图像5220。图像处理器1201可从医学图像5220选择对象5230的部分。例如,图像处理器1201可使用参照图17描述的任意一种方法,来从医学图像5220选择对象5230的部分。
控制器1703可基于对象5230的形状选择第一体位标识。例如,控制器1703可以从存储在设备103中的多个体位标识中选择具有与对象5230最相似的形状的体位标识5240作为第一体位标识。此外,如图18B所示,显示器1402可将第一体位标识5240显示在屏幕5250上。
图19是示出根据示例性实施例的产生第一体位标识的方法的流程图。
参照图19,产生体位标识的方法包括由分别在图1A、图1B和图2中示出的超声诊断系统1000、1001和1002或分别在图4、图15和图17中示出的设备100、101、102和103顺序地执行的操作。因此,分别在图1A、图1B和图2中示出的超声诊断系统1000、1001和1002以及分别在图4、图15和图17中示出的设备100、101、102和103的上述特征和元件的全部应用于图19的方法。
在操作6100中,控制器基于医学图像中示出的对象在预先存储的多个体位标识中选择第一体位标识。多个体位标识可存储在用于产生体位标识的设备的存储器中。
在操作6200,控制器通过根据用户输入改变第一体位标识的形状来产生第二体位标识。例如,控制器可通过根据用户输入使第一体位标识关于垂直轴翻转来产生第二体位标识。作为另一示例,控制器可通过根据用户输入使第一体位标识关于第一体位标识的中心轴旋转来产生第二体位标识。可选地,控制器可通过根据用户输入按照顺时针或逆时针方向旋转第一体位标识来产生第二体位标识。
在操作6300中,显示器显示第二体位标识。显示器可以将第一体位标识和第二体位标识显示在单个屏幕上。
如上所述,根据以上示例性实施例中的一个或更多个,可产生与在医学图像中示出的对象的当前位置或方向对应的体位标识。此外,用户可耗费较短的时间在预先存储的体位标识中选择与对象的当前位置或方向对应的体位标识。
此外,还可通过介质(例如,计算机可读介质)中/上的计算机可读代码/指令实现其它示例性实施,以控制用于实现以上描述的任意示例性实施例的至少一个处理元件。所述介质可以与允许存储和/或传输计算机可读代码的任意介质对应。
计算机可读代码可按照多种方式记录/传输在介质上,所述介质的示例包括记录介质(诸如磁存储介质(例如,ROM、软盘、硬盘等)和光学记录介质(例如,CD-ROM或DVD))和传输介质(诸如互联网传输介质)。因此,所述介质可以是这样定义且可测量的结构:包括或传递信号/信息,诸如根据一个或更多个示例性实施例传输比特流的装置。所述介质还可以是分散的网络,从而可以按照分散的方式存储/传输和执行计算机代码。此外,处理元件可包括处理器或计算机处理器,处理元件可以分布和/或包括在单个装置中。
应理解,在此描述的示例性实施例应被视为描述性意义,而不是为了限制的目的。对每个示例性实施例的特征或方面的描述应被代表性地视为可适用于其它示例性实施例中的其它类似特征或方面。
虽然已参照附图描述了一个或更多个示例性实施例,但本领域的普通技术人员将理解,可在不脱离由权利要求限定的精神和范围的情况下,在形式和细节上做出各种改变。

Claims (15)

1.一种产生体位标识的方法,所述方法包括:
基于医学图像中示出的对象在预先存储的多个体位标识中选择第一体位标识;
通过根据用户输入改变第一体位标识来产生第二体位标识;
显示第二体位标识。
2.如权利要求1所述的方法,其中,第二体位标识包括通过使第一体位标识关于垂直轴翻转而产生的体位标识。
3.如权利要求1所述的方法,其中,第二体位标识包括通过使第一体位标识关于水平轴翻转而产生的体位标识。
4.如权利要求1所述的方法,其中,第二体位标识包括通过使第一体位标识关于第一体位标识的中心轴旋转而产生的体位标识。
5.如权利要求1所述的方法,其中,第二体位标识包括通过使第一体位标识按照顺时针方向或逆时针方向旋转而产生的体位标识。
6.如权利要求1所述的方法,其中,所述选择的步骤包括:接收用于在预先存储的多个体位标识中选择与对象对应的第一体位标识的用户输入,以及基于接收到的用户输入选择第一体位标识。
7.如权利要求1所述的方法,其中,所述选择的步骤包括:选择医学图像中示出的对象部分,并基于选择的对象部分选择第一体位标识。
8.如权利要求1所述的方法,其中,预先存储的所述多个体位标识被分类为多个应用组。
9.一种用于产生体位标识的设备,所述设备包括:
显示器,显示示出对象的医学图像;
控制器,基于对象在预先存储的多个体位标识中选择第一体位标识,并通过根据用户输入改变第一体位标识的形状产生第二体位标识,
其中,所述显示器显示第二体位标识。
10.如权利要求9所述的设备,其中,第二体位标识包括通过使第一体位标识关于垂直轴翻转而产生的体位标识。
11.如权利要求9所述的设备,其中,第二体位标识包括通过使第一体位标识关于水平轴翻转而产生的体位标识。
12.如权利要求9所述的设备,其中,第二体位标识包括通过使第一体位标识关于第一体位标识的中心轴旋转而产生的体位标识。
13.如权利要求9所述的设备,其中,第二体位标识包括通过使第一体位标识按照顺时针方向或逆时针方向旋转而产生的体位标识。
14.如权利要求9所述的设备,还包括:输入单元,接收用于在预先存储的多个体位标识中选择与对象对应的第一体位标识的用户输入,
其中,所述控制器基于接收到的用户输入选择第一体位标识。
15.如权利要求9所述的设备,还包括从医学图像选择对象部分的图像处理器,
其中,所述控制器基于选择的对象部分选择第一体位标识。
CN201510455280.XA 2014-12-15 2015-07-29 用于产生指示对象的体位标识的方法和设备 Pending CN105686848A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140180499A KR102388132B1 (ko) 2014-12-15 2014-12-15 대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템.
KR10-2014-0180499 2014-12-15

Publications (1)

Publication Number Publication Date
CN105686848A true CN105686848A (zh) 2016-06-22

Family

ID=53264448

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510455280.XA Pending CN105686848A (zh) 2014-12-15 2015-07-29 用于产生指示对象的体位标识的方法和设备

Country Status (4)

Country Link
US (1) US10768797B2 (zh)
EP (1) EP3034005B1 (zh)
KR (1) KR102388132B1 (zh)
CN (1) CN105686848A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107693047A (zh) * 2017-10-18 2018-02-16 飞依诺科技(苏州)有限公司 超声成像中基于对称组织的体标设置方法及系统
CN109567861A (zh) * 2018-10-25 2019-04-05 中国医学科学院北京协和医院 超声成像方法及相关设备
CN111603194A (zh) * 2020-06-02 2020-09-01 上海联影医疗科技有限公司 乳腺断层图像显示的方法、系统和计算机可读存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3537984B1 (en) * 2016-11-11 2024-01-10 Koninklijke Philips N.V. A wireless intraluminal imaging device and associated devices, systems, and methods
US20180189992A1 (en) * 2017-01-04 2018-07-05 Clarius Mobile Health Corp. Systems and methods for generating an ultrasound multimedia product
JP7171291B2 (ja) * 2018-07-26 2022-11-15 キヤノンメディカルシステムズ株式会社 超音波診断装置及び画像処理プログラム
USD947220S1 (en) * 2018-08-22 2022-03-29 Sonivate Medical, Inc. Display screen with a graphical user interface for an ultrasound system
US11579968B2 (en) 2020-08-26 2023-02-14 Micron Technology, Inc. Efficient management of failed memory blocks in memory sub-systems

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000175910A (ja) * 1998-12-21 2000-06-27 Toshiba Iyo System Engineering Kk 超音波診断装置
US20040122310A1 (en) * 2002-12-18 2004-06-24 Lim Richard Y. Three-dimensional pictograms for use with medical images
CN101477435A (zh) * 2008-12-26 2009-07-08 明基电通有限公司 影像操作方法及其便携式电子装置
US20100191114A1 (en) * 2009-01-28 2010-07-29 Medison Co., Ltd. Image indicator provision in an ultrasound system
CN102203714A (zh) * 2008-11-06 2011-09-28 皇家飞利浦电子股份有限公司 乳房超声注释用户界面
US20110282199A1 (en) * 2010-05-17 2011-11-17 Samsung Medison Co., Ltd. Ultrasound system for measuring image using figure template and method for operating ultrasound system
CN103155534A (zh) * 2010-09-27 2013-06-12 富士胶片株式会社 图像编辑方法和图像编辑装置以及图像编辑程序

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56112226A (en) * 1980-02-12 1981-09-04 Tokyo Shibaura Electric Co Ultrasonic blood stream measuring apparatus
US5367498A (en) * 1990-07-11 1994-11-22 Yoshida Takashi Lateral direction detection sonar
JP3091503B2 (ja) * 1991-03-22 2000-09-25 株式会社日立メディコ 超音波断層装置
US20020173721A1 (en) * 1999-08-20 2002-11-21 Novasonics, Inc. User interface for handheld imaging devices
US7615008B2 (en) * 2000-11-24 2009-11-10 U-Systems, Inc. Processing and displaying breast ultrasound information
US6675038B2 (en) * 2001-05-14 2004-01-06 U-Systems, Inc. Method and system for recording probe position during breast ultrasound scan
GB2395880B (en) * 2002-11-27 2005-02-02 Voxar Ltd Curved multi-planar reformatting of three-dimensional volume data sets
DE10323008A1 (de) * 2003-05-21 2004-12-23 Siemens Ag Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken
WO2005011470A2 (en) * 2003-07-29 2005-02-10 Ntd Laboratories, Inc. System and method for assessing fetal abnormality based on landmarks
JP2008515519A (ja) * 2004-10-08 2008-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 身体マーカー注釈付けを用いた超音波撮像システム
WO2008081558A1 (ja) * 2006-12-28 2008-07-10 Kabushiki Kaisha Toshiba 超音波画像取得装置、及び超音波画像の取得方法
JP5022716B2 (ja) * 2007-01-24 2012-09-12 株式会社東芝 超音波診断装置、及び超音波診断装置の制御プログラム
CN102006828B (zh) 2008-03-03 2014-08-27 柯尼卡美能达株式会社 超声波诊断装置
JP2009297072A (ja) * 2008-06-10 2009-12-24 Toshiba Corp 超音波診断装置、及び医用画像処理装置
US20160066887A1 (en) * 2009-01-28 2016-03-10 Samsung Medison Co., Ltd. Image indicator provision in ultrasound system
US9619104B2 (en) * 2010-10-01 2017-04-11 Smart Technologies Ulc Interactive input system having a 3D input space
US9146674B2 (en) * 2010-11-23 2015-09-29 Sectra Ab GUI controls with movable touch-control objects for alternate interactions
US20130137988A1 (en) * 2011-11-28 2013-05-30 Samsung Electronics Co., Ltd. Method and Apparatus for the Augmentation of Physical Examination over Medical Imaging Data
KR20130107882A (ko) 2012-03-23 2013-10-02 삼성메디슨 주식회사 초음파 장치의 사용자에 따른 데이터를 제공하는 장치 및 방법
KR101446780B1 (ko) * 2012-06-01 2014-10-01 삼성메디슨 주식회사 초음파 영상과 초음파 영상에 관련된 정보를 디스플레이하기 위한 방법 및 장치
JP6012288B2 (ja) * 2012-06-27 2016-10-25 株式会社日立製作所 超音波診断装置
JP6169927B2 (ja) 2012-08-31 2017-07-26 東芝メディカルシステムズ株式会社 医用レポート作成装置及び医用画像診断装置
JP2014064637A (ja) * 2012-09-25 2014-04-17 Fujifilm Corp 超音波診断装置
KR101470411B1 (ko) 2012-10-12 2014-12-08 주식회사 인피니트헬스케어 가상 환자 모델을 이용한 의료 영상 디스플레이 방법 및 그 장치
EP2719336B1 (en) * 2012-10-12 2021-03-17 Samsung Medison Co., Ltd. Method for displaying ultrasound image using doppler data and ultrasound medical apparatus thereto
JP6173686B2 (ja) 2012-12-25 2017-08-02 東芝メディカルシステムズ株式会社 超音波診断装置
JP6011378B2 (ja) 2013-02-05 2016-10-19 コニカミノルタ株式会社 超音波画像診断装置
KR101495528B1 (ko) 2013-03-28 2015-03-02 삼성메디슨 주식회사 대상체의 방향 정보를 제공하는 초음파 시스템 및 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000175910A (ja) * 1998-12-21 2000-06-27 Toshiba Iyo System Engineering Kk 超音波診断装置
US20040122310A1 (en) * 2002-12-18 2004-06-24 Lim Richard Y. Three-dimensional pictograms for use with medical images
CN102203714A (zh) * 2008-11-06 2011-09-28 皇家飞利浦电子股份有限公司 乳房超声注释用户界面
CN101477435A (zh) * 2008-12-26 2009-07-08 明基电通有限公司 影像操作方法及其便携式电子装置
US20100191114A1 (en) * 2009-01-28 2010-07-29 Medison Co., Ltd. Image indicator provision in an ultrasound system
US20110282199A1 (en) * 2010-05-17 2011-11-17 Samsung Medison Co., Ltd. Ultrasound system for measuring image using figure template and method for operating ultrasound system
CN103155534A (zh) * 2010-09-27 2013-06-12 富士胶片株式会社 图像编辑方法和图像编辑装置以及图像编辑程序

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107693047A (zh) * 2017-10-18 2018-02-16 飞依诺科技(苏州)有限公司 超声成像中基于对称组织的体标设置方法及系统
CN109567861A (zh) * 2018-10-25 2019-04-05 中国医学科学院北京协和医院 超声成像方法及相关设备
CN111603194A (zh) * 2020-06-02 2020-09-01 上海联影医疗科技有限公司 乳腺断层图像显示的方法、系统和计算机可读存储介质
CN111603194B (zh) * 2020-06-02 2023-09-19 上海联影医疗科技股份有限公司 乳腺断层图像显示的方法、系统和计算机可读存储介质

Also Published As

Publication number Publication date
EP3034005B1 (en) 2021-10-20
KR102388132B1 (ko) 2022-04-19
EP3034005A1 (en) 2016-06-22
US20160170618A1 (en) 2016-06-16
US10768797B2 (en) 2020-09-08
KR20160072618A (ko) 2016-06-23

Similar Documents

Publication Publication Date Title
EP2821014B1 (en) Sharing information of medical imaging apparatus
CN105686848A (zh) 用于产生指示对象的体位标识的方法和设备
US10327738B2 (en) Ultrasound imaging apparatus and method of processing ultrasound image thereof
US10861161B2 (en) Method and apparatus for displaying image showing object
EP2898833B1 (en) Ultrasound diagnostic apparatus and operating method thereof
CN104921753A (zh) 超声设备和测量超声图像的方法
KR102366316B1 (ko) 초음파 영상 장치 및 그에 따른 초음파 영상 처리 방법
US11564663B2 (en) Ultrasound imaging apparatus and control method thereof
CN104757993B (zh) 用于显示医学图像的方法和医学成像设备
CN104905814A (zh) 超声诊断设备和显示超声图像的方法
US10163228B2 (en) Medical imaging apparatus and method of operating same
CN104545996A (zh) 超声诊断设备以及由其执行的时间增益补偿设置方法
KR102519424B1 (ko) 초음파 이미지 디스플레이 방법 및 이를 위한 장치
US20150201135A1 (en) Photoacoustic apparatus and method of operating same
CN105380680A (zh) 超声诊断设备和操作该超声诊断设备的方法
US9986977B2 (en) Ultrasonic diagnostic apparatus and method of operating the same
CN106821414A (zh) 用于控制通道的操作的方法和设备以及探头
US20160089117A1 (en) Ultrasound imaging apparatus and method using synthetic aperture focusing
CN106037811A (zh) 用于显示血管僵硬度的超声系统
US10849599B2 (en) Method and apparatus for generating body marker
KR102416511B1 (ko) 바디 마커를 생성하는 방법 및 장치.
US11291429B2 (en) Medical imaging apparatus and method of generating medical image
KR20160023523A (ko) 대상체를 나타내는 의료 영상과 키보드 영상을 함께 출력하는 방법, 장치 및 시스템.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20160622