CN102119001A - 具有无手动控制的声学成像设备 - Google Patents

具有无手动控制的声学成像设备 Download PDF

Info

Publication number
CN102119001A
CN102119001A CN2009801309113A CN200980130911A CN102119001A CN 102119001 A CN102119001 A CN 102119001A CN 2009801309113 A CN2009801309113 A CN 2009801309113A CN 200980130911 A CN200980130911 A CN 200980130911A CN 102119001 A CN102119001 A CN 102119001A
Authority
CN
China
Prior art keywords
manual overvide
imaging equipment
acoustics
processor
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2009801309113A
Other languages
English (en)
Inventor
W·苏多尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN102119001A publication Critical patent/CN102119001A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0334Foot operated pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

一种声学成像设备(100、200、300、400),包括:声学探头(110),其适于接收声学信号;声学信号处理器(120),其适于接收和处理来自声学探头的声学信号;显示器(130),其用于响应于经处理的声学信号显示图像;以及非手动控制装置(160、160a、160b、160c)。所述声学成像设备(100、200、300、400)适于响应于来自非手动控制装置(160、160a、160b、160c)中的至少一个信号控制声学探头(110)、声学信号处理器(120)以及显示器(130)中的至少一个。非手动控制装置(160、160a、160b、160c)由人的脚操作或被安装到人的头部并通过人头部的运动进行操作。

Description

具有无手动控制的声学成像设备
本发明涉及声学成像设备,并且更具体而言,涉及具有无手动控制的声学成像设备。
声波(包括,具体而言,超声)用于诸如医学诊断和医学程序、机械部分的非破坏性控制以及水下成像等许多科学或技术领域。声波能够用于诊断和可视化,从而作为光学观察的补充,因为声波能够在对电磁波不透明的介质中穿行。
在一个应用中,医学从业者在执行医学程序的过程中采用声波。具体而言,采用声学成像设备以向医学从业者提供感兴趣区域的图像,以便于医学程序的顺利执行。
这种场景的一个示例为神经阻滞程序。在这种程序中,麻醉师一只手控制声学成像设备的声学换能器,而另一只手控制针。通常,麻醉师在开始该程序之前并且在引入无菌区之前,对声学成像设备进行所有调整以获得预期的图片。
然而,通常在开始神经阻滞程序之后和/或使区域无菌之后需要对声学成像设备进行调整。遗憾的是,在那时,麻醉师无法亲自进行进一步的调整,而必须由助手或其他人员响应于麻醉师的指令进行任何调整。这可能是不方便的、复杂的和耗时的,并且可能产生并非最优的结果。
其他医学程序在程序期间采用声学成像时可能经受类似的问题。
因此,期望提供一种能够由用户无手动控制的声学成像设备。
在本发明的一方面中,一种超声成像设备包括:超声探头,其适于接收超声信号;声学信号处理器,其适于接收并处理来自超声探头的超声信号;显示器,其用于响应于经处理的超声信号来显示图像;以及控制装置,其适于由人的脚操作,或被安装到人的头部并由人头部的运动来操作,其中,所述超声成像设备适于响应于来自控制装置的至少一个信号来控制对声学探头、声学信号处理器和/或显示器的操作。
在本发明的另一方面中,声学成像设备包括:声学信号处理器,其适于接收并处理从声学探头接收的声学信号;显示器,其用于响应于经处理的声学信号来显示图像;以及非手动控制装置,其中,声学成像设备适于响应于来自非手动控制装置的至少一个信号来控制对声学探头、声学信号处理器和/或显示器的操作。
图1为声学成像装置的方框图;
图2图示了图1的声学成像装置的一个实施例;
图3图示了图1的声学成像装置的另一实施例;
图4图示了图1的声学成像装置的又一实施例。
下文将参考附图更为完整地描述本发明,附图示出了本发明的优选实施例。然而,本发明可以具体化为不同的形式,并且不应将本发明解释为限于本文所述的实施例。而是,将这些实施例作为本发明的教导性示例来提供。
如本文所使用的,将“非手动控制装置”一词限定为可以由人类用户控制来产生信号的装置,该信号可用于控制对处理器控制的设备的一种或多种操作,所述装置适于响应于用户身体的一部分的运动,而不适于由人的手操作。下文将更为详细地描述这种非手动控制装置的非限制性示例。
图1为声学成像装置100的高级功能性方框图。如本领域的技术人员应当意识到的,图1中所示的各“部分”可以使用软件控制的微处理器、硬接线的逻辑电路或两者的组合来以物理的方式实施。同样,尽管图1中所述部分出于说明的目的在功能上是分离的,但是它们可以各种方式在任何物理实施方式中进行组合。
声学成像装置100包括声学(例如,超声)探头110、声学(例如,超声)信号处理器120、显示器130、处理器140、存储器150、非手动控制装置160以及任选地手动控制装置170。
在声学成像装置100中,在共同外壳105中提供声学信号处理器120、处理器140以及存储器150。然而,可以在与声学信号处理器120、处理器140以及存储器150相同的外壳105中提供显示器130。另外,在一些实施例中,外壳105可以包括非手动控制装置160和/或任选的手动控制装置170(如果存在的话)的所有部分。其他构造也是可能的。
声学探头110最少适于接收声学信号。在一个实施例中,声学探头适于发射声学信号以及接收由所发射的声学信号产生的声学“回波”。
在一个实施例中,可以在无整体声学探头110的情况下提供声学成像装置100,并且替代地可以适于利用分开提供的一个或多个声学探头进行操作。
处理器140配置为连同存储器150执行一个或多个软件算法,以提供声学成像设备100的功能。在一个实施例中,处理器执行软件算法以经由显示器130向用户提供图形用户界面。有益地,处理器140包括用于存储可执行软件代码的其自身的存储器(例如,非易失性存储器),所述代码允许处理器140执行声学成像设备100的各种功能。备选地,可执行代码可以存储在存储器150中指定的存储位置。存储器150还可以响应于处理器140存储数据。
尽管在图1中将声学成像装置100图示为包括处理器140和分立的声学信号处理器120,但一般而言,处理器140和声学信号处理器120可以包括硬件、固件和软件的任意组合。具体而言,在一个实施例中,可以由单个中央处理单元(CPU)执行对处理器140和声学信号处理器120的操作。与本文所公开的声学成像装置一致的若干变型也是可能的。
在一个实施例中,处理器140配置为执行软件算法,其连同显示器130向声学成像设备100的用户提供图形用户界面。
(一个或多个)输入/输出端口180便于处理器140和其他装置之间的通信。(一个或多个)输入/输出端口180包括一个或多个USB端口、火线端口、蓝牙端口、无线以太网端口等。在一个实施例中,处理器140经由输入/输出端口180接收来自非手动控制装置160的一个或多个控制信号。
如图1所示,非手动控制装置160经由输入/输出端口180与声学成像设备100的处理器140连接。然而,如以上解释,在一些实施例中,外壳105可以包括非手动控制装置160的所有或一部分。在该种情况下,非手动控制装置160经由声学成像设备100的内部连接或总线与处理器140连接。类似地,在图1中,手动控制装置170经由输入/输出端口180与声学成像设备100的处理器140连接。然而,在一些实施例中,手动控制装置170经由声学成像设备100的内部连接或总线与处理器140连接。
现在将根据对声学成像设备100的操作对其进行解释。具体而言,现在将结合神经阻滞程序解释声学成像设备100的示范性操作。
最初,用户(例如,麻醉师)在开始程序之前并且在引入无菌区之前对声学成像设备100进行所有的调整以获得预期的图片。这种调整可以经由非手动控制装置160或有益地经由手动控制装置170(如果存在的话)进行。当采用手动控制装置170时,则声学成像设备100适于响应于来自手动控制装置170的至少一个信号控制对声学探头110、声学信号处理器120和/或显示器130的操作。有益地,当处理器140配置为执行向声学成像设备100的用户提供图形用户界面的软件算法时,则用户可以经由手动控制装置170导航图形用户界面。
在对声学成像设备100调整并引入无菌区之后,则麻醉师可以利用一只手操纵声学探头110而利用另一只手操纵针。这时,声学探头110接收来自患者身体的目标区域的声学(例如,超声)信号。声学信号处理器120接收并处理来自声学探头110的声学信号。显示器130响应于经处理的声学信号显示患者身体的目标区域的图像。
在开始神经阻滞程序之后和/或使区域无菌之后,可能需要对声学成像设备100进行调整。在这种情况下,麻醉师能够经由非手动控制装置160对声学成像设备100进行进一步的调整。声学成像设备100适于响应于来自非手动控制装置160的至少一个信号控制对声学探头110、声学信号处理器120和/或显示器130的(一个或多个)操作。有益地,当处理器140配置为执行向声学成像设备100的用户提供图形用户界面的软件算法时,则麻醉师可以经由非手动控制装置160导航图形用户界面。因此,在无需依靠向助手提供指令或指引的情况下,可以由麻醉师亲自对声学成像设备100进行调整。
有益地,非手动控制装置160适于由人的脚操作,或被安装到人的头部并通过人头部的运动进行操作。
图2图示了声学成像装置200的一个实施例。在声学成像装置200中,非手动控制装置为脚操作的导航装置160a。脚操作的导航装置160a包括脚操作的操纵杆262和可以由人的脚操作的若干按钮264。在操作中,用户利用其脚调动脚操作的导航装置160a。作为响应,脚操作的导航装置160a(例如,向处理器140)提供信号,该信号可以用于控制对声学探头110、声学信号处理器120和/或显示器130的(一个或多个)操作。当处理器140配置为执行向声学成像设备200的用户提供图形用户界面的软件算法时,则用户可以经由脚操作的导航装置160a导航图形用户界面。
图3图示了声学成像装置300的另一实施例。在声学成像装置300中,非手动控制装置为头盔灯(head-mounted light)操作的导航装置160b。头盔灯操作的导航装置160b包括头盔灯指示器362和控制键盘364。在一个实施例中,头盔灯指示器362包括激光指示器,并且控制键盘364包括多个光激活的控制键盘。在操作中,用户调动其头部以将光束(例如,激光束)从头盔灯指示器362指向控制键盘364的期望的控制键盘上。作为响应,控制键盘364(例如,向处理器140)提供信号,该信号可用于控制对声学探头110、声学信号处理器120和/或显示器130的(一个或多个)操作。当处理器140配置为执行经由显示器130向声学成像设备300的用户提供图形用户界面的软件算法时,则用户可以经由头盔灯操作的导航装置160b导航图形用户界面。
图4图示了声学成像装置400的又一实施例。在声学成像装置400中,非手动控制装置为头部追踪指示器160c。头部追踪指示器160c包括相机,该相机响应于检测到的人面部的图像产生信号。具体而言,相机连同硬件和/或软件操作,以执行面部识别算法并生成取决于人面部的取向的输出,所述人面部的图像由相机捕获。在操作中,用户调动其面部以经由显示器130导航用户界面,并且可以采用得到的相机输出信号(例如,连同面部识别算法)以控制对声学探头110、声学信号处理器120和/或显示器130的(一个或多个)操作。
因此,如上所述,包括非手动控制装置的声学成像装置可以由用户以无手动的方式进行操作和控制。此外,与采用声音识别的系统不同,具有非手动控制装置的声学成像装置可以可靠地由用户在诸如操作间的应用和环境中控制,在该操作间中可能存在许多其他人在交谈并且可能存在大量背景噪声。
尽管本文公开了优选实施例,但在本发明的概念和范围内的许多变型是可能的。这种变型将在本领域的普通技术人员中的一员在阅读完本文的说明书、附图和权利要求之后将变得显而易见。因此本发明仅受到所附权利要求的精神和范围的限制。

Claims (20)

1.一种超声成像设备(100、200、300、400),包括:
超声探头(110),其适于接收超声信号;
声学信号处理器(120),其适于接收和处理来自所述超声探头的所述超声信号;
显示器(130),其用于响应于经处理的超声信号显示图像;以及
控制装置(160、160a、160b、160c),其适于由人的脚操作,或被安装到人的头部并通过所述人的头部的运动进行操作,
其中,所述超声成像设备(100、200、300、400)适于响应于来自所述控制装置(160、160a、160b、160c)的至少一个信号控制对所述超声探头(110)、所述声学信号处理器(120)和所述显示器(130)中的至少一个的操作。
2.如权利要求1所述的超声成像设备(100、200、300、400),其中,所述控制装置是头部追踪指示器(160c)和头部安装的灯操作的导航装置(160b)中的一个。
3.如权利要求1所述的超声成像设备(100、200、300、400),还包括处理器(140),其配置为执行向所述超声成像设备的用户提供图形用户界面的软件算法,并且其中,所述用户能够经由所述控制装置导航所述图形用户界面。
4.如权利要求3所述的超声成像设备(100、200、300、400),还包括手动控制装置(170),其中,所述用户能够经由所述手动控制装置导航所述图形用户界面,并且其中,所述手动控制装置包括鼠标、操纵杆和追踪球中的至少一个。
5.如权利要求3所述的超声成像设备(100、200、300、400),还包括手动控制装置(170),其中,所述处理器(140)还适于响应于来自所述手动控制装置的至少一个信号控制所述声学探头(110)、所述声学信号处理器(120)和所述显示器(130)中的至少一个,并且其中,所述手动控制装置包括鼠标、操纵杆和追踪球中的至少一个。
6.如权利要求1所述的超声成像设备(100、200、300、400),其中,所述控制装置是脚操作的导航装置(160a)。
7.如权利要求1所述的超声成像设备(100、200、300、400),其中,所述控制装置是头部追踪指示器(160c)。
8.如权利要求1所述的超声成像设备(100、200、300、400),其中,所述控制装置是头部安装的灯操作的导航装置(160b)。
9.一种声学成像设备(100、200、300、400),包括:
声学信号处理器(120),其适于接收和处理从声学探头接收的声学信号;
显示器(130),其用于响应于经处理的声学信号显示图像;以及
非手动控制装置(160、160a、160b、160c),
其中,所述声学成像设备(100、200、300、400)适于响应于来自所述非手动控制装置(160、160a、160b、160c)的至少一个信号控制对所述声学探头、所述声学信号处理器(120)和所述显示器(130)中的至少一个的操作。
10.如权利要求9所述的声学成像设备(100、200、300、400),其中,所述非手动控制装置是脚操作的导航装置(160a)、头部追踪指示器(160c)和头部安装的灯操作的导航装置(160b)中的一个。
11.如权利要求10所述的声学成像设备(100、200、300、400),还包括处理器(140),其配置为执行向所述声学成像设备的用户提供图形用户界面的软件算法,并且其中,所述用户能够经由所述非手动控制装置(160、160a、160b、160c)导航所述图形用户界面。
12.如权利要求11所述的声学成像设备(100、200、300、400),还包括手动控制装置(170),其中,所述用户能够经由所述手动控制装置导航所述图形用户界面,并且其中,所述手动控制装置包括鼠标、操纵杆和追踪球中的至少一个。
13.如权利要求9所述的声学成像设备(100、200、300、400),还包括手动控制装置(170),其中,所述声学成像设备还适于响应于来自所述手动控制装置的至少一个信号控制所述声学探头、所述声学信号处理器(120)和所述显示器(130)中的至少一个,并且其中,所述手动控制装置包括鼠标、操纵杆和追踪球中的至少一个。
14.如权利要求9所述的声学成像设备(100、200、300、400),其中,所述非手动控制装置是脚操作的导航装置(160a)。
15.如权利要求9所述的声学成像设备(100、200、300、400),其中,所述非手动控制装置是头部追踪指示器(160c)。
16.如权利要求9所述的声学成像设备(100、200、300、400),其中,所述非手动控制装置头部安装的灯操作的导航装置(160b)。
17.如权利要求9所述的声学成像设备(100、200、300、400),还包括处理器(140),其配置为执行向所述声学成像设备的用户提供图形用户界面的软件算法,并且其中,所述用户能够经由所述非手动控制装置(160、160a、160b、160c)导航所述图形用户界面。
18.如权利要求17所述的声学成像设备(100、200、300、400),还包括手动控制装置(170),其中,所述用户能够经由所述手动控制装置导航所述图形用户界面,并且其中,所述手动控制装置包括鼠标、操纵杆和追踪球中的至少一个。
19.如权利要求17所述的声学成像设备(100、200、300、400),还包括手动控制装置(170),其中,所述处理器还适于响应于来自所述手动控制装置的至少一个信号控制所述声学探头、所述声学信号处理器和所述显示器中的至少一个,并且其中,所述手动控制装置包括鼠标、操纵杆和追踪球中的至少一个。
20.如权利要求9所述的声学成像设备(100、200、300、400),还包括所述声学探头(110)。
CN2009801309113A 2008-08-14 2009-08-10 具有无手动控制的声学成像设备 Pending CN102119001A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US8875008P 2008-08-14 2008-08-14
US61/088,750 2008-08-14
PCT/IB2009/053515 WO2010018532A2 (en) 2008-08-14 2009-08-10 Acoustic imaging apparatus with hands-free control

Publications (1)

Publication Number Publication Date
CN102119001A true CN102119001A (zh) 2011-07-06

Family

ID=41527836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009801309113A Pending CN102119001A (zh) 2008-08-14 2009-08-10 具有无手动控制的声学成像设备

Country Status (6)

Country Link
US (1) US20110125021A1 (zh)
EP (1) EP2317927A2 (zh)
JP (1) JP2011530370A (zh)
CN (1) CN102119001A (zh)
RU (1) RU2011109232A (zh)
WO (1) WO2010018532A2 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103315772A (zh) * 2013-05-23 2013-09-25 浙江大学 一种医用超声在麻醉中的应用

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100249573A1 (en) * 2009-03-30 2010-09-30 Marks Donald H Brain function decoding process and system
WO2012125596A2 (en) 2011-03-12 2012-09-20 Parshionikar Uday Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
JP6102075B2 (ja) * 2012-03-30 2017-03-29 セイコーエプソン株式会社 超音波トランスデューサー素子チップおよびプローブ並びに電子機器および超音波診断装置
US9039224B2 (en) 2012-09-28 2015-05-26 University Hospitals Of Cleveland Head-mounted pointing device
US10424044B2 (en) * 2012-12-21 2019-09-24 Koninklijke Philips N.V. Anatomically intelligent echocardiography for point-of-care

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5777602A (en) * 1995-01-20 1998-07-07 Huttinger Medizintechnik Gmbh & Co., Kg Operating device for medical-technical system workplaces
US20020128846A1 (en) * 2001-03-12 2002-09-12 Miller Steven C. Remote control of a medical device using voice recognition and foot controls
GB2396905A (en) * 2002-12-31 2004-07-07 Armstrong Healthcare Ltd A device for generating a control signal
US20050162380A1 (en) * 2004-01-28 2005-07-28 Jim Paikattu Laser sensitive screen
US20070093713A1 (en) * 2003-06-11 2007-04-26 Koninklijke Philips Electronics N.V. Ultrasound system for internal imaging including control mechanism in a handle

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5488952A (en) * 1982-02-24 1996-02-06 Schoolman Scientific Corp. Stereoscopically display three dimensional ultrasound imaging
DE29619277U1 (de) * 1996-11-06 1997-02-13 Siemens Ag Vorrichtung zur Gerätebedienung
JP4073533B2 (ja) * 1998-02-09 2008-04-09 株式会社半導体エネルギー研究所 情報処理装置
US7251352B2 (en) * 2001-08-16 2007-07-31 Siemens Corporate Research, Inc. Marking 3D locations from ultrasound images
US20060020206A1 (en) * 2004-07-01 2006-01-26 Luis Serra System and method for a virtual interface for ultrasound scanners

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5777602A (en) * 1995-01-20 1998-07-07 Huttinger Medizintechnik Gmbh & Co., Kg Operating device for medical-technical system workplaces
US20020128846A1 (en) * 2001-03-12 2002-09-12 Miller Steven C. Remote control of a medical device using voice recognition and foot controls
GB2396905A (en) * 2002-12-31 2004-07-07 Armstrong Healthcare Ltd A device for generating a control signal
US20070093713A1 (en) * 2003-06-11 2007-04-26 Koninklijke Philips Electronics N.V. Ultrasound system for internal imaging including control mechanism in a handle
US20050162380A1 (en) * 2004-01-28 2005-07-28 Jim Paikattu Laser sensitive screen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103315772A (zh) * 2013-05-23 2013-09-25 浙江大学 一种医用超声在麻醉中的应用

Also Published As

Publication number Publication date
US20110125021A1 (en) 2011-05-26
EP2317927A2 (en) 2011-05-11
WO2010018532A3 (en) 2010-06-24
JP2011530370A (ja) 2011-12-22
WO2010018532A2 (en) 2010-02-18
RU2011109232A (ru) 2012-09-20

Similar Documents

Publication Publication Date Title
CN102119001A (zh) 具有无手动控制的声学成像设备
KR102408440B1 (ko) 프리셋 선택 방법 및 이를 위한 초음파 영상 장치
JP7160033B2 (ja) 入力制御装置、入力制御方法、および手術システム
JP2009508560A (ja) 遠隔に位置するマイクロフォンを使用して音声起動される制御を有する超音波イメージングシステム
AU2019229174A1 (en) Methods and apparatus for tele-medicine
JP2015217306A (ja) 超音波診断装置及び超音波プローブ
KR20220126699A (ko) 초음파 진단장치 및 그에 따른 초음파 진단 방법
JP7119127B2 (ja) 超音波システムおよび超音波システムの制御方法
US20200205785A1 (en) Ultrasound diagnosis apparatus and method of operating the same
WO2016047895A1 (en) Ultrasound imaging apparatus and method using synthetic aperture focusing
US20160157824A1 (en) Ultrasound image providing apparatus and method
KR101945988B1 (ko) 초음파 진단기와 스마트 기기를 연동한 원격지원시스템
US12010452B2 (en) Endoscopic device, display image output method, computer-readable medium, and endoscopic system
JP6206155B2 (ja) 超音波診断装置
US20220322917A1 (en) Endoscope processor, endoscope, and endoscope system
JP2004349915A (ja) リモートコントロール装置
US11375878B2 (en) Information presentation system including a flexible tubular insertion portion
JP2020018492A (ja) 医療用ドローンシステム
EP2918231B1 (en) Ultrasound apparatus for displaying diffusion boundary of medicine
KR102605153B1 (ko) 조영 영상 획득 방법 및 이를 위한 초음파 진단 장치
WO2021029117A1 (ja) 内視鏡装置、制御方法、制御プログラム、及び内視鏡システム
JP2006305155A (ja) 制御装置
JP2009261522A (ja) 医用画像生成システム
CN205322361U (zh) 便携式超声诊断成像装置
WO2023239913A1 (en) Point of care ultrasound interface

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20110706