JPWO2017104263A1 - 超音波観測装置、処理装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム - Google Patents

超音波観測装置、処理装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム Download PDF

Info

Publication number
JPWO2017104263A1
JPWO2017104263A1 JP2017556396A JP2017556396A JPWO2017104263A1 JP WO2017104263 A1 JPWO2017104263 A1 JP WO2017104263A1 JP 2017556396 A JP2017556396 A JP 2017556396A JP 2017556396 A JP2017556396 A JP 2017556396A JP WO2017104263 A1 JPWO2017104263 A1 JP WO2017104263A1
Authority
JP
Japan
Prior art keywords
ultrasonic
image
unit
ultrasonic image
observation apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017556396A
Other languages
English (en)
Other versions
JP6509374B2 (ja
Inventor
庄 舟久保
庄 舟久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2017104263A1 publication Critical patent/JPWO2017104263A1/ja
Application granted granted Critical
Publication of JP6509374B2 publication Critical patent/JP6509374B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8909Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
    • G01S15/8915Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array
    • G01S15/8922Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array the array being concentric or annular
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52073Production of cursor lines, markers or indicia by electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52079Constructional features
    • G01S7/52084Constructional features related to particular user interfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52085Details related to the ultrasound signal acquisition, e.g. scan sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本発明にかかる超音波観測装置は、超音波信号に基づいて超音波画像を生成する超音波画像生成部と、表示部の表示面上に設けられ、接触位置に応じた入力を、処理の対象箇所の指示位置として受け付けるタッチパネルと、指示位置に応じて、表示部に表示する超音波画像の表示領域のシフト方向を含むシフト情報を生成する演算部と、演算部が算出したシフト情報に基づき、超音波画像をシフトさせるよう制御する制御部と、対象箇所を示すキャラクタ画像を、シフト後の超音波画像における指示位置に対応させて生成するキャラクタ画像生成部と、超音波画像とキャラクタ画像とを合成することによって合成画像を生成する画像合成部と、を備えた。

Description

本発明は、超音波を用いて観測対象を観測する超音波観測装置、処理装置、超音波観測装置の作動方法および超音波観測装置の作動プログラムに関する。
観測対象である生体組織または材料の特性を観測するために、超音波を適用することがある。具体的には、観測対象に超音波を送信し、その観測対象によって反射された超音波エコーに対して所定の信号処理を施すことにより、観測対象の特性に関する情報を取得する。
超音波を適用した体内の生体組織などの診断には、挿入部の先端に超音波振動子が設けられた超音波診断装置が用いられる。超音波診断装置では、超音波振動子により超音波エコーを取得し、取得した複数の超音波画像を時系列に沿ってモニタに表示する。
医師などの術者は、挿入部を体内に挿入後、手元の操作部を操作して、超音波エコーに基づく情報(超音波画像)をもとに診断を行う。この際、術者は、観察領域の設定処理や計測処理などの指示入力を行って、超音波画像の診断を行う。例えば、超音波画像上において、距離を計測するための二つの計測点を指示入力して、該計測点間の距離を計測する。このような診断を行う診断システムとして、タッチパネルを用いて超音波画像に対して直接的に指示入力を行うことができる技術が開示されている(例えば、特許文献1を参照)。特許文献1では、術者の手指のタッチ位置に応じた位置を示すタッチボタンと、タッチボタンに連なり、画像中の指示位置を示すキャリパーとを含む画像の表示処理を行っている。これにより、指示位置が術者の手指で隠れることなく、指示位置(キャリパー)の視認性を維持しながら指示位置の調整等の操作を行うことが可能である。
特開2012−19824号公報
しかしながら、特許文献1が開示する技術では、タッチ位置に対して指示位置(キャリパー)の位置が異なるため、指示位置としたい位置に直感的にタッチした後、タッチ位置から、このタッチ位置にキャリパーが位置するように操作を行う必要がある。このため、タッチしてからキャリパーを指示位置に到達させるまでの操作回数が多く、操作性を向上することが求められていた。
本発明は、上記に鑑みてなされたものであって、超音波画像上への指定点の指示入力にかかる操作性を向上することができる超音波観測装置、処理装置、超音波観測装置の作動方法および超音波観測装置の作動プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明にかかる超音波観測装置は、観測対象である被検体へ超音波を送信し、該被検体で反射された超音波を受信する超音波プローブが取得した超音波信号に基づいて超音波画像を生成する超音波画像生成部と、前記超音波画像を表示可能な表示部の表示面上に設けられ、術者の手指が接触する接触面を有し、該手指の接触位置に応じた入力を、前記超音波画像に対して行う処理の対象箇所の指示位置として受け付けるタッチパネルと、前記指示位置に応じて、前記表示部に表示する前記超音波画像の表示領域のシフト方向を含むシフト情報を生成する演算部と、前記演算部が生成したシフト情報に基づき、前記超音波画像生成部に、前記超音波画像をシフトさせるよう制御する制御部と、前記対象箇所を示すキャラクタ画像を、シフト後の超音波画像における前記指示位置に対応させて生成するキャラクタ画像生成部と、前記超音波画像と前記キャラクタ画像とを合成することによって合成画像を生成する画像合成部と、を備えたことを特徴とする。
本発明にかかる超音波観測装置は、上記発明において、前記制御部は、前記タッチパネルへのタッチ継続中における前記指示位置の挙動に応じて、前記表示部における前記超音波画像の表示倍率または前記超音波画像を生成するレンジを変更する制御を行うことを特徴とする。
本発明にかかる超音波観測装置は、上記発明において、前記制御部は、前記超音波画像の表示倍率または前記超音波画像を生成するレンジを変更する場合、前記指示位置を含む前記超音波画像の部分領域を拡大して前記表示部に表示させる制御を行うことを特徴とする。
本発明にかかる超音波観測装置は、上記発明において、前記タッチパネルへのタッチ継続中における前記指示位置の挙動は、同一の指示位置におけるタッチ継続時間であり、前記制御部は、前記タッチ継続時間が、所定の時間以上である場合に、前記表示部における前記超音波画像の表示倍率または前記超音波画像を生成するレンジを変更する制御を行うことを特徴とする。
本発明にかかる超音波観測装置は、上記発明において、前記制御部は、前記タッチパネルへのタッチ検出回数に応じて、前記表示部における前記超音波画像の表示倍率または前記超音波画像を生成するレンジを変更する制御を行うことを特徴とする。
本発明にかかる超音波観測装置は、上記発明において、前記演算部は、当該超音波観測装置に接続される前記超音波プローブが備える超音波振動子の種類に応じて、前記超音波画像の前記表示領域のシフト方向を設定することを特徴とする。
本発明にかかる超音波観測装置は、上記発明において、前記制御部は、当該超音波観測装置に接続される前記超音波プローブの種類を識別し、前記演算部は、当該超音波観測装置に接続される前記超音波プローブがラジアル型の超音波振動子を備える場合、前記超音波画像の前記表示領域のシフト方向を、回転方向、および前記超音波振動子の深度方向のいずれかに設定することを特徴とする。
本発明にかかる超音波観測装置は、上記発明において、前記制御部は、当該超音波観測装置に接続される前記超音波プローブの種類を識別し、前記演算部は、当該超音波観測装置に接続される前記超音波プローブがコンベックス型の超音波振動子を備える場合、前記超音波画像の前記表示領域のシフト方向を、前記表示部の表示画面の上下左右方向の少なくとも一つの方向に設定することを特徴とする。
本発明にかかる超音波観測装置は、上記発明において、前記演算部は、前記指示位置と、前記超音波振動子からの深度であって、前記超音波画像における超音波振動子の像から前記指示位置に対応する位置までの深度とに応じて、前記超音波画像の前記表示領域のシフト方向を設定することを特徴とする。
本発明にかかる超音波観測装置は、上記発明において、前記演算部は、前記タッチパネルを介して前記超音波画像上において指定された二つの前記指示位置間の距離を計測し、前記制御部は、二つの前記指示位置のうちの一方の指示位置の入力が終了した後、該一方の指示位置に対応する前記超音波画像の位置が、前記表示部の表示画面の中央に位置する前記超音波画像を前記超音波画像生成部に生成させる制御を行うことを特徴とする。
本発明にかかる超音波観測装置は、上記発明において、前記タッチパネルを操作する術者の手指および視線の少なくとも一方を検出可能な検出手段をさらに備え、前記制御部は、前記検出手段の検出結果に応じて、前記超音波画像の前記表示領域のシフト方向を設定することを特徴とする。
本発明にかかる超音波観測装置は、上記発明において、前記制御部は、二つの前記指示位置に応じた前記キャラクタ画像の位置関係に応じて、当該キャラクタ画像を変更する制御を行うことを特徴とする。
本発明にかかる処理装置は、観測対象である被検体へ超音波を送信し、該被検体で反射された超音波を受信する超音波プローブが取得した超音波信号に基づいて超音波画像を生成する超音波画像生成部と、前記超音波画像に対する指示位置に応じて、表示部に表示する前記超音波画像の表示領域のシフト方向を含むシフト情報を生成する演算部と、前記演算部が生成したシフト情報に基づき、前記超音波画像生成部に、前記超音波画像をシフトさせるよう制御する制御部と、前記超音波画像に対して行う処理の対象箇所を示すキャラクタ画像を、シフト後の超音波画像における前記指示位置に対応させて生成するキャラクタ画像生成部と、前記超音波画像と前記キャラクタ画像とを合成することによって合成画像を生成する画像合成部と、を備えたことを特徴とする。
本発明にかかる超音波観測装置の作動方法は、超音波画像生成部が、観測対象である被検体へ超音波を送信し、該被検体で反射された超音波を受信する超音波プローブが取得した超音波信号に基づいて超音波画像を生成する超音波画像生成ステップと、前記超音波画像を表示可能な表示部の表示面上に設けられ、術者の手指が接触する接触面を有し、該手指の接触位置に応じた入力を、前記超音波画像に対して行う処理の対象箇所の指示位置として受け付けるタッチパネルが受け付けた指示位置に応じて、前記表示部に表示する前記超音波画像の表示領域のシフト方向を含むシフト情報を演算部が生成する演算ステップと、制御部が、前記演算部が生成したシフト情報に基づき、前記超音波画像生成部に、前記超音波画像をシフトさせるよう制御する制御ステップと、キャラクタ画像生成部が、前記超音波画像に対して行う処理の対象箇所を示すキャラクタ画像を、シフト後の超音波画像における前記指示位置に対応させて生成するキャラクタ画像生成ステップと、画像合成部が、前記超音波画像と前記キャラクタ画像とを合成することによって合成画像を生成する画像合成ステップと、を含むことを特徴とする。
本発明にかかる超音波観測装置の作動プログラムは、超音波画像生成部が、観測対象である被検体へ超音波を送信し、該被検体で反射された超音波を受信する超音波プローブが取得した超音波信号に基づいて超音波画像を生成する超音波画像生成手順と、前記超音波画像を表示可能な表示部の表示面上に設けられ、術者の手指が接触する接触面を有し、該手指の接触位置に応じた入力を、前記超音波画像に対して行う処理の対象箇所の指示位置として受け付けるタッチパネルが受け付けた指示位置に応じて、前記表示部に表示する前記超音波画像の表示領域のシフト方向を含むシフト情報を演算部が生成する演算手順と、制御部が、前記演算部が生成したシフト情報に基づき、前記超音波画像生成部に、前記超音波画像をシフトさせるよう制御する制御手順と、キャラクタ画像生成部が、前記超音波画像に対して行う処理の対象箇所を示すキャラクタ画像を、シフト後の超音波画像における前記指示位置に対応させて生成するキャラクタ画像生成手順と、画像合成部が、前記超音波画像と前記キャラクタ画像とを合成することによって合成画像を生成する画像合成手順と、をコンピュータに実行させることを特徴とする。
本発明によれば、超音波画像上への指定点の指示入力にかかる操作性を向上することができるという効果を奏する。
図1は、本発明の実施の形態1にかかる超音波診断システムの構成を示すブロック図である。 図2は、本発明の実施の形態1にかかる超音波診断システムが行う計測処理を説明するフローチャートである。 図3は、本発明の実施の形態1にかかる超音波診断システムが行う計測点確定処理を説明するフローチャートである。 図4は、本発明の実施の形態1にかかる計測点確定処理を説明する図である。 図5は、本発明の実施の形態1にかかる計測点確定処理を説明する図である。 図6は、本発明の実施の形態1にかかる計測点確定処理を説明する図である。 図7は、本発明の実施の形態1にかかる計測点確定処理を説明する図である。 図8は、本発明の実施の形態1にかかる計測点確定処理を説明する図である。 図9は、本発明の実施の形態1にかかる計測点確定処理を説明する図である。 図10は、本発明の実施の形態1にかかる計測点確定処理を説明する図である。 図11は、本発明の実施の形態1にかかる計測点確定処理を説明する図である。 図12は、本発明の実施の形態1の変形例1にかかる計測点確定処理を説明する図である。 図13は、本発明の実施の形態1の変形例2にかかる計測点確定処理を説明する図である。 図14は、本発明の実施の形態1の変形例2にかかる計測点確定処理を説明する図である。 図15は、本発明の実施の形態1の変形例3にかかる計測点確定処理を説明する図である。 図16は、本発明の実施の形態2にかかる超音波診断システムの構成を示すブロック図である。 図17は、本発明の実施の形態2にかかるキャラクタ画像表示処理を説明する図である。 図18は、本発明の実施の形態3にかかる超音波診断システムの構成を示すブロック図である。 図19は、本発明の実施の形態3にかかる計測点確定処理を説明する図である。 図20は、本発明の実施の形態3にかかる計測点確定処理を説明する図である。
以下、添付図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)を説明する。また、以下の説明において、超音波エコーに基づく超音波画像を生成する医療用診断装置を含む超音波診断システムや超音波内視鏡システムを例示するが、この実施の形態によって本発明が限定されるものではない。また、同一の構成には同一の符号を付して説明する。
(実施の形態1)
図1は、本発明の実施の形態1にかかる超音波診断システムの構成を示すブロック図である。同図に示す超音波診断システム1は、超音波を用いて観測対象を観測するための装置であり、本発明にかかる処理装置を含んでいる。
超音波診断システム1は、超音波を出力して反射した超音波エコーを受信する超音波プローブ2と、超音波プローブ2が取得した超音波エコーに基づく画像をそれぞれ生成する処理装置3と、複数の入力指示情報を同時に受付可能であり、受け付けた情報を処理装置3へ出力して該処理装置3を操作する操作装置4と、処理装置3により生成された超音波エコーに基づく画像を含む各種情報を表示する表示装置5と、を備える。表示装置5は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて実現される。本実施の形態では、処理装置3および操作装置4により、超音波観測装置10を構成する。
超音波プローブ2は、観測対象へ超音波パルスを出力するとともに、観測対象によって反射された超音波エコーを受信する超音波振動子21を先端に有する。
ここで、観測対象が生体組織である場合、超音波振動子21は、生体の体表から超音波を照射する体外式探触子の形態、消化管、胆膵管、血管等の管腔内に挿入する長軸の挿入部を備えたミニチュア超音波プローブの形態、管腔内超音波プローブに光学系をさらに備えた超音波内視鏡の形態、のいずれの形態であってもよい。このうち、超音波内視鏡の形態をとった場合には、管腔内超音波プローブの挿入部の先端側に超音波振動子21が設けられ、管腔内超音波プローブは基端側で処理装置3と着脱可能に接続する。
超音波振動子21は、処理装置3から受信した電気的なパルス信号を超音波パルス(音響パルス信号)に変換するとともに、外部の検体で反射された超音波エコーを電気的なエコー信号に変換する。超音波振動子21は、超音波振動子をメカ的に走査させるものであってもよいし、複数の超音波振動子を電子的に走査させるものであってもよい。本実施の形態1では、ラジアル型の超音波振動子を用いた例について説明する。
処理装置3は、送受信部30、信号処理部31、超音波画像生成部32、演算部33、キャラクタ画像生成部34、画像合成部35、モード設定部36、入力部37、制御部38および記憶部39を有する。
送受信部30は、超音波振動子21との間で電気信号の送受信を行う。送受信部30は、超音波振動子21と電気的に接続され、電気的なパルス信号を超音波振動子21へ送信するとともに、超音波振動子21から電気的な受信信号であるエコー信号を受信する。具体的には、送受信部30は、予め設定された波形および送信タイミングに基づいて電気的なパルス信号を生成し、この生成したパルス信号を超音波振動子21へ送信する。
送受信部30は、エコー信号を増幅する。送受信部30は、受信深度が大きいエコー信号ほど高い増幅率で増幅するSTC(Sensitivity Time Control)補正を行う。送受信部30は、増幅後のエコー信号に対してフィルタリング等の処理を施した後、A/D変換することによって時間ドメインのデジタル高周波(RF:Radio Frequency)データを生成して出力する。
信号処理部31は、送受信部30から受信したRFデータをもとにデジタルのBモード用受信データを生成する。具体的には、信号処理部31は、RFデータに対してバンドパスフィルタ、包絡線検波、対数変換など公知の処理を施し、デジタルのBモード用受信データを生成する。対数変換では、RFデータを基準電圧で除した量の常用対数をとってデシベル値で表現する。信号処理部31は、生成したBモード用受信データを、超音波画像生成部32へ出力する。信号処理部31は、CPU(Central Processing Unit)や各種演算回路等を用いて実現される。
超音波画像生成部32は、信号処理部31から受信したBモード用受信データに基づいて超音波画像データを生成する。超音波画像生成部32は、Bモード用受信データに対してゲイン処理、コントラスト処理等の公知の技術を用いた画像処理を行うとともに、表示装置5における画像の表示レンジに応じて定まるデータステップ幅に応じたデータの間引き等を行うことによってBモード画像データを生成する。Bモード画像は、色空間としてRGB表色系を採用した場合の変数であるR(赤)、G(緑)、B(青)の値を一致させたグレースケール画像である。
超音波画像生成部32は、信号処理部31からのBモード用受信データに走査範囲を空間的に正しく表現できるよう並べ直す座標変換を施した後、Bモード用受信データ間の補間処理を施すことによってBモード用受信データ間の空隙を埋め、Bモード画像データを生成する。超音波画像生成部32は、生成したBモード画像データを画像合成部35に出力する。
演算部33は、操作装置4からの指示入力を受け付けると、該指示入力に応じた演算処理を行う。具体的に、演算部33は、超音波画像に対する指示位置を変化させることにより入力される操作に応じて、超音波画像に対するキャラクタ画像(例えば計測点)の表示位置の位置算出を行う。演算部33は、指示位置座標演算部331、シフト情報演算部332および計測点間距離演算部333を有する。
指示位置座標演算部331は、操作信号をもとに、後述するタッチパネル42における接触位置から、後述する表示部41で表示されているBモード画像上における指示位置の座標を算出する。
シフト情報演算部332は、指示位置(指示位置座標演算部331が算出した座標)や、超音波振動子21からの距離であって、Bモード画像における超音波振動子の像の中心から指示位置に対応する位置までの距離(深度)、超音波振動子の種類などに基づいてBモード画像のシフト量を算出し、算出したシフト量や、予め設定されているシフト方向をシフト情報として出力する。
計測点間距離演算部333は、指示位置(指示位置座標演算部331が算出した座標)に基づき確定された超音波画像上における二つの計測点間の距離を算出する。また、計測点間距離演算部333は、算出した計測点間距離をもとに、実際の距離を算出する。
キャラクタ画像生成部34は、操作装置4からの指示入力を受け付けると、該指示入力に応じたキャラクタ、例えば距離計測のための二つの計測点を、演算部33が算出した指示入力位置(座標)に応じて配置したキャラクタ画像を含むキャラクタ画像データを生成する。キャラクタ画像データは、上述したキャラクタ画像のほか、フレーム番号等、Bモード画像と対応付けするための情報を含んでいてもよい。キャラクタ画像生成部34は、生成したキャラクタ画像データを画像合成部35に出力する。
画像合成部35は、超音波画像生成部32およびキャラクタ画像生成部34がそれぞれ生成した画像データ(Bモード画像データおよびキャラクタ画像データ)を用いて、Bモード画像とキャラクタ画像とを合成した合成画像を含む合成画像データを生成する。合成画像データは、上述した合成画像のほか、フレーム番号等の情報を含んでいる。
モード設定部36は、操作装置4からの指示入力を受け付けると、該指示入力に応じた動作モードを設定する。具体的には、モード設定部36は、指示入力に応じて、距離計測モード、コメント入力モード、拡大縮小モードなどBモード画像に対して処理を施す処理モードのいずれかの動作モードに設定する。
入力部37は、電源のオンオフなどの各種情報の入力を受け付ける入力ボタンを用いて実現される。
制御部38は、超音波診断システム1全体を制御する。制御部38は、演算および制御機能を有するCPU(Central Processing Unit)や各種演算回路等を用いて実現される。制御部38は、記憶部39が記憶、格納する情報を記憶部39から読み出し、超音波観測装置10の作動方法に関連した各種演算処理を実行することによって超音波観測装置10を統括して制御する。なお、制御部38を信号処理部31と共通のCPU等を用いて構成することも可能である。
記憶部39は、超音波診断システム1を動作させるための各種プログラム、および超音波診断システム1の動作に必要な各種パラメータ等を含むデータなどを記憶する。また、記憶部39は、シフト情報演算部332が算出するシフト量を、指示位置(指示位置座標演算部331が算出した座標)や、超音波振動子からの距離(深度)、超音波振動子の種類などと対応付けて記憶するシフト情報記憶部391を有する。
また、記憶部39は、超音波診断システム1の作動方法を実行するための作動プログラムを含む各種プログラムを記憶する。作動プログラムは、ハードディスク、フラッシュメモリ、CD−ROM、DVD−ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。なお、上述した各種プログラムは、通信ネットワークを介してダウンロードすることによって取得することも可能である。ここでいう通信ネットワークは、例えば既存の公衆回線網、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現されるものであり、有線、無線を問わない。
以上の構成を有する記憶部39は、各種プログラム等が予めインストールされたROM(Read Only Memory)、および各処理の演算パラメータやデータ等を記憶するRAM(Random Access Memory)等を用いて実現される。
操作装置4は、表示部41と、タッチパネル42(マルチ入力受付部)と、表示制御部43と、制御部44と、を備える。
表示部41は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて構成される。表示部41は、例えば、制御部38,44を介して入力されるBモード画像データに対応する超音波画像や、操作にかかる各種情報を表示する。
タッチパネル42は、表示部41の表示画面上に設けられ、外部からの物体の接触位置に応じた入力を受け付ける。具体的には、タッチパネル42は、術者などのユーザが表示部41に表示される操作アイコンに従ってタッチ(接触)した位置を検出し、この検出したタッチ位置に応じた位置(座標)を含む操作信号を制御部44へ出力する。タッチパネル42は、表示部41が超音波画像や各種情報を表示することで、グラフィカルユーザインターフェース(GUI)として機能する。タッチパネルとしては、抵抗膜方式、静電容量方式および光学方式等があり、いずれの方式のタッチパネルであっても適用可能である。
表示制御部43は、画像合成部35が生成した合成画像データを取得して表示部41に表示させる制御を行うとともに、タッチパネル42による入力操作の案内画像や、動作モードに応じた表示画像を表示部41に表示させる制御を行う。
制御部44は、操作装置4全体を制御する。制御部44は、演算および制御機能を有するCPU(Central Processing Unit)や各種演算回路等を用いて実現される。
続いて、以上の構成を有する超音波診断システム1の超音波観測装置10が行う計測処理について、図面を参照して説明する。図2は、本実施の形態1にかかる超音波診断システムが行う計測処理を説明するフローチャートである。なお、以下では、制御部38の制御のもと、指定された計測点間の距離を計測する距離計測モードにおいて各部が動作するものとして説明する。
制御部38は、送受信部30が超音波振動子21からエコー信号を取得すると(ステップS101)、当該エコー信号に基づく超音波画像(ここではBモード画像)を生成する制御を行う。信号処理部31および超音波画像生成部32は、取得したエコー信号に基づくBモード画像を含むBモード画像データを生成する(ステップS102:超音波画像生成ステップ)。その後、制御部38は、生成されたBモード画像を、少なくとも表示部41に表示させるよう、操作装置4に対し、当該Bモード画像データとともに、制御信号を出力する。これにより、表示制御部43の制御のもと、表示部41にBモード画像が表示される(ステップS103)。以下では、表示部41にフリーズ画像が表示されているものとして説明するが、ライブ表示されているものであってもよい。
その後、制御部38は、制御部44(タッチパネル42)から操作信号の入力(タッチ入力)があるか否かを判断する(ステップS104)。制御部38は、操作信号の入力がある場合(ステップS104:Yes)、ステップS105に移行する。これに対し、制御部38は、操作信号の入力がない場合(ステップS104:No)、操作信号の入力の確認を繰り返す。
制御部38は、操作装置4から操作信号を受信すると、操作信号に基づいて、計測するための二つの計測点のうち、一方の計測点(指示位置)の確定処理を行う(ステップS105:第1計測点確定処理)。具体的に、演算部33が、タッチパネル42からの指示入力に応じて、指示位置の算出処理を行い、操作装置4が、Bモード画像上に重畳した計測点(指示位置)を表示部41に表示しながら、計測点の確定処理を行う。
図3は、本発明の実施の形態1にかかる超音波診断システムが行う計測点確定処理を説明するフローチャートであって、ステップS105における第1計測点確定処理を説明するフローチャートである。図4〜9は、本発明の実施の形態1にかかる計測点確定処理を説明する図である。
まず、指示位置座標演算部331が、操作信号に基づいて、タッチパネル42に入力された物体(指)の接触位置(指示位置)の座標を算出する(ステップS201、図4,5)。指示位置座標演算部331は、指示位置の座標として、接触位置のうち最も圧力(信号値)の高い位置、または指の接触領域(荷重が加わった領域)の中心(重心)位置の座標を算出する。指示位置座標演算部331は、例えば定期的に操作信号が入力される場合、入力の都度、指示位置(座標)の算出を行う。
この際、キャラクタ画像生成部34は、指示位置座標演算部331により算出された座標に応じて、キャラクタ画像(本実施の形態1では、×で示すキャラクタ画像P11、図5参照)を含むキャラクタ画像データを生成してもよい。例えば、キャラクタ画像P11は、指示位置の座標が×印の中心(交点)に位置するように、Bモード画像の座標に対応させてキャラクタ画像P11を配置するキャラクタ画像データを生成する。この場合、画像合成部35は、Bモード画像にキャラクタ画像を重畳して合成することによって、表示用の合成画像を含む合成画像データを生成することができる。
その後、シフト情報演算部332が、Bモード画像のシフト量を算出し、シフト情報として出力する(ステップS202:演算ステップ)。シフト情報演算部332は、使用中の超音波振動子がラジアル型の超音波振動子である場合、該超音波振動子の像の中心を回転中心として、Bモード画像を回転させるためのシフト情報を生成する。この場合のシフト情報は、回転方向および回転角度が含まれる。Bモード画像のシフトは、回転のほか、超音波振動子21からの深度に沿った方向(深度方向)と、この深度方向のシフト量を設定するようにしてもよいし、ユーザからの入力や、指示位置により制御部38が回転と深度方向とのいずれかを設定するようにしてもよい。
シフト情報演算部332によりシフト情報が生成されると、超音波画像生成部32が、シフト情報に応じてBモード画像(超音波画像)をシフトさせる(ステップS203:制御ステップ)。本実施の形態1では、超音波画像生成部32は、シフト情報に基づいて、Bモード画像を所定の方向に所定量だけ回転させる。
超音波画像生成部32は、例えば、図5に示すように、回転方向YRに所定量だけBモード画像を回転させる。制御部38は、回転処理後のBモード画像における指示位置に対応した位置にキャラクタ画像を配置したキャラクタ画像データを、キャラクタ画像生成部34に生成させる制御を行う(ステップS204:キャラクタ画像生成ステップ)。その後、画像合成部35は、Bモード画像にキャラクタ画像を重畳して合成することによって、表示用の合成画像を含む合成画像データを生成する(ステップS205:合成画像生成ステップ)。この回転処理により、指示位置を示すキャラクタ画像P11(図5参照)が、キャラクタ画像P12(図6参照)に移動する。これにより、Bモード画像において、術者が入力した指示位置にキャラクタ画像P12が配置されるとともに、術者の手指によって隠れることなく、キャラクタ画像P12を表示させることができる(図7を参照)。
その後、制御部38は、タッチパネル42において同じ位置に指が接触した状態が継続している時間が所定の時間以上経過しているか否かを判断する(ステップS206)。ここで、制御部38は、タッチパネル42に指が接触した状態が継続している時間が所定の時間より短いと判断した場合(ステップS206:No)、ステップS208に移行する。これに対し、制御部38は、タッチパネル42に指が接触した状態が継続している時間が所定の時間以上経過していると判断した場合(ステップS206:Yes)、ステップS207に移行する。なお、上記では、タッチパネル42において同じ位置に指が接触した状態を継続している時間を計測するものとして説明したが、これに限らず、例えば、最初に接触した位置から、設定された範囲内で指の接触が継続されていれば、タッチパネル42において指が接触した状態を継続しているものとして継続時間を計測するものであってもよい。
ステップS207では、指示位置を含むBモード画像の部分領域の拡大処理を行う。この際、制御部38は、距離計測モードにおける動作モードの変更として、モード設定部36に拡大縮小モードに設定変更を行わせるとともに、超音波画像生成部32に画像を拡大するよう指示する。超音波画像生成部32は、所定の拡大率でBモード画像を拡大し、拡大処理後の超音波画像を画像合成部35に入力する。超音波画像生成部32は、Bモード画像の中心位置を中心として画像を拡大するものであってもよいし、指示位置(具体的には、キャラクタ画像P11)を中心に拡大するものであってもよい。
画像合成部35は、超音波画像生成部32が生成した拡大後のBモード画像の入力があると、拡大前のBモード画像に重畳されたキャラクタ画像P11の座標に応じて、拡大後のBモード画像にキャラクタ画像P11を重畳することによって、拡大されたBモード画像上にキャラクタ画像P11を配置する(図8参照)。その後、演算部33、キャラクタ画像生成部34および画像合成部35は、タッチパネル42から入力される操作信号に応じて、キャラクタ画像(指示位置)を更新する。これにより、Bモード画像におけるキャラクタ画像P11の位置を微調整することができる。
また、拡大縮小モードにおいて、タッチパネル42への接触位置の変化に応じて、拡大率(表示倍率)を変化させるようにしてもよい。例えば、指示位置の変化量に閾値を設けて、制御部38が、指示位置の変化量が、閾値を超えている場合に指示位置を移動させ、変化量が閾値以下である場合に、Bモード画像の拡大率を変化させる制御を行う。制御部38は、例えば、拡大縮小モードに設定すると、表示部41に指標Mを表示させる。制御部38は、指示位置の変化方向(移動ベクトル)のベクトル成分のうち、指標Mの「+」方向、または「−」方向のベクトル(図9の場合は上下方向)と一定以上同じであった場合、例えば、上方向のベクトル量が大きい、上方向の移動速度が小さい、または接触領域のうち上方向の押圧力が大きい場合、拡大率を大きく(+)し、下方向のベクトル量が大きい、下方向の移動速度が小さい、または接触領域のうち下方向の押圧力が大きい場合は拡大率を小さく(−)する。なお、拡大率の最小値は、ゼロより大きく、最も小さい拡大率を選択した場合であり、もともと表示されているBモード画像よりも大きく拡大された画像となる。また、指標Mは、画像の左右方向に「+」方向、または「−」方向としてもよい。左右方向で拡大率を変更する場合、制御部38は、指標Mと同じ方向のベクトルと指示位置の移動量などとにより、拡大率を制御する。
ステップS207に続くステップS208では、制御部38が、指示位置を確定して計測点とする操作があるか否かを判断する。制御部38は、指示位置を確定して計測点とする操作がある場合(ステップS208:Yes)、本計測点確定処理を終了して図2のフローチャートに戻る。これに対し、制御部38は、指示位置を確定して計測点とする操作がない場合(ステップS208:No)、ステップS207に戻り、上述した処理を繰り返す。計測点確定の操作としては、例えば、計測点の確定の指示入力があった場合や、タッチパネル42から指が離れた後、この離れた時間から所定の時間操作がない場合などである。
なお、二つの計測点のうちの一方の計測点の位置が確定した後、超音波画像生成部32が、キャラクタ画像P11(計測点)が配置された位置に対応するBモード画像の位置が、表示部41の表示画面の中央に位置するようにBモード画像を移動させるようにしてもよい。この際、キャラクタ画像生成部34は、移動後のBモード画像に応じて、キャラク画像を移動、すなわち、キャラクタ画像を中央に移動させたキャラクタ画像データを生成する。
また、拡大モードに移行するトリガが、同一の位置におけるタッチ継続時間によるものとして説明したが、指(指示位置)の移動速度や、タッチパネル42への接触圧、もしくはその組み合わせ、またはタップやダブルタップなどとしてもよい。例えば、移動速度をトリガとする場合は、速いほど指示位置を遠い位置に移動させ、遅いほど指示位置を近い位置に移動させるものとみなし、移動速度が遅い場合に拡大モードに移行するよう制御を行う。なお、制御部38は、シングルタップやダブルタップなどで拡大モードに移行した場合、ダブルタップを行うと拡大し、シングルタップを行うと縮小する制御を行ってもよい。どういった操作で拡大率を変更するかは、ユーザが予め登録、編集できるようにしてもよい。
図2のフローチャートに戻り、ステップS105において一方の計測点を確定した後、制御部38は、制御部44(タッチパネル42)から新たな操作信号の入力(タッチ入力)があるか否かを判断する(ステップS106)。制御部38は、新たな操作信号の入力(タッチ入力)があると判断すると(ステップS106:Yes)、ステップS107に移行する。これに対し、制御部38は、新たな操作信号の入力がない場合(ステップS106:No)、操作信号の入力の確認を繰り返す。
制御部38は、操作装置4から操作信号を受信すると、操作信号に基づいて第1指示位置を算出して表示する処理を行う(ステップS107:第2計測点確定処理)。具体的には、演算部33が、タッチパネル42からの指示入力に応じて、計測するための二つの計測点のうち、他方の計測点(指示位置)の算出処理を行い、操作装置4が、表示部41において、Bモード画像上に重畳した計測点(指示位置)を表示する。計測点(指示位置)の算出処理および表示処理については、図3に示すフローチャートと同様である。
図10は、本発明の実施の形態1にかかる計測点確定処理を説明する図であって、ステップS107における第2計測点確定処理を示す図である。ステップS107において、術者の指の接触によってタッチパネル42に指示入力があった場合、図10に示す表示画面には、Bモード画像上に、ステップS105において確定した計測点(キャラクタ画像P12)に加え、指示入力に応じて位置算出、およびBモード画像の回転処理を施されたBモード画像およびキャラクタ画像P21が表示される。
図11は、本発明の実施の形態1にかかる計測点確定処理を説明する図であって、ステップS105およびS107において確定された計測点を示す図である。ステップS107における計測点の確定後、図11に示す表示画面には、Bモード画像上に、ステップS105において確定したキャラクタ画像P12と、ステップS107において確定したキャラクタ画像P22とが重畳して表示される。
二つの計測点(キャラクタ画像P12,P22)の位置(座標)を算出後、計測点間距離演算部333が、キャラクタ画像P12,P22間の距離を算出して表示部41に表示させる(ステップS108)。計測点間距離演算部333は、キャラクタ画像P12,P22同士を結ぶ線分の長さを算出し、算出した長さに基づいて、実際の値(図11に示すA:2.0mm)を算出する。その後、制御部38は、算出された実際の値を表示部41に表示させる制御を行う。なお、算出した計測点間の距離や、実際の値を、表示装置5に表示してもよい。
ステップS108に続くステップS109では、制御部38が、本計測点確定処理の計測終了指示の入力があるか否かを判断する。制御部38は、操作装置4において、計測終了指示の入力を受け付けたか否かを判断し、操作装置4が計測終了指示の入力を受け付けていれば(ステップS109:Yes)、本計測処理を終了する。これに対し、入力部37や操作装置4が計測終了指示の入力を受け付けていなければ(ステップS109:No)、ステップS103に戻り、上述した処理を繰り返す。計測終了指示としては、例えば、距離計測モード終了の指示入力があった場合や、所定の時間操作がない場合などである。
なお、上述したフローでは、操作装置4の表示部41に合成画像を表示するものとして説明したが、表示装置5に同様の画像を表示してもよいし、表示装置5が、この計測処理の間はBモード画像のみを表示するようにしてもよい。また、表示部41と表示装置5とが表示する画像は同じであってもよいし、異なる画像であってもよい。表示装置5には、超音波画像は表示せずに計測点のみを表示し、画像の回転や移動、または拡大表示するか否かを選択できるようにしてもよい。
以上説明した本実施の形態1によれば、タッチパネル42への指の接触位置に応じて算出されるBモード画像上の指示位置(座標)を算出後、Bモード画像を回転させて、指示位置に対応するBモード画像の位置にキャラクタ画像P12を配置するようにしたので、術者等が指示した位置(キャラクタ画像P11)が、術者が直感的に指示した位置に応じてキャラクタ画像P12を配置するとともに、該術者の手指によって隠れることなくキャラクタ画像P12の視認性が維持されるため、超音波画像(Bモード画像)上への指定点の指示入力にかかる操作性を向上することができる。
なお、上述した実施の形態1において、一方の指をタッチ後、他方の指をタッチして時系列的に異なるタイミングで二つの指示位置が入力されるものとして説明したが、タッチパネル42に対して二つの指を同時にタッチして二つの指示位置が入力されるものであってもよい。同時に二つの指示位置が入力される場合は、それぞれの指示位置(接触位置)に基づいて、それぞれの計測点を確定する。
また、上述した実施の形態1では、拡大モードにおいてBモード画像を拡大するものとして説明したが、Bモード画像を生成するレンジを変更するものであってもよい。Bモード画像を拡大する場合は超音波画像生成部32により生成された超音波画像(Bモード画像)の一部の領域を切り出して拡大する。一方、レンジを変更してBモード画像を拡大する場合は、変更後のレンジに合わせて超音波を送信して、観測対象で反射した超音波エコーを取得し、超音波画像生成部32によってレンジ変更後のBモード画像が生成される。その後の処理は、上述した処理と同様である。レンジを変更する際には、上述したように、タッチ継続時間やタッチ検出回数と、予め設定されている変更量とをもとに、変更量が設定される。
(実施の形態1の変形例1)
図 12は、本発明の実施の形態1の変形例1にかかる計測点確定処理を説明する図である。上述した実施の形態1では、ラジアル型の超音波振動子を例に説明したが、これに限らず、コンベックス型やリニア型の超音波振動子であっても適用可能である。例えば、図12に示すように、コンベックス型の超音波振動子の場合は、指示位置が入力されると、表示画面の上方向、下方向、左方向および右方向の少なくとも一つの方向にBモード画像をシフトさせて、指示位置を示すキャラクタ画像P31が、術者の手指に隠れてしまわないように制御される。図12では、上方向および左方向を組み合わせた位置にBモード画像がシフトした例を示しており、シフト後のBモード画像にキャラクタ画像P31が重畳されている。
なお、制御部38は、処理装置3に接続される超音波プローブ2が備える超音波振動子21の種類を識別可能であり、シフト情報演算部332は、識別された超音波振動子に応じてシフト情報を生成する。記憶部39には超音波振動子を識別するための情報が記憶され、制御部38は、接続された超音波プローブ2から固有情報を取得し、取得した固有情報と、記憶部39に記憶されている情報とをもとに、接続された超音波プローブ2が備える超音波振動子の種類を識別する。
(実施の形態1の変形例2)
なお、ラジアル型の超音波振動子であっても、上述した変形例1のように、画面の上下左右方向に合成画像をシフトさせるものであってもよい。図13,14は、本発明の実施の形態1の変形例2にかかる計測点確定処理を説明する図であって、シフト後の合成画像を示す図である。本変形例2では、指示位置が、超音波振動子からの深度に応じて、合成画像のスライド方向を変化させる。
例えば、図13に示すキャラクタ画像P14のように、キャラクタ画像(指示位置)の位置が、超音波振動子からの深度が浅い位置である場合、Bモード画像を表示画面の左上方向にスライドさせてキャラクタ画像P15を表示する。これに対し、図14に示すキャラクタ画像P16のように、キャラクタ画像(指示位置)の位置が、超音波振動子からの深度が深い位置である場合、Bモード画像を表示画面の上方向にスライドさせてキャラクタ画像P17を表示する。このように、回転によるシフトのほか、スライドによるシフトを行ってもよいし、深度に応じてシフト方向を変えてもよい。
(実施の形態1の変形例3)
図15は、本発明の実施の形態1の変形例3にかかる計測点確定処理を説明する図である。上述した実施の形態1では、キャラクタ画像P11の表示位置を維持した状態でBモード画像を拡大する構成を例に説明したが、これに限らず、拡大画像を別の表示領域に表示させてもよい。例えば、図15に示すように、拡大画像を表示する表示領域Rを設けて、拡大したBモード画像にキャラクタ画像P13を配置した合成画像を表示させるようにしてもよい。なお、表示領域RにおけるBモード画像上のキャラクタ画像P13は、キャラクタ画像P11に対応した位置に配置されており、キャラクタ画像P11が移動すると、追従してキャラクタ画像P13の位置も変わる。また、キャラクタ画像P11の移動により、キャラクタ画像P13が表示領域Rから外れる場合は、Bモード画像における拡大領域を、キャラクタ画像P13が表示領域Rに表示される部分領域に変更する。
(実施の形態2)
次に、本発明の実施の形態2について図面を参照して説明する。図16は、本発明の実施の形態2にかかる超音波診断システムの構成を示すブロック図である。図17は、本発明の実施の形態2にかかるキャラクタ画像表示処理を説明する図である。本実施の形態2では、キャラクタ画像の視認性を向上させるため、二つのキャラクタ画像の配置に応じてキャラクタ画像を回転させる。
本実施の形態2にかかる超音波診断システム1Aは、上述した超音波診断システム1の構成に対し、処理装置3Aの演算部33aが重複判定部334をさらに備える。重複判定部334は、二つのキャラクタ画像と、この二つのキャラクタ画像同士を結ぶ線分とが重複するか否かを判定する。
距離計測を行う際に設定した二つの計測点に応じて二つのキャラクタ画像(キャラクタ画像P51,P52)を表示した際、図17の(a)に示すように、該キャラクタ画像P51,P52同士を結ぶ線分L1が、キャラクタ画像P51,P52に重複する場合がある。この場合、キャラクタ画像P51,P52の中心位置や、線分L1の端点の視認性が低下する。
本実施の形態2では、重複判定部334が、キャラクタ画像の形状と、線分が延びる方向とをもとに、キャラクタ画像と線分とが重複するか否かを判定する。重複判定部334が、キャラクタ画像P51,P52同士を結ぶ線分L1が、キャラクタ画像P51,P52に重複すると判定した場合、シフト情報演算部332が、キャラクタ画像を回転する旨のシフト情報を生成し、キャラクタ画像生成部34が、図17の(b)に示すように、キャラクタ画像P51,P52を回転させて、線分L1に重複しないようなキャラクタ画像P53,P54を生成する。キャラクタ画像生成部34は、例えばキャラクタ画像の中心を回転中心として、45°回転させることによって、キャラクタ画像データを生成する。なお、キャラクタ画像P51,P52の位置関係により、常にキャラクタ画像P51,P52の直交する二つの直線の中央を線分L1が通過するように回転させてもよい。
以上説明した本実施の形態2によれば、上述した実施の形態1の効果を得ることができるとともに、重複判定部334によって、キャラクタ画像P51,P52同士を結ぶ線分L1が、キャラクタ画像P51,P52に重複すると判定された場合に、キャラクタ画像生成部34が、キャラクタ画像P51,P52を回転させて、または、キャラクタ画像P51,P52の位置関係に応じて常にキャラクタ画像P51,P52の線分(直交する二つの直線)と線分L1とのなす角度が45°となるように回転させて、線分L1に重複しないようなキャラクタ画像P53,P54を生成するようにしたので、キャラクタ画像の中心や、計測範囲の端点の視認性の低下を抑制することが可能である。
なお、上述した実施の形態2では、キャラクタ画像P51,P52を回転させて、キャラクタ画像の形状を変更するものとして説明したが、重複判定部334により重複判定がなされた場合に、キャラクタ画像を×から△(三角)、○(丸)などに変更するものであってもよい。
(実施の形態3)
次に、本発明の実施の形態3について図面を参照して説明する。図18は、本発明の実施の形態3にかかる超音波診断システムの構成を示すブロック図である。本実施の形態3では、キャラクタ画像の視認性を向上させるため、術者の視線を検出して、該検出結果に基づいてキャラクタ画像をシフトさせる。
本実施の形態3にかかる超音波診断システム1Bは、上述した超音波診断システム1の構成に対し、処理装置3Bの演算部33bがNUI認識部335をさらに備えるとともに、操作装置4Aが、ナチュラルユーザインターフェイス(NUI)45をさらに備える。NUI45は、例えば術者の上半身を撮像して目(視線)や手指を識別するための識別情報を出力する。NUI認識部335は、NUI45からの識別情報をもとに、術者の視線の方向や、タッチパネル42に接触している手が右手であるか左手であるかを検出し、シフト情報演算部332に出力する。NUI認識部335は、得られた電気信号から特徴データと比較して、視線の方向や、右手または左手を認識する。
図19,20は、本発明の実施の形態3にかかる計測点確定処理を説明する図である。例えば、NUI認識部335によって、タッチパネル42に接触している手が右手であり、視線の方向がN1方向であるという認識結果が得られた場合、シフト情報演算部332は、親指側である左側、かつ視線の前方にキャラクタ画像が移動するようなシフト方向に設定する。図19では、シフト方向を、キャラクタ画像が左上に移動する方向(図19の矢印Y1)に設定する。これにより、図19に示すように、指先の左上にキャラクタ画像P61が表示される画像となる。
また、NUI認識部335によって、タッチパネル42に接触している手が左手であり、視線の方向がN2方向であるという認識結果が得られた場合、シフト情報演算部332は、親指側である右側、かつ視線の前方にキャラクタ画像が移動するようなシフト方向に設定する。図20では、シフト方向を、キャラクタ画像が右上に移動する方向(図20の矢印Y2)に設定する。これにより、図20に示すように、指先の右上にキャラクタ画像P62が表示される画像となる。
以上説明した本実施の形態3によれば、上述した実施の形態1の効果を得ることができるとともに、NUI認識部335が、NUI45からの識別情報をもとに、術者の視線の方向や、タッチパネル42に接触している手が右手であるか左手であるかを検出し、シフト情報演算部332が、視線の方向と手とに基づいてシフト方向を決定するようにしたので、術者が直感的に指示した位置に応じてキャラクタ画像を配置するとともに、キャラクタ画像の視認性が維持されるため、超音波画像(Bモード画像)上への指定点の指示入力にかかる操作性を一層向上することができる。
なお、上述した実施の形態3では、NUI45が目(視線)や手を識別するための識別情報を出力するものとして説明したが、視線および手のうち少なくとも一つを検出するものであってもよい。
また、上述した実施の形態1〜3および変形例では、観測対象が生体組織であることを例に説明したが、材料の特性を観測する工業用の内視鏡であっても適用できる。本発明にかかる超音波観測装置は、体内、体外を問わず適用可能である。また、超音波のほか、赤外線などを照射して観測対象の信号を送受信するものであってもよい。
また、上述した実施の形態1〜3および変形例では、二つの計測点間の距離を計測するものとして説明したが、計測対象が円など面積を計測する場合は、計測点を該円の直径とみなして、タッチパネルの操作によって計測対象の円の直径を設定するものであってもよい。また、円のほか、楕円を設定する場合は、所定の割合で算出される短軸または長軸のうちの一方をタッチパネル42により入力すればよい。二つの計測点間の距離を計測するものに限らず、例えば、一点や三点以上の入力に基づいて操作対象位置を決定するものであってもよい。
このように、本発明は、請求の範囲に記載した技術的思想を逸脱しない範囲内において、様々な実施の形態を含みうるものである。
以上のように、本発明にかかる超音波観測装置、処理装置、超音波観測装置の作動方法および超音波観測装置の作動プログラムは、超音波画像上への指定点の指示入力にかかる操作性を向上するのに有用である。
1 超音波診断システム
2 超音波プローブ
3 処理装置
4 操作装置
5 表示装置
10 超音波観測装置
21 超音波振動子
30 送受信部
31 信号処理部
32 超音波画像生成部
33 演算部
34 キャラクタ画像生成部
35 画像合成部
36 モード設定部
37 入力部
38 制御部
39 記憶部
41 表示部
42 タッチパネル
43 表示制御部
44 制御部
45 NUI
331 指示位置座標演算部
332 シフト情報演算部
333 計測点間距離演算部
334 重複判定部
335 NUI認識部
391 シフト情報記憶部

Claims (15)

  1. 観測対象である被検体へ超音波を送信し、該被検体で反射された超音波を受信する超音波プローブが取得した超音波信号に基づいて超音波画像を生成する超音波画像生成部と、
    前記超音波画像を表示可能な表示部の表示面上に設けられ、術者の手指が接触する接触面を有し、該手指の接触位置に応じた入力を、前記超音波画像に対して行う処理の対象箇所の指示位置として受け付けるタッチパネルと、
    前記指示位置に応じて、前記表示部に表示する前記超音波画像の表示領域のシフト方向を含むシフト情報を生成する演算部と、
    前記演算部が生成したシフト情報に基づき、前記超音波画像生成部に、前記超音波画像をシフトさせるよう制御する制御部と、
    前記対象箇所を示すキャラクタ画像を、シフト後の超音波画像における前記指示位置に対応させて生成するキャラクタ画像生成部と、
    前記超音波画像と前記キャラクタ画像とを合成することによって合成画像を生成する画像合成部と、
    を備えたことを特徴とする超音波観測装置。
  2. 前記制御部は、前記タッチパネルへのタッチ継続中における前記指示位置の挙動に応じて、前記表示部における前記超音波画像の表示倍率または前記超音波画像を生成するレンジを変更する制御を行う
    ことを特徴とする請求項1に記載の超音波観測装置。
  3. 前記制御部は、前記超音波画像の表示倍率または前記超音波画像を生成するレンジを変更する場合、前記指示位置を含む前記超音波画像の部分領域を拡大して前記表示部に表示させる制御を行う
    ことを特徴とする請求項2に記載の超音波観測装置。
  4. 前記タッチパネルへのタッチ継続中における前記指示位置の挙動は、同一の指示位置におけるタッチ継続時間であり、
    前記制御部は、前記タッチ継続時間が、所定の時間以上である場合に、前記表示部における前記超音波画像の表示倍率または前記超音波画像を生成するレンジを変更する制御を行う
    ことを特徴とする請求項2に記載の超音波観測装置。
  5. 前記制御部は、前記タッチパネルへのタッチ検出回数に応じて、前記表示部における前記超音波画像の表示倍率または前記超音波画像を生成するレンジを変更する制御を行う
    ことを特徴とする請求項1に記載の超音波観測装置。
  6. 前記演算部は、当該超音波観測装置に接続される前記超音波プローブが備える超音波振動子の種類に応じて、前記超音波画像の前記表示領域のシフト方向を設定する
    ことを特徴とする請求項1に記載の超音波観測装置。
  7. 前記制御部は、当該超音波観測装置に接続される前記超音波プローブの種類を識別し、
    前記演算部は、当該超音波観測装置に接続される前記超音波プローブがラジアル型の超音波振動子を備える場合、前記超音波画像の前記表示領域のシフト方向を、回転方向、および前記超音波振動子の深度方向のいずれかに設定する
    ことを特徴とする請求項1に記載の超音波観測装置。
  8. 前記制御部は、当該超音波観測装置に接続される前記超音波プローブの種類を識別し、
    前記演算部は、当該超音波観測装置に接続される前記超音波プローブがコンベックス型の超音波振動子を備える場合、前記超音波画像の前記表示領域のシフト方向を、前記表示部の表示画面の上下左右方向の少なくとも一つの方向に設定する
    ことを特徴とする請求項1に記載の超音波観測装置。
  9. 前記演算部は、前記指示位置と、前記超音波振動子からの深度であって、前記超音波画像における超音波振動子の像から前記指示位置に対応する位置までの深度とに応じて、前記超音波画像の前記表示領域のシフト方向を設定する
    ことを特徴とする請求項6に記載の超音波観測装置。
  10. 前記演算部は、前記タッチパネルを介して前記超音波画像上において指定された二つの前記指示位置間の距離を計測し、
    前記制御部は、二つの前記指示位置のうちの一方の指示位置の入力が終了した後、該一方の指示位置に対応する前記超音波画像の位置が、前記表示部の表示画面の中央に位置する前記超音波画像を前記超音波画像生成部に生成させる制御を行う
    ことを特徴とする請求項1に記載の超音波観測装置。
  11. 前記タッチパネルを操作する術者の手指および視線の少なくとも一方を検出可能な検出手段をさらに備え、
    前記制御部は、前記検出手段の検出結果に応じて、前記超音波画像の前記表示領域のシフト方向を設定する
    ことを特徴とする請求項1に記載の超音波観測装置。
  12. 前記制御部は、二つの前記指示位置に応じた前記キャラクタ画像の位置関係に応じて、当該キャラクタ画像を変更する制御を行う
    ことを特徴とする請求項10に記載の超音波観測装置。
  13. 観測対象である被検体へ超音波を送信し、該被検体で反射された超音波を受信する超音波プローブが取得した超音波信号に基づいて超音波画像を生成する超音波画像生成部と、
    前記超音波画像に対する指示位置に応じて、表示部に表示する前記超音波画像の表示領域のシフト方向を含むシフト情報を生成する演算部と、
    前記演算部が生成したシフト情報に基づき、前記超音波画像生成部に、前記超音波画像をシフトさせるよう制御する制御部と、
    前記超音波画像に対して行う処理の対象箇所を示すキャラクタ画像を、シフト後の超音波画像における前記指示位置に対応させて生成するキャラクタ画像生成部と、
    前記超音波画像と前記キャラクタ画像とを合成することによって合成画像を生成する画像合成部と、
    を備えたことを特徴とする処理装置。
  14. 超音波画像生成部が、観測対象である被検体へ超音波を送信し、該被検体で反射された超音波を受信する超音波プローブが取得した超音波信号に基づいて超音波画像を生成する超音波画像生成ステップと、
    前記超音波画像を表示可能な表示部の表示面上に設けられ、術者の手指が接触する接触面を有し、該手指の接触位置に応じた入力を、前記超音波画像に対して行う処理の対象箇所の指示位置として受け付けるタッチパネルが受け付けた指示位置に応じて、前記表示部に表示する前記超音波画像の表示領域のシフト方向を含むシフト情報を演算部が生成する演算ステップと、
    制御部が、前記演算部が生成したシフト情報に基づき、前記超音波画像生成部に、前記超音波画像をシフトさせるよう制御する制御ステップと、
    キャラクタ画像生成部が、前記超音波画像に対して行う処理の対象箇所を示すキャラクタ画像を、シフト後の超音波画像における前記指示位置に対応させて生成するキャラクタ画像生成ステップと、
    画像合成部が、前記超音波画像と前記キャラクタ画像とを合成することによって合成画像を生成する画像合成ステップと、
    を含むことを特徴とする超音波観測装置の作動方法。
  15. 超音波画像生成部が、観測対象である被検体へ超音波を送信し、該被検体で反射された超音波を受信する超音波プローブが取得した超音波信号に基づいて超音波画像を生成する超音波画像生成手順と、
    前記超音波画像を表示可能な表示部の表示面上に設けられ、術者の手指が接触する接触面を有し、該手指の接触位置に応じた入力を、前記超音波画像に対して行う処理の対象箇所の指示位置として受け付けるタッチパネルが受け付けた指示位置に応じて、前記表示部に表示する前記超音波画像の表示領域のシフト方向を含むシフト情報を演算部が生成する演算手順と、
    制御部が、前記演算部が生成したシフト情報に基づき、前記超音波画像生成部に、前記超音波画像をシフトさせるよう制御する制御手順と、
    キャラクタ画像生成部が、前記超音波画像に対して行う処理の対象箇所を示すキャラクタ画像を、シフト後の超音波画像における前記指示位置に対応させて生成するキャラクタ画像生成手順と、
    画像合成部が、前記超音波画像と前記キャラクタ画像とを合成することによって合成画像を生成する画像合成手順と、
    をコンピュータに実行させることを特徴とする超音波観測装置の作動プログラム。
JP2017556396A 2015-12-17 2016-10-21 超音波観測装置、処理装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム Active JP6509374B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015246697 2015-12-17
JP2015246697 2015-12-17
PCT/JP2016/081348 WO2017104263A1 (ja) 2015-12-17 2016-10-21 超音波観測装置、処理装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム

Publications (2)

Publication Number Publication Date
JPWO2017104263A1 true JPWO2017104263A1 (ja) 2018-09-20
JP6509374B2 JP6509374B2 (ja) 2019-05-08

Family

ID=59056058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017556396A Active JP6509374B2 (ja) 2015-12-17 2016-10-21 超音波観測装置、処理装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム

Country Status (4)

Country Link
US (1) US11141136B2 (ja)
JP (1) JP6509374B2 (ja)
CN (1) CN108366785B (ja)
WO (1) WO2017104263A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160090102A (ko) * 2015-01-21 2016-07-29 삼성전자주식회사 초음파 촬영 장치, 초음파 프로브 장치, 신호 처리 장치 및 초음파 촬영 장치의 제어 방법
WO2019053960A1 (ja) * 2017-09-14 2019-03-21 富士フイルム株式会社 超音波診断装置および超音波診断装置の制御方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010148811A (ja) * 2008-12-26 2010-07-08 Panasonic Corp 超音波診断装置
JP2012019824A (ja) * 2010-07-12 2012-02-02 Hitachi Aloka Medical Ltd 超音波診断装置
WO2015054198A1 (en) * 2013-10-07 2015-04-16 Acist Medical Systems, Inc. Systems and methods for controlled single touch zoom
JP2015515312A (ja) * 2012-03-26 2015-05-28 テラテク・コーポレーシヨン タブレット超音波システム
JP2015107200A (ja) * 2013-12-04 2015-06-11 コニカミノルタ株式会社 超音波診断装置及び超音波診断装置の制御方法
JP2015198810A (ja) * 2014-04-09 2015-11-12 コニカミノルタ株式会社 超音波画像診断装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8482534B2 (en) * 1995-06-29 2013-07-09 Timothy R. Pryor Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US20090030332A1 (en) * 2005-01-26 2009-01-29 Schecter Stuart O microfabricated cardiac sensor with tactile feedback and method and apparatus for calibrating the same using a plurality of signals
US8926511B2 (en) * 2008-02-29 2015-01-06 Biosense Webster, Inc. Location system with virtual touch screen
US9149658B2 (en) * 2010-08-02 2015-10-06 Guided Therapy Systems, Llc Systems and methods for ultrasound treatment
US9877699B2 (en) * 2012-03-26 2018-01-30 Teratech Corporation Tablet ultrasound system
JP5639321B1 (ja) * 2013-06-26 2014-12-10 オリンパスメディカルシステムズ株式会社 超音波観測システム、超音波観測システムの作動方法
WO2016007673A2 (en) * 2014-07-09 2016-01-14 Edan Instruments, Inc. Portable ultrasound user interface and resource management systems and methods

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010148811A (ja) * 2008-12-26 2010-07-08 Panasonic Corp 超音波診断装置
JP2012019824A (ja) * 2010-07-12 2012-02-02 Hitachi Aloka Medical Ltd 超音波診断装置
JP2015515312A (ja) * 2012-03-26 2015-05-28 テラテク・コーポレーシヨン タブレット超音波システム
WO2015054198A1 (en) * 2013-10-07 2015-04-16 Acist Medical Systems, Inc. Systems and methods for controlled single touch zoom
JP2015107200A (ja) * 2013-12-04 2015-06-11 コニカミノルタ株式会社 超音波診断装置及び超音波診断装置の制御方法
JP2015198810A (ja) * 2014-04-09 2015-11-12 コニカミノルタ株式会社 超音波画像診断装置

Also Published As

Publication number Publication date
WO2017104263A1 (ja) 2017-06-22
US11141136B2 (en) 2021-10-12
JP6509374B2 (ja) 2019-05-08
CN108366785A (zh) 2018-08-03
US20180289360A1 (en) 2018-10-11
CN108366785B (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN105243676B (zh) 显示超声图像的方法及其所用的超声设备
CN104921753B (zh) 超声设备和测量超声图像的方法
JP6017746B1 (ja) 医療用診断装置、超音波観察システム、医療用診断装置の作動方法および医療用診断装置の作動プログラム
JP6054089B2 (ja) 超音波診断装置、医用画像処理装置および医用画像処理プログラム
JP2009297072A (ja) 超音波診断装置、及び医用画像処理装置
US20170209126A1 (en) Ultrasound observation system
US20160361044A1 (en) Medical observation apparatus, method for operating medical observation apparatus, and computer-readable recording medium
JP5942217B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
US11141136B2 (en) Ultrasound observation device, processing device, method of operating ultrasound observation device, and computer readable recording medium
JP2014008083A (ja) 超音波診断装置
US11439366B2 (en) Image processing apparatus, ultrasound diagnosis system, operation method of image processing apparatus, and computer-readable recording medium
JP5498090B2 (ja) 画像処理装置及び超音波診断装置
WO2019069295A1 (ja) 超音波観測装置、超音波観測装置の作動方法、及び超音波観測装置の作動プログラム
JP2013192673A (ja) 医用画像診断装置、画像処理装置及びプログラム
WO2017073331A1 (ja) 処理装置、超音波観測装置、処理装置の作動方法および処理装置の作動プログラム
JP2011104109A (ja) 超音波診断装置
US20180271481A1 (en) Ultrasound diagnosis system, method of operating ultrasound diagnosis system, and computer-readable recording medium
CN110248607B (zh) 超声波观测装置、超声波观测装置的工作方法、存储介质
JP2013135961A (ja) 超音波診断装置、及び医用画像処理装置
EP4260811A1 (en) Graphical user interface for providing ultrasound imaging guidance
JP6743284B2 (ja) 超音波観測装置、超音波観測装置の作動方法、及び超音波観測装置の作動プログラム
JP2022169061A (ja) 超音波診断装置及びプログラム
JP2007117566A (ja) 超音波診断装置及びその制御方法
JP2017192478A (ja) 画像生成装置および画像生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190402

R151 Written notification of patent or utility model registration

Ref document number: 6509374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250