JP6017746B1 - 医療用診断装置、超音波観察システム、医療用診断装置の作動方法および医療用診断装置の作動プログラム - Google Patents

医療用診断装置、超音波観察システム、医療用診断装置の作動方法および医療用診断装置の作動プログラム Download PDF

Info

Publication number
JP6017746B1
JP6017746B1 JP2016547107A JP2016547107A JP6017746B1 JP 6017746 B1 JP6017746 B1 JP 6017746B1 JP 2016547107 A JP2016547107 A JP 2016547107A JP 2016547107 A JP2016547107 A JP 2016547107A JP 6017746 B1 JP6017746 B1 JP 6017746B1
Authority
JP
Japan
Prior art keywords
image
command
unit
display
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016547107A
Other languages
English (en)
Other versions
JPWO2016175070A1 (ja
Inventor
庄 舟久保
庄 舟久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Application granted granted Critical
Publication of JP6017746B1 publication Critical patent/JP6017746B1/ja
Publication of JPWO2016175070A1 publication Critical patent/JPWO2016175070A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/481Diagnostic techniques involving the use of contrast agent, e.g. microbubbles introduced into the bloodstream
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/485Diagnostic techniques involving measuring strain or elastic properties
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52079Constructional features
    • G01S7/52084Constructional features related to particular user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Gynecology & Obstetrics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明にかかる医療用診断装置は、術者の手指の形状、および術者の手指の空間的な位置を検出する検出部と、実行する複数のコマンドを記憶する記憶部と、検出された術者の手指の形状および空間的な位置に応じて、実行可能な一または複数のコマンドを選択するコマンド選択部と、コマンド選択部が選択したコマンドに応じたコマンド画像を生成するコマンド画像生成部と、コマンド画像生成部が生成したコマンド画像、および観測画像を用いて表示画像を生成する表示画像生成部と、を備えた。

Description

本発明は、超音波を用いて観測対象を観測する医療用診断装置、超音波観察システム、医療用診断装置の作動方法および医療用診断装置の作動プログラムに関する。
観測対象である生体組織または材料の特性を観測するために、超音波を適用することがある。具体的には、観測対象に超音波を送信し、その観測対象によって反射された超音波エコーに対して所定の信号処理を施すことにより、観測対象の特性に関する情報を取得する。
超音波を適用した体内の生体組織などの診断には、挿入部の先端に超音波振動子が設けられた超音波内視鏡が用いられる。医師などの術者は、挿入部を体内に挿入後、手元の操作部を操作することにより、超音波振動子が超音波エコーを取得し、該超音波エコーに基づく情報(例えば超音波画像)をもとに診断を行う。
図16は、従来の超音波診断を行うシステムの構成を示す模式図である。図16に示す超音波診断システム500は、先端に超音波振動子および撮像素子が設けられた挿入部を有する超音波内視鏡501と、超音波内視鏡501が取得した超音波エコーおよび撮像信号に基づく画像を生成する画像処理装置502と、画像処理装置502と接続し、指示信号などの信号を入力するキーボード503と、超音波エコーに基づく画像を表示する超音波画像モニタ504と、撮像信号に基づく画像を表示する内視鏡画像モニタ505と、を備える。術者S1は、超音波内視鏡501の挿入部を被検体S2に挿入し、キーボード503や超音波内視鏡501に設けられた操作部を介して指示信号を入力することで、超音波画像の調整、具体的には画像の回転や移動などを行って診断する。
ところで、検査室などのレイアウト上、術者S1と画像処理装置502(キーボード503)とが離れてしまうことがある。術者S1と画像処理装置502(キーボード503)とが離れてしまうと、操作性が低下してしまう。この問題に対し、手指の形状を検出し、該形状に機能を割り当ててポインタおよびクリック操作を行うことで、術者が装置から離れていても超音波画像モニタ504などを見ながら操作できる技術が開示されている(例えば、特許文献1を参照)。
特開2004−78977号公報
しかしながら、上述した特許文献1に記載の技術は、マウス操作を手の形状に置き換えたのみであり、一つの手の形状に一つのコマンドを対応させているため、コマンド操作の都度、手の形状を変化させなければならない。このため、術者S1が超音波画像モニタ504から視線をそらさずにコマンドの入力操作などを行うには、入力操作の自由度が低かった。
本発明は、上記に鑑みてなされたものであって、モニタから視線をそらすことなく高い自由度で入力操作を行うことができる医療用診断装置、超音波観察システム、医療用診断装置の作動方法および医療用診断装置の作動プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明にかかる医療用診断装置は、観測対象の画像を生成するための信号を取得し、取得した前記信号に基づく観測画像を外部の表示装置に表示させて診断を行うための医療用診断装置であって、術者の手指の形状、および前記術者の手指の空間的な位置を検出する検出部と、前記検出部により検出された前記術者の手指の形状および前記空間的な位置に応じて、当該医療用診断装置が実行可能な一または複数のコマンドを選択する実行可能コマンド選択部と、前記実行可能コマンド選択部が選択したコマンドに応じたコマンド画像、および前記術者の手指の形状を示す手指形状画像を生成するコマンド画像生成部と、前記コマンド画像生成部が生成したコマンド画像、前記手指形状画像および前記観測画像を用いて表示画像を生成する表示画像生成部と、を備えたことを特徴とする。
本発明にかかる医療用診断装置は、上記発明において、前記術者の手指の空間的な位置と、前記コマンド画像の表示位置とに応じて実行対象のコマンドを選択する実行コマンド選択部をさらに備えたことを特徴とする。
本発明にかかる医療用診断装置は、上記発明において、前記検出部は、所定の操作面と前記術者の手指との間の最短距離をさらに検出することを特徴とする。
本発明にかかる医療用診断装置は、上記発明において、前記表示画像生成部は、前記検出部が検出した前記最短距離が、該最短距離にかかる閾値より小さい場合に、少なくとも前記術者の手指の位置に応じた前記コマンド画像を強調表示する表示画像を生成することを特徴とする。
本発明にかかる医療用診断装置は、上記発明において、前記表示画像生成部は、前記最短距離が、前記閾値より小さく、かつ該閾値より小さい第2閾値以上の場合に、前記術者の手指の位置に応じた前記コマンド画像と、該コマンド画像と空間的に隣接するコマンド画像を強調表示する表示画像を生成し、前記最短距離が、前記第2閾値より小さい場合に、前記術者の手指の位置に応じた前記コマンド画像を強調表示する表示画像を生成することを特徴とする。
本発明にかかる医療用診断装置は、上記発明において、前記実行コマンド選択部は、前記最短距離が所定値以下である場合に、前記術者の手指の空間的な位置と、前記コマンド画像の表示位置との相対的な位置関係に応じて実行対象のコマンドを選択することを特徴とする。
本発明にかかる医療用診断装置は、上記発明において、前記観測画像および前記コマンド画像を表示可能な表示部と、前記表示部の表示面上に設けられ、前記術者の手指が接触する接触面を有し、該手指の接触位置に応じた入力を受け付けるタッチパネルと、をさらに備えたことを特徴とする。
本発明にかかる医療用診断装置は、上記発明において、前記実行コマンド選択部は、前記タッチパネルが受け付けた前記術者の手指の接触位置と、前記コマンド画像の表示位置とに応じて実行対象のコマンドを選択することを特徴とする。
本発明にかかる医療用診断装置は、上記発明において、前記実行可能コマンド選択部は、前記術者の手指の形状、前記空間的な位置および動作モードに応じて実行可能な一または複数のコマンドを選択することを特徴とする。
本発明にかかる医療用診断装置は、上記発明において、前記表示画像生成部は、前記コマンド画像を、前記術者の手指の空間的な位置に応じて前記観測画像上に重畳して表示する表示画像、または前記観測画像と並べて表示する表示画像を生成することを特徴とする。
本発明にかかる医療用診断装置は、上記発明において、当該医療用診断装置が実行する複数のコマンドと、前記術者の手指の形状および前記空間的な位置と、を関連付けて記憶する記憶部をさらに備えたことを特徴とする。
本発明にかかる医療用診断装置は、上記発明において、前記記憶部は、前記実行可能コマンド選択部が選択するコマンドを術者ごとに記憶することを特徴とする。
本発明にかかる超音波観察システムは、観測対象へ超音波を送信するとともに、前記観測対象に対して送信した超音波が前記観測対象によって反射された超音波エコーを電気信号に変換したエコー信号を生成する超音波振動子と、受光した光信号を電気信号に変換した撮像信号を生成する撮像部と、前記エコー信号および前記撮像信号の少なくとも一方に基づく複数の観測画像を表示する表示装置と、術者の手指の形状、および前記術者の手指の空間的な位置を検出する検出部と、前記検出部により検出された前記術者の手指の形状および前記空間的な位置に応じて、実行可能な一または複数のコマンドを選択する実行可能コマンド選択部と、前記コマンド選択部が選択したコマンドに応じたコマンド画像、および前記術者の手指の形状を示す手指形状画像を生成するコマンド画像生成部と、前記コマンド画像生成部が生成したコマンド画像、前記手指形状画像および前記観測画像を用いて表示画像を生成する表示画像生成部と、を備えたことを特徴とする。
本発明にかかる医療用診断装置の作動方法は、観測対象の画像を生成するための信号を取得し、取得した前記信号に基づく観測画像を外部の表示装置に表示させて診断を行うための医療用診断装置の作動方法であって、検出部が、術者の手指の形状、および前記術者の手指の空間的な位置を検出する検出ステップと、実行可能コマンド選択部が、前記検出部により検出された前記術者の手指の形状および前記空間的な位置に応じて、当該医療用診断装置が実行可能な一または複数のコマンドを選択する実行可能コマンド選択ステップと、コマンド画像生成部が、前記実行可能コマンド選択部が選択したコマンドに応じたコマンド画像、および前記術者の手指の形状を示す手指形状画像を生成するコマンド画像生成ステップと、表示画像生成部が、前記コマンド画像生成部が生成したコマンド画像、前記手指形状画像および前記観測画像を用いて表示画像を生成する表示画像生成ステップと、を含むことを特徴とする。
本発明にかかる医療用診断装置の作動プログラムは、観測対象の画像を生成するための信号を取得し、取得した前記信号に基づく観測画像を外部の表示装置に表示させて診断を行うための医療用診断装置の作動方法であって、検出部が、術者の手指の形状、および前記術者の手指の空間的な位置を検出する検出手順と、実行可能コマンド選択部が、前記検出部により検出された前記術者の手指の形状および前記空間的な位置に応じて、当該医療用診断装置が実行可能な一または複数のコマンドを選択する実行可能コマンド選択手順と、コマンド画像生成部が、前記実行可能コマンド選択部が選択したコマンドに応じたコマンド画像、および前記術者の手指の形状を示す手指形状画像を生成するコマンド画像生成手順と、表示画像生成部が、前記コマンド画像生成部が生成したコマンド画像、前記手指形状画像および前記観測画像を用いて表示画像を生成する表示画像生成手順と、を前記医療用診断装置に実行させることを特徴とする。
本発明によれば、モニタから視線をそらすことなく高い自由度で入力操作を行うことができるという効果を奏する。
図1は、本発明の実施の形態1にかかる超音波診断システムの構成を示すブロック図である。 図2は、本発明の実施の形態1にかかる超音波診断システムが行うコマンド実行処理を説明するフローチャートである。 図3は、本発明の実施の形態1にかかるコマンド実行処理における表示画像を説明する図である。 図4は、本発明の実施の形態1にかかるコマンド実行処理における表示画像を説明する図である。 図5は、本発明の実施の形態1にかかるコマンド実行処理における表示画像を説明する図である。 図6は、本発明の実施の形態1にかかるコマンド実行処理における表示画像を説明する図である。 図7は、本発明の実施の形態1にかかるコマンド実行処理における表示画像を説明する図である。 図8は、本発明の実施の形態1にかかるコマンド実行処理における表示画像を説明する図である。 図9は、本発明の実施の形態1にかかるコマンド実行処理における表示画像を説明する図である。 図10は、本発明の実施の形態1の変形例にかかる超音波診断システムの構成を示すブロック図である。 図11は、本発明の実施の形態1の変形例にかかる超音波診断システムが行うコマンド実行処理を説明するフローチャートである。 図12は、本発明の実施の形態1の変形例にかかるコマンド実行処理における距離検出処理を説明する図である。 図13は、本発明の実施の形態1の変形例にかかるコマンド実行処理における表示画像を説明する図である。 図14は、本発明の実施の形態1の変形例にかかるコマンド実行処理における表示画像を説明する図である。 図15は、本発明の実施の形態2にかかる超音波内視鏡システムの構成を示すブロック図である。 図16は、従来の超音波診断を行うシステムの構成を示す模式図である。
以下、添付図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)を説明する。また、以下の説明において、超音波エコーに基づく超音波画像を生成する医療用診断装置を含む超音波診断システムや超音波内視鏡システムを例示するが、この実施の形態によって本発明が限定されるものではない。また、同一の構成には同一の符号を付して説明する。
(実施の形態1)
図1は、本発明の実施の形態1にかかる超音波診断システムの構成を示すブロック図である。同図に示す超音波診断システム1は、超音波を用いて観測対象を観測するための装置であり、本発明にかかる医療用診断装置に相当する。
超音波診断システム1は、超音波を出力して反射した超音波エコーを受信する超音波プローブ2と、超音波プローブ2が取得した超音波エコーに基づく画像をそれぞれ生成する超音波観測装置3と、複数の入力指示情報を同時に受付可能であり、受け付けた情報を超音波観測装置3へ出力して該超音波観測装置3を操作する操作装置4と、超音波観測装置3により生成された超音波エコーに基づく画像を含む各種情報を表示する表示装置5と、を備える。表示装置5は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて実現される。
超音波プローブ2は、観測対象へ超音波パルスを出力するとともに、観測対象によって反射された超音波エコーを受信する超音波振動子21を先端に有する。
ここで、観測対象が生体組織である場合、超音波振動子21は、生体の体表から超音波を照射する体外式探触子の形態、消化管、胆膵管、血管等の管腔内に挿入する長軸の挿入部を備えたミニチュア超音波プローブの形態、管腔内超音波プローブに光学系をさらに備えた超音波内視鏡の形態、のいずれの形態であってもよい。このうち、超音波内視鏡の形態をとった場合には、管腔内超音波プローブの挿入部の先端側に超音波振動子21が設けられ、管腔内超音波プローブは基端側で処理装置と着脱可能に接続する。
超音波振動子21は、超音波観測装置3から受信した電気的なパルス信号を超音波パルス(音響パルス信号)に変換するとともに、外部の検体で反射された超音波エコーを電気的なエコー信号に変換する。超音波振動子21は、超音波振動子をメカ的に走査させるものであってもよいし、複数の超音波振動子を電子的に走査させるものであってもよい。
超音波観測装置3は、送受信部31、信号処理部32、表示画像生成部33、バッファ34、実行可能コマンド選択部35(コマンド選択部)、実行コマンド選択部36、コマンド画像生成部37、記憶部38および制御部39を有する。
送受信部31は、超音波振動子21との間で電気信号の送受信を行う。送受信部31は、超音波振動子21と電気的に接続され、電気的なパルス信号を超音波振動子21へ送信するとともに、超音波振動子21から電気的な受信信号であるエコー信号を受信する。具体的には、送受信部31は、予め設定された波形および送信タイミングに基づいて電気的なパルス信号を生成し、この生成したパルス信号を超音波振動子21へ送信する。
送受信部31は、エコー信号を増幅する信号増幅部31aを有する。信号増幅部31aは、受信深度が大きいエコー信号ほど高い増幅率で増幅するSTC(Sensitivity Time Control)補正を行う。送受信部31は、信号増幅部31aによって増幅されたエコー信号に対してフィルタリング等の処理を施した後、A/D変換することによって時間ドメインのデジタル高周波(RF:Radio Frequency)信号を生成して出力する。
信号処理部32は、電気的なエコー信号に対する信号処理を行う。具体的には、信号処理部32は、エコー信号の振幅を輝度に変換して表示する超音波画像(観測画像)であるBモード画像データを生成する。信号処理部32は、デジタル信号に対してバンドパスフィルタ、対数変換、ゲイン処理、コントラスト処理等の公知の技術を用いた信号処理を行うことによってBモード画像データを生成する。Bモード画像は、色空間としてRGB表色系を採用した場合の変数であるR(赤)、G(緑)、B(青)の値を一致させたグレースケール画像である。
信号処理部32は、送受信部31から出力されるデジタルRF信号に対して順次信号処理を施して生成したBモード画像データを表示画像生成部33に出力するとともに、生成したBモード画像データをバッファ34に出力する。また、信号処理部32は、例えば操作装置4を介して画像のフリーズ指示信号の入力があった場合に、Bモード画像データをバッファ34から抽出し、抽出したBモード画像をフリーズ画像として表示画像生成部33に出力する。
表示画像生成部33は、信号処理部32により生成されたBモード画像データに対して、表示装置5における画像の表示レンジに応じて定まるデータステップ幅に応じたデータの間引きや、階調処理などの所定の処理を施した後、該処理後の信号を表示用の表示画像データとして出力する。また、表示画像生成部33は、コマンド画像生成部37が生成したコマンド画像と、超音波画像とを用いて表示画像データを生成する。具体的には、表示画像生成部33は、コマンド画像を超音波画像に重畳した表示画像データ、またはコマンド画像を超音波画像と並べて表示した表示画像データを生成する。
バッファ34は、例えばリングバッファを用いて実現され、信号処理部32により生成された一定量(所定フレーム数)のBモード画像を時系列に沿って記憶する。容量が不足すると(所定のフレーム数のBモード画像データを記憶すると)、最も古いBモード画像データを最新のBモード画像データで上書きすることで、最新のBモード画像を時系列順に所定フレーム数記憶する。
実行可能コマンド選択部35は、当該超音波観測装置3が実行する複数のコマンドのうち、操作装置4から入力される検出情報に応じて、実行可能なコマンドを実行可能コマンドとして選択する。実行可能コマンド選択部35は、例えば、記憶部38に記憶されている複数のコマンドから、操作装置4から入力される検出情報に応じてコマンドを抽出する。実行可能コマンド選択部35は、選択した実行可能コマンドに関する情報を、制御部39に出力する。
実行コマンド選択部36は、実行可能コマンド選択部35により選択されたコマンドから、操作装置4から入力される検出情報に応じて、実行するコマンドを選択する。実行コマンド選択部36は、選択したコマンドに関する情報を、制御部39に出力する。
コマンド画像生成部37は、実行可能コマンド選択部35が選択したコマンドを選択するために表示装置5に表示させるコマンド画像、操作装置4から入力される検出情報に基づく術者の手指の形状に応じた画像(座標に関する情報を含む)を生成する。コマンド画像生成部37は、生成したコマンド画像を表示画像生成部33に出力する。
記憶部38は、超音波診断システム1を動作させるための各種プログラム、および超音波診断システム1の動作に必要な各種パラメータ等を含むデータなどを記憶する。記憶部38は、コマンド情報記憶部38aを有する。
コマンド情報記憶部38aは、当該超音波観測装置3が実行する複数のコマンドを、操作装置4から入力される検出情報(術者の手指の形状および配置)と関連付けて記憶する。コマンド情報記憶部38aは、例えば、一または複数のコマンドと検出情報とを関係づけたテーブルを記憶する。
また、記憶部38は、超音波診断システム1の作動方法を実行するための作動プログラムを含む各種プログラムを記憶する。作動プログラムは、ハードディスク、フラッシュメモリ、CD−ROM、DVD−ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。なお、上述した各種プログラムは、通信ネットワークを介してダウンロードすることによって取得することも可能である。ここでいう通信ネットワークは、例えば既存の公衆回線網、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現されるものであり、有線、無線を問わない。
以上の構成を有する記憶部38は、各種プログラム等が予めインストールされたROM(Read Only Memory)、および各処理の演算パラメータやデータ等を記憶するRAM(Random Access Memory)等を用いて実現される。
制御部39は、制御機能を有するCPU(Central Processing Unit)や各種演算回路等を用いて実現される。制御部39は、記憶部38が記憶、格納する情報を記憶部38から読み出し、超音波診断システム1の作動方法に関連した各種演算処理を実行することによって超音波診断システム1を統括して制御する。
操作装置4は、表示部41と、タッチパネル42(入力受付部)と、検知センサ部43と、形状検出部44と、位置検出部45と、記憶部46と、制御部47と、を備える。
表示部41は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて構成される。表示部41は、例えば、制御部39,47を介して入力されるBモード画像データに対応する超音波画像や、操作にかかる各種情報を表示する。表示部41は、例えば表示装置5に表示される画像と同じ画像を表示する。
タッチパネル42は、表示部41の表示画面上に設けられ、外部からの物体の接触位置に応じた入力を受け付ける。具体的には、タッチパネル42は、術者が表示部41に表示される操作アイコンに従ってタッチ(接触)した位置を検出し、この検出したタッチ位置に応じた位置信号を含む操作信号を制御部47へ出力する。タッチパネル42は、表示部41が超音波画像や各種情報を表示することで、グラフィカルユーザインターフェース(GUI)として機能する。タッチパネルとしては、抵抗膜方式、静電容量方式および光学方式等があり、いずれの方式のタッチパネルであっても適用可能である。
検知センサ部43は、例えば、赤外線センサを用いて実現される。具体的には、検知センサ部43は、タッチパネル42の面上を含む領域に赤外光を照射し、術者の手などにより反射した赤外光を受光する。検知センサ部43は、検知した赤外光に係る情報(検知信号)を、形状検出部44および位置検出部45に出力する。
形状検出部44は、検知センサ部43から入力した検知信号に基づいて、形状を検出する。具体的には、形状検出部44は、検知信号の信号パターン、具体的には反射により受信した信号の信号パターンをもとに、記憶部46に記憶されている信号パターンとのパターンマッチングにより、手指の配置や形状を検出する。
位置検出部45は、検知センサ部43から入力した検知信号に基づいて、検出対象の位置を検出する。具体的には、位置検出部45は、検知信号をもとに検知センサ部43と術者の手指との距離を算出することで、タッチパネル42(表示部41)の表面(接触面)に対する術者の手の空間的な位置(以下、単に「術者の手の位置)という)を検出する。なお、術者の手の空間的な位置とは、タッチパネル42の接触面に対する相対的な位置(座標)であって、この相対的な位置は、表示部41が表示する画像(表示部)と対応付けられている。
検知センサ部43、形状検出部44および位置検出部45は検出部を構成し、該検出部が行う検出処理は、上述した赤外線を用いた処理を行なう場合は、例えば特許第4899806号公報が開示するような従来の手法を用いて行われる。また、手指の配置や形状、タッチパネル42(表示部41)に対する術者の手の位置の検出は、これに限らず、公知の手法により検出可能であって、例えば、タッチパネル42上の領域を撮像し、得られた画像をもとに、手指の配置や形状、タッチパネル42(表示部41)に対する術者の手の空間的な位置を検出するものであってもよい。
記憶部46は、操作装置4を動作させるための各種プログラム、および操作装置4の動作に必要な各種パラメータ等を含むデータなどを記憶する。各種プログラムは、ハードディスク、フラッシュメモリ、CD−ROM、DVD−ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。なお、上述した各種プログラムは、通信ネットワークを介してダウンロードすることによって取得することも可能である。ここでいう通信ネットワークは、例えば既存の公衆回線網、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現されるものであり、有線、無線を問わない。
記憶部46は、形状情報記憶部46aを有する。形状情報記憶部46aは、操作装置4を操作する術者の手指の形状パターンを記憶する。具体的には、形状情報記憶部46aは、検知信号により得られる信号パターンを手指の形状パターンと関係づけて記憶する。
以上の構成を有する記憶部46は、各種プログラム等が予めインストールされたROM(Read Only Memory)、および各処理の演算パラメータやデータ等を記憶するRAM(Random Access Memory)等を用いて実現される。
制御部47は、操作装置4全体を制御する。制御部47は、演算および制御機能を有するCPU(Central Processing Unit)や各種演算回路等を用いて実現される。
続いて、以上の構成を有する超音波診断システム1が行うコマンド実行処理について、図面を参照して説明する。図2は、本実施の形態1にかかる超音波診断システムが行うコマンド実行処理を説明するフローチャートである。なお、以下のコマンド実行処理では、表示画像生成部33において順次生成されるBモード画像が、少なくとも表示装置5にライブ表示されていることを前提に説明する。
まず、操作装置4の制御部47は、検知センサ部43から検知信号の入力があるか否かを判断する(ステップS101)。制御部47は、検知信号の入力がある場合(ステップS101:Yes)、ステップS102に移行する。これに対し、制御部47は、検知信号の入力がない場合(ステップS101:No)、ステップS101に戻り、検知信号の入力の確認を繰り返す。
ステップS102では、形状検出部44および位置検出部45が、検知信号をもとに、手指の配置や形状、タッチパネル42(表示部41)に対する術者の手の位置の検出を行う(検出ステップ)。形状検出部44および位置検出部45は、検出した手指の配置や形状、タッチパネル42(表示部41)に対する術者の手の位置(座標)を含む検出情報を制御部47に出力する。制御部47は、取得した検出情報を超音波観測装置3の制御部39に出力する(ステップS103)。なお、この時点では、術者の手は、タッチパネル42には触れていない。
超音波観測装置3では、制御部39が、操作装置4から検出情報の入力があるか否かを判断する(ステップS104)。制御部39は、検出情報の入力がないと判断した場合(ステップS104:No)、検出情報の入力の確認を繰り返す。これに対し、制御部39は、検出情報の入力があると判断した場合(ステップS104:Yes)、ステップS105に移行する。
ステップS105では、実行可能コマンド選択部35は、当該超音波観測装置3が実行する複数のコマンドのうち、操作装置4から入力される検出情報または当該超音波観測装置3の動作モードに応じて、実行可能なコマンドを実行可能コマンドとして選択する(コマンド選択ステップ)。ここで、動作モードとは、例えば、ライブ表示、フリーズ表示などのBモード画像の表示(観察)にかかる動作モードや、超音波の走査にかかる走査モードのことをいう。なお、後述する超音波内視鏡を備えた超音波内視鏡システムの場合は、被検体の体内画像の表示モードも含む。以下では、動作モードが、ライブ表示にかかる動作モードに設定されているものとして説明する。
本実施の形態1では、術者の手の位置(座標)と表示部41の表示画面に付与された座標とが対応付けられており、表示部41においてBモード画像を表示する領域内に術者の手が配置される場合と、Bモード画像を表示する領域外に術者の手が配置される場合とで、実行可能なコマンドが異なる。例えば、Bモード画像を表示する領域外に術者の手が配置される場合、実行可能なコマンドは、パルスドプラ(PW)モード、フロー(FLOW)モード、コントラストハーモニック(CH)モードおよびエラストグラフィ(ELST)モードなどの観察モードに関するコマンドが選択可能となる。
パルスドプラモードとは、設定された領域(サンプルボリューム)におけるドプラシフトを解析し、サンプルボリュームにおける血流の時間的変化情報(パルスドプラ波形)を取得するモードである。フローモードは、設定された領域(以下、フロー関心領域(ROI)ともいう)におけるドプラシフトを解析して血液の流れに関する血流情報を取得し、Bモード画像上に血流の方向に応じた色情報を重畳するモードである。コントラストハーモニックモードは、超音波造影剤からの高調波成分を画像化するモードである。エラストグラフィモードは、設定された領域(以下、エラスト関心領域(ROI)ともいう)における観測対象の硬さに関する情報を取得し、Bモード画像上に硬さに応じた色情報を重畳するモードである。
また、Bモード画像を表示する領域内に術者の手が配置される場合、実行可能なコマンドは、コメント入力モード、カーソル入力モード、Bモード画像の拡大、縮小、Bモード画像の追加、スクロール、ローテーションおよび距離計測などのBモード画像に対する処理モードに関するコマンドのいずれかが選択可能となる。
実行可能コマンド選択部35によるコマンド選択後、コマンド画像生成部37が、実行可能コマンド選択部35が選択したコマンドの表示用のコマンド画像を生成する(ステップS106:コマンド画像生成ステップ)。具体的には、コマンド画像生成部37は、コマンド情報記憶部38aを参照して、実行可能コマンド選択部35が選択したコマンドに応じた表示用のコマンド画像を取得し、表示用のコマンド画像データとして表示画像生成部33に出力する。
その後、表示画像生成部33は、コマンド画像生成部37から入力されたコマンド画像を、形状検出部44が検出した術者の手指の形状の画像(手指形状画像)とともに、Bモード画像データ(超音波画像)に重畳し、所定の信号処理を施して、表示画像データを生成するとともに、表示装置5に該表示画像データを表示させる処理を行う(ステップS107:表示画像生成ステップ)。
図3は、本実施の形態1にかかるコマンド実行処理における表示画像を説明する図であって、術者の手指が、タッチパネル42(表示部41)上においてBモード画像を表示する領域外に応じた位置に配置される場合に、表示装置5の表示部101に表示される画像を示す図である。表示部101には、Bモード画像を表示する超音波画像表示部102と、超音波画像表示部102とは異なる領域であって、コマンド画像等の各種情報を表示可能な情報表示部103と、を有する。超音波画像表示部102には、超音波振動子21の操作範囲のうち、設定された所定の領域である関心領域(ROI)の画像が表示されている。
例えば、術者の手指が、タッチパネル42(表示部41)上において人差し指を立てた状態で超音波画像表示部102の領域外に応じた位置にある場合に、図3に示すように、術者の手指の画像(ポインタ200)が、タッチパネル42上の位置に応じて配置され、実行可能コマンド選択部35により選択されたコマンドに応じたコマンド画像103a〜103dが、情報表示部103に表示されている。ここで、コマンド画像103aは、パルスドプラモードを示すコマンド画像であり、コマンド画像103bは、フローモードを示すコマンド画像であり、コマンド画像103cは、コントラストハーモニックモードを示すコマンド画像であり、コマンド画像103dは、エラストグラフィモードを示すコマンド画像である。
図4は、本実施の形態1にかかるコマンド実行処理における表示画像を説明する図であって、術者の手指が、タッチパネル42(表示部41)上においてBモード画像を表示する領域内に応じた位置に配置される場合に、表示装置5の表示部101に表示される画像を示す図である。例えば、術者の手指が、タッチパネル42(表示部41)上において人差し指を立てた状態で超音波画像表示部102の領域内に応じた位置にある場合、図4に示すように、術者の手指の画像(ポインタ200)が、タッチパネル42上の位置に応じて配置され、実行可能コマンド選択部35により選択されたコマンドに応じたコマンド画像102a,102bが、超音波画像表示部102上に表示されている。ここで、コマンド画像102aは、コメント入力モードを示すコマンド画像であり、コマンド画像102bは、カーソル入力モードを示すコマンド画像である。
図5は、本実施の形態1にかかるコマンド実行処理における表示画像を説明する図であって、術者の手指が、タッチパネル42(表示部41)上においてBモード画像を表示する領域内に応じた位置に配置される場合に、表示装置5の表示部101に表示される画像を示す図である。例えば、術者の手指が、タッチパネル42(表示部41)上において親指と人差し指とを近づけた状態で超音波画像表示部102上に応じた位置にある場合、図5に示すように、術者の手指の画像(ポインタ201)が、タッチパネル42上の位置に応じて配置され、実行可能コマンド選択部35により選択されたコマンドに応じたコマンド画像102cが、超音波画像表示部102上に表示されている。ここで、コマンド画像102cは、Bモード画像の拡大モード、または表示レンジを変更する表示レンジモードを示すコマンド画像である。
図6は、本実施の形態1にかかるコマンド実行処理における表示画像を説明する図であって、術者の手指が、タッチパネル42(表示部41)上においてBモード画像を表示する領域内に応じた位置に配置される場合に、表示装置5の表示部101に表示される画像を示す図である。例えば、術者の手指が、タッチパネル42(表示部41)上において親指と人差し指とを離した状態で超音波画像表示部102上に応じた位置にある場合、図6に示すように、術者の手指の画像(ポインタ202)が、タッチパネル42上の位置に応じて配置され、実行可能コマンド選択部35により選択されたコマンドに応じたコマンド画像102d,102eが、超音波画像表示部102上に表示されている。ここで、コマンド画像102dは、Bモード画像の縮小モードを示すコマンド画像であり、コマンド画像102eは、指定した二点間の距離を計測する距離計測モードまたは表示レンジモードを示すコマンド画像である。
なお、ポインタ200〜202は、手指の形状を示すことで、術者の意図している形状と合致しているかを確認できる点で好ましいが、これに限らず、矢印等の他の形状であってもよい。また、超音波画像表示部102上にポインタ201,202が存在する場合のコマンド画像の表示態様として、Bモード画像における超音波振動子21の像(図5,6では、超音波画像表示部102の上方の半円)から一定の距離以上離れた位置にコマンド画像を配置することにより、コマンド(コマンド画像)の誤選択を一層確実に防止することができる。
図2のフローチャートに戻り、制御部47は、検知センサ部43から新たな検知信号があれば(ステップS108:Yes)、ステップS102に戻り、上述した表示処理を繰り返す。一方で、制御部47は、検知センサ部43から新たな検知信号がなければ(ステップS108:No)、ステップS109に移行する。
ステップS109では、制御部47が、タッチパネル42から操作信号が入力されたか否かを判断する。ここで、制御部47は、タッチパネル42から操作信号が入力されていないと判断すると(ステップS109:No)、ステップS107に戻り、検知信号および操作信号の確認処理を繰り返す。一方、制御部47は、タッチパネル42から操作信号が入力されていると判断すると(ステップS109:Yes)、操作信号に応じた操作情報を、制御部39に出力する(ステップS110)。
超音波観測装置3では、制御部39が、操作装置4から操作情報の入力があるか否かを判断する(ステップS111)。制御部39は、操作情報の入力がないと判断した場合(ステップS111:No)、操作情報の入力の確認を繰り返す。これに対し、制御部39は、検出情報の入力があると判断した場合(ステップS111:Yes)、ステップS112に移行する。
ステップS112では、実行コマンド選択部36が、タッチパネル42における入力位置の座標と、コマンド画像の表示位置との座標と、をもとに、選択されたコマンド画像を判定し、該判定したコマンド画像に応じたコマンドを実行するコマンドとして選択する。実行コマンド選択部36は、選択したコマンドに関する情報を、制御部39に出力する。制御部39は、選択されたコマンドを実行する制御を行う(ステップS113)。
例えば、図3に示す状態において、コマンド画像103bが選択されると、制御部39は、観察モードをフローモードに切り替える。フローモードに切り替え後、コマンド選択処理を行なうことがある。この場合、上述したステップS102〜S113を実行することで、さらなるコマンド実行処理を行なうことができる。
図7は、本実施の形態1にかかるコマンド実行処理における表示画像を説明する図であって、フローモードに設定された状態において、術者の手指が、タッチパネル42(表示部41)上においてBモード画像を表示する領域外に応じた位置に配置される場合に、表示装置5の表示部101に表示される画像を示す図である。
例えば、術者の手指が、タッチパネル42(表示部41)上において人差し指を立てた状態で超音波画像表示部102の領域外に応じた位置にある場合、図7に示すように、術者の手指の画像(ポインタ200)が、タッチパネル42上の位置に応じて配置され、実行可能コマンド選択部35により選択されたコマンドに応じたコマンド画像103c〜103fが、情報表示部103に表示されている。ここで、コマンド画像103eは、Bモード画像表示モードを示すコマンド画像であり、コマンド画像103fは、パルスドプラモードを示すコマンド画像である。上述したタッチパネル42の操作により、コマンドが選択されると、制御部39により、選択されたコマンドに応じた観察モードに切り替えられる。
図8は、本実施の形態1にかかるコマンド実行処理における表示画像を説明する図であって、術者の手指が、タッチパネル42(表示部41)上において超音波画像表示部102の領域外に応じた位置にある場合、表示装置5の表示部101に表示される画像を示す図である。例えば、術者の手指が、タッチパネル42(表示部41)上において親指と人差し指とを近づけた状態で超音波画像表示部102の領域内に応じた位置にある場合、図8に示すように、術者の手指の画像(ポインタ201)が、タッチパネル42上の位置に応じて配置され、実行可能コマンド選択部35により選択されたコマンドに応じたコマンド画像103g,103hが、超音波画像表示部102上に表示されている。ここで、コマンド画像103gは、血流の流速レンジを変更する流速レンジ変更モードを示すコマンド画像であり、コマンド画像103hは、関心領域を拡大する関心領域拡大モードを示すコマンド画像である。
図9は、本実施の形態1にかかるコマンド実行処理における表示画像を説明する図であって、術者の手指が、タッチパネル42(表示部41)上において超音波画像表示部102の領域外に応じた位置にある場合に、表示装置5の表示部101に表示される画像を示す図である。例えば、術者の手指が、タッチパネル42(表示部41)上において親指と人差し指とを離した状態で超音波画像表示部102の領域内に応じた位置にある場合、図9に示すように、術者の手指の画像(ポインタ202)が、タッチパネル42上の位置に応じて配置され、実行可能コマンド選択部35により選択されたコマンドに応じたコマンド画像103g,103i,103jが、超音波画像表示部102上に表示されている。ここで、コマンド画像103iは、関心領域を縮小する関心領域縮小モードを示すコマンド画像であり、コマンド画像103jは、フローモードにおいて、指定した二点間の距離を計測する距離計測モードを示すコマンド画像である。
図8,9においても、上述したタッチパネル42の操作により、コマンドが選択されると、制御部39により、選択されたコマンドに応じたモードに切り替えられる。各モードに切り替え後、モードに応じた処理をさらに行う。例えば、コメント入力モードでは、コメント入力位置を指示するための画像が超音波画像表示部102に表示され、術者がタッチパネル42を介して選択指示することにより、コメント入力位置を指定し、その後キーボードや音声入力によりコメントを入力することができる。カーソル入力モードでは、カーソル入力位置を指示するための画像が超音波画像表示部102に表示され、術者がタッチパネル42を介して選択指示することにより、カーソル入力位置を指定することができる。
また、Bモード画像の拡大モードでは、画像を拡大するための入力受付モードに切り替えられ、術者がタッチパネル42を介して指示、例えばピンチアウトすることにより、画像を拡大することができる。これに対して、Bモード画像の縮小モードでは、画像を縮小するための入力受付モードに切り替えられ、術者がタッチパネル42を介して指示、例えばピンチインすることにより、画像を縮小することができる。
距離計測モードでは、計測を行う始点および終点の指示を受け付ける入力受付モードに切り替えられ、術者がタッチパネル42を介して指示、例えば親指と人差し指でBモード画像上で二点を指示することにより、該指示された二点を始点および終点とする直線の距離を計測することができる。
また、流速表示レンジ変更モードでは、流速レンジを変更するための画像が情報表示部103に表示され、術者がタッチパネル42を介して選択指示することにより、流速レンジを変更することができる。
また、関心領域拡大モードでは、フローモードの設定領域としての関心領域(ROI)を拡大するための入力受付モードに切り替えられ、術者がタッチパネル42を介して指示、例えばピンチアウトすることにより、ROIを拡大することができる。これに対して、関心領域縮小モードでは、フローモードの設定領域としての関心領域(ROI)を縮小するための入力受付モードに切り替えられ、術者がタッチパネル42を介して指示、例えばピンチインすることにより、ROIを縮小することができる。
以上説明した本実施の形態1によれば、検出した手指の配置や形状、およびタッチパネル42(表示部41)に対する術者の手の位置に基づいて、実行可能なコマンドを選択して表示装置5に表示するとともに、タッチパネル42のタッチ操作により実行するコマンドを選択するようにしたので、モニタ(表示部101)から視線をそらすことなく高い自由度で入力操作を行うことができる。また、本実施の形態1によれば、表示部101を確認しながらコマンドを選択、実行することができるため、誤操作を抑制するという効果を得ることができる。
なお、上述した実施の形態1では、観察モードとしてパルスドプラモード、フローモード、コントラストハーモニックモードおよびエラストグラフィモードに関するコマンドが選択されるものとして説明したが、これに限らず、例えば、ティシューハーモニックモードなどであってもよい。
また、上述した実施の形態1では、形状検出部44および位置検出部45が、操作装置4に設けられるものとして説明したが、超音波観測装置3または表示装置5に設けられていてもよい。この場合、形状情報記憶部46aも記憶部38に記憶されていることが好ましい。
また、上述した実施の形態1では、表示部41が、表示装置5に表示される画像と同じ画像を表示するものとして説明したが、異なる画像や、操作を案内する画像を表示してもよいし、画像を表示しないものであってもよい。
(実施の形態1の変形例)
次に、本発明の実施の形態1の変形例について図面を参照して説明する。図10は、本実施の形態1の変形例にかかる超音波診断システムの構成を示すブロック図である。上述した実施の形態1では、検出した手指の配置や形状、およびタッチパネル42(表示部41)に対する術者の手の位置に基づいて、実行可能なコマンドを選択して表示するものとして説明したが、本変形例では、さらに検出した手指とタッチパネル42との間の距離に応じて、コマンド画像を強調表示する。
図10に示す超音波診断システム1aは、上述した超音波診断システム1の構成に加えて、操作装置4が距離検出部48を備える。距離検出部48は、検知センサ部43の検知信号をもとに、術者の指先と、タッチパネル42の表面との間の距離が最少となる距離を検出する。また、本変形例では、記憶部38が、術者の手指とタッチパネル42の表面との間の最短距離に関する閾値を記憶する。
続いて、以上の構成を有する超音波診断システム1aが行うコマンド実行処理について、図面を参照して説明する。図11は、本実施の形態1の変形例にかかる超音波診断システムが行うコマンド実行処理を説明するフローチャートである。まず、上述した実施の形態1と同様に、操作装置4の制御部47が、検知センサ部43から検知信号の入力があるか否かを判断する(ステップS201)。制御部47は、検知信号の入力がある場合(ステップS201:Yes)、ステップS202に移行する。これに対し、制御部47は、検知信号の入力がない場合(ステップS201:No)、ステップS201に戻り、検知信号の入力の確認を繰り返す。
ステップS202では、形状検出部44および位置検出部45が、検知信号をもとに、手指の配置や形状、タッチパネル42(表示部41)に対する術者の手の位置の検出を行う。形状検出部44および位置検出部45は、検出した手指の配置や形状、タッチパネル42(表示部41)に対する術者の手の位置を含む検出情報を、制御部47を介して制御部39に出力する(ステップS203)。なお、この時点では、術者の手は、タッチパネル42には触れていない。
超音波観測装置3では、制御部39が、操作装置4から検出情報の入力があるか否かを判断する(ステップS204)。制御部39は、検出情報の入力がないと判断した場合(ステップS204:No)、検出情報の入力の確認を繰り返す。これに対し、制御部39は、検出情報の入力があると判断した場合(ステップS204:Yes)、ステップS205に移行する。
ステップS205では、実行可能コマンド選択部35は、当該超音波観測装置3が実行する複数のコマンドのうち、操作装置4から入力される検出情報または当該超音波観測装置3の動作モードに応じて、実行可能なコマンドを実行可能コマンドとして選択する。
実行可能コマンド選択部35によるコマンド選択後、コマンド画像生成部37が、実行可能コマンド選択部35が選択したコマンドの表示用のコマンド画像を生成する(ステップS206)。
その後、距離検出部48が、検知センサ部43の検知信号をもとに、術者の指先と、タッチパネル42の表面との間の距離が最小となる距離(最短距離)を検出する。図12は、本実施の形態1の変形例にかかるコマンド実行処理における距離検出処理を説明する図である。距離検出部48は、図12に示すように、術者の指先と、タッチパネル42の表面との間の最短距離である距離dを検出する。距離検出部48による距離算出は、例えば、赤外線を用いた公知の方法などにより算出される。距離検出部48が検出した距離dは、制御部47を介して制御部39に出力される。
制御部39は、距離検出部48が検出した距離dと、記憶部38に記憶されている閾値とを比較して、術者の指先と、タッチパネル42の表面との相対的な位置関係を判断する(ステップS207,S208)。ステップS207では、制御部39が、距離dと第1閾値d1とを比較し、距離dが第1閾値d1より小さいか否かを判断する。制御部39は、距離dが第1閾値d1以上であると判断すると(ステップS207:No)、ステップS209に移行する。これに対し、制御部39は、距離dが第1閾値d1より小さいと判断した場合(ステップS207:Yes)、ステップS207に移行する。
ステップS208では、制御部39が、距離dと第2閾値d2(<d1)とを比較し、距離dが第2閾値d2より小さいか否かを判断する。制御部39は、距離dが第2閾値d2以上であると判断すると(ステップS208:No)、ステップS209に移行する。これに対し、距離dが第2閾値d2より小さいと判断した場合(ステップS208:Yes)、ステップS210に移行する。
ステップS209では、制御部39が、複数のコマンド画像103のうち、手指の位置により選択可能なコマンド画像を強調表示する等、実行コマンド画像に対して強調表示するコマンド画像の設定を行う。ステップS207で判定されたように、術者の指先と、タッチパネル42の表面との間の距離dが、第2閾値d2以上であって第1閾値d1より小さい場合、制御部39は、手指と最短距離に位置する座標を含むコマンド画像と、該コマンド画像と空間的に隣接するコマンド画像を選択し、該選択したコマンド画像を絞り込み表示(強調表示)する設定を行う。
また、ステップS210においても、制御部39が、実行コマンド画像に対して強調表示するコマンド画像の設定を行う。ステップS208で判定されたように、術者の指先と、タッチパネル42の表面との間の距離dが、第2閾値d2より小さい場合、術者の指先と、タッチパネル42の表面とが接近した状態となっているため、制御部39は、手指と最短距離に位置する座標を含むコマンド画像のみを強調表示する設定を行う。
表示画像生成部33は、コマンド画像生成部37から入力されたコマンド画像を、形状検出部44が検出した術者の手指の形状の画像とともにBモード画像データに重畳し、強調表示設定されているコマンド画像を強調表示するように表示画像データを生成するとともに、表示装置5に該表示画像データを表示させる処理を行う(ステップS211)。
図13は、本実施の形態1の変形例にかかるコマンド実行処理における表示画像を説明する図であって、距離dが、第2閾値d2以上であって第1閾値d1より小さい場合に、表示装置5の表示部101に表示される画像を示す図である。なお、図13では、術者の手指が、タッチパネル42(表示部41)上においてBモード画像を表示する領域外に応じた位置に配置される場合に、表示装置5の表示部101に表示される画像を示す図(図3参照)を用いて説明する。例えば、ポインタ200がコマンド画像103c上に位置する場合、制御部39によって、コマンド画像103cと、該コマンド画像103cに隣接するコマンド画像(コマンド画像103b,103d)とが強調表示対象のコマンド画像として設定される。表示画像生成部33は、設定に応じて、図13に示すように、コマンド画像103b〜103dを強調表示した画像を生成する。
図14は、本実施の形態1の変形例にかかるコマンド実行処理における表示画像を説明する図であって、距離dが、第2閾値d2より小さい場合に、表示装置5の表示部101に表示される画像を示す図である。なお、図14においても、術者の手指が、タッチパネル42(表示部41)上においてBモード画像を表示する領域外に応じた位置に配置される場合に、表示装置5の表示部101に表示される画像を示す図(図3参照)を用いて説明する。例えば、ポインタ200がコマンド画像103c上に位置する場合、制御部39によって、コマンド画像103cが強調表示対象のコマンド画像として設定される。表示画像生成部33は、設定に応じて、図14に示すように、コマンド画像103cを強調表示した画像を生成する。
図11のフローチャートに戻り、制御部47は、検知センサ部43から新たな検知信号があれば(ステップS212:Yes)、ステップS202に戻り、上述した表示処理を繰り返す。一方で、制御部47は、検知センサ部43から新たな検知信号がなければ(ステップS212:No)、ステップS213に移行する。
ステップS213では、制御部39が、タッチパネル42から操作信号が入力されたか否かを判断する。ここで、制御部39は、タッチパネル42から操作信号が入力されていないと判断すると(ステップS213:No)、ステップS212に戻り、検知信号および操作信号の確認処理を繰り返す。一方、制御部39は、タッチパネル42から操作信号が入力されていると判断すると(ステップS213:Yes)、操作信号に応じた操作情報を、制御部39に出力する(ステップS214)。
超音波観測装置3では、制御部39が、操作装置4から操作情報の入力があるか否かを判断する(ステップS215)。制御部39は、操作情報の入力がないと判断した場合(ステップS215:No)、操作情報の入力の確認を繰り返す。これに対し、制御部39は、検出情報の入力があると判断した場合(ステップS215:Yes)、ステップS216に移行する。
ステップS216では、実行コマンド選択部36が、タッチパネル42における入力位置の座標と、コマンド画像の表示位置との座標と、をもとに、選択されたコマンド画像を判定し、該判定したコマンド画像に応じたコマンドを実行するコマンドとして選択する。実行コマンド選択部36は、選択したコマンドに関する情報を、制御部39に出力する。制御部39は、選択されたコマンドを実行する制御を行う(ステップS217)。
以上説明した本変形例によれば、上述した実施の形態1と同様に、検出した手指の配置や形状、およびタッチパネル42(表示部41)に対する術者の手の位置に基づいて、実行可能なコマンドを選択して表示装置5に表示するとともに、タッチパネル42のタッチ操作により実行するコマンドを選択するようにしたので、モニタ(表示部101)から視線をそらすことなく高い自由度で入力操作を行うことができる。また、本実施の形態1によれば、表示部101を確認しながらコマンドを選択、実行することができるため、誤操作を抑制するという効果を得ることができる。
また、本変形例によれば、術者の指先の位置に応じて、コマンド画像を強調表示するようにしたので、選択するコマンド画像の視認性を向上し、所望のコマンド画像を一層確実に選択することができる。
なお、本変形例では、術者の指がタッチパネル42に接触したことに応じて、操作信号が出力され、該操作信号の位置情報(座標情報)に応じて実行コマンドが選択されるものとして説明したが、例えば、タッチパネル42(操作面)と術者の指先との距離が、所定値(<第2閾値d2)以下である場合に、ポインタ200が重畳するコマンド画像(術者の手指の位置(座標)に応じたコマンド画像)に応じたコマンドを実行コマンドとして選択するようにしてもよい。また、例えば、タッチパネル42と術者の指先との距離が、所定値(<第2閾値d2)以下であり、指先の位置に応じた座標が、コマンド画像103cに最も近い場合に、術者によるタッチ位置がコマンド画像103c上ではなくても、コマンド画像103cに応じたコマンドを実行コマンドとして選択するようにしてもよい。
また、本変形例では、第1および第2閾値を用いるものとして説明したが、いずれか一方の閾値を用いて絞り込み表示を行ってもよい。
(実施の形態2)
次に、本発明の実施の形態2について説明する。図15は、本実施の形態2にかかる超音波内視鏡システムの構成を示すブロック図である。なお、上述した構成と同一の構成には同一の符号を付して説明する。上述した実施の形態1では、超音波を用いて観測対象を観測するための装置である超音波診断システムを例に説明したが、本実施の形態2では、上述した超音波信号を送受信する超音波振動子と、光学領域を撮像する撮像素子とが併設された超音波内視鏡を備えた超音波観察システムとしての超音波内視鏡システムを例に説明する。
超音波内視鏡システム1bは、超音波パルスを出力して反射した超音波エコーを受信するとともに、超音波パルスの出力領域を含む撮像領域を撮像し、撮像信号として取得する超音波内視鏡6と、超音波内視鏡6が取得した超音波エコーに基づく画像を生成する超音波観測装置3と、複数の入力指示情報を同時に受付可能であり、受け付けた情報を超音波観測装置3へ出力して該超音波観測装置3を操作する操作装置4と、超音波内視鏡6が取得した超音波エコーおよび撮像信号に基づく画像をそれぞれ生成するプロセッサ7と、プロセッサ7により生成された超音波画像データおよび/または体内画像データを含む各種情報を表示する表示装置5と、超音波内視鏡6の先端から出射する照明光を発生する光源装置8と、フリーズ指示信号を含む各種の指示入力を行うための入力装置(例えばフットスイッチ9)と、を備える。
超音波内視鏡6は、被検体の体腔内に挿入することによって被検体の体内画像を撮像する撮像部61と、観測対象へ超音波パルスを出力するとともに、観測対象によって反射された超音波エコーを受信する超音波振動子21と、を先端に有する。
撮像部61は、光を受光して光電変換を行うことにより撮像信号を生成する画素が2次元状に配列された撮像素子を用いて実現される。撮像素子としては、例えばCCD(Charge Coupled Device)イメージセンサや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサが挙げられる。
プロセッサ7は、映像処理部71、信号処理部72、PinP(Picture in Picture)制御部73、バッファ74、入力部75、記憶部76および制御部77を有する。
映像処理部71は、撮像部61との間で電気信号の送受信を行う。映像処理部71は、撮像部61と電気的に接続され、撮像タイミングなどの撮像条件を撮像部61に送信するとともに、撮像部61が生成した撮像信号を受信する。
信号処理部72は、映像処理部71が受信した撮像信号をもとに、表示装置5が表示する体内画像データを生成する。信号処理部72は、撮像信号に対して、所定の画像処理を実行して体内画像を含む体内画像データを生成する。体内画像(観測画像)は、色空間としてRGB表色系を採用した場合の変数であるR、G、Bの値をそれぞれ有するカラー画像である。
信号処理部72は、映像処理部71から出力される撮像信号に対して順次信号処理を施して生成した体内画像データをバッファ74に出力する。また、信号処理部72は、フットスイッチ9の押下により体内画像のフリーズ指示信号が入力された場合などに、体内画像データをバッファ74から抽出し、抽出した体内画像をフリーズ画像としてPinP制御部73に出力する。
PinP制御部73は、バッファ74に記憶された体内画像データを取得し、該取得した体内画像データに対して、表示装置5における画像の表示レンジに応じて定まるデータステップ幅に応じたデータの間引きや、階調処理などの所定の処理を施した後、該処理後の信号を表示用の体内画像データ(通常観察モードの画像データ)として出力する。また、PinP制御部73は、この表示用の体内画像データと、超音波観測装置3から送信されるBモード画像データ(超音波観察モードの画像データ)とを、表示装置5に同時に表示するための制御を行う。例えば、PinP制御部73は、体内画像上や体内画像の周囲に、該体内画像より小さいサイズのBモード画像を表示するような表示画像データを生成し、生成した表示画像データの表示制御を行ったり、体内画像またはBモード画像を表示装置5にライブ表示させる一方、体内画像またはBモード画像のうちフリーズ指示により選択されたフリーズ画像を表示装置5に表示させる表示制御を行ったりする。
バッファ74は、例えばリングバッファを用いて実現され、信号処理部72により生成された一定量(所定フレーム数)の体内画像データを時系列に沿って記憶する。容量が不足すると(所定のフレーム数の体内画像データを記憶すると)、最も古い体内画像データを最新の体内画像データで上書きすることで、最新の体内画像を時系列順に所定フレーム数記憶する。
入力部75は、フットスイッチ9や、トラックボールキーボードなどの入力装置からの操作指示信号の入力を受け付け、制御部77に出力する。入力部75は、例えばフットスイッチ9が押下され、操作指示信号が入力された場合、該フットスイッチ9に割り当てられた機能、例えばフリーズ指示を含む指示信号を制御部77に出力する。
記憶部76は、超音波内視鏡システム1bを動作させるための各種プログラム、および超音波内視鏡システム1bの動作に必要な各種パラメータ等を含むデータなどを記憶する。また、記憶部76は、プロセッサ7や超音波内視鏡システム1bの作動方法を実行するための作動プログラムを含む各種プログラムを記憶する。作動プログラムは、ハードディスク、フラッシュメモリ、CD−ROM、DVD−ROM、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。なお、上述した各種プログラムは、通信ネットワークを介してダウンロードすることによって取得することも可能である。ここでいう通信ネットワークは、例えば既存の公衆回線網、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現されるものであり、有線、無線を問わない。
以上の構成を有する記憶部76は、各種プログラム等が予めインストールされたROM(Read Only Memory)、および各処理の演算パラメータやデータ等を記憶するRAM(Random Access Memory)等を用いて実現される。
制御部77は、制御機能を有するCPU(Central Processing Unit)や各種演算回路等を用いて実現される。制御部77は、記憶部76が記憶、格納する情報を記憶部76から読み出し、超音波観測装置3を含む超音波内視鏡システム1bの作動方法に関連した各種演算処理を実行することによって超音波内視鏡システム1bを統括して制御する。
光源装置8は、光源81と、光源ドライバ82と、を備える。
光源81は、照明光を出射する光源や、一または複数のレンズ等を用いて構成され、光源ドライバ82の制御のもと、光源の駆動により光(照明光)を出射する。光源81が発生した照明光は、ライトガイド601を経由して超音波内視鏡6の先端から被写体に向けて出射される。
光源ドライバ82は、制御部77の制御のもと、光源81に対して電流を供給することにより、照明光を出射させる。制御部77は、光源ドライバ82の駆動を制御することにより、光源81に供給する電力量を制御するとともに、光源81の駆動タイミングを制御する。
フットスイッチ9は、足により踏み込むことによって信号の入力を受け付けるバーを有する。フットスイッチ9は、術者がバーを踏み込むことで、画像のフリーズ指示にかかる操作入力を受け付け、操作信号を入力部75に出力する。
本実施の形態2では、PinP制御部73が、上述した実施の形態1または変形例にかかる超音波画像データ(コマンド画像を含む)と、撮像部61により撮像された体内画像データとを表示装置5に表示させるための制御を行う。なお、コマンド実行処理は、上述した実施の形態1または変形例のような、超音波観察モードにおけるコマンド実行処理であってもよいし、通常観察モードにおけるコマンド実行処理であってもよい。通常観察モードの場合は、上述した表示部101と同様に、体内画像を表示する体内画像表示部と、体内画像表示部および上述した表示部101とは異なる領域であって、通常観察モードにかかるコマンド画像等の各種情報を表示可能な情報表示部と、を設けて、術者の手指の配置により、実行可能コマンドを選択して表示する。
通常観察モードにおけるコマンドとしては、体内画像表示部上に術者の手指が配置された場合、例えば、コメント入力モード、カーソル入力モード、体内画像の拡大モード、縮小モード、体内画像における距離計測モードなどが挙げられ、情報表示部上に術者の手指が配置された場合、例えば、ライブ表示画像モード、フリーズ画像表示モードなどが挙げられる。また、通常観察モードと超音波観察モードとの切り替えのトリガとなる信号を、例えばフットスイッチ9の押下により出力するものであってもよいし、超音波内視鏡6の操作部(図示せず)に設けられたボタンの押下により出力するものであってもよい。
通常観察モードにおいても、上述した実施の形態1および変形例に示したフローチャートに応じて、実行可能コマンドの選択、タッチパネル42の操作による実行コマンドの選択を行うことができる。例えば、図2に示すフローチャートのステップS102において、形状検出部44および位置検出部45が、検知信号をもとに、手指の配置や形状、タッチパネル42(表示部41)に対する術者の手の位置の検出を行うとともに、制御部39が観察モードの判定を行い、ステップS105において、実行可能コマンド選択部35が、手指の配置や形状、位置、観察モードに応じて実行可能なコマンドを選択する。なお、タッチパネル42による実行コマンドの選択は、フットスイッチ9の押下や、超音波内視鏡6の操作部のボタンによる押下に置き換えてもよい。
以上説明した本実施の形態2によれば、上述した実施の形態1と同様に、検出した手指の配置や形状、およびタッチパネル42(表示部41)に対する術者の手の位置に基づいて、実行可能なコマンドを選択して表示装置5に表示するとともに、タッチパネル42のタッチ操作により実行するコマンドを選択するようにしたので、モニタ(表示部101)から視線をそらすことなく高い自由度で入力操作を行うことができる。また、本実施の形態2によれば、表示部101を確認しながらコマンドを選択、実行することができるため、誤操作を抑制するという効果を得ることができる。
また、本実施の形態2では、表示装置5およびフットスイッチ9がプロセッサ7側に接続されているものとして説明したが、超音波観測装置3に接続させるものであってもよいし、プロセッサ7および超音波観測装置3の両方に接続されるものであってもよい。
また、本実施の形態2では、PinP制御部73がプロセッサ7に設けられているものとして説明したが、超音波観測装置3に設けられるものであってもよい。
また、本実施の形態2では、内視鏡を用いる超音波観察システムとして説明したが、例えば、観測領域を撮影する定点カメラと、上述した超音波診断システム1,1aとを備えた超音波観察システムなどであっても適用可能である。
また、上述した実施の形態1,2および変形例では、観測対象が生体組織であることを例に説明したが、材料の特性を観測する工業用の内視鏡であっても適用できる。本発明にかかる観測装置は、体内、体外を問わず適用可能である。また、超音波のほか、赤外線などを照射して観測対象の信号を送受信するものであってもよい。
また、上述した実施の形態1,2および変形例では、術者(操作者)によらず実行可能コマンドが選択されることを前提に説明したが、例えば、操作者ごとに選択する実行可能コマンドを記憶部38などに登録しておけば、各操作者に応じた実行可能コマンドを選択することができ、個々の操作に応じたコマンド選択処理を行なうことができる。また、観察モードごとに手指の形状(パターン)を記憶部38などに記憶して、該手指の形状によりモードを切り替えるものであってもよい。例えば、手指の形状に応じて、表示装置5の表示部に超音波画像のみを表示させたり、体内画像のみを表示させたりする表示モードの切り替えを行ってもよい。
上述した実施の形態1,2および変形例では、タッチパネル42(表示部41)の表面(接触面)を操作面として、該操作面に対する術者の手指の空間的な位置を検出するものとして説明したが、これに限らず、検出部によって所定の面(例えば操作卓の上面)を操作面とし、該操作面に対する術者の手指の空間的な位置(座標)と、表示装置5が表示する画像の位置(座標)との位置関係を対応付けて検出するものであればよい。
このように、本発明は、特許請求の範囲に記載した技術的思想を逸脱しない範囲内において、様々な実施の形態を含みうるものである。
以上のように、本発明にかかる医療用診断装置、超音波観察システム、医療用診断装置の作動方法および医療用診断装置の作動プログラムは、モニタから視線をそらすことなく高い自由度で入力操作を行うのに有用である。
1,1a 超音波診断システム
1b 超音波内視鏡システム
2 超音波プローブ
3 超音波観測装置
4 操作装置
5 表示装置
6 超音波内視鏡
7 プロセッサ
8 光源装置
9 フットスイッチ
21 超音波振動子
31 送受信部
32,72 信号処理部
33 表示画像生成部
34,74 バッファ
35 実行可能コマンド選択部(コマンド選択部)
36 実行コマンド選択部
37 コマンド画像生成部
38,46,76 記憶部
38a コマンド情報記憶部
39,47,77 制御部
41 表示部
42 タッチパネル
43 検知センサ部
44 形状検出部
45 位置検出部
46a 形状情報記憶部
48 距離検出部
61 撮像部
71 映像処理部
73 PinP制御部
75 入力部

Claims (15)

  1. 観測対象の画像を生成するための信号を取得し、取得した前記信号に基づく観測画像を外部の表示装置に表示させて診断を行うための医療用診断装置であって、
    術者の手指の形状、および前記術者の手指の空間的な位置を検出する検出部と、
    前記検出部により検出された前記術者の手指の形状および前記空間的な位置に応じて、当該医療用診断装置が実行可能な一または複数のコマンドを選択する実行可能コマンド選択部と、
    前記実行可能コマンド選択部が選択したコマンドに応じたコマンド画像、および前記術者の手指の形状を示す手指形状画像を生成するコマンド画像生成部と、
    前記コマンド画像生成部が生成したコマンド画像、前記手指形状画像および前記観測画像を用いて表示画像を生成する表示画像生成部と、
    を備えたことを特徴とする医療用診断装置。
  2. 前記術者の手指の空間的な位置と、前記コマンド画像の表示位置とに応じて実行対象のコマンドを選択する実行コマンド選択部をさらに備えたことを特徴とする請求項1に記載の医療用診断装置。
  3. 前記検出部は、所定の操作面と前記術者の手指との間の最短距離をさらに検出することを特徴とする請求項1に記載の医療用診断装置。
  4. 前記表示画像生成部は、前記検出部が検出した前記最短距離が、該最短距離にかかる閾値より小さい場合に、少なくとも前記術者の手指の位置に応じた前記コマンド画像を強調表示する表示画像を生成することを特徴とする請求項3に記載の医療用診断装置。
  5. 前記表示画像生成部は、前記最短距離が、前記閾値より小さく、かつ該閾値より小さい第2閾値以上の場合に、前記術者の手指の位置に応じた前記コマンド画像と、該コマンド画像と空間的に隣接するコマンド画像を強調表示する表示画像を生成し、前記最短距離が、前記第2閾値より小さい場合に、前記術者の手指の位置に応じた前記コマンド画像を強調表示する表示画像を生成することを特徴とする請求項4に記載の医療用診断装置。
  6. 前記実行コマンド選択部は、前記最短距離が所定値以下である場合に、前記術者の手指の空間的な位置と、前記コマンド画像の表示位置との相対的な位置関係に応じて実行対象のコマンドを選択することを特徴とする請求項3に記載の医療用診断装置。
  7. 前記観測画像および前記コマンド画像を表示可能な表示部と、
    前記表示部の表示面上に設けられ、前記術者の手指が接触する接触面を有し、該手指の接触位置に応じた入力を受け付けるタッチパネルと、
    をさらに備えたことを特徴とする請求項2に記載の医療用診断装置。
  8. 前記実行コマンド選択部は、前記タッチパネルが受け付けた前記術者の手指の接触位置と、前記コマンド画像の表示位置とに応じて実行対象のコマンドを選択することを特徴とする請求項7に記載の医療用診断装置。
  9. 前記実行可能コマンド選択部は、前記術者の手指の形状、前記空間的な位置および動作モードに応じて実行可能な一または複数のコマンドを選択することを特徴とする請求項1に記載の医療用診断装置。
  10. 前記表示画像生成部は、前記コマンド画像を、前記術者の手指の空間的な位置に応じて前記観測画像上に重畳して表示する表示画像、または前記観測画像と並べて表示する表示画像を生成することを特徴とする請求項1に記載の医療用診断装置。
  11. 当該医療用診断装置が実行する複数のコマンドと、前記術者の手指の形状および前記空間的な位置と、を関連付けて記憶する記憶部をさらに備えたことを特徴とする請求項1に記載の医療用診断装置。
  12. 前記記憶部は、前記実行可能コマンド選択部が選択するコマンドを術者ごとに記憶することを特徴とする請求項1に記載の医療用診断装置。
  13. 観測対象へ超音波を送信するとともに、前記観測対象に対して送信した超音波が前記観測対象によって反射された超音波エコーを電気信号に変換したエコー信号を生成する超音波振動子と、
    受光した光信号を電気信号に変換した撮像信号を生成する撮像部と、
    前記エコー信号および前記撮像信号の少なくとも一方に基づく複数の観測画像を表示する表示装置と、
    術者の手指の形状、および前記術者の手指の空間的な位置を検出する検出部と、
    前記検出部により検出された前記術者の手指の形状および前記空間的な位置に応じて、実行可能な一または複数のコマンドを選択する実行可能コマンド選択部と、
    前記実行可能コマンド選択部が選択したコマンドに応じたコマンド画像、および前記術者の手指の形状を示す手指形状画像を生成するコマンド画像生成部と、
    前記コマンド画像生成部が生成したコマンド画像、前記手指形状画像および前記観測画像を用いて表示画像を生成する表示画像生成部と、
    を備えたことを特徴とする超音波観察システム。
  14. 観測対象の画像を生成するための信号を取得し、取得した前記信号に基づく観測画像を外部の表示装置に表示させて診断を行うための医療用診断装置の作動方法であって、
    検出部が、術者の手指の形状、および前記術者の手指の空間的な位置を検出する検出ステップと、
    実行可能コマンド選択部が、前記検出部により検出された前記術者の手指の形状および前記空間的な位置に応じて、当該医療用診断装置が実行可能な一または複数のコマンドを選択する実行可能コマンド選択ステップと、
    コマンド画像生成部が、前記実行可能コマンド選択部が選択したコマンドに応じたコマンド画像、および前記術者の手指の形状を示す手指形状画像を生成するコマンド画像生成ステップと、
    表示画像生成部が、前記コマンド画像生成部が生成したコマンド画像、前記手指形状画像および前記観測画像を用いて表示画像を生成する表示画像生成ステップと、
    を含むことを特徴とする医療用診断装置の作動方法。
  15. 観測対象の画像を生成するための信号を取得し、取得した前記信号に基づく観測画像を外部の表示装置に表示させて診断を行うための医療用診断装置の作動方法であって、
    検出部が、術者の手指の形状、および前記術者の手指の空間的な位置を検出する検出手順と、
    実行可能コマンド選択部が、前記検出部により検出された前記術者の手指の形状および前記空間的な位置に応じて、当該医療用診断装置が実行可能な一または複数のコマンドを選択する実行可能コマンド選択手順と、
    コマンド画像生成部が、前記実行可能コマンド選択部が選択したコマンドに応じたコマンド画像、および前記術者の手指の形状を示す手指形状画像を生成するコマンド画像生成手順と、
    表示画像生成部が、前記コマンド画像生成部が生成したコマンド画像、前記手指形状画像および前記観測画像を用いて表示画像を生成する表示画像生成手順と、
    を前記医療用診断装置に実行させることを特徴とする医療用診断装置の作動プログラム。
JP2016547107A 2015-04-30 2016-04-18 医療用診断装置、超音波観察システム、医療用診断装置の作動方法および医療用診断装置の作動プログラム Active JP6017746B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015093304 2015-04-30
JP2015093304 2015-04-30
PCT/JP2016/062223 WO2016175070A1 (ja) 2015-04-30 2016-04-18 医療用診断装置、超音波観察システム、医療用診断装置の作動方法および医療用診断装置の作動プログラム

Publications (2)

Publication Number Publication Date
JP6017746B1 true JP6017746B1 (ja) 2016-11-02
JPWO2016175070A1 JPWO2016175070A1 (ja) 2017-05-18

Family

ID=57199172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016547107A Active JP6017746B1 (ja) 2015-04-30 2016-04-18 医療用診断装置、超音波観察システム、医療用診断装置の作動方法および医療用診断装置の作動プログラム

Country Status (5)

Country Link
US (1) US9962143B2 (ja)
EP (1) EP3289982A4 (ja)
JP (1) JP6017746B1 (ja)
CN (1) CN106794008B (ja)
WO (1) WO2016175070A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9877699B2 (en) 2012-03-26 2018-01-30 Teratech Corporation Tablet ultrasound system
US10667790B2 (en) 2012-03-26 2020-06-02 Teratech Corporation Tablet ultrasound system
NL2019493B1 (en) * 2017-09-06 2019-03-14 De Raadt Beheer B V Imaging device
WO2019138773A1 (ja) * 2018-01-10 2019-07-18 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
JP7001556B2 (ja) * 2018-06-29 2022-01-19 富士フイルム株式会社 超音波診断装置および超音波診断装置の作動方法
EP3617862B1 (en) * 2018-08-30 2020-11-11 Siemens Healthcare GmbH Processing a user input in relation to an image
CN113170072B (zh) * 2018-11-28 2023-12-19 奥林巴斯株式会社 医疗图像记录控制系统
US20230025755A1 (en) * 2019-12-19 2023-01-26 Ambu A/S Image capture selection
JP7409070B2 (ja) * 2019-12-20 2024-01-09 コニカミノルタ株式会社 操作対象切り替え装置、操作対象切り替え方法および操作対象切り替えプログラム
US11503224B1 (en) * 2021-11-29 2022-11-15 Unity Technologies Sf Increasing dynamic range of a virtual production display

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010274049A (ja) * 2009-06-01 2010-12-09 Toshiba Corp 超音波画像診断装置及び超音波画像診断装置の制御方法
WO2013148730A2 (en) * 2012-03-26 2013-10-03 Teratech Corporation Tablet ultrasound system
JP2014097229A (ja) * 2012-11-15 2014-05-29 Hitachi Aloka Medical Ltd 超音波診断装置およびその操作方法
WO2014134316A1 (en) * 2013-02-28 2014-09-04 General Electric Company Handheld medical imaging apparatus with cursor pointer control

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
WO2009110211A1 (ja) * 2008-03-03 2009-09-11 パナソニック株式会社 超音波診断装置
EP2530571A1 (en) * 2011-05-31 2012-12-05 Sony Ericsson Mobile Communications AB User equipment and method therein for moving an item on an interactive display
US20130225999A1 (en) * 2012-02-29 2013-08-29 Toshiba Medical Systems Corporation Gesture commands user interface for ultrasound imaging systems
US9877699B2 (en) * 2012-03-26 2018-01-30 Teratech Corporation Tablet ultrasound system
CN104471521B (zh) * 2012-05-09 2018-10-23 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
US8743072B2 (en) * 2012-09-28 2014-06-03 Lg Electronics Inc. Display device and control method thereof
US10799209B2 (en) * 2012-12-26 2020-10-13 Philips Image Guided Therapy Corporation Measurement navigation in a multi-modality medical imaging system
KR101462174B1 (ko) * 2013-01-29 2014-11-20 삼성전자주식회사 영상 표시 장치 및 영상 표시 방법
WO2014142468A1 (en) * 2013-03-13 2014-09-18 Samsung Electronics Co., Ltd. Method of providing copy image and ultrasound apparatus therefor
EP3166499A4 (en) * 2014-07-09 2018-02-28 Edan Instruments, Inc. Portable ultrasound user interface and resource management systems and methods
CN104267904A (zh) * 2014-09-26 2015-01-07 深圳市睿德网络科技有限公司 一种具有触摸屏虚拟单位控制的方法及移动终端
CN104545997B (zh) * 2014-11-25 2017-09-22 深圳市理邦精密仪器股份有限公司 一种超声设备的多屏互动操作方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010274049A (ja) * 2009-06-01 2010-12-09 Toshiba Corp 超音波画像診断装置及び超音波画像診断装置の制御方法
WO2013148730A2 (en) * 2012-03-26 2013-10-03 Teratech Corporation Tablet ultrasound system
JP2014097229A (ja) * 2012-11-15 2014-05-29 Hitachi Aloka Medical Ltd 超音波診断装置およびその操作方法
WO2014134316A1 (en) * 2013-02-28 2014-09-04 General Electric Company Handheld medical imaging apparatus with cursor pointer control

Also Published As

Publication number Publication date
EP3289982A4 (en) 2019-01-30
US9962143B2 (en) 2018-05-08
EP3289982A1 (en) 2018-03-07
WO2016175070A1 (ja) 2016-11-03
CN106794008A (zh) 2017-05-31
CN106794008B (zh) 2020-05-15
JPWO2016175070A1 (ja) 2017-05-18
US20170143310A1 (en) 2017-05-25

Similar Documents

Publication Publication Date Title
JP6017746B1 (ja) 医療用診断装置、超音波観察システム、医療用診断装置の作動方法および医療用診断装置の作動プログラム
JP6390145B2 (ja) 超音波画像診断装置及び超音波画像診断装置の作動方法
US20170209126A1 (en) Ultrasound observation system
US20160361044A1 (en) Medical observation apparatus, method for operating medical observation apparatus, and computer-readable recording medium
US20210007709A1 (en) Measurement apparatus, ultrasound diagnostic apparatus, measurement method, and measurement program
JP2007313202A (ja) 超音波診断システム
JP2006192030A (ja) 超音波画像診断装置
JP2007268148A (ja) 超音波診断装置
US11141136B2 (en) Ultrasound observation device, processing device, method of operating ultrasound observation device, and computer readable recording medium
US9872668B2 (en) Medical diagnostic apparatus, method for operating medical diagnostic apparatus, and computer-readable recording medium
WO2017073331A1 (ja) 処理装置、超音波観測装置、処理装置の作動方法および処理装置の作動プログラム
JP7214876B2 (ja) 内視鏡装置、制御方法、制御プログラム、及び内視鏡システム
JP2014239841A (ja) 超音波診断装置、医用画像処理装置及び制御プログラム
WO2022239529A1 (ja) 医療画像処理装置、医療画像処理方法、及びプログラム
JP2010005022A (ja) 超音波観測装置及び超音波観測装置の動作制御方法
JP2010005011A (ja) 超音波観測装置及び超音波観測装置の動作制御方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160830

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160928

R151 Written notification of patent or utility model registration

Ref document number: 6017746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250