JP6598508B2 - 超音波診断装置とそのプログラム - Google Patents

超音波診断装置とそのプログラム Download PDF

Info

Publication number
JP6598508B2
JP6598508B2 JP2015097622A JP2015097622A JP6598508B2 JP 6598508 B2 JP6598508 B2 JP 6598508B2 JP 2015097622 A JP2015097622 A JP 2015097622A JP 2015097622 A JP2015097622 A JP 2015097622A JP 6598508 B2 JP6598508 B2 JP 6598508B2
Authority
JP
Japan
Prior art keywords
operator
input
gesture
ultrasonic
ultrasonic probe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015097622A
Other languages
English (en)
Other versions
JP2015231518A (ja
Inventor
紗佳 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2015097622A priority Critical patent/JP6598508B2/ja
Publication of JP2015231518A publication Critical patent/JP2015231518A/ja
Application granted granted Critical
Publication of JP6598508B2 publication Critical patent/JP6598508B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4263Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors not mounted on the probe, e.g. mounted on an external reference frame
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4272Details of probe positioning or probe attachment to the patient involving the acoustic interface between the transducer and the tissue
    • A61B8/429Details of probe positioning or probe attachment to the patient involving the acoustic interface between the transducer and the tissue characterised by determining or monitoring the contact between the transducer and the tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Hematology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

この発明の実施形態は、操作情報の入力を必要とする超音波診断装置とそのプログラムに関する。
超音波診断装置は、一般に、キーボードやトラックボールを有する操作パネルと、液晶ディスプレイ等を使用した表示デバイスを備え、これらの操作パネル及び表示デバイスを用いて、診断に必要な検査パラメータの入力やその変更等を行うようになっている。しかし、検査中において医師や検査技師等の操作者はプローブを操作しているため、被検査者の検査対象部位の位置や操作者の体勢によっては、両手が塞がって上記操作パネルへの入力操作を行えなかったり、また片手が空いていたとしても操作パネルに手が届かず入力操作を行えないことがある。
そこで、音声認識機能を持たせ、操作者が操作情報を音声入力できるようにした装置が提案されている。例えば特許文献1に記載された装置は、予め定めた制御用の言葉を記憶しておき、音声入力された言葉を上記記憶されている言葉と照合していずれに該当するかを判別し、該当する言葉が記憶されていた場合に当該言葉を受け付けるようにしている。
また、特許文献2に記載された装置は、音声入力された制御指令を認識し、この認識した制御指令がその時点での各部の動作設定内容に対応する制御指令と一致することが確認された場合に、上記入力された制御指令を有効にするようにしている。
特開平11−175095号公報 特開平10−248832号公報
ところが、特許文献1及び2に記載された装置では、操作者が言葉を発するつもりがないのに無意識に発した場合や、助手等との会話中に偶然そのコマンドが含まれていた場合に、当該言葉やコマンドが装置で認識されて当該言葉やコマンドに対応する制御が操作者の意図には関係なく実行されてしまうおそれがある。
この発明は上記事情に着目してなされたもので、その目的とするところは、操作者が無意識に或いは他者との会話中に偶然発した言葉が制御コマンドとして認識されないようにし、これにより操作性を改善しつつ誤入力の低減を図った超音波診断装置とそのプログラムを提供することにある。
実施形態によれば、超音波診断装置は、被検査者の検査に係る情報を表示手段に表示し、操作者が当該表示された情報を視認して検査のための操作を行う装置であって、検出手段と、判定手段と、入力受付制御手段を具備する。検出手段は、前記操作者が超音波プローブを用いて検査をする様子を撮影状態として検出する手段を備える。判定手段は、前記撮影状態が予め定められた状態にあるか否かを判定する。入力受付制御手段は、前記判定手段の判定結果に基づいて、前記操作者のジェスチャ及び音声の少なくとも一方による操作情報の入力を受け付ける。
第1の実施形態である超音波診断装置の外観を示す斜視図。 第1の実施形態である超音波診断装置の機能構成を示すブロック図。 第1の実施形態の動作説明に使用する、装置と操作者との位置関係の一例を示す図。 図2に示した超音波診断装置において実行される操作支援制御の処理手順と処理内容を示すフローチャートである。 検査期間中においてジェスチャ・音声入力受付モードが設定されたときの表示画面の第1の例を示す図。 検査期間中においてジェスチャ・音声入力受付モードが設定されたときの表示画面の第2の例を示す図。 第2の実施形態である超音波診断装置の機能構成を示すブロック図。 第2の実施形態の動作説明に使用する、装置と操作者との位置関係の一例を示す図。 第2の実施形態の動作説明に使用する、装置と操作者との位置関係の他の例を示す図。 図7に示した超音波診断装置において実行される操作支援制御の処理手順と処理内容を示すフローチャートである。 非検査期間中の情報入力設定時においてジェスチャ・音声入力受付モードが設定されたときの表示画面の第1の例を示す図。 非検査期間中の情報入力設定時においてジェスチャ・音声入力受付モードが設定されたときの表示画面の第2の例を示す図。 非検査期間中の情報入力設定時において音声入力受付モードが設定されたときの表示画面の第3の例を示す図。 第3の実施形態である超音波診断装置の機能構成を示すブロック図。 第3の実施形態の動作説明に使用する、装置と操作者との位置関係の一例を示す図。 図14に示した超音波診断装置において実行される操作支援制御の処理手順と処理内容を示すフローチャートである。 図16に示した操作支援制御によるジェスチャ入力受付処理の一例を示す図。 トラックボール操作が必要な時にジェスチャ入力受付モードが設定されたときの表示画面の第1の例を示す図。 第4の実施形態である超音波診断装置の機能構成を示すブロック図。 第4の実施形態の動作説明に使用する、装置と操作者との位置関係の一例を示す図。 図19に示した超音波診断装置において実行される操作支援制御の処理手順と処理内容を示すフローチャートである。 第5の実施形態である超音波診断装置の機能構成を示すブロック図。 第5の実施形態の動作説明に使用する、装置と操作者との位置関係の一例を示す図。 図22に示した超音波診断装置において実行される操作支援制御の処理手順と処理内容を示すフローチャートである。 第5の実施形態の動作説明に使用する、鉛直方向に対する操作者の体軸角度について説明するための図。 検査期間中においてジェスチャ・音声入力受付モードが設定されたときの表示画面の第1の例を示す図(複数受付の場合)。 検査期間中においてジェスチャ・音声入力受付モードが設定されたときの表示画面の第2の例を示す図(複数受付の場合)。 第5の実施形態の変形例1の説明に使用する、装置と操作者との位置関係の一例を示す図。
以下、図面を参照して実施形態を説明する。
[第1の実施形態]
第1の実施形態は、超音波診断装置において、操作者が超音波プローブを操作しており、かつ操作者と超音波診断装置との間の距離が予め設定した距離以上離れていることをジェスチャ・音声の入力受付条件とし、当該条件を満たす場合にジェスチャ・音声の入力受付モードを設定して、ジェスチャ・音声の入力受付け処理を実行するようにしたものである。
図1は、第1の実施形態に係る超音波診断装置の外観を示す斜視図である。
この第1の実施形態に係る超音波診断装置は、装置本体1の上部に操作パネル2と、表示デバイスとしてのモニタ3を配置し、上記装置本体1の側部に超音波プローブ4を収容したものとなっている。
操作パネル2は、オペレータからの各種指示、条件、関心領域(ROI)の設定指示、種々の画質条件設定指示等を装置本体1にとりこむための各種スイッチ、ボタン、トラックボール、マウス、キーボード等を有している。モニタ3は例えば液晶表示器からなり、検査期間中には各種制御パラメータと超音波画像を表示するために用いられる。また非検査期間には、上記各設定指示を入力するための種々設定画面等をそれぞれ表示するために用いられる。
超音波プローブ4は、先端部にN(Nは2以上の整数)個の振動素子アレイを備え、上記先端部を被検体の体表に接触させて超音波の送受信を行なう。振動素子は電気音響変換素子からなり、送信時には電気的な駆動信号を送信超音波に変換し、受信時には受信超音波を電気的な受信信号に変換する機能を有している。尚、第1の実施形態では、複数個の振動素子を有するセクタ走査用の超音波プローブを用いる場合について述べるが、リニア走査やコンベックス走査等に対応した超音波プローブを用いてもよい。
また、表示デバイス3の筐体上部にはセンサユニット6が取着されている。センサユニット6は、検査が行われる空間(検査空間)における人物や物体等の位置や向き、動きを検出するために用いられるもので、カメラ61とマイクロフォン62を有する。カメラ61は、撮影素子として例えばCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)を使用したもので、検査空間における人物や物体等を撮影し、その画像データを装置本体1へ出力する。マイクロフォン62は、複数の小型マイクロフォンを並べて配置したマイクロフォンアレイからなり、上記検査が行われる空間において操作者が発する音声を検出し、その音声データを上記装置本体1へ出力する。なお、センサユニット6としては例えばKinect(登録商標)センサが用いられる。
図2は、上記装置本体1の機能構成をその周辺のユニットと共に示したブロック図である。
装置本体1は、主制御ユニット20と、超音波送信ユニット21と、超音波受信ユニット22と、入力インタフェースユニット29と、操作支援制御ユニット30Aと、記憶ユニット40とを備え、これらのユニット間をバスを介して接続している。主制御ユニット20は、例えば所定のプロセッサとメモリとから構成される。主制御ユニット20は、装置全体を統括的に制御する。
超音波送信ユニット21は、図示しないトリガ発生回路、遅延回路及びパルサ回路等を有している。トリガ発生回路では、所定のレート周波数frHz(周期;1/fr秒)で、送信超音波を形成するためのトリガパルスが繰り返し発生される。遅延回路では、チャンネル毎に超音波をビーム状に集束しかつ送信指向性を決定するために必要な遅延時間が、各トリガパルスに与えられる。パルサ回路は、このトリガパルスに基づくタイミングで、超音波プローブ4に駆動パルスを印加する。
超音波受信ユニット22は、図示していないアンプ回路、A/D変換器、遅延回路、加算器等を有している。アンプ回路では、超音波プローブ4を介して取り込まれたエコー信号をチャンネル毎に増幅する。A/D変換器では、増幅されたアナログのエコー信号をデジタルエコー信号に変換する。遅延回路では、デジタル変換されたたエコー信号に対し受信指向性を決定し、受信ダイナミックフォーカスを行うために必要な遅延時間を与え、その後加算器において加算処理を行う。この加算により、エコー信号の受信指向性に応じた方向からの反射成分が強調され、受信指向性と送信指向性とにより超音波送受信の総合的なビームが形成される。この超音波受信ユニット23から出力されたエコー信号は、Bモード処理ユニット23及びドプラ処理ユニット24に入力される。
Bモード処理ユニット23は、例えば所定のプロセッサとメモリとから構成される。Bモード処理ユニット23は、上記超音波受信ユニット22からエコー信号を受け取り、対数増幅、包絡線検波処理などを施し、信号強度が輝度の明るさで表現されるデータを生成する。
ドプラ処理ユニット24は、例えば所定のプロセッサとメモリとから構成される。ドプラ処理ユニット24は、上記超音波受信ユニット22から受け取ったエコー信号から血流信号を抽出し、血流データを生成する。血流の抽出は、通常CFM(Color Flow Mapping)で行われる。この場合、血流信号を解析し、血流データとして平均速度、分散、パワー等の血流情報を多点について求める。
データメモリ25は、Bモード処理ユニット23から受け取った複数のBモードデータを用いて、三次元的な超音波走査線上のBモードデータであるBモードRAWデータを生成する。また、データメモリ25は、ドプラ処理ユニット24から受け取った複数の血流データを用いて、三次元的な超音波走査線上の血流データである血流RAWデータを生成する。なお、ノイズ低減や画像の繋がりを良くすることを目的として、データメモリ25の後に三次元的なフィルタを挿入し、空間的なスムージングを行うようにしてもよい。
ボリュームデータ生成ユニット26は、例えば所定のプロセッサとメモリとから構成される。ボリュームデータ生成ユニット26は、RAW−ボクセル変換を実行することにより、上記データメモリ25から受け取ったBモードRAWデータ及び血流RAWデータから、それぞれBモードボリュームデータ及び血流ボリュームデータを生成する。
画像処理ユニット27は、例えば所定のプロセッサとメモリとから構成される。画像処理ユニット27は、ボリュームデータ生成ユニット26から受け取ったボリュームデータに対して、ボリュームレンダリング、多断面変換表示(MPR:multi planar reconstruction)、最大値投影表示(MIP:maximum intensity projection)等の所定の画像処理を行う。なお、ノイズ低減や画像の繋がりを良くすることを目的として、画像処理ユニット27の後に二次元的なフィルタを挿入し、空間的なスムージングを行うようにしてもよい。
表示処理ユニット28は、例えば所定のプロセッサとメモリとから構成される。表示処理ユニット28は、画像処理ユニット27において生成・処理された各種画像データに対し、ダイナミックレンジ、輝度(ブライトネス)、コントラスト、γカーブ補正、RGB変換等の、画像表示のための各種処理を実行する。
入力インタフェースユニット29は、例えば所定のプロセッサとメモリとから構成される。入力インタフェースユニット29は、先に述べたセンサユニット6のカメラ61から出力された画像データと、マイクロフォン62から出力された音声データをそれぞれ取り込む。そして、この取り込んだ画像データ及び音声データを記憶ユニット40のバッファエリアに保存する。
操作支援制御ユニット30Aは、例えば所定のプロセッサとメモリとから構成される。操作支援制御ユニット30Aは、検査中において操作者のジェスチャ又は音声による制御コマンドの入力支援を行うもので、その制御機能として操作者認識部301と、距離検出部302と、プローブ使用状態判定部303と、入力受付条件判定部304と、入力受付処理部305を備えている。これらの制御機能は、いずれも図示しないプログラムメモリに格納されたプログラムを、主制御ユニット20のプロセッサに実行させることにより実現される。
操作者認識部301は、上記記憶ユニット40に保存された検査空間の画像データをもとに検査空間に存在する人物と超音波プローブ4の画像を認識し、超音波プローブ4を持ち人物を操作者と判別する。
距離検出部302は、センサユニット6が備えるカメラ61の測距用光源とその受光器を用い、操作者に向け赤外線を照射してその反射光を受光して、当該受信された反射光と照射波との位相差、或いは照射から受光までの時間に基づいて、操作者7とモニタ3との間の距離Lを検出する。
プローブ使用状態判定部303は、主制御モード20が検査モードに設定されているか、又は超音波のライブ画像がモニタ3に表示されているかにより、超音波プローブ4が使用中か否かを判定する。なお、上記操作者認識部301による人物と超音波プローブ4の画像の認識結果をもとに、検査空間の画像データから超音波プローブ4が検出されたか否かにより、超音波プローブ4が使用中か否かを判定することも可能である。
入力受付条件判定部304は、上記距離検出部302により検出された距離と、プローブ使用状態判定部303により判定された超音波プローブ4の使用状態とに基づいて、現在の操作者の状態がジェスチャ・音声の入力受付条件を満たすか否かを判定する。
入力受付処理部305は、上記入力受付条件判定部304において現在の操作者の状態がジェスチャ・音声による操作情報の入力受付条件を満たしていると判定された場合に、ジェスチャ入力受付モードを設定して、ジェスチャ・音声入力を受付中であることを示すアイコン41を、モニタ3の表示画面に表示する。そして、センサユニット6のカメラ61により得られた操作者の画像データ、及びマイクロフォン62により得られた操作者の音声データから、それぞれ操作者のジェスチャ及び音声を認識する。そして、この認識したジェスチャ及び音声により表される操作情報の妥当性を判断し、妥当であれば当該ジェスチャ及び音声により表される操作情報を受け付ける。
(動作)
次に、以上のように構成された装置による入力操作支援動作を説明する。
図3は装置本体1に対する超音波プローブ4、操作者7及び被検査者8の位置関係の一例を示す図、図4は操作支援制御ユニット30Aによる入力操作支援制御の処理手順と処理内容を示すフローチャートである。
(1)超音波プローブ4の使用状態の判定
操作支援制御ユニット30Aは、先ずステップS11によりプローブ使用状態判定部303の制御の下、超音波プローブ4が使用中か否かを判定する。この判定は、主制御モード20が検査モードに設定されているか、又は超音波のライブ画像がモニタ3に表示されているかにより、判定することができる。
(2)操作者の認識
操作支援制御ユニット30Aは、次に操作者認識部301の制御の下、操作者を認識するための処理を以下のように実行する。
すなわち、先ずステップS12によりセンサユニット6のカメラ61から検査空間を撮影した画像データを取り込み、記憶ユニット40のバッファエリアに保存する。次にステップS13により、上記保存された画像データから超音波プローブ4及び人物の画像を認識する。この超音波プローブ4の認識は、例えばパターン認識を用いて行う。具体的には、上記保存された1フレームの画像データに対しそれより小サイズの着目領域を設定し、この着目領域の位置を1画素ずつシフトするごとにその画像を予め記憶された超音波プローブ4の画像パターンと照合し、その一致の度合いがしきい値以上になった場合に当該照合対象の画像を超音波プローブ4の画像として認識する。そしてステップS14により、上記抽出された超音波プローブ4を持つ人物を操作者7と認識する。
(3)操作者7とモニタ3との間の距離Lの検出
次にステップS15において、距離検出部302の制御の下で、上記認識した操作者7の特定の部位、例えば超音波プローブ4を持っていない側の肩関節の位置と、モニタ3との間の距離Lを以下のように検出する。
すなわち、センサユニット6は、例えばカメラ61が備える測距用の光源と受光器を用い、検査空間に赤外線を照射して、当該照射光の操作者7による反射光を受光する。そして、上記受信された反射光と照射波との位相差、或いは照射から受光までの時間に基づいて、操作者7の超音波プローブ4を持っていない側の肩関節の位置とセンサユニット6との間の距離Lを算出する。なお、センサユニット6はモニタ3の上部に一体的に取着されているので、上記距離Lは操作者とモニタ3との間の距離と見なすことができる。
(4)入力受付条件を満たしているか否かの判定
上記距離Lの算出が終了すると、次にステップS16において入力受付条件判定部304の制御の下、上記距離検出部302により検出された距離Lと、プローブ使用状態判定部303により判定された超音波プローブ4の使用状態の判定結果をもとに、現在の操作者7の状態がジェスチャ・音声による操作情報の入力受付条件を満たすか否かを判定する。例えば、ステップS11において超音波プローブ4が使用中と判定され、かつ操作者7とモニタ3との間の距離が50cm以上離間している場合には、入力受付条件を満たしていると判定する。この判定の結果、入力受付条件を満たしていなければ、ジェスチャ・音声による操作情報入力モードを設定せず、入力操作の支援制御は終了する。
(5)ジェスチャ・音声による操作情報の入力受付処理
これに対し、上記ステップS16において入力受付条件を満たすと判定されたとする。この場合には、入力受付処理部305の制御の下、以下のようにジェスチャ・音声の入力受付処理を実行する。
すなわち、先ずステップS17において、ジェスチャ入力受付モードを設定したのち、ジェスチャ・音声入力を受付中であることを示すアイコン41を、モニタ3の表示画面上に表示する。またそれと共にステップS18において、ジェスチャ・音声の入力により操作可能な対象項目42をモニタ3の表示画面に表示する。図5又は図6はその表示例を示すもので、図5はカテゴリの項目選択をジェスチャ・音声入力による操作対象とする場合を、また図6は選択されたカテゴリの中の詳細項目の選択をジェスチャ・音声入力による操作対象とする場合をそれぞれ示している。
この状態で、操作者7が例えば図3に示したようにジェスチャにより操作対象項目の番号に対応する本数の指を立てたとする。この場合入力受付処理部305は、ステップS19〜S20において、カメラ61により撮影された操作者の画像データから手指の画像を抽出し、この抽出した手指の画像を予め記憶してある手指により番号を表現したときの基本画像パターンと照合する。そして、両画像がしきい値以上の類似度で一致すると、このときの手指の画像により表される番号を受付け、ステップS21において当該番号に対応するカテゴリ又は詳細項目を選択する。
一方、操作者が操作対象項目の番号を表す音声を発したとする。この場合、入力受付処理部305は、マイクロフォン62により集音された音声について、その音源の方向を検出する処理と、音声認識処理を以下のように行う。すなわち、マイクロフォンアレイにより構成されるマイクロフォン62を利用してビームフォーミングを行う。ビームフォーミングは、特定の方向からの音声を選択的に集音する技術であり、これにより音源の方向、つまり操作者の方向を特定する。また、入力受付処理部305は、既知の音声認識技術を用いて、集音した音声から単語を認識する。そして、上記音声認識技術によって認識された単語が操作対象項目に存在するか否かを判定し、存在する場合には当該単語により表される番号を受付け、ステップS21において当該番号に対応するカテゴリ又は詳細項目を選択する。
上記ジェスチャ・音声の入力受付モードが設定されている状態で、入力受付条件判定部304は、ステップS22において入力受付モードの解除を監視する。そして、操作者の状況が上記入力受付条件を満たしている限り上記ジェスチャ・音声の入力受付モードを維持する。これに対し、操作者7が超音波プローブ4の操作を終了するか、又は装置に近づいて手動による入力操作が可能になると、入力受付条件を満足しなくなるので、この時点でジェスチャ・音声の入力受付モードを解除し、アイコン41も消去する。
(第1の実施形態の効果)
以上詳述したように第1の実施形態では、超音波プローブ4の使用状態を判定すると共に、検査空間をカメラ61により撮影した画像データをもとに操作者を認識して当該操作者とモニタ3との間の距離Lを算出している。そして、超音波プローブ4が使用中で、かつ距離Lが予め設定した距離以上の場合に、ジェスチャ・音声入力の受付条件を満足していると判断してジェスチャ・音声の入力受付モードを設定し、この状態で入力されたジェスチャ又は音声の認識結果を入力操作情報として受け付けるようにしている。
したがって、ジェスチャ・音声による入力受付期間を操作者が真に必要とする状況下のみに制限することができる。このため、ジェスチャ・音声による入力操作を必要としない状況下で、操作者7が言葉を発するつもりがないのに、或いはジェスチャするつもりはないのに、無意識に行った場合や、助手や被検査者8等との会話或いは手振りによる説明の中に偶然その操作コマンドが含まれていた場合に、当該言葉やコマンドが装置で認識されて当該言葉やコマンドに対応する制御が操作者7の意図には関係なく実行されないようにすることができる。
また、ジェスチャ・音声入力の受付条件を満たしたときに、モニタ3の表示画面上にアイコン41を表示し、さらに操作対象となる項目を番号を付して表示するようにしている。このため、操作者7はジェスチャ・音声入力が可能なモードになっているか否かをモニタ3を見ることで明確に認識することができ、さらに操作対象項目を確認した上でジェスチャ・音声による入力操作を行うことができる。
[第2の実施形態]
第2の実施形態は、患者・検査情報の登録、変更又は削除等に対し非検査期間に操作者がデータ操作を行う際に、操作者がモニタを視認し、かつ当該モニタにデータ操作に必要な表示画面データが表示されていることをジェスチャ・音声の入力受付条件とし、当該条件を満たす場合にジェスチャ・音声の入力受付モードを設定して、ジェスチャ・音声の入力受付け処理を実行するようにしたものである。
図7は、第2の実施形態に係る超音波診断装置の装置本体1Bの機能構成を、周辺部の構成と共に示したブロック図である。なお、同図において前記図2と同一部分には同一符号を付して詳しい説明は省略する。
装置本体1Bの操作支援制御ユニット30Bは、例えば、所定のプロセッサ及びメモリによって構成されている。操作支援制御ユニット30Bは、第2の実施形態を実施する上で必要な制御機能として、顔方向検出部306と、画面判定部307と、入力受付条件判定部308と、入力受付処理部309を備えている。
顔方向検出部306は、センサユニット6のカメラ61により撮影された操作者の画像データをもとに操作者の顔画像をパターン認識技術を用いて認識し、当該認識結果をもとに操作者の顔がモニタ3の方向を向いているか否かを判定する。
画面判定部307は、患者・検査情報の登録、変更又は削除等の制御情報に対するデータ操作を行う際に、当該データ操作に必要なステータスの表示画面データがモニタ3に表示されているか否かを判定する。
入力受付条件判定部308は、上記顔方向検出部306により検出された操作者の顔の方向と、上記画面判定部307により判定された表示画面データのステータスに基づいて、操作者の顔の方向及び表示画面データのステータスがジェスチャ・音声による操作情報の入力受付条件を満たすか否かを判定する。
入力受付処理部309は、上記入力受付条件判定部308において操作者の顔の方向及び表示画面データのステータスがジェスチャ・音声の入力受付条件を満たしていると判定された場合に、ジェスチャ及び音声の入力受付モードを設定し、ジェスチャ及び音声の入力受付中であることを示すアイコンを表示画面に表示させる。そして、センサユニット6のカメラ61により得られた操作者の画像データ、及びマイクロフォン62により得られた操作者の音声データをもとに、それぞれ操作者のジェスチャ及び音声を認識する。そして、この認識したジェスチャ及び音声により表される操作情報の妥当性を判断し、妥当であれば当該ジェスチャ及び音声により表される操作情報を受け付ける。
(動作)
次に、以上のように構成された装置による入力操作支援動作を説明する。
図8及び図9は装置に対する操作者7の位置関係の一例を示すもので、図8は操作者が立った状態で入力操作を行おうとしている場合を、図9は操作者が座った状態で入力操作を行おうとしている場合をそれぞれ示している。また図10は操作支援制御ユニット30Bによる入力操作支援制御の処理手順と処理内容を示すフローチャートを示している。
(1)操作者の顔の向きの検出
操作支援制御ユニット30Bは、先ず顔方向検出部306の制御の下、操作者の顔の向きを検出するための処理を以下のように実行する。
すなわち、先ずステップS31によりセンサユニット6のカメラ61から操作者7を撮影した画像データを取り込み、記憶ユニット40のバッファエリアに一旦保存する。次にステップS32により、上記保存された画像データから操作者7の顔画像を認識する。この顔画像の認識は、例えば上記取得した画像データを、予め記憶しておいた操作者の顔画像パターンと照合する周知のパターン認識技術を用いて行う。そしてステップS33により、上記認識した操作者の顔画像中から目を表す画像を抽出し、この抽出された目の画像から操作者の視線Kを検出する。
続いてステップS34において、装置のモニタ3と操作者7との間の距離を検出する。この距離の検出は例えば以下のように行われる。すなわち、センサユニット6から例えば赤外線を操作者に向けて照射し、照射波が操作者7の顔面で反射された反射波をカメラ61の受光素子で受光する。そして、上記照射波と反射波との位相差、或いは照射から受光までの時間に基づいて算出する。
(2)操作対象画面の判定
次にステップS35において、画面判定部307の制御の下、モニタ3に表示されている表示画面データのステータス、つまり表示画面の種類とその状態が、データ操作を必要とする場合に相当するか否かを、予め記憶しておいた判定条件をもとに判定する。判定条件としては、例えば下記の3つの場合が挙げられる。
(1) 患者情報登録画面において病院サーバに問い合わせたところ、検査予約データが未登録であり、登録操作が必要な状態。
(2) 患者情報又は検査情報の編集画面が表示され、かつ当該表示画面中のいずれかの項目のテキストボックスにフォーカスが当たっている状態。
(3) 検査リストの表示画面が表示され、かつ当該画面中のキーワード入力ボックスにフォーカスが当たっている状態。
(3)入力受付条件を満たしているか否かの判定
操作支援制御ユニット30Bは、次にステップS36において入力受付条件判定部308の制御の下、上記顔方向検出部306による操作者の顔の向き(正確には視線の方向K)の検出結果と、上記画面判定部307による表示画面データのステータスの判定結果とに基づいて、ジェスチャ・音声による操作情報の入力受付条件を満たしているか否かを判定する。
例えば、操作者の顔(視線)がモニタ3を向いている状態で、かつモニタ3に表示されている画面が上記(1) 、(2) 及び(3) のいずれかに該当する場合には、ジェスチャ・音声の入力受付条件を満たしていると判定する。この判定の結果、入力受付条件を満たしていなければ、ジェスチャ・音声による操作情報入力モードを設定せず、入力操作の支援制御は終了する。
なお、入力受付条件の1つとして、操作者7の顔とモニタ3との間の距離が予め設定されたしきい値以内である場合を加えてもよい。このようにすると、表示画面データがデータ操作を必要とするステータスになっていても、また操作者7の顔がモニタ3を向いていても、操作者7とモニタ3との距離がしきい値を超えていれば、操作者7は操作パネル2を用いた主たる入力操作を行える状態になっていないと見なして、ジェスチャ・音声による入力受付を許可しないようにすることができる。
(5)ジェスチャ・音声による操作情報の入力受付処理
これに対し、上記ステップS36において入力受付条件を満たすと判定されたとする。この場合には、入力受付処理部309の制御の下、以下のようにジェスチャ・音声の入力受付処理を実行する。
すなわち、先ずステップS37において、ジェスチャ・音声入力受付モードを設定した上で、当該モードが設定中であることを示すアイコン41を、モニタ3の表示画面上に表示する。図11乃至図13はその表示例を示すもので、図11は検査予約情報が未登録の患者情報登録画面にアイコン41を表示した場合を、図12は患者・検査情報の編集画面にアイコン41を表示した場合を、図13は検索リストの表示画面にアイコン41を表示した場合をそれぞれ示している。
上記ジェスチャ・音声入力受付モードが設定された状態で、操作者7がジェスチャ及び音声により操作情報を入力すると、入力受付処理部309は以下のように操作情報の入力受付処理を行う。
例えば図11に示したように患者情報登録画面が表示され、かつ予約検査リストに予約検査情報が登録されていない状態で、操作者7がモニタ3の表示画面に向けた指を移動させたとする。そうすると、ステップS39において、カメラ61により操作者7を撮影した画像データから先ず当該操作者7の指先の画像を抽出し、この抽出した指先の画像の移動方向と移動量を検出する。そして、その検出結果に従いステップS40によりテキストボックスに対するフォーカスの位置を移動させる。例えば、いま“Exam Type”のテキストボックスにフォーカスが当たっている状態で操作者7がジェスチャにより指を下方に一定量移動させると、このジェスチャが認識されてフォーカスが当たるテキストボックスが “ID”のテキストボックスに移動する。
続いて、操作者7が音声を入力すると、この入力音声がマイクロフォン62により検出され、さらにその音声データから周知の音声認識処理により操作者7が入力した単語がステップS39において認識されて、ステップS40により当該単語が上記フォーカスの当たっている“ID”のテキストボックスに入力される。
また、図12に示したように患者・検査情報の編集画面が表示され、かつ当該画面中の “ID”のテキストボックスにフォーカスが当たっている状態で、操作者7がジェスチャにより指を下方に移動させたとする。この場合には、当該ジェスチャが認識されてフォーカスが当たるテキストボックスが“Last Name”のテキストボックスに移動する。そして、操作者7が音声を入力すると、この入力音声がマイクロフォン62により検出され、さらにその音声データから音声認識処理により操作者7が入力した単語が認識されて、当該単語が上記フォーカスの当たっている“Last Name”のテキストボックスに入力される。
一方、図13に示したように検査リストが表示されている状態では、入力対象のテキストボックスは検索キーワード用のテキストボックスだけである。このため、ジェスチャの入力受付中を示すアイコンは表示されず、音声の入力受付中であることを示すアイコン41のみが表示される。そして、この状態で操作者7が音声によりキーワードを入力すると、この入力音声がマイクロフォン62により検出され、さらにその音声データから音声認識処理により操作者7が入力したキーワードの単語が認識されて、当該単語が上記フォーカスの当たっている“検索キーワードの”のテキストボックスに入力される。
かくして、操作者7のジェスチャ及び音声によるテキストボックスの選択操作と、選択されたテキストボックスに情報を入力する操作が行われる。
上記ジェスチャ・音声の入力受付モードが設定されている状態で、入力受付条件判定部308は、ステップS41において入力受付モードの解除を監視する。その結果、操作者7の状況が上記入力受付条件を満たしている限り上記ジェスチャ・音声の入力受付モードを維持する。これに対し、操作者7が一定時間以上連続して顔をモニタ3から逸らすか、又は表示画面のステータスが操作者7によるデータ操作を必要としないものになると、入力受付条件を満足しなくなるので、この時点でジェスチャ・音声の入力受付モードを解除し、アイコン41も消去する。
(第2の実施形態の効果)
以上詳述したように第2の実施形態では、非検査期間に操作者7が患者・検査情報の登録、変更又は削除等の制御情報に対するデータ操作を行う際に、操作者7の顔がモニタ3に向いており、かつ当該モニタ3にデータ操作が必要な表示画面データが表示されていることをジェスチャ・音声の入力受付条件とし、当該条件を満たす場合にジェスチャ・音声の入力受付モードを設定して、ジェスチャ・音声の入力受付け処理を実行するようにしている。
したがって、操作者7が患者・検査情報の登録、変更又は削除等の制御情報のデータ操作を行おうとする場合に、ジェスチャ及び音声によるテキストボックスの選択操作と、選択されたテキストボックスに情報を入力する操作を行うことが可能となり、全ての操作をキーボードやトラックボールを操作して行う場合に比べ、操作性を改善することができる。一般に、超音波診断装置のキーボードは小さく、またその都度引き出して使用しなければならないため、上記ジェスチャ及び音声による入力操作とキーボードによる入力操作を併用できることは、操作性を改善する上で大きな効果が期待できる。
しかも、上記ジェスチャ・音声の入力受付条件を設定し、当該条件を満たす場合にのみ入力を受け付けるようにしたので、ジェスチャ・音声による入力受付期間を操作者が真に必要とする状況下のみに制限することができる。このため、ジェスチャ・音声による入力操作を必要としない状況下で、操作者7が言葉を発するつもりがないのに、或いはジェスチャするつもりはないのに、無意識に行った場合や、助手や被検査者8等との会話或いは手振りによる説明の中に偶然その操作コマンドが含まれていた場合に、当該言葉やコマンドが装置で認識されて当該言葉やコマンドに対応する制御が操作者7の意図には関係なく実行されないようにすることができる。
また、ジェスチャ・音声入力の受付条件を満たしたときに、モニタ3の表示画面上にアイコン41を表示し、さらに操作対象となる項目を番号を付して表示するようにしている。このため、操作者7はジェスチャ・音声入力が可能なモードになっているか否かを、モニタ3を見ることで明確に認識することができる。
[第3の実施形態]
第3の実施形態は、検査中以外の画面が表示され、かつトラックボールの操作によるカーソル移動が必要な状態で、操作者の顔がモニタの方向を向き、操作者がトラックボールに触れておらず、さらに操作者の手の位置が操作パネルの位置より高い位置にある場合に、ジェスチャの入力受付条件を満たしていると判定してジェスチャの入力受付モードを設定し、この状態で操作者のジェスチャを認識してカーソルを移動制御するようにしたものである。
図14は、第3の実施形態に係る超音波診断装置の装置本体1Cの機能構成を、周辺部の構成と共に示したブロック図である。なお、同図において前記図2と同一部分には同一符号を付して詳しい説明は省略する。
装置本体1Cの操作支援制御ユニット30Cは、例えば所定のプロセッサ及びメモリから構成される。操作支援制御ユニット30Cは、第3の実施形態を実施する上で必要な制御機能として、顔方向検出部311と、手位置検出部312と、画面判定部313と、入力受付条件判定部314と、入力受付処理部315を備えている。
顔方向検出部311は、センサユニット6のカメラ61により撮影された操作者の画像データをもとに操作者の顔画像をパターン認識技術を用いて認識し、当該認識結果をもとに操作者の顔がモニタ3の方向を向いているか否かを判定する。
手位置検出部312は、上記カメラ61により撮影された操作者の画像データをもとに操作者の手の画像をパターン認識技術を用いて認識し、当該認識結果をもとに操作者の手の位置が操作パネルの位置より高い位置にあるか否かを判定する。
画面判定部313は、患者・検査情報の閲覧時のようにカーソル移動が必要な種類の画面が表示されているか否かを判定する。
入力受付条件判定部314は、上記顔方向検出部311により検出された操作者の顔の方向と、上記手位置検出部312により検出された操作者の手の位置と、上記画面判定部313により判定された表示画面の種類に基づいて、操作者の顔の方向、操作者の手の高さ位置及び表示画面の種類がジェスチャの入力受付条件を満たすか否かを判定する。
入力受付処理部315は、上記入力受付条件判定部314において上記ジェスチャ入力受付条件を満たすと判定された場合に、ジェスチャの入力受付モードを設定し、ジェスチャ入力受付中であることを示すアイコンを表示画面に表示させる。そして、センサユニット6のカメラ61により得られた操作者の画像データをもとに、操作者のジェスチャを認識する。そして、この認識したジェスチャにより表される操作情報の妥当性を判断し、妥当であれば当該ジェスチャにより表される操作情報を受け付けてカーソルの移動制御を行う。
(動作)
次に、以上のように構成された装置による入力操作支援動作を説明する。
図15は装置に対する操作者7の位置関係の一例を示す図、図16は操作支援制御ユニット30Cによる入力操作支援制御の処理手順と処理内容を示すフローチャートである。
(1)表示画面の判定
操作支援制御ユニット30Cは、先ずステップS51において画面判定部313の制御の下、モニタ3に表示中の画面の種類を判定する。ここでは、検査中以外の画面が表示され、かつ検査リスト表示画面のようにカーソル操作が必要な画面が表示中であるか否かを判定する。
(2)操作者の顔の向き及び手の位置の検出
操作支援制御ユニット30Cは、次に顔方向検出部311の制御の下、操作者の顔の向きを検出するための処理を以下のように実行する。
すなわち、先ずステップS52によりセンサユニット6のカメラ61から操作者7を撮影した画像データを取り込み、記憶ユニット40のバッファエリアに一旦保存する。次にステップS53により、上記保存された画像データから操作者7の顔画像を認識する。この顔画像の認識は、例えば上記取得した画像データを、予め記憶しておいた操作者の顔画像パターンと照合するパターン認識技術を用いて行う。そしてステップS54により、上記認識した操作者の顔画像中から目を表す画像を抽出し、この抽出された目の画像から操作者の視線Kを検出する。
続いてステップS55において、上記操作者7を撮影した画像データから当該操作者7の手の画像を認識し、この認識した手の位置Hがトラックボール2bより高い位置にあるか低い位置にあるかを判定する。
(3)入力受付条件を満たしているか否かの判定
操作支援制御ユニット30Cは、次にステップS56において入力受付条件判定部314の制御の下、上記顔方向検出部311による操作者の顔の向き(正確には視線の方向K)の検出結果と、手位置検出部312による操作者7の手の位置の判定結果と、画面判定部313により判定された表示中の画面の種類に基づいて、ジェスチャの入力受付条件を満たしているか否かを判定する。
例えば図15に示すように、モニタ3に検査中以外の画面で、かつトラックボール2bの操作によりカーソル移動が必要な画面が表示されている状態で、操作者7の顔(正確には視線K)がモニタ3の方向を向き、操作者7がトラックボール2bに触れておらず、さらに操作者7の手の位置Hが操作パネル2の位置より高い位置にある場合に、ジェスチャの入力受付条件を満たしていると判定する。なお、入力受付条件を満たしていないと判定された場合には、ジェスチャによる操作情報入力モードを設定せず、入力操作の支援制御は終了する。
(4)ジェスチャによる操作情報の入力受付処理
これに対し、上記ステップS56において入力受付条件を満たすと判定されたとする。この場合には、入力受付処理部315の制御の下、以下のようにジェスチャの入力受付処理を実行する。
すなわち、先ずステップS57において、ジェスチャ入力受付モードを設定した上で、ジェスチャ入力受付中であることを示すアイコン41を、モニタ3の表示画面上に表示する。図18はその一例を示すもので、患者リストの表示画面にアイコン41を表示した場合を示している。
上記ジェスチャ入力受付モードが設定された状態で、操作者7が自身の指でジェスチャを行うと、入力受付処理部315は以下のように操作情報の入力受付処理を行う。すなわち、例えばいま図17に示すように操作者7が指で時計回りの円A1を描いたとする。そうすると、カメラ61により操作者7を撮影した画像データから当該操作者7の指の画像を抽出し、この抽出した指の画像の移動を検出する。そして、一定量以上の指の移動が検出されるとジェスチャが行われたとステップS58で判断し、続いてステップS59において上記ジェスチャの移動方向と移動量、つまり移動軌跡認識する。そして、この認識した移動軌跡に応じて、ステップS60によりモニタ3の患者リスト表示画面に表示中のカーソルCSの位置を、図17のA2に示すように移動させる。かくして、操作者7のジェスチャによるカーソルCSの移動操作が行われる。
上記ジェスチャの入力受付モードが設定されている状態で、入力受付条件判定部314は、ステップS61において入力受付モードの解除を監視する。その結果、操作者7の状況が上記入力受付条件を満たしている限り上記ジェスチャの入力受付モードを維持する。これに対し、操作者7が一定時間以上連続して顔をモニタ3から逸らすか、表示画面の種類が操作者7によるカーソル操作を必要としないものになるか、或いは操作者7が手を操作パネル2より下に下げると、入力受付条件を満足しなくなるので、この時点でジェスチャの入力受付モードを解除し、アイコン41も消去する。
(第3の実施形態の効果)
以上詳述したように第3の実施形態では、カーソル移動が必要な検査中以外の画面が表示されている状態で、操作者7の顔(正確には視線K)がモニタ3の方向を向き、操作者7の手の位置Hが操作パネル2の位置より高い位置にあるもののトラックボール2bには触れていない場合には、操作者がジェスチャ入力を希望していると推測されるので、ジェスチャの入力受付条件を満たしていると判定する。そして、ジェスチャの入力受付モードを設定すると共にジェスチャ入力受付中を示すアイコン41を表示画面に表示させ、この状態で操作者7が行ったジェスチャの軌跡を画像データから認識してカーソルの移動処理を実行している。
したがって、カーソル2bを操作することなくカーソルCSを移動させることが可能となる。一般にトラックボールはカーソルを画面の対角線方向に移動させるには不向きである。しかし、ジェスチャによるカーソルを移動させることが可能となることで、操作性を向上することができる。
しかも、ジェスチャ入力受付条件を満たした場合にのみ、つまり操作者7がジェスチャ入力によるカーソル操作の意思を明確に示した場合にのみ、ジェスチャ入力受付モードが設定される。このため、操作者7が画面に向かって無意識又は別の目的で指を動かした場合に、この指の動きをカーソル操作として誤認識されないようにすることができる。
また、ジェスチャ入力の受付条件を満たしたときに、モニタ3の表示画面上にアイコン41を表示するようにしている。このため、操作者7はジェスチャ入力が可能なモードになっているか否かをモニタ3を見ることで明確に認識することができる。
なお、第3の実施形態ではジェスチャによりカーソル操作を行う場合を例にとって説明したが、それに限らずジェスチャにより表示画面の拡大又は縮小操作を行うようにしてもよい。図18はその一例を説明するためのもので、操作者が手72を開くようなジェスチャを行うと、カーソルにより指示されている情報を含む周辺の一定範囲が拡大表示される。
当該例を実施するときのジェスチャ入力受付条件には、例えば操作者の手72とモニタ3との距離が予め設定した距離より遠い場合や、表示画面の文字のサイズが所定サイズより小さい場合を加えるとよい。このようにすると、操作者がモニタ3から離れていて画面に表示されている文字を判別しにくい場合や、モニタ3の近くにいても表示文字サイズが小さく判読しにくい場合に、カーソルにより指示されている情報を含む周辺の一定範囲が拡大表示されるので、当該範囲に含まれる文字を判読しやすくすることができる。
[第4の実施形態]
第4の実施形態は、検査中において操作者が超音波プローブを操作している場合や、非検査中であっても操作者がモニタから一定の距離内で一定時間以上連続してモニタに顔を向けている場合には、操作者がモニタを見ている状態と判断して表示方向追尾制御機能を起動し、操作者の顔の方向に向けてモニタの表示方向が追尾するように制御するようにしたものである。
図19は、第4の実施形態に係る超音波診断装置の装置本体1Dの機能構成を、周辺部の構成と共に示したブロック図である。なお、同図において前記図2と同一部分には同一符号を付して詳しい説明は省略する。
装置本体1Dの操作支援制御ユニット30Dは、例えば、所定のプロセッサとメモリとから構成される。操作支援制御ユニット30Dは、第4の実施形態を実施する上で必要な制御機能として、顔方向検出部316と、距離検出部317と、プローブ使用状態判定部318と、追尾条件判定部319と、表示方向追尾制御部320を備えている。
顔方向検出部316は、センサユニット6のカメラ61により撮影された操作者の画像データをもとに操作者の顔画像をパターン認識技術を用いて認識し、当該認識結果をもとに操作者の顔がモニタ3の方向を向いているか否かを判定する。
距離検出部317は、例えばセンサユニット6が備えるカメラ61の測距用光源とその受光素子を用い、操作者に向け光源から赤外線を照射してその反射光を受光素子で受光し、当該受光された反射光と照射光との位相差、或いは照射から受光までの時間に基づいて、操作者7とモニタ3との間の距離を算出する。
プローブ使用状態判定部318は、主制御モード20が検査モードに設定されているか、又は超音波のライブ画像がモニタ3に表示されているかにより、超音波プローブ4が使用中か否かを判定する。
追尾条件判定部319は、上記顔方向検出部316による操作者7の顔の向きの検出結果と、上記距離検出部317による操作者7とモニタ3との間の距離の検出結果と、上記プローブ使用状態判定部318による超音波プローブ4の使用状態の判定結果に基づいて、これらの検出結果又は判定結果が予め設定したモニタ3の表示方向追尾条件を満たしているか否かを判定する。
表示方向追尾制御部320は、上記追尾条件判定部319により各検出結果及び判定結果が上記表示方向追尾条件を満たしていると判定された場合に、上記顔方向検出部316による操作者の顔方向の検出結果に基づいて、モニタ3の表示方向が常に操作者7の顔の方向を向くように制御する。
(動作)
次に、以上のように構成された装置による入力操作支援動作を説明する。
図20は装置本体1に対する操作者7の位置関係の一例を示す図、図21は操作支援制御ユニット30Dによる入力操作支援制御の処理手順と処理内容を示すフローチャートである。
(1)超音波プローブ4の使用状態の判定
操作支援制御ユニット30Dは、先ずステップS71によりプローブ使用状態判定部318の制御の下、超音波プローブ4が使用中か否かを判定する。この判定は、主制御モード20が検査モードに設定されているか、又は超音波のライブ画像がモニタ3に表示されているかにより、判定することができる。
(2)操作者の顔の向き及び距離の検出
操作支援制御ユニット30Dは、次に顔方向検出部316の制御の下、操作者の顔の向きを検出するための処理を以下のように実行する。
すなわち、先ずステップS72によりセンサユニット6のカメラ61から操作者7を撮影した画像データを取り込み、記憶ユニット40のバッファエリアに一旦保存する。次にステップS73により、上記保存された画像データから操作者7の顔画像を認識する。この顔画像の認識は、例えば上記取得した画像データを、予め記憶しておいた操作者の顔画像パターンと照合する周知のパターン認識技術を用いて行う。そしてステップS74により、上記認識した操作者の顔画像中から目を表す画像を抽出し、この抽出された目の画像から操作者の視線Kを検出する。
(3)モニタと操作者との距離の検出
続いてステップS75において、距離検出部317の制御の下、モニタ3と操作者7との間の距離を検出する。この距離の検出は例えば以下のように行われる。すなわち、先に述べたようにカメラ61の測距用光源とその受光素子を用い、操作者に向け光源から赤外線を照射してその反射光を受光素子で受光する。そして、当該受光された反射光と照射光との位相差、或いは照射から受光までの時間に基づいて、操作者7とモニタ3との間の距離を算出する。
(4)追尾条件の判定
操作支援制御ユニット30Dは、次にステップS76において、追尾条件判定部319の制御の下、上記顔方向検出部316による操作者7の顔の向きの検出結果と、上記距離検出部317による操作者7とモニタ3との間の距離の検出結果と、上記プローブ使用状態判定部318による超音波プローブ4の使用状態の判定結果が、予め設定した追尾条件を満たすか否かを判定する。
表示方向の追尾条件は、例えば以下のように設定される。
(1) 検査中において、超音波プローブ4が使用されている場合。
(2) 非検査中において、操作者7がモニタ3に対し予め設定した距離(例えば2m)以内に存在し、かつ操作者7の顔がモニタ3の方向を一定時間(例えば2秒)以上連続して向いている場合。
(5)表示方向追尾制御
操作支援制御ユニット30Dは、上記ステップS76において上記顔方向検出部316による操作者7の顔の向きの検出結果と、上記距離検出部317による操作者7とモニタ3との間の距離の検出結果と、上記プローブ使用状態判定部318によるプロープ使用状態の判定結果が上記表示方向追尾条件を満たしていると判定された場合に、表示方向追尾制御部320の制御の下、以下のようにモニタ3の表示方向を制御する。
すなわち、先ずステップS77において、上記顔方向検出部316によりモニタ3(実際にはセンサユニット6)から見たときの操作者7の顔の方向を、検査空間に定義した二次元座標上の座標位置として検出する。続いてステップS78により、上記検出された操作者7の顔の方向を表す座標値と、モニタ3の現在の表示方向を示す座標値との差をX軸及びY軸のそれぞれについて算出する。次にステップS79において、上記算出されたX軸及びY軸の差に応じたモニタ3のパン方向P及びチルト方向Qの可変角度をそれぞれ算出し、この算出した可変角度に従いモニタ3の支持機構を駆動してモニタ3の画面の向きを制御する。そして、この向きの制御後に再度上記差を算出し、当該差が一定値以下になったか否かをステップS80で判定する。この判定の結果、一定値以下になれば追尾制御を終了し、一定値以下になっていなければステップS77に戻って上記ステップS77〜S80による追尾制御を繰り返す。
(第4の実施形態の効果)
以上詳述したように第4の実施形態では、検査中であれば超音波プローブ4が使用中の場合、非検査中であれば操作者7がモニタ3に対し予め設定した距離(例えば2m)以内に存在し、かつ操作者7の顔がモニタ3の方向を一定時間(例えば2秒)以上連続して向いている場合に、モニタ3の画面の向きの追尾モードを設定し、モニタ3の画面の向きが操作者の顔の方向に常に向くように、操作者7の顔の位置の検出結果に応じて追尾制御するようにしている。
したがって、超音波プローブ4の操作中に操作者7の位置又は姿勢が変化しても、操作者7はモニタ3の画面の向きをその都度手操作で修正しなくてもよくなり、これにより検査効率を高めることが可能となる。この効果は、手術中のように操作者7の両手が塞がっている場合に特に有効である。
[第5の実施形態]
例えば心臓大血管手術に代表されるカテーテル手術において、超音波診断装置を用いて、被検体内をモニタリングする場合がある。特に、心臓大血管手術では、経食道心エコー(TEE)による評価が重要視される。しかしながら、超音波診断装置の他に、X線診断装置、体外循環装置等の種々な装置が設置された環境下での手術となり、超音波診断装置を操作できるスペースが限られる(通常、心臓大血管手術等において超音波画像を撮影しようとする場合、技師は、術者のカテーテル操作の邪魔にならない限られた場所に立ち、そこから体勢を変えて経食道心エコー用プローブを患者の口から挿入して食道や胃の中まで入れ、体内から心臓に関する超音波画像を撮影しなければならない)。この様な場合には、技師による超音波診断装置の操作は、困難になると予想される。
そこで、第5の実施形態では、係る場合において、術者を補助する技師が、超音波診断装置の遠隔操作する例について説明する。また、技師に限らず、例えば、「私が操作者です(I’m an operator)」のような、予め決定されたフレーズを音声入力することで操作者となること(言い換えれば、超音波診断装置1Eの操作をする権利を取得すること)で、術者も操作者としてジェスチャ・音声入力による操作を行えるようにする。
図22は、第5の実施形態に係る超音波診断装置の装置本体1Eの機能構成を、周辺部の構成と共に示したブロック図である。なお、同図において前記図2と同一部分には同一符号を付して詳しい説明は省略する。
装置本体1Eの操作支援制御ユニット30Eは、例えば、所定のプロセッサとメモリとから構成される。操作支援制御ユニット30Eは、第5の実施形態を実施する上で必要な制御機能として、操作者認識部321と、状態検出部322と、プローブ使用状態判定部303と、入力受付条件判定部324と、入力受付処理部325を備えている。
操作者術者認識部321は、上記記憶ユニット40Eに保存された検査空間の画像データをもとに検査空間に存在する人物と、記憶ユニット40Eに予め登録された術者の画像データとを比較して術者を判別する。
装置本体1Eの記憶ユニット40Eには、第1の実施形態における記憶ユニット40に保存される情報に加えて、手術を行う術者を識別するための画像データが予め登録されている。さらに、装置本体1Eの記憶ユニット40Eには、予め記憶された超音波プローブ4の画像パターンには、径食道心エコー検査等を行う際に、超音波プローブ4が被検査者8に口から挿入され、プローブ本体部分が一部見えないパターンが含まれる。
状態検出部322は、第1の実施形態に係る距離検出部302が検出する距離Lに代え、センサユニット6が備えるカメラ61で撮影した画像データを元に、超音波プローブ4が被検査者8に口から挿入されているかどうかを検出する。なお、超音波プローブ4が被検査者8に口から挿入されているかどうかの検出は、モニタ3に映し出される超音波画像を用いて行ってもよい。
入力受付条件判定部324は、上記状態検出部322により検出された超音波プローブ4の被検査者8の口への挿入状態と、プローブ使用状態判定部303により判定された超音波プローブ4の使用状態とに基づいて、撮影状態がジェスチャ・入力受付条件を満たすか否かを判定する。
入力受付処理部325は、上記入力受付条件判定部324において撮影状態がジェスチャ・音声による操作情報の入力受付条件を満たしていると判定された場合に、ジェスチャ入力受付モードを設定して、ジェスチャ・音声入力を受付中であることを示すアイコンを、モニタ3の表示画面に表示する。
入力受付処理部325は、センサユニット6のカメラ61により得られた技師9の画像データ、及びマイクロフォン62により得られた技師9の音声データから、それぞれ技師9のジェスチャ及び音声を認識する。入力受付処理部325は、該認識したジェスチャ及び音声により表される操作情報の妥当性を判断し、妥当であれば当該ジェスチャ及び音声により表される操作情報を受け付ける。
入力受付処理部325は、上記入力受付条件判定部324において現在の撮影状態がジェスチャ・音声による操作情報の入力受付条件を満たしていると判定された場合に、センサユニット6のカメラ61により得られた術者10の画像データ、及びマイクロフォン62により得られた術者10の音声データから、それぞれ術者10のジェスチャ及び音声を認識する。入力受付処理部325は、術者10から操作者になりたい旨の合図を検知した場合に、ジェスチャ複数入力受付モードを設定して、技師9及び術者10からのジェスチャ・音声入力を受付中であることを示すアイコンを、モニタ3の表示画面に表示する。入力受付処理部325は、術者10に対して技師9と同様にジェスチャ及び音声により表される操作情報を受け付ける。
(動作)
次に、以上のように構成された装置による入力操作支援動作を説明する。
図23は装置本体1Eに対する超音波プローブ4、被検査者8、手術の補助者としての技師9、術者10、X線診断装置12の位置関係の一例を示す図、図24は操作支援ユニット30Eによる入力操作支援制御の処理手順と処理内容を示すフローチャートである。
(1)超音波プローブ4の使用状態の判定
操作支援制御ユニット30Eは、先ずステップS81によりプローブ使用状態判定部303の制御の下、超音波プローブ4が使用中か否かを判定する。この判定は、主制御モード20が検査モードに設定されているか、又は超音波のライブ画像がモニタ3に表示されているかにより、判定することができる。
(2)操作者の認識
操作支援制御ユニット30Eは、次に操作者認識部321の制御の下、操作者を認識するための処理を以下のように実行する。
すなわち、先ずステップS82によりセンサユニット6のカメラ61から検査空間を撮影した画像データを取り込み、記憶ユニット40Eのバッファエリアに保存する。次にステップS83により、上記保存された画像データから超音波プローブ4及び人物の画像を認識する。この超音波プローブ4の認識は、例えばパターン認識を用いて行う。具体的には、上記保存された1フレームの画像データ(今の場合、経食道心エコー用プローブを当該患者の口に挿入した状態を撮影した画像データ)に対しそれより小サイズの着目領域を設定し、この着目領域の位置を1画素ずつシフトするごとにその画像を予め記憶された画像パターン(例えば、経食道心エコー用プローブを所定の患者の口に挿入した状態を予め撮影した画像データ)と照合し、その一致の度合いがしきい値以上になった場合に当該照合対象の画像を超音波プローブ4の画像として認識する。そしてステップS14により、上記抽出された超音波プローブ4を持つ人物を操作者(今の場合、技師9)と認識する。
(3)撮影状態検出
次にステップS85において、状態検出部322は、超音波プローブ4が被検査者8に口から挿入されているか否かを検出する。なお、必要に応じて技師9とモニタ3との間の距離等を検出してもよい。
具体的には、センサユニット6は、例えばカメラ61が撮影した超音波プローブ4及び被検査者8の画像を取得する。そして、当該画像上に映し出された超音波プローブ4と被検査者8の位置関係に基づいて超音波プローブ4が被検査者8に口から挿入されているか否かを検出する。
(4)入力受付条件を満たしているか否かの判定
上記超音波プローブ4が被検査者8に口から挿入されているか否かの検出が終了すると、次にステップS86において入力受付条件判定部324の制御の下、上記状態検出部322により検出された超音波プローブ4が被検査者8に口から挿入されているか否かと、プローブ使用状態判定部303により判定された超音波プローブ4の使用状態の判定結果をもとに、現在の技師9の状態がジェスチャ・音声による操作情報の入力受付条件を満たすか否かを判定する。例えば、ステップS81において超音波プローブ4が使用中であること、超音波プローブ4が被検査者8に口から挿入されていることをすべて満たす場合には、入力受付条件を満たしていると判定する。入力受付条件判定部324は、上記判定結果が入力受付条件を満たしていなければ、ジェスチャ・音声による操作情報入力モードを設定せず、入力操作の支援制御は終了する。
(5)ジェスチャ・音声による操作情報の入力受付処理
これに対し、上記ステップS86において入力受付条件を満たすと判定されたとする。この場合には、入力受付処理部325の制御の下、以下のようにジェスチャ・音声の入力受付処理を実行する。
すなわち、先ずステップS87において、ジェスチャ入力受付モードを設定したのち、操作者9からのジェスチャ・音声入力を受付中であることを示すアイコン41を、モニタ3の表示画面上に表示する。またそれと共にステップS88において、ジェスチャ・音声の入力により操作可能な対象項目42をモニタ3の表示画面に表示する。図26又は図27はその表示例を示すもので、図26はカテゴリの項目選択をジェスチャ・音声入力による操作対象とする場合を、また図27は選択されたカテゴリの中の詳細項目の選択をジェスチャ・音声入力による操作対象とする場合をそれぞれ示している。
次に、ステップ89において、入力受付処理部325は、術者10から装置を操作したい旨のジェスチャ・音声入力を受け付ける。術者10から上記ジェスチャ・音声入力があった場合、ステップS91において、術者10からのジェスチャ・音声入力を受付中であることを示すアイコン42を、モニタ3の表示画面上に表示する。その後、入力受付処理部325は、ステップS92において技師9及び術者10双方からのジェスチャ・音声入力を受付可能な状態で待機する。入力受付処理部325は、術者10から装置を操作したい旨のジェスチャ・音声入力がなかった場合、ステップS90において技師9のみからのジェスチャ・音声入力を受付可能な状態で待機する。以下、技師9がジェスチャ・音声入力を行う場合を説明する。
技師9が例えば図3に示したようにジェスチャにより操作対象項目の番号に対応する本数の指を立てたとする。この場合入力受付処理部325は、ステップS90及びS93において、カメラ61により撮影された操作者の画像データから手指の画像を抽出し、この抽出した手指の画像を予め記憶してある手指により番号を表現したときの基本画像パターンと照合する。入力受付処理部325は、両画像がしきい値以上の類似度で一致すると、このときの手指の画像により表される番号を受付け、ステップS94において当該番号に対応するカテゴリ又は詳細項目を選択する。
一方、技師9が操作対象項目の番号を表す音声を発したとする。この場合、入力受付処理部325は、マイクロフォン62により集音された音声について、その音源の方向を検出する処理と、音声認識処理を以下のように行う。すなわち、マイクロフォンアレイにより構成されるマイクロフォン62を利用してビームフォーミングを行う。ビームフォーミングは、特定の方向からの音声を選択的に集音する技術であり、これにより音源の方向、つまり技師9の方向を特定する。また、入力受付処理部325は、既知の音声認識技術を用いて、集音した音声から単語を認識する。入力受付処理部325は、上記音声認識技術によって認識された単語が操作対象項目に存在するか否かを判定する。入力受付処理部325は、上記単語が操作対象項目に存在する場合には当該単語により表される番号を受付け、ステップS94において当該番号に対応するカテゴリ又は詳細項目を選択する。
上記ジェスチャ・音声の入力受付モードが設定されている状態で、入力受付条件判定部324は、ステップS95において入力受付モードの解除を監視する。入力受付条件判定部324は、技師の状況が上記入力受付条件を満たしている限り上記ジェスチャ・音声の入力受付モードを維持する。これに対し、入力受付条件判定部324は、技師9が超音波プローブ4の操作を終了するか、又は装置に近づいて手動による入力操作が可能になると、入力受付条件を満足しなくなるので、この時点でジェスチャ・音声の入力受付モードを解除し、アイコン41も消去する。
(第5の実施形態の効果)
以上詳述したように第5の実施形態では、超音波プローブ4の使用状態を判定すると共に、検査空間をカメラ61により撮影した画像データをもとに技師9を認識して超音波プローブ4が被検査者8に口から挿入されているか否かを検出している。そして、入力受付条件判定部324は、超音波プローブ4が使用中と判定され、かつ超音波プローブ4が被検査者8に口から挿入されていることが検出された場合に、ジェスチャ・音声入力の受付条件を満足していると判断する。ジェスチャ・音声入力の受付条件を満足していると判断された場合は、入力受付条件判定部324は、ジェスチャ・音声の入力受付モードを設定し、この状態で入力されたジェスチャ又は音声の認識結果を入力操作情報として受け付けるようにしている。また、入力受付処理部325は、術者10から装置を操作したい旨のジェスチャ・音声入力を受け付け、技師9からだけでなく、術者10からも入力操作情報を受け付けられるようにしている。
したがって、ジェスチャ・音声による入力受付期間を操作者が真に必要とする状況下のみに制限することができる。このため、ジェスチャ・音声による入力操作を必要としない状況下で、技師9が言葉を発するつもりがないのに、或いはジェスチャするつもりはないのに、無意識に行った場合や、被検査者8、術者10等との会話或いは手振りによる説明の中に偶然その操作コマンドが含まれていた場合に、当該言葉やコマンドが装置で認識されて当該言葉やコマンドに対応する制御が技師9の意図には関係なく実行されないようにすることができる。検出するまた、技師9以外の者、例えば術者10も操作に参加することができ、検査あるいは手術効率を高めることが可能となる。
また、ジェスチャ・音声入力の受付条件を満たしたときに、モニタ3の表示画面上にアイコン41及びアイコン42を表示し、さらに操作対象となる項目を番号を付して表示するようにしている。このため、技師9及び術者10はジェスチャ・音声入力が可能なモードになっているか否かをモニタ3を見ることで明確に認識することができ、さらに操作対象項目を確認した上でジェスチャ・音声による入力操作を行うことができる。
(変形例1)
技師が限られた姿勢で超音波プローブを操作しなければならない例として、変形例1では寝ている患者の体の反対(奥)側を検査する場合ついて説明する。図28は、第5の実施形態の変形例1の説明に使用する、装置と操作者との位置関係の一例を示す図である。
病室など限られた狭い空間で超音波プローブを利用して検査をする場合、例えば技師9は、患者8の左手側に立ち、患者8の胴体の上を覆いかぶさるように体を湾曲させ、反対(奥)側である右手側の胸部へ超音波プローブ4を回り込ませて当てる場合がある。このような場合、当該回り込み動作を行った操作者9の体軸角度θを検出することで、技師9の無理な体勢を検知し、ジェスチャ・音声入力の受付条件の1つとして制御を行う。
ジェスチャ・音声入力の受付条件として用いる変形例1の検出項目は、技師9とモニタ3との距離、技師9の鉛直方向(重力方向又は床面に垂直な方向)に対する体軸角度及び技師9が操作する超音波プローブ4の被検査者8への接触の有無の3項目である。変形例1では、図22の状態検出部322が検出する項目に代えて、以下の3項目を検出する。
(a)技師9とモニタ3との間の距離Lの検出
上記認識した技師9の特定の部位、例えば超音波プローブ4を持っていない側の肩関節の位置と、モニタ3との間の距離Lを以下のように検出する。
すなわち、センサユニット6は、例えばカメラ61が備える測距用の光源と受光器を用い、検査空間に赤外線を照射して、当該照射光の技師9による反射光を受光する。そして、上記受信された反射光と照射波との位相差、或いは照射から受光までの時間に基づいて、技師9の超音波プローブ4を持っていない側の肩関節の位置とセンサユニット6との間の距離Lを算出する。なお、センサユニット6はモニタ3の上部に一体的に取着されているので、上記距離Lは技師とモニタ3との間の距離と見なすことができる。
(b)技師9の鉛直方向に対する体軸角度θの検出
上記認識した技師9の特定の部位、例えば体軸の鉛直方向に対する角度θを以下のように検出する。
すなわち、センサユニット6は、例えばカメラ61が撮影した技師9の画像を取得する。そして、当該画像上における上記技師9の姿勢に基づいて鉛直方向に対する体軸の角度θを算出する(例えば、図25を参照)。
(c)(技師9が操作する超音波プローブ4の被検査者8への接触)の有無の検出
センサユニット6は、例えばカメラ61が撮影した超音波プローブ4及び被検査者8の画像を取得する。そして、当該画像上に映し出された超音波プローブ4と被検査者8の位置関係に基づいて超音波プローブ4の被検査者8への接触の有無を検出する。
また、変形例1では、図22の入力受付条件判定部324が判定する条件に代えて、ジェスチャ・音声入力の受付条件は、例えば超音波プローブ4が使用中であること、前記超音波プローブの前記被検査者への接触があること、技師9とモニタ3との間の距離が50cm以上離間していることをすべて満たす場合である。また、ジェスチャ・音声入力の受付条件は、超音波プローブ4が使用中であること、前記超音波プローブの前記被検査者への接触があること、技師9の体軸角度θが30度以上であることをすべて満たすことである。
このように、変形例1のような状況下では、よりジェスチャ・音声による入力受付期間を操作者が真に必要とする状況下のみに制限することが可能となる。
(変形例2)
技師が限られた姿勢で超音波プローブを操作しなければならない例として、変形例2では足先を検査する場合について説明する。足先を検査する状況は、第1の実施形態で説明した図3に示されるような場合である。操作者(技師)7は足先を検査するために体を湾曲させて患者8の足先に超音波プローブ4を接触させる必要がある。このような場合、体を湾曲させた操作者7の体軸角度θを検出することで、操作者7の無理な体勢を検知し、ジェスチャ・音声入力の受付条件の1つとして制御を行う。
ジェスチャ・音声入力の受付条件として用いる変形例2の検出項目は、変形例2と同様である。また、ジェスチャ・音声入力の受付条件は、例えば変形例1に記載した場合と同様である。
このように、変形例2のような状況下では、よりジェスチャ・音声による入力受付期間を操作者が真に必要とする状況下のみに制限することが可能となる。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(central processing unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、上記各実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、上記各実施形態における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。
[その他の実施形態]
第4の実施形態ではモニタ3の画面の向きを制御するようにしたが、超音波診断装置に自動走行機能が設けられている場合には、超音波診断装置自体の向きを変えるようにしてもよい。
また、第4の実施形態で述べたモニタ画面の向きの追尾機能を、第1乃至第3の各実施形態に追加するようにしてもよい。
また、第5の実施形態では音波診断装置が具備するモニタ3、センサユニット6のみを技師9及び術者10が利用するようにしたが、例えば超音波診断装置が具備するモニタ3及びセンサユニット6に加えて、術者10専用のモニタ及びセンサユニットをさらに設置して制御するようにしてもよい。
また、第5の実施形態では技師9及び術者10によるジェスチャ・音声の入力操作情報を受け付けられるように制御したが、技師9及び術者10以外の者によるジェスチャ・音声の入力操作情報をさらに受け付けられるように制御してもよい。また、ジェスチャ・音声の入力操作情報の受け付け可能人数に上限を設定して制御してもよい。
その他、顔の向きの検出手段や、距離の検出手段、ジェスチャ・音声の入力受付条件の設定内容、追尾条件の設定内容等についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。
すなわち、いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1A,1B,1C,1D,1E…超音波診断装置、2…操作パネル、3…モニタ、4…超音波プローブ、5…多芯ケーブル、6…センサユニット、7…操作者、8…患者、9…技師、10…術者、11…装置本体、12…X線診断装置、20…主制御ユニット、21…超音波送信ユニット、22…超音波受信ユニット、23…Bモード処理ユニット、24…ドプラ処理ユニット、25…データメモリ、26…ボリュームデータ生成ユニット、27…画像処理ユニット、28…表示処理ユニット、29…入力インタフェースユニット、30A,30B,30C,30D,30E…操作支援制御ユニット、40,40E…記憶ユニット、41…ジェスチャ・音声入力受付モード表示用アイコン、301…操作者認識部、321…操作者術者認識部、322…状態検出部、302,317…距離検出部、303…プローブ使用状態判定部、304,308,314,324…入力受付条件判定部、305,309,315,325…入力受付処理部、306,311,316…顔方向検出部、307,313…画面判定部、312…手位置検出部、313…画面判定部、318…プローブ使用状態判定部、319…条件判定部、320…表示方向制御部。

Claims (17)

  1. 超音波送受波に用いる超音波プローブと、
    前記超音波プローブの使用状態を含む、前記超音波プローブによる撮影状態を検出する検出手段と、
    前記撮影状態が予め定められた条件に合致するか否かを判定する判定手段と、
    前記判定手段の判定結果に基づいて、前記超音波プローブの操作者のジェスチャ及び音声の少なくとも一方による操作情報の入力を受け付ける入力受付制御手段と、
    を具備する超音波診断装置。
  2. 前記検出手段は、前記超音波プローブの被検体への接触の有無を前記撮影状態として検出する請求項1記載の超音波診断装置。
  3. 前記検出手段は、前記超音波プローブの操作者の位置を検出することを特徴とし、
    前記判定手段は、前記操作者の位置が予め設定した範囲にあるか否かを判定する請求項1又は2記載の超音波診断装置。
  4. 前記入力受付制御手段は、ジェスチャ及び音声の少なくとも一方による受付可能な状態であることを示す案内メッセージ又はアイコンを表示手段に表示させる請求項1乃至3のうちいずれか一項記載の超音波診断装置。
  5. 前記検出手段は、前記操作者を撮影しその画像データをもとに当該操作者の顔の向きを検出し、
    前記判定手段は、前記操作者の顔の向きが表示手段の方向であるか否かを判定する請求項1乃至4のうちいずれか一項記載の超音波診断装置。
  6. 前記検出手段は、前記超音波プローブの操作者の位置と、前記超音波プローブの被検査者への接触状態と、を含む前記撮影状態を検出する請求項1乃至のうちいずれか一項記載の超音波診断装置。
  7. 前記検出手段は、前記超音波プローブの操作者の鉛直方向に対する体軸角度と、前記超音波プローブの被検査者への接触状態と、を含む前記撮影状態を検出する請求項1乃至のうちいずれか一項記載の超音波診断装置。
  8. 前記検出手段は、前記操作者の顔の向きと、前記操作者の手の位置と、を含む前記撮影状態を検出する請求項1乃至のうちいずれか一項記載の超音波診断装置。
  9. 超音波送受波に用いる超音波プローブと、
    前記超音波プローブの操作者の姿勢を検出する検出手段と、
    前記操作者の姿勢が予め定められた条件に合致するか否かを判定する判定手段と、
    前記判定手段の判定結果に基づいて、前記超音波プローブの操作者のジェスチャ及び音声の少なくとも一方による操作情報の入力を受け付ける入力受付制御手段と、
    を具備する超音波診断装置。
  10. 前記検出手段は、前記超音波プローブの被検体への接触の有無を、前記超音波プローブによる撮影状態として検出し、
    前記判定手段は、前記撮影状態が予め定められた条件に合致するか否かを判定する請求項記載の超音波診断装置。
  11. 前記検出手段は、前記超音波プローブの操作者の位置を検出することを特徴とし、
    前記判定手段は、前記操作者の位置が予め設定した範囲にあるか否かを判定する請求項又は10記載の超音波診断装置。
  12. 前記入力受付制御手段は、ジェスチャ及び音声の少なくとも一方による受付可能な状態であることを示す案内メッセージ又はアイコンを表示手段に表示させる請求項乃至11のうちいずれか一項記載の超音波診断装置。
  13. 前記検出手段は、前記操作者を撮影しその画像データをもとに当該操作者の顔の向きを検出し、
    前記判定手段は、前記操作者の顔の向きが表示手段の方向であるか否かを判定する請求項乃至12のうちいずれか一項記載の超音波診断装置。
  14. 前記検出手段は、前記操作者の姿勢として、前記操作者を撮影して得られた画像データをもとに当該操作者の鉛直方向に対する体軸角度を検出し、
    前記判定手段は、前記操作者の鉛直方向に対する体軸角度が予め設定した範囲にあるか否かを判定する請求項乃至13のうちいずれか一項記載の超音波診断装置。
  15. 前記入力受付制御手段は、前記操作者以外の者のジェスチャ及び音声の少なくとも一方による所定の入力情報を検知した後は、前記操作者以外の者からのジェスチャ及び音声の少なくとも一方による操作情報の入力を受け付ける、請求項1乃至14のいずれかに記載の超音波診断装置。
  16. 超音波診断装置が備えるコンピュータに、
    超音波送受波に用いる超音波プローブの使用状態を含む、前記超音波プローブによる撮影状態を検出する検出機能と、
    前記撮影状態が予め定められた条件に合致するか否かを判定する判定機能と、
    前記判定機能の判定結果に基づいて、前記超音波プローブの操作者のジェスチャ及び音声の少なくとも一方による操作情報の入力を受け付ける入力受付制御機能と、
    を実現させる超音波診断装置制御プログラム。
  17. 超音波診断装置が備えるコンピュータに、
    超音波送受波に用いる超音波プローブの操作者の姿勢を検出する検出機能と、
    前記操作者の姿勢が予め定められた条件に合致するか否かを判定する判定機能と、
    前記判定機能の判定結果に基づいて、前記超音波プローブの操作者のジェスチャ及び音声の少なくとも一方による操作情報の入力を受け付ける入力受付制御機能と、
    を実現させる超音波診断装置制御プログラム。
JP2015097622A 2014-05-12 2015-05-12 超音波診断装置とそのプログラム Active JP6598508B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015097622A JP6598508B2 (ja) 2014-05-12 2015-05-12 超音波診断装置とそのプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014099051 2014-05-12
JP2014099051 2014-05-12
JP2015097622A JP6598508B2 (ja) 2014-05-12 2015-05-12 超音波診断装置とそのプログラム

Publications (2)

Publication Number Publication Date
JP2015231518A JP2015231518A (ja) 2015-12-24
JP6598508B2 true JP6598508B2 (ja) 2019-10-30

Family

ID=54479959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015097622A Active JP6598508B2 (ja) 2014-05-12 2015-05-12 超音波診断装置とそのプログラム

Country Status (3)

Country Link
US (1) US20170071573A1 (ja)
JP (1) JP6598508B2 (ja)
WO (1) WO2015174422A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6826106B2 (ja) 2015-09-09 2021-02-03 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 消毒構成を備える超音波システム
US10762641B2 (en) 2016-11-30 2020-09-01 Whirlpool Corporation Interaction recognition and analysis system
US10157308B2 (en) * 2016-11-30 2018-12-18 Whirlpool Corporation Interaction recognition and analysis system
US10692489B1 (en) * 2016-12-23 2020-06-23 Amazon Technologies, Inc. Non-speech input to speech processing system
JP6266833B1 (ja) 2017-07-28 2018-01-24 京セラ株式会社 電子機器、プログラムおよび制御方法
US11049250B2 (en) * 2017-11-22 2021-06-29 General Electric Company Systems and methods to deliver point of care alerts for radiological findings
US10783634B2 (en) 2017-11-22 2020-09-22 General Electric Company Systems and methods to deliver point of care alerts for radiological findings
US10799189B2 (en) 2017-11-22 2020-10-13 General Electric Company Systems and methods to deliver point of care alerts for radiological findings
JP2019028973A (ja) * 2017-12-20 2019-02-21 京セラ株式会社 電子機器、プログラムおよび制御方法
JP7040071B2 (ja) * 2018-02-02 2022-03-23 コニカミノルタ株式会社 医用画像表示装置及び非接触入力方法
CN111065337A (zh) * 2018-03-16 2020-04-24 深圳迈瑞生物医疗电子股份有限公司 一种超声语音控制的方法及超声设备
US11911195B2 (en) 2018-05-10 2024-02-27 Siemens Medical Solutions Usa, Inc. Visual indicator system for patient bed
US10863971B2 (en) 2018-11-30 2020-12-15 Fujifilm Sonosite, Inc. Touchless input ultrasound control
US11386621B2 (en) 2018-12-31 2022-07-12 Whirlpool Corporation Augmented reality feedback of inventory for an appliance
JP7236884B2 (ja) * 2019-03-06 2023-03-10 株式会社トプコン 眼科装置
JP7254345B2 (ja) * 2019-08-26 2023-04-10 株式会社Agama-X 情報処理装置及びプログラム
JP7350179B2 (ja) 2020-07-01 2023-09-25 富士フイルム株式会社 超音波診断装置、超音波診断装置の制御方法および超音波診断装置用プロセッサ
CN113576527A (zh) * 2021-08-27 2021-11-02 复旦大学 一种利用声控进行超声输入判断的方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09220218A (ja) * 1996-02-16 1997-08-26 Hitachi Medical Corp X線診断装置
JP2012226595A (ja) * 2011-04-20 2012-11-15 Panasonic Corp ジェスチャ認識装置
JP5722191B2 (ja) * 2011-10-24 2015-05-20 富士フイルム株式会社 超音波診断装置および超音波画像生成方法
JP5868128B2 (ja) * 2011-11-10 2016-02-24 キヤノン株式会社 情報処理装置およびその制御方法
JP5356633B1 (ja) * 2011-12-26 2013-12-04 オリンパスメディカルシステムズ株式会社 医療用内視鏡システム
US20130225999A1 (en) * 2012-02-29 2013-08-29 Toshiba Medical Systems Corporation Gesture commands user interface for ultrasound imaging systems

Also Published As

Publication number Publication date
WO2015174422A1 (ja) 2015-11-19
JP2015231518A (ja) 2015-12-24
US20170071573A1 (en) 2017-03-16

Similar Documents

Publication Publication Date Title
JP6598508B2 (ja) 超音波診断装置とそのプログラム
KR101728045B1 (ko) 의료 영상 디스플레이 장치 및 의료 영상 디스플레이 장치가 사용자 인터페이스를 제공하는 방법
KR101705120B1 (ko) 자가 진단 및 원격 진단을 위한 초음파 진단 장치 및 초음파 진단 장치의 동작 방법
US10095400B2 (en) Method and apparatus for changing user interface based on user motion information
US8241215B2 (en) Ultrasonic diagnosis apparatus and method providing navigation information for positioning an ultrasonic probe
US11033250B2 (en) Ultrasound apparatus and ultrasound medical imaging method for identifying view plane of ultrasound image based on classifiers
EP2821012A1 (en) Ultrasound diagnostic equipment, medical diagnostic imaging equipment, and ultrasound diagnostic equipment control program
CN110584714A (zh) 超声融合成像方法、超声装置及存储介质
CN106794008B (zh) 医疗用诊断装置及其工作方法以及超声波观察系统
KR102442178B1 (ko) 초음파 진단장치 및 그에 따른 초음파 진단 방법
KR20180066784A (ko) 초음파 영상 처리 장치 및 초음파 영상 처리 방법
CN110740689B (zh) 超声诊断装置及其操作方法
JP7321836B2 (ja) 情報処理装置、検査システム及び情報処理方法
JP2008237913A (ja) 超音波システム
JP7362354B2 (ja) 情報処理装置、検査システム及び情報処理方法
US20160361044A1 (en) Medical observation apparatus, method for operating medical observation apparatus, and computer-readable recording medium
KR20150102589A (ko) 의료 영상 처리 장치, 의료 영상 처리 방법, 및 컴퓨터 판독가능 기록매체
KR102593439B1 (ko) 초음파 진단 장치의 제어 방법 및 초음파 진단 장치
US9911224B2 (en) Volume rendering apparatus and method using voxel brightness gain values and voxel selecting model
CN107358015B (zh) 显示超声图像的方法及超声诊断设备
EP4082441A1 (en) Ultrasound diagnostic apparatus and method for operating same
US11607191B2 (en) Ultrasound diagnosis apparatus and method of acquiring shear wave elasticity data with respect to object cross-section in 3D
KR102618496B1 (ko) 초음파 영상 장치 및 그 표시 방법
EP3851051B1 (en) Ultrasound diagnosis apparatus and operating method thereof
JP7040071B2 (ja) 医用画像表示装置及び非接触入力方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191001

R150 Certificate of patent or registration of utility model

Ref document number: 6598508

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150