JP6598508B2 - 超音波診断装置とそのプログラム - Google Patents
超音波診断装置とそのプログラム Download PDFInfo
- Publication number
- JP6598508B2 JP6598508B2 JP2015097622A JP2015097622A JP6598508B2 JP 6598508 B2 JP6598508 B2 JP 6598508B2 JP 2015097622 A JP2015097622 A JP 2015097622A JP 2015097622 A JP2015097622 A JP 2015097622A JP 6598508 B2 JP6598508 B2 JP 6598508B2
- Authority
- JP
- Japan
- Prior art keywords
- operator
- input
- gesture
- ultrasonic
- ultrasonic probe
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000000523 sample Substances 0.000 claims description 125
- 238000001514 detection method Methods 0.000 claims description 76
- 230000005540 biological transmission Effects 0.000 claims description 13
- 238000002604 ultrasonography Methods 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 10
- 230000001815 facial effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 82
- 238000000034 method Methods 0.000 description 36
- 238000007689 inspection Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 24
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 238000012986 modification Methods 0.000 description 15
- 230000004048 modification Effects 0.000 description 15
- 230000017531 blood circulation Effects 0.000 description 11
- 238000003909 pattern recognition Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000001356 surgical procedure Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 210000000323 shoulder joint Anatomy 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000013175 transesophageal echocardiography Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 238000013130 cardiovascular surgery Methods 0.000 description 1
- 230000004087 circulation Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 210000003238 esophagus Anatomy 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 238000007631 vascular surgery Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/462—Displaying means of special interest characterised by constructional features of the display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/467—Arrangements for interfacing with the operator or the patient characterised by special input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/06—Measuring blood flow
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
- A61B8/4254—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
- A61B8/4263—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors not mounted on the probe, e.g. mounted on an external reference frame
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4272—Details of probe positioning or probe attachment to the patient involving the acoustic interface between the transducer and the tissue
- A61B8/429—Details of probe positioning or probe attachment to the patient involving the acoustic interface between the transducer and the tissue characterised by determining or monitoring the contact between the transducer and the tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/462—Displaying means of special interest characterised by constructional features of the display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/54—Control of the diagnostic device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/488—Diagnostic techniques involving Doppler signals
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Radiology & Medical Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Hematology (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Description
[第1の実施形態]
第1の実施形態は、超音波診断装置において、操作者が超音波プローブを操作しており、かつ操作者と超音波診断装置との間の距離が予め設定した距離以上離れていることをジェスチャ・音声の入力受付条件とし、当該条件を満たす場合にジェスチャ・音声の入力受付モードを設定して、ジェスチャ・音声の入力受付け処理を実行するようにしたものである。
この第1の実施形態に係る超音波診断装置は、装置本体1の上部に操作パネル2と、表示デバイスとしてのモニタ3を配置し、上記装置本体1の側部に超音波プローブ4を収容したものとなっている。
装置本体1は、主制御ユニット20と、超音波送信ユニット21と、超音波受信ユニット22と、入力インタフェースユニット29と、操作支援制御ユニット30Aと、記憶ユニット40とを備え、これらのユニット間をバスを介して接続している。主制御ユニット20は、例えば所定のプロセッサとメモリとから構成される。主制御ユニット20は、装置全体を統括的に制御する。
次に、以上のように構成された装置による入力操作支援動作を説明する。
図3は装置本体1に対する超音波プローブ4、操作者7及び被検査者8の位置関係の一例を示す図、図4は操作支援制御ユニット30Aによる入力操作支援制御の処理手順と処理内容を示すフローチャートである。
操作支援制御ユニット30Aは、先ずステップS11によりプローブ使用状態判定部303の制御の下、超音波プローブ4が使用中か否かを判定する。この判定は、主制御モード20が検査モードに設定されているか、又は超音波のライブ画像がモニタ3に表示されているかにより、判定することができる。
操作支援制御ユニット30Aは、次に操作者認識部301の制御の下、操作者を認識するための処理を以下のように実行する。
すなわち、先ずステップS12によりセンサユニット6のカメラ61から検査空間を撮影した画像データを取り込み、記憶ユニット40のバッファエリアに保存する。次にステップS13により、上記保存された画像データから超音波プローブ4及び人物の画像を認識する。この超音波プローブ4の認識は、例えばパターン認識を用いて行う。具体的には、上記保存された1フレームの画像データに対しそれより小サイズの着目領域を設定し、この着目領域の位置を1画素ずつシフトするごとにその画像を予め記憶された超音波プローブ4の画像パターンと照合し、その一致の度合いがしきい値以上になった場合に当該照合対象の画像を超音波プローブ4の画像として認識する。そしてステップS14により、上記抽出された超音波プローブ4を持つ人物を操作者7と認識する。
次にステップS15において、距離検出部302の制御の下で、上記認識した操作者7の特定の部位、例えば超音波プローブ4を持っていない側の肩関節の位置と、モニタ3との間の距離Lを以下のように検出する。
上記距離Lの算出が終了すると、次にステップS16において入力受付条件判定部304の制御の下、上記距離検出部302により検出された距離Lと、プローブ使用状態判定部303により判定された超音波プローブ4の使用状態の判定結果をもとに、現在の操作者7の状態がジェスチャ・音声による操作情報の入力受付条件を満たすか否かを判定する。例えば、ステップS11において超音波プローブ4が使用中と判定され、かつ操作者7とモニタ3との間の距離が50cm以上離間している場合には、入力受付条件を満たしていると判定する。この判定の結果、入力受付条件を満たしていなければ、ジェスチャ・音声による操作情報入力モードを設定せず、入力操作の支援制御は終了する。
これに対し、上記ステップS16において入力受付条件を満たすと判定されたとする。この場合には、入力受付処理部305の制御の下、以下のようにジェスチャ・音声の入力受付処理を実行する。
以上詳述したように第1の実施形態では、超音波プローブ4の使用状態を判定すると共に、検査空間をカメラ61により撮影した画像データをもとに操作者を認識して当該操作者とモニタ3との間の距離Lを算出している。そして、超音波プローブ4が使用中で、かつ距離Lが予め設定した距離以上の場合に、ジェスチャ・音声入力の受付条件を満足していると判断してジェスチャ・音声の入力受付モードを設定し、この状態で入力されたジェスチャ又は音声の認識結果を入力操作情報として受け付けるようにしている。
第2の実施形態は、患者・検査情報の登録、変更又は削除等に対し非検査期間に操作者がデータ操作を行う際に、操作者がモニタを視認し、かつ当該モニタにデータ操作に必要な表示画面データが表示されていることをジェスチャ・音声の入力受付条件とし、当該条件を満たす場合にジェスチャ・音声の入力受付モードを設定して、ジェスチャ・音声の入力受付け処理を実行するようにしたものである。
次に、以上のように構成された装置による入力操作支援動作を説明する。
図8及び図9は装置に対する操作者7の位置関係の一例を示すもので、図8は操作者が立った状態で入力操作を行おうとしている場合を、図9は操作者が座った状態で入力操作を行おうとしている場合をそれぞれ示している。また図10は操作支援制御ユニット30Bによる入力操作支援制御の処理手順と処理内容を示すフローチャートを示している。
操作支援制御ユニット30Bは、先ず顔方向検出部306の制御の下、操作者の顔の向きを検出するための処理を以下のように実行する。
すなわち、先ずステップS31によりセンサユニット6のカメラ61から操作者7を撮影した画像データを取り込み、記憶ユニット40のバッファエリアに一旦保存する。次にステップS32により、上記保存された画像データから操作者7の顔画像を認識する。この顔画像の認識は、例えば上記取得した画像データを、予め記憶しておいた操作者の顔画像パターンと照合する周知のパターン認識技術を用いて行う。そしてステップS33により、上記認識した操作者の顔画像中から目を表す画像を抽出し、この抽出された目の画像から操作者の視線Kを検出する。
次にステップS35において、画面判定部307の制御の下、モニタ3に表示されている表示画面データのステータス、つまり表示画面の種類とその状態が、データ操作を必要とする場合に相当するか否かを、予め記憶しておいた判定条件をもとに判定する。判定条件としては、例えば下記の3つの場合が挙げられる。
(1) 患者情報登録画面において病院サーバに問い合わせたところ、検査予約データが未登録であり、登録操作が必要な状態。
(2) 患者情報又は検査情報の編集画面が表示され、かつ当該表示画面中のいずれかの項目のテキストボックスにフォーカスが当たっている状態。
(3) 検査リストの表示画面が表示され、かつ当該画面中のキーワード入力ボックスにフォーカスが当たっている状態。
操作支援制御ユニット30Bは、次にステップS36において入力受付条件判定部308の制御の下、上記顔方向検出部306による操作者の顔の向き(正確には視線の方向K)の検出結果と、上記画面判定部307による表示画面データのステータスの判定結果とに基づいて、ジェスチャ・音声による操作情報の入力受付条件を満たしているか否かを判定する。
これに対し、上記ステップS36において入力受付条件を満たすと判定されたとする。この場合には、入力受付処理部309の制御の下、以下のようにジェスチャ・音声の入力受付処理を実行する。
以上詳述したように第2の実施形態では、非検査期間に操作者7が患者・検査情報の登録、変更又は削除等の制御情報に対するデータ操作を行う際に、操作者7の顔がモニタ3に向いており、かつ当該モニタ3にデータ操作が必要な表示画面データが表示されていることをジェスチャ・音声の入力受付条件とし、当該条件を満たす場合にジェスチャ・音声の入力受付モードを設定して、ジェスチャ・音声の入力受付け処理を実行するようにしている。
第3の実施形態は、検査中以外の画面が表示され、かつトラックボールの操作によるカーソル移動が必要な状態で、操作者の顔がモニタの方向を向き、操作者がトラックボールに触れておらず、さらに操作者の手の位置が操作パネルの位置より高い位置にある場合に、ジェスチャの入力受付条件を満たしていると判定してジェスチャの入力受付モードを設定し、この状態で操作者のジェスチャを認識してカーソルを移動制御するようにしたものである。
次に、以上のように構成された装置による入力操作支援動作を説明する。
図15は装置に対する操作者7の位置関係の一例を示す図、図16は操作支援制御ユニット30Cによる入力操作支援制御の処理手順と処理内容を示すフローチャートである。
操作支援制御ユニット30Cは、先ずステップS51において画面判定部313の制御の下、モニタ3に表示中の画面の種類を判定する。ここでは、検査中以外の画面が表示され、かつ検査リスト表示画面のようにカーソル操作が必要な画面が表示中であるか否かを判定する。
操作支援制御ユニット30Cは、次に顔方向検出部311の制御の下、操作者の顔の向きを検出するための処理を以下のように実行する。
すなわち、先ずステップS52によりセンサユニット6のカメラ61から操作者7を撮影した画像データを取り込み、記憶ユニット40のバッファエリアに一旦保存する。次にステップS53により、上記保存された画像データから操作者7の顔画像を認識する。この顔画像の認識は、例えば上記取得した画像データを、予め記憶しておいた操作者の顔画像パターンと照合するパターン認識技術を用いて行う。そしてステップS54により、上記認識した操作者の顔画像中から目を表す画像を抽出し、この抽出された目の画像から操作者の視線Kを検出する。
操作支援制御ユニット30Cは、次にステップS56において入力受付条件判定部314の制御の下、上記顔方向検出部311による操作者の顔の向き(正確には視線の方向K)の検出結果と、手位置検出部312による操作者7の手の位置の判定結果と、画面判定部313により判定された表示中の画面の種類に基づいて、ジェスチャの入力受付条件を満たしているか否かを判定する。
これに対し、上記ステップS56において入力受付条件を満たすと判定されたとする。この場合には、入力受付処理部315の制御の下、以下のようにジェスチャの入力受付処理を実行する。
以上詳述したように第3の実施形態では、カーソル移動が必要な検査中以外の画面が表示されている状態で、操作者7の顔(正確には視線K)がモニタ3の方向を向き、操作者7の手の位置Hが操作パネル2の位置より高い位置にあるもののトラックボール2bには触れていない場合には、操作者がジェスチャ入力を希望していると推測されるので、ジェスチャの入力受付条件を満たしていると判定する。そして、ジェスチャの入力受付モードを設定すると共にジェスチャ入力受付中を示すアイコン41を表示画面に表示させ、この状態で操作者7が行ったジェスチャの軌跡を画像データから認識してカーソルの移動処理を実行している。
第4の実施形態は、検査中において操作者が超音波プローブを操作している場合や、非検査中であっても操作者がモニタから一定の距離内で一定時間以上連続してモニタに顔を向けている場合には、操作者がモニタを見ている状態と判断して表示方向追尾制御機能を起動し、操作者の顔の方向に向けてモニタの表示方向が追尾するように制御するようにしたものである。
次に、以上のように構成された装置による入力操作支援動作を説明する。
図20は装置本体1に対する操作者7の位置関係の一例を示す図、図21は操作支援制御ユニット30Dによる入力操作支援制御の処理手順と処理内容を示すフローチャートである。
操作支援制御ユニット30Dは、先ずステップS71によりプローブ使用状態判定部318の制御の下、超音波プローブ4が使用中か否かを判定する。この判定は、主制御モード20が検査モードに設定されているか、又は超音波のライブ画像がモニタ3に表示されているかにより、判定することができる。
操作支援制御ユニット30Dは、次に顔方向検出部316の制御の下、操作者の顔の向きを検出するための処理を以下のように実行する。
すなわち、先ずステップS72によりセンサユニット6のカメラ61から操作者7を撮影した画像データを取り込み、記憶ユニット40のバッファエリアに一旦保存する。次にステップS73により、上記保存された画像データから操作者7の顔画像を認識する。この顔画像の認識は、例えば上記取得した画像データを、予め記憶しておいた操作者の顔画像パターンと照合する周知のパターン認識技術を用いて行う。そしてステップS74により、上記認識した操作者の顔画像中から目を表す画像を抽出し、この抽出された目の画像から操作者の視線Kを検出する。
続いてステップS75において、距離検出部317の制御の下、モニタ3と操作者7との間の距離を検出する。この距離の検出は例えば以下のように行われる。すなわち、先に述べたようにカメラ61の測距用光源とその受光素子を用い、操作者に向け光源から赤外線を照射してその反射光を受光素子で受光する。そして、当該受光された反射光と照射光との位相差、或いは照射から受光までの時間に基づいて、操作者7とモニタ3との間の距離を算出する。
操作支援制御ユニット30Dは、次にステップS76において、追尾条件判定部319の制御の下、上記顔方向検出部316による操作者7の顔の向きの検出結果と、上記距離検出部317による操作者7とモニタ3との間の距離の検出結果と、上記プローブ使用状態判定部318による超音波プローブ4の使用状態の判定結果が、予め設定した追尾条件を満たすか否かを判定する。
(1) 検査中において、超音波プローブ4が使用されている場合。
(2) 非検査中において、操作者7がモニタ3に対し予め設定した距離(例えば2m)以内に存在し、かつ操作者7の顔がモニタ3の方向を一定時間(例えば2秒)以上連続して向いている場合。
操作支援制御ユニット30Dは、上記ステップS76において上記顔方向検出部316による操作者7の顔の向きの検出結果と、上記距離検出部317による操作者7とモニタ3との間の距離の検出結果と、上記プローブ使用状態判定部318によるプロープ使用状態の判定結果が上記表示方向追尾条件を満たしていると判定された場合に、表示方向追尾制御部320の制御の下、以下のようにモニタ3の表示方向を制御する。
以上詳述したように第4の実施形態では、検査中であれば超音波プローブ4が使用中の場合、非検査中であれば操作者7がモニタ3に対し予め設定した距離(例えば2m)以内に存在し、かつ操作者7の顔がモニタ3の方向を一定時間(例えば2秒)以上連続して向いている場合に、モニタ3の画面の向きの追尾モードを設定し、モニタ3の画面の向きが操作者の顔の方向に常に向くように、操作者7の顔の位置の検出結果に応じて追尾制御するようにしている。
例えば心臓大血管手術に代表されるカテーテル手術において、超音波診断装置を用いて、被検体内をモニタリングする場合がある。特に、心臓大血管手術では、経食道心エコー(TEE)による評価が重要視される。しかしながら、超音波診断装置の他に、X線診断装置、体外循環装置等の種々な装置が設置された環境下での手術となり、超音波診断装置を操作できるスペースが限られる(通常、心臓大血管手術等において超音波画像を撮影しようとする場合、技師は、術者のカテーテル操作の邪魔にならない限られた場所に立ち、そこから体勢を変えて経食道心エコー用プローブを患者の口から挿入して食道や胃の中まで入れ、体内から心臓に関する超音波画像を撮影しなければならない)。この様な場合には、技師による超音波診断装置の操作は、困難になると予想される。
(動作)
次に、以上のように構成された装置による入力操作支援動作を説明する。
操作支援制御ユニット30Eは、先ずステップS81によりプローブ使用状態判定部303の制御の下、超音波プローブ4が使用中か否かを判定する。この判定は、主制御モード20が検査モードに設定されているか、又は超音波のライブ画像がモニタ3に表示されているかにより、判定することができる。
操作支援制御ユニット30Eは、次に操作者認識部321の制御の下、操作者を認識するための処理を以下のように実行する。
すなわち、先ずステップS82によりセンサユニット6のカメラ61から検査空間を撮影した画像データを取り込み、記憶ユニット40Eのバッファエリアに保存する。次にステップS83により、上記保存された画像データから超音波プローブ4及び人物の画像を認識する。この超音波プローブ4の認識は、例えばパターン認識を用いて行う。具体的には、上記保存された1フレームの画像データ(今の場合、経食道心エコー用プローブを当該患者の口に挿入した状態を撮影した画像データ)に対しそれより小サイズの着目領域を設定し、この着目領域の位置を1画素ずつシフトするごとにその画像を予め記憶された画像パターン(例えば、経食道心エコー用プローブを所定の患者の口に挿入した状態を予め撮影した画像データ)と照合し、その一致の度合いがしきい値以上になった場合に当該照合対象の画像を超音波プローブ4の画像として認識する。そしてステップS14により、上記抽出された超音波プローブ4を持つ人物を操作者(今の場合、技師9)と認識する。
次にステップS85において、状態検出部322は、超音波プローブ4が被検査者8に口から挿入されているか否かを検出する。なお、必要に応じて技師9とモニタ3との間の距離等を検出してもよい。
上記超音波プローブ4が被検査者8に口から挿入されているか否かの検出が終了すると、次にステップS86において入力受付条件判定部324の制御の下、上記状態検出部322により検出された超音波プローブ4が被検査者8に口から挿入されているか否かと、プローブ使用状態判定部303により判定された超音波プローブ4の使用状態の判定結果をもとに、現在の技師9の状態がジェスチャ・音声による操作情報の入力受付条件を満たすか否かを判定する。例えば、ステップS81において超音波プローブ4が使用中であること、超音波プローブ4が被検査者8に口から挿入されていることをすべて満たす場合には、入力受付条件を満たしていると判定する。入力受付条件判定部324は、上記判定結果が入力受付条件を満たしていなければ、ジェスチャ・音声による操作情報入力モードを設定せず、入力操作の支援制御は終了する。
これに対し、上記ステップS86において入力受付条件を満たすと判定されたとする。この場合には、入力受付処理部325の制御の下、以下のようにジェスチャ・音声の入力受付処理を実行する。
以上詳述したように第5の実施形態では、超音波プローブ4の使用状態を判定すると共に、検査空間をカメラ61により撮影した画像データをもとに技師9を認識して超音波プローブ4が被検査者8に口から挿入されているか否かを検出している。そして、入力受付条件判定部324は、超音波プローブ4が使用中と判定され、かつ超音波プローブ4が被検査者8に口から挿入されていることが検出された場合に、ジェスチャ・音声入力の受付条件を満足していると判断する。ジェスチャ・音声入力の受付条件を満足していると判断された場合は、入力受付条件判定部324は、ジェスチャ・音声の入力受付モードを設定し、この状態で入力されたジェスチャ又は音声の認識結果を入力操作情報として受け付けるようにしている。また、入力受付処理部325は、術者10から装置を操作したい旨のジェスチャ・音声入力を受け付け、技師9からだけでなく、術者10からも入力操作情報を受け付けられるようにしている。
(変形例1)
技師が限られた姿勢で超音波プローブを操作しなければならない例として、変形例1では寝ている患者の体の反対(奥)側を検査する場合ついて説明する。図28は、第5の実施形態の変形例1の説明に使用する、装置と操作者との位置関係の一例を示す図である。
上記認識した技師9の特定の部位、例えば超音波プローブ4を持っていない側の肩関節の位置と、モニタ3との間の距離Lを以下のように検出する。
上記認識した技師9の特定の部位、例えば体軸の鉛直方向に対する角度θを以下のように検出する。
センサユニット6は、例えばカメラ61が撮影した超音波プローブ4及び被検査者8の画像を取得する。そして、当該画像上に映し出された超音波プローブ4と被検査者8の位置関係に基づいて超音波プローブ4の被検査者8への接触の有無を検出する。
(変形例2)
技師が限られた姿勢で超音波プローブを操作しなければならない例として、変形例2では足先を検査する場合について説明する。足先を検査する状況は、第1の実施形態で説明した図3に示されるような場合である。操作者(技師)7は足先を検査するために体を湾曲させて患者8の足先に超音波プローブ4を接触させる必要がある。このような場合、体を湾曲させた操作者7の体軸角度θを検出することで、操作者7の無理な体勢を検知し、ジェスチャ・音声入力の受付条件の1つとして制御を行う。
第4の実施形態ではモニタ3の画面の向きを制御するようにしたが、超音波診断装置に自動走行機能が設けられている場合には、超音波診断装置自体の向きを変えるようにしてもよい。
Claims (17)
- 超音波送受波に用いる超音波プローブと、
前記超音波プローブの使用状態を含む、前記超音波プローブによる撮影状態を検出する検出手段と、
前記撮影状態が予め定められた条件に合致するか否かを判定する判定手段と、
前記判定手段の判定結果に基づいて、前記超音波プローブの操作者のジェスチャ及び音声の少なくとも一方による操作情報の入力を受け付ける入力受付制御手段と、
を具備する超音波診断装置。 - 前記検出手段は、前記超音波プローブの被検体への接触の有無を前記撮影状態として検出する請求項1記載の超音波診断装置。
- 前記検出手段は、前記超音波プローブの操作者の位置を検出することを特徴とし、
前記判定手段は、前記操作者の位置が予め設定した範囲にあるか否かを判定する請求項1又は2記載の超音波診断装置。 - 前記入力受付制御手段は、ジェスチャ及び音声の少なくとも一方による受付可能な状態であることを示す案内メッセージ又はアイコンを表示手段に表示させる請求項1乃至3のうちいずれか一項記載の超音波診断装置。
- 前記検出手段は、前記操作者を撮影しその画像データをもとに当該操作者の顔の向きを検出し、
前記判定手段は、前記操作者の顔の向きが表示手段の方向であるか否かを判定する請求項1乃至4のうちいずれか一項記載の超音波診断装置。 - 前記検出手段は、前記超音波プローブの操作者の位置と、前記超音波プローブの被検査者への接触状態と、を含む前記撮影状態を検出する請求項1乃至5のうちいずれか一項記載の超音波診断装置。
- 前記検出手段は、前記超音波プローブの操作者の鉛直方向に対する体軸角度と、前記超音波プローブの被検査者への接触状態と、を含む前記撮影状態を検出する請求項1乃至5のうちいずれか一項記載の超音波診断装置。
- 前記検出手段は、前記操作者の顔の向きと、前記操作者の手の位置と、を含む前記撮影状態を検出する請求項1乃至5のうちいずれか一項記載の超音波診断装置。
- 超音波送受波に用いる超音波プローブと、
前記超音波プローブの操作者の姿勢を検出する検出手段と、
前記操作者の姿勢が予め定められた条件に合致するか否かを判定する判定手段と、
前記判定手段の判定結果に基づいて、前記超音波プローブの操作者のジェスチャ及び音声の少なくとも一方による操作情報の入力を受け付ける入力受付制御手段と、
を具備する超音波診断装置。 - 前記検出手段は、前記超音波プローブの被検体への接触の有無を、前記超音波プローブによる撮影状態として検出し、
前記判定手段は、前記撮影状態が予め定められた条件に合致するか否かを判定する請求項9記載の超音波診断装置。 - 前記検出手段は、前記超音波プローブの操作者の位置を検出することを特徴とし、
前記判定手段は、前記操作者の位置が予め設定した範囲にあるか否かを判定する請求項9又は10記載の超音波診断装置。 - 前記入力受付制御手段は、ジェスチャ及び音声の少なくとも一方による受付可能な状態であることを示す案内メッセージ又はアイコンを表示手段に表示させる請求項9乃至11のうちいずれか一項記載の超音波診断装置。
- 前記検出手段は、前記操作者を撮影しその画像データをもとに当該操作者の顔の向きを検出し、
前記判定手段は、前記操作者の顔の向きが表示手段の方向であるか否かを判定する請求項9乃至12のうちいずれか一項記載の超音波診断装置。 - 前記検出手段は、前記操作者の姿勢として、前記操作者を撮影して得られた画像データをもとに当該操作者の鉛直方向に対する体軸角度を検出し、
前記判定手段は、前記操作者の鉛直方向に対する体軸角度が予め設定した範囲にあるか否かを判定する請求項9乃至13のうちいずれか一項記載の超音波診断装置。 - 前記入力受付制御手段は、前記操作者以外の者のジェスチャ及び音声の少なくとも一方による所定の入力情報を検知した後は、前記操作者以外の者からのジェスチャ及び音声の少なくとも一方による操作情報の入力を受け付ける、請求項1乃至14のいずれかに記載の超音波診断装置。
- 超音波診断装置が備えるコンピュータに、
超音波送受波に用いる超音波プローブの使用状態を含む、前記超音波プローブによる撮影状態を検出する検出機能と、
前記撮影状態が予め定められた条件に合致するか否かを判定する判定機能と、
前記判定機能の判定結果に基づいて、前記超音波プローブの操作者のジェスチャ及び音声の少なくとも一方による操作情報の入力を受け付ける入力受付制御機能と、
を実現させる超音波診断装置制御プログラム。 - 超音波診断装置が備えるコンピュータに、
超音波送受波に用いる超音波プローブの操作者の姿勢を検出する検出機能と、
前記操作者の姿勢が予め定められた条件に合致するか否かを判定する判定機能と、
前記判定機能の判定結果に基づいて、前記超音波プローブの操作者のジェスチャ及び音声の少なくとも一方による操作情報の入力を受け付ける入力受付制御機能と、
を実現させる超音波診断装置制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015097622A JP6598508B2 (ja) | 2014-05-12 | 2015-05-12 | 超音波診断装置とそのプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014099051 | 2014-05-12 | ||
JP2014099051 | 2014-05-12 | ||
JP2015097622A JP6598508B2 (ja) | 2014-05-12 | 2015-05-12 | 超音波診断装置とそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015231518A JP2015231518A (ja) | 2015-12-24 |
JP6598508B2 true JP6598508B2 (ja) | 2019-10-30 |
Family
ID=54479959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015097622A Active JP6598508B2 (ja) | 2014-05-12 | 2015-05-12 | 超音波診断装置とそのプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20170071573A1 (ja) |
JP (1) | JP6598508B2 (ja) |
WO (1) | WO2015174422A1 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10940221B2 (en) * | 2015-09-09 | 2021-03-09 | Koninklijke Philips N.V. | Ultrasound system with disinfecting feature |
US10157308B2 (en) * | 2016-11-30 | 2018-12-18 | Whirlpool Corporation | Interaction recognition and analysis system |
US10762641B2 (en) | 2016-11-30 | 2020-09-01 | Whirlpool Corporation | Interaction recognition and analysis system |
US10692489B1 (en) * | 2016-12-23 | 2020-06-23 | Amazon Technologies, Inc. | Non-speech input to speech processing system |
JP6266833B1 (ja) | 2017-07-28 | 2018-01-24 | 京セラ株式会社 | 電子機器、プログラムおよび制御方法 |
US11049250B2 (en) * | 2017-11-22 | 2021-06-29 | General Electric Company | Systems and methods to deliver point of care alerts for radiological findings |
US10783634B2 (en) | 2017-11-22 | 2020-09-22 | General Electric Company | Systems and methods to deliver point of care alerts for radiological findings |
US10799189B2 (en) * | 2017-11-22 | 2020-10-13 | General Electric Company | Systems and methods to deliver point of care alerts for radiological findings |
JP2019028973A (ja) * | 2017-12-20 | 2019-02-21 | 京セラ株式会社 | 電子機器、プログラムおよび制御方法 |
JP7040071B2 (ja) * | 2018-02-02 | 2022-03-23 | コニカミノルタ株式会社 | 医用画像表示装置及び非接触入力方法 |
CN111065337A (zh) * | 2018-03-16 | 2020-04-24 | 深圳迈瑞生物医疗电子股份有限公司 | 一种超声语音控制的方法及超声设备 |
CN112074235B (zh) * | 2018-05-10 | 2024-07-16 | 美国西门子医疗系统股份有限公司 | 用于病床的视觉指示器系统 |
US10863971B2 (en) * | 2018-11-30 | 2020-12-15 | Fujifilm Sonosite, Inc. | Touchless input ultrasound control |
US11386621B2 (en) | 2018-12-31 | 2022-07-12 | Whirlpool Corporation | Augmented reality feedback of inventory for an appliance |
JP7236884B2 (ja) * | 2019-03-06 | 2023-03-10 | 株式会社トプコン | 眼科装置 |
JP7254345B2 (ja) * | 2019-08-26 | 2023-04-10 | 株式会社Agama-X | 情報処理装置及びプログラム |
JP7350179B2 (ja) * | 2020-07-01 | 2023-09-25 | 富士フイルム株式会社 | 超音波診断装置、超音波診断装置の制御方法および超音波診断装置用プロセッサ |
JP7527189B2 (ja) | 2020-12-09 | 2024-08-02 | 富士フイルムヘルスケア株式会社 | 超音波診断装置 |
CN113576527A (zh) * | 2021-08-27 | 2021-11-02 | 复旦大学 | 一种利用声控进行超声输入判断的方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09220218A (ja) * | 1996-02-16 | 1997-08-26 | Hitachi Medical Corp | X線診断装置 |
JP2012226595A (ja) * | 2011-04-20 | 2012-11-15 | Panasonic Corp | ジェスチャ認識装置 |
JP5722191B2 (ja) * | 2011-10-24 | 2015-05-20 | 富士フイルム株式会社 | 超音波診断装置および超音波画像生成方法 |
JP5868128B2 (ja) * | 2011-11-10 | 2016-02-24 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
CN103491848B (zh) * | 2011-12-26 | 2015-10-07 | 奥林巴斯医疗株式会社 | 医疗用内窥镜系统 |
US20130225999A1 (en) * | 2012-02-29 | 2013-08-29 | Toshiba Medical Systems Corporation | Gesture commands user interface for ultrasound imaging systems |
-
2015
- 2015-05-12 JP JP2015097622A patent/JP6598508B2/ja active Active
- 2015-05-12 WO PCT/JP2015/063668 patent/WO2015174422A1/ja active Application Filing
-
2016
- 2016-11-03 US US15/342,605 patent/US20170071573A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
JP2015231518A (ja) | 2015-12-24 |
US20170071573A1 (en) | 2017-03-16 |
WO2015174422A1 (ja) | 2015-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6598508B2 (ja) | 超音波診断装置とそのプログラム | |
KR101728045B1 (ko) | 의료 영상 디스플레이 장치 및 의료 영상 디스플레이 장치가 사용자 인터페이스를 제공하는 방법 | |
KR101705120B1 (ko) | 자가 진단 및 원격 진단을 위한 초음파 진단 장치 및 초음파 진단 장치의 동작 방법 | |
US10095400B2 (en) | Method and apparatus for changing user interface based on user motion information | |
US11033250B2 (en) | Ultrasound apparatus and ultrasound medical imaging method for identifying view plane of ultrasound image based on classifiers | |
EP2821012A1 (en) | Ultrasound diagnostic equipment, medical diagnostic imaging equipment, and ultrasound diagnostic equipment control program | |
KR102442178B1 (ko) | 초음파 진단장치 및 그에 따른 초음파 진단 방법 | |
CN110584714A (zh) | 超声融合成像方法、超声装置及存储介质 | |
CN106794008B (zh) | 医疗用诊断装置及其工作方法以及超声波观察系统 | |
JP5186263B2 (ja) | 超音波システム | |
KR20180066784A (ko) | 초음파 영상 처리 장치 및 초음파 영상 처리 방법 | |
CN112435740B (zh) | 信息处理设备、检查系统、信息处理方法和存储介质 | |
CN110740689B (zh) | 超声诊断装置及其操作方法 | |
JP7321836B2 (ja) | 情報処理装置、検査システム及び情報処理方法 | |
US20160361044A1 (en) | Medical observation apparatus, method for operating medical observation apparatus, and computer-readable recording medium | |
KR20150102589A (ko) | 의료 영상 처리 장치, 의료 영상 처리 방법, 및 컴퓨터 판독가능 기록매체 | |
CN107358015B (zh) | 显示超声图像的方法及超声诊断设备 | |
KR102593439B1 (ko) | 초음파 진단 장치의 제어 방법 및 초음파 진단 장치 | |
US9911224B2 (en) | Volume rendering apparatus and method using voxel brightness gain values and voxel selecting model | |
EP4082441A1 (en) | Ultrasound diagnostic apparatus and method for operating same | |
KR102618496B1 (ko) | 초음파 영상 장치 및 그 표시 방법 | |
EP3851051B1 (en) | Ultrasound diagnosis apparatus and operating method thereof | |
JP7040071B2 (ja) | 医用画像表示装置及び非接触入力方法 | |
KR20240151107A (ko) | 터치 스크린을 포함하는 초음파 영상 장치 및 그의 제어 방법 | |
KR20170126773A (ko) | 초음파 영상을 출력하는 방법 및 초음파 진단 장치. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160512 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190212 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190415 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191001 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6598508 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |