JP2015093147A - 医療システム - Google Patents

医療システム Download PDF

Info

Publication number
JP2015093147A
JP2015093147A JP2013235898A JP2013235898A JP2015093147A JP 2015093147 A JP2015093147 A JP 2015093147A JP 2013235898 A JP2013235898 A JP 2013235898A JP 2013235898 A JP2013235898 A JP 2013235898A JP 2015093147 A JP2015093147 A JP 2015093147A
Authority
JP
Japan
Prior art keywords
unit
image
line
sight position
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013235898A
Other languages
English (en)
Other versions
JP6165033B2 (ja
Inventor
頼人 前田
Yorito Maeda
頼人 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2013235898A priority Critical patent/JP6165033B2/ja
Publication of JP2015093147A publication Critical patent/JP2015093147A/ja
Application granted granted Critical
Publication of JP6165033B2 publication Critical patent/JP6165033B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】滅菌域の術者がジェスチャや視線を用いて画像の特定の位置を指定し、その位置を起点として画像の操作を行うことができる医療システムを提供する。【解決手段】医療システム1は、表示部9aと、音声入力部5と、少なくとも1つ以上の特徴点座標を取得するジェスチャーセンサ4又は表示部9a上における仮の視線位置座標を計測する視線位置計測センサ30と、少なくとも1つ以上の特徴点座標から所定の特徴点座標を抽出する情報処理部21又は仮の視線位置座標から表示部9a上における視線位置座標を算出する情報処理部21aとを有する。また、画面生成部22又は22aは、所定の特徴点座標又は視線位置座標が医療画像上にあるか否かを判定し、所定の特徴点座標又は視線位置座標が医療画像上にあると判定された際に、画像操作を行うための音声が認識された場合、所定の特徴点座標又は視線位置座標を起点として医療画像に画像操作を行う。【選択図】図1

Description

本発明は、医療システムに関し、特に、表示部に表示される医療画像の画像操作を行う医療システムに関する。
従来、外科手術を行う医療システムは、外科手術で使用する複数の周辺機器を備えており、特に、複数の機器と通信し、各周辺機器を集中操作、及び、一括設定するシステムコントローラを備えている。この外科手術中では、術中の内視鏡画像や術前のX線画像の患部の拡大や縮小等の操作が行われるが、滅菌域の術者が画像の拡大等の操作を行う場合、タッチパネルにドレープを取り付ける方法がある。
しかし、ドレープは付け外しの手間やタッチパネルの操作性が悪化するとともに、使い捨てのため、コストや資源が無駄になるという課題がある。また、例えば、特許文献1には、各種機器の機能または設定値を変更するための遠隔操作を、滅菌域においても手軽に行うことが可能な入力装置が提案されているが、装置の準備や設置スペースの確保に課題がある。
一方、ジェスチャや視線のように、何も触れずに機器操作が行える入力装置も用いられるようになっている。例えば、特許文献2には、ジェスチャを用いて画像の拡大操作等を行う入力装置が提案されている。
特開2005−312567号公報 特許2009−42796号公報
しかしながら、従来のようなジェスチャや視線による操作は、マウスやタッチパネルのような複雑な操作を行うことが難しかった。特に、従来技術を用いて画像の特定の位置を指定した拡大操作等は、複数の操作ステップを必要とし、多くの時間が掛かってしまう。そのため、特許文献2の入力装置では、画像内の拡大する位置の指定までは言及されていない。
そこで、本発明は、滅菌域の術者がジェスチャや視線を用いて画像の特定の位置を指定し、その位置を起点として画像の操作を行うことができる医療システムを提供することを目的とする。
本発明の一態様の医療システムは、医療画像を表示する表示部と、前記医療画像の画像操作を行うための音声を認識する音声認識部と、操作者の前記表示部上における少なくとも1つ以上の特徴点座標を取得する特徴点座標取得部と、前記少なくとも1つ以上の特徴点座標から所定の特徴点座標を抽出する特徴点座標抽出部と、前記所定の特徴点座標が前記医療画像上にあるか否かを判定する判定部と、前記判定部の判定結果により前記所定の特徴点座標が前記医療画像上にあると判定された際に、前記音声認識部により前記画像操作を行うための音声が認識された場合、前記所定の特徴点座標を起点として前記医療画像に前記画像操作を行い、前記所定の特徴点座標が前記医療画像上にないと判定された際に、前記音声認識部により前記画像操作を行うための音声が認識された場合、前記医療画像の中心座標を起点として前記医療画像に前記画像操作を行い、前記表示部に表示するように制御する表示制御部と、を有する。
また、本発明の他の態様の医療システムは、医療画像を表示する表示部と、前記医療画像の画像操作を行うための音声を認識する音声認識部と、操作者の前記表示部上における仮の視線位置座標を計測する視線位置計測部と、前記仮の視線位置座標から前記操作者の前記表示部上における視線位置座標を算出する視線位置座標算出部と、前記視線位置座標が前記医療画像上にあるか否かを判定する判定部と、前記判定部の判定結果により前記視線位置座標が前記医療画像上にあると判定された際に、前記音声認識部により前記画像操作を行うための音声が認識された場合、前記視線位置座標を起点として前記医療画像に前記画像操作を行い、前記視線位置座標が前記医療画像上にないと判定された際に、前記音声認識部により前記画像操作を行うための音声が認識された場合、前記医療画像の中心座標を起点として前記医療画像に前記画像操作を行い、前記表示部に表示するように制御する表示制御部と、を有する。
また、本発明の他の態様の医療システムは、医療画像を表示する表示部と、前記医療画像の画像操作を行うための音声を認識する音声認識部と、操作者の前記表示部上における仮の視線位置座標を計測する視線位置計測部と、前記仮の視線位置座標から前記操作者の前記表示部上における視線位置座標を算出する視線位置座標算出部と、前記視線位置座標が前記医療画像上にあるか否かを判定する判定部と、前記判定部の判定結果により前記視線位置座標が前記医療画像上にあると判定された場合、前記視線位置座標を中心とした所定の大きさの外径の枠部と、該枠部内に設けられた所定の領域の背景を透過して表示する透過部とにより構成される視線位置領域部を生成し、前記医療画像に付加して表示するように制御する表示制御部と、を有する。
本発明の医療システムによれば、滅菌域の術者がジェスチャや視線を用いて画像の特定の位置を指定し、その位置を起点として画像の操作を行うことができる。
第1の実施の形態に係る医療システムの全体構成を説明するための図である。 ジェスチャーセンサの設置位置を説明するための図である。 システムコントローラの詳細な構成を説明するための図である。 カーソルを生成する処理の例を説明するための図である。 カーソルの生成処理の流れの例を説明するためのフローチャートである。 ジェスチャと音声を用いて画像操作を行う処理の流れの例を説明するためのフローチャートである。 図6の処理を実行しているときの操作者の動作と、モニタ9に表示される表示画面の例を説明するための図である。 第2の実施の形態に係る医療システムの全体構成を説明するための図である。 視線位置計測センサの設置位置を説明するための図である。 システムコントローラの詳細な構成を説明するための図である。 視線位置座標を取得してカーソルを表示する処理の流れの例を説明するフローチャートである。 カーソルの生成処理の流れの例を説明するためのフローチャートである。 視線と音声を用いて画像操作を行う処理の流れの例を説明するためのフローチャートである。 図13の処理を実行しているときに、モニタ9に表示される表示画面の例を説明するための図である。
以下、図面を参照して本発明の実施の形態を説明する。
(第1の実施の形態)
まず、図1から図4を用いて、第1の実施の形態の医療システムの構成について説明する。図1は、第1の実施の形態に係る医療システムの全体構成を説明するための図であり、図2は、ジェスチャーセンサの設置位置を説明するための図であり、図3は、システムコントローラの詳細な構成を説明するための図であり、図4は、カーソルを生成する処理の例を説明するための図である。
図1に示すように、医療システム1は、複数の医療機器で構成される被制御装置群である周辺機器2と、タッチパネル3と、ジェスチャーセンサ4と、音声入力部5と、画像サーバ6と、周辺機器2、タッチパネル3、ジェスチャーセンサ4、音声入力部5及び画像サーバ6を制御するシステムコントローラ7と有して構成されている。
周辺機器2は、観察、検査及び処置等を行う複数の医療機器で構成されており、内視鏡用カメラ装置8と、モニタ9と、気腹装置10と、光源装置11と、超音波観測装置12とを有する。なお、周辺機器2は、これらの医療機器に限定されるものではなく、例えば、電気メス、ビデオテープレコーダ(VTR)等を備えていてもよい。
タッチパネル3は、例えば、非滅菌域にいる看護師等が周辺機器2の操作を行うための操作装置であり、看護師等による操作情報をシステムコントローラ7に入力する。
ジェスチャーセンサ4は、人体(操作者等)の特徴点座標を取得し、その特徴点座標をシステムコントローラ7に入力する。
音声入力部5は、ピンマイクあるいはヘッドセットマイク等であり、術者等からの音声をシステムコントローラ7に入力する。術者等のからの音声は、特に、医療画像の画像操作を行うための音声であり、音声入力部5は、医療画像の画像操作を行うための音声を認識する音声認識部を構成する。
画像サーバ6には、患者等の術前の画像(例えば、X線画像)が格納されており、システムコントローラ7の制御によりX線画像が読み出され、モニタ9に表示される。
光源装置11は、照明光を伝送するライトガイドケーブル11aを介して内視鏡13に接続されている。光源装置11からの照明光は、内視鏡13に供給され、内視鏡13の挿入部が挿入された患者15の腹部内の患部等を照明する。
内視鏡13の挿入部の基端側には、撮像素子を備えたカメラヘッド14が装着され、患部等の光学像をカメラヘッド14内の撮像素子で撮像する。この撮像素子で撮像された撮像信号は、ケーブル14aを介して内視鏡用カメラ装置8に伝送される。
内視鏡用カメラ装置8は、伝送された撮像信号に所定の信号処理を施し、映像信号を生成する。そして、内視鏡用カメラ装置8は、生成した映像信号をシステムコントローラ7を介してモニタ9に出力し、患部等の内視鏡画像を表示する。
気腹装置10には、図示しない炭酸ガスボンベが接続されており、気腹装置10から患者15に伸びた図示しない気腹チューブを介して、患者15の腹部内に炭酸ガスが供給されるようになっている。
超音波観測装置12には、図示しない超音波内視鏡が接続されており、その超音波内視鏡で取得した電気信号に所定の信号処理を施し、映像信号を生成する。そして、超音波観測装置12は、生成した映像信号をシステムコントローラ7を介してモニタ9に出力し、患部等の超音波画像を表示する。
図2に示すように、ジェスチャーセンサ4は、モニタ9の下部に設置される。このジェスチャーセンサ4は、内視鏡画像16を観察している術者等を捕らえるカメラ17を有しており、このカメラ17により、図4(a)に示すように、術者等の姿を捕らえる。そして、特徴点座標取得部としてのジェスチャーセンサ4は、図4(b)に示すように、カメラ17が捕らえた操作者(術者等)の少なくとも1つ以上の特徴点20の特徴点座標を取得し、システムコントローラ7に出力する。なお、ジェスチャーセンサ4は、カメラ17で捕らえた術者等の姿をシステムコントローラ7に出力し、システムコントローラ7で入力された術者等の姿から少なくとも1つ以上の特徴点20の特徴点座標を取得するようにしてもよい。
システムコントローラ7は、図3に示すように、情報処理部21と、画面生成部22とを有して構成されている。ジェスチャーセンサ4から出力された特徴点座標は、システムコントローラ7の情報処理部21に入力される。
特徴点座標抽出部としての情報処理部21は、図4(c)に示すように、入力された少なくとも1つ以上の特徴点座標から所定(術者等の片方の手(例えば右手))の特徴点座標(X’,Y’)を抽出し、その所定の特徴点座標(X’,Y’)を画面生成部22に出力する。なお、以下の説明では、所定の特徴点座標(X’,Y’)は、単に、特徴点座標(X’,Y’)という。
画面生成部22は、図4(d)に示すように、モニタ9の表示部9aに医療画像(内視鏡画像16)を表示するとともに、入力された片方の手の特徴点座標(X’,Y’)のみカーソル18を表示する。このカーソル18は、情報処理部21からの特徴点座標(X’,Y’)を中心とした環を描く領域に生成される。
なお、モニタ9の表示部9aに表示する医療画像は、内視鏡用カメラ装置8からの内視鏡画像16に限定されることなく、超音波観測装置12からの超音波画像、画像サーバ6から読み出された術前のX線画像等であってもよい。また、内視鏡画像16、超音波画像及び術前のX線画像がモニタ9の表示部9aに全て表示されていてもよい。
そして、術者等が片手を動かすことで、図4(e)に示すように、カーソル18の位置を移動させることができる。
また、画面生成部22は、情報処理部21からの特徴点座標(X’,Y’)がカーソル18を表示できない範囲に存在する場合、すなわち、特徴点座標(X’,Y’)がモニタ9の表示部9aの範囲に存在しない場合、カーソル18をモニタ9に表示しないようにする。なお、画面生成部22は、特徴点座標(X’,Y’)が内視鏡画像16の範囲に存在しない場合に、カーソル18をモニタ9に表示しないようにしてもよい。すなわち、画面生成部22は、特徴点座標(X’,Y’)が内視鏡画像16上にあるときのみ、カーソル18を表示部9aに表示されている内視鏡画像16上に表示するようにしてもよい。
また、カーソル18と背景(内視鏡画像16)とが同じ色の場合、カーソル18自体が見えなくなってしまう虞がある。そこで、システムコントローラ7は、カーソル18の色を背景の色と異なる色となるように変換して表示する。
具体的には、システムコントローラ7は、カーソル18が配置される領域の背景の色を取得し、取得した背景の色を反転処理する。そして、システムコントローラ7は、反転処理した色をカーソル18の領域に当てはめる。これにより、背景の反転色を用いたカーソル18が生成されるため、ユーザは、カーソル18の位置を識別し易くなる。なお、本実施の形態では、カーソル18の色は、背景の反転色を用いるようにしているが、背景と異なる色となるように変換する処理は、反転処理に限定されるものではない。
また、システムコントローラ7の画面生成部22には、医療画像及び音声入力部5から術者等の音声が入力される。術者等は、例えば、「拡大」、「縮小」という音声を音声入力部5を用いてシステムコントローラ7の画面生成部22に入力することで、入力された医療画像の拡大や縮小を行うことができる。
画面生成部22は、音声入力部5から「拡大」または「縮小」という音声が入力されると、カーソル18が医療画像、例えば、内視鏡画像16上にあるか否かを判定する。より具体的には、画面生成部22は、情報処理部21で取得された特徴点座標(X’,Y’)が医療画像上にあるか否かを判定する。
そして、画面生成部22は、カーソル18が内視鏡画像16上にないときに、「拡大」または「縮小」という音声が入力された場合、内視鏡画像16の中心座標を起点に内視鏡画像16を拡大または縮小し、表示部9aに表示する。一方、画面生成部22は、カーソル18が内視鏡画像16上にあるときに、「拡大」または「縮小」という音声が入力された場合、カーソル18を起点、より具体的には、情報処理部21からの特徴点座標(X’,Y’)を起点に内視鏡画像16を拡大または縮小し、表示部9aに表示する。このようにして、ジェスチャと音声を用いて、医療画像の意図した部分を起点とした拡大、縮小操作を行うようになっている。
このように、画面生成部22は、情報処理部21で取得された特徴点座標(X’,Y’)が医療画像上にあるか否かを判定する判定部と、この判定結果に応じて、医療画像の意図した部分を起点とした画像操作を行い、表示部9aに表示するように制御する表示制御部とを構成する。
次に、このように構成された医療システム1の動作について説明する。
図5は、カーソルの生成処理の流れの例を説明するためのフローチャートである。なお、この図5の処理は、特徴点座標を取得するごとに、システムコントローラ7によって実行される。
まず、所定の特徴点座標を中心に輪を描く領域が設定される(ステップS1)。この所定の特徴点座標は、情報処理部21で抽出された、例えば術者等の右手のモニタ9における座標である。次に、ステップS1で設定された領域のRGBデータが取得され(ステップS2)、ステップS2で取得されたRGBデータが反転処理される(ステップS3)。
このステップS3の処理では、ステップS2で取得されたRGBデータに色反転フィルタをかけるようにする。例えば、画像が24ビットのRGBデータの場合、各画素の色情報をRGBそれぞれ255から引くことで、色反転することができる。最後に、ステップS3で反転処理されたRGBデータがステップS1で設定された領域に当てはめられ(ステップS4)、処理を終了する。
以上の処理により、所定の特徴点座標を中心に輪を描く領域に、背景の反転色を用いたカーソル18が生成される。
次に、ジェスチャと音声を用いて医療画像を拡大または縮小する画像操作について説明する。図6は、ジェスチャと音声を用いて画像操作を行う処理の流れの例を説明するためのフローチャートであり、図7は、図6の処理を実行しているときの操作者の動作と、モニタ9に表示される表示画面の例を説明するための図である。
まず、術者等の手(例えば右手)の位置情報が取得され(ステップS11)、手の位置が画面(表示部9a)上にあるか否かがが判定される(ステップS12)。手の位置が画面上にないと判定された場合、NOとなり、カーソルが消去される(ステップS13)。すなわち、図7の画面9aaに示すように、術者等の操作者の手が画面9aa上にないと判定された場合、カーソル18は表示されないことになる。
次に、音声入力があるか否かが判定され(ステップS14)、音声入力がないと判定された場合、NOとなり、ステップS11に戻る。一方、音声入力があると判定された場合、YESとなり、入力された音声が何かが判定される(ステップS15)。
ここで、入力された音声は、「拡大」、「縮小」、「その他」に分類される。入力された音声が「その他」の場合、画像操作を行わずにステップS11に戻る。入力された音声が「拡大」の場合、画像(例えば、内視鏡画像16)の中心座標を起点として画像が拡大され(ステップS16)、ステップS11に戻る。入力された音声が「縮小」の場合、画像の中心座標を起点として画像が縮小され(ステップS17)、ステップS11に戻る。
一方、ステップS12の処理において、手の位置が画面上にあると判定された場合、YESとなり、手の位置座標の上にカーソルを表示する(ステップS18)。すなわち、図7の画面9abに示すように、操作者の手が画面9ab上にあると判定された場合、カーソル18が表示されることになる。そして、操作者が手を動かすことにより、画面9acに示すように、カーソル18を移動させることができる。
次に、カーソルの位置が画像上にあるか否かが判定される(ステップS19)。カーソルの位置が画像上にないと判定された場合、NOとなり、ステップS14に進み、上述した処理が実行される。一方、カーソルの位置が画像上にあると判定された場合、YESとなり、音声入力があるか否かが判定される(ステップS20)。音声入力がないと判定された場合、NOとなり、ステップS11に戻る。一方、音声入力があると判定された場合、YESとなり、入力された音声が何かが判定される(ステップS21)。
入力された音声は、ステップS15と同様に、「拡大」、「縮小」、「その他」に分類される。入力された音声が「その他」の場合、画像操作を行わずにステップS11に戻る。入力された音声が「拡大」の場合、手の位置座標を起点として画像が拡大され(ステップS22)、ステップS11に戻る。すなわち、図7の画面9adに示すように、カーソル18の中心を起点として内視鏡画像16が拡大される。
入力された音声が「縮小」の場合、手の位置座標を起点として画像が縮小され(ステップS23)、ステップS11に戻る。すなわち、図7の画面9aeに示すように、カーソル18の中心を起点として内視鏡画像16が縮小される。
以上の処理のように、手の位置が画面上にない場合や画像上にない場合は、音声により画像を拡大、縮小する際に、画像の中心座標を起点として画像を拡大、縮小処理する。一方、手の位置が画像上にある場合、音声により画像を拡大、縮小する際に、手の位置座標を起点として画像を拡大、縮小処理する。
これにより、滅菌域にいる術者が不潔域の装置に触れることなく、意図した部分を起点とした画像の拡大表示や縮小表示を短時間で行うことができる。
よって、本実施の形態の医療システムによれば、滅菌域の術者がジェスチャを用いて画像の特定の位置を指定し、その位置を起点として画像の操作を行うことができる。
(第2の実施の形態)
第1の実施の形態では、ジェスチャと音声を用いて、意図した部分を起点として画像の拡大、縮小操作を行う医療システムについて説明したが、ジェスチャを用いると、術者が手術から手を放すような状態となる虞がある。そこで、第2の実施の形態では、術者が手術から手を放すことなく、意図した部分を起点として画像の拡大、縮小操作を行うことができる医療システムについて説明する。
図8は、第2の実施の形態に係る医療システムの全体構成を説明するための図であり、図9は、視線位置計測センサの設置位置を説明するための図であり、図10は、システムコントローラの詳細な構成を説明するための図である。なお、図8〜図10において、それぞれ図1〜図3と同様の構成については、同一の符号を付して説明を省略する。
図8に示すように、医療システム1aは、図1の医療システム1のジェスチャーセンサ4に代わり、視線位置計測センサ30を用いて構成されている。視線位置計測センサ30は、後述するように、モニタ9上の術者等の仮の視線位置座標(X,Y)を取得し、システムコントローラ7に出力する。
図9に示すように、視線位置計測センサ30は、モニタ9の下部に設置される。この視線位置計測センサ30は、カメラ31を有している。この視線位置計測センサ30のカメラ31は、モニタ9の表示部9aに表示される内視鏡画像16を観察している操作者の眼球を捕らえ、操作者が表示部9aのどの位置を見ているのか計測する。視線位置計測センサ30は、この計測結果(仮の視線位置座標(X,Y))をシステムコントローラ7の情報処理部21a(図10参照)に出力する。このように、視線位置計測センサ30は、操作者の表示部9a上における仮の視線位置座標(X,Y)を計測する視線位置計測部を構成する。
システムコントローラ7の画面生成部22a(図10参照)は、後述するように、この仮の視線位置座標(X,Y)からモニタ9上の視線位置座標(X’,Y’)を算出し、算出した視線位置座標(X’,Y’)にカーソル18を付加して表示する。なお、このカーソル18の生成処理は、第1の実施の形態と同様であり、カーソル18により背景(内視鏡画像16)が隠れないように、中央部分が透過されている。すなわち、システムコントローラ7の画面生成部22aは、術者等が見ている視線位置座標(X’,Y’)が隠れないように、中央部分を透過させ、視線位置座標(X’,Y’)を中心とした環を描く領域にカーソル18を生成して表示する。
例えば、中央部分が透過していないカーソルが生成されると、術者等が見ている視線位置座標(X’,Y’)がそのカーソルで隠れてしまう。術者等がカーソルの背景を見るために、カーソルの位置を移動させる場合、視線も動かす必要があり、結局、見たい箇所が見れなくなってしまう。
これに対し、システムコントローラ7が中央部分を透過させたカーソル18を生成して表示することで、術者等は、視線を動かすことなく、見たい箇所を観察することができる。
図10に示すように、システムコントローラ7は、情報処理部21aと、画面生成部22aとを有して構成されている。
視線位置計測センサ30を利用するときは、利用者ごとに必ずキャリブレーションを実行する必要がある。キャリブレーションは、人の眼球の動きを視線位置計測センサ30が取得し、モニタ9上のどの位置を見ているかを紐付けることである。このキャリブレーションにより、視線位置計測センサ30から得られた情報からモニタ9上の視線位置座標を算出するための係数が生成される。
情報処理部21aは、視線位置計測センサ30からの仮の視線位置座標(X,Y)に、キャリブレーションにより得られた係数を掛けることで、表示部9a上の視線位置座標(X’,Y’)を算出する。そして、情報処理部21aは、算出した表示部9a上の視線位置座標(X’,Y’)を画面生成部22aに出力する。このように、情報処理部21aは、仮の視線位置座標(X,Y)から操作者の表示部9a上における視線位置座標を算出する視線位置座標算出部を構成する。
画面生成部22aは、情報処理部21aからの視線位置座標(X’,Y’)を中心とした環を描く領域にカーソル18を生成し、モニタ9に表示する。また、画面生成部22aは、情報処理部21からの視線位置座標(X’,Y’)がカーソル18を表示できない範囲に存在する場合、すなわち、視線位置座標(X’,Y’)がモニタ9の表示部9aの範囲に存在しない場合、カーソル18をモニタ9に表示しない。
画面生成部22aは、音声入力部5から「拡大」または「縮小」という音声が入力されると、カーソル18が医療画像、例えば、内視鏡画像16上にあるか否かを判定する。より具体的には、画面生成部22aは、情報処理部21aで算出された視線位置座標(X’,Y’)が医療画像上にあるか否かを判定する。
そして、画面生成部22aは、カーソル18が内視鏡画像16上にないときに、「拡大」または「縮小」という音声が入力された場合、内視鏡画像16の中心座標を起点に内視鏡画像16を拡大または縮小し、表示部9aに表示する。一方、画面生成部22aは、カーソル18が内視鏡画像16上にあるときに、「拡大」または「縮小」という音声が入力された場合、カーソル18を起点、より具体的には、情報処理部21aからの視線位置座標(X’,Y’)を起点に内視鏡画像16を拡大または縮小し、表示部9aに表示する。
このように、画面生成部22aは、情報処理部21aで算出された視線位置座標(X’,Y’)が医療画像上にあるか否かを判定する判定部と、この判定結果に応じて、医療画像の意図した部分を起点とした画像操作を行い、表示部9aに表示するように制御する表示制御部とを構成する。
また、画像生成部22aは、視線位置座標(X’,Y’)が医療画像上にあると判定された場合に、視線位置座標(X’,Y’)を中心とした所定の大きさの外径の枠部と、その枠部内に設けられた所定の領域の背景を透過して表示する透過部とにより構成される視線位置領域部としてのカーソル18を生成し、医療画像に付加して表示するように制御する表示制御部を構成する。
次に、このように構成された医療システム1aの動作について説明する。
まず、視線位置座標を取得してカーソル18を表示する処理について説明する。図11は、視線位置座標を取得してカーソルを表示する処理の流れの例を説明するフローチャートである。
まず、視線位置計測センサ30が術者等の眼球を捕らえ(ステップS31)、眼球の情報から仮の視線位置座標(X,Y)を推定する(ステップS32)。次に、視線位置計測センサ30が仮の視線位置座標(X,Y)をシステムコントローラ7の情報処理部21aに入力する(ステップS3)。次に、情報処理部21aが入力された仮の視線位置座標(X,Y)にキャリブレーションによって得られた係数を掛けることで、画面(表示部9a)上の視線位置座標(X’,Y’)を算出する(ステップS34)。最後に、画面生成部22aが情報処理部21aにより算出された視線位置座標(X’,Y’)にカーソル18を付加して、画面に表示し(ステップS35)、処理を終了する。
次に、ステップS35において生成されるカーソル18の生成処理について説明する。図12は、カーソルの生成処理の流れの例を説明するためのフローチャートである。なお、この図11の処理は、視線位置座標を取得するごとに、システムコントローラ7によって実行される。また、図11において、図5と同様の処理については、同一の符号を付して説明を省略する。
まず、視線位置座標(X’,Y’)を中心に輪を描く領域が設定される(ステップS41)。この視線位置座標(X’,Y’)は、図11のステップS31〜S34の処理により算出される。そして、図5の処理と同様に、ステップS2において、ステップS41で設定された領域のRGBデータが取得される。次に、ステップS3において、ステップS2で取得されたRGBデータが反転処理される。最後に、ステップS4において、ステップS3で反転処理されたRGBデータがステップS41で設定された領域に当てはめられ、処理を終了する。
以上の処理により、視線位置座標(X’,Y’)を中心に輪を描く領域に、背景の反転色を用いたカーソル18が生成されるため、ユーザは、視線を動かすことなく、見たい箇所を観察することができ、かつ、カーソル18の位置を識別し易くなる。
次に、視線と音声を用いて医療画像を拡大または縮小する画像操作について説明する。図13は、視線と音声を用いて画像操作を行う処理の流れの例を説明するためのフローチャートであり、図14は、図13の処理を実行しているときに、モニタ9に表示される表示画面の例を説明するための図である。
まず、術者等の視線の位置情報が取得され(ステップS51)、視線の位置が画面上にあるか否かがが判定される(ステップS52)。視線の位置が画面上にないと判定された場合、NOとなり、カーソルが消去される(ステップS53)。すなわち、図14の画面9aaに示すように、術者等の視線の位置が画面9aa上にないと判定された場合、カーソル18は表示されないことになる。
次に、音声入力があるか否かが判定され(ステップS54)、音声入力がないと判定された場合、NOとなり、ステップS51に戻る。一方、音声入力があると判定された場合、YESとなり、入力された音声が何かが判定される(ステップS55)。
ここで、入力された音声は、「拡大」、「縮小」、「その他」に分類される。入力された音声が「その他」の場合、画像操作を行わずにステップS51に戻る。入力された音声が「拡大」の場合、画像の中心座標を起点として画像が拡大され(ステップS56)、ステップS51に戻る。入力された音声が「縮小」の場合、画像の中心座標を起点として画像が縮小され(ステップS57)、ステップS51に戻る。
一方、ステップS52の処理において、視線の位置が画面上にあると判定された場合、YESとなり、視線位置座標の上にカーソルを表示する(ステップS58)。すなわち、図14の画面9abに示すように、操作者の視線が画面9ab上にあると判定された場合、カーソル18が表示されることになる。そして、操作者が視線を動かすことにより、画面9acに示すように、カーソル18を移動させることができる。
次に、カーソルの位置が画像上にあるか否かが判定される(ステップS59)。カーソルの位置が画像上にないと判定された場合、NOとなり、ステップS54に進み、上述した処理が実行される。一方、カーソルの位置が画像上にあると判定された場合、YESとなり、音声入力があるか否かが判定される(ステップS60)。音声入力がないと判定された場合、NOとなり、ステップS51に戻る。一方、音声入力があると判定された場合、YESとなり、入力された音声が何かが判定される(ステップS61)。
入力された音声は、ステップS55と同様に、「拡大」、「縮小」、「その他」に分類される。入力された音声が「その他」の場合、画像操作を行わずにステップS51に戻る。入力された音声が「拡大」の場合、視線の中心座標を起点として画像が拡大され(ステップS62)、ステップS51に戻る。すなわち、図14の画面9adに示すように、カーソル18の中心を起点として内視鏡画像16が拡大される。
入力された音声が「縮小」の場合、視線の中心座標を起点として画像が縮小され(ステップS63)、ステップS51に戻る。すなわち、図14の画面9aeに示すように、カーソル18の中心を起点として内視鏡画像16が縮小される。
以上の処理のように、視線の位置が画面上にない場合や画像上にない場合は、音声により画像を拡大、縮小する際に、画像の中心座標を起点として画像を拡大、縮小処理する。一方、視線の位置が画像上にある場合、音声により画像を拡大、縮小する際に、視線の中心座標を起点として画像を拡大、縮小処理する。
これにより、滅菌域にいる術者が不潔域の装置に触れることなく、かつ、手術から手を放すくとなく、意図した部分を起点とした画像の拡大表示や縮小表示を短時間で行うことができる。
よって、本実施の形態の医療システムによれば、術者が手術から手を放すくとなく、視線を用いて画像の特定の位置を指定し、その位置を起点として画像の操作を行うことができる。
なお、本明細書におけるフローチャート中の各ステップは、その性質に反しない限り、実行順序を変更し、複数同時に実行し、あるいは実行毎に異なった順序で実行してもよい。
本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
1,1a…医療システム、2…周辺機器、3…タッチパネル、4…ジェスチャーセンサ、5…音声入力部、6…画像サーバ、7…システムコントローラ、8…内視鏡用カメラ装置、9…モニタ、9a…表示部、10…気腹装置、11…光源装置、12…超音波観測装置、13…内視鏡、14…カメラヘッド、15…患者、17,31…カメラ、21,21a…情報処理部、22,22a…画面生成部、30…視線位置計測センサ。

Claims (6)

  1. 医療画像を表示する表示部と、
    前記医療画像の画像操作を行うための音声を認識する音声認識部と、
    操作者の前記表示部上における少なくとも1つ以上の特徴点座標を取得する特徴点座標取得部と、
    前記少なくとも1つ以上の特徴点座標から所定の特徴点座標を抽出する特徴点座標抽出部と、
    前記所定の特徴点座標が前記医療画像上にあるか否かを判定する判定部と、
    前記判定部の判定結果により前記所定の特徴点座標が前記医療画像上にあると判定された際に、前記音声認識部により前記画像操作を行うための音声が認識された場合、前記所定の特徴点座標を起点として前記医療画像に前記画像操作を行い、前記所定の特徴点座標が前記医療画像上にないと判定された際に、前記音声認識部により前記画像操作を行うための音声が認識された場合、前記医療画像の中心座標を起点として前記医療画像に前記画像操作を行い、前記表示部に表示するように制御する表示制御部と、
    を有することを特徴とする医療システム。
  2. 医療画像を表示する表示部と、
    前記医療画像の画像操作を行うための音声を認識する音声認識部と、
    操作者の前記表示部上における仮の視線位置座標を計測する視線位置計測部と、
    前記仮の視線位置座標から前記操作者の前記表示部上における視線位置座標を算出する視線位置座標算出部と、
    前記視線位置座標が前記医療画像上にあるか否かを判定する判定部と、
    前記判定部の判定結果により前記視線位置座標が前記医療画像上にあると判定された際に、前記音声認識部により前記画像操作を行うための音声が認識された場合、前記視線位置座標を起点として前記医療画像に前記画像操作を行い、前記視線位置座標が前記医療画像上にないと判定された際に、前記音声認識部により前記画像操作を行うための音声が認識された場合、前記医療画像の中心座標を起点として前記医療画像に前記画像操作を行い、前記表示部に表示するように制御する表示制御部と、
    を有することを特徴とする医療システム。
  3. 前記表示制御部は、前記判定部の判定結果により前記視線位置座標が前記医療画像上にあると判定された場合、前記視線位置座標を中心とした所定の大きさの外径の枠部と、該枠部内に設けられた所定の領域の背景を透過して表示する透過部とにより構成される視線位置領域部を生成し、前記医療画像に付加して表示するように制御することを特徴とする請求項2に記載の医療システム。
  4. 前記表示制御部は、、前記視線位置領域部で設定された前記表示部の領域の色情報を取得する色情報取得部と、前記色情報取得部で取得された色情報を反転処理する反転処理部と、前記反転処理部の処理結果を前記表示部の色情報に置き換える変換部と、を有することを特徴とする請求項3に記載の医療システム。
  5. 医療画像を表示する表示部と、
    前記医療画像の画像操作を行うための音声を認識する音声認識部と、
    操作者の前記表示部上における仮の視線位置座標を計測する視線位置計測部と、
    前記仮の視線位置座標から前記操作者の前記表示部上における視線位置座標を算出する視線位置座標算出部と、
    前記視線位置座標が前記医療画像上にあるか否かを判定する判定部と、
    前記判定部の判定結果により前記視線位置座標が前記医療画像上にあると判定された場合、前記視線位置座標を中心とした所定の大きさの外径の枠部と、該枠部内に設けられた所定の領域の背景を透過して表示する透過部とにより構成される視線位置領域部を生成し、前記医療画像に付加して表示するように制御する表示制御部と、
    を有することを特徴とする医療システム。
  6. 前記表示制御部は、前記視線位置領域部で設定された前記表示部の領域の色情報を取得する色情報取得部と、前記色情報取得部で取得された色情報を反転処理する反転処理部と、前記反転処理部の処理結果を前記表示部の色情報に置き換える変換部と、を有することを特徴とする請求項5に記載の医療システム。
JP2013235898A 2013-11-14 2013-11-14 医療システム Active JP6165033B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013235898A JP6165033B2 (ja) 2013-11-14 2013-11-14 医療システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013235898A JP6165033B2 (ja) 2013-11-14 2013-11-14 医療システム

Publications (2)

Publication Number Publication Date
JP2015093147A true JP2015093147A (ja) 2015-05-18
JP6165033B2 JP6165033B2 (ja) 2017-07-19

Family

ID=53195961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013235898A Active JP6165033B2 (ja) 2013-11-14 2013-11-14 医療システム

Country Status (1)

Country Link
JP (1) JP6165033B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017038241A1 (ja) * 2015-08-28 2017-03-09 富士フイルム株式会社 機器操作装置、機器操作方法、及び電子機器システム
WO2017061293A1 (ja) * 2015-10-09 2017-04-13 ソニー株式会社 手術システム、並びに、手術用制御装置および手術用制御方法
JP2018143585A (ja) * 2017-03-07 2018-09-20 株式会社トプコン 眼科用観察装置及びその作動方法
JP2019013397A (ja) * 2017-07-05 2019-01-31 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置
JP2019042412A (ja) * 2017-09-07 2019-03-22 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置、および医療用観察システム
US10456072B2 (en) 2015-08-24 2019-10-29 Fujifilm Corporation Image interpretation support apparatus and method
US10747308B2 (en) 2015-09-16 2020-08-18 Fujifilm Corporation Line-of-sight operation apparatus, method, and medical device
CN111770716A (zh) * 2018-02-21 2020-10-13 奥林巴斯株式会社 医疗系统和医疗系统的控制方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08256968A (ja) * 1995-03-24 1996-10-08 Nippon Colin Co Ltd 内視鏡用生体情報表示装置
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
JPH10290392A (ja) * 1997-04-14 1998-10-27 Olympus Optical Co Ltd 画像処理装置
JPH11332883A (ja) * 1998-05-27 1999-12-07 Olympus Optical Co Ltd 内視鏡外科システム
JP2001095819A (ja) * 1999-10-01 2001-04-10 Olympus Optical Co Ltd 顔面装着型映像表示装置
JP2001299691A (ja) * 2000-04-25 2001-10-30 Olympus Optical Co Ltd 内視鏡装置の操作システム
JP2008237369A (ja) * 2007-03-26 2008-10-09 Canon Inc 画像処理装置及び画像処理方法
JP2013200784A (ja) * 2012-03-26 2013-10-03 Yahoo Japan Corp 操作入力装置、操作入力方法およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08256968A (ja) * 1995-03-24 1996-10-08 Nippon Colin Co Ltd 内視鏡用生体情報表示装置
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
JPH10290392A (ja) * 1997-04-14 1998-10-27 Olympus Optical Co Ltd 画像処理装置
JPH11332883A (ja) * 1998-05-27 1999-12-07 Olympus Optical Co Ltd 内視鏡外科システム
JP2001095819A (ja) * 1999-10-01 2001-04-10 Olympus Optical Co Ltd 顔面装着型映像表示装置
JP2001299691A (ja) * 2000-04-25 2001-10-30 Olympus Optical Co Ltd 内視鏡装置の操作システム
JP2008237369A (ja) * 2007-03-26 2008-10-09 Canon Inc 画像処理装置及び画像処理方法
JP2013200784A (ja) * 2012-03-26 2013-10-03 Yahoo Japan Corp 操作入力装置、操作入力方法およびプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10456072B2 (en) 2015-08-24 2019-10-29 Fujifilm Corporation Image interpretation support apparatus and method
US10506913B2 (en) 2015-08-28 2019-12-17 Fujifilm Corporation Apparatus operation device, apparatus operation method, and electronic apparatus system
WO2017038241A1 (ja) * 2015-08-28 2017-03-09 富士フイルム株式会社 機器操作装置、機器操作方法、及び電子機器システム
US10747308B2 (en) 2015-09-16 2020-08-18 Fujifilm Corporation Line-of-sight operation apparatus, method, and medical device
WO2017061293A1 (ja) * 2015-10-09 2017-04-13 ソニー株式会社 手術システム、並びに、手術用制御装置および手術用制御方法
JP2018143585A (ja) * 2017-03-07 2018-09-20 株式会社トプコン 眼科用観察装置及びその作動方法
JP2019013397A (ja) * 2017-07-05 2019-01-31 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置
JP6996883B2 (ja) 2017-07-05 2022-01-17 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置
US11224329B2 (en) 2017-07-05 2022-01-18 Sony Olympus Medical Solutions Inc. Medical observation apparatus
JP2019042412A (ja) * 2017-09-07 2019-03-22 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置、および医療用観察システム
JP7034636B2 (ja) 2017-09-07 2022-03-14 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置、および医療用観察システム
CN111770716A (zh) * 2018-02-21 2020-10-13 奥林巴斯株式会社 医疗系统和医疗系统的控制方法
US11800966B2 (en) 2018-02-21 2023-10-31 Olympus Corporation Medical system and medical system operating method
CN111770716B (zh) * 2018-02-21 2023-12-01 奥林巴斯株式会社 医疗系统和医疗系统的控制方法

Also Published As

Publication number Publication date
JP6165033B2 (ja) 2017-07-19

Similar Documents

Publication Publication Date Title
JP6165033B2 (ja) 医療システム
CN110769740B (zh) 将诊断测试集成到实时治疗中的通用设备和方法
JP5498006B2 (ja) 医療制御装置及び該システム
JP6950707B2 (ja) 情報処理装置および方法、並びにプログラム
JP2004181229A (ja) 遠隔手術支援システム及び支援方法
JP7200939B2 (ja) 手術システム、制御方法、手術機器、並びにプログラム
JP2013509273A (ja) 外科的介入のための臨床上重要な解剖学的標識点の視覚的追跡/アノテーション
WO2019155931A1 (ja) 手術システム、画像処理装置及び画像処理方法
WO2020165978A1 (ja) 画像記録装置、画像記録方法および画像記録プログラム
JP4776937B2 (ja) 手術システム
JP2018502636A (ja) ヘッドマウント式コンピュータ装置、その方法及びコンピュータプログラム製品
JP6888620B2 (ja) 制御装置、制御方法、プログラム及び音出力システム
JPWO2018221068A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
CN106061354A (zh) 医疗系统
US20200168325A1 (en) Surgical support system, information processing method, and information processing apparatus
US11883120B2 (en) Medical observation system, medical signal processing device, and medical signal processing device driving method
WO2018138833A1 (ja) 情報記録システム、情報記録装置、および情報記録方法
US10952596B2 (en) Medical image processing device and image processing method
US20210278904A1 (en) Information processing device, information processing method, and program
US20210228061A1 (en) Medical observation system, medical observation apparatus, and drive method of medical observation apparatus
JP6411284B2 (ja) 医療システムおよび医療システムにおける表示制御方法
JP2022119551A (ja) リモート触診サポートシステム、情報処理装置、およびリモート触診サポート方法
EP2866162A1 (en) Multi-source medical display

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150422

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20150525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170620

R151 Written notification of patent or utility model registration

Ref document number: 6165033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250