JP2016015024A - 操作支援装置及び操作支援システム - Google Patents

操作支援装置及び操作支援システム Download PDF

Info

Publication number
JP2016015024A
JP2016015024A JP2014136931A JP2014136931A JP2016015024A JP 2016015024 A JP2016015024 A JP 2016015024A JP 2014136931 A JP2014136931 A JP 2014136931A JP 2014136931 A JP2014136931 A JP 2014136931A JP 2016015024 A JP2016015024 A JP 2016015024A
Authority
JP
Japan
Prior art keywords
fingertip
unit
operation support
operator
medical device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014136931A
Other languages
English (en)
Inventor
伸行 小沼
Nobuyuki Konuma
伸行 小沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2014136931A priority Critical patent/JP2016015024A/ja
Publication of JP2016015024A publication Critical patent/JP2016015024A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】複数の医用装置の操作性の向上を可能とすること。【解決手段】複数の医用装置3に対する操作者による操作を支援する操作支援装置2において、カメラ5は、操作者に装着され、操作者の視野に応じた範囲の画像を撮影する。選択部8は、撮影された画像に基づいて複数の医用装置3の一を選択する。操作特定部12は、撮影された画像に基づいて選択された医用装置の表示画面上における操作者の指先の位置を特定するとともに、特定された指先の位置の変化に基づく操作種別を特定する。操作情報送信部14は、選択された医用装置に特定された指先の位置に関する情報と特定された操作種別に関する情報とを送信する。【選択図】図2

Description

本発明の実施形態は、操作支援装置及び操作支援システム関する。
手術やカテーテル手技中に画像参照装置等で画像を参照したい時、滅菌された室内では、術者は直接機器に触れることができない。従って、術者は、アシスタントに機器の操作を依頼したり、操作のために手先以外の部位(例えば肘や口)を利用したり、滅菌されたタブレット端末やリモコン、Kinect(登録商標)などのモーショントラッキングを用いたジェスチャ操作等を利用したりしている。
しかし、アシスタントを利用する場合、術者の指示がアシスタントに的確に伝わらないことが多くある。手先以外の部位を利用する場合、限定された単純な操作しかできない。タブレット端末を利用する場合、術者は直接操作できるが、タブレットを術者の使用し易いよう保持する必要がある。また、タブレット端末の画面は、術者が画像を閲覧するには小さい。リモコンを利用する場合、リモコンを術者の使用しやすいよう保持する必要がある。また、操作機器が複数ある場合、機器毎に異なるリモコンに持ち替える必要があり、取り違えによる操作ミスが懸念される。また、手術室内には複数の人間が存在しているため、他人の動作により操作する当人の意図とは異なる操作が実行される懸念がある。
目的は、複数の医用装置の操作性の向上を可能とする非接触の操作支援装置及び操作支援システムを提供することにある。
本実施形態に係る操作支援装置は、複数の医用装置に対する操作者による操作を支援する操作支援装置において、前記操作者に装着され、前記操作者の視野に応じた範囲の画像を撮影するカメラと、前記撮影された画像に基づいて前記複数の医用装置の一を選択する選択部と、前記撮影された画像に基づいて前記選択された医用装置の表示画面上における前記操作者の指先の位置を特定するとともに、前記特定された指先の位置の変化に基づく操作種別を特定する特定部と、前記選択された医用装置に前記特定された指先の位置に関する情報と前記特定された操作種別に関する情報とを送信する送信部と、を具備する。
本実施形態に係る操作支援システムの概観図。 本実施形態に係る操作支援システムの構成を示す図。 図2の操作支援装置の概観図の一例を示す図。 図2の識別子記憶部に記憶された操作対象装置識別テーブルの一例を示す図。 本実施形態に係る指先の位置の変化の種別と操作種別とを関連付けたテーブルの一例を示す図。 図5のテーブルにおいて操作種別がタップの場合の指先の動きを示す図。 図5のテーブルにおいて操作種別がドラッグの場合の指先の動きを示す図。 図5のテーブルにおいて操作種別がフリックの場合の指先の動きを示す図。 図5のテーブルにおいて操作種別がスクロールの場合の指先の動きを示す図。 図5のテーブルにおいて操作種別がパンの場合の指先の動きを示す図。 図5のテーブルにおいて操作種別がピンチの場合の指先の動きを示す図。 本実施形態に係る一連の動作の典型的な流れを示す図。 図2のカメラにより撮影された画像の一例を示す図。 図12の接続判断処理の典型的な流れを示す図。 図2のカメラが、複数の識別子領域を認識した一例(1)を示す図。 図2のカメラが、複数の識別子領域を認識した一例(2)を示す図。 図2のカメラが、複数の識別子領域を認識した一例(3)を示す図。 図12の接触判断処理の典型的な流れを示す図。 本実施形態に係る非接触状態から接触状態に切り替える動作について説明するための図。 図2の表示部による接触状態か非接触状態かを示す情報の表示の一例を示す図。 図12の操作判断処理の典型的な流れを示す図。 本実施形態に係る操作入力の一例を示す図。 応用例に係る接触判断処理の典型的な流れを示す図。
以下、図面を参照しながら実施形態に係る操作支援装置及び操作支援システムを説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。
まず、図1は、本実施形態に係る操作支援システム1の概観図である。操作支援システム1は、操作支援装置2と複数の医用装置3とを有する。複数の医用装置3には、医用装置3各々を識別するための固有の識別子が付与されている。操作支援装置2は、操作者に装着される。複数の医用装置3は、手術室内に設置されているとする。複数の医用装置3には、清潔のため滅菌が施されている。
図2は、本実施形態に係る操作支援システム1の構成を示す図である。操作支援システム1は、操作支援装置2と複数の医用装置3とを有する。以下、操作支援装置2と複数の医用装置3とについて説明する。
図3は、図2の操作支援装置2の概観図の一例を示す図である。操作支援装置2は、例えば、眼鏡のフレーム状の器具に取り付けられたコンピュータ4と、カメラ5と、表示部6とを有する。眼鏡のフレーム状の器具は、操作者に装着される。このような操作支援装置2は、例えば、Google Glass(登録商標)のようなカメラ付きのウェアラブルコンピュータをベースとして実現される。なお、操作支援装置2は、眼鏡のレンズを有しても良いしレンズが無くても良い。なお、コンピュータ4と、カメラ5と、表示部6とが取り付けられる器具は眼鏡のフレーム状の器具に限定されず、ヘルメット、帽子、腕時計等、操作者に装着可能な如何なる器具でも良い。
初めに、カメラ5は、操作者の視野に応じた範囲の画像を繰り返し撮影する。カメラ5は、例えば、Google Glass(登録商標)のフレームに装備されたカメラにより実現される。
表示部6は、種々の画像を表示する。例えば、表示部6は、カメラ5により撮影された画像を表示する。なお、カメラ5により撮影された画像は、加工されて表示されても良い。また表示部6は、その他種々の情報を表示する。表示部6は、例えば、透明の素材を有する。表示部6は、例えば、図3に示すように、眼鏡のフレーム状の器具に装着される。
次に、コンピュータ4は、識別子記憶部7と、選択部8と、接続先切替部9と、接触判定部10と、ジェスチャ記憶部11と、操作特定部12と、操作変換部13と、操作情報送信部14と、主記憶部15と、システム制御部16と、を有する。
識別子記憶部7は、複数の医用装置3と複数の識別子とを関連付けて記憶する。複数の医用装置3と複数の識別子とは、具体的にはLUT(Lookup Table)で関連付けられている。以下、このLUTを操作対象装置識別テーブルと呼ぶ。図4は、識別子記憶部7に記憶された操作対象装置識別テーブルの一例を示す図である。操作対象装置識別テーブルは、識別子に対応する識別情報と、装置名と、通信先とを関連付けるテーブルである。例えば、Index1の識別情報は「ID00001」、装置名は「TOS−UL」、通信先情報は「192.168.1.8:345」であることを示している。なお通信先情報は、IP(Internet Protocol)に限定される必要はない。例えば、赤外線通信やBluetooth(登録商標)通信などの近距離無線通信を用いる場合は、通信先情報は設定されなくても良い。
選択部8は、カメラ5により撮影された画像に基づいて複数の医用装置3の一を選択する。選択部8は、複数の医用装置3のうちの撮影された画像に描出された識別子に対応する医用装置3を選択する。選択部8は、識別子と操作対象装置識別テーブルとを照合することにより、識別子に対応する医用装置3を選択する。
接続先切替部9は、操作支援装置2と複数の医用装置3との間の接続を切り替える。具体的には、接続先切替部9は、操作支援装置2と選択部8により選択された医用装置3とを接続する。医用装置3の通信先情報は、操作対象装置識別テーブルに含まれる。
接触判定部10は、カメラ5により撮影された画像に描出された指先の大きさと基準の大きさとの比較に基づいて、選択された医用装置3の接触状態と非接触状態とを切り替える。ここで、接触状態とは、タブレット端末に準えて、指先がタッチパネルに接触して操作情報を入力可能な状態を表す。非接触状態とは、タブレット端末に準えて、指先がタッチパネルに接触しておらず操作情報を入力不可能な状態を表す。なお、本実施形態における接触状態とは、タブレット端末に準えた表現であり、実際には操作者の指先は医用装置3に接触しない。接触判定の動作例の詳細については後述する。また、接触判定部10は、接触状態/非接触状態を記憶するためのメモリを有する。
ジェスチャ記憶部11は、指先の位置の変化の種別と操作種別とを関連付けて記憶する。図5は、本実施形態に係る指先の位置の変化の種別と操作種別とを関連付けたテーブルの一例を示す図である。指先の位置の変化の種別と操作種別とは、具体的にはLUTで関連付けられている。以下、このLUTをジェスチャテーブルと呼ぶ。以下に、操作支援装置2におけるジェスチャ操作をタブレット端末におけるジェスチャ操作に準えて説明する。実際には、操作者は、医用装置3に触れずにジェスチャ操作を行う。動作例について詳細は後述する。
図6は、図5のテーブルにおいて操作種別がタップの場合の指先の動きを示す図である。タップは、画面を軽く叩くように短く押す操作で、画像選択や文字入力等で使う基本操作である。なお、短く二度押す操作はダブルタップ、長く押す操作はロングタップと呼ばれる。図7は、図5のテーブルにおいて操作種別がドラッグの場合の指先の動きを示す図である。ドラッグは、長押ししている指を離さず移動させる操作で、画像等を移動させる操作である。図8は、図5のテーブルにおいて操作種別がフリックの場合の指先の動きを示す図である。フリックは、指で画面を左右に払うようになぞる操作で、画像や画面の切り替え等で使われる。図9は、図5のテーブルにおいて操作種別がスクロールの場合の指先の動きを示す図である。スクロールは、画面上から指を離さず上下または左右に動かす操作で、一画面に収まり切らない画像や画面等を上下に動かす場合等に使われる。図10は、図5のテーブルにおいて操作種別がパンの場合の指先の動きを示す図である。パンは、指を全方向にドラッグさせる操作で、画像や画面を斜めに切り替えるときに使われる。図11は、図5のテーブルにおいて操作種別がピンチの場合の指先の動きを示す図である。ピンチは、二本の指を画面に置いたまま広げたり(ピンチアウト)摘まんだり(ピンチイン)する操作である。ピンチアウトは、画像等を拡大するときに使われる。ピンチインは、画像等を縮小するときに使われる。なお、ジェスチャ記憶部11は、指先を下に動かした後にそのまま右に動かす、指先を上に動かした後にそのまま下に動かす等、タブレット端末の基本操作以外の独自の指先の位置の変化の種別に、独自の操作種別を割り当ててジェスチャテーブルに記憶しても良い。また、ジェスチャ記憶部11は、医用装置3毎に異なるジェスチャテーブルを記憶しても良い。
操作特定部12は、撮影された画像に基づいて、選択された医用装置3の表示画面上における操作者の指先の位置を特定する。操作特定部12は、特定された指先の位置の変化に基づく操作種別を特定する。具体的には、操作特定部12は、指先の位置の変化の種別をジェスチャテーブルに照合することにより、操作種別を特定する。操作特定部12は、操作種別として、特定された指先の位置の変化の種別に応じてタップ、ダブルタップ、ロングタップ、ドラッグ、フリック、スクロール、パン、ピンチ等を特定する。また、操作特定部12は、指先の位置及び大きさを記憶するためのメモリを有する。なお、操作特定部12のメモリは、指先に関する他の情報を取得しても良い。指先に関する他の情報とは、例えば、指先の回転、指先に記されたマーク、指先に付与された色などである。以下、指先に関する情報を全て含めて指先情報と呼ぶ。
操作変換部13は、操作特定部12により特定された指先の位置と、指先の位置の変化の種別と、操作種別とを、選択部8により選択された医用装置3が記憶可能な形式の信号に変換する。以下、三種の情報をまとめて操作情報と呼ぶ。
操作情報送信部14は、接続先切替部9により接続された医用装置3に、操作情報を送信する。
主記憶部15は、種々のデータを記憶する。主記憶部15は、各種所定値や各種閾値を記憶する。また、主記憶部15は、カメラ5で撮影された画像等を記憶しても良い。主記憶部15は、記憶した画像を適宜、表示部6等へ出力する。
システム制御部16は、操作支援装置2の中枢として機能する。システム制御部16は、操作支援装置2に含まれる各構成要素を統括的に制御し、本実施形態に係る各種動作を実現する。
図2に示すように、複数の医用装置3各々は、接続管理部21と、操作情報受信部22と、操作処理部23と、装置側表示部24と、を有する。
接続管理部21は、操作支援装置2から接続要求が送信された場合、操作支援装置2と通信可能に接続する。また、接続管理部21は、操作支援装置2から通信の切断要求が送信された場合、操作支援装置2と通信不可能に接続を切断する。接続管理部21は、それぞれの医用装置3固有の通信先情報を有する。
操作情報受信部22は、操作支援装置2から送信された操作情報を受信する。
操作処理部23は、操作情報受信部22により受信された操作情報に基づいて、操作処理を行う。例えば、装置側表示部24に左右に並んで表示された二つの画像のうち右の画像に対して操作者からある大きさへのピンチアウトの指示が出た場合、操作処理部23は、右の画像を指示された大きさに拡大する。
装置側表示部24は、種々の情報をモニタに表示する。装置側表示部24は、例えば、医療検査により発生された画像を表示する。
以下、本実施形態に係る操作支援システム1の動作例について詳細に説明する。図12を参照しながら、本実施形態における一連の動作例を説明する。図12は、本実施形態に係る一連の動作の典型的な流れを示す図である。
まず、システム制御部16は、カメラ5に画像を撮影させる(ステップS11)。図13は、カメラ5により撮影された画像の一例を示す図である。画像には、医用装置3の表示画面と、医用装置3のその他の部分と、識別子(QRコード(登録商標))とが描出されている。なお、識別子は、例えば、QRコード(登録商標)、バーコード、識別ナンバー、識別カラー等を記したボードやシール等であり、医用装置3各々に固有のものが付与される。以下、画像に描出された表示画面に関する画素の集合を、表示画面領域と呼ぶ。また、画像に描出された識別子に関する画素の集合を、識別子領域と呼ぶ。
ステップS11が行われると、システム制御部16は、選択部8に識別子領域を認識させる(ステップS12)。ステップS12において選択部8は、ステップS11で撮影された画像に画像認識処理を施し、識別子領域を認識する。
ステップS12が行われると、システム制御部16は、ステップS13(接続判断処理)、ステップS14(接触判断処理)及びステップS15(操作判断処理)を、同期を取りながら行う。ステップS13、ステップS14及びステップS15はサブルーチンとして、説明は後述する。
ステップS13、ステップS14及びステップS15の処理が終わると、再度ステップS11が実行される。以上のようにして、ステップS11、ステップS12、ステップS13、ステップS14及びステップS15の処理が連続的に繰り返される。カメラ5による画像撮影が終了されると、一連の動作は終了する。
(接続判断処理)
以下、図14を参照しながら、図12におけるステップS13(接続判断処理サブルーチン)の動作例を説明する。図14は、図12の接続判断処理の典型的な流れを示す図である。接続判断処理とは、操作支援装置2と選択部8により選択された医用装置3とが現在接続されているか否かを判断し、接続されていない場合には接続を行う処理である。なお、操作支援装置2と選択された医用装置3とが接続されている時、操作支援装置2は選択された医用装置3に操作情報を送信可能である。
まず、システム制御部16は、選択部8に識別情報の取得処理を行わせる(ステップS21)。ステップS21において選択部8は、ステップS12で認識された識別子領域に基づいて、図4の操作対象識別テーブルにおける識別情報を取得する。具体的には、例えば、識別子がQRコード(登録商標)の場合、選択部8は、ステップS12で認識されたQRコード(登録商標)領域からQRコード(登録商標)を画像認識により読み取る。選択部8は、読み取られたQRコード(登録商標)を変換することで、識別情報を取得する。ステップS12において複数のQRコード(登録商標)領域が認識された場合は、選択部8は、複数のQRコード(登録商標)各々に対応した識別情報を取得する。
ステップS21が行われると、システム制御部16は、選択部8に接続先を選択させる(ステップS22)。図15は、カメラ5が、複数の識別子領域を認識した一例(1)を示す図である。図15の場合、選択部8は、操作者の指先が重なっている表示画面領域を有する医用装置3の識別情報(ステップS21において取得)を選択する。選択部8は、当該識別情報に操作対象判定テーブルにおいて関連付けられた医用装置3を選択する。図16は、カメラ5が、複数の識別子領域を認識した一例(2)を示す図である。図16の場合、選択部8は、撮影された画像が中央部に表示画面領域を有する医用装置3の識別情報を選択する。選択部8は、当該識別情報に操作対象判定テーブルにおいて関連付けられた医用装置3を選択する。図17は、カメラ5が、複数の識別子領域を認識した一例(3)を示す図である。図17の場合、選択部8は、直近に更新された表示画面領域を有する医用装置3の識別情報を選択する。選択部8は、当該識別情報に操作対象判定テーブルにおいて関連付けられた医用装置3を選択する。選択部8は、直近に更新されたか否かを、例えば、画像認識により判定する。直近に更新された医用装置3とは、具体的には、患者の最新画像が映し出されている医用装置3、又は直近に操作した医用装置3を示している。
なお、ステップS12において識別子が一つのみ認識された場合、ステップS22は省略される。この場合選択部8は、認識された一つの識別子を有する医用装置3を選択し、ステップS23に進む。
ステップS22が行われた場合、或いはステップS12において識別子が一つのみ認識された場合、システム制御部16は、選択部8に、選択された医用装置3が登録されているか否かを判定させる(ステップS23)。ステップS23において、選択部8は、ステップS22において選択された医用装置3と操作対象装置識別テーブルとを照合し、選択された医用装置3が操作対象装置識別テーブルに登録されているか否かを判定させる。選択された医用装置3が操作対象装置識別テーブルに登録されていないと判定された場合(ステップS23:No)、接続判断処理を終了する。
ステップS23において、選択された医用装置3が操作対象装置識別テーブルに登録されていると判定されると(ステップS23:Yes)、システム制御部16は、接続先切替部9に、現在操作支援装置2が何れかの医用装置3と接続されているか否かを判定させる(ステップS24)。
ステップS24において接続中と判定されると(ステップS24:Yes)、システム制御部16は、接続先切替部9に、二つの装置が同一の装置か否かを判定させる(ステップS25)。ステップS24において、二つの装置とは、現在接続されている装置とステップS22において選択された装置とを示す。同一の装置でないと判定された場合(ステップS24:No)、接続判断処理を終了する。
ステップS25において同一の装置でない判定された場合(ステップS25:No)、システム制御部16は、接続管理部21に接続を切断させる(ステップS26)。
ステップS26が行われた場合、或いはステップS24において接続でないと判定された場合(ステップS24:No)、接続管理部21に、操作対象装置識別テーブルから選択された医用装置3の接続情報(通信先情報)を取得させる(ステップS27)。
ステップS27が行われると、システム制御部16は、接続管理部21に、操作支援装置2と選択された医用装置3との接続処理を実行させる(ステップS28)。ステップS27において接続管理部21は、ステップS25で取得された、選択された医用装置3の接続情報に基づいて、操作支援装置2と選択された医用装置3との接続処理を実行する。
ステップS28が行われると、システム制御部16は、接続管理部21に、操作支援装置2と選択された医用装置3とが正常に接続されたか否かを判定させる(ステップS29)。ステップS29において正常に接続されたと判定された場合(ステップS29:Yes)、ステップS30に進む。ステップS29において正常に接続されていない(ステップS29:No)、即ち接続失敗と判定された場合、ステップS28に進む。なお、所定の回数接続失敗が繰り返されると、接続判断処理は終了される。
ステップS29において正常に接続されたと判定された場合、システム制御部16は、接続管理部21に接続完了の信号を出力させる(ステップS30)。接続完了の信号は、接続管理部21に保持される。ステップS30が行われると、接続判断処理は終了される。
以上の接続判断処理により、操作者が操作対象とする医用装置3のみに限定して入力可能となる。従って、他の医用装置3への操作の誤入力を回避できる。また、操作対象医用装置3の切り替えは、接続判断処理により自動的に行われるため、操作者の手動による切り替えが不要である。従って、操作者は、入力対象の医用装置3を変える度に発生するリモコンの持ち替え等の必要がなくなり、操作性が向上する。なお、接続判断処理は、カメラ5により画像が撮影される毎に行われても良いし、既定枚数置きに実行されても良い。
(接触判断処理)
接続判断処理により操作支援装置2と選択された医用装置3とが接続され、操作支援装置2が選択された医用装置3に操作情報を送信可能な状態にある時、接触判断処理が実行される。
以下、図18を参照しながら、図12におけるステップS14(接触判断処理サブルーチン)の動作例を説明する。図18は、図12の接触判断処理の典型的な流れを示す図である。接触判断処理とは、操作者の指先の位置の変化の種別によるジェスチャ操作が入力可能か不可能かを判断する処理である。先述したとおり、本実施形態における接触状態と非接触状態とはタブレット端末に準えた表現で、実質的には入力可能状態と不可能状態とを意味している。なお、操作者の指先が接触状態である時、操作者はジェスチャ操作を入力可能である。
まず、システム制御部16は、操作特定部12に現在の指先情報の取得処理を行わせる(ステップS31)。ステップS31において操作特定部12は、カメラ5によって撮影された画像に描出された指先の画素の集合(以下、指先領域と呼ぶ)の、画像上における位置及び大きさを取得する。詳細には、指先領域は、例えば、画像に描出された爪の領域として定義される。なお、操作特定部12は、他の領域を指先領域と定義しても良い。例えば、操作特定部12は、画像に描出された指の先端領域或いは爪の先端領域から爪の付け根領域までの指先の画素の集合を、指先領域と定義しても良い。また操作特定部12は、画像に描出された指の先端における指の幅四方の領域画素の集合を、指先領域と定義しても良い。操作特定部12は、取得された指先情報を、操作特定部12のメモリM1に記憶する。
ステップS31が行われると、システム制御部16は、接触判定部10に接触判定に必要な情報の取得処理を行わせる(ステップS32)。ステップS32において接触判定部10は、操作特定部12のメモリM1から接触判定に必要な情報の取得を行う。接触判定に必要な情報とは、例えば現在の指先情報、及び現在から所定の時間遡った分までの過去の指先情報である。所定の時間は、主記憶部15に予め記憶されている。
ステップS32が行われると、システム制御部16は、接触判定部10に接触判定を行わせる(ステップS33)。ステップS33において接触判定部10は、現在の指先の大きさと過去の指先の大きさとを比較する。図19は、本実施形態に係る非接触状態から接触状態に切り替える動作について説明するための図である。過去の指先領域の大きさのうち、所定の時間同程度だった指先領域の大きさを基準の指先領域の大きさとする。所定の時間は主記憶部15に予め記憶されている。過去の指先領域の大きさが所定の時間同程度であると判定するための大きさの許容ぶれ幅或いはぶれ幅のパーセンテージは、主記憶部15に予め記憶される。現在の指先の大きさを基準の指先の大きさで除した数値が閾値よりも小なる場合、接触判定部10は、指先が非接触状態から接触状態に切り替わったと判定する。閾値は主記憶部15に予め記憶されている。現在の指先領域の大きさを基準の指先の大きさで除した数値が閾値よりも大なる場合、接触判定部10は、指先が接触状態から非接触状態に切り替わったと判定する。接触判定部10は、判定した指先の接触状態か非接触状態かを示す情報を、接触判定部10のメモリM2に記憶する。
ステップS34が行われると、システム制御部16は、表示部6に接触状態か非接触状態かを示す情報を表示する(ステップS34)。図20は、図2の表示部6による接触状態か非接触状態かを示す情報の表示の一例を示す図である。表示部6は、現在の接触状態か非接触状態かを示す情報をカメラ5により撮影された画像と位置整合して表示部6に表示する。
以上のようにして、ステップS31、ステップS32、ステップS33及びステップS34の処理が連続的に繰り返される。カメラ5による画像撮影が終了されると、一連の動作は終了する。なお、接触判断処理は、カメラ5により画像が撮影される毎に行われても良いし、既定枚数置きに実行されても良い。
以上の接触判断処理により、接触状態(入力可能状態)か非接触状態(入力不可能状態)かを判断できる。接触状態と非接触状態とを区別することにより、非接触状態における誤動作を削減することができる。具体的には、非接触状態における誤動作とは、操作者が眼鏡のずれを直す、汗を拭く、顔を掻く等、医用装置3ではなく操作支援装置2のカメラ5に近い範囲で行われる動作を操作と認識してしまうこと等である。
(操作判断処理)
接続判断処理により操作支援装置2と選択された医用装置3とが接続され、操作支援装置2が選択された医用装置3に操作情報を送信可能な状態にある時、操作判断処理が実行される。
以下、図21を参照しながら、図12におけるステップS15(操作判断処理サブルーチン)の動作例を説明する。図21は、図12の操作判断処理の典型的な流れを示す図である。操作判断処理とは、操作者により入力された指先の位置の変化の種別をジェスチャテーブルに登録された操作種別のうち何れであるかを判断する処理である。
まず、システム制御部16は、操作特定部12に、表示領域に指先領域が重なっているか否かを判定させる(ステップS41)。表示領域に指先領域が重なっていないと判定された場合(ステップS41:No)、システム制御部16は、所定の時間経過した後に再度ステップS41を行う。
ステップS41において表示領域に指先領域が重なっていると判定された場合(ステップS41:Yes)、接触判定部10は、接触状態であるか否かを判定する(ステップS42)。ステップS42において、接触判定部10は、メモリM2に保存された接触状態か非接触状態かを示す情報のうち最新のものが接触状態を示しているか否かを判定する。
ステップS42において接触状態を示していると判定された場合(ステップS42:Yes)、システム制御部16は、操作特定部12に指先の位置の変化の種別の取得処理を行わせる(ステップS43)。以下、図22を参照しながら、ステップS43における指先の位置、指先の位置の変化及び指先の位置の変化の種別を特定する一連の動きについて説明する。図22は、本実施形態に係る操作入力の一例を示す図である。
まず、操作特定部12は、カメラ5により撮影された画像における操作対象の医用装置3の表示画面における指先の位置を特定する。具体的には、操作特定部12は、表示部6に表示された画像における表示画面領域R1と指先領域R2とを画像認識する。操作特定部12は、操作入力を開始した時点の認識した表示画面領域R1の基準点に対する指先領域R2の相対位置を特定する。相対位置は、基準点から指先領域R2までの距離と方向とにより規定される。基準点は、例えば表示画面の中心点として定義される。なお、基準点は、表示画面の四隅のうちの一或いはQRコード(登録商標)の所定点として定義されても良い。操作特定部12は、表示画面領域R1の大きさと実際の装置側表示部24の表示画面の大きさとの比率Rを計算する。なお、装置側表示部24の表示画面の大きさは、予め操作特定部12のメモリ或いは主記憶部15に記憶されている。表示画面領域R1が歪んでいた場合には、操作特定部12は、比率を計算する前に、表示画面領域R1と指先領域R2とを含む範囲に歪み補正処理を行っても良い。操作特定部12は、特定された相対位置と計算された比率とに基づいて、表示画面における指先の位置(2次元座標)を計算する。図22において指先領域の中心は、例えば、座標(X1,Y1)に位置すると認識される。座標(X1,Y1)は、画像A領域R3に含まれる。
次に操作特定部12は、操作入力を開始した時点から連続して撮影された複数枚の画像を上記と同様に認識することにより、指先の位置の変化を特定する。ここで、指先の位置の変化とは、変化の方向と変化の量とを含む。変化の方向は、操作入力を開始した時点に撮影された画像から最新の画像までの表示画面における指先の位置の軌跡を用いて決定される。図22において指先領域は、座標(X1,Y1)から複数の画像に亘って連続的に略直線的に左方向に位置が変化していることを示している。即ち、変化の方向は、略直線的に左方向である。変化の量は、操作入力を開始した時点に撮影された画像から最新の画像までの表示画面における指先の位置の軌跡を用いて決定される。図22において指先領域R2は、座標(X1,Y1)から複数の画像に亘って連続的に直線的に位置が変化していることを示している。図22における移動後の指先領域の中心は、例えば、座標(X2,Y1)に位置すると認識される。座標(X2,Y1)は、画像B領域R4に含まれる。即ち、変化の量は、座標(X1,Y1)から座標(X2,Y1)である。
操作特定部12は、特定された指先の位置と指先の位置の変化とに基づいて、指先の位置の変化の種別を取得する。図22において指先領域R2は、複数の画像に亘って連続的に直線的に座標(X1,Y1)から座標(X2,Y1)へ移動したことを示している。即ち、操作特定部12は、「指先の位置の変化の種別:直線的移動」として取得する。
ステップS43が行われると、システム制御部16は、操作特定部12に、操作種別の識別処理を行わせる(ステップS44)。ステップS44において操作特定部12は、ステップS43で取得された指先の位置の変化の種別をジェスチャテーブルに照合することにより、当該指先の位置の変化の種別に対応する操作種別を識別する。具体的には、例えば、操作特定部12は、図22における指先の位置の変化の種別をジェスチャテーブルに照合することにより、「操作種別:ドラッグ」と特定する。即ち、操作特定部12は、操作者が入力した情報は、画像Aを画像Bの位置にドラッグさせる操作であると特定する。以下、「画像Aを画像Bの位置に」という操作の量を操作量と呼ぶ。なお、「操作種別:ピンチ」の場合等は、操作量は座標で示される。
ステップS43が行われると、システム制御部16は、操作特定部12に、ステップS43において取得された指先の位置の変化の種別がジェスチャテーブルに登録された既定の操作種別か否かを判定する(ステップS45)。既定の操作種別でないと判定された場合(ステップS45:No)、ステップS41に進む。
ステップS45において既定の操作種別であると判定された場合(ステップS45:Yes)、操作変換部13は、操作種別と操作量とを、医用装置3側で識別可能な形に変換する(ステップS46)。ステップS46において、操作変換部13は操作情報に、例えば符号化等を施す。
ステップS46が行われると、操作情報送信部14は、ステップS46において変換された操作情報を送信する(ステップS47)。ステップS47において送信された操作情報を接続された医用装置3の操作情報受信部22が受信すると、医用装置3における操作処理部23は、操作情報に従って操作処理を行う。操作処理が行われると、医用装置3における装置側表示部24は、操作処理部23により行われた操作処理を反映した画像を逐次表示する。
ステップS47が行われると、操作情報送信部14は、送信が成功したか否かを判定する(ステップS48)。送信が失敗したと判定された場合(ステップS48:No)、ステップS47に戻り、再度接続処理を試みる。なお、送信が所定の回数連続して失敗したと判定された場合、一連の動作は終了する。所定の回数は、主記憶部15に予め記憶される。なお、操作判断処理は、カメラ5により画像が撮影される毎に行われても良いし、既定枚数置きに実行されても良い。
以上のようにして、ステップS41、ステップS42、ステップS43、ステップS44、ステップS45、ステップS46、ステップS47及びステップS48の処理が連続的に繰り返される。カメラ5による画像撮影が終了されると、一連の動作は終了する。操作判断処理により、操作者は滅菌状態下の医用装置3を非接触かつタブレット端末のように直感的に操作可能である。
なお、本実施形態に係る操作支援装置2は、複数人が装着し、各々が異なる医用装置3を操作することも可能である。
(応用例)
上記実施形態では、カメラ5に一人の操作者の指先が写っているという前提で説明を行った。しかし、上記実施形態において、操作者は一人にとらわれず、複数人であっても良い。応用例では、カメラ5に複数人の操作者の指先が写っている場合について説明する。具体的には、応用例では、図18の接触判断処理サブルーチンについて更に詳述する。
図23は、応用例に係る接触判断処理の典型的な流れを示す図である。図23の応用例に係る接触判断処理サブルーチンは、基本的には図18の本実施形態に係る接触判断処理サブルーチンと同様であるため、操作者が一人の場合にもそのまま図18の代わりに適用できる。
本実施形態に係る接触判断処理サブルーチンと応用例に係る接触判断処理サブルーチンとの大きな違いは、指先情報を記憶する操作特定部12のメモリM1と指先の接触状態を示す情報を記憶する接触判定部10のメモリM2とが、それぞれ複数人分あることである。メモリM1は、指先情報を、個人を特定する情報と関連付けて記憶する。メモリM2は、接触状態を示す情報を、個人を特定する情報と関連付けて記憶する。
操作特定部12のメモリM11は、1人目の操作者の指先情報を記憶する。メモリM12は、2人目の操作者の指先情報を記憶する。メモリM13は、3人目の操作者の指先情報を記憶する。なお、操作特定部12は、所定の時間操作者の指先情報が存在しない場合、当該メモリを解放し、他の操作者或いは同操作者が使っても良い。所定の時間は、主記憶部15に予め記憶される。
接触判定部10のメモリM21は、1人目の操作者の指先の接触状態を示す情報を記憶する。メモリM12は、2人目の操作者の指先の接触状態を示す情報を記憶する。メモリM13は、3人目の操作者の指先の接触状態を示す情報を記憶する。なお、接触判定部10は、所定の時間操作者の指先の接触状態を示す情報が存在しない場合、当該メモリを解放し、他の操作者或いは同操作者が新たに使っても良い。所定の時間は、主記憶部15に予め記憶される。
なおステップS31’、ステップS32’、ステップS33’ 及びステップS34’の動作は、メモリM1およびM2に登録された個人それぞれに関して、当該個人と関連付けられたメモリM1およびメモリM2を用いて行われる。
上記のとおり、本実施形態に係る操作支援システム1によれば、カメラ5により撮影された操作者の視野に応じた範囲の画像に基づいて、操作対象の医用装置3を非接触で接続することができる。また、複数の医用装置3各々に操作認識機器を接続させることなく、操作者は、一台の操作支援装置2で複数の医用装置3を操作できる。医用装置3側に操作認識機器を接続する場合は認識範囲が広範囲であり、操作者以外の他人の動きを誤認識してしまう。一方、本実施形態に係る操作支援システム1は、認識範囲が操作者視野に近似した範囲に限られるため、操作者以外の他人は意図して操作支援装置2の操作者視野に入り込まない限り操作を入力することは難しい。また、接触判定処理により、本人が意図しない動作(眼鏡のずれを直す、汗を拭く、顔を掻く等)による誤入力も低減される。更に、操作対象の医用装置3の表示画面とその画面上に重なっている操作者の指先から画面上の操作位置を算出し、タブレット端末等の機器に近いジェスチャ操作を実現することができる。かくして、本実施形態に係る操作支援システム1は、滅菌状態下における複数の医用装置3の操作性の向上することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…操作支援システム、2…操作支援装置、3…医用装置、4…コンピュータ、5…カメラ、6…表示部、7…識別子記憶部、8…選択部、9…接続先切替部、10…接触判定部、11…ジェスチャ記憶部、12…操作特定部、13…操作変換部、14…操作情報送信部、15…主記憶部、16…システム制御部、21…接続管理部、22…操作情報受信部、23…操作処理部、24…装置側表示部

Claims (13)

  1. 複数の医用装置に対する操作者による操作を支援する操作支援装置において、
    前記操作者に装着され、前記操作者の視野に応じた範囲の画像を撮影するカメラと、
    前記撮影された画像に基づいて前記複数の医用装置の一を選択する選択部と、
    前記撮影された画像に基づいて前記選択された医用装置の表示画面上における前記操作者の指先の位置を特定するとともに、前記特定された指先の位置の変化に基づく操作種別を特定する特定部と、
    前記選択された医用装置に前記特定された指先の位置に関する情報と前記特定された操作種別に関する情報とを送信する送信部と、
    を具備する操作支援装置。
  2. 前記選択部は、前記複数の医用装置のうちの前記撮影された画像に描出された識別子に対応する医用装置を選択する、請求項1記載の操作支援装置。
  3. 前記複数の医用装置と複数の識別子とを関連付けて記憶する識別子記憶部、を更に備え、
    前記選択部は、前記複数の医用装置のうちの、前記撮影された画像に描出された識別子に前記識別子記憶部において関連付けられた医用装置を選択する、請求項2記載の操作支援装置。
  4. 前記選択部は、前記撮影された画像に含まれる複数の識別子を認識した場合、前記撮影された画像において前記操作者の指先が重なっている表示画面を有する医用装置に対応する識別子を特定し、前記特定された識別子に前記識別子記憶部において関連付けられた医用装置を選択する、請求項3記載の操作支援装置。
  5. 前記選択部は、前記撮影された画像に含まれる複数の識別子を認識した場合、前記撮影された画像が中央部に描出されている表示画面を有する医用装置に対応する識別子を特定し、前記特定された識別子に前記識別子記憶部において関連付けられた医用装置を選択する、請求項3記載の操作支援装置。
  6. 前記選択部は、前記撮影された画像に含まれる複数の識別子を認識した場合、被検者を対象とする画像のうち最新の画像が描出されている表示画面を有する医用装置に対応する識別子を特定し、前記特定された識別子に前記識別子記憶部において関連付けられた医用装置を選択する、請求項3記載の操作支援装置。
  7. 前記選択部は、前記撮影された画像に含まれる複数の識別子を認識した場合、最も新しい時刻に操作された医用装置に対応する識別子を特定し、前記特定された識別子に前記識別子記憶部において関連付けられた医用装置を選択する、請求項3記載の操作支援装置。
  8. 前記撮影された画像に描出された指先の大きさと基準の大きさとの比較に基づいて、前記選択された医用装置の操作可能状態と操作不可能状態とを切り替える操作可不可判定部、を更に備える、請求項1記載の操作支援装置。
  9. 前記特定部は、前記操作可不可判定部により前記選択された医用装置が操作可能状態であると判定された場合に限り、前記撮影された画像に基づいて前記選択された医用装置の表示画面上における前記操作者の指先の位置を特定するとともに、前記特定された指先の位置の変化に基づく操作種別を特定する、請求項8記載の操作支援装置。
  10. 前記特定部は、前記操作種別として、前記特定された指先の位置の変化の種別に応じてジェスチャ操作を特定する、請求項1記載の操作支援装置。
  11. 前記特定部は、ジェスチャー入力としてタップ、ダブルタップ、ロングタップ、ドラッグ、フリック、スクロール、パン、ピンチを特定する、請求項10記載の操作支援装置。
  12. 前記特定部は、前記撮影された画像に基づいて前記選択された医用装置の表示画面上における複数の操作者の指先の位置を個別に特定するとともに、前記特定された複数の操作者の指先の位置の変化に基づく操作種別を個別に特定する、請求項1記載の操作支援装置。
  13. 複数の医用装置に対する操作者による操作を支援する操作支援装置と複数の医用装置とを含む操作支援システムであって、
    前記操作支援装置は、
    前記操作者に装着され、前記操作者の視野に応じた範囲の画像を撮影するカメラと、
    前記撮影された画像に基づいて前記複数の医用装置の一を選択する選択部と、
    前記撮影された画像に基づいて前記選択された医用装置の表示画面上における前記操作者の指先の位置を特定するとともに、前記特定された指先の位置の変化に基づく操作種別を特定する特定部と、
    前記選択された医用装置に前記特定された指先の位置に関する情報と前記特定された操作種別に関する情報とを送信する送信部と、を有し、
    前記複数の医用装置はそれぞれ、
    前記操作支援装置における前記送信部から送信された情報を受信する受信部と、
    前記操作支援装置における前記特定部により特定された指先の位置と操作種別とに応じた情報処理を実行する処理部と、を有する、操作支援システム。
JP2014136931A 2014-07-02 2014-07-02 操作支援装置及び操作支援システム Pending JP2016015024A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014136931A JP2016015024A (ja) 2014-07-02 2014-07-02 操作支援装置及び操作支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014136931A JP2016015024A (ja) 2014-07-02 2014-07-02 操作支援装置及び操作支援システム

Publications (1)

Publication Number Publication Date
JP2016015024A true JP2016015024A (ja) 2016-01-28

Family

ID=55231156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014136931A Pending JP2016015024A (ja) 2014-07-02 2014-07-02 操作支援装置及び操作支援システム

Country Status (1)

Country Link
JP (1) JP2016015024A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068144A (ja) * 2019-10-23 2021-04-30 セイコーエプソン株式会社 表示装置の制御方法および制御装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146803A (ja) * 2004-11-24 2006-06-08 Olympus Corp 操作装置及び遠隔操作システム
JP2006155172A (ja) * 2004-11-29 2006-06-15 Olympus Corp 入力装置
JP2006155244A (ja) * 2004-11-29 2006-06-15 Olympus Corp 情報表示装置
JP2011209965A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム
WO2013035001A2 (en) * 2011-09-07 2013-03-14 Koninklijke Philips Electronics N.V. Contactless remote control system and method for medical devices.
JP2013105203A (ja) * 2011-11-10 2013-05-30 Canon Inc 情報処理装置、情報処理装置の制御方法、及び情報処理システム
JP2014081788A (ja) * 2012-10-16 2014-05-08 Canon Inc ハンドジェスチャ認識装置及びその制御方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146803A (ja) * 2004-11-24 2006-06-08 Olympus Corp 操作装置及び遠隔操作システム
JP2006155172A (ja) * 2004-11-29 2006-06-15 Olympus Corp 入力装置
JP2006155244A (ja) * 2004-11-29 2006-06-15 Olympus Corp 情報表示装置
JP2011209965A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム
WO2013035001A2 (en) * 2011-09-07 2013-03-14 Koninklijke Philips Electronics N.V. Contactless remote control system and method for medical devices.
JP2013105203A (ja) * 2011-11-10 2013-05-30 Canon Inc 情報処理装置、情報処理装置の制御方法、及び情報処理システム
JP2014081788A (ja) * 2012-10-16 2014-05-08 Canon Inc ハンドジェスチャ認識装置及びその制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068144A (ja) * 2019-10-23 2021-04-30 セイコーエプソン株式会社 表示装置の制御方法および制御装置
JP7310535B2 (ja) 2019-10-23 2023-07-19 セイコーエプソン株式会社 表示装置の制御方法および制御装置

Similar Documents

Publication Publication Date Title
US10585288B2 (en) Computer display device mounted on eyeglasses
CN107077258B (zh) 投射型影像显示装置以及影像显示方法
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
JP2023015274A (ja) 面限定制御用に自由空間入力を適用する方法および装置
US10607340B2 (en) Remote image transmission system, display apparatus, and guide displaying method thereof
WO2017061293A1 (ja) 手術システム、並びに、手術用制御装置および手術用制御方法
CN112805670B (zh) 用于数字病理学的眼睛跟踪的图像查看器
US20150261492A1 (en) Information processing apparatus, information processing method, and information processing system
JP2015176588A (ja) 表示装置、画像表示システムおよび情報処理方法
Lander et al. hEYEbrid: A hybrid approach for mobile calibration-free gaze estimation
WO2018216501A1 (ja) 制御装置、制御方法、および手術システム
US20240185516A1 (en) A Method for Integrated Gaze Interaction with a Virtual Environment, a Data Processing System, and Computer Program
US11429200B2 (en) Glasses-type terminal
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
US11202010B2 (en) Control device, external device, medical observation system, control method, display method, and program
CN103713387A (zh) 电子设备和采集方法
WO2016006070A1 (ja) 携帯情報端末装置及びそれと連携するヘッドマウントディスプレイ
JP6319220B2 (ja) 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム
JP2016015024A (ja) 操作支援装置及び操作支援システム
WO2020240044A1 (en) Rendering an image on a virtual user interface of an augmented or virtual reality device
JP2019087136A (ja) 画面表示制御方法および画面表示制御システム
JP6439398B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP2020017932A (ja) 医療映像システム
US20230380912A1 (en) Medical imaging control apparatus, medical imaging system and method of operating a medical imaging system
JP6079418B2 (ja) 入力装置および入力プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180410

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181113