JP2018147054A - 非接触遠隔ポインター制御装置 - Google Patents

非接触遠隔ポインター制御装置 Download PDF

Info

Publication number
JP2018147054A
JP2018147054A JP2017038799A JP2017038799A JP2018147054A JP 2018147054 A JP2018147054 A JP 2018147054A JP 2017038799 A JP2017038799 A JP 2017038799A JP 2017038799 A JP2017038799 A JP 2017038799A JP 2018147054 A JP2018147054 A JP 2018147054A
Authority
JP
Japan
Prior art keywords
image
pointer
user
remote
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017038799A
Other languages
English (en)
Inventor
聡 岩渕
Satoshi Iwabuchi
聡 岩渕
博之 渡部
Hiroyuki Watabe
博之 渡部
弘桂 桑原
Kokei Kuwabara
弘桂 桑原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHINKO SHOJI CO Ltd
NEC Solution Innovators Ltd
Toho University
Original Assignee
SHINKO SHOJI CO Ltd
NEC Solution Innovators Ltd
Toho University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHINKO SHOJI CO Ltd, NEC Solution Innovators Ltd, Toho University filed Critical SHINKO SHOJI CO Ltd
Priority to JP2017038799A priority Critical patent/JP2018147054A/ja
Publication of JP2018147054A publication Critical patent/JP2018147054A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】自身の装置とは異なる離れた場所にある遠隔表示制御装置の表示画面に表示されているマウス等のポインターの動きを遠隔かつ非接触で制御することができる非接触遠隔ポインター制御装置を提供する。
【解決手段】自身の装置とは異なる離れた場所にある遠隔表示制御装置101の表示画面に表示されているポインターの動きを制御する非接触遠隔ポインター制御装置であって、そのポインターを動作させるポインティングデバイス画像をユーザが視認可能な三次元空間に空中画像2として表示させる画像結像プレート20が表面に設置された筐体1と、三次元空間におけるユーザの手3の動きを検出する3Dセンサ30と、ユーザの手3の動きによるジェスチャー操作を認識する制御ユニット40と、ジェスチャー操作による信号を遠隔表示制御装置101へ送信する他装置ポインター操作情報送信部50とを備える。
【選択図】図1

Description

この発明は、離れた場所にある遠隔表示制御装置の表示画面に表示されているポインターの動きを遠隔で操作することが可能な非接触遠隔ポインター制御装置に関するものである。
近年では、医療装置のIT化に伴って、患者のCT、MRI、DSAなどの画像や術前シミュレーション画像情報などのデータを、病院内ネットワークなどの医療システムに接続されている手術室内に設置されたコンピュータ(医療画像表示PC)の表示画面に表示させ、手術中に医師がそのコンピュータ上で患者のデータを閲覧したり確認したり、といった操作をしながら手術をする機会が増えている。
この場合、手術を行う医師(執刀医)によりそのコンピュータのマウス等のポインティングデバイスによるポインターを動かす細かい作業が必要とされるが、手術室内に設置されたコンピュータ(医療画像表示PC)は、執刀医から見える位置ではあるがすぐ近くではない離れた場所に設置されていることが多く、また、手術中に執刀医がコンピュータのマウス等のポインティングデバイスに触れるのは衛生上の問題があるため、他の医師や看護師に指示を出してその操作を委ねている。
一方、非接触で操作を行う端末装置としては、近年では、パソコン等の入力装置に対して、三次元空間におけるユーザの手の動き、すなわち、ジェスチャーに基づいて、ユーザの非接触操作指令を判別するジェスチャー操作装置が知られている(例えば、特許文献1)。
特開2011−248606号公報 特許第5665140号公報
ジェスチャーUIソリューション「フィンガージェスチャー」、NECソリューションイノベータ株式会社、インターネット<URL:http://www.nec-solutioninnovators.co.jp/sl/finger/>
しかしながら、手術中にユーザ(執刀医)がコンピュータのマウス等のポインティングデバイスによる操作を、他の医師や看護師に指示を出して行わせる場合には、ユーザ(執刀医)にとって思い通りの操作がスムーズに展開されないこともあり、また、細かい手の動きまで指示することは難しいという課題があったが、手術中に執刀医がコンピュータのマウス等のポインティングデバイスに触れるのは衛生上の問題があるため、結局のところ、他の医師や看護師に指示を出してその操作を委ねているのが現状である。
また、前述のようなジェスチャー操作装置を、非接触操作が必要とされる手術室などの現場に適用することも考えられるが、例えば特許文献1に示すような従来のジェスチャー操作装置では、様々なマウス操作を行うための複数の空中ジェスチャーコマンドを新たに定義し、かつ、操作者がそれを覚えなければ使えないという操作者への負担増加という課題や、空中ジェスチャーを行う際に目標物がないために発生する操作者個人によるジェスチャー動作の差分(個人差)がジェスチャー認識の際の認識誤差となり使い勝手が悪い、という課題が考えられる。
この発明は、上記のような課題を解決するためになされたものであり、離れた場所にある遠隔表示制御装置の表示画面に表示されているマウス等のポインターの動きを遠隔かつ非接触で制御することができる非接触遠隔ポインター制御装置を提供することを目的とする。
上記目的を達成するため、この発明は、自身の装置とは異なる離れた場所にある遠隔表示制御装置の表示画面に表示されているポインターの動きを制御する非接触遠隔ポインター制御装置であって、前記遠隔表示制御装置を使用するユーザに対して表示させて操作させたい対象である前記ポインターを動作させるポインティングデバイス画像を、前記ユーザが視認可能な三次元空間に空中画像として表示させる画像結像プレートが表面に設置された筐体と、前記三次元空間における前記ユーザの手の動きを検出する3Dセンサと、前記ポインティングデバイス画像の表示制御を行う画像表示制御部と、前記3Dセンサおよび前記画像表示制御部に接続され、前記三次元空間における前記ユーザの手の動きによるジェスチャー操作を認識する、NECソリューションイノベータ株式会社製のフィンガージェスチャーを搭載した制御ユニットと、前記制御ユニットにより認識された前記ユーザの手の動きによるジェスチャー操作による信号を、前記自身の装置とは異なる離れた場所にある遠隔表示制御装置へ送信する他装置ポインター操作情報送信部とを備えることを特徴とする。
この発明の非接触遠隔ポインター制御装置によれば、空中結像された、パソコン等の入力装置10の内臓ディスプレイ11に表示されたポインティングデバイス画像を、ユーザがあたかも指先で触って操作するような感覚で非接触操作することにより、離れた場所にある遠隔表示制御装置101に表示された情報を閲覧したり確認したりすることが可能である。この結果、ユーザ(手術の執刀医)自身が離れた場所から、かつ、非接触で遠隔表示制御装置101を直接操作することができるようになったので、ユーザ(執刀医)にとって思い通りの操作がスムーズに展開される。また、非接触操作であるため衛生面でも問題なく操作することができる。
この発明の実施の形態における非接触遠隔ポインター制御装置の概略構成を示す模式構成図である。 この発明の実施の形態における非接触遠隔ポインター制御装置の外観および内部構成の一例を示す斜視図である。 この発明の実施の形態における非接触遠隔ポインター制御装置の制御ユニットの機能構成を示す機能ブロック図である。 この発明の実施の形態における非接触遠隔ポインター制御装置の制御ユニットの動作を示すフローチャートである。 この発明の実施の形態の非接触遠隔ポインター制御装置において、空中画像に表示されるポインティングデバイス画像として、実マウス画像を採用した場合の表示例を示す図である。 図5に示す実マウス画像が空中画像に表示されている状態で、ユーザの手がそれをジェスチャー操作しようとしている様子を示す斜視図である。 この発明の実施の形態における非接触遠隔ポインター制御装置と、当該装置とは異なる離れた場所にある遠隔表示制御装置と、様々なデータを蓄積しているシステムサーバとによるシステムの全体構成を示す図である。 この発明の実施の形態における非接触遠隔ポインター制御装置の空中画像に表示されている実マウス画像の操作と、自身の装置とは異なる離れた場所にある遠隔表示制御装置のポインターの動きを示す説明図である。 この発明の実施の形態の非接触遠隔ポインター制御装置において、空中画像に表示されるポインティングデバイス画像として、サークルマウス画像を採用した場合の表示例を示す説明図である。
この発明の非接触遠隔ポインター制御装置は、自身の装置とは異なる離れた場所にある遠隔表示制御装置の表示画面に表示されているポインターの動きを制御する非接触遠隔ポインター制御装置であって、ユーザが視認可能な三次元空間における、ユーザの手の動きによるジェスチャー操作機能が搭載されており、そのジェスチャー操作に基づいて、ユーザが離れた場所にある遠隔表示制御装置の表示画面に表示されているポインターを自在に操作して、遠隔表示制御装置で表示される情報を直接目の前で使用しているのと同じように、かつ、非接触で操作することができるものである。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態.
図1は、この発明の実施の形態における非接触遠隔ポインター制御装置の概略構成を示す模式構成図である。この非接触遠隔ポインター制御装置は、自身の装置とは異なる離れた場所にある遠隔表示制御装置の表示画面に表示されているポインターの動きを制御する非接触遠隔ポインター制御装置である。また、図2は、この発明の実施の形態における非接触遠隔ポインター制御装置の外観および内部構成の一例を示す斜視図であり、図2(a)が外観の一例を示す斜視図、図2(b)が内部構成の一例を示す斜視図である。
図1および図2に示すように、この非接触遠隔ポインター制御装置は、筐体1を備えるものであり、その筐体1の内部には、パソコン等の入力装置の操作画面であるディスプレイ画像を表示させる液晶表示装置など、ユーザに対して表示させて操作させたい対象である、遠隔表示制御装置のポインターを動作させるポインティングデバイス画像を表示させる内臓ディスプレイ11が設置されている。
また、筐体1の表面には、内臓ディスプレイ11によるポインティングデバイス画像をユーザが視認可能な三次元空間に、空中画像2として表示させる画像結像プレート20が設けられている。すなわち、空中画像2は、ユーザに対して表示させて操作させたい対象である、遠隔表示制御装置のポインターを動作させるポインティングデバイス画像を実像として三次元空間に浮かび上がらせたものである。なお、筐体1の内部に設置された内臓ディスプレイ11の表示画面は、画像結像プレート20側を向いていることは言うまでもない。
また、内臓ディスプレイ11に表示されたポインティングデバイス画像を、ユーザが視認可能な三次元空間に、空中画像2として表示させる画像結像プレート20としては、例えば、株式会社アスカネットのエアリアルイメージングプレート等の、既に知られている空中結像技術を用いればよいので、ここでは説明を省略する。なお、図中、空中画像2は一点鎖線で表しており、三次元空間に画像が浮かび上がっているものの、向こう側は透過して視認できる状態である。
さらに、筐体1の表面上の画像結像プレート20が設置されていない位置には、画像結像プレート20によって三次元空間に表示された空中画像2を操作するユーザの手3の動きを検出する3Dセンサ30を備えている。なお、この3Dセンサ30としては、例えばTOFカメラ(TOFセンサ)など、三次元空間における位置などを検出できるものであれば、どのようなものであっても構わない。
また、図1,図2においては、筐体1の表面の画像結像プレート20が設置されていない位置のうち、空中画像2やユーザの手3から遠い側(図中、画像結像プレート20の左)に、3Dセンサ30を設置した場合を示しているが、筐体1の表面の画像結像プレート20が設置されていない位置であれば、例えば、空中画像2やユーザの手3から近い側(図中、画像結像プレート20の右等)に、3Dセンサ30を設置してもよい。
そして、3Dセンサ30に接続された制御ユニット40を備えており、この制御ユニット40は、ユーザの手3の動きによる三次元空間におけるジェスチャー操作を検出・認識するものである。なお、制御ユニット40は、筐体1の内部に設置されていてもよいし、筐体1の外部に設置されていてもよい。
また、パソコン等の入力装置の操作画面であるディスプレイ画像を表示させる液晶表示装置など、ユーザに対して表示させて操作させたい対象であるポインティングデバイス画像の表示制御を行う画像表示制御部12を備えており、この画像表示制御部12は、ポインティングデバイス画像を表示させる内臓ディスプレイ11および制御ユニット40に接続されている。そして、この実施の形態では、画像表示制御部12と内臓ディスプレイ11は、パソコン等の入力装置10に一体となって組み込まれているものとする(図2および後述する図3参照)。
なお、画像表示制御部12は、パソコン等の入力装置10の本体に内蔵され、内臓ディスプレイ11は、本体とは別体の液晶表示装置などであってもよい。すなわち、この実施の形態では、画像表示制御部12は、内臓ディスプレイ11と一体となって(入力装置10に組み込まれて)筐体1の内部に設置されているが、画像表示制御部12が内臓ディスプレイ11と別体の場合には、画像表示制御部12は、筐体1の内部に設置されていてもよいし、筐体1の外部に設置されていてもよい。
また、制御ユニット40により検出・認識されたユーザの手3の動きによるジェスチャー操作に基づいて、ユーザが離れた場所にある遠隔表示制御装置101の表示画面に表示されている情報に対して、どのようなポインター操作を行いたいのかという情報、すなわち、遠隔表示制御装置101におけるポインターの動きを制御する信号を、遠隔表示制御装置101へ送信する他装置ポインター操作情報送信部50を備えている。
この実施の形態では、制御ユニット40と他装置ポインター操作情報送信部50は、内臓小型PCなどの一体型の装置として筐体1の内部に設置されているが、別々の装置であってもよく、他装置ポインター操作情報送信部50についても、筐体1の内部に設置されていてもよいし、筐体1の外部に設置されていてもよい。
なお、他装置ポインター操作情報送信部50からの信号を離れた場所にある遠隔表示制御装置101へ送信する際の通信(図中の破線で示す矢印)は有線であってもよいし、インターネット等による無線によるものであってもよいが、ここでは病院内ネットワーク(LAN)を介して接続されるものとする。
図3は、この発明の実施の形態における非接触遠隔ポインター制御装置の制御ユニット40の機能構成を示す機能ブロック図である。
制御ユニット40は、空間操作認識部41と、タッチ操作判別部42と、操作制御部43とを備えている。
空間操作認識部41は、3Dセンサ30によって検出されたユーザの手3の動きに基づいて、ユーザの手3の動きによる三次元空間におけるジェスチャー操作を認識するとともに、3Dセンサ30からユーザの手3までの距離と、3Dセンサ30から空中画像2までの距離との差を算出して、タッチ操作判別部42へ送信する。
タッチ操作判別部42は、空間操作認識部41が算出した、3Dセンサ30からユーザの手3までの距離と3Dセンサ30から空中画像2までの距離との差が、あらかじめ定められた所定の範囲内(例えば、5mm以内)であるか否かを判断し、所定の範囲内である場合に、空間操作認識部41により認識されたジェスチャー操作が、空中画像2に対して行われたタッチ操作であると判別し、操作制御部43へ送信する。
操作制御部43は、タッチ操作判別部42によりユーザの手3の動きによるジェスチャー操作が空中画像2に対して行われたタッチ操作であると判別された場合に、ユーザにより空中画像2の元のポインティングデバイス画像に対して、どのようなタッチ操作が行われたかという情報を、画像表示制御部12および他装置ポインター操作情報送信部50に送信する。
他装置ポインター操作情報送信部50は、制御ユニット40により検出・認識されたユーザの手3の動きによるジェスチャー操作による信号を、ユーザが操作したい離れた場所にある遠隔表示制御装置101にLAN経由で送信する。この際、他装置ポインター操作情報送信部50が、ジェスチャー操作による信号を遠隔表示制御装置101のポインティングデバイス・コマンドに変換して、LAN経由で遠隔表示制御装置101に送信するようにしてもよいし、遠隔表示制御装置101が他装置ポインター操作情報送信部50から受信したジェスチャー操作による信号を自身のポインティングデバイス・コマンドに変換する機能を備えている場合には、他装置ポインター操作情報送信部50は、ジェスチャー操作による信号をそのまま遠隔表示制御装置101に送信すればよい。
ここで、制御ユニット40の処理動作について説明する。
図4は、この発明の実施の形態における非接触遠隔ポインター制御装置の制御ユニット40の動作を示すフローチャートである。
まず初めに、空間操作認識部41が、3Dセンサ30によって検出されたユーザの手3の動きに基づいて、ユーザの手3の動きによる三次元空間におけるジェスチャー操作を認識し、タッチ操作判別部42へ送信する(ステップST1)。
このジェスチャー認識の方法については、既に様々な方法が知られており、例えば、特許文献2に示すような、本願出願人の一によるジェスチャー認識技術を用いればよいが、この発明では、本願出願人の一であるNECソリューションイノベータ株式会社製のフィンガージェスチャーを用いるものとする。すなわち、この実施の形態の非接触遠隔ポインター制御装置における制御ユニット40は、NECソリューションイノベータ株式会社製のフィンガージェスチャーを搭載している。以下の実施の形態においても、同様である。なお、このNECソリューションイノベータ社製のフィンガージェスチャーについては、公知の技術であるため、ここでは詳細な説明を省略する(非特許文献1参照)。
また、空間操作認識部41は、3Dセンサ30によって検出されたユーザの手3の動きに基づいて、3Dセンサ30からユーザの手3までの距離と、3Dセンサ30から空中画像2までの距離との差を算出し、タッチ操作判別部42へ送信する(ステップST2)。
タッチ操作判別部42は、空間操作認識部41により算出された、3Dセンサ30からユーザの手3までの距離と、3Dセンサ30から空中画像2までの距離との差が、あらかじめ定められた所定の範囲内(例えば、5mm以内)であるか否かを判断し(ステップST3)、所定の範囲内であると判断した場合(ステップST3のYESの場合)に、空間操作認識部41により認識されたジェスチャー操作が、空中画像2に対して行われたタッチ操作であると判別し、操作制御部43へ送信する(ステップST4)。
一方、3Dセンサ30からユーザの手3までの距離と、3Dセンサ30から空中画像2までの距離との差が、あらかじめ定められた所定の範囲内でないと判別された場合(ステップST3のNOの場合)には、ステップST1へ戻って処理を繰り返す。
なお、ここで用いる「あらかじめ定められた所定の範囲」については、どのユーザによるジェスチャー操作であっても、精度よくその操作指令を判別することができるように、適宜変更が可能である。
そして、操作制御部43は、タッチ操作判別部42により、ユーザの手3の動きによるジェスチャー操作が空中画像2に対して行われたタッチ操作であると判別された場合に、ユーザにより空中画像2の元となる画像であるポインティングデバイス画像に対してどのようなタッチ操作が行われたかという情報を、このポインティングデバイス画像を表示させる内臓ディスプレイ11と接続されているパソコン等の入力装置10の画像表示制御部12、および、他装置ポインター操作情報送信部へ送信する(ステップST5)。
なお、前述のとおり、制御ユニット40は、本願出願人の一であるNECソリューションイノベータ株式会社製のフィンガージェスチャーを搭載しているものであり、図4に示す処理動作は、このNECソリューションイノベータ株式会社製のフィンガージェスチャーにより実現されるものである。
ここで、離れた場所にある遠隔表示制御装置101におけるポインターを操作するポインティングデバイスとしては様々なものが考えられるが、この実施の形態では、ポインティングデバイスはマウスであるものとして説明する。また、ポインティングデバイスがマウスである場合に限定した場合であっても、空中画像2に表示させるポインティングデバイス画像としては、様々なものが考えられるが、この実施の形態では、図5に示すような実マウス画像111を例として説明する。
図5は、この発明の実施の形態の非接触遠隔ポインター制御装置において、空中画像2に表示されるポインティングデバイス画像として、実マウス画像111を採用した場合の表示例を示す図である。また、図6は、図5に示す実マウス画像111が空中画像2に表示されている状態で、ユーザの手3がそれをジェスチャー操作しようとしている様子を示す斜視図である。
このように、実マウス画像111は、実際のマウス(ポインティングデバイス)と同様の見た目で同様の操作を連想させるGUI画像である。
図7は、この発明の実施の形態における非接触遠隔ポインター制御装置100と、当該装置とは異なる離れた場所にある遠隔表示制御装置101と、様々なデータを蓄積しているシステムサーバ200とによるシステムの全体構成を示す図である。
この実施の形態では、医療システムを例に説明する。すなわち、図7におけるシステムサーバ200は、病院内の(または病院外も含めた)医療システムサーバであり、ネットワーク300は病院内ネットワーク、遠隔表示制御装置101は、手術室に設置されて患者の医療情報を表示させることが可能な医療画像表示PCである。
そして、手術の執刀医である医師は、手術室内ではあるが少し離れた場所にある医療画像表示PC(遠隔表示制御装置)101の医療画像画面を見ながら、医療画像表示PC(遠隔表示制御装置)101のマウスを直接操作しているような感覚で、自身のすぐ近くにある非接触遠隔ポインター制御装置100を介して非接触で操作することができる。
図8は、この発明の実施の形態における非接触遠隔ポインター制御装置100の空中画像2に表示されている実マウス画像111の操作と、自身の装置とは異なる離れた場所にある遠隔表示制御装置101のポインターの動きを示す説明図である。
図8(a)は、図5,図6と同様に、ユーザが空中画像2として表示させている実マウス画像111を操作していない未操作状態を示している。
図8(a)に示すように、このGUI画像では、マウスの下半分をMOVE(移動)エリア、従来のマウス操作を右手で行う際に人差し指が触れる左上位置をLボタン(左ボタン)エリア、Lボタンよりさらに左上に位置するLDボタン(左ダブルクリックボタン)エリア、従来のマウス操作を右手で行う際に中指が触れる右上位置をRボタン(右ボタン)エリア、Rボタンよりさらに右上に位置するRDボタン(右ダブルクリックボタン)エリア、LボタンとRボタンの間の位置のCボタン(中央ボタン)エリア、そして、マウスの左下に位置するWHEEL(ホイール)エリアという7つのエリアにわかれている。
図8(b)の斜線部は、MOVEエリアの認識領域を示している。そして、ユーザの手3がこのMOVEエリアにタッチダウンして移動することにより、タッチダウンした空中画像2の座標を中心に手が移動した方向に向かって遠隔表示制御装置101のポインター(マウスカーソル)が移動する。
図8(c)の斜線部は、Lボタンエリアの認識領域を示している。そして、ユーザの手3がこのLボタンエリアにタッチダウンして移動することにより、遠隔表示制御装置101において、マウスの左ボタンを押しながらドラッグしたのと同じ動作が起こる。また、ユーザの手3がこのLボタンエリアにタッチダウンして手を移動させずにタッチアップした場合には、遠隔表示制御装置101において、マウスの左ボタンをクリックしたのと同じ動作が起こる。
図8(d)の斜線部は、LDボタンエリアの認識領域を示している。そして、ユーザの手3がこのLDボタンエリアにタッチダウンして手を移動させずにタッチアップすることにより、遠隔表示制御装置101において、マウスの左ボタンをダブルクリックしたのと同じ動作が起こる。
図8(e)の斜線部は、Rボタンエリアの認識領域を示している。そして、ユーザの手3がこのRボタンエリアにタッチダウンして移動することにより、遠隔表示制御装置101において、マウスの右ボタンを押しながらドラッグしたのと同じ動作が起こる。また、ユーザの手3がこのRボタンエリアにタッチダウンして手を移動させずにタッチアップした場合には、遠隔表示制御装置101において、マウスの右ボタンをクリックしたのと同じ動作が起こる。
図8(f)の斜線部は、RDボタンエリアの認識領域を示している。そして、ユーザの手3がこのRDボタンエリアにタッチダウンして手を移動させずにタッチアップすることにより、遠隔表示制御装置101において、マウスの右ボタンをダブルクリックしたのと同じ動作が起こる。
図8(g)の斜線部は、Cボタンエリアの認識領域を示している。そして、ユーザの手3がこのCボタンエリアにタッチダウンして移動することにより、遠隔表示制御装置101において、マウスのセンターボタンを押しながらドラッグしたのと同じ動作が起こる。また、ユーザの手3がこのCボタンエリアにタッチダウンして手を移動させずにタッチアップした場合には、遠隔表示制御装置101において、マウスのセンターボタンをクリックしたのと同じ動作が起こる。
図8(h)の斜線部は、WHEELエリアの認識領域を示している。そして、ユーザの手3がこのWHEELエリアにタッチダウンして上移動(UPの方向へ移動)することにより、遠隔表示制御装置101において、マウスのホイールアップと同じ動作が起こる。また、ユーザの手3がこのWHEELエリアにタッチダウンして下移動(DNの方向へ移動)した場合には、遠隔表示制御装置101において、マウスのホイールダウンと同じ動作が起こる。
また、図8(b)、(c)、(e)、(g)の斜線部に示す認識領域において、ユーザの手3がタッチダウンして移動することにより、タッチダウンした空中画像2の座標を中心に手が移動した方向に向かって遠隔表示制御装置101のポインター(マウスカーソル)が移動する際の移動量は、タッチダウンした空中画像2の座標から手が移動した距離に応じて変化し、距離が短いと遅く、距離が長いと速く移動する。このように、ポインターの可変移動量方式を採用することにより、ポインターの短時間での大きな移動や、時間をかけた微妙な移動が可能となる。なお、図8(h)の斜線部に示すWHEELエリアの認識領域においてのみ、移動量変化はポインターの移動ではなくホイールの回転スピードを変化させる。
このように、非接触遠隔ポインター制御装置100の空中画像2に表示されるポインティングデバイス画像が、特別なジェスチャー操作画像ではなく、実際のマウス等のポインティングデバイスと同様の操作を連想させるGUI画像になっているので、直感的に操作方法がわかるため、初めて操作する人にもわかりやすく、スムーズな操作を行うことができる。また、できるだけ少ない操作ステップで、医療画像表示PC(遠隔表示制御装置)101に表示された患者の医療情報について、医療画像表示PC(遠隔表示制御装置)101のマウスを実際に使用しているのと同じように細かい操作も行うことができる。
さらに、無理なジェスチャー(ユーザの手3の形)によるジェスチャー操作ではなく、シンプルで疲れにくい操作であるため、手術中の執刀医(ユーザ)に負担をかけることがなく、手術もポインティングデバイスの操作もスムーズに行うことができる。また、非接触で操作を行うことができるため、衛生上の問題もない。
また、執刀医(ユーザ)自身の手3による操作に連動して、医療画像表示PC(遠隔表示制御装置)101の画面上のカーソルが移動するので、その画面を見ながら操作するだけで、執刀医(ユーザ)は自身の操作のフィードバックを得ることができる。なお、操作音を出力したり、振動などの触覚により、ユーザにフィードバックを与えるようにしてもよい。
このように、この実施の形態の非接触遠隔ポインター制御装置100によれば、空中結像された、パソコン等の入力装置10の内臓ディスプレイ11に表示されたポインティングデバイス画像を、ユーザがあたかも指先で触って操作するような感覚で非接触操作することにより、離れた場所にある遠隔表示制御装置101に表示された情報を閲覧したり確認したりすることが可能である。この結果、ユーザ(手術の執刀医)自身が離れた場所から、かつ、非接触で遠隔表示制御装置101を直接操作することができるようになったので、ユーザ(執刀医)にとって思い通りの操作がスムーズに展開される。また、非接触操作であるため衛生面でも問題なく操作することができる。
なお、この実施の形態では、離れた場所にある遠隔表示制御装置は1台であるものとして説明したが、例えば遠隔表示制御装置が5台(101〜105)ある場合であっても、非接触遠隔ポインター制御装置100が信号のやりとりをする遠隔表示制御装置を切り替えることにより、非接触遠隔ポインター制御装置100の空中画像2に表示されたポインティングデバイス画像を介して、遠隔表示制御装置101〜105のいずれの表示画面のポインター操作も行うことができる。
また、図9は、この発明の実施の形態の非接触遠隔ポインター制御装置100において、空中画像2に表示されるポインティングデバイス画像として、図5,図6,図8に示すような実マウス画像111に代えて、サークルマウス画像を採用した場合の表示画面例を示す説明図である。
図9(a)は、ユーザの手3が空中画像2にタッチした際に表示される第1のメニュー画面であり、空中画像2のタッチ箇所にユーザの手3(指先)を中心としたサークル形状の6つのエリアからなる第1のメニュー画面が表示される。
この図9(a)に示す例では、右上から時計回りに、マウスのRボタン(右ボタン)を押しながら移動させるR Dragエリア、Cボタン(センターボタン)を押しながら移動させるC Dragエリア、LR Dragエリア、ホイール移動させるWheelエリア、CusorMoveエリア、マウスのLボタン(左ボタン)を押しながら移動させるL Dragエリアが表示されている。
この第1のメニュー画面が表示されている状態で、指先フリックでいずれかのエリアを選択し、ポインターの動作モードを決定する。ここで指先フリックとは、タッチダウンした指先をタッチダウンしたまま素早く任意の方向に移動させ戻す動作のことであり、ポインターを移動させる動きとは区別されるものである。そして、任意のエリアに指先フリックを行った後、指先をゆっくり動かすことによりポインターを移動させる。任意の場所にポインターを移動させた後、指先の移動を止めて一定時間(例えば、1秒)以上、指先を静止すると、その指先を中心としたサークル形状の6つのエリアからなる第2のメニュー画面(図9(b))が表示される。
この図9(b)に示す例では、右上から時計回りに、マウスのRボタン(右ボタン)をクリックするR Clickエリア、Rボタン(右ボタン)をダブルクリックするR D−Clickエリア、Cボタン(センターボタン)をクリックするC Clickエリア、何も割り当てられていないNoActionのエリア、マウスのLボタン(左ボタン)をダブルクリックするL D−Clickエリア、Lボタン(左ボタン)をクリックするL Clickエリアが表示されている。
この第2のメニュー画面が表示されている状態で、指先フリックでいずれかのエリアを選択し、ポインターのクリック指示を決定することにより、1アクションの操作が完了する。
例えば、図9(a)に示す第1のメニュー画面が表示されている状態で、図中の左方向(時計の9時方向)に指先をフリックすると、CursorMoveモードが選択され、その後ゆっくり指先を動かせば、ポインターMOVEの動作になる。そして、任意の場所にポインターを移動させたあと、一定時間(例えば、1秒)以上、指先の移動を止めて静止すると、図9(b)に示す第2のメニュー画面が表示される。その後、例えば図中の左上方向(時計の11時方向)に指先をフリックして指先を抜くか、フリックしながら指先を抜くと、L Click指示が選択され、ポインターの位置で左クリックが発生する。
このように、非接触遠隔ポインター制御装置100において、空中画像2に表示されるポインティングデバイス画像として、図9に示すようなサークルマウス画像を採用することにより、1アクションを一連の操作で実行することができるため、スピーディに操作することが可能である。また、指先を中心にメニュー画面が表示されるため、非接触遠隔ポインター制御装置100における空中画像2に表示されたポインティングデバイス画像を見なくても、離れた場所にある遠隔表示制御装置101の表示画面を見ながら操作を完結することができる。
なお、この実施の形態では、非接触遠隔ポインター制御装置100の空中画像2に表示されるポインティングデバイス画像として、従来のマウス等のポインティングデバイスと同様の見た目で同様の操作を連想させるGUI画像である実マウス画像111(図5,図6,図8参照)を採用する場合、および、図9に示すようなサークルマウス画像を採用する場合を例に説明したが、画像を見てマウス操作を連想でき、かつ、マウスを操作しているのと同じような感覚で使用できて、ユーザにとって操作方法がわかりやすいものであれば、他のGUI画像であってもよい。
また、この実施の形態では、遠隔表示制御装置101で使用するポインティングデバイスとしてマウスを想定しているが、マウス以外のポインティングデバイスを想定する場合には、実マウス画像111に代えて、その実際のポインティングデバイスと同様の見た目で同様の操作を連想させるGUI画像をポインティングデバイス画像とすればよい。
また、この実施の形態では、この発明の非接触遠隔ポインター制御装置100を医療システムに適用する場合を例に説明したが、このように衛生上の問題により非接触で操作する必要がある医療システムや食品システム、工場のシステム、汚れている現場におけるシステムなど、他の作業をしながら非接触で情報を閲覧したり確認したりする必要がある分野であれば、どのようなシステムにも適用できるものである。
以上のように、この実施の形態の非接触遠隔ポインター制御装置によれば、空中結像された、パソコン等の入力装置10の内臓ディスプレイ11に表示されたポインティングデバイス画像を、ユーザがあたかも指先で触って操作するような感覚で非接触操作することにより、離れた場所にある遠隔表示制御装置101に表示された情報を閲覧したり確認したりすることが可能である。この結果、ユーザ(手術の執刀医)自身が離れた場所から、かつ、非接触で遠隔表示制御装置101を直接操作することができるようになったので、ユーザ(執刀医)にとって思い通りの操作がスムーズに展開される。また、非接触操作であるため衛生面でも問題なく操作することができる。
なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
1 筐体
2 空中画像
3 ユーザの手
10 入力装置
11 内臓ディスプレイ
12 画像表示制御部
20 画像結像プレート
30 3Dセンサ
40 制御ユニット
41 空間操作認識部
42 タッチ操作判別部
43 操作制御部
50 他装置ポインター操作情報送信部
100 非接触遠隔ポインター制御装置
101〜105 遠隔表示制御装置(医療画像表示PC)
111 実マウス画像
200 システムサーバ(医療システムサーバ)
300 ネットワーク(病院内ネットワーク)

Claims (3)

  1. 自身の装置とは異なる離れた場所にある遠隔表示制御装置の表示画面に表示されているポインターの動きを制御する非接触遠隔ポインター制御装置であって、
    前記遠隔表示制御装置を使用するユーザに対して表示させて操作させたい対象である前記ポインターを動作させるポインティングデバイス画像を、前記ユーザが視認可能な三次元空間に空中画像として表示させる画像結像プレートが表面に設置された筐体と、
    前記三次元空間における前記ユーザの手の動きを検出する3Dセンサと、
    前記ポインティングデバイス画像の表示制御を行う画像表示制御部と、
    前記3Dセンサおよび前記画像表示制御部に接続され、前記三次元空間における前記ユーザの手の動きによるジェスチャー操作を認識する、NECソリューションイノベータ株式会社製のフィンガージェスチャーを搭載した制御ユニットと、
    前記制御ユニットにより認識された前記ユーザの手の動きによるジェスチャー操作による信号を、前記自身の装置とは異なる離れた場所にある遠隔表示制御装置へ送信する他装置ポインター操作情報送信部と、
    を備えることを特徴とする非接触遠隔ポインター制御装置。
  2. 前記NECソリューションイノベータ株式会社製のフィンガージェスチャーを搭載した制御ユニットは、前記3Dセンサにより検出された前記三次元空間における前記ユーザの手の動きに基づいて、前記ユーザの手の動きによるジェスチャー操作を認識するとともに、前記3Dセンサから前記ユーザの手までの距離と、前記3Dセンサから前記空中画像までの距離との差が、あらかじめ定められた所定の範囲内であるか否かを判断し、前記所定の範囲内であると判断した場合に、前記認識されたジェスチャー操作が前記空中画像に対して行われたタッチ操作であると判別し、前記ユーザにより前記空中画像の元となる前記ポインティングデバイス画像に対してどのようなタッチ操作が行われたかという情報を、前記画像表示制御部および前記他装置ポインター操作情報送信部に送信する
    ことを特徴とする請求項1記載の非接触遠隔ポインター制御装置。
  3. 前記ポインティングデバイス画像は、実際のポインティングデバイスと同様の見た目で同様の操作を連想させるGUI画像である
    ことを特徴とする請求項1または請求項2記載の非接触遠隔ポインター制御装置。
JP2017038799A 2017-03-01 2017-03-01 非接触遠隔ポインター制御装置 Pending JP2018147054A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017038799A JP2018147054A (ja) 2017-03-01 2017-03-01 非接触遠隔ポインター制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017038799A JP2018147054A (ja) 2017-03-01 2017-03-01 非接触遠隔ポインター制御装置

Publications (1)

Publication Number Publication Date
JP2018147054A true JP2018147054A (ja) 2018-09-20

Family

ID=63590015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017038799A Pending JP2018147054A (ja) 2017-03-01 2017-03-01 非接触遠隔ポインター制御装置

Country Status (1)

Country Link
JP (1) JP2018147054A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021189173A1 (en) 2020-03-23 2021-09-30 Huawei Technologies Co., Ltd. Methods and systems for hand gesture-based control of a device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090109175A1 (en) * 2007-10-31 2009-04-30 Fein Gene S Method and apparatus for user interface of input devices
JP2015158882A (ja) * 2014-02-25 2015-09-03 パナソニックIpマネジメント株式会社 情報表示装置
WO2016047173A1 (ja) * 2014-09-24 2016-03-31 オリンパス株式会社 医療システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090109175A1 (en) * 2007-10-31 2009-04-30 Fein Gene S Method and apparatus for user interface of input devices
JP2015158882A (ja) * 2014-02-25 2015-09-03 パナソニックIpマネジメント株式会社 情報表示装置
WO2016047173A1 (ja) * 2014-09-24 2016-03-31 オリンパス株式会社 医療システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
松原 孝志 TAKASHI MATSUBARA: "3次元ジェスチャ操作によるテーブル型インタラクティブデジタルサイネージの開発 Development of Tableto", 情報処理学会 論文誌(トランザクション) コンシューマ・デバイス&システム(CDS) VOL.4 N, vol. 第4巻第3号, JPN6018039497, 29 October 2014 (2014-10-29), JP, pages 1 - 10, ISSN: 0003894279 *
石田 武久: "CEATEC 2015技術動向", 放送技術, vol. 第69巻第2号, JPN6018039494, 1 February 2016 (2016-02-01), JP, pages 98 - 105, ISSN: 0003894278 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021189173A1 (en) 2020-03-23 2021-09-30 Huawei Technologies Co., Ltd. Methods and systems for hand gesture-based control of a device
EP4115264A4 (en) * 2020-03-23 2023-04-12 Huawei Technologies Co., Ltd. METHODS AND SYSTEMS FOR CONTROLLING A DEVICE BASED ON HAND GESTURES

Similar Documents

Publication Publication Date Title
JP6785273B2 (ja) ウェアラブルデバイスを通じたレーダ型ジェスチャ認識
US11723734B2 (en) User-interface control using master controller
US11662830B2 (en) Method and system for interacting with medical information
US20170293351A1 (en) Head mounted display linked to a touch sensitive input device
US20210030491A1 (en) Interaction between user-interface and master controller
Song et al. GaFinC: Gaze and Finger Control interface for 3D model manipulation in CAD application
EP3518081A1 (en) Radar-based gesture sensing and data transmission
EP2840478B1 (en) Method and apparatus for providing user interface for medical diagnostic apparatus
US20100013764A1 (en) Devices for Controlling Computers and Devices
KR20210059697A (ko) 증강 현실 환경을 위한 시선 기반 인터페이스
US20150002475A1 (en) Mobile device and method for controlling graphical user interface thereof
US20140258917A1 (en) Method to operate a device in a sterile environment
JP2016024718A (ja) ウェアラブル入力装置及びウェアラブル入力方法
JP2014529135A (ja) 医療機器用の非接触式遠隔制御システム及び方法
JP2018147054A (ja) 非接触遠隔ポインター制御装置
Kim et al. A tangible user interface with multimodal feedback
WO2011062477A1 (en) Control system and method for controlling a plurality of computer devices
Pfeuffer Extending Touch with Eye Gaze Input
WO2022207821A1 (en) A method for integrated gaze interaction with a virtual environment, a data processing system, and computer program
TW202028956A (zh) 用於觸控顯示裝置的操作方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190225