JP2016189120A - 情報処理装置、情報処理システム、及び頭部装着ディスプレイ - Google Patents

情報処理装置、情報処理システム、及び頭部装着ディスプレイ Download PDF

Info

Publication number
JP2016189120A
JP2016189120A JP2015068900A JP2015068900A JP2016189120A JP 2016189120 A JP2016189120 A JP 2016189120A JP 2015068900 A JP2015068900 A JP 2015068900A JP 2015068900 A JP2015068900 A JP 2015068900A JP 2016189120 A JP2016189120 A JP 2016189120A
Authority
JP
Japan
Prior art keywords
wearer
gesture
display
unit
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015068900A
Other languages
English (en)
Inventor
智之 肥後
Tomoyuki Higo
智之 肥後
敏靖 森本
Toshiyasu Morimoto
敏靖 森本
小田 恭一郎
Kyoichiro Oda
恭一郎 小田
弘一 堀池
Koichi Horiike
弘一 堀池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015068900A priority Critical patent/JP2016189120A/ja
Publication of JP2016189120A publication Critical patent/JP2016189120A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】医療行為中における頭部装着ディスプレイの操作を可能にする情報処理装置を提供する。【解決手段】装着者の眼前部を覆う頭部装着ディスプレイに設けられた検出部により検出された外界の物体と頭部装着ディスプレイとの距離に応じて、物体に基づく装着者のジェスチャの解析を実行するか否かを決定する処理部を備える、情報処理装置が提供される。【選択図】図1

Description

本開示は、情報処理装置、情報処理システム、及び頭部装着ディスプレイに関する。
ユーザが装着して使用するウェアラブル端末の1つとして、ヘッドマウントディスプレイ(Head Mounted Display、頭部装着ディスプレイ;以下「HMD」とする。)がある。HMDは、ユーザの頭部に装着して使用する表示装置であり、近年、AV機器やコンピュータゲーム等の表示装置の他、作業環境において作業しながらユーザが情報を確認するための表示装置としても使用されている。
例えば、医療現場において、内視鏡の映像を映し出すための表示装置としてHMDが使用されている。術者は、HMDを装着し、HMDに映し出された映像を見ながら手術を行う。これまで内視鏡の映像は術者の近くに設置されたモニタに表示されるのが一般的であったため、術者はモニタと患部との間で視線を頻繁に動かす必要があった。内視鏡の映像をHMDに映し出すことにより、術者は視線を大きく動かすことなくHMDの表示部に表示された内視鏡の映像と患部とを確認することが可能となる。
ここで、HMDの操作は、例えばHMD本体に設けられた操作部からの入力や、音声入力、視線入力等により行われる。医療現場においては、HMDを非接触で操作可能であり、作業の妨げにもなりにくいことから、視線による操作入力が採用されている。視線による操作入力は、HMDの視線検出機能を有効とすることで実施できるが、常に視線が検出されていると、表示領域に表示されている視線位置を示すカーソルが視界を妨げたり、意図しない操作が実行されたりすることもある。そこで、例えば特許文献1では、ユーザのジェスチャ等により、視線検出機能を中断、再開し、ユーザの意思にしたがってカーソルを制御するインタフェースを備える装置が提案されている。
特開2001−100903号公報
しかし、特許文献1に記載の技術を医療現場でHMDを使用する際に適用した場合、装着者以外の人(例えば、助手等)の動きや、周囲の器具等が検出され、装着者が意図しない処理を実行させてしまい、手術等の医療行為の進行を妨げる可能性がある。また、ジェスチャによる視線検出機能のオンオフの切り替えの際に、滅菌されていない不潔物であるHMDに触れてしまう可能性もある。
そこで、本開示では、医療行為中における頭部装着ディスプレイの操作を可能にする、新規かつ改良された情報処理装置、情報処理システム、及び頭部装着ディスプレイを提案する。
本開示によれば、装着者の眼前部を覆う頭部装着ディスプレイに設けられた検出部により検出された外界の物体と頭部装着ディスプレイとの距離に応じて、物体に基づく装着者のジェスチャの解析を実行するか否かを決定する処理部を備える、情報処理装置が提供される。
また、本開示によれば、装着者の眼前部を覆う頭部装着ディスプレイに設けられ、外界の物体を検出する検出部と、頭部装着ディスプレイに設けられ、装着者に対して情報を提示する表示部と、検出部により検出された外界の物体と頭部装着ディスプレイとの距離に応じて、物体に基づく装着者のジェスチャの解析を実行するか否かを決定する処理部と、を備える、情報処理システムが提供される。
さらに、本開示によれば、外界の物体を検出する第1の検出部と、装着者に対して情報を提示する表示部と、装着者の視線を検出する第2の検出部と、を、装着者の眼前部を覆う本体部に備え、第2の検出部は、第1の検出部による検出結果に基づいてジェスチャ検出領域内で行われた装着者のジェスチャを解析し、解析したジェスチャに基づき所定の処理の実行可否を判定する情報処理装置の判定結果を受けて起動される、頭部装着ディスプレイが提供される。
以上説明したように本開示によれば、医療行為中における頭部装着ディスプレイの操作が可能となる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
HMDを用いて内視鏡手術を行う様子を示す説明図である。 本開示の一実施形態に係るHMDのジェスチャ検出機能について説明する説明図である。 同実施形態に係る情報処理システムを構成するHMDおよびプロセッサユニットの機能構成を示す機能ブロック図である。 同実施形態に係るジェスチャ判定処理を示すフローチャートである。 ジェスチャ検出領域を説明するための説明図である。 視線検出機能が機能されたときの初期表示状態を示す説明図である。 PIPオブジェクトが選択されたときの表示状態を示す説明図である。 FLIPオブジェクトが選択されたときの表示状態を示す説明図である。 インプットオブジェクトが選択されたときの表示状態を示す説明図である。 カメラモードオブジェクトが選択された状態を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概要
2.構成
2.1.HMD
2.2.プロセッサユニット
3.表示制御処理
3.1.ジェスチャ判定処理
3.2.視線による操作
4.まとめ
<1.概要>
まず、図1及び図2を参照して、本開示の一実施形態に係る情報処理装置により制御されるHMD100のジェスチャ検出機能について説明する。なお、図1は、HMD100を用いて内視鏡手術を行う様子を示す説明図である。図2は、本実施形態に係るHMD100のジェスチャ検出機能について説明する説明図である。
術者がHMD100を装着して行う内視鏡手術では、例えば図1に示すように、HMD100の表示部には内視鏡装置により撮像された患部の様子の画像300aが表示され、術者は、表示された画像300aを視認しながら手術する。術者は、手術中、不潔物に触れることはできない。このため、例えばHMD100の表示形態を画像300bのように変更したい場合であっても、手でHMD100を操作することができない。そこで、本実施形態に係るHMD100は、HMD100を視線による操作入力を可能とする、視線検出機能を備えている。
上述したように、HMD100の視線検出機能を有効とすることで視線による操作入力が可能となるが、常に視線が検出されていると、表示領域に表示されている視線位置を示すカーソルが視界を妨げたり、意図しない操作が実行されたりすることもある。そこで、本実施形態に係るHMD100は、ユーザの非接触ジェスチャを検出し、視線検出機能のオンオフの切り替えを行うジェスチャ検出機能を備えている。
ジェスチャ検出機能は、HMD100の装着者による手等の動きを検出し、その動きから推定されるジェスチャを特定する機能である。例えば、ジェスチャ検出機能により特定されたジェスチャが所定の処理が関連付けられているジェスチャであると判定された場合には、当該ジェスチャに関連付けられた処理が実行される。本実施形態では、ジェスチャ検出機能により、視線検出機能のオンオフを切り替えるジェスチャが行われたか否かを判定し、視線検出機能のオンオフを切り替える。
ジェスチャ検出機能を実現するため、本実施形態に係るHMD100は、図2に示すように、装着者Pの眼前部を覆うHMD100の本体部110に、外界の物体を検出する検出部であるジェスチャ検出センサ130を備えている。ジェスチャ検出センサ130は、例えば、直接手を触れることなく、離れた位置からユーザの手の位置や動きを3次元情報として取得可能な検出部であり、例えば3Dモーションセンサ等を用いることができる。ジェスチャ検出センサ130の検出結果に基づいて、HMD100の装着者Pのジェスチャが解析され、視線検出機能が関連付けられているジェスチャか否かが判定される。
処理に関連付けるジェスチャは適宜設定可能であるが、ユーザが行いやすいジェスチャが関連付けられるのが一般的である。例えば、図2に示すように、HMD100の装着者Pが顔に手のひらを向けるジェスチャ等を設定してもよい。ここで、手術等の医療行為中においては、HMD100等の滅菌されていない不潔物に触れることはできないが、ユーザがジェスチャを行った際に誤ってHMD100に触れることもあり得る。また、手術時には、複数の医療従事者が手術室内で作業しているため、ジェスチャ検出センサ130がHMD100の装着者P以外の者や器具を誤って検出することも考え得る。
そこで、本実施形態に係るHMD100では、ジェスチャ検出センサ130によりHMD100に対してジェスチャが行われている位置を取得し、HMD100に接触せず、装着者Pの手以外の物体等に反応しない領域でジェスチャが行われているかを判定する。これにより、HMD100の装着者Pがジェスチャを行う際に誤ってHMD100に接触するのを防止することが可能となり、装着者Pが意図しない処理の実行も防ぐことができる。以下、本実施形態に係るHMD100の構成と、それによる処理について、詳細に説明する。
<2.構成>
まず、図2及び図3に基づいて、情報処理システム1を構成するHMD100及びプロセッサユニット200の構成について説明する。なお、図3は、本実施形態に係る情報処理システム1を構成するHMD100およびプロセッサユニット200の機能構成を示す機能ブロック図である。なお、図3では、HMD100の表示部の表示制御を行う際に機能する機能部を示しており、実際には、他の機能部を備えているものとする。プロセッサユニット200は、HMD100への操作入力に基づき、HMD100の表示制御を行う表示制御装置として機能する。
[2.1.HMD]
HMD100は、例えば内視鏡装置等の外部機器からの入力映像等の情報を表示する表示装置である。HMD100は、例えばゴーグル形状の非透過型のHMDであって、ユーザが頭部に装着した状態で使用される。HMD100は、図2に示したように、当該HMD100の装着者に情報を提示する表示部を備える本体部110と、本体部110を頭部に固定させるための上部固定部および後部固定部とからなる。固定部で装着者の頭部に固定されると、本体部の表示部が装着者の左右の眼の前に位置するようになる。
本体部110は、装着者の両眼を覆う部位である。本体部110は、例えば装着者の左右のこめかみ付近まで覆うように構成されてもよい。このような形状とすることで、装着時に装着者の眼前をほぼ完全に被覆することができ、装着者の眼に外光が入射せずより画像を見やすくすることができる。本体部110の側部112には、例えば周辺環境を撮影するためのカメラ120を備えてもよい。これにより、HMD100の装着者は、プロセッサユニット200を介して内視鏡装置等から提供される情報以外に、HMD100を装着していないときに見える周辺環境の情報も認識できるようになる(ビデオシースルー)。
本体部110の内部には、第1の表示部に左眼用画像を提示する第1の表示素子(図3の符号165)と、第2の表示部に右眼用画像を提示する第2の表示素子(図3の符号166)とが設けられている。各表示素子は、例えばプロセッサユニット200より提供される内視鏡装置の画像や、本体部110のカメラ120により撮像された画像等を提示する。また、本体部110には、プロセッサユニット200との情報の送受信を行うため、プロセッサユニット200に接続されるケーブル(図示せず。)が設けられている。HMD100とプロセッサユニット200との情報通信は、有線通信であってもよく、無線通信であってもよい。
HMD100の表示部に表示される情報は、例えば、装着者が足で踏み入力操作を行うフットスイッチ等のリモートコントローラや、HMD100の装着者の視線等より操作可能である。リモートコントローラ102からの入力情報や、視線検出機能により取得された装着者の視線方向に基づく視線入力情報は、プロセッサユニット200へ出力される。
HMD100の表示処理機能についてみると、図3に示すように、HMD100は、ディスプレイポート162と、画像生成部164と、表示素子165、166と、視線検出センサ172と、ジェスチャ検出センサ174と、操作処理部180と、ジェスチャ判定処理部190とを備える。
ディスプレイポート162は、プロセッサユニット200からの入力情報を受けるインタフェースである。ディスプレイポート162には、プロセッサユニット200との情報通信を可能にするケーブルが接続される。ディスプレイポート162には、例えば表示素子165、166へそれぞれ出力する画像信号や、HMD100の装着者が視認している情報が入力される。ディスプレイポート162から入力された情報は、画像生成部164へ出力される。
画像生成部164は、プロセッサユニット200を介して取得された情報に基づき、表示素子165、166へそれぞれ出力する画像信号を生成する。装着者に提示する画像が3D画像である場合には、画像生成部164は、第1の表示素子165へ出力される左眼用画像信号と第2の表示素子166へ出力される右眼用画像信号とにずれを生じさせるずらし処理を行う。ずらし処理では、例えば表示素子165、166と装着者の眼との距離や装着者の眼の間隔、虚像位置等に応じて、左眼用画像信号と右眼用画像信号とのずらし量が決定される。画像生成部164は、生成した画像信号を、第1の表示素子165および第2の表示素子166へ出力する。
また、画像生成部164は、ジェスチャ判定処理部190において装着者がHMD100に接触する可能性の高い領域でジェスチャが行われていると判定された場合、装着者に対する警報を表示させるようにしてもよい。この場合、画像生成部164は、プロセッサユニット200からの情報に基づき生成された画像信号に、警報内容を表す警報画像信号を重畳して、表示素子165、166へ出力する。
表示素子165、166は、画像生成部164から入力される画像信号に基づいて、表示部に向かって画像光を出射する。表示素子165、166は、例えばHMD100の装着時に装着者の顔の前後方向に表示部と対向するように配置される。これにより、表示素子165、166から出射される画像光の光軸は、装着者が正面を向いたときの視線の方向と略平行になる。
表示素子165、166は、例えば有機EL(Electroluminescence)素子で構成される。表示素子165、166として有機EL素子を採用することで、小型で、高コントラスト、迅速な応答性等を実現することができる。表示素子165、166は、例えば複数の赤色有機EL素子、緑色有機EL素子、青色有機EL素子等がマトリクス状に配置された構成を有する。これらの各素子は、アクティブマトリクス型、あるいはパッシブマトリクス型等の駆動回路によって駆動されることで、それぞれ所定のタイミング、輝度等にて自発光する。この駆動回路が画像生成部164で生成された画像信号に基づいて制御されることで、表示素子165、166には全体として所定の画像が表示され、表示部を介して装着者に画像が提供される。
なお、表示素子165、166と表示部との間には、光学系として、例えば複数の接眼レンズ(図示せず。)をそれぞれ配置させてもよい。これらの接眼レンズと装着者の眼とを所定距離で対向させることにより、装着者に対し、画像が所定位置(虚像位置)に表示されるように見える虚像を観察させることが可能となる。このような虚像を提示することで、3D画像を提供することができる。なお、虚像位置及び虚像の大きさは、表示素子165、166及び光学系の構成等によって設定される。
視線検出センサ172は、HMD100を装着するユーザの視線方向を検出する。視線検出センサ172は、図2に示すHMD100の本体部110の、装着者Pの眼前と対向する側に設けられる。視線検出センサ172は、例えば、装着者の眼球に赤外帯域の光(赤外光)を照射する光源と、装着者の眼球を撮影する撮像部とからなる。視線検出センサ172は、表示部の表示面を観察する装着者の眼球に対して光源から光を照射し、撮像部により光が照射された眼球を撮影する。視線検出センサ172の撮像部により撮影された撮影画像は、操作処理部180へ出力される。
ジェスチャ検出センサ174は、HMD100を装着するユーザが行うジェスチャを検出する。ジェスチャ検出センサ174は、図2のジェスチャ検出センサ130に対応し、例えば3Dモーションセンサ等である。ジェスチャ検出センサ174は、当該センサを基準として検出した物体の位置を表す3次元情報を取得し、ジェスチャ判定処理部190へ出力する。
操作処理部180は、視線検出センサ172の検出結果から視線方向を推定し、装着者の視線による操作入力を解析する。装着者の視線方向は、例えば瞳孔角膜反射法等の手法を用いて、撮像部により撮影された撮影画像から推定することができる。操作処理部180は、例えば、表示領域における視線方向の位置(以下、「視線位置」ともいう。)に所定の処理が関連付けられた選択オブジェクトが表示されている場合、当該選択オブジェクトを選択状態とする。また、操作処理部180は、ある選択オブジェクトが選択状態とされているとき、ユーザが所定の動作を行ったことが検出された場合、当該選択オブジェクトに関連付けられた処理の実行を決定する。このように、操作処理部180は、HMD100の装着者の視線による操作入力を解析し、解析した結果をプロセッサユニット200へ出力する。
ジェスチャ判定処理部190は、ジェスチャ検出センサ174の検出結果を解析してHMD100の装着者による手等の動きから装着者が行ったジェスチャを特定し、特定したジェスチャに基づき所定の処理の実行可否を判定する情報処理装置である。ジェスチャ判定処理部190は、例えば領域判定部192と、ジェスチャ解析部194と、実行判定部196とからなる。
領域判定部192は、ジェスチャ検出センサ174により検出された物体の位置が、HMD100の装着者が行うジェスチャの解析を実行する領域(以下、「ジェスチャ検出領域」ともいう。)にあるか否かを判定する。本実施形態に係るHMD100は医療現場で用いられることから、装着者は、滅菌されていない不潔物であるHMD100に接触せず、かつ、装着者Pの手以外の物体等に反応しない領域でジェスチャを行うのが望ましい。領域判定部192は、ジェスチャ検出センサ174により検出された物体の位置がジェスチャ検出領域内にあるか否かを判定し、判定結果を画像生成部164及びジェスチャ解析部194へ出力する。
ジェスチャ解析部194は、ジェスチャ検出センサ174の検出結果に基づいて、HMD100の装着者が行っているジェスチャを解析する。ジェスチャ解析部194は、領域判定部192にて装着者がジェスチャ検出領域でジェスチャを行っていると判定されたとき、ジェスチャ検出センサ174により検出された手等の物体の位置の変化からジェスチャを解析する。ジェスチャ解析部194は、解析したジェスチャの内容を含むジェスチャ情報を、実行判定部196へ出力する。
実行判定部196は、ジェスチャ情報に基づいて、所定の処理を実行するか否かを判定する。例えば、本実施形態では、視線検出センサ172を起動して視線検出機能を機能させるジェスチャが予め設定されており、ジェスチャ情報に含まれるジェスチャの内容と一致するか否かを判定する。実行判定部196は、視線検出機能を機能させるためのジェスチャと解析されたジェスチャとが一致すると判定したとき、視線検出センサ172を起動して視線検出機能を機能させる。
なお、本実施形態では、操作処理部180及びジェスチャ判定処理部190を、HMD100に設けたが、本開示はかかる例に限定されず、プロセッサユニット200に設けてもよく、さらに別の演算処理装置に設けてもよい。
[2.2.プロセッサユニット]
プロセッサユニット200は、接続された機器を制御する制御装置である。プロセッサユニット200には、例えば図1に示すユーザP1〜P4が装着する各HMD100のうち1または複数のHMD100や、内視鏡装置等の外部機器、不特定のユーザが情報を見るためのディスプレイ等が接続される。例えば、プロセッサユニット200は、外部機器から入力された情報を、HMD100の表示部やディスプレイに表示可能な情報に処理し、各表示装置へ出力する。また、プロセッサユニット200は、各HMD100のリモートコントローラや視線検出機能からの操作入力に基づいて、HMD100の表示部に表示する情報を切り替える。
次いで、プロセッサユニット200の表示処理機能についてみる。プロセッサユニット200は、図3に示すように、プロセッサユニット200は、画像入力部211と、画像処理部212と、入力部213と、表示制御部214と、出力部215と、操作入力部216と、設定記憶部217と、を備える。
画像入力部211は、外部機器からプロセッサユニット200に入力される画像を受けるインタフェースである。図3の例では、外部機器として内視鏡装置10が示されており、このとき画像入力部211には、内視鏡装置10のカメラ(図示せず。)により撮像された画像が入力される。画像入力部211は、入力された画像を画像処理部212へ出力する。
画像処理部212は、プロセッサユニット200に入力された画像を、HMD100に表示させるための画像に処理する。画像処理部212では、例えば、内視鏡装置10のカメラにより撮像された画像から、HMD100の第1の表示部に表示させる左眼用画像と第2の表示部に表示させる右眼用画像とを生成する。画像処理部212により画像処理された画像は、表示制御部214へ出力される。
入力部213は、HMD100の操作処理部180から操作情報が入力されるインタフェースである。入力部213に入力された操作情報は、表示制御部214へ出力される。
表示制御部214は、HMD100の表示部に表示させる情報を制御する。表示制御部214は、リモートコントローラ102からの表示切替指示に基づき、指示された情報を表示するように制御する。また、表示制御部214は、入力部213に入力された操作情報に基づいて、指示された情報を表示するように制御する。表示制御部214は、各HMD100に表示させる情報およびその表示設定を決定すると、出力部215を介して当該情報を各HMD100へ情報を出力する。
操作入力部216は、HMD100の装着者からの操作入力を受ける入力部である。本実施形態において、HMD100の表示部に表示される情報は、例えばリモートコントローラ102によって切替可能である。リモートコントローラ102に対する操作入力は操作入力部216へ出力され、操作入力部216はこの操作入力情報を表示制御部214に出力する。表示制御部214は、リモートコントローラ102からの表示切替指示に基づき、指示された情報を、出力部215を介してHMD100へ出力する。
設定記憶部217は、各ユーザ識別情報に対応するHMD100の表示設定情報を記憶する記憶部である。設定記憶部127に記憶されている表示設定情報は、例えば、画質や画像の向き、画像の配置等の各種設定情報を含んで構成される。例えば、画質の設定情報は、画像の明るさや色合い等の設定値を表す情報である。画像の向きの情報は、表示部に表示される画像の表示向きを表す情報である。ここで、画像の表示向きとは、基準とする画像の表示状態に対する変化を表す。
例えば、図1に示すように、4人のユーザP1〜P4が作業している状況しており、各ユーザP1〜P4が装着しているHMD100の表示部には、それぞれユーザP1が操作しているカメラにより撮影されている画像が表示されているとする。ユーザP1の装着するHMD100の表示部には、図1右側に示す通常モードの画像が表示されている。しかし、この通常モードでの画像の表示がユーザP1以外のユーザP2〜P4にとって最適な表示であるとも限らないし、ユーザP1も図1右側に示す画像300aから図1左側に示す画像300bのように表示形式を変更させたい場合もある。設定記憶部217には、このようなHMD100の表示部に表示される画像の表示設定情報が、ユーザ識別情報に関連付けられて記憶される。なお、設定記憶部217に記憶されている表示設定情報は、ユーザが設定を変更することも可能であり、ユーザにより変更された場合には変更後の設定を記憶させるようにしてもよい。
以上、本実施形態に係る情報処理システム1の構成について説明した。
<3.表示制御処理>
以下、図4〜図10に基づいて、図3に示した本実施形態に係る情報処理システム1における表示制御処理について説明する。
[3.1.ジェスチャ判定処理]
まず、図4及び図5に基づいて、ジェスチャ検出センサ174の検出結果に基づくジェスチャ判定処理について説明する。なお、図4は、本実施形態に係るジェスチャ判定処理を示すフローチャートである。図5は、ジェスチャ検出領域Aを説明するための説明図である。
ジェスチャ判定処理では、図4に示すように、まず、領域判定部192により、ジェスチャ検出センサ174により装着者の手が検出されたか否かを判定する(S100)。本実施形態に係るジェスチャ検出センサ174は、例えば3次元空間における手の位置を検出可能な3Dモーションセンサである。3Dモーションセンサは、例えば、赤外光を照射する光源と、当該光源の反射光を受光する受光センサと、受光センサの検出値から3次元空間における物体の位置の座標を演算する演算処理回路とからなる。なお、3Dモーションセンサは、これらの構成要素を1つのユニットとしてまとめたものであってもよく、別個の要素を組み合わせて構成してもよい。
ここで、図5に、HMD100のジェスチャ検出センサ130(図3のジェスチャ検出センサ174)の検出領域を示す。ジェスチャ検出センサ130は、当該センサから検知距離L2までの範囲にある手を、視野角α及び仰角βの範囲内で検出することができる。すなわち、ジェスチャ検出センサ130の検出可能領域は、図5の領域A及びAである。ジェスチャ検出センサ130から距離L2より離隔した領域Aは、ジェスチャ検出センサ130は手を検出することができない未反応領域となる。ステップS100では、HMD100の装着者の手が領域A及びAにあるか否かが判定される。
ステップS100にて、装着者の手が領域A及びAにはないと判定した場合には、領域判定部192は図4の処理を終了し、再びS100からの処理を繰り返し行う。一方、ステップS100にて装着者の手が領域A及びAにあると判定した場合、領域判定部192は、検出された手が領域AまたはAのうちいずれの領域にあるかを判定する(S110)。
領域A及びAはジェスチャ検出センサ130の検出可能領域であるが、当該センサに近い位置では装着者の手がHMD100に触れる可能性がある。そこで、ジェスチャ検出センサ130から検知距離L1までの領域Aは、装着者の手がHMD100に触れる可能性の高い領域であるとして、ジェスチャを行わせない近距離領域とする。検知距離L1は、例えば15〜20cm程度に設定される。そして、ジェスチャ検出センサ130の検出可能領域のうち領域Aが、HMD100の装着者が行うジェスチャの解析を実行するジェスチャ検出領域として設定される。また、ジェスチャ検出領域Aは、装着者の手の可動領域に応じて決定するのがよい。ジェスチャ検出センサ130の検出可能領域に装着者の手が届かない領域も含まれると、当該装着者以外の者や器具等もジェスチャ検出センサ130により検出してしまい、誤操作の要因となる。ジェスチャ検出領域Aを装着者の手の可動領域に限定することで、装着者が意図しない処理が実行されるのを防止できる。
ジェスチャ検出領域Aは、予め設定された規定の領域であってもよく、ユーザや使用状態に応じて変更してもよい。例えば手術用手袋の装着の有無や手術用手袋の色の違い等により、ジェスチャ検出センサ130による検出対象の検出精度(感度)が異なる。そこで、HMD100の使用開始前にジェスチャを行う手をHMD100に対して近付けたり遠ざけたりして、ジェスチャ検出領域Aが適切であるか確認し、最適な設定値に変更してもよい。ジェスチャ検出領域Aの変更は、予めジェスチャ検出領域の設定値を規定した複数の領域設定モードから最適な領域設定モードを選択して行ってもよい。あるいは、ジェスチャ検出センサ130の検出結果から装着者が実際に手を動かしながら適切な領域を設定してもよい。
領域判定部192は、ジェスチャ検出センサ130の検出結果より、装着者の手がジェスチャ検出領域Aにあると判定したとき、ジェスチャ解析部194に対してジェスチャの解析指示を行う。一方、ジェスチャ検出センサ130の検出結果より、装着者の手が近距離領域Aにあると判定したとき、領域判定部192は、装着者に対して、手の位置がHMD100に近すぎることを知らせる警報を報知させる(S120)。
警報の報知は、例えば、HMD100の表示部に、手の位置がHMD100に近すぎることを知らせるメッセージやオブジェクト等の警報情報を表示させることにより行ってもよい。この場合、領域判定部192は、画像生成部164に対して警報情報を表示させるように指示する。あるいは、音声や振動等により警報を報知してもよい。
次いで、ジェスチャ解析部194は、ジェスチャ検出領域Aにある装着者の手の位置や動きから、装着者が行っているジェスチャを特定する(S130)。ジェスチャの解析処理は、周知の技術を用いて行うことができる。ジェスチャ解析部194は、例えば、手の動きや静止状態、指の数やHMD100に対して向けられている手の部位(手のひら、手の甲等)等の形状の相違等から、ジェスチャを解析する。また、ジェスチャ解析部194は、検出対象の色を取得することができる場合には、手術用手袋の装着の有無や、手術用手袋の色も、ジェスチャを特定するための要素として考慮してもよい。
ジェスチャ解析部194によりジェスチャが特定されると、実行判定部196により、ジェスチャに基づき所定の処理の実行可否が判定される(S140)。本実施形態では、視線検出機能を機能させる開始トリガとしてジェスチャが利用されている。したがって、ステップS140において、実行判定部196は、視線検出機能を機能させる開始トリガとして設定されたジェスチャが行われたか否かを判定する。例えば、手のひらをHMD100に対向させた状態で、手を顔前に向かって移動させるジェスチャを、視線検出機能を機能させる開始トリガとして設定してもよい。
ステップS140にて視線検出機能を機能させるためのジェスチャが行われなかったと判定された場合には、図4に示す処理を終了し、再び図4のS100から処理を開始する。一方、ステップS140にて視線検出機能を機能させるためのジェスチャが行われたと判定された場合には、実行判定部196は、視線検出センサ172を起動し、視線検出機能を開始させる(S150)。
以上、本実施形態に係るジェスチャ判定処理について説明した。このように、ジェスチャ検出領域を設定することで、HMD100の装着者は、HMD100に触れることなく視線検出機能を機能させるためのジェスチャを行うことが可能となる。また、ジェスチャを行う手が近距離領域Aに位置した場合に装着者に対して警報を報知することで、装着者に対して手をHMD100から遠ざけることを促し、手がHMD100に接触することを防止することができる。
なお、ジェスチャにより視線検出機能を機能させる場合について説明したが、視線検出機能を停止させる場合も同様にジェスチャによって行うことができる。視線検出機能を停止させるためのジェスチャは、視線検出機能を機能させるときのジェスチャと同一でもよく、異なるものであってもよい。あるいは、視線検出機能の停止は、所定時間以上視線が移動されなかった場合に実行されるようにしてもよい。
[3.2.視線による操作]
次に、図6〜図10に基づいて、上述のジェスチャ判定処理により視線検出機能が機能された後の、HMD100の装着者の視線による情報操作の例を説明する。なお、図6は、視線検出機能が機能されたときの初期表示状態を示す説明図である。図7は、PIPオブジェクト302が選択されたときの表示状態を示す説明図である。図8は、FLIPオブジェクト304が選択されたときの表示状態を示す説明図である。図9は、インプットオブジェクト306が選択されたときの表示状態を示す説明図である。図10は、カメラモードオブジェクト308が選択された状態を示す説明図である。
ジェスチャ判定処理により視線検出機能が機能されると、図6に示すように、HMD100の表示領域300に、視線位置に応じて移動する指示オブジェクトであるカーソル310と、所定の処理が関連付けられた各種オブジェクとが表示される。HMD100の装着者は、視線によりカーソル310を所望のオブジェクトへ移動させて選択し、所定の決定処理(例えば、3回瞬きをする、カーソル310を3秒以上停止させる、等)を行うと、選択されたオブジェクトに関連付けられた処理が実行される。
例えば、図6においては、画面の表示を変更するための選択オブジェクトとして、PIPオブジェクト302、FLIPオブジェクト304、インプットオブジェクト306、及びカメラモードオブジェクト308が、表示領域300の外周部、例えば四隅に表示されている。表示領域300の四隅のように外周部にオブジェクトを表示させることで、表示領域300に表示されている画像の観察を妨げないようにすることができる。
PIPオブジェクト302が選択され、決定されると、表示領域300にメイン画面とサブ画面とを設けるPinP機能が機能される。このとき、例えば図7に示すように、選択オブジェクトは非表示となり、PIPオブジェクト302が表示されていた位置に、設定可能な表示形態を示すオブジェクトPIP1〜3が表示される。HMD100の装着者が視線をオブジェクトPIP1〜3へ向けると、表示領域300における視線位置を表すカーソル310が移動する。カーソル310があるオブジェクト(例えばオブジェクトPIP3)上に位置すると、選択状態を示す枠320が表示される。HMD100の装着者は、所望の表示形式を表すオブジェクトに視線を移動させ、所定の決定処理を行うことで、表示領域300の表示を、決定したオブジェクトに関連付けられた表示形式に基づく表示に変更させることができる。
同等に、図6において、FLIPオブジェクト304が選択され、決定されると、表示領域300に表示される画像の向きを変更する機能が機能される。このとき、例えば図8に示すように、選択オブジェクトは非表示となり、FLIPオブジェクト304が表示されていた位置に、設定可能な表示形態を示すオブジェクトFLIP1〜3が表示される。HMD100の装着者が視線をオブジェクトFLIP1〜3へ向けると、表示領域300における視線位置を表すカーソル310が移動する。カーソル310があるオブジェクト(例えばオブジェクトFLIP3)上に位置すると、選択状態を示す枠320が表示される。HMD100の装着者は、所望の表示形式を表すオブジェクトに視線を移動させ、所定の決定処理を行うことで、表示領域300の表示を、決定したオブジェクトに関連付けられた表示形式に基づく表示に変更させることができる。
また、図6において、インプットオブジェクト306が選択され、決定されると、表示領域300に表示される画像を変更する機能が機能される。このとき、例えば図9に示すように、選択オブジェクトは非表示となり、インプットオブジェクト306が表示されていた位置に、設定可能な入力画像を示すオブジェクトIn1〜4が表示される。なお、図8のオブジェクトIn1、2の選択により、プロセッサユニット200のDVI入力端子1、2からの入力画像を表示させることができる。また、オブジェクトIn3、4の選択により、プロセッサユニット200のSDI入力端子1、2からの入力画像を表示させることができる。
HMD100の装着者が視線をオブジェクトIn1〜4へ向けると、表示領域300における視線位置を表すカーソル310が移動する。カーソル310があるオブジェクト(例えばオブジェクトIn4)上に位置すると、選択状態を示す枠320が表示される。HMD100の装着者は、所望の表示形式を表すオブジェクトに視線を移動させ、所定の決定処理を行うことで、表示領域300の表示を、決定したオブジェクトに関連付けられた表示形式に基づく表示に変更させることができる。
さらに、図6において、カメラモードオブジェクト308が選択され、決定されると、表示領域300に、HMD100のカメラ120により撮影される映像が表示される。このとき、例えば図10に示すように、選択オブジェクトは非表示となり、表示領域300全体にカメラ120の映像が表示される。
このように、HMD100の装着者は、視線検出機能を用いることで、医療行為の進行を妨げることなく、安全に表示部の表示形式を変更することができる。
<4.まとめ>
以上、本実施形態に係るHMD100を備える情報処理システム1について説明した。本実施形態によれば、装着者の視線により操作可能なHMD100において、ジェスチャ検出機能により検出されたジェスチャに基づき視線検出機能のオンオフの切り替えを行う。このような非接触での操作入力を用いることで、医療行為中における頭部装着ディスプレイの操作を可能とする。また、ジェスチャ検出の際、装着者にジェスチャを行わせるジェスチャ検出領域を設けることで、HMD100の装着者がジェスチャを行う際に誤ってHMD100に接触するのを防止することが可能となり、装着者が意図しない処理の実行も防ぐことができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
装着者の眼前部を覆う頭部装着ディスプレイに設けられた検出部により検出された外界の物体と前記頭部装着ディスプレイとの距離に応じて、前記物体に基づく前記装着者のジェスチャの解析を実行するか否かを決定する処理部を備える、情報処理装置。
(2)
前記装着者のジェスチャの解析を実行する領域は、少なくとも前記頭部装着ディスプレイから第1の距離だけ離隔した位置に設定される、前記(1)に記載の情報処理装置。
(3)
前記装着者のジェスチャの解析を実行する領域は、前記頭部装着ディスプレイの装着者の手の可動領域である、前記(2)に記載の情報処理装置。
(4)
前記検出部により、前記頭部装着ディスプレイから第1の距離までの近距離領域内に前記物体があることが検出されたとき、前記処理部は当該装着者に警報を報知する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記装着者のジェスチャの解析を実行する領域は、前記検出部の検出対象に応じて決定される、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記装着者のジェスチャを実行する領域は、前記検出部により検出される手術用手袋の有無又は色に応じて決定される、前記(5)に記載の情報処理装置。
(7)
前記処理部は、前記装着者のジェスチャの解析結果に基づき所定の処理の実行可否を判定する、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記頭部装着ディスプレイは、装着者の視線を検出する視線検出部を備えており、
前記処理部は、解析したジェスチャに基づいて、前記頭部装着ディスプレイの装着者の視線を検出する視線検出機能の実行可否を判定する、前記(7)に記載の情報処理装置。
(9)
前記処理部は、前記視線検出機能を実行すると判定したとき、前記頭部装着ディスプレイの表示部に、前記装着者の視線位置を示すカーソルを表示させる、前記(8)に記載の情報処理装置。
(10)
前記処理部は、前記視線検出機能を実行すると判定したとき、前記頭部装着ディスプレイの前記表示部に、所定の処理が関連付けられた1または複数の選択オブジェクトを表示させる、前記(9)に記載の情報処理装置。
(11)
前記処理部は、前記表示部の表示領域外周部に前記選択オブジェクトを表示させる、前記(10)に記載の情報処理装置。
(12)
前記頭部装着ディスプレイは、滅菌されていない不潔物である、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)
装着者の眼前部を覆う頭部装着ディスプレイに設けられ、外界の物体を検出する検出部と、
前記頭部装着ディスプレイに設けられ、前記装着者に対して情報を提示する表示部と、
前記検出部により検出された外界の物体と前記頭部装着ディスプレイとの距離に応じて、前記物体に基づく前記装着者のジェスチャの解析を実行するか否かを決定する処理部と、
を備える、情報処理システム。
(14)
1 情報処理システム
10 内視鏡装置
100 HMD
102 リモートコントローラ
110 本体部
120 カメラ
130 ジェスチャ検出センサ
162 ディスプレイポート
164 画像生成部
165 第1の表示素子
166 第2の表示素子
172 視線検出センサ
174 ジェスチャ検出センサ
180 操作処理部
190 ジェスチャ判定処理部
192 領域判定部
194 ジェスチャ解析部
196 実行判定部
200 プロセッサユニット
211 画像入力部
212 画像処理部
213 入力部
214 表示制御部
215 出力部
216 操作入力部
217 設定記憶部

Claims (14)

  1. 装着者の眼前部を覆う頭部装着ディスプレイに設けられた検出部により検出された外界の物体と前記頭部装着ディスプレイとの距離に応じて、前記物体に基づく前記装着者のジェスチャの解析を実行するか否かを決定する処理部を備える、情報処理装置。
  2. 前記装着者のジェスチャの解析を実行する領域は、少なくとも前記頭部装着ディスプレイから第1の距離だけ離隔した位置に設定される、請求項1に記載の情報処理装置。
  3. 前記装着者のジェスチャの解析を実行する領域は、前記頭部装着ディスプレイの装着者の手の可動領域である、請求項2に記載の情報処理装置。
  4. 前記検出部により、前記頭部装着ディスプレイから第1の距離までの近距離領域内に前記物体があることが検出されたとき、前記処理部は当該装着者に警報を報知する、請求項1に記載の情報処理装置。
  5. 前記装着者のジェスチャの解析を実行する領域は、前記検出部の検出対象に応じて決定される、請求項1に記載の情報処理装置。
  6. 前記装着者のジェスチャを実行する領域は、前記検出部により検出される手術用手袋の有無又は色に応じて決定される、請求項5に記載の情報処理装置。
  7. 前記処理部は、前記装着者のジェスチャの解析結果に基づき所定の処理の実行可否を判定する、請求項1に記載の情報処理装置。
  8. 前記頭部装着ディスプレイは、装着者の視線を検出する視線検出部を備えており、
    前記処理部は、解析したジェスチャに基づいて、前記頭部装着ディスプレイの装着者の視線を検出する視線検出機能の実行可否を判定する、請求項7に記載の情報処理装置。
  9. 前記処理部は、前記視線検出機能を実行すると判定したとき、前記頭部装着ディスプレイの表示部に、前記装着者の視線位置を示すカーソルを表示させる、請求項8に記載の情報処理装置。
  10. 前記処理部は、前記視線検出機能を実行すると判定したとき、前記頭部装着ディスプレイの前記表示部に、所定の処理が関連付けられた1または複数の選択オブジェクトを表示させる、請求項9に記載の情報処理装置。
  11. 前記処理部は、前記表示部の表示領域外周部に前記選択オブジェクトを表示させる、請求項10に記載の情報処理装置。
  12. 前記頭部装着ディスプレイは、滅菌されていない不潔物である、請求項1に記載の情報処理装置。
  13. 装着者の眼前部を覆う頭部装着ディスプレイに設けられ、外界の物体を検出する検出部と、
    前記頭部装着ディスプレイに設けられ、前記装着者に対して情報を提示する表示部と、
    前記検出部により検出された外界の物体と前記頭部装着ディスプレイとの距離に応じて、前記物体に基づく前記装着者のジェスチャの解析を実行するか否かを決定する処理部と、
    を備える、情報処理システム。
  14. 外界の物体を検出する第1の検出部と、
    装着者に対して情報を提示する表示部と、
    前記装着者の視線を検出する第2の検出部と、
    を、装着者の眼前部を覆う本体部に備え、
    前記第2の検出部は、前記第1の検出部による検出結果に基づいてジェスチャ検出領域内で行われた前記装着者のジェスチャを解析し、解析した前記ジェスチャに基づき所定の処理の実行可否を判定する情報処理装置の判定結果を受けて起動される、頭部装着ディスプレイ。
JP2015068900A 2015-03-30 2015-03-30 情報処理装置、情報処理システム、及び頭部装着ディスプレイ Pending JP2016189120A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015068900A JP2016189120A (ja) 2015-03-30 2015-03-30 情報処理装置、情報処理システム、及び頭部装着ディスプレイ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015068900A JP2016189120A (ja) 2015-03-30 2015-03-30 情報処理装置、情報処理システム、及び頭部装着ディスプレイ

Publications (1)

Publication Number Publication Date
JP2016189120A true JP2016189120A (ja) 2016-11-04

Family

ID=57240658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015068900A Pending JP2016189120A (ja) 2015-03-30 2015-03-30 情報処理装置、情報処理システム、及び頭部装着ディスプレイ

Country Status (1)

Country Link
JP (1) JP2016189120A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018117299A1 (ko) * 2016-12-22 2018-06-28 주식회사 메이트닥터 광원장치
WO2019187660A1 (ja) * 2018-03-29 2019-10-03 コベルコ建機株式会社 作業機械の遠隔操作システム
CN111831105A (zh) * 2019-04-15 2020-10-27 未来市股份有限公司 头戴式显示系统、相关方法及相关计算机可读取记录媒体
JP2020177608A (ja) * 2019-04-15 2020-10-29 未來市股▲ふん▼有限公司 仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体
JP2021110522A (ja) * 2020-01-15 2021-08-02 リンナイ株式会社 加熱調理器

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018117299A1 (ko) * 2016-12-22 2018-06-28 주식회사 메이트닥터 광원장치
WO2019187660A1 (ja) * 2018-03-29 2019-10-03 コベルコ建機株式会社 作業機械の遠隔操作システム
JP2019176401A (ja) * 2018-03-29 2019-10-10 コベルコ建機株式会社 作業機械の遠隔操作システム
JP7014007B2 (ja) 2018-03-29 2022-02-01 コベルコ建機株式会社 作業機械の遠隔操作システム
US11821170B2 (en) 2018-03-29 2023-11-21 Kobelco Construction Machinery Co., Ltd. Remote operation system for working machine
CN111831105A (zh) * 2019-04-15 2020-10-27 未来市股份有限公司 头戴式显示系统、相关方法及相关计算机可读取记录媒体
JP2020178330A (ja) * 2019-04-15 2020-10-29 未來市股▲ふん▼有限公司 仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体
JP2020177608A (ja) * 2019-04-15 2020-10-29 未來市股▲ふん▼有限公司 仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体
US10992926B2 (en) 2019-04-15 2021-04-27 XRSpace CO., LTD. Head mounted display system capable of displaying a virtual scene and a real scene in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
JP2021110522A (ja) * 2020-01-15 2021-08-02 リンナイ株式会社 加熱調理器
JP7369627B2 (ja) 2020-01-15 2023-10-26 リンナイ株式会社 加熱調理器

Similar Documents

Publication Publication Date Title
US10506913B2 (en) Apparatus operation device, apparatus operation method, and electronic apparatus system
JP6693507B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP6264087B2 (ja) 表示制御装置、表示装置および表示制御システム
JP6574939B2 (ja) 表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイ
JP5800616B2 (ja) マニピュレータシステム
US10379605B2 (en) Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system
JP2016189120A (ja) 情報処理装置、情報処理システム、及び頭部装着ディスプレイ
JP6507827B2 (ja) 表示システム
JP6122537B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US10585476B2 (en) Apparatus operation device, apparatus operation method, and electronic apparatus system
CA3117533A1 (en) Ui for head mounted display system
US11224329B2 (en) Medical observation apparatus
JP6617766B2 (ja) 医療用観察システム、表示制御システムおよび表示制御装置
JP2019101293A (ja) 頭部装着型表示装置、表示システム及び表示方法