JP6264087B2 - 表示制御装置、表示装置および表示制御システム - Google Patents

表示制御装置、表示装置および表示制御システム Download PDF

Info

Publication number
JP6264087B2
JP6264087B2 JP2014032008A JP2014032008A JP6264087B2 JP 6264087 B2 JP6264087 B2 JP 6264087B2 JP 2014032008 A JP2014032008 A JP 2014032008A JP 2014032008 A JP2014032008 A JP 2014032008A JP 6264087 B2 JP6264087 B2 JP 6264087B2
Authority
JP
Japan
Prior art keywords
display
information
head
user
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014032008A
Other languages
English (en)
Other versions
JP2015156889A (ja
JP2015156889A5 (ja
Inventor
敏靖 森本
敏靖 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014032008A priority Critical patent/JP6264087B2/ja
Priority to PCT/JP2015/000673 priority patent/WO2015125447A1/en
Priority to US15/118,344 priority patent/US10874284B2/en
Priority to EP15709758.5A priority patent/EP3107474B1/en
Publication of JP2015156889A publication Critical patent/JP2015156889A/ja
Publication of JP2015156889A5 publication Critical patent/JP2015156889A5/ja
Application granted granted Critical
Publication of JP6264087B2 publication Critical patent/JP6264087B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles

Description

本開示は、複数のユーザが使用している表示装置に表示させる情報を制御する表示制御装置、表示装置および表示制御システムに関する。
ユーザが装着して使用するウェアラブル端末の1つとして、ヘッドマウントディスプレイ(Head Mounted Display、頭部装着ディスプレイ;以下「HMD」とする。)がある。HMDは、ユーザの頭部に装着して使用する表示装置であり、近年、AV機器やコンピュータゲーム等の表示装置の他、作業環境において作業しながらユーザが情報を確認するための表示装置としても使用されている。
例えば、医療現場において、内視鏡の映像を映し出すための表示装置としてHMDが使用されている(例えば、特許文献1、2)。術者は、HMDを装着し、HMDに映し出された映像を見ながら手術を行う。これまで内視鏡の映像は術者の近くに設置されたモニタに表示されるのが一般的であったため、術者はモニタと患部との間で視線を頻繁に動かす必要があった。内視鏡の映像をHMDに映し出すことにより、術者は視線を大きく動かすことなくHMDの表示部に表示された内視鏡の映像と患部とを確認することが可能となる。
特開平06−062438号公報 特開2013−106752号公報
しかし、装着者の眼を覆うタイプのHMDを使用する場合、周辺環境を認識することができず、助手や看護師に指示を出す等、術中のコミュニケーションを図ることが困難となる。これに対して、例えば、HMDにカメラを搭載して周辺環境も閲覧できるようなビデオシースルータイプのHMDを用いることも考えられる。HMDにビデオシースルー機能が追加されると、HMDを装着した術者は、手術中に内視鏡映像と外部カメラ映像とを切り替えることで、周囲のスタッフの状況を認識することが可能となり、コミュニケーションも改善されると考えられる。
だが、術者だけでなく、スコピスト(内視鏡操作者)や助手もHMDを装着することもある。このように複数の者がHMDを装着して共同で手術を行う場合には、ビデオシースルーにより周辺環境を認識することができても、HMDを装着している他者が何を見ているのかまでは認識できない。このため、作業者間での連携ロスが発生する可能性がある。
そこで、HMDの装着時における他者とのコミュニケーションを向上させることが求められていた。
本開示によれば、頭部装着ディスプレイを装着する複数のユーザがそれぞれ視認している情報を、各頭部装着ディスプレイを装着しているユーザが視認できる表示部に表示させる表示制御部を備える、表示制御装置が提供される。
また、本開示によれば、表示部と、頭部装着ディスプレイを装着する複数のユーザがそれぞれ視認している情報を、各頭部装着ディスプレイを装着しているユーザが視認できる表示部に表示させる表示制御部と、を備える、表示装置が提供される。
さらに、本開示によれば、複数の頭部装着ディスプレイと、頭部装着ディスプレイに表示させる情報を制御する表示制御装置と、が通信可能に接続されており、表示制御装置は、頭部装着ディスプレイを装着しているユーザによって選択された情報および他の頭部装着ディスプレイを装着しているユーザが視認している情報を、各頭部装着ディスプレイへ出力する、表示制御システムが提供される。
本開示によれば、頭部装着ディスプレイを装着している各ユーザが視認している情報が、各頭部装着ディスプレイの表示部にそれぞれ表示される。これにより各ユーザは、他のユーザが何を見ているかを認識することが可能となる。
以上説明したように本開示によれば、各ユーザは、他のユーザが何を見ているかを認識することが可能となり、頭部装着ディスプレイの装着時における他者とのコミュニケーションを向上させることができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る内視鏡システムの一構成例を示すシステム構成図である。 同実施形態に係るHMDをユーザが装着している状態を示す概略側面図である。 同実施形態に係るHMDの表示面を示す概略図である。 同実施形態に係る表示制御システムを構成するHMDおよびプロセッサユニットの機能構成を示す機能ブロック図である。 HMDの表示部に表示される情報の一例を示す説明図であり、他のユーザの情報としてサムネイルと識別子とが表示される例である。 HMDの表示部に表示される情報の他の一例を示す説明図であり、他のユーザの情報としてサムネイルと役割とが表示される例である。 HMDの表示部に表示される情報の他の一例を示す説明図であり、他のユーザの情報としてオブジェクトとユーザ名とが表示される例である。 本開示の第2の実施形態に係る表示制御システムを構成するHMDおよびプロセッサユニットの機能構成を示す機能ブロック図である。 ディスプレイに各HMDの各ユーザが見ている情報を表示したときの位置表示例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1.1.システム構成
1.2.表示制御処理
1.2.1.機能構成
1.2.2.HMDの画面表示
2.第2の実施形態(視線検出部を備える例)
3.変形例
<1.第1の実施形態>
[1.1.システム構成]
まず、図1〜図3を参照して、本開示の第1の実施形態に係るHMDを使用したシステムの一例として、内視鏡システムについて説明する。なお、図1は、本実施形態に係る内視鏡システム1の一構成例を示すシステム構成図である。図2は、本実施形態に係るHMD100をユーザが装着している状態を示す概略側面図である。図3は、HMD100の表示面152、154を示す概略図である。
本実施形態に係る内視鏡システム1は、内視鏡手術において用いられるシステムであり、術者はHMDを装着して内視鏡装置により撮像された患部の様子を視認しながら手術する。
内視鏡システム1は、図1に示すように、HMD100(100A、100B)と、ディスプレイ300と、外部機器400(400A、400B)とが、プロセッサユニット200に接続されて構成されている。
HMD100は、外部機器400からの入力映像等の情報を表示する表示装置である。HMD100は、図2に示すように、例えばゴーグル形状の非透過型のHMDであって、ユーザが頭部に装着した状態で使用される。HMD100は、ユーザに情報を提示する表示部152、154を備える本体部110と、本体部110を頭部に固定させるための上部固定部120および後部固定部130とからなる。固定部でユーザの頭部に固定されると、本体部110の表示部152、154がユーザの左右の眼の前に位置するようになる。
本体部110は、ユーザの両眼を覆う部位である。本体部110は、例えばユーザの左右のこめかみ付近まで覆うように構成されてもよい。このような形状とすることで、装着時にユーザの眼前をほぼ完全に被覆することができ、ユーザの目に外光が入射せずより画像を見やすくすることができる。本体部110の外表面には、例えば周辺環境を撮影するための撮像部112を備えてもよい。これにより、HMD100を装着するユーザは、プロセッサユニット200を介して外部機器400等から提供される情報以外に、HMD100を装着していないときに見える周辺環境の情報も認識できるようになる(ビデオシースルー)。
本体部110の接眼面110aには、図3に示すように、ユーザの左右の眼の位置に対応するように左眼用の第1の表示部152と、右眼用の第2の表示部154とが設けられている。第1の表示部152と第2の表示部154との間には、例えばユーザの鼻を位置させる切り欠きが形成されていてもよい。本体部110の接眼面110aとユーザの眼との間には隙間を設けてもよい。この隙間の下方を覆わずに開口した状態とすることで、ユーザは視線を下方に向けた際に自分の手元等を見ることができるようにすることができる。
本体部110の内部には、第1の表示部152に左眼用画像を提示する第1の表示素子(図4の符号165)と、第2の表示部154に右眼用画像を提示する第2の表示素子(図4の符号166)とが設けられている。各表示素子は、例えばプロセッサユニット200より提供される内視鏡装置の画像や、本体部110の撮像部112により撮像された画像等を提示する。なお、HMD100の表示部に表示される画像の表示制御処理については、後述する。また、本体部110には、プロセッサユニット200との情報の送受信を行うため、プロセッサユニット200に接続されるケーブル140が設けられている。本実施形態では、HMD100とプロセッサユニット200は有線接続されているが、本開示はかかる例に限定されず、機器間での情報通信は無線通信により行ってもよい。
上部固定部120は、本体部110をユーザの眼の位置に固定させるためにユーザの頭部の上方から本体部110を支持する。上部固定部120は、頭頂部に位置する支持部121、124と、ユーザ前方側の位置の調整する第1の調整部122と、ユーザの左右の側方で高さ位置を調整する第2の調整部125とから構成される。
第1の調整部122は、図2に示すように、本体部110の上部と支持部121とを連結する部材であって、その長さは調節可能に構成されている。第1の調整部122の長さを調整することで、本体部110の接眼面110a上方に設置された額当てパット127がユーザの額に押し当てられる程度が変更され、ユーザ前方側の位置の調整することができる。
第2の調整部125は、図2に示すように、装着時にユーザの左右の耳の上部に向かって延びる本体部110の両側部と支持部124とを連結する部材であって、その長さは調節可能に構成されている。第2の調整部125は、左右両側にそれぞれ設けられている。第2の調整部125の長さを調整することで、第1の調整部122と頭部との間に設置された頭部パット122aがユーザの頭部に押し当てられ、本体部110の両側部の高さ位置が調整される。
後部固定部130は、本体部110をユーザの眼の位置に固定させるためにユーザの後頭部から本体部110を支持する。後部固定部130は、図2に示すように、本体部110の両側部を後頭部側で連結する部材であって、その長さを調節可能に構成されている。後部固定部130の長さを調整することで、本体部110の両側部に設けられた側部パット126が頭部に押し当てられる程度が変更され、側頭部での支持具合を調整することができる。
このHMD100の表示部152、154に表示される情報は、リモートコントローラ102(102A、102B)によって切り替えるようにしてもよい。リモートコントローラ102は、1つのHMD100と対となって設けられる。例えばリモートコントローラはユーザが足で踏み入力操作を行うフットスイッチであってもよい。リモートコントローラ102からの入力情報は、プロセッサユニット200へ出力される。
プロセッサユニット200は、接続された機器を制御する制御装置である。本実施形態においては、プロセッサユニット200は、図1に示すように、HMD100(100A、100B)と、ディスプレイ300と、外部機器400(400A、400B)とを制御する。具体的には、プロセッサユニット200は、外部機器400から入力された情報を、HMD100やディスプレイ300の表示装置に表示可能な情報に処理し、各表示装置へ出力する。また、プロセッサユニット200は、各HMD100のリモートコントローラ102からの操作入力に基づいて、HMD100の表示部152、154に表示する情報を切り替える。
ディスプレイ300は、不特定のユーザが情報を見るための表示装置である。ディスプレイ300は、主として、HMD100を装着しているユーザとともに作業する、HMD100を装着していないユーザが情報を見るために用いられる。ディスプレイ300には、外部機器400からの入力情報やその他の情報を表示することができる。ディスプレイ300に表示される情報は、ユーザあるいはプロセッサユニット200によって設定される。
外部機器400は、HMD100やディスプレイ300等の表示装置に表示する情報を出力する機器である。本実施形態の内視鏡システム1においては、例えば外部機器A400Aは内視鏡装置であって、内視鏡装置のカメラにより撮像された映像がプロセッサユニット200へ出力される。
このような内視鏡システム1では、外部機器400から入力された情報がプロセッサユニット200により処理され、HMD100やディスプレイ300等の表示装置に表示される。
[1.2.表示制御処理]
HMD100を装着するユーザは、プロセッサユニット200から提示される内視鏡装置等の医療映像や、HMD100の撮像部112により撮影された映像を切り替えながら、手術を行う。このとき、HMD100の表示部152、154には、プロセッサユニット200により表示制御されている他のHMD100のユーザが視認している情報も表示される。以下、図4〜図7に基づき、本実施形態にかかる内視鏡システム1における表示制御処理について説明する。
(1.2.1.機能構成)
図4に、本実施形態にかかる内視鏡システム1を構成するHMD100およびプロセッサユニット200の機能構成を示す。なお、図4には、HMD100の表示部152、154の表示制御を行う際に機能する機能部のみを示しており、実際には、他の機能部を備えているものとする。図4の例では、プロセッサユニット200は、2つのHMD100A、100Bの表示制御を行う表示制御装置として機能し、各HMD100A、100Bの表示切替指示に基づき、それぞれに提示する情報を切り替える。
まず、HMD100の表示処理機能についてみると、図4に示すように、HMD100は、ディスプレイポート162と、画像生成部164と、表示素子165、166とを備える。
ディスプレイポート162は、プロセッサユニット200からの入力情報を受けるインタフェースである。ディスプレイポート162には、プロセッサユニット200との情報通信を可能にするケーブル140が接続される。ディスプレイポート162から入力された情報は、画像生成部164へ出力される。
画像生成部164は、プロセッサユニット200を介して取得された情報に基づき、表示素子165、166へそれぞれ出力する画像信号を生成する。ユーザに提示する画像が3D画像である場合には、画像生成部164は、第1の表示素子165へ出力される左眼用画像信号と第2の表示素子166へ出力される右眼用画像信号とにずれを生じさせるずらし処理を行う。ずらし処理では、例えば表示素子165、166とユーザの眼との距離やユーザの眼の間隔、虚像位置等に応じて、左眼用画像信号と右眼用画像信号とのずらし量が決定される。画像生成部164は、生成した画像信号を、第1の表示素子165および第2の表示素子166へ出力する。
表示素子165、166は、画像生成部164から入力される画像信号に基づいて、表示部152、154に向かって画像光へ出射する。表示素子165、166は、例えばHMD100の装着時にユーザの顔の前後方向に表示部152、154と対向するように配置される。これにより、表示素子165、166と表示部152、154とから出射される画像光の光軸は、ユーザが正面を向いたときの視線の方向と略平行になる。
表示素子165、166は、例えば有機EL(Electroluminescence)素子で構成される。表示素子165、166として有機EL素子を採用することで、小型で、高コントラスト、迅速な応答性等を実現することができる。表示素子165、166は、例えば複数の赤色有機EL素子、緑色有機EL素子、青色有機EL素子等がマトリクス状に配置された構成を有する。これらの各素子は、アクティブマトリクス型、あるいはパッシブマトリクス型等の駆動回路によって駆動されることで、それぞれ所定のタイミング、輝度等にて自発光する。この駆動回路が画像生成部164で生成された画像信号に基づいて制御されることで、表示素子165、166には全体として所定の画像が表示され、表示部152、154を介してユーザに提供される。
なお、表示素子165、166と表示部152、154との間には、光学系として、例えば複数の接眼レンズ(図示せず。)をそれぞれ配置させてもよい。これらの接眼レンズとユーザの眼とを所定距離で対向させることにより、ユーザに対し、画像が所定位置(虚像位置)に表示されるように見える虚像を観察させることが可能となる。このような虚像を提示することで、3D画像を提供することができる。なお、虚像位置及び虚像の大きさは、表示素子165、166及び光学系の構成等によって設定される。
なお、ユーザに虚像を観察させるため、表示素子165、166から光軸方向に出射される画像光が左右の眼の網膜上にそれぞれ結像するように本体部110はユーザに装着される。本体部110が適切に装着されていない場合には、ピントがぼけた画像となったり、3D画像にブレが生じたりしてしまい、ユーザは所望の画像を見ることができない。したがって、ユーザは、HMD100の装着時には、本体部110を適切な位置に調整した後、当該位置がずれないように上部固定部120および後部固定部130によって本体部110を頭部に固定する。
次いで、プロセッサユニット200の表示処理機能についてみると、図4に示すように、プロセッサユニット200は、画像入力部211と、画像処理部212と、表示制御部213と、出力部214と、操作入力部215とを備える。
画像入力部211は、外部機器400からプロセッサユニット200に入力される画像を受けるインタフェースである。図4の例では、外部機器400として内視鏡装置10が示されており、このとき画像入力部211には、内視鏡装置10のカメラ(図示せず。)により撮像された画像が入力される。画像入力部211は、入力された画像を画像処理部212へ出力する。
画像処理部212は、プロセッサユニット200に入力された画像を、HMD100に表示させるための画像に処理する。画像処理部212では、例えば、内視鏡装置10のカメラにより撮像された画像から、HMD100の第1の表示部152に表示させる左眼用画像と第2の表示部154に表示させる右眼用画像とを生成する。画像処理部212により画像処理された画像は、表示制御部213へ出力される。
表示制御部213は、HMD100の表示部152、154に表示させる情報を制御する。本実施形態では、HMD100の表示部152、154に、HMD100のユーザにより選択された画像を表示するとともに、HMD100を装着する他のユーザが見ている情報を表示する。これにより、HMD100を装着していても、他のユーザが何を見ているのかを認識することが可能となり、ユーザ間のコミュニケーションを向上させることができる。なお、表示制御部213による表示処理の詳細は後述する。表示制御部213は、各HMD100に表示させる情報を決定すると、出力部214を介して当該情報を各HMD100へ情報を出力する。
操作入力部215は、ユーザからの操作入力を受ける入力部である。本実施形態において、HMD120の表示部152、154に表示される情報は、リモートコントローラ102によって切替可能である。リモートコントローラ102に対する操作入力は操作入力部215へ出力され、操作入力部215はこの操作入力情報を表示制御部213に出力する。表示制御部213は、リモートコントローラ102からの表示切替指示に基づき、指示された情報を、出力部214を介してHMD100へ出力する。このとき、表示制御部213は、プロセッサユニット200により制御している各HMD100に現在表示されている情報を管理する。例えば表示制御部213は、メモリ(図示せず。)に各HMD100に表示されている情報を特定するための情報を記憶させてもよい。
(1.2.2.HMDの画面表示)
図4に示すような内視鏡システム1において、表示制御部213は、HMD100のユーザにより選択された画像を表示するとともに、HMD100を装着する他のユーザが見ている情報を表示部152、154に表示させる。このとき、表示制御部213は、自身が見ている画像が見えにくくならない位置に、他のユーザが見ている情報が表示されるようにする。以下、図5〜図7に、HMD100の表示部152、154に表示される表示情報500の例を示す。これらの例では、4人のHMD100を装着したユーザがいるとし、プロセッサユニット200は各HMD100の表示制御を行っている。
HMD100の表示部512、514に表示される表示情報500の一表示例として、例えば図5に示すように、他のユーザの見ている情報のサムネイルを提示するようにしてもよい。HMD100を装着して作業するユーザには、当該ユーザが選択した情報(本例では、内視鏡装置10のカメラ映像)が主情報として表示領域全体に示されている。このとき、表示領域の一部に、他のユーザが見ている情報のサムネイル510、520、530が表示される。各サムネイル510、520、530は、主の表示情報500の表示を妨げないように、例えば端部に一列に配置して表示される。
また、各サムネイル510、520、530には、どのHMD100に表示されているかを示すように、識別子512、522、532を合わせて表示してもよい。このとき、識別子512、522、532は、予めHMD100とそれを使用するユーザとで対応付けられており、他のユーザはその対応関係を予め認識しておくことで、だれが何の画像を見ているかを把握することが可能となる。
図5の例では、識別子「1」のHMD100を装着するユーザは、自分と同じ内視鏡装置10のカメラ映像を見ており、識別子「2」のHMD100を装着するユーザは、周辺環境を映した外部映像を見ている。また、識別子「3」のHMD100を装着するユーザは、他の医療機器により取得された映像(例えばエコー画像)を見ている。このように、他のユーザが何を見ているかを把握できるようにすることで、他のユーザの状態を把握しながら会話や指示等を行うことができるようになり、コミュニケーションを図り易くなり、作業の連携ロスも解消することができる。
このとき、他のユーザの見ている情報のサムネイル510、520、530とともに表示される識別子512、522、532の代わりに、例えば図6に示すように、ユーザの役割名514、524、534を表示させてもよい。図6に示す例では、上部のサムネイル510は術者の見ている情報であり、中央のサムネイル520は内視鏡のカメラを操作する操作者(スコピスト)の見ている情報であり、下部のサムネイル530は助手の見ている情報である。このように、役割を明示することで、ユーザにわかりやすく情報を提示することができる。
また、他の例として、図7に示すように、他のユーザが見ている情報を、サムネイル510、520、530の代わりに、情報を表すオブジェクトとしてチャート540、550、560を表示するようにしてもよい。例えば、図7のチャート540、550はユーザが内視鏡装置10のカメラによる映像を見ていることを表しており、チャート560はHMD100の本体部110に設けられた撮像部112による映像を見ていることを表すものである。このようなチャート540、550、560によりユーザが見ている情報を表すことで、何を見ているのかをユーザに直観的に伝えることができる。
また、これらのチャート540、550、560とともに、この内容を見ているユーザをユーザ名542、552、562により表してもよい。これにより、ユーザにわかりやすく情報を提示することができる。
図5〜図7に示した表示例の他にも、例えば「医療映像A」、「医療映像B」、「外部映像」等のように他のユーザが見ている情報をテキスト情報により表示してもよい。
表示部152、154に表示されているサムネイル510、520、530等の他のユーザが見ている情報は、例えば各ユーザが表示切替を行ったタイミングで変更してもよい。このとき、表示が切り替わったことを通知するため、例えばサムネイルを一時的に点滅表示させたり、表示が切り替わったHMD100の識別子(あるいはユーザ名や役割等)とともにそのことを通知するアラームを表示領域に表示させたりしてもよい。
また、サムネイル510、520、530等の他のユーザが見ている情報は、主の表示情報500を見づらくしないように表示される。例えば、サムネイルを半透明で表示して表示情報500を視認可能としてもよい。あるいは、表示領域におけるサムネイルの表示位置をユーザが適宜変更できるようにしてもよい。このように、サムネイルの表示方法や表示位置を調整可能することで、表示情報500の視認性を高めることができる。
[1.3.まとめ]
以上、本実施形態に係る内視鏡システム1において、HMD100に表示する情報の提示方法について説明した。本実施形態によれば、HMD100を装着するユーザが複数存在する状況において、各ユーザのHMD100の表示部152、154に、主の表示情報とともに他のユーザが見ている情報も表示する。これにより、各ユーザは、共同して作業を行っている他のユーザが現在何を見て作業を行っているのか把握することが可能となる。その上で会話や指示を行うので、ユーザ間のコミュニケーションを容易に図ることが可能となり、連携ロスの発生等を回避することができる。
<2.第2の実施形態>
次に、図8に基づいて、本開示の第2の実施形態に係るHMDを使用したシステムにおける表示制御について説明する。本実施形態では、第1の実施形態と同様、内視鏡システムを例として説明する。なお、図8は、本実施形態に係る内視鏡システム1を構成するHMD100およびプロセッサユニット200の機能構成を示す機能ブロック図である。なお、図8には、HMD100の表示部152、154の表示制御を行う際に機能する機能部のみを示しており、実際には、他の機能部を備えているものとする。
図8の例においても、第1の実施形態の図4と同様、プロセッサユニット200は、2つのHMD100A、100Bの表示制御を行う表示制御装置として機能し、各HMD100A、100Bの表示切替指示に基づき、それぞれに提示する情報を切り替える。本実施形態に係る内視鏡システム1は、図4に示す第1の実施形態の構成と比較して、HMD100に視線検出部167を備える点で相違する。その他の機能部は第1の実施形態と同一であるため、これらの機能部についての説明は省略する。
HMD100に設けられた視線検出部167は、HMD100を装着したユーザの視線を検出する。視線検出部167は、HMD100を装着したユーザの眼を撮像し、眼における基準点と動点との位置関係から視線を検出する。視線検出部167により検出されたユーザの視線は、プロセッサユニット200へ出力される。
視線検出部167によりユーザの視線を検出することで、例えばユーザがHMD100の表示部152、154を見ているか否かを把握することができる。図2に示したHMD100のように、本体部110とユーザの眼との間に隙間があり、その下方が開口されている場合等、HMD100の装着者が表示部152、154に表示された情報以外のものを見ることができる場合もある。このとき、表示部152、154に表示されている情報を他のユーザに通知すると、ユーザ間での認識が相違してしまい、コミュニケーションをうまく図ることができないといった状況も考えられる。
また、例えばPinP(Picture In Picture)のように表示部152、154の表示領域内に別の情報を表示する表示領域が設けられている場合、ユーザは視線を移動させて各表示領域の情報を注視したりする。このとき、ユーザが見ていない表示領域に表示されている情報を他のユーザに通知すると、やはりユーザ間で認識が相違してしまう。
このように、ユーザが視認している情報は、必ずしもHMD100の表示部152、154に表示された主情報とは限らない。ユーザが視認している情報には、表示部152、154に表示されている主情報以外にも、例えば手元を見ているとの情報もあり、また、表示部152、154に複数の表示領域がある場合にはいずれかの表示領域の情報であったりもする。そこで、本実施形態のようにHMD100に視線検出部167を設けて、ユーザの視線から視認している情報を特定する。これにより、より正確にユーザの見ている情報を他のユーザに伝えることができるようになり、ユーザ間のコミュニケーションを向上させることができる。
以上、本実施形態に係る内視鏡システム1において、HMD100に表示する情報の提示方法について説明した。本実施形態によれば、HMD100を装着するユーザが複数存在する状況において、各ユーザのHMD100の表示部152、154に、主の表示情報とともに他のユーザが見ている情報も表示する。この際、HMD100を装着しているユーザの視線も検出することで、より正確にユーザの見ている情報を認識することができる。これにより、各ユーザは、共同して作業を行っている他のユーザが現在何を見て作業を行っているのか把握することが可能となる。その上で会話や指示を行うので、ユーザ間のコミュニケーションを容易に図ることが可能となり、連携ロスの発生等を回避することができる。
<3.変形例>
上記実施形態では、HMD100を装着しているユーザ間のコミュニケーションについて主として説明したが、本開示はかかる例に限定されない。例えば、各ユーザが見ている情報は、プロセッサユニット200に接続されたディスプレイ300にも表示させてもよい。例えば図9に示すように、ディスプレイ300に、主となる表示情報600とHMD100を装着している各ユーザが見ている情報とを表示するようにしてもよい。
ディスプレイ300は、例えば共同で作業を行っている作業者のうち、HMD100を装着していない者が主として見る表示装置として利用される。HMD100を装着している作業者が何を見て作業しているかを外部から認識するのは困難である。そこで、ディスプレイにHMD100を装着している作業者が見ている情報を表示することで、HMD100を装着していない作業者もHMD100を装着している作業者が見ている情報を認識できるようになる。これにより、より一層作業者間のコミュニケーションを図り易くすることができる。
ディスプレイ300には、例えば図9に示したように、内視鏡装置10のカメラ映像等のように予め設定された主の表示情報600を表示領域全体に示すとともに、表示領域の一部にHMD100を装着している者の見ている情報を示す。HMD100を装着している者が見ている情報は、図5に示したように、当該情報のサムネイル610、620、630として表してもよい。また、サムネイル610、620、630とともに、どのHMD100に表示されている情報かがわかるように、識別子612、622、632を合わせて表示してもよい。このとき、識別子612、622、632は、予めHMD100とそれを使用するユーザとで対応付けられており、他のユーザはその対応関係を予め認識しておくことで、だれが何の画像を見ているかを把握することが可能となる。
ディスプレイ300の表示は、かかる例以外にも、図6あるいは図7に示したように、HMD100を装着している者が見ている情報をオブジェクトやテキスト情報により表示してもよい。また、その情報を見ている者を特定する情報として、識別子以外にも役割やユーザ名を表示してもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態において、HMD100やディスプレイ300に表示する情報を制御する表示制御部はプロセッサユニット200に設けられていたが、本技術はかかる例に限定されない。例えば、各HMD100に表示制御部の全部または一部の機能を設けるようにしてもよい。
また、上記実施形態では、表示素子として有機EL素子を用いたが、本技術はかかる例に限定されない。例えば、表示素子に液晶表示素子(LCD)等を用いてもよい。
さらに、上記実施形態では、HMD100を装着するユーザが複数存在する状況として、内視鏡システム1を取り上げ、術中における作業者間のコミュニケーションについて説明したが、本技術は他の状況にも適用可能である。例えば、HMD100を装着する複数のユーザで行うゲーム等にも適用可能である。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)頭部装着ディスプレイを装着する複数のユーザがそれぞれ視認している情報を、前記各頭部装着ディスプレイを装着しているユーザが視認できる表示部に表示させる表示制御部を備える、表示制御装置。
(2)前記表示制御部は、前記頭部装着ディスプレイを装着しているユーザが選択している主情報を前記表示部の表示領域に表示し、他の前記頭部装着ディスプレイを装着している各ユーザが視認している情報を表すオブジェクトを前記表示領域の一部に表示する、前記(1)に記載の表示制御装置。
(3)前記オブジェクトは、他の前記頭部装着ディスプレイを装着している各ユーザが視認している映像のサムネイルである、前記(2)に記載の表示制御装置。
(4)前記オブジェクトは、他の前記頭部装着ディスプレイを装着している各ユーザが視認している情報を表すテキスト情報である、前記(2)または(3)に記載の表示制御装置。
(5)前記オブジェクトは、他の前記頭部装着ディスプレイを装着している各ユーザが視認している情報を表すチャートである、前記(2)〜(4)のいずれか1項に記載の表示制御装置。
(6)前記表示制御部は、前記オブジェクトに対応する情報を視認しているユーザを特定する識別情報を、前記オブジェクトとともに表示する、前記(2)〜(5)のいずれか1項に記載の表示制御装置。
(7)前記表示制御部は、他の前記頭部装着ディスプレイを装着している各ユーザが視認している情報が変化したことを表す通知を前記表示領域の一部に表示する、前記(2)〜(6)のいずれか1項に記載の表示制御装置。
(8)前記表示制御部は、さらに前記頭部装着ディスプレイを装着していないユーザが視認可能な表示装置の表示領域に対して、前記頭部装着ディスプレイを装着している複数のユーザが視認している情報を前記表示領域の一部に表示させる、前記(1)〜(7)のいずれか1項に記載の表示制御装置。
(9)前記表示制御部は、前記頭部装着ディスプレイを装着しているユーザの視線を検出する視線検出部からの検出情報に基づいて、当該ユーザが視認している情報を決定する、前記(1)〜(8)のいずれか1項に記載の表示制御装置。
(10)前記複数のユーザがそれぞれ視認している情報は、内視鏡装置により撮像された画像を少なくとも含む、前記(1)〜(9)のいずれか1項に記載の表示制御装置。
(11)表示部と、
頭部装着ディスプレイを装着する複数のユーザがそれぞれ視認している情報を、前記各頭部装着ディスプレイを装着しているユーザが視認できる前記表示部に表示させる表示制御部と、
を備える、表示装置。
(12)前記表示装置は頭部装着ディスプレイである、前記(11)に記載の表示装置。
(13)複数の頭部装着ディスプレイと、前記頭部装着ディスプレイに表示させる情報を制御する表示制御装置と、が通信可能に接続されており、
前記表示制御装置は、
前記頭部装着ディスプレイを装着しているユーザによって選択された情報および他の頭部装着ディスプレイを装着しているユーザが視認している情報を、前記各頭部装着ディスプレイへ出力する、表示制御システム。
1 内視鏡システム
100 HMD
102 リモートコントローラ
110 本体部
152 第1の表示部
154 第2の表示部
162 ディスプレイポート
164 画像生成部
165 第1の表示素子
166 第2の表示素子
167 視線検出部
200 プロセッサユニット
211 画像入力部
212 画像処理部
213 表示制御部
214 出力部
215 操作入力部
300 ディスプレイ
400 外部機器

Claims (16)

  1. ユーザが装着している頭部装着ディスプレイの表示部に表示させる情報を、他の頭部装着ディスプレイを装着するのユーザが視認している情報に基づいて決定する表示制御部を備え、
    前記のユーザが視認している情報は、前記他の頭部装着ディスプレイを装着している前記他のユーザの視線を検出する視線検出部からの検出情報に基づいて決定される、表示制御装置。
  2. 前記表示制御部は、前記頭部装着ディスプレイを装着しているユーザが選択している主情報を前記表示部の表示領域に表示し、前記他の前記頭部装着ディスプレイを装着している前記他のユーザが視認している情報を表すオブジェクトを前記表示領域の一部に表示する、請求項1に記載の表示制御装置。
  3. 前記オブジェクトは、前記他の前記頭部装着ディスプレイを装着している前記他のユーザが視認している映像のサムネイルである、請求項2に記載の表示制御装置。
  4. 前記オブジェクトは、前記他の前記頭部装着ディスプレイを装着している前記他のユーザが視認している情報を表すテキスト情報である、請求項2または3に記載の表示制御装置。
  5. 前記オブジェクトは、前記他の前記頭部装着ディスプレイを装着している前記他のユーザが視認している情報を表すチャートである、請求項2〜4のいずれか1項に記載の表示制御装置。
  6. 前記表示制御部は、前記オブジェクトに対応する情報を視認している前記他のユーザを特定する識別情報を、前記オブジェクトとともに表示する、請求項2〜5のいずれか1項に記載の表示制御装置。
  7. 前記表示制御部は、前記の頭部装着ディスプレイを装着している前記他のユーザが視認している情報が変化したことを表す通知を前記表示領域の一部に表示する、請求項2〜6のいずれか1項に記載の表示制御装置。
  8. 前記表示制御部は、さらに前記頭部装着ディスプレイを装着していないユーザが視認可能な表示装置の表示領域に対して、前記頭部装着ディスプレイを装着している複数のユーザそれぞれが視認している各情報を前記表示領域の一部に表示させる、請求項1〜7のいずれか1項に記載の表示制御装置。
  9. 前記のユーザが視認している情報は、内視鏡装置により撮像された画像を少なくとも含む、請求項1〜8のいずれか1項に記載の表示制御装置。
  10. 前記のユーザが視認している情報は、前記のユーザのうち特定のユーザが手元を見ていることを示す情報を含む、請求項1〜9のいずれか1項に記載の表示制御装置。
  11. 表示部と、
    ユーザが装着している頭部装着ディスプレイの表示部に表示させる情報を、他の頭部装着ディスプレイを装着するのユーザが視認している情報に基づいて決定する決定する表示制御部と、
    を備え、
    前記のユーザが視認している情報は、前記他の頭部装着ディスプレイを装着している前記他のユーザの視線を検出する視線検出部からの検出情報に基づいて決定される、表示装置。
  12. 前記表示装置は頭部装着ディスプレイである、請求項11に記載の表示装置。
  13. 複数の頭部装着ディスプレイと、前記頭部装着ディスプレイに表示させる情報を制御する表示制御装置と、が通信可能に接続されており、
    前記表示制御装置は、
    前記頭部装着ディスプレイを装着しているユーザによって選択された情報および他の頭部装着ディスプレイを装着しているユーザが視認している情報を、前記各頭部装着ディスプレイへ出力し、
    前記ユーザが視認している情報は、前記頭部装着ディスプレイを装着しているユーザの視線を検出する視線検出部からの検出情報に基づいて決定される、表示制御システム。
  14. 複数の頭部装着ディスプレイと、前記頭部装着ディスプレイに表示させる情報を制御する表示制御装置とが通信可能に接続され、前記表示制御装置と医療映像を取得する医療用撮像装置とが通信可能に接続される医療映像システムにおいて、
    前記表示制御装置は、
    前記頭部装着ディスプレイを装着している医療従事者によって選択された情報および他の頭部装着ディスプレイを装着している医療従事者が視認している情報を、前記各頭部装着ディスプレイへ出力し、
    前記医療従事者が視認している情報は、前記頭部装着ディスプレイを装着している医療従事者の視線を検出する視線検出部からの検出情報に基づいて決定される、医療映像システム。
  15. ユーザが装着している頭部装着ディスプレイの表示部に表示させる情報を、他の頭部装着ディスプレイを装着するのユーザが視認している情報に基づいて決定する表示制御部を備え、
    前記のユーザが視認している情報は、内視鏡装置により撮像された画像を少なくとも含む、表示制御装置。
  16. ユーザが装着している頭部装着ディスプレイの表示部に表示させる情報を、他の頭部装着ディスプレイを装着するのユーザが視認している情報に基づいて決定する表示制御部を備え、
    前記表示制御部は、さらに前記頭部装着ディスプレイを装着していないユーザが視認可能な表示装置の表示領域に対して、前記頭部装着ディスプレイを装着している複数のユーザそれぞれが視認している各情報を前記表示領域の一部に表示させる、表示制御装置。
JP2014032008A 2014-02-21 2014-02-21 表示制御装置、表示装置および表示制御システム Expired - Fee Related JP6264087B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014032008A JP6264087B2 (ja) 2014-02-21 2014-02-21 表示制御装置、表示装置および表示制御システム
PCT/JP2015/000673 WO2015125447A1 (en) 2014-02-21 2015-02-13 Display control device, display device and surgical endoscopic system
US15/118,344 US10874284B2 (en) 2014-02-21 2015-02-13 Display control device, display device, surgical endoscopic system and display control system
EP15709758.5A EP3107474B1 (en) 2014-02-21 2015-02-13 Multi-display control device for a surgical system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014032008A JP6264087B2 (ja) 2014-02-21 2014-02-21 表示制御装置、表示装置および表示制御システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017243360A Division JP6617766B2 (ja) 2017-12-20 2017-12-20 医療用観察システム、表示制御システムおよび表示制御装置

Publications (3)

Publication Number Publication Date
JP2015156889A JP2015156889A (ja) 2015-09-03
JP2015156889A5 JP2015156889A5 (ja) 2016-03-31
JP6264087B2 true JP6264087B2 (ja) 2018-01-24

Family

ID=52672287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014032008A Expired - Fee Related JP6264087B2 (ja) 2014-02-21 2014-02-21 表示制御装置、表示装置および表示制御システム

Country Status (4)

Country Link
US (1) US10874284B2 (ja)
EP (1) EP3107474B1 (ja)
JP (1) JP6264087B2 (ja)
WO (1) WO2015125447A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
CN109310476B (zh) * 2016-03-12 2020-04-03 P·K·朗 用于手术的装置与方法
CN108882854B (zh) * 2016-03-21 2022-05-24 华盛顿大学 3d医学图像的虚拟现实或增强现实可视化
CN106385587B (zh) * 2016-09-14 2019-08-02 三星电子(中国)研发中心 分享虚拟现实视角的方法、装置及系统
EP3625649A1 (en) * 2017-05-16 2020-03-25 Koninklijke Philips N.V. Augmented reality for collaborative interventions
JP6996883B2 (ja) 2017-07-05 2022-01-17 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置
EP3705024A4 (en) * 2017-10-31 2020-11-11 Fujifilm Corporation INSPECTION ASSISTANCE DEVICE, ENDOSCOPE DEVICE, INSPECTION ASSISTANCE PROCESS AND INSPECTION ASSISTANCE PROGRAM
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
JP7353886B2 (ja) * 2019-09-18 2023-10-02 Hoya株式会社 内視鏡及び内視鏡システム
US11166006B2 (en) 2020-01-22 2021-11-02 Photonic Medical Inc. Open view, multi-modal, calibrated digital loupe with depth sensing
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
US11883052B2 (en) 2020-10-02 2024-01-30 Cilag Gmbh International End effector updates
US11748924B2 (en) 2020-10-02 2023-09-05 Cilag Gmbh International Tiered system display control based on capacity and user operation
US11911030B2 (en) 2020-10-02 2024-02-27 Cilag Gmbh International Communication capability of a surgical device with component
US11883022B2 (en) 2020-10-02 2024-01-30 Cilag Gmbh International Shared situational awareness of the device actuator activity to prioritize certain aspects of displayed information
US20220104896A1 (en) * 2020-10-02 2022-04-07 Ethicon Llc Interactive information overlay on multiple surgical displays
US11830602B2 (en) 2020-10-02 2023-11-28 Cilag Gmbh International Surgical hub having variable interconnectivity capabilities
US11672534B2 (en) 2020-10-02 2023-06-13 Cilag Gmbh International Communication capability of a smart stapler
US11877792B2 (en) 2020-10-02 2024-01-23 Cilag Gmbh International Smart energy combo control options
US11877897B2 (en) 2020-10-02 2024-01-23 Cilag Gmbh International Situational awareness of instruments location and individualization of users to control displays
US20220110504A1 (en) * 2020-10-14 2022-04-14 Covidien Lp Medical device imaging systems and methods
US20220257332A1 (en) * 2021-02-17 2022-08-18 Derek Duong Augmented reality dental surgery

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3262849B2 (ja) * 1992-08-14 2002-03-04 オリンパス光学工業株式会社 立体像観察システムおよび内視鏡画像観察システム
JP2001104331A (ja) 1999-10-06 2001-04-17 Olympus Optical Co Ltd 医療用顔面装着型映像表示装置
JP2001117046A (ja) 1999-10-22 2001-04-27 Shimadzu Corp 視線検出機能付ヘッドマウントディスプレイシステム
WO2003042968A1 (en) * 2001-11-14 2003-05-22 The Henry M. Jackson Foundation Method and system for presenting real time physiological information through a head mounted display
JP4065507B2 (ja) 2002-07-31 2008-03-26 キヤノン株式会社 情報提示装置および情報処理方法
JP5245257B2 (ja) * 2006-11-22 2013-07-24 ソニー株式会社 画像表示システム、表示装置、表示方法
NZ582133A (en) 2007-05-18 2012-12-21 Uab Research Foundation Virtual reality system that reders common view to multiple users for medical image manipulation
JP2009095598A (ja) 2007-10-19 2009-05-07 Mitaka Koki Co Ltd ヘッドマウント型双眼ルーペ装置
JP2010250789A (ja) 2008-06-10 2010-11-04 Akira Tomono カメラ付き表示装置
KR101038417B1 (ko) * 2009-02-11 2011-06-01 주식회사 이턴 수술 로봇 시스템 및 그 제어 방법
US20110046459A1 (en) * 2009-06-15 2011-02-24 O2 Medtech, Inc. Non-Invasive Patient Monitoring Using Near Infrared Spectrophotometry
JP5423716B2 (ja) * 2011-03-30 2014-02-19 ブラザー工業株式会社 ヘッドマウントディスプレイ
US8832233B1 (en) * 2011-07-20 2014-09-09 Google Inc. Experience sharing for conveying communication status
JP5730177B2 (ja) * 2011-11-21 2015-06-03 独立行政法人国立がん研究センター 電子内視鏡システム
JP5966510B2 (ja) 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
US9019174B2 (en) 2012-10-31 2015-04-28 Microsoft Technology Licensing, Llc Wearable emotion detection and feedback system
US9710968B2 (en) * 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
CN105027190B (zh) * 2013-01-03 2019-06-21 美达视野股份有限公司 用于虚拟或增强介导视觉的射出空间成像数字眼镜
BR112015019674A2 (pt) * 2013-02-14 2017-07-18 Seiko Epson Corp display instalado na cabeça e método de controle para display instalado na cabeça
CA2905427C (en) * 2013-03-11 2022-07-12 Magic Leap, Inc. System and method for augmented and virtual reality
US10042598B2 (en) * 2013-07-16 2018-08-07 Seiko Epson Corporation Information processing apparatus, information processing method, and information processing system

Also Published As

Publication number Publication date
US10874284B2 (en) 2020-12-29
US20170172381A1 (en) 2017-06-22
EP3107474A1 (en) 2016-12-28
JP2015156889A (ja) 2015-09-03
WO2015125447A1 (en) 2015-08-27
EP3107474B1 (en) 2019-09-18

Similar Documents

Publication Publication Date Title
JP6264087B2 (ja) 表示制御装置、表示装置および表示制御システム
JP6574939B2 (ja) 表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイ
JP6693507B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
EP3146715B1 (en) Systems and methods for mediated-reality surgical visualization
US9898662B2 (en) Information processing apparatus, information processing method, and information processing system
TWI534476B (zh) 頭戴式顯示器
US9507155B2 (en) Head-mounted display
JP2013195924A (ja) ヘッドマウントディスプレイ
US11094283B2 (en) Head-wearable presentation apparatus, method for operating the same, and medical-optical observation system
JP6311393B2 (ja) 情報処理装置、情報処理方法、および、情報処理システム
JP6589855B2 (ja) 頭部装着ディスプレイ、制御装置および制御方法
JP2016189120A (ja) 情報処理装置、情報処理システム、及び頭部装着ディスプレイ
US11081015B2 (en) Training device, training method, and program
JP6617766B2 (ja) 医療用観察システム、表示制御システムおよび表示制御装置
JP2017049553A (ja) 頭部装着装置の製造方法および頭部装着装置
US20170242482A1 (en) Training device, corresponding area specifying method, and program
JP2019101293A (ja) 頭部装着型表示装置、表示システム及び表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171204

R151 Written notification of patent or utility model registration

Ref document number: 6264087

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees