JP2019005095A - 遠隔支援システム、情報提示システム、表示システムおよび手術支援システム - Google Patents

遠隔支援システム、情報提示システム、表示システムおよび手術支援システム Download PDF

Info

Publication number
JP2019005095A
JP2019005095A JP2017122771A JP2017122771A JP2019005095A JP 2019005095 A JP2019005095 A JP 2019005095A JP 2017122771 A JP2017122771 A JP 2017122771A JP 2017122771 A JP2017122771 A JP 2017122771A JP 2019005095 A JP2019005095 A JP 2019005095A
Authority
JP
Japan
Prior art keywords
image
support
projection
unit
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017122771A
Other languages
English (en)
Other versions
JP6773609B2 (ja
Inventor
福田 登仁
Takahito Fukuda
登仁 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Westunitis Co Ltd
Original Assignee
Westunitis Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Westunitis Co Ltd filed Critical Westunitis Co Ltd
Priority to JP2017122771A priority Critical patent/JP6773609B2/ja
Priority to US16/014,342 priority patent/US20180373291A1/en
Priority to EP18179108.8A priority patent/EP3429199A3/en
Priority to CN201810649173.4A priority patent/CN109120811A/zh
Publication of JP2019005095A publication Critical patent/JP2019005095A/ja
Application granted granted Critical
Publication of JP6773609B2 publication Critical patent/JP6773609B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00005Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • G06T3/608Rotation of whole images or parts thereof by skew deformation, e.g. two-pass or three-pass rotation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00071Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for characterised by the action taken
    • H04N1/00082Adjusting or controlling
    • H04N1/00087Setting or calibrating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00095Systems or arrangements for the transmission of the picture signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00129Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a display device, e.g. CRT or LCD monitor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00249Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Overhead Projectors And Projection Screens (AREA)

Abstract

【課題】 投影対象の所定の位置に画像を表示することのできる支援システムを提供する。
【手段】
撮像部13による撮像画像は、送信画像送信手段18によって支援側装置30に送信される。受信された撮像画像は撮像画像表示部24に表示される。支援者は、撮像画像表示部24の画面を見ながら、支援画像入力部26を操作し、撮像画像中のスイッチ4cの周囲を取り囲むように丸印を描画する。当該支援画像(丸印の画像)は作業側装置10に送信される。支援画像受信手段20は、これを受信し、補正手段16は、推定した位置関係に基づいて、投影部12が支援画像データが歪みなく、スイッチ4cの周りに正しく表示されるように補正する。このようにして、支援者の意図する支援画像が、作業側においてリアルタイムに投影されるようにすることができる。
【選択図】 図1

Description

この発明は、プロジェクタを用いた遠隔支援システム等に関するものである。
プロジェクタにより、物体表面などに画像を投影するシステムが提案されている。たとえば、プリンタ機器の適切な場所に印刷待ちのジョブを表示したり、ジョブ完了までの予想時間を表示したりするような情報提示に用いることができる。
特許文献1には、このような表示を行う際に、プロジェクタと物体との位置関係を把握し、物体表面に歪み無く画像が表示されるように制御するシステムが開示されている。物体表面とプロジェクタとの位置関係(距離や角度など)を検出し、これに応じてプロジェクタから投影する画像を修正して、物体表面に歪みのない画像を投影している。
特表2006−507713
しかしながら、特許文献1のような従来技術では、プロジェクタと物体との位置関係が動的に変化した場合には、物体表面に安定した画像を投影することはできなかった。このため、人体など移動するものに装着したプロジェクタから、作業場所や案内などを表示する場合に用いることが困難であった。
この発明は上記のような問題点を解決して、プロジェクタと投影対象との位置関係が動的に変化する場合であっても、投影対象の所定の位置に画像を表示することのできる支援システム等を提供することを目的とする。
この発明の独立して適用可能ないくつかの特徴を列挙する。
(1)この発明に係る遠隔作業支援システムは、支援側装置と作業側装置とを備えた遠隔作業支援システムであって、
前記作業側装置は、可動物または固定物に装着され、作業対象領域を撮像して撮像画像を生成する撮像部と、送信部により、前記撮像画像を前記支援側装置に送信する撮像画像送信手段と、可動物または固定物に装着され、与えられた支援画像データに基づいて、前記作業対象領域に支援画像を投影する投影部と、前記撮像画像に含まれる前記作業対象領域に設けられたマーカの画像または前記撮像画像に含まれる前記作業対象領域の特徴点に基づいて、あるいはその双方に基づいて、前記作業対象領域の所定部位を基準として前記支援画像が表示されるように前記支援画像データを補正する補正手段とを備え、
前記支援側装置は、受信部により、送信されてきた撮像画像を受信する撮像画像受信手段と、受信した撮像画像を表示する撮像画像表示部と、表示部に表示された撮像画像上で、作業対象領域の所望の位置に支援画像を入力する支援画像入力部と、送信部により、撮像画像上の位置を特定した支援画像データを前記作業側装置に送信する支援画像送信手段とを備えたことを特徴としている。
したがって、遠隔から支援画像を送信し、投影部や対象物が移動したとしても作業対象領域の指定の位置にこれを適切に表示することができる。
(2)(3)この発明に係る作業側装置は、遠隔作業支援システムのための作業側装置であって、可動物または固定物に装着され、作業対象領域を撮像して撮像画像を生成する撮像部と、送信部により、前記撮像画像を前記支援側装置に送信する撮像画像送信手段と、可動物または固定物に装着され、与えられた支援画像データに基づいて、前記作業対象領域に支援画像を投影する投影部と、前記撮像画像に含まれる前記作業対象領域に設けられたマーカの画像または前記撮像画像に含まれる前記作業対象領域の特徴点に基づいて、あるいはその双方に基づいて、前記作業対象領域の所定部位を基準として前記支援画像が表示されるように前記支援画像データを補正する補正手段とを備えている。
したがって、遠隔から支援画像を送信し、投影部や対象物が移動したとしても作業対象領域の指定の位置にこれを適切に表示することができる。
(4)(5)この発明に係る支援側装置は、作業側において、可動物または固定物に装着され、作業対象領域を撮像して撮像画像を生成する撮像部と、可動物または固定物に装着され、与えられた支援画像データに基づいて、前記作業対象領域に支援画像を投影する投影部とを有する遠隔作業支援システムのための支援側装置であって、受信部により、送信されてきた撮像画像を受信する撮像画像受信手段と、受信した撮像画像を表示する撮像画像表示部と、表示部に表示された撮像画像上で、作業対象領域の所望の位置に支援画像を入力する支援画像入力部と、前記投影部により、前記支援画像入力部によって入力された支援画像を、前記作業側の前記作業対象領域に投影するために、送信部により、撮像画像上の位置を特定した支援画像データを前記作業側装置に送信する支援画像送信手段とを備えている。
したがって、遠隔から支援画像を送信し、投影部や対象物が移動したとしても作業対象領域の指定の位置にこれを適切に表示することができる。
(6)(7)この発明に係る情報提示システムは、可動物または固定物に装着され、投影対象を撮像して撮像画像を生成する撮像部と、前記可動物または固定物に装着され、与えられた投影画像データに基づいて、前記投影対象に投影画像を投影する投影部と、前記撮像画像に含まれる前記投影対象に設けられたマーカの画像または前記撮像画像に含まれる前記投影対象の特徴点に基づいて、前記投影対象の所定部位を基準として前記投影画像が表示されるように前記投影画像データを補正する補正手段とを備えている。
したがって、投影部や対象物が移動したとしても投影対象の所望の位置に固定して投影画像を表示することができる。
(8)この発明に係るシステムは、補正手段は、前記マーカまたは前記作業対象領域の特徴点の撮像画像に基づいて、前記投影部と前記マーカまたは特徴点との位置関係を推定する推定手段を備えており、当該推定された位置関係に基づいて、支援画像データまたは投影画像データを補正することを特徴としている。
したがって、推定した位置関係に基づいて、所定の位置に支援画像または投影画像を安定して表示することができる。
(9)この発明に係るシステムは、投影部は、支援画像に加えて、前記撮像されたマーカまたは特徴点の画像を投影し、補正手段は、前記マーカの投影画像と実際のマーカが合致するように、または、前記作業対象領域の特徴点の投影画像と実際の特徴点が合致するように、支援画像データまたは投影画像データを補正することを特徴としている。
したがって、所定の位置に支援画像または投影画像を安定して表示することができる。
(10)この発明に係るシステムは、撮像画像に含まれる要素画像に対応付けて記録されている支援画像を読み出して補正手段に与える支援画像選択手段をさらに備えることを特徴としている。
したがって、撮像した要素に対応付けて支援画像を表示することができる。
(11)この発明に係るシステムは、可動物は、ユーザの身体の一部であることを特徴としている。
したがって、ユーザが動いたり体を動かしたりしても、安定した画像表示を行うことができる。
(12)この発明に係るシステムは、投影部は、レーザプロジェクタを備えて構成されており、撮像画像中に人が含まれる場合、当該人の少なくとも目の部分は、前記レーザプロジェクタによるレーザ照射を行わないように制御することを特徴としている。
したがって、レーザによる危険を確実に防止することができる。
(13)(14)この発明に係る手術システムは、与えられた患者の体内を示す非可視光画像データに基づいて、手術部位に患者の体内を示す非可視光画像を投影するための投影部と、手術部位を可視光線以外の照射によって撮像して、手術部位に設けられたマーカの非可視光画像を含む非可視光画像を生成する非可視光画像撮像部と、手術部位を可視光線によって撮像して、少なくとも、前記投影部によって投影されたマーカと、前記手術部位に設けられた実際のマーカを含む可視光画像を生成する可視光画像撮像部と、前記可視光画像に基づいて、前記手術部位と前記投影部との位置関係がリアルタイムに変化したとしても、前記手術部位における体内の位置に合致するように体内の非可視光画像が表示されるように、前記非可視光画像データを補正する補正手段とを備えている。
したがって、患者の体の上に非可視光画像を表示しながら、処置や手術を行うことを実現できる。
(15)(16)この発明に係る手術支援システムは、与えられた患者の体内を示す非可視光画像データに基づいて、手術部位に患者の体内を示す非可視光画像を投影するための投影部と、手術部位を可視光線以外の照射によって撮像して、手術部位に設けられたマーカの非可視光画像を含む非可視光画像を生成する非可視光画像撮像部と、前記非可視光画像に含まれるマーカの非可視光画像に基づいて、前記手術部位と前記投影部との位置関係がリアルタイムに変化したとしても、前記手術部位における体内の位置に合致するように体内の非可視光画像が表示されるように、前記非可視光画像データを補正する補正手段とを備えている。
したがって、患者の体の上に非可視光画像を表示しながら、処置や手術を行うことを実現できる。
(17)この発明に係る手術システムは、非可視光画像は、レントゲン画像、PET画像、SPECT画像のいずれかであり、可視光画像は、通常のカメラ画像であることを特徴としている。
したがって、医用画像を患者の体の対応する部位に表示することができる。
(18)(19)この発明に係る表示システムは、可動物または固定物に装着され、投影対象を撮像して撮像画像を生成する撮像部と、前記可動物または固定物に装着され、与えられた投影画像データに基づいて、前記投影対象に投影画像を投影する投影部と、前記撮像画像に基づいて、投影対象の平坦で模様の少ない領域を探し出し、当該領域に前記投影画像が表示されるように投影画像データを補正する補正手段とを備えている。
したがって、視認性のよい場所に表示を行うことができる。
この発明において「撮像部」は、対象領域を撮像して撮像画像を出力するものをいい、通常のカメラだけでなく、レントゲン画像などを撮像するものも含む概念である。
「撮像画像送信手段」は、実施形態においては、ステップS1がこれに対応する。
「投影部」は、対象領域に投影を行うものをいい、レーザプロジェクタや通常のプロジェクタなどを含む概念である。
「補正手段」は、実施形態においては、ステップS4、S5、ステップS53、ステップS67、ステップS73などがこれに対応する。
「撮像画像受信手段」は、実施形態においては、ステップS41がこれに対応する。
「支援画像入力部」は、支援画像を入力するためのものをいい、マウス、タッチパッド、タッチスクリーンなどを含む概念である。
「支援画像送信手段」は、実施形態においては、ステップS45がこれに対応する。
「非可視光画像」は、レントゲン、電子、赤外線など可視光以外の照射によって生成した画像をいい、当該画像自体は可視的であってもよい。
「非可視光画像撮像部」は、実施形態では、レントゲン撮像装置、PET装置、SPECT装置などがこれに対応する。
「可視光画像撮像部」は、実施形態では、カメラがこれに対応する。
「プログラム」とは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。
この発明の一実施形態による遠隔支援システムの機能構成図である。 遠隔支援システムの現場側の状態を示す図である。 ウエアラブルコンピュータ52の外観を示す図である。 ウエアラブルコンピュータ52のハードウエア構成である。 支援側装置30のハードウエア構成である。 支援処理を示すフロチャートである。 支援側装置の表示画面例である。 支援側装置の表示画面例である。 支援データのデータ構成である。 支援装置側の画像と、現場において表示される画像との関係を示す図である。 アノテーション画像の補正を示す図である。 アノテーション画像の補正を示す図である。 マーカ画像とマーカとの位置合わせを示す図である。 第2の実施形態による手術支援システムの機能構成図である。 手術支援システムの使用状況を示す図である。 コンピュータ110のハードウエア構成である。 ナビゲーションプログラム132のフローチャートである。 第3の実施形態による情報提示システムの機能構成図である。 情報提示システムの使用状態を示す図である。 情報提示プログラムのフローチャートである。 要素画像と支援画像の対応関係を示すデータである。 第4の実施形態による表示システムの機能構成図である。 表示プログラムのフローチャートである。 表示システムにて表示を行う対象領域の例である。
1.第1の実施形態
1.1システムの機能構成
図1に、この発明の一実施形態によるナビゲーションシステムの機能構成を示す。ここでは、機器の調整や修理に訪れた作業者に対して、遠隔にいる支援者が、作業の支援を行う場合について説明する。
投影対象は、たとえば、スイッチ4a、4b、4c、4d等が設けられた機器の表面であるとする。スイッチ4a、4b、4c、4dに近接して、マーカ6が貼り付けられている。このマーカ6は、複数の特徴点を有し、その特徴点の位置関係が予め分かっているものである。また、マーカ6の複数の特徴点は、上下左右に非対称であることが好ましい。
機器の近傍にいる作業者は、作業側装置10を装着している。作業側装置10の投影部12は、支援側装置30からの支援画像データに基づいて、機器に向けて投影を行う。図においては、投影領域2が、投影部12によって投影される領域である。
撮像部13は、投影部12によって投影された投影領域2を撮像する。このとき、マーカ6も撮像されることになる。
補正手段14は、撮像されたマーカ6の画像に基づいて、投影部12とマーカ6の位置関係(方向、距離)を推定する。
また、撮像部13による撮像画像は、送信画像送信手段18によって支援側装置30に送信される。
支援側装置30の撮像画像受信手段22は、これを受信する。受信された撮像画像は撮像画像表示部24に表示される。したがって、遠隔にいる支援者は、撮像画像表示24に表示された画像によって、作業者の見ている状況を知ることができる。
支援者は、音声通信(図示せず)によって作業者に支援を行うが、これだけでは不明瞭であるから、機器に支援画像を投影することで、より優れた支援を行えるようにしている。
たとえば、支援者が機器のスイッチ4cを操作すべきであると考えた場合、撮像画像表示部24の画面を見ながら、支援画像入力部26を操作する。そして、撮像画像中のスイッチ4cの周囲を取り囲むように丸印を描画する。支援画像入力部26はこれを受けて、当該支援画像(丸印の画像)を作業側装置10に送信する。
作業側装置10の支援画像受信手段20は、これを受信して、補正手段16に与える。補正手段16は、先に推定した位置関係に基づいて、投影部12が支援画像データを投影したときに、上記丸印が歪みなく、スイッチ4cの周りに正しく表示されるように、支援画像データを補正する。
このようにして、支援者の意図する支援画像が、作業側においてリアルタイムに投影されるようにすることができる。
作業者が動くことにより、投影部12の投影領域2が2xに移動したとする。この場合も、補正手段16により、スイッチ4cの周りに歪み無く丸印が表示されるように支援画像データが補正される。
以上のようにして、作業者が動いて、装着した作業側装置10の投影部12の方向や距離が変わったとしても、支援者が意図するスイッチ4cの周りに丸印が安定して表示される。
1.2外観及びハードウエア構成
図2に、作業側装置であるウエアラブルコンピュータ52を装着した作業者50を示す。作業者50は、修理や保守などの作業対象である機器9の前に到着すると、首にウエアラブルコンピュータ52を装着する。
図3に、ウエアラブルコンピュータ52を示す。リング部54の接続部53が、マグネットによって着脱可能となっている。取り付け時には、接続部53にてリング部54を開き、首に装着した後にリング部54を閉じる。リング部54の前方には、投影部であるレーザプロジェクタ12、撮像部であるカメラ13が設けられている。
左右本体部56、58には、それぞれ、コンピュータなどの電子回路、バッテリーが収納されている。
図4に、ウエアラブルコンピュータ52のハードウエア構成を示す。CPU60には、メモリ62、通信回路64、不揮発性メモリ66、レーザプロジェクタ12、カメラ13、マイク/スピーカ15が接続されている。
通信回路64は、インターネットを介して支援側装置30と通信するためのものである。不揮発性メモリ66には、オペレーティングシステム68、作業側プログラム70が記録されている。作業側プログラム70は、オペレーティングシステム68と協働してその機能を発揮するものである。
図5に、支援側装置30のハードウエア構成を示す。CPU80には、メモリ82、通信回路84、ハードディスク86、DVD−ROMドライブ88、キーボード/マウス90、ディスプレイ92、マイク/スピーカ93が接続されている。
通信回路84は、インターネットを介してウエアラブルコンピュータ52と通信するためのものである。ハードディスク86には、オペレーティングシステム94、支援側プログラム96が記録されている。支援側プログラム96は、オペレーティングシステム94と協働してその機能を発揮するものである。これらプログラムは、DVD−ROM98に記録されていたものを、DVD−ROMドライブ88を介して、ハードディスク86にインストールしたものである。
1.3遠隔支援処理
図6に、遠隔支援処理における、作業側プログラム70と支援側プログラム96のフローチャートを示す。
ウエアラブルコンピュータ52のCPU60(以下、ウエアラブルコンピュータ52と省略することがある)は、カメラ13によって撮像した機器の画像を、通信回線64を介して支援側装置30に送信する(ステップS1)。支援側装置30のCPU80(以下、支援側装置30と省略することがある)は、通信回路82によってこれを受信し、ハードディスク86に記録する(ステップS41)。
支援側装置30は、受信した撮像画像をディスプレイ92に表示する(ステップS41)。支援者は、このディスプレイ92に表示された撮像画像を見て、作業者のいる現場の状況を把握する。
図10Aの左側が現場の状況であり、図10Aの右側が支援者側のディスプレイ92の画面である。図10Aにおいて、破線は投影領域(=撮像領域)2を示している。
図7に、図10A右側に示すディスプレイ92表示画面の詳細をを示す。機器のスイッチ4a、4b、4cとともに、マーカ6が映し出されている。このマーカ6の大きさは既知である。なお、マーカ6は、予め、機器に貼り付けておいてもよいし、作業者がその場所に行った時に貼り付けるようにしてもよい。
次に、支援者はディスプレイ92に表示された撮像画像を見ながら、作業者に対しマイク/スピーカ93を使って支援を行う。この際、音声だけでは適切な支援を行うのが困難であるので、以下のようにして、作業者の側にある機器に直接、アノテーションを表示するようにしている。
たとえば、支援者がディスプレイ92を見て、作業者に対し機器のスイッチ4bをオンにするよう支援をしたいと考えたとする。この場合、、キーボード/マウス90を操作して、図7の支援開始ボタン102をクリックする。これにより、支援側装置30は、支援開始ボタン102がクリックされた時点において表示されていた撮像画像を静止画として表示する。すなわち、図10B右側に示すように、リアルタムに表示されていた撮像画像を、支援開始ボタン102がクリックされた時点の静止画として固定表示する。
したがって、作業者が頭を動かしたり移動したりして、撮像範囲2が変化したとしても、図10Cに示すように、支援者側のディスプレイ92の表示は固定される。
さらに、支援側装置30は、通信回路84により、支援アノテーションが開始された旨をウエアラブルコンピュータ52に送信する(ステップS43)。ウエアラブルコンピュータ52は、これを受けて、その時点で撮像された撮像画像を基準撮像画像として不揮発性メモリ66に記録する(ステップS2)。すなわち、支援側装置30においてアノテーション入力のために表示されている撮像画像と同じ撮像画像を基準撮像画像として記録する。
支援者は、支援側装置30のディスプレイ92を見ながら、キーボード/マウス90を操作して、図8に示すように、スイッチ4bの周りにアノテーション8(ここでは丸印)を描画する。支援者は、アノテーション8の描画が終了すると、描画終了ボタン104をクリックする(ステップS44)。図10C右側の図参照のこと。支援装置30は、これを受けて、アノテーション8の画像と座標位置を、ウエアラブルコンピュータ52に送信する(ステップS45)。
図9に、送信されるデータのデータ構造を示す。画像データは、アノテーション8の実体データである。ここでは、丸の画像データとなる。丸印などの場合には、半径、線の種類などのデータによって表してもよい。座標は、当該画像の基準位置の座標である。円の中心を基準位置とした場合、図8に示すように、画面左上からの距離X、Yによって示される。基準位置としては、円の中心、左上の座標などを用いることができる。
ウエアラブルコンピュータ52は、これを受信し、ステップS2において記録した基準撮像画像のマーカ6に基づいて、送信されてきたアノテーション画像の位置や大きさを推定する(ステップS3)。すなわち、図8に示す基準撮像画像上で、スイッチ4bの周囲にアノテーション8があることを決定する(マーカ6とのとの関係において、アノテーション8のあるべき位置を決定する)。
次に、ウエアラブルコンピュータ52は、決定した位置(スイッチ4bの周囲)にアノテーション8が正しく表示されるように、現在の撮像画像に基づいて支援画像を修正する(ステップS5)。
支援画像の修正処理について説明すると以下のとおりである。図8が、基準撮像画像におけるアノテーション8を示す図である。この基準撮像画像は、図10Bの右側に示すような撮像範囲2にて撮像されたものである。
もし、レーザプロジェクタ12、カメラ13が固定されているのであれば、基準撮像画像に含まれるマーカ画像により、レーザプロジェクタ12(カメラ13)とマーカ6との角度、距離を算出し、図11Aに示すようにアノテーション画像を補正すればよい。図11Aにおいて、破線で示すのがレーザプロジェクタ12に入力可能な投影画像領域9である。実線が修正された支援画像の外枠である。矩形の支援画像を、実線に示すように変形して修正している。図11Aでは、支援画像の左上を左右に縮小し、左上を上下に縮小している。このような変形は、図10B右側の撮像領域2に対応するものである。これに伴って、アノテーション8の画像も変形されて楕円になる。修正されたアノテーション画像は、図11Bのようになる。
修正されたアノテーション画像が、レーザプロジェクタ12によって投影されると、アノテーション8が正しい位置(スイッチ4bの周り)に、意図した形状(円形)にて表示されることになる。なお、レーザプロジェクタ12を用いた場合、アノテーション画像のある部分だけ照射を行うことができるので、その他の箇所には照射は行われず、アノテーション8を違和感なく表示させることができる。
レーザプロジェクタ12、カメラ13が固定されているのであれば、上記のように修正を行うだけでよい。しかし、この実施形態では、レーザプロジェクタ12、カメラ13が作業者に取り付けられており、リアルタイムにその位置が変化することになる。このため、作業者との関係においては、アノテーション8が正しく表示されたとしても(たとえば、常に作業者の真正面に表示されたとしても)、スイッチ4bの周りに表示されない事態となってしまう。
そこで、この実施形態では、作業者が動いたとしても、最新の撮像画像に含まれるマーカ画像に基づき、表示されるべき部位において安定的に表示されるようにアノテーション画像を修正している。たとえば、作業者が左側に移動した場合、図12Aに示すように、アノテーション画像の右側部分15は削除するように修正を行う。したがって、修正されたアノテーション画像は図12Bのようになる。これにより、作業者の移動にも拘わらず、アノテーション8はスイッチ4bの周りに表示されることになる。
なお、作業者との距離や角度が変化した場合も、同様にアノテーション画像を修正することで、正しい位置に正しい形状でアノテーションを表示することができる。
ウエアラブルコンピュータ52は、このようにして修正されたアノテーション画像を、レーザプロジェクタ12によって投影する(ステップS6)。このようにして、意図した位置に意図した形状でアノテーション8が表示される。
以上の処理を繰り返すことで、アノテーション8を安定して表示させることができる。なお、支援側装置30から新たに支援アノテーションの開始が送信されてくるまでは、ウエアラブルコンピュータ52の側は、ステップS2、S3は行わなくともよい。
1.4その他の例
(1)上記実施形態では、マーカ6の撮像画像を用いてレーザプロジェクタ12(カメラ13)と投影対象(マーカ6)との位置関係を推定するようにしている。しかし、マーカを用いずに、画像中の各特徴点との距離を深度センサや距離センサ等によって計測し、レーザプロジェクタ12(カメラ13)と投影対象の位置関係を推定するようにしてもよい。また、画像の特徴点との距離を深度センサや距離センサ等によって計測し、その特徴点の移動をオプチカルフローなどによって判断して、前記位置関係を推定するようにしてもよい。
また、予め作業場所おける特徴点の画像を不揮発性メモリ66に記憶しておき(あるいは支援側装置30に記録しておいてダウンロードしても良い)、これをレーザプロジェクタ12によって表示するようにしてもよい。このようにして、作業場所に表示されたスイッチの画像(特徴点の画像)41a、41b、41cを図13に示す。画像41aはスイッチ4aの画像、画像41bはスイッチ4bの画像、画像41cはスイッチ4cの画像である。
図13に示すように、実際のスイッチ4a、4b、4cと投影された画像41a、41b、41cはずれている。作業者は、ウエアラブルコンピュータ52のタッチパネル(図示せず)を操作し、画像41a、41b、41cをそれぞれ矢印の方向に移動させて(ドラッグして)、また、大きさを変更して(ピンチ操作をして)、実際のスイッチ4a、4b、4cと合致させる。
ウエアラブルコンピュータ52は、当初の画像の設定値(方向、角度など)および上記の操作量に基づいて、レーザプロジェクタ12(カメラ13)と投影対象の位置関係を推定する。この場合も、マーカを用いる必要はない。
(2)上記実施形態では、図形をアノテーションとして投影するようにしている。しかし、文字などをアノテーションとして投影するようにしてもよい。
(3)上記実施形態では、複数の特徴点を持つマーカMを用いている。しかし、特徴点が一つ(単純な丸印など)のマーカMを複数個用いるようにしてもよい。この場合、各マーカMの配置は、予め定められた位置に置くようにする。
(4)上記実施形態では、レーザプロジェクタ12を用いているが、通常のプロジェクタを用いてもよい。
(5)上記実施形態では、補正手段16は、レーザプロジェクタ12と投影対象の位置関係を推定し、この推定した位置関係に基づいて、支援画像を補正するようにしている。しかし、以下のようにして補正を行ってもよい。投影部12から撮像したマーカ6の画像も投影するようにし、投影されたマーカ6の画像と、実際のマーカ6が合致するように(撮像部13の撮像画像によって確認できる)、投影部12から投影する画像(支援画像およびマーカ6の画像)を補正する。
(6)上記実施形態では、スイッチ4を対象として支援画像を表示するようにしている。しかし、支援画像を表示する対象は、表示器、コネクタなど、支援が必要な部位であればどこであってもよい。
(7)上記実施形態では、支援画像の照射方向に人がいる場合であっても、支援画像を投影するようにしている。しかし、カメラ13にて撮像した方向に人がいる場合、当該人の方向に対してはレーザを照射しないように制御してもよい。精度よく制御できるのであれば、当該人の目の位置を認識し、目の方向に対してはレーザを照射しないようにしてもよい。
(8)上記実施形態では、人の首ににレーザプロジェクタ12、カメラ13を固定している。しかし、手首、頭などその他の人体の一部に固定するようにしてもよい。また、眼鏡、ベルト、ネックレスなどの部材を介して人体の一部に固定するようにしてもよい。
(9)上記実施形態およびその他の例は、その本質に反しない限り、他の実施形態にも適用することができる。
2.第2の実施形態
2.1システムの機能構成
図14に、この発明の一実施形態によるナビゲーションシステムの機能構成を示す。ここでは、医師などが手術を行う際に、ナビゲーションを行う場合について説明する。
レントゲン撮像部13は、非可視光画像撮像部としてのレントゲン写真撮像装置である。非可視光画像撮像部としては、レントゲン写真撮像装置の他、PET装置、SPECT装置などを用いることができる。
このレントゲン撮像部13は、手術対象である患者の患部のレントゲン写真を撮像するものである。なお、この実施形態では、患者の患部に複数のマーカM(金属などレントゲン写真にて判別できるもの)を貼り付けるようにしている。図において、破線で示すのは撮像領域2である。
投影部12は、レントゲン撮像部13によって撮像されたレントゲン写真を投影領域2(撮像流域2と重複している)に投影する。たとえば、撮像領域2が患者の関節であった場合、関節のレントゲン写真とともに撮像されたマーカMが投影されることになる。
撮像部15は、可視光画像撮像部としての通常のカメラである。撮像部15は、投影部によって投影されたマーカMのレントゲン画像と、実際のマーカMの双方を撮像する。
補正手段16は、撮像部15の撮像画像に基づき、投影された複数のマーカMの画像と患部に貼られた複数のマーカMが合致するように、投影部12に与える投影画像を修正する。このようにマーカMの画像をマーカMに合致させることにより、患部に投影されたレントゲン画像が、骨のある位置に合致して表示されることになる。また、骨の中に入った手術器具21(たとえば手術用ドリル)の位置も、レントゲン写真として対応する位置に表示されることになる。
患者が動いて患部が移動すると、マーカMも移動するので、撮像部13によって撮像されるレントゲン画像においてマーカMの画像が変化することになる。補正手段16は、マーカMの画像がマーカMと合致するように、推定された位置関係に基づいて、投影画像を補正する。これにより、患部が移動したとしても、それに追随して、骨のある位置に対応するようにレントゲン画像を表示することができる。
したがって、医師は、このレントゲン画像によって骨と手術器具21の関係を正しく把握し、手術を正確に行うことができる。
2.2外観及びハードウエア構成
図15に、医師による手術支援システム11の使用状態を示す。手術台の上に患者が横たわっており、覆布100がかけられている。覆布100の一部には、開口部102が設けられ、患部が見えるようになっている。この患部のレントゲン写真を撮像するためのレントゲン撮像装置13が設けられている。また、ほぼ同じ位置に、同じ方向を向いて、患部に対して投影を行うレーザプロジェクタ12が設けられている。さらに、通常のカメラ15が設けられている。なお、通常のカメラ15は、少なくとも患部が撮像できることが必要であり、レントゲン撮像装置13やレーザプロジェクタ12と同じ位置・方向であることが好ましい。
制御部104は、レントゲン撮像装置13からのレントゲン画像を受けて、カメラ15の撮像画像に基づいて、レントゲン画像を補正し、レーザプロジェクタ12によって投影する。
医師は、患部に投影された患部のレントゲン画像と手術用ドリルの先端部のレントゲン画像に基づいて、手術に必要な正しい位置に穴をあけることができる。
図16に、制御部104をコンピュータ110によって構成した場合のハードウエア構成を示す。CPU120には、メモリ122、ハードディスク126、DVD−ROMドライブ128、レーザプロジェクタ12、レントゲン撮像装置13、カメラ15が接続されている。
ハードディスク126には、オペレーティングシステム130、ナビゲーションプログラム132が記録されている。ナビゲーションプログラム132は、オペレーティングシステム130と協働してその機能を発揮するものである。これらプログラムは、DVD−ROM134に記録されていたものを、DVD−ROMドライブ128を介して、ハードディスク126にインストールしたものである。
2.3支援処理
手術や処置を行う際に、手術台100の上に横たわった患者の患部に複数のマーカMを貼り付ける。たとえば、大腿骨の手術を行う場合、大腿骨周辺の皮膚表面にマーカMを貼り付ける。この実施形態では、マーカMとして、レントゲン画像としてその他の部分と認識可能な材質(セラミックなど)を用いている。また、この実施形態では、第1の実施形態とは異なり、マーカMとして複数の特徴点が認識可能なものではなく、全体を一つの特徴点として認識するためのものを用いている。したがって、複数のマーカM(少なくとも3つ)を用いることが必要である。
図17に、ナビゲーションプログラム132のフローチャートを示す。コンピュータ110のCPU120(以下、コンピュータ110と省略することがある)は、レントゲン画像撮像装置13によって撮像された患部のレントゲン画像を取得する(ステップS51)。さらに、カメラ15によって撮像された患部の画像を取得する(ステップS52)。
コンピュータ110は、このレントゲン画像をレーザプロジェクタ12によって患部に投影する(ステップS54)。このレントゲン画像には、患部の骨のレントゲン画像だけでなく、マーカMの画像も含まれることになる。
ただし、マーカMの画像は、実際の患部に貼られたマーカMとは異なった位置に表示されることになる。そこで、コンピュータ110は、レントゲン画像に対応するカメラ画像を参照して、両者が合致するように制御を行う。すなわち、投影された複数のマーカMのレントゲン画像が、それぞれ患部に貼られた対応する実際のマーカMと合致するように、レントゲン画像を補正する(ステップS53)。これにより、レントゲン画像による骨の画像と実際の骨の位置とを対応させることができる。
一旦、マーカMを合致させることができれば、患部が動いたとしても、以降はこのときの補正パラメータを用いてレントゲン画像を修正すれば、マーカMの位置が合致することになる。もちろん、ずれが生じた場合には、再補正を行えばよい。
以上のようにして、患部の皮膚表面にレントゲン画像が骨の位置に合致するように表示される。したがって、医師はこのレントゲン画像を見ながら位置を確認しつつ、手術用ドリル21などで処置を行うことができる。また、手術用ドリル21の先端のドリル部分は金属であることから、これもレントゲン画像に現れるので、正しい方向・位置に穴を開けることができているかどうかを確認することができる。
2.4その他の例
(1)上記実施形態では、マーカMを複数個患部に貼り付け、このレントゲン画像に基づいて、投影画像を修正するようにしている。しかし、特徴点の複数個ある1つのマーカM(第1の実施形態におけるマーカ6)を用いるようにしてもよい。マーカMの各特徴点のレントゲン画像上の位置が、実際のマーカMの特徴点に合致するように、投影画像を修正する。
この場合、マーカMの模様(たとえばMの文字)は、レントゲン画像において区別できるような材質とすることが好ましい。たとえば、マーカMの基板をプラスチック(レントゲン透過性材料)とし、模様をセラミック(レントゲン非透過性材料)としたり、マーカMの基板を模様をセラミック(レントゲン非透過性材料)とし、プラスチック(レントゲン透過性材料)としたりすることができる。
(2)上記実施形態では、レントゲン画像を用いた場合について説明したが、PET画像、SPECT画像についても同じように適用することができる。この場合、マーカMは、PET画像、SPECT画像などで区別可能となるような材質を用いるようにする。
(3)上記実施形態では、レントゲン撮像装置13とは別にカメラ15を設けるようにしている。しかし、カメラ15を設けずに、レントゲン画像の補正を行うようにしてもよい。
この場合、第1の実施形態と同じように、複数の特徴点が既知であるマーカや定められた間隔・位置に複数のマーカを配置するようにする。このようにすれば、レントゲン画像に基づいて、レーザプロジェクタ12から患部までの位置関係を推定し、推定した位置関係に基づいて、患部の皮膚表面にレントゲン画像が骨の位置に合致して表示されるように、レントゲン画像を補正することができる。
(4)上記実施形態では、作業者にカメラ13、レーザプロジェクタ12を固定しているが、ロボット、車などに固定するようにしてもよい。また、柱など移動しないものにカメラ13、レーザプロジェクタ12を固定してもよい。
(5)上記実施形態では、投影画像を補正することによって位置合わせを行うようにしている。しかし、レーザプロジェクタ12またはレントゲン撮像装置のいずれか一方のみを移動(方向・位置などの移動)させることで位置合わせを行うようにしてもよい。この場合、自動で位置合わせを行ってもよいし、手動で位置合わせを行ってもよい。
(6)上記実施形態およびその他の例は、その本質に反しない限り、他の実施形態にも適用することができる。
3.第3の実施形態
3.1システムの機能構成
図18に、この発明の一実施形態によるナビゲーションシステム27の機能構成を示す。投影対象2は、たとえば機器のパネルなどである。図18に示す例では、投影対象2である機器のパネルには、コネクタ5aやLED表示器5bなどが設けられている。この実施形態では、マーカは設けられていない。ここでは、作業者に対して、パネルに設けられているコネクタなどの説明をナビゲーションする場合の動作について説明する。
投影部12は、たとえば、作業者の頭部に装着されたレーザプロジェクタなどであり、投影対象2に対して投影を行うものである。ここでは、コネクタ5aやLED表示器5bに関して、それを説明するアノテーション8a、8bを投影するものとする。この投影部12と同じ位置、同じ向きに撮像部13が装着されている。したがって、撮像部13は、投影部12による投影対象2を撮像することになる。なお、この実施形態では、撮像部13は、通常のカメラを用いている。
ナビゲーションシステム27には、予め、コネクタ5aやLED表示器5bなどの画像(正面から見た画像)に対応付けて、当該画像およびその説明が支援画像23として記録されている。
支援画像選択手段21は、撮像したパネルの画像中に、予め記録しているコネクタ5aやLED表示器5bなどの画像と合致するものを見いだす。さらに、見いだした画像に対応する、支援画像23(画像および説明)を読み出して、補正手段16に与える。
補正手段16は、投影部12によって投影された画像(たとえばコネクタ5aの画像)が、パネル上にある実際の要素(たとえばコネクタ5a)に合致して表示されるように、支援画像23を補正する。
したがって、それぞれ、コネクタ5aやLED表示器5bなどに関連づけて、正しい位置に支援画像23の説明8a、8bが表示される。
このようにして、作業者の動きに拘わらず、作業者が見ているパネル上の要素について、その説明を要素に対応付けて安定して表示することができる。
3.2外観及びハードウエア構成
図19に、作業側装置であるウエアラブルコンピュータ52を装着した作業者50を示す。作業者50は、修理や保守などの作業対象である機器9の前に到着すると、首にウエアラブルコンピュータ52を装着する。
ウエアラブルコンピュータ52の外観は図3に示すとおりである。また、ハードウエア構成は、図4に示すとおりである。なお、不揮発性メモリ66には、支援プログラム71が記録されている。
3.3支援処理
図20に、支援プログラム71のフローチャートを示す。ウエアラブルコンピュータ52のCPU60(以下、ウエアラブルコンピュータ52と省略することがある)は、カメラ13の画像を取得する(ステップS61)。ウエアラブルコンピュータ52は、このカメラ画像を2値化し、クラスタリングを行って要素画像に分割する(ステップS62)。したがって、カメラ画像中から、パネルにあるスイッチ、コネクタ、表示器、つまみ、ボタンなどの要素画像を抽出することができる。
次に、ウエアラブルコンピュータ52は、抽出した画像要素が、予め記録されている画像と合致するものがあるかどうかを判断する(ステップS64)。
ウエアラブルコンピュータ52の不揮発性メモリ66には、図21に示すように、予めいくつかの機器のパネルにある要素の画像が記録されている。対応する要素画像が見いだされなければ、ウエアラブルコンピュータ52は、抽出した次の要素画像について同じ処理を繰り返す。
対応する要素画像が見いだされれば、ウエアラブルコンピュータ52は、当該要素画像に対応して記録されている支援画像を読み出す(ステップS65)。この実施形態では、当該要素に対する説明の画像だけでなく要素画像そのものも、支援画像に含めるようにしている。これは、要素画像を投影することによって位置合わせを行うためのである。
以上の処理を繰り返し、抽出した要素画像に対応する要素画像があれば、支援画像を読みだす。抽出した全ての要素画像に対する処理を終了すると、ウェアラブルコンピュータ52は、読み出した各要素の支援画像を一つの支援画像にまとめる。この際、各支援画像に対応づけて記録されている他の要素画像との位置関係(項目名「関連」)のデータに基づいてまとめる。「関連」の項目には、近傍の要素画像の代表点(右下の特徴点など)と当該要素画像の代表点との関係が座標によって示されているので、これに基づいて複数の支援画像を一つにまとめる。
続いて、ウエアラブルコンピュータ52は、このようにして生成した支援画像をレーザプロジェクタ12から投影する(ステップS68)。投影された支援画像には、コネクタなどの要素画像が含まれている。この要素画像と、実際の要素(コネクタなど)とはずれて表示されることになる。
そこで、ウエアラブルコンピュータ52は、投影された要素画像と実際の要素が合致するように、支援画像を補正する(ステップS67)。したがって、支援画像に含まれる説明画像が、実際の要素との関係において正しく表示されることになる。
また、作業者が移動したり頭を動かしたりしても、支援画像は正しい位置に固定されて表示されることになる。
3.4その他の例
(1)上記実施形態では、複数の要素に対して同時に支援画像(説明画像)を表示するようにしている。しかし、カメラ画像の最も中心に近い位置にある要素に対してのみ支援画像(説明画像)を表示するようにしてもよい。この場合、支援画像をまとめて一つ支援画像にする必要はない。
(2)上記実施形態では、作業者にカメラ13、レーザプロジェクタ12を固定しているが、ロボット、車などに固定するようにしてもよい。また、柱など移動しないものにカメラ13、レーザプロジェクタ12を固定してもよい。
(3)上記実施形態では、マーカや特徴点を用いずに支援画像の位置合わせを行っている。しかし、第1の実施形態や第2の実施形態に示すように、マーカを用いて位置合わせを行うようにしてもよい。
(4)上記実施形態およびその他の例は、その本質に反しない限り、他の実施形態にも適用することができる。
4.第4の実施形態
4.1システムの機能構成
図22に、この発明の第4の実施形態による表示システムの機能構成を示す。撮像部13は投影対象2を撮像する。投影対象2には、柱33による凹凸があり、上部には模様31が描かれている。補正手段16は、撮像画像に基づいて、模様がなく平坦な部分を見いだす。さらに、投影画像が当該平坦で模様のない部分に表示されるように、投影画像データを補正する。投影部12は、補正された投影画像データを投影する。
したがって、投影画像であるアノテーション8は、平坦で模様の無い部分に表示される。このようにして、投影画像データを補正することで、より見やすい位置にアノテーション8を表示することができる。
4.2外観及びハードウエア構成
ウエアラブルコンピュータ52の外観は図3に示すとおりである。また、ハードウエア構成は、図4に示すとおりである。なお、不揮発性メモリ66には、表示プログラム73が記録されている。
4.3表示処理
図23に、表示プログラム73のフローチャートを示す。ウエアラブルコンピュータ52のCPU60(以下、ウエアラブルコンピュータ52と省略することがある)は、カメラ13の画像を取得する(ステップS71)。次に、撮像画像に基づいて、平坦で模様の無い部分を決定する(ステップS72)。たとえば、これは、コントラストが一様な部分あるいは濃度が一様な部分を選択することによって決定することができる。
たとえば、投影対象2が、図24に示すように、柱33の凸部があり、模様部分31があるとする。柱33の部分は、その境界において影ができるので濃度が一様とならない。また、模様部分31も濃度が一様でない。したがって、これらの領域を除いた部分が、平坦・無模様の領域とされる。なお、日光の当たっている部分と、日光の当たっていない部分がある場合、別の領域として認識される。
ウエアラブルコンピュータ52は、投影画像がこれら平坦・無模様の領域のうち、最も投影範囲の中心に近い領域を表示のための領域と決定する。決定した領域に投影画像8が投影されるように、投影画像データを補正する(ステップS73)。このようにして補正した投影画像データを、レーザプロジェクタ12から表示する(ステップS74)。
4.4その他の例
(1)上記実施形態では、マーカMを用いていないが、マーカMの撮像画像を用いて投影画像データを補正するようにしてもよい。
(2)上記実施形態では、平坦・無模様部分に投影画像を表示するようにしている。これに加えて、あるいはこれとは別に、投影画像の色が区別できる色を持つ領域(たとえば補色関係にある色を持つ領域)に投影画像を表示するように制御してもよい。また、投影画像を投影すべき領域の色をカメラ画像から取得し、当該領域の色と、投影画像の色が同じような色で区別がつきにくい場合には、投影画像の色を区別がつきやすい色に補正するようにしてもよい。
(3)上記実施形態およびその他の例は、その本質に反しない限り、他の実施形態にも適用することができる。

Claims (19)

  1. 支援側装置と作業側装置とを備えた遠隔作業支援システムであって、
    前記作業側装置は、
    可動物または固定物に装着され、作業対象領域を撮像して撮像画像を生成する撮像部と、
    送信部により、前記撮像画像を前記支援側装置に送信する撮像画像送信手段と、
    可動物または固定物に装着され、与えられた支援画像データに基づいて、前記作業対象領域に支援画像を投影する投影部と、
    前記撮像画像に含まれる前記作業対象領域に設けられたマーカの画像または前記撮像画像に含まれる前記作業対象領域の特徴点に基づいて、あるいはその双方に基づいて、前記作業対象領域の所定部位を基準として前記支援画像が表示されるように前記支援画像データを補正する補正手段とを備え、
    前記支援側装置は、
    受信部により、送信されてきた撮像画像を受信する撮像画像受信手段と、
    受信した撮像画像を表示する撮像画像表示部と、
    表示部に表示された撮像画像上で、作業対象領域の所望の位置に支援画像を入力する支援画像入力部と、
    送信部により、撮像画像上の位置を特定した支援画像データを前記作業側装置に送信する支援画像送信手段と、
    を備えたことを特徴とする遠隔作業支援システム。
  2. 遠隔作業支援システムのための作業側装置であって、
    可動物または固定物に装着され、作業対象領域を撮像して撮像画像を生成する撮像部と、
    送信部により、前記撮像画像を前記支援側装置に送信する撮像画像送信手段と、
    可動物または固定物に装着され、与えられた支援画像データに基づいて、前記作業対象領域に支援画像を投影する投影部と、
    前記撮像画像に含まれる前記作業対象領域に設けられたマーカの画像または前記撮像画像に含まれる前記作業対象領域の特徴点に基づいて、あるいはその双方に基づいて、前記作業対象領域の所定部位を基準として前記支援画像が表示されるように前記支援画像データを補正する補正手段と、
    を備えた作業側装置。
  3. 可動物または固定物に装着され、作業対象領域を撮像して撮像画像を生成する撮像部と可動物または固定物に装着され、与えられた支援画像データに基づいて、前記作業対象領域に支援画像を投影する投影部とを有する遠隔作業支援システムのための作業側装置をコンピュータによって実現するための作業側プログラムであって、コンピュータを、
    送信部により、前記撮像画像を前記支援側装置に送信する撮像画像送信手段と、
    前記撮像画像に含まれる前記作業対象領域に設けられたマーカの画像または前記撮像画像に含まれる前記作業対象領域の特徴点に基づいて、前記作業対象領域の所定部位を基準として前記支援画像が表示されるように前記支援画像データを補正する補正手段として機能させるための作業側プログラム。
  4. 作業側において、可動物または固定物に装着され、作業対象領域を撮像して撮像画像を生成する撮像部と、可動物または固定物に装着され、与えられた支援画像データに基づいて、前記作業対象領域に支援画像を投影する投影部とを有する遠隔作業支援システムのための支援側装置であって、
    受信部により、送信されてきた撮像画像を受信する撮像画像受信手段と、
    受信した撮像画像を表示する撮像画像表示部と、
    表示部に表示された撮像画像上で、作業対象領域の所望の位置に支援画像を入力する支援画像入力部と、
    前記投影部により、前記支援画像入力部によって入力された支援画像を、前記作業側の前記作業対象領域に投影するために、送信部により、撮像画像上の位置を特定した支援画像データを前記作業側装置に送信する支援画像送信手段と、
    を備えた支援側装置。
  5. 作業側において、可動物または固定物に装着され、作業対象領域を撮像して撮像画像を生成する撮像部と、可動物または固定物に装着され、与えられた支援画像データに基づいて、前記作業対象領域に支援画像を投影する投影部とを有する遠隔作業支援システムのための支援側装置をコンピュータによって実現するための支援側プログラムであって、コンピュータを、
    受信部により、送信されてきた撮像画像を受信する撮像画像受信手段と、
    表示部に表示された撮像画像上で、作業対象領域の所望の位置に支援画像を入力する支援画像入力部と、
    前記投影部により、前記支援画像入力部によって入力された支援画像を、前記作業側の前記作業対象領域に投影するために、送信部により、撮像画像上の位置を特定した支援画像データを前記作業側装置に送信する支援画像送信手段として機能させるための支援側プログラム。
  6. 可動物または固定物に装着され、投影対象を撮像して撮像画像を生成する撮像部と、
    前記可動物または固定物に装着され、与えられた投影画像データに基づいて、前記投影対象に投影画像を投影する投影部と、
    前記撮像画像に含まれる前記投影対象に設けられたマーカの画像または前記撮像画像に含まれる前記投影対象の特徴点に基づいて、前記投影対象の所定部位を基準として前記投影画像が表示されるように前記投影画像データを補正する補正手段と、
    を備えた情報提示システム。
  7. 可動物または固定物に装着され、投影対象を撮像する撮像部と、前記可動物または固定物に装着され、与えられた投影画像データに基づいて、前記投影対象に投影画像を投影する投影部とを有する情報提示システムを、コンピュータによって実現するための情報提示プログラムであって、コンピュータを、
    前記撮像画像に含まれる前記投影対象に設けられたマーカの画像または前記撮像画像に含まれる前記投影対象の特徴点に基づいて、前記投影対象の所定部位を基準として前記投影画像が表示されるように前記投影画像データを補正する補正手段として機能させるための情報提示プログラム。
  8. 請求項1〜7のいずれかのシステム、装置またはプログラムにおいて、
    前記補正手段は、前記マーカまたは前記作業対象領域の特徴点の撮像画像に基づいて、前記投影部と前記マーカまたは特徴点との位置関係を推定する推定手段を備えており、当該推定された位置関係に基づいて、支援画像データまたは投影画像データを補正することを特徴とするシステム、装置またはプログラム。
  9. 請求項1〜8のいずれかのシステム、装置またはプログラムにおいて、
    前記投影部は、支援画像に加えて、前記撮像されたマーカまたは特徴点の画像を投影し、
    前記補正手段は、前記マーカの投影画像と実際のマーカが合致するように、または、前記作業対象領域の特徴点の投影画像と実際の特徴点が合致するように、支援画像データまたは投影画像データを補正することを特徴とするシステム、装置またはプログラム。
  10. 請求項1〜9のいずれかのシステム、装置またはプログラムにおいて、
    前記撮像画像に含まれる要素画像に対応付けて記録されている支援画像を読み出して補正手段に与える支援画像選択手段をさらに備えることを特徴とするシステム、装置またはプログラム。
  11. 請求項1〜10のいずれかのシステム、装置またはプログラムにおいて、
    前記可動物は、ユーザの身体の一部であることを特徴とするシステム、装置またはプログラム。
  12. 請求項1〜11のいずれかのシステム、装置またはプログラムにおいて、
    前記投影部は、レーザプロジェクタを備えて構成されており、
    前記撮像画像中に人が含まれる場合、当該人の少なくとも目の部分は、前記レーザプロジェクタによるレーザ照射を行わないように制御することを特徴とするシステム、装置またはプログラム。
  13. 手術支援システムであって、
    与えられた患者の体内を示す非可視光画像データに基づいて、手術部位に患者の体内を示す非可視光画像を投影するための投影部と、
    手術部位を可視光線以外の照射によって撮像して、手術部位に設けられたマーカの非可視光画像を含む非可視光画像を生成する非可視光画像撮像部と、
    手術部位を可視光線によって撮像して、少なくとも、前記投影部によって投影されたマーカと、前記手術部位に設けられた実際のマーカを含む可視光画像を生成する可視光画像撮像部と、
    前記可視光画像に基づいて、前記手術部位と前記投影部との位置関係がリアルタイムに変化したとしても、前記手術部位における体内の位置に合致するように体内の非可視光画像が表示されるように、前記非可視光画像データを補正する補正手段と、
    を備えた手術支援システム。
  14. 与えられた患者の体内を示す非可視光画像データに基づいて、手術部位に患者の体内を示す非可視光画像を投影するための投影部と、手術部位を可視光線以外の照射によって撮像して、手術部位に設けられたマーカの非可視光画像を含む非可視光画像を生成する非可視光画像撮像部と、手術部位を可視光線によって撮像して、少なくとも、前記投影部によって投影されたマーカと、前記手術部位に設けられた実際のマーカを含む可視光画像を生成する可視光画像撮像部とを備えた手術支援システムをコンピュータによって実現するための手術支援プログラムであって、コンピュータを、
    前記可視光画像に基づいて、前記手術部位と前記投影部との位置関係がリアルタイムに変化したとしても、前記手術部位における体内の位置に合致するように体内の非可視光画像が表示されるように、前記非可視光画像データを補正する補正手段として機能させるための手術支援プログラム。
  15. 手術支援システムであって、
    与えられた患者の体内を示す非可視光画像データに基づいて、手術部位に患者の体内を示す非可視光画像を投影するための投影部と、
    手術部位を可視光線以外の照射によって撮像して、手術部位に設けられたマーカの非可視光画像を含む非可視光画像を生成する非可視光画像撮像部と、
    前記非可視光画像に含まれるマーカの非可視光画像に基づいて、前記手術部位と前記投影部との位置関係がリアルタイムに変化したとしても、前記手術部位における体内の位置に合致するように体内の非可視光画像が表示されるように、前記非可視光画像データを補正する補正手段と、
    を備えた手術支援システム。
  16. 与えられた患者の体内を示す非可視光画像データに基づいて、手術部位に患者の体内を示す非可視光画像を投影するための投影部と、手術部位を可視光線以外の照射によって撮像して、手術部位に設けられたマーカの非可視光画像を含む非可視光画像を生成する非可視光画像撮像部とを備えた手術支援システムをコンピュータによって実現するための手術支援プログラムであって、コンピュータを、
    前記非可視光画像に含まれるマーカの非可視光画像に基づいて、前記手術部位と前記投影部との位置関係がリアルタイムに変化したとしても、前記手術部位における体内の位置に合致するように体内の非可視光画像が表示されるように、前記非可視光画像データを補正する補正手段として機能させるための手術支援プログラム。
  17. 請求項13〜16のいずれかのシステムまたはプログラムにおいて、
    前記非可視光画像は、レントゲン画像、PET画像、SPECT画像のいずれかであり、
    前記可視光画像は、通常のカメラ画像であることを特徴とするシステムまたはプログラム。
  18. 可動物または固定物に装着され、投影対象を撮像して撮像画像を生成する撮像部と、
    前記可動物または固定物に装着され、与えられた投影画像データに基づいて、前記投影対象に投影画像を投影する投影部と、
    前記撮像画像に基づいて、投影対象の平坦で模様の少ない領域を探し出し、当該領域に前記投影画像が表示されるように投影画像データを補正する補正手段と、
    を備えた表示システム。
  19. 可動物または固定物に装着され、投影対象を撮像して撮像画像を生成する撮像部と、前記可動物または固定物に装着され、与えられた投影画像データに基づいて、前記投影対象に投影画像を投影する投影部とを備えた表示システムをコンピュータによって実現するための表示プログラムであって、コンピュータを、
    前記撮像画像に基づいて、投影対象の平坦で模様の少ない領域を探し出し、当該領域に前記投影画像が表示されるように投影画像データを補正する補正手段として機能させるための表示プログラム。


JP2017122771A 2017-06-23 2017-06-23 遠隔支援システム、情報提示システム、表示システムおよび手術支援システム Active JP6773609B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017122771A JP6773609B2 (ja) 2017-06-23 2017-06-23 遠隔支援システム、情報提示システム、表示システムおよび手術支援システム
US16/014,342 US20180373291A1 (en) 2017-06-23 2018-06-21 Remote support system
EP18179108.8A EP3429199A3 (en) 2017-06-23 2018-06-21 Remote support system
CN201810649173.4A CN109120811A (zh) 2017-06-23 2018-06-22 远程作业援助系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017122771A JP6773609B2 (ja) 2017-06-23 2017-06-23 遠隔支援システム、情報提示システム、表示システムおよび手術支援システム

Publications (2)

Publication Number Publication Date
JP2019005095A true JP2019005095A (ja) 2019-01-17
JP6773609B2 JP6773609B2 (ja) 2020-10-21

Family

ID=62904235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017122771A Active JP6773609B2 (ja) 2017-06-23 2017-06-23 遠隔支援システム、情報提示システム、表示システムおよび手術支援システム

Country Status (4)

Country Link
US (1) US20180373291A1 (ja)
EP (1) EP3429199A3 (ja)
JP (1) JP6773609B2 (ja)
CN (1) CN109120811A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10715746B2 (en) * 2017-09-06 2020-07-14 Realwear, Inc. Enhanced telestrator for wearable devices
US20220295025A1 (en) * 2019-04-12 2022-09-15 Daniel Seidel Projection system with interactive exclusion zones and topological adjustment
CN113509263A (zh) * 2021-04-01 2021-10-19 上海复拓知达医疗科技有限公司 一种物体空间校准定位方法
JP2023136239A (ja) * 2022-03-16 2023-09-29 株式会社リコー 情報処理装置、情報処理システム、支援システム、及び情報処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099184A (ja) * 2013-11-18 2015-05-28 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2017038375A1 (ja) * 2015-09-03 2017-03-09 シャープ株式会社 映像投影装置
WO2017058710A1 (en) * 2015-09-28 2017-04-06 Montefiore Medical Center Methods and devices for intraoperative viewing of patient 3d surface images
WO2017056775A1 (ja) * 2015-09-28 2017-04-06 富士フイルム株式会社 プロジェクションマッピング装置
JP2017064307A (ja) * 2015-10-02 2017-04-06 国立大学法人 東京大学 手術ナビゲーションシステムおよび手術ナビゲーション方法並びにプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2388241A (en) 2002-04-30 2003-11-05 Zoo Digital Group Plc Authoring of complex DVD-video products
US7292269B2 (en) * 2003-04-11 2007-11-06 Mitsubishi Electric Research Laboratories Context aware projector
WO2006025191A1 (ja) * 2004-09-01 2006-03-09 Olympus Corporation マルチプロジェクションシステムにおける幾何補正方法
US20080004533A1 (en) * 2006-06-30 2008-01-03 General Electric Company Optical imaging systems and methods
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US9723293B1 (en) * 2011-06-21 2017-08-01 Amazon Technologies, Inc. Identifying projection surfaces in augmented reality environments

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099184A (ja) * 2013-11-18 2015-05-28 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2017038375A1 (ja) * 2015-09-03 2017-03-09 シャープ株式会社 映像投影装置
WO2017058710A1 (en) * 2015-09-28 2017-04-06 Montefiore Medical Center Methods and devices for intraoperative viewing of patient 3d surface images
WO2017056775A1 (ja) * 2015-09-28 2017-04-06 富士フイルム株式会社 プロジェクションマッピング装置
JP2017064307A (ja) * 2015-10-02 2017-04-06 国立大学法人 東京大学 手術ナビゲーションシステムおよび手術ナビゲーション方法並びにプログラム

Also Published As

Publication number Publication date
EP3429199A2 (en) 2019-01-16
JP6773609B2 (ja) 2020-10-21
US20180373291A1 (en) 2018-12-27
EP3429199A3 (en) 2019-03-27
CN109120811A (zh) 2019-01-01

Similar Documents

Publication Publication Date Title
US11734901B2 (en) Surgeon head-mounted display apparatuses
JP6773609B2 (ja) 遠隔支援システム、情報提示システム、表示システムおよび手術支援システム
CN110403699B (zh) 手术导引系统
JP6381918B2 (ja) 動作情報処理装置
KR102336170B1 (ko) 엑스선 영상 장치 및 그 제어 방법
JP6302482B2 (ja) スキャン装置及びスキャン装置を位置決めるための方法
US20200229869A1 (en) System and method using augmented reality with shape alignment for medical device placement in bone
JP6112689B1 (ja) 重畳画像表示システム
US20100110264A1 (en) Image projection system
CN110638524B (zh) 一种基于vr眼镜的肿瘤穿刺实时模拟系统
JP5333279B2 (ja) 放射線撮影装置
TWI754259B (zh) 神經檢測方法及裝置
JP2015043920A (ja) 撮像支援装置及び撮像システム並びにプログラム
US20220354613A1 (en) Creating Surgical Annotations Using Anatomy Identification
JP4548056B2 (ja) 外科用放射線装置およびその装置を用いた表示設定方法
EP3690609B1 (en) Method and system for controlling dental machines
KR101501955B1 (ko) 수술장 내 의료기기의 무선제어 시스템 및 그 제어 방법
TW202222270A (zh) 手術輔助系統及相關手術輔助方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200612

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200612

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200623

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201001

R150 Certificate of patent or registration of utility model

Ref document number: 6773609

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250