JP5186561B2 - 拡張現実感の非写実的レンダリング - Google Patents

拡張現実感の非写実的レンダリング Download PDF

Info

Publication number
JP5186561B2
JP5186561B2 JP2010514098A JP2010514098A JP5186561B2 JP 5186561 B2 JP5186561 B2 JP 5186561B2 JP 2010514098 A JP2010514098 A JP 2010514098A JP 2010514098 A JP2010514098 A JP 2010514098A JP 5186561 B2 JP5186561 B2 JP 5186561B2
Authority
JP
Japan
Prior art keywords
image
npr
transparency
window
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010514098A
Other languages
English (en)
Other versions
JP2010532035A (ja
Inventor
グァング‐ゾング、ヤング
ミルナ、レロティック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ip2ipo Innovations Ltd
Original Assignee
Ip2ipo Innovations Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ip2ipo Innovations Ltd filed Critical Ip2ipo Innovations Ltd
Publication of JP2010532035A publication Critical patent/JP2010532035A/ja
Application granted granted Critical
Publication of JP5186561B2 publication Critical patent/JP5186561B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/02Non-photorealistic rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Description

本発明は、例えば、医療拡張現実感ディスプレイにおいて、特に、オクルージョンの手掛かりを提供するために、画像をレンダリングする方法に関する。
拡張現実(AR)は外科手術において貴重なツールになっている。外科的作業中にリアルタイムで位置合わせされた術前データを提示することは、オフライン画像を参照する必要性を取り除き、オフライン画像の現実組織への位置合わせを助ける。着目している物体の可視化は、ARが提供する「透視」像を通じて利用できるようになる。
近年、医療ロボットが最小侵襲手術(MIS)において益々使用されている。ロボット支援MISのために、器用さがマイクロプロセッサ制御型機械式リストによって高められ、ハンド全体の動きを削減するための動きの拡大縮小と、それ以外には考えられない微小規模作業の性能とを可能にする。
外科手術ロボットの独特の動作セッティングは、術前/術中画像又はコンピュータ生成グラフィックスを使って視野を増強する理想的なプラットフォームを提供する。ARの有効性及び臨床的な利点は、神経外科及び整形外科において十分に認識されている。しかし、心臓胸部外科又は消化器外科へのARの応用は、組織変形の複雑さがARディスプレイに重大な難問を課すので限定されたままである。
ARのシームレス合成は、仮想物体が出現し、現実シーンと視覚的に相互作用する方法に関する要因の個数に依存する。ARの主要な問題の1つは、オクルージョンの正確な取り扱いである。仮想及び現実環境の部分オクルージョンの取り扱いは、外科手術シーンの正確な3次元再構成によって達成され得るが、特に、リアルタイム3次元組織変形復元のための最近の手法の出現によって、殆どの外科手術AR応用は、露出された組織表面の背後にある解剖学的構造の重ね合わせを伴う。この重ね合わせは、例えば、改良された解剖学的かつ機能的な可視化がより正確な術中ナビゲーション及び血管切除術を可能にする冠状動脈バイパスのため重要である。前立腺摘除術では、周囲の解剖学的構造の3次元可視化は、神経血管束温存の改善と、尿禁制率及び勃起機能温存率の向上という結果をもたらす。
ステレオビジョン環境において有用な平面内基準を提供するが、伝統的にオーバーレイ型ARは不正確な奥行き認知に問題を抱えている。物体が正確な奥行きでレンダリングされるとしても、脳は物体を表面の上に浮いているものとして認知する(例えば、非特許文献1及び非特許文献2を参照のこと)。
Johnson LGら、"Surface transparency makes stereo overlays unpredictable: the implications for augmented reality"、 Studies in Health Technology and Informatics 2003、 94:131−6 Swan JEら、"Egocentric Depth Judgements in Optical、See−Through Augmented Reality"、IEEE Transactions on Visualization and Computer Graphics 2007、13(3):429−42 Sielhorstら、"Depth Perception−A Major Issue in Medical AR: Evaluation Study by Twenty Surgeons"、Medical Image Computing and Computer −Assisted Intervention−、MICCAI 2006;364−72 C. Bichimeir、 N. Navab、 "Virtual Window for Improved Depth Perception in Medical AR"、International Workshop on Augmented Reality environments for Medical Imaging and Computer−aided Surgery (AMI−ARCS 2006)、コペンハーゲン、デンマーク、10月 2006
組織に埋め込まれているものとして認知されるべき物体に関して、我々の脳は、ある程度のオクルージョンを予想する。ARにおける奥行き認知の問題に対処するため、ある程度の個数のレンダリング手法及び表示戦略が、露出した組織表面に関して仮想構造体の3次元奥行きの正確な認知を可能にするため開発されている。非特許文献3では、医療ARにおける奥行き認知の問題が研究されている。上述の2件の引用文献に一致して、AR物体が不透明にレンダリングされるならば、外側体表面の背後に正確な奥行きでレンダリングされるとしても外側体表面の上に浮かぶように見えるので、奥行き認知の質が悪いことがわかった。奥行き認知を改善する2つの方法、即ち、体表面及びAR物体の両方を透明にレンダリングする方法と、ウィンドウがオクルージョンの手掛かりを与え、それによって、AR物体がウィンドウ内部に見ることができるが、そうでなければ、体表面によって遮蔽されるように、体表面を体表面の内側に定義されたウィンドウを用いてレンダリングする方法とが確認された。前者のアプローチ(透明レンダリング)に関して、この方法は、ある一部の表面に対して改善された奥行き認知をもたらすが、一般に、2つのオーバーレイされた透明表面をレンダリングすることは、奥行き認知の質の悪さのように、オクルージョンから矛盾する視覚的な手掛かりをもたらす(例えば、上述の非特許文献1を参照のこと)。後者のアプローチ(ウィンドウレンダリング)は、ウィンドウ内部の体表面に関する全情報が失われるという不利点がある。
オンラインによりhttp://ar.in.tum.de/pub/bichlmeier2006window/bichlmeier2006window.pdfで入手可能な非特許文献4には、ウィンドウ内部の体表面に関する情報を維持したままで、ウィンドウアプローチで得られた奥行き認知を改善する種々のアプローチが研究されている。以下のアプローチ、即ち、ウィンドウ形状を体表面の形状に適合させること、仮想光源によるハイライト効果を使用してウィンドウ表面をガラスのようにレンダリングすること、単純構造テクスチャでウィンドウ平面をマッピングすること、ウィンドウの有限サイズフレームをシミュレーションすること、及び、AR物体の背景を透明又は不透明のどちらかに設定すること、が考慮された。これらのアプローチのうち最後を除くすべてのアプローチの欠点は、体表面の3次元モデルが既知であり、ウィンドウ輪郭又は表面がそれに応じてレンダリング可能でなければならないことである。このような3次元モデルは、特に、体表面がイメージング中に変形しているか、又は、その他の方法で変化しているならば、確実に得ることが難しい可能性がある。
発明の一態様によれば、請求項1に記載された撮影デジタル画像をレンダリングする方法が提供される。
撮影画像自体に基づいて対応する非写実的レンダリング(NPR)画像の透明度値を設定することにより、奥行き認知が(画像の2次元レンダリングの場合に)可能にされ、又は、(画像の3次元レンダリングの場合に)支援されるようにオクルージョン手掛かりを提供するため画像の構造の一部を保存する部分透明ウィンドウを定義できることが有利である。このアプローチは、画像データ自体に基づいているので、画像の基礎となるシーンのモデルを必要としない。
上述されているように、NPR画像は2次元ビューとしてレンダリングされてもよく、又は、第2の画像が立体視ビューを定義するため撮影されてもよい。いずれにしても、仮想(例えば、AR)物体は撮影画像の背後にレンダリングされることがある。
透明度値の割り当ては、NPR撮影画像がウィンドウの外側で不透明のままであり、物体がウィンドウを通して見えないときに物体を遮蔽するように、ウィンドウの内側で行われることがある。シーンのより自然なビューのため、又は、立体視ビューにおいて2つのウィンドウを融合させることを支援するため、透明度値がウィンドウ内部からウィンドウの外側へ徐々に融合されることがある。ウィンドウ位置は、観察者の注視を連続的に追跡して、又は、更新要求が観察者から受け取られたときに限り位置を更新して、観察者の注視に依存して定義されることがある。当然ながら、立体視の場合、2つの(左右の)NPR画像中のウィンドウは、立体視ビューに従ってカメラ位置及びパラメータによって決定された量によって補正されることがある。
透明度値は、撮影画像中の対応したロケーションにおける正規化画像強度勾配の関数として決定されることがある。画像強度勾配の計算は、対応したロケーションにおける画像強度によって割り算された画像座標に関する偏微分の決定を含むことがある。
上述されたようなNPR画像透明度の決定は、NPR画像のエリアに関する顕著性マップを定義し、同じ顕著性マップ中のそれぞれの対応したロケーションの値の関数として透明度値を割り当てることにより透明度値を設定する方法の一実施例として見ることができる。顕著性マップは、画像の顕著性特徴、例えば、基礎となるシーンの背景から突出しているため、又は、色及び/又は強度コントラストのため顕著である特徴を獲得するため工夫されることがある。特に、顕著性マップは、例えば、画像中の陰影に基づいて推定されるような、画像の基礎となるシーンにおける局所的な傾きの関数として定義されることがある。局所的な傾きは、画像中のそれぞれの正規化強度勾配の関数として推定されることがある。
ほぼ不透明である顕著性特徴を保存し、ほぼ透明のウィンドウ又はエリア内部の背景をつくるために透明度値を割り当てるのに加えて、顕著性マップは、例えば、カラースケールを使用して、カラー値をNPR画像のピクセルに割り当てるために使用されることもある。特に、透明度値及びカラー値は、NPR画像の背後にレンダリングされた物体が、顕著性マップ中の高い値を有するエリア内部のピクセルによって遮蔽されている間に透明エリア(ウィンドウ)を通して見えているとして認知されるように、割り当てられることがある。
一つの用途において、仮想物体は医療イメージングデータ、例えば、組織のCT画像又はMRI画像から導出されることがある。特に、画像は、例えば、胸部鍵穴手術中に、立体視内視鏡を使用して撮影されていることがある。しかし、上述のレンダリング方法は、医療AR用途に限定されることがなく、より一般的に、仮想物体が撮影シーンの背後にある観察者の標準的なビューの外にレンダリングされるAR用途に応用可能であることが理解されるであろう。
発明のさらなる態様では、請求項21に記載されたデジタル画像をレンダリングするシステムが提供される。
発明の一層のさらなる態様では、請求項41に記載されたロボット手術コンソールが提供される。
発明のさらなる態様は請求項42に記載されたコンピュータプログラムにまで及ぶ。
曖昧さを回避するため、NPR画像(非写実的レンダリング画像の略)という用語は、本書では、例えば、AR物体を同様に含みうる3次元コンピュータ・グラフィックス・モデルにおける画像平面に対応する平面へのテクスチャとして適用される、撮影され処理されたデジタル画像を表すため用いられる。当然ながら、このモデルは2次元又は立体視3次元画像としてレンダリングされることがある。
例えば、画像中に撮影されたシーンの背後にレンダリングされた物体を露出させるために画像の少なくとも一部分を非写実的レンダリングする方法のフローチャートである。 2次元又は3次元で対応するNPR画像及びAR物体をレンダリングするアルゴリズムのフローチャートである。 対応するシステムを表す図である。 処理で使用されるマスク関数を表す図である。 上記方法を使用してレンダリングされたARビューの実施例を表す図である。
発明の実施形態は、次に、例示の目的のためだけに添付図面を参照して説明される。
医療ARディスプレイに適用されるように画像をレンダリングする本方法の基礎にある考え方は、ナビゲーション及び奥行き手掛かりを支援するため十分な細部を維持しつつ、露出した解剖学的表面を半透明層としてレンダリングすることである。一実施形態は、露出した解剖学的表面の顕著な解剖学的細部を維持しつつ、埋め込まれた仮想物体の透視像を提供するpq空間ベースの非写実的レンダリング(NPR)に基づいている。このために、p及びqがそれぞれx及びy軸に沿った映像表面の傾きを表現する場合に、pq空間表現に基づく表面幾何学的構造が最初に導出される。例えば、この導出は、複数個の照明条件を導入することにより測光ステレオを用いて実現可能である。しかし、変形する組織のため、問題は不良設定であり、内視鏡設備に複数の光源を導入することは実現不可能である。それにもかかわらず、この問題は、気管支鏡及び内視鏡中のように、カメラ及び光源の両方が映像化される表面に近い場合には簡略化することが可能である(参照により本明細書に組み込まれた、Rashid HU、 Burger P.、“Differential algorithm for the determination of shape from shading using a point light source”、Image and Vision Computing 1992; 10(2):119−27を参照のこと)。このような場合、近接した点光源の座標x、yにおける画像強度の値は、
Figure 0005186561
によって与えられ、式中、sは光源強度定数であり、ρ(x,y)はアルベド、即ち、反射率であり、rは光源と表面点(x,y,z)との間の距離であり、θは入射光線と表面に対する法線
Figure 0005186561
との間の角度である。勾配空間において、表面に対する法線ベクトルは、
Figure 0005186561
に等しく、式中、p及びqはそれぞれx及びy方向における表面傾きを表す。シーン中の滑らかなランバート面に対し、式(1)によって与えられる画像強度は、点(x,y)での画像強度E(x,y)と表面法線(p,q,−1)をもつ対応する表面点(x,y,Z)でのシーン放射輝度との間の関係を定義する、
Figure 0005186561
に帰着させることが可能であり、式中、ρaverageは表面の小さい近傍における平均アルベドを表し、sは光源強度定数である。点光源照明下でのランバート面は、(1)すべての視方向から等しい明るさに見えること、及び、(2)すべての入射光を反射すること、という2つの条件を満たす理想的な表面材料である。
式(3)において画像強度の偏微分を利用することにより、画像ロケーション(x,y)におけるx/yに関する正規化された偏微分Rx/yは、画像座標及び局所的な傾きだけの項で記述可能である。
Figure 0005186561
この式は、p及びqに関する2個の線形方程式として再記述可能である(画像ロケーション(x,y)における正規化された偏微分又は正規化された勾配Rx/yは、(x,y)及びその近傍における画像強度から決定できる)。
+B+C=0
+B+C=0 (5)
但し、
=(−x・R+3)・(1+x +y )−3・x
=−R・(1+x +y )・y−3・x・y
=R・(1+x +y )+3・x (6)
=−R・(1+x +y )・x−3・x・y
=(−y・R+3)・(1+x +y )−3・y
=R・(1+x +y )+3・y
であり、画像の各点(x,y)におけるp及びqの以下の式:
Figure 0005186561
を与える。
映像化された表面のp及びqの値は、露出した解剖学的構造の3次元細部を獲得し、滑らかに変化する背景表面を半透明のまま維持しつつ、(表面から突出し、故に、高勾配を有する特徴である)顕著な特徴を強調するため使用される。p及びqの値は適当な手法を使用して計算できることが理解されるであろう。所望の視覚的手掛かりを作成するため、観察平面に平行であるシーンの表面(低いp,q)はおおよそ透明としてレンダリングされ、一方、傾斜した構造(高いp,q)は強調され、おおよそ不透明としてレンダリングされる。表面傾きの指標は、
S(x,y)=log(abs(p)+abs(q)+1) (9)
によって各画像点(x,y)に対しpq値から生成され、ここで、S(x,y)の高い値は大きい勾配に対応する。実際に、これは顕著性マップ又は顕著性画像を提供する。対数は表示目的のためダイナミックレンジを制限するためp及びqの高い値を抑える。滑らかな背景マップBは、幅の広いガウシアンフィルタを顕著性マップSに適用し、それによって、「真」の顕著な特徴ではなく、ノイズ又は小さい表面変動を表す可能性がある画像中の高周波数変動を取り除くことにより作成される。顕著な画像と背景画像は、詳しく後述されるようにSの低いピクセル値が対応する(x,y)ピクセルにおけるBの値で置き換えられるようにマスクを使用して合成される。
図1を参照して、上記の顕著性マップの実際の用途について考えると、コンピュータ・グラフィックス・モデル内で画像平面に投影されたテクスチャとして使用するための撮影画像(又は撮影画像のうちのあるエリア)の非写実的レンダリングを実現する方法2において、ステップ4で、関心領域(ROI)がNPR処理のため定義される。関心領域は、画像全体又は画像のサブエリアを含むことがある。ステップ6で、関心領域は、(カラーであるならば)ピクセルカラー値をグレイスケールに変換し、3×3ピクセルのガウシアンのような弱い平滑化関数を適用するといった前処理が施される。ステップ8で、顕著性マップが、偏微分を計算するいずれかの既知の方法を使用して、例えば、関連する(例えば、x)方向に着目中のピクセルのピクセル値と近傍ピクセルとの間で単に差分をとることによって、上述されているようにROI中の撮影画像から計算される。マップは、偏微分と、ROI中の各ピクセル又はロケーションでの画像強度(例えば、グレイスケール値)とから計算される。
ステップ10で、顕著性マップは、滑らかな背景マップB(例えば、Bは6×6ピクセルからなり、7ピクセルの広がりをもつ幅広いガウシアンフィルタを適用することによりSから導出可能である)と合成することによりノイズ除去される。S及びBは、顕著性マップが背景マップと混合され、それによって、Sが高い場合にSが優勢であり、Sが低い場合にBが優勢であるように、マスク関数に従って、
S(x,y)=mask(x,y)・S(x,y)+(1−mask(x,y))・B(x,y) (10)
として合成される。マスク関数は、数個の制御点を含むスプライン(例えば、キャットマル・ロム・スプライン)を使用して定義可能である。適当なマスク関数はS(x,y)の関数として図5に表されている。当然ながら、その他のマスク関数、例えば、S(x,y)に関する適当なスレッショルド値をもつステップ関数もまた利用可能である。別の実施例は、適当な多項関数でもよい。
ステップ12で、ノイズ除去された注目の領域内部のピクセルは、カラースケールを使用して顕著性マップS(x,y)に従ってカラー値が割り当てられる。適当なカラースケールはSの最小値に対する黒から、青を経由して、最大値に対する白まで変動する可能性がある。これらの人為的なカラーは、人為的なカラーがウィンドウ内部に適用され、画像の元のカラーがウィンドウの外側で維持されるように、ウィンドウ関数、例えば、放射状ウィンドウ関数f(r)に従ってNPR画像に適用される。f(r)の一実施例はステップ関数であり、この場合に、ウィンドウは人為的なカラーから画像カラーへ離散的に切り替わる鋭いエッジを有するであろう。滑らかな推移を実現するため、f(r)は別の実施例において推移領域を定義し、
Figure 0005186561
式中、r=(x−xcenter+(y−ycenterとrとがウィンドウサイズを決定する。滑らかな推移を定義することにより、立体視画像(以下を参照のこと)において2個の(左右の)窓を融合は、適用できる場合に、役立つことがある。
ステップ14で、同じウィンドウ内部のNPR画像ピクセル透明度は、Sの最低値が完全に(又は、おおよそ完全に、例えば、95%)透明であり、かつ、Sの最高値が完全に(又は、おおよそ完全に、例えば、95%)不透明であるように、S(x,y)及びウィンドウ関数f(r)に従って設定され、透明度値が、例えば、f(r)を使用してNPR画像の残りの部分と混合される。
懸念を回避するため、f(r)を使用する混合動作の実施例は、以下の通りのNPR画像に達するために処理済みの非写実的レンダリング画像(NPI)を撮影画像(CI)と混合するものと考えることができる。
NPR画像=f(r)・CI+(1−f(r))・NPI (12)
ウィンドウの配置(上記の実施例ではf(r)の原点(xcenter,ycenter))は複数の方式で設定可能である。例えば、一部の実施形態では、ウィンドウ位置は、特に、視野の範囲内にレンダリングされるべき単一の物体だけが存在するならば、画像平面の背後にレンダリングされるべきAR物体の位置に基づいて予め決定される。代替的に、一部の実施形態では、ウィンドウ位置は観察者の注視に基づいて決定される(例えば、視標追跡装置を使用して検出される)ことがあり、連続的に更新されるか、又は、観察者がウィンドウ位置を更新する要求を発行するとき、観察者の注視に従って更新されることがある(或いは、一部の実施形態では、ウィンドウが現在表示されていないならば、ウィンドウがスイッチを入れられるとき、ウィンドウは観察者の注視に従って表示される)。この動的ウィンドウ表示は、単一物体ではなく、完全なARシーンがレンダリングされているならば、特に役に立つことがある。
図2及び3を参照して、次に、拡張現実感物体と一緒にシーンの撮影画像を表示するシステム及び方法が説明される。ステップ16で、シーンの画像がイメージング装置22によって撮影され、処理ユニット24へ送信される。撮影画像は、一部の実施形態ではコンピュータ・グラフィックス・モデル内に表示されるべきシーン平面物体に投影されたテクスチャとして取り扱われる。コンピュータ・グラフィックス・モデルは、複数の方式で、例えば、一部の実施形態では、C++プログラムにおいてOpenGLグラフィックス・ライブラリを使用して、実施できる。
正確な遠近感(及び、3次元レンダリングの場合に視差)は、撮影画像(立体視カメライメージング装置の場合に左右の撮影画像)に既に含まれているが、コンピュータ・グラフィックス・モデル内での拡張現実感物体に関する奥行き情報はオクルージョンを一貫して取り扱うために重要である。
立体視カメラ及びディスプレイのため、左右のビューにおける拡張現実感物体の位置は撮影画像における視差と一致しなければならない。この一致は、ビュー間で必要な変換が設けられた立体視カメラキャリブレーションを通して実現される。合成シーンにおいて、撮影画像は、既に視差を含んでいるので、左右の両方のビューに対し同じ位置に表示され、一方、拡張現実感物体は、撮影画像の視差に一致するように左右のビューに対し異なる位置でレンダリングされる。立体視カメラキャリブレーションの一部分として達成される変換は、一部の実施形態ではOpenGL変換を使用して利用される。
一部の典型的な実施形態では、OpenGLウィンドウは、(左右の)表示毎に開かれ、NPR画像は適切な奥行きで各ウィンドウに表示される(例えば、投影スクリーンのように機能するシーン平面物体に適用される)(後述参照)。AR物体は、その後に、それぞれの(左右の)カメラのカメラキャリブレーションを使用して、ウィンドウ毎にレンダリングされる。同様に、各OpenGLウィンドウにおけるROI及び/又はウィンドウの相対位置は、一部の実施では、立体視ビューと整合性がとれるようにカメラキャリブレーションデータを使用して設定される。この点に関して、滑らかに混合されたウィンドウは、ウィンドウ位置ずれが立体視ビューに厳密に従わない場合でも立体視ビューにおける2個のウィンドウの融合を支援する。例えば、立体視内視鏡カメラのため適した1つの近似は、一部の実施では、ウィンドウ位置ずれとしてカメラ位置ずれを使用することである。
各ピクセルが正確に着色されることを保証するため、NPR画像のz座標(シーン物体平面)は、シーン物体がAR物体をシーン物体の背後に遮蔽する場合(又は、シーン物体の低透明度部分が対応するピクセルの着色を決定づける場合)、ピクセルがシーン物体のカラー値を取るように、カメラ座標系におけるAR物体の位置よりコンピュータ・グラフィックス・モデルにおけるカメラ位置に接近していなければならない。上述の非写実的処理によって与えられるオクルージョン手掛かりは、AR物体がイメージング装置22によって撮影された表面の背後に位置するときに限り必要であるので(そうでなければ、現実物体が撮影画像内に観察できるであろう)、一部の実施形態におけるレンダリングに関して、シーンオブジェクトは常にAR物体の手前に存在し、例えば、コンピュータ・グラフィックス・モデルの視錐台の前額面は、一部の実施では(複数の)撮影画像が投影されるシーン物体として使用されることが考えられる。このことは、現実カメラ位置決めによって定められる(複数の)撮影画像の遠近感又は視差に影響を与えることなくオクルージョンの正確な取り扱いを保証する。
代替的に、一部の実施では、NPR画像はカメラ焦点面又はカメラ焦点面付近に配置されるか、又は、シーン平面の奥行きはNPR画像奥行きを設定するため距離測定を使用して復元可能である(例えば、参照により本明細書に組み込まれた、Stoyanov D.ら、Computer Aided Surgery 7月 2005、10(4):199−208を参照のこと)。一部の実施形態において奥行き復元のため使用される手法は、視標追跡からの観察者の両眼転導の使用(Mylonas GPら、Proceedings of the second International Workshop on Medical Imaging and Augmented Reality、MIAR(2004)、北京、 311−319)、スパース手法のようなステレオからの奥行き復元、シェーディングからの成形、若しくは、両方の組み合わせ(Stoyanov Dら、MICCAI(2) 2004: 41−48)の使用、又は、構造化照明(Koninchx TP and Van Gool L、IEEE PAMI、vol28, no.3、2006)、基準マーカ又はレーザ距離測定(Mitsuhiro Hら、Medical Image Analysis 10 (2006) 509−519)の使用を含み、全部が参照によって本明細書に組み込まれる。
ステップ18で、コンピュータ・グラフィックス・モデルにおける仮想AR物体のロケーションが決定される。AR物体入力26は、医療イメージング、例えば、MRI又はCTデータから取得されたAR物体の座標データを提供する。このデータは、例えば、医療イメージング装置座標系から身体基準座標系へ画像データを変換するため画像が取得される前に患者の身体に固定された基準マーカを使用して、患者の身体に固定された基準座標系内の座標で表現されなければならない。
撮影されたシーン画像と一緒にAR物体を正確に表示するため、基準マーカによって定義された身体基準座標系からのAR物体座標は、技術的によく知られているように、カメラ基準座標系に対する身体基準座標系の位置及び姿勢を決定するため3次元追跡装置を使用し、例えば基準マーカを追跡することによりカメラ位置及び姿勢の両方だけでなく基準マーカを追跡する基準座標系入力28からのイメージング装置カメラ基準座標系に変換される必要がある。
カメラ位置が既知であるならば(例えば、カメラのロケーションがカメラを支持するロボットアームの位置から導出できるロボット手術コンソールの場合)、手術室に固定された座標系内でのこの既知の位置は、ロボット手術コンソールにおける用途に特に関連した一部の実施において必要な座標変換を実行するため追跡データと一緒に使用される。(例えば、ヘッドマウント型ビデオ透視装置のような)カメラがより可動的であるその他の設備では、カメラ位置も同様に所要の座標変換を実行できるように追跡されるべきである。所要の測定及び変換の詳細は、参照によって本明細書に組み込まれた、Vogt S.ら、“Reality Augmentation for Medical Procedures: System Architecture、Single Camera Marker Tracking and System Evaluation”、International Journal of Computer Vision 2006、70(2): 179−190に記載されている。
ステップ2で(ステップの順序は図2に示された順序に制限されることがなく、当然ながら、画像は処理可能である前に撮影されなければならないという制約下で、ステップがどのような順序で実行されても構わないことが理解されるであろう)、撮影画像のNPR処理は場合によっては、ウィンドウ位置入力30からウィンドウ位置に関する入力を受け取って、図1を参照して上述されたように実行され、このウィンドウ位置入力は、一部の実施形態では、上記のウィンドウのための、視標追跡装置と、ウィンドウのオンとオフを切り替え、ウィンドウ位置を選択するユーザインターフェイスと含む。
撮影画像が処理され、NPR画像としてシーン物体に適用され、AR物体の3次元ロケーションが上述の通り定義されると、シーン物体及びAR物体は、ステップ20でディスプレイ装置32への表示のためレンダリングされる。この表示は、ディスプレイ装置が簡単なモニタである場合、対応するコンピュータ・グラフィックス・モデルの2次元ビューでもよく、又は、ディスプレイ装置が立体視能力を備えている場合、左右の画像からなる3次元ビューでもよい。
一部の実施形態では、上述のシステム及び方法は、最小侵襲ロボット手術コンソール、例えば、米国マウンテンビュー市、Intuitive Surgical社によるダ・ヴィンチロボット手術コンソールに組み込まれる。このコンソールは、最小侵襲外科手術ツールを遠隔制御するロボット操作と、立体視内視鏡からオペレータの各眼に左右それぞれの画像を提供する固定位置立体視ディスプレイ装置を用いてステレオ視覚フィードバックとを行う。撮影画像は上述のように処理され、その後に、(例えば、腫瘍を表現する)AR物体と一緒にレンダリングできる。
図5a及びbは、ロボット支援肺葉切除からの肺組織の左右のそれぞれの眼のビューを示している。図5c及びdは、先に参照されたVogtらの透視ビデオアプローチの場合と同様に、シーン及び物体の両方が透明にレンダリングされているAR物体の透明ARオーバーレイを含む同じビューを示している。図5e及びfは、AR物体と一緒に上述の方法を使用して処理された図5a及びbのシーンの左及び右のそれぞれのビューを表し、図のg及びhは、それぞれ、滑らかな放射状ウィンドウを使用して合成されたa及びbのビューと、e及びfのビューとを表している。明瞭にわかるように、AR物体はウィンドウを通して観察され、ウィンドウ内に保存された特徴は外科医のための基準情報を維持し、オクルージョンによる付加的な奥行き手掛かりをさらに提供するため、ウィンドウは3次元シーンのより自然な解釈を与える。
上述された実施形態に対し数多くの変形が可能であることが理解されるであろう。例えば、2個以上の物体が表示されてもよく、上述の方法ステップの順序は、ある種のステップがある種の先行するステップの結果を必要とするという制約の範囲内で任意に変更可能である。さらに、透視ビジョンを基礎となる物体に提供しながら、画像の顕著な特徴を保存する上述の透明度値を決定する方法は、同時に、上述以外の多くのその他の種類のシーン、物体、及び、用途に適用できるであろう。
当然ながら、特定の実施形態だけが説明されているが、請求項に記載された対象の範囲は特定の実施形態又は実施に限定されないことが理解されるであろう。例えば、一実施形態は、装置又は装置の組み合わせで動くように実施されるようなハードウェアに属するかもしれないが、例えば、別の実施形態はソフトウェアに属することがある。同様に、ある実施形態は、例えば、ファームウェアで、又は、ハードウェア、ソフトウェア、及び/又は、ファームウェアのどのような組み合わせとして実施されてもよい。同様に、請求項に記載された対象はこの点に関して範囲が限定されないが、一実施形態は、担体、又は、記憶媒体若しくは複数の記憶媒体のような1つ以上の製品を備えることがある。例えば、1個以上のCD−ROM、固体メモリ、光磁気ディスク、及び/又は、磁気ディスク若しくはテープのような記憶媒体は、例えばコンピュータシステム、コンピューティングプラットフォーム、又は、その他のシステムのようなシステムによって実行されるとき、請求項に記載された対象による方法の実施形態、例えば、上述された実施形態のうちの一つのような実施形態が実行されるという結果をもたらす命令を記憶していることがある。一実施形態は、電気通信媒体、例えば、電気通信ネットワーク上の搬送信号を含むことがある。適当な搬送信号の実施例は、無線周波数信号、光信号、及び/又は、電子信号を含む。
可能性のある一実施例として、コンピューティングプラットフォーム又はコンピュータは、1台以上の処理ユニット又はプロセッサと、ディスプレイ、キーボード、及び/又は、マウスのような1台以上の入力/出力装置と、及び/又は、スタティック・ランダム・アクセス・メモリ、ダイナミック・ランダム・アクセス・メモリ、フラッシュメモリ、及び/又は、ハードディスク装置のような1台以上のメモリとを含むことがある。
以上の説明では、請求項に記載された対象の種々の態様が記載されている。説明の目的のため、特有の番号、システム、及び/又は、構造が、請求項に記載された対象の全体を通じた理解を与えるため記載された。しかし、請求項に記載された対象が特有の細部を用いることなく実施されることは本開示の利益を有する当業者に明白であろう。その他の例では、周知の特徴が、請求項に記載された対象を曖昧にさせないため省略及び/又は簡略化された。ある種の特徴は図示され、及び/又は、本明細書に記載されているが、今度は、数多くの変形、置換、変更、及び/又は、均等物が当業者によって想到されるであろう。したがって、当然のことながら、添付の請求項は、請求項に記載された対象の範囲に含まれるように、このような変形及び/又は変更すべてを網羅することが意図されている。

Claims (43)

  1. カメラによって撮影され、複数個の画像ピクセルによって定義された撮影デジタル画像を、処理ユニットを用いて、それぞれが関連するNPR透明度値を有する複数個のNPR画像ピクセルによって定義された非写実的レンダリングされたNPR画像としてレンダリングする方法であって、 少なくとも一部のNPR画像ピクセルの透明度値が、前記処理ユニットを用いて、対応する撮影画像ピクセルに依存して決定される方法。
  2. 前記処理ユニットを用いて、前記NPR画像の背後に仮想物体をレンダリングするステップを含む、請求項1に記載の方法。
  3. 前記処理ユニットを用いて、立体視ビューを定義するためさらなる撮影画像をさらなるNPR画像としてレンダリングするステップを含む、請求項1又は2に記載の方法。
  4. 前記処理ユニットを用いて、前記NPR画像内部にウィンドウを定義するステップと、
    前記処理ユニットを用いて、対応する撮影画像のピクセルに依存してウィンドウ内部に透明度値を割り当てるステップと、
    を含む、請求項1、2又は3に記載の方法。
  5. 前記処理ユニットを用いて、前記ウィンドウの外側で透明度値を不透明に設定するステップを含む、請求項4に記載の方法。
  6. 前記処理ユニットを用いて、前記ウィンドウ内部から該ウィンドウの外側へ透明度値を徐々に混合するステップを含む、請求項5に記載の方法。
  7. 前記処理ユニットを用いて、観察者の注視に依存してウィンドウ位置を定義するステップを含む、請求項4から6のいずれか一項に記載の方法。
  8. 更新要求を観察者から受けたとき、前記処理ユニットを用いて、前記ウィンドウ位置が更新される、請求項7に記載の方法。
  9. 観察者の注視を追跡するために、前記処理ユニットを用いて、前記ウィンドウ位置が連続的に更新される、請求項7に記載の方法。
  10. 前記処理ユニットを用いて、透明度値が前記さらなるNPR画像において割り当てられ、前記立体視ビューに従って前記ウィンドウに関してあるオフセットで位置決めされたさらなるウィンドウを定義するステップを含む、請求項3に従属する場合における請求項4から7のいずれか一項に記載の方法。
  11. 前記処理ユニットを用いて、前記撮影画像中の対応するロケーションでの正規化画像強度勾配の関数として透明度値を決定するステップを含む、請求項1から10のいずれか一項に記載の方法。
  12. 前記正規化勾配を計算するステップが、前記撮影画像中の対応するロケーションでの画像強度によって割り算された画像座標に関して偏微分を決定するステップを含む、請求項11に記載の方法。
  13. 前記処理ユニットを用いて、前記NPR画像のエリアに対し顕著性マップを定義するステップと、
    前記処理ユニットを用いて、前記顕著性マップの対応する値の関数として透明度値を前記NPR画像のピクセルに割り当てるステップと、
    を含む、請求項1から12のいずれか一項に記載の方法。
  14. 前記処理ユニットを用いて、前記顕著性マップが前記撮影画像の下にあるシーン中の局所傾きの関数として定義される、請求項13に記載の方法。
  15. 前記処理ユニットを用いて、前記局所傾きが前記撮影画像中の陰影に基づいて推定される、請求項14に記載の方法。
  16. 前記処理ユニットを用いて、前記局所傾きが前記撮影画像中の対応する正規化強度勾配の関数として推定される、請求項14又は15に記載の方法。
  17. 前記処理ユニットを用いて、前記顕著性マップの対応する値の関数としてカラー値を前記NPR画像のピクセルに割り当てるステップを含む、請求項13から16のいずれか一項に記載の方法。
  18. 前記NPR画像の背後にレンダリングされた物体が、前記顕著性マップの値がより低い場合にエリアを通して観察され、前記顕著性マップがより高い値を有する場合に遮蔽されているとして認知されるように、前記処理ユニットを用いて、前記透明度値及びカラー値が割り当てられる、請求項17に記載の方法。
  19. 前記処理ユニットを用いて、前記物体が医療イメージングデータから導出される、請求項2に記載の方法、あるいは、請求項2に従属する場合における請求項3から18のいずれか一項に記載の方法。
  20. 前記画像が立体視内視鏡を使用して撮影されている、請求項19に記載の方法。
  21. カメラによって撮影され、複数個の画像ピクセルによって定義された撮影デジタル画像を、それぞれが関連するNPR透明度値を有する複数個のNPR画像ピクセルによって定義されたNPR画像としてレンダリングするシステムであって、
    対応する撮影画像ピクセルに依存して少なくとも一部の前記NPR画像ピクセルの透明度値を計算するように構成された透明度計算部を含むシステム。
  22. 前記NPR画像の背後に仮想物体をレンダリングするようにさらに構成されている、請求項21に記載のシステム。
  23. 立体視ビューを定義するためさらなる撮影画像を前記透明度計算部を使用してさらなるNPR画像としてレンダリングするように構成されている、請求項21又は22に記載のシステム。
  24. 前記透明度計算部が、前記NPR画像内部でウィンドウ内部に前記透明度値を割り当てるように構成されている、請求項21、22又は23に記載のシステム
  25. 前記ウィンドウの外側で透明度値を不透明に設定するように構成されている、請求項24に記載のシステム。
  26. 前記ウィンドウ内部から前記ウィンドウの外側へ前記透明度値を徐々に混合するように構成されている、請求項25に記載のシステム。
  27. 観察者の注視を表す入力を有し、観察者の注視に依存してウィンドウ位置を定義するウィンドウ化モジュールを含む、請求項24から26に記載のシステム。
  28. 前記ウィンドウ化モジュールが、更新要求を観察者から受けたとき、前記ウィンドウ位置を更新するように構成されている、請求項27に記載のシステム。
  29. 前記ウィンドウ化モジュールが、観察者の注視を追跡するため前記ウィンドウ位置を連続的に更新するように構成されている、請求項27に記載のシステム。
  30. 請求項23に従属する場合、前記透明度計算部が、前記さらなるNPR画像において、前記立体視ビューに従って前記NPR画像中のウィンドウに関してあるオフセットで位置決めされているさらなるウィンドウの内側に透明度値を割り当てるように構成されている、請求項24から29のいずれか一項に記載のシステム。
  31. 前記透明度計算部が前記撮影画像中の対応する各ロケーションでの正規化画像強度勾配の関数として前記透明度値を決定するように構成されている、請求項21から30のいずれか一項に記載のシステム。
  32. 前記透明度計算部が前記対応する各ロケーションでの画像強度によって割り算された画像座標に関して偏微分を決定することにより前記正規化画像強度勾配を計算するように構成されている、請求項31に記載のシステム。
  33. 前記透明度計算部が、前記撮影画像のエリアに対し顕著性マップを定義し、前記顕著性マップの対応する値の関数として透明度値を前記NPR画像のピクセルに割り当てるように構成されている、請求項21から32のいずれか一項に記載のシステム。
  34. 前記透明度計算部が前記撮影画像の下にあるシーン中の局所傾きの関数として前記顕著性マップを定義するように構成されている、請求項33に記載のシステム。
  35. 前記透明度計算部が前記撮影画像中の陰影に基づいて前記局所傾きを推定するように構成されている、請求項34に記載のシステム。
  36. 前記透明度計算部が前記撮影画像中の各正規化強度勾配の関数として推定された前記局所傾きを推定するように構成されている、請求項34又は35に記載のシステム。
  37. 前記顕著性マップの対応する値の関数としてカラー値を前記NPR画像のピクセルに割り当てるように構成されているカラー計算部を含む、請求項33から36のいずれか一項に記載のシステム。
  38. 前記NPR画像の背後にレンダリングされた物体が、前記顕著性マップが低い値を有する場合にはエリアを通して観察され、一方、前記顕著性マップが高い値を有する場合には遮蔽されているとして認知されるように、前記透明度計算部及び前記カラー計算部は、それぞれの値を割り当てるよう構成されている請求項37に記載のシステム。
  39. 前記仮想物体が医療イメージングデータから導出される、請求項22に記載のシステム、あるいは、請求項22に従属する場合における前記請求項23から38のいずれか一項に記載のシステム。
  40. 画像が立体視内視鏡を使用して撮影されている、請求項39に記載のシステム。
  41. 外科手術シーンの立体視画像を撮影する立体視内視鏡と、撮影画像を観察する立体視観察装置とを含む最小侵襲手術のためのロボット手術コンソールであって、
    前記立体視内視鏡から受け取った画像をレンダリングし、前記立体視観察装置に表示するように構成された請求項21から40のいずれか一項に記載のシステムを含むコンソール。
  42. コンピュータで実行される場合、請求項1から20のいずれか一項に記載の方法を実施するコンピュータプログラム。
  43. 請求項42に記載されたコンピュータプログラムを格納するコンピュータ読み取り可能な媒体
JP2010514098A 2007-06-29 2008-06-23 拡張現実感の非写実的レンダリング Active JP5186561B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB0712690.7 2007-06-29
GBGB0712690.7A GB0712690D0 (en) 2007-06-29 2007-06-29 Imagee processing
PCT/GB2008/002139 WO2009004296A1 (en) 2007-06-29 2008-06-23 Non-photorealistic rendering of augmented reality

Publications (2)

Publication Number Publication Date
JP2010532035A JP2010532035A (ja) 2010-09-30
JP5186561B2 true JP5186561B2 (ja) 2013-04-17

Family

ID=38420978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010514098A Active JP5186561B2 (ja) 2007-06-29 2008-06-23 拡張現実感の非写実的レンダリング

Country Status (10)

Country Link
US (1) US8878900B2 (ja)
EP (1) EP2174297B1 (ja)
JP (1) JP5186561B2 (ja)
KR (1) KR20100051798A (ja)
CN (1) CN101802873B (ja)
AT (1) ATE500578T1 (ja)
DE (1) DE602008005312D1 (ja)
ES (1) ES2361228T3 (ja)
GB (1) GB0712690D0 (ja)
WO (1) WO2009004296A1 (ja)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2551789C2 (ru) * 2009-10-02 2015-05-27 Конинклейке Филипс Электроникс Н.В. Выбор точек обзора для формирования дополнительных видов в 3d видео
WO2011126459A1 (en) * 2010-04-08 2011-10-13 Nanyang Technological University Image generating devices, graphics boards, and image generating methods
US20110287811A1 (en) * 2010-05-21 2011-11-24 Nokia Corporation Method and apparatus for an augmented reality x-ray
CN102271262B (zh) * 2010-06-04 2015-05-13 三星电子株式会社 用于3d显示的基于多线索的视频处理方法
KR20110137634A (ko) * 2010-06-17 2011-12-23 삼성전자주식회사 스케치 영상 생성방법 및 이를 적용한 디스플레이 장치
KR101188715B1 (ko) * 2010-10-04 2012-10-09 한국과학기술연구원 수술 도구의 3차원 추적 시스템 및 이를 이용한 위치 감지 방법
JP5738569B2 (ja) 2010-10-15 2015-06-24 任天堂株式会社 画像処理プログラム、装置、システムおよび方法
US8514295B2 (en) * 2010-12-17 2013-08-20 Qualcomm Incorporated Augmented reality processing based on eye capture in handheld device
WO2012135545A1 (en) * 2011-03-29 2012-10-04 Qualcomm Incorporated Modular mobile connected pico projectors for a local multi-user collaboration
KR20120117165A (ko) * 2011-04-14 2012-10-24 삼성전자주식회사 3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치
EP2521097B1 (en) * 2011-04-15 2020-01-22 Sony Interactive Entertainment Europe Limited System and Method of Input Processing for Augmented Reality
US8970693B1 (en) * 2011-12-15 2015-03-03 Rawles Llc Surface modeling with structured light
DE102011089233A1 (de) * 2011-12-20 2013-06-20 Siemens Aktiengesellschaft Texturadaption in zumindest einem aus mindestens zwei Bildern überlagerten, medizinischen Bild
US9734633B2 (en) 2012-01-27 2017-08-15 Microsoft Technology Licensing, Llc Virtual environment generating system
WO2013118065A1 (en) * 2012-02-06 2013-08-15 Biooptico Ab Camera arrangement and image processing method for quantifying tissue structure and degeneration
CN102663788B (zh) * 2012-04-12 2014-09-10 云南大学 一种基于非真实感的钢笔淡彩艺术效果绘制方法
EP2706508B1 (en) * 2012-09-10 2019-08-28 BlackBerry Limited Reducing latency in an augmented-reality display
US9576397B2 (en) 2012-09-10 2017-02-21 Blackberry Limited Reducing latency in an augmented-reality display
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
CN104346777B (zh) * 2013-08-09 2017-08-29 联想(北京)有限公司 一种添加现实增强信息的方法及装置
CN103489214A (zh) * 2013-09-10 2014-01-01 北京邮电大学 增强现实系统中基于虚拟模型预处理的虚实遮挡处理方法
CN110363840A (zh) 2014-05-13 2019-10-22 河谷控股Ip有限责任公司 通过反照率模型、系统和方法的增强现实内容渲染
KR101652888B1 (ko) * 2014-08-20 2016-09-01 재단법인 아산사회복지재단 수술 내비게이션에 의해 수술도구를 표시하는 방법
WO2016038240A1 (en) * 2014-09-09 2016-03-17 Nokia Technologies Oy Stereo image recording and playback
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US10445860B2 (en) 2015-12-08 2019-10-15 Facebook Technologies, Llc Autofocus virtual reality headset
US10241569B2 (en) 2015-12-08 2019-03-26 Facebook Technologies, Llc Focus adjustment method for a virtual reality headset
WO2017114834A1 (en) 2015-12-29 2017-07-06 Koninklijke Philips N.V. System, controller and method using virtual reality device for robotic surgery
EP3211599A1 (en) * 2016-02-29 2017-08-30 Thomson Licensing Adaptive depth-guided non-photorealistic rendering method, corresponding computer program product, computer-readable carrier medium and device
US11106276B2 (en) 2016-03-11 2021-08-31 Facebook Technologies, Llc Focus adjusting headset
JP6493885B2 (ja) * 2016-03-15 2019-04-03 富士フイルム株式会社 画像位置合せ装置、画像位置合せ装置の作動方法および画像位置合せプログラム
DE112017001315T5 (de) * 2016-03-16 2018-11-22 Koninklijke Philips N.V. Rechenvorrichtung zum Überblenden eines laparoskopischen Bildes und eines Ultraschallbildes
WO2017165566A1 (en) * 2016-03-25 2017-09-28 The Regents Of The University Of California High definition, color images, animations, and videos for diagnostic and personal imaging applications
US10379356B2 (en) 2016-04-07 2019-08-13 Facebook Technologies, Llc Accommodation based optical correction
WO2017179350A1 (ja) * 2016-04-11 2017-10-19 富士フイルム株式会社 画像表示制御装置および方法並びにプログラム
US10429647B2 (en) 2016-06-10 2019-10-01 Facebook Technologies, Llc Focus adjusting virtual reality headset
CN106780760A (zh) * 2016-12-12 2017-05-31 大连文森特软件科技有限公司 一种基于ar虚拟现实技术的整形手术观摩系统
US10310598B2 (en) 2017-01-17 2019-06-04 Facebook Technologies, Llc Varifocal head-mounted display including modular air spaced optical assembly
US10628995B2 (en) 2017-04-17 2020-04-21 Microsoft Technology Licensing, Llc Anti-aliasing of graphical elements defined based on functions
JP2021510224A (ja) 2018-01-10 2021-04-15 コヴィディエン リミテッド パートナーシップ 患者および手術ロボットを配置するためのガイダンス
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
WO2020106299A1 (en) 2018-11-21 2020-05-28 Hewlett-Packard Development Company, L.P. Augmenting live images of a scene for occlusion
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US10818028B2 (en) * 2018-12-17 2020-10-27 Microsoft Technology Licensing, Llc Detecting objects in crowds using geometric context
CN110009720B (zh) * 2019-04-02 2023-04-07 阿波罗智联(北京)科技有限公司 Ar场景中的图像处理方法、装置、电子设备及存储介质
US10881353B2 (en) * 2019-06-03 2021-01-05 General Electric Company Machine-guided imaging techniques
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
EP4093311A4 (en) * 2020-01-22 2023-06-14 Beyeonics Surgical Ltd. SYSTEM AND METHOD FOR ENHANCED ELECTRONICALLY ASSISTED MEDICAL PROCEDURES
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
CA3231531A1 (en) * 2021-09-10 2023-03-16 Boston Scientific Scimed, Inc. Method of robust surface and depth estimation
CN117041511B (zh) * 2023-09-28 2024-01-02 青岛欧亚丰科技发展有限公司 一种展厅视觉交互增强的视频图像处理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6151009A (en) * 1996-08-21 2000-11-21 Carnegie Mellon University Method and apparatus for merging real and synthetic images
US7355597B2 (en) * 2002-05-06 2008-04-08 Brown University Research Foundation Method, apparatus and computer program product for the interactive rendering of multivalued volume data with layered complementary values
US7295720B2 (en) * 2003-03-19 2007-11-13 Mitsubishi Electric Research Laboratories Non-photorealistic camera
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
WO2006099490A1 (en) * 2005-03-15 2006-09-21 The University Of North Carolina At Chapel Hill Methods, systems, and computer program products for processing three-dimensional image data to render an image from a viewpoint within or beyond an occluding region of the image data
US20070070063A1 (en) * 2005-09-29 2007-03-29 Siemens Medical Solutions Usa, Inc. Non-photorealistic volume rendering of ultrasonic data
EP2034442A1 (en) * 2007-09-06 2009-03-11 Thomson Licensing Method for non-photorealistic rendering of an image frame sequence

Also Published As

Publication number Publication date
ES2361228T3 (es) 2011-06-15
US20100177163A1 (en) 2010-07-15
GB0712690D0 (en) 2007-08-08
ATE500578T1 (de) 2011-03-15
KR20100051798A (ko) 2010-05-18
CN101802873A (zh) 2010-08-11
US8878900B2 (en) 2014-11-04
EP2174297B1 (en) 2011-03-02
CN101802873B (zh) 2012-11-28
JP2010532035A (ja) 2010-09-30
WO2009004296A1 (en) 2009-01-08
EP2174297A1 (en) 2010-04-14
DE602008005312D1 (de) 2011-04-14

Similar Documents

Publication Publication Date Title
JP5186561B2 (ja) 拡張現実感の非写実的レンダリング
Chen et al. SLAM-based dense surface reconstruction in monocular minimally invasive surgery and its application to augmented reality
Lerotic et al. Pq-space based non-photorealistic rendering for augmented reality
US9681925B2 (en) Method for augmented reality instrument placement using an image based navigation system
US8090174B2 (en) Virtual penetrating mirror device for visualizing virtual objects in angiographic applications
CN103356155B (zh) 虚拟内窥镜辅助的腔体病灶检查系统
US11961193B2 (en) Method for controlling a display, computer program and mixed reality display device
CN108778143B (zh) 用于将腹腔镜图像与超声图像进行叠加的计算设备
Wieczorek et al. GPU-accelerated rendering for medical augmented reality in minimally-invasive procedures.
CN113906479A (zh) 从局部深度图生成合成三维成像
Macedo et al. A semi-automatic markerless augmented reality approach for on-patient volumetric medical data visualization
Goncalves et al. Perspective shape from shading for wide-FOV near-lighting endoscopes
US20230316639A1 (en) Systems and methods for enhancing medical images
Fischer et al. A hybrid tracking method for surgical augmented reality
Özgür et al. [POSTER] visualizing in-organ tumors in augmented monocular laparoscopy
Reichard et al. Intraoperative on-the-fly organ-mosaicking for laparoscopic surgery
JP6770655B2 (ja) ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法
Singh et al. A novel enhanced hybrid recursive algorithm: Image processing based augmented reality for gallbladder and uterus visualisation
Rahman et al. A framework to visualize 3d breast tumor using x-ray vision technique in mobile augmented reality
Yi et al. Marker‐less augmented reality based on monocular vision for falx meningioma localization
Habert et al. Multi-layer visualization for medical mixed reality
Wang et al. Stereoscopic augmented reality for single camera endoscopy: a virtual study
Habert et al. [POSTER] Augmenting Mobile C-arm Fluoroscopes via Stereo-RGBD Sensors for Multimodal Visualization
EP4231246A1 (en) Technique for optical guidance during a surgical procedure
Thapa et al. A novel augmented reality for hidden organs visualisation in surgery: enhanced super-pixel with sub sampling and variance adaptive algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130121

R150 Certificate of patent or registration of utility model

Ref document number: 5186561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250