JP2015518582A - 顕微鏡の稼働時に実施する方法および顕微鏡 - Google Patents
顕微鏡の稼働時に実施する方法および顕微鏡 Download PDFInfo
- Publication number
- JP2015518582A JP2015518582A JP2015509364A JP2015509364A JP2015518582A JP 2015518582 A JP2015518582 A JP 2015518582A JP 2015509364 A JP2015509364 A JP 2015509364A JP 2015509364 A JP2015509364 A JP 2015509364A JP 2015518582 A JP2015518582 A JP 2015518582A
- Authority
- JP
- Japan
- Prior art keywords
- display
- microscope
- alternative
- displayed
- substitute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 230000008859 change Effects 0.000 claims description 25
- 230000003287 optical effect Effects 0.000 claims description 16
- 230000004044 response Effects 0.000 claims description 14
- 238000005286 illumination Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 11
- 230000001419 dependent effect Effects 0.000 claims description 11
- 238000009877 rendering Methods 0.000 claims description 11
- 230000004048 modification Effects 0.000 claims description 7
- 238000012986 modification Methods 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 6
- 230000002123 temporal effect Effects 0.000 claims description 6
- 230000033001 locomotion Effects 0.000 claims description 5
- 241000269627 Amphiuma means Species 0.000 claims description 3
- 230000003252 repetitive effect Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 description 20
- 238000002156 mixing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 239000012634 fragment Substances 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 4
- 230000005284 excitation Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004061 bleaching Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002292 fluorescence lifetime imaging microscopy Methods 0.000 description 1
- 238000002376 fluorescence recovery after photobleaching Methods 0.000 description 1
- 238000002866 fluorescence resonance energy transfer Methods 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/0004—Microscopes specially adapted for specific applications
- G02B21/002—Scanning microscopes
- G02B21/0024—Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
- G02B21/008—Details of detection or image processing, including general computer control
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
- G02B21/365—Control or image processing arrangements for digital or video microscopes
- G02B21/367—Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Microscoopes, Condenser (AREA)
Abstract
Description
a.対象物の代替物(Stellvertreter)をディスプレイもしくは別のディスプレイ上に表示するステップと、
b.前記代替物および/または前記代替物の表示において入力手段を用いて少なくとも1つの操作を行うステップと、
c.前記操作から対象物もしくは対象物の部分の表示のための少なくとも1つの表示パラメータを導出するステップ、および/または前記操作から少なくとも1つの顕微鏡制御パラメータを導出するステップと、
d.前記対象物もしくは対象物の部分を、前記導出された表示パラメータおよび/または前記導出された顕微鏡制御パラメータを考慮して表示するステップと、を含む方法によって解決される。
a.対象物の代替物をディスプレイもしくは別のディスプレイ上に表示する手段と、
b.前記代替物および/または前記代替物の表示において入力手段を用いて少なくとも1つの操作を行う手段と、
c.対象物の表示もしくは対象物の部分の表示のための少なくとも1つの表示パラメータを前記操作から導出する手段、および/または少なくとも1つの顕微鏡制御パラメータを前記操作から導出する手段と、
d.前記対象物もしくは対象物の部分を、前記導出された表示パラメータおよび/または前記導出された顕微鏡制御パラメータを考慮して表示する手段と、を備える顕微鏡によって解決される。
..t,チャネル(1,t)..チャネル(n,t),空間データ(FLIM,FRAP,FRET…)
等も発生し得る。
α=f(I)=α*I (1)
ここでαは、表示の濁度を決定する係数であり、ユーザによりチャネルに依存して選択することができる。このようにして形成されたテクスチャはCPU104によりグラフィックカード106のテクスチャメモリ111に書き込まれる。
R’=R・(1−α)+Ir・α
G’=G・(1−α)+Ig・α (2)
B’=B・(1−α)+Ib・α
a・x+b・y+c・z+d=0 (3)
ただし、a2+b2+c2=1
D=a・x+b・y+c・z+d (4)
により計算することができる。異なるDを備えるポイントは、平面によって分離された異なる半体積(複数)内に存在する。インタフェースはOpenGLのように、係数a,b,cおよびdの指定により複数の断面を確定する。GPU107のプリミティブアセンブリおよびラスタリングユニット109では、三角形が前記のアルファブレンディングの際に切断される。この演算の結果は、切断除去すべき半体積内には存在しない0から2の三角形である。この演算に対する適切なアルゴリズムは、サザーランド−ホッジマン・ポリゴンクリッピング(Sutherland-Hodgeman Polygon Clipping)であり、これについては本明細書の後でさらに述べる。複数の切断面には、平面によって切断除去されない成分だけが表示される。
・切断面(複数)を全体体積により確定するステップ、
・全体体積を体積セグメントに分割するステップ、
・体積セグメントを選択するステップ、
・データの部分集合を体積セグメントの前記選択に応じて表示するステップ。
ただし
Pl(n)=0, Dn<0の場合
Pl(n)=2n、 Dn≧0の場合 (5)
と
の補間は、切断面からの2つの点の距離D1とD2を決定し、
(6)
により計算することによって行われる。同じようにしてテクスチャ座標が計算される。引き続き、このようにして得られた三角形が別の切断面により分解される。
1102 照明光線束、焦点
1103 照明ホール絞り
1104 ダイクロイックメインビームスプリッタ
1105 光線偏向装置
1106 走査光学系
1107 鏡筒光学系
1108 対物レンズ
1109 対象物
1111 検出ホール絞り
1112 検出装置
1113 制御装置
1114 ディスプレイ
1115 対象物の表示
1116 代替物の表示
1117 携帯コンピュータ
1118 別のディスプレイ
101 入力装置
301 代替物の表示
302 対象物の表示
303 切断面
401 切断多角形
402,403,404 切断面
405,406,407 切断線
408 三角形
101 入力装置
102 コンピュータユニット
103 モニタ
104 CPU
105 メモリ
106 グラフィックカード
107 GPU
111 テクスチャメモリ
112 画像メモリ
801 制御エレメント
802 画像表示部
1001,1002,1003,1005,1006,1007 体積セグメント
(形態1)顕微鏡の稼働時に実施する方法および/または顕微鏡により撮像された対象物もしくは顕微鏡により撮像された対象物の部分を表示する方法であって、
a.対象物の代替物をディスプレイもしくは別のディスプレイ上に表示するステップと、
b.前記代替物および/または前記代替物の表示において入力手段を用いて少なくとも1つの操作を行うステップと、
c.前記操作から対象物もしくは対象物の部分の表示のための少なくとも1つの表示パラメータを導出するステップ、および/または前記操作から少なくとも1つの顕微鏡制御パラメータを導出するステップと、
d.前記対象物もしくは前記対象物の部分を、前記導出された表示パラメータおよび/または前記導出された顕微鏡制御パラメータを考慮して表示するステップと、
を含む方法が提供される。
(形態2)a.前記代替物および/またはその表示において行われる操作により、当該操作に対応して前記対象物の表示が、とりわけ自動的に、変化されること、および/または
b.代替物および/またはその表示において行われる操作により、当該操作に対応して前記対象物の表示が、とりわけ自動的に、変化されること、ただしその際、前記対象物の表示の変化は、少なくとも1つの表示パラメータの変化に基づくこと、および/または少なくとも1つの顕微鏡制御パラメータの変化に基づくこと、
c.前記代替物のクリックまたはその他の接触により、3D空間セグメントを簡単に差込入射および取出出射することができること、が好ましい。
(形態3)オフライン動作のためにまず対象物画像データを顕微鏡により形成し、オフライン動作においては前記対象物もしくは前記対象物の部分の表示のための表示パラメータだけが前記操作から導出されること、が好ましい。
(形態4)顕微鏡のオンライン動作においては、対象物の継続する、とりわけ反復する、走査中に、前記対象物もしくは前記対象物の部分を表示するための表示パラメータを、前記操作から導出すること、および/または顕微鏡制御パラメータを前記操作から導出すること、が好ましい。
(形態5)a.前記代替物は仮想の対象物であること、および/または
b.前記代替物は、さらなる多次元の、とりわけ3次元の対象物であること、および/またはさらなる多次元の、とりわけ3次元の対象物の部分であること、および/または
c.前記代替物は、幾何形状物体および/または幾何形状物体の部分であること、および/または
d.前記代替物は、球および/または球の部分であること、および/または
e.前記代替物の3次元形状は、実際の対象物の抽象物に対応すること、が好ましい。
(形態6)a.前記代替物は、ユーザに表示される座標系を有すること、および/または
b.前記代替物は、座標軸の形で、および/または特徴的平面もしくは面の表示により、および/または基本平面の表示によりユーザに表示される座標系を有すること、が好ましい。
(形態7)a.前記代替物もしくは前記代替物の表面は、透明もしくは半透明に表示され、または前記代替物の部分は透明もしくは半透明に表示されること、または
b.前記代替物の表面は、テクスチャおよび/または符号および/またはパターンおよび/または色を有すること、および/または
c.前記代替物の表面は、時間的にもしくは状態に依存して変化可能なテクスチャおよび/または時間的にもしくは状態に依存して変化可能な符号および/または時間的にもしくは状態に依存して変化可能なパターンおよび/または時間的にまたは状態に依存して変化可能な色を有すること、および/または
d.時間的にもしくは状態に依存して変化可能な透明度を有すること、が好ましい。
(形態8)a.前記操作は回転を含むこと、および/または
b.前記操作は、部分領域の切り取りを含むこと、および/または
c.前記操作は、前記代替物の座標系の一象元に配置された部分の切り取りを含むこと、および/または
d.前記操作は、1つまたは複数の切断面の追加もしくは変更を含むこと、および/または
e.前記操作は、代替物の部分の切り取り、または代替物の表示の部分の切り取りを含むこと、および/または
f.前記操作は、代替物の部分のマーキングを含むこと、および/または
g.隣接する切断面を時間的に順次連続して表示するために前記操作は、スタートマーク、とりわけ出発平面、およびエンドマーク、とりわけ終了平面、の追加もしくは変更を含むこと、および/または
h.前記操作は、代替物もしくは代替物の表示の大きさの変更を含むこと、および/または
i.前記操作は、ディスプレイ上もしくは別のディスプレイ上での代替物の表示の移動を含むこと、が好ましい。
(形態9)a.前記表示パラメータは、対象物の表示に関するオリエンテーションについての情報を含むこと、および/または
b.前記表示パラメータは、対象物の表示の大きさに関する情報もしくは対象物の部分の表示の大きさに関する情報を含むこと、および/または
c.前記表示パラメータは、対象物の表示すべき部分の外側輪郭および/または形状に関する情報を含むこと、および/または
d.前記表示パラメータは、対象物の種々異なる表示および/または対象物の種々異なる部分の表示の時間的連続に関する情報を含むこと、および/または
e.前記表示パラメータは、対象物もしくは対象物の表示すべき部分の表示位置に関する情報を含むこと、が好ましい。
(形態10)対象物の表示のために、体積レンダリング法が使用されること、が好ましい。
(形態11)一体積が体積セグメントに分割され、体積セグメントがユーザにより選択され、データの部分集合の表示が体積セグメントの当該選択に応じて行われること、が好ましい。
(形態12)異なる体積セグメントにおいてレンダリング法の種々の組合せが、ユーザの選択に応じて使用されること、が好ましい。
(形態13)異なる体積セグメントにおいて、種々の画像チャネルのデータもしくは画像チャネルの組合せのデータが、ユーザの選択に応じて表示されること、が好ましい。
(形態14)a.前記顕微鏡制御パラメータは、走査すべき少なくとも1つの対象物面に関する情報を含むこと、および/または
b.前記顕微鏡制御パラメータは、対象物の走査すべき切断面の少なくとも1つの連続に関する情報を含むこと、および/または
c.前記顕微鏡制御パラメータは、照明光線の焦点の時間的位置に関する情報を含むこと、および/または
d.前記顕微鏡制御パラメータは、走査速度に関する情報を含むこと、および/または
e.前記顕微鏡制御パラメータは、走査精度および/または解像度に関する情報を含むこと、および/または
f.前記顕微鏡制御パラメータは、対象物操作に関する情報を含むこと、が好ましい。
(形態15)a.対象物もしくは対象物の部分は、立体ディスプレイまたはホログラフディスプレイ上に表示されること、および/または
b.代替物は、立体ディスプレイまたはホログラフディスプレイ上に表示されること、および/または
c.対象物および/または代替物は3次元表示されること、および/または
d.対象物および/または代替物はホログラムとして表示されること、および/または
e.対象物および/または代替物は立体画像として表示されること、および/または
f.対象物および/または代替物は、2次元表示として斜視的に表示されること、および/または
g.代替物は2次元に表示され、対象物は立体ディスプレイもしくはホログラフディスプレイにより3次元に表示されること、が好ましい。
(形態16)前記別のディスプレイは、携帯コンピュータおよび/またはラップトップおよび/または携帯電話および/またはタブレットPCのディスプレイであること、が好ましい。
(形態17)前記入力手段は、コンピュータマウスもしくは接触感知性パネルもしくは接触感知性スクリーンもしくは運動センサを有すること、および/または前記入力手段は容量的におよび/または誘導的に動作すること、および/または前記入力手段は、情報を無線で、もしくは音波伝送で、もしくは光伝送で伝送すること、が好ましい。
(形態18)対象物の他にさらなる対象物が表示され、当該さらなる対象物にはさらなる代替物が割り当てられ、前記さらなる対象物と前記さらなる代替物に関連しても、形態1から13のいずれかに記載の方法と類似の方法が実施されること、が好ましい。
(形態19)本方法は、コンピュータおよび/または走査顕微鏡および/またはレーザ走査顕微鏡および/または共焦点走査顕微鏡により実施されること、が好ましい。
(形態20)顕微鏡のプログラミング可能な制御装置またはデジタルコンピュータのメモリに直接ロードすることができるコンピュータプログラム製品であって、当該コンピュータプログラム製品がコンピュータ上で実行されるときに本発明の方法を実施することのできるソフトウエアコード部分を含むコンピュータプログラム製品が提供される。
(形態21)本発明の方法を実施するための顕微鏡、とりわけ走査顕微鏡および/またはレーザ走査顕微鏡および/または共焦点走査顕微鏡が提供される。
(形態22)ディスプレイと、顕微鏡により撮像された対象物もしくは顕微鏡により撮像された対象物の部分を前記ディスプレイに表示するための手段とを備える顕微鏡、とりわけ走査顕微鏡および/またはレーザ走査顕微鏡および/または共焦点走査顕微鏡であって、
a.対象物の代替物をディスプレイもしくは別のディスプレイ上に表示する手段と、
b.前記代替物および/または前記代替物の表示において入力手段を用いて少なくとも1つの操作を行う手段と、
c.対象物の表示もしくは対象物の部分の表示のための少なくとも1つの表示パラメータを前記操作から導出する手段、および/または少なくとも1つの顕微鏡制御パラメータを前記操作から導出する手段と、
d.前記対象物もしくは対象物の部分を、前記導出された表示パラメータおよび/または前記導出された顕微鏡制御パラメータを考慮して表示する手段と、
を備える顕微鏡が提供される。
(形態23)a.前記代替物および/またはその表示において行われる操作によって、とりわけ自動的に、制御装置により、とりわけ制御コンピュータにより当該操作に対応して対象物の表示が変化すること、および/または
b.前記代替物および/またはその表示において行われる操作によって、とりわけ自動的に、制御装置により、とりわけ制御コンピュータにより当該操作に対応して対象物の表示が変化すること、ただしその際に前記対象物の表示の変化は、少なくとも1つの表示パラメータの変化に基づくこと、および/または少なくとも1つの顕微鏡制御パラメータの変化に基づくこと、が好ましい。
(形態24)別の顕微鏡もしくは同じ顕微鏡により獲得された対象物、とりわけ生物学的対象物の対象物データの表示のために、本発明の方法および/または本発明の顕微鏡、とりわけ走査顕微鏡および/またはレーザ走査顕微鏡および/または共焦点走査顕微鏡を使用する使用法が提供される。
本発明は、ユーザが表示システムに、例えばコンピュータ制御されるディスプレイを備える顕微鏡に、どのような周辺条件により、どのような表示形式を望むかを、迅速かつ効率的に通知できるという利点を有する。ここでは特に有利なやり方で、対象物自体の表示ではなく、少なくとも1つのとりわけ仮想の代替物において、および/またはその表示において操作が行われる。この代替物は、とりわけユーザにとって容易にかつ迅速に概念的に理解できるさらなる対象物、例えば球とすることができる。しかしながら本来表示すべき、例えば生物学的対象物は、格段に複雑な構造、例えば形状を有することができる。これによりユーザにとって、自分の行為についての概観が格段に高まる。とりわけ、表示される対象物の詳細情報が多数あるためにユーザがオリエンテーション(方位感覚)を失い、どの視線方向が現在選択されているか、またはどの部分領域をユーザが取出出射または差込入射しているかを、時間を掛けて考えなければならないという事態が回避される。
Claims (24)
- 顕微鏡の稼働時に実施する方法および/または顕微鏡により撮像された対象物もしくは顕微鏡により撮像された対象物の部分を表示する方法であって、
a.対象物の代替物をディスプレイもしくは別のディスプレイ上に表示するステップと、
b.前記代替物および/または前記代替物の表示において入力手段を用いて少なくとも1つの操作を行うステップと、
c.前記操作から対象物もしくは対象物の部分の表示のための少なくとも1つの表示パラメータを導出するステップ、および/または前記操作から少なくとも1つの顕微鏡制御パラメータを導出するステップと、
d.前記対象物もしくは前記対象物の部分を、前記導出された表示パラメータおよび/または前記導出された顕微鏡制御パラメータを考慮して表示するステップと、
を含む方法。 - a.前記代替物および/またはその表示において行われる操作により、当該操作に対応して前記対象物の表示が、とりわけ自動的に、変化されること、および/または
b.代替物および/またはその表示において行われる操作により、当該操作に対応して前記対象物の表示が、とりわけ自動的に、変化されること、ただしその際、前記対象物の表示の変化は、少なくとも1つの表示パラメータの変化に基づくこと、および/または少なくとも1つの顕微鏡制御パラメータの変化に基づくこと、
c.前記代替物のクリックまたはその他の接触により、3D空間セグメントを簡単に差込入射および取出出射することができること、
を特徴とする請求項1に記載の方法。 - オフライン動作のためにまず対象物画像データを顕微鏡により形成し、オフライン動作においては前記対象物もしくは前記対象物の部分の表示のための表示パラメータだけが前記操作から導出されること、
を特徴とする請求項1または2に記載の方法。 - 顕微鏡のオンライン動作においては、対象物の継続する、とりわけ反復する、走査中に、前記対象物もしくは前記対象物の部分を表示するための表示パラメータを、前記操作から導出すること、および/または顕微鏡制御パラメータを前記操作から導出すること、
を特徴とする請求項1から3のいずれか一項に記載の方法。 - a.前記代替物は仮想の対象物であること、および/または
b.前記代替物は、さらなる多次元の、とりわけ3次元の対象物であること、および/またはさらなる多次元の、とりわけ3次元対の象物の部分であること、および/または
c.前記代替物は、幾何形状物体および/または幾何形状物体の部分であること、および/または
d.前記代替物は、球および/または球の部分であること、および/または
e.前記代替物の3次元形状は、実際の対象物の抽象物に対応すること、
を特徴とする請求項1から4のいずれか一項に記載の方法。 - a.前記代替物は、ユーザに表示される座標系を有すること、および/または
b.前記代替物は、座標軸の形で、および/または特徴的平面もしくは面の表示により、および/または基本平面の表示によりユーザに表示される座標系を有すること、
を特徴とする請求項1から5のいずれか一項に記載に記載の方法。 - a.前記代替物もしくは前記代替物の表面は、透明もしくは半透明に表示され、または前記代替物の部分は透明もしくは半透明に表示されること、または
b.前記代替物の表面は、テクスチャおよび/または符号および/またはパターンおよび/または色を有すること、および/または
c.前記代替物の表面は、時間的にもしくは状態に依存して変化可能なテクスチャおよび/または時間的にもしくは状態に依存して変化可能な符号および/または時間的にもしくは状態に依存して変化可能なパターンおよび/または時間的にまたは状態に依存して変化可能な色を有すること、および/または
d.時間的にもしくは状態に依存して変化可能な透明度を有すること、
を特徴とする請求項1から6のいずれか一項に記載の方法。 - a.前記操作は回転を含むこと、および/または
b.前記操作は、部分領域の切り取りを含むこと、および/または
c.前記操作は、前記代替物の座標系の一象元に配置された部分の切り取りを含むこと、および/または
d.前記操作は、1つまたは複数の切断面の追加もしくは変更を含むこと、および/または
e.前記操作は、代替物の部分の切り取り、または代替物の表示の部分の切り取りを含むこと、および/または
f.前記操作は、代替物の部分のマーキングを含むこと、および/または
g.隣接する切断面を時間的に順次連続して表示するために前記操作は、スタートマーク、とりわけ出発平面、およびエンドマーク、とりわけ終了平面、の追加もしくは変更を含むこと、および/または
h.前記操作は、代替物もしくは代替物の表示の大きさの変更を含むこと、および/または
i.前記操作は、ディスプレイ上もしくは別のディスプレイ上での代替物の表示の移動を含むこと、
を特徴とする請求項1から7のいずれか一項に記載の方法。 - a.前記表示パラメータは、対象物の表示に関するオリエンテーションについての情報を含むこと、および/または
b.前記表示パラメータは、対象物の表示の大きさに関する情報もしくは対象物の部分の表示の大きさに関する情報を含むこと、および/または
c.前記表示パラメータは、対象物の表示すべき部分の外側輪郭および/または形状に関する情報を含むこと、および/または
d.前記表示パラメータは、対象物の種々異なる表示および/または対象物の種々異なる部分の表示の時間的連続に関する情報を含むこと、および/または
e.前記表示パラメータは、対象物もしくは対象物の表示すべき部分の表示位置に関する情報を含むこと、
を特徴とする請求項1から8のいずれか一項に記載の方法。 - 対象物の表示のために、体積レンダリング法が使用されること、
を特徴とする請求項1から9のいずれか一項に記載の方法。 - 一体積が体積セグメントに分割され、体積セグメントがユーザにより選択され、データの部分集合の表示が体積セグメントの当該選択に応じて行われること、
を特徴とする請求項10に記載の方法。 - 異なる体積セグメントにおいてレンダリング法の種々の組合せが、ユーザの選択に応じて使用されること、
を特徴とする請求項10または11に記載の方法。 - 異なる体積セグメントにおいて、種々の画像チャネルのデータもしくは画像チャネルの組合せのデータが、ユーザの選択に応じて表示されること、
を特徴とする請求項10から12のいずれか一項に記載の方法。 - a.前記顕微鏡制御パラメータは、走査すべき少なくとも1つの対象物面に関する情報を含むこと、および/または
b.前記顕微鏡制御パラメータは、対象物の走査すべき切断面の少なくとも1つの連続に関する情報を含むこと、および/または
c.前記顕微鏡制御パラメータは、照明光線の焦点の時間的位置に関する情報を含むこと、および/または
d.前記顕微鏡制御パラメータは、走査速度に関する情報を含むこと、および/または
e.前記顕微鏡制御パラメータは、走査精度および/または解像度に関する情報を含むこと、および/または
f.前記顕微鏡制御パラメータは、対象物操作に関する情報を含むこと、
を特徴とする請求項1から13のいずれか一項に記載の方法。 - a.対象物もしくは対象物の部分は、立体ディスプレイまたはホログラフディスプレイ上に表示されること、および/または
b.代替物は、立体ディスプレイまたはホログラフディスプレイ上に表示されること、および/または
c.対象物および/または代替物は3次元表示されること、および/または
d.対象物および/または代替物はホログラムとして表示されること、および/または
e.対象物および/または代替物は立体画像として表示されること、および/または
f.対象物および/または代替物は、2次元表示として斜視的に表示されること、および/または
g.代替物は2次元に表示され、対象物は立体ディスプレイもしくはホログラフディスプレイにより3次元に表示されること、
を特徴とする請求項1から14のいずれか一項に記載の方法。 - 前記別のディスプレイは、携帯コンピュータおよび/またはラップトップおよび/または携帯電話および/またはタブレットPCのディスプレイであること、
を特徴とする請求項1から15のいずれか一項に記載の方法。 - 前記入力手段は、コンピュータマウスもしくは接触感知性パネルもしくは接触感知性スクリーンもしくは運動センサを有すること、および/または前記入力手段は容量的におよび/または誘導的に動作すること、および/または前記入力手段は、情報を無線で、もしくは音波伝送で、もしくは光伝送で伝送すること、
を特徴とする請求項1から16のいずれか一項に記載の方法。 - 対象物の他にさらなる対象物が表示され、当該さらなる対象物にはさらなる代替物が割り当てられ、前記さらなる対象物と前記さらなる代替物に関連しても、請求項1から13のいずれか一項に記載の方法と類似の方法が実施されること、
を特徴とする請求項1から17のいずれか一項に記載の方法。 - 本方法は、コンピュータおよび/または走査顕微鏡および/またはレーザ走査顕微鏡および/または共焦点走査顕微鏡により実施されること、
を特徴とする請求項1から18のいずれか一項に記載の方法。 - 顕微鏡のプログラミング可能な制御装置またはデジタルコンピュータのメモリに直接ロードすることができるコンピュータプログラム製品であって、当該コンピュータプログラム製品がコンピュータ上で実行されるときに請求項1から19のいずれか一項に記載の方法を実施することのできるソフトウエアコード部分を含むコンピュータプログラム製品。
- 請求項1から19のいずれか一項に記載の方法を実施するための顕微鏡、とりわけ走査顕微鏡および/またはレーザ走査顕微鏡および/または共焦点走査顕微鏡。
- ディスプレイと、顕微鏡により撮像された対象物もしくは顕微鏡により撮像された対象物の部分を前記ディスプレイに表示するための手段とを備える顕微鏡、とりわけ走査顕微鏡および/またはレーザ走査顕微鏡および/または共焦点走査顕微鏡であって、
a.対象物の代替物をディスプレイもしくは別のディスプレイ上に表示する手段と、
b.前記代替物および/または前記代替物の表示において入力手段を用いて少なくとも1つの操作を行う手段と、
c.対象物の表示もしくは対象物の部分の表示のための少なくとも1つの表示パラメータを前記操作から導出する手段、および/または少なくとも1つの顕微鏡制御パラメータを前記操作から導出する手段と、
d.前記対象物もしくは対象物の部分を、前記導出された表示パラメータおよび/または前記導出された顕微鏡制御パラメータを考慮して表示する手段と、
を備える顕微鏡。 - a.前記代替物および/またはその表示において行われる操作によって、とりわけ自動的に、制御装置により、とりわけ制御コンピュータにより当該操作に対応して対象物の表示が変化すること、および/または
b.前記代替物および/またはその表示において行われる操作によって、とりわけ自動的に、制御装置により、とりわけ制御コンピュータにより当該操作に対応して対象物の表示が変化すること、ただしその際に前記対象物の表示の変化は、少なくとも1つの表示パラメータの変化に基づくこと、および/または少なくとも1つの顕微鏡制御パラメータの変化に基づくこと、
を特徴とする請求項22に記載の顕微鏡。 - 別の顕微鏡もしくは同じ顕微鏡により獲得された対象物、とりわけ生物学的対象物の対象物データの表示のために、請求項1から19のいずれか一項に記載の方法および/または請求項21から23のいずれか一項に記載の顕微鏡、とりわけ走査顕微鏡および/またはレーザ走査顕微鏡および/または共焦点走査顕微鏡を使用する使用法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102012009257.1 | 2012-05-02 | ||
DE102012009257.1A DE102012009257B4 (de) | 2012-05-02 | 2012-05-02 | Verfahren zur Ausführung beim Betreiben eines Mikroskops und Mikroskop |
PCT/EP2013/058179 WO2013164208A1 (de) | 2012-05-02 | 2013-04-19 | Verfahren zur ausführung beim betreiben eines mikroskops und mikroskop |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015518582A true JP2015518582A (ja) | 2015-07-02 |
JP6255008B2 JP6255008B2 (ja) | 2017-12-27 |
Family
ID=48184187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015509364A Active JP6255008B2 (ja) | 2012-05-02 | 2013-04-19 | 顕微鏡の稼働時に実施する方法および顕微鏡 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10261306B2 (ja) |
JP (1) | JP6255008B2 (ja) |
DE (1) | DE102012009257B4 (ja) |
GB (1) | GB2517110B (ja) |
WO (1) | WO2013164208A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013021542A1 (de) * | 2013-12-18 | 2015-06-18 | Carl Zeiss Microscopy Gmbh | Mikroskop und Verfahren zur SPIM Mikroskopie |
JP2015125177A (ja) * | 2013-12-25 | 2015-07-06 | ソニー株式会社 | 顕微鏡システムおよびその画像データ転送方法 |
JP6171970B2 (ja) | 2014-02-10 | 2017-08-02 | ソニー株式会社 | レーザ走査型顕微鏡装置および制御方法 |
CN105426079B (zh) * | 2015-11-25 | 2018-11-23 | 小米科技有限责任公司 | 图片亮度的调整方法及装置 |
EP3547675A4 (en) * | 2016-11-24 | 2020-04-22 | Nikon Corporation | IMAGE PROCESSING DEVICE, MICROSCOPE SYSTEM, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM |
JP7015144B2 (ja) * | 2017-10-25 | 2022-02-02 | オリンパス株式会社 | 画像処理装置および顕微鏡システム |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005017557A (ja) * | 2003-06-25 | 2005-01-20 | National Institute Of Advanced Industrial & Technology | 三次元顕微鏡システムおよび画像表示方法 |
JP2005326601A (ja) * | 2004-05-14 | 2005-11-24 | Olympus Corp | 顕微鏡装置、立体画像出力方法および立体画像出力プログラム |
JP2007181532A (ja) * | 2006-01-05 | 2007-07-19 | Ziosoft Inc | 画像処理方法および画像処理プログラム |
JP2008058396A (ja) * | 2006-08-29 | 2008-03-13 | Olympus Corp | 顕微鏡撮像システム、顕微鏡撮像方法、及び、記録媒体 |
JP2008164834A (ja) * | 2006-12-27 | 2008-07-17 | Olympus Corp | 顕微鏡及び顕微鏡の明るさ調整方法 |
JP2008175896A (ja) * | 2007-01-16 | 2008-07-31 | Nikon Corp | 画像表示装置 |
JP2009037250A (ja) * | 1997-03-03 | 2009-02-19 | Bacus Lab Inc | コンピュータ制御の顕微鏡から試料の拡大イメージを取得し再構成するための方法および装置 |
JP2010078983A (ja) * | 2008-09-26 | 2010-04-08 | Olympus Corp | 顕微鏡システム、該プログラム、及び該方法 |
JP2010101975A (ja) * | 2008-10-22 | 2010-05-06 | Olympus Corp | 顕微鏡システム |
JP2010141697A (ja) * | 2008-12-12 | 2010-06-24 | Keyence Corp | 撮像装置 |
JP2010139890A (ja) * | 2008-12-12 | 2010-06-24 | Keyence Corp | 撮像装置 |
JP2011180538A (ja) * | 2010-03-03 | 2011-09-15 | Olympus Corp | 顕微鏡装置及び観察位置再現方法 |
WO2012049741A1 (ja) * | 2010-10-13 | 2012-04-19 | 株式会社日立製作所 | 医用画像表示装置、医用情報管理サーバ |
US20130057869A1 (en) * | 2010-03-28 | 2013-03-07 | Ecole Polytechnique Federale De Lausanne | Complex index refraction tomography with sub lambda/6-resolution |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020149628A1 (en) | 2000-12-22 | 2002-10-17 | Smith Jeffrey C. | Positioning an item in three dimensions via a graphical representation |
DE10108240B4 (de) | 2001-02-21 | 2018-06-28 | Leica Microsystems Cms Gmbh | Verfahren zur Abbildung und Vermessung mikroskopischer dreidimensionaler Strukturen |
US20040257360A1 (en) | 2001-10-22 | 2004-12-23 | Frank Sieckmann | Method and device for producing light-microscopy, three-dimensional images |
US20060173268A1 (en) | 2005-01-28 | 2006-08-03 | General Electric Company | Methods and systems for controlling acquisition of images |
WO2008132563A2 (en) * | 2006-10-31 | 2008-11-06 | Koninklijke Philips Electronics N.V. | Fast volume rendering |
US20090208143A1 (en) * | 2008-02-19 | 2009-08-20 | University Of Washington | Efficient automated urothelial imaging using an endoscope with tip bending |
EP2339389B1 (en) | 2008-09-26 | 2014-07-30 | Olympus Corporation | Microscope system, storage medium storing control program, and control method |
US8564623B2 (en) * | 2009-12-11 | 2013-10-22 | Molecular Devices, Llc | Integrated data visualization for multi-dimensional microscopy |
US20130106888A1 (en) * | 2011-11-02 | 2013-05-02 | Microsoft Corporation | Interactively zooming content during a presentation |
US9258550B1 (en) * | 2012-04-08 | 2016-02-09 | Sr2 Group, Llc | System and method for adaptively conformed imaging of work pieces having disparate configuration |
-
2012
- 2012-05-02 DE DE102012009257.1A patent/DE102012009257B4/de active Active
-
2013
- 2013-04-19 US US14/398,513 patent/US10261306B2/en active Active
- 2013-04-19 WO PCT/EP2013/058179 patent/WO2013164208A1/de active Application Filing
- 2013-04-19 GB GB1421358.1A patent/GB2517110B/en active Active
- 2013-04-19 JP JP2015509364A patent/JP6255008B2/ja active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009037250A (ja) * | 1997-03-03 | 2009-02-19 | Bacus Lab Inc | コンピュータ制御の顕微鏡から試料の拡大イメージを取得し再構成するための方法および装置 |
JP2005017557A (ja) * | 2003-06-25 | 2005-01-20 | National Institute Of Advanced Industrial & Technology | 三次元顕微鏡システムおよび画像表示方法 |
JP2005326601A (ja) * | 2004-05-14 | 2005-11-24 | Olympus Corp | 顕微鏡装置、立体画像出力方法および立体画像出力プログラム |
JP2007181532A (ja) * | 2006-01-05 | 2007-07-19 | Ziosoft Inc | 画像処理方法および画像処理プログラム |
JP2008058396A (ja) * | 2006-08-29 | 2008-03-13 | Olympus Corp | 顕微鏡撮像システム、顕微鏡撮像方法、及び、記録媒体 |
JP2008164834A (ja) * | 2006-12-27 | 2008-07-17 | Olympus Corp | 顕微鏡及び顕微鏡の明るさ調整方法 |
JP2008175896A (ja) * | 2007-01-16 | 2008-07-31 | Nikon Corp | 画像表示装置 |
JP2010078983A (ja) * | 2008-09-26 | 2010-04-08 | Olympus Corp | 顕微鏡システム、該プログラム、及び該方法 |
JP2010101975A (ja) * | 2008-10-22 | 2010-05-06 | Olympus Corp | 顕微鏡システム |
JP2010141697A (ja) * | 2008-12-12 | 2010-06-24 | Keyence Corp | 撮像装置 |
JP2010139890A (ja) * | 2008-12-12 | 2010-06-24 | Keyence Corp | 撮像装置 |
JP2011180538A (ja) * | 2010-03-03 | 2011-09-15 | Olympus Corp | 顕微鏡装置及び観察位置再現方法 |
US20130057869A1 (en) * | 2010-03-28 | 2013-03-07 | Ecole Polytechnique Federale De Lausanne | Complex index refraction tomography with sub lambda/6-resolution |
WO2012049741A1 (ja) * | 2010-10-13 | 2012-04-19 | 株式会社日立製作所 | 医用画像表示装置、医用情報管理サーバ |
Also Published As
Publication number | Publication date |
---|---|
WO2013164208A1 (de) | 2013-11-07 |
US10261306B2 (en) | 2019-04-16 |
DE102012009257B4 (de) | 2023-10-05 |
JP6255008B2 (ja) | 2017-12-27 |
GB2517110A (en) | 2015-02-11 |
US20150143274A1 (en) | 2015-05-21 |
GB2517110B (en) | 2020-08-05 |
DE102012009257A1 (de) | 2013-11-07 |
GB201421358D0 (en) | 2015-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6255008B2 (ja) | 顕微鏡の稼働時に実施する方法および顕微鏡 | |
CN112513712B (zh) | 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法 | |
RU2679964C1 (ru) | Визуализация изображений по данным лазерного сканирования | |
Kalkofen et al. | Interactive focus and context visualization for augmented reality | |
CN103852033B (zh) | 测量显微镜装置、图像产生方法、及计算机可读记录介质 | |
KR102018386B1 (ko) | 볼륨 렌더링된 이미지에 대한 광 방향을 지시하는 방법 및 시스템 | |
JP2005521123A (ja) | 光学顕微鏡検出3次元画像の生成方法及び生成装置 | |
KR20190129096A (ko) | 가상 콘텐츠 워핑을 갖는 혼합 현실 시스템 및 이를 사용하여 가상 콘텐츠를 생성하는 방법 | |
US11410272B2 (en) | Dynamic uniformity correction | |
CN109983767B (zh) | 图像处理装置、显微镜系统、图像处理方法及计算机程序 | |
WO2013161590A1 (ja) | 画像表示装置、方法及びプログラム | |
JP2008259697A (ja) | 画像処理方法および装置ならびにプログラム | |
JP2013182417A (ja) | 画像処理装置および画像処理方法 | |
JP4480492B2 (ja) | 拡大観察装置、画像ファイル生成装置、画像ファイル生成プログラム、3次元画像表示プログラム及びコンピュータで読み取り可能な記録媒体 | |
JP4536422B2 (ja) | 拡大観察装置、拡大画像観察方法、拡大観察用操作プログラムおよびコンピュータで読み取り可能な記録媒体または記録した機器 | |
KR101919077B1 (ko) | 증강 현실 표시 방법 및 장치 | |
JP4536421B2 (ja) | 拡大観察装置、拡大画像観察方法、拡大観察用操作プログラムおよびコンピュータで読み取り可能な記録媒体または記録した機器 | |
JP4987890B2 (ja) | 立体画像描画装置、立体画像描画方法、立体画像描画プログラム | |
JP2013054728A (ja) | 画像処理装置およびその制御方法 | |
Trusk | 3D reconstruction of confocal image data | |
JP6266229B2 (ja) | 画像処理装置、方法、及びプログラム | |
JP2018139532A (ja) | 細胞観察装置 | |
US11710212B1 (en) | Display non-uniformity correction | |
O’Conor et al. | 3D visualisation of confocal fluorescence microscopy data | |
US20230236429A1 (en) | Display non-uniformity correction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160415 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170418 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170907 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6255008 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |