DE102010063392B4 - Mikroskop mit Sensorbildschirm, zugehörige Steuereinrichtung und Betriebsverfahren - Google Patents

Mikroskop mit Sensorbildschirm, zugehörige Steuereinrichtung und Betriebsverfahren Download PDF

Info

Publication number
DE102010063392B4
DE102010063392B4 DE102010063392.5A DE102010063392A DE102010063392B4 DE 102010063392 B4 DE102010063392 B4 DE 102010063392B4 DE 102010063392 A DE102010063392 A DE 102010063392A DE 102010063392 B4 DE102010063392 B4 DE 102010063392B4
Authority
DE
Germany
Prior art keywords
microscope
display area
image
touch screen
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Revoked
Application number
DE102010063392.5A
Other languages
English (en)
Other versions
DE102010063392A1 (de
Inventor
Reto Züst
Ruedi Rottermann
Dr. Schnitzler Harald
Robert Lettow
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Microsystems Schweiz AG
Original Assignee
Leica Microsystems Schweiz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45999023&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE102010063392(B4) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Leica Microsystems Schweiz AG filed Critical Leica Microsystems Schweiz AG
Priority to DE102010063392.5A priority Critical patent/DE102010063392B4/de
Priority to US13/294,390 priority patent/US9329375B2/en
Priority to JP2011249517A priority patent/JP6050935B2/ja
Priority to CN201110362119.XA priority patent/CN102662229B/zh
Publication of DE102010063392A1 publication Critical patent/DE102010063392A1/de
Application granted granted Critical
Publication of DE102010063392B4 publication Critical patent/DE102010063392B4/de
Revoked legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0016Technical microscopes, e.g. for inspection or measuring in industrial production processes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/368Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements details of associated display arrangements, e.g. mounting of LCD monitor
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation

Abstract

Mikroskop (100) mit einer zur optischen und digitalen Erfassung eines Objekts unter Erzeugung eines Objektbildes eingerichteten Bilderfassungseinrichtung (110), wobei die Bilderfassungseinrichtung (110) optische Komponenten (111) und digitale Komponenten (114, 115) und hierdurch Möglichkeiten zur optischen und/oder digitalen Vergrößerung oder Verkleinerung des erzeugten Objektbildes aufweist, und mit einem zur Anzeige des Objektbildes in einem Anzeigebereich (151) und zur Erfassung von Eingaben in dem Anzeigebereich (151) ausgebildeten Sensorbildschirm (150), wobei das Mikroskop (100) zur Veränderung von Einstellungen von motorisierten und/oder elektrisch steuerbaren Mikroskop-Komponenten (110, 112, 71, 114, 115, 120, 121, 160) am Mikroskop (100) auf Grundlage der in dem Anzeigebereich (151) des Sensorbildschirms (150) innerhalb des angezeigten Objektbilds erfassten Eingaben derart eingerichtet ist, dass bei Erkennung eines Zoombefehls über eine Eingabe in dem Anzeigebereich (151) des Sensorbildschirms (150) innerhalb des angezeigten Objektbilds eine Änderung der optischen und/oder digitalen Vergrößerung des erzeugten Objektbildes über die optischen (111) und/oder digitalen (114, 115) Komponenten der Bilderfassungseinrichtung vorgenommen wird.

Description

  • Die vorliegende Erfindung betrifft ein Mikroskop mit Sensorbildschirm sowie eine zugehörige Steuereinrichtung und ein entsprechendes Betriebsverfahren.
  • Stand der Technik
  • Wenngleich die vorliegende Erfindung nachfolgend vornehmlich unter Bezugnahme auf die Videomikroskopie beschrieben wird, sei zu verstehen gegeben, dass die erfindungsgemäßen Maßnahmen auch in anderen Bildgebungseinrichtungen zur Untersuchung von Objekten zum Einsatz kommen können. Ist im Rahmen der vorliegenden Anmeldung dabei von einem ”Mikroskop” die Rede, sollen durch diesen Begriff insbesondere auch sogenannte Makroskope, Stereomikroskope, Stereolupen und dergleichen umfasst sein.
  • In der Mikroskopie, beispielsweise bei der Untersuchung von mikroskopischen Proben im Rahmen der Fertigungskontrolle oder medizinischer Untersuchungsverfahren, werden typischerweise Objekte betrachtet, deren Größe jene des Gesichtsfelds des verwendeten Mikroskopobjektivs überschreitet. In der Mikroskopie ist es daher üblich, den zu untersuchenden Probenbereich (”region of interest”) zunächst bei geringer Vergrößerung aufzufinden und in die Mitte des Gesichtsfels zu bringen. Anschließend wird die Vergrößerung erhöht, um Details in dem jeweiligen Bereich zu untersuchen, zu vermessen, zu dokumentieren oder, insbesondere zur Merkmalsextraktion, mittels Bildverarbeitung zu verarbeiten. Um weitere entsprechende Probenbereiche aufzufinden, muss die Vergrößerung schließlich erneut verringert werden.
  • Für die genannten Zwecke weisen herkömmliche Mikroskope beispielsweise manuelle Kreuz- und/oder Drehtische und/oder Einrichtungen zur Vergrößerungsverstellung, wie Objektivrevolver oder Zoomeinrichtungen, oder entsprechende motorisierte Einrichtungen dieser Art auf.
  • Insbesondere in der Routineuntersuchung erweisen sich die genannten Schritte als aufwändig und wenig intuitiv, da die genannten Verstellvorgänge dem natürlichen Betrachten von Objekten nicht direkt entsprechen.
  • Für die Routinemikroskopie sind, wie beispielsweise in der DE 200 13 359 U1 offenbart, automatisierte Mikroskopsysteme bekannt, in denen in einer externen Einheit Steuer- und Versorgungseinrichtungen vorgesehen sind.
  • Die DE 10 2008 028 482 A1 beschreibt ein (Operations-)Mikroskop mit einer Überlagerungsvorrichtung zum Überlagern des optischen Bildes mit einem Einblendbild. Das Mikroskop weist ein Konfigurationsmodul auf, das mindestens ein Menüsteuerungselement erzeugt, wobei eine Verarbeitungseinheit ein Einblendbild unter Einschluss des Menüsteuerungselements erzeugt. Das auf dem Bedienmonitor überlagerte Bild zeigt eine Überlagerung des Objektbildes mit dem erwähnten Einblendbild. Die Menüsteuerungselemente sind klar abgegrenzt vom Objektbild.
  • Die JP H09-197287 A beschreibt ein Mikroskop mit einem Mikroskoptisch und einer Anzeigevorrichtung. Mittels einer Positions-Eingabe-Vorrichtung kann eine Position auf einem Bildschirm der Anzeigevorrichtung eingegeben werden. Eine Kontrollvorrichtung verändert eine Bewegung des Mikroskoptischs in Abhängigkeit von der Position, die auf dem Bildschirm der Anzeigevorrichtung mittels der Positions-Eingabe-Vorrichtung eingegeben wird.
  • Externe Einheiten zur Eingabe von Bedienungs- und Steuerbefehlen für Beobachtungsgeräte sind beispielsweise auch in der EP 1 533 643 A1 offenbart. Derartige Einheiten können beispielsweise als Mittel zur Anzeige von Einstellwerten und/oder eines beobachteten Objekts oder Verfahrensablaufs in Form eines Bildschirms, beispielsweise eines Touchscreens, ausgebildet sein.
  • Touchscreens sind, beispielsweise auch zur Ansteuerung von Mikroskopen, unter anderem in der WO 96/18924 A1 und der JP H07-244243 A offenbart.
  • Die aus dem Stand der Technik bekannten Steuereinheiten für Mikroskope und die zugehörigen Verfahren sind jedoch für die zuvor genannten Aufgaben nur sehr eingeschränkt geeignet und ermöglichen keine effektive, intuitive sowie kostengünstig implementierbare Probenuntersuchung.
  • Es besteht daher auch weiterhin der Bedarf nach Möglichkeiten zur Bedienung von Mikroskopen, welche die Nachteile des Standes der Technik überwinden.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund stellt die vorliegende Erfindung ein Mikroskop sowie eine zugehörige Steuereinrichtung und ein entsprechendes Betriebsverfahren mit den Merkmalen der unabhängigen Patentansprüche bereit. Bevorzugte Ausgestaltungen sind Gegenstand der jeweiligen Unteransprüche sowie der nachfolgenden Beschreibung.
  • Vorteile der Erfindung
  • Die vorliegende Erfindung geht von einem Mikroskop mit einer zur optischen und digitalen Erfassung eines Objekts unter Erzeugung eines Objektbildes eingerichteten Bilderfassungseinrichtung aus. Die Bilderfassungseinrichtung setzt sich dabei typischerweise aus optischen und digitalen Komponenten zusammen und umfasst Möglichkeiten zur optischen und/oder digitalen Vergrößerung oder Verkleinerung des erzeugten Objektbildes (sogenannter optischer bzw. digitaler Zoom). Vorteilhafterweise sind auch entsprechende Mittel zur digitalen Aufbereitung des erfassten Bildes, beispielsweise zur Kontrastverbesserung, umfasst. In einem praktischen Beispiel umfasst die Bilderfassungseinrichtung des Mikroskops aus dem Stand der Technik hinlänglich bekannte optische Komponenten, wie Objektiv, Zoomsystem und/oder Vergrößerungswechsler, Tubus, Beleuchtungsvorrichtungen sowie gegebenenfalls ein Okular oder zwei Okulare. Ferner umfasst sie digitale Komponenten, wie Kamera und gegebenenfalls eine Bildverarbeitungseinrichtung. Die Kamera verfügt über ein lichtempfindliches, elektronisches Bauelement, das als Sensor-Matrix aufgebaut ist. Eine typische Ausführungsform ist der als CCD- oder CMOS-Chip ausgebildete Sensor. Häufig verfügt die Bilderfassungseinrichtung über eine integrierte digitale Bildverarbeitungseinrichtung. Während die optischen Komponenten der Bilderfassungseinrichtung ein Objektbild mit wählbarer Vergrößerung erzeugen, dienen die digitalen Komponenten zur Aufbereitung der Bilddaten, um diese anschließend auf einem Bildschirm in Form eines Objektbildes darzustellen.
  • Erfindungsgemäß weist ein entsprechendes Mikroskop einen zur Anzeige des Objektbildes in einem Anzeigebereich und zur Erfassung von Eingaben eines Benutzers in dem Anzeigebereich ausgebildeten Sensorbildschirm auf, wobei das Mikroskop zur Veränderung von Einstellungen von motorisierten und/oder elektrisch steuerbaren Mikroskop-Komponenten am Mikroskop auf Grundlage der in dem Anzeigebereich des Sensorbildschirms, also innerhalb des angezeigten Objektbilds, erfassten Eingaben derart eingerichtet ist, dass bei Erkennung eines Zoombefehls über eine Eingabe in dem Anzeigebereich des Sensorbildschirms innerhalb des angezeigten Objektbilds eine Änderung der optischen und/oder digitalen Vergrößerung des erzeugten Objektbildes über die optischen und/oder digitalen Komponenten der Bilderfassungseinrichtung vorgenommen wird. Unter ”Objektbild” wird hier und im Folgenden insbesondere ein Live-Bild oder ein Standbild verstanden.
  • Im Gegensatz zum Stand der Technik, der allenfalls beinhaltet, über geeignete Felder außerhalb des angezeigten Objektbildes auf einem Touchscreen Geräteparameter, wie Zoom oder Fokussierung, auszuwählen und einzustellen, schlägt die vorliegende Erfindung also eine direkte Umsetzung von über den Sensorbildschirm erfassten Eingaben innerhalb des angezeigten Objektbildes vor. Hierbei wird das von einer Bilderfassungseinrichtung zunächst analog und danach digital erfasste und vorteilhafterweise bereits geeignet aufbereitete Objektbild auf dem Sensorbildschirm in einem Anzeigebereich angezeigt. Ein Benutzer kann nun im Rahmen der Erfindung mit entsprechenden Eingabemitteln, also im einfachsten Fall und bei entsprechender Ausgestaltung des Sensorbildschirms seinen Fingern, aber auch unter Zuhilfenahme von Eingabestiften, Infrarotzeigern oder dergleichen, direkt auf dem angezeigten Objektbild Eingaben vornehmen. Durch eine geeignete Instrumentenkonfiguration werden diese Eingaben, wie beispielsweise kurze oder längere Berührungen, Gesten, Verschiebe- und/oder Verdrehbewegungen, in Einstellungen für Mikroskopkomponenten umgesetzt.
  • Eine derartige direkte Umsetzung entsprechender Eingaben beispielsweise in die Verschiebung eines Objektes, Bildes oder Bildbereichs in einem Mikroskop ist bisher nicht bekannt.
  • Aus dem Stand der Technik sind zudem bisher nur getrennte Steuereinheiten bekannt, welche als separate Komponenten bereitgehalten werden müssen, und daher zusätzliche Kosten bei der Herstellung eines Mikroskops generieren. Darüber hinaus erfordern derartige getrennte Einheiten ein aufwändigeres System-Setup und erhöhen die Raumerfordernisse einer entsprechenden Lösung. Es ist daher vorteilhaft, die Bilderfassungseinrichtung und den Sensorbildschirm als integrale Einheit auszubilden.
  • Eine Lösung, wie sie beispielsweise in der bereits erwähnten JP H07-244243 A vorgeschlagen ist, reduziert den Bildanzeigebereich aufgrund der Größe der vorgesehenen Steuerelemente, welche stets auf dem Touchscreen sichtbar sind. Demgegenüber steht bei der im Rahmen dieser Erfindung vorgeschlagenen Lösung der gesamte Bildanzeigebereich als Eingabeeinheit zur Verfügung. Selbstverständlich schließt die vorliegende Erfindung zusätzliche Bedieneinheiten wie Joysticks, Eingabeknöpfe, Cursortasten, Tastenfelder, Drehsteller, Fußschalter und dergleichen nicht aus.
  • Ein entsprechender Sensorbildschirm ist vorteilhafterweise zumindest in dem Anzeigebereich zur Erfassung einer Position, einer Bewegung und/oder einer Beschleunigung wenigstens eines Eingabemittels an oder in der Nähe seiner Oberfläche eingerichtet. Hierdurch lässt sich beispielsweise eine kurze oder längere Berührung der Oberfläche mit einem Finger oder sonstigen Eingabemittel oder die Verschiebung des Eingabemittels in Kontakt mit der Oberfläche (also eine sogenannte ”touch and move”-Bewegung) erfassen.
  • In diesem Zusammenhang ist es zweckmäßig, wenn aus der erfassten Position, Bewegung und/oder Beschleunigung des wenigstens einen Eingabemittels Steuerungssignale abgeleitet werden, mit denen die Funktionen der motorischen und/oder elektrisch steuerbaren Mikroskop-Komponenten steuerbar sind.
  • Die genannten motorischen und/oder elektrisch steuerbaren Mikroskop-Komponenten umfassen hierbei: die genannte Bilderfassungseinrichtung, insbesondere den Sensor zur Bilderfassung oder eine digitale Kamera, eine Bildverarbeitungseinrichtung, die als separate Einrichtung oder integriert mit dem genannten Sensor oder der digitalen Kamera ausgebildet sein kann, weiterhin Steuer- und/oder Verarbeitungsmittel, einen Objektivrevolver mit mindestens einem Objektiv, eine motorisierte Zoomverstellung, einen in Z-Richtung verfahrbaren Fokussiertrieb zum Einstellen des Mikroskopfokus, einen x-y-verstellbaren Mikroskoptisch, insbesondere einen Kreuztisch, und/oder einen Drehtisch als Mikroskoptisch. Die genannten Komponenten wurden bereits in der Beschreibungseinleitung erläutert und sind an sich dem Fachmann der Mikroskopie in Aufbau und Funktion bekannt.
  • Weiterhin ist vorteilhaft, einen entsprechenden Sensorbildschirm zumindest in dem Anzeigebereich mit Mitteln zur Erfassung einer Relativposition, einer Relativbewegung und/oder einer Relativbeschleunigung mehrerer Eingabemittel zueinander an oder in der Nähe seiner Oberfläche auszustatten. Hierdurch kann beispielsweise eine Berührung des Bildschirms mit mehreren Eingabemitteln erfasst werden, auf Grundlage derer, wie unten näher erläutert, beispielsweise ein Zoom- und/oder Rotationsbefehl erkannt werden kann.
  • Als besonders vorteilhaft wird dabei angesehen, das Mikroskop mit einem vollwertigen Multi-Touch-Sensorbildschirm auszustatten, so dass sämtliche mit derartigen Bildschirmen realisierbare Eingabemethoden ausgenutzt werden können.
  • Zur Realisierung der erfindungsgemäßen Maßnahmen ist ein entsprechender Sensorbildschirm zumindest in dem Anzeigebereich mit akustischen Impuls- und/oder Oberflächenwellensensoren (insbesondere für Multi-Touch-Bedienung), kapazitiven Sensoren (z. B. oberflächenkapazitiven oder projektionskapazitiven Sensoren, insbesondere in Einzelschichtausführung), Biegewellensensoren, Widerstandssensoren (z. B. resistiven Fünfdraht- und/oder Vierdrahtsensoren), optische Sensoren (z. B. durch Abschattung) und/oder Infrarotsensoren zur Erfassung der Eingaben ausgestattet. Entsprechende Sensoren bzw. Sensorbildschirme mit derartigen Sensoren sind aufgrund hoher produzierter Stückzahlen kostengünstig bereitstellbar.
  • Ein Mikroskop, in dem die vorliegende Erfindung realisiert wird, weist vorteilhafterweise zumindest eine Objektführungseinrichtung und/oder eine optische Einheit und/oder eine digitale Bildverarbeitungseinrichtung auf, wobei eine Veränderung der genannten Einstellungen am Mikroskop auf die Objektführungseinrichtung, die optische Einheit und/oder die digitale Bildverarbeitungseinrichtung einwirkt. Mittels der vorgeschlagenen Maßnahmen wird dabei die Effektivität eines mikroskopischen Verfahrens, das die Inspektion mehrerer Bildbereiche (”regions of interest”) erfordert, verbessert und für den Benutzer besonders intuitiv.
  • Es wird dabei als Grundfunktion des Mikroskops beispielsweise ein vollständiges Live-Bild des beobachteten Objekts auf dem Anzeigebereich des Sensorbildschirms dargestellt. In einem Grundeingabemodus bewirken seitliche Bewegungen eines oder mehrerer Eingabemittel entlang der Oberfläche des Sensorbildschirms eine translatorische Bewegung des erhaltenen Objektbildes.
  • Hierbei kann entweder ein durch die Bilderfassungseinrichtung dargestellter Bildausschnitt verschoben oder eine Verstellung einer Objektführungseinrichtung bewirkt werden. Durch eine Berühr- und Verschiebebewegung wird im letzteren Fall eine Verstellung der Objektführungseinrichtung, beispielsweise eines motorisierten Kreuztischs, in die gewünschte Position bewirkt. Die Geschwindigkeit der Bewegung der Objektführungseinrichtung korreliert dabei direkt mit der vorgegebenen Bewegung des Eingabemittels. Die jeweiligen Bewegungsrichtungen, wie unten noch näher erläutert, sind zueinander gegenläufig. In gleicher Weise lassen sich auch beispielsweise Dreh- oder Zoomvorgänge realisieren, wie weiter unten erläutert wird.
  • Eine einem derartigen Mikroskop zugeordnete Steuereinrichtung, die ebenfalls Gegenstand der Erfindung ist, weist einen Eingang zum Empfang von durch den Sensorbildschirm zumindest in seinem Anzeigebereich erfassten Eingaben und wenigstens einem Ausgang zur Veränderung der Einstellungen am Mikroskop auf. Zu den jeweiligen Merkmalen sei auf die obigen Ausführungen verwiesen.
  • Ein erfindungsgemäßes Betriebsverfahren beinhaltet das Erfassen von Eingaben in dem Anzeigebereich des Sensorbildschirms und das Verändern von Einstellungen am Mikroskop auf Grundlage der in dem Anzeigebereich des Sensorbildschirms erfassten Eingaben, also von Eingaben direkt auf dem angezeigten Objektbild.
  • In einem derartigen Verfahren beinhaltet das Erfassen der Eingaben vorteilhafterweise das Erkennen von Translations-, Rotations-, Zoom-, Zentrier-, Fokussier-, Auswahl-, Mess-, Verarbeitungs-, Integrations- und/oder Funktionswechselbefehlen in dem Anzeigebereich des Sensorbildschirms, so dass alle diese Befehle direkt in entsprechende Einstellungen umgesetzt werden können.
  • Es ist insbesondere vorteilhaft, verschiedene Funktionen zur Arbeitsweise des Mikroskops zu definieren. Als Grundfunktion ist eine Arbeitsweise des Mikroskops zweckmäßig, bei der ein Live-Bild des untersuchten Objekts dargestellt wird. In einer anderen Grundfunktion wird ein Standbild dargestellt. Eine weitere Funktion kann eine Autofokussierung bewirken. Schließlich lassen sich komplexere Funktionen definieren, wie beispielsweise die Vermessung eines dargestellten Objekts, die Bildverarbeitung des Objektbildes oder von Teilen des Objektbildes oder schließlich auch die Beschriftung des Objektbildes. Es ist sinnvoll, je nach gewählter Funktion, einen zugehörigen Eingabemodus zu definieren. Ein Eingabemodus zeichnet sich dadurch aus, dass (Relativ-)Position, (Relativ-)Bewegung und/oder (Relativ-)Beschleunigung eines oder mehrerer Eingabemittel in bestimmter Weise interpretiert werden, um hieraus einen Befehl zu erkennen.
  • Im Fall der Live-Bild-Funktion werden aus den über den Sensor-Bildschirm eingegebenen Befehlen Steuerungssignale erzeugt, die beispielsweise die Bilderfassungseinrichtung, einen Sensor zur Bilderfassung oder eine digitale Kamera, eine Bildverarbeitungseinrichtung, Steuer- und/oder Verarbeitungsmittel, einen motorisierten Objektivrevolver mit mindestens einem Objektiv, eine motorisierte Zoomverstellung, einen in Z-Richtung verfahrbaren Fokussiertrieb, einen motorisierten, xy-verstellbaren Mikroskoptisch, insbesondere einen Kreuztisch, und/oder einen motorisierten Drehtisch ansteuern.
  • Im Fall der Stand-Bild-Funktion werden aus den über den Sensor-Bildschirm eingegebenen Befehlen solche Steuerungssignale erzeugt, welche beispielsweise die Bildverarbeitungseinrichtung und/oder die Steuer- und/oder Verarbeitungsmittel ansteuern.
  • Weiterhin kann sowohl im Live-Bild-Modus als auch im Stand-Bild-Modus vorgesehen sein, dass über den Sensorbildschirm Befehle eingegeben werden, welche mittels der erzeugten Steuerungssignale über die Steuer- und/oder Verarbeitungsmittel eine Umschaltung von der Live-Bild-Funktion in die Stand-Bild-Funktion und/oder umgekehrt bewirken.
  • Bevor hierauf näher eingegangen wird, soll ein einfaches Beispiel dies erläutern: In den Grundfunktionen Live- oder Stand-Bild ist es zweckmäßig, denselben Eingabemodus beizubehalten, in dem beispielsweise eine Berührung des Sensorbildschirms mit dem Eingabemittel und das anschließende Ziehen des Eingabemittels entlang einer Strecke (”touch and move”) als Translationsbefehl erkannt wird (zur Umsetzung des Translationsbefehls siehe unten). In der komplexeren Messfunktion hingegen wird aufgrund eines anderen Eingabemodus die gleiche Eingabe in anderer Weise interpretiert, beispielsweise als Messbefehl zur Messung der Länge der mit dem Eingabemittel zurückgelegten Strecke im Objektraum.
  • In der Grundfunktion des Mikroskops wird ein Translationsbefehl vorteilhafterweise dann erkannt, wenn wenigstens ein Eingabemittel in Kontakt mit der Oberfläche des Anzeigebereichs des Sensorbildschirms oder in die Nähe seiner Oberfläche poitioniert und hiervon ausgehend relativ zur Oberfläche verschoben wird. Ein derartiger Bewegungsvorgang entspricht dem natürlichen Bewegungsablauf beim Verschieben eines realen Objekts, so dass hierdurch eine sehr intuitive und einfache Bedienung eines Mikroskops ermöglicht wird.
  • In ähnlicher Weise intuitiv, und damit besonders vorteilhaft ist es, wenn ein Rotationsbefehl dann erkannt wird, wenn mehrere Eingabemittel in Kontakt mit der Oberfläche des Anzeigebereichs des Sensorbildschirms oder in die Nähe seiner Oberfläche poitioniert und hiervon ausgehend relativ zur Oberfläche miteinander verdreht werden, also beispielsweise gemeinsam um einen gemeinsamen Drehpunkt bewegt werden.
  • Ein Zoombefehl wird vorteilhafterweise dann erkannt, wenn mehrere Eingabemittel in Kontakt mit der Oberfläche des Anzeigebereichs des Sensorbildschirms oder in die Nähe seiner Oberfläche positioniert werden und der Abstand der Eingabemittel relativ zueinander verändert wird. Eine Umsetzung in Mikroskopeinstellungen kann beispielsweise in einer Veränderung des Zoomfaktors einer zoomfähigen optischen Einheit oder eines erfassten Digitalbilds (optischer oder digitaler Zoom) bestehen. Auch diese Bewegung der Eingabemittel (entsprechend einem ”Auseinanderziehen” in der Realität) ist intuitiv und dem Benutzer unmittelbar begreiflich.
  • Insbesondere mit den genannten drei Befehlen, Translations-, Rotations- und Zoombefehl, lässt sich eine äußerst effektive und intuitive Probenuntersuchung anhand des Live-Bildes verwirklichen, bei der zunächst bei niedriger Vergrößerung der interessierende Bereich (”region of interest”) auf der Probe in einer Übersichtsansicht des Live-Bildes gesucht und der aufgefundene Bereich in das Zentrum des Gesichtsfelds bewegt wird. Diese Vorgänge lassen sich durch Translations- und gegebenenfalls Rotationsbefehle leicht und intuitiv ausführen. Anschließend wird die Vergrößerung des Live-Bildes erhöht, um Details aus dem interessierenden Bereich im Detail untersuchen zu können. Hierzu wird der geschilderte Zoombefehl eingesetzt. Nach der Untersuchung wird die Vergrößerung wieder verringert, um auf die Übersichtsansicht zu gelangen. Auch hierzu dient der geschilderte Zoombefehl. Das Verfahren kehrt zurück zum Aufsuchen eines weiteren interessierenden Bereichs des Live-Bildes. Während der Untersuchung des interessierenden Bereichs bei hoher Vergrößerung können die bereits oben erwähnten komplexeren Funktionen ausgewählt werden, wie etwa die Messfunktion oder die Bildverarbeitungsfunktion.
  • Allgemein kann jeweils ein Befehl, wie Translations-, Rotations-, Zoom-, Zentrier-, Fokussier-, Auswahl-, Mess-, Verarbeitungs-, Integrations- und/oder Funktionswechselbefehl, erkannt werden, wenn jeweils eine definierte Anzahl von Eingabemitteln für eine definierte Zeit, in definierter Häufigkeit und/oder in einer definierten Anzahl von Positionen mit der Oberfläche des Anzeigebereichs in Kontakt oder in die Nähe seiner Oberfläche gebracht und/oder gehalten wird. Auf diese Weise erkannte Eingaben umfassen beispielsweise Einfach-, Doppel- oder Mehrfachberührungen (entsprechend z. B. Einfach-, Doppel- oder Mehrfachklicks mit einer Computermaus), längere oder kürzere Berührungen, schnellere oder langsamere Bewegungen oder entsprechende einfache oder komplexere Abfolgen von Eingaben (lang-kurz, kurz-lang usw.). Jede dieser Eingaben kann, auch durch einen Benutzer definierbar, in entsprechende Einstellungen am Mikroskop umgesetzt werden. Beispielsweise kann eine kurze Berührung (jedoch ohne Bewegung) eine Standbildaufnahme (”Schnappschuss”) einleiten. Durch eine längere Berührung kann hingegen ein Autofokusprozess eingeleitet werden.
  • Die Umsetzung in die entsprechenden Instrumenteneinstellungen erfolgt in dem erfindungsgemäßen Verfahren vorteilhafterweise dahingehend, dass ein durch optische Komponenten der Bilderfassungseinrichtung erzeugtes Objektbild und/oder ein durch digitale Komponenten der Bilderfassungseinrichtung erfasstes Objekt translatiert, rotiert, zentriert und/oder fokussiert wird, wenn in dem Anzeigebereich des Sensorbildschirms ein Translations-, Rotations-, Zoom-, Zentrier- bzw. Fokussierbefehl erkannt wird.
  • Insbesondere können auch Gesten, also durch die Eingabemittel auf der Oberfläche der Bilderfassungseinrichtung im Anzeigebereich ausgeführte Bewegungsmuster, bestimmten weiteren Funktionen zugeordnet werden. Beispielsweise können durch Gesten Steuerelemente für komplexere Funktionen wie Messung, Bildverarbeitung, Beschriftung und dergleichen eingeblendet oder verborgen werden. Beispielsweise kann durch eine solche Geste auch ein Funktionswechsel in eine andere Arbeitsweise des Mikroskops vollzogen werden, also beispielsweise eine der genannten komplexeren Funktionen unmittelbar ausgewählt werden. Andererseits ist es auch möglich, solche Funktionen wie bisher über eigens vorgesehene Eingabeelemente auszuwählen.
  • Durch die Auswahl einer solchen komplexeren Funktion kann – wie bereits geschildert – der Eingabemodus des Sensorbildschirms verändert werden. So kann die Auswahl einer Messfunktion den Eingabemodus dahingehend verändern, dass nun eine erste Berührung mit einem Eingabemittel einen Markierungspunkt (als Ausgangspunkt einer Messung) festlegt und ein anderer Markierungspunkt, ebenfalls durch ein Eingabemittel festgelegt, den Endpunkt einer zwischen beiden Berührungspunkten definierten Skala angibt. Mit anderen Worten können zwei Berührungspunkte dazu verwendet werden, eine Linie für eine Distanzmessung mittels des Mikroskops festzulegen, wobei jeder Berührungspunkt den Endpunkt einer Messtrecke darstellt. In ähnlicher Weise können beispielsweise drei Berührungspunkte dazu verwendet werden, eine Messlinie für eine Winkelmessung festzulegen. Entsprechend können vier Berührungspunkte einen Kreis definieren, innerhalb dessen beispielsweise eine Flächenmessung durchgeführt wird, wobei jeder Berührungspunkt für eine Kreisapproximation verwendet wird. Anstelle eines Kreises kann auch eine andere Geometrie vorgegeben werden. Die oben erläuterte ”touch and move”-Eingabe kann in der Messfunktion die Berührungspunkte auf der Messlinie einstellen. Diese Eingabemodi wurden nur beispielhaft aufgeführt. Eine Umdefinition ist ebenfalls möglich, ohne den Umfang der Erfindung zu verlassen.
  • Wird hingegen die Funktion Bildverarbeitung ausgewählt, kann ein Berührungspunkt einen bestimmten Bildverarbeitungsmodus definieren. Beispielsweise kann ein Bereich für eine Bildverarbeitung ausgewählt oder vorgegeben werden, welcher durch einen innerhalb des Bereichs liegenden Berührungspunkt definiert wird. Innerhalb des Bereichs kann dann beispielsweise eine Binarisierung (Schwarz-Weiß-Darstellung) oder Falschfarbendarstellung vorgenommen werden.
  • Wird eine Beschriftungsfunktion ausgewählt, kann die Beschriftung mittels der erläuterten ”touch and move”-Eingabe definiert oder verändert werden, wobei eine Eingabe beispielsweise Position, Größe und Orientierung der Beschriftung verändert. Ist eine Textbeschriftung erwünscht, kann dann beispielsweise durch eine definierte Berührung in einem Textbereich ein Tastaturfeld in den Anzeigebereich eingeblendet werden.
  • Vorteilhaft ist auch, wenn in einem entsprechenden Verfahren ein Bereich eines durch die Bilderfassungseinrichtung erzeugten Objektbilds ausgewählt, vermessen, verarbeitet und/oder integriert wird, wenn in dem Anzeigebereich des Sensorbildschirms ein Auswahl-, Mess-, Verarbeitungs- bzw. Integrationsbefehl erkannt wird. Es ist sinnvoll, dem Benutzer die genannten Befehle während der Objektuntersuchung bei hoher Vergrößerung anzubieten. Der Auswahlbefehl kann beispielsweise bei Umrundung eines bestimmten Objektbereichs innerhalb des interessierenden Bereichs mittels eines Eingabemittels erkannt werden. Der Auswahlbefehl kann beispielsweise zu einer Umrandung und/oder farbigen Unterlegung des ausgewählten Objektbereichs führen. Verschiedene Mess- und Verarbeitungsbefehle wurden bereits oben in Zusammenhang mit der entsprechenden Funktionen Messung bzw. Bildverarbeitung besprochen. Ein Integrationsbefehl kann beispielsweise dadurch definiert werden, dass nach einem Auswahlbefehl ein einfaches oder mehrfaches Antippen des ausgewählten Bereichs innerhalb eines bestimmten Zeitfensters erfolgt. Der Integrationsbefehl führt zur Flächenintegration des ausgewählten Bereichs im Objektraum, also zur Angabe des Flächeninhalts des zusammenhängenden, ausgewählten Objektbereichs mittels Bildverarbeitung unter Verwendung des Schwellwertverfahrens oder der Kantendetektion. Beim Schwellwertverfahren wird jeder Bildpunkt, der einen bestimmen Helligkeitswert (Schwellwert) übersteigt, als Teil der Fläche betrachtet und für die Integration berücksichtigt. Bei der Kantendetektion wird die Grenzlinie für die Integration dadurch bestimmt, dass ausgehend vom Berührungspunkt in jeder Richtung gedanklich ein Strahl definiert wird. Auf diesem Strahl wird der Helligkeitsverlauf der Bildpunkte aufgetragen. Die Grenzlinie für die Integration wird nun durch jeweils einen Punkt auf dem Helligkeitsverlauf entlang jedes Strahls gebildet. Dieser Punkt auf jedem Strahl kann z. B. als Wendepunkt des Helligkeitsverlaufs bestimmt werden.
  • Wie erläutert kann im Rahmen dieses Verfahrens auch ein Funktionswechsel mit entsprechender Änderung des Eingabemodus (z. B. von einer Mess- in eine Bildverarbeitungsfunktion) erfolgen, wenn ein Funktionswechselbefehl beispielsweise in dem Anzeigebereich des Sensorbildschirms anhand einer Geste erkannt wird.
  • In entsprechender Weise können die Funktionen auch durch einen weiteren Funktionswechselbefehl, also z. B. eine weitere Eingabegeste, wieder verlassen werden, also etwa in die Grundfunktion der Live-Bildanzeige zurückgekehrt werden.
  • Die Erfindung ist dabei auch nicht auf eine Live-Bildanzeige beschränkt, sondern kann auch für eine Standbildanzeige verwendet werden, bei welcher die Bewegung der Objektführungseinrichtung, wie teilweise bereits zuvor erläutert, durch eine Bewegung des Probenbilds relativ zum Anzeigebereich verändert wird. Wie erläutert, kann dann eine Einstellung der Vergrößerung durch digitale Mittel (Digitalzoom) bewirkt werden.
  • Insgesamt ermöglichen die direkte Umsetzung der Bewegung entsprechender Eingabemittel und das Einstellen des Gesichtsfelds eine sehr intuitive Bedienung eines entsprechenden Mikroskops. In gleicher Weise trifft dies auf komplexere Funktionen wie Messung, Bildverarbeitung, Beschriftung und dergleichen zu. Die Erfindung kann dabei eine Reihe herkömmlicher Eingabevorrichtungen wie Handsteuerungen, Joysticks, eine Computermaus, Tastaturen und dergleichen ersetzen und daher die Komplexität eines entsprechenden Mikroskopsystems, sowie insbesondere dessen Raumerfordernisse und Kosten, beträchtlich verringern.
  • Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und der beiliegenden Zeichnung.
  • Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale, insbesondere im Rahmen der Ausführungsbeispiele, nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Die Erfindung ist anhand von Ausführungsbeispielen in der Zeichnung schematisch dargestellt und wird im Folgenden unter Bezugnahme auf die Zeichnung ausführlich beschrieben.
  • Figurenbeschreibung
  • 1 zeigt ein Mikroskop gemäß einer besonders bevorzugten Ausführungsform der Erfindung in schematischer Darstellung.
  • 2 zeigt eine Translationsbewegung gemäß einer besonders bevorzugten Ausführungsform der Erfindung in schematischer Darstellung.
  • 3 zeigt eine Translationseinrichtung gemäß einer besonders bevorzugten Ausführungsform der Erfindung in schematischer Darstellung.
  • 4 zeigt eine Translation eines Bildbereichs gemäß einer besonders bevorzugten Ausführungsform der Erfindung in schematischer Darstellung.
  • 5 zeigt eine Bilddrehung gemäß einer besonders bevorzugten Ausführungsform der Erfindung in schematischer Darstellung.
  • 6 zeigt eine Bilddrehung gemäß einer besonders bevorzugten Ausführungsform der Erfindung in schematischer Darstellung.
  • 7 zeigt einen Zoomvorgang gemäß einer besonders bevorzugten Ausführungsform der Erfindung in schematischer Darstellung.
  • 8 zeigt Mikroskope gemäß besonders bevorzugter Ausführungsformen der Erfindung in schematischer Darstellung.
  • In 1 ist ein Mikroskop gemäß einer besonders bevorzugten Ausführungsform der Erfindung schematisch dargestellt und insgesamt mit 100 bezeichnet.
  • Das Mikroskop 100 weist eine Bilderfassungseinrichtung 110 auf, welche als optische Komponenten 111 beispielsweise ein Objektiv 112 und einen Tubus 113, vorzugsweise mit einer entsprechenden optischen Zoomeinrichtung, umfasst. Als elektronische Komponenten sind ein beispielsweise als CCD-Chip ausgebildeter Sensor 114 und eine digitale Bildverarbeitungseinrichtung 115 vorgesehen. Die Bildverarbeitungseinheit 115 kann ganz oder teilweise in der Bilderfassungseinrichtung 110 integriert oder in nachgeschalteten Steuer-/Verarbeitungsmittel 160, wie einem Computer, oder einer separaten, selbstständigen Einheit 115 angeordnet sein.
  • Durch den Sensor 114 und die digitale Bildverarbeitungseinrichtung 115 wird ein optisches Bild, welches mittels der optischen Komponenten 111 erfasst wird, in ein Digitalbild umgesetzt und vorteilhafterweise bereits entsprechend aufbereitet.
  • Eine Objektführungseinrichtung 120, beispielsweise in Form eines manuellen oder motorischen xy-Kreuztischs 121 oder Drehtisches mit einer entsprechenden Translations- und Rotationseinrichtung 122, mittels welcher die Objektführungseinrichtung 120 in Richtung der Pfeile 123 und 124 translatiert und/oder rotiert werden kann, ist vorgesehen. Sinngemäß kann die Rotation auch durch die Rotation der optischen Achse der Bilderfassungseinrichtung 110 oder des Sensors 114 realisiert sein.
  • Ferner weist das Mikroskop 100 eine Steuereinrichtung 130 auf, welche einzelnen Komponenten des Mikroskops 100 zugeordnete Verstellelemente 141, 142 und 143 einer Verstelleinrichtung 140 ansteuert. Hierdurch wird beispielsweise eine Veränderung der Einstellung der Objektführungseinrichtung 120 oder der optischen 111 und elektronischen 114, 115 Elemente der Bilderfassungseinheit 110 ermöglicht. Die Steuereinrichtung 130 arbeitet dabei auf Grundlage von durch einen Sensorbildschirm 150 erfassten Eingaben.
  • Der Sensorbildschirm 150 weist einen Anzeigebereich 151 auf, auf dem ein Live- oder Standbild des durch die Bilderfassungseinrichtung 110 erfassten Objektes angezeigt wird, und auf dem die genannten Eingaben, insbesondere mittels eines oder mehrerer Finger eines Benutzers als Eingabemittel (nicht dargestellt), vorgenommen werden können. Weitere Eingabemittel 152, 153, beispielsweise Schalter oder Tasten, können ebenfalls vorgesehen sein. Ebenso vorgesehen sein können weitere Steuer- und/oder Verarbeitungsmittel 160, beispielsweise in Form des Computers 160.
  • 2 zeigt in schematischer Darstellung eine Bewegung eines Berührungspunkts eines Eingabemittels auf einem Anzeigebereich eines Sensorbildschirms, wie beispielsweise des Anzeigebereichs 151 des Sensorbildschirms 150 des Mikroskops 100 aus 1.
  • Ein durch eine entsprechende Bilderfassungseinrichtung, wie beispielsweise die zuvor erläuterte Bilderfassungseinrichtung 110, erzeugtes Live- oder Standbild wird auf einem Anzeigebereich 11 (entsprechend dem zuvor erläuterten Anzeigebereich 151) angezeigt. Der gesamte Anzeigebereich 11 weist eine berührungssensitive Fläche auf. In dem Bereich 11 können Positionen und/oder entsprechende Positionsänderungen von Berührungspunkten von Eingabemitteln über die Zeit gleichzeitig erfasst werden. Die Positionen dieser Berührungspunkte werden hierzu mit einer vordefinierten Abtastfrequenz abgetastet, während sie sich in Kontakt befinden. Auch eine kontaktfreie Sensierung ist möglich. Letztlich werden dadurch sequentiell Informationen zu den Positionen 12a, 12b, 12c des jeweiligen Berührungspunkts über die Zeit erfasst. Die Distanz zwischen zwei Positionen, beispielsweise zwischen den Positionen 12a und 12b oder zwischen den Positionen 12b und 12c gibt dabei die Bewegung über die Zeit wieder. Die Bedienungsinformation besteht hierbei aus einer Distanz, einer Geschwindigkeit und einer Beschleunigung in einem Koordinatensystem mit den Achsen X', 16a und Y', 16b, und einem Nullpunkt 16. Die Achsen des Koordinatensystems liegen dabei parallel zu den Kanten des Anzeigebereichs 11.
  • In 3 ist die Bewegung einer Objektführungseinrichtung, wie beispielsweise der Objektführungseinrichtung 120 des Mikroskops 100, schematisch dargestellt.
  • Die Objektführungseinrichtung weist orthogonale, motorisierte Aktoren 20, 21 auf, welche eine Bewegung der Objektführungseinrichtung entlang von Bewegungsachsen X und Y bewirken. Die Aktoren 20, 21 werden zur Bewegung eines auf der Objektführungseinrichtung befindlichen Objekts 25 in Bezug auf das Gesichtsfeld verwendet, so dass sich dieses bei einer Bewegung der Aktoren 20, 21 von einer Position 23a in eine Position 23b auf dem Objekt verschiebt. Die Orientierung von X und Y ist bei einem System mit Bildumkehr entgegengesetzt zu den im Zusammenhang mit 2 erläuterten Achsen X' und Y'.
  • Die Gesamtvergrößerung Mtot der Bildgebungseinrichtung ist als Verhältnis der Größe des Anzeigebereichs zu der Größe des Gesichtsfelds, welches in dem Anzeigebereich sichtbar ist, definiert. Die Skalierung der Achsen von X, Y sowie X' und Y' steht in einem entsprechenden Verhältnis zu Mtot. Wird in dem Bildanzeigebereich 151 (1) bzw. 11 (2) ein Berührungspunkt erkannt, wird dessen Bewegungsinformation (Distanz, Geschwindigkeit, Beschleunigung) zur Ansteuerung der Aktoren 20, 21 der Objektführungseinrichtung unter Berücksichtigung von Mtot verwendet.
  • In der in 3 dargestellten Situation wird dabei kein Rotationsbefehl erkannt. Daher wird die Bewegungskomponente 14a des Berührungspunkts 12a entlang X' direkt in eine Bewegung 24a entlang der Achse X umgesetzt. Das Analoge trifft für die Bewegungskomponente 15a entlang Y' zu, welche in einer Bewegung 24b entlang der Achse Y resultiert. Diese Bewegung erfolgt unter Berücksichtigung der entsprechenden Geschwindigkeit und Beschleunigung des Berührungspunkts.
  • In 4 ist eine Bewegung eines Bilds im Anzeigebereich dargestellt. Die Bewegung der Objektführungseinrichtung 120, wie zuvor im Zusammenhang mit den 1 bis 3 beschrieben, führt zu einer Verschiebung des in einem Anzeigebereich 31 dargestellten Gesichtsfelds von einer Position 32a in eine Position 32b. In 4a ist die Situation vor, in 4b die Situation nach der Bewegung dargestellt. Die Distanz jeweils korrespondierender Bildpunkte vor und nach der Bewegung der Objektführungseinrichtung entspricht der Bewegungsinformation eines in einem Anzeigebereich 151 bzw. 11 erfassten Berührungspunkts. Anhand von 4 lässt sich aber auch anschaulich eine alternative Möglichkeit der Verschiebung des Anzeigebereichs 31 illustrieren. Ist nämlich das durch den Sensor 114 (vgl. 1) erfasste Bild größer als der dem Benutzer dargebotene Anzeigebereich 31, lässt sich ein Translations- oder Verschiebebefehl auch auf rein digitale Weise ohne Bewegung der Objektführungseinrichtung 20 (vgl. 1) realisieren, soweit die erwünschte Verschiebung des Anzeigebereichs 31 noch innerhalb des vom Sensor 114 (vgl. 1) erfassten Bildes liegt. Hierzu wird bei einer Verschiebung des Anzeigebereichs 31 von Position 32a zu Position 32b lediglich der zur Anzeige am Sensorbildschirm 150 (vgl. 1) ausgelesene Bildausschnitt entsprechend verschoben.
  • In 5 ist die Umsetzung eines durch die Bewegung zweier Berührungspunkte von Anzeigemitteln auf einem Anzeigebereich eines Sensorbildschirms erkannten Rotationsbefehls dargestellt. Die Bewegungsinformation wird dazu verwendet, eine Rotation des Gesichtsfelds von einer Position 41a in eine Position 41b vorzunehmen und gleichzeitig eine Rotation des zugeordneten Koordinatensystems mit den Achsen X'' und Y'', 44a–d, um einen Nullpunkt 44 in Bezug auf den Anzeigebereich 41 zu bewirken. Der Mittelpunkt der Rotation ist durch den Schnittpunkt 43b definiert. Er wird durch die zwei Verbindungslinien zwischen den zwei Berührungspunkten vor der Bewegung 42a und nach der Bewegung 42b festgelegt. Der Rotationswinkel ergibt sich über den Schnittwinkel 43a am Schnittpunkt 43b.
  • In 6 sind eine Rotation und ein Zoom eines Bilds in einem Anzeigebereich schematisch dargestellt. In 6a ist das Gesichtsfeld vor einer Rotation 51 im Anzeigebereich 50 gezeigt. Der Anzeigebereich zeigt das Bild mit einer Skalierung 54, die sich durch die Gesamtvergrößerung Mtot der Bildgebungseinrichtung ergibt.
  • 6b zeigt das Gesichtsfeld nach einer Bewegung wie zuvor beschrieben. Die Rotation verändert die Skalierung 54 des Bildes nicht. Der Zweck dieser Rotation ist es, Bereiche von Interesse mit dem Koordinatensystem des Anzeigebereichs für eine bessere Dokumentation auszurichten. Es ist jedoch aus 6b auch deutlich ersichtlich, dass bestimmte Bereiche 52 des ursprünglichen Gesichtsfelds in dem Anzeigebereich 53 nicht mehr sichtbar sind. Andererseits enthalten neue, nun eingeschwenkte Bereiche 52 des Anzeigebereichs keine Bildinformation, da sie außerhalb des ausgelesenen Bildausschnittes liegen. Dies tritt ausschliesslich im Fall einer Rotation des Gesichtsfeldes mittels Bildverarbeitung des digitalen Bildes auf. Wird das Gesichtsfeld mittels Rotation der Objektführungseinrichtung 120 durchgeführt, entstehen diese Anzeigebereiche ohne Bildinformation nicht.
  • In 6c wird daher das Gesichtsfeld 51 digital mittels digitaler Verarbeitungsmittel skaliert, so dass das Bild des Gesichtsfelds 53 alle Teile des Anzeigebereichs 50 abdeckt. Dies führt zu einem Vergrößerungsfaktor MDIG für diese Skalierung. Im Endeffekt hat sich die Skalierung 54 des Bilds auf dem Anzeigebereich 50 um den Faktor MDIG verändert. Dies ist jedoch nicht erwünscht und kann daher, wie in 6d gezeigt, durch die Veränderung der Vergrösserung des optischen Zooms mit 1/MDIG kompensiert werden. Das Gesichtsfeld 51 in dem Anzeigebereich 50 entspricht wieder jenem vor der Rotation (vgl. 6a).
  • Die Schritte, wie sie in den 6a bis 6d sequentiell dargestellt sind, werden vorzugsweise parallel durchgeführt. Die Drehung des Gesichtsfelds kann durch digitale Verarbeitungsmittel oder durch eine Drehung der optischen Achse der Bildgebungseinrichtung ausgeführt werden. Nach der Drehung des Gesichtsfelds werden nunmehr alle Lateralbewegungen des Gesichtsfelds (siehe 2) aus dem Koordinatensystem des Anzeigebereichs in das Koordinatensystem der Objektführungseinrichtung unter Verwendung des Rotationswinkels 43a (vgl. 5), umgesetzt.
  • In 7 ist eine Vergrößerung des Gesichtsfelds dargestellt. Das Bild eines ersten Gesichtsfelds 61a ist in der 7a in einem Anzeigebereich 60 vor der Vergrößerung gezeigt. Die Skalierung des Bildes wird durch die Größenskala 62a veranschaulicht. Die Position zweier Berührungspunkte 63a definiert einen rechtwinkligen Bereich 64a, welcher mit seinen Kanten parallel zum Anzeigebereich 60 liegt.
  • 7b zeigt die Situation nach einer Veränderung der Größe des Gesichtsfelds. Die Position der zwei Berührungspunkte, nun mit 63b angegeben hat sich in Bezug auf ihre Position 63a in der 7a verändert, die Größe des zweiten rechtwinkligen Bereichs 64b ist entsprechend reduziert. Die Veränderung des Gesichtsfelds wurde durch eine Veränderung von Mtot bewirkt. In gleicher Weise ist das Verhältnis von Mtot der Gesichtfelder 61a, 61b durch das Verhältnis der zwei Diagonalen 65a, 65b der zwei rechtwinkligen Bereiche 64a, 64b definiert. Die Veränderung von Mtot wird auch zu einer veränderten Skalierung des Bilds führen, was durch die Angabe der Größenskala 62b in 7b veranschaulicht ist. Das Verhältnis der zwei Skalen entspricht dem Verhältnis der Werte für Mtot.
  • Die Veränderung von Mtot kann unter Verwendung von digitalen Zoommitteln erfolgen. Dies ist insbesondere dann günstig, wenn das Verfahren zur Größenveränderung von Standbildern verwendet wird. Im Fall einer Live-Bildanzeige wird es hingegen vorteilhaft sein, Mtot durch optische Mittel wie einen optischen Zoom zu verändern.
  • In allen Fällen ist bevorzugt, bei der Veränderung der Bildgröße ein bestimmtes Seitenverhältniskriterium einzuhalten. Ein bevorzugtes Seitenverhältniskriterium stellt beispielsweise ein 1:1-Verhältnis von Kamerapixeln zu Bildpixeln dar. Erreicht der optische Zoom seine obere Vergrößerungsgrenze, kann die weitere Vergrößerung von Mtot unter Verwendung eines digitalen Zooms realisiert werden. Bei der Reduktion von Mtot ist es bevorzugt, zunächst den digitalen Zoom zu reduzieren, bis das Seitenverhältniskriterium eingehalten wird. Zur weiteren Verkleinerung wird dann der optische Zoom verwendet.
  • Andere Seitenverhältniskriterien sehen beispielsweise eine Entsprechung der optischen Auflösung der Bildgebungseinrichtung zur Größe eines Pixels des Anzeigebereichs vor. Beliebige weitere Kriterien können ebenfalls einbezogen werden. Die zwei rechtwinkligen Bereiche 64a, 64b der 7 weisen jeweils einen Mittelpunkt 66a, 66b auf. Diese Mittelpunkte, welche zur Zentrierung verwendet werden, können auch während der Vergrößerung oder Größenveränderung verändert werden. Die Bewegung des Mittelpunkts wird in die Bewegung der Objektführungseinrichtung, wie in Zusammenhang mit 3 erläutert, umgesetzt.
  • In den 8a und 8b sind weitere Mikroskope 70 gemäß bevorzugter Ausführungsformen dargestellt, wobei aus Gründen der Übersichtlichkeit nicht alle Elemente aus 1 nochmals einzeln dargestellt sind. Insbesondere kann die Mikroskopeinheit 72 die Komponenten 112 und 113 aus 1, die Kamera 71 die Komponenten 114, 115 und 160 und die Bildanzeige 73 die Komponente 150 aus 1 umfassen.
  • Ein in 8a dargestelltes Mikroskop weist als Hauptkomponenten eine Mikroskopeinheit 72, eine Kamera 71 und eine Bildanzeige 73 auf. Die Bildanzeige 73 weist einen Sensorbildschirm bzw. einen berührungssensitiven Bildanzeigebereich 74 wie zuvor erläutert auf. In der 8a wird dabei eine einzelne Verbindung 75 zwischen der Mikroskopeinheit 72, der Kamera 71 und der Bildanzeigeeinheit 73 zur Kommunikation verwendet. Darüber hinaus kann diese Verbindung 75 auch elektrische Leistung für die Mikroskopeinheit 72 und die Kamera 71 bereitstellen.
  • In 8b ist eine weitere Ausführungsform gezeigt, bei der zwei Verbindungsleitungen vorgesehen sind, von denen eine Verbindungsleitung 76 zur Verbindung mit der Kamera 71 und die andere mit Verbindungsleitung 77 zur Verbindung mit der Mikroskopeinheit 72 ausgebildet ist. Diese Verbindungsleitungen können jeweils eine Kommunikationsverbindung und/oder eine elektrische Leistung bereitstellen. Die Kommunikation kann auf Grundlage bekannter, jeweils gemeinsamer oder getrennter Kommunikationsstandards wie USB, Firewire, CAN, HDMI etc. oder auch kabellos über WLAN, Bluetooth, Infrarot etc. erfolgen.
  • Bezugszeichenliste
  • 11
    Anzeigebereich
    12a, 12b, 12c
    Position
    14a, 14b
    Bewegungskomponente
    15a, 15b
    Bewegungskomponente
    16
    Nullpunkt
    16a
    X'-Achse
    16b
    Y'-Achse
    20, 21
    Aktor
    23a, 23b
    Position
    24a, 24b
    Bewegungskomponente
    25
    Objekt
    31
    Anzeigebereich
    31a, 32b
    Position
    41
    Anzeigebereich
    41a, 41b
    Position
    42a, 42b
    Berührungspunkte
    43a
    Schnittwinkel
    43b
    Schnittpunkt
    44
    Nullpunkt
    44a
    X'-Achse
    44b
    Y'-Achse
    44c
    X''-Achse
    44d
    Y''-Achse
    50
    Anzeigebereich
    51
    Gesichtsfeld
    52
    Bildbereich
    53
    Gesichtsfeld
    54
    Skalierung
    60
    Anzeigebereich
    61a, 61b
    Gesichtsfeld
    62a, 62b
    Größenskala
    63a
    Berührungspunkte
    64a, 64b
    Bereich
    65a, 65b
    Diagonale
    66a, 66b
    Mittelpunkt
    70
    Mikroskop
    71
    Kamera
    72
    Mikroskopeinheit
    73
    Bildanzeige
    74
    Sensorbildschirm
    75
    Verbindung
    76, 77
    Verbindungsleitung
    100
    Mikroskop
    110
    Bilderfassungseinrichtung
    111
    optische Komponenten
    112
    Objektiv
    113
    Tubus
    114
    Sensor
    115
    Bildverarbeitungseinrichtung
    120
    Objektführungseinrichtung
    121
    Kreuztisch
    122
    Translations- und Rotationseinrichtung
    123
    Pfeil für Translation
    124
    Pfeil für Rotation
    130
    Steuereinrichtung
    140
    Verstelleinrichtung
    141, 142, 143
    Verstellelement
    150
    Sensorbildschirm
    151
    Anzeigebereich
    152, 153
    Eingabemittel
    160
    Steuer-/Verarbeitungsmittel

Claims (20)

  1. Mikroskop (100) mit einer zur optischen und digitalen Erfassung eines Objekts unter Erzeugung eines Objektbildes eingerichteten Bilderfassungseinrichtung (110), wobei die Bilderfassungseinrichtung (110) optische Komponenten (111) und digitale Komponenten (114, 115) und hierdurch Möglichkeiten zur optischen und/oder digitalen Vergrößerung oder Verkleinerung des erzeugten Objektbildes aufweist, und mit einem zur Anzeige des Objektbildes in einem Anzeigebereich (151) und zur Erfassung von Eingaben in dem Anzeigebereich (151) ausgebildeten Sensorbildschirm (150), wobei das Mikroskop (100) zur Veränderung von Einstellungen von motorisierten und/oder elektrisch steuerbaren Mikroskop-Komponenten (110, 112, 71, 114, 115, 120, 121, 160) am Mikroskop (100) auf Grundlage der in dem Anzeigebereich (151) des Sensorbildschirms (150) innerhalb des angezeigten Objektbilds erfassten Eingaben derart eingerichtet ist, dass bei Erkennung eines Zoombefehls über eine Eingabe in dem Anzeigebereich (151) des Sensorbildschirms (150) innerhalb des angezeigten Objektbilds eine Änderung der optischen und/oder digitalen Vergrößerung des erzeugten Objektbildes über die optischen (111) und/oder digitalen (114, 115) Komponenten der Bilderfassungseinrichtung vorgenommen wird.
  2. Mikroskop (100) nach Anspruch 1, bei dem der Sensorbildschirm (150) zumindest in dem Anzeigebereich (151) zur Erfassung einer Position, einer Bewegung und/oder einer Beschleunigung wenigstens eines Eingabemittels an oder in der Nähe seiner Oberfläche eingerichtet ist.
  3. Mikroskop (100) nach Anspruch 2, bei dem aus der erfassten Position, Bewegung und/oder Beschleunigung Steuerungssignale abgeleitet werden, mit denen die Funktionen der motorischen und/oder elektrisch steuerbaren Mikroskop-Komponenten (110, 112, 71, 114, 115, 120, 121, 160) steuerbar sind.
  4. Mikroskop (100) nach einem der Ansprüche 1 bis 3, bei dem die motorischen und/oder elektrisch steuerbaren Mikroskop-Komponenten (110, 112, 71, 114, 115, 120, 121, 160) eine oder mehrere der folgenden Komponenten umfassen: die Bilderfassungseinrichtung (110), einen Sensor (114) zur Bilderfassung oder eine digitale Kamera (71), eine Bildverarbeitungseinrichtung (115), Steuer- und/oder Verarbeitungsmittel (160), einen Objektivrevolver mit mindestens einem Objektiv (112), eine motorisierte Zoomverstellung, einen in Z-Richtung verfahrbaren Fokussiertrieb, einen xy-verstellbaren Mikroskoptisch (121), insbesondere einen Kreuztisch, und/oder einen Drehtisch.
  5. Mikroskop (100) nach einem der Ansprüche 1 bis 4, bei dem der Sensorbildschirm (150) zumindest in dem Anzeigebereich (151) zur Erfassung einer Relativposition, einer Relativbewegung und/oder einer Relativbeschleunigung mehrerer Eingabemittel zueinander an oder in der Nähe seiner Oberfläche eingerichtet ist.
  6. Mikroskop (100) nach einem der vorstehenden Ansprüche, bei dem der Sensorbildschirm (150) zumindest in dem Anzeigebereich (151) als Multi-Touch-Sensorbildschirm ausgebildet ist.
  7. Mikroskop (100) nach einem der vorstehenden Ansprüche, bei dem der Sensorbildschirm (150) zumindest in dem Anzeigebereich (151) akustische Impuls- und/oder Oberflächenwellensensoren, kapazitive Sensoren, Biegewellensensoren, Widerstandssensoren, optische und/oder Infrarotsensoren zur Erfassung der Eingaben aufweist.
  8. Mikroskop (100) nach einem der vorstehenden Ansprüche, das zumindest eine Objektführungseinrichtung (120) und/oder eine optische Einheit (111) und/oder eine digitale Bildverarbeitungseinrichtung (115) aufweist, wobei eine Veränderung von Einstellungen am Mikroskop auf die Objektführungseinrichtung (120), die optische Einheit (111) und/oder die digitale Bildverarbeitungseinrichtung (115) einwirkt.
  9. Steuereinrichtung (130, 160), die zur Ansteuerung eines Mikroskops (100) nach einem der vorstehenden Ansprüche eingerichtet ist, mit einem Eingang zum Empfang von durch den Sensorbildschirm (150) zumindest in seinem Anzeigebereich (151) innerhalb des angezeigten Objektbilds erfassten Eingaben und wenigstens einem Ausgang zur Veränderung der Einstellungen am Mikroskop, wobei die Steuereinrichtung (130, 160) derart eingerichtet ist, dass bei Erkennung eines Zoombefehls über eine Eingabe in dem Anzeigebereich (151) des Sensorbildschirms (150) innerhalb des angezeigten Objektbilds eine Änderung der optischen und/oder digitalen Vergrößerung des erzeugten Objektbildes über eine Veränderung der Einstellung der optischen (111) und/oder digitalen (114, 115) Komponenten der Bilderfassungseinrichtung vorgenommen wird.
  10. Verfahren zum Betrieb eines Mikroskops (100) nach einem der Ansprüche 1 bis 8, das das Anzeigen eines Objektbildes in einem Anzeigebereich (151) eines Sensorbildschirms (150), das Erfassen von Eingaben in dem Anzeigebereich (151) des Sensorbildschirms (150) und das Verändern von Einstellungen am Mikroskop auf Grundlage der in dem Anzeigebereich (151) des Sensorbildschirms (150) innerhalb des angezeigten Objektbilds erfassten Eingaben umfasst, und wobei bei Erkennung eines Zoombefehls über eine Eingabe in dem Anzeigebereich (151) des Sensorbildschirms (150) innerhalb des angezeigten Objektbilds eine Änderung der optischen und/oder digitalen Vergrößerung des erzeugten Objektbildes über die optischen (111) und/oder digitalen (114, 115) Komponenten der Bilderfassungseinrichtung vorgenommen wird.
  11. Verfahren nach Anspruch 10, bei dem das Erfassen der Eingaben das Erkennen von Befehlen, wie Translations-, Rotations-, Zoom-, Zentrier-, Fokussier-, Auswahl-, Mess-, Verarbeitungs-, Integrations- und/oder Funktionswechselbefehlen, in dem Anzeigebereich (151) des Sensorbildschirms (150) umfasst.
  12. Verfahren nach Anspruch 11, bei dem jeweils ein Befehl erkannt wird, wenn jeweils eine definierte Anzahl von Eingabemitteln für eine definierte Zeit, in definierter Häufigkeit und/oder in einer definierten Anzahl von Positionen mit der Oberfläche des Anzeigebereichs (151) in Kontakt oder in die Nähe seiner Oberfläche gebracht und/oder gehalten wird.
  13. Verfahren nach Anspruch 11 oder 12, bei dem ein Translationsbefehl erkannt wird, wenn wenigstens ein Eingabemittel in Kontakt mit der Oberfläche des Anzeigebereichs (151) des Sensorbildschirms (150) oder in die Nähe seiner Oberfläche positioniert wird und ausgehend von dieser Position relativ zur Oberfläche verschoben wird.
  14. Verfahren nach einem der Ansprüche 11 bis 13, bei dem ein Rotationsbefehl erkannt wird, wenn mehrere Eingabemittel in Kontakt mit der Oberfläche des Anzeigebereichs (151) des Sensorbildschirms (150) oder in die Nähe seiner Oberfläche positioniert werden und ausgehend von dieser Position relativ zur Oberfläche miteinander verdreht werden.
  15. Verfahren nach einem der Ansprüche 11 bis 14, bei dem ein Zoombefehl erkannt wird, wenn mehrere Eingabemittel in Kontakt mit der Oberfläche des Anzeigebereichs (151) des Sensorbildschirms (150) oder in die Nähe seiner Oberfläche positioniert werden und ausgehend von dieser Position der Abstand der Eingabemittel relativ zueinander verändert wird.
  16. Verfahren nach einem der Ansprüche 11 bis 15, bei dem ein durch optische Komponenten der Bilderfassungseinrichtung (110) erzeugtes Objektbild und/oder ein durch digitale Komponenten der Bilderfassungseinrichtung (110) erfasstes Objekt translatiert, rotiert, zentriert und/oder fokussiert wird, wenn in dem Anzeigebereich (151) des Sensorbildschirms (150) ein Translations-, Rotations-, Zoom-, Zentrier- und/oder Fokussierbefehl erkannt wird.
  17. Verfahren nach einem der Ansprüche 11 bis 16, bei dem ein Bereich eines durch die Bilderfassungseinrichtung (110) erzeugten Objektbilds ausgewählt, vermessen, verarbeitet und/oder integriert wird, wenn in dem Anzeigebereich (151) des Sensorbildschirms (150) ein Auswahl-, Mess-, Verarbeitungs- und/oder Integrationsbefehl erkannt wird.
  18. Verfahren nach einem der Ansprüche 11 bis 17, bei dem ein Funktionswechsel in eine andere Arbeitsweise des Mikroskops (100) vorgenommen wird, wenn ein Funktionswechselbefehl erkannt wird.
  19. Verfahren nach Anspruch 18, bei dem bei einem Funktionswechsel eine Änderung des Eingabemodus zur Erkennung von Befehlen anhand erfasster Eingaben am Sensorbildschirms (150) vorgenommen wird.
  20. Verfahren nach Anspruch 19, bei dem jedem Eingabemodus eine bestimmte Anzahl von erkennbaren Befehlen zugeordnet wird.
DE102010063392.5A 2010-11-15 2010-12-17 Mikroskop mit Sensorbildschirm, zugehörige Steuereinrichtung und Betriebsverfahren Revoked DE102010063392B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102010063392.5A DE102010063392B4 (de) 2010-11-15 2010-12-17 Mikroskop mit Sensorbildschirm, zugehörige Steuereinrichtung und Betriebsverfahren
US13/294,390 US9329375B2 (en) 2010-11-15 2011-11-11 Microscope having a touch screen
JP2011249517A JP6050935B2 (ja) 2010-11-15 2011-11-15 タッチスクリーンを有する顕微鏡、顕微鏡を制御するための制御装置、および顕微鏡を動作させる方法
CN201110362119.XA CN102662229B (zh) 2010-11-15 2011-11-15 具有触摸屏的显微镜

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102010043942.8 2010-11-15
DE102010043942 2010-11-15
DE102010063392.5A DE102010063392B4 (de) 2010-11-15 2010-12-17 Mikroskop mit Sensorbildschirm, zugehörige Steuereinrichtung und Betriebsverfahren

Publications (2)

Publication Number Publication Date
DE102010063392A1 DE102010063392A1 (de) 2012-05-16
DE102010063392B4 true DE102010063392B4 (de) 2016-12-15

Family

ID=45999023

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010063392.5A Revoked DE102010063392B4 (de) 2010-11-15 2010-12-17 Mikroskop mit Sensorbildschirm, zugehörige Steuereinrichtung und Betriebsverfahren

Country Status (4)

Country Link
US (1) US9329375B2 (de)
JP (1) JP6050935B2 (de)
CN (1) CN102662229B (de)
DE (1) DE102010063392B4 (de)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5936008B2 (ja) * 2011-03-23 2016-06-15 ナノフォトン株式会社 顕微鏡
JP5875813B2 (ja) * 2011-09-27 2016-03-02 オリンパス株式会社 顕微鏡システム
US20130117698A1 (en) * 2011-10-31 2013-05-09 Samsung Electronics Co., Ltd. Display apparatus and method thereof
WO2013113760A1 (de) 2012-01-30 2013-08-08 Leica Microsystems Cms Gmbh Mikroskop mit kabelloser funkschnittstelle und mikroskopsystem
US20130271575A1 (en) * 2012-04-11 2013-10-17 Zspace, Inc. Dynamically Controlling an Imaging Microscopy System
JP2014002190A (ja) * 2012-06-15 2014-01-09 Dainippon Printing Co Ltd コンピュータ装置及びプログラム
JP2014026208A (ja) * 2012-07-30 2014-02-06 Dainippon Printing Co Ltd コンピュータ装置及びプログラム
DE102012220195B4 (de) * 2012-11-06 2021-03-04 Leica Microsystems Cms Gmbh Widefield-Mikroskop oder Konfokalmikroskop
CN103048780A (zh) * 2012-11-08 2013-04-17 清华大学 一种连续变温偏光显微镜装置
DE102013007000A1 (de) * 2013-04-19 2014-10-23 Carl Zeiss Microscopy Gmbh Steuergerät und Verfahren zur Steuerung eines motorisierten Digitalmikroskops
CN103760663A (zh) * 2014-01-14 2014-04-30 宁波基内生物技术有限公司 自适应显微镜及其使用方法和自适应调焦方法
DE102014103758A1 (de) 2014-03-19 2015-09-24 Leica Microsysteme (Schweiz) AG Operationsmikroskop-Stativ
CN104155746A (zh) * 2014-08-28 2014-11-19 广西奥顺仪器有限公司 一种手术显微镜摄像装置
CN104463915B (zh) * 2014-12-26 2017-03-22 河北工业大学 一种基于触摸屏的运动控制及视觉检测系统
JP6197801B2 (ja) * 2015-01-30 2017-09-20 コニカミノルタ株式会社 データ入力システム、データ入力装置、データ入力方法およびデータ入力プログラム
JP6540129B2 (ja) * 2015-03-19 2019-07-10 株式会社ニコン 観察装置、観察方法、及びプログラム
CN104765139A (zh) * 2015-04-26 2015-07-08 朱金凤 一种操作便捷带触摸显示屏的手术显微镜
US10292570B2 (en) * 2016-03-14 2019-05-21 Endochoice, Inc. System and method for guiding and tracking a region of interest using an endoscope
US10432857B2 (en) * 2016-10-13 2019-10-01 Life Technologies Holdings Pte Limited Systems, methods, and apparatuses for optimizing field of view
TWI627444B (zh) * 2017-02-24 2018-06-21 秀傳醫療社團法人秀傳紀念醫院 可記憶電動平台之數位雙鏡頭立體顯微鏡
CN108535856B (zh) * 2017-03-03 2024-03-12 刘飞 一种数码显微镜
DE102017109252A1 (de) 2017-04-28 2018-10-31 Leica Microsystems Cms Gmbh Programmierbare Mikroskopsteuerungseinheit mit frei verwendbaren Ein- und Ausgängen, Mikroskopsystem mit einer Mikroskopsteuerungseinheit und Verfahren zum Betrieb einer Mikroskopsteuerungseinheit
JP7058265B2 (ja) 2017-05-11 2022-04-21 クミアイ化学工業株式会社 ピラゾール-3-カルボン酸アミド誘導体及び有害生物防除剤
DE102018132337A1 (de) 2018-12-14 2020-06-18 Leica Microsystems Cms Gmbh Mikroskopsystem mit Eingabeeinheit zum gleichzeitigen Einstellen von wenigstens drei Einstellparametern mittels eines in einer Eingabefläche positionierbaren Eingabezeigers
CN110501797B (zh) * 2019-09-20 2022-09-06 合肥英睿系统技术有限公司 一种可自动检测识别视场的红外镜头装置
DE202020000635U1 (de) 2020-02-17 2020-06-19 Carl Zeiss Microscopy Gmbh Binokularer Digitaltubus für ein Mikroskop
US11448868B2 (en) 2020-05-07 2022-09-20 Kgg Inc Ergonomic EZ scope digital imaging system
DE102020115610A1 (de) 2020-06-12 2021-12-16 Leica Microsystems Cms Gmbh Verfahren, Recheneinheit und System zum Bestimmen jeweils eines Werts für wenigstens drei Einstellparameter mittels einer Eingabeeinheit in Form einer graphischen Benutzer-Schnittstelle
CN116964686A (zh) * 2021-03-01 2023-10-27 徕卡显微系统科技(苏州)有限公司 用于光学检查的处理装置和检查设备以及对应的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07244243A (ja) * 1994-03-04 1995-09-19 Olympus Optical Co Ltd 顕微鏡画像表示装置
WO1996018924A1 (fr) * 1994-12-15 1996-06-20 Olympus Optical Co., Ltd. Microscope pourvu d'organes d'observation et de prise de vues
JPH09197287A (ja) * 1996-01-23 1997-07-31 Nikon Corp 電動顕微鏡
DE20013359U1 (de) * 2000-08-03 2000-11-23 Leica Microsystems Automatisiertes Mikroskopsystem
EP1533643A1 (de) * 2003-11-21 2005-05-25 CARL ZEISS JENA GmbH Beobachtungsgerät mit separater Bedienungseinheit
DE102008028482A1 (de) * 2008-06-13 2009-12-24 Carl Zeiss Surgical Gmbh Optisches Beobachtungsgerät mit Mehrkanal-dateneinblendung

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3396071B2 (ja) 1993-12-24 2003-04-14 オリンパス光学工業株式会社 顕微鏡の操作装置
JPH08146302A (ja) 1994-11-18 1996-06-07 Olympus Optical Co Ltd 顕微鏡システム
JPH08223563A (ja) 1995-02-15 1996-08-30 Meitec Corp 観察装置の試料台制御方式
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
JP2002014288A (ja) * 2000-06-29 2002-01-18 Nikon Corp 顕微鏡装置及びその使用方法
JP2002281365A (ja) 2001-03-16 2002-09-27 Ricoh Co Ltd デジタルカメラ
JP2004104594A (ja) * 2002-09-11 2004-04-02 Toshiba Corp デジタルスチルカメラ及びユーザ指示入力方法
DE102004022330B3 (de) * 2004-05-06 2005-10-20 Leica Microsystems Schweiz Ag Mikroskop
JP5129478B2 (ja) * 2006-03-24 2013-01-30 株式会社デンソーアイティーラボラトリ 画面表示装置
CN101461026B (zh) * 2006-06-07 2012-01-18 Fei公司 与包含真空室的装置一起使用的滑动轴承
CN100485595C (zh) * 2007-07-25 2009-05-06 广东威创视讯科技股份有限公司 一种触摸屏装置与多点触摸定位方法
CN101408709B (zh) * 2007-10-10 2010-09-29 鸿富锦精密工业(深圳)有限公司 影像撷取装置及其自动对焦方法
JP2009140368A (ja) * 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
JP5087423B2 (ja) * 2008-02-15 2012-12-05 オリンパス株式会社 観察装置
KR20100110893A (ko) * 2008-03-03 2010-10-13 파나소닉 주식회사 초음파 진단 장치
JP2009239424A (ja) 2008-03-26 2009-10-15 Nikon Corp カメラ
EP2108328B2 (de) * 2008-04-09 2020-08-26 Brainlab AG Bildbasiertes Ansteuerungsverfahren für medizintechnische Geräte
US8259208B2 (en) * 2008-04-15 2012-09-04 Sony Corporation Method and apparatus for performing touch-based adjustments within imaging devices
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
CN101539815A (zh) * 2009-02-25 2009-09-23 韩鼎楠 多点触摸屏操作工具
JP5202425B2 (ja) 2009-04-27 2013-06-05 三菱電機株式会社 映像監視システム
JP5306088B2 (ja) * 2009-07-14 2013-10-02 オリンパス株式会社 顕微鏡システム
US20110113329A1 (en) * 2009-11-09 2011-05-12 Michael Pusateri Multi-touch sensing device for use with radiological workstations and associated methods of use
CN201984209U (zh) * 2010-12-09 2011-09-21 苏州生物医学工程技术研究所 一种使用触摸屏系统控制光源的荧光显微镜

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07244243A (ja) * 1994-03-04 1995-09-19 Olympus Optical Co Ltd 顕微鏡画像表示装置
WO1996018924A1 (fr) * 1994-12-15 1996-06-20 Olympus Optical Co., Ltd. Microscope pourvu d'organes d'observation et de prise de vues
JPH09197287A (ja) * 1996-01-23 1997-07-31 Nikon Corp 電動顕微鏡
DE20013359U1 (de) * 2000-08-03 2000-11-23 Leica Microsystems Automatisiertes Mikroskopsystem
EP1533643A1 (de) * 2003-11-21 2005-05-25 CARL ZEISS JENA GmbH Beobachtungsgerät mit separater Bedienungseinheit
DE102008028482A1 (de) * 2008-06-13 2009-12-24 Carl Zeiss Surgical Gmbh Optisches Beobachtungsgerät mit Mehrkanal-dateneinblendung

Also Published As

Publication number Publication date
DE102010063392A1 (de) 2012-05-16
CN102662229A (zh) 2012-09-12
JP6050935B2 (ja) 2016-12-21
US20120120224A1 (en) 2012-05-17
CN102662229B (zh) 2017-04-12
JP2012108511A (ja) 2012-06-07
US9329375B2 (en) 2016-05-03

Similar Documents

Publication Publication Date Title
DE102010063392B4 (de) Mikroskop mit Sensorbildschirm, zugehörige Steuereinrichtung und Betriebsverfahren
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
DE112010002760T5 (de) Benutzerschnittstelle
EP1304653B1 (de) System und Verfahren zur Anzeige von Bildern
DE102013217354B4 (de) Kantenmessungs-videowerkzeug und schnittstelle mit automatischen parametersatzalternativen
DE202007019347U1 (de) Bildschirm-Tastfeld-Anzeigevorrichtung
EP2406697B1 (de) Programm und system zum erkennen eines objektes in einer bildschirmdarstellung
DE102007033793A1 (de) Verfahren und Vorrichtung zum mikroskopischen Untersuchen einer Probe, Computerprogramm und Computerprogrammprodukt
DE102012216908A1 (de) Verfahren unter Verwendung einer Bildkorrelation zum Bestimmen von Positionsmessungen in einem Maschinenvisionssystem
EP2822814A1 (de) Kraftfahrzeug mit einem elektronischen rückspiegel
DE102014226553A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
DE102012220195A1 (de) Mikroskop
DE102008050542A1 (de) Medizinisches Bildaufnahmesystem, Bedieneinrichtung und Verfahren zum Steuern einer Bildaufnahmevorrichtung
EP2793068A1 (de) Steuergerät und Verfahren zur Steuerung eines motorisierten Digitalmikroskops
EP3769138A1 (de) Mikroskopsystem und verfahren zur steuerung eines solchen mikroskopsystems
EP2740021A1 (de) Methode und vorrichtung zur bestimmung eines bildausschnitts und auslösen von bilderfassungen mittels einer einzigen berührungsbasierten geste
DE102013217347B4 (de) Verfahren und vorrichtung zur parametereinstellung für kantenmessungsvideowerkzeuge
DE102014224599A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
EP3874315A1 (de) Mikroskopsystem zur abbildung eines probenbereichs und entsprechendes verfahren
EP3894929A1 (de) Mikroskopsystem mit eingabeeinheit zum gleichzeitigen einstellen von wenigstens drei einstellparametern mittels eines in einer eingabefläche positionierbaren eingabezeigers
DE102004027289B4 (de) Verfahren und Anordnung zur berührungslosen Navigation in einem Dokument
EP3809094B1 (de) Verfahren und anordnung zum visualisieren von sensorsignalen eines optischen sensors eines koordinatenmessgeräts sowie verfahren und anordnung zum visualisieren eines sensors eines koordinatenmessgeräts
WO2018068821A1 (de) Verfahren zur anpassung der darstellung und bedienung einer grafischen benutzerschnittstelle
DE112015007007T5 (de) Ladungsträgerstrahlvorrichtung, beobachtungsverfahren unter verwendung der ladungsträgerstrahlvorrichtung und programm
WO2021104740A1 (de) Optisches beobachtungsgerät sowie verfahren und datenverarbeitungssystem zum ermitteln von informationen zum unterscheiden zwischen gewebeflüssigkeitszellen und gewebezellen

Legal Events

Date Code Title Description
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R026 Opposition filed against patent
R037 Decision of examining division or of federal patent court revoking patent now final