-
HINTERGRUND ZU DER ERFINDUNG
-
Die vorliegende Offenbarung betrifft allgemein ein Endoskopsystem, das für die Inspektion von Ausrüstung und Einrichtungen verwendet wird, und insbesondere die Bilderfassung mittels des Endoskopsystems.
-
Manche Ausrüstung und Einrichtungen, wie beispielsweise Energieerzeugungsausrüstung und -einrichtungen, Öl- und Gasausrüstung und -einrichtungen, Luftfahrzeugausrüstung und -einrichtungen, Herstellungsausrüstung und -einrichtungen und dergleichen, enthalten mehrere zusammenhängende Systeme und Prozesse. Z.B. können Energieerzeugungsanlagen Turbinensysteme und Prozesse zum Betreiben und Instandhalten der Turbinensysteme enthalten. Ebenso können Öl- und Gasbetriebe Rückgewinnungssysteme für kohlenstoffhaltigen Brennstoff und eine Verarbeitungsausrüstung enthalten, die über Rohrleitungen miteinander verbunden sind. Ebenso können Luftfahrzeugsysteme Flugzeuge und Instandhaltungshangars enthalten, die zur Aufrechterhaltung der Flugtauglichkeit und zur Bereitstellung einer Instandhaltungsunterstützung nützlich sind.
-
Bestimmte Techniken, wie beispielsweise zerstörungsfreie Inspektionstechniken oder Techniken zur zerstörungsfreien Prüfung (NDT, Non-Destructive Testing) können verwendet werden, um derartige Ausrüstung und Einrichtungen zu inspizieren und eine Instandhaltung derselben zu unterstützen. Insbesondere können derartige Techniken visuelle Ferninspektionsvorrichtungen, wie beispielsweise Endoskope, Boroskope, Schwenk-Neige-Zoom-Kameras, Schiebekameras und dergleichen, verwenden, um die Einbauten ohne Demontage sehr vielfältiger Ausrüstung und Einrichtungen zu inspizieren. Z.B. kann ein Endoskop verwendet werden, um die inneren Merkmale (z.B. Objekte oder Oberflächen) in einem Kraftfahrzeugmotor zu inspizieren. Insbesondere kann ein visuelles Ferninspektionssystem (z.B. Endoskop) in verschiedene Öffnungen der Ausrüstung oder Einrichtung eingeführt werden, um eine Ausleuchtung, visuelle Beobachtungen und/oder die Erfassung von Bildern von den Einbauten der Ausrüstung oder Einrichtung zu ermöglichen.
-
Demgemäß würde es von Vorteil sein, die Bilderfassungsfähigkeiten eines visuellen Ferninspektionssystems z.B. durch Erhöhung der Nutzbarkeit erfasster Bilder zu verbessern.
-
KURZE BESCHREIBUNG DER ERFINDUNG
-
Bestimmte Ausführungsformen entsprechend dem Umfang der ursprünglich beanspruchten Erfindung sind nachstehend kurz zusammengefasst. Diese Ausführungsformen sollen den Schutzumfang der beanspruchten Erfindung nicht beschränken, sondern sind lediglich dazu gedacht, eine Kurzbeschreibung möglicher Formen der Erfindung zu liefern. In der Tat kann die Erfindung vielfältige Formen umfassen, die den nachstehend erläuterten Ausführungsformen ähnlich sein oder sich von diesen unterscheiden können.
-
Eine erste Ausführungsform ergibt ein greifbares, nicht-transitorisches computerlesbares Medium, das Instruktionen speichert, die durch einen Prozessor eines Endoskops ausführbar sind. Die Instruktionen enthalten Instruktionen, um unter Verwendung eines Bildgebers in dem Endoskop mehrere erste Bilder bei einer ersten Helligkeitsstufe zu erfassen, während ein Live-Video basierend wenigstens zum Teil auf den mehreren ersten Bildern angezeigt wird, unter Verwendung des Prozessors ein Basisbild durch Mittelung oder Aufsummierung der mehreren ersten Bilder zu erzeugen, unter Verwendung des Bildgebers mehrere zweite Bilder bei mehreren Helligkeitsstufen zu erfassen, wobei sich die mehreren Helligkeitsstufen von der ersten Helligkeitsstufe unterscheiden, und unter Verwendung des Prozessors ein Bild mit hohem Dynamikumfang basierend wenigstens zum Teil auf dem Basisbild und den mehreren zweiten Bildern zu erzeugen, wobei das Bild mit hohem Dynamikumfang mehr ungesättigte Pixel aufweist als das Basisbild.
-
Eine zweite Ausführungsform ergibt einen Prozessor in einem visuellen Ferninspektionssystem, der ein Basisbild durch Mittelung oder Aufsummierung mehrerer erster Bilder erzeugt, wobei die mehreren ersten Bilder unter Verwendung eines Bildgebers des visuellen Ferninspektionssystems bei einer ersten Helligkeitsstufe erfasst werden, eine Live-Videozuspielung basierend wenigstens zum Teil auf den mehreren ersten Bildern erzeugt und ein Bild mit hohem Dynamikumfang unter Verwendung ungesättigter Pixeldaten aus dem Basisbild und ungesättigter Pixeldaten aus wenigstens einem von mehreren zweiten Bilder erzeugt, wobei die mehreren zweiten Bilder unter Verwendung des Bildgebers bei Helligkeitsstufen erfasst werden, die sich von der ersten Helligkeitsstufe unterscheiden.
-
Eine dritte Ausführungsform ergibt ein visuelles Ferninspektionssystem, das einen Bildgeber, der Bilder durch Umwandlung von Licht in analoge Bilddaten liefert, einen Analog-Digital-Wandler, der die analogen Bilddaten in digitale Bilddaten wandelt, und einen Prozessor enthält, der die digitalen Bilddaten erfasst und verarbeitet, um mehrere Bilder zu erzeugen. Das visuelle Ferninspektionssystem enthält ferner eine Anzeige, die ein Live-Video anzeigt, das Merkmale in der Nähe des Bildgebers darstellt, wobei das Live-Video wenigstens zum Teil auf Bildern basiert, die unter Verwendung des Bildgebers bei einer ersten Helligkeitsstufe erfasst werden, wobei die erfassten Bilder verwendet werden, um ein Basisbild zu erzeugen, und die mehreren Bilder, die durch den Prozessor erzeugt werden, als Vorschaubilder (Thumbnails) anzeigt, wobei die mehrere Bilder das Basisbild und ein Bild mit hohem Dynamikumfang enthalten, das durch Ersetzen gesättigter Pixel in dem Basisbild erzeugt wird.
-
KURZBESCHREIBUNG DER ZEICHNUNGEN
-
Diese und weitere Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden besser verstanden, wenn die folgende detaillierte Beschreibung unter Bezugnahme auf die beigefügten Zeichnungen gelesen wird, in denen gleiche Bezugszeichen gleiche Teile durch die Zeichnungen hinweg darstellen, worin zeigen:
-
1 ein Blockdiagramm, das ein Endoskopsystem veranschaulicht, gemäß einer Ausführungsform;
-
2 ein Flussdiagramm eines Prozesses zur Erzeugung von Bildern in dem Endoskopsystem nach 1 gemäß einer Ausführungsform;
-
3 ein Flussdiagramm eines alternativen Prozesses zur Erzeugung von Bildern in dem Endoskopsystem nach 1 gemäß einer Ausführungsform;
-
4 eine Bildschirmansicht mehrerer erfasster Bilder, die durch das Endoskopsystem nach 1 angezeigt werden, gemäß einer Ausführungsform; und
-
5 ein Flussdiagramm eines Prozesses zum Anzeigen der Bildschirmansicht nach 4 gemäß einer Ausführungsform.
-
DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
-
Eine oder mehrere spezielle Ausführungsformen der vorliegenden Erfindung sind nachstehend beschrieben. In dem Bemühen, eine konzise Beschreibung dieser Ausführungsformen zu liefern, können gegebenenfalls nicht alle Merkmale einer tatsächlichen Implementierung in der Beschreibung beschrieben sein. Es sollte erkannt werden, dass bei der Entwicklung einer jeden derartigen tatsächlichen Implementierung, wie in jedem Ingenieurs- oder Konstruktionsprojekt, zahlreiche implementationsspezifische Entscheidungen getroffen werden müssen, um die speziellen Ziele der Entwickler, wie beispielsweise die Einhaltung systembezogener und unternehmensbezogener Randbeschränkungen, zu erreichen, die von einer Implementierung zur anderen variieren können. Außerdem sollte erkannt werden, dass ein derartiger Entwicklungsaufwand zwar komplex und zeitaufwendig sein kann, jedoch für Fachleute, die den Nutzen dieser Offenbarung haben, nichtsdestoweniger ein routinemäßiges Unterfangen zur Konstruktion, Fertigung und Herstellung darstellen würde.
-
Wenn Elemente verschiedener Ausführungsformen der vorliegenden Erfindung eingeführt werden, sollen die Artikel „ein“, „eine“, „der“, „die“ und „das“ bedeuten, dass es ein oder mehrere der Elemente gibt. Die Ausdrücke „aufweisen“, „enthalten“ und „haben“ sind im einschließlichen Sinne gemeint und sollen bedeuten, dass außer den aufgeführten Elementen zusätzliche Elemente vorhanden sein können.
-
Ausführungsformen der vorliegenden Offenbarung können auf vielfältige Inspektionstechniken und -systeme, einschließlich zerstörungsfreier Prüf(NDT)-Techniken/Systeme, anwendbar sein. In einigen Ausführungsformen eines NDT-Systems kann ein visuelles Ferninspektionssystem (z.B. ein Endoskop) verwendet werden, um eine Untersuchung und/oder Inspektion einer Ausrüstung und von Einrichtungen, wie beispielsweise Energieerzeugungsausrüstung und -einrichtungen, Öl- und Gasausrüstung und -einrichtungen und Luftfahrzeugausrüstung und -einrichtungen, zu unterstützen. Insbesondere kann das visuelle Ferninspektionssystem für eine Ausleuchtung, Visualisierung sorgen und/oder andere Daten bereitstellen, die die inneren Merkmale (z.B. Objekte oder Oberflächen) der Ausrüstung oder Einrichtungen betreffen.
-
Um derartige Funktionen zu ermöglichen, enthält ein visuelles Ferninspektionssystem allgemein eine Beleuchtungsvorrichtung (z.B. eine Lichtquelle) und eine Bilderfassungsvorrichtung (z.B. einen Bildgeber). Insbesondere kann der Bildgeber verwendet werden, um Bilder und/oder ein Video von Merkmalen, Objekten oder Oberflächen in der Nähe des Bildgebers zu erfassen. Wenn z.B. eine Endoskopsonde in einen Kraftfahrzeugmotor eingeführt wird, kann der Bildgeber verwendet werden, um Bilder eines Ventils im Innern des Motors zu erfassen. Da innere Merkmale häufig für Außenlicht versperrt sind, kann eine Lichtquelle, wie beispielsweise eine Leuchtdiode (LED), während der Bild- und/oder Videoerfassung für eine Beleuchtung für den Bildgeber sorgen. Wie erkannt werden kann, kann die Beleuchtung in einigen Ausführungsformen durch eine externe Quelle, wie beispielsweise eine externe Beleuchtungsvorrichtung oder natürliches Licht, bereitgestellt werden.
-
Basierend auf diesen erfassten Bildern kann ein Benutzer des visuellen Ferninspektionssystems anschließend eine Untersuchung und/oder Inspektion der Ausrüstung oder Einrichtung durchführen. Z.B. können die Inspektionsbilder verwendet werden, um eine visuelle Darstellung des Ventils in dem Kraftfahrzeugmotor bereitzustellen. Zusätzlich können die Messbilder verwendet werden, um eine 3D-Darstellung (z.B. Punktwolkendaten/-bild oder Tiefenprofil) des Ventils zu generieren. Insbesondere können die Messbilder mehrere verschiedene Formen einnehmen. Z.B. können Stereomessbilder durch die Verwendung einer Stereooptik mit einem einzigen Bildgeber oder mit mehreren Bildgebern, die jeweils ihre eigene Optik aufweisen, erfasst werden. Außerdem können strukturierte Lichtmessbilder erfasst werden, wenn ein Lichtmuster auf eine betrachtete Oberfläche oder ein betrachtetes Objekt projiziert wird. Insbesondere kann das projizierte Lichtmuster in erfassten Bildern detektiert und verwendet werden, um 3D-Oberflächendaten zu bestimmen.
-
Es können verschiedene Techniken verwendet werden, um die strukturierten Lichtmuster zu projizieren. Z.B. können die strukturierten Lichtmuster in einigen Ausführungsformen unter Verwendung einer homogenen Inspektionslichtquelle projiziert werden. In anderen Ausführungsformen kann eine gesonderte Lichtquelle, wie beispielsweise ein Emittermodul, verwendet werden, um das strukturierte Lichtmuster nur während einer Messbilderfassung zu projizieren. In weiteren Ausführungsformen kann, wenn das strukturierte Lichtmuster im Vergleich zu dem gleichmäßigen Inspektionslicht eine hinreichende Intensität hat, die gesonderte Lichtquelle gleichzeitig mit der homogenen Inspektionslichtquelle aktiviert werden. Ein derartiges strukturiertes Lichtmuster kann Linien oder Punkte enthalten, die unter Verwendung einer kollimierten Lichtquelle, wie beispielsweise eines Lasers, mit einem ein Muster erzeugenden optischen Element, wie beispielsweise einer diffraktiven Optik, erzeugt werden. Noch weiter kann, wenn die durch die homogene Inspektionslichtquelle erzielte Beleuchtung die Nutzbarkeit des projizierten strukturierten Lichtmusters reduzieren kann, die homogene Inspektionslichtquelle deaktiviert werden, wenn die strukturierte Lichtquelle aktiviert ist. Dies würde allgemein dann der Fall sein, wenn das Spektrum des strukturierten Lichtmusters dasjenige der homogenen Inspektionslichtquelle überlappt oder nicht leicht von diesem unterschieden werden kann.
-
Jedoch kann in einigen Fällen die Nutzbarkeit der erfassten Bilder beeinträchtigt sein, weil sie die Zielmerkmale nicht genau erfassen. Insbesondere können Teile oder kann die Gesamtheit eines erfassten Bildes gesättigt hell oder gesättigt dunkel sein, was Details eines Zielmerkmals verbergen kann. Z.B. kann eine Schweißnaht im Innern des Kraftfahrzeugmotors bewirken, dass ein Bild aufgrund der hohen Reflexivität der Schweißnaht gesättigt hell (z.B. „blühend“) wird.
-
Demgemäß beschreibt eine Ausführungsform der vorliegenden Offenbarung ein visuelles Ferninspektionssystem, das mehrere erste Bilder auf einer ersten Helligkeitsstufe erfasst, während ein Live-Video, das wenigstens zum Teil auf den mehreren ersten Bildern basiert, angezeigt wird, und ein Basisbild durch Mittelung oder Aufsummierung der mehreren ersten Bilder erzeugt. Außerdem erfasst das visuelle Ferninspektionssystem mehrere zweite Bilder bei mehreren Helligkeitsstufen, wobei die mehreren Helligkeitsstufen sich von der ersten Helligkeitsstufe unterscheiden, und es generiert ein Bild mit hohem Dynamikumfang basierend wenigstens zum Teil auf dem Basisbild und den mehreren zweiten Bildern, so dass das Bild mit hohem Dynamikumfang mehr ungesättigte Pixel aufweist als das Basisbild.
-
In anderen Worten, und wie in größeren Einzelheiten nachstehend beschrieben ist, verbessern die Techniken, die hierin beschrieben sind, die Nutzbarkeit der Bilder, die mittels des visuellen Ferninspektionssystems erfasst werden, durch Erzeugung von einen hohen Dynamikumfang aufweisenden Bildern mit mehreren ungesättigten Pixeln. An sich ermöglicht das Bild mit Hochdynamikumfang es, dass Details des Zielmerkmals leichter erkannt werden. Außerdem kann die Effizient bei der Erzeugung des Bildes mit Hochdynamikumfang verbessert werden, indem das Bild mit hohem Dynamikumfang basierend auf mehreren Bildern generiert wird, die erfasst werden, während ein Live-Video angezeigt wird. Z.B. können die mehreren Bilder in einigen Ausführungsformen kontinuierlich erfasst und einzeln gespeichert oder als ein aufsummiertes oder gemitteltes Bild gespeichert werden, noch bevor irgendein Befehl zu Bilderfassung empfangen wird.
-
Um es zu veranschaulichen, beschreibt 1 ein Endoskopsystem 10, das die hierin beschriebenen Techniken nutzen kann. In einigen Ausführungsformen kann das Endoskopsystem 10 eine XL GO+ VideoProbe, eine XLG3 VideoProbe, XL Vu VideoProbe oder dergleichen sein, die von der General Electric Company aus Schenectady, New York, erhältlich sind. Es sollte erkannt werden, dass, obwohl die vorliegende Ausführungsform ein Endoskopsystem beschreibt, das Endoskopsystem lediglich für veranschaulichende Zwecke bestimmt ist. In anderen Worten können andere geeignete visuelle Ferninspektionssysteme (z.B. Schwenk-Neige-Zoom-Kameras, Schiebekameras oder Boroskope) ebenfalls die hierin beschriebenen Techniken verwenden.
-
Wie dargestellt, enthält das Endoskopsystem 10 ein Einführungsrohr 12 und eine Basisbaugruppe 14. In dem hierin verwendeten Sinne beschreibt das Einführungsrohr 12 den Teil des Endoskopsystems 10, der in eine Ausrüstung oder eine Einrichtung eingeführt wird. An sich ist das Einführungsrohr 12 allgemein lang und/oder flexibel, und es enthält Bildgebungskomponenten in der distalen Spitze der Sonde (z.B. Spitze) 15. Insbesondere kann die Sonde 15 in einigen Ausführungsformen ein lösbarer Teil an dem distalen Ende des Einführungsrohrs 12 sein. Andererseits enthält die Basisbaugruppe 14 allgemein die elektronischen Schaltkreise zur Verarbeitung von Daten, die durch Komponenten des Einführungsrohrs 12 gesammelt werden, beispielsweise die Bildverarbeitungskomponenten.
-
Demgemäß enthält das Einführungsrohr 12, wie dargestellt, einen Bildgeber 16, eine Bildgeberelektronik 18, eine Linse 20, ein Emittermodul 22, ein Glasfaserbündel 24 und einen Diffusor 26. In einigen Ausführungsformen kann das Endoskopsystem 10 ein diffuses oder homogenes Lichtmuster auf ein Zielmerkmal (z.B. eine Oberfläche oder ein Objekt) vor dem distalen Ende der Sonde 15 über das Glasfaserbündel 24 und den Diffusor 26 projizieren. Z.B. kann das Glasfaserbündel 24 durch eine Weißlichtquelle 28 erzeugtes Licht durch das Einführungsrohr 12 führen, und der Diffusor 26 kann ein homogenes Lichtmuster auf die Oberfläche oder das Objekt projizieren. In einigen Ausführungsformen kann die Weißlichtquelle 28 eine Leuchtdiode (LED) sein. Wie in der dargestellten Ausführungsform kann die Weißlichtquelle 28 in der Basisbaugruppe 14 angeordnet sein. Alternativ kann die Weißlichtquelle 28 auch in dem Einführungsrohr 12 oder der Sondenspitze 15 enthalten sein.
-
Zusätzlich zur Bereitstellung eines diffusen oder homogenen Lichtmusters kann das Endoskopsystem 10 ein strukturiertes Lichtmuster auf eine Oberfläche oder ein Objekt (z.B. ein Merkmal) vor dem distalen Ende der Sondenspitze 15 projizieren. In einigen Ausführungsformen kann das projizierte strukturierte Lichtmuster ein Muster aus parallelen hellen und dunklen Linien (z.B. Bereichen) mit einer sinusförmigen Intensität enthalten. Zusätzlich oder alternativ kann das Lichtmuster ein quadratisches Profil, ein trapezförmiges Profil, ein dreieckiges Profil, gebogene Linien, wellenförmige Linien, zickzackförmige Linien oder ein beliebiges anderes derartiges Muster aufweisen, das verwendet werden kann, um 3D-Punktwolkendaten zu erzeugen.
-
In einigen Ausführungsformen kann das strukturierte Lichtmuster über das Emittermodul 22 projiziert werden. Insbesondere kann das Emittermodul 22 ein oder mehrere lichtemittierende Elemente, wie beispielsweise LEDs, enthalten. Z.B. kann das Emittermodul 22 ein einziges lichtemittierendes Element enthalten, das Licht ausgibt, das durch ein intensitätsmodulierendes Element, wie beispielsweise ein Strichgitter, geschickt wird, um das strukturierte Lichtmuster zu erzeugen. Zusätzlich oder alternativ kann das Emittermodul 22 mehrere lichtemittierende Elemente enthalten, die strategisch positioniert sind, um das strukturierte Lichtmuster zu generieren. Außerdem kann das Emittermodul mehrere verschiedene strukturierte Lichtmuster erzeugen, so dass jedes strukturierte Lichtmuster relativ zu den anderen strukturierten Lichtmustern phasenverschoben ist.
-
Eine Kontrolle über den Betrieb des Emittermoduls 22 kann durch die Emitteransteuerung 30 geschaffen werden. Insbesondere kann die Emitteransteuerung 30 wahlweise Leistung dem Emittermodul 22 zuführen, um ein strukturiertes Lichtmuster zu erzeugen. Wenn z.B. das Emittermodul 22 mehrere lichtemittierende Elemente enthält, kann die Emitteransteuerung 30 wahlweise Leistung zu jedem der lichtemittierende Elemente liefern, um verschiedene strukturierte Lichtmuster zu erzeugen. Wie vorstehend beschrieben, kann in einigen Ausführungsformen, wenn ein emittierendes Element in dem Emittermodul 22 mit Leistung versorgt wird, die Weißlichtquelle 28 deaktiviert sein, um die Möglichkeit zu reduzieren, dass die Lichtausgabe aus dem Diffusor 26 den Kontrast des projizierten strukturierten Lichtmusters reduziert. In einigen Ausführungsformen können die strukturierten Lichtbilder erfasst und zu bestimmten 3D-Oberflächendaten verarbeitet werden.
-
Wie vorstehend beschrieben, kann der Bildgeber 16 gemeinsam mit der Bildgeberelektronik 18 verwendet werden, um verschiedene Bilder basierend auf dem Lichtmuster zu erfassen, das auf die Oberfläche oder das Objekt vor dem distalen Ende des Einführungsrohrs 12 projiziert wird. Insbesondere kann die Linse 20 Licht auf den Bildgeber 16 fokussieren, und der Bildgeber 16 kann ein zweidimensionales Array von lichtempfindlichen Pixeln enthalten, das analoge Bilddaten (z.B. Analogsignale) ausgibt, um die an jedem Pixel erfasste Lichtintensität anzuzeigen. An sich kann der Bildgeber 16 ein CCD(Charge-Coupled Device, ladungsgekoppeltes Bauelement)-Bildsensor, ein CMOS(Complementary Metal-Oxid-Semiconductor, sich ergänzender Metall-Oxid-Halbleiter)-Bildsensor oder ein Bildsensor mit ähnlicher Funktion sein.
-
In anderen Worten kann der Bildgeber 16 die Erfassung und Anzeige von Standbildern und/oder Videos unterstützen. Z.B. kann der Bildgeber 16 verwendet werden, um Inspektionsbilder zu erfassen, wenn ein homogenes oder diffuses Lichtmuster projiziert wird. Andererseits kann der Bildgeber 16 verwendet werden, um Messbilder zu erfassen, wenn ein strukturiertes Lichtmuster projiziert wird. Außerdem können in einigen Ausführungsformen mehrere Linsen 20 und mehrere Bildgeber 16 verwendet werden, um Stereobilder zu erfassen. In anderen Ausführungsformen können Stereobilder unter Verwendung eines einzigen Bildgebers 16 mit einem Stereolinsensystem erfasst werden, das ein bildaufspaltendes Prisma, Parallellinsensysteme und Spiegel enthalten kann.
-
Um die Erfassung und Anzeige von Bildern und/oder Videos zu unterstützen, können Komponenten in der Basisbaugruppe 14 die analogen Bilddaten, die durch die Bildgeberelektronik 18 ausgegeben werden, verarbeiten und einen Steuerbefehl (z.B. Instruktionen) zu Komponenten in dem Einführungsrohr 12 liefern. Um derartige Funktionen zu unterstützen, enthält die Basisbaugruppe 14, wie dargestellt, die Weißlichtquelle 28, die Emitteransteuerung 30, eine Bildgeberschnittstelle 32, einen Mikrocontroller 34, einen Videoprozessor 36, eine zentrale Verarbeitungseinheit (CPU) 38, einen Speicher 40, eine Speichervorrichtung 42, einen Joystick 44, eine Tastatur 46, eine Netzwerkschnittstelle 48 und eine Anzeige 50.
-
Im Betrieb kann die Bildgeberelektronik 18 die durch den Bildgeber 16 ausgegebenen analogen Bilddaten puffern und zu der Bildgeberschnittstelle 32 transferieren. Die Bildgeberschnittstelle 32 kann dann die analogen Bilddaten in digitale Bilddaten zur weiteren Verarbeitung durch den Videoprozessor 36 wandeln. Demgemäß kann die Bildgeberschnittstelle 32 einen Analog-Digital-Wandler enthalten. In einigen Ausführungsformen kann die Bildgeberschnittstelle 32 zusätzlich eine Analogverstärkungsschaltung und einen korrelierten Doppelabtaster (Correlated Double Sampler) enthalten.
-
Zusätzlich zur Verarbeitung der analogen Bilddaten kann die Bildgeberschnittstelle 32 ferner Steuerbefehle zu dem Bildgeber 16 übermitteln. Insbesondere kann die Bildgeberschnittstelle 32 Steuerbefehle von dem Mikrocontroller 34 zu dem Bildgeber 16 übertragen. Z.B. kann der Mikrocontroller 34 den Bildgeber 16 über die Bildgeberschnittstelle 32 anweisen, ein Bild bei einer speziellen Helligkeitsstufe aufzunehmen. Insbesondere kann die Anweisung die Form eines analogen Verschlusssteuersignals aufweisen, wenn der Bildgeber 16 ein CCD-Bildgeber ist. Zusätzlich oder alternativ kann die Anweisung ein serialisiertes Mitteilungsdatenpaket unter Verwendung einer I2C-, SPI- oder einer anderen derartigen Kommunikationsschnittstelle sein, wenn der Bildgeber 16 ein CMOS-Bildgeber ist. In anderen Worten kann der Mikrocontroller 34 allgemein einen Betrieb des Bildgebers 16 steuern.
-
Zusätzlich kann der Mikrocontroller 34 auch einen Betrieb der Bildgeberschnittstelle 32, der Emitteransteuerung 30 und der Weißlichtquelle 28 steuern. Z.B. kann der Mikrocontroller 34 die Emitteransteuerung 30 anweisen, ein strukturiertes Lichtmuster über das Emittermodul 22 zu erzeugen, das zur Erfassung eines Messbildes verwendet wird. Ebenso kann der Mikrocontroller 34 die Weißlichtquelle 28 instruieren, ein homogenes Lichtmuster zu erzeugen, das zur Erfassung eines Inspektionsbildes verwendet wird. Wie vorstehend beschrieben, können das strukturierte Lichtmuster und das homogene Lichtmuster gleichzeitig oder zu unterschiedlichen Zeiten ausgegeben werden. In anderen Worten kann der Mikrocontroller 34 allgemein die Erfassung von Bildern koordinieren und steuern.
-
Wie vorstehend beschrieben, kann der Videoprozessor 36 die durch die Bildgeberschnittstelle 32 ausgegebenen digitalen Bilddaten verarbeiten. In einigen Ausführungsformen kann der Videoprozessor 36 ein TMS320DM642 Video-/Bildgebungs-Festpunkt-Digitalsignalprozessor sein, der von Texas Instruments aus Dallas, Texas, zur Verfügung gestellt wird. Insbesondere kann der Videoprozessor 36 Funktionen, wie beispielsweise die Bilderfassung, Farbmatrixverarbeitung, Gamma-Verarbeitung, Videodatenerzeugung und Bewegungsdetektion, durchführen. Z.B. kann der Videoprozessor 36 Bilder durch Speicherung der digitalen Bilddaten in dem Speicher 40 und/oder der Speichervorrichtung 42 erfassen.
-
Zusätzlich kann der Videoprozessor 36 eine Bewegung detektieren, indem er ein erstes Bild mit einem zweiten Bild derselben Art (z.B. Inspektionsbild oder Messbild) vergleicht. Zusätzlich oder alternativ kann der Videoprozessor 36 die Stelle eines scharfen Helligkeitsübergangspunktes in einem Messbild identifizieren und diese mit der Stelle eines scharfen Helligkeitsübergangs in einem Inspektionsbild vergleichen. In einigen Ausführungsformen kann die Größe der Bewegung auf die Anzahl von Pixelwerten, die sich zwischen den Bildern unterscheiden, und/oder die Anzahl von Pixeln, über die das Merkmal sich zwischen den Bildern bewegt hat, gestützt werden. Wenn z.B. ein identifizierbares Detail des Merkmals (z.B. ein scharfer Helligkeitsübergang) in einem ersten Bild an einer Pixelstelle (50, 50) und in dem zweiten Bild an relativ derselben Stelle (z.B. der Pixelstelle (51, 50) oder (49, 50)) dargestellt ist, kann festgestellt werden, dass keine wesentliche Bewegung zwischen den Bildern vorgelegen hat. Wenn andererseits das identifizierbare Detail des Merkmals (z.B. der scharfe Helligkeitsübergang) in dem zweiten Bild an einer deutlich anderen Stelle (z.B. der Pixelstelle (60, 50)) dargestellt ist, kann festgestellt werden, dass eine wesentliche Bewegung zwischen den Bildern vorgelegen hat.
-
Außerdem kann der Videoprozessor 36 die digitalen Bilddaten formatieren und die Bilddaten zu der Anzeige 50 ausgeben. Basierend auf den Bilddaten kann die Anzeige 50 anschließend durch den Bildgeber 16 erfasste Standbilder anzeigen. Ferner kann der Videoprozessor 36 die digitalen Bilddaten verwenden, um Videodaten zu generieren und die Videodaten zu der Anzeige 50 auszugeben. Basierend auf den Videodaten kann die Anzeige 50 ein Live-Video anzeigen. In einigen Ausführungsformen können die Videodaten in einem BT656-Videoformat vorliegen, und in den Videodaten enthaltene Daten können ein 422YCRCB-Datenformat aufweisen. Außerdem kann die Anzeige 50 in einigen Ausführungsformen abnehmbar sein, während in anderen Ausführungsformen die Anzeige 50 mit der Basisbaugruppe 14 oder dem Endoskopsystem 10 integral ausgebildet sein kann.
-
Zusätzlich zu der Lieferung der Bilddaten und/oder Videodaten zu der Anzeige 50 kann die CPU 38 Bilddaten von dem Videoprozessor 36 zur weiteren Verarbeitung empfangen. In einigen Ausführungsformen kann die CPU 38 ein Pentium M Prozessor sein, der von der Intel Corp. aus Santa Clara, Kalifornien, verfügbar ist. In anderen Worten kann die CPU 38 eine größere Verarbeitungsleistung im Vergleich zu dem Videoprozessor 36 besitzen. Demgemäß kann die CPU 38 Funktionen, wie beispielsweise Bildmittelung, Skalierung, Bildzoomen, Überlagerung, Zusammenfügung, Bildspiegelung, Bildverbesserung (z.B. Erzeugung von Bildern mit hohem Dynamikumfang) und Verzerrungskorrektur, durchführen.
-
Es sollte erkannt werden, dass, obwohl der Mikrocontroller 34, der Videoprozessor 36 und die CPU 38 als gesonderte Komponenten beschrieben sind, die Funktionen, die sie durchführen, von einer beliebigen Anzahl von Prozessoren, z.B. einem einzigen Universalzweckprozessor, implementiert werden können. An sich können der Mikrocontroller 34, der Videoprozessor 36 und die CPU 38 einzeln oder gemeinsam einen oder mehrere „Universalzweck“-Mikroprozessoren, einen oder mehrere Spezialzweck-Mikroprozessoren, einen oder mehrere anwendungsspezifische Mikroprozessoren (ASICs), eine oder mehrere im Feld programmierbare Gatteranordnungen (FPGAs) oder eine beliebige Kombination von diesen enthalten. Somit können sie, um die Beschreibung zu vereinfachen, gemeinsam als ein „Prozessor“ in dem Endoskopsystem 10 bezeichnet werden. In anderen Worten kann ein Prozessor sich in dem hierin verwendeten Sinne auf eine beliebige Anzahl von Verarbeitungskomponenten beziehen.
-
Um die Durchführung jeder der beschriebenen Funktionen zu unterstützen, kann der Prozessor (z.B. der Mikrocontroller 34, der Videoprozessor 36 und/oder die CPU 38) Instruktionen abrufen und ausführen, die auf einem nichttransitorischen computerlesbaren Medium, wie beispielsweise dem Speicher 40 oder der Speichervorrichtung 42, gespeichert sind. Generell können der Speicher 40 und die Speichervorrichtung Informationen, wie beispielsweise zu verarbeitende Daten (z.B. Bilddaten) und/oder ausführbare Instruktionen, speichern. Demgemäß kann der Speicher 40 eine flüchtigen Speicher, wie beispielsweise einen Direktzugriffsspeicher (RAM), oder einen nicht-flüchtigen Speicher, wie beispielsweise einen Nur-Lese-Speicher (ROM), enthalten. Zusätzlich kann die Speichervorrichtung 42 einen Flash-Speicher, ein Netzwerklaufwerk, ein Festplattenlaufwerk oder ein beliebiges sonstigen optisches, magnetisches und/oder Halbleiter-Speichermedium oder eine beliebige Kombination von diesen enthalten.
-
Wie vorstehend beschrieben, kann die Anzeige 50 Bilder und/oder Videos für einen Benutzer anzeigen, die er sichten kann. In anderen Worten kann das Endoskopsystem 10 allgemeiner erfasste Informationen mit einem Benutzer austauschen. Insbesondere kann das Endoskopsystem 10 Informationen zu einem Bediener an der Basisbaugruppe 14 z.B. durch Anzeigen von Informationen (z.B. Bildern oder Video) auf der Anzeige 50 ausgeben. Außerdem kann das Endoskopsystem 10 Eingabeinformationen von dem Bediener an der Basisbaugruppe 14 empfangen. Insbesondere kann der Bediener Steuerbefehle für das Endoskopsystem 10 über den Joystick 44 und/oder die Tastatur 46 bereitstellen. Z.B. kann der Bediener die Sonde 15 betätigen, indem er den Joystick 45 bewegt, oder er kann eine Menüauswahl unter Verwendung der Tastatur 46 vornehmen. Zusätzlich kann die Anzeige 50 in einigen Ausführungsformen in Verbindung mit einem berührungsempfindlichen Mechanismus (z.B. einem Berührungsbildschirm) vorgesehen sein, der Benutzereingaben liefert. Z.B. kann ein Bediener mit dem Endoskopsystem 10 über den berührungsempfindlichen Mechanismus eine Auswahl treffen oder interagieren.
-
Zusätzlich kann das Endoskopsystem 10 mit entfernten Benutzern, z.B. Benutzern an einem entfernten Computer (z.B. einer Rechenvorrichtung) kommunizieren. Z.B. kann das Endoskopsystem 10 ein Netzwerk mit der entfernten Rechenvorrichtung unter Verwendung der Netzwerkschnittstelle 48 bilden. In einigen Ausführungsformen kann die Netzwerkschnittstelle 48 für eine drahtlose Vernetzung über einen Wireless-Standard 802.11 oder einen beliebigen sonstigen geeigneten Netzwerkstandard, wie beispielsweise ein persönliches Netzwerk (z.B. Bluetooth), ein lokales Netzwerk (LAN) oder ein Weitbereichsnetzwerk (WAN), wie beispielsweise ein EDGE(Enhanced Data Rates for GSM Evolution)-Netzwerk oder ein 3G-Datennetzwerk, sorgen.
-
In anderen Worten kann ein Benutzer erfasste Informationen von der Ferne aus betrachten und/oder verarbeiten sowie von der Ferne aus Steuerbefehle zu dem Endoskopsystem 10 ausgeben. Z.B. kann ein Benutzer in einigen Ausführungsformen die Verarbeitungsleistung der entfernten Rechenvorrichtung nutzen, um Bilder oder Video, die bzw. das durch das Endoskopsystem 10 erfasst werden bzw. wird, weiter zu verarbeiten. Zusätzlich kann der Benutzer die durch das Endoskopsystem 10 erfassten Bilder oder das erfasste Video mittels einer Anzeige an der entfernten Rechenvorrichtung betrachten. In anderen Worten kann eine Anzeige, die durch das Endoskopsystem erfasstes Video und/oder erfasste Bilder anzeigt, entfernt angeordnet und/oder lösbar sein.
-
Wie vorstehend beschrieben, kann in einigen Fällen die Nutzbarkeit der durch das Endoskopsystem 10 erfassten Bilder und/oder des erfassten Videos beeinträchtigt sein, wenn Details des Zielmerkmals durch gesättigte Pixel verschleiert sind. Eine Ausführungsform eines Prozessors 52 zur Verbesserung der Nutzbarkeit erfasster Bilder und/oder eines erfassten Videos ist in 2 beschrieben. Allgemein enthält der Prozess 52 ein erfassen mehrerer erster Bilder bei einer einzelnen Helligkeitsstufe, während ein Live-Video angezeigt wird (Prozessblock 54), Erzeugen eines Basisbildes (Prozessblock 56), Erfassen mehrerer zweiter Bilder bei mehreren Helligkeitsstufen (Prozessblock 58) und Erzeugen eines Bildes mit hohem Dynamikumfang (Prozessblock 60). In einigen Ausführungsformen kann der Prozess 52 über computerlesbare Instruktionen implementiert sein, die in dem greifbaren, nichttransitorischen Speicher 40 oder der Speichervorrichtung 42 gespeichert sind und durch einen Prozessor (z.B. den Mikrocontroller 34, den Videoprozessor 36, die CPU 38 oder einen Prozessor in der entfernten Rechenvorrichtung) in dem Endoskopsystem 10 ausgeführt werden.
-
Dementsprechend kann der Prozessor (z.B. der Mikrocontroller 34) das Endoskopsystem 10 anweisen, mehrere erste Bilder bei einer einzelnen Helligkeitsstufe zu erfassen (Prozessblock 54). In Abhängigkeit von der speziellen Implementierung können die mehreren ersten Bilder von einer beliebigen geeigneten Bildart, wie beispielsweise Messbilder, strukturierte Lichtbilder, Stereobilder oder eine beliebige Kombination von diesen, sein. An sich kann der Mikrocontroller 34 in einigen Ausführungsformen die Weißlichtquelle 28 und/ oder die Emitteransteuerung 30 anweisen, das gewünschte Lichtmuster bei einer gewünschten Beleuchtungsstufe zu erzeugen.
-
Zusätzlich kann der Mikrocontroller 34 den Bildgeber 16 anweisen, mit einer Erfassung eines Bildes zu beginnen, der analoge Bilddaten ausgibt, die das durch den Bildgeber 16 erfasste Bild repräsentieren. Insbesondere kann das erfasste Bild eine bestimmte Helligkeitsstufe aufweisen, die durch Einstellung der Beleuchtungsstufe, der Belichtungszeit für den Bildgeber 16, die auf die analogen Bilddaten angewandte Verstärkung oder eine beliebige Kombination von diesen eingestellt werden kann. Demgemäß kann der Mikrocontroller 34, um die mehreren ersten Bilder bei derselben Helligkeitsstufe zu erfassen, den Bildgeber 16 anweisen, eine spezielle Belichtungszeit, die Lichtquelle (z.B. die Weißlichtquelle 28 oder das Emittermodul 22) zur Schaffung einer speziellen Beleuchtungsstufe und die Bildgeberschnittstelle 32 zu verwenden, um eine spezielle Verstärkung auf die analogen Bilddaten anzuwenden. Wie vorstehend beschrieben, können die analogen Bilddaten dann durch die Bildgeberschnittstelle 32 in digitale Bilddaten umgewandelt und zu dem Videoprozessor 36 geliefert werden.
-
Beim Empfang der digitalen Bilddaten kann der Prozessor (z.B. der Videoprozessor 36) die Bilder erfassen und die Anzeige 50 anweisen, ein Live-Video anzuzeigen (Prozessblock 54). Insbesondere kann der Videoprozessor 36 in einigen Ausführungsformen die Bilder erfassen, indem er die digitalen Bilddaten in dem Speicher 40 und/oder der Speichervorrichtung 42 speichert. Außerdem kann der Videoprozessor 36 die Anzeige 50 anweisen, ein Video durch Ausgabe von Videodaten anzuzeigen. Insbesondere kann der Videoprozessor 36 in einigen Ausführungsformen die Videodaten basierend auf den digitalen Bilddaten generieren. Z.B. kann der Videoprozessor 36, wenn die mehreren ersten Bilder Standbilder sind, die in schneller Aufeinanderfolge erfasst werden, das Video generieren, indem er die Anzeige 50 anweist, die Bilder in schneller Aufeinanderfolge anzuzeigen. In der Tat ist in einigen Ausführungsformen die Dauer zwischen dem Zeitpunkt, wenn das Bild erfasst wird, und dem Zeitpunkt, wenn es angezeigt wird, relativ kurz (liegt z.B. innerhalb einer Millisekunde von dem Zeitpunkt, an dem das Bild erfasst wird), was dem Video ermöglicht, in Echtzeit oder nahezu in Echtzeit als ein Live-Video angezeigt zu werden.
-
Zusätzlich zu der Verwendung der mehreren ersten Bilder, um ein Video anzuzeigen, kann der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) die mehreren ersten Bilder verwenden, um ein Basisbild zu generieren. Insbesondere kann das Basisbild generiert werden, um Rauschen zu reduzieren, das in einem der mehreren ersten Bilder vorhanden ist. Demgemäß können verschiedene Techniken zur Reduktion von Rauschen in Bildern, wie beispielsweise Mittelung oder Summierung der mehreren ersten Bilder, verwendet werden. Da Rauschen im Allgemeinen Zufallsrauschen ist, wird eine Mittelung oder Aufsummierung der mehreren ersten Bilder die Merkmale, die tatsächlich vorhanden sind, betonen und die Artefakte, die durch Rauschen verursacht sind, reduzieren.
-
In einigen Ausführungsformen können die mehreren ersten Bilder erfasst werden, wenn die Weißlichtquelle 28 aktiviert ist. In anderen Worten können die mehreren ersten Bilder Inspektionsbilder sein. An sich kann das Basisbild, das aus mehreren Inspektionsbildern erzeugt wird, ebenfalls ein Inspektionsbild sein. In anderen Ausführungsformen können, wenn eine Stereooptik verwendet wird, die mehreren ersten Bilder Stereomessbilder sein. An sich kann das Basisbild ebenfalls ein Stereomessbild sein. In einer weiteren Ausführungsformen können die mehreren ersten Bilder erfasst werden, wenn z.B. ein strukturiertes Lichtbild projiziert wird, wenn das strukturierte Lichtbild im Vergleich zu dem homogenen Inspektionslicht eine hinreichende Intensität aufweist. An sich kann das Basisbild strukturierte Lichtmuster enthalten.
-
Um es besser zu veranschaulichen, können mehrere Bilder durch Addition des Pixelwertes an jeder Pixelstelle für jedes Bild in den mehreren Bildern summiert werden. An sich bekommen die Merkmale, die tatsächlich vorhanden sind, im Vergleiche zu Rauschen heller, weil sie in jedem der mehreren Bilder vorhanden sind, während Rauschen dies nicht tut. Außerdem können die mehreren Bilder durch Summation der mehreren Bilder und Division der Pixelwerte durch die Anzahl der aufsummierten Bilder gemittelt werden. Die Verwendung einer Summation oder Mittelung zur Erzeugung des Basisbildes basiert an sich auf der Tatsache, dass die verwendeten Bilder allgemein Merkmale in der gleichen Weise zeigen. In anderen Worten kann jedes der mehreren ersten Bilder, die zur Erzeugung des Basisbildes verwendet werden, mit der Sonde 15 (z.B. dem Bildgeber 16) an im Wesentlichen derselben Position relativ zu dem Merkmal erfasst werden. An sich kann das Basisbild mit Bildern erzeugt werden, die erfasst werden, wenn dort keine wesentliche Bewegung entweder der Sonde 15 oder des Merkmals vorlag.
-
Jedoch kann das Endoskopsystem 10 in einigen Ausführungsformen weiter Bilder erfassen und ein Video anzeigen, selbst wenn dort eine Bewegung des Merkmals relativ zu dem Bildgeber 16 aufgetreten ist. In anderen Worten werden in derartigen Ausführungsformen nicht alle der Bilder, die erfasst und zur Anzeige des Videos verwendet werden, verwendet, um das Basisbild zu erzeugen. Nichtsdestoweniger kann das Endoskopsystem 10 in einigen Ausführungsformen, wenn die detektierte Bewegung leicht ist, versuchen, die Bewegung durch eine Translation oder Rotation der erfassten Bilder vor der Aufsummierung oder Mittelung zu kompensieren, so dass eine Unschärfe vermieden oder minimiert wird. Wenn z.B. die Stärke der detektierten Bewegung zwischen einem neuen Bild und dem vorherigen Bild kleiner ist als eine Schwelle (z.B. 8 Pixel) oder wenn das Konfidenzniveau oberhalb einer Schwelle liegt (z.B. > 25%), kann das Bild mit den zuvor erfassten Bildern summiert oder gemittelt werden, um eine Unschärfe zu vermeiden.
-
In einigen Ausführungsformen kann das Basisbild aktualisiert werden, nachdem jedes neue Bild der mehreren ersten Bilder erfasst wird. Z.B. kann der Videoprozessor 36 jedes Mal, wenn ein neues Bild der mehreren ersten Bilder erfasst wird, das Basisbild aus dem Speicher 40 oder der Speichervorrichtung 42 abrufen, eine beliebige erforderliche Translation oder Rotation des neuen Bildes anwenden und das neue Bild mit dem Basisbild mitteln/summieren, um das Basisbild zu aktualisieren, und das aktualisierte Basisbild zurück in dem Speicher 40 oder der Speichervorrichtung 42 speichern. Zusätzlich oder alternativ kann das Basisbild aktualisiert werden, nachdem eine bestimmte Anzahl neuer Bilder der mehreren ersten Bilder erfasst werden. Z.B. kann der Videoprozessor 36 das Basisbild aktualisieren, nachdem fünf neue Bilder der mehreren ersten Bilder erfasst werden.
-
Nachdem das Basisbild erzeugt ist, kann der Prozessor (z.B. der Mikrocontroller 34) das Endoskopsystem 10 anweisen, mehrere zweite Bilder mit verschiedenen Helligkeitsstufen zu erfassen (Prozessblock 58). Insbesondere kann in einigen Ausführungsformen jedes der mehreren zweiten Bilder bei einer anderen Helligkeitsstufe erfasst werden. In anderen Ausführungsformen können mehrere der mehreren zweiten Bilder bei derselben Helligkeitsstufe erfasst werden. Z.B. können ein erstes Bild und ein zweites Bild bei einer ersten Helligkeitsstufe erfasst werden, während ein drittes und ein viertes Bild bei einer zweiten Helligkeitsstufe erfasst werden können und ein fünftes und ein sechstes Bild bei einer dritten Helligkeitsstufe erfasst werden können.
-
Wie vorstehend beschrieben, kann der Prozessor (z.B. der Mikrocontroller 34) die Helligkeitsstufe der erfassten Bilder durch Einstellung der Belichtungszeit für den Bildgeber 16, der durch die Bildgeberschnittstelle 32 angewandten Verstärkung und/oder der durch die Lichtquelle (z.B. die Weißlichtquelle 28 oder das Emittermodul 22) bereitgestellten Beleuchtungsstufe steuern. Somit kann der Prozessor (z.B. der Mikrocontroller 34) eine beliebige Kombination von diesen einstellen, um die mehreren zweiten Bilder bei verschiedenen Helligkeitsstufen zu erfassen. Z.B. kann der Mikrocontroller 34 zur Erfassung eines ersten Bildes bei einer ersten Helligkeitsstufe den Bildgeber 16 anweisen, eine Belichtungszeit von einer Millisekunde zu haben, und zur Erfassung eines zweiten Bildes bei einer helleren Helligkeitsstufe kann der Mikrocontroller den Bildergeber 16 anweisen, eine Belichtungszeit von zwei Millisekunden zu haben.
-
Die exakte Anzahl von Bildern, die bei jeder Helligkeitsstufe erfasst werden, und der Helligkeitsstufen, die verwendet werden sollen, kann von der speziellen Implementierung abhängen. Insbesondere kann in einigen Ausführungsformen die Anzahl der zu erfassenden Bilder und der zu verwendenden Helligkeitsstufen entweder durch den Hersteller oder durch eine Benutzereingabe, z.B. über den Joystick 44, die Tastatur 46 oder der berührungsempfindliche Anzeige, definiert werden. In anderen Ausführungsformen kann die Anzahl von zu erfassenden Bildern und der zu verwendenden Helligkeitsstufen anpassbar sein. Wenn z.B. der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) feststellt, dass es eine große Anzahl von gesättigten Pixeln in dem Basisbild gibt, kann der Prozessor das Endoskopsystem 10 anweisen, die Anzahl von Bildern in den mehreren zweiten Bildern zu erhöhen und/oder die Anzahl von verwendeten Helligkeitsstufen zu erhöhen.
-
In der Tat kann in einigen Ausführungsformen die Anzahl von Bildern, die bei jeder der verschiedenen Helligkeitsstufen erfasst werden, unterschiedlich sein. Z.B. kann das Endoskopsystem 10 lediglich ein einzelnes Bild bei einer Helligkeitsstufe erfassen, die nahe bei der Helligkeitsstufe der mehreren ersten Bilder liegt, kann jedoch drei Bilder bei einer Helligkeitsstufe erfassen, die viel dunkler als die Helligkeitsstufe der mehreren ersten Bilder ist. In einigen Ausführungsformen können die mehreren Bilder, die bei derselben Helligkeitsstufe erfasst werden, ähnlich den ersten Bilder gemittelt oder aufsummiert werden, um Rauschen zu reduzieren.
-
Abhängig von der Implementierung kann das Umschalten von der Erfassung der mehreren ersten Bilder zu der Erfassung der mehreren zweiten Bilder auf verschiedene Weise ausgelöst werden. Insbesondere kann in einigen Ausführungsformen ein Befehl zur Bilderfassung das Endoskopsystem 10 anweisen, die Erfassung der mehreren ersten Bilder zu beenden und mit der Erfassung der mehreren zweiten Bilder zu beginnen. Z.B. kann ein Benutzer den Bilderfassungsbefehl über den Joystick 44, die Tastatur 46, eine berührungsempfindliche Anzeige oder sogar über eine entfernte Rechenvorrichtung eingeben.
-
In weiteren Ausführungsformen kann das Umschalten zwischen der Erfassung der mehreren ersten Bilder und der Erfassung der mehreren zweiten Bilder automatisch oder durch das Endoskop initiiert werden. Z.B. kann das Umschalten erfolgen, wenn der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) feststellt, dass keine relative Bewegung zwischen dem Bildgeber 16 und dem Zielmerkmal auftritt. Insbesondere kann das Endoskopsystem 10, wenn der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) feststellt, dass keine Bewegung vorliegt, weiter mit der Erfassung der mehreren ersten Bilder fortfahren, bis ein hinreichend rauschfreies Basisbild generiert ist, und anschließend zu der Erfassung der mehreren zweiten Bilder wechseln. Zusätzlich oder alternativ kann das Endoskopsystem 10 in dem Fall, dass ein hinreichend rauschfreies Basisbild bereits erzeugt worden ist (z.B. durch Translation oder Rotation von Bildern in den mehreren ersten Bildern), sofort mit der Erfassung der mehreren zweiten Bilder beginnen, wenn eine Bewegung nicht detektiert wird.
-
Wie vorstehend beschrieben, kann die Detektion einer Bewegung eine Detektion umfassen, ob ein Merkmal in einem ersten Bild sich um weniger als eine vorbestimmte Anzahl von Pixeln von den gleichen Merkmalen in einem zweiten Bild bewegt hat. Außerdem wird in einigen Ausführungsformen zur Minimierung der Bewegungsunschärfe das Maß der Bewegung des Merkmals zwischen dem ersten Bild (z.B. in den mehreren ersten Bildern) und dem zweiten Bild (z.B. in den mehreren ersten Bildern) bestimmt und verwendet, um das erste Bild vor einer Addition/Mittelung in dem ersten Bild auszurichten.
-
Wie vorstehend beschrieben, können Details von Merkmalen, die durch ein Bild erfasst werden, durch gesättigte Pixel oder Regionen auf dem Bild verschleiert sein. Demgemäß kann der Prozessor (z.B. der Videoprozessor 36 oder die CPU 38) unter Verwendung des Basisbildes und der mehreren zweiten Bilder ein Bild mit hohem Dynamikumfang generieren (Prozessblock 60). In einigen Ausführungsformen kann der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) zur Generierung des Bildes mit hohem Dynamikumfang ungesättigte Pixeldaten aus dem Basisbild und ungesättigte Pixeldaten aus einem oder mehreren der mehreren zweiten Bilder verwenden. Insbesondere können in einigen Ausführungsformen die ungesättigten Ersatzpixel durch Skalierung der ungesättigten Pixeldaten in den mehreren zweiten Bildern erzeugt werden.
-
Wenn z.B. der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) ungesättigte Pixel in dem Basisbild detektiert, kann er ungesättigte Pixel basierend auf den ungesättigten Pixeldaten von einem oder mehreren der mehreren zweiten Bilder generieren, um die gesättigten Pixel in dem Basisbild zu ersetzen. In einigen Ausführungsformen kann der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) gesättigte Pixel detektieren, indem er Pixel identifiziert, die Werte oberhalb einer oberen Schwelle (z.B. einer Weißstufe) oder unterhalb einer unteren Schwelle (z.B. einer Schwarzschwelle) haben.
-
Da die Pixeldaten von den mehreren zweiten Bildern verwendet werden, um Pixel zum Ersatz von gesättigten Pixeln in dem Basisbild zu generieren, können die mehreren zweiten Bilder in einigen Ausführungsformen von der gleichen Art von Bildern wie die mehreren ersten Bilder sein. Wenn z.B. die mehreren ersten Bilder Inspektionsbilder sind, können die mehreren zweiten Bilder ebenfalls Inspektionsbilder sein. Jedoch können in anderen Ausführungsformen verschiedene Bildarten alternativ verwendet werden. Wenn z.B. die mehreren ersten Bilder strukturierte Lichtbilder sind (wenn z.B. das strukturierte Lichtmuster eine hinreichende Intensität im Vergleich zu dem homogenen Inspektionslicht aufweist), können mehrere zweite Bilder, die Inspektionsbilder sind (z.B. nur gleichmäßige Inspektionsbeleuchtung) verwendet werden, weil das Merkmal in den Inspektionsbildern gleichmäßig beleuchtet ist. In anderen Worten kann das Bild mit hohem Dynamikumfang ein Messbild, ein Stereobild, ein Inspektionsbild oder eine beliebige Kombination von diesen sein.
-
An sich kann das Bild mit hohem Dynamikumfang weniger gesättigte Pixel als das Basisbild enthalten. In anderen Worten kann die Nutzbarkeit des Bildes mit hohem Dynamikumfang besser sein als die des Basisbildes, weil das Bild mit hohem Dynamikumfang Details des Zielmerkmals zeigen kann, die in dem Basisbild (z.B. aufgrund der Sättigung) verdeckt sind. In der Tat können zur weiteren Verbesserung der Nutzbarkeit von Bildern, die durch das Endoskopsystem 10 erfasst werden, mehrere Bilder mit hohem Dynamikumfang unter Verwendung desselben Basisbildes und eines oder mehrerer Bilder aus den mehreren zweiten Bildern erzeugt werden. In einigen Ausführungsformen können z.B. jeweils ein normales Bild hohem Dynamikumfang, ein helles Bild mit hohem Dynamikumfang und ein dunkles Bild mit hohem Dynamikumfang erzeugt werden. In derartigen Ausführungsformen können die verschiedenen Bilder mit hohem Dynamikumfang verschiedene Ansichten des Zielmerkmals liefern. Insbesondere können die Helligkeitsunterschiede zwischen diesen Bildern mit hohem Dynamikumfang durch Anwendung verschiedener linearer oder nichtlinearer Skalierung auf die erfassten Bilddaten hervorgerufen werden.
-
Außerdem kann in einigen Ausführungsformen die Erfassung der mehreren ersten Bilder und der mehreren zweiten Bilder einander abwechselnd erfolgen. In anderen Worten kann das Endoskopsystem 10 eines oder mehrere der mehreren ersten Bilder erfassen, zu der Erfassung eines oder mehrerer der mehreren zweiten Bilder wechseln, zurück zu der Erfassung eines oder mehrerer der mehreren ersten Bilder wechseln und so weiter. Um es besser zu veranschaulichen, ist eine Ausführungsform eines Prozesses 62 zur mehrfach abwechselnden Erfassung der mehreren ersten Bilder und der mehreren zweiten Bilder in 3 beschrieben. Allgemein enthält der Prozess 62 ein Erfassen eines ersten Bildes bei einer ersten Helligkeitsstufe (Prozessblock 64), Feststellen, wenn hinreichend wenig Bewegung vorliegt (Prozessblock 66), Erfassen eines zweiten Bildes bei einer anderen Helligkeitsstufe (Prozessblock 68) und Erzeugen eines Bildes mit hohem Dynamikumfang (Prozessblock 70). In einigen Ausführungsformen kann der Prozess 62 mittels computerlesbarer Instruktionen implementiert sein, die in dem greifbaren, nicht-transitorischen Speicher 40 oder der greifbaren, nicht-transitorischen Speichervorrichtung 42 gespeichert sind und durch einen Prozessor (z.B. den Mikrocontroller 34, den Videoprozessor 36, die CPU 38 oder einen Prozessor in einer entfernten Rechenvorrichtung) in dem Endoskopsystem 10 ausgeführt werden.
-
Demgemäß kann der Prozessor (z.B. der Mikrocontroller 34) in einigen Ausführungsformen das Endoskopsystem 10 anweisen, ein erstes Bild bei einer ersten Helligkeitsstufe zu erfassen (Prozessblock 64). In einigen Ausführungsformen kann das erste Bild eines der mehreren ersten Bilder, wie vorstehend beschrieben, sein. Demgemäß kann das erste Bild unter Verwendung von Techniken erfasst werden, die in dem Prozessblock 54 beschrieben sind. Insbesondere kann der Prozessor (z.B. der Mikrocontroller 34), wie vorstehend erläutert, den Bildgeber 16 anweisen, das erste Bild unter Verwendung einer speziellen Belichtungszeit zu erfassen, die Bildgeberschnittstelle 32 anweisen, eine bestimmte Verstärkung anzuwenden, und die Lichtquelle (z.B. die Weißlichtquelle 28 oder das Emittermodul 22) anweisen, eine spezielle Beleuchtungsstufe/ein spezielles Beleuchtungsmuster bereitzustellen. Das erste Bild kann dann durch Speicherung der digitalen Bilddaten in dem Speicher 40 oder der Speichervorrichtung 42 erfasst werden. Außerdem kann das erste Bild oder ein Video, das unter Verwendung des ersten Bildes erzeugt wird, auf der Anzeige 50 oder auf einer Anzeige an einer fremden Rechenvorrichtung angezeigt werden. Ferner kann das erste Bild verwendet werden, um das Basisbild zu erzeugen.
-
Wenn der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) feststellt, dass eine hinreichend geringe alternative Bewegung zwischen dem Bildgeber 16 und dem in dem ersten Bild dargestellten Merkmal vorliegt (Prozessblock 66), kann der Prozessor (z.B. der Mikrocontroller 34) das Endoskopsystem 10 anweisen, ein zweites Bild bei einer Helligkeitsstufe zu erfassen, die sich von der ersten Helligkeitsstufe unterscheidet (Prozessblock 68). Wie vorstehend beschrieben, kann der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) detektieren, ob eine Bewegung vorliegt, indem er eine beliebige geeignete Methode, wie beispielsweise einen Vergleich des ersten Bildes mit einem anderen Bild in den mehreren ersten Bildern und Ermittlung der Anzahl von Pixelwerten, die sich zwischen den Bildern unterscheiden, und/oder der Anzahl von Pixeln, über die das Merkmal sich zwischen den Bildern bewegt hat, verwendet.
-
Zusätzlich kann das zweite Bild in einigen Ausführungsformen eines der mehreren zweiten Bilder, wie vorstehend beschrieben, sein. Demgemäß kann das zweite Bild unter Verwendung von Techniken erfasst werden, die in dem Prozessblock 58 beschrieben sind. Insbesondere kann der Prozessor (z.B. der Mikrocontroller 34), wie vorstehend beschrieben, den Bildgeber 16 anweisen, das zweite Bild unter Verwendung einer speziellen Belichtungszeit zu erfassen, die Bildgeberschnittstelle 32 anweisen, eine spezielle Verstärkung anzuwenden, und die Lichtquelle (z.B. die Weißlichtquelle 28 oder das Emittermodul 22) anweisen, eine spezielle Beleuchtungsstufe/ ein spezielles Beleuchtungsmuster bereitzustellen. Das zweite Bild kann dann durch Speicherung der digitalen Bilddaten in dem Speicher 40 oder der Speichervorrichtung 42 erfasst werden.
-
Nachdem das zweite Bild erfasst ist, kann das Endoskopsystem 10 optional zu der Erfassung der mehreren ersten Bilder zurückkehren (Pfeil 74). Insbesondere kann das Endoskopsystem 10 in einigen Ausführungsformen zurück zu der Erfassung der mehreren ersten Bilder umschalten, ohne ein Bild mit hohem Dynamikumfang zu generieren. In anderen Ausführungsformen kann der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36 ein Bild mit hohem Dynamikumfang unter Verwendung des zweiten Bildes generieren (Prozessblock 70).
-
In anderen Worten kann das Endoskopsystem 10 in einigen Ausführungsformen zusätzliche Bilder mit verschiedenen Helligkeitsstufen aufnehmen. Die exakte Anzahl von Bildern mit verschiedenen Helligkeitsstufen kann je nach Implementierung variieren. Z.B. wird in einigen Ausführungsformen lediglich das zweite Bild erfasst. In anderen Ausführungsformen kann das zweite Bild gemeinsam mit anderen Bildern von den mehreren zweiten Bildern erfasst werden.
-
Basierend auf dem obigen Beispiel kann die Feststellung, dass eine hinreichend geringe Bewegung vorliegt, ein Auslöser, um das zweite Bild zu erfassen, und allgemeiner ein Auslöser sein, um von der Erfassung der mehreren ersten Bilder zu den mehreren zweiten Bildern zu wechseln. Die Verwendung der fehlenden Bewegung als ein Auslöser kann in verschiedenen Implementierungen vorteilhaft sein. Z.B. kann das Endoskopsystem 10, wie vorstehend erläutert, die Erfassung der mehreren ersten Bilder beenden und mit der Erfassung der mehreren zweiten Bilder beginnen, wenn eine Bewegung nicht detektiert wird.
-
In der Tat kann die Verwendung der fehlenden Bewegung als ein Auslöser, um ein oder mehrere der mehreren zweiten Bilder zu erfassen, besonders dann sinnvoll sein, wenn die Erfassung der mehreren ersten Bilder und die Erfassung der mehreren zweiten Bilder mehrfach abwechselnd erfolgen. Wenn z.B. in ein einigen Ausführungsformen der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) gesättigte Pixel in dem Basisbild oder dem ersten Bild detektiert, kann er eine Aufforderung anzeigen, die den lokalen Benutzer anweist, an der gleichen Position zu bleiben, so dass die mehreren zweiten Bilder erfasst werden können. Da in einer derartigen Ausführungsform die mehreren zweiten Bilder, die verwendet werden können, um die gesättigten Pixel zu ersetzen, erfasst werden, sobald die Sättigung detektiert wird, kann das für einen Benutzer angezeigte Bild ein Bild mit hohem Dynamikumfang sein.
-
In der Tat kann das Bild mit hohem Dynamikumfang in einigen Ausführungsformen verwendet werden, um ein Video mit hohem Dynamikumfang für den Benutzer anzuzeigen. Obwohl eine weitere Verarbeitung verwendet wird, um das Bild mit hohem Dynamikumfang zu erzeugen, bieten die technischen Fortschritte bei der Verarbeitungsleistung die Möglichkeit, das Bild mit hohem Dynamikumfang nahezu in Echtzeit zu erzeugen. Außerdem sollte erkannt werden, dass das Endoskopsystem 10 sich generell langsam innerhalb der Ausrüstung oder Einrichtung bewegt, was die zeitlichen Beschränkungen beim Anzeigen eines Videos entspannt. In anderen Worten kann ein Video nahezu in Echtzeit (z.B. ein Video mit hohem Dynamikumfang) ausreichen, um einen Benutzer mit einer Anzeige von Merkmalen in der Nähe des Bildgebers 16 zu versorgen.
-
Zusätzlich zu der Erzeugung von Bildern mit hohem Dynamikumfang können die durch das Endoskopsystem 10 erfassten Bilder verwendet werden, um weitere Informationen in Bezug auf das Zielmerkmal zu bestimmen. Z.B. können die erfassten Bilder in einigen Ausführungsformen verwendet werden, um Punktwolkendaten, ein Punktwolkenbild und/oder ein Tiefenprofil des Merkmals, um das 3D-Profil des Zielmerkmals zu beschreiben, zu generieren. An sich können in einigen Ausführungsformen mehrere Teile der Informationen, die das Merkmal betreffen, gleichzeitig oder im Wesentlichen gleichzeitig dargeboten werden.
-
Z.B. können in der Ausführungsform, die in der Bildschirmansicht 74 dargestellt ist, die in 4 beschrieben ist, verschiedene Bilder, die durch das Endoskopsystem 10 erfasst und generiert werden, im Wesentlichen gleichzeitig betrachtet werden. Insbesondere kann der Bildschirm 74 auf einer beliebigen geeigneten Anzeige, wie beispielsweise der Anzeige 50 oder auf einer Anzeige an einer entfernten Rechenvorrichtung, angezeigt werden.
-
An sich kann die Bildschirmansicht 74 zusätzlich zu der bloßen Anzeige der verschiedenen erfassten und generierten Bilder Statusinformationen des Endoskopsystems 10 anzeigen. Z.B. zeigt die Bildschirmansicht 74 in der dargestellten Ausführungsform ein Netzwerkstatussymbol 76, eine Datumsanzeige 78, eine Zeitanzeige 80 und ein Batteriestatussymbol 82 an. Insbesondere zeigt das Netzwerkstatussymbol 76 in der dargestellten Ausführungsform an, dass das Endoskopsystem 10 in einem Bluetooth-Netzwerk angeschlossen ist, während die Datumsanzeige 78 anzeigt, dass das momentane Datum der 15. April 2014 ist, die Zeitanzeige 80 anzeigt, dass die momentane Zeit 12:19 Uhr ist, und das Batteriestatussymbol 82 anzeigt, dass die Batterie vollständig aufgeladen ist.
-
Zusätzlich kann, wie vorstehend beschrieben, ein Benutzer mit dem Endoskopsystem 10 interagieren, indem er z.B. Benutzerbefehle über den Joystick 44 oder die Tastatur 46 eingibt. Z.B. kann ein Benutzer, wie in größeren Einzelheiten nachstehend beschrieben, eine der verschiedenen Ansichten auf der Bildschirmansicht 74 für eine Anzeige im Vollbildmodus wählen. Außerdem kann die Anzeige 50, wie vorstehend beschrieben, eine berührungsempfindliche Anzeige sein, die die Möglichkeit bietet, Schaltflächen zu verwenden. Z.B. enthält die Bildschirmansicht 74, wie in der dargestellten Ausführungsform, eine Zurück-Schaltfläche 84, eine Ansicht-Schaltfläche 86, eine Menü-Schaltfläche 88 und eine Speichern-Schaltfläche 90. Insbesondere kann der Benutzer die Zurück-Schaltfläche 84 wählen, um zu einem vorherigen Bildschirm zurückzukehren, die Ansicht-Schaltfläche 86 wählen, um ein ausgewähltes Vorschaubild (Thumbnail) zu betrachten, die Menü-Schaltfläche 88 wählen, um zu einem Menü zu wechseln, oder die Speichern-Schaltfläche 90 wählen, um ein ausgewähltes Bild zu speichern. Wie erkannt werden kann, sind die auf der Anzeige 50 präsentierten Schaltflächen programmierbar, und sie können sich basierend darauf, was angezeigt wird, ändern.
-
Wie vorstehend beschrieben, kann die Bildschirmansicht 74 verschiedene Bilder anzeigen, die durch das Endoskopsystem 10 erfasst und/oder generiert werden. Z.B. zeigt die Bildschirmansicht 74 in der dargestellten Ausführungsform ein normales Bild 92, ein Bild 94 mit hohem Dynamikumfang, ein helles Bild 94, ein dunkles Bild 98, ein Punktwolkenbild 100 und ein Tiefenprofilbild 102 an. Wie dargestellt, können die verschiedenen Bilder als Miniaturvorschaubilder angezeigt werden, um die Bilder im Wesentlichen gleichzeitig anzuzeigen. Somit kann ein Benutzer mit den verschiedenen Bildern z.B. über die Tastatur 96, den Joystick 44 und/oder die berührungsempfindliche Anzeige interagieren. Z.B. kann ein Benutzer eines der Miniaturvorschaubilder auswählen, um es zu speichern oder im Vollbildmodus zu betrachten.
-
Eine Ausführungsform eines Prozesses 104, der verwendet werden kann, um die Bildschirmansicht 74 zu generieren, ist in 5 beschrieben. Allgemein enthält der Prozess 104 ein Erfassen mehrerer Bilder (106), Erzeugen eines Bildes mit normaler Helligkeit (Prozessblock 108), Erzeugen eines Bildes mit hohem Dynamikumfang (Prozessblock 110), Erzeugen eines Bildes mit hoher Helligkeit (Prozessblock 112), Erzeugen eines Bildes mit geringer Helligkeit (Prozessblock 114), Erzeugen eines Punktwolkenbildes (Prozessblock 116), Erzeugen eines Tiefenprofilbildes (Prozessblock 118) und Erzeugen von Vorschaubildern (Prozessblock 120). In einigen Ausführungsformen kann der Prozess 104 mittels computerlesbarer Instruktionen implementiert sein, die in dem greifbaren, nichttransitorischen Speicher 40 oder der Speichervorrichtung 42 gespeichert sind und durch einen Prozessor (z.B. den Mikrocontroller 34, den Videoprozessor 36, die CPU 38 oder einen Prozessor in einer entfernten Rechenvorrichtung) in dem Endoskopsystem 10 ausgeführt werden.
-
Demgemäß kann der Prozessor (z.B. der Mikrocontroller 34) in einigen Ausführungsformen das Endoskopsystem 10 anweisen, mehrere Bilder zu erfassen. Insbesondere können die mehreren Bilder die vorstehend beschriebenen mehreren ersten Bilder und/oder die vorstehend beschriebenen mehreren zweiten Bilder enthalten, die, wie vorstehend beschrieben, als Reaktion auf eine durch ein Benutzer ausgelöste Erfassungsanforderung, eine Detektion einer hinreichend geringen Bewegung oder eine Detektion von gesättigten Pixeln in den mehreren ersten Bildern erfasst werden können. An sich kann der Prozessor (z.B. der Mikrocontroller 34) den Bildgeber 16 anweisen, Bilder bei einer gewünschten Helligkeitsstufe zu erfassen. Wie vorstehend beschrieben, kann der Prozessor (z.B. der Mikrocontroller 34) die Helligkeitsstufe der erfassten Bilder durch Einstellung der Belichtungszeit für den Bildgeber 16, der durch die Bildgeberschnittstelle 32 angewandten Verstärkung und/oder der Beleuchtungsstufe, die durch die Lichtquelle (z.B. die Weißlichtquelle 28 oder das Emittermodul 22) geschaffen wird, steuern. Außerdem kann das Endoskopsystem 10, wie vorstehend beschrieben, die mehreren Bilder durch Speicherung der digitalen Bilddaten in dem Speicher 40 oder der Speichervorrichtung 42 erfassen.
-
Sobald eines oder mehrere der mehreren Bilder erfasst ist bzw. sind, kann der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) das Endoskopsystem 10 anweisen, ein Bild mit normaler Helligkeit zu generieren (Prozessblock 108). In einigen Ausführungsformen kann das Bild mit normaler Helligkeit lediglich eines der erfassten Bilder sein. In anderen Ausführungsformen kann das Bild mit normaler Helligkeit ein Basisbild sein, das basierend auf den mehreren ersten Bildern generiert wird. In derartigen Ausführungsformen kann der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) das Endoskopsystem 10 anweisen, das Bild mit normaler Helligkeit durch Aufsummierung oder Mittelung von Bildern aus den mehreren ersten Bildern zu generieren.
-
Zusätzlich kann der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) das Endoskopsystem 10 anweisen, ein Bild mit hohem Dynamikumfang zu generieren (Prozessblock 110). Wie vorstehend erläutert, kann das Bild mit hohem Dynamikumfang in einigen Ausführungsformen basierend wenigstens zum Teil auf einem oder mehreren der mehreren ersten Bilder (z.B. dem Basisbild) und einem oder mehreren der mehreren zweiten Bilder generiert werden. Insbesondere können in derartigen Ausführungsformen gesättigte Pixel in dem normalen Bild durch ungesättigte Pixel ersetzt werden, die basierend auf ungesättigten Pixeldaten in einem oder mehreren der mehreren zweiten Bilder generiert werden.
-
Zusätzlich zu dem Bild mit hohem Dynamikumfang kann der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) das Endoskopsystem 10 anweisen, ein Bild mit einer hohen Helligkeitsstufe zu generieren (Prozessblock 112) und ein Bild mit einer niedrigen Helligkeitsstufe zu generieren (Prozessblock 114). Wie vorstehend beschrieben, können Bilder mit verschiedenen Helligkeitsstufen einem Benutzer ermöglichen, variierende Ansichten des Merkmals zu haben. In einigen Ausführungsformen kann das Bild mit hoher Helligkeit ein einzelnes Bild sein, das mit einer höheren Helligkeitsstufe als das normale Bild aufgenommen wird. Ebenso kann das Bild mit geringer Helligkeit in einigen Ausführungsformen ein einzelnes Bild sein, das mit einer niedrigeren Helligkeitsstufe als das normale Bild aufgenommen wird. In derartigen Ausführungsformen kann/können das Bild mit hoher Helligkeit und/oder das Bild mit geringer Helligkeit einfach eines der mehreren zweiten Bilder sein.
-
In weiteren Ausführungsformen kann/können das Bild mit hoher Helligkeit und/oder das mit geringer Helligkeit auch Bilder mit hohem Dynamikumfang sein. In derartigen Ausführungsformen kann das Bild mit hoher Helligkeit ein Bild mit hohem Dynamikumfang mit einer Helligkeit sein, die höher eingeteilt ist als bei dem Bild mit hohem Dynamikumfang, das im Prozessblock 110 generiert wird, und/oder einen Mittelwert der Pixelwerte haben, der höher ist als derjenige des Basisbildes. Ebenso kann das Bild mit geringer Helligkeit ein Bild mit hohem Dynamikumfang mit einer Helligkeit sein, die niedriger eingeteilt ist als die des Bildes mit hohem Dynamikumfang, das im Prozessblock 110 generiert wird, und/oder einen Mittelwert der Pixelwerte haben, der niedriger ist als derjenige des Basisbildes. In anderen Worten bieten die hierin beschriebenen Techniken die Möglichkeit, mehrere Bilder mit hohem Dynamikbereich zu erzeugen, die hinsichtlich der Helligkeitsstufe variieren. Wie vorstehend beschrieben, enthält ein Bild mit hohem Dynamikumfang generell weniger Rauschen und weniger gesättigte Pixel als ein einzelnes Bild. In anderen Worten kann die Nutzbarkeit von Bildern, die durch das Endoskopsystem 10 generiert werden, weiter verbessert werden, indem nicht nur Bilder mit variierenden Helligkeitsstufen angezeigt werden, sondern auch Bilder bei den variierenden Helligkeitsstufen mit weniger gesättigten Pixeln angezeigt werden.
-
Wie vorstehend beschrieben, können durch das Endoskopsystem 10 erfasste Bilder von einer beliebigen Anzahl geeigneter Bildtypen, wie beispielsweise Messbilder, Stereobilder, Inspektionsbilder oder eine beliebige Kombination von diesen sein. Insbesondere können die variierenden Bildtypen es ermöglichen, dass verschiedene Informationen, die das Zielmerkmal betreffen, bestimmt werden können. Z.B. können Inspektionsbilder (z.B. Bilder, die mit gleichmäßiger Helligkeit erfasst werden) das Zielmerkmal von der Perspektive des Bildgebers 16 aus zeigen. Andererseits können Stereobilder und/oder strukturierte Lichtmessbilder verwendet werden, um Punktwolkendaten zu erzeugen, die dann verwendet werden können, um ein Punktwolkenbild und/oder ein Tiefenprofil zu erzeugen.
-
An sich kann der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) das Endoskopsystem 10 anweisen, ein Punktwolkenbild zu generieren (Prozessblock 116) und ein Tiefenprofilbild zu generieren (Prozessblock 118). Insbesondere kann das Punktwolkenbild auf Punktwolkendaten basieren, die erzeugt werden, um eine 3D-Darstellung des Zielmerkmals zu geben. In einigen Ausführungsformen kann das Punktwolkenbild auf einem Teilsatz der Punktwolkendaten basieren, der basierend auf einer Positionierung von Messcursorn oder einem ausgewählten interessierenden Bereich ausgewählt wird. Außerdem kann das Tiefenprofil auf Punktwolkendaten basieren, die generiert werden, um eine Querschnittsansicht des Zielmerkmals zu ergeben. In einigen Ausführungsformen kann die Stelle des Tiefenprofils durch den Benutzer durch Positionierung von Messcursorn ausgewählt werden.
-
In einigen Ausführungsformen können die Punktwolkendaten unter Verwendung von Messbildern (z.B. strukturierten Lichtbildern) oder Stereobildern generiert werden. Z.B. können die Punktwolkendaten durch die Anwendung einer Phasenverschiebungsanalyse auf strukturierte Lichtbilder generiert werden, die erfasst werden, während ein strukturiertes Lichtmuster auf die betrachtete Oberfläche projiziert wird. Zusätzlich oder alternativ können die Punktwolkendaten unter Verwendung von Stereobildern generiert werden, die von verschiedenen Perspektiven aus erfasst werden. An sich ist das erzeugte Punktwolkenbild umso genauer, je mehr Details des Merkmals in den Messbildern erfasst werden.
-
Jedoch können, wie vorstehend beschrieben, Details des Zielmerkmals in erfassten Bildern verschleiert sein, wenn Pixel gesättigt sind. Wenn z.B. eine Schweißnaht (z.B. eine stark reflektierende Oberfläche) auf einem Objekt oder einer Oberfläche in der Nähe des Bildgebers 16 bewirkt, dass die Schweißnaht in den erfassten Bildern als gesättigt erscheint, wird es schwierig sein, die 3D-Eigenschaften (z.B. Höhe oder Gestalt) der Schweißnaht genau zu bestimmen, weil die Schweißnaht als vollständig weiß erscheinen wird.
-
In einigen Ausführungsformen können die mehreren zweiten Bilder verwendet werden, um die Erfassung von Details von dem Zielmerkmal zu verbessern. Insbesondere können, wie vorstehend beschrieben, die mehreren zweiten Bilder Messbilder enthalten, die bei unterschiedlichen Helligkeitsstufen erfasst werden. An sich können die Punktwolkendaten unter Verwendung von Bildern mit variierender Helligkeitsstufe generiert werden, um die Anzahl von 3D-Oberflächendatenpunkten, die bestimmt werden, zu erhöhen.
-
Um es besser zu veranschaulichen, können Punktwolkendaten durch den Abgleich eines Oberflächenpunktes generiert werden, der in Bildern erfasst wird, die von verschiedenen Perspektiven aus aufgenommen werden. Wenn jedoch Stereomessbilder Pixel enthalten, die gesättigt (z.B. zu hell oder zu dunkel) sind, kann ein Stereoabgleich verhindert sein, weil es schwierig sein kann, den gleichen Oberflächenpunkt in den Bildern zu erkennen. Fortfahrend mit dem obigen Beispiel kann es z.B. schwierig sein, den gleichen Punkt auf der Schweißnaht in mehreren Stereobildern zu lokalisieren, weil die Schweißnaht vollständig weiß erscheint. Jedoch können die gleichen Pixel in einem oder mehreren der mehreren zweiten Bilder ungesättigt sein. Somit kann der Prozessor das eine oder die mehreren der mehreren zweiten Bilder verwenden, um einen Stereoabgleich vorzunehmen und die Punktwolkendaten zu generieren. In anderen Worten kann eine beliebige Kombination von einem oder mehreren der mehreren ersten Bilder, dem Basisbild, einem oder mehreren der mehreren zweiten Bilder und einem generierten Bild mit hohem Dynamikumfang verwendet werden, um die Punktwolkendaten zu erzeugen.
-
Ebenso kann in dem Fall, dass ein strukturiertes Lichtmuster, beispielsweise ein Laserpunktraster, sowohl in den mehreren ersten als auch in den mehreren zweiten Bildern erfasst wird, der Prozessor die Position des Musters unter Verwendung einer beliebigen Kombination von einem oder mehreren der mehreren ersten Bilder, dem Basisbild, einem oder mehreren der mehreren zweiten Bilder und einem generierten Bild mit hohem Dynamikumfang detektieren. Der Prozessor kann dann die detektierte Musterposition verwenden, um 3D-Oberflächendaten zu bestimmen.
-
Zusätzlich können, wie vorstehend beschrieben, die mehreren zweiten Bilder verwendet werden, um ein Bild mit hohem Dynamikumfang zu generieren, das das Ausmaß der Sättigung reduzieren kann und von einer beliebigen geeigneten Bildart sein kann. Demgemäß können die Daten oder Bilder, die unter Verwendung des Bildes mit hohem Dynamikumfang generiert werden, nutz- bzw. brauchbarer sein. Fortfahrend mit dem obigen Beispiel kann z.B. eines oder können mehrere Messbilder mit hoher Dynamik verwendet werden, um die hohe Reflexivität der Schweißnaht zu kompensieren und mehr Details von den Eigenschaften der Schweißnaht darzustellen. Somit kann die Verwendung von Messbildern mit hohem Dynamikumfang zur Generierung von Punktwolkendaten/-bildern genauere Informationen in Bezug auf das Merkmal liefern, was auch die Genauigkeit des Punktwolkenbildes und des Tiefenprofilbildes verbessert.
-
Der Prozessor (z.B. die CPU 38 oder der Videoprozessor 36) können anschließend das Endoskopsystem 10 anweisen, die generierten Bilder (z.B. ein Bild mit normaler Helligkeit, ein Bild mit hoher Helligkeit, ein Bild mit hohem Dynamikumfang, ein Bild mit niedriger Helligkeit, ein Punktwolkenbild oder ein Tiefenprofilbild) als Vorschaubilder anzuzeigen (Prozessblock 120). In einigen Ausführungsformen kann das Erzeugen der Vorschaubilder ein Skalieren der erzeugten Bilder auf die Miniaturbildgröße enthalten. Wie vorstehend beschrieben, können die Vorschaubilder z.B. durch einen Benutzer auswählbar sein, um das Bild, das dem Vorschaubild entspricht, zu sichern oder im Vollbildmodus anzuzeigen. Da in einige Ausführungsformen die Anzeige 50 eine berührungsempfindliche Anzeige sein kann, kann das Generieren der Vorschaubilder folglich ein Generieren von Vorschaubild-Schaltflächen enthalten, die durch einen Benutzer auswählbar sind.
-
Basierend auf der obigen Beschreibung umfasst der technische Effekt der vorliegenden Offenbarung die Bereitstellung von Systemen und Verfahren zur Verbesserung der Nutzbarkeit von Bildern, die durch ein visuelles Ferninspektionssystem, wie beispielsweise ein Endoskopsystem, erfasst werden. Insbesondere kann die Nutzbarkeit von Bildern durch Generierung eines oder mehrerer Bilder mit hohem Dynamikumfang generiert werden. Außerdem können die Bilder mit hohem Dynamikumfang effizienter erfasst und generiert werden. Z.B. können die Bilder mit hohem Dynamikumfang basierend auf Bildern generiert werden, die verwendet werden, um ein Live-Video anzuzeigen. In anderen Worten kann das visuelle Ferninspektionssystem mit der Generierung eines Bildes mit hohem Dynamikumfang beginnen, noch bevor ein Erfassungsbefehl empfangen wird.
-
Diese schriftliche Beschreibung verwendet Beispiele, um die Erfindung, einschließlich der besten Ausführungsart, zu offenbaren und auch um jeden Fachmann auf dem Gebiet zu befähigen, die Erfindung in die Praxis umzusetzen, wozu die Schaffung und Verwendung jeglicher Vorrichtungen oder Systeme und die Durchführung jeglicher enthaltener Verfahren gehören. Der patentierbare Umfang der Erfindung ist durch die Ansprüche definiert und kann weitere Beispiele enthalten, die Fachleuten auf dem Gebiet einfallen. Derartige weitere Beispiele sollen in dem Schutzumfang der Ansprüche liegen, wenn sie strukturelle Elemente aufweisen, die sich von dem Wortsinn der Ansprüche nicht unterscheiden, oder wenn sie äquivalente strukturelle Elemente mit unwesentlichen Unterschieden gegenüber dem Wortsinn der Ansprüche enthalten.