DE102009022331B4 - Endoskopprozessor und Endoskopsystem - Google Patents

Endoskopprozessor und Endoskopsystem Download PDF

Info

Publication number
DE102009022331B4
DE102009022331B4 DE102009022331.2A DE102009022331A DE102009022331B4 DE 102009022331 B4 DE102009022331 B4 DE 102009022331B4 DE 102009022331 A DE102009022331 A DE 102009022331A DE 102009022331 B4 DE102009022331 B4 DE 102009022331B4
Authority
DE
Germany
Prior art keywords
circuit block
pixel signals
luminance
pixel
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102009022331.2A
Other languages
English (en)
Other versions
DE102009022331A1 (de
Inventor
Yuichi Shibasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Publication of DE102009022331A1 publication Critical patent/DE102009022331A1/de
Application granted granted Critical
Publication of DE102009022331B4 publication Critical patent/DE102009022331B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Endoskopprozessor mit:- einem Empfänger, der ein einem aufgenommenen Objekt entsprechendes Bildsignal empfängt, das von einer Abbildungsvorrichtung erzeugt wird und eine Vielzahl von Pixelsignalen enthält, die einer Vielzahl von ein optisches Bild des Objektes bildenden Pixeln zugeordnet sind; und- einem Korrekturschaltungsblock, der an den Pixelsignalen eine Erstsignalverarbeitung derart vornimmt, dass ein repräsentativer Wert einem Standardwert angepasst wird, wenn das von dem Empfänger empfangene Bildsignal ein Fluoreszenzbildsignal ist, wobei der repräsentative Wert auf Grundlage einer Vielzahl von Chrominanzdifferenzwerten, die einer Vielzahl von Pixelsignalen entsprechen, berechnet wird und das Fluoreszenzbildsignal erzeugt wird, wenn das Objekt mit Anregungslicht beleuchtet wird, welches ein Organ zur Fluoreszenz anregt.

Description

  • Die Erfindung betrifft einen Endoskopprozessor, der auf Grundlage eines optischen Bildes eines Objektes, das mit Anregungslicht und/oder Referenzlicht beleuchtet wird, ein Bild erzeugt, das für eine medizinische Untersuchung geeignet darstellbar sein soll.
  • Aus dem Stand der Technik ist ein Autofluoreszenzendoskopsystem bekannt, das Anregungslicht auf ein Organ richtet, damit dieses Autofluoreszenzstrahlung abgibt, und das ein Autofluoreszenzbild des Organs aufnimmt. Im Allgemeinen gibt erkranktes Gewebe weniger Autofluoreszenzstrahlung als gesundes Gewebe ab. In der JP 2002 - 143 079 A und der JP 2006 - 192 058 A wird ein Autofluoreszenzendoskopsystem vorgeschlagen, das unter vorteilhafter Ausnutzung vorstehend beschriebener Eigenschaften im Stande ist, ein Bild zu liefern, das die medizinische Untersuchung unterstützen kann.
  • Die Farbe eines Autofluoreszenz-Teilbildes von erkranktem Gewebe ist manchmal verschieden von der Bildfarbe gesunden Gewebes. Die Farbe eines Autofluoreszenzbildes ist hauptsächlich grünlich. So ist es schwierig, geringe Farbdifferenzen zwischen erkranktem und gesundem Gewebe zu unterscheiden. Das vorstehend genannte Autofluoreszenzendoskopsystem ist nicht im Stande, einen solch geringen Farbunterschied anzuzeigen.
  • Aufgabe der Erfindung ist es, einen Endoskopprozessor anzugeben, der eine Signalverarbeitung durchführt, durch die der Autofluoreszenzfarbkontrast in einem Bild verstärkt wird.
  • Die Erfindung löst diese Aufgabe durch die Gegenstände der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen sind in den Unteransprüchen angegeben.
  • Die Erfindung wird im Folgenden mit samt ihren technischen Wirkungen und Vorteilen unter Bezugnahme auf die Figuren beschrieben. Darin zeigen:
    • 1 ein Blockdiagramm, das den internen Aufbau eines Endoskopsystems mit einem Endoskopprozessor nach einem ersten und einem zweiten Ausführungsbeispiel der Erfindung zeigt;
    • 2 eine Blockdiagramm, das den internen Aufbau einer Lichtquelleneinheit zeigt;
    • 3 ein Blockdiagramm, das den internen Aufbau einer Bildverarbeitungseinheit nach erstem Ausführungsbeispiel zeigt;
    • 4 ein Histogramm der Datenkomponente Crf;
    • 5 ein Histogramm der Datenkomponente Crl;
    • 6 einen Graphen des Cr-Cb-Farbraums, der verdeutlicht, dass der darzustellende Bildfarbton tatsächlich korrigiert worden ist;
    • 7 einen Graphen des Cr-Cb-Farbraums, der die Verteilung von Chrominanzdifferenzen vor der Korrektur zeigt, um die Wirkung der Korrektur (der ChrominanzdifferenzDatenkomponenten) zu verdeutlichen;
    • 8 einen Graphen des Cr-Cb-Farbraums, der die Verteilung von Chrominanzdifferenzen nach der Korrektur zeigt, um die Wirkung der Korrektur (der Chrominanzdifferenzdatenkomponenten) zu verdeutlichen;
    • 9 einen Graphen, der den Zusammenhang zwischen dem Verstärkungsparameter und der Luminanzdifferenz zeigt;
    • 10 ein Flussdiagramm, das die Operationen zeigt, die zum Erzeugen eines Videosignals in dem zweiten Fluoreszenzbildbeobachtungsmodus durchgeführt werden; und
    • 11 ein Blockdiagramm, das den internen Aufbau einer Bildverarbeitungseinheit nach zweitem Ausführungsbeispiel zeigt.
  • In 1 ist ein Endoskopsystem 10 gezeigt, das einen Endoskopprozessor 20, ein elektronisches Endoskop 30 und einen Monitor 11 umfasst. Der Endoskopprozessor 20 ist an das elektronische Endoskop 30 und den Monitor 11 angeschlossen.
  • Der Endoskopprozessor 20 sendet Beleuchtungslicht auf ein zu betrachtendes Objekt aus. Das elektronische Endoskop fängt ein optisches Bild des beleuchteten Objektes ein und erzeugt dann ein Bildsignal. Das Bildsignal wird an den Endoskopprozessor 20 gesendet.
  • Der Endoskopprozessor 20 nimmt an dem empfangenen Bildsignal eine vorbestimmte Signalverarbeitung vor. Anschließend wird ein Videosignal erzeugt. Das Videosignal wird an den Monitor 11 gesendet, auf dem ein dem Videosignal entsprechendes Bild dargestellt wird.
  • Der Endoskopprozessor 20 enthält eine Lichtquelleneinheit 40, eine Bildverarbeitungseinheit 50, eine Systemsteuerung 21, eine Zeitsteuerung 22, einen Eingabeblock 23 sowie weitere Komponenten. Wie weiter unten beschrieben, sendet die Lichtquelleneinheit 40 Weißlicht zur Beleuchtung des Objektes sowie Anregungslicht aus, welches ein Organ Autofluoreszenzstrahlung abgeben lässt. Wie ebenfalls weiter unter im Detail beschrieben, nimmt die Bildverarbeitungseinheit 50 an dem Bildsignal eine vorbestimmte Signalverarbeitung vor.
  • Die Systemsteuerung 21 steuert den Betrieb sämtlicher Komponenten des Endoskopsystems 10, einschließlich der Lichtquelleneinheit 40 und der Bildverarbeitungseinheit 50. Die Zeitsteuerung 22 steuert einige Operationen der Komponenten des Endoskopprozessors 20 zeitlich. Dem Benutzer ist es freigestellt, Bedienbefehle in den Eingabeblock 23 einzugeben, der eine Tastatur (nicht gezeigt), eine Zeigervorrichtung wie z.B. eine Maus (nicht gezeigt) oder andere Eingabevorrichtungen umfasst.
  • Indem das elektronische Endoskop 30 an den Endoskopprozessor 20 angeschlossen wird, werden die Lichtquelleneinheit 40 und ein Lichtleiter 31, der in dem Endoskop 30 montiert ist, optisch miteinander gekoppelt. Ferner werden durch den Anschluss des Endoskopprozessors 20 an das Endoskop 30 die Bildverarbeitungseinheit 50 und eine in dem Endoskop 30 montierte Abbildungsvorrichtung 32 sowie die Zeitsteuerung 22 und die Abbildungsvorrichtung 32 elektrisch miteinander verbunden.
  • Wie in 2 gezeigt, enthält die Lichtquelleneinheit 40 eine Weißlichtquelle 41w, eine Anregungslichtquelle 41e, einen Verschluss 42, eine Blende 43, eine Kondensorlinse 44, eine Stromversorgungsschaltung 45, eine Anregungslichtquellensteuerschaltung 46e, eine Verschlusssteuerschaltung 46s, eine Blendensteuerschaltung 46d sowie weitere Komponenten.
  • Die Weißlichtquelle 41w sendet Weißlicht aus. Die Anregungslichtquelle 41e sendet Anregungslicht einer bestimmten Wellenlänge, z.B. violettes Licht aus.
  • Die Blende 43, der Verschluss 42, eine dichroitischer Spiegel 47 und die Kondensorlinse 44 sind zwischen der Weißlichtquelle 41w und dem Lichtleiter 31 montiert. Das von der Weißlichtquelle 41w ausgesendete Weißlicht tritt durch den dichroitischen Spiegel 47, wird durch die Kondensorlinse 44 konzentriert und auf das Eintrittsende des Lichtleiters 31 gerichtet. Die Stromversorgungsschaltung 45 speist die Weißlichtquelle 41w mit elektrischer Energie.
  • Die zum Beleuchten des Objektes genutzte Menge an Weißlicht wird durch Einstellen der Blendenöffnung der Blende 43 gesteuert. Die Blendenöffnung der Blende 43 wird von einem ersten Motor 48a eingestellt. Die Wirkung des ersten Motors 48a wird von der Blendensteuerschaltung 46d gesteuert. Die Blendensteuerschaltung 46d ist über die Systemsteuerung 21 mit einer Bildverarbeitungseinheit 50 verbunden.
  • Wie weiter unten beschrieben, erfasst die Bildverarbeitungseinheit 50 die Luminanz des aufgenommenen Objektbildes auf Grundlage des von der Abbildungsvorrichtung erzeugten Bildsignals. Die Luminanz wird der Blendensteuerschaltung 46d über die Systemsteuerung 21 mitgeteilt. Die Blendensteuerschaltung 46d berechnet anhand der Luminanz die erforderliche Stellgröße für den Motor 48a.
  • Der Verschluss 42 ist drehbar und hat einen nicht gezeigten Öffnungsbereich sowie einen nicht gezeigten Sperrbereich. Der Verschluss 42 steuert den Durchtritt und die Sperrung des Weißlichtes. Soll das Weißlicht durchgelassen werden, so wird der Öffnungsbereich in den Strahlengang des Weißlichtes eingebracht. Soll dagegen das Weißlicht gesperrt werden, so wird der Sperrbereich in den Strahlengang des Weißlichtes eingebracht. Der Verschluss 42 wird über einen zweiten Motor 48b angetrieben. Die Wirkung des zweiten Motors 48b wird von der Verschlusssteuerschaltung 46s gesteuert.
  • Das von der Anregungslichtquelle 41e ausgesendete Anregungslicht wird an dem dichroitischen Spiegel 47 reflektiert, durch die Kondensorlinse 44 konzentriert und auf das Eintrittsende des Lichtleiters 31 gerichtet. Die Anregungslichtquellensteuerschaltung 46e schaltet die Lichtabgabe der Anregungslichtquelle 41e an und aus.
  • Die Verschlusssteuerschaltung 46s und die Anregungslichtquellensteuerschaltung 46e sind an die Zeitsteuerung 22 angeschlossen. Das Weißlichtsteuersignal, das dazu dient, über den Verschluss 42 die Zeit, in der das Weißlicht durchgelassen bzw. gesperrt wird, zu steuern, wird von der Zeitsteuerung 22 an die Verschlusssteuerschaltung 46s ausgegeben. Das Anregungslichtsteuersignal, das dazu dient, die Zahl an Umschaltungen, mit denen die Lichtabgabe durch die Anregungslichtquelle 41e ein- und ausgeschaltet wird, zu steuern, wird von der Zeitsteuerung 22 an die Anregungslichtsteuerschaltung 46e ausgegeben. Sowohl das Weißlichtsteuersignal als auch das Anregungslichtsteuersignal sind oszillierende Signale.
  • Befindet sich das Weißlichtsteuersignal im hohen Zustand, so steuert die Verschlusssteuerschaltung 46s den Verschluss 42 so an, dass das Weißlicht durchgelassen wird. Befindet sich dagegen das Weißlichtsteuersignal im tiefen Zustand, so steuert die Verschlusssteuerschaltung 46s den Verschluss 42 so an, dass das Weißlicht gesperrt wird.
  • Befindet sich das Anregungslichtsteuersignal im hohen Zustand, so schaltet die Anregungslichtsteuerschaltung 46e die Anregungslichtquelle 41e ein. Befindet sich dagegen das Anregungslichtsteuersignal im tiefen Zustand, so schaltet die Anregungslichtsteuerschaltung 46e die Anregungslichtquelle 41e aus.
  • Die Zeitsteuerung 22 steuert die hohen und tiefen Zustände des Weißlichtsteuersignals und des Anregungslichtsteuersignals so, dass die Zustände des Weißlichtsteuersignals gegenüber den Zuständen des Anregungslichtsteuersignals invertiert sind. Befindet sich also das Weißlichtsteuersignal im hohen Zustand, während das Anregungslichtsignal im tiefen Zustand ist, so führt die Lichtquelleneinheit 40 dem Eintrittsende das Weißlicht zu. Befindet sich dagegen das Weißlichtsteuersignal im tiefen Zustand, während das Anregungslichtsignal im hohen Zustand ist, so führt die Lichtquelleneinheit 40 dem Eintrittsende das Anregungslicht zu.
  • Das Endoskopsystem 10 sieht einen Weißlicht-Beobachtungsmodus sowie einen ersten und einen zweiten Fluoreszenz-Beobachtungsmodus zur Betrachtung eines Objektes vor. Ist der Weißlicht-Beobachtungsmodus ausgewählt, so steuert die Zeitsteuerung 22 die Lichtquelleneinheit 40 so, dass diese kontinuierlich Weißlicht auf das Objekt abgibt. Ist der erste Fluoreszenz-Beobachtungsmodus ausgewählt, so steuert die Zeitsteuerung 22 die Lichtquelleneinheit 40 so, dass das Anregungslicht kontinuierlich auf das Objekt abgegeben wird. Ist der zweite Fluoreszenz-Beobachtungsmodus ausgewählt, so steuert die Zeitsteuerung 22 die Lichtquelleneinheit 40 so, dass alternierend mit Weißlicht und Anregungslicht beleuchtet wird.
  • Über eine entsprechende Eingabe an einen nicht gezeigten Schalter des Endoskops 30 und den Eingabeblock 23 wird aus den drei vorstehend benannten Modi, nämlich dem Weißlicht-Beobachtungsmodus sowie dem ersten und dem zweiten Fluoreszenz-Beobachtungsmodus, ein Modus ausgewählt.
  • Die Stromversorgungsschaltung 45 und die Anregungslichtsteuerschaltung 46e sind mit der Systemsteuerung 21 verbunden. Die Systemsteuerung 21 nimmt eine Umschaltung derart vor, dass die Stromversorgungsschaltung 45 und die Anregungslichtsteuerschaltung 46e ein- und ausgeschaltet werden.
  • Im Folgenden wird der Aufbau des elektronischen Endoskops 30 im Einzelnen beschrieben. Wie in 1 gezeigt, enthält das Endoskop 30 den Lichtleiter 31, die Abbildungsvorrichtung 32, ein Anregungslichtsperrfilter 34 sowie weitere Komponenten.
  • Das Eintrittsende des Lichtleiters 31 ist in einem nicht gezeigten Verbinder montiert, der das Endoskop 30 mit dem Endoskopprozessor 20 verbindet. Das andere Ende, im Folgenden als Austrittsende bezeichnet, ist am Kopfende eines Einführrohrs 37 des Endoskops 30 montiert. Wie oben beschrieben, gelangt das Weißlicht oder das Anregungslicht, die von der Lichtquelleneinheit 40 abgegeben werden, zum Eintrittsende des Lichtleiters 31. Das Licht wird dann zum Austrittsende geleitet. Das zum Austrittsende geleitete Licht beleuchtet dann durch eine Zerstreuungslinse 35 einen Bereich in der näheren Umgebung des Kopfendes des Einführrohrs 37.
  • Am Kopfende des Einführrohrs 37 sind zudem eine Objektivlinse 36, das Anregungslichtsperrfilter 34 und die Abbildungsvorrichtung 32 montiert. Das Anregungslichtsperrfilter 34 ist zwischen der Objektivlinse 36 und der Abbildungsvorrichtung 22 angeordnet.
  • Durch die Objektivlinse 36 und das Anregungslichtsperrfilter 34 wird auf einer Lichtempfangsfläche der Abbildungsvorrichtung 32 ein optisches Bild des mit dem Weißlicht oder dem Anregungslicht beleuchteten Objektes erzeugt.
  • Das Anregungslichtsperrfilter 34 sperrt das gesamte Wellenlängenband des von der Anregungslichtquelle 41e ausgesendeten Anregungslichtes. Das Anregungslichtsperrfilter 34 schwächt demnach in dem optischen Bild des mit dem Weißlicht oder dem Anregungslicht beleuchteten Objektes eine Lichtkomponente, die gleich dem von der Anregungslichtquelle 41e ausgesendeten Anregungslicht ist. Das Licht, das durch das Anregungslichtsperrfilter 34 tritt, bildet auf der Lichtempfangsfläche der Abbildungsvorrichtung 32 das optische Bild.
  • Die Abbildungsvorrichtung 32 wird so angesteuert, dass sie in jeder Teilbildperiode das auf der Lichtempfangsfläche erzeugte optische Bild einfängt. Teilbildperioden haben üblicherweise eine Dauer von 1/60 Sekunde. Die zeitliche Ansteuerung der Abbildungsvorrichtung 32 erfolgt über die Zeitsteuerung 22. In dem zweiten Fluoreszenz-Beobachtungsmodus werden in jeder Teilbildperiode das Weißlicht und das Anregungslicht alternierend umgeschaltet, um das Objekt synchron mit der Bilderfassung der Abbildungsvorrichtung 32 zu beleuchten.
  • Die Abbildungsvorrichtung 32 erzeugt auf Grundlage des von der Lichtempfangsfläche aufgenommenen optischen Bildes ein Bildsignal. Das erzeugte Bildsignal wird jede Teilbildperiode an die Bildverarbeitungseinheit 50 gesendet.
  • Die Abbildungsvorrichtung 32 hat auf ihrer Lichtempfangsfläche eine Vielzahl von nicht gezeigten Pixeln. Jedes Pixel erzeugt ein Pixelsignal entsprechend der von ihm empfangenen Lichtintensität. Das Bildsignal besteht so aus einer Vielzahl von Pixelsignalen, die den auf der Lichtempfangsfläche angeordneten Pixeln entsprechen.
  • Jedes Pixel ist von einem Farbfilter bedeckt, nämlich einem Rot-, Grün- oder Blau-Farbfilter, wobei diese Filter in der sogenannten Bayer-Anordnung vorliegen. Die Pixelsignalpegel entsprechen der Lichtmenge der Lichtkomponente, die durch die die Pixel bedeckenden Farbfilter treten. Das aus einem jeweiligen Pixel stammende Pixelsignal bildet demnach eine Rot-, Grün oder Blau-Signalkomponente.
  • Unter Bezugnahme auf 3 wird im Folgenden der Aufbau der Bildverarbeitungseinheit 50 beschrieben. Die Bildverarbeitungseinheit 50 enthält eine Erstverarbeitungsschaltung 51 (Empfänger), eine Wandlerschaltung 52 (erster und zweiter Erzeugungsschaltungsblock), eine Erst- und eine ZweitHistogrammschaltung 53, 54 (erster bzw. zweiter Rechenschaltungsblock), eine Korrekturschaltung 55, eine Parameterrechenschaltung 56, eine Verstärkungsschaltung 57 (Farbverstärkungsschaltungsblock), eine Zweitverarbeitungsschaltung 58 sowie weitere Komponenten. Die Bildverarbeitungseinheit 50 ist an einen nicht gezeigten RAM angeschlossen, der als Arbeitsspeicher genutzt wird. Wie weiter unten beschrieben, wird der RAM für die Datenverarbeitung verwendet, die von den einzelnen Schaltungen durchgeführt wird.
  • Die Bildverarbeitungseinheit 50 ist an die Zeitsteuerung 22 angeschlossen. Die Weißlicht- und die Anregungslichtsteuersignale werden von der Zeitsteuerung 22 an die Bildverarbeitungsschaltung 50 gesendet. Die Bildverarbeitungseinheit 50 erkennt das Bildsignal, das in einer Zeit, in der sich das Weißlichtsteuersignal in seinem hohen Zustand befindet, als Weißlichtbildsignal. Entsprechend erkennt die Bildverarbeitungseinheit 50 das Bildsignal, das in einer Zeit, in der sich das Anregungslichtsteuersignal in seinem hohen Zustand befindet, empfangen wird, als Fluoreszenzbildsignal.
  • Das Weißlicht- und das Fluoreszenzbildsignal, die von der Bildverarbeitungseinheit 50 empfangen werden, werden der Erstverarbeitungsschaltung 51 zugeführt. Die Erstverarbeitungsschaltung 51 digitalisiert das analoge Bildsignal, um eine Wandlung in Bilddaten vorzunehmen. Die Erstverarbeitungsschaltung 51 nimmt an dem Bildsignal eine vorbestimmte Signalverarbeitung vor, z.B. eine Verstärkungssteuerung und eine Farbinterpolation. In der Verstärkungssteuerung werden die Bilddaten mit einem eingestellten Verstärkungsfaktor so verstärkt, dass der Medianwert der Luminanzdatenkomponente der Bilddaten mit dem Mediandatenpegel, wie er von der Bildverarbeitungseinheit 50 berechnet wird, übereinstimmt. Durch die Farbinterpolation werden für jedes Pixel die jeweils anderen Farbpixeldatenkomponenten interpoliert.
  • Die Erstverarbeitungsschaltung 51 erfasst die mittlere Luminanzdatenkomponente der Weißlichtbilddaten auf Grundlage derjenigen Weißlichtbilddaten, die vor der verstärkungssteuernden Verarbeitung verfügbar sind. Wie oben beschrieben, wird die erfasste mittlere Luminanzdatenkomponente der Blendensteuerschaltung 46d über die Systemsteuerung 21 mitgeteilt und für die Berechnung der Blendenöffnung der Blende 43 genutzt.
  • Ist der Weißlicht-Beobachtungsmodus oder der erste Fluoreszenz-Beobachtungsmodus ausgewählt, so werden die Weißlichtbilddaten oder die Fluoreszenzbilddaten, die der Erstverarbeitungsschaltung 51 kontinuierlich zugeführt werden, an die Zweitverarbeitungsschaltung 58 gesendet. Die Weißlichtbilddaten bestehen aus einer Rot-, Grün- und Blau-Datenkomponente für ein Weißbild, im Folgenden als Rw, Gw bzw. Bw bezeichnet. Die Fluoreszenzbilddaten bestehen aus einer Rot-, Grün- und Blau-Datenkomponente für ein Fluoreszenzbild, im Folgenden als Rf, Gf bzw. Bf bezeichnet.
  • Die Zweitverarbeitungsschaltung 58 nimmt an den Bilddaten eine vorbestimmte Datenverarbeitung vor, z.B. eine Klemmung und eine Austastung. Ferner führt die Zweitverarbeitungsschaltung 58 eine D/A-Wandlung durch, worauf die Bilddaten in ein analoges Bildsignal gewandelt werden. Die Zweitverarbeitungsschaltung 58 erzeugt zudem auf Grundlage des Bildsignals ein Videosignal und sendet das resultierende Videosignal an den Monitor 11. auf dem Monitor 11 wird so ein dem empfangenen Videosignal entsprechendes Bild angezeigt. Somit werden ein Weißlichtbild und ein Fluoreszenzbild angezeigt, wenn mit Weißlicht bzw. Anregungslicht beleuchtet wird.
  • Ist der zweite Fluoreszenz-Beobachtungsmodus ausgewählt, so werden die Weißlicht- und die Fluoreszenzbilddaten, die alternierend und wiederholt der Erstverarbeitungsschaltung 51 zugeführt werden, an die Wandlerschaltung 52 gesendet.
  • Die Wandlerschaltung 52 erzeugt eine Luminanzdatenkomponente, im Folgenden als Y bezeichnet, sowie Chrominanzdifferenzdatenkomponenten für Rot und Blau, im Folgenden als Cr bzw. Cb bezeichnet, für jedes einzelne Pixel unter Verwendung einer vorbestimmten Matrix für Rw, Gw und Bw oder für Rf, Gf und Bf.
  • Die Datenkomponenten Y, Cr und Cb für die Weißlichtbilddaten (im Folgenden als Yw, Crw bzw. Cbw bezeichnet) werden auf Grundlage der Datenkomponenten Rw, Cw und Bw erzeugt. Entsprechend werden die Datenkomponenten Y, Cr und Cb für Fluoreszenzbilddaten (im Folgenden als Yf, Crf bzw. Cwf bezeichnet) auf Grundlage der Datenkomponenten Rf, Gf und Bf erzeugt.
  • Anschließend werden Crw und Cbw gelöscht. Jedoch werden Crf und Cbf an die Ersthistogrammschaltung 53 gesendet. Die Ersthistogrammschaltung 53 erzeugt für die auf ein Bilddaten-Teilbild bezogenen Pixeldaten Histogramme für die Datenkomponenten Crf und Cbf.
  • Die Histogrammdaten für Crf und Cbf (im Folgenden als Hcr und Hcb bezeichnet), die dem erzeugten Histogramm für Crf und Cbf entsprechen, werden zusammen mit den Datenkomponenten Crf bzw. Cbf an die Korrekturschaltung 55 gesendet. Die Korrekturschaltung 55 korrigiert die Datenkomponenten Crf und Cbf auf Grundlage der Histogrammdaten Hcr und Heb, worauf korrigierte Chrominanzdifferenzdatenkomponenten für rot und blau, im Folgenden als Crl bzw. Cbl bezeichnet, erzeugt werden. Die von der Korrekturschaltung 55 durchgeführte Korrektur wird im Folgenden im Einzelnen erläutert.
  • Die von einem Organ abgegebene Autofluoreszenzstrahlung ist hauptsächlich grün. Wie in 4 gezeigt, ist demnach in einer Probe der Häufigkeitsverteilung der Datenkomponente Crf die Crf-Häufigkeit im negativen Bereich relativ groß. Auf Grundlage der Histogrammdaten Her kann die Datenkomponente Crf maximaler Häufigkeit (repräsentativer Wert) erfasst werden (vgl. „Crp“).
  • Nach der Erfassung der Datenkomponente Crf maximaler Häufigkeit (d.h. Crp) wird die Größe Crl erzeugt, indem Crf so korrigiert wird, dass die Chrominanzdifferenz der maximalen Häufigkeit in der Häufigkeitsverteilung von Crl gleich 0 ist, wodurch eine Größe erzeugt wird, deren Chrominanzdifferenz einer achromatischen Farbe entspricht (vgl. 5). Durch die gleiche Verarbeitung, die zur Erzeugung von Crl angewandt wird, wird die Datenkomponente Cbf korrigiert und so Cbl erzeugt.
  • In dem in 6 gezeigten Farbraumgraphen ist der Hauptbereich (vgl. „M“) ein Bereich, in dem Chrominanzwerte (Differenzen) für Crf und Cbf ausgewählt werden, und zwar von der höchsten Häufigkeit abnehmend, bis die kumulative Summe dieser Häufigkeitenb 80 Prozent in einem gegebenen Histogramm der Chrominanzdifferenzen erreicht. In dem Farbraumgraphen nach 6 kann ein solcher Hauptbereich in dem dritten Quadranten gefunden werden. Der dritte Quadrant entspricht grün. Einmal korrigiert, ist jedoch der Hauptbereich für Crl und Cbl zum Ursprung der Koordinatenachse verschoben, in dem die Farbe achromatisch ist. Durch diese Verschiebung wird die Farbe von verdächtigem Gewebe, die in einem Bild, das unter Verwendung von Crf und Cwf erzeugt wird, von dem umgebenden Gewebe nicht unterscheidbar ist, deutlich unterschiedlich gegenüber dem umgebenden Gewebe in einem Bild, das unter Verwendung von Crl und Cbl erzeugt wird.
  • Beispielhaft wird hierzu auf den Farbraumgraphen nach 7 verwiesen. Selbst wenn dort die Chrominanzdifferenzkoordinaten des verdächtigen Gewebes von dem Hauptbereich M separiert sind, kann die Farbe des verdächtigen Gewebes, die durch einen ersten Bereich α und einen zweiten Bereich β dargestellt ist, Koordinaten aufweisen, die wie der Hauptbereich in dem dritten Quadranten liegen. Auch in diesem Fall wird die Farbe des verdächtigen Gewebes von der Farbe des umgebenden Gewebes in dem Gesamtbild nicht unterscheidbar sein.
  • Dagegen werden in dem Farbraumgraphen nach 8 durch die von der Korrekturschaltung 55 durchgeführte Korrektur der erste Bereich α und der zweite Bereich β in den zweiten bzw. dritten Quadranten verschoben, die rot bzw. rot-violett entsprechen. Demnach ist in Folge der Korrektur die Farbe des verdächtigen Gewebes (deren Koordinaten vor der Korrektur in dem ersten und dem zweiten Bereich liegen) von der Farbe des übrigen Gewebes, deren Koordinaten in dem Hauptbereich liegen, deutlich unterscheidbar. Die erzeugten Datenkomponenten Crl und Cbl werden an die Verstärkungsschaltung 57 gesendet. Die von der Verstärkungsschaltung 57 vorgenommene Datenverarbeitung wird später beschrieben.
  • Die von der Wandlerschaltung 52 erzeugten Datenkomponenten Yw und Yf werden an die Zweithistogrammschaltung 54 gesendet. Die Zweithistogrammschaltung 54 berechnet Luminanzdifferenzen, die im Folgenden als ΔY bezeichnet werden und jeweils für das gleiche Pixel die Differenz zwischen Yw und Yf darstellen. Zudem erzeugt die Zweithistogrammschaltung 54 das Histogramm von ΔY der Pixeldaten eines einzelnen Fokus- oder Zielpixels sowie von acht Pixeln, die das Zielpixel umgeben und im Folgenden als Umgebungspixel bezeichnet werden. Alle Pixel werden einmal als Zielpixel ausgewählt, und für jedes Pixel wird das Histogramm der zugehörigen Luminanzdifferenz ΔY erzeugt. Die Zahl an Umgebungspixeln kann durch die Eingabe eines entsprechenden Befehls an den Eingabeblock 23 geändert werden.
  • Das erzeugte Histogramm von ΔY wird in Form von ΔY-Histogrammdaten, im Folgenden als HΔY bezeichnet, mit Yf und ΔY an die Parameterrechenschaltung 56 gesendet. Die Parameterrechenschaltung 56 berechnet einen Hervorhebungs- oder Verstärkungsparameter auf Grundlage der Luminanzdifferenz ΔY jedes Pixels. Der Verstärkungsparameter wird mit Crl und Cbl multipliziert, um den Farbton zu verstärken.
  • Der Verstärkungsparameter wird anhand einer Funktion berechnet, in der der Verstärkungsparameter proportional zum Absolutwert von ΔY zunimmt. Wie in 9 gezeigt, wird der Verstärkungsparameter beispielsweise berechnet, indem ΔY mit einem Koeffizienten (k) multipliziert wird. Der Koeffizient (k) kann auf einen Wert größer als 1 geändert werden, indem ein entsprechender Befehl in den Eingabeblock 23 eingegeben wird. Anstatt den Verstärkungsparameter zu berechnen, kann Letzterer auch anhand einer Tabelle ermittelt werden, die Zuordnungen zwischen den Verstärkungsparametern und den Luminanzdifferenzen enthält, die in einem Speicher gespeichert sind.
  • Die Parameterrechenschaltung 56 nimmt eine Feineinstellung des berechneten Verstärkungsparameters auf Grundlage der Histogrammdaten HΔY vor. Für die Feineinstellung werden für die neun Luminanzdifferenzen ΔY der neun Pixel, die eingegebenes Zielpixel sowie die acht umgebenden Pixel beinhalten, auf Grundlage der Histogrammdaten HΔY entweder aufsteigende oder abfallende ΔY-Rangfolgen der Zielpixel herangezogen.
  • Der Verstärkungsparameter wird mit einem Feineinstellungskorrekturwert multipliziert, der entsprechend dem erfassten Rang der Luminanzdifferenz ΔY des Zielpixels bestimmt worden ist. Dann wird ein feinjustierter Verstärkungsparameter berechnet. Der Feineinstellungskorrekturwert wird maximal auf 1 gesetzt, wenn er in der Mitte der Gruppe von Pixeln in den Histogrammdaten HΔY rangiert. Ist die Anordnung in der Rangfolge durch den fünften Rang gegeben, so wird in diesem Fall der Feineinstellungskorrekturwert auf 1 gesetzt. Der Feineinstellungskorrekturwert wird mit zunehmendem Abstand des erfassten Ranges von dem mittleren Rang verringert. So wird beispielsweise der Feineinstellungskorrekturwert auf 0,6 gesetzt, wenn der erfasste Rang der erste oder neunte Rang ist, auf 0,7, wenn der erfasste Rang der zweite oder achte Rang ist, auf 0,8, wenn der erfasste Rang der dritte oder siebente Rang ist, und auf 0,9, wenn der erfasste Rang der vierte oder sechste Rang ist.
  • Die auf den feinjustierten Verstärkungsparameter bezogenen Daten (vgl. „P'“) werden der Verstärkungsschaltung 57 von der Parameterrechenschaltung 56 mitgeteilt. Ferner werden die Datenkomponenten Yf von der Parameterrechenschaltung 56 an die Zweitverarbeitungsschaltung 58 gesendet.
  • Wie oben beschrieben, empfängt die Verstärkungsschaltung 57 die Datenkomponenten Crl und Cbl zusätzlich zu dem feinjustierten Verstärkungsparameter. Die Verstärkungsschaltung 57 multipliziert die Datenkomponenten Crl und Cbl mit dem feinjustierten Verstärkungsparameter und erzeugt dann verstärkte Chrominanzdifferenzdatenkomponenten für Rot und Blau, im Folgenden als Cr2 bzw. Cb2 bezeichnet. Die erzeugten Datenkomponenten Cr2 und Cb2 werden an die Zweitverarbeitungsschaltung 58 gesendet.
  • Wie oben beschrieben empfängt die Zweitverarbeitungsschaltung 58 die Datenkomponenten Yf, Cr2 und Cb2. Die Zweitverarbeitungsschaltung 58 nimmt an den auf den Datenkomponenten Yf, Cr2 und Cb2 basierenden Bilddaten eine vorbestimmte Datenverarbeitung sowie eine D/A-Wandlung vor. Dann werden die Bilddaten in ein Bildsignal gewandelt. Die Zweitverarbeitungsschaltung 58 erzeugt auf Grundlage des Bildsignals ein Videosignal und sendet das Videosignal an den Monitor 11. Ein dem empfangenen Videosignal entsprechendes Bild wird auf dem Monitor 11 angezeigt.
  • In einem Bild, das in dem zweiten Fluoreszenz-Beobachtungsmodus angezeigt wird, ist in Folge der Korrektur der Datenkomponenten Crf und Cbf ein Teil eines Objektes, das mit einem gegenüber umliegenden Teilen unterschiedlichen Emissionsmuster autofluoresziert, mit einer Farbe gefärbt, die deutlich unterschiedlich gegenüber der Farbe in diesen umliegenden Teilen ist.
  • Die Datenkomponenten Crl und Cbl werden mit dem feinjustierten Verstärkungsparameter multipliziert, der proportional zum Absolutwert der Luminanzdifferenz ΔY zunimmt. Wie in 8 gezeigt, werden so der erste und der zweite Bereich (vgl. α und β), die durch die Korrektur schon verschoben worden sind, noch weiter vom Koordinatenursprung separiert. Die Farbsättigung nimmt demnach proportional zum Absolutwert von ΔY zu. Der sichtbare Unterschied zwischen Teilen, in denen die Absolutwerte von ΔY größer als die umliegender Teile sind, wird noch deutlicher.
  • An dem Verstärkungsparameter wird anhand des Feineinstellungskorrekturwertes eine Feineinstellung vorgenommen. Durch diese Feineinstellung wird, obgleich ΔY von Rauschen beeinflusst ist, der Verstärkungsparameter so eingestellt, dass er kleiner als der ursprünglich bestimmte Parameter ist, wenn ΔY des Zielpixels deutlich von den entsprechenden Größen der umgebenden Pixel verschieden ist. Durch die Feineinstellung des Verstärkungsparameters wird so der Einfluss des Rauschens verringert.
  • Im Folgenden werden unter Bezugnahme auf das Flussdiagramm nach 10 Operationen erläutert, welche die Systemsteuerung 21 zum Erzeugen eines Videosignals in dem zweiten Fluoreszenz-Beobachtungsmodus durchführt. Diese Operationen zur Erzeugung des Videosignals in dem zweiten Fluoreszenz-Beobachtungsmodus beginnen, wenn die Betriebsart des Endoskopsystems 10 auf den zweiten Fluoreszenz-Beobachtungsmodus geändert wird. Die Operationen enden, wenn die Betriebsart wieder in einen anderen Modus geändert wird.
  • In Schritt S100 weist die Systemsteuerung 21 die Lichtquelleneinheit 41 an, Weißlicht auszugeben. In dem auf Schritt S100 folgenden Schritt S101 weist die Systemsteuerung 21 die Abbildungsvorrichtung 32 an, ein optisches Bild eines mit Weißlicht beleuchteten Objektbildes aufzunehmen und ein Weißlichtbildsignal zu erzeugen. Nach der Erzeugung des Weißlichtbildsignals fährt der Prozess mit Schritt S102 fort.
  • In Schritt S102 weist die Systemsteuerung 21 die Bildverarbeitungseinheit 50 an, auf Grundlage der Datenkomponenten Rw, Gw und Bw des erzeugten Weißlichtbildsignals die Datenkomponenten Yw, Crw und Cbw zu erzeugen. In dem auf den Schritt S102 folgenden Schritt S103 weist die Systemsteuerung 21 die Bildverarbeitungseinheit 50 an, Yw, Crw und Cbw in dem RAM zu speichern.
  • In dem auf den Schritt S 103 folgenden Schritt S104 weist die Systemsteuerung 21 die Lichtquelleneinheit 40 an, das Anregungslicht auszusenden. In dem auf den Schritt S104 folgenden Schritt S105 weist die Systemsteuerung 21 die Abbildungsvorrichtung 32 an, ein optisches Bild eines mit dem Anregungslicht beleuchteten Objektes aufzunehmen und ein Fluoreszenzbildsignal zu erzeugen. Nach der Erzeugung des Fluoreszenzbildsignals fährt der Prozess mit Schritt S106 fort.
  • In Schritt S106 weist die Systemsteuerung 21 die Bildverarbeitungseinheit 50 an, auf Grundlage der Datenkomponenten Rf, Gf und Bf des erzeugten Fluoreszenzbildsignals Datenkomponenten Yf, Crf und Cbf zu erzeugen. In dem auf den Schritt S106 folgenden Schritt S107 weist die Systemsteuerung 21 die Bildverarbeitungseinheit 50 an, Yf, Crf und Cbf in dem RAM zu speichern. Nach der Speicherung fährt der Schritt mit S108 fort.
  • In Schritt S108 weist die Systemsteuerung 21 die Bildverarbeitungseinheit 50 an, die Histogrammdaten Her und Hcb auf Grundlage die in dem RAM gespeicherten Datenkomponenten Crf und Cbf zu erzeugen. In Schritt S109 weist die Systemsteuerung 21 die Bildverarbeitungseinheit 50 an, die Datenkomponenten Crl und Cbl zu erzeugen, indem die Datenkomponenten Crf und Cbf auf Grundlage der Histogrammdaten Her und Hcb korrigiert werden. Nach der Korrektur der Datenkomponenten Crf und Cbf fährt der Prozess mit Schritt S110 fort.
  • In Schritt S110 weist die Systemsteuerung 21 die Bildverarbeitungseinheit 50 an, ΔY zu berechnen. Ferner weist die Systemsteuerung 21 die Bildverarbeitungseinheit 50 an, aus den berechneten Luminanzdifferenzen ΔY die Histogrammdaten HΔY zu erzeugen. Nach der Erzeugung von HΔY fährt der Prozess mit Schritt S111 fort.
  • In Schritt S111 weist die Systemsteuerung 21 die Bildverarbeitungseinheit 50 an, den feinjustierten Verstärkungsparameter auf Grundlage von ΔY und HΔY zu berechnen, die in Schritt S110 berechnet worden sind. In dem auf den Schritt S111 folgenden Schritt S112 weist die Systemsteuerung 21 die Bildverarbeitungseinheit 50 an, die Datenkomponenten Cr2 und Cb2 zu berechnen, indem die Datenkomponenten Crl und Cbl mit dem feinjustierten Verstärkungsparameter multipliziert werden.
  • In dem auf den Schritt S112 folgenden Schritt S113 weist die Systemsteuerung 21 die Bildverarbeitungseinheit 50 an, ein Videosignal unter Verwendung der Datenkomponenten Yf, die in Schritt S107 in dem RAM gespeichert worden ist, und den Datenkomponenten Cr2 und Cb2, die in Schritt S112 erzeugt worden sind, zu erzeugen. Nach der Erzeugung des Videosignals kehrt der Prozess zu Schritt S100 zurück.
  • In dem oben beschriebenen ersten Ausführungsbeispiel ist es möglich, ein Bild zu erzeugen, in dem ein Teil eines Objektes, der mit einem gegenüber den umliegenden Teilen unterschiedlichen Emissionsmuster autofluoresziert oder in dem der Luminanzwert kleiner als der von gesundem Gewebe ist, so gefärbt ist, dass dieser Teil von umliegenden Objektteilen unterscheidbar ist.
  • Im Folgenden wird ein Endoskopsystem mit einem Endoskopprozessor nach zweitem Ausführungsbeispiel beschrieben. Der primäre Unterschied zwischen dem zweiten Ausführungsbeispiel und dem ersten Ausführungsbeispiel liegt in dem Verfahren zur Verringerung des Einflusses von Rauschen. Das zweite Ausführungsbeispiel wird im Folgenden hauptsächlich anhand derjenigen Strukturen und Funktionen beschrieben, in denen sich die beiden Ausführungsbeispiele voneinander unterscheiden. Für Strukturen, die in den beiden Ausführungsbeispielen einander entsprechen, werden gleiche Bezugszeichen verwendet.
  • In dem zweiten Ausführungsbeispiel sind sämtliche Komponenten mit Ausnahme der in dem Endoskopprozessor 20 vorgesehenen Bildverarbeitungseinheit die gleichen wie in dem ersten Ausführungsbeispiel.
  • Wie in 11 gezeigt, enthält eine Bildverarbeitungseinheit 500 eine Erstverarbeitungsschaltung 51, eine Wandlerschaltung 52, eine Ersthistogrammschaltung 53, eine Korrekturschaltung 55, eine Parameterrechenschaltung 56, eine Verstärkungsschaltung 57 und eine Zweitverarbeitungsschaltung 58, wie in dem ersten Ausführungsbeispiel. Zudem enthält die Bildverarbeitungseinheit 500 im Unterschied zum ersten Ausführungsbeispiel eine Filterschaltung 59.
  • Die Funktionen der Erstverarbeitungsschaltung 51, der Wandlerschaltung 52, der Ersthistogrammschaltung 53, der Korrekturschaltung 55, der Verstärkungsschaltung 57 und der Zweitverarbeitungsschaltung 58 sind die gleichen wie in dem ersten Ausführungsbeispiel.
  • Die Datenkomponenten Yw und Yf, die von der Wandlerschaltung 52 erzeugt worden sind, werden an die Filterschaltung 59 gesendet. Die Filterschaltung 59 berechnet ΔY auf Grundlage von Yw und Yf. Zudem führt die Filterschaltung 59 eine Laplace-Filterung oder Median-Filterung an der Luminanzdifferenz ΔY eines als Zielpixel ausgewählten Pixels unter Verwendung der Luminanzdifferenzen ΔY der acht das Zielpixel umgebenden Pixel durch.
  • Die dem Filterprozess unterzogene Luminanzdifferenz ΔY wird zusammen mit Yf der Parameterrechenschaltung 560 mitgeteilt. Die Parameterrechenschaltung 560 berechnet wie in dem ersten Ausführungsbeispiel einen Verstärkungsparameter. Jedoch teilt die Parameterrechenschaltung 560 im Unterschied zum ersten Ausführungsbeispiel den Verstärkungsparameter der Verstärkungsschaltung 57 ohne Feineinstellung mit.
  • In dem zweiten Ausführungsbeispiel wird die gleiche technische Wirkung wie in dem ersten Ausführungsbeispiel erzielt. Der Einfluss von Rauschen auf die Luminanzdifferenz ΔY wird in dem ersten Ausführungsbeispiel durch die Filterung verringert, während dies in dem ersten Ausführungsbeispiel durch die Verwendung des Histogramms von ΔY erfolgt.
  • In dem ersten und zweiten Ausführungsbeispiel werden die Datenkomponenten Crl und Cbl so verstärkt, dass die Differenz (Einstelldifferenz) zwischen den Datenpegeln der Datenkomponenten Cr2, Cb2 jedes Pixels und Null (Standarddatenpegel) proportional zum Absolutwert von ΔY jedes Pixels zunimmt. Jedoch können die Datenkomponenten Crl und Cbl auch nach einem anderen Verfahren auf Grundlage von ΔY verstärkt werden.
  • In dem ersten und zweiten Ausführungsbeispiel werden die Datenkomponenten Crl und Cbl mit einem Verstärkungsparameter multipliziert, der mit dem Absolutwert von ΔY variiert. Nur wenn ΔY über einem Schwellwert liegt, ist es jedoch auch möglich, Crl und Cbl mit einem konstanten Verstärkungsparameter zu multiplizieren.
  • In dem ersten und zweiten Ausführungsbeispiel werden die Datenkomponenten Crl und Cbl auf Grundlage des Absolutwertes von ΔY verstärkt. Die Datenkomponenten Crl und Cbl können jedoch auch dazu verwendet werden, ein Videosignal ohne Verstärkung zu erzeugen. Der Unterschied in dem Fluoreszenzemissionsmuster kann auch schon ohne Verstärkung deutlich angezeigt werden.
  • In dem ersten und zweiten Ausführungsbeispiel wird der Einfluss des in die Pixeldaten eines Zielpixels eingemischten Rauschens unter Verwendung der Luminanzdifferenzen ΔY der Umgebungspixel verringert. Es ist bekannt, dass ein Bereich des Gewebes anders autofluoresziert als umliegende Bereiche oder einen Luminanzwert aufweist, der kleiner als der von gesundem Gewebe ist. Auch ohne Rauschunterdrückung ist es noch möglich, ein Bild zu erzeugen, in dem der genannte Bereich so gefärbt ist, dass er von umliegenden Bereichen deutlich unterscheidbar ist.
  • In dem ersten und zweiten Ausführungsbeispiel werden die Chrominanzdifferenzdatenkomponenten so korrigiert, dass die Datenpegel der Chrominanzdifferenzdatenkomponenten, deren Häufigkeiten in dem Histogramm der Chrominanzdifferenzdatenkomponenten am größten sind, annähernd Null wird. Die gleiche Wirkung wie in dem ersten und zweiten Ausführungsbeispiel kann jedoch auch erzielt werden, wenn die Chrominanzdifferenzdatenkomponenten so korrigiert werden, dass ein repräsentativer Wert, der auf Grundlage einer Vielzahl von Chrominanzdifferenzdatenkomponenten berechnet wird, annähernd Null wird. Ein solcher repräsentativer Wert ist beispielsweise ein Mittelwert der Chrominanzdifferenzdatenkomponenten, die in den dem Bild entsprechenden Pixeldaten enthalten sind.
  • In dem ersten und zweiten Ausführungsbeispiel werden die Chrominanzdifferenzdatenkomponenten so korrigiert, dass der Datenpegel der Chrominanzdifferenzdatenkomponenten, dessen Häufigkeit in dem Histogramm der Chrominanzdifferenzdatenkomponenten am größten ist, annähernd Null wird. Jedoch ist der Standardwert, auf den der Datenpegel der Chrominanzdifferenzdatenkomponenten, dessen Häufigkeit am größten ist, anzupassen ist, nicht auf Null beschränkt. Die gleiche Wirkung wie in dem ersten und zweiten Ausführungsbeispiel kann erzielt werden, wenn die Chrominanzdifferenzdatenkomponenten so korrigiert werden, dass der Datenpegel der Chrominanzdifferenzdatenkomponenten, dessen Häufigkeit am größten ist, auf einen Standardwert angepasst wird, der in der Nähe von Null liegt, jedoch nicht gleich Null ist.
  • Im ersten und zweiten Ausführungsbeispiel kann der Koeffizient (k), der mit dem Absolutwert von ΔY multipliziert wird, um den Verstärkungsparameter zu berechnen, über einen entsprechenden Befehl, der in den Eingabeblock 23 eingegeben wird, geändert werden. Der Koeffizient kann jedoch auch auf einen konstanten Wert eingestellt sein.
  • In dem ersten und zweiten Ausführungsbeispiel werden die Chrominanzdifferenzdatenkomponenten auf Grundlage der Rot-, Grün- und Blau-Datenkomponenten erzeugt und dann diese erzeugten Chrominanzdifferenzdatenkomponenten korrigiert. Es ist jedoch ebenso möglich, die Rot-, Grün- und Blau-Datenkomponenten direkt zu korrigieren. Die gleiche Wirkung wie in dem ersten und zweiten Ausführungsbeispiel kann erzielt werden, wenn die Rot-, Grün- und Blau-Datenkomponenten so korrigiert werden, dass der Datenpegel der Chrominanzdifferenzdatenkomponenten, dessen Häufigkeit in dem Histogramm der Chrominanzdifferenzdatenkomponenten, die den korrigierten Rot-, Grün- und Blau-Datenkomponenten entsprechen, am höchsten ist, dem Wert Null angenähert wird.
  • In dem ersten und zweiten Ausführungsbeispiel ist die Lichtempfangsfläche der Abbildungsvorrichtung 32 mit einem RGB-Farbfilter bedeckt. Die Lichtempfangsfläche kann jedoch auch mit einem Mg-Cy-Ye-G-Komplementärfarbfilter bedeckt sein. In diesem Fall können anhand der Magenta-, Cyan-, Gelb- und Grün-Datenkomponenten Luminanz- und Chrominanzdifferenzdatenkomponenten erzeugt werden.
  • In dem ersten und zweiten Ausführungsbeispiel wird an der Luminanzdifferenz ΔY von Zielpixeln eine Laplace- oder Median-Filterverarbeitung vorgenommen. Es kann jedoch auch eine andere Filterung zur Rauschunterdrückung durchgeführt werden.

Claims (13)

  1. Endoskopprozessor mit: - einem Empfänger, der ein einem aufgenommenen Objekt entsprechendes Bildsignal empfängt, das von einer Abbildungsvorrichtung erzeugt wird und eine Vielzahl von Pixelsignalen enthält, die einer Vielzahl von ein optisches Bild des Objektes bildenden Pixeln zugeordnet sind; und - einem Korrekturschaltungsblock, der an den Pixelsignalen eine Erstsignalverarbeitung derart vornimmt, dass ein repräsentativer Wert einem Standardwert angepasst wird, wenn das von dem Empfänger empfangene Bildsignal ein Fluoreszenzbildsignal ist, wobei der repräsentative Wert auf Grundlage einer Vielzahl von Chrominanzdifferenzwerten, die einer Vielzahl von Pixelsignalen entsprechen, berechnet wird und das Fluoreszenzbildsignal erzeugt wird, wenn das Objekt mit Anregungslicht beleuchtet wird, welches ein Organ zur Fluoreszenz anregt.
  2. Endoskopprozessor nach Anspruch 1, bei dem der Korrekturschaltungsblock einen ersten Erzeugungsschaltungsblock, einen ersten Rechenschaltungsblock und einen Hauptkorrekturschaltungsblock umfasst, der erste Erzeugungsschaltungsblock Chrominanzdifferenzsignalkomponenten, die den Chrominanzdifferenzwerten entsprechen, auf Grundlage des Pixelsignals erzeugt, der erste Rechenschaltungsblock den repräsentativen Wert auf Grundlage der Chrominanzdifferenzsignalkomponenten berechnet, die den Pixeln in einem einzelnen Bildsignal zugeordnet sind, und der Hauptkorrekturschaltungsblock die Chrominanzdifferenzsignalkomponenten sämtlicher Pixel so korrigiert, dass der repräsentative Wert dem Standardwert angepasst ist.
  3. Endoskopprozessor nach Anspruch 2, bei dem der repräsentative Wert ein Signalpegel der Chrominanzdifferenzsignalkomponente ist, dessen Häufigkeit unter den Chrominanzdifferenzwerten am größten ist, oder der repräsentative Wert ein Mittelwert mehrerer Chrominanzdifferenzwerte ist.
  4. Endoskopprozessor nach Anspruch 2, bei dem die Farbe, die einem Chrominanzdifferenzwert, der dem Standardwert angepasst ist, entspricht, eine achromatische Farbe ist.
  5. Endoskopprozessor nach Anspruch 3, ferner umfassend: einen zweiten Erzeugungsschaltungsblock, der den Pixelsignalen entsprechende Luminanzsignalkomponenten auf Grundlage der Pixelsignale erzeugt; einen zweiten Rechenschaltungsblock, der Luminanzdifferenzen berechnet, die die Differenzen zwischen einem ersten und einem zweiten Luminanzwert für das gleiche Pixel darstellen, wobei der erste Luminanzwert einer Luminanzsignalkomponente entspricht, die auf einem Referenzbildsignal basiert, das bei Beleuchtung des Objektes mit Referenzlicht erzeugt wird, wobei das Wellenlängenband des Referenzlichtes breiter als das Wellenlangenband des Anregungslichtes ist, und wobei der zweite Luminanzwert einer Luminanzsignalkomponente entspricht, die auf dem Fluoreszenzbildsignal basiert; und - einen Farbverstärkungsschaltungsblock, der farbverstärkte Pixelsignale erzeugt, indem korrigierte Pixelsignale auf Grundlage der Luminanzdifferenzen eingestellt werden, wobei die korrigierten Pixelsignale die Pixelsignale sind, an denen der Korrekturschaltungsblock die erste Signalverarbeitung vorgenommen hat.
  6. Endoskopprozessor nach Anspruch 5, bei dem der Farbverstärkungsschaltungsblock die korrigierten Pixelsignale so einstellt, dass eine Einstelldifferenz zunimmt, wobei die Einstelldifferenz die Differenz zwischen dem dem korrigierten Pixelsignal entsprechenden Chrominanzdifferenzwert und dem Standardwert darstellt.
  7. Endoskopprozessor nach Anspruch 6, bei dem der Farbverstärkungsschaltungsblock die Einstelldifferenz proportional zur Luminanzdifferenz erhöht.
  8. Endoskopprozessor nach Anspruch 7, ferner umfassend ein Eingabegerät zur Eingage eines Befehls zum Ändern einer Rate, mit der der Farbverstärkungsschaltungsblock die Einstelldifferenz erhöht.
  9. Endoskopprozessor nach Anspruch 5, bei dem der Farbverstärkungsschaltungsblock eine Feineinstellung der farbverstärkten Pixelsignale unter Verwendung der Luminanzdifferenz von einem oder mehreren Umgebungspixeln vornimmt, wobei die Umgebungspixel Pixel sind, die ein zum Zwecke der Feineinstellung als Zielpixel ausgewähltes Pixel umgeben.
  10. Endoskopprozessor nach Anspruch 9, bei dem der Farbverstärkungsschalungsblock die Feineinstellung an den farbverstärkten Pixelsignalen vornimmt, indem die korrigierten Pixelsignale auf Grundlage der Luminanzdifferenz des Zielpixels eingestellt werden, die unter Verwendung der Luminanzdifferenz der Umgebungspixel einer Differenzialfilterung, einer Laplace-Filterung oder einer Median-Filterung unterzogen worden ist.
  11. Endoskopprozessor nach Anspruch 9, bei dem der Farbverstärkungsschaltungsblock die Feineinstellung der farbverstärkten Pixelsignale in Abhängigkeit eines Rangabstandes vornimmt, der in einer Rangfolge zwischen dem Rang eines Luminanzwertes des Zielpixels und einem Median-Rang von Luminanzwerten innerhalb einer Pixelgruppe vorhanden ist, die von dem Umgebungspixel oder den Umgebungspixeln sowie dem Zielpixel gebildet ist.
  12. Endoskopprozessor nach Anspruch 8, bei dem die Zahl der Umgebungspixel für die Feineinstellung der farbverstärkten Pixelsignale veränderbar ist.
  13. Endoskopsystem mit: einer Anregungslichtquelle, die ein Objekt mit Anregungslicht beleuchtet, das ein Organ zur Fluoreszenz anregt; einem elektronischen Endoskop, das ein einem aufgenommenen Objekt entsprechendes Bildsignal erzeugt, das eine Vielzahl von Pixelsignalen enthält, die einer Vielzahl von Pixeln zugeordnet sind, die ein optisches Bild des Objektes bilden; und - einem Korrekturschaltungsblock, der an den Pixelsignalen eine Erstsignalverarbeitung derart vornimmt, dass ein repräsentativer Wert einem Standardwert angepasst wird, wenn das von dem elektronischen Endoskop erzeugte Bildsignal ein Fluoreszenzbildsignal ist, wobei der repräsentative Wert auf Grundlage einer Vielzahl von Chrominanzdifferenzwerten berechnet wird, die einer Vielzahl von Pixelsignalen entsprechen, und wobei das Fluoreszenzbildsignal bei Beleuchtung des Objektes mit Anregungslicht erzeugt wird.
DE102009022331.2A 2008-05-21 2009-05-22 Endoskopprozessor und Endoskopsystem Active DE102009022331B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008133527A JP5244455B2 (ja) 2008-05-21 2008-05-21 内視鏡プロセッサおよび内視鏡システム
JP2008-133527 2008-05-21

Publications (2)

Publication Number Publication Date
DE102009022331A1 DE102009022331A1 (de) 2009-11-26
DE102009022331B4 true DE102009022331B4 (de) 2019-12-12

Family

ID=41212777

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009022331.2A Active DE102009022331B4 (de) 2008-05-21 2009-05-22 Endoskopprozessor und Endoskopsystem

Country Status (3)

Country Link
US (1) US8223198B2 (de)
JP (1) JP5244455B2 (de)
DE (1) DE102009022331B4 (de)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010131161A (ja) * 2008-12-04 2010-06-17 Hoya Corp 光走査型内視鏡プロセッサ、画像処理装置、および光走査型内視鏡システム
JP5396121B2 (ja) * 2009-03-26 2014-01-22 オリンパス株式会社 画像処理装置、撮像装置、画像処理プログラムおよび画像処理装置の作動方法
US9101268B2 (en) 2009-06-18 2015-08-11 Endochoice Innovation Center Ltd. Multi-camera endoscope
US9492063B2 (en) 2009-06-18 2016-11-15 Endochoice Innovation Center Ltd. Multi-viewing element endoscope
US11278190B2 (en) 2009-06-18 2022-03-22 Endochoice, Inc. Multi-viewing element endoscope
US9402533B2 (en) 2011-03-07 2016-08-02 Endochoice Innovation Center Ltd. Endoscope circuit board assembly
CA2765559C (en) 2009-06-18 2017-09-05 Peer Medical Ltd. Multi-camera endoscope
US8926502B2 (en) 2011-03-07 2015-01-06 Endochoice, Inc. Multi camera endoscope having a side service channel
US9901244B2 (en) 2009-06-18 2018-02-27 Endochoice, Inc. Circuit board assembly of a multiple viewing elements endoscope
US10165929B2 (en) 2009-06-18 2019-01-01 Endochoice, Inc. Compact multi-viewing element endoscope system
US11547275B2 (en) 2009-06-18 2023-01-10 Endochoice, Inc. Compact multi-viewing element endoscope system
US9642513B2 (en) 2009-06-18 2017-05-09 Endochoice Inc. Compact multi-viewing element endoscope system
US11864734B2 (en) 2009-06-18 2024-01-09 Endochoice, Inc. Multi-camera endoscope
US9706903B2 (en) 2009-06-18 2017-07-18 Endochoice, Inc. Multiple viewing elements endoscope system with modular imaging units
US9713417B2 (en) 2009-06-18 2017-07-25 Endochoice, Inc. Image capture assembly for use in a multi-viewing elements endoscope
US9872609B2 (en) 2009-06-18 2018-01-23 Endochoice Innovation Center Ltd. Multi-camera endoscope
US9101287B2 (en) 2011-03-07 2015-08-11 Endochoice Innovation Center Ltd. Multi camera endoscope assembly having multiple working channels
US10080486B2 (en) 2010-09-20 2018-09-25 Endochoice Innovation Center Ltd. Multi-camera endoscope having fluid channels
US9560953B2 (en) 2010-09-20 2017-02-07 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
JP5570373B2 (ja) * 2010-09-29 2014-08-13 富士フイルム株式会社 内視鏡システム
JP5244164B2 (ja) * 2010-10-18 2013-07-24 富士フイルム株式会社 内視鏡装置
JP5944912B2 (ja) 2010-10-28 2016-07-05 エンドチョイス イノベーション センター リミテッド マルチセンサ内視鏡のための光学系
EP2648602B1 (de) 2010-12-09 2018-07-18 EndoChoice Innovation Center Ltd. Flexible elektronische leiterplatte für ein mehrkamera-endoskop
US11889986B2 (en) 2010-12-09 2024-02-06 Endochoice, Inc. Flexible electronic circuit board for a multi-camera endoscope
JP6054874B2 (ja) 2010-12-09 2016-12-27 エンドチョイス イノベーション センター リミテッド マルチカメラ内視鏡用フレキシブル電子回路基板
JP5309120B2 (ja) * 2010-12-20 2013-10-09 富士フイルム株式会社 内視鏡装置
US9101266B2 (en) 2011-02-07 2015-08-11 Endochoice Innovation Center Ltd. Multi-element cover for a multi-camera endoscope
EP2604172B1 (de) 2011-12-13 2015-08-12 EndoChoice Innovation Center Ltd. Drehbarer Steckverbinder für ein Endoskop
CA2798716A1 (en) 2011-12-13 2013-06-13 Peermedical Ltd. Removable tip endoscope
US9560954B2 (en) 2012-07-24 2017-02-07 Endochoice, Inc. Connector for use with endoscope
US9986899B2 (en) 2013-03-28 2018-06-05 Endochoice, Inc. Manifold for a multiple viewing elements endoscope
US9993142B2 (en) 2013-03-28 2018-06-12 Endochoice, Inc. Fluid distribution device for a multiple viewing elements endoscope
US10499794B2 (en) 2013-05-09 2019-12-10 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
JP6113116B2 (ja) * 2014-03-31 2017-04-12 富士フイルム株式会社 医用画像処理装置及びその作動方法並びに内視鏡システム
JP6121368B2 (ja) * 2014-06-27 2017-04-26 富士フイルム株式会社 医用画像処理装置及びその作動方法並びに内視鏡システム
WO2016123705A1 (en) 2015-02-02 2016-08-11 Novadaq Technologies Inc. Methods and systems for characterizing tissue of a subject
CA2998698A1 (en) 2015-09-23 2017-03-30 Novadaq Technologies ULC Methods and systems for management of data derived from medical imaging
WO2018018160A1 (en) 2016-07-29 2018-02-01 Novadaq Technologies ULC Methods and systems for characterizing tissue of a subject utilizing machine learning
WO2018142658A1 (ja) * 2017-02-01 2018-08-09 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理装置の作動プログラム
JP6383829B2 (ja) * 2017-03-29 2018-08-29 富士フイルム株式会社 医用画像処理装置及びその作動方法並びに内視鏡システム
JP6456459B2 (ja) * 2017-11-16 2019-01-23 富士フイルム株式会社 医用画像処理装置
JP7053873B2 (ja) 2018-10-22 2022-04-12 オリンパス株式会社 画像処理装置および内視鏡システム
JP6659817B2 (ja) * 2018-12-18 2020-03-04 富士フイルム株式会社 医用画像処理装置
JP7374600B2 (ja) * 2019-03-22 2023-11-07 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
WO2021033326A1 (ja) * 2019-08-22 2021-02-25 オリンパス株式会社 撮像素子、内視鏡および内視鏡システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002143079A (ja) 2000-11-10 2002-05-21 Asahi Optical Co Ltd 電子内視鏡装置
JP2006192058A (ja) 2005-01-13 2006-07-27 Pentax Corp 画像処理装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2713837B2 (ja) * 1992-09-30 1998-02-16 オリンパス光学工業株式会社 電子内視鏡装置
JP2000013625A (ja) * 1998-06-24 2000-01-14 Canon Inc 画像処理方法、装置および記録媒体
JP2002192058A (ja) 2000-12-26 2002-07-10 Aisin Seiki Co Ltd 粉体塗布剤供給装置
JP2003000528A (ja) * 2001-06-27 2003-01-07 Fuji Photo Film Co Ltd 蛍光診断画像生成方法および装置
JP4864325B2 (ja) * 2005-01-13 2012-02-01 Hoya株式会社 画像処理装置
JP4761899B2 (ja) * 2005-09-12 2011-08-31 Hoya株式会社 電子内視鏡システム
JP5124102B2 (ja) 2006-05-16 2013-01-23 Hoya株式会社 内視鏡プロセッサ、画像処理プログラム、および内視鏡システム
JP2008099874A (ja) 2006-10-19 2008-05-01 Pentax Corp 内視鏡プロセッサおよび内視鏡システム
JP2009118898A (ja) 2007-11-12 2009-06-04 Hoya Corp 内視鏡プロセッサおよび内視鏡システム
JP2009136447A (ja) 2007-12-05 2009-06-25 Hoya Corp 光源制御システム、シャッタ制御システム。内視鏡プロセッサ、および内視鏡システム
JP2009136459A (ja) 2007-12-05 2009-06-25 Hoya Corp ノイズ除去システム、内視鏡プロセッサ、および内視鏡システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002143079A (ja) 2000-11-10 2002-05-21 Asahi Optical Co Ltd 電子内視鏡装置
JP2006192058A (ja) 2005-01-13 2006-07-27 Pentax Corp 画像処理装置

Also Published As

Publication number Publication date
JP5244455B2 (ja) 2013-07-24
US20090290017A1 (en) 2009-11-26
DE102009022331A1 (de) 2009-11-26
US8223198B2 (en) 2012-07-17
JP2009279150A (ja) 2009-12-03

Similar Documents

Publication Publication Date Title
DE102009022331B4 (de) Endoskopprozessor und Endoskopsystem
DE60130170T2 (de) Fluorezentlicht Bilddarstellungsverfahren und Gerät dafür
DE60203559T2 (de) Gerät zur Anzeige eines Fluoreszenzbildes
DE102006001647B4 (de) Bilddatenprozessor und elektronisches Endoskopsystem
DE102008005679B4 (de) Bildsignalverarbeitungseinheit
DE10351024B4 (de) Elektronische Endoskopeinrichtung
DE10164297B4 (de) Elektronisches Endoskopsystem
DE60031349T2 (de) Verfahren und Vorrichtung zur Erzeugung von Fluoreszenzbildern
DE112016004454B4 (de) Endoskopsystem und Bewertungswertberechnungseinrichtung
DE102004006260B4 (de) Videoendoskopeinrichtung
DE69629420T2 (de) Verfahren und Einrichtung zum Einstellen eines elektronischen Geräts
DE102009032249B4 (de) Signalverarbeitungsvorrichtung für ein elektronisches Endoskop und elektronisches Endoskopsystem
DE60224321T2 (de) Endoskopsystem zur Verwendung von normalem Licht und Fluoreszenz
DE102006005528A1 (de) Elektronisches Endoskopsystem
DE102006039932A1 (de) Elektronisches Endoskopsystem
DE102006038814A1 (de) Elektronisches Endoskop, Endoskoplichtquelleneinheit, Endoskopprozessor und elektronisches Endoskopsystem
DE10101064B4 (de) Elektronisches Endoskopsystem
DE602005003628T2 (de) Verfahren zur Regelung der Helligkeit und Bildbearbeitungsvorrichtung
DE10324693A1 (de) Vorrichtung zur automatischen Bildsignalverstärkung für ein elektronisches Endoskop
DE102008056921A1 (de) Endoskopprozessor und Endoskopsystem
DE3732435C3 (de) Verfahren und eine Einrichtung zum Feststellen einander entsprechender Bereiche in mehreren Bildern
DE10312468B4 (de) Elektronische Endoskopeinrichtung
DE102007022957A1 (de) Endoskopprozessor, Computerprogrammprodukt und Endoskopsystem
DE112019004863T5 (de) Elektronisches endoskopsystem und datenverarbeitungsvorrichtung
DE112017006226T5 (de) Lichtquelleneinrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20120620

R082 Change of representative

Representative=s name: SCHAUMBURG & PARTNER PATENTANWAELTE GBR, DE

Representative=s name: SCHAUMBURG UND PARTNER PATENTANWAELTE MBB, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final