DE10312468A1 - Elektronische Endoskopeinrichtung - Google Patents

Elektronische Endoskopeinrichtung

Info

Publication number
DE10312468A1
DE10312468A1 DE10312468A DE10312468A DE10312468A1 DE 10312468 A1 DE10312468 A1 DE 10312468A1 DE 10312468 A DE10312468 A DE 10312468A DE 10312468 A DE10312468 A DE 10312468A DE 10312468 A1 DE10312468 A1 DE 10312468A1
Authority
DE
Germany
Prior art keywords
area
image
mask
electronic
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10312468A
Other languages
English (en)
Other versions
DE10312468B4 (de
Inventor
Hiroyuki Kobayashi
Kohei Iketani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Pentax Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pentax Corp filed Critical Pentax Corp
Publication of DE10312468A1 publication Critical patent/DE10312468A1/de
Application granted granted Critical
Publication of DE10312468B4 publication Critical patent/DE10312468B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00059Operational features of endoscopes provided with identification means for the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Image Processing (AREA)
  • Image Input (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

Eine elektronische Endoskopeinrichtung umfasst eine Bildaufnahmevorrichtung (18), eine Objektivoptik (16), einen Korrekturspeicher (42), einen Maskendatenspeicher (22) und eine Korrektureinheit (120). Die Objektivoptik (16) erzeugt ein Objektbild auf einer Abbildungsfläche der Bildaufnahmevorrichtung (18). Der Korrekturspeicher (42) speichert eine Korrekturinformation, welche die Fehlausrichtung zwischen einem von der Objektivoptik (16) auf der Abbildungsfläche erzeugten Schärfenbereich (FR) und einem effektiven Bilderfassungsbereich (KR) der Bildaufnahmevorrichtung (18) angibt. Der Maskendatenspeicher (22) speichert Daten, die für eine elektronische Maskierung vorgesehen sind. Die Korrektureinheit (120) setzt einen elektronischen Maskenbereich (MW1 bis MW4) entsprechend der Kompensationsinformation um.

Description

  • Die Erfindung betrifft eine elektronische Endoskopeinrichtung. Insbesondere betrifft die Erfindung eine Maskierung von Bildsignalen, die mit einer Bildaufnahmevorrichtung erhalten werden.
  • In den vergangenen Jahren wurden elektronische Endoskope weitläufig zur instantanen Betrachtung des Körperinneren, z. B. der Innenwände von Verdauungsorganen und dergleichen eingesetzt. Ein solches elektronisches Endoskop umfasst ein den Einführteil bildendes flexibles Rohr, das in ein Organ eingeführt wird. An dem distalen Ende dieses Rohrs ist eine Bildaufnahmevorrichtung angebracht, die einer Objektivlinse zugeordnet ist. Die Bildaufnahmevorrichtung führt einer externen Bildsignalverarbeitungseinheit Bildsignale des Objektbildes zu, so dass die Bildsignalverarbeitungseinheit (Prozessor) aus diesen Bildsignalen ein Farbbild auf einem Monitorbildschirm wiedergibt.
  • Die Schärfentiefe der an dem distalen Ende des flexiblen Rohrs befestigten Objektivlinse ist relativ groß eingestellt, so dass ein Bild eines inneren Organs selbst dann über einen weiten Bereich scharf, d. h. fokussiert aufgenommen werden kann, wenn die Optik eine feste Scharfeinstellung hat. So ist für die Objektivlinse eine vergleichsweise kurze Brennweite vorgesehen. Ist jedoch die Brennweite der Objektivlinse kurz, um eine ausreichend große Tiefenschärfe ohne Verringerung der Blendenöffnung zu gewährleisten, so wird das auf der Abbildungsfläche oder Abbildungsebene der Bildaufnahmevorrichtung erzeugte Bild mit größer werdendem radialen Abstand von der optischen Achse infolge der Aberration der Objektivlinse, z. B. des Astigmatismus, zunehmend verschwommen oder unscharf. Der äußere Randbereich, in dem die starke Unschärfe auftritt, wird deshalb maskiert, d. h. abgedeckt, und es wird nur der Schärfenbereich, in dem ein deutliches Bild erzeugt wird, auf dem Monitorbildschirm dargestellt.
  • Eine solche Maskierung wird beispielsweise dadurch erreicht, dass an dem oben genannten äußeren Randbereich der Abbildungsfläche der Bildaufnahmevorrichtung eine optische Maske angeordnet wird. Diese Maske schirmt den äußeren Randbereich gegenüber dem einfallenden Licht ab. Die von dem Randbereich ausgegebenen Bildsignale werden im Wesentlichen dem Schwarzpegel angeglichen. Ein weiteres Beispiel für eine solche Maskierung ist eine sogenannte elektronische Maskierung. Eine solche elektronische Maskierung wird dadurch realisiert, dass die zu dem oben genannten äußeren Randbereich der Abbildungsfläche gehörigen Bildsignale in einer Bildverarbeitungseinheit durch Schwarzpegelsignale ersetzt werden. In einem herkömmlichen Maskierungsverfahren befindet sich der zu maskierende oder abzudeckende Bereich, der im Folgenden als Maskierungsbereich bezeichnet wird, in dem Bereich, der den Schärfenbereich umgibt. Der Maskierungsbereich wird schon im Vorfeld in der Entwurfsphase unter Berücksichtigung der Größe des Schärfenbereichs und dessen Position relativ zur Abbildungsfläche festgelegt.
  • Da das flexible Rohr eines elektronischen Endoskops in einen engen Raum, z. B. ein Organ, eingeführt wird, beträgt dessen maximaler Durchmesser höchstens einige Zentimeter. Die Bildaufnahmevorrichtung und die Objektivlinse müssen deshalb sehr klein bemessen sein. Dadurch sind eine präzise Anbringung der Bildaufnahmevorrichtung und der Objektivlinse sowie eine präzise Anbringung der optischen Maske an der Abbildungsfläche der Bildaufnahmevorrichtung erforderlich. In der Praxis sind die Positionen des Schärfenbereichs, des Abbildungsbereichs (effektiver Bilderfassungsbereich oder Bildausgabebereich) und des Maskierungsbereichs infolge einer geringen relativen Versetzung zwischen der optischen Achse der Objektivlinse, dem Mittelpunkt des Abbildungsbereichs und dem Mittelpunkt der optischen Maske nicht genau zueinander, d. h. miteinander fluchtend ausgerichtet. Diese Fehler in der Ausrichtung sind typisch für ein solches elektronisches Endoskop.
  • Wird ein elektronisches Endoskop, das an die Bildsignalverarbeitungseinheit angeschlossen wird, durch ein anderes ersetzt, so wird auch die Ausrichtung der Objektivlinse, der Abbildungsfläche und der optischen Maske geändert, wodurch möglicherweise ein unerwünschter Bildteil wie der Unschärfenbereich auf dem Monitor erscheint.
  • Aufgabe der Erfindung ist es, eine elektronische Endoskopeinrichtung, ein elektronisches Endoskop und eine Bildsignalverarbeitungseinheit anzugeben, die es möglich machen, die Auswirkungen einer Fehlausrichtung zwischen Abbildungsbereich und Schärfenbereich in einem wiedergegebenen Bild zu kompensieren.
  • Die Erfindung löst diese Aufgabe durch die Gegenstände der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen sind in den Unteransprüchen angegeben.
  • Die Erfindung wird im Folgenden an Hand der Figuren näher erläutert. Darin zeigen:
  • Fig. 1 ein Blockdiagramm eines elektronischen Endoskopsystems als Ausführungsbeispiel,
  • Fig. 2 eine vergrößerte Schnittansicht des distalen Endes eines flexiblen Einführteils des elektronischen Endoskops,
  • Fig. 3 die Anordnung des lichtempfindlichen Bereichs, des Abbildungsbereichs, des Schärfenbereichs und des durch die optische Maske verursachten Verdunkelungsbereichs,
  • Fig. 4 ein Beispiel der in dem ROM gespeicherten Maskendaten,
  • Fig. 5 die Inhalte der der sekundären Bildsignalverarbeitungsschaltung zugeführten digitalen Komponentensignale bei der in Fig. 3 gezeigten Anordnung der maskierten Bereiche und bei Verwendung der in Fig. 4 gezeigten Maskendaten,
  • Fig. 6 das auf dem Bildschirm des Monitors dargestellte Bild bei Verwendung der in Fig. 4 gezeigten Maskendaten,
  • Fig. 7 die Anordnung des lichtempfindlichen Bereichs, des Abbildungsbereichs, des Schärfenbereichs und des durch die optische Maske verursachten Verdunkelungsbereichs bei Fehlausrichtung des Schärfenbereichs gegenüber dem Abbildungsbereich,
  • Fig. 8 die Inhalte der der sekundären Bildsignalverarbeitungsschaltung zugeführten digitalen Komponentensignale bei einer in Fig. 7 gezeigten Versetzung (α, β) der Position des Bildmittelpunktes Ck gegenüber dem Hauptpunkt Cf und bei Verwendung der in Fig. 4 gezeigten Maskendaten, und
  • Fig. 9 ein Flussdiagramm eines in der Systemsteuerschaltung ausgeführten Maskierungsprozesses.
  • Die Erfindung wird an Hand der in den Figuren gezeigten Ausführungsbeispiele beschrieben.
  • Fig. 1 ist ein Blockdiagramm einer elektronischen Endoskopeinrichtung, die ein Ausführungsbeispiel der Erfindung darstellt. Die elektronische Endoskopeinrichtung nach Fig. 1 ist so ausgebildet, dass sie ein optisches Bild eines Objektes in elektrische Bildsignale wandelt und das Objektbild auf einem Monitorbildschirm darstellt. In der elektronischen Endoskopeinrichtung wird ein System zur Simultanbilderzeugung eingesetzt, um ein Farbbild wiederzugeben. So wird eine Bildaufnahmevorrichtung mit einem chipintegrierten, d. h. auf einem Chip befindlichen Farbfilter verwendet, um gleichzeitig mehrere Farbkomponentenbilder aufzunehmen. In der elektronischen Endoskopeinrichtung sind die Bildsignale beispielsweise auf dem NTSC- oder den PAL-Standard angepasst.
  • Die elektronische Endoskopeinrichtung enthält ein elektronisches Endoskop 10 mit einem flexiblen Rohr 20 als Einführteil, eine Bildsignalverarbeitungseinheit 100 und einen Monitor 200. Das elektronische Endoskop 10 ist lösbar an die Bildsignalverarbeitungseinheit 100 angeschlossen. Auch der Monitor 200 ist an die Bildsignalverarbeitungseinheit 100 angeschlossen.
  • In dem elektronischen Endoskop 10 befindet sich ein Lichtleiter 12, der aus einem Lichtleitfaserbündel besteht und in den Figuren schraffiert dargestellt ist. Ein Ende des Lichtleiters 12 befindet sich an einem distalen Ende 20a des flexiblen Rohrs 20. Das andere Ende des Lichtleiters 12 ist optisch an eine Lichtquelleneinheit 102 gekoppelt, die sich in der Bildsignalverarbeitungseinheit 100 befindet, wenn das elektronische Endoskop 10 an der Bildsignalverarbeitungseinheit 100 angebracht ist. Das aus der Lichtquelleneinheit 102 stammende Beleuchtungslicht wird über den Lichtleiter 12 an das distale Ende 20a des flexiblen Rohrs 20 gesendet, so dass ein vor dem distalen Ende 20a angeordnetes Objekt, z. B. ein Organ X, beleuchtet wird.
  • An dem distalen Ende 20a des flexiblen Rohrs 20 ist ein Bildsensor 14 vorgesehen, der z. B. eine Festkörper-Bildaufnahmevorrichtung wie eine in Fig. 2 gezeigte CCD 18 enthält. Wie in der vergrößerten Schnittansicht nach Fig. 2 gezeigt, enthält der Bildsensor 14 ein der CCD 18 zugeordnetes Objektivlinsensystem 16. Eine optische Maske 22 ist auf der dem Objektivlinsensystem 16 zugewandten Abbildungsfläche der CCD 18 integriert. Das Objektivlinsensystem 16 erzeugt das optische Bild des mit weißem Beleuchtungslicht bestrahlten Objektes auf der Abbildungsfläche der CCD 18. In an sich bekannter Weise wird ein Farbbild durch ein nicht gezeigtes, an der Abbildungsfläche der CCD 18 angebrachtes Komplementärfarbfilter in mehrere Farbkomponenten separiert. Das auf optischem Wege auf der CCD 18 erzeugte Objektbild wird auf fotoelektrischem Wege in analoge Bildsignale gewandelt, so dass der Bildsensor 14 auf elektronischem Wege ein Einzelbild aufnimmt. Die analogen Signale werden dann nacheinander aus der CCD 18 ausgelesen, und zwar gemäß CCD-Treibersignalen, die eine in der Bildsignalverarbeitungseinheit 100 vorgesehene Zeitsteuerschaltung 112 erzeugt. Der äußere Randbereich oder Unschärfenbereich, in dem das Objektivlinsensystem 16 das Bild verschwommen oder unscharf abbildet, ist durch die optische Maske 22 von dem Licht abgeschirmt.
  • Von dem Bildsensor 14 ausgegebene analoge Bildsignale werden einer primären Bildsignalverarbeitungsschaltung 104 zugeführt und Prozessen wie z. B. einem Klammer- oder Randwertprozess, einem Abtast-Halte-Prozess, einem Gammakorrekturprozess, einem Weißabgleichsprozess und einem Verstärkungsprozess unterzogen, um die Eigenschaften des Bildsensors 14 und die optischen Eigenschaften des elektronischen Endoskops 10 aufeinander abzustimmen. Die Bildsignale werden dann in digitalisierte Komponentensignale transformiert, die aus Luminanzsignalen Y sowie Farbdifferenzsignalen Cb und Cr bestehen und wiederum in einem Bildspeicher 106 gespeichert.
  • Die auf ein Einzelbild bezogenen digitalisierten Komponentensignale werden aus dem Bildspeicher 106 ausgelesen und einer sekundären Bildsignalverarbeitungsschaltung 108 zugeführt, wobei sie in analoge Farbvideosignale gewandelt werden, z. B. in zusammengesetzte Videosignale nach dem NTSC- oder dem PAL- Standard, die Multiplexsignale der Luminanzsignale, der Farbdifferenzsignale und zusammengesetzter Synchronisationssignale darstellen. Die analogen Farbvideosignale werden dann von der Bildsignalverarbeitungseinheit 100 an den Monitor 200 ausgegeben, auf dessen Bildschirm das Objektbild entsprechend den analogen Farbvideosignalen dargestellt wird. Die analogen Farbvideosignale können ferner von der Bildsignalverarbeitungseinheit 100 an ein Bildaufzeichnungsgerät 300, z. B. einen Videorecorder, ausgegeben werden, um das Videobild auf einem Videoband oder dergleichen aufzuzeichnen. Die analogen Farbvideosignale werden einem Datenablagegerät 350 zugeführt, das über eine nicht gezeigte Schnittstelle an einen Personalcomputer angeschlossen sein kann, und dort als Einzelbild oder Videobild abgefegt.
  • An die Systemsteuerschaltung 110 ist ein Eingabegerät 400, z. B. eine Tastatur angeschlossen, über die der Patientenname eingegeben werden kann. Der Patientenname, die von einem Zeitgeber stammende Datumsinformation sowie andere benötigte Informationen werden in der Systemsteuerschaltung 110 in Zeichenmustersignale umgesetzt und an die sekundäre Bildsignalverarbeitungsschaltung 108 ausgegeben. Die Zeichenmustersignale werden dann den digitalisierten Komponentensignalen hinzugefügt. Dadurch wird auf dem Bildschirm des Monitors 200 Zeicheninformation zusammen mit dem Objektbild dargestellt.
  • Die Systemsteuerschaltung 110 ist ein Mikrocomputer, der den gesamten Betrieb der Bildsignalverarbeitungseinheit 100 steuert. Die Systemsteuerschaltung 110 enthält eine CPU, einen ROM, der ein Programm sowie Parameter zum Ausführen verschiedener Routinen enthält, sowie einen RAM, der dem temporären Speichern von Daten dient. Eine Zeitsteuerschaltung 112 erzeugt Synchronisationssignale, mit denen die Operationen der einzelnen Schaltungen synchronisiert werden.
  • Die Bildsignalverarbeitungseinheit 100 hat eine Frontschalttafel 114 mit mehreren Schaltern. Die Schalter dienen dazu, die Bildqualität und die Beleuchtungsintensität von Hand einzustellen sowie unterschiedliche Betriebsarten zu setzen. Die Bildsignalverarbeitungseinheit 100 hat ferner eine Stromquelleneinheit 116, welche die einzelnen Schaltungen in der Bildsignalverarbeitungseinheit 100 und die Lichtquelleneinheit 102 mit Energie versorgt, sowie einen Hauptschalter (Speiseschalter) 118, um die Stromquelleneinheit 116 ein- und auszuschalten.
  • Das elektronische Endoskop 10 hat einen mit dem flexiblen Rohr 20 integrierten Bediengriff 30. Der Bediengriff 30 hat Hebel und Tasten, um das flexible Rohr 20 mechanisch und das System elektrisch zu betreiben. An dem Bediengriff 30 ist ein Ende eines flexiblen Kopplungsrohrs angebracht, welches das elektronische Endoskop mit der Bildsignalverarbeitungseinheit 100 verbindet. An dem anderen Ende des Kopplungsrohrs ist eine Anschlusseinheit 40 angebracht. Die Anschlusseinheit 40 umfasst Anschlusskomponenten, die dazu dienen, das elektronische Endoskop 10 elektrisch und optisch an die Bildsignalverarbeitungseinheit 100 zu koppeln. Die Anschlusseinheit 40 enthält ferner einen Speicher 42, der auf die Maskenposition bezogene Korrekturdaten (Kompensationsdaten) speichert, die jedem einzelnen elektronischen Endoskop eigen sind und im folgenden als Maskenposition-Korrekturdaten bezeichnet werden. Der Speicher 42 ist beispielsweise als EEPROM ausgebildet, in den Daten neu geschrieben werden können.
  • Die Bildsignalverarbeitungseinheit 100 hat eine Maskenfunktion (elektronischer Maskenbetrieb), die es ermöglicht, nur einen Schärfenbereich aus dem auf dem Bildschirm des Monitors 200 dargestellten Objektbildes auszuklammern und die äußere Randfläche zu maskieren. Die Bildsignalverarbeitungseinheit 100 enthält eine Speichersteuerschaltung 120, die das Auslesen und das Schreiben der digitalisierten Komponentensignale aus dem Bildspeicher 106 bzw. in diesen steuert, so dass die elektronische Maskierung durch Steuern der von der Speichersteuerschaltung 120 ausgelesenen Adressen und durch Ausgeben der Videosignale entsprechend diesen Adressen durchgeführt wird.
  • Wird der Hauptschalter 118 der Bildsignalverarbeitungseinheit 100 eingeschaltet, so liest die Speichersteuerschaltung 120 aus dem ROM 122 Maskendaten aus, welche Fläche, Form und Größe des Bereichs festlegen, der von dem auf dem Bildschirm wiederzugebenden Farbbild abgegrenzt werden soll. Die Speichersteuerschaltung 120 liest auch die Maskenposition-Korrekturdaten aus dem Speicher 42 aus, wenn das elektronische Endoskop 10 an die Bildsignalverarbeitungseinheit 100 angeschlossen ist. Die Speichersteuerschaltung 120 erzeugt dabei eine Folge von ausgelesenen Adressen auf Grundlage der Maskendaten und der Maskenposition-Korrekturdaten. Die digitalisierten Komponentensignale, nämlich die Luminanzsignale Y sowie die Farbdifferenzsignale Cb und Cr werden dann entsprechend den ausgelesenen Adressen an die sekundäre Bildsignalverarbeitungsschaltung 108 ausgegeben.
  • Unter Bezugnahme auf Fig. 3 wird im Folgenden das Prinzip des Maskierungsprozesses beschrieben. Fig. 3 zeigt schematisch die Abbildungsfläche der CDD 18, genauer gesagt die Anordnung des lichtempfindlichen Bereichs, d. h. des Bereichs, in dem lichtempfindliche Elemente angeordnet sind, des Abbildungsbereichs (effektiver Bilderfassungsbereich) der Abbildungsfläche, des Schärfenbereichs auf dem Abbildungsbereich der Abbildungsfläche und des durch die optische Maske verursachten Verdunkelungsbereichs.
  • Die CCD 18 besteht aus einer Vielzahl von Pixeln, die auf der Abbildungsfläche zweidimensional in einer Matrix angeordnet sind. Dabei sind in horizontaler Richtung (Pfeil X) jeweils M Pixel und in vertikaler Richtung (Pfeil Y) jeweils N Pixel angeordnet. Da die Pixel regelmäßig in einer Matrix angeordnet sind, ist die Position eines beliebigen Pixels G in dem lichtempfindlichen Bereich der Abbildungsfläche durch ein Koordinatenpaar (i, j) dargestellt, und zwar bezogen auf den Ursprung (0, 0), der in dem oberen linken Pixel der Abbildungsfläche oder dem lichtempfindlichen Bereich liegt. Der Parameter i gibt die Zahl der Pixel in X- Richtung ausgehend von dem Ursprung G0 (0, 0) bis zum dem jeweiligen Pixel an und erfüllt die Bedingung 0 ≤ i ≤ M. Entsprechend gibt der Parameter j die Zahl der Pixel in Y-Richtung ausgehend von dem Ursprung G0 (0, 0) bis zu dem jeweiligen Pixel an und erfüllt die Bedingung 0 ≤ j ≤ N.
  • Auf der Abbildungsfläche der CCD 18 wird nur ein Teil des gesamten Pixelbereichs oder des lichtempfindlichen Bereichs zur Bildaufnahme genutzt. So können nur m × n (m ≤ M, n ≤ N) Pixel in dem rechteckigen Abbildungsbereich KR (effektiver Bilderfassungsbereich), der in Fig. 3 von der mit jeweils einem Punkt unterbrochenen Linie eingerahmt ist, Bildsignale entsprechend einem Objektbild ausgeben. Die Pixel in dem Bereich, der den Abbildungsbereich KR umgibt, sind schon vorher bei der Fertigung der CCD maskiert worden, so dass die Signale aus diesem maskierten Bereich nur zur Festlegung des Schwarzpegels genutzt werden. Die Position des Abbildungsbereichs KR in dem lichtempfindlichen Bereich wird durch die Koordinaten (Sx, Sy) dargestellt, die auf den Ursprung G0 bezogen sind, wobei diese Koordinaten dem Auslese-Startpixel GS entsprechen. Das Auslese-Startpixel GS ist das obere linke Pixel des Abbildungsbereichs KR. Die digitalen Komponentensignale werden zwar für alle M × N Pixel in der CCD 18 in dem Bildspeicher 106 der Bildsignalverarbeitungseinheit 100 gespeichert. Jedoch werden nur die Signale, die den m × n Pixel innerhalb des Abbildungsbereichs KR zugeordnet sind, an die sekundäre Bildsignalverarbeitungsschaltung 108 ausgegeben. Das Auslesen aus dem Speicher 106 wird von einer Adresse aus gestartet, die dem Auslese-Startpixel GS zugeordnet ist.
  • Der Bereich, in dem das Objektivlinsensystem 16 ein klares oder fokussiertes Bild erzeugen kann, wird als Schärfenbereich FR bezeichnet. Der Schärfenbereich FR ist in Fig. 2 die Kreisfläche, die von der gestrichelten Linie eingerahmt ist. Das Objektivlinsensystem 16 ist so positioniert, dass der Schärfenbereich FR dem Abbildungsbereich KR so weitgehend wie möglich überlagert ist und der Hauptpunkt (Augenpunkt, Bildhauptpunkt) Cf, d. h. der Schnittpunkt zwischen der optischen Achse und der Abbildungsfläche, so genau wie möglich mit dem Bildmittelpunkt Ck des Abbildungsbereichs KR zusammenfällt. Die optische Maske 22 ist so angeordnet, dass sie die Fläche außerhalb des Schärfenbereichs FR abschirmt. So sind an den Ecken des Abbildungsbereichs KR Verdunkelungsbereiche MR1 bis MR4 ausgebildet, die jeweils eine dreieckige Form haben und schraffiert dargestellt sind. Diese Bereiche befinden sich innerhalb des Abbildungsbereichs KR und außerhalb des Schärfenbereichs FR. Die Verdunkelungsbereiche MR1 bis MR4 werden durch die optische Maske 22 gegenüber dem Licht abgeschirmt, und die von diesen Bereichen ausgegebenen, von dem Dunkelstrom verursachten Signale haben etwa den Pegel von Schwarzpegelsignalen. Jedoch sind die durch den Dunkelstrom verursachten Signale aus verschiedenen Gründen nicht stabil und enthalten Rauschkomponenten.
  • Die Bildsignalverarbeitungseinheit 100 liest die digitalen Komponentensignale aus dem Bildspeicher 106 aus und führt sie der sekundären Bildsignalverarbeitungsschaltung 108 zu, mit Ausnahme derjenigen digitalen Komponentensignale, die den Verdunkelungsbereichen MR1 bis MR4 zugeordnet sind. An Stelle der Signale, die den Verdunkelungsbereichen MR1 bis MR4 zugeordnet sind, werden digitale Masken-Farbkomponentensignale (z. B. Hintergrundfarbsignale, insbesondere Schwarzpegelsignale) an die sekundäre Bildsignalverarbeitungsschaltung 108 ausgegeben. Die auf die Verdunkelungsbereiche MR1 bis MR4 bezogenen digitalen Komponentensignale werden also durch die digitalen Masken- Farbkomponentensignale ersetzt. Dadurch wird die elektronische Maskierung realisiert. Die Information dieser elektronischen Maskierung wie die Maskendaten, die die Positionen der Pixel angeben, die durch die digitalen Masken- Farbkomponentensignale zu ersetzen sind, ist in dem ROM 122 gespeichert.
  • Fig. 4 zeigt ein Beispiel der in dem ROM 122 gespeicherten Maskendaten. Der Einfachheit halber wird das Maskendatenfeld in dem Speicher 122 als zweidimensionale Anordnung beschrieben, die mit der Anordnung der Pixel in dem Abbildungsbereich KR übereinstimmt. Die Maskendaten sind auf die in dem Abbildungsbereich KR angeordneten m × n Pixel so bezogen, dass zwischen den Maskendaten und den m × n Pixeln eine 1-zu-1-Korrespondenz besteht. Auf jedes Maskendatum, das einem Pixel das Abbildungsbereichs KR zugeordnet ist, wird in Form eines zweidimensionalen Feldes [Ax, Ay] Bezug genommen, das der Position oder den Koordinaten des jeweiligen Pixels bezogen auf das Auslese- Startpixel entspricht. Der Index Ax gibt die Position der horizontalen Richtung in dem Abbildungsbereich KR und der Index Ay die Position der vertikalen Richtung in dem Abbildungsbereich KR an, und zwar jeweils auf das Auslese-Startpixel GS bezogen. Beispielsweise entspricht das Maskendatum [0, 0] dem Auslese- Startpixel GS (Sx, Sy), das sich in dem Abbildungsbereich KR oben links befindet, während das Maskendatum [3, 4] das Pixel G (Sx + 3, Sy + 4) angibt, das bezogen auf das Auslese-Startpixel GS das vierte Pixel in X-Richtung und das fünfte Pixel in Y-Richtung ist, wie Fig. 3 zeigt. Die Adresse der Bilddaten (digitale Komponentensignale) des Pixels, das einem Maskendatum [Ax, Ay] entspricht, erhält man mittels einer einfachen arithmetischen Berechnung, so dass die tatsächliche Adresssteuerung unter Bezugnahme auf die Indizes Ax und Ay durchgeführt werden kann.
  • Jedem Maskendatum, d. h. jedem Feldelement, wird entweder die Zahl 1 oder die Zahl 0 zugeordnet. Ist einem Maskendatum die Zahl 1 zugeordnet, so liest die Speichersteuerschaltung 120 die digitalen Komponentensignale des dem vorstehend genannten Maskendatum entsprechenden Pixels aus dem Bildspeicher 106 aus und gibt diese Signale an die sekundäre Bildsignalverarbeitungsschaltung 108 aus. Hat dagegen das Maskendatum den Wert 0, so liest die Speichersteuerschaltung 120 die digitalen Komponentensignale nicht aus dem Bildspeicher 106 aus, sondern gibt die digitalen Masken-Farbkomponentensignale an die sekundäre Bildsignalverarbeitungsschaltung 108 aus. Beispielsweise hat das in Fig. 4 gezeigte Maskendatum [0, 0] den Wert 0, so dass für das obere linke Pixel GS (Sx, Sy) des Abbildungsbereichs KR die digitalen Masken-Farbkomponentensignale an die sekundäre Bildsignalverarbeitungsschaltung 108 ausgegeben werden. Dagegen hat das Maskendatum [3, 4] den Wert 1, so dass für das Pixel G (Sx + 3, Sy + 4) das digitale Komponentensignal aus dem Bildspeicher 106 an die sekundäre Bildsignalverarbeitungsschaltung 108 ausgegeben wird.
  • Fig. 5 zeigt schematisch die Inhalte der der sekundären Bildsignalverarbeitungsschaltung 108 zugeführten digitalen Komponentensignale bei Verwendung der in Fig. 4 gezeigten Maskendaten. In Fig. 5 ist die Folge der digitalen Komponentensignale als zweidimensionale Anordnung beschrieben, die der Pixelanordnung in dem Abbildungsbereich KR entspricht. Die Suffixe der Luminanzsignale Y und der Farbdifferenzsignale Cb und Cr, welche die Komponenten der digitalen Komponentensignale darstellen, geben die Position der entsprechenden Pixel in X- und Y-Richtung an. Beispielsweise haben das Luminanzsignal Y und die Farbdifferenzsignale Cb und Cr in der ersten Spalte der dritten Zeile jeweils den Wert 0. In der fünften Spalte der dritten Zeile haben das Luminanzsignal Y und die Farbdifferenzsignale Cb und Cr die Werte YSx+4_Sy+2, CbSx+4_Sy+2 bzw. CrSx+4_Sy+2, die aus dem Pixel G (Sx + 4, Sy + 2) ausgelesen werden.
  • Fig. 6 zeigt das auf dem Bildschirm des Monitors 200 dargestellte Bild unter Verwendung der Maskendaten nach Fig. 4. In dem Bildschirm sind ein Bildbereich GW und ein Hintergrundbereich HW angeordnet, der einen Zeichenbereich CW enthält. Der Bildbereich GS ist ein Bereich, in dem das mit dem elektronischen Endoskop 10 erhaltene Farbbild des Objektes dargestellt wird. Der Zeichenbereich CW ist ein Bereich, in dem Zeicheninformation, z. B. das Datum, der Patientenname oder dergleichen dargestellt wird. An den vier Ecken des Bildbereichs GW sind elektronisch realisierte Maskenbereiche MW1, MW2, MW3 und MW4 angeordnet, die im Folgenden einfach als elektronische Maskenbereiche bezeichnet werden. Die elektronischen Maskenbereiche MW1, MW2, MW3 und MW4 werden stets auf der Maskenfarbe gehalten, die gleich der Hintergrundfarbe in dem Hintergrundbereich HW sein kann. Die elektronischen Maskenbereiche MW1, MW2, MW3 und MW4 bilden jeweils ein gleichschenkliges rechtwinkliges Dreieck, dessen beide äquivalente Seiten jeweils eine Länge von vier Pixeln der CCD 18 haben. Wegen dieser elektronischen Maskenbereiche MW1 bis MW4 erscheinen die mit der optischen Maske 22 bedeckten Bereiche, die möglicherweise Rauschen enthalten, nicht auf dem Bildschirm. Dagegen erhält man stets nur ein deutliches Objektbild innerhalb des Schärfenbereichs.
  • Indem man, wie oben beschrieben, die Werte der Maskendaten bestimmt, die den jeweiligen in den elektronischen Maskenbereichen MW1 bis MW4 angeordneten Pixeln entsprechen, kann die elektronische Maske auf Bereiche angewendet werden, die im Wesentlichen die gleiche Fläche und die gleiche Form wie diejenigen Bereiche haben, die durch die optische Maske 22 maskiert sind. Für die elektronische Maske kann jede beliebige Form oder Größe gewählt werden, sofern die Maske die elektronischen Maskenbereiche MW1 bis MW4 abdeckt. Form und Größe sind nicht auf das vorliegende Ausführungsbeispiel beschränkt.
  • In dem unter Bezugnahme auf Fig. 3 beschriebenen Beispiel, in dem der Bildmittelpunkt Ck der CCD 18 oder des Abbildungsbereichs KR mit dem Hauptpunkt Cf des Objektivlinsensystems 16 oder des Schärfenbereichs FR zusammenfällt (im Folgenden wird der Hauptpunkt Cf als im Wesentlichen gleich mit dem Mittelpunkt der optischen Achse 22 angenommen), erhält man die Koordinaten (i, j) eines einem Maskendatum [Ax, Ay] entsprechenden Pixels G aus den Koordinaten (Sx, Sy) des Auslese-Startpixels GS und den Indizes Ax und Ay des Maskendatums nach folgenden Gleichungen (1) und (2).

    i = Sx + Ax (1)

    J = Sy + Ay (2)

  • Die Bilddaten für alle in dem lichtempfindlichen Bereich angeordneten Pixel sind in dem Bildspeicher 106 in einer Folge gespeichert, die mit den Daten beginnt, die dem Pixel im Ursprung G0 (0, 0) zugeordnet sind, so dass man die Adresse der dem Maskendatum [Ax, Ay] entsprechenden Bilddaten (digitale Komponentensignale) einfach aus den Koordinaten (i, j) erhält, die nach den Gleichungen (1) und (2) berechnet werden.
  • Beim Zusammenbau des elektronischen Endoskops 10 ist es jedoch äußerst schwierig sicherzustellen, dass der Bildmittelpunkt Ck, der Hauptpunkt Cf und der Mittelpunkt der optischen Achse 22 präzise übereinstimmen, so dass die präzise Ausrichtung dieser drei genannten Punkte zeitaufwendig und mühsam ist. Deshalb treten in der Praxis beim Zusammenbau der CCD 18, des Objektivlinsensystems 16 und der optischen Maske 22 häufig Ausrichtungsfehler auf. Jedes elektronische Endoskop hat demnach seine eigenen individuellen Ausrichtungsfehler.
  • Ist beispielsweise, wie in Fig. 7 gezeigt, der Hauptpunkt Cf unbeabsichtigt gegenüber dem Bildmittelpunkt Ck um α Pixel in X-Richtung und um β Pixel in Y- Richtung versetzt, so ist das auf dem Bildschirm des Monitors 200 wiedergegebene Farbbild eines Objektes um diese Versetzung (α, β) des Hauptpunktes Cf gegenüber dem Mittelpunkt des Bildbereichs GW verschoben. So ragt der auf die optische Maske 22 bezogene Bereich aus der elektronischen Maske heraus und ein Teil des Unschärfenbereichs wird auf dem Bildschirm dargestellt.
  • Deshalb wird in dem vorliegenden Ausführungsbeispiel eine Versetzung (α, β) des Hauptpunktes Cf gegenüber dem Bildmittelpunkt Ck für jedes elektronische Endoskop 10 im Vorfeld gemessen, so dass die Ausleseposition der digitalen Komponentensignale und die Position der elektronischen Maske, die auf den in dem ROM 122 gespeicherten Maskendaten beruhen, entsprechend dieser Versetzung (α, β) umgewandelt werden. Die Versetzung (α, β) wird in dem Speicher 42 des elektronischen Endoskops 10 als Maskenposition-Korrekturdatum (Korrektur- oder Kompensationsinformation) gespeichert und zu dem Produktnamen oder der Seriennummer des Endoskops 10, der bzw. die in dem Speicher 42 gespeichert ist, in Beziehung gesetzt. Dieses Korrekturdatum wird dann aus dem Speicher 42 ausgelesen, wenn das Endoskop 10 an die Bildsignalverarbeitungseinheit 100 angeschlossen ist, und der Speichersteuerschaltung 120 zugeführt. An Stelle der Versetzung (α, β) kann die absolute Position des elektronischen Maskenbereichs als Kompensationsinformation genutzt werden.
  • Die Speichersteuerschaltung 120 berechnet die Koordinaten (i, j) des dem Maskendatum [Ax, Ay] entsprechenden Pixels G aus den Koordinaten (Sx, Sy) des Auslese-Startpixels GS, den Indizes Ax und Ay des Maskendatums und dem aus dem Speicher 42 erhaltenen Maskenposition-Korrekturdatum (α, β). Die Gleichungen (1) und (2) werden somit zu den folgenden Gleichungen (3) bzw. (4) modifiziert.

    i = Sx + Ax + α (3)

    J = Sy + Ay + β (4)
  • Die Position des Auslese-Startpixels GS wird also durch die Gleichungen (3) und (4) so korrigiert, dass das Auslesen aus dem Bildspeicher 106 mit einer Adresse beginnt, die dem Pixel GS' (Sx + α, Sy + β) entspricht, das gegenüber dem Pixel GS um α Pixel in X-Richtung und β Pixel in Y-Richtung versetzt ist. So werden die digitalen Komponentensignale eines korrigierten Abbildungsbereichs KR' (Bildausgabebereich), den man durch Verschieben des aus m × n bestehenden Pixeln Abbildungsbereichs KR entsprechend den Maskenposition-Korrekturdaten erhält, aus der Adresse ausgelesen, die dem korrigierten Auslese-Startpixel GS' des Bildspeichers 106 entspricht. Entsprechend den aus dem ROM 122 stammenden Maskendaten werden die digitalen Komponentensignale in dem dem elektronischen Maskenbereich MR'1-MR'4 entsprechenden Bereich durch die digitalen Masken-Farbkomponentensignale ersetzt.
  • Fig. 8 zeigt schematisch die Inhalte der der sekundären Bildsignalverarbeitungsschaltung 108 zugeführten digitalen Komponentensignale, wenn die Position des Bildmittelpunktes Ck um (α, β) gegenüber dem Hauptpunkt Cf versetzt ist, wie Fig.7 zeigt, und die in Fig. 4 gezeigten Maskendaten genutzt werden. Jede ausgelesene Adresse entspricht einem Pixel, dessen Koordinaten um (α, β) verschoben sind, so dass beispielsweise das Luminanzsignal Y und die Farbdifferenzsignale Cb und Cr für das Pixel in der ersten Spalte der fünften Zeile die Werte YSx+ α _Sy+4+ β, CbSx+ α _Sy+4+ β bzw. CrSx+ α _Sy+4+ β haben, die man aus dem Pixel G (Sx + α, Sy + 4 + β) erhält. Das Luminanzsignal Y und die Farbdifferenzsignale Cb und Cr für das Pixel in der fünften Spalte der dritten Zeile haben die Werte YSx+4+ α _Sy+2+ β, CbSx+4+ α _Sy+2+ β bzw. CrSx+4+ α _Sy+2+ β, die man aus dem Pixel G (Sx + 4 + α, Sy + 2 + β) erhält.
  • Sind der Bildmittelpunkt Ck und der Hauptpunkt Cf, wie in Fig. 7 gezeigt, um (α, β) zueinander versetzt, so erscheinen die mit der optischen Maske 22 bedeckten Bereiche, die möglicherweise Rauschen enthalten, nicht auf dem Bildschirm.
  • Indem der Abbildungsbereich KR und die elektronischen Maskenbereiche MR1-MR4 um die Versetzung (α, β) in den korrigierten Abbildungsbereich KR' bzw. die korrigierten elektronischen Maskenbereiche MR'1-MR'4 umgesetzt werden, erhält man ausschließlich ein deutliches Objektbild in dem Schärfenbereich.
  • Fig. 9 ist ein Flussdiagramm des in der Systemsteuerschaltung 110 ausgeführten Maskierungsprozesses gemäß vorliegendem Ausführungsbeispiel. Der Maskierungsprozess beginnt, wenn der an der Bildsignalverarbeitungseinheit 100 vorgesehene Hauptschalter 118 gedrückt wird.
  • In Schritt S102 wird ermittelt, ob das elektronische Endoskop 10 an die Bildsignalverarbeitungseinheit 100 angeschlossen ist. Schritt S102 wird so lange wiederholt, bis das Endoskop 10 an die Bildsignalverarbeitungseinheit 100 angeschlossen ist. Ist das Endoskop 10 an die Bildsignalverarbeitungseinheit 100 angeschlossen, so fährt der Prozess mit Schritt S104 fort, und die Maskenposition-Korrekturdaten, die in dem Speicher 42 des Endoskops 10 gespeichert sind, werden der Speichersteuerschaltung 120 zugeführt. Anschließend werden in Schritt S106 die in dem ROM 122 gespeicherten Maskendaten der Speichersteuerschaltung 120 zugeführt. Dadurch beginnt die Ansteuerung des Bildspeichers 106 in der Speichersteuerschaltung 120. So werden die auszulesende Adresse für den korrigierten Abbildungsbereich KR' und die Korrespondenz zwischen den Maskendaten und der Adresse in dem Bildspeicher 106 entsprechend den Maskenposition- Korrekturdaten bestimmt.
  • In Schritt S108 wird ermittelt, ob über die Tastatur 400 ein Befehl zum Modifizieren der Maskenposition-Korrekturdaten eingegeben worden ist. Liegt ein solcher Modifizierungsbefehl vor, so werden die Maskenposition-Korrekturdaten in Schritt S110 durch die über die Tastatur 400 vorgenommene Eingabe modifiziert. Die Modifizierung der Maskenposition-Korrekturdaten kann unter Bezugnahme auf die auf dem Monitor 200 dargestellte Maskenposition mittels Cursortasten oder durch Eingabe der Koordinaten der Maskenposition, z. B. der Startposition und der Endposition, vorgenommen werden. Die Eingabe des Befehls zur Modifizierung der Maskenposition-Korrekturdaten kann über eine bestimmte Kombination von Tasteneingaben, z. B. der Eingabe eines Passwortes, vorgenommen werden. Ferner kann sie auch über an der Schalttafel 114 angebrachte Schalter vorgenommen werden.
  • Ist die Modifizierung der Maskenposition-Korrekturdaten beendet, so werden die modifizierten Maskenposition-Korrekturdaten in Schritt S112 der Speichersteuerschaltung 120 zugeführt. Dann werden in Schritt S114 die modifizierten Maskenposition-Korrekturdaten in dem Speicher 42 des elektronischen Endoskops 10 gespeichert. Dadurch werden die schon im Speicher 42 gespeicherten Maskenposition-Korrekturdaten durch die modifizierten Maskenposition-Korrekturdaten ersetzt, so dass die modifizierten Daten ausgelesen werden, wenn das Endoskop 10 zu einem späteren Zeitpunkt an die Bildsignalverarbeitungseinheit 100 angeschlossen wird.
  • Ist Schritt S114 beendet oder wird in Schritt S108 festgestellt, dass kein Befehl zum Modifizieren der Maskenposition-Korrekturdaten vorliegt, so wird Schritt S116 ausgeführt. Dabei wird ermittelt, ob das elektronische Endoskop 10 von der Bildsignalverarbeitungseinheit 100 gelöst ist. Wird festgestellt, dass das elektronische Endoskop 10 noch immer an die Bildsignalverarbeitungseinheit 100angeschlossen ist, so kehrt der Prozess zu Schritt S108 zurück und die nachfolgenden Schritte werden wiederholt. Wird dagegen in Schritt S116 ermittelt, dass das Endoskop von der Bildsignalverarbeitungseinheit 100 gelöst ist, so endet der Maskierungsprozess.
  • Wie oben beschrieben, kann bei der elektronischen Endoskopeinrichtung gemäß Ausführungsbeispiel die elektronische Maskenposition in Abhängigkeit der Versetzung zwischen dem Bildmittelpunkt und dem Hauptpunkt verschoben oder umgesetzt werden. Dadurch erhält man stets ein deutliches fokussiertes Objektbild ohne Unschärfe oder durch Dunkelstrom verursachtes Rauschen, selbst wenn die eingesetzten elektronischen Endoskope individuelle Unterschiede aufweisen. Ferner können die Maskenposition-Korrekturdaten, durch die die Größe der Versetzung der Maskenposition festgelegt ist, von dem Benutzer modifiziert werden. Da das elektronische Endoskop 10 mit dem Speicher 42 zum Speichern der Maskenposition-Korrekturdaten versehen ist, ist es nicht erforderlich, die Maskenposition wieder neu einzustellen, selbst wenn das elektronische Endoskop 10 an eine andere Bildsignalverarbeitungseinheit angeschlossen wird. Da die Maskenposition-Korrekturdaten automatisch aus dem Speicher 42 ausgelesen werden, wenn das elektronische Endoskop 10 an die Bildsignalverarbeitungseinheit 100 angeschlossen wird, wird die Maskenposition einfach korrigiert, ohne dass dies der Benutzer überhaupt wahrnimmt.
  • Das vorliegende Ausführungsbeispiel bezieht sich auf ein System zur Simultanbilderzeugung. Die Erfindung kann jedoch ebenso auf ein System zur sequenziellen Bilderzeugung angewendet werden. In diesem Fall werden das auf ein Einzelbild bezogene R-, G- und B-Farbbild temporär in dem Bildspeicher gespeichert.
  • In dem erläuterten Ausführungsbeispiel ist die Optik mit einer optischen Maske versehen. Die optische Maske kann jedoch auch weggelassen werden. Ferner ist im vorliegenden Ausführungsbeispiel vorausgesetzt, dass der Hauptpunkt und der Mittelpunkt der optischen Maske an gleicher Stelle angeordnet sind. Die Erfindung kann jedoch auch dann angewendet werden, wenn der Hauptpunkt und der Mittelpunkt der optischen Maske nicht korrekt aneinander ausgerichtet sind.
  • In dem vorliegenden Ausführungsbeispiel ist die elektronische Maske lediglich in den den Ecken des Abbildungsbereichs entsprechenden Bereichen vorgesehen. Die elektronische Maske kann jedoch auch in dem den Schärfenbereich umgebenden Bereich vorgesehen sein. In diesem Fall wird lediglich die elektronische Maske in Abhängigkeit der Versetzung des Hauptpunktes verschoben oder umgesetzt. Eine Verschiebung oder Umsetzung des Abbildungsbereichs ist dann nicht erforderlich.

Claims (12)

1. Elektronische Endoskopeinrichtung, umfassend
eine Bildaufnahmevorrichtung (18) mit einer Abbildungsfläche, eine Objektivoptik (16) zum Erzeugen eines Objektbildes auf der Abbildungsfläche,
einen Korrekturspeicher (42) zum Speichern einer Korrekturinformation, welche die Fehlausrichtung zwischen einem von der Objektivoptik (16) auf der Abbildungsfläche erzeugten Schärfenbereich (FR) und einem effektiven Bilderfassungsbereich (KR) der Abbildungsfläche angibt,
einen Maskendatenspeicher (122) zum Speichern von für eine elektronische Maskierung vorgesehenen Maskendaten und
eine Korrektureinheit (120) zum Umsetzen eines elektronischen Maskenbereichs (MW1 bis MW4) entsprechend der Korrekturinformation.
2. Einrichtung nach Anspruch 1, gekennzeichnet durch eine elektronische Maskierungseinheit (108) zum Durchführen der elektronischen Maskierung an von der Bildaufnahmevorrichtung (18) zugeführten Bildsignalen entsprechend dem umgesetzten elektronischen Maskenbereich (MW1 bis MW4).
3. Einrichtung nach Anspruch 1 oder 2, gekennzeichnet durch
ein elektronisches Endoskop (10), das die Bildaufnahmevorrichtung (18), die Objektivoptik (16) und den Korrekturspeicher (42) enthält, und
eine Bildsignalverarbeitungseinheit (100), die den Maskendatenspeicher (122) und die Korrektureinheit (120) enthält,
wobei das elektronische Endoskop (10) von der Bildsignalverarbeitungseinheit (100) lösbar ist.
4. Einrichtung nach Anspruch 3, dadurch gekennzeichnet, dass die Korrekturinformation aus dem Korrekturspeicher (42) ausgelesen und der Korrektureinheit (120) zugeführt wird, wenn das elektronische Endoskop (10) an der Bildsignalverarbeitungseinheit (100) angebracht ist.
5. Einrichtung nach einem der vorhergehenden Ansprüche, gekennzeichnet durch eine Bildausgabebereich-Korrektureinheit zum Umsetzen eines dem effektiven Bilderfassungsbereich entsprechenden Bildausgabebereichs entsprechend der Korrekturinformation.
6. Einrichtung nach einem der vorhergehenden Ansprüche, gekennzeichnet durch eine Maskenposition-Modifizierungseinheit (400) zum Modifizieren der Korrekturinformation.
7. Einrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die dem elektronischen Maskenbereich (MW1 bis MW4) entsprechenden Bildsignale durch Signale ersetzt werden, die einer Hintergrundfarbe zugeordnet sind.
8. Einrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Korrekturinformation eine Information über die Versetzung des Hauptpunktes (Cf) der Objektivoptik (16) gegenüber dem Mittelpunkt (Ck) des effektiven Bilderfassungsbereichs (KR) beinhaltet.
9. Einrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der elektronische Maskenbereich (MW1 bis MW4) mindestens einen Teil eines Bereichs außerhalb des Schärfenbereichs (FR) abdeckt.
10. Einrichtung nach Anspruch 9, dadurch gekennzeichnet, dass der elektronische Maskenbereich (MW1 bis MW4) innerhalb des effektiven Bilderfassungsbereichs (KR) angeordnet ist.
11. Elektronisches Endoskop, umfassend
eine Bildaufnahmevorrichtung (18) mit einer Abbildungsfläche, eine Objektivoptik (16) zum Erzeugen eines Objektbildes auf der Abbildungsfläche,
einen Korrekturspeicher (42) zum Speichern einer Korrekturinformation, welche die Fehlausrichtung zwischen einem von der Objektivoptik (16) auf der Abbildungsfläche erzeugten Schärfenbereich (FR) und einem effektiven Bilderfassungsbereich (KR) der Abbildungsfläche angibt.
12. Bildsignalverarbeitungseinheit (100), die an ein elektronisches Endoskop (10) anschließbar ist, das eine Bildaufnahmevorrichtung (18), eine Objektivoptik (16) zum Erzeugen eines Objektbildes auf einer Abbildungsfläche der Bildaufnahmevorrichtung (18) und einen Korrekturspeicher (42) zum Speichern einer Korrekturinformation enthält, die die Fehlausrichtung zwischen einem von der Objektivoptik (16) auf der Abbildungsfläche erzeugten Schärfenbereich (FR) und einem effektiven Bilderfassungsbereich (KR) der Bildaufnahmevorrichtung angibt, wobei die Bildsignalverarbeitungseinheit (100) einen Maskendatenspeicher (122) zum Speichern von für eine elektronische Maskierung vorgesehenen Maskendaten und eine Korrektureinheit (120) umfasst, welche die Korrekturinformation aus dem Korrekturspeicher (42) ausliest und einen elektronischen Maskenbereich (MW1 bis MW4) entsprechend der Korrekturinformation umsetzt.
DE10312468A 2002-03-20 2003-03-20 Elektronische Endoskopeinrichtung Expired - Fee Related DE10312468B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002077601A JP2003265411A (ja) 2002-03-20 2002-03-20 電子内視鏡装置および電子内視鏡および映像信号処理装置
JP2002-077601 2002-03-20

Publications (2)

Publication Number Publication Date
DE10312468A1 true DE10312468A1 (de) 2003-10-02
DE10312468B4 DE10312468B4 (de) 2008-01-17

Family

ID=27800375

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10312468A Expired - Fee Related DE10312468B4 (de) 2002-03-20 2003-03-20 Elektronische Endoskopeinrichtung

Country Status (3)

Country Link
US (1) US6945928B2 (de)
JP (1) JP2003265411A (de)
DE (1) DE10312468B4 (de)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7195588B2 (en) * 2004-03-01 2007-03-27 Olympus Corporation Endoscope image pick-up apparatus
JP4647347B2 (ja) * 2005-03-04 2011-03-09 富士フイルム株式会社 内視鏡装置
JP4732769B2 (ja) * 2005-03-04 2011-07-27 富士フイルム株式会社 内視鏡装置
JP5022580B2 (ja) * 2005-08-09 2012-09-12 Hoya株式会社 内視鏡装置
JP4681981B2 (ja) 2005-08-18 2011-05-11 Hoya株式会社 電子内視鏡装置
US8451327B2 (en) * 2005-08-18 2013-05-28 Hoya Corporation Electronic endoscope, endoscope light unit, endoscope processor, and electronic endoscope system
JP4787024B2 (ja) * 2006-01-13 2011-10-05 Hoya株式会社 内視鏡装置
JP2008302097A (ja) * 2007-06-11 2008-12-18 Hoya Corp 内視鏡用クリップ装置
JP2008307168A (ja) * 2007-06-13 2008-12-25 Hoya Corp 内視鏡用クリップ装置
JP2009136459A (ja) * 2007-12-05 2009-06-25 Hoya Corp ノイズ除去システム、内視鏡プロセッサ、および内視鏡システム
US8073288B2 (en) * 2008-01-16 2011-12-06 International Business Machines Corporation Rendering a mask using coarse mask representation
JP5396121B2 (ja) * 2009-03-26 2014-01-22 オリンパス株式会社 画像処理装置、撮像装置、画像処理プログラムおよび画像処理装置の作動方法
JP2013066648A (ja) * 2011-09-26 2013-04-18 Olympus Corp 内視鏡用画像処理装置及び内視鏡装置
CN106068093B (zh) * 2014-04-08 2018-09-25 奥林巴斯株式会社 内窥镜系统
JP6352673B2 (ja) * 2014-04-23 2018-07-04 富士フイルム株式会社 内視鏡装置及び内視鏡装置の操作方法
JP6140100B2 (ja) * 2014-04-23 2017-05-31 富士フイルム株式会社 内視鏡装置及び画像処理装置並びに内視鏡装置の作動方法
JP6507528B2 (ja) * 2014-08-29 2019-05-08 株式会社ニデック 眼科装置
WO2017145606A1 (ja) * 2016-02-24 2017-08-31 ソニー株式会社 画像処理装置、画像処理方法及び内視鏡システム
JP6310598B2 (ja) * 2017-04-28 2018-04-11 富士フイルム株式会社 内視鏡装置及び画像処理装置並びに内視鏡装置の作動方法
CN112334056B (zh) * 2018-06-27 2024-05-14 奥林巴斯株式会社 图像显示装置和图像显示方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS626212A (ja) * 1985-07-02 1987-01-13 Olympus Optical Co Ltd 内視鏡装置
JP3257640B2 (ja) * 1992-06-09 2002-02-18 オリンパス光学工業株式会社 立体視内視鏡装置
US6621524B1 (en) * 1997-01-10 2003-09-16 Casio Computer Co., Ltd. Image pickup apparatus and method for processing images obtained by means of same
US6322496B1 (en) * 1998-11-06 2001-11-27 Asahi Kogaku Kogyo Kabushiki Kaisha Electronic endoscope system
US6670983B2 (en) * 2000-02-07 2003-12-30 Fuji Photo Optical Co., Ltd. Electric mask generating apparatus of electronic endoscope

Also Published As

Publication number Publication date
JP2003265411A (ja) 2003-09-24
DE10312468B4 (de) 2008-01-17
US20030179291A1 (en) 2003-09-25
US6945928B2 (en) 2005-09-20

Similar Documents

Publication Publication Date Title
DE10312468B4 (de) Elektronische Endoskopeinrichtung
DE10164297B4 (de) Elektronisches Endoskopsystem
DE3622058C2 (de)
DE4136034C2 (de)
DE19721713C2 (de) Elektronisches Endoskop
DE10101064B4 (de) Elektronisches Endoskopsystem
DE10212915B4 (de) Elektroendoskopsystem mit Elektroendoskopen mit verschiedenen Pixelanzahlen
DE69920781T2 (de) Vorrichtung und Verfahren zur Bearbeitung von radiographischen Bildern
DE102009022331B4 (de) Endoskopprozessor und Endoskopsystem
DE19919943B4 (de) Videovorrichtung für ein Endoskop zur Fluoreszenzdiagnostik
DE10059577B4 (de) Elektronisches Endoskopsystem
DE10126587A1 (de) Elektronisches Endoskop
DE19816481A1 (de) Elektronisches Endoskopsystem
DE3633744C2 (de)
DE19619734A1 (de) Elektronisches Endoskopsystem
DE10140839A1 (de) Bildaufnahmeelement für ein elektronisches Endoskop
DE10306070A1 (de) Digitale Kamera zum Aufnehmen eines Paars stereoskopischer Bilder
DE102006005528A1 (de) Elektronisches Endoskopsystem
DE10059662B4 (de) Elektronisches Endoskopsystem
DE10359996A1 (de) Elektronisches Endoskop
DE10351024A1 (de) Elektronische Endoskopeinrichtung
DE102008056921A1 (de) Endoskopprozessor und Endoskopsystem
DE3304241A1 (de) Verfahren zum photoelektrischen abtasten eines originalbildes
DE102007008271A1 (de) Endoskopprozessor, Computerprogrammprodukt und Endoskopsystem
DE3621668A1 (de) Endoskopgeraet

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: HOYA CORP., TOKIO/TOKYO, JP

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20131001