DE10046613A1 - Videoprozessor für ein elektronisches Endoskop - Google Patents

Videoprozessor für ein elektronisches Endoskop

Info

Publication number
DE10046613A1
DE10046613A1 DE10046613A DE10046613A DE10046613A1 DE 10046613 A1 DE10046613 A1 DE 10046613A1 DE 10046613 A DE10046613 A DE 10046613A DE 10046613 A DE10046613 A DE 10046613A DE 10046613 A1 DE10046613 A1 DE 10046613A1
Authority
DE
Germany
Prior art keywords
digital
signals
video
computer
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10046613A
Other languages
English (en)
Inventor
Akihiro Takahashi
Kohei Iketani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Asahi Kogaku Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kogaku Kogyo Co Ltd filed Critical Asahi Kogaku Kogyo Co Ltd
Publication of DE10046613A1 publication Critical patent/DE10046613A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances

Abstract

Ein elektronisches Endoskop hat einen Videoteil (40) mit einem Bildsensor (41) und einem Videoprozessor (10) angeschlossen, der wiederum mit einem Computersystem (22) verbunden ist, das eine Anzeigeeinheit (22B) und einen Digitalrecorder (22C) hat. Einem Objektbild entsprechende Bildpixelsignale, die auf dem Bildsensor (41) erzeugt werden, werden aus dem Bildsensor (41) ausgelesen und zu digitalen Videosignalen verarbeitet. Die digitalen Videosignale werden entsprechend einer Quadratpixelfrequenz f¶s¶ erzeugt, die eine Abtastfrequenz für das Computersystem (22) darstellt. Die digitalen Videosignale werden dem Computersystem zugeführt, um das Objektbild auf der Anzeigeeinheit (22B) darzustellen und/oder im Digitalrecorder (22C) aufzuzeichnen.

Description

Die Erfindung betrifft einen Videoprozessor für ein elektronisches Endoskop. Insbesondere betrifft die Erfindung die Übertragung von digitalen Videosignalen.
In einem herkömmlichen elektronischen Endoskop ist am distalen Ende eines Videoteils ein Bildsensor wie z. B. eine CCD angeordnet, auf dem ein Objektbild erzeugt wird, wenn der Videoteil in eine Körperhöhle eingeführt wird. In einem Videoprozessor werden aus dem Bildsensor ausgelesene Bildpixelsignale ver­ schiedenen Verarbeitungsprozessen unterzogen, so daß dem Objektbild entspre­ chende Videosignale erzeugt werden. Die Videosignale werden dann einem TV- Monitor zugeführt, auf dem das Objektbild, z. B. eine Mageninnenwand, dargestellt wird. Seit kurzem können nicht nur analoge Videosignale, sondern auch digitale Videosignale von dem Videoprozessor an den Monitor und andere Peripherieein­ richtungen einschließlich eines Videorecorders übertragen werden. Da bei der Übertragung von digitalen Videosignalen eine geringere Degradation, d. h. Signal­ verschlechterung, als bei Videosignalen auftritt, kann ein Objektbild besserer Qualität auf dem Monitor dargestellt werden.
Normalerweise werden die digitalen Videosignale gemäß einem Farb-TV- Standard, z. B. NTSC, erzeugt und verarbeitet. Eine Anzeigeeinheit und ein Video­ recorder, der diesem Farb-TV-Standard entspricht, werden zusammen mit dem elektronischen Endoskop verwendet. Nun werden aber im Bereich der Medizin seit kurzem Computersysteme eingesetzt, die der Ablage von Daten des beob­ achteten Bildes, von Patientenlisten etc. dienen. Die Verarbeitung der digitalen Videosignale für das Computersystem unterscheidet sich jedoch von dem TV- Standard. Aus diesem Grunde tritt bei der Verwendung eines Anzeige- und Da­ tenablagesystems für einen Computer eine Verschlechterung der Videosignale während des Übertragungsvorgangs auf, wodurch die Bildqualität abnimmt.
Aufgabe der Erfindung ist es, einen Videoprozessor für ein elektronisches Endo­ skop anzugeben, das eine Übertragung digitaler Videosignale an das Computer­ system unter weitgehender Vermeidung einer Bildqualitätsverschlechterung gestattet.
Die Erfindung löst diese Aufgabe durch den Videoprozessor mit den Merkmalen des Anspruchs 1. Gemäß einem weiteren Aspekt der Erfindung ist ein Decoder mit den Merkmalen des Anspruchs 8 vorgesehen.
Ein elektronisches Endoskop nach der Erfindung hat einen Videoprozessor und einen Videoteil. Der Videoteil enthält einen Bildsensor und ist lösbar mit dem Videoprozessor verbunden. An den Videoprozessor ist weiterhin ein Computer angeschlossen. Auf dem Bildsensor wird ein Objektbild erzeugt. Ferner werden dem Objektbild entsprechende Bildpixelsignale erzeugt. Die Bildpixelsignale werden aus dem Bildsensor ausgelesen, und der Videoprozessor verarbeitet sie zu Videosignalen. Der Videoprozessor hat einen Videosignalprozessor und einen ersten Impulsgenerator. Der Videosignalprozessor erzeugt digitale Videosignale auf Grundlage der Bildpixelsignale und gibt sie an den Computer aus. Der erste, für den Videosignalprozessor bestimmte Impulsgenerator führt dem Videosignal­ prozessor Taktimpulse gemäß einer vorbestimmten Abtastfrequenz zu, so daß die digitalen Videosignale entsprechend der Abtastfrequenz erzeugt und an den Computer ausgegeben werden. Die Abtastfrequenz entspricht einer Quadratpixel­ frequenz, die auf den Computer ausgelegt ist.
Im Hinblick auf die digitale Verarbeitung von Videosignalen ist die für einen Com­ puter vorgesehene Abtastfrequenz verschieden von der für einen digitalen TV- Standard vorgesehenen Abtastfrequenz. Die Erfindung sieht vor, digitale Videosi­ gnale gemäß einer Quadratpixelfrequenz, die einem Computer-Videostandard entspricht, zu erzeugen und an den Computer auszugeben. Bei der Übertragung der digitalen Videosignale an den Computer und deren Verarbeitung in dem Computer tritt deshalb im wesentlichen keine Verschlechterung der Videosignale während der digitalen Verarbeitung auf. Die Bildqualität bleibt so gewährleistet. Ist der TV-Standard ein NTSC-Standard, wie er beispielsweise in Amerika und Japan verwendet wird, so beträgt die Quadratpixelfrequenz 12,2727 MHz. Wird dagegen, wie beispielsweise in Europa und Australien, der PAL-Standard angewendet, so beträgt die Quadratpixelfrequenz 14,75 MHz.
Vorzugsweise wird die Abtastfrequenz für den Videosignalprozessor auf das n- Fache oder das 1/n-Fache der Quadratpixelfrequenz eingestellt, wobei n eine ganze Zahl ist.
In einer weiteren vorteilhaften Weiterbildung der Erfindung sind ein Digitalrecor­ der, der das Objektbild in Form von digitalen Bilddaten aufzeichnet, sowie eine Anzeigeeinheit, die das Objektbild darstellt, an den Computer angeschlossen. Die Anzeigeeinheit entspricht dabei einem Computer-Videostandard, z. B. dem VGA- Standard, und die digitalen Bilddaten werden in dem Digitalrecorder, z. B. in Form einer CD-R (Compact Disc-Recordable), gemäß der Quadratpixelfrequenz aufge­ zeichnet. Werden die digitalen Videosignale der Anzeigeeinheit und dem Digital­ recorder zugeführt, so wird das Objektbild mit hoher Bildqualität auf der Anzeige­ einheit dargestellt und, falls erforderlich, von dem Digitalrecorder aufgezeichnet.
Für die Farbbildaufnahme wird beispielsweise ein RGB-Reihenfolgeverfahren angewendet. Die Bildpixelsignale werden dabei in digitale R-, G- und B-Signale gewandelt, die der roten Farbe, der grünen Farbe bzw. der blauen Farbe entspre­ chen. Vorzugsweise hat der Videosignalprozessor eine Matrixschaltung und einen Multiplexer. Die Matrixschaltung transformiert die digitalen R-, G- und B-Signale in digitale Luminanzsignale und digitale Farbdifferenzsignale. Der Multiplexer verar­ beitet die digitalen Luminanzsignale und die digitalen Farbdifferenzsignale. So werden digitale Multiplex-Videosignale als digitale Videosignale erzeugt. Die digitalen Mehrfachvideosignale werden über ein lokales Netzwerk, kurz LAN, z. B. das Ethernet, zwischen Computereinrichtungen ausgetauscht, die in dem Netz­ werk zusammengeschlossen sind.
Vorzugsweise erzeugt der Multiplexer die digitalen Mehrfachvideosignale in der Weise, daß das Abtastfrequenzverhältnis zwischen den digitalen Luminanzsigna­ len und den digitalen Farbdifferenzsignalen in den digitalen Multiplex- Videosignalen 4 : 2 : 2 ist. Dieses Verhältnis hängt vom Verhältnis des digitalen TV- Standards ab. Beispielsweise ist die Taktfrequenz der der Matrixschaltung zuge­ führten Taktimpulse gleich der Quadratpixelfrequenz und die Taktfrequenz der dem Multiplexer zugeführten Taktimpulse gleich dem Zweifachen der Quadratpi­ xelfrequenz.
Der Videosignalprozessor enthält vorzugsweise einen Parallel-Serien-Umsetzer. Der Parallel-Serien-Umsetzer transformiert die digitalen Mehrfachvideosignale, die digitale Parallelvideosignale darstellen, in digitale Serienvideosignale, um diese an den Computer zu senden. Der erste Impulsgenerator führt die Taktimpulse dem Parallel-Serien-Umsetzer gemäß der Quadratpixelfrequenz zu. Da digitale Serien­ videosignale übertragen werden, kann ein preisgünstiges Kabel für die serielle Übertragung anstelle eines teureren, für die parallele Übertragung bestimmten Kabels verwendet werden. Auf diese Weise können Hardwarekosten eingespart werden.
Zwischen dem Videoprozessor und dem Computer ist vorzugsweise ein Decoder vorgesehen, um die digitalen R-, G- und B-Signale dem Computer zuzuführen. Der Decoder hat einen Serien-Parallel-Umsetzer, einen Demultiplexer, eine In­ versmatrixschaltung und einen zweiten Impulsgenerator. Der Serien-Parallel- Umsetzer transformiert die digitalen Serienvideosignale in digitale Mehrfachvideo­ signale. Der Demultiplexer verarbeitet die digitalen Mehrfachvideosignale, um die digitalen Luminanzsignale und die digitalen Farbdifferenzsignale wiederherzustel­ len. Die Inversmatrixschaltung transformiert die digitalen Luminanzsignale und die digitalen Farbdifferenzsignale zu digitalen R-, G- und B-Signalen. Der zweite, für den Decoder bestimmte Impulsgenerator führt Taktimpulse dem Serien-Parallel- Umsetzer, dem Demultiplexer und der Inversmatrixschaltung gemäß der Quadrat­ pixelfrequenz zu.
Die Erfindung wird im folgenden an Hand der Figuren näher erläutert. Darin zei­ gen:
Fig. 1 ein Blockdiagramm eines elektronischen Endoskopsystems gemäß einem Ausführungsbeispiel der Erfindung,
Fig. 2 ein Blockdiagramm einer Videoverarbeitungsschaltung,
Fig. 3 die Darstellung eines in einem Multiplexer ausgeführten Multiplex­ prozesses,
Fig. 4 einen Parallel-Serien-Umsetzer, und
Fig. 5 ein Blockdiagramm eines Decoders.
Fig. 1 zeigt ein Blockdiagramm eines elektronischen Endoskopsystems gemäß einem Ausführungsbeispiel der Erfindung.
Das elektronische Endoskopsystem hat ein elektronisches Endoskop mit einem Videoteil 40, einem Videoprozessor 10, einem TV-Monitor 21 und einem Compu­ tersystem 22. Das Computersystem 22 enthält einen Computer 22A, eine Anzei­ geeinheit 22B, eine Tastatur 22D und einen Digitalrecorder 22C und ist über einen Decoder 25 an den Videoprozessor 10 angeschlossen. Der Videoteil 40 ist lösbar an den Videoprozessor 10 angeschlossen, mit dem wiederum der TV-Monitor 21 verbunden ist. Wird mit dem elektronischen Endoskop eine Operation durchge­ führt, so wird der Videoteil 40 in eine Körperhöhle eingeführt. In dem erläuterten Ausführungsbeispiel wird als Farb-TV-Standard der NTSC-Standard verwendet. Dabei wird als Farbbildaufnahmeverfahren eine R(rot)-G(grün)-B(blau)-Reihen­ folgeverarbeitung, im folgenden kurz RGB-Reihenfolgeverarbeitung, eingesetzt, für die ein Farbfilter in dem Videoprozessor 10 eingebaut ist.
Ein für die RGB-Reihenfolgeverarbeitung bestimmtes, scheibenförmiges Filter 17 hat ein R-Filter (rot), ein G-Filter (grün) und ein B-Filter (blau), die jeweils Licht der entsprechenden Wellenlängen durchlassen. Das R-, das G- und das B-Filter haben jeweils fächerartige Form und sind in regelmäßigen Abständen zueinander angeordnet. Zwischen den Filtern sind Abschirmbereiche ausgebildet. Das Dreh­ filter 17 wird von einem Motor 17A angetrieben und rotiert mit einer vorbestimmten Anzahl an Umdrehungen. Im vorliegenden Fall ist der Umdrehungswert des Dreh­ filters 17 gleich 30 Hz und entspricht damit genau einem (1) Rahmenwert der Abtastzeit (= 1/30 s) gemäß dem NTSC-Standard.
Das von einer Lichtquelle 16, z. B. einer Halogenlampe, abgestrahlte Licht tritt über das Drehfilter 17 und eine nicht dargestellte Kondensorlinse in eine Eintritts­ fläche 18A eines Lichtleitfaserbündels 18 ein, das einen Lichtleiter bildet. Das durch den Videoteil 40 verlaufende Lichtleitfaserbündel 18 transportiert das aus der Lichtquelle 16 stammende Licht zum distalen Ende des Videoteils 40 und schließlich zu einem Objekt S. Das das Lichtleitfaserbündel 18 durchlaufende Licht tritt aus einer objektseitigen Fläche 18B des Lichtleitfaserbündels 18 in Richtung des Objektes S aus. Da das Drehfilter 17 zwischen der Eintrittsfläche 18A und der Lichtquelle 16 rotiert, wird an dem Objekt S Licht mit einer im roten, im grünen bzw. im blauen Bereich liegenden Wellenlänge reflektiert, das dem roten, dem grünen bzw. dem blauen Filter entspricht. Das reflektierte Licht erreicht über eine nicht dargestellte Objektivlinse eine CCD 31. Auf diese Weise wird auf der CCD 41 ein Objektbild erzeugt, das der roten, der grünen bzw. der blauen Farbe entspricht.
In der CCD 41 eines Bildsensors werden dem Objektbild entsprechende Bildpixel­ signale mittels fotoelektrischer Wandlung erzeugt. So werden Bildpixelsignale erzeugt, die Rot, Grün bzw. Blau entsprechen. Wenn das aus der Lichtquelle 16 ausgesendete Licht von einem an dem Drehfilter 17 ausgebildeten Abschirmbe­ reich abgeschirmt wird, wird über einen CCD-Treiber 42 ein (1) Rahmenwert der Bildpixelsignale entsprechend einer der Farben R, G, B aus der CCD 41 ausgele­ sen. In dem CCD-Treiber 42 werden die Bildpixelsignale verstärkt und dann einer in dem Videoprozessor 10 vorgesehenen CCD-Verarbeitungsschaltung 11 zuge­ führt.
In der CCD-Verarbeitungsschaltung 11 werden an den Bildpixelsignalen verschie­ dene Verarbeitungsprozesse durchgeführt, wie eine Analog-Digital-Wandlung und eine Verringerung des Signalrauschens, worauf die Bildpixelsignale dann einer Zeitsteuerschaltung 12 zugeführt werden. In der Zeitsteuerschaltung 12 werden die Rot, Grün, Blau entsprechenden Bildpixelsignale, die nacheinander aus der CCD-Verarbeitungsschaltung 11 zugeführt werden, synchronisiert. Die synchroni­ sierten Bildpixelsignale werden im folgenden als "digitale R-, G-, B-Signale" be­ zeichnet.
Die Zeitsteuerschaltung 12 hat einen nicht dargestellten Leseimpulsgenerator, der Taktimpulse erzeugt und an die CCD 41, den CCD-Treiber 42 und die CCD- Verarbeitungsschaltung 11 ausgibt. Das Auslesen der Bildpixelsignale aus der CCD 41, die Analog-Digital-Wandlung und die Synchronisation der Bildpixelsi­ gnale erfolgt gemäß den Taktimpulsen, die aus dem Leseimpulsgenerator stam­ men. Die Frequenz der Taktimpulse entspricht dabei der in dem NTSC-Standard vorgesehenen Abtastfrequenz. Die digitalen R-, G-, B-Signale werden dann der Videoverarbeitungsschaltung 13 zugeführt.
In der Videoverarbeitungsschaltung 13 werden die digitalen R-, G-, B-Signale in analoge Videosignale und digitale Videosignale transformiert. Die digitalen Video­ signale werden über einen Decoder 25 einem Computersystem 22 zugeführt. In dem Decoder 25 werden die digitalen Videosignale, wie später genauer erläutert, einer Signalverarbeitung unterzogen und dann an den Computer 22A ausgege­ ben, in dem die Signalverarbeitung zur Darstellung des Objektbildes durchgeführt wird. Das Objektbild wird so auf der Anzeigeeinheit 22B dargestellt. Die Anzeige­ einheit 22B entspricht dabei einem Computer-Videostandard.
Beim Aufzeichnen des Objektbildes führt der Videoprozessor 10 die digitalen Videosignale dem in dem Computersystem 22 vorgesehenen Digitalrecorder 22C zu, der beispielsweise ein CD-R-Aufzeichnungsgerät ist, wobei "CD-R" für "Com­ pact Disc-Recordable" steht. Der Digitalrecorder 22C ist ausgebildet, das Objekt­ bild in einem digitalen Bilddatenformat aufzuzeichnen.
Andererseits führt der Videoprozessor 10 die analogen Videosignale dem TV- Monitor 21 zu, so daß auf diesem das Objektbild dargestellt wird. Über das darge­ stellte Objektbild begutachtet der Benutzer den Zustand der Körperhöhle. Die Zeitsteuerschaltung 12 hat einen in Fig. 2 nicht dargestellten Impulsgenerator, der für die Videoprozeßschaltung bestimmt ist. Die in der Videoprozeßschaltung 13 durchgeführte Signalverarbeitung erfolgt gemäß den von dem Impulsgenerator ausgegebenen Taktimpulsen.
Die Systemsteuerschaltung, die eine nicht gezeigte CPU enthält, steuert das elektronische Endoskop als Ganzes und versorgt den Motorantrieb 17A, die Lichtquelle 16 etc. mit Steuersignalen. Zum Eingeben von Zeicheninformationen, wie z. B. den Patientennamen, die dem auf dem TV-Monitor 21 dargestellten Objektbild zugeordnet sind, wird eine Tastatur 20 verwendet. Zum Aufzeichnen des Objektbildes in dem Digitalrecorder 22C werden Schalttafelschalter 19 oder eine an dem Videoteil 40 vorgesehene, nicht dargestellte Drucktaste betätigt. Operationssignale, die durch Betätigen der Tastatur 20 oder Schalttafelschalter 19 erzeugt werden, werden einem Peripherietreiber 15 und dann der Systemsteuer­ schaltung 14 zugeführt. In einem in dem Videoteil 40 vorgesehenen EEPROM 43 werden im voraus Videoteil-Daten einschließlich einer Pixelzahl der CCD 41 gespeichert. Die Videoteil-Daten werden von der Systemsteuerschaltung 14 gelesen.
Im folgenden wird unter Bezugnahme auf die Fig. 2 bis 4 die in der Videoverar­ beitungsschaltung 13 vorgenommene Signalverarbeitung beschrieben.
Fig. 2 zeigt die Videoverarbeitungsschaltung 13 in einem Blockdiagramm.
Die der Videoverarbeitungsschaltung 13 zugeführten, synchronisierten digitalen R-, G-, B-Signale werden in einem Rahmenspeicher (F. M.) 31R (rot), einem Rahmenspeicher 31G (F. M.) (grün) bzw. einem Rahmenspeicher (F. M.) 31B (blau) gespeichert. Die gespeicherten digitalen R-, G-, B-Signale werden dann gemäß den Taktimpulsen, die von dem in der Zeitsteuerschaltung 12 vorgesehe­ nen Impulsgenerator 23 werden, aus den Rahmenspeichern 31R, 31G und 31B ausgelesen. Die Frequenz der von dem Impulsgenerator 23 ausgegebenen Tak­ timpulse wird zur digitalen Signalverarbeitung über die Abtastfrequenz ermittelt. In dem gezeigten Ausführungsbeispiel entspricht die Taktfrequenz der für das Com­ putersystem 22 vorgesehenen Abtastfrequenz und nicht der für den digitalen TV- Standard vorgesehenen Abtastfrequenz.
Bei dem digitalen TV-Standard sind die das Objektbild bildenden Pixel in einem Gitter angeordnet, wobei die durch Verbinden jeweils vier benachbarter Pixel gebildete Gitterform rechteckig ist. Die Längsrichtung der Gitterform ist parallel zur Längsrichtung des Bildschirms, auf dem das Bild dargestellt wird. Dagegen sind in einem digitalen Videostandard, der für Computer einschließlich des Computersy­ stems 22 bestimmt ist, die das Objektbild zusammensetzenden Pixel zwar eben­ falls in einem Gitter angeordnet, dessen Gitterform jedoch quadratisch ist. Die auf den Computer bezogenen Pixel werden im folgenden als "Quadratpixel" bezeich­ net. Das Bildseitenverhältnis des Anzeigebereichs zwischen Fernsehempfängern wie dem TV-Monitor 21 und Computereinrichtungen wie der Anzeigeeinheit 22B beträgt 3 : 4. Deshalb ist die Pixelanzahl in einer Zeile des Computers kleiner als die des TV-Gerätes. Die für den Computer vorgesehene Abtastfrequenz unter­ scheidet sich nämlich von der für das TV-Gerät vorgesehenen Abtastfrequenz. In dem vorgestellten Ausführungsbeispiel entspricht die Abtastfrequenz für eine digitale Signalverarbeitung in der Videoverarbeitungsschaltung 13 dem Computer­ system 22. Die digitalen Videosignale werden nämlich auf Grundlage der Ab­ tastfrequenz erzeugt, die dem Computer-Videostandard entspricht. Die dem Computersystem 22 entsprechende Abtastfrequenz wird im folgenden als "Qua­ dratpixelfrequenz" bezeichnet.
Die Quadratpixelfrequenz erhält man an Hand einer Horizontalabtastfrequenz der Farbbildsignale, nämlich der sogenannten Zeilenfrequenz, und der Anzahl der in einer Zeile angeordneten Pixel. Im NTSC-Standard erhält man die Quadratpixel­ frequenz fS durch
fS = fh . K = 15,734 (kHz) . 780 = 12,2727 (MHz) (1)
worin fh (= 15,734) eine dem NTSC-Standard entsprechende Horizontalabtastfre­ quenz und K (= 780) die dem VGA-Standard entsprechende Anzahl von Pixeln in einer Zeile angibt. "VGA" bedeutet hierbei Video Graphic Array. Der VGA- Standard ist der Computer-Videostandard zur Darstellung eines Bildes, das eine Auflösung von 480 (Länge) . 640 (Breite) Pixel hat. In der Pixelanzahl K (= 780) beträgt die Anzahl an effektiven Pixeln 640 und die Anzahl an Pixeln, die einem Schwarzpegel entsprechen, 140. Im digitalen TV-NTSC-Standard ist die Anzahl an Pixeln in einer Zeile gleich 858, wobei 720 effektive Pixel vorgesehen sind und die Abtastfrequenz 13,5 MHz beträgt.
Wie vorstehend erläutert, bezieht sich die Quadratpixelfrequenz fS auf die Zeilen­ frequenz, die gemäß dem TV-Standard festgelegt ist, und die Anzahl an Pixeln in einer Zeile, die gemäß dem Computer-Videostandard festgelegt ist. Die Quadrat­ pixelfrequenz fS wird also gemäß dem TV-Standard und dem Computer- Videostandard bestimmt. In dem vorgestellten Ausführungsbeispiel basiert die Quadratpixelfrequenz fS auf dem NTSC-Verfahren und dem VGA-Standard.
Die digitalen R-, G-, B-Signale werden entsprechend der Quadratpixelfrequenz fS aus den Rahmenspeichern 31R, 31G bzw. 31B ausgelesen. Zeichensignale, die von einer Zeichenverarbeitungsschaltung 34 ausgegeben werden, werden mit einer bestimmten zeitlichen Festlegung, d. h. einem bestimmten Timing, den digitalen R-, G-, B-Signalen überlagert, d. h. in diese Signale mit einbezogen. Die zeitliche Festlegung der Zeichensignale wird durch die Systemsteuerschaltung 16 gesteuert. Die digitalen R-, G-, B-Signale einschließlich der Zeichensignale wer­ den dann einer Matrixschaltung (M. C.) 35 und D/A-Wandlern 32R, 32G und 32B zugeführt. In den D/A-Wandlern 32R, 32G und 32B werden die digitalen R-, G-, B- Signale entsprechend der Quadratpixelfrequenz fS in analoge R-, G-, B-Signale transformiert. Die analogen R-, G-, B-Signale werden mit Synchronisiersignalen SS ausgegeben und einem Farbcodierer 33 als analoge Videosignale zugeführt. In dem Farbcodierer 33 werden die analogen R-, G-, B-Signale in zusammenge­ setzte Signale (zusammengesetzte NTSC-Signale) und Komponentensignale (S- Videosignale) transformiert. Die zusammengesetzten Signale und die Kompo­ nentensignale werden dann getrennt voneinander ausgegeben. In diesem Ausfüh­ rungsbeispiel werden die zusammengesetzten Signale dem TV-Monitor 21 zuge­ führt. Die analogen Videosignale werden dabei gemäß dem NTSC-Standard erzeugt, und Synchronisiersignale werden von dem Synchronisiersignalgenerator 38 ausgegeben.
Dagegen werden in der Matrixschaltung 35 die digitalen R-, G-, B-Signale ent­ sprechend der Quadratpixelfrequenz fS in digitale Luminanzsignale Y und digitale Farbdifferenzsignale transformiert. Die digitalen Farbdifferenzsignale setzen sich aus Signalen Cb (= R - Y) und Signalen Cr (= B - Y) zusammen. Das Verhältnis zwischen der Abtastfrequenz für die Luminanzsignale Y und der Abtastfrequenz für die Farbdifferenzsignale Cb, Cr ist auf 4 : 2 : 2 eingestellt. Die Abtastfrequenz der digitalen Luminanzsignale beträgt 12,2727 MHz und ist damit gleich der Quadrat­ pixelfrequenz fS. Die Abtastfrequenz der digitalen Farbdifferenzsignale Cb, Cr beträgt 6,13635 MHz und ist demnach gleich der Hälfte der Quadratpixelfrequenz fS. Die Anzahl an effektiven Pixeln in einer Zeile bezüglich der digitalen Luminanz­ signale Y und der digitalen Farbdifferenzsignale Cb, Cr beträgt 640, 320 bzw. 320. Die Anzahl an effektiven Pixeln entspricht dabei dem VGA-Standard. Das Ab­ tastfrequenzverhältnis von 4 : 2 : 2 basiert dabei auf einem Abtastfrequenzverhältnis zwischen den Luminanzsignalen Y und den Farbdifferenzsignalen Cb, Cr entspre­ chend dem digitalen TV-Standard.
In dem Multiplexer 36 werden die digitalen Luminanzsignale Y und die digitalen Farbdifferenzsignale Cb, Cr so verarbeitet, daß digitale Mehrfachvideosignale (Multiplex-Videosignale) erzeugt werden. Die Taktfrequenz, die mit der Quadratpi­ xelfrequenz fS identisch ist, wird über ein Operatorelement 37A auf das Zweifache der Quadratpixelfrequenz fS transformiert. Die in dem Multiplexer 36 ausgeführte Multiplexoperation erfolgt deshalb mit 2fS (= 24,5454 MHz).
In Fig. 3 sind die Luminanzsignale Y, die Farbdifferenzsignale Cb, Cr und die digitalen Mehrfachvideosignale gezeigt. Den Quadratpixeln entsprechende Ab­ tastdaten der Luminanzsignale Y sind mit Y1, Y2, . . . bezeichnet. Entsprechend sind Abtastdaten der Farbluminanzsignale Cb, Cr mit Cb1, Cb2, . . . bzw. Cr1, Cr2, bezeichnet. Die Länge eines jeden Abtastdatums entspricht dabei der Größe der Abtastfrequenz. Ist die Abtastfrequenz größer, so ist die Länge des Abtastda­ tums kleiner. Wird die Multiplexoperation ausgeführt, so werden die digitalen Mehrfachvideosignale in der Weise erzeugt, daß die Abtastpixeldaten, wie in Fig. 3 gezeigt, in folgender Reihenfolge angeordnet sind: Y1, Cb1, Y2, Cr1, Y3, Cb2, Y4, Cb2, . . . Den digitalen Mehrfachvideosignalen werden in dem in Fig. 2 gezeig­ ten Multiplexer 36 zusätzlich Zeitsteuer-Referenzsignale TRS hinzugefügt. So werden Synchronisiersignalen entsprechende Signale Dunkelintervallen hinzuge­ fügt, die jeweils zwischen zwei aufeinanderfolgenden Zeilen des digitalen Mehr­ fachvideosignals ausgebildet sind. Die Zeitsteuer-Referenzsignale werden von dem Synchronisiersignalgenerator 38 ausgegeben. Die digitalen Mehrfachvideosi­ gnale werden einem Parallel-Serien-Umsetzer (P/S-Umsetzer) 39 und einer Ethernet-Steuerung 80 zugeführt.
Ethernet ist ein lokales Netzwerk, kurz LAN (Local Area Network), das digitale Parallelsignale zwischen zu einem Netzwerk zusammengeschalteten Compu­ tereinrichtungen überträgt. In der Ethernet-Steuerung 80 werden von dem Multi­ plexer 36 ausgegebene digitale Mehrfachvideosignale in auf das Ethernet ausge­ legte serielle Daten transformiert. Außerdem wird die zeitliche Festlegung, d. h. das Timing der Übertragung der digitalen Parallelvideosignale eingestellt. Die Ethernet-Steuerung 80 wird von der Systemsteuerungsschaltung 16 angesteuert.
In dem Parallel-Serien-Umsetzer 39 werden die digitalen Parallelvideosignale in digitale Serienvideosignale transformiert. Die Frequenz der für den Parallel- Serien-Umsetzer 39 bestimmten Taktimpulse wird in einem Operatorelement 37B auf das 20-Fache der Quadratpixelfrequenz fS transformiert, so daß die Parallel- Serien-Umsetzung mit dem 20-Fachen der Quadratpixelfrequenz fS erfolgt.
Fig. 4 zeigt den Parallel-Serien-Umsetzer 39. Die Parallelsignale der digitalen Luminanzsignale Y und der digitalen Farbdifferenzsignale Cb, Cr setzen sich aus einer Bitfolge von 10 Bits zusammen. Die digitalen Mehrfachvideosignale werden deshalb über einen Bus von 10 Bits von dem Multiplexer 36 ausgegeben. In dem Parallel-Serien-Umsetzer 39 erfolgt alternierend die Rechtsverschiebung von einem niedrigstwertigen Bit, kurz MSB, zu einem höchstwertigen Bit, kurz LSB, und das Auslesen von 1 Bit-Daten aus dem LSB. So werden die digitalen Serien­ videosignale erzeugt und dann über eine Übertragungsleitung FF an den Decoder 25 übertragen, die aus einem Bit besteht. Die digitalen Videosignale werden also seriell übertragen. Zu diesem Zeitpunkt beträgt die Bitrate der seriellen Übertra­ gung 245,454 Mbit/s, was dem 12-Fachen der Quadratpixelfrequenz fS entspricht.
Auf diese Weise werden die digitalen Videosignale gemäß der Quadratpixelfre­ quenz fS erzeugt und dann dem Decoder 25 als Seriensignale zugeführt.
Fig. 5 zeigt den Decoder 25 in einem Blockdiagramm. Der Decoder 25 wird von einer Systemsteuerschaltung (S.C.C.) 57 gesteuert.
In einem Serien-Parallel-Umsetzer 51 werden die digitalen Serienvideosignale in digitale Parallelvideosignale umgesetzt. Die digitalen Parallelvideosignale werden dann in einem Demultiplexer 54 einer Demultiplexoperation unterzogen, so daß die digitalen Luminanzsignale Y und die Farbdifferenzsignale Cb, Cr, die vonein­ ander getrennt sind, wiederhergestellt werden. Die digitalen Luminanzsignale Y und C, die digitalen Farbdifferenzsignale Cb, Cr werden einer Inversmatrixschal­ tung (I.M.C) 55 zugeführt, in der die Luminanzsignale Y und die Farbdifferenzsi­ gnale Cb, Cr in die digitalen R-, G-, B-Signale transformiert werden. Die digitalen R-, G-, B-Signale werden in Rahmenspeichern 56R, 56G, 56B (F.M.) temporär gespeichert und dem Computer 22 zugeführt. Die in dem Serien-Parallel- Umsetzer 51, dem Demultiplexer 54 und der Inversmatrixschaltung 55 ausge­ führte Operation ist invers zu der in dem Parallel-Serien-Umsetzer 39, dem Multi­ plexer 36 und dem Matrixschaltung 35 ausgeführten Operation, wobei die letztge­ nannten Elemente in der in Fig. 2 gezeigten Videoprozeßschaltung 13 vorgesehen sind. Die in dem Decoder 25 durchgeführte Signalverarbeitung erfolgt mit der Quadratpixelfrequenz (12,2727 MHz), ähnlich wie bei der in dem Videoprozessor 10 vorgesehenen Videoverarbeitungsschaltung 13. Eine der Quadratpixelfrequenz fS entsprechende Taktfrequenz von Taktimpulsen, die von einem Impulsgenerator (P.G.) 58 zugeführt werden, wird auf das 20-Fache der Quadratpixelfrequenz fS und auf das 2-Fache der Quadratpixelfrequenz fS transformiert.
Werden die digitalen R-, G-, B-Signale dem Computer 22A zugeführt, so werden sie dort verarbeitet, um das Objektbild auf der dem VGA-Standard entsprechen­ den Anzeigeeinheit 22B darzustellen. Die verarbeiteten Signale werden der An­ zeigeeinheit 22B zugeführt. Das Objektbild kann dann auf der Anzeigeeinheit 22B betrachtet werden. Beim Aufzeichnen des Objektbildes werden die digitalen R-, G-, B-Signale dem Digitalrecorder 22C zugeführt, indem das Objektbild gemäß der Quadratpixelfrequenz fS aufgezeichnet wird. Werden eine Vielzahl an Objekt­ bildern in dem Digitalrecorder 22C aufgezeichnet, so wird das Computersystem 22 als Datenablageeinrichtung verwendet. Die in dem Digitalrecorder 22C aufge­ zeichneten Objektbilder werden dann unter Verwendung der Tastatur 22D abge­ legt und archiviert.
Die Frequenz der von dem Impulsgenerator 23 ausgegebenen Taktimpulse ist nicht auf den Wert 12,2727 MHz beschränkt, der gleich der Quadratpixelfrequenz fS ist. Die Taktfrequenz kann das n-Fache oder das 1/n-Fache der Quadratpixel­ frequenz fS betragen, wobei n eine ganze Zahl angibt.
Für die Farbbildaufnahme kann auch ein Einchipfarbverfahren angewendet wer­ den, bei dem ein Einchipfarbfilter auf der CCD 41 vorgesehen und das Drehfilter 17 weggelassen ist. Bei Anwendung des Einchipfarbverfahrens werden die digi­ talen R-, G-, B-Signale in ähnlicher Weise wie bei dem RGB-Reihenfolgever­ fahren erzeugt.
Anstelle des NTSC-Standards kann als TV-Standard auch der PAL-Standard verwendet werden, wobei "PAL" für "Phase Alternation by Line" steht. In diesem Fall beträgt die Quadratpixelfrequenz 14,75 MHz. Die Abtastfrequenz des digitalen Luminanzsignals Y ist dann gleich 14,75 MHz und die Abtastfrequenz der digitalen Farbdifferenzsignale Cb, Cr gleich 7,375 MHz. Die Anzahl an effektiven Pixeln pro Zeile beträgt bei den digitalen Luminanzsignalen Y und den digitalen Farbdiffe­ renzsignalen Cb, Cr 768, 384 bzw. 384. Bei Anwendung des PAL-Standards werden das Drehfilter 17 und die CCD 41 gemäß dem PAL-Standard angesteuert.
Anstelle des VGA-Standards können andere für Computer vorgesehene Vi­ deostandards, wie z. B. SVGA, angewendet werden. In diesem Fall wird die Qua­ dratpixelfrequenz fS gemäß einer Abtastfrequenz festgelegt, die dem ausgewähl­ ten Computer-Videostandard entspricht.
Die digitalen Mehrfachvideosignale können an das Computersystem 22 auch in Form digitaler Parallelsignale anstelle digitaler Seriensignale übertragen werden.
Die von dem Parallel-Serien-Umsetzer 39 ausgegebenen digitalen Serienvideosi­ gnale können direkt an das Computersystem 22 übertragen werden. In diesem Fall werden die digitalen Serienvideosignale unter Umgehung des Decoders 25 an den Computer 22 ausgegeben.

Claims (8)

1. Videoprozessor (10) für ein elektronisches Endoskop, an den ein Videoteil (40) mit einem Bildsensor (41) und ein Computer (22) angeschlossen ist, wobei auf dem Bildsensor (41) ein Objektbild erzeugt wird und der Videopro­ zessor (10) dem Objektbild entsprechende, aus dem Bildsensor (41) ausge­ lesene Bildpixelsignale verarbeitet, gekennzeichnet durch einen Videosi­ gnalprozessor, der digitale Videosignale auf Grundlage der Bildpixelsignale erzeugt und an den Computer (22) ausgibt, und durch einen ersten Impuls­ generator, der dem Videosignalprozessor Taktimpulse gemäß einer vorbe­ stimmten Abtastfrequenz zuführt, so daß die digitalen Videosignale gemäß dieser Abtastfrequenz erzeugt und ausgegeben werden, wobei die Ab­ tastfrequenz einer auf den Computer (22) ausgelegten Quadratpixelfrequenz fS entspricht.
2. Videoprozessor (10) nach Anspruch 1, dadurch gekennzeichnet, daß die Abtastfrequenz auf das n-Fache oder das 1/n-Fache der Quadratpixelfre­ quenz fS eingestellt ist, wobei n eine ganze Zahl angibt.
3. Videoprozessor (10) nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Bildpixelsignale unter Anwendung eines RGB-Reihenfolge-verfahrens in digitale, der Farbe Rot, Grün bzw. Blau entsprechende R-, G-, B-Signale transformiert werden und daß der Videosignalprozessor versehen ist mit ei­ ner Matrixschaltung (35), die die digitalen R-, G-, B-Signale in digitale Lumi­ nanzsignale (Y) und in digitale Farbdifferenzsignale (Cb, Cr) transformiert, und einem Multiplexer (36), der die digitalen Luminanzsignale (Y) und die di­ gitalen Farbdifferenzsignale (Cb, Cr) so verarbeitet, daß digitale Mehrfachvi­ deosignale als digitale Videosignale erzeugt werden.
4. Videoprozessor (10) nach Anspruch 3, dadurch gekennzeichnet, daß der Multiplexer (36) die digitalen Mehrfachvideosignale so erzeugt, daß das Ab­ tastfrequenzverhältnis zwischen den digitalen Luminanzsignalen (Y) und den digitalen Farbdifferenzsignalen (Cb, Cr) in den digitalen Mehrfachvideosi­ gnalen gleich 4 : 2 : 2 ist.
5. Videoprozessor (10) nach Anspruch 4, dadurch gekennzeichnet, daß die Taktfrequenz der der Matrixschaltung (35) zugeführten Taktimpulse gleich der Quadratpixelfrequenz fS und die Taktfrequenz der dem Multiplexer (36) zugeführten Taktimpulse gleich dem 2-Fachen der Quadratpixelfrequenz fS ist.
6. Videoprozessor (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß an dem Computer (22) ein Digitalrecorder (22C), der das Objektbild in Form von digitalen Bilddaten aufzeichnet, und eine einem Computer-Videostandard entsprechende Anzeigeeinheit (22B), die das Ob­ jektbild darstellt, angeschlossen sind und daß die digitalen Videosignale dem Digitalrecorder (22C) und der Anzeigeeinheit (22B) über den Computer (22) zugeführt werden.
7. Videoprozessor (10) nach einem der Ansprüche 3 bis 6, dadurch gekenn­ zeichnet, daß der Videosignalprozessor einen Parallel-Serien-Umsetzer (39) enthält, der die digitalen Mehrfachvideosignale in digitale Serienvideosignale transformiert, um diese dem Computer (22) zuzuführen, und daß der erste Impulsgenerator die Taktimpulse dem Parallel-Serien-Umsetzer (39) mit der Quadratpixelfrequenz fS zuführt.
8. Decoder (25) in Kombination mit dem Videoprozessor (10) nach Anspruch 7, dadurch gekennzeichnet, daß der Decoder (25) zwischen dem Videopro­ zessor (10) und dem Computer (22) angeordnet ist, um dem Computer (22) die digitalen, R-, G- und B-Signale zuzuführen, und versehen ist mit
einem Serien-Parallel-Umsetzer (51), der die digitalen Serienvideosignale in digitale Mehrfachvideosignale umsetzt,
einem Demultiplexer (54), der die digitalen Mehrfachvideosignale verarbeitet, um die digitalen Luminanzsignale (Y) und die digitalen Farbdifferenzsignale (Cb, Cr) wiederherzustellen,
einer Inversmatrixschaltung (55), die die digitalen Luminanzsignale (Y) und die digitalen Farbdifferenzsignale (Cb, Cr) in die digitalen R-, G- und B- Signale transformiert, und
einem zweiten, für den Decoder (25) bestimmten Impulsgenerator, der dem Serien-Parallel-Umsetzer (51), dem Demultiplexer (54) und der Inversmatrix­ schaltung (55) Taktimpulse gemäß der Quadratpixelfrequenz fS zuführt.
DE10046613A 1999-09-20 2000-09-20 Videoprozessor für ein elektronisches Endoskop Withdrawn DE10046613A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26504199 1999-09-20

Publications (1)

Publication Number Publication Date
DE10046613A1 true DE10046613A1 (de) 2001-03-22

Family

ID=17411771

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10046613A Withdrawn DE10046613A1 (de) 1999-09-20 2000-09-20 Videoprozessor für ein elektronisches Endoskop

Country Status (2)

Country Link
US (1) US6697101B1 (de)
DE (1) DE10046613A1 (de)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050245789A1 (en) 2003-04-01 2005-11-03 Boston Scientific Scimed, Inc. Fluid manifold for endoscope system
US20050222499A1 (en) * 2003-04-01 2005-10-06 Banik Michael S Interface for video endoscope system
US7578786B2 (en) * 2003-04-01 2009-08-25 Boston Scientific Scimed, Inc. Video endoscope
US20040199052A1 (en) 2003-04-01 2004-10-07 Scimed Life Systems, Inc. Endoscopic imaging system
US8118732B2 (en) 2003-04-01 2012-02-21 Boston Scientific Scimed, Inc. Force feedback control system for video endoscope
US7591783B2 (en) 2003-04-01 2009-09-22 Boston Scientific Scimed, Inc. Articulation joint for video endoscope
JP2004305373A (ja) * 2003-04-04 2004-11-04 Pentax Corp 電子内視鏡システム
JP4531478B2 (ja) * 2004-08-06 2010-08-25 Hoya株式会社 電子内視鏡装置
US20060050983A1 (en) * 2004-09-08 2006-03-09 Everest Vit, Inc. Method and apparatus for enhancing the contrast and clarity of an image captured by a remote viewing device
US7479106B2 (en) 2004-09-30 2009-01-20 Boston Scientific Scimed, Inc. Automated control of irrigation and aspiration in a single-use endoscope
US8199187B2 (en) * 2004-09-30 2012-06-12 Boston Scientific Scimed, Inc. Adapter for use with digital imaging medical device
US7241263B2 (en) * 2004-09-30 2007-07-10 Scimed Life Systems, Inc. Selectively rotatable shaft coupler
US8353860B2 (en) * 2004-09-30 2013-01-15 Boston Scientific Scimed, Inc. Device for obstruction removal with specific tip structure
US20060069310A1 (en) * 2004-09-30 2006-03-30 Couvillon Lucien A Jr Programmable brake control system for use in a medical device
US8083671B2 (en) 2004-09-30 2011-12-27 Boston Scientific Scimed, Inc. Fluid delivery system for use with an endoscope
JP2008514363A (ja) 2004-09-30 2008-05-08 ボストン サイエンティフィック リミテッド 電気外科用途において使用するための多機能内視鏡システム
US20060068360A1 (en) * 2004-09-30 2006-03-30 Scimed Life Systems, Inc. Single use fluid reservoir for an endoscope
JP2006218233A (ja) * 2005-02-14 2006-08-24 Olympus Corp 内視鏡装置
US7846107B2 (en) 2005-05-13 2010-12-07 Boston Scientific Scimed, Inc. Endoscopic apparatus with integrated multiple biopsy device
US8097003B2 (en) * 2005-05-13 2012-01-17 Boston Scientific Scimed, Inc. Endoscopic apparatus with integrated variceal ligation device
JP4681981B2 (ja) 2005-08-18 2011-05-11 Hoya株式会社 電子内視鏡装置
US8451327B2 (en) * 2005-08-18 2013-05-28 Hoya Corporation Electronic endoscope, endoscope light unit, endoscope processor, and electronic endoscope system
US8052597B2 (en) 2005-08-30 2011-11-08 Boston Scientific Scimed, Inc. Method for forming an endoscope articulation joint
US7967759B2 (en) 2006-01-19 2011-06-28 Boston Scientific Scimed, Inc. Endoscopic system with integrated patient respiratory status indicator
US8888684B2 (en) * 2006-03-27 2014-11-18 Boston Scientific Scimed, Inc. Medical devices with local drug delivery capabilities
US8202265B2 (en) 2006-04-20 2012-06-19 Boston Scientific Scimed, Inc. Multiple lumen assembly for use in endoscopes or other medical devices
US7955255B2 (en) * 2006-04-20 2011-06-07 Boston Scientific Scimed, Inc. Imaging assembly with transparent distal cap
JP5308716B2 (ja) * 2008-05-21 2013-10-09 オリンパスメディカルシステムズ株式会社 電子内視鏡装置
KR20130067665A (ko) * 2011-12-14 2013-06-25 삼성테크윈 주식회사 이더넷 기반 디지털 영상 송수신 시스템
JP6639920B2 (ja) * 2016-01-15 2020-02-05 ソニー・オリンパスメディカルソリューションズ株式会社 医療用信号処理装置、及び医療用観察システム
CN108989709A (zh) * 2018-08-03 2018-12-11 中船重工(武汉)凌久电子有限责任公司 一种高性能模拟视频远距离传输方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4799104A (en) * 1986-12-19 1989-01-17 Olympus Optical Co., Ltd. Video signal processor for endoscope
JPH0595900A (ja) * 1991-04-11 1993-04-20 Olympus Optical Co Ltd 内視鏡画像処理装置
US5902230A (en) 1995-02-06 1999-05-11 Asahi Kogaku Kogyo Kabushiki Kaisha Electronic endoscope system with information combined in digital output
US5877802A (en) * 1996-05-21 1999-03-02 Asahi Kogaku Kogyo Kabushiki Kaisha Video-signal processing device connectable to an electronic endoscope
US6545703B1 (en) * 1998-06-26 2003-04-08 Pentax Corporation Electronic endoscope
JP4172898B2 (ja) * 2000-05-31 2008-10-29 Hoya株式会社 電子内視鏡装置

Also Published As

Publication number Publication date
US6697101B1 (en) 2004-02-24

Similar Documents

Publication Publication Date Title
DE10046613A1 (de) Videoprozessor für ein elektronisches Endoskop
DE19721713C2 (de) Elektronisches Endoskop
DE19816481B4 (de) Elektronisches Endoskopsystem
DE69531857T2 (de) Gerät und verfahren zur erzeugung eines filmähnlichen videos
DE3742900C2 (de)
DE2703579C2 (de) Anordnung zur Verarbeitung von Videosignalen
DE10056178B4 (de) Elektronisches Endoskopsystem mit mehreren Videoprozessoren
DE102004016369A1 (de) Elektronisches Endoskopsystem
DE3828867A1 (de) Festkoerper-bildsensorvorrichtung
DE10062631A1 (de) Auswahlvorrichtung für ein elektronisches Endoskopsystem
DE10059662B4 (de) Elektronisches Endoskopsystem
DE102009018255A1 (de) Endoskopsteuereinheit und Endoskopeinheit
DE69935304T2 (de) Bildaufnahmevorrichtung und Signalübertragung
DE19604257A1 (de) Elektronisches Endoskopsystem
DE3114925C2 (de)
DE102005001652A1 (de) Verfahren zum Verarbeiten von aus einem Filmaufnahmestrahlengang einer Laufbildkamera abgezweigten Filmbildern
EP1317853B1 (de) Kombinierte standard-video- und high-speed-kamera
DE102007051889A1 (de) Elektronisches Endoskop
DE3230552A1 (de) Festkoerper-farbbildaufnahmesystem
DE19931816B4 (de) Bilderzeugungsvorrichtung für Endoskope für sowohl das NTSC- als auch das PAL-System
DE3617837C2 (de)
DE102009020391A1 (de) Sender und Empfänger für digitale Videosignale und diese enthaltendes System
DE3202328A1 (de) "multiplexsystem fuer digitale videosignalverarbeitung"
EP1922871B1 (de) Übertragung von nutzdaten im bildsignal eines kamerasystems
DE102007051888A1 (de) Elektronisches Endoskop

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: PENTAX CORP., TOKIO/TOKYO, JP

8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: HOYA CORP., TOKIO/TOKYO, JP

R120 Application withdrawn or ip right abandoned

Effective date: 20110504