FR2965443A1 - Videoendoscope a vision stereo - Google Patents

Videoendoscope a vision stereo Download PDF

Info

Publication number
FR2965443A1
FR2965443A1 FR1003865A FR1003865A FR2965443A1 FR 2965443 A1 FR2965443 A1 FR 2965443A1 FR 1003865 A FR1003865 A FR 1003865A FR 1003865 A FR1003865 A FR 1003865A FR 2965443 A1 FR2965443 A1 FR 2965443A1
Authority
FR
France
Prior art keywords
frame
image
integration time
signal
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1003865A
Other languages
English (en)
Other versions
FR2965443B1 (fr
Inventor
Jean Rovegno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokendo
Original Assignee
Tokendo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokendo filed Critical Tokendo
Priority to FR1003865A priority Critical patent/FR2965443B1/fr
Publication of FR2965443A1 publication Critical patent/FR2965443A1/fr
Application granted granted Critical
Publication of FR2965443B1 publication Critical patent/FR2965443B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • G03B7/093Digital circuits for control of exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)

Abstract

L'invention concerne un procédé d'ajustement de la sensibilité d'un capteur d'image, comprenant des étapes consistant à : ajuster une durée d'intégration (IT) du capteur d'image entre une durée minimum (ITmin) et une durée de trame d'image (FT), recevoir du capteur d'image un signal de trame, amplifier le signal de trame en appliquant un gain d'amplification (G) ajusté entre des valeurs distinctes de gain minimum (Gmin) et maximum (Gmax), et pour chaque trame du signal électrique de trame, si une durée d'intégration calculée en fonction d'une valeur moyenne du signal de trame, est comprise entre la durée minimum et une durée maximum (ITmax) égale à plusieurs fois la durée de trame, établir la durée d'intégration à la durée d'intégration calculée et maintenir le gain d'amplification à une valeur fixe (Gopt), sinon maintenir la durée d'intégration à la durée minimum ou maximum et ajuster le gain d'amplification entre les valeurs minimum et maximum en fonction de la valeur moyenne.

Description

i VIDEOENDOSCOPE A VISION STEREO
La présente invention concerne un procédé de traitement d'image en temps réel, mis en oeuvre dans un processeur vidéo de sonde vidéoendoscopique. La présente invention s'applique notamment, mais non exclusivement, aux sondes vidéoendoscopique comprenant un capteur s d'image distal, à vocation industrielle. Le terme "vidéoendoscope" désigne généralement un système d'endoscopie permettant d'observer sur un écran vidéo l'image d'une cible située dans une cavité obscure. Un tel système comprend le plus souvent une sonde vidéoendoscopique, et un ou plusieurs dispositifs d'exploitation io annexes. La sonde vidéoendoscopique comprend généralement un embout distal, un tube d'inspection généralement souple, dont l'extrémité distale est solidaire de l'embout distal, une poignée de commande solidaire de l'extrémité proximale du tube d'inspection, un dispositif d'éclairage pour éclairer la cible observée, un dispositif de traitement d'image, un écran de ls visualisation, un panneau de touches de commandes, et un câble ombilical souple dont l'extrémité distale est solidaire de la poignée de commande. L'embout distal loge un objectif et un dispositif optoélectronique de faible encombrement comprenant notamment un objectif optique, un capteur d'image associé à un circuit d'interface. L'objectif est associé au capteur 20 d'image de manière à former une image sur la surface photosensible du capteur d'image. L'extrémité proximale du câble ombilical est équipée d'un connecteur multiple permettant de raccorder la sonde à un dispositif d'exploitation annexe. Le dispositif d'éclairage comprend généralement un faisceau de fibres d'éclairage successivement logé dans le câble ombilical, 25 dans la poignée de commande, puis dans le tube d'inspection. L'extrémité distale du faisceau de fibres d'éclairage est intégrée dans l'embout distal, pour illuminer la cible inspectée. L'extrémité proximale du faisceau de fibres est logée dans le connecteur multiple du câble ombilical pour se raccorder à un générateur de lumière. Le dispositif de traitement d'image comprend un 30 processeur vidéo qui peut être logé dans la poignée de commande. Le processeur vidéo est alors connecté au capteur d'image distal par un câble électrique multiconducteurs logé dans le tube d'inspection. Le processeur vidéo agit simultanément sur la synchronisation du capteur d'image et sur l'amplitude du signal analogique brut fourni par ce dernier. Le processeur vidéo est configuré pour transformer en un signal vidéo utile le signal analogique fourni par le capteur d'image distal. A cet effet, le processeur s vidéo est synchronisé par un réglage effectué d'origine en fonction de la longueur et des caractéristiques électriques du câble multiconducteurs. L'écran de visualisation permet de visualiser le signal vidéo utile fourni par le dispositif de traitement d'image. Il peut être plat et implanté sur la poignée de commande. Le panneau de touches de commande permet de régler des io paramètres de fonctionnement du dispositif de traitement d'image, et peut être également implanté sur la poignée de commande. Généralement, les sondes vidéoendoscopiques peuvent comprendre également un béquillage distal articulé, et des têtes optiques interchangeables verrouillables sur l'embout distal de la sonde. Le béquillage ls permet de modifier l'orientation de l'embout distal du tube d'inspection. II est actionné par des moyens mécaniques (commandés par deux molettes et deux leviers de blocage) ou électromécaniques (commandés par un manche à balai) qui peuvent être intégrés dans la poignée de commande. Les têtes optiques interchangeables permettent de modifier tout ou partie des 20 paramètres optiques suivants : champ couvert par la sonde, distance de mise au point, profondeur de champ et direction de visée. Les dispositifs d'exploitation annexes susceptibles d'être connectés à l'extrémité proximale du câble ombilical peuvent comprendre une alimentation électrique qui comporte une batterie rechargeable, ou un boîtier 25 raccordable à une source de courant alternatif ou continu. Ils peuvent également comprendre un générateur de lumière comprenant traditionnellement une lampe halogène ou xénon. Ils peuvent encore comprendre un dispositif de traitement numérique et d'enregistrement d'images comprenant soit un simple ordinateur portable équipé d'une entrée 30 vidéo, soit un système dédié qui peut être commandé aussi bien localement qu'à partir du panneau de commande sur la poignée de la sonde vidéoendoscopique. Récemment, la miniaturisation de composants a permis la mise en oeuvre d'un dispositif d'éclairage comportant, non pas une lampe d'éclairage 35 déportée traditionnellement utilisée en endoscopie, mais une ou plusieurs diodes électroluminescentes. II est également devenu possible d'intégrer dans le processeur vidéo un ou plusieurs dispositifs numériques dédiés pour gérer en temps réel des fonctions telles que : gel d'image, s zoom progressif, inversion d'image notamment pour compenser une inversion d'image d'origine optique introduite par des prismes à réflexion partielle intégrés dans les têtes distales à visée déviée, enregistrement et lecture d'images, gérés par un processeur de io traitement du signal. La métrologie "in situ" constitue sans doute l'application la plus intéressante de la vidéoendoscopie traditionnelle. La méthode la plus précise en la matière, couramment appelée « mesure stéréo », peut être mise en oeuvre par un dispositif optique distal de dédoublement d'image, 15 associé à un programme de calcul trigonométrique. Le dispositif de dédoublement d'image est configuré pour former sur la surface photosensible du capteur d'image auquel il est associé, deux images distinctes, correspondant à deux angles de vue différents, de la cible à mesurer. Le programme de calcul trigonométrique permet, moyennant un 20 étalonnage initial, et à partir de pointages effectués sur les deux images de la cible fournies par le dispositif de dédoublement d'image, de déterminer les coordonnées de points de la cible dans un espace tridimensionnel. Parmi les dispositifs optiques de dédoublement d'image associés à un unique capteur d'image, les plus couramment utilisés, il existe un 25 dispositif à deux objectifs distincts et identiques alignés sur des axes optiques parallèles. Un tel dispositif est par exemple décrit dans les documents US 4 873 572, US 2002/0 137 986, et US 6 063 023. Il existe également un dispositif comportant un unique composant optique présentant une surface distale plane et une face proximale en forme de delta à arête 30 saillante. Un tel dispositif est par exemple décrit dans les documents DE 3 432 583, US 6 411 327 et US 2002/0 089 583. Il existe également un dispositif comportant une lentille convergente proximale associée à un composant optique comprenant deux portions identiques de lentilles convergentes séparées l'une de l'autre par un élément central opaque. Un 4
tel dispositif est décrit dans les documents FR 2 865 547, US 7 507 201 et EP 1 542 053. Les dispositifs de dédoublement d'image (à visée axiale ou latérale) sont généralement montés dans des têtes interchangeables, adaptables sur s l'embout distal d'une sonde vidéoendoscopique, de la même manière que les têtes de vision axiales ou latérales. Il en résulte que l'inspection d'une pièce susceptible de nécessiter une phase de mesure dimensionnelle, peut être effectuée de la manière suivante : introduction de la sonde équipée d'une tête de vision dans une cavité à io inspecter, déroulement de l'inspection dans la cavité, identification d'un défaut nécessitant une mesure dimensionnelle, extraction de la sonde de la cavité inspectée et remplacement de la tête de vision par une tête à dédoublement d'image, ls introduction de la sonde dans la cavité inspectée, et déroulement de la mesure dimensionnelle. Cette séquence d'opérations s'avère complexe et exige un temps non négligeable, ce qui limite en pratique l'application de procédures de mesure aux seuls défauts critiques risquant de mettre en jeu le fonctionnement d'un 20 système mécanique contrôlé. Il n'est donc pas envisageable de procéder à une évaluation statistique de plusieurs défauts mineurs. Pourtant, une telle évaluation statistique est à la base d'un l'entretien préventif d'un système mécanique. Les méthodes de mesure stéréo ne peuvent donc pas être utilisées pour effectuer des contrôles quantitatifs fréquents, répétitifs et 25 identiques sur un même type de système mécanique. Il est donc souhaitable de simplifier la mise en oeuvre d'une procédure de mesure à l'aide d'une sonde vidéoendoscopique, pour pouvoir effectuer des contrôles quantitatifs fréquents et répétitifs. A cet effet, il est souhaitable d'éviter d'avoir à changer la tête de la sonde pour effectuer des 30 mesures. Des modes de réalisation concernent un procédé de traitement de signal vidéo de sonde vidéoendoscopique comprenant deux capteurs d'image, le procédé comprenant des étapes consistant à : ajuster une durée d'intégration de chaque capteur d'image entre une durée d'intégration 35 minimum et une durée de trame d'image, recevoir de chaque capteur 2965443 s
d'image un signal de trame, et amplifier chaque signal de trame en appliquant un gain d'amplification ajusté entre des valeurs distinctes de gain minimum et maximum. Selon un mode de réalisation, le procédé comprend pour chaque trame de chaque signal de trame amplifié des étapes de s détermination d'une valeur moyenne du signal de trame, de calcul d'une nouvelle durée d'intégration en fonction de la valeur moyenne, et si la nouvelle durée d'intégration est comprise entre la durée d'intégration minimum et une durée d'intégration maximum supérieure à la durée de trame, établir la durée d'intégration à la nouvelle durée d'intégration et io maintenir le gain d'amplification à une valeur fixe, et si la nouvelle durée d'intégration est supérieure à la durée d'intégration maximum, maintenir la durée d'intégration à la durée d'intégration maximum et ajuster le gain d'amplification entre les valeurs de gain fixe et maximum en fonction de la valeur moyenne du signal de trame. ls Selon un mode de réalisation, le procédé comprend une étape de maintien de la durée d'intégration à la durée d'intégration minimum et d'ajustement du gain d'amplification entre les valeurs de gain fixe et minimum en fonction de la valeur moyenne du signal de trame, si la nouvelle durée d'intégration est inférieure à la durée d'intégration minimum. 20 Selon un mode de réalisation, le procédé comprend des étapes de commande de chaque capteur d'image de manière à ce qu'il fournisse une trame toutes les deux impulsions d'un signal d'horloge à la fréquence trame, et de génération, à partir d'une trame du signal de trame amplifié reçue du capteur d'image, d'une trame suivante obtenue en dupliquant la trame reçue 25 et en effectuant un décalage vertical égal à la moitié de l'intervalle de temps séparant deux lignes successives de la trame reçue. Selon un mode de réalisation, le procédé comprend une étape de fourniture d'un nombre de paires de trames égal au nombre de paires de trames comprises dans la durée d'intégration plus un, à la suite d'une 30 impulsion d'un signal d'intégration fourni à chaque capteur d'image et présentant une durée est égale à la durée d'intégration. Selon un mode de réalisation, l'ajustement de la durée d'intégration est effectué en fonction d'un écart entre la valeur moyenne du signal de trame issu de chaque capteur d'image et une valeur de consigne. 6
Selon un mode de réalisation, la valeur de gain fixe fournie à chaque capteur d'image est choisie de manière à obtenir un rapport signal/bruit maximum dans le signal de trame amplifié. Selon un mode de réalisation, la nouvelle durée d'intégration est s obtenue en lui ajoutant un écart de durée d'intégration positif ou négatif, proportionnel à un écart entre la valeur moyenne du signal de trame et une valeur de consigne. Selon un mode de réalisation, l'ajustement de la durée d'intégration est effectué entre 1 ms et 8 fois la durée de trame. lo Selon un mode de réalisation, l'ajustement du gain d'amplification est effectué entre 2 dB et 30 dB. Selon un mode de réalisation, le procédé comprend une étape d'amplification d'un des deux signaux de trame pour égaliser la luminance des signaux de trame issus des deux capteurs d'image. ls Selon un mode de réalisation, les signaux issus des capteurs d'image sont traités de manière à fournir une image en relief visualisable sur un écran d'affichage d'image en relief, ou une image visualisable sur un écran d'affichage simple, comportant uniquement une image issue d'un seul des deux capteurs d'image, ou une portion d'image issue de chaque capteur 20 d'image. Selon un mode de réalisation, le procédé comprend des étapes d'exécution de commandes de commutation entre un mode d'affichage dans lequel sont affichées uniquement les images issues d'un seul des deux capteurs ou dans lequel les images issues des deux capteurs sont affichées 25 en relief, et un mode d'affichage dans lequel tout ou partie de chacune des images issues des deux capteurs sont affichées côte à côte. Des modes de réalisation concernent également un processeur vidéo pour sonde vidéoendoscopique comprenant deux capteurs d'image, configuré pour mettre en oeuvre le procédé défini précédemment, afin de 30 traiter le signal issu de chaque capteur d'image. Selon un mode de réalisation, le processeur vidéo comprend deux circuits logiques recevant chacun des échantillons numérisés de signaux de trame provenant d'un des deux capteurs d'image, chaque circuit logique étant configuré pour ajuster la durée d'intégration du capteur vidéo et le gain 35 d'amplification afin d'asservir la valeur moyenne du signal de trame à la 7
valeur de consigne, et pour fournir des signaux de trame numérisés dont la valeur moyenne est corrigée, à un circuit de traitement de signal vidéo configuré pour assurer un traitement chromatique des signaux de trame numérisés. s Selon un mode de réalisation, chaque circuit logique est connecté à une mémoire pour mémoriser une ou plusieurs trames numérisées. Selon un mode de réalisation, chaque circuit logique est configuré pour assurer des fonctions de zoom, et/ou gel d'image et et/ou inversion d'image. io Selon un mode de réalisation, chaque capteur d'image est de type CMOS. Des modes de réalisation concernent également un vidéoendoscope comprenant un processeur vidéo tel que précédemment défini. Selon un mode de réalisation, l'un des deux capteurs d'image est ls associé à un objectif à grand champ pour obtenir une image d'ambiance, et l'autre des deux capteurs d'image est associé à un objectif faible champ pour obtenir une image spot, l'image spot étant incrustée dans l'image d'ambiance ou affichée à côté de l'image d'ambiance.
20 Des exemples de réalisation de l'invention seront décrits dans ce qui suit, à titre non limitatif en relation avec les figures jointes parmi lesquelles : la figure 1 représente en perspective une sonde vidéoendoscopique compacte et autonome, la figure 2 représente schématiquement un capteur d'image 25 présentant un encombrement réduit, la figure 3 représente schématiquement un capteur d'image stéréo présentant un encombrement réduit, la figure 4 représente schématiquement des circuits électroniques d'une sonde vidéoendoscopique compacte, selon un mode de réalisation, 30 La figure 5 représente schématiquement un agencement de pixels d'un capteur d'image intégré dans l'embout distal d'une sonde vidéoendoscopique stéréo, selon un mode de réalisation, les figures 6A à 6D représentent des chronogrammes de signaux circulant dans les circuits électroniques de la figure 4, dans un mode 35 d'obturation à haute vitesse, selon un mode de réalisation, 8
les figures 7A à 7D représentent des chronogrammes de signaux circulant dans les circuits électroniques de la figure 4, dans un autre mode d'obturation à basse vitesse, selon un mode de réalisation, les figures 8A à 8D représentent des chronogrammes de signaux s circulant dans les circuits électroniques de la figure 4, dans un autre mode d'obturation à basse vitesse, selon un mode de réalisation, les figures 9A à 9D représentent des chronogrammes de signaux circulant dans les circuits électroniques de la figure 4, dans un autre mode d'obturation à basse vitesse, selon un mode de réalisation, io la figure 10 représente des courbes de variation de la durée d'intégration et du gain, en fonction de l'éclairement de la surface photosensible du capteur d'image, selon un mode de réalisation, les figures 11 et 12 représentent des courbes en fonction du temps illustrant le fonctionnement de la fonction d'asservissement de la durée is d'intégration, selon un mode de réalisation, la figure 13 représente schématiquement des circuits électroniques d'une sonde vidéoendoscopique stéréo, selon un mode de réalisation. La figure 1 représente une sonde vidéoendoscopique compacte et autonome. La sonde comprend une poignée de commande 1, un tube 20 d'inspection 2 dont l'extrémité proximale est connectée à une face distale de la poignée de commande 1. L'extrémité distale du tube d'inspection 2 comprend un béquillage 11 solidaire d'un embout distal 12 logeant un capteur d'image et un objectif associé au capteur d'image. Une face proximale de la poignée de commande 1 est solidaire de l'extrémité distale 25 d'un câble ombilical 3 dont l'extrémité proximale est connectée à une alimentation électrique 10. La poignée de commande 1 loge ou supporte : une carte électronique regroupant un processeur vidéo VP et l'ensemble de ses fonctions ancillaires, un générateur de lumière 4 comprenant une diode LED illuminant 30 l'extrémité proximale d'un faisceau de fibres d'éclairage logé dans le tube d'inspection 2, un écran d'affichage DS, par exemple de type LCD, de format traditionnel 4/3 correspondant aux proportions des capteurs d'images utilisés en vidéoendoscopie, 9 un panneau de touches de commande KB, pour commander, selon des phases d'inspection, notamment des fonctions d'enregistrement d'images, de lecture d'images préenregistrées, de paramétrage vidéo, des fonctions de traitement en temps différé, une fonction de mesure s tridimensionnelle, ..., un dispositif de commande de béquillage comportant deux servomoteurs logés dans une partie inférieure de la poignée de commande 1 et commandés par un manche à balai 7, et un dispositif numérique disposant de fonctions de visualisation, io d'enregistrement/lecture d'images et de traitement d'image en temps différé. La poignée peut également supporter des dispositifs externes tels qu'un ou plusieurs capots 8, 9 qui peuvent être souples, assurant l'étanchéité de deux platines de connexion comportant des interfaces de connexion, par exemple de type sortie vidéo auxiliaire, et USB pour se ls connecter à une mémoire d'enregistrement d'images. L'embout distal de la sonde vidéoendoscopique peut être configuré pour se verrouiller à une tête optique amovible, telle qu'une tête de vision axiale 13, une tête de vision latérale 14, une tête de dédoublement d'image axial 15 ou latéral 16 pour effectuer des mesures tridimensionnelles. 20 Selon un mode de réalisation, l'embout distal loge deux capteurs d'image, et peut s'accoupler à des têtes interchangeables, à visée axiale ou latérale, chaque tête logeant deux objectifs optiques distincts affectés chacun à un capteur d'image. Le processeur vidéo, qui peut être intégré dans la poignée de commande 1, présente une architecture permettant, 25 avec un nombre minimum de composants, de synchroniser simultanément les deux capteurs d'image, et gérer simultanément des trames de signaux analogiques fournies par les deux capteurs d'image. Le processeur vidéo assure des fonctions temps réel de numérisation, régulation de la vitesse d'obturation et du gain, zoom, inversion d'image, extraction des 30 composantes chromatiques, balance des blancs, corrections (filtrage, gamma, contours), et recomposition de séquences de trames vidéo paires et impaires. Le processeur vidéo assure également des fonctions de conversion en analogique de trames successives, d'élaboration de composantes chrominance et luminance, de corrections (filtrage, mise en 35 phase, mise à niveau) de ces composantes, et d'élaboration d'un signal 2965443 io
vidéo normalisé. Le processeur vidéo peut également assurer des fonctions de traitement numérique d'image pour visualiser en plein écran l'image provenant de l'un des deux capteurs d'image, pour visualiser simultanément deux portions des images provenant des deux capteurs d'images, afin de mettre en oeuvre un programme de mesure tridimensionnelle, ou pour élaborer un signal vidéo spécifique permettant de mettre en oeuvre un dispositif de visualisation d'images en relief. La figure 2 représente un capteur d'image IS présentant un encombrement réduit susceptible d'être logé dans l'embout distal de la io sonde représentée sur la figure 1. La diagonale de la face frontale du capteur est par exemple inférieure à 1/10 pouce (2.54 mm). Le capteur d'image IS comprend une couche photosensible formant une matrice de pixels PX associée à un filtre mosaïque affectant une couleur primaire à chacun des pixels. La matrice de pixels PX est également associée à une 15 interface de commande SL permettant notamment de sélectionner en adressant une ligne et une colonne, un pixel dont on souhaite commander la lecture. Le capteur IS comprend un également générateur de signaux d'horloge CLK, un amplificateur AMP, et un circuit logique de commande 20 CLC. Le générateur CLK a pour fonction de générer l'ensemble des signaux de synchronisation 17 nécessaires à la gestion de la matrice de pixels PX. Le générateur CLK reçoit un signal d'horloge rapide HP, par exemple un signal d'horloge de synchronisation pixel. L'amplificateur AMP, par exemple de type amplificateur opérationnel, est connecté à une sortie de la matrice 25 de pixels PX et fournit un signal analogique d'image E en sortie du capteur IS. Le capteur IS est par exemple de type CMOS. Le circuit logique de commande CLC reçoit des ordres SO transmis en mode série, et génère des signaux de commande de gain 19 qui sont transmis à l'amplificateur AMP. Le circuit CLC transmet également au 30 générateur d'horloge CLK des ordres de commande 20 par exemple relatifs à la durée des impulsions d'intégration de la matrice de pixels PX. Durant une phase de lecture, la matrice PX transmet des signaux analogiques 18 relatifs à une ligne de pixels, à l'amplificateur opérationnel AMP. Le capteur IS reçoit également une tension électrique SV permettant d'alimenter ses 35 différents circuits. ii
La figure 3 représente l'architecture d'un dispositif de capture d'image stéréo SIS présentant un encombrement réduit qui lui permet d'être intégré dans une sonde vidéoendoscopique de faible diamètre (5 mm par exemple). Le dispositif SIS comprend deux capteurs d'image ISL, ISR, et un circuit s d'interface INT permettant de relier les deux capteurs ISL, ISR à un processeur vidéo, par l'intermédiaire d'un câble présentant un nombre réduit de liaisons électriques (par exemple cinq liaisons électriques). Les deux capteurs ISL, ISR qui peuvent être identiques au capteur IS décrit en référence à la figure 2, fournissent des signaux analogiques io d'image EL et ER. Le circuit d'interface INT reçoit les trois signaux HP, SV et SO, et les redistribue aux capteurs d'image ISL, ISR. La figure 4 représente des circuits électroniques d'une sonde vidéoendoscopique. Ces circuits comprennent : un capteur d'image IS distal, tel que celui représenté sur la figure 2, ls un processeur vidéo VP, un câble multiconducteurs 20 reliant le capteur d'image IS au processeur vidéo VP, et un dispositif de traitement d'image et de visualisation PP couplé directement au processeur vidéo VP. 20 Le processeur vidéo VP comprend un circuit d'alimentation électrique PW, un circuit de synchronisation TG, un circuit de commande MC, et un circuit de traitement vidéo VT pour traiter en temps réel le signal E fourni par le capteur IS. Le circuit de traitement vidéo VT comprend un composant 26, un circuit logique de traitement vidéo LC, une mémoire MEM, et un 25 convertisseur numérique/analogique vidéo CNA1 spécifique. Le composant 26 comprend un échantillonneur-bloqueur (sample and hold) SHC et un convertisseur analogique / numérique CAN. Dans ces conditions, le câble multiconducteurs 20 regroupe les liaisons électriques véhiculant les signaux suivants : 30 la tension d'alimentation SV générée par le circuit PW et directement transmise au capteur IS, le signal d'horloge rapide ou "pixel" HP qui est généré par le circuit de synchronisation TG et directement transmis au capteur IS, 12
des ordres SO fixant par exemple des valeurs de gain et des durées d'impulsions d'intégration, générés et directement transmis en mode série par le circuit logique LC au capteur IS, et les signaux analogiques d'image E générés par le capteur IS et s directement transmis au processeur vidéo VP. Le processeur vidéo VP ou le dispositif PP peut comprendre un connecteur d'alimentation PS pour connecter le circuit PW à une alimentation électrique externe (batterie ou alimentation secteur). Le circuit PW est configuré pour générer l'ensemble des tensions d'alimentation 10 nécessaires au fonctionnement du processeur vidéo VP et du dispositif de traitement d'image PP, ainsi que la tension SV d'alimentation du capteur IS. Le circuit de synchronisation TG fournit les signaux suivants : un ensemble de signaux de synchronisation 21 transmis au circuit logique LC, et comprenant des signaux à une fréquence "trame", des 15 signaux à une fréquence "ligne" et des signaux à la fréquence "pixel", un ensemble de signaux d'échantillonnage 22 transmis à l'échantillonneur bloqueur SHC du composant 26 et comprenant notamment et par nature un signal d'échantillonnage à la fréquence "pixel", et le signal de synchronisation HP à la fréquence "pixel" qui est 20 directement transmis au capteur IS. Il convient de noter que le circuit de synchronisation TG introduit un déphasage, programmable lors de la construction de la sonde, entre le signal de synchronisation "pixel" HP transmis au capteur IS et le signal d'échantillonnage 22 transmis à l'échantillonneur-bloqueur SHC. La valeur 25 de ce déphasage est calculée pour compenser la somme des retards résultant de la durée de transit du signal HP dans le câble multiconducteurs 20 et de la durée de transit dans le câble multiconducteurs du signal analogique E fourni par le capteur IS. Le circuit de commande MC comprend un microcontrôleur relié au 30 clavier de commande KB de la sonde par une liaison logique matricielle 23 et à un processeur PC intégré dans le dispositif de traitement d'image PP par une liaison d'ordres série bidirectionnelle 24. Le circuit de commande MC est relié au circuit LC par une liaison 25 susceptible de véhiculer des ordres permettant de paramétrer un programme de traitement vidéo chargé 35 d'origine dans le circuit LC. Dans ces conditions, le clavier KB permet de 13 commander aussi bien les fonctions en temps réel du processeur vidéo VP que des fonctions en temps différé réalisées par le dispositif de traitement d'image PP. Le composant 26 échantillonne et convertit en signaux numériques le 5 signal analogique E fourni par le capteur IS. Le convertisseur CAN transmet un signal numérisé EN au circuit logique LC. Le circuit LC calcule à l'aide de la zone mémoire M1 un écart entre une valeur moyenne des signaux numérisés EN d'une trame vidéo et une valeur de consigne, et effectue une correction de sensibilité du capteur IS en 10 déterminant une nouvelle valeur de durée d'intégration ou de gain. La valeur calculée est transmise via la liaison SO au capteur IS pour être exploitée par le circuit CLC. Le circuit LC effectue également en utilisant la zone mémoire M1 les opérations suivantes : 15 - extraction des signaux EN d'une trame de composantes chromatiques (R-Y) et (B-Y), - corrections des composantes chromatiques (filtrages, corrections de gamma, corrections de contour, ...), - gestion de la fonction balance des blancs, et 20 - gestion des fonctions ancillaires telles que gel d'image, inversion d'image, zoom. Le circuit LC effectue également en utilisant la zone mémoire M2 les opérations suivantes : reconstitution par duplication de trame d'une succession trames paires et 25 de trames impaires, et transmission séquentielle au convertisseur CNA1, à une fréquence trame égale en standard PAL à 50Hz, des composantes (R-Y) et (B-Y) de chacune des trames. Le convertisseur CNA1 réalise les opérations suivantes : 30 génération de composantes luminance Y et chrominance C par encodage des composantes (R-Y) et (B-Y), conversion en analogique des composantes Y et C, correction des composantes analogiques Y et C (filtrage passe bande, mise en phase, et mise à niveau), et 35 élaboration d'un signal vidéo composite normalisé 27. 14
Le circuit de visualisation et de traitement d'image PP est directement associé au processeur vidéo VP dans la poignée de commande de la sonde vidéoendoscopique 1. Le circuit PP comprend : un circuit de codage vidéo/USB à compression FG qui transforme en s format USB le signal vidéo composite 27 fourni par le convertisseur CNA1, un circuit logique de commande et de calcul PC, par exemple de type carte PC, qui reçoit le signal vidéo USB généré par le circuit FG, et qui est commandé, via la liaison d'ordres série bidirectionnelle 24 par le circuit de commande MC, et 10 un écran d'affichage DS, par exemple de type LCD, directement géré par le circuit de traitement PC. La régulation de la sensibilité du capteur d'image IS est assurée en parallèle avec la reconstitution par duplication d'une séquence de trames paires et impaires, conforme aux standards vidéo actuels. 15 La valeur moyenne M du signal de trame calculé par le circuit LC à partir du signal analogique de trame E fourni par le capteur d'image IS distal, évolue physiquement en fonction de l'éclairement qu'il reçoit à l'intérieur d'une plage de tensions limitée par une tension minimum (égale à 0 mV) correspondant à une absence d'éclairement du capteur, et par une tension 20 maximum (égale par exemple à 300 mV) correspondant à un éblouissement du capteur IS. Dans un mode de réalisation, le circuit logique LC calcule en permanence un écart dL existant entre la valeur moyenne M du signal numérique de trame EN correspondant au signal analogique E et une valeur 25 de consigne C (par exemple égale à 100 mV) correspondant à un fonctionnement optimum du capteur IS. En fonction de cet écart, le circuit LC ajuste la durée d'intégration du capteur IS et le gain de l'amplificateur AMP en envoyant au capteur IS des signaux d'ordres SO. La durée d'intégration correspond à la durée des impulsions du signal d'horloge d'intégration 30 transmis au capteur d'image. Le signal d'horloge d'intégration commande à chaque trame vidéo, la durée d'intégration du capteur d'image IMS, c'est-à-dire le temps nécessaire pour charger de façon optimale des puits de potentiel de la couche photosensible du capteur d'image. Dans un mode de réalisation, le circuit logique LC réalise une fonction 35 d'asservissement de la sensibilité du capteur d'image IS, comprenant une 15
fonction d'asservissement de la durée d'intégration du capteur IS et une fonction de contrôle du gain de l'amplificateur AMP. La fonction d'asservissement de la durée d'intégration régule de manière continue la durée des impulsions d'intégration transmises au capteur d'image IS. Cette régulation est effectuée dans une large plage de fonctionnement définie par une valeur minimum de temps d'intégration (éclairement intense) égale par exemple à 1 ms et une valeur maximum de temps d'intégration (éclairement faible) égale par exemple à la durée de 8 trames vidéo, soit 160 ms en standard PAL. io La fonction d'asservissement de la sensibilité du capteur d'image IS est assurée en considérant les cas suivants. Dans un premier cas, la durée d'intégration du capteur IS reste comprise entre les valeurs minimum et maximum de temps d'intégration. Si dans ce cas, l'écart relatif entre la valeur de consigne C et la valeur moyenne M du signal numérique de trame EN, 15 soit (C-M)/C, est supérieur à un seuil (fixé par exemple à 10/0), le circuit logique LC augmente ou diminue selon le signe de l'écart relatif, la durée d'intégration, et maintient le gain de l'amplificateur AMP à une valeur constante et modérée Gopt (égale par exemple à 10 dB) correspondant à une optimisation du rapport signal/bruit du signal analogique de trame E 20 fourni par le capteur IS. Dans un second cas, la durée d'intégration est supérieure à la valeur maximum, ce qui correspond à un très faible éclairement du capteur IS. Dans ce cas, le circuit logique LC fixe la durée d'intégration à sa valeur maximum, et commande le gain de l'amplificateur AMP dans une plage de 25 gain comprise entre la valeur modérée Gopt et une valeur maximum égale par exemple à 30 dB. Dans un troisième cas, la durée d'intégration est inférieure à la valeur minimum, correspondant à un éblouissement du capteur (peu fréquent en endoscopie). Dans ce cas, le circuit LC fixe la durée d'intégration à sa valeur 30 minimum et commande en mode automatique le gain de l'amplificateur AMP dans une plage de gain comprise entre la valeur modérée Gopt et une valeur minimum égale par exemple à 2 dB. Le circuit logique LC traite les échantillons numériques EN fournis par le composant 26 selon que la durée des impulsions d'intégration transmises 35 au capteur IS est inférieure ou supérieure à la durée d'une trame vidéo FT 16
(soit 20 ms en standard PAL). Dans un premier cas, la durée des impulsions d'intégration transmises au capteur IS est comprise entre la durée d'une trame vidéo FT et une valeur minimum ITmin fixée par exemple à 1 ms. Le circuit logique LC traite alors les échantillons numérisées EN d'une trame s impaire Y<Q> en effectuant les opérations suivantes : transfert durant une impulsion de trame W<Q+1>, de la trame numérique impaire Y<Q> dans le circuit logique LC, puis dans la zone mémoire M2, lecture de la trame numérique impaire Y<Q> stockée dans la zone mémoire M2 et création d'une "pseudo" trame paire Z<Q> par duplication 10 et décalage vertical (égal à la moitié de l'intervalle de temps séparant deux lignes successives de la trame) de la trame Y<Q>, et transfert dans le convertisseur CNA1 de la trame numérique impaire Y<Q> durant l'impulsion de trame W<Q+1> et de la trame numérique paire Z<Q> durant l'impulsion de trame W<Q+2>. 15 Dans un second cas, la durée des impulsions d'intégration transmises au capteur IS est comprise entre la durée d'une trame vidéo FT et une valeur maximum ITmax qui peut être fixée par exemple à la durée de 8 trames vidéo successives, soit 160 ms en standard PAL. La durée d'intégration est comprise entre la durée de N trames successives et la 20 durée de N+1 trames successives, N étant un nombre entier compris entre 1 et 7. Dans ces conditions, le circuit logique LC traite les échantillons numérisés EN d'une trame impaire Y<Q> en effectuant les opérations suivantes : transfert durant l'impulsion de trame W<Q+N> de la trame numérique 25 impaire Y<Q> dans le circuit logique LC, puis dans la zone mémoire M2, lecture de la trame numérique impaire Y<Q> stockée dans la zone mémoire M2 et création d'une "pseudo" trame numérique paire Z<Q> par duplication et décalage vertical (égal à la moitié de l'intervalle de temps séparant deux lignes de trame successives) de la trame numérique 30 impaire Y<Q>, transfert dans le convertisseur CNA1 de la trame numérique impaire Y<Q> durant l'impulsion de trame W<Q+N>, transfert dans le convertisseur CNA1 de la trame numérique paire Z<Q> durant l'impulsion de trame W<Q+N+1>, 17
- toutes opérations effectuées parallèlement aux transferts des trames impaire Y<Q> et paire Z<Q> dans le convertisseur CNA1, et - répétition (N/2 - 1) fois des opérations de transfert des trames Y(Q) et Z(Q) durant les impulsions de trame W<Q+N+2> / W<Q+N+3>, 5 W<Q+N+4> / W<Q+N+5>, ... Le circuit logique LC peut ainsi transmettre au capteur IS des impulsions d'intégration dont la durée est réglable de façon continue entre la valeur minimum ITmin et la valeur maximum ITmax égale à la durée de plusieurs trames vidéo successives. Le circuit LC assure donc la fonction lo d'asservissement de la sensibilité globale du processeur vidéo VP en combinant une fonction prioritaire d'asservissement de la durée d'intégration, et une fonction marginale de contrôle de gain. La fonction d'asservissement de la durée d'intégration transmet des impulsions d'intégration au capteur IS qui fonctionne de façon continue aussi bien aux hautes vitesses d'obturation 15 (durée IT des impulsions d'intégration inférieures à la durée d'une trame vidéo FT (1/50 s en standard PAL), qu'aux basses vitesses d'obturation (durée IT des impulsions d'intégration supérieures à la durée de trame FT). Lorsque la fonction d'asservissement de la durée d'intégration est active, le dispositif de contrôle de gain fonctionne à gain constant, fixé à une valeur de 20 gain (Gopt) suffisamment faible pour obtenir un rapport signal/bruit satisfaisant. La fonction d'asservissement de la durée d'intégration maintient la valeur moyenne M du signal numérique de trame vidéo EN à une valeur de consigne C choisie afin d'assurer un fonctionnement optimum du traitement de signal vidéo réalisé par le processeur vidéo VP. 25 La fonction de contrôle de gain entre en fonctionnement seulement lorsque la durée d'intégration IT devient inférieure à un seuil minimum ITmin ou supérieure à un seuil maximum ITmax, soit en dehors de la plage de fonctionnement pratique de la sonde vidéoendoscopique. Autrement dit, la fonction d'asservissement de la sensibilité globale du processeur vidéo VP 30 est effectuée de la manière suivante : - si la durée d'intégration IT calculée est comprise entre les valeurs minimum ITmin et maximum ITmax, et si l'écart relatif entre la valeur de consigne C et la valeur moyenne M du signal numérique de trame EN, soit (C-M)/C, est supérieur en valeur absolue à un seuil (fixé par exemple à 35 1 %), le circuit LC augmente ou diminue la durée d'intégration IT, en 18
fonction du signe de l'écart relatif, en maintenant le gain de l'amplificateur AMP à la valeur modérée fixe Gopt correspondant à une optimisation du rapport signal/bruit, si la durée d'intégration IT calculée est supérieure à ITmax (très faible éclairement du capteur IS), le circuit logique LC fixe la durée d'intégration à sa valeur maximum ITmax et ajuste le gain de l'amplificateur AMP entre ses valeurs modérée Gopt et maximum Gmax, si la durée d'intégration calculée est inférieure à la valeur minimum ITmin (éblouissement du capteur IS), le circuit logique LC fixe la durée d'intégration à sa valeur minimum ITmin et ajuste le gain de l'amplificateur AMP entre ses valeurs modérée Gopt et minimum Gmin. Compte tenu de ce qui précède, la fonction d'asservissement de sensibilité ajuste la sensibilité vidéo globale du processeur vidéo VP en régulant la valeur moyenne M du signal numérique de trame vidéo EN fournies par le capteur IS. Cette régulation est effectuée de manière continue en ajustant la durée IT des impulsions d'intégration du capteur d'image. Il en résulte une grande fluidité de fonctionnement. La fonction d'asservissement de sensibilité présente ainsi un fonctionnement identique en basse et haute vitesse d'obturation, ce qui permet de s'affranchir de toute perturbation ou saut d'intensité lumineuse à la frontière de ces deux plages de vitesses. Dans les plages de fonctionnement à basse et haute vitesse d'obturation, le gain appliqué au signal analogique de trame vidéo E fourni par le capteur IS est suffisamment faible pour éviter toute dégradation du rapport signal/bruit. Dans ces plages de fonctionnement, le signal analogique de trame vidéo E est maintenu à un niveau fixe compatible avec un fonctionnement optimal du traitement du signal vidéo assuré par le processeur VP. La figure 5 représente schématiquement la structure de la matrice de pixel PX du capteur d'image IS, et illustre des principes d'acquisition et/ou de génération de trames vidéo. La matrice de pixel PX comprend une succession de lignes de pixels L1, L2, L3, ... donnant naissance à une trame dite "native impaire" composée d'une matrice de signaux numériques EY. Dans certains cas, le capteur d'image ne dispose pas d'une seconde succession de lignes de pixels entrelacées avec les lignes impaires et donc 19
susceptibles de donner naissance à une "trame native paire" composée d'une matrice de signaux numériques EZ. Les trames natives impaires de signaux numériques EY sont dans ces conditions traitées successivement par les circuits LC/M1, LC/M2 et CNA1, jusqu'à générer une trame « native » impaire Y de signaux vidéo composite, conformément à la description relative à la figure 4. Durant l'impulsion de synchronisation trame succédant à celle durant laquelle une trame native impaire Y de signaux vidéo composite a été générée, le circuit LC/M2 génère une "pseudo" trame paire numérique. Cette "pseudo" trame est obtenue par duplication de la trame native impaire numérique précédente et décalage vertical égal à la moitié de l'intervalle de temps séparant deux linges successives de la trame native. La "pseudo" trame générée est transmise au convertisseur CNA1 pour donner naissance à une "pseudo" trame paire Z de signaux vidéo composites.
Les figures 6A-6D, 7A-7D, 8A-8D et 9A-9D représentent, dans différents modes de fonctionnement du dispositif d'asservissement de la durée d'intégration IT, des chronogrammes du signal d'horloge trame W (figures 6A, 7A, 8A et 9A), du signal d'horloge d'intégration X (figures 6B, 7B, 8B et 9B), du signal de trame impaire Y (figures 6C, 7C, 8C et 9C), et du signal de trame rassemblant les trames impaires Y et des "pseudo" trames paires Z (figures 6D, 7D, 8D et 9D). Le signal W comprend une suite d'impulsions W1..W16 de durée fixe, à la fin desquelles sont disponibles les signaux numériques d'une trame d'image. En standard PAL, la fréquence des impulsions W est égale à 50 Hz, et la durée de ces impulsions correspondant à la durée d'une trame FT est sensiblement égale à 20 ms. Le signal X comprend une suite d'impulsions X1..X9 présentant chacune un front de départ synchrone de celui d'une impulsion du signal W et une durée variable IT qui commande le temps d'intégration du capteur d'image IS, c'est-à-dire le temps nécessaire pour charger de façon optimale les puits de potentiel de la couche photosensible du capteur d'image. Le signal Y comprend les trames numériques impaires transmises par le circuit logique LC au convertisseur CNA1. Le signal Z comprend les "pseudo" trames numériques paires transmises par le circuit logique LC au convertisseur CNA1. 20
Les figures 6A-6D représentent les chronogrammes des signaux W, X, Y et Z durant une phase en mode d'obturation à haute vitesse de la fonction d'asservissement de la durée d'intégration. Dans l'exemple des figures 6A-6D, la durée IT des impulsions d'intégration X1-X7 varie de façon continue, à gain constant égal à Gopt, entre la valeur ITmin (impulsion d'intégration X1) et une valeur maximum sensiblement égale à la durée FT d'une trame (impulsion d'intégration X7). L'acquisition des trames numériques impaires Y1, Y3, Y5, Y7, ... obtenues à la suite des impulsions d'intégration X1, X3, X5, X7, ... et leur transmission au convertisseur CNA1, sont synchronisées par les impulsions de trame paires W2, W4, W6. La génération (par duplication et décalage vertical des trames numériques impaires Y1, Y3, Y5...) des "pseudo" trames numériques paires Z1, Z3, Z5, ... et leur transmission au convertisseur CNA1 sont quant à elles synchronisées par les impulsions de trame impaires W3, W5, W7, ... Les figures 7A-7D représentent des chronogrammes des signaux W, X, Y et Z durant une première phase du mode d'obturation à basse vitesse de la fonction de la durée d'intégration. Durant cette première phase, la durée IT des impulsions d'intégration X1-X7 varie de façon continue, à gain constant égal à Gopt, d'une valeur minimum égale à la durée d'une trame FT à une valeur maximum égale à la durée de deux trames successives (soit 2 x FT). L'acquisition des trames de signaux numériques impaires Y1, Y3, Y5, ... générées par les impulsions d'intégration X1, X3, X5, ... et leur transmission au convertisseur CNA1 sont synchronisées par les impulsions de trame W3, W5, W7, ... La génération (par duplication et décalage vertical des trames impaires Y1, Y3, Y5, ...) des "pseudo" trames numériques paires Z1, Z3, Z5, ... et leur transmission au convertisseur CNA1 sont quant à elles synchronisées par les impulsions de trame W4, W6, W8. Les figures 8A-8D illustrent une seconde phase du mode d'obturation à basse vitesse de la fonction d'asservissement de la durée d'intégration. Durant cette seconde phase, la durée d'intégration IT varie de façon continue, à gain constant égal à Gopt, de deux à trois fois la durée de trame FT. L'acquisition des trames de signaux numériques impaires natives Y1, Y5, Y9, ... générées par les impulsions d'intégration X1, X5, X9, ..., et leur transmission au convertisseur CNA1 sont synchronisées par les impulsions 21
de trame W4, W8, W12, ... Ce processus est dupliqué en synchronisme avec les impulsions de trame W6, W10, W14, ... La génération (par duplication et décalage vertical des trames numériques paires natives Y1, Y5, Y9...) des "pseudo" trames numériques paires Z1, Z5, Z9, ... et leur transmission au convertisseur CNA1 sont synchronisées par les impulsions de trame W5, W9, W13, ... Ce processus est également dupliqué en synchronisme avec les impulsions de trame W7, W11, W15, ... Les figures 9A-9D illustrent une troisième phase spécifique du mode d'obturation à basse vitesse de la fonction d'asservissement de la durée d'intégration. Durant cette phase, la durée d'intégration IT varie de façon continue, toujours à gain constant égal à Gopt, de trois à quatre fois la durée d'une trame FT. Durant cette phase, le convertisseur CNA1 reçoit les mêmes trames que dans les figures 9A à 9D, mais retardées d'une impulsion de trame par rapport au signal W.
II apparaît donc sur les figures 6A à 9D que la fonction d'asservissement de la durée d'intégration peut ajuster de manière continue la durée d'intégration IT entre la durée ITmin et une durée égale à quatre fois la durée d'une trame FT (soit 80 ms en standard PAL), et ce à gain constant égal à Gopt. Lorsque la durée d'intégration IT est comprise entre ITmin et deux fois la durée de trame FT (figures 6A à 7D), la fréquence de rafraichissement des trames correspond à la fréquence standard, soit 50 Hz en standard PAL. Lorsque la durée d'intégration IT est comprise entre deux et quatre fois la durée de trame FT (figures 8A à 9D), la fréquence de rafraichissement des trames correspond à la fréquence standard divisée par deux, soit 25 Hz en standard PAL. Ainsi, lorsque la durée d'intégration IT devient supérieure à deux fois la durée d'une trame FT, la fréquence de rafraîchissement des trames vidéo peut devenir visuellement gênante. D'une manière plus générale, les trames sont fournies à la suite d'une impulsion du signal d'intégration, par paires et en un nombre de paires égal au nombre de paires de trames comprises dans la durée d'intégration plus un. Dans un mode de réalisation, il peut être prévu deux modes de fonctionnement de l'obturateur électronique correspondant à deux plages de vitesses d'intégration, soit par exemple, un mode dit "standard" et un mode dit "Boost". Dans le mode "standard", la durée d'intégration IT peut être ajustée dans une plage allant de ITmin à la durée de quatre trames (soit de 22
1 ms à 80 ms en standard PAL), correspondant à une fréquence de rafraîchissement minimum des trames de la fréquence standard divisée par deux (25 HZ en standard PAL). Dans le mode "Boost", la durée d'intégration IT peut être ajustée dans une plage allant de ITmin à la durée de six trames s (soit 120 ms en standard PAL) ou huit trames (soit 160 ms en standard PAL), correspondant à une fréquence de rafraîchissement minimum des trames de la fréquence standard divisée par trois (16,66 HZ en standard PAL) ou quatre (12,5 Hz en standard PAL). La figure 10 illustre le fonctionnement de la fonction d'asservissement io de la sensibilité du capteur d'image IS. La figure 10 représente des courbes de variation de la durée d'intégration IT et de gain G déterminé par le circuit LC en fonction de l'éclairement de la surface photosensible du capteur IS, ces valeurs étant transmis au capteur IS par la liaison SO. La durée d'intégration IT est susceptible de varier entre ITmin (par exemple 1 ms) et ls ITmax (par exemple égal à 8 fois la durée d'une trame FT, soit 160 ms en standard PAL). Le gain G transmis par le circuit LC à l'amplificateur AMP via la liaison SO, est susceptible d'évoluer entre la valeur minimum Gmin, par exemple, 2 dB et la valeur maximum Gmax par exemple 30 dB. La plage globale d'asservissement de sensibilité est comprise entre des éclairements 20 E1 et E4, et comprend une plage principale d'asservissement entre des éclairements E2 et E3 et deux plages d'asservissement auxiliaires entre les plages E1 et E2 et entre les plages E3 et E4. Dans la plage principale entre les éclairements E2 et E3, la durée d'intégration IT varie de ITmin pour la valeur supérieure d'éclairement E3, à 25 ITmax pour la valeur inférieure d'éclairement E2. Dans cette plage, le gain G est fixé à la valeur de gain Gopt, par exemple 10 dB. Dans la plage de faible éclairement entre les éclairements E1 et E2, la durée d'intégration IT reste constante et égale à ITmax, tandis que le gain G est ajusté entre les valeurs Gopt et Gmax. Dans la plage de fort éclairement, entre les éclairements E3 30 et E4, la durée d'intégration IT est maintenue constante et égale à ITmin, tandis que le gain G est ajusté entre les valeurs Gopt et Gmin. Dans la plage principale (entre les éclairements E2 et E3), le circuit LC peut mettre en oeuvre la loi de régulation suivante : dIT=dK-IT/M (1) 23
dans laquelle dIT est un écart d'ajustement (positif ou négatif) à ajouter à la durée d'intégration IT, M est la valeur moyenne du signal numérique de trame généré par le capteur d'image IS, et dK est une valeur de correction absolue luminance. Lorsque le gain optimal Gopt est fixé à 10 dB, les s valeurs de correction absolue de luminance dK, et de durée d'intégration dIT à utiliser peuvent être celles indiquées dans le tableau 1 suivant : Tableau 1 Cas N° AL dK dIT 1 'ALI 25% 60% dL 60% IT (C - M) / M 2 25% >'ALI >_ 5% 40% dL 40% IT (C - M) / M 3 5% > ~AL~ > 1 % 2% M sgn(AL) 2% IT sgn(AL) 4 ~AL~ < 1 % 0 0 dans lequel AL = dL/C est un écart relatif de luminance en %, 1ALI est la valeur absolue de l'écart AL, dL est un écart absolu de luminance égal à io C - M, C est la valeur de consigne de luminance et sgn(AL) est le signe de AL. Ainsi, dans un premier cas, lorsque l'écart relatif en valeur absolue de luminance IALI est supérieur à 250/0, l'écart d'ajustement dIT de la durée d'intégration IT est fixé à 60% de la durée d'intégration multipliée par l'écart absolu de luminance dL divisé par la valeur moyenne M du signal numérique ls de trame. Dans un second cas, lorsque l'écart relatif en valeur absolue de luminance 1ALI est compris entre 250/0 et 50/0, l'écart d'ajustement dIT de la durée d'intégration IT est fixé à 40% de la durée d'intégration multipliée par l'écart absolu de luminance dL divisé par la valeur moyenne M du signal numérique de trame. Dans un troisième cas, lorsque l'écart relatif en valeur 20 absolue de luminance 'ALE est compris entre 1% et 50/0, l'écart d'ajustement dIT de la durée d'intégration IT est fixé à 2% de la durée d'intégration IT. Dans un quatrième cas, lorsque l'écart relatif en valeur absolue de luminance 'ALE est inférieur à 1%, la durée IT n'est pas modifiée. Des scénarios de régulation conformes à la régulation définie par le 25 tableau 1, sont présentés dans les figures 11 et 12 qui représentent des courbes de variation des valeurs moyenne M et de consigne C, de l'écart d'éclairement relatif AL et du temps d'intégration IT, durant plusieurs paires de trames successives. Les valeurs numériques du temps d'intégration IT correspondent au standard PAL. La figure 11 illustre un scénario de 30 régulation dans le cas d'un "suréclairement", c'est-à-dire lorsque la valeur 24
moyenne M est supérieure à la valeur de consigne C. Dans ce scénario, le mode d'obturation à basse vitesse reste actif (durée d'intégration IT > 20 ms en standard PAL) et l'écart d'éclairement relatif AL reste négatif. Les corrections appliquées à la durée d'intégration IT sont donc négatives, et font donc diminuer la durée d'intégration. Durant une première paire de trames, la durée d'intégration IT est égale à 50 ms correspondant à un mode d'obturation à basse vitesse dans lequel la fréquence de rafraichissement de trame est à 25 Hz (durée d'intégration IT comprise entre 2 et 3 fois la durée de trame FT égale à 20 ms). Durant la première paire de trames, l'écart io d'éclairement relatif 'ALE est supérieur à 25%. La correction appliquée à la durée d'intégration est donc corrigée conformément au cas n°1 du tableau 1. Durant une seconde paire de trames, la durée d'intégration IT est passée en dessous de deux fois la durée de trame FT et donc la fréquence de rafraichissement est passée à 50 Hz. L'écart d'éclairement relatif 1OLI est 15 encore supérieur à 250/0. La correction appliquée à la durée d'intégration est donc également calculée conformément au cas n°1 du tableau 1. Durant les paires de trames suivantes, la fréquence de rafraichissement de trame reste à 50 Hz. Durant les troisième à cinquième paires de trames, l'écart d'éclairement relatif 'ALI est compris entre 25% et 50/0. La correction 20 appliquée à la durée d'intégration IT est donc calculée conformément au cas n°2 du tableau 1. Durant les sixième et septième paires de trames, l'écart d'éclairement relatif 1OLI est inférieur à 5°/U. La correction appliquée à la durée d'intégration IT est donc calculée conformément au cas n°3 du tableau 1. Il peut être observé sur la figure 12 que l'écart AL converge 25 progressivement vers 0, tandis que la durée d'intégration IT diminue progressivement pour converger vers 26 ms environ, et que la valeur moyenne M diminue pour converger vers la valeur de consigne C tout en restant supérieure à cette valeur. La figure 12 illustre un scénario de régulation dans le cas d'un "sous 30 éclairement", c'est-à-dire lorsque la valeur moyenne M est inférieure à la valeur de consigne C. Dans ce scénario, le mode d'obturation à basse vitesse reste actif et l'écart d'éclairement relatif AL reste positif. Les corrections appliquées à la durée d'intégration IT sont donc positives, et font donc augmenter la durée d'intégration. Durant une première paire de trames, 35 la durée d'intégration est égale à 50 ms correspondant à un mode 25
d'obturation à basse vitesse dans lequel la fréquence de rafraichissement de trame est à 25 Hz (durée d'intégration IT comprise entre 2 et 3 fois la durée de trame FT. Durant la première paire de trames, l'écart d'éclairement relatif 'ALI est supérieur à 250/0. La durée d'intégration IT est corrigée conformément au cas n°1 du tableau 1 de manière à augmenter l'écart d'éclairement relatif AL. Durant une seconde paire de trames, l'écart d'éclairement relatif 'ALI est passé en dessous de 250/0. La correction appliquée à la durée d'intégration IT est donc calculée conformément au cas n°2 du tableau 1. La durée d'intégration IT est restée comprise entre 2 et 3 ro fois la durée de trame FT et donc la fréquence de rafraichissement est restée à 25 Hz. Durant les troisième et quatrième paires de trame, l'écart d'éclairement relatif I4LI est compris entre 25% et 5%. La correction appliquée à la durée d'intégration IT est donc calculée conformément au cas n°2 du tableau 1. La durée IT passe ainsi au dessus de quatre fois la durée 15 de trame FT. La fréquence de rafraichissement de trame est donc fixée à 16.6 Hz. Durant les cinquième à septième paires de trames, l'écart d'éclairement relatif IOLI est inférieur à 5°/U. La correction appliquée à la durée d'intégration IT est donc calculée conformément au cas n°3 du tableau 1. La durée IT reste entre 4 et 5 fois la durée de trame FT. La 20 fréquence de rafraichissement de trame reste donc à 16.6 Hz. Il peut être observé sur la figure 12 que l'écart 4L converge vers 0, tandis que la durée d'intégration IT augmente progressivement en convergeant vers 90 ms environ, et que la valeur moyenne M augmente en convergeant vers la valeur de consigne C tout en restant inférieure à cette valeur. 25 Il est à noter également dans les figures 11 et 12 que l'asservissement de la durée d'intégration IT définie dans le tableau 1 ne produit pas d'oscillation de la valeur moyenne M autour de la valeur de consigne C. La fonction d'asservissement réalisée par le circuit LC, qui vient d'être 30 décrite, assure ainsi une régulation de la sensibilité du capteur d'image dans toute la plage d'éclairement E1 à E4, et une gestion de la vitesse d'obturation du capteur IS (durée d'intégration) dans toute la plage de régulation (entre les éclairements E2 et E3), incluant les vitesses hautes et basses. II en résulte une grande fluidité de fonctionnement, et surtout une 35 absence de discontinuité à la frontière entre les hautes et les basses vitesses, c'est-à-dire une absence de saut de luminosité lors d'une transition entre une vitesse d'obturation inférieure à la durée de trame FT et une vitesse d'obturation supérieure à la durée FT. La fonction d'asservissement fonctionne, dans la plage de régulation s (entre les éclairements E2 et E3), à une valeur de gain constante et modérée. Il en résulte une optimisation du rapport signal/bruit. La fonction d'asservissement régule directement la valeur moyenne M de l'amplitude du signal numérique de trame EN correspondant au signal analogique E délivré par le capteur IS. Il en résulte que cette régulation porte io sur un signal vidéo n'ayant subi aucune correction chromatique, susceptible de perturber la régulation. La fonction d'asservissement se base uniquement sur la valeur moyenne M de l'amplitude du signal numérique des trames impaires (ou paires), et génère par duplication et décalage vertical des trames paires (ou ls impaires). La génération de trame par duplication et décalage entraîne une perte de définition d'image qui s'avère quasiment imperceptible en vidéoendoscopie. Il est à noter que le circuit logique LC fournit un signal de trame sous forme numérique 28. Ce signal 28 peut être traité dans le circuit logique LC, 20 de manière à assurer des traitements annexes en temps réel, tels que zoom progressif, inversions d'image, gel d'image, ... La figure 13 représente l'architecture électronique d'une sonde vidéoendoscopique stéréo, selon un mode de réalisation. Sur la figure 13, la sonde comprend : 25 un capteur d'image stéréo SIS distal, un processeur vidéo SVP, un câble multiconducteurs 30 reliant le capteur SIS au processeur vidéo SVP, et un dispositif d'exploitation SPP qui, si nécessaire, peut être déporté et 30 donc relié par un câble multiconducteurs ombilical 36 au processeur vidéo SVP. Le capteur d'image stéréo SIS peut être celui décrit en référence à la Figure 3. Ainsi, le capteur SIS comprend deux capteurs d'images ISL et ISR et un circuit d'interface INT. Le capteur SIS est associé à deux objectifs 35 optiques LSL, LSR formant des images respectives sur les couches photosensibles des capteurs d'image ISL, ISR. Le circuit d'interface INT permet de relier les deux capteurs ISL, ISR au processeur vidéo par 27
l'intermédiaire d'un câble multiconducteurs 30 comportant uniquement cinq liaisons électriques. En effet, le câble 30 transporte les signaux suivants : une tension d'alimentation SV commune aux deux capteurs ISL, ISR, un signal d'horloge de synchronisation commun aux deux capteurs ISR, ISL, un signal d'ordre en format série permettant de commander simultanément les deux capteurs ISR, ISR, un signal analogique d'image EL généré par le capteur ISR, et - un signal analogique d'image ER généré par le capteur d'image ISR. io Le processeur vidéo SVP diffère du processeur VP représenté sur la figure 4 en ce que le circuit de traitement vidéo VT regroupant les circuits 26, LC, MEM et CNA1 est dupliqué pour pouvoir traiter séparément les signaux d'image ER, EL provenant des capteurs ISL, ISR. Ainsi, le signal ER issu du capteur ISR est traité par un circuit de traitement vidéo VTR comprenant le 15 composant 26 regroupant un échantillonneur-bloqueur SHC et un convertisseur analogique numérique CAN, un circuit logique LCR connecté à une mémoire MEMR, et le circuit de conversion vidéo CNA1. Le signal EL issu du capteur ISL est traité par un circuit de traitement vidéo VTL comprenant un composant 36, un circuit logique LCL connecté à une 20 mémoire MEML, et un circuit de conversion vidéo CNA2. Le composant 36 comprend un échantillonneur-bloqueur SHC et un convertisseur analogique numérique CAN identiques à ceux du composant 26. Le convertisseur CNA2 fournit un signal vidéo composite 37 du même type que le signal 27. Le circuit LCR reçoit du composant 26 un signal numérique de trame ENR. Le 25 circuit LCL reçoit du composant 36 un signal numérique de trame ENL. Les circuits LCL et LCR sont identiques au circuit LC de la figure 4 et assurent également la fonction d'asservissement de la durée d'intégration des capteurs d'image ISR, ISL, décrite en référence aux figures 6 à 12, en fonction des signaux numériques ENR, ENL. 30 Les deux circuits de traitement vidéo VTL, VTR sont synchronisés par le générateur de signaux d'horloges TG paramétré par le circuit de commande MC. Ainsi, le composant 36 reçoit des signaux de synchronisation 32 à tout moment identiques aux signaux de synchronisation 22 transmis au composant 26. De même, le circuit LCL reçoit des signaux de 35 synchronisation 31 à tout moment identiques aux signaux de synchronisation 21 transmis au circuit LCR. Le circuit de commande MC transmet des signaux d'ordres 35 à tout moment identiques aux signaux d'ordres 25 s
transmis au circuit LCR. Le circuit de traitement vidéo VTL peut comprendre en outre éventuellement un amplificateur d'entrée 33 permettant d'égaliser le niveau moyen des signaux EL et ER afin de pallier aux risques de dispersion de caractéristiques des capteurs d'image ISL, ISR. s Le dispositif d'exploitation SPP diffère du circuit PP de la figure 4 en ce que le circuit de codage FG est dupliqué en deux circuits de codage FGR, FGR, pour pouvoir traiter séparément les signaux vidéo composites 27, 37 en sortie des convertisseurs CNA1, CNA2. Ainsi, le dispositif SPP comprend un circuit logique de commande et de calcul PC1, présentant une interface io permettant de prendre en charge les signaux suivants : un signal 47R fourni par le circuit FGR qui reçoit le signal vidéo 27 fourni par le circuit de traitement vidéo VTR dédié au traitement du signal analogique ER provenant du capteur ISR, un signal 47L fourni par le circuit FGL qui reçoit le signal vidéo 37 fourni ls par le circuit de traitement vidéo VTL dédié au traitement du signal analogique EL provenant du capteur d'image ISL, des signaux de commande bidirectionnels échangés entre le circuit PC1 et le circuit de commande MC, des signaux de commande émanant d'un clavier KB1 connecté au circuit 20 PC1, et des signaux vidéo SX élaborés par le circuit PC1. Le circuit PC1 peut également être connecté à un écran de visualisation DS recevant l'un des signaux SX. Le circuit PC1 peut présenter une puissance de calcul, ainsi qu'un programme d'exploitation adaptés aux 25 fonctions réalisées par le circuit PC1. La nature des signaux SX dépend également des fonctions réalisées par le circuit PC1. Le dispositif d'exploitation peut être connecté à un écran de visualisation permettant l'affichage d'images en relief. Dans ce cas, le circuit PC1 peut être programmé pour générer de telles images en relief à partir 30 des images provenant des deux capteurs ISR, ISL. Bien entendu, la génération d'images en relief est adaptée au mode de restitution de telles images mis en ceuvre par l'écran d'affichage. Ainsi, le mode de restitution peut être de type spatial si l'écran d'affichage est recouvert d'un filtre spatial. Il peut également être de type temporel si l'écran d'affichage peut afficher les 35 images avec une fréquence de rafraichissement élevée et dont le relief est visible à l'aide de lunettes à occultation alternée, synchronisées avec l'écran d'affichage par exemple par une liaison infrarouge. 29
Le dispositif d'exploitation SPP peut par exemple assurer une fonction de visualisation de l'image fournie par le capteur ISR ou de deux portions des deux images délivrées respectivement par les capteurs d'image ISR et ISL. Cette fonction est dédiée à la mesure tridimensionnelle et ne nécessite s en matière de visualisation qu'un simple écran d'affichage DS directement connecté au circuit PC1. De cette manière, la sonde vidéoendoscopique décrite peut à la fois permettre de réaliser une inspection et une mesure dimensionnelle, sans avoir à extraire la sonde de la cavité inspectée pour remplacer la tête montée sur l'embout distal de la sonde par une tête à io dédoublement d'image. Ainsi, l'inspection d'une cavité avec mesure dimensionnelle éventuelle, peut être effectuée avec la sonde vidéoendoscopique en exécutant les étapes suivantes : introduction dans la cavité à inspecter de la sonde équipée d'une tête distale comportant des objectifs identiques associés aux deux capteurs ls ISL, ISR, activation d'un mode d'affichage d'inspection consistant à afficher des images issues d'un seul (affichage en deux dimensions) ou des deux capteurs ISL, ISR (affichage en relief), identification éventuelle d'un défaut nécessitant une mesure 20 dimensionnelle, activation d'un mode d'affichage côte à côte de tout ou partie de chacune des images issues des deux capteurs ISL, ISR, pour effectuer une mesure dimensionnelle, sans retirer la sonde de la cavité, déroulement d'une phase de mesure dimensionnelle, et 25 éventuellement, retour en mode d'affichage d'inspection, sans retirer la sonde de la cavité, pour poursuivre l'inspection de cette dernière. Le dispositif d'exploitation SPP peut également permettre la mise en oeuvre d'une sonde vidéoendoscopique équipée d'une tête distale amovible équipée de deux objectifs de focales différentes, soit par exemple un objectif 30 "grand champ" positionné devant l'un des capteurs ISR, ISL, pour obtenir une image "d'ambiance", et un objectif "faible champ" positionné devant l'autre des capteurs ISR, ISL pour obtenir une image "spot" permettant de visualiser plus en détail une zone de l'image d'ambiance. Les images d'ambiance et spot obtenues peuvent être visualisées simultanément sur un 35 écran d'affichage, sous la forme de deux images indépendantes ou par incrustation de l'image spot dans l'image d'ambiance. L'amplificateur 33 peut 30 alors être commandé pour égaliser la luminance des images d'ambiance et spot. II apparaîtra clairement à l'homme de l'art que la présente invention est susceptible de diverses variantes de réalisation et diverses applications. s En particulier, l'invention n'est pas limitée à un processeur vidéo présentant l'architecture représentée sur la figure 13. Il peut être prévu que le processeur vidéo SVP fournisse des images numériques, de sorte que la conversion numérique / analogique effectuée par le convertisseur CNA1, CNA2 peut ne pas être nécessaire. io Par ailleurs, dans la description qui précède, il a été choisi comme valeur de pilotage de l'asservissement de la durée d'intégration, l'écart entre une valeur de consigne C et la valeur moyenne M du signal numérique de trame EN, ENR, ENL. Il peut être également choisi comme valeur de pilotage de l'asservissement de la durée d'intégration, l'écart entre la valeur ls de consigne C et la valeur moyenne d'une composante luminance du signal vidéo fournie par le convertisseur CNA1, CNA2. Toutefois, dans ce dernier cas, le signal de pilotage de l'asservissement peut être perturbé par d'éventuelles corrections chromatiques étrangères à la sensibilité du capteur d'image, qui est gérée par l'asservissement de la durée d'intégration.
20 Par ailleurs, il a été choisi dans la description qui précède de générer des trames paires à partir de trames impaires. II aurait pu bien entendu être choisi de générer des trames impaires à partir de trames paires, par duplication des trames paires et décalage temporel de la durée d'une demi ligne des trames paires. Par ailleurs, la duplication des signaux vidéo de 25 trames impaires Y et paires Z, en mode d'obturation à basse vitesse, lorsque la durée d'intégration IT est supérieure à trois fois la durée d'une trame FT, peut ne pas être nécessaire, si le dispositif de visualisation d'image ne nécessite pas de recevoir une image à la fréquence trame. 30

Claims (19)

  1. REVENDICATIONS1. Procédé de traitement de signal vidéo de sonde vidéoendoscopique comprenant deux capteurs d'image (ISR, ISL), le procédé comprenant des étapes consistant à : ajuster une durée d'intégration (IT) de chaque capteur d'image entre s une durée d'intégration minimum (ITmin) et une durée de trame d'image (FT), recevoir de chaque capteur d'image un signal de trame, et amplifier chaque signal de trame en appliquant un gain d'amplification (G) ajusté entre des valeurs distinctes de gain minimum (Gmin) et maximum 10 (Gmax), caractérisé en ce qu'il comprend pour chaque trame de chaque signal de trame amplifié (ER, EL) des étapes de détermination d'une valeur moyenne (M) du signal de trame, de calcul d'une nouvelle durée d'intégration en fonction de la valeur moyenne, et 15 si la nouvelle durée d'intégration est comprise entre la durée d'intégration minimum et une durée d'intégration maximum (ITmax) supérieure à la durée de trame (FT), établir la durée d'intégration à la nouvelle durée d'intégration et maintenir le gain d'amplification (G) à une valeur fixe (Gopt), et 20 si la nouvelle durée d'intégration est supérieure à la durée d'intégration maximum, maintenir la durée d'intégration à la durée d'intégration maximum et ajuster le gain d'amplification entre les valeurs de gain fixe et maximum en fonction de la valeur moyenne du signal de trame. 25
  2. 2. Procédé selon la revendication 1, comprenant une étape de maintien de la durée d'intégration à la durée d'intégration minimum (ITmin) et d'ajustement du gain d'amplification entre les valeurs de gain fixe (Gopt) et minimum (Gmin) en fonction de la valeur moyenne du signal de trame, si la nouvelle durée d'intégration est inférieure à la durée d'intégration 30 minimum.
  3. 3. Procédé selon la revendication 1 ou 2, comprenant des étapes de commande de chaque capteur d'image (ISR, ISL) de manière à ce qu'il 31 fournisse une trame toutes les deux impulsions d'un signal d'horloge à la fréquence trame (W), et de génération, à partir d'une trame (Y1) du signal de trame amplifié (ER, EL) reçue du capteur d'image (ISR, ISL), d'une trame suivante (Z1) obtenue en dupliquant la trame reçue et en effectuant un décalage vertical égal à la moitié de l'intervalle de temps séparant deux lignes successives de la trame reçue.
  4. 4. Procédé selon l'une des revendications 1 à 3, comprenant une étape de fourniture d'un nombre de paires de trames égal au nombre de io paires de trames comprises dans la durée d'intégration plus un, à la suite d'une impulsion d'un signal d'intégration (X) fourni à chaque capteur d'image (ISR, ISL) et présentant une durée est égale à la durée d'intégration (IT).
  5. 5. Procédé selon l'une des revendications 1 à 4, dans lequel 15 l'ajustement de la durée d'intégration (IT) est effectué en fonction d'un écart entre la valeur moyenne du signal de trame (M) issu de chaque capteur d'image (ISR, ISL) et une valeur de consigne (C).
  6. 6. Procédé selon l'une des revendications 1 à 5, dans lequel la valeur 20 de gain fixe (Gopt) fournie à chaque capteur d'image (ISR, ISL) est choisie de manière à obtenir un rapport signal/bruit maximum dans le signal de trame amplifié (ER, EL).
  7. 7. Procédé selon l'une des revendications 1 à 6, dans lequel la 25 nouvelle durée d'intégration (IT) est obtenue en lui ajoutant un écart de durée d'intégration (dIT) positif ou négatif, proportionnel à un écart entre la valeur moyenne du signal de trame (M) et une valeur de consigne (C).
  8. 8. Procédé selon l'une des revendications 1 à 7, dans lequel 30 l'ajustement de la durée d'intégration (IT) est effectué entre 1 ms et 8 fois la durée de trame (FT).
  9. 9. Procédé selon l'une des revendications 1 à 8, dans lequel l'ajustement du gain d'amplification (G) est effectué entre 2 dB et 30 dB. 35
  10. 10. Procédé selon l'une des revendications 1 à 9, comprenant une étape d'amplification d'un des deux signaux de trame pour égaliser la luminance des signaux de trame issus des deux capteurs d'image (ISR, ISL).
  11. 11. Procédé selon l'une des revendications 1 à 10, dans lequel les signaux issus des capteurs d'image (ISR, ISL) sont traités de manière à fournir une image en relief visualisable sur un écran d'affichage d'image en relief, ou une image visualisable sur un écran d'affichage simple, comportant uniquement une image issue d'un seul des deux capteurs d'image, ou une portion d'image issue de chaque capteur d'image.
  12. 12. Procédé selon l'une des revendications 1 à 11, comprenant des étapes d'exécution de commandes de commutation entre un mode d'affichage dans lequel sont affichées uniquement les images issues d'un seul des deux capteurs (ISL, ISR) ou dans lequel les images issues des deux capteurs sont affichées en relief, et un mode d'affichage dans lequel tout ou partie de chacune des images issues des deux capteurs sont affichées côte à côte.
  13. 13. Processeur vidéo pour sonde vidéoendoscopique comprenant deux capteurs d'image (ISR, ISL), caractérisé en ce qu'il est configuré pour mettre en oeuvre le procédé selon l'une des revendications 1 à 12 pour le traiter le signal (ER, EL) issu de chaque capteur d'image.
  14. 14. Processeur vidéo selon la revendication 13, comprenant deux circuits logiques (LCR, LCL) recevant chacun des échantillons numérisés de signaux de trame (ER, EL) provenant d'un des deux capteurs d'image (ISR, ISL), chaque circuit logique étant configuré pour ajuster la durée d'intégration (IT) du capteur vidéo (ISR, ISL) et le gain d'amplification (G) afin d'asservir la valeur moyenne du signal de trame (M) à la valeur de consigne (C), et pour fournir des signaux de trame numérisés dont la valeur moyenne est corrigée, à un circuit de traitement de signal vidéo (CNA1, CNA2) configuré pour assurer un traitement chromatique des signaux de trame numérisés.35
  15. 15. Processeur vidéo selon la revendication 14, dans lequel chaque circuit logique (LCR, LCL) est connecté à une mémoire (MEMR, MEML) pour mémoriser une ou plusieurs trames numérisées. s
  16. 16. Processeur vidéo selon l'une des revendications 13 à 15, dans lequel chaque circuit logique (LCR, LCL) est configuré pour assurer des fonctions de zoom, et/ou gel d'image et et/ou inversion d'image.
  17. 17. Processeur vidéo selon l'une des revendications 13 à 16, dans lo lequel chaque capteur d'image (ISR, ISL) est de type CMOS.
  18. 18. Vidéoendoscope caractérisé en ce qu'il comprend un processeur vidéo selon l'une des revendications 13 à 17. ls
  19. 19. Vidéoendoscope selon la revendication 18, dans lequel l'un des deux capteurs d'image (ISR, ISR) est associé à un objectif à grand champ pour obtenir une image d'ambiance, et l'autre des deux capteurs d'image est associé à un objectif faible champ pour obtenir une image spot, l'image spot étant incrustée dans l'image d'ambiance ou affichée à côté de l'image 20 d'ambiance.
FR1003865A 2010-09-29 2010-09-29 Videoendoscope a vision stereo Active FR2965443B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1003865A FR2965443B1 (fr) 2010-09-29 2010-09-29 Videoendoscope a vision stereo

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1003865A FR2965443B1 (fr) 2010-09-29 2010-09-29 Videoendoscope a vision stereo

Publications (2)

Publication Number Publication Date
FR2965443A1 true FR2965443A1 (fr) 2012-03-30
FR2965443B1 FR2965443B1 (fr) 2012-10-19

Family

ID=43829113

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1003865A Active FR2965443B1 (fr) 2010-09-29 2010-09-29 Videoendoscope a vision stereo

Country Status (1)

Country Link
FR (1) FR2965443B1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432543A (en) * 1992-03-05 1995-07-11 Olympus Optical Co., Ltd. Endoscopic image processing device for estimating three-dimensional shape of object based on detection of same point on a plurality of different images
FR2737650A1 (fr) * 1995-08-07 1997-02-14 Tokendo Sarl Videoendoscope
US6836288B1 (en) * 1999-02-09 2004-12-28 Linvatec Corporation Automatic exposure control system and method
EP1527730A1 (fr) * 2003-10-30 2005-05-04 Olympus Corporation Dispositif de prise de vue et dispositif et endoscope

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432543A (en) * 1992-03-05 1995-07-11 Olympus Optical Co., Ltd. Endoscopic image processing device for estimating three-dimensional shape of object based on detection of same point on a plurality of different images
FR2737650A1 (fr) * 1995-08-07 1997-02-14 Tokendo Sarl Videoendoscope
US6836288B1 (en) * 1999-02-09 2004-12-28 Linvatec Corporation Automatic exposure control system and method
EP1527730A1 (fr) * 2003-10-30 2005-05-04 Olympus Corporation Dispositif de prise de vue et dispositif et endoscope

Also Published As

Publication number Publication date
FR2965443B1 (fr) 2012-10-19

Similar Documents

Publication Publication Date Title
EP1493378B1 (fr) Vidéoendoscope avec processeur vidéo multistandard déporté pour réduction de bruit électronique.
CN101292359B (zh) 用于测量图像的设备和方法
FR3019317A1 (fr) Dispositif de visualisation d&#39;une sequence d&#39;images et systeme de visualisation d&#39;une scene
JP6463573B1 (ja) 内視鏡撮像システム
FR3031035B1 (fr) Dispositif d&#39;imagerie et procede d&#39;imagerie
FR2512302A1 (fr) Dispositif d&#39;observation infrarouge
EP3720115A1 (fr) Procédé d&#39;imagerie avec lumière pulsée
BE1019646A3 (fr) Systeme d&#39;inspection et procede d&#39;imagerie haute vitesse.
EP1498840A3 (fr) Commande de rayons dans un appareil d&#39;exposition d&#39;images
WO2007055082A1 (fr) Microscope confocal
FR2965443A1 (fr) Videoendoscope a vision stereo
US20090251708A1 (en) Fast three-dimensional shape measuring apparatus and method
FR2737650A1 (fr) Videoendoscope
US10616508B2 (en) Solid state imaging sensor, observation apparatus using solid state image sensor, method for driving image pickup section, and recording medium for recording program for driving image pickup section
US20130162801A1 (en) Microscope
JP2006350004A (ja) 共焦点顕微鏡システム
US11606507B1 (en) Automated lens adjustment for hyperspectral imaging
FR2749944A1 (fr) Appareil de lecture d&#39;images
EP1920596A2 (fr) Camera rapide intelligente
FR2965442A1 (fr) Procede d&#39;ajustement en temps reel de la sensibilite d&#39;un capteur d&#39;image video dans une sonde videoendoscopique
FR2942055A1 (fr) Interface de commande d&#39;un videoendoscope connectable a un ordinateur personnel
FR2977441A1 (fr) Videoendoscope de mesure a vision stereo
FR2761561A1 (fr) Sonde videoendoscopique a senseur ccd distal
FR2787566A1 (fr) Procede et systeme d&#39;aide a la visee pour arme legere
FR2660822A1 (fr) Camera a double prise de vue realisant des images de haute dynamique.

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13

PLFP Fee payment

Year of fee payment: 14

PLFP Fee payment

Year of fee payment: 15