FR3054093B1 - Procede et dispositif de detection d'un capteur d'images - Google Patents

Procede et dispositif de detection d'un capteur d'images Download PDF

Info

Publication number
FR3054093B1
FR3054093B1 FR1756547A FR1756547A FR3054093B1 FR 3054093 B1 FR3054093 B1 FR 3054093B1 FR 1756547 A FR1756547 A FR 1756547A FR 1756547 A FR1756547 A FR 1756547A FR 3054093 B1 FR3054093 B1 FR 3054093B1
Authority
FR
France
Prior art keywords
sensor
sensor elements
elements
image
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
FR1756547A
Other languages
English (en)
Other versions
FR3054093A1 (fr
Inventor
Marc Geese
Ulrich Seger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of FR3054093A1 publication Critical patent/FR3054093A1/fr
Application granted granted Critical
Publication of FR3054093B1 publication Critical patent/FR3054093B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/616Noise processing, e.g. detecting, correcting, reducing or removing noise involving a correlated sampling function, e.g. correlated double sampling [CDS] or triple sampling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/441Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by reading contiguous pixels from selected rows or columns of the array, e.g. interlaced scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • H04N25/633Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current by using optical black pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/771Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising storage means other than floating diffusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

Procédé (1600) pour détecter un capteur d'images (320), ayant une structure de réseau (310) composée d'un ensemble d'éléments de capteurs (300a, 300b, 300c, 300d) de forme triangulaire. Les éléments de capteur (300a, 300b, 300c, 300d) voisins dans la structure de réseau (310) détectent la lumière selon les propriétés respectives différentes de la lumière. Le procédé (1600) consiste à : - lire (1610) le capteur d'images (320) en détectant un ensemble d'éléments de capteur de la structure de réseau (310), éléments qui détectent la lumière ayant respectivement la même première plage de longueur d'ondes, et dans cette étape de lecture (1600), extraire un signal de capteur (1200a, 1200b, 1200c) pour chaque élément de capteurs, - enregistrer de façon intermédiaire (1620) les signaux de capteur (1200a, 1200b, 1200c), lus et - générer (1630) une information d'image associée à un premier point de détection (500) du capteur d'image (320) en utilisant les signaux de capteur enregistrés de façon intermédiaire.

Description

Domaine de l’invention
La présente invention a pour objet un procédé pour détecter un capteur d’images, selon lequel le capteur d’images a une structure de réseau composée d’un ensemble d’éléments de capteurs de forme triangulaire, les éléments de capteur voisins dans la structure de réseau détectant la lumière selon les propriétés respectives différentes de la lumière. L’invention a également pour objet un dispositif pour la mise en œuvre d’un tel procédé.
Etat de la technique
Les capteurs d’images actuels fonctionnent généralement selon le principe suivant : 1. une optique génère une image lumineuse sur un capteur plat (encore appelé capteur d’images) 2. le capteur d’images détecte cette image dans l’espace et dans le temps, 3. la détection temporelle est fixée par le taux d’images.
Les composants usuels d’une caméra / appareil de prise de vue assurent les fonctions suivantes : l’optique fonctionne comme un filtre passe-bas dans l’espace, le capteur d’images est formé actuellement de plusieurs millions de photo-capteurs et chaque photo-capteur constitue un point de détection dans l’espace, la durée d’éclairage fonctionne comme un filtre passe-bas temporel, pour une détection sans crénelage, le filtre passe-bas doit être adapté à la fréquence de détection pour que cette fréquence de détection soit double de la fréquence limite du filtre passe-bas (théorème d’échantillonnage de Shannon-Nyquist). En outre, le signal doit toujours traverser le filtre passe-bas avant sa détection. Dans le cas contraire, le signal détecté contient des effets de crénelage. Les effets de crénelage dans l’espace correspondent habituellement à des arêtes à fort contraste (seuil de couleur), des objets ponctuels (à cause de la disparition et de la réapparition) et les objets ayant un motif périodique similaire (effet de moiré). Dans un signal temporel, le crénelage se traduit par un effet d’obturateur déroulant (un objet droit donne une image courbe), des effets tels que des effets de roue de chariot (la roue semble tourner en sens inverse pour certaines vitesses) et des difficultés pour la saisie de source lumineuse pulsée (panneaux de circulation à LED, feux arrière de véhicule). De tels effets se produisent également pour la vision humaine et montrent ainsi que l’on ne peut éliminer alors complètement les effets de cré-nelage. Pour les applications dans le domaine de la vision par machine, le flux optique est un paramètre important. On en améliore significativement la qualité par un signal détecté correctement dans le temps.
But de l’invention
Dans ce contexte, la présente invention a pour but de développer un procédé de détection d’un photo-capteur ainsi qu’un dispositif appliquant ce procédé et un programme d’ordinateur pour la mise en œuvre du procédé pour améliorer la qualité de la détection.
Exposé et avantages de l’invention A cet effet l’invention a pour objet un procédé pour détecter un capteur d’images, selon lequel le capteur d’images a une structure de réseau composée d’un ensemble d’éléments de capteurs de forme triangulaire, les éléments de capteur voisins dans la structure de réseau détectant la lumière selon les propriétés respectives différentes de la lumière. Ce procédé est caractérisé en ce qu’il consiste à lire le capteur d’images en détectant un ensemble d’éléments de capteur de la structure de réseau, éléments qui détectent la lumière ayant respectivement la même première plage de longueur d’ondes, et dans cette étape de lecture, extraire un signal de capteur pour chaque élément de capteurs, enregistrer de façon intermédiaire les signaux de capteur, lus et générer une information d’image associée à un premier point de détection du capteur d’image en utilisant les signaux de capteur enregistrés de façon intermédiaire.
Les éléments de capteur voisins (photo-capteurs) sont, par exemple, équipés de filtres de façon à associer aux signaux fournis par ces éléments de capteur, des propriétés de lumière différentes, par exemple, la couleur (par exemple pour des plages de longueurs différentes) ou un état de polarisation différent. Dans l’étape de lecture on détecte ainsi trois éléments de capteur conçus pour détecter la lumière de la même plage de longueurs d’onde, par exemple, pour reconnaître les lumières bleue, verte, rouge ou blanche. Un point de saisie du capteur d’images est une zone du capteur d’images à laquelle est associée une information d’image. Par exemple, ce point de saisie peut se situer dans une plage du capteur d’images située sur une liaison (imaginée) des éléments de capteur à lire. De cette manière, on réalise une moyenne, une interpolation ou une pondération des différents signaux de capteur lus, c’est-à-dire enregistrés de façon intermédiaire pour permettre ainsi la reconstruction à un endroit sur le capteur d’images. La répartition en un réseau de cellules élémentaires triangulaires est particulièrement avantageuse si l’on utilise quatre types différents de capteurs d’images, par exemple rouge, vert, bleu et blanc ou toute autre combinaison de quatre types différents de capteur d’images (capteur d’images possible : R, G, B, cyan, jaune, magenta, blanc, blanc logarithmique, directions de polarisation, etc.).
Suivant une caractéristique avantageuse, dans l’étape de lecture on détecte au moins trois éléments de capteur et parmi les trois éléments de capteur détectés, deux éléments de capteur définissent une droite et au moins le troisième élément de capteur ne se trouve pas sur cette droite passant par les éléments de capteur. Cette forme de réalisation a l’avantage de lire des éléments de capteur qui couvrent une grande zone d’espace et permettent ainsi d’optimiser la résolution de localisation.
Suivant une autre caractéristique avantageuse, dans l’étape de lecture on détecte comme élément de capteur qui ne se trouvent pas sur la droite définie par les éléments de capteur, un élément de capteur qui est à une position dans la structure dans la structure de réseau telle qu’au moins un élément de capteur se trouve entre cette position et la droite formée par les éléments de capteur. Cette forme de réalisation offre l’avantage de détecter des éléments de capteur positionnés selon une disposition géométrique régulière et néanmoins suffisamment éloignés pour permettre d’améliorer la résolution locale d’un signal d’images.
Pour améliorer la résolution temporelle de la saisie d’images à l’aide du capteur d’images ci-dessus, dans l’étape de lecture, on lit les éléments de capteur à des intervalles de temps différents et notamment des intervalles de temps qui se chevauchent au moins partiellement.
Cela permet d’éviter totalement ou du moins d’améliorer considérablement la difficulté liée au respect du critère de Nyquist pour le fonctionnement du capteur d’images.
On améliore également le respect du critère de Nyquist dans le fonctionnement du capteur d’images en ce que l’étape de génération consiste à utiliser par interpolation les signaux de capteur enregistrés de façon intermédiaire et/ou les signaux déduits des signaux de capteur enregistrés de façon intermédiaire.
Le développement ci-dessus se rapporte au traitement des signaux d’images fournis par des éléments de capteurs conçus pour saisir des propriétés analogues de la lumière. D’une manière particulièrement avantageuse, on ne traite pas seulement les signaux de capteur provenant d’éléments de capteur saisissant la même longueur d’ondes de la lumière mais en ce que l’on utilise plusieurs groupes d’éléments de capteurs conçus pour saisir chacun des plages de longueurs différentes de la lumière. Ainsi, et de manière avantageuse, les étapes de lecture, d’enregistrement intermédiaire et de génération sont répétées pour les éléments de capteur, pour détecter la lumière dans une même seconde plage de longueurs d’onde, différente de la première plage de longueurs d’onde.
Suivant une autre caractéristique avantageuse, on exécute plusieurs fois, de manière cyclique, les étapes de lecture, d’enregistrement intermédiaire et de génération, et dans un premier cycle (première phase) on lit les éléments de capteur qui se trouvent dans la structure de réseau sur une même première droite commune d’éléments de capteur et à une position dans la structure de réseau telle qu’au moins un élément de capteur se situe entre cette position et la droite des éléments de capteur et dans un second cycle (deuxième phase) on lit les éléments de capteur qui se trouvent dans la structure de réseau sur une seconde droite d’éléments de capteur, commun, différente de la première droite et sur une position dans la structure de réseau telle qu’au moins un élément de capteur se trouve entre cette position et la seconde droite des éléments de capteur. Cette solution a l’avantage de lire au cours de cycles différents, des éléments de capteur situés à des positions différentes du capteur d’images et/ou à des instants différents et d’optimiser de cette manière la détection spatiale et temporelle, c’est-à-dire d’éviter ou du moins de réduire les effets de crénelage. Les droites des capteurs peuvent être obtenues de manière quelconque par symétrie de la structure prédéfinie par les cellules élémentaires triangulaires. Des rotations de 60° des dispositifs de capteur sont avantageuses selon les conditions aux limites.
Selon un autre développement, dans l’étape d’enregistrement intermédiaire, on effectue une pondération d’un ou plusieurs signaux de capteur ce qui a l’avantage de donner un meilleur rapport signal/bruit et d’adapter la longueur des impulsions en fonction de la caractéristique de filtre passe-bas.
Le procédé développé ci-dessus peut se matérialiser sous la forme d’un programme ou d’un circuit ou d’une combinaison d’un programme et d’un circuit appliqués à un appareil de commande. L’invention a également pour objet un dispositif pour exécuter les étapes du procédé qui permet de répondre rapidement et efficacement au problème posé.
Le dispositif comporte une unité de calcul pour traiter les signaux et les données, une mémoire pour enregistrer les données et une interface avec le capteur ou un actionneur pour lire les signaux de capteur et fournir des données et des signaux de commande à l’actionneur et/ou au moins une interface de communication pour enregistrer ou fournir des données, avec un protocole de communication. Le calculateur est, par exemple, un processeur de signal, un microcontrôleur ou un moyen analogue et la mémoire est, par exemple, une mémoire flash, une mémoire EEPROM ou une mémoire magnétique. L’interface de communication enregistre des données par une liaison sans fil ou par fil ou les émet de la même manière et l’interface de communication échange les données par une liaison par fil ou sans fil, par exemple par une liaison électrique ou optique.
Le dispositif peut être un appareil électrique traitant les signaux de capteur et fournissant des signaux de commande et/ou de données en fonction des signaux de capteur. Le dispositif comporte une interface sous forme de circuits ou/et de programmes. La réalisation de l’interface sous la forme d’un circuit se fait, par exemple, comme partie d’un composant ASIC qui contient différentes fonctions du dispositif. Il est également possible de réaliser l’interface sous la forme d’un circuit intégré et/ou, en partie, de composants discrets. Dans le cas d’une réalisation sous la forme d’un programme, les interfaces peuvent être des modules de programme, par exemple, dans un microcontrôleur à côté d’autres modules de programmes.
Selon un développement avantageux, le dispositif exploite un capteur d’images, par exemple pour une caméra de véhicule permettant de reconnaître l’environnement du véhicule. Le dispositif saisit par exemple les signaux de capteur tels que les signaux d’un capteur d’images ou d’une caméra et les traite. La commande et le traitement des signaux de capteur se font à l’aide, par exemple, d’un composant semi-conducteur qui comporte également le capteur d’images, par exemple, dans un autre plan de ce composant semi-conducteur. L’invention porte également, avantageusement, sur un produit-programme d’ordinateur ou un programme d’ordinateur avec un code-programme sur un support de mémoire ou support lisible par une machine tel qu’une mémoire semi-conductrice, un disque dur ou une mémoire optique utilisant pour la mise en œuvre la conversion et/ou la commande des étapes du procédé selon les formes de réalisation décrites ci-dessus, notamment lorsque le produit-programme ou plus simplement le programme sont exécutés par un ordinateur ou un dispositif.
Dessins
La présente invention sera décrite ci-après, de manière plus détaillée, à l’aide des dessins annexés dans lesquels : la figure 1 est un schéma d’une fonction de détection avec une fonction de fenêtre pour la largeur de la fenêtre de temps, la figure 2 montre plusieurs diagrammes partiels représentant un schéma de détection Nyquist, la figure 3 montre une disposition possible d’élément de capteur sous la forme d’une structure de réseau, la figure 4 montre la disposition régulière d’éléments de capteur triangulaires du capteur d’images dans un canal multiple, la figure 5 est une vue de détail d’éléments de capteur voisins les uns des autres pour la détection d’une lumière avec des plages de longueur d’ondes différentes, la figure 6 montre un exemple de réalisation présentant une possibilité d’interpolation pour une information d’images concernant la lumière blanche avec des éléments de capteur dans un réseau de filtre contenu 4 canaux, la figure 7 montre un exemple de réalisation présentant une possibilité d’interpolation pour une information d’images concernant la lumière rouge provenant d’éléments de capteur dans un réseau de filtre contenu 4 canaux, la figure 8 montre un exemple de réalisation d’une possibilité d’interprétation d’une information d’images pour la lumière verte dans des éléments de capteur dans un réseau de filtre contenu 4 canaux, la figure 9 montre un exemple de réalisation d’une possibilité d’interprétation d’une information d’images pour la lumière bleue dans des éléments de capteur d’un dans un réseau de filtre contenu 4 canaux, la figure 10 montre schématiquement le motif de lecture des éléments de capteur, la figure 11 montre un autre motif schématique de lecture des éléments de capteur, la figure 12 est un diagramme décrivant un exemple de réalisation de l’intégration avec la même pondération pour la lecture de plusieurs éléments de capteur ci-dessus, la figure 13 est un schéma avec un modulateur passe-bas paramétré, la figure 14 est un schéma d’un filtre passe-bas temporel discret paramétré, la figure 15 est une coupe schématique d’un composant implémentant la solution présentée ci-dessus, la figure 16 montre un ordinogramme d’un procédé de détection d’un capteur d’images et, la figure 17 est un schéma par blocs d’un exemple de réalisation d’un dispositif de détection d’un capteur d’images selon l’invention.
Dans la description suivante on utilisera les mêmes références pour les mêmes éléments ou des éléments analogues dans les différentes figures.
Description de modes de réalisation
Pour la compréhension de l’invention, il sera tout d’abord rappelé le fonctionnement des capteurs d’image. Le fonctionnement actuel des capteurs d’image utilise une durée d’éclairage relativement courte par rapport au taux d’images résultant. La durée d’éclairage fonctionne comme filtre passe-bas qui, de manière idéale, est considéré comme un rectangle dans la plage temporelle. Dans l’espace des fréquences, un filtre passe-bas rectangulaire de largeur texp se présente comme fonction si :
(D
Le premier passage par zéro de la courbe si est situé comme suit : (2) (3)
Cela constitue l’approximation habituelle de la fréquence limite du filtre passe-bas. On peut comparer les temps d’éclairage habituels :
(4)
Avec des fréquences de répétition d’images / fréquences de détection de :
(5) alors on obtient la fréquence d’échantillonnage féchantiiionnage et la fréquence limite fNyq du filtre passe-bas comme suit : (6) (7)
Selon le théorème d’échantillonnage on a : (8) (9) il faut : (10) on a : (11)
La figure 1 montre un diagramme avec une fonction d’échantillonnage et une fonction de fenêtre de largeur temporelle texp aux instants de trame 1 et trame 2, ce qui peut être considéré comme le schéma d’échantillonnage usuel actuellement. Mais, cela est très nettement contraire au théorème de Nyquist. Cela ne présente pas de difficulté aussi longtemps que l’on ne rencontre pas de fréquence plus élevée (nuage qui se déplace lentement, photographie, etc.).
Dans le domaine des systèmes d’assistance de conduite on a toutefois des variations rapides de la scène, en particulier dans les cas usuels de sorte qu’il est particulièrement important, par exemple, dans le calcul d’un flux optique, de se rapporter aux extrêmes de la vitesse de marche à pied pour la détection des lumières LED (feux de freins, si
gnaux de changement de direction). C’est pourquoi il conviendrait de détecter les signaux lumineux de manière correcte dans le temps ou indiquer que le théorème d’échantillonnage n’est pas respecté.
Les difficultés de l’échantillonnage temporel actuel pour une détection temporelle correcte nécessiteraient le respect de l’équation (12) :
(12)
On en déduit le critère suivant : 2 f Nyq. — f échantillonage ( 13 ) (14) (15)
Cela signifie que pour un échantillonnage correct, la durée d’éclairage devrait être double de celle d’une trame usuelle. Il faudrait également, pour un meilleur filtrage passe-bas, une adaptation temporelle du signal, par exemple, par multiplication avec un coefficient variant dans le temps.
La figure 2 montre plusieurs schémas partiels avec des éléments de détection conformes aux critères de Nyquist. Le diagramme du haut représente schématiquement une caractéristique de consigne d’un filtre passe-bas en fonction du temps t alors que le diagramme du bas qui correspond à l’échantillonnage temporel idéal avec des filtres passe-bas qui se chevauchent représente une fonction triangle comme modulation temporelle aux instants trame 1, trame 2, trame 3.
Le taux effectif des trames dépend du respect du critère de Nyquist de la largeur du filtre passe-bas. Dans les capteurs d’images usuels il est toutefois difficile d’avoir des temps d’intégration supérieurs à 1 ms en mode diurne (conditions limites telles que SNR, conception convenant pour le mode nocturne, etc.). Dans ces conditions, pour une détection temporelle correcte cela augmente également le taux des trames (valeur supérieure à 1kHz serait nécessaire).
De tels taux élevés de données ne peuvent être traités et il faut au préalable les ramener à la fréquence usuelle de 30 Hz. Cela peut se faire, par exemple, par le traitement aval du signal.
Mais un échantillonnage descendant, correct demande un filtre passe-bas avec un échantillonnage ou taux d’images souhaité. Comme le signal de sortie n’a pas de crénelage, le signal final avec un taux de trame réduit et un échantillonnage descendant correct n’aura pas de crénelage.
Pour la détection temporelle du signal lumineux, on utilise également un filtre passe-bas temporel réalisé par le temps d’éclairage. Le fait que les taux d’image standard et les durées d’éclairage standard ne sont pas suffisants, correspond à l’expression "échantillonnage standard" pour l’échantillonnage dans l’espace. Alors que le défaut de netteté de l’optique spatial garantit que le signal dépassant la dimension du pixel sera filtré par filtrage passe-bas, la contrepartie fait souvent défaut pour la dimension temporelle.
Pour une détection correcte dans le temps, on a deux possibilités de principes de réalisation : le décalage temporel comme réalisation spatiale dans le plan du pixel, la possibilité de conception de pixels pour réaliser le filtre passe-bas temporel.
Selon l’indication ci-dessus, à chaque point de détection dans l’espace, on peut pondérer les signaux lumineux, différemment, mais aux instants de saisie temporelle ; ensuite on intègre pour arriver à une détection temporelle correcte. La pondération temporelle différente correspond ainsi, par exemple, à la caractéristique du filtre passe-bas.
Par la pondération temporelle différente et/ou la génération des valeurs de mesure, le signal lumineux continu, à chaque instant influence au moins deux valeurs de mesure de détection générées dans le temps ou plus de deux valeurs.
Le chevauchement de la détection temporelle ne nécessite, à proprement parler, que deux ou plus d’unités de mémoire pour les pixels de détection dans le temps. Ces unités de mémoire peuvent généralement être sous la forme de condensateurs électroniques. A titre d’explication, par exemple le second point de détection dans le temps commence déjà à intégrer pendant que le premier point de détection n’a pas encore terminé son intégration dans le temps. Lorsque la première trame est terminée, la troisième trame commence son intégration et ainsi de suite. Comme les valeurs de mesure de la première trame nécessitent une durée de lecture finie, en pratique il faudrait probablement non pas deux, mais trois unités de mémoire.
La réalisation de valeurs de détection qui se chevauchent dans temps sera détaillée ci-après.
Dans la reconstruction spatiale il faut calculer à partir de plusieurs et avantageusement d’au moins deux valeurs de mesure de capteur d’images pour reconstruire le signal lumineux continu pour un point d’espace 2D.
Pour un traitement conçu de manière suffisamment développée (par exemple dans un bloc de génération de signal) on pourra alors, à partir du signal des trois unités de mémoire, reconstruire le signal à un instant souhaité, quelconque compris entre le premier et le dernier instant. Ce montage en série ou cette extension des étapes de reconstruction, permettent finalement d’arriver au taux de trames voulu. L’échantillonnage descendant, correct, demande toutefois de nouveau un filtre passe-bas avant la détection du taux d’images souhaité. Comme le signal de sortie n’a pas de crénelage, le signal final avec un taux de trame réduit n’aura pas non plus de crénelage si l’échantillonnage descendant est correct.
Toutefois, il peut arriver que le signal d’images auquel on a réduit le taux d’images bas, présente une netteté d’arête moindre dans les dimensions spatiales pour un taux d’images élevé. Cela provient notamment de ce que la réduction sans crénelage du taux d’images pour l’exécution de la technique standard demande un temps d’éclairage virtuel plus long, ce qui se traduit par un mélange des signaux d’images dans cette zone. Pour y remédier on peut utiliser un filtre espace-temps pour calculer le signal d’images. Ce filtre peut être d’une complexité quelconque et avoir entre autre les propriétés suivantes : limiter les paramètres d’entrée à prendre en compte aux valeurs de mesure d’un voisinage limité (par exemple un voisinage direct ou très direct), limiter les paramètres d’entrée à prendre en compte aux valeurs de mesure d’une fenêtre de temps, limitée (par exemple seulement les cinq dernières valeurs de mesure) en calculant les valeurs d’entrée en fonction de leur position locale, calculer les valeurs d’entrée en fonction de l’installation de leur réception, calculer les valeurs d’entrée avec des opérateurs non linéaires (min, max, médian), calculer les valeurs d’entrée avec des opérateurs linéaires (convolu-tion, multiplication et addition), calcul des valeurs d’entrée en tenant explicitement compte des relations spatiales et temporelles, calculer les valeurs d’entrée en tenant compte de différents modèles, en particulier : tenir compte des modèles pour la localisation spatiale / temporelle de sources lumineuses modulées en largeur d’impulsions avec les degrés de liberté : taux de répétition, cycle de travail et phases pour les taux d’images actuelles telles que par exemple, les LED de panneaux de signaux de circulation et des feux arrières de véhicules.
En outre, le bloc générant le signal permet également de calculer d’autres caractéristiques de signal comme, par exemple : la possibilité de calculer entre deux instants, la variation temporelle et/ou spatiale (locale) moyenne du signal et la fournir (cela peut conduire à une réduction du taux de données), à partir des éclairages séparés des trames 1-3 on peut également calculer l’importance de la variante temporelle et/ou spatiale (locale) du signal, en appliquant des seuils paramétrés, on peut extraire à partir des valeurs de mesures intermédiaires ci-dessus, des caractéristiques avec peu de bits pour le contenu de l’information, en particulier, on peut utiliser un ou plusieurs seuils de formation de valeurs pour marquer un volume de signal spatio-temporel comme LED "clignotant-pulsé" (par exemple en exploitant la variation temporelle du signal par rapport à sa valeur moyenne dans le temps. L’exemple suivant peut être appliqué comme décrit : si le signal d’un élément de capteur diffère dans une période d’échantillonnage de plus de 25%, on peut marquer ce signal comme fluctuant avec un Bit marqueur, ce qui est utile pour détecter des sources de lumière artificielle. Le seuil doit être adapté de manière appropriée en fonction du temps et le cas échéant du lieu. A côté de la détection sans crénelage dans le temps, il existe également d’autres exemples d’applications dans l’unité de traitement en aval : extraction d’une évaluation exacte de profondeur dans le cas d’un éclairage structuré en exploitant le volume spatio-temporel d’un signal, détermination des caractéristiques temporelles (fréquences, cycles de travail, etc.) de différentes sources de lumière. L’invention présentée ici sera détaillée ci-après quant à sa structure et son fonctionnement, à l’aide d’un exemple de réalisation détaillé avec des variantes possibles.
Un aspect de la solution présentée ci-dessus consiste à transférer les temps d’intégration qui se chevauchent dans le temps en une dimension spatiale et utiliser un réseau de détection, régulier avec des éléments de capteurs ou des capteurs d’images de forme sensiblement triangulaire. Pour cela on utilise le fait qu’un triangle est la forme bidimensionnelle minimale qui permet une interpolation correcte sur une surface à deux dimensions.
La figure 3 montre une disposition possible d’éléments de capteurs 300 (que l’on peut également désigner par pixels) dans une structure de réseau 310. Chacun des éléments de capteur 300 est un élément de capteur triangulaire du capteur d’images 320 et chacun des éléments de capteur est muni d’un filtre spectral pour les couleurs bleu, vert, rouge ou claires / blanc / bande large pour détecter ainsi une plage prédéfinie de longueurs d’onde.
La figure 4 montre une disposition régulière d’éléments de capteurs triangulaires 300 du capteur d’images 320 dans un canal quadruple selon lequel chacun des canaux comporte des éléments de capteurs 300 réalisés respectivement pour saisir l’une des quatre couleurs ci-dessus bleu, vert, rouge et blanc. En outre, la figure 4 montre que les éléments de capteur voisins (c’est-à-dire par rapport à un côté des éléments de capteur) détectent la lumière de chaque autre longueur d’onde ou d’une plage différente de longueurs d’onde. Cela est figuré par des hachures différentes des éléments de capteur 300 de la structure de réseau 310 de la figure 4. A titre d’exemple, les éléments de capteur 300a détectent la lumière bleue ; les éléments de capteur 300b détectent la lumière verte et les éléments de capteur 300c détectent la lumière rouge ; les éléments de capteur 300d détectent la lumière blanche.
Ainsi, selon l’exemple de réalisation de l’invention, décrit ci-dessus on utilise un capteur d’images à filtre de couleur à quatre canaux 320 dont les éléments de capteur 300 sont des pixels triangulaires et ont une disposition sous la forme d’une structure de réseau régulier 310. Pour interpoler un signal lumineux multidimensionnel (voir à cet effet le procédé décrit de façon plus détaillée ensuite en référence au bloc de génération de signal) on peut utiliser différents voisinages d’éléments de capteur 300.
La figure 5 montre une représentation de détail d’éléments de capteur 300, voisins, pour détecter des plages de longueur d’ondes différentes de lumière pour sélectionner deux voisinages possibles d’éléments de capteur 300. La partie gauche de la figure 5 représente une structure de réseau 310 avec un point de saisie ou de détection 500 commun avec un élément de détecteur 300c en haut et en bas, sensible à la lumière rouge ; en haut et en bas à droite on a un élément de capteur 300a sensible à la lumière bleue et à gauche en haut et à droite en bas on a un élément de capteur 300b sensible à la lumière verte. De façon analogue, aux autres points de saisie 510 on a, de façon adjacente, à gauche et à droite, à côté du point de saisie 500, des éléments de capteur 300, voisins sensibles à différentes couleurs de lumière ; pour le point de saisie 520, à gauche en haut et à droite en bas du point de saisie 500 on a également des éléments de capteur 300, voisins, sensibles à différentes couleurs de lumière. La même remarque s’applique au point de saisie 530 à gauche en bas et à droite en haut par rapport au point de saisie 500. Dans la représentation à droite selon la figure 5 on a représenté les motifs correspondants des éléments de capteur sensibles aux différentes plages de longueur d’ondes et qui correspondent au point de saisie 510-530.
Dans ces voisinages, on peut interpoler avec différents triangles à partir du centre comme point de saisie.
La figure 6 montre un exemple de réalisation présentant la possibilité d’interpolation pour une information d’images relative à la lumière blanche des éléments de capteur 300d. On utilise ainsi les signaux de capteur, par exemple des trois éléments de capteurs 300d les plus proches du point de saisie 500. Il s’agit, d’une part, les éléments de capteur 300d représentés dans la division gauche de la figure 6 sur une droite 600 d’éléments de capteur sous le point de saisie 500 ainsi qu’un élément de capteur 300b au-dessus du point de saisie 500 et un autre élément de capteur 300c entre le point de saisie 500 et l’élément de capteur 300d pour la lumière blanche. Dans la représentation partielle à droite de la figure 6 on a présenté une sélection alternative des éléments de capteur 300d dont les signaux sont utilisés pour interpoler ou faire la moyenne du contenu d’images pour le point de saisie 500. Il apparaît que le point de saisie 500 se situe toujours à l’intérieur d’une zone géométrique formée par la liaison des éléments de capteur 300d dont les signaux serviront à déterminer le contenu de l’image.
La figure 7 montre une variante analogue de sélection d’éléments de capteur 300c qui sont, dans ce cas, sensibles à la lumière rouge de sorte qu’également pour le point de saisie 500, on pourra déterminer une information appropriée par traitement d’images, c’est-à-dire l’interpolation.
La figure 8 montre une possibilité analogue de sélection d’éléments de capteur 300b pour la lumière verte de sorte qu’également pour le point de saisie 500 on pourra déterminer une information appropriée par traitement d’image, c’est-à-dire l’interpolation.
La figure 9 montre une possibilité analogue de sélection d’éléments de capteur 300a sensibles à la lumière bleue, ce qui permet également, pour le point de saisie 500 de déterminer une information appropriée par traitement d’image c’est-à-dire interpolation.
La description des figures 6 à 9 montre qu’une information d’image, par exemple, la luminosité, la teinte ou un autre paramètre d’image pour un point ou autre paramètre d’image pour un point de saisie 500 du capteur d’image 320 selon le procédé présenté ci-dessus consistant à subdiviser les capteurs d’images ou éléments de capteur 300 à la surface du capteur d’images 320 en plusieurs groupes. Chacun de ces groupes correspond alors à un réseau de détection déphasé dans la représentation spatiale (comme cela a été décrit ci-dessus. Chacun de ces réseaux de détection peut, par exemple, être commandé séparément avec un déphasage temporel par rapport aux autres réseaux.
La disposition en triangle proposée ci-dessus permet notamment, dans le cas d’un réseau de filtres de couleur à quatre canaux, de réaliser deux phases et en même temps de disposer sans équivoque de trois éléments de capteurs 300 de la même sorte (c’est-à-dire qui sont sensibles à la lumière de la même plage de longueurs d’onde) pour faire l’interpolation.
La figure 10 montre un motif schématique de lecture des éléments de capteur 300 et des signaux de capteur que l’on peut ainsi traiter. Pour cette exploitation des signaux de capteur fournis par les éléments de capteur 300 du capteur d’images 320 on peut faire la lecture en deux phases. Dans une première phase 1 on forme deux lignes 1000 composées d’éléments de capteur 300 de même sensibilité pour des longueurs d’ondes différentes ; les éléments de capteur 300 de cette ligne 100 sont écartés pour avoir une autre ligne 1010 d’éléments de capteurs 300 à interposer entre les deux lignes 1000. Cette autre ligne peut alors être lue au cours d’une seconde phase 2 ou d’un second cycle comme cela sera détaillé ensuite.
Au cours d’une première phase 1 on ne saisit, par exemple, que les éléments de capteur 300b des deux lignes 1000 sensibles à la lumière verte. Les signaux de capteur qui représentent les valeurs des différents éléments de capteur 300b sensibles à la lumière verte peuvent alors être enregistrés de façon intermédiaire chaque fois dans une cellule de mémoire et le cas échéant être préparés avant que ces si gnaux de capteur enregistrés de façon intermédiaire ou préparés ne soient utilisés pour obtenir une information d’image qui sera ensuite associée à un point de saisie situé sur la ligne de liaison (ligne géométrique) des éléments de capteur 300b, lus. Ensuite, ou simultanément on peut également lire les éléments de capteur 300c des deux lignes 1000 sensibles à la lumière rouge. Les signaux de capteur qui représentent les valeurs des différents éléments de capteurs 300c sensibles à la lumière rouge peuvent alors être enregistrés de façon intermédiaire chaque fois dans une cellule de mémoire et le cas échéant ils peuvent être préparés avant que ces signaux de capteurs enregistrés de façon intermédiaire ou préparés ne soient utilisés pour générer une information d’image que l’on peut alors associer à un point de saisie situé sur la ligne de liaison (ligne géométrique) des éléments de capteur 300c, lus. Le cas échéant ensuite ou simultanément on lit les éléments de capteur 300d des deux lignes 1000 sensibles à la lumière blanche. Les signaux de capteur qui représentent les valeurs des différents éléments de capteur 300d sensibles à la lumière blanche peuvent être enregistrés de façon intermédiaire chaque fois dans une cellule de mémoire et le cas échéant ils peuvent être préparés avant d’utiliser les signaux de capteur enregistrés de façon intermédiaire ou préparés pour générer une information d’image associée ensuite à un point de saisie situé sur la ligne de liaison (ligne géométrique) des éléments de capteur lus 300d. De façon analogue, on peut ensuite ou en parallèle lire les éléments de capteur 300a des deux lignes 1000 sensibles à la lumière bleue. Des signaux de capteur qui représentent les valeurs des différents éléments de capteur 300a sensibles à la lumière bleue peuvent être ensuite enregistrés de façon intermédiaire chaque fois dans une cellule de mémoire et le cas échéant ils peuvent être préparés avant que ces signaux de capteur enregistrés de façon intermédiaire ou préparés ne soient utilisés pour générer une information d’image associée alors à un point de saisie situé sur la ligne de liaison (géométrique) de l’unité de capteur 300a.
La figure 11 montre un autre motif schématique de lecture des éléments de capteur. De façon analogue, on pourra lire dans la seconde phase 2 ou dans le second cycle, les éléments de capteur 300 de l’autre ligne 1010 ou d’une ligne supplémentaire 1100 ; les éléments de capteur 300 de la ligne supplémentaire 1100 se trouvent également à un intervalle d’un élément de capteur 300, c’est-à-dire qu’entre l’autre ligne 1010 et la ligne supplémentaire 1100, il y a une ligne 1000. Ainsi, du fait du voisinage de l’élément de capteur 300 ayant des sensibilités différentes pour différentes plages de longueurs d’onde, alors dans le second cycle ou la seconde phase on saisit les éléments de capteur 300a sensibles à la lumière bleue, en procédant de façon analogue à ce qui a été décrit ci-dessus par rapport à la figure 10 ; on enregistre de façon intermédiaire les signaux de capteur ainsi obtenus ou encore on les prépare et on en déduit une information d’images correspondante pour un point de saisie. La procédure analogue est alors appliquée également aux éléments de capteur 300d sensibles à la lumière blanche, aux éléments de capteur 300c sensibles à la lumière rouge et aux éléments de capteur 300b sensibles à la lumière verte si bien que l’on pourra ainsi générer des informations d’images ou contenus d’images pour un point de saisie associé. Il apparaît en outre que l’utilisation d’une disposition par ligne des éléments de capteur 300 à lire correspond, là encore, à deux éléments de capteur 300 sur une droite commune d’éléments de capteur comme cela a déjà été décrit en référence à la figure 6.
Le procédé décrit ci-dessus présente quelques particularités du point de vue de la théorie des signaux. Les signaux lumineux ou signaux d’éléments de capteurs représentent habituellement un ensemble d’électrons regroupés dans un condensateur. Les signaux de temps d’éclairage qui se chevauchent doivent être calculés entre eux pour obtenir un signal sans crénelage (par exemple comme information d’images). En plus, on peut également prendre en compte la structure spatiale de la disposition donnée et les caractéristiques du filtre passe-bas dans le temps. Mathématiquement le filtre passe-bas optique forme une unité avec le filtre passe-bas temporel pour décrire le filtrage passe-bas du signal lumineux spatiotemporel, ce qui doit être pris en compte pour la conversion future de la reconstitution du signal.
Si, comme cela est habituel de nos jours, on saisit les capteurs d’images avec une durée d’éclairage constante, décalée dans le temps, le filtre passe-bas est une fonction Sine dans la plage des fréquences. Il serait idéal d’utiliser un filtre rectangulaire dans la plage des fréquences, ce qui nécessite une modulation Sine dans la plage temporelle.
En pratique, on dispose ici d’un ensemble d’alternatives éprouvées et faisant partie de l’état de la technique quant à la réalisation des caractéristiques de filtres passe-bas, par exemple, un dispositif Lan-cos, un filtre, un mélange d’un triangle et d’un filtre Sine ou des éléments analogues.
La figure 12 montre un diagramme décrivant une réalisation donnée à titre d’exemple de l’intégration pondérée de la même manière pour la lecture de plusieurs éléments de capteurs 300 comme décrit ci-dessus. Les éléments de capteurs 300a, 300b, 300c, 300d, saisis (ces éléments sont constitués ici par des photodiodes) sensibles pour chacune des plages de longueurs d’onde (c’est-à-dire des éléments de capteurs sensibles au rouge, des éléments de capteurs sensibles au bleu, des éléments de capteur sensibles au blanc ou des éléments de capteur sensibles au vert). La lecture se fait chaque fois pour des intervalles de temps respectifs dans lesquels la courbe associée au pixel correspondant présente un niveau élevé. Cela signifie que chacun des trois éléments de capteur 300a, 300b, 300c, 300d à lire selon la procédure décrite ci-dessus (pour mieux les distinguer, ces éléments portent les références pixel 1, pixel 2 et pixel 3 à la figure 12) seront lus chronologiquement les uns à la suite des autres et avantageusement ils se chevauchent au moins en partie ; la valeur lue ou les signaux de capteur correspondant 1200a, 1200b, 1200c des éléments de capteur 300a, 300b, 300c, 300d sont enregistrés de façon intermédiaire chaque fois dans un condensateur 1210 qui fait une intégration des électrons dans le condensateur 1210 en fonction du temps.
En, outre, par la procédure décrite ci-dessus, on peut également appliquer un filtre passe-bas continu dans le temps, paramétré. Une possibilité pour réaliser un tel filtre passe-bas paramétrisé dans le temps aboutit à un signal de photodiode continu dans le temps dans un modulateur de filtre passe-bas 1300. La figure 13 montre schématiquement un circuit ayant un tel modulateur de filtre passe-bas 1300 paramétrable. Ce modulateur partant du signal de capteur 1200a, 1200b, 1200c résultant de la photodiode correspondante constituant l’élément de capteur 300a, 300b, 300c, 300d donne un courant modulé dans le temps qui est intégré dans une capacité ou condensateur 1210 pour y être préparé ou pour une reconstruction spatiotemporelle du signal lumineux.
La solution présentée permet de réaliser un filtre passe-bas discret dans le temps, paramétrable comme cela est représenté schématiquement à la figure 14 comme exemple d’une intégration discrète dans le temps, pondérée ou durée d’éclairage pulsée. Une possibilité de réalisation d’un filtre passe-bas temporel paramétré peut se faire en rendant discret le signal de diode ou le signal de capteur 1200a en fonction du temps. Pour cela on saisit, par exemple, plusieurs centaines de fois les photodiodes 300a, 300b, 300c, 300d dans l’intervalle de temps du filtre passe-bas.
Toutefois, les électrons accumulés dans cet exemple de réalisation de l’invention sont tout d’abord amplifiés en fonction du poids temporel actuel du filtre passe-bas, ce qui se fait, par exemple, dans un multiplicateur 1400, approprié, dépendant du temps ; la multiplication faite dans ce multiplicateur 1400 peut être également négative. Cette modulation peut se faire, par exemple en enregistrant de façon intermédiaire dans une petite capacité 1410 avec renforcement consécutif et transformation inverse en une intensité accumulée dans le condensateur 1210. Le signal approprié 1200a, 1200b, 1200c pour chaque impulsion est également pondéré et appliqué à la capacité formant la mémoire pour l’intégrer. En plus, dans cette construction, on peut également adapter la longueur des impulsions en fonction de la caractéristique de filtre passe-bas et générer une meilleure qualité de signal. D’une manière particulièrement avantageuse, on utilise ici la solution consistant à intégrer les différents composants exécutant le procédé présenté ci-dessus dans un même composant de traitement 1500. On peut ainsi construire une structure de pixels en mode « matrices superposées». Des semi-conducteurs de procédé classique ont des circuits en construction 2D juxtaposés. Les semi-conducteurs de procédés actuels sont toutefois en mesure de relier plusieurs circuits superposés. Cela est appelé technique des matrices superposées. Au cas où il s’agit d’échantillonnage correct dans le temps, comme évoqué ci-dessus, il faut des structures de circuit plus complexes que ceux équipant les capteurs d’images actuels. Selon un exemple de réalisation particulièrement avantageux, on laisse les photons pour la conversion électronique dans la couche supérieure d’un composant réalisé de manière appropriée (comme cela est habituel de nos jours) et de déplacer la modulation du filtre passe-bas et le cas échéant les autres étapes de traitement (développement du gradient, reconstruction du signal vers un concept d’instant de trame, etc.) dans une couche plus basse du composant.
La figure 15 montre schématiquement une section d’un tel composant 1500. La conversion photon / électron se fait dans la couche haute 1510 soit par enregistrement préalable des signaux de capteur 1200 provenant des éléments de capteur 300 et le cas échéant avec préenregistrement des signaux de capteur 1200 des éléments de capteur 300 dans une capacité plus petite 1410 si une intégration discrète dans le temps est prévue. Un plan de traitement de signal 1520 dans la couche 1510 concerne la conversion photon/électron. Ce plan 1520 plus profond peut être réalisé par une autre technique de fabrication (par exemple 14 nm ou 7 nm) que la couche pour la conversion pho-to/électron permettant des étapes beaucoup plus complexes de préparation standard de signal. Dans le plan de traitement de signal 1520 on peut alors, par exemple, appliquer des modulateurs passe-bas 1300 et/ou des multiplicateurs 1400 pour avoir un traitement préalable correspondant des signaux de capteur 1200 ou des signaux provenant des petites capacités 1410. Enfin, on peut également avoir une unité de traitement de signal 1530 plus complexe dans le plan de traitement de signal permettant d’effectuer, par exemple, la ou les étapes de génération.
En résumé, il est à remarquer que, selon un exemple de réalisation particulièrement avantageux de l’invention présentée ici, on a décrit la détection du signal lumineux en utilisant un réseau de détection, régulier et en exécutant ce réseau de détection avec des capteurs d’image ou les éléments de capteurs sous une forme triangulaire.
La figure 16 montre l’ordinogramme d’un procédé 1600 de détection d’un capteur d’images. Le capteur d’images a une structure de réseau avec un ensemble d’éléments de capteurs triangulaires. Les éléments de capteurs voisins dans la structure de réseau détectent la lu mière dans une plage de longueurs d’onde chaque fois différente. Le procédé 1600 comprend une étape 1610 de lecture du capteur d’images par détection d’un ensemble d’éléments de capteur de la structure de réseau conçu pour détecter la lumière dans une même première plage de longueurs d’onde consistant à saisir un signal de capteurs par la lecture de chaque élément de capteur. Le procédé 1600 comporte également une étape 1620 d’enregistrement intermédiaire des signaux de capteur saisis. Le procédé 1600 comporte également une étape 1630 pour générer une information d’images associée à un point de saisie du capteur d’images en utilisant les signaux de capteur enregistrés de façon intermédiaire.
La figure 17 montre un schéma par blocs d’un exemple de réalisation de l’invention sous la forme d’un dispositif 1700 de détection d’un capteur d’images ; le capteur d’images a une structure de réseau composée d’un ensemble d’éléments de capteur de forme triangulaire. Les éléments de capteurs voisins dans la structure de réseau sont conçus pour détecter la lumière chaque fois dans des plages de longueurs d’onde différentes. Le dispositif comporte une installation 1710 pour lire le capteur d’images en détectant l’ensemble des éléments de capteur de la structure de réseau, ces éléments étant conçus pour détecter la lumière dans une même première plage de longueur d’onde ; dans l’étape de la saisie on obtient un signal de capteur par élément de capteur. Le dispositif 1700 comporte également une unité 1720 pour enregistrer de façon intermédiaire les signaux de capteur lus et une unité 1730 pour générer l’information d’images associée au point de saisie du capteur d’images en utilisant les signaux de capteurs enregistrés de façon intermédiaire.

Claims (12)

  1. REVENDICATIONS 1°) Procédé (1600) de détection par un capteur d’images (320), selon lequel le capteur d’images (320) a une structure de réseau (310) composée d’un ensemble d’éléments de capteurs (300a, 300b, 300c, 300d) de forme triangulaire, les éléments de capteur (300a, 300b, 300c, 300d) voisins dans la structure de réseau (310) détectant la lumière selon les propriétés respectives, différentes, de la lumière, procédé (1600) caractérisé en ce qu’il consiste à : lire (1610) le capteur d’images (320) en détectant un ensemble d’éléments de capteur de la structure de réseau (310), éléments qui détectent la lumière ayant respectivement la même première plage de longueur d’onde, et dans cette étape de lecture (1610), extraire un signal de capteur (1200a, 1200b, 1200c) pour chaque élément de capteurs, enregistrer de façon intermédiaire (1620) les signaux de capteur (1200a, 1200b, 1200c), lus et générer (1630) une information d’image associée à un premier point de détection (500) du capteur d’image (320) en utilisant les signaux de capteur enregistrés de façon intermédiaire.
  2. 2°) Procédé (1600) selon la revendication 1, caractérisé en ce que dans l’étape de lecture (1610) il consiste à détecter au moins trois éléments de capteur (300a, 300b, 300c, 300d) et parmi les trois éléments de capteur (300a, 300b, 300c, 300d) détectés, deux éléments de capteur définissent une droite (600) et au moins le troisième élément de capteur (300a, 300b, 300c, 300d) ne se trouve pas sur cette droite (600) formée par les éléments de capteur.
  3. 3°) Procédé (1600) selon la revendication 2, caractérisé en ce que dans l’étape de lecture (1610) il consiste à détecter comme élément de capteur (300a, 300b, 300c, 300d) qui ne se trouve pas sur la droite (600) définie par les éléments de capteur, l’élément de capteur (300a, 300b, 300c, 300d) qui est à une po sition dans la structure de réseau (310) telle qu’au moins un élément de capteur (300a, 300b, 300c, 300d) se trouve entre cette position et la droite (600) formée par les éléments de capteur.
  4. 4°) Procédé (1600) selon l’une des revendications 1 à 3, caractérisé en ce que, dans l’étape de lecture (1610), il consiste à lire les éléments de capteur (300a, 300b, 300c, 300d) à des intervalles de temps différents et notamment les intervalles de temps se chevauchent au moins partiellement.
  5. 5°) Procédé (1600) selon l’une des revendications 1 à 4, caractérisé en ce que, l’étape de génération (1630) consiste à : utiliser par interpolation les signaux de capteur enregistrés de façon intermédiaire et/ou les signaux déduits des signaux de capteur enregistrés de façon intermédiaire.
  6. 6°) Procédé (1600) selon l’une des revendications 1 à 5, caractérisé en ce qu’, on répète les étapes de lecture (1610), d’enregistrement intermédiaire (1620) et de génération (1630) pour les éléments de capteur (300a, 300b, 300c, 300d) pour détecter la lumière dans une même seconde plage de longueurs d’onde, différente de la première plage de longueurs d’onde.
  7. 7°) Procédé (1600) selon l’une des revendications 1 à 6, caractérisé en ce qu’ on exécute plusieurs fois, de manière cyclique, les étapes de lecture (1610), d’enregistrement intermédiaire (1620) et de génération, et dans un premier cycle (première phase) on lit les éléments de capteur (300a, 300b, 300c, 300d) qui se trouvent dans la structure de réseau (310) sur une même première droite commune (600) d’éléments de capteur et qui se trouvent à une position dans la structure de réseau (310) telle qu’au moins un élément de capteur (300a, 300b, 300c, 300d) se situe entre cette position et la droite (600) des éléments de capteur, et dans un second cycle (deuxième phase) on lit les éléments de capteur (300a, 300b, 300c, 300d) qui se trouvent dans la structure de réseau (310) sur une seconde droite commune (600) d’éléments de capteur, différente de la première droite (600) et à une position dans la structure de réseau (310) telle qu’au moins un élément de capteur (300a, 300b, 300c, 300d) se trouve entre cette position et la seconde droite (600) des éléments de capteur.
  8. 8°) Procédé (1600) selon l’une des revendications 1 à 7, caractérisé en ce que, l’étape d’enregistrement intermédiaire (1610) consiste à pondérer un ou plusieurs signaux de capteur (1200a, 1200b, 1200c).
  9. 9°) Dispositif (1700, 1500) comportant des moyens (1410, 1300, 1400, 1530 ; 1710, 1720, 1730) (1410, 1300, 1400, 1530 ; 1710, 1720, 1730) permettant la mise en œuvre des étapes du procédé (1600) selon les revendications 1 à 8.
  10. 10°) Dispositif (1700, 1500) selon la revendication 9, intégré dans un composant semi-conducteur.
  11. 11°) Programme d’ordinateur comprenant des instructions de code de programme permettant l’exécution des étapes du procédé (600) selon l’une quelconque des revendications 1 à 8 lorsque ce programme est exécuté sur un ordinateur.
  12. 12°) Support de mémoire lisible par une machine comportant le programme d’ordinateur selon la revendication 11.
FR1756547A 2016-07-13 2017-07-11 Procede et dispositif de detection d'un capteur d'images Active FR3054093B1 (fr)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102016212791 2016-07-13
DE102016212791.8 2016-07-13
DE102016216985.8A DE102016216985A1 (de) 2016-07-13 2016-09-07 Verfahren und Vorrichtung zum Abtasten eines Bildsensors

Publications (2)

Publication Number Publication Date
FR3054093A1 FR3054093A1 (fr) 2018-01-19
FR3054093B1 true FR3054093B1 (fr) 2019-08-23

Family

ID=60783012

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1756547A Active FR3054093B1 (fr) 2016-07-13 2017-07-11 Procede et dispositif de detection d'un capteur d'images

Country Status (4)

Country Link
US (1) US10412333B2 (fr)
JP (1) JP2018067904A (fr)
DE (1) DE102016216985A1 (fr)
FR (1) FR3054093B1 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180301484A1 (en) * 2017-04-17 2018-10-18 Semiconductor Components Industries, Llc Image sensors with high dynamic range and autofocusing hexagonal pixels
DE102018209176A1 (de) * 2018-06-08 2019-12-12 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und Vorrichtung zur Rekonstruktion von Zeitreihen, degradiert durch Auslastungsgrade
CN110379824A (zh) * 2019-07-08 2019-10-25 Oppo广东移动通信有限公司 一种cmos图像传感器及图像处理方法、存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0638662B2 (ja) * 1986-02-05 1994-05-18 富士写真フイルム株式会社 カラ−イメ−ジセンサ−
JP2001292453A (ja) * 2000-04-07 2001-10-19 Canon Inc カラー撮像装置及びそれを用いた撮像システム
EP1622393B1 (fr) 2004-07-30 2010-03-31 STMicroelectronics S.r.l. Interpolation de couleurs en utilisant la triangulation dépendant des données
US20090268983A1 (en) * 2005-07-25 2009-10-29 The Regents Of The University Of California Digital imaging system and method using multiple digital image sensors to produce large high-resolution gapless mosaic images
JP5288955B2 (ja) * 2008-09-09 2013-09-11 キヤノン株式会社 固体撮像装置、撮像システム、および固体撮像装置の駆動方法
JP4760915B2 (ja) 2009-01-08 2011-08-31 ソニー株式会社 固体撮像素子
JP5810493B2 (ja) * 2010-09-03 2015-11-11 ソニー株式会社 半導体集積回路、電子機器、固体撮像装置、撮像装置
JP2013125861A (ja) * 2011-12-14 2013-06-24 Sony Corp 固体撮像素子および電子機器
KR101990540B1 (ko) * 2012-10-31 2019-06-18 삼성전자주식회사 이미지 프로세싱 방법, 그 이미지 신호 프로세서 및 이를 포함하는 이미지 센싱 시스템
CN104885445B (zh) 2012-12-25 2018-08-28 索尼公司 固体摄像器件及其驱动方法和电子设备
US9807322B2 (en) * 2013-03-15 2017-10-31 Duelight Llc Systems and methods for a digital image sensor
KR102219941B1 (ko) * 2015-03-10 2021-02-25 삼성전자주식회사 이미지 센서, 이를 포함하는 데이터 처리 시스템, 및 모바일 컴퓨팅 장치

Also Published As

Publication number Publication date
JP2018067904A (ja) 2018-04-26
DE102016216985A1 (de) 2018-01-18
US20180020178A1 (en) 2018-01-18
US10412333B2 (en) 2019-09-10
FR3054093A1 (fr) 2018-01-19

Similar Documents

Publication Publication Date Title
BE1022488B1 (fr) Systeme d'appareil de prise de vues a temps-de-vol
FR3054093B1 (fr) Procede et dispositif de detection d'un capteur d'images
EP3387824B1 (fr) Système et procédé d'acquisition d'images visibles et dans le proche infrarouge au moyen d'un capteur matriciel unique
EP2926162A1 (fr) Procede de production d'images avec information de profondeur et capteur d'image
EP1694058A1 (fr) Procédé et dispositif de capture d'images comprenant une mesure de mouvements locaux
KR102112298B1 (ko) 컬러 영상 및 깊이 영상을 생성하는 방법 및 장치
WO2020119504A1 (fr) Procédé et système de traitement d'images
EP3114831B1 (fr) Débruitage vidéo optimisé pour système multicapteur hétérogène
EP3973693B1 (fr) Dispositif de capture d'images à expositions multiples et système de surveillance d'un conducteur associé
CA2889811A1 (fr) Procede et dispositif de capture et de construction d'un flux d'images panoramiques ou stereoscopiques
EP3657784A1 (fr) Procédé d'estimation d'un défaut d'un système de capture d'images et systèmes associés
CN109788216A (zh) 用于tof的抗干扰方法、装置及tof传感器芯片
FR3104363A1 (fr) Dispositif de capture d’images
WO2022023668A1 (fr) Procede et systeme pour imager une scene dans l'espace
FR2966257A1 (fr) Procede et dispositif de construction d'une image en relief a partir d'images en deux dimensions
FR3078427A1 (fr) Detection dynamique de lumiere parasite dans une image numerique
FR2980292A1 (fr) Procede et systeme d'acquisition et de traitement d'images pour la detection du mouvement
EP3310039B1 (fr) Dispositif électronique d'analyse d'une scène
JP6902563B2 (ja) 光センサのためのサブピクセルユニット、光センサ、光信号を検出するための方法、および画像を生成するための方法
EP4203490A1 (fr) Système d observation et procédé d observation associé
GB2553899A (en) Method and device for sampling an image sensor
FR3101504A1 (fr) Dispositif de capture d’images et procédé de capture d’images
FR3123734A1 (fr) Procédé de traitement de données de pixels, dispositif et programme correspondant
Rebiere Image processing for a RGB-Z mixed matrix
FR3081585A1 (fr) Systeme de production d'image d'un conducteur d'un vehicule et systeme embarque associe

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20190201

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7