FR2909778A1 - Procede et dispositif pour la realisation de prises de vues a l'aide d'une pluralite de capteurs optoelectroniques. - Google Patents

Procede et dispositif pour la realisation de prises de vues a l'aide d'une pluralite de capteurs optoelectroniques. Download PDF

Info

Publication number
FR2909778A1
FR2909778A1 FR0610634A FR0610634A FR2909778A1 FR 2909778 A1 FR2909778 A1 FR 2909778A1 FR 0610634 A FR0610634 A FR 0610634A FR 0610634 A FR0610634 A FR 0610634A FR 2909778 A1 FR2909778 A1 FR 2909778A1
Authority
FR
France
Prior art keywords
sensors
images
optoelectronic
image
radius
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0610634A
Other languages
English (en)
Other versions
FR2909778B1 (fr
Inventor
Didier Debons
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZAYO FRANCE, FR
Original Assignee
INTERSIGNE SOC PAR ACTIONS SIM
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by INTERSIGNE SOC PAR ACTIONS SIM filed Critical INTERSIGNE SOC PAR ACTIONS SIM
Priority to FR0610634A priority Critical patent/FR2909778B1/fr
Priority to PCT/FR2007/002002 priority patent/WO2008081115A2/fr
Publication of FR2909778A1 publication Critical patent/FR2909778A1/fr
Application granted granted Critical
Publication of FR2909778B1 publication Critical patent/FR2909778B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Le procédé selon l'invention permet la réalisation de prises de vues à l'aide d'une pluralité de capteurs optoélectroniques (O1 à O5, O'1 à O'5) en vue de créer une séquence finale d'images combinées, affichable sur des écrans adaptés à cette combinaison d'images. Il comprend la répartition physique ou virtuelle des capteurs optoélectroniques (O1 à O5, O'1 à O' 5) sur un arc de cercle virtuel de rayon R qui correspond à la distance entre le centre optique de chacun des capteurs (O1 à O5, O'1 à O'5) et le point (C) sur la zone de la scène captée sur lequel on effectue la mise au point d'au moins l'un desdits capteurs dénommé capteur de référence, la longueur de la corde (Cor1 à Cor4) séparant deux centres optiques consécutifs étant maintenue constante quelle que soit la longueur du rayon R.

Description

10 La présente invention concerne un procédé et un dispositif pour la
réalisation de prises de vues à l'aide d'une pluralité de capteurs optoélectroniques et pour le traitement des informations délivrées par ces capteurs en vue de créer une séquence finale d'images combinées, affichables sur des écrans adaptés à cette combinaison d'images. 15 Elle s'applique notamment, mais non exclusivement, à la diffusion en temps réel d'images fixes et/ou animées sur des écrans auto-stéréoscopiques. D'une façon générale, on sait que la diffusion d'images en relief visibles sans 20 lunettes fait appel à des techniques d'écrans dits auto-stéréoscopiques dont le principe général consiste à diffuser simultanément un ou plusieurs couples de faisceaux stéréoscopiques de telle manière que le sous faisceau gauche de chaque couple de faisceaux destiné à l'oeil gauche ne soit pas visible par l'oeil droit et réciproquement. 25 Contrairement à la solution consistant à ne diffuser qu'un seul couple de faisceaux, solution qui implique que l'utilisateur soit dans l'axe de l'écran pour visualiser les images en relief, la solution consistant à diffuser plusieurs couples de faisceaux stéréoscopiques simultanés permet à plusieurs personnes 30 de voir simultanément les images selon un angle de vision relativement important. 1 2909778 2 Pour réaliser des images photographiques statiques ou des séquences d'images cinétiques diffusables sur ces types d'écrans, il existe à l'heure actuelle deux types de moyens : 5 . Le recours à des logiciels graphiques d'images de synthèse. . Les prises de vue bi-caméra. En fait, la caractéristique commune aux outils de création d'images de synthèse est de pouvoir produire des images en trois dimensions mais finalement diffusées en deux dimensions car, jusqu'à présent, les écrans d'affichage ne permettaient pas d'envisager une diffusion en trois dimensions en relief ; les images diffusées en stéréoscopie permettaient, à l'aide de lunettes, d'en restituer l'effet relief.
Néanmoins, ces images de synthèse sont adaptables à la production destinée à la nouvelle gamme d'écrans dite auto-stéréoscopique. Il n'en va pas de même en ce qui concerne la production d'images réelles à l'aide de prises de vue réalisées au moyen d'un système bi-caméras. 20 En effet, pour obtenir un effet réaliste et naturel de vision en relief, il faut pouvoir diffuser simultanément plusieurs couples de faisceaux stéréoscopiques ayant chacun un angle de prises de vues différencié soit au total une prise de vue réalisée à l'aide de plusieurs caméras synchronisées fonctionnant 25 simultanément. A ce stade, on se heurte à la difficulté de capturer plusieurs prises de vues synchrones et homogènes avec un espace inter-objectif équidistant spécifique à chaque configuration de prises de vues pour obtenir l'effet de relief 30 recherché. 2909778 Les difficultés rencontrées sont : d'ordre physique : elles résultent essentiellement de l'encombrement soit des caméras, soit des objectifs, soit des deux, 5 d'ordre vidéo : difficulté d'obtenir une synchronisation des signaux captés par les différentes caméras, ainsi qu'une bonne homogénéité et une géométrie appropriée des images délivrées par chacune des caméras. L'invention a donc plus particulièrement pour but de résoudre les problèmes 10 précédemment évoqués. Ainsi, dans le but de résoudre les problèmes d'ordre vidéo, le procédé selon l'invention consiste à répartir, physiquement ou virtuellement, les capteurs optoélectroniques sur un arc de cercle virtuel de rayon R qui correspond à la 15 distance entre le centre optique de chacun des capteurs et le point sur la zone de la scène captée sur lequel on effectue la mise au point d'au moins l'un desdits capteurs dénommé capteur de référence, la longueur de la corde séparant deux centres optiques consécutifs étant maintenue constante quelle que soit la longueur du rayon R.
Dans le cas d'une répartition virtuelle, les capteurs optoélectroniques sont équipés d'objectifs à focale variable ajustés de manière à compenser des variations de distance entre chacun des capteurs et le susdit point sur lequel est effectuée la mise au point de références. L'invention concerne également un dispositif pour la mise en oeuvre du procédé précédemment défini, ce dispositif faisant intervenir : Une structure de support fixe équipée de moyens de réglage de 30 l'horizontalité, cette structure support comprenant des premiers moyens de guidage selon un premier axe OX.
3 2909778 4 Une pluralité de structures mobiles portées par la structure de support fixe tout en pouvant être déplacées le long des moyens de guidage, chacune de ces structures mobiles comportant des seconds moyens de guidage axés perpendiculairement aux premiers moyens de guidage selon un axe OY et le 5 long desquels peut se déplacer un chariot sur lequel est monté rotatif un élément de support d'un capteur optoélectronique. Avantageusement, la structure support fixe pourra comprendre une poutrelle rigide définissant le premier axe OX et le long de laquelle les structures 10 mobiles sont montées coulissantes. Cette poutrelle pourra être équipée de systèmes micrométriques de transport permettant de positionner très précisément et indépendamment chacune des structures mobiles. Les structures mobiles pourront comprendre des moyens de guidage de bras 15 rigides qui constituent les susdits éléments de support selon le deuxième axe OY. Chacun de ces bras pourra être muni d'un système micrométrique de transport permettant de le faire coulisser le long de l'axe OY indépendamment des autres bras.
20 Chacun des bras pourra comprendre un système micrométrique de rotation autour d'un axe vertical sur lequel est fixé un système de prises de vues dont le capteur optoélectronique est centré sur l'axe de rotation. Grâce à ces dispositions, le dispositif selon l'invention permet de garantir : 25 pour un angle donné a, formé entre les axes de deux capteurs optoélectroniques consécutifs, une équidistance parfaite entre la zone de référence de mise au point de la scène captée et chacun des n capteurs optoélectroniques destiné à capter l'image de la scène, que la longueur de la corde de l'arc de cercle spécifiquement déterminée entre deux centres optiques de deux capteurs optoélectroniques successifs 2909778 5 reste identique quelle que soit la longueur du rayon de cercle constitué entre les n capteurs et la scène filmée. Bien entendu, l'invention concerne un traitement des images délivrées par les 5 capteurs optoélectroniques, ce traitement consistant : à capturer de façon ordonnée, à traiter et à assembler les images des n capteurs électroniques, à modifier ces images sous formes numériques, 10 à assembler tel quel ou par découpage les x images aux fins de créer une image finale correspondante au type d'écran auto-stéréoscopique cible selon les recommandations du constructeur. Un mode d'exécution de l'invention sera décrit ci-après, à titre d'exemple non 15 limitatif, avec référence aux dessins annexés dans lesquels : La figure 1 est une représentation schématique d'un dispositif de captation des images ; 20 La figure 2 est un exemple de disposition de capteurs optoélectroniques par rapport à un centre de mise au point ; La figure 3 est un organigramme montrant une séquence opératoire exécutée pour le traitement des images brutes ; La figure 4 est une représentation schématique d'un système de positionnement physique ; La figure 5 est un schéma synoptique montrant la partie utile d'une 30 image brute comportant un repère ; 25 2909778 6 La figure 6 est un schéma synoptique d'un système d' autopositionnement du cadre utile. Dans l'exemple illustré sur la figure 1, le dispositif pour la réalisation de prises 5 de vues fait intervenir une structure support représentée ici schématiquement par une poutre horizontale 1 d'axe OX. Cette poutre 1 peut être montée sur un piètement par l'intermédiaire de moyens permettant le réglage de son orientation.
10 Sur cette poutre 1 est montée axialement coulissante une pluralité de chariots (ici trois chariots C1 à C3) dont les déplacements sont commandés par des actionneurs micrométriques M1 à M3 respectifs indépendants les uns des autres (ici trois vérins à vis dont les corps sont solidaires de la poutre et dont les tiges sont solidaires des chariots).
15 Chaque chariot C1 à C3 comprend un système de glissières dans lequel coulisse un bras orienté B1 à B3 selon un axe OY perpendiculaire à l'axe OX. Les déplacements du bras selon cet axe OY sont assurés par un actionneur micrométrique Al à A3, par exemple à crémaillère, comportant un moto 20 réducteur entraînant un pignon qui engrène avec une crémaillère longitudinale équipant le bras. A l'une des extrémités de chacun des bras B1 à B3 est disposé un support rotatif S1 à S3, pivotant autour d'un axe vertical (trace Z1 à Z3) sur lequel est 25 monté un système de prises de vues dont le capteur optoélectronique 01 à 03 est centré sur l'axe vertical Z1 à Z3. Les actionneurs M1 à M3 et Al à A3 sont commandés par une unité de calcul UC de manière à pouvoir disposer les capteurs optoélectroniques selon les 30 configurations illustrées sur la figure 2 dans laquelle : 2909778 -7- On a représenté cinq capteurs optoélectroniques 01 à 05, disposés sur un cercle CE de centre C, étant entendu que le nombre de capteurs peut être différent. Par la suite, il sera désigné par n . Le point C est un point sur lequel les capteurs optoélectroniques sont mis au 5 point, par exemple grâce à un système d'auto focalisation (auto focus). Le centre optique de chacun des capteurs optoélectroniques 01 à os est disposé sur le cercle CE, de telle manière que la distance entre les centres optiques des capteurs optoélectroniques 01 à 05 et le point C soit égale. Les angles a formés entre les centres optiques de deux capteurs 10 optoélectroniques consécutifs et le point C sont égaux de sorte qu'en conséquence la longueur de la corde de l'arc de cercle Cori à Cor4 (entre deux centres optiques de deux capteurs optoélectroniques consécutifs O1 à 05), reste identique quelle que soit la longueur du rayon R du cercle CE (constituée entre les capteurs optoélectroniques 01 à 05 et le centre de 15 mise au point C de la scène filmée). L'unité de calcul UC est programmée de manière à effectuer la détermination des positions des capteurs 01 à 05 sur le cercle (virtuel) CE ainsi que leur orientation en fonction du centre de mise au point souhaitée C.
20 Ce centre de mise au point C est déterminé, par exemple par une visée télémétrique ou éventuellement grâce à l'un des capteurs O1 à 05 (capteurs de référence), à l'aide duquel est effectuée une mise au point. Le dispositif de télémétrie associé au système d'auto focalisation de ce capteur permet de 25 déterminer le rayon R du cercle virtuel, puis la valeur de l'angle au centre a et/ou de la corde Cori à Cor4 du cercle correspondant à la distance de la valeur constante séparant chacun des capteurs 01 à 05 entre eux sur la circonférence dudit cercle CE.
30 L'unité de calcul UC détermine alors les coordonnées OX OY de chacun des centres optiques des capteurs optoélectroniques dans le système de 2909778 8 coordonnées XOY dans lequel fonctionnent les actionneurs MI à M3 et AI à A3, puis adresse à ces actionneurs les commandes correspondantes. Une fois les centres optiques des capteurs 01 à O5 disposés en leurs 5 emplacements respectifs sur le cercle C, l'unité de calcul commande en conséquence l'orientation des capteurs O1 à O5 pour qu'ils s'axent sur le centre de mise au point C. Les calculs effectués à cet effet par l'unité de calcul UC sont de simples 10 calculs trigonométriques qui ne nécessitent pas d'être explicités en détail. Les images brutes délivrées par les systèmes de prise de vue associés aux capteurs 01 à O5 de vue font l'objet d'une séquence de traitement consistant : 15 à capturer, à traiter et à assembler les images des n capteurs électroniques, à modifier ces images sous formes numériques, à assembler tel quel ou par découpage les n images aux fins de créer une image finale correspondant au type d'écran auto-stéréoscopique cible, selon 20 les recommandations du constructeur. Conformément à un mode d'exécution particulièrement avantageux du procédé selon l'invention, les images brutes des n capteurs électroniques sont récupérées en valeur de gris ou en couleur. Dans les cas d'images en 25 valeur de gris, il est possible d'utiliser un procédé de conversion d'images en valeur de gris en images en couleur, du type de celui décrit dans le brevet US N 397106. Dans l'exemple illustré sur la figure 2, on a représenté un système simplifié 30 dans lequel les capteurs optoélectroniques O', à o'5 sont équipés d'un objectif à focale variable et où les bras ont été supprimés. Ces capteurs 2909778 -9-optoélectroniques sont montés pivotants sur les chariots C1 à C3 mobiles sur la poutre 1. Les capteurs sont alors positionnés sur l'axe OX, de manière à respecter 5 l'égalité des angles a. L'écart de la distance entre la position des capteurs 0'1 à o'5 et le centre de mise au point C avec la longueur du rayon R est compensé individuellement par un ajustement de la focale de l'objectif de chacun des capteurs. Par ailleurs, le traitement des images brutes délivrées par les capteurs optoélectroniques fait intervenir, comme illustré sur la figure 3, un générateur de signal de synchronisation 3 qui définit pour chaque prise de vue : 15 . le temps absolu de l'occurrence dudit signal de synchronisation, . un temps de pause identique pour chaque capteur optoélectronique. Le générateur de signal de synchronisation 3 est piloté par un déclencheur 4 manuel ou automatique de la prise de vues ainsi qu'éventuellement par un 20 système de commande d'exploitation permettant notamment de saisir le nombre de séquences de traitement (en rafales) à exécuter. Il donne un ordre de mémorisation de l'image aux capteurs électroniques 01 à 05 (temporisation/ouverture) (bloc 5).
25 A la suite de cet ordre de mémorisation, les images mémorisées dans les n capteurs optoélectroniques 01 à O5 sont collectées séquentiellement au format brut (appelé "RAW") et sont stockées en mémoire temporaire (mémoire tampon d'entrée des images brutes) (bloc 6) dans l'attente des traitements 30 suivants. Ce groupe d'images synchrones, c'est-à-dire l'ensemble des images 10 2909778 - 10 - brutes prises au même instant par les n capteurs optoélectroniques, est appelé "train d'images". Le système de traitement effectue le recadrage (en anglais "cropping") (bloc 7) 5 puis ajuste chaque image brute en ne gardant que la partie utile extraite de chacune des n images en images élémentaires (conversion des n images utiles en images élémentaires) (bloc 8). Les n images élémentaires, complètes ou découpées (bloc 9) sont ensuite 10 réparties selon une grille de répartition spécifique à chaque type d'écrans auto-stéréoscopiques en vue de la fabrication de l'image composite noir et blanc (bloc 10). Les informations numériques relatives à l'image composite font l'objet d'une conversion Bayer pour constituer une image composite finale en couleur (bloc Il).
15 Cette image fait alors l'objet d'un traitement spécifique dans le but de réduire plus ou moins la quantité d'informations numériques la caractérisant à l'aide de programmes standards (MJPEG, MPEG ...) ou spécifiquement développés. Le choix du traitement appliqué à chaque image constituant une séquence est 20 fonction de l'usage ultérieur qui en est envisagé : Dans le cas d'une simple diffusion en direct, par exemple sur réseau IP, la réduction pourra être forte ou très forte si la dégradation du signal n'affecte pas la lisibilité de la séquence d'image. Dans le cas où la séquence est 25 enregistrée et donc destinée à un réemploi ultérieur comme par exemple le montage de plusieurs prises de vues différentes, il faudra privilégier un mode d'encodage non destructif de manière à obtenir l'assurance que la qualité des générations d'images successives n'en sera pas affectée.
30 Cette image plus ou moins compressée (bloc 11') est ensuite stockée en mémoire tampon de sortie (bloc 12). Le déclenchement de l'enregistrement 2909778 -11- et/ou l'envoi au réseau de diffusion (bloc 13) peut ensuite être effectué. Les étapes de conversion en images élémentaires (bloc 8) et de fabrication de l'image composite N/B (bloc 10) sont pilotées à partir de paramètres spécifiques de la grille que l'on veut utiliser (bloc 13'). Le rendu de l'effet relief dépend d'un ensemble de réglages propre à chaque scène captée qu'elle soit fixe ou en mouvement, le système support lui-même étant fixe ou en mouvement par rapport à la scène captée.
10 De ce fait, un certain nombre de réglages de positionnement des capteurs sont nécessaires avant d'effectuer une prise de vue et, s'il y a lieu, pendant la prise de vue. Pour que l'effet relief souhaité soit obtenu, il est nécessaire d'effectuer un 15 nombre d'actions telles que : . des actions physiques sur le positionnement des capteurs optoélectroniques, . des actions physiques sur les réglages des optiques de ces capteurs, . des actions virtuelles sur l'image brute délivrée par les capteurs.
20 Comme précédemment mentionné, l'unité de calcul UC détermine, pour chaque configuration de prise de vues, à partir de la mesure de distance entre la scène captée ou élément de la scène captée et l'optique du capteur de référence prise de manière physique ou à l'aide d'un télémètre indépendant ou 25 dépendant de l'ensemble du dispositif porteur soit dans le cas d'un système complet : . les coordonnées X sur la poutre du positionnement de chaque bras B 1 à B3, . les coordonnées Y sur chacun des bras B1 à B3 du positionnement de chacun 30 des n systèmes micrométriques de rotation de chacun des n capteurs optoélectroniques 01 à 03, 5 2909778 - 12- . la valeur de l'angle de rotation R de chacun des n supports rotatifs ; soit, dans le cas d'un système simplifié (sans bras) dans lequel on remplace les déplacements des bras par un ajustement des focales des zooms équipant les 5 capteurs photoélectroniques : . les coordonnées de chaque capteur optoélectronique, . la valeur de l'angle de rotation R de chacun des n supports de rotation. Cette règle fournit les informations XYR aux chariots motorisés C 1 à C3 de 10 chacun des bras B I à B3 et de chacun des n systèmes micrométriques de rotation, permettant le positionnement précis des n capteurs optoélectroniques d'images O1 à 03. En utilisation, l'opérateur humain ou robotisé informe le système de gestion 15 du système de traitement des images brutes de la valeur du rayon R du cercle CE pour qu'ensuite l'unité de calcul UC pilote, par l'intermédiaire d'interface(s), les moteurs ou servomoteurs des actionneurs. L'utilisation d'un télémètre solidaire au capteur de référence, relié à l'unité de calcul UC, permet au dispositif d'être mis en oeuvre rapidement pour la prise de vues et d'être 20 dynamique pour recalculer les coordonnées XYR dans le cas de mouvement et ou de déplacement. Ces coordonnées sont recalculées en temps réel si : . le dispositif porteur est en mouvement par rapport à un élément fixe de la 25 scène captée, . le dispositif porteur est fixe ou en mouvement et que l'effet relief est modifié. En tout cas, le télémètre peut être placé en tout point connu par le calculateur. Il peut être notamment couplé à un des n capteurs optoélectroniques du fait 30 que le calculateur connaît les coordonnées XYR du capteur utilisé. 2909778 - 13 - La fonction de télémétrie peut être intégrée à un ou plusieurs des n capteurs optoélectroniques. Le positionnement des images en recouvrement pour lesquelles les centres 5 optiques doivent être confondus s'effectue en au moins deux étapes : une étape nécessaire et obligatoire consistant à réaliser le positionnement physique des n capteurs optoélectroniques 01 à 03 , établi en fonction de la scène captée et de l'effet relief recherché et obtenu par l'intermédiaire de la structure de support précédemment décrite, 10 . une étape complémentaire considérant le ou l'un des deux capteur(s) optoélectronique(s) positionné(s) le plus au centre de la structure support 1 comme référent ; cette étape consiste à affiner l'étape précédente par une opération effectuée dans l'image brute récupérée de l'un des autres capteurs optoélectroniques, lors du traitement des images brutes, en déplaçant le 15 cadrage virtuel, ceci dans la limite du nombre de pixels restant entre le cadre de l'image utile et le hors cadre de l'image brute, que ce soit dans la hauteur et/ou dans la largeur. Cette étape, répétée pour autant de capteurs optoélectroniques que nécessaire, est appelée positionnement virtuel .
20 Ce positionnement virtuel pourra être effectué : . par déplacement manuel du cadrage de l'image utile dans l'image brute ; . par un procédé de reconnaissance de forme d'après un ou plusieurs repères ajoutés ou déterminés dans la scène à l'intérieur ou à l'extérieur du cadre de 25 l'image utile Par ailleurs, le positionnement physique des capteurs (dispositif porteur automatisé) pourra être assuré notamment grâce : 30 . à un procédé de reconnaissance de forme d'après un ou plusieurs repères choisis dans la scène captée, intégrés à l'image utile ; 2909778 - 14 - . à un système de suivi d'un repère en mouvement choisi dans la scène captée, connu sous le terme anglo-saxon tracking . Chaque système associé à un capteur optoélectronique pourra être autonome 5 dans son calcul de géopositionnement et de repositionnement d'image, dans la mesure où tous les systèmes communiquent entre eux leurs informations de positionnement, tout en étant solidaires d'une structure physique ou virtuelle. Ceci est particulièrement valable lorsque le rayon R est important, par exemple de l'ordre de plusieurs kilomètres ou plus (prise de vue de paysages 10 lointains). Chaque capteur optoélectronique pourra être de taille extrêmement réduite pour des prises de vues microscopiques. Il pourra, par exemple, comporter une optique comprenant une ou plusieurs microlentilles reliées à une cellule 15 optoélectronique par l'intermédiaire d'un guide de lumière tel qu'une ou plusieurs fibres optiques. Grâce à ces dispositions, seules les optiques du capteurs seront disposées sur le cercle CE. Le dispositif précédemment décrit pourra comprendre les modes de réglage 20 suivants : Mode Focus : Il s'agit de la commande de mise au point de l'image formée sur les n capteurs optoélectroniques O1 à 05. Cette mise au point pourra s'effectuer : 25 manuellement, par action sur chacun des objectifs associés aux capteurs, automatiquement, grâce à un système autofocus équipant chaque objectif, par pilotage des asservissements de mise au point associés à chaque capteur, au moyen d'une commande générale présentant une valeur unique pour l'ensemble des objectifs associés aux n capteurs électroniques, 2909778 - 15 - par pilotage des asservissements de mise au point associés à chaque capteur, au moyen de commandes présentant une valeur spécifique pour chacun des objectifs associés aux n capteurs électroniques. 5 . Mode Iris : Ce mode concerne la commande de diaphragme des optiques associées à chacun des capteurs. Il permet une commande manuelle directe sur l'objectif de chacune de ces optiques ou à une commande asservie. Mode Exposition : Ce mode de réglage permet de définir le temps 10 d'exposition ou le temps de pose commun à chacun des systèmes de prise de vues. . Mode Rafale : Ce mode permet de sélectionner le nombre d'images à traiter en une fraction de seconde (période élémentaire) pour obtenir l'image 15 composite finale. . Mode Rendu Relief : Il s'agit ici de permettre un réglage de la longueur du rayon R (distance de mise au point) et de la longueur de la corde Cor (déterminant un indice de convergence). Pour effectuer le positionnement physique des capteurs optoélectroniques, l'unité de calcul UC pourra comprendre un calculateur de positionnement physique comportant des moyens pour : 25 recevoir des informations métriques ou télémétriques, recevoir des informations modifiant les informations télémétriques pour que l'effet relief désiré soit obtenu, calculer les valeurs des positions de chaque capteur optoélectronique, piloter les actionneurs MI à M3 et Al à A3 ou analogues, 30 optionnellement, piloter les moteurs des fonctions de zoom des objectifs des capteurs optoélectroniques, 20 2909778 - 16 - optionnellement, mémoriser tout ou partie de ces informations, optionnellement, mettre ces informations à disposition de tiers par les techniques usuelles de communications numériques selon les normes en vigueur ou par interface de communication propriétaire, 5 optionnellement, piloter les moteurs assurant les fonctions de mise au point, de diaphragme et de zoom des objectifs des capteurs optoélectroniques. La figure 4 montre un schéma bloc théorique d'un système de positionnement physique faisant intervenir un interface de commande IC des actionneurs AX, 10 AY, AR selon les axes OX, OY et en rotation de chacun des capteurs optoélectroniques O. Cet interface IC est piloté par une unité de calcul UC et/ou un système de commande d'exploitation EX. L'unité de calcul UC est couplée à un télémètre 15 TE destiné à fournir une information relative à la distance de mise au point d'au moins l'un des capteurs optoélectroniques O. Le système de commande d'exploitation peut lui-même être couplé à un organe de saisie ou de calcul OS de rayon R (distance de mise au point).
20 L'unité de calcul UC pourra, en outre, comprendre des moyens de positionnement virtuel ayant pour rôle d'afficher le positionnement réalisé par un calculateur de positionnement des capteurs optoélectroniques en interagissant sur le cadrage virtuel de l'image utile dans l'image brute. Ces moyens de positionnement virtuel ont notamment pour but d'analyser l'image 25 brute ou l'image utile de référence, d'en extraire un repère prédéterminé ou choisi par l'opérateur, puis de reconnaître ce repère dans les images provenant des autres capteurs optoélectroniques pour agir sur le déplacement ou replacement du cadre virtuel.
30 Ce moyen de positionnement virtuel permet notamment de positionner le cadre de l'image utile dans l'image brute provenant du capteur 2909778 - 17 - optoélectronique de référence par l'intermédiaire d'un procédé de traitement des images brutes PTI, éventuellement complété d'un procédé d'analyse d'images intégrant une fonction de reconnaissance de forme.
5 En mode manuel, l'opérateur positionne par l'intermédiaire d'une commande déplacement (dans le plan XOY) le cadre virtuel de la zone utile de référence dans l'image brute du capteur optoélectronique de référence. Les moyens de positionnement virtuel analysent l'image, font une reconnaissance d'une ou plusieurs formes et calculent les coordonnées de cette ou de ces formes par 10 rapport au cadre de la zone utile. Les moyens de positionnement virtuel analysent les images brutes des autres capteurs électroniques et ce, par trains d'images, procèdent à la reconnaissance de(s) forme(s) identifiée(s) dans chaque image brute et procèdent au positionnement des cadres des zones utiles dans les images brutes des n capteurs optoélectroniques d'après les 15 coordonnées xy mémorisées à chaque train d'image. En mode automatique, l'opérateur visualise la scène captée d'après la partie utile ou de l'image brute du capteur optoélectronique de référence (cadre/hors cadre). Le système positionne alors les cadres utiles dans les n images 20 brutes. Cepositionnement peut, par exemple, être centré, c'est-à-dire avec le cadre de la zone utile centré sur l'image brute de référence. Les moyens de positionnement virtuel déterminent par analyse d'image et reconnaissance de forme un ou plusieurs repères Obi (à partir de données préétablies) dans l'image brute (ou utile) de référence (figure 5). En principe, seuls les repères 25 dans la partie utile de toutes les images sont exploitables car il est possible qu'un ou plusieurs repères existant dans l'image brute de référence soit absent dans une ou plusieurs images brutes d'autres capteurs optoélectroniques. Les moyens de positionnement utilisent les coordonnées Pix, Piy du premier repère pour le positionnement du cadre CAi de zone utile dans l'image brute 30 de chacun des n capteurs électroniques et répète cette opération pour autant de rafales. 2909778 -18- Les moyens de positionnement virtuel permettent notamment de déterminer les distances QN, QE, QO et QS entre les bords du cadre de l'image utile CA1 et les bords de l'image brute CA2 (figure 5). Si l'une de ces distances est trop 5 faible, voire négative, inférieure à des tolérances de positionnement, ceci signifie que le capteur optoélectronique qui a formé l'image est mal positionné. L'opérateur ou les moyens de positionnement physique peut, dans ce cas, repositionner le capteur. Les tolérances de positionnement peuvent être différentes en fonction de la scène à capter, en fonction de l'image brute, 10 même si cette dernière est différente d'un capteur optoélectronique à un autre et notamment lorsque la scène est animée et/ou selon l'effet de relief recherché. Comme illustré sur la figure 6, les images brutes délivrées par les capteurs 15 optoélectroniques (bloc 21) sont tout d'abord transférées dans une mémoire tampon d'entrée (bloc 22). Ces images sont ensuite transmises à un système de reconnaissance de forme SF comprenant deux chaînes de traitement, à savoir : • une première chaîne de traitement de l'image brute du capteur de référence 20 qui comporte successivement : une analyse de l'image brute du capteur de référence (bloc 23), une reconnaissance du ou des repères (bloc 24), une mémorisation de la forme de chaque repère (bloc 25), un calcul des coordonnées de chaque repère (bloc 26), 25 • une deuxième chaîne de traitement des images brutes de tous les capteurs, cette chaîne comportant : - l'analyse des images brutes de n capteurs (bloc 27), la reconnaissance de chaque repère d'après les coordonnées x et y déterminées au bloc 26 (bloc 28). 30 2909778 -19- Après avoir reconnu les repères présents dans les images brutes, le système effectue un cadrage de la zone utile dans l'image brute (bloc 29), puis détermine les images élémentaires (bloc 30). Ensuite, il assemble les images élémentaires dans une grille de répartition pour former l'image finale noir et 5 blanc (bloc 31). Par une conversion Bayer , il transforme cette image finale en une image couleur (bloc 32). Le système place enfin cette image couleur en mémoire tampon de sortie (bloc 33). Le système de reconnaissance du ou des repères Obi détermine si les valeurs 10 QE, QN et QS sont supérieures à un seuil de tolérance de positionnement. Si ces valeurs sont inférieures audit seuil, le système effectue un calcul de positionnement du capteur optoélectronique concerné, de manière à corriger son positionnement (bloc 34).

Claims (19)

Revendications
1. Procédé pour la réalisation de prises de vues à l'aide d'une pluralité de capteurs optoélectroniques (O, à O5, o', à 0'5) en vue de créer une séquence finale d'images combinées, affichable sur des écrans adaptés à cette combinaison d'images, caractérisé en ce qu'il comprend la répartition physique ou virtuelle des capteurs optoélectroniques (01 à 05, 0', à 0'5) sur un arc de cercle virtuel de rayon R qui correspond à la distance entre le centre optique de chacun des capteurs (O1 à 05, o', à 0'5) et le point (C) sur la zone de la scène captée sur lequel on effectue la mise au point d'au moins l'un desdits capteurs dénommé capteur de référence, la longueur de la corde (Cori à Cor4) séparant deux centres optiques consécutifs étant maintenue constante quelle que soit la longueur du rayon R.
2. Procédé selon la revendication 1, caractérisé en ce que, dans le cas d'une répartition virtuelle, les capteurs optoélectroniques (0'1 à 0'5) sont équipés d'objectifs à focale variable ajustés de manière à compenser des variations de distance entre chacun des capteurs (0', à 0'5) et le susdit point (C) sur lequel est effectuée la mise au point de référence.
3. Procédé selon l'une des revendications 1 et 2, caractérisé en ce qu'il comprend, en outre, une séquence de traitement 25 consistant : à capturer de façon ordonnée, à traiter et à assembler les images des n capteurs électroniques (01 à (5), à modifier ces images sous formes numériques, à assembler tel quel ou par découpage les images aux fins de créer une 30 image finale correspondant au type d'écran auto-stéréoscopique cible selon les recommandations du constructeur. 2909778 - 21 -
4. Procédé selon l'une des revendications précédentes, caractérisé en ce que le centre de mise au point (C) est déterminé grâce au capteur de référence, et en ce que le rayon (R) du cercle virtuel est déterminé 5 par le dispositif de télémétrie associé au système d'autofocalisation dudit capteur de référence.
5. Procédé selon la revendication 4, caractérisé en ce qu'il comprend, en outre, la détermination de la valeur de 10 l'angle au centre a en fonction d'une longueur de corde (Cori à Cor4) prédéterminée et constante correspondant à la distance de la valeur constante séparant chacun des capteurs 01 à OS entre eux sur la circonférence dudit cercle (CE). 15
6. Procédé selon la revendication 1, caractérisé en ce que les susdits capteurs (OI à 05, 0'1 à 0'5) ainsi que leurs objectifs éventuels sont actionnés par des actionneurs, et en ce qu'il comprend la détermination des coordonnées de chacun des centres optiques des capteurs optoélectroniques (01 à 05, o' l à 0'5) dans le système de coordonnées dans 20 lequel fonctionnent les actionneurs, puis la transmission aux actionneurs des commandes correspondantes.
7. Procédé selon l'une des revendications précédentes, caractérisé en ce qu'il comprend la synchronisation des capteurs optoélectroniques (O1 à 05, 0', à 0'5) par un signal de synchronisation commun avec définition pour chaque prise de vue : . du temps absolu de l'occurrence dudit signal de synchronisation, . d'un temps de pose identique pour chaque capteur optoélectronique (01 à 05, 0', à 0'S). 2909778 - 22 -
8. Procédé selon la revendication 7, caractérisé en ce que le signal de synchronisation commun comprend un ordre de mémorisation provoquant la collecte des images mémorisées dans les capteurs optoélectroniques (01 à O5, 0'1 à 0'5), au format brut (format 5 RAW ) et le stockage en mémoire temporaire des images brutes prises au même instant qui constituent un train d'images.
9. Procédé selon la revendication 8, caractérisé en ce qu'il comprend, en outre, un cadrage (CA1) de la partie utile 10 de chaque image brute et l'extraction de cette partie utile qui constitue alors une image élémentaire, puis la répartition des images élémentaires selon une grille de répartition spécifique à un type d'écran auto-stéréoscopique déterminé, de manière à obtenir une image finale en noir et blanc. 15
10. Procédé selon la revendication 9, caractérisé en ce qu'il comprend la transformation de l'image finale noir et blanc en une image couleur par une transformation de Bayer .
11. Procédé selon la revendication 9, 20 caractérisé en ce qu'en vue d'obtenir l'effet de relief souhaité, il comprend : . des actions physiques sur le positionnement des capteurs optoélectroniques (01 à 05, o' l à 0'5), et/ou . des actions physiques sur les réglages des optiques de ces capteurs (O1 à 05, 0'1 à 0'5), et/ou 2.5 . des actions virtuelles sur les images brutes délivrées par les capteurs (O1 à 05, 0'1 à 0'5).
12. Procédé selon l'une des revendications précédentes, caractérisé en ce qu'il comprend une étape de positionnement virtuel des 30 images en recouvrement pour lesquelles les centres optiques doivent être confondus, cette étape comportant : 2909778 - 23 - . le positionnement physique des capteurs optoélectroniques (O1 à O5, o', à O'5) en fonction de la scène captée et de l'effet relief recherché, . l'affinage de ce positionnement par un traitement de l'image brute provenant d'au moins un capteur autre que le capteur de référence, ce traitement 5 consistant à déplacer un cadrage virtuel dans la limite du nombre de pixels restant entre le cadre (CA1) de l'image utile et le hors cadre de l'image brute.
13. Procédé selon la revendication 12, caractérisé en ce que le susdit positionnement virtuel est effectué : 10 . par déplacement manuel du cadrage de l'image utile dans l'image brute, . par reconnaissance d'un ou plusieurs repères (Obi) ajoutés ou déterminés dans la scène à l'intérieur ou à l'extérieur de l'image utile, avec suivi éventuel du repère dans la scène captée. 15
14. Dispositif pour la mise en oeuvre du procédé selon l'une des revendications précédentes, caractérisé en ce qu'il comprend : . une structure de support fixe (1) équipée de moyens de réglage de l'horizontalité, cette structure support comprenant des premiers moyens de 20 guidage selon un premier axe OX, . une pluralité de structures mobiles (C1 à C3) portées par la structure de support fixe (1) tout en pouvant être déplacées le long des moyens de guidage, chacune de ces structures mobiles (C1 à C3) comportant un élément de support sur lequel est monté rotatif un capteur optoélectronique (O1 à 05, 25 O'1 à o'5).
15. Dispositif selon la revendication 14, caractérisé en ce que le capteur optoélectronique (O'1 à o'5) est équipé d'un objectif à focale variable ajustable, de manière à compenser les variations de 30 distance entre chacun des capteurs (O'1 à o'5) et le point (C) sur lequel est effectuée la mise au point de référence. 2909778 - 24 -
16. Dispositif selon la revendication 14, caractérisé en ce que la structure support fixe comprend une poutrelle rigide (1) définissant le premier axe OX et le long de laquelle les structures mobiles 5 (C 1 à C3) sont montées coulissantes, cette poutrelle (1) étant équipée de systèmes micrométriques de transport permettant de positionner très précisément et indépendamment chacune des structures mobiles (C1 à C3).
17. Dispositif selon la revendication 16, 10 caractérisé en ce que les susdites structures mobiles (C1 à C3) comprennent des moyens de guidage de bras rigide (B1 à B3) qui constituent les susdits éléments de support, selon le deuxième axe OY, chacun de ces bras (B 1 à B3) étant muni d'un système micrométrique de transport permettant de le faire coulisser le long de l'axe 0Y indépendamment des autres bras. 15
18. Dispositif selon la revendication 17, caractérisé en ce que chacun des bras (B1 à B3) comprend un système micrométrique de rotation autour d'un axe vertical sur lequel est fixé un système de prises de vues dont le capteur optoélectronique (O1 à 03) est centré 20 sur l'axe de rotation (Z1 à Z3).
19. Dispositif selon l'une des revendications 16 à 18, caractérisé en ce que les susdits capteurs optoélectroniques (O1 à 05, o', à 0'5) sont de taille réduite et comprennent chacun une optique comprenant une ou 2.5 plusieurs microlentilles reliée à une cellule optoélectronique par l'intermédiaire d'un guide de lumière.
FR0610634A 2006-12-06 2006-12-06 Procede et dispositif pour la realisation de prises de vues a l'aide d'une pluralite de capteurs optoelectroniques. Expired - Fee Related FR2909778B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0610634A FR2909778B1 (fr) 2006-12-06 2006-12-06 Procede et dispositif pour la realisation de prises de vues a l'aide d'une pluralite de capteurs optoelectroniques.
PCT/FR2007/002002 WO2008081115A2 (fr) 2006-12-06 2007-12-05 Procede et dispositif pour la realisation de prises de vues a l'aide d'une pluralite de capteurs optoelectroniques

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0610634A FR2909778B1 (fr) 2006-12-06 2006-12-06 Procede et dispositif pour la realisation de prises de vues a l'aide d'une pluralite de capteurs optoelectroniques.

Publications (2)

Publication Number Publication Date
FR2909778A1 true FR2909778A1 (fr) 2008-06-13
FR2909778B1 FR2909778B1 (fr) 2009-10-16

Family

ID=38229941

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0610634A Expired - Fee Related FR2909778B1 (fr) 2006-12-06 2006-12-06 Procede et dispositif pour la realisation de prises de vues a l'aide d'une pluralite de capteurs optoelectroniques.

Country Status (2)

Country Link
FR (1) FR2909778B1 (fr)
WO (1) WO2008081115A2 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012056437A1 (fr) 2010-10-29 2012-05-03 École Polytechnique Fédérale De Lausanne (Epfl) Système de réseau de capteurs omnidirectionnels

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HK1167067A2 (en) * 2011-09-06 2012-11-16 Smart Edge Invest Ltd A system and method for processing a very wide angle image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2226923A (en) * 1989-01-06 1990-07-11 Peng Seng Toh Automatic convergent stereoscopic machine vision
FR2699296A1 (fr) * 1992-12-14 1994-06-17 Boute Olivier Dispositif de prise de vues triscopiques.
EP0888017A2 (fr) * 1993-08-26 1998-12-30 Matsushita Electric Industrial Co., Ltd. Dispositif d'affichage d'image stéréoscopique et système

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6748105B1 (en) * 2000-05-31 2004-06-08 Stmicroelectronics, Inc. Method and system for creating anaglyphs
JP2005159957A (ja) * 2003-11-28 2005-06-16 Mega Chips Corp 色補間方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2226923A (en) * 1989-01-06 1990-07-11 Peng Seng Toh Automatic convergent stereoscopic machine vision
FR2699296A1 (fr) * 1992-12-14 1994-06-17 Boute Olivier Dispositif de prise de vues triscopiques.
EP0888017A2 (fr) * 1993-08-26 1998-12-30 Matsushita Electric Industrial Co., Ltd. Dispositif d'affichage d'image stéréoscopique et système

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ROSS B: "A practical stereo vision system", COMPUTER VISION AND PATTERN RECOGNITION, 1993. PROCEEDINGS CVPR '93., 1993 IEEE COMPUTER SOCIETY CONFERENCE ON NEW YORK, NY, USA 15-17 JUNE 1993, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, 15 June 1993 (1993-06-15), pages 148 - 153, XP010095861, ISBN: 0-8186-3880-X *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012056437A1 (fr) 2010-10-29 2012-05-03 École Polytechnique Fédérale De Lausanne (Epfl) Système de réseau de capteurs omnidirectionnels
US10362225B2 (en) 2010-10-29 2019-07-23 Ecole Polytechnique Federale De Lausanne (Epfl) Omnidirectional sensor array system

Also Published As

Publication number Publication date
WO2008081115A2 (fr) 2008-07-10
WO2008081115A3 (fr) 2008-09-18
FR2909778B1 (fr) 2009-10-16

Similar Documents

Publication Publication Date Title
EP0511101B1 (fr) Procédé de modélisation d'un système de prise de vues et procédé et système de réalisation de combinaisons d'images réelles et d'images de synthèse
CN104980644B (zh) 一种拍摄方法及装置
JP5871862B2 (ja) 3d深度情報に基づいたイメージぼかし
US7962033B2 (en) Methods and apparatus for full-resolution light-field capture and rendering
US8189089B1 (en) Methods and apparatus for reducing plenoptic camera artifacts
CN101872491B (zh) 基于光度立体的自由视角重光照方法和系统
US5497188A (en) Method for virtualizing an environment
US20180213218A1 (en) Equipment and method for promptly performing calibration and verification of intrinsic and extrinsic parameters of a plurality of image capturing elements installed on electronic device
FR2984057A1 (fr) Systeme de tournage de film video
CN105472265B (zh) 一种获取高动态范围图像的装置和方法
US20100259670A1 (en) Methods and Apparatus for Coordinated Lens and Sensor Motion
CN104937468B (zh) 图像取得装置以及图像取得装置的聚焦方法
EP3473000B1 (fr) Procédé et système de prise de vues a l'aide d'un capteur virtuel
FR2909778A1 (fr) Procede et dispositif pour la realisation de prises de vues a l'aide d'une pluralite de capteurs optoelectroniques.
KR102564522B1 (ko) 다시점 촬영 시스템 및 3d 체적 객체 생성 방법
EP3008693A1 (fr) Systemes de reperage de la position de la camera de tournage pour le tournage de films video
US10761311B2 (en) Digital microscope and method for acquiring a stack of microscopic images of a specimen
FR2910648A1 (fr) Procede et dispositif de capture de donnees geometriques
CN108513122B (zh) 基于3d成像技术的模型调整方法及模型生成装置
JP2014036347A (ja) 撮像装置、撮像システム、撮像装置の制御方法、プログラム、および、記憶媒体
CN206649565U (zh) 全景摄像机和行车记录仪
CN206741109U (zh) 一种光学显示模组图像生成单元旋转调整系统
CA2543150A1 (fr) Procede et dispositif de capture d'une image grand champ et d'une region d'interet de celle-ci
US20220337744A1 (en) Camera system utilizing auxiliary image sensors
CN114339157B (zh) 一种观察区域可调式多相机实时拼接系统及方法

Legal Events

Date Code Title Description
TP Transmission of property
CA Change of address

Effective date: 20150917

CD Change of name or company name

Owner name: ZAYO FRANCE, FR

Effective date: 20150917

TP Transmission of property

Owner name: ZAYO FRANCE, FR

Effective date: 20150917

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

ST Notification of lapse

Effective date: 20190906