FR2832892A1 - Camera video d'effets speciaux - Google Patents
Camera video d'effets speciaux Download PDFInfo
- Publication number
- FR2832892A1 FR2832892A1 FR0115408A FR0115408A FR2832892A1 FR 2832892 A1 FR2832892 A1 FR 2832892A1 FR 0115408 A FR0115408 A FR 0115408A FR 0115408 A FR0115408 A FR 0115408A FR 2832892 A1 FR2832892 A1 FR 2832892A1
- Authority
- FR
- France
- Prior art keywords
- image
- camera
- infrared
- distance
- shutter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000694 effects Effects 0.000 title description 6
- 238000001444 catalytic combustion detection Methods 0.000 claims description 32
- 230000003287 optical effect Effects 0.000 claims description 20
- 230000010354 integration Effects 0.000 description 10
- 230000005855 radiation Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000005286 illumination Methods 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 238000002310 reflectometry Methods 0.000 description 7
- 230000001360 synchronised effect Effects 0.000 description 4
- 238000002329 infrared spectrum Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000011282 treatment Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001429 visible spectrum Methods 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000004299 exfoliation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4811—Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
- G01S17/18—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Devices (AREA)
- Studio Circuits (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
L'invention propose une caméra vidéo munie de moyens de télémétrie (8 à 12) qui fournissent parallèlement à l'image une information relative à la distance de chacun des points filmés d'une image. Une clef de découpe calculée sur l'information relative à la distance peut être calculée de la même manière qu'une clef de chrominance sans utiliser de fond coloré.
Description
<Desc/Clms Page number 1>
Caméra vidéo d'effets spéciaux
L'invention se rapporte à une caméra vidéo d'effets spéciaux, et en particulier à une caméra de télévision permettant de faciliter certains effets spéciaux.
L'invention se rapporte à une caméra vidéo d'effets spéciaux, et en particulier à une caméra de télévision permettant de faciliter certains effets spéciaux.
Une caméra vidéo sert à filmer des séquences d'images vidéo.
L'utilisation de la séquence d'image vidéo, notamment lors d'émission de télévision, nécessite différents traitements. Parmi les traitements connus, les effets spéciaux servent à modifier la séquence d'images filmées afin d'ajouter ou de supprimer des détails plus ou moins importants sur les images. Pour faciliter certains traitements et autoriser une utilisation en direct, différents procédés sont connus.
Une technique utilise l'incrustation à l'aide d'une clef de chrominance (connu en anglais sous le nom de chroma-key). Cette technique utilise un fond de scène coloré, par exemple en bleu ou en vert, et la détection de la couleur du fond permet d'isoler un ou plusieurs sujets en temps réel par détection de la chrominance exacte au niveau d'un mélangeur vidéo. Ce procédé est très largement utilisé en télévision et en cinéma pour changer le fond d'évolution des sujets filmés. Il est également connu d'avoir recours à plusieurs couleurs simultanément pour faire de la double incrustation d'image ou repérer les angles de prise de vue afin de récréer virtuellement un décor.
Cette technique est très satisfaisante dans son ensemble bien qu'elle comporte un certain nombre d'inconvénients. Parmi les inconvénients, un premier inconvénient est lié à la couleur du fond qui ne doit pas être utilisée sur les sujets et qui change la couleur de l'éclairage. Un deuxième inconvénient concerne les effets de bord c'est à dire le changement de la couleur au niveau de la transition entre le sujet et le fond.
Un troisième inconvénient concerne le masquage partiel d'un sujet lorsque le fond incrusté le nécessite. Un quatrième inconvénient est tout simplement lié à l'obligation de tourner dans un studio spécifiquement équipé.
Il existe des solutions pour minimiser ou supprimer tous les inconvénients précités. Cependant certaines de ces solutions sont coûteuses et ne sont pas utilisables en direct ou font apparaître des défauts visibles. Le gommage complet du fond d'une scène filmée en extérieur est
<Desc/Clms Page number 2>
une opération longue qui nécessite un traitement image par image et l'appréciation d'un opérateur.
L'invention propose une caméra vidéo qui permet de s'affranchir du fond coloré en permettant une utilisation en direct d'une même qualité. Pour supprimer le fond coloré, la caméra est munie de moyens de télémétrie qui fournissent parallèlement à l'image une information relative à la distance de chacun des points filmés d'une image. Ainsi, un mélangeur vidéo pourra utiliser une clef de découpe calculée sur l'information relative à la distance de la même manière qu'une clef de chrominance sans utiliser de fond coloré.
L'invention est un système de caméra vidéo comprenant des moyens d'acquisition d'image pour fournir un flux d'images vidéo et des moyens de télémétrie pour fournir parallèlement à au moins une image et pour chaque point de la au moins une image une information relative à la distance entre la caméra et le point sujet correspondant au point de l'image.
Préférentiellement, les moyens de télémétrie comprennent : une source intermittente de lumière non visible, un capteur d'image fonctionnant dans la gamme de lumière non visible de la source intermittente, un obturateur placé devant le capteur d'image fonctionnant dans la gamme de lumière non visible, des moyens de synchronisation pour synchroniser l'obturateur et la source intermittente, et des moyens de traitement pour transformer l'information de luminosité en information relative à la distance.
L'invention sera mieux comprise, et d'autres particularités et avantages apparaîtront à la lecture de la description qui va suivre, la description faisant référence aux dessins annexés parmi lesquels : la figure 1 représente une caméra selon l'invention, les figures 2 à 4 illustrent le principe de fonctionnement de l'invention, la figure 5 montre un circuit de calcul de distance selon l'invention, la figure 6 illustre une variante du principe de fonctionnement, la figure 7 illustre un mode d'utilisation utilisant des paramètres de fonctionnement différents, la figure 8 montre une variante de caméra compacte selon l'invention.
<Desc/Clms Page number 3>
La figure 1 représente une caméra vidéo selon l'invention qui comporte un objectif 1, incluant éventuellement un zoom, un premier séparateur optique 2 et un deuxième séparateur optique 3 placé dans un même axe optique 14. Le premier séparateur optique 2 est placé entre l'objectif 1 et le deuxième séparateur optique 3. Le premier séparateur optique 2 comporte une surface dichroïque qui dévie par exemple perpendiculairement à l'axe optique 14 les rayons infrarouges situés en dessous du spectre visible et reste transparent pour le spectre visible. Le deuxième séparateur optique 3 est un séparateur à prisme connu comportant des couches dichroïques afin de séparer la lumière rouge, verte et bleue selon trois directions différentes.'
Trois capteurs d'image 4,5 et 6 de type CCD (de l'anglais Charge Coupled Device) sont placés autour du deuxième séparateur optique 3 selon une technique connue afin de fournir respectivement des images rouges, vertes et bleues à un circuit de traitement d'image 7. Le dispositif de traitement d'image effectue tous les traitements et corrections nécessaire à l'obtention d'une image de qualité professionnelle classique et fournit un flux d'image vidéo. L'ensemble constitué du deuxième séparateur optique 3 des trois CCD 4 à 6 et du circuit de traitement d'image 7 forme des moyens d'acquisition d'image connus qui ne seront pas développés plus en détail.
Trois capteurs d'image 4,5 et 6 de type CCD (de l'anglais Charge Coupled Device) sont placés autour du deuxième séparateur optique 3 selon une technique connue afin de fournir respectivement des images rouges, vertes et bleues à un circuit de traitement d'image 7. Le dispositif de traitement d'image effectue tous les traitements et corrections nécessaire à l'obtention d'une image de qualité professionnelle classique et fournit un flux d'image vidéo. L'ensemble constitué du deuxième séparateur optique 3 des trois CCD 4 à 6 et du circuit de traitement d'image 7 forme des moyens d'acquisition d'image connus qui ne seront pas développés plus en détail.
Un capteur d'image infrarouge 8 est placé à proximité du premier séparateur optique 2 dans l'axe de déviation du séparateur afin de prendre une image infrarouge correspondant à l'image filmée par les moyens d'acquisition d'image 3 à 7. Préférentiellement le capteur d'image infra rouge 8 est un CCD du même type que ceux utilisés pour l'acquisition d'image afin d'avoir une image de même résolution spatiale et afin de travailler avec un rayonnement infrarouge proche du visible qui se comporte comme de la lumière visible à travers l'objectif. Afin de transformer l'image infrarouge en information relative à la distance un obturateur 9 placé entre le premier séparateur optique 2 et le CCD 8 afin d'échantillonner le rayonnement infrarouge vu par le CCD 8. Une source infrarouge 10 éclaire la scène filmée de manière pulsée et un circuit de synchronisation 11 synchronise l'obturateur 9, la source infrarouge 10 et le CCD 8 afin de réaliser une intégration optique de distance directement sur le CCD 8. L'obturateur 9 peut être réalisé soit avec des moyens mécaniques (par exemple un disque piloté par un moteur pas à pas) soit avec une valve optique. La source infrarouge 10 est par exemple constituée d'un panneau de diodes infrarouges qui
<Desc/Clms Page number 4>
émettent de la lumière infrarouge proche de la lumière visible, par exemple sur une longueur d'onde comprise entre 0,7 et 0, 8 pm. Un circuit de calcul de distance 12 transforme les images infrarouges en information de distance en parallèle avec le traitement d'image de sorte que pour chaque point d'une image une information de distance propre à ce point lui soit associée.
La figure 2 explique le principe général du fonctionnement du dispositif de télémétrie utilisé. Pour cette figure, on suppose que la caméra filme un fond uniforme placé à une distance d de la caméra qui renvoie la lumière infrarouge sans atténuation. La figure 2a représente l'éclairement pulsé produit par la source infrarouge 10. La source 10 éclaire pendant la moitié d'une période TIR. La figure 2b représente la lumière infrarouge reçue par l'objectif 1 de la caméra qui correspond à la lumière infrarouge réfléchie par le fond uniforme. La lumière reçue se trouve être une lumière pulsée de même forme que la lumière émise mais déphasée d'un temps égal au temps nécessaire à la lumière pour aller de la source infrarouge 10 au fond uniforme et du fond uniforme jusqu'à l'objectif de la caméra. Si la source 10 et la caméra sont dans un plan parallèle au fond uniforme le retard Rt du train lumineux de la figure 2a par rapport à la figure 2b est égal à 2*d/c où c est la vitesse de la lumière. La figure 2c représente l'ouverture de l'obturateur 9 qui est synchronisée avec la source infrarouge 10. La figure 2d montre la lumière infrarouge reçue par le CCD 8 à travers l'obturateur. Durant le temps de prise d'image, le CCD va intégrer la somme de lumière reçue et fournir une image uniforme (représentative du fond uniforme) dont la luminosité intégrée par le capteur est relative à la distance.
Sur la figure 3, la courbe 20 correspond au niveau de gris d'un point du CCD 8 en fonction de la distance d'un objet filmé ayant une réflectivité idéale au rayonnement infrarouge de la source infrarouge 10. La courbe 21 correspond à l'atténuation de la lumière en fonction de la distance. La courbe 20 correspond au produit d'un signal triangulaire de demi-période D=c. TIR/4 par la courbe 21. L'homme du métier peut voir que l'information de distance n'est pas absolue et dépend elle-même de la distance. Cependant, si l'on fonctionne avec une profondeur de champ égale à D, on s'aperçoit que l'information de distance est quasi linéaire.
Afin d'optimiser l'intégration lumineuse faite au niveau du CCD 8, il est préférable d'avoir un nombre entier de périodes d'éclairement pendant la période d'échantillonnage d'une image du CCD 8. On choisit par exemple une fréquence d'éclairement multiple de la fréquence trame et sous-multiple
<Desc/Clms Page number 5>
de la fréquence pixel. A titre d'exemple on prend par exemple une période TIR égale à la fréquence pixel c'est à dire à 13,5 MHz soit une période TIR = 74 ns. La distance D devient alors égale à environ 5,5 m, ce qui peut convenir dans certain cas.
Cependant lorsque l'on filme une scène réelle, il est rare que tous les objets filmés aient une réflectivité idéale vis à vis d'un rayonnement visible ou invisible. Afin de s'affranchir des problèmes dus à la réflectivité des objets filmés, il convient d'utiliser une image de référence sur laquelle on mesure la luminosité des objets constituant la scène sans se préoccuper de la distance. Une première solution consiste à effectuer la mesure de distance une image sur deux. Cependant, les CCD actuels peuvent être utilisés à des fréquences d'échantillonnage d'image plusieurs fois supérieures aux fréquences images courantes qui sont de 50 ou 60 Hz. Ainsi selon un mode préféré de l'invention, le CCD 8 travaille deux fois plus vite que les CCD 4 à 6 qui servent à l'acquisition de l'image.
La figure 4a représente temporellement l'acquisition des images visibles. Pendant une première période T1, les CCD 4 à 6 réalisent l'intégration d'une trame (ou d'une image si la caméra fonctionne en mode progressif). Pendant une période T2 qui suit la période T1, les CCD 4 à 6 fournissent en sortie la trame reçue pendant la période T1 et réalise l'intégration de la trame suivante.
La figure 4b représente l'ouverture de l'obturateur 9 qui reste ouvert pendant la première moitié de la période T1 et qui réalise un échantillonnage lumineux synchrone avec la source infrarouge 10 pendant la deuxième moitié de la période T1. Il est à noter que pendant la première moitié de la période T1, la source infrarouge 10 peut être allumée soit de manière continue, soit de manière alternée. Il est également possible que, pendant la première moitié de la période T1, la source infrarouge 10 soit allumée en permanence et que l'obturateur 9 s'ouvre et se ferme de manière alternée. Ce qui importe est d'avoir pendant la première moitié de la période T1 une trame infrarouge de référence, c'est à dire indépendante de la modulation lumineuse réalisée simultanément sur l'obturateur 9 et la source infrarouge 10.
La figure 4c montre l'intégration lumineuse réalisée par le CCD 8.
Pendant la première moitié de la période T1, le CCD 8 réalise une intégration dans l'infrarouge de la trame RD1 correspondant à la trame intégrée pendant la période T1. Pendant la deuxième moitié de la période
<Desc/Clms Page number 6>
T1, le CCD 8 fournit les points correspondant à la trame RD1 et réalise l'intégration d'une trame 01 incluant l'information de distance grâce à la modulation lumineuse faite dans l'infrarouge, la trame 01 correspondant à la trame intégrée pendant la période T1. Au cours de la première moitié de la période T2, le CCD 8 fournit les points correspondant à la trame D1 et réalise l'intégration d'une trame RD2 dans l'infrarouge, la trame RD2 correspondant à la trame intégrée pendant la période T2. Au cours de la deuxième moitié de la période T2, le CCD 8 fournit les points correspondant à la trame RD2 et réalise l'intégration d'une trame D2 incluant l'information de distance grâce à la modulation lumineuse faite dans l'infrarouge, la trame D2 correspondant à la trame intégrée pendant la période T2.
Bien que les trames RD1 et D1 (et les trames RD2 et D2) ne correspondent pas temporellement à la même scène, on considère qu'elles correspondent toutes deux à la trame image intégrée pendant la période T1. L'homme du métier comprendra que l'on peut inverser temporellement l'intégration de ces deux trames.
Pour conserver une trame qui ne comporte que l'information de distance, une technique simple consiste à diviser point par point la trame 01 par la trame RD1. En effet, le niveau de gris des points de la trame RD1 peut s'exprimer ainsi : ng1 = P1*RP1+GS1 où P1 est la puissance lumineuse émise par la source infrarouge 10, où RP1 est un coefficient d'atténuation incluant la réflectivité et l'atténuation liée à la distance entre la source 10 et la point filmé, et où GS1 est la luminance naturelle du point dans le spectre infrarouge considéré. Le niveau de gris d'un point de la trame D1 peut s'exprimer ainsi ng2 = P2*RP2*KM+GS2 où P2 est la puissance lumineuse émise par la source infrarouge 10, où RP2 est un coefficient d'atténuation incluant la réflectivité et l'atténuation liée à la distance entre la source 10 et le point filmé, où KM est le coefficient de distance lié à la modulation lumineuse entre la source 10 et l'obturateur 9, et où GS2 est la luminance naturelle du point dans le spectre infrarouge considéré. Si l'on effectue le rapporte ng2/ng1 on obtient le rapport (P2*RP2*KM+GS2)/ (P1*RP1+GS1).
Si l'on compare une image infrarouge naturelle avec une image infrarouge produite par éclairement infrarouge dans le spectre correspondant à une longueur d'onde comprise entre 0,7 et 0, 8 um, on s'aperçoit que l'image naturelle est très faible et peut être considérée comme négligeable. En négligeant la luminance naturelle, le rapport ng2/ng1 devient P2*RP2*KM/ P1*RP1. Or la puissance lumineuse infra P1 est égale à k*P2 avec k un
<Desc/Clms Page number 7>
coefficient égal à 1 ou 1/2 suivant que l'on module ou pas la source 10 en gardant l'obturateur 9 ouvert. Par ailleurs, les trames RD1 et 01 correspondent spatialement aux mêmes points du CCD 8. Si l'on considère que la scène évolue peu entre les trames RD1 et 01 on a alors RP1 = RP2.
Le rapport ng2/ng1 est donc sensiblement égal à KM/k.
L'homme du métier peut penser que le calcul peut être faux pour des faibles réflectivités d'objet. Or, dans la bande infra-rouge considérée, tous les objets présentent une réflectivité minimale qui est facilement récupérable avec des CCD car les CCD disposent d'une dynamique de 85 dB ce qui permet d'avoir une résolution de 14 bits et donc une précision suffisante pour les faibles niveaux de luminosité.
La figure 5 montre un exemple de réalisation du circuit de calcul de distance 12. L'entrée du circuit de calcul 12 reçoit les données provenant du capteur d'image infrarouge 10 sous forme d'une succession de points constituant l'image précédemment intégrée par le CCD. Une mémoire 30 mémorise les points provenant du CCD lorsqu'il s'agit d'une trame RDi c'est à dire une trame infrarouge de référence et restitue sur une sortie les points de la trame mémorisée lorsque le CCD fournit une trame Di, c'est à dire une trame infrarouge représentative de la distance. Un circuit de division 31 dispose d'une première entrée recevant la succession de points provenant du capteur d'image infrarouge 10 et d'une deuxième entrée connectée à la mémoire 30. Le circuit de division 31 est préférentiellement réalisé à l'aide d'une table de correspondance, plus connue sous le nom de LUT (de l'anglais Look Up Table) qui fournit sur une sortie le résultat k. a/b ou 0 si b est égal à 0, a et b étant les valeurs présentes respectivement sur les première et deuxième entrées. Lorsque le capteur d'image infrarouge 10 fournit la succession de point correspondant à une trame Di, la mémoire 30 fournit de manière synchronisée les points correspondant à la trame RDi de sorte que le circuit de calcul 12 reçoit simultanément sur ses deux entrées deux points situés à une même place de l'image. Ainsi, la sortie du circuit de division 31 fournit pour chaque point de la trame l'information KM = k. ng2/ng1. Un tampon mémoire 32 de type FIFO (de l'anglais First In First Out) est connecté à la sortie du circuit de division afin de synchroniser les données de distance avec les points d'image fournis par le circuit de traitement d'image 7.
La figure 6 présente une amélioration possible du système en jouant sur la synchronisation. Il a été vu précédemment que l'information
<Desc/Clms Page number 8>
relative à la distance correspond à une fonction cyclique de la distance. L'idéal est de travailler sur une zone linéaire ou quasi-linéaire de cette fonction. Or il s'avère que la zone située à proximité de la caméra est généralement libre de tout objet et ne nécessite pas de contrôle de distance.
La figure 6a représente l'éclairement pulsé produit par la source infrarouge 10. La figure 6b représente la lumière infrarouge reçue par l'objectif 1 de la caméra. La figure 6c représente l'ouverture de l'obturateur 9 qui est synchronisée avec la source infrarouge 10. La figure 6d montre la lumière infrarouge reçue par le CCD 8 à travers l'obturateur. La figure 6e montre la courbe représentative du coefficient de distance KM en fonction de la distance d'un objet filmé.
Un déphasage dT est introduit entre la période d'éclairement de la scène et la période d'ouverture/fermeture de l'obturateur 8. Le déphasage dT se soustrait au retard Rt indiqué précédemment. Ainsi on obtient un déphasage de la périodicité du signal KM égal à c. dT. Le déphasage dT est déterminé par la distance minimale Dm d'utilisation de la caméra par la relation Dm = c. dT. Par distance minimale d'utilisation de la caméra, il faut comprendre distance de la caméra où l'on est sûr de n'avoir aucun élément autre qu'un sujet à filmer.
La figure 7 illustre un exemple de fonctionnement utilisant des périodes d'éclairement TIR différentes. La figure 7a représente une prise de vue en extérieure par une caméra 100 réalisée selon l'invention qui filme une scène délimitée par l'ouverture de l'objectif de la caméra représenté par les lignes 101 devant un bâtiment 102 qui limite la profondeur de champ. La prise de vue a pour objet de filmer deux personnages 103 et 104 qui évoluent dans une zone 105 devant le bâtiment 102. Dans cet exemple, une zone 106 placée entre le bâtiment 102 et la zone 105 ne peut être contrôlée et des personnes 107 à 109 peuvent y évoluer pendant la prise de vue.
La figure 7b montre la courbe représentative de l'information de distance KM en utilisant une période d'éclairement infrarouge TIR de 74 ns.
La distance minimum Dm est par exemple fixée à 0,5 m. Une première zone de fonctionnement où l'information KM est considérée proportionnelle à la distance est comprise entre Dm et D, avec D égal à environ 6 m, la périodicité étant d'environ 11 m. Dans l'exemple de prise de vue, on s'aperçoit que la zone 105 se situe aux alentours de 6 m, que la zone 106 se situe aux alentours de 11,5 m et que le bâtiment se situe aux alentours de
17 m. Pour pouvoir supprimer les personnages gênants de la zone 106, une
17 m. Pour pouvoir supprimer les personnages gênants de la zone 106, une
<Desc/Clms Page number 9>
clef de découpage peut être calculée à partir de l'information de distance par une simple comparaison à un seuil S1. Les parties de l'image qui sont enlevées par la clef de découpe peuvent alors être remplacées à l'aide d'une image de référence prise sans personnage dans la zone 105. L'image de référence peut également être une image reconstituée à partir de quelques images prises juste avant la prise de vue sans les personnages 103 et 104.
Dans le cas où la prise de vue correspond à un reportage en direct pour la télévision, il est possible de supprimer les personnages circulant à l'arrière plan en ayant pris l'image de référence juste avant. Par contre, la suppression totale du bâtiment 102 ne peut pas se faire à l'aide d'une clef de découpe calculée sur l'information de distance car l'information de distance KM est au même niveau pour la zone 105 et le bâtiment 102.
Par contre si l'on choisit une période TIR de par exemple de 222 ns, l'information KM en fonction de la distance correspond à la figure 7c. La première zone de fonctionnement où l'information KM est considérée proportionnelle à la distance est comprise entre Dm et D, avec D égal à environ 17 m. Si l'on désire supprimer uniquement les personnages de la zone 106, on calcul une clef de découpe à l'aide des seuils S2 et S3. Si l'on veut supprimer en plus le bâtiment 102, il suffit de prendre en compte uniquement le seuil S2 pour la clef de découpe.
Préférentiellement, un réglage manuel de la fréquence d'éclairement infrarouge est prévu afin de pouvoir ajuster l'information de distance KM en fonction de la profondeur de champ.
La caméra présentée précédemment utilise une source infrarouge 10 externe. Afin d'avoir une caméra portable équipée selon l'invention, la source infrarouge peut être fixée sur la caméra, par exemple tout autour de l'objectif.
Afin de réduire la puissance d'illumination, il est également possible de n'éclairer que la scène filmée au travers de l'objectif. La figure 8 représente une variante compacte de l'invention dans laquelle une source infrarouge 10b éclaire à travers l'objectif 1 de la caméra. La source 10b est réalisée à l'aide d'un réseau de diodes infrarouges munies de moyens de focalisation afin de fournir un faisceau de lumière infrarouge dirigé sensiblement dans une seule direction. Un séparateur semi-réfléchissant 15 est placé dans l'axe de l'objectif entre l'objectif 1 et le premier séparateur optique 2. Le séparateur semi-réfléchissant 15 comporte une lame qui laisse passer 80% de la lumière et qui en réfléchit 20%. Ainsi, 20% de la lumière
<Desc/Clms Page number 10>
infrarouge de la source 10b est dirigée à travers l'objectif pour illuminer la scène filmée dans le spectre infra-rouge. La lumière reçue par les capteurs d'image se trouve atténuée de 20%.
D'autres variantes de l'invention sont possibles. Selon l'invention, le dispositif d'acquisition d'image est situé dans l'axe optique de l'objectif et le dispositif infrarouge se trouve dans un axe sensiblement perpendiculaire.
Cet exemple de réalisation présente l'avantage d'être relativement compact.
Cependant, il est tout à fait possible de ne pas avoir le dispositif d'acquisition d'image dans l'axe optique, l'important étant d'avoir des chemins optiques pour récupérer d'une part la lumière visible et d'autre part la lumière infrarouge.
Selon les exemples décrits, deux séparateurs sont utilisés pour d'une part séparer la lumière infrarouge et la lumière visible et d'autre part séparer la lumière visible en lumière rouge, verte et bleue. Un seul séparateur pourrait être utilisé et réaliser la séparation des quatre lumières.
Selon les exemples décrits, il est utilisé de la lumière infrarouge.
Ce choix est dicté par la simplicité de réalisation car il est possible d'utiliser un objectif standard. Toutefois, d'autres rayonnements non visibles, par exemple l'ultra violet ou tout autre type de rayonnement, pourraient être utilisés. Cependant, tous les rayonnements ne se comportant pas comme la lumière visible, il faudrait avoir recours à des objectifs plus coûteux permettant d'avoir sensiblement la même focalisation pour le rayonnement visible et non-visible utilisé.
Selon les exemples décrits, deux images infrarouges sont prises pendant que l'on prend une image visible, la première image infrarouge servant de référence à la deuxième image infrarouge pour calculer la distance. Il est tout à fait possible d'inverser ces deux images. Il est également possible d'utiliser un nombre d'images plus important afin de réaliser un calcul plus complexe et plus précis.
Claims (10)
1. Système de caméra vidéo comprenant des moyens d'acquisition d'image (4 à 7) pour fournir un flux d'images vidéo, caractérisé en ce qu'il comporte des moyens de télémétrie (8 à 12) pour fournir parallèlement à au moins une image et pour chaque point de la au moins une image une information (KM) relative à la distance entre la caméra et le point sujet correspondant au point de l'image.
2. Système selon la revendication 1, caractérisé en ce que les moyens de télémétrie comprennent :' - une source (10) intermittente de lumière non visible, - un capteur d'image (8) fonctionnant dans la gamme de lumière non visible de la source (10) intermittente, - un obturateur (9) placé devant le capteur d'image fonctionnant dans la gamme de lumière non visible, - des moyens de synchronisation (11) pour synchroniser l'obturateur et la source intermittente, et - des moyens de traitement (12) pour transformer l'information de luminosité en information relative à la distance.
3. Système selon la revendication 2, caractérisé en ce que la source (10) intermittente est une source de lumière infrarouge.
4. Système selon l'une des revendications 2 ou 3, caractérisé en ce que la source (10) intermittente est placée à l'intérieur de la caméra.
5. Système selon l'une des revendications 2 à 4, dans lequel les moyens d'acquisition d'image comprennent trois CCD (4 à 6), caractérisé en ce que le capteur d'image (8) fonctionnant dans la gamme de lumière non visible est un CCD du même type que ceux utilisés dans les moyens d'acquisition d'image.
6. Système selon la revendication 5, caractérisé en ce qu'il comporte un séparateur optique (2) entre les moyens d'acquisition d'image
<Desc/Clms Page number 12>
et un objectif (1), ledit séparateur optique séparant la lumière visible et la lumière non visible selon deux directions distinctes.
7. Système selon la revendication 5, caractérisé en ce que le capteur d'image (8) fonctionnant dans la gamme de lumière non visible fonctionne à une fréquence image double de la fréquence image des CCD (4 à 6) appartenant aux moyens d'acquisition d'images.
8. Système selon la revendication 7, caractérisé en ce que le capteur (8) fonctionnant dans la gamme de lumière non visible prend des premières images en ayant l'obturateur ouvert et/ou la source intermittente allumée en continue et des deuxièmes images en ayant la source intermittente et l'obturateur s'ouvrant et se fermant plusieurs fois de manière synchrone de manière synchrone, les première et deuxièmes images étant alternées.
9. Système selon la revendication 8, caractérisé en ce qu'il y a un déphasage entre l'obturation de l'obturateur et la source intermittente lorsqu'ils fonctionnent de manière synchrone.
10. Système selon l'une des revendications 2 à 9, caractérisé en ce que les moyens de synchronisation comportent des moyens de réglage manuel agissant sur la vitesse d'obturation.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0115408A FR2832892B1 (fr) | 2001-11-27 | 2001-11-27 | Camera video d'effets speciaux |
PCT/EP2002/012853 WO2003047241A1 (fr) | 2001-11-27 | 2002-11-15 | Camera video a effets speciaux |
EP02781318A EP1449358B1 (fr) | 2001-11-27 | 2002-11-15 | Camera video a effets speciaux |
DE60239285T DE60239285D1 (de) | 2001-11-27 | 2002-11-15 | Videokamera für trickeffekte |
US10/496,740 US7259375B2 (en) | 2001-11-27 | 2002-11-15 | Special effects video camera |
JP2003548526A JP4825401B2 (ja) | 2001-11-27 | 2002-11-15 | 特別効果ビデオカメラ |
JP2009079451A JP4965597B2 (ja) | 2001-11-27 | 2009-03-27 | 特別効果ビデオカメラ |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0115408A FR2832892B1 (fr) | 2001-11-27 | 2001-11-27 | Camera video d'effets speciaux |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2832892A1 true FR2832892A1 (fr) | 2003-05-30 |
FR2832892B1 FR2832892B1 (fr) | 2004-04-02 |
Family
ID=8869897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0115408A Expired - Fee Related FR2832892B1 (fr) | 2001-11-27 | 2001-11-27 | Camera video d'effets speciaux |
Country Status (6)
Country | Link |
---|---|
US (1) | US7259375B2 (fr) |
EP (1) | EP1449358B1 (fr) |
JP (2) | JP4825401B2 (fr) |
DE (1) | DE60239285D1 (fr) |
FR (1) | FR2832892B1 (fr) |
WO (1) | WO2003047241A1 (fr) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005074257A1 (fr) * | 2004-01-16 | 2005-08-11 | Sony Computer Entertainment Inc. | Procede et appareil d'optimisation des parametres d'un dispositif de capture par le biais d'informations de profondeur |
US7102615B2 (en) | 2002-07-27 | 2006-09-05 | Sony Computer Entertainment Inc. | Man-machine interface using a deformable device |
US8395658B2 (en) | 2006-09-07 | 2013-03-12 | Sony Computer Entertainment Inc. | Touch screen-like user interface that does not require actual touching |
EP2408193A3 (fr) * | 2004-04-16 | 2014-01-15 | James A. Aman | Caméra pour lumière visible et non-visible pour imagerie vidéo et suivi d'objets |
US9682320B2 (en) | 2002-07-22 | 2017-06-20 | Sony Interactive Entertainment Inc. | Inertially trackable hand-held controller |
USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
US11010971B2 (en) | 2003-05-29 | 2021-05-18 | Sony Interactive Entertainment Inc. | User-driven three-dimensional interactive gaming environment |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4931288B2 (ja) * | 2001-06-08 | 2012-05-16 | ペンタックスリコーイメージング株式会社 | 画像検出装置と絞り装置 |
US7161579B2 (en) | 2002-07-18 | 2007-01-09 | Sony Computer Entertainment Inc. | Hand-held computer interactive device |
US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
US7646372B2 (en) | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US7623115B2 (en) | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
US8947347B2 (en) | 2003-08-27 | 2015-02-03 | Sony Computer Entertainment Inc. | Controlling actions in a video game unit |
US7918733B2 (en) | 2002-07-27 | 2011-04-05 | Sony Computer Entertainment America Inc. | Multi-input game control mixer |
US7803050B2 (en) | 2002-07-27 | 2010-09-28 | Sony Computer Entertainment Inc. | Tracking device with sound emitter for use in obtaining information for controlling game program execution |
US8160269B2 (en) | 2003-08-27 | 2012-04-17 | Sony Computer Entertainment Inc. | Methods and apparatuses for adjusting a listening area for capturing sounds |
US7850526B2 (en) | 2002-07-27 | 2010-12-14 | Sony Computer Entertainment America Inc. | System for tracking user manipulations within an environment |
US8139793B2 (en) | 2003-08-27 | 2012-03-20 | Sony Computer Entertainment Inc. | Methods and apparatus for capturing audio signals based on a visual image |
US9174119B2 (en) | 2002-07-27 | 2015-11-03 | Sony Computer Entertainement America, LLC | Controller for providing inputs to control execution of a program when inputs are combined |
US8233642B2 (en) | 2003-08-27 | 2012-07-31 | Sony Computer Entertainment Inc. | Methods and apparatuses for capturing an audio signal based on a location of the signal |
US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
US8686939B2 (en) | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
US8313380B2 (en) | 2002-07-27 | 2012-11-20 | Sony Computer Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
US7854655B2 (en) | 2002-07-27 | 2010-12-21 | Sony Computer Entertainment America Inc. | Obtaining input for controlling execution of a game program |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
US9682319B2 (en) | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
US9177387B2 (en) | 2003-02-11 | 2015-11-03 | Sony Computer Entertainment Inc. | Method and apparatus for real time motion capture |
US20070223732A1 (en) * | 2003-08-27 | 2007-09-27 | Mao Xiao D | Methods and apparatuses for adjusting a visual image based on an audio signal |
US8323106B2 (en) | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
US10279254B2 (en) | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US9573056B2 (en) | 2005-10-26 | 2017-02-21 | Sony Interactive Entertainment Inc. | Expandable control device via hardware attachment |
US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
US8134637B2 (en) * | 2004-01-28 | 2012-03-13 | Microsoft Corporation | Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing |
EP1751495A2 (fr) * | 2004-01-28 | 2007-02-14 | Canesta, Inc. | Capteur de distance, rouge, vert, bleu a puce unique (rvb-z) |
US8547401B2 (en) | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
DE502006004474D1 (de) * | 2006-02-02 | 2009-09-17 | Alstom Technology Ltd | Messvorrichtung |
US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
US8781151B2 (en) | 2006-09-28 | 2014-07-15 | Sony Computer Entertainment Inc. | Object detection using video input combined with tilt angle information |
US8542907B2 (en) | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
KR101335346B1 (ko) | 2008-02-27 | 2013-12-05 | 소니 컴퓨터 엔터테인먼트 유럽 리미티드 | 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들 |
US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
US8961313B2 (en) | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
US8527657B2 (en) | 2009-03-20 | 2013-09-03 | Sony Computer Entertainment America Llc | Methods and systems for dynamically adjusting update rates in multi-player network gaming |
US8342963B2 (en) | 2009-04-10 | 2013-01-01 | Sony Computer Entertainment America Inc. | Methods and systems for enabling control of artificial intelligence game characters |
US8142288B2 (en) | 2009-05-08 | 2012-03-27 | Sony Computer Entertainment America Llc | Base station movement detection and compensation |
US8393964B2 (en) | 2009-05-08 | 2013-03-12 | Sony Computer Entertainment America Llc | Base station for position location |
ES2463390T3 (es) * | 2011-06-24 | 2014-05-27 | Tomra Systems Asa | Máquina expendedora inversa y método de representación mediante imágenes para ella |
IL217361A0 (en) * | 2012-01-04 | 2012-03-29 | Rafael Advanced Defense Sys | Device & method providing combined video camera and range finder functionality |
CN104243840A (zh) * | 2014-09-22 | 2014-12-24 | 电子科技大学 | 一种在强光下获取目标图像的方法及装置 |
EP3214462B1 (fr) | 2016-03-04 | 2021-04-28 | ams AG | Agencement de capteur optique |
US10902626B2 (en) | 2018-04-11 | 2021-01-26 | International Business Machines Corporation | Preventing intrusion during video recording or streaming |
JP6974252B2 (ja) | 2018-05-15 | 2021-12-01 | 京セラ株式会社 | 電磁波検出装置および情報取得システム |
JP2020016602A (ja) * | 2018-07-27 | 2020-01-30 | 京セラ株式会社 | 電磁波検出装置および情報取得システム |
JP7257751B2 (ja) * | 2018-07-27 | 2023-04-14 | 京セラ株式会社 | 電磁波検出装置 |
JP2020016622A (ja) * | 2018-07-27 | 2020-01-30 | 京セラ株式会社 | 電磁波検出装置および情報取得システム |
JP2020073894A (ja) * | 2019-12-25 | 2020-05-14 | 京セラ株式会社 | 電磁波検出装置および情報取得システム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997001111A2 (fr) * | 1995-06-22 | 1997-01-09 | 3Dv Systems Ltd. | Camera perfectionnee a telemetrie optique |
DE19619186C1 (de) * | 1996-05-02 | 1998-01-02 | Pco Computer Optics Gmbh | Verfahren sowie System zur Erstellung eines Bildes |
WO2001018563A1 (fr) * | 1999-09-08 | 2001-03-15 | 3Dv Systems, Ltd. | Systeme d'imagerie 3d |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3404396A1 (de) * | 1984-02-08 | 1985-08-14 | Dornier Gmbh, 7990 Friedrichshafen | Vorrichtung und verfahren zur aufnahme von entfernungsbildern |
IL114278A (en) * | 1995-06-22 | 2010-06-16 | Microsoft Internat Holdings B | Camera and method |
JP3631325B2 (ja) * | 1996-06-19 | 2005-03-23 | オリンパス株式会社 | 3次元画像入力装置 |
-
2001
- 2001-11-27 FR FR0115408A patent/FR2832892B1/fr not_active Expired - Fee Related
-
2002
- 2002-11-15 DE DE60239285T patent/DE60239285D1/de not_active Expired - Lifetime
- 2002-11-15 JP JP2003548526A patent/JP4825401B2/ja not_active Expired - Fee Related
- 2002-11-15 WO PCT/EP2002/012853 patent/WO2003047241A1/fr active Application Filing
- 2002-11-15 US US10/496,740 patent/US7259375B2/en not_active Expired - Lifetime
- 2002-11-15 EP EP02781318A patent/EP1449358B1/fr not_active Expired - Lifetime
-
2009
- 2009-03-27 JP JP2009079451A patent/JP4965597B2/ja not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997001111A2 (fr) * | 1995-06-22 | 1997-01-09 | 3Dv Systems Ltd. | Camera perfectionnee a telemetrie optique |
DE19619186C1 (de) * | 1996-05-02 | 1998-01-02 | Pco Computer Optics Gmbh | Verfahren sowie System zur Erstellung eines Bildes |
WO2001018563A1 (fr) * | 1999-09-08 | 2001-03-15 | 3Dv Systems, Ltd. | Systeme d'imagerie 3d |
Non-Patent Citations (2)
Title |
---|
IDDAN G J ET AL: "3D IMAGING IN THE STUDIO (AND ELSEWHERE...)", PROCEEDINGS OF THE SPIE, SPIE, BELLINGHAM, VA, US, no. 4298, 24 January 2001 (2001-01-24), pages 48 - 55, XP008005351 * |
KAWAKITA M ET AL: "AXI-VISION CAMERA: A THREE-DIMENSION CAMERA", PROCEEDINGS OF THE SPIE, SPIE, BELLINGHAM, VA, US, vol. 3958, 2000, pages 61 - 70, XP000987367 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9682320B2 (en) | 2002-07-22 | 2017-06-20 | Sony Interactive Entertainment Inc. | Inertially trackable hand-held controller |
US7102615B2 (en) | 2002-07-27 | 2006-09-05 | Sony Computer Entertainment Inc. | Man-machine interface using a deformable device |
US11010971B2 (en) | 2003-05-29 | 2021-05-18 | Sony Interactive Entertainment Inc. | User-driven three-dimensional interactive gaming environment |
WO2005074257A1 (fr) * | 2004-01-16 | 2005-08-11 | Sony Computer Entertainment Inc. | Procede et appareil d'optimisation des parametres d'un dispositif de capture par le biais d'informations de profondeur |
EP2290949A3 (fr) * | 2004-01-16 | 2013-09-25 | Sony Computer Entertainment Inc. | Procédé et appareil pour optimiser les paramètres de dispositif de capture par des informations de profondeur |
EP2408193A3 (fr) * | 2004-04-16 | 2014-01-15 | James A. Aman | Caméra pour lumière visible et non-visible pour imagerie vidéo et suivi d'objets |
US8395658B2 (en) | 2006-09-07 | 2013-03-12 | Sony Computer Entertainment Inc. | Touch screen-like user interface that does not require actual touching |
USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
Also Published As
Publication number | Publication date |
---|---|
US20050077470A1 (en) | 2005-04-14 |
JP2009147987A (ja) | 2009-07-02 |
EP1449358B1 (fr) | 2011-02-23 |
JP4965597B2 (ja) | 2012-07-04 |
DE60239285D1 (de) | 2011-04-07 |
JP2005521276A (ja) | 2005-07-14 |
EP1449358A1 (fr) | 2004-08-25 |
JP4825401B2 (ja) | 2011-11-30 |
US7259375B2 (en) | 2007-08-21 |
WO2003047241A1 (fr) | 2003-06-05 |
FR2832892B1 (fr) | 2004-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2832892A1 (fr) | Camera video d'effets speciaux | |
EP0567385B1 (fr) | Dispositif d'acquisition d'images d'un objet | |
FR2904435A1 (fr) | Sonde endoscopique integrant un objectif ayant un encombrement reduit | |
FR2519501A1 (fr) | Systeme de television stereoscopique | |
CH644727A5 (fr) | Procede et installation de prise de vue et de reproduction stereoscopique de signaux de television. | |
FR2910770A1 (fr) | Dispositif pour permettre une communication par visioconference et procede de communication associe. | |
CA2387066A1 (fr) | Ensemble d'interface entre un utilisateur et un dispositif electronique | |
FR2581771A2 (fr) | Appareil de projection et de retroprojection de diapositives avec effet de fondu enchaine | |
EP0123610B1 (fr) | Appareil de projection d'images vidéo en couleurs sur un écran de grandes dimensions | |
FR2556543A1 (fr) | Appareil de separation de signal de couleur | |
EP0114553A1 (fr) | Projecteur d'images de télévision en couleurs | |
WO2007017582A2 (fr) | Camera rapide intelligente | |
FR2749944A1 (fr) | Appareil de lecture d'images | |
EP0809408A1 (fr) | Caméra à effets spéciaux | |
FR2589300A1 (fr) | Dispositif permettant de transformer une representation d'une image en couleur en un signal electrique, et inversement | |
EP1112653B1 (fr) | Camera cinevideo | |
EP3874329B1 (fr) | Imageur electronique et procédé associé | |
EP4208753A1 (fr) | Procede d'acquisition d'un portrait photographique d'un individu et installation mettant en oeuvre ce procede | |
WO1992001205A1 (fr) | Appareil de projection et de prise d'images pour la determination de la forme tridimensionnelle d'un objet | |
EP0848282B1 (fr) | Cabines de reproduction photographique | |
FR2695217A1 (fr) | Appareil d'émission de lumière d'appoint. | |
BE484631A (fr) | ||
FR2606168A1 (fr) | Projecteur de vues stereoscopiques | |
CH513421A (fr) | Procédé de formation d'une image cinématographique | |
FR2474262A1 (fr) | Camera de television du type mono-tube a analyse sequentielle des couleurs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |
Effective date: 20110801 |