FR3090522A1 - Procédé pour éviter l’éblouissement de personne(s) par une source lumineuse - Google Patents

Procédé pour éviter l’éblouissement de personne(s) par une source lumineuse Download PDF

Info

Publication number
FR3090522A1
FR3090522A1 FR1914579A FR1914579A FR3090522A1 FR 3090522 A1 FR3090522 A1 FR 3090522A1 FR 1914579 A FR1914579 A FR 1914579A FR 1914579 A FR1914579 A FR 1914579A FR 3090522 A1 FR3090522 A1 FR 3090522A1
Authority
FR
France
Prior art keywords
image
camera
person
light source
beam cone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1914579A
Other languages
English (en)
Other versions
FR3090522B1 (fr
Inventor
Martin Bachhuber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diehl Aerospace GmbH
Original Assignee
Diehl Aerospace GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Diehl Aerospace GmbH filed Critical Diehl Aerospace GmbH
Publication of FR3090522A1 publication Critical patent/FR3090522A1/fr
Application granted granted Critical
Publication of FR3090522B1 publication Critical patent/FR3090522B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D11/00Passenger or crew accommodation; Flight-deck installations not otherwise provided for
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D11/00Passenger or crew accommodation; Flight-deck installations not otherwise provided for
    • B64D11/0015Arrangements for entertainment or communications, e.g. radio, television
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/70Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose
    • B60Q3/72Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose for preventing the driver from being dazzled
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/40Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors specially adapted for specific vehicle types
    • B60Q3/41Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors specially adapted for specific vehicle types for mass transit vehicles, e.g. buses
    • B60Q3/43General lighting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60JWINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
    • B60J3/00Antiglare equipment associated with windows or windscreens; Sun visors for vehicles
    • B60J3/04Antiglare equipment associated with windows or windscreens; Sun visors for vehicles adjustable in transparency
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D11/00Passenger or crew accommodation; Flight-deck installations not otherwise provided for
    • B64D2011/0038Illumination systems for cabins as a whole
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D11/00Passenger or crew accommodation; Flight-deck installations not otherwise provided for
    • B64D2011/0061Windows displaying outside view, artificially generated
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D2203/00Aircraft or airfield lights using LEDs
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2106/00Interior vehicle lighting devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2107/00Use or application of lighting devices on or in particular types of vehicles
    • F21W2107/30Use or application of lighting devices on or in particular types of vehicles for aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Refuge Islands, Traffic Blockers, Or Guard Fence (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Arrangements Of Lighting Devices For Vehicle Interiors, Mounting And Supporting Thereof, Circuits Therefore (AREA)

Abstract

Procédé pour éviter l’éblouissement de personne(s) par une source lumineuse Dans un procédé pour empêcher l’éblouissement d’une personne (10) par une source lumineuse (6) disposée dans un espace intérieur (20) d’un véhicule (22), la source lumineuse (6) émettant, en fonctionnement, une lumière (24) à l’intérieur d’un cône de faisceau (26), une caméra (4) est disposée dans l’espace intérieur (20) et orientée de telle sorte qu’au moins une section de surveillance (28) du cône de faisceau (26), dans lequel la personne (10) peut entrer, se situe dans le champ de vision (30) de la caméra (4), la caméra (4) prend une image de caméra (32), on détermine à partir de l’image de caméra (32), par reconnaissance automatique de personnes, si au moins une partie de la personne (10) se trouve dans le cône de faisceau (26) et, si tel est le cas, au moins la zone (18) du cône de faisceau (26) dans laquelle se trouve la partie de la personne (10) est rendue non éblouissante. Figure à publier avec l’abrégé : Fig. 3

Description

Description
Titre de l'invention : Procédé pour éviter l’éblouissement de personne(s) par une source lumineuse
[0001] L’invention concerne l’éblouissement d’une personne par une source lumineuse, la source lumineuse étant disposée dans un espace intérieur d’un véhicule.
[0002] On connaît du document DE 10 2016 006 703 Al un projecteur destiné à produire une projection de lumière dans un espace intérieur d’un avion en tant que véhicule, en particulier dans la cabine de passagers en tant qu’espace intérieur. Dans la pratique, il faut éviter que des personnes, par exemple les passagers d’un avion, soient éblouies par la lumière émise par le projecteur.
[0003] Le but de l’invention est donc d’améliorer la situation avec de telles sources lumineuses.
[0004] Le but de l’invention est atteint par un procédé pour éviter l’éblouissement d’une personne par une source lumineuse disposée dans un espace intérieur d’un véhicule, la source lumineuse émettant, en fonctionnement, une lumière à l’intérieur d’un cône de faisceau, dans lequel :
- une caméra est disposée dans l’espace intérieur et orientée de telle sorte qu’au moins une section de surveillance du cône de faisceau, dans lequel la personne peut entrer, se situe dans le champ de vision de la caméra,
- la caméra prend une image de caméra,
- on détermine à partir de l’image de caméra, par reconnaissance automatique de personnes, si au moins une partie de la personne se trouve dans le cône de faisceau,
- dans un tel cas, au moins la zone du cône de faisceau dans laquelle se trouve la partie de la personne est rendue non éblouissante.
[0005] En accord avec une ou plusieurs caractéristiques ou variantes de réalisation possibles de l’invention, cette dernière peut en outre prévoir que : - l’ensemble du cône de faisceau soit rendu non éblouissant si au moins une partie de la personne se trouve dans le cône de faisceau,
- la zone du cône de faisceau soit rendue non éblouissante en rendant non éblouissante ou en éteignant la source lumineuse pour la zone,
- le cône de faisceau soit dirigé vers une surface cible de l’espace intérieur et la caméra soit orientée de telle sorte qu’au moins une zone partielle de la surface cible soit située dans le champ de vision de la caméra,
- la zone partielle de la surface cible couverte par la caméra ne soit pas prise en compte lors de la vision par ordinateur uniquement en ce qui concerne des contenus d’image générés par la source lumineuse sous la forme de personnes et/ou de mouvements et/ou d’éléments d’image de type humain,
- la zone partielle de la surface cible couverte par la caméra ne soit pas prise en compte lors de la vision par ordinateur,
- la caméra soit alignée de telle sorte qu’un environnement du cône de faisceau se situe également dans le champ de vision de la caméra,
- la caméra soit placée à côté de la source lumineuse,
- une vision par ordinateur et/ou une reconnaissance de visage et/ou une reconnaissance de textures et/ou une détection de mouvement soient réalisées dans le cadre de la reconnaissance automatique de personnes.
[0006] Selon un autre aspect, l’invention vise également l’utilisation de la reconnaissance automatique de personnes dans un procédé tel qu’évoqué ci-dessus.
[0007] Ainsi, le procédé selon l’invention sert à éviter qu’une personne ne soit éblouie par une source lumineuse. La source lumineuse est située dans un espace intérieur d’un véhicule et émet, en fonctionnement, une lumière à l’intérieur d’un cône de faisceau. Dans ce procédé, une caméra est disposée dans l’espace intérieur et orientée de telle sorte qu’au moins une section de surveillance, c’est-à-dire une section du cône de faisceau dans laquelle la ou une personne peut ou pourrait entrer, se situe dans le champ de vision de la caméra.
[0008] La caméra prend ensuite une image de caméra. On détermine ensuite à partir de l’image de caméra, par reconnaissance automatique de personnes, si au moins une partie de la personne se trouve dans le cône de faisceau ou dans la section de surveillance. Si au moins la partie de la personne se trouve dans le cône de faisceau ou la section de surveillance, au moins la zone du cône de faisceau dans laquelle se trouve la partie de la personne est rendue non éblouissante.
[0009] Le procédé concerne des personnes qui se trouvent dans l’espace intérieur du véhicule et peuvent potentiellement entrer dans le cône de faisceau et ainsi courir le risque d’être éblouies par la source lumineuse. La source lumineuse est en particulier un projecteur. La source lumineuse est en particulier montée dans l’espace intérieur.
[0010] Le cône de faisceau décrit la zone d’espace dans laquelle la source lumineuse peut potentiellement émettre de la lumière. En fonction de la source lumineuse et de l’état de fonctionnement, un rayonnement lumineux effectif a alors lieu entièrement ou partiellement à l’intérieur du cône de faisceau. Un « cône » doit être ici compris dans un sens mathématique large comme un corps ayant une surface de base de forme quelconque, le cône présente en particulier une surface de base rectangulaire qui correspond au contenu d’image maximal représenté sur une surface cible d’un projecteur utilisé comme source lumineuse.
[0011] Grâce au procédé, il est possible de détecter, par reconnaissance automatique de personnes, si une personne se trouve dans le cône de faisceau de la source lumineuse et serait donc éblouie en cas de fonctionnement normal de la source lumineuse.
L’éblouissement effectif est cependant évité en rendant le cône de faisceau non éblouissant au moins à l’emplacement de la personne, au moins au niveau de sa tête, au moins de ses yeux.
[0012] « Rendre non éblouissant » signifie que l’intensité de la lumière provenant de la source lumineuse est limitée à un maximum qui n’est plus perçu comme un « éblouissement » par la personne. Par exemple, on peut faire l’hypothèse d’une perception moyenne. Une luminosité réduite en conséquence peut être déterminée individuellement en fonction des propriétés de la source lumineuse, de la situation de montage, de la distance minimale prévue entre d’éventuelles personnes et la source lumineuse, etc., par exemple pas des essais, des estimations, etc. L’intensité lumineuse peut, par exemple, être choisie dans la plage de moins de 3, pas plus de 4, pas plus de 5, pas plus de 6, pas plus de 7, pas plus de 8 ou pas plus de 9 sur l’échelle de De Boer (voir entre autres : « Blendung - Theoretischer Hintergrund, Informationen des Instituts fur Arbeitsschutz der DGUV » - Eblouissement - Arrière-plan théorique, Informations de l’institut pour la sécurité au travail du DGUV -, IFA Institut allemand pour la sécurité au travail de l’Assurance allemande légale contre les accidents, mai 2010, page 9, tableau 1, consulté sur « https://www.dguv.de/ medien/ ifa/ de/ fac/ strahl/ pdf/ blendung_theorie.pdf » le 30.10.2018).
[0013] Dans un mode de réalisation préféré, l’ensemble du cône de faisceau est rendu non éblouissant si au moins une partie de la personne se trouve dans le cône de faisceau. Cela est particulièrement simple car le cône de faisceau dans son ensemble ou la source lumineuse pour l’ensemble du cône de faisceau devient non éblouissant(e). Un fonctionnement sélectif ou une extinction ou atténuation sélective de la source lumineuse pour certaines parties du cône de faisceau est ainsi évité(e).
[0014] Dans un mode de réalisation préféré, la zone du cône de faisceau est rendue non éblouissante en ne rendant non éblouissante ou en n’éteignant la source lumineuse que pour la zone concernée. La zone est alors celle de la personne, par exemple son contour, sa tête ou ses yeux. La luminosité de la source lumineuse donc est réduite localement à un niveau non éblouissant ou mise à zéro. Une commutation correspondante dans un état non éblouissant de la source lumineuse peut être effectuée particulièrement simplement.
[0015] Dans un mode de réalisation préféré, le cône de faisceau est dirigé vers une surface cible de l’espace intérieur et la caméra est orientée de telle sorte qu’au moins une zone partielle de la surface cible soit située dans le champ de vision de la caméra. En particulier, le champ de vision de la caméra contient au moins une zone partielle de la surface cible et, en particulier, également une part restante qui ne reproduit pas la surface cible. Le cône de faisceau de la source lumineuse se termine à la surface cible. Dans la pratique, on peut imaginer de nombreuses situations dans lesquelles des personnes sont, de manière conforme, potentiellement plus susceptibles de séjourner dans la zone de la surface cible que dans la zone de la source lumineuse et sont donc exposées au risque d’éblouissement. Le présent mode de réalisation permet de traiter de telles situations de manière particulièrement efficace.
[0016] La surface cible est en particulier le compartiment à bagages (coffre) d’une cabine de passagers d’un avion. Celui-ci est généralement situé à hauteur de la tête des personnes adultes de taille moyenne. Le risque d’éblouissement est donc particulièrement élevé.
[0017] Dans une variante préférée de ce mode de réalisation, en particulier l’ensemble ou toute la zone partielle de la surface cible couverte par la caméra n’est pas prise en compte lors de la vision par ordinateur ou de la reconnaissance automatique de personnes. En particulier, celle-ci n’est pas du tout prise en compte. En particulier, seule la part restante de l’image de caméra qui ne correspond pas à la zone partielle est évaluée, c’est-à-dire en particulier un environnement de la zone partielle ou une autre zone adjacente à la zone partielle.
[0018] En particulier, dans une autre variante, toute la zone partielle de la surface cible n’est pas prise en compte, mais seulement une partie de celle-ci, en particulier la zone partielle n’est pas complètement ignorée, à savoir une zone partielle avec des personnes et/ou des mouvements faisant partie du contenu d’image représenté sur la surface cible par la source lumineuse, en particulier un projecteur. Ainsi, on évite en général - ou dans cette variante précisément - que des personnes et/ou des mouvements qui font partie du contenu d’image généré par la source lumineuse, soient détectés à tort comme des parties de personnes risquant d’être éblouies. En particulier, la totalité de la surface cible éclairée par la source lumineuse peut ne pas être prise en compte lors de la vision par ordinateur ou de la reconnaissance automatique de personnes. Cela est particulièrement simple à réaliser.
[0019] En variante, seules les parties de la surface cible sur lesquelles des contenus d’image correspondants sont représentés sont exclues de la vision par ordinateur ou de la reconnaissance automatique de personnes. Cependant, il est toujours possible de détecter des personnes réelles qui se trouvent dans le cône de faisceau de la source lumineuse. En particulier, la partie d’une personne représentée sur la surface cible par la source lumineuse est donc ici détectée comme faisant partie du contenu d’image et le cône de faisceau n’est pas rendu non éblouissant dans ce cas.
[0020] Dans un mode de réalisation préféré, la caméra est orientée de telle sorte qu’un environnement du cône de faisceau (adjacent au cône de faisceau) se situe également dans le champ de vision de la caméra. Cela permet de détecter également des personnes dès qu’elles s’approchent du cône de faisceau. Le cône de faisceau peut ainsi être aveuglé par précaution avant que la personne n’y entre. Un éblouissement peut donc être évité à tout moment. Une personne qui entre dans le cône de faisceau peut également être extrapolée dans celui-ci si la surface cible (par exemple pour cause de contenus d’image représentant des personnes, etc., voir ci-dessus) est exclue de la détection de personnes.
[0021] Dans un mode de réalisation préféré, la caméra est placée à côté de la source lumineuse. Cette position de montage d’une caméra est particulièrement favorable, car ainsi le cône de faisceau et/ou, le cas échéant, la surface cible ou la partie de la surface cible éclairée par la source lumineuse peuvent être complètement ou aussi complètement que possible capturés par la caméra.
[0022] Dans un mode de réalisation préféré, une vision par ordinateur et/ou une reconnaissance de visage et/ou une reconnaissance de textures et/ou une détection de mouvement sont réalisées dans le cadre de la reconnaissance automatique de personnes. Les procédés correspondants sont particulièrement adaptés à la reconnaissance automatique de personnes.
[0023] Le but de l’invention est aussi atteint par une utilisation de la reconnaissance automatique de personnes dans un procédé tel que décrit ci-dessus. L’utilisation et au moins une partie de ses modes de réalisation ainsi que les avantages respectifs ont déjà été expliqués de manière analogue en relation avec le procédé selon l’invention.
[0024] L’invention est basée sur les constatations, observations ou considérations suivantes et présente encore les modes de réalisation suivants. Par souci de simplicité, les modes de réalisation sont parfois aussi appelés « l’invention ». Les modes de réalisation peuvent également contenir des parties ou des combinaisons des modes de réalisation mentionnés ci-dessus ou correspondre à ceux-ci et/ou, le cas échéant, inclure des modes de réalisation non mentionnés précédemment.
[0025] L’invention est basée sur l’idée d’intégrer des sources lumineuses (projecteurs) dans la cabine d’avion afin de projeter de la lumière (des images) sur une surface cible (les surfaces, par exemple, de compartiments à bagages ou de monuments). Dans de nombreux scénarios d’intégration, il n’est pas possible d’éviter que des passagers se déplacent dans le faisceau lumineux du projecteur et soient potentiellement éblouis (situation de ligne de mire). Afin de pouvoir néanmoins utiliser ces scénarios d’intégration sans influencer négativement le passager, l’invention propose un procédé qui éteint ou atténue le faisceau lumineux en fonction de la situation lorsqu’un passager entre dans la zone d’éblouissement. Dans ce contexte, le terme « atténuer » peut en particulier signifier aussi que le faisceau lumineux n’est éteint localement dans la zone du visage que lorsqu’un visage est détecté.
[0026] L’invention est basée sur la considération que celle-ci devrait aller au-delà d’un simple évitement de la situation d’éblouissement, c’est-à-dire par une intégration cor6 respondante des projecteurs.
[0027] L’invention est basée sur l’idée de résoudre le problème par l’utilisation de la vision par ordinateur. Pour ce faire, une caméra est installée en plus du système projecteursurface cible, laquelle peut capturer la zone de l’image projetée et son environnement proche. A l’aide de divers procédés tels que la reconnaissance de visage, la reconnaissance de textures ou la détection de mouvement, on détermine si une personne se trouve dans la zone à risque d’éblouissement (en particulier dans le cône de faisceau). Selon le procédé, il est possible de désactiver l’ensemble de la source lumineuse ou de masquer la zone d’image concernée qui provoquerait un éblouissement. Il est également possible d’éviter que des personnes ou des mouvements qui existent dans le contenu d’image projeté soient détectés à tort comme une situation d’éblouissement et conduisent à l’extinction de la source lumineuse.
[0028] L’avantage du procédé décrit réside dans le fait qu’il permet également d’utiliser des surfaces cibles, des surfaces de projection ou des scénarios d’intégration (de façon générale des situations d’éclairage) qui, autrement, conduiraient à un éblouissement des passagers.
[0029] L’invention présente deux aspects centraux : premièrement, l’utilisation de la vision par ordinateur pour éviter l’éblouissement avec les systèmes de projection ou d’éclairage dans la cabine d’avion. Deuxièmement, éviter les fausses détections qui pourraient être causées par des éléments de type humain dans le contenu d’image projeté.
[0030] Selon l’invention, une fonctionnalité a été développée dans le domaine de la commande de systèmes de projection pour détecter par caméra si une personne est éblouie par le projecteur. En cas d’éblouissement, le projecteur doit être désactivé ou la zone correspondante de l’image doit être masquée. L’invention décrit ainsi un évitement régulé par caméra de l’éblouissement des personnes.
[0031] Selon l’invention, on évite l’éblouissement des passagers par reconnaissance automatique de personnes. Un éblouissement possible des passagers par des projecteurs/ sources lumineuses dans la cabine d’avion est évité ou réduit par reconnaissance automatique de personnes, en particulier par vision par ordinateur (computer vision).
[0032] D’autres caractéristiques, effets et avantages de l’invention résultent de la description ci-après d’un exemple de réalisation préféré de l’invention ainsi que des figures jointes. Ces dernières montrent, chaque fois sur un dessin de principe schématique :
[0033] [fig-1] des masques de convolution selon l’état de la technique (cf. Viola & Jones,
2001 ci-après),
[0034] [fig.2] une cascade de classificateurs selon l’état de la technique (cf. Viola & Jones,
2001 ci-après),
[0035] [fig.3] un schéma d’un montage expérimental selon l’invention,
[0036] [fig-4] une vue spatiale du montage expérimental sur la figure 1,
[0037] [fig-5] une représentation de correspondances,
[0038] [fig.6] une image de différence dans la projection,
[0039] [fig-7] une image de différence autour de la projection,
[0040] [fig.8] une image de caractéristiques,
[0041] [fig.9] une image de structures,
[0042] [fig.10] une reconnaissance de visage.
[0043] Selon l’invention, un système reconnaît quand une personne se trouve entre un projecteur et la surface projetée par ce projecteur. Cela est utile pour éviter un éblouissement désagréable de la personne. Par conséquent, dans un tel cas, le but est d’éteindre le projecteur ou, dans une autre version, d’éteindre les zones du projecteur dans lesquelles la personne se trouve.
[0044] Pour ce faire, plusieurs approches sont suivies, chacune étant adaptée différemment aux conditions dans la cabine d’avion, car il y a de nombreuses limites au traitement d’image en raison des vibrations et des changements de luminosité.
[0045] Nous commencerons par présenter les bases théoriques du traitement d’image pour les différentes approches. Ensuite, un montage expérimental avec les composants et logiciels utilisés sera décrit. Sur cette base, cinq approches « Détection dans la projection », « Détection autour de la projection » avec image de différence, reconnaissance de caractéristiques et de structures et « Détection par reconnaissance de visage » seront expliquées. Enfin, nous évaluerons les résultats des différentes approches.
[0046] Bases :
[0047] Reconnaissance de caractéristiques :
[0048] Le but de la reconnaissance de caractéristiques est de retrouver une caractéristique d’image donnée dans une autre image. La reconnaissance doit être indépendante d’une translation, d’une rotation et d’une mise à l’échelle. Par conséquent, des points d’intérêt sont recherchés dans les deux images et comparés l’un à l’autre afin qu’une reconnaissance soit possible.
[0049] KAZE :
[0050] KAZE est un algorithme de reconnaissance de caractéristiques développé par Pablo P. Alcantarilla, Jesùs Nuevo et Adrien Bartoli. Il utilise la matrice de Hesse pour détecter les points d’intérêt. Il recherche les positions où le déterminant de la matrice de Hesse atteint un maximum local. Ces points sont fondamentalement intéressants car ils contiennent suffisamment de structure pour être retrouvés dans l’image de comparaison. En outre, un espace d’échelles est généré pour permettre une invariance de mise à l’échelle. Un espace d’échelles signifie que l’image de départ est filtrée plusieurs fois avec des tailles de filtre différentes et donc que l’image est disponible à plusieurs échelles. Pour qu’une reconnaissance soit possible dans l’image de comparaison, on a besoin d’une description de ces points d’intérêt. Pour ce faire, on utilise un vecteur de caractéristiques à 64 dimensions qui se compose d’informations de luminosité et de gradient et qui est invariant par rapport à une mise à l’échelle, une rotation et un déplacement. Un algorithme de recherche est ensuite utilisé pour établir une correspondance entre l’image de départ et l’image de comparaison. (Alcantarilla, Nuevo, & Bartoli, 2012).
[0051] Ransac :
[0052] On utilise le procédé RANSAC pour minimiser les erreurs d’association. Un sousensemble aléatoire est sélectionné parmi toutes les associations et le nombre d’associations qui concordent avec cette solution est déterminé. Si on a trouvé un sousensemble qui ne contient pas de valeurs aberrantes, cette quantité est particulièrement élevée. (Kunz, Bildverarbeitung SS 2016 chapitre 20, 2016)
[0053] Image de différence :
[0054] Pour obtenir une image de différence, on soustrait deux images l’une de l’autre pixel par pixel. Pour ce faire, des images en valeurs de gris sont nécessaires. g (x,y) =gl(x, y) -g2(x, y)
[0055] avec gl(x,y), g2(x,y) = image d’entrée et g’(x,y) = image de sortie.
[0056] Cette méthode permet de déterminer les différences entre deux images. Comme, dans le traitement d’image, un mouvement correspond à une modification des valeurs de gris, cette méthode permet également de détecter un mouvement. Si l’on prend pour gl(x,y) l’image avec la personne et pour g2(x,y) une image sans la personne, cela signifie que toutes les valeurs de pixels non nulles présentent un changement (Erhardt, 2008). Si l’on fixe maintenant une valeur seuil et que l’on binarise l’image de sortie nouvellement créée, on obtient un masque en noir et blanc qui ne montre que les changements.
[0057] Etant donné qu’un changement de la luminosité et un mouvement de la caméra entraînent également une modification de la valeur de gris, ce procédé n’est pas robuste vis-à-vis des changements de luminosité et des mouvements de la caméra.
[0058] Mélange de gaussiennes :
[0059] Pour compenser des changements dans l’image d’arrière-plan et les vibrations, on peut rendre le modèle d’arrière-plan adaptatif. OpenCV fournit à cet effet le procédé d’image de différence étendu « mélange de gaussiennes » (MOG). Il est basé sur l’article de Chris Stauffer et W.E.L. Grimson (Chris Stauffer, 1999). Ce procédé est très bien adapté aux changements constants de l’arrière-plan causés par des changements de luminosité ou des mouvements, par exemple pour la prise de photos d’arbres se balançant dans le vent ou du mouvement des vagues dans la mer.
[0060] Ce procédé fait intervenir la fréquence des valeurs de chaque pixel individuel des images précédentes dans le calcul d’un modèle d’arrière-plan. Ces valeurs déjà acquises sont considérées comme des variables aléatoires à distribution normale et représentées sous la forme d’une distribution gaussienne. Les différentes valeurs d’un pixel ont des distributions gaussiennes différentes. La probabilité d’observer ou non un pixel se calcule à l’aide de la formule :D / v \ V λ , ,, v \ 1 P(Xt) L
[0061] dans laquelle K est le nombre de distributions, la pondération et (X, E t, Σ, t) la fonction de densité de probabilité gaussienne. Les nouvelles valeurs de pixels sont maintenant comparées de façon permanente avec les distributions gaussiennes jusqu’à ce qu’un résultat positif soit trouvé. Un résultat positif est défini comme une valeur de pixel à l’intérieur de l’écart-type de 2,5. Si aucun résultat positif n’est trouvé, la distribution qui correspond le moins est remplacée par la distribution actuelle et la pondération est adaptée. Cela permet d’inclure des changements tels que la lumière ou les vibrations dans le modèle d’arrière-plan.
[0062] Pour classifier si un pixel appartient à l’image d’avant-plan ou d’arrière-plan, les distributions gaussiennes sont triées selon leur probabilité. Les distributions à probabilité élevée, qui sont supérieures à une valeur seuil, sont considérées comme arrière-plan et celles qui sont inférieures comme avant-plan.
[0063] Textures d’image :
[0064] La méthode « Laws Texture Energy Measurement » (Laws, 1980) peut servir de base à la reconnaissance des structures. Elle a été développée dans le but d’analyser la structure dans des images et d’indiquer combien d’énergie celle-ci contient. L’image est convoluée avec un masque de convolution 5x5 pour faire ressortir les structures. Pour convoluer une image, on utilise la formule de convolution suivante : %=Σ“ Σ ah. , . f
[0065] Concrètement, une convolution signifie que, dans l’image d’entrée, chaque point k est traité avec un masque de convolution. Le produit est formé à chaque point du masque, celui-ci est additionné et ensuite écrit dans l’image de sortie à la position k dans l’image de sortie.
[0066] Le masque de convolution utilisé dans Law est calculé à partir de différents vecteurs qui peuvent être combinés pour des contenus d’image respectifs (ci-dessous : « level » = « niveau » ; « edge » = « arête » ; « spot » = « point » ; « ripple » = « structure ondulée »). L5 (Level) = [ 1 4 6 4 1 ]
E5 (Edge)= [ .12 2 () 2 1 ] 55 (Spot) =[-1020- 1 ] R5 (Ripple) =[1-46-41]
[0067] Le vecteur L5 calcule la valeur moyenne locale, E5 détecte les arêtes, S5 les points et R5 est adapté aux structures ondulées. Si l’on forme le produit à partir de deux de ces vecteurs, on obtient un masque de convolution bidimensionnel qui convolue une image de départ en fonction des propriétés vectorielles respectives et, après binarisation consécutive, on obtient une image binaire qui ne montre que les structures de l’image.
[0068] Reconnaissance de visage :
[0069] La reconnaissance de visage (en anglais face detection) consiste à analyser différentes caractéristiques dans des images numériques afin de reconnaître des visages. L’un des procédés les plus courants est l’implémentation OpenCV basée sur une reconnaissance de formes avec des données d’apprentissage qui est décrite dans l’article « Rapid Object Detection using a Boosted Cascade of Simple Leatures » (détection rapide d’objets utilisant une cascade amplifiée de caractéristiques simples) publié par Paul Viola et Michael Jones (Viola & Jones, 2001). Cet algorithme permet un calcul rapide avec un faible taux d’erreur, de sorte qu’une détection robuste en temps quasi réel est possible.
[0070] Pour la reconnaissance de formes pour les visages d’après Viola et Jones, il faut d’abord générer des données d’apprentissage. On utilise à la fois des images positives, c’est-à-dire des images montrant des visages, et des images négatives, c’est-à-dire des images sans visages. Pour l’analyse, on effectue une convolution avec des ondelettes de Haar à différentes échelles (convolution : voir ci-dessus textures d’image). Les ondelettes de Haar sont des masques de convolution simples qui sont formés à partir de fonctions portes, voir figure 1 Masques de convolution 40a,b (Viola & Jones, 2001) pour l’application à une représentation d’une personne 10. Pour la convolution, on soustrait la somme des rectangles noirs de la somme des rectangles blancs dans un extrait de 24x24 pixels. Pour optimiser ce processus, les calculs sont effectués avec une image intégrale. Dans une image intégrale, les valeurs individuelles des pixels sont additionnées. Il est ainsi possible d’obtenir la somme des extraits individuels avec seulement quatre opérations arithmétiques. Pour ne trouver que des valeurs utiles parmi le grand nombre de valeurs calculées, Viola et Jones utilisent l’algorithme Adaboost pour l’apprentissage automatique. Des classificateurs sont créés à partir d’images positives et négatives et des caractéristiques qu’elles contiennent. Dans le procédé adaptatif étendu, des classificateurs simples sont en outre combinés en un seul classificateur.
[0071] A l’aide des données d’apprentissage générées, il est maintenant possible de détecter des visages. Pour ce faire, l’extrait d’image passe par une cascade de classificateurs (en anglais Cascade of Classifiers) qui décident, à partir des données de caractéristiques calculées, s’il s’agit d’une image négative (« P ») ou positive (« T »). La figure 2 montre une cascade (« 1 », « 2 », « 3 ») des classificateurs (Viola & Jones, 2001) avec l’étape A « All Sub-Windows » (« toutes les sous-fenêtres »), l’étape B « Lurther Processing » (« traitement supplémentaire ») et l’étape C « Reject Sub-Window » (« rejeter la sous-fenêtre »).
[0072] Montage expérimental :
[0073] Environnement de développement :
[0074] Pour implémenter le système, on utilise le langage de programmation C++ dans l’environnement de développement Eclipse. La mise en œuvre du traitement d’image est réalisée par le framework OpenCV. Les tutoriels de la documentation OpenCV servent de base aux procédés AKAZE et d’image de différence. (Alcantarilla, Nuevo, & Bartoli, 2012) (How to Use Background Subtraction Methods - Comment utiliser des méthodes de soustraction d’arrière-plan -, 2017).
[0075] Montage :
[0076] Pour tester le système, on utilise un montage expérimental selon la figure 3 (schéma de principe) et la figure 4 (vue). Celui-ci contient une surface cible 2, ici une surface de projection sur un coffre (compartiment à bagages) ou un panneau dans un espace intérieur 20, ici une cabine de passagers d’un véhicule 22, ici d’un avion. Le montage contient également une caméra 4 sous la forme d’une webcam, une source lumineuse 6 sous la forme d’un projecteur et un ordinateur 8, ici un ordinateur portable. La caméra 4 est placée à côté de la source lumineuse 6 ou du projecteur. Le projecteur génère une lumière 24 à l’intérieur d’un cône de faisceau 26 et donc l’image 14b (projetée sur la surface cible 2). Celle-ci a un certain contenu d’image 15, ici un paysage avec ciel. La caméra 4 capture l’image 14b générée (ou la totalité du cône de faisceau 26 atteignant la surface cible 2) et un environnement 17, c’est-à-dire une zone d’évaluation supplémentaire plus grande. La caméra 4 capture ainsi avec son champ de vision 30 une section de surveillance 28 du cône de faisceau 26, la caméra 4 prend à cet effet une image de caméra 32.
[0077] L’ordinateur 8 commande le projecteur, génère le signal vidéo et évalue l’image de caméra 32 par reconnaissance automatique de personnes pour déterminer si une personne 10 ou une partie de cette personne se trouve dans le cône de faisceau 26. Les appareils de test sont le projecteur LED Optoma ML750ST et la webcam Logitech C920. Ceux-ci sont amenés à la hauteur d’un coffre à bagages (surface cible 2) et orientés vers celui-ci dans un dispositif de test à l’aide de deux trépieds. Il faut noter que l’autofocus de la caméra est désactivé. Pendant la phase de développement, des vidéos sont enregistrées à des fins de test. Pour cela (indiqué par la flèche 12), une personne 10 traverse la projection et, pendant ce temps, le projecteur 6 est éteint et rallumé (complètement ou localement) ou rendu non éblouissant. Lors du test du système, le projecteur 6 en tant qu’écran étendu et la webcam 4 sont raccordés à un ordinateur portable (ordinateur 8) sur lequel le code de programme est exécuté. La fenêtre générée par OpenCV pour les contenus à représenter sur le projecteur 6 est ouverte en mode plein écran sur l’écran étendu.
[0078] Lorsqu’une partie de la personne 10 est détectée dans le cône de faisceau 26, sa zone 18, dans laquelle se trouve la partie de la personne 10, est rendue non éblouissante, ici éteinte. Dans la zone 18 correspondante, un contenu d’image « noir » de luminosité nulle est reproduit à la place de l’image 14a.
[0079] Approches testées :
[0080] Approche 1 : Détection à l’intérieur de l’image projetée
[0081] La reconnaissance d’une personne doit ici avoir lieu dans la projection, donc pas lorsque la personne est visible dans l’image de caméra, mais lorsqu’elle entre dans la projection. Pour déclencher la reconnaissance, on utilise le descripteur et détecteur de caractéristiques AKAZE pour trouver des correspondances entre l’image projetée par la caméra et l’image numérique existante. La figure 5 montre l’image numérique existante 14a et l’image projetée 14b ainsi que, au moyen de flèches, les caractéristiques correspondantes 16 (indiquées par des cercles) du contenu d’image 15, ici le paysage avec ciel.
[0082] Pour utiliser la méthode AKAZE, une valeur seuil pour le nombre de correspondances doit être définie au début. Si une personne entre dans la projection, le nombre de caractéristiques correspondantes tombe en dessous de la valeur seuil et on éteint le projecteur. Puisqu’il n’y a pas d’image à comparer, on utilise la méthode de l’image de différence pour vérifier si la personne se trouve toujours dans la projection. La figure 6 montre une image de différence dans la projection. Comme l’image est noire lorsqu’il n’y a personne dans l’image, on calcule simplement la valeur moyenne de l’image de différence et, si celle-ci augmente, un mouvement a lieu. L’image d’arrière-plan pour générer l’image de différence est créée immédiatement après le démarrage de l’application avec le projecteur éteint. Comme le cadrage de la webcam dépasse la surface projetée, il faut créer en plus un masque pour que seule la projection soit prise en compte et non la zone située en dehors. Ce masque est créé à l’aide du cadre 42 sur la figure 5 de la comparaison de caractéristiques AKAZE. Si maintenant la personne quitte cette zone, la projection est réactivée et le mode de comparaison de caractéristiques est réactivé.
[0083] Approche 2 : Détection à l’extérieur de l’image projetée
[0084] Dans cette approche, on cherche à détecter la personne à l’extérieur de la projection afin de désactiver le projecteur. Cela présente l’avantage que l’analyse a lieu indépendamment du contenu d’image projeté et donc que la reproduction de contenus d’image animés est possible. Cela doit être réalisé avec une image de différence, une reconnaissance de caractéristiques - comme dans l’approche 1 - et un filtrage de l’image à l’aide de noyaux de filtre selon « Laws Texture Energy Measurement » (lois de mesure de l’énergie de texture). Pour que le contenu d’image soit masqué, il faut exactement comme dans l’approche 1 - créer au début un masque par reconnaissance de caractéristiques. Dans ce cas, toutefois, l’objectif est de masquer le contenu d’image projeté.
[0085] Image de différence :
[0086] La première étape consiste à enregistrer l’image d’arrière-plan vide qui doit être soustraite de l’image de caméra actuelle. Cela se fait après la création du masque. Comme on applique la méthode du « mélange de gaussiennes », on utilise plusieurs images, ce qui rend plus robuste à l’égard de légères fluctuations dans le contenu d’image. On calcule ensuite la valeur moyenne de l’image vide pour définir une valeur seuil de reconnaissance. La valeur moyenne de l’image de différence est à présent calculée en permanence. Si une personne entre dans la projection ou dans le cadre de la projection, la valeur moyenne de l’image entière dépasse la valeur seuil et le projecteur est désactivé. Il en résulte une image de différence autour de la projection selon la figure 7 (procédé de l’image de différence). Sur cette figure, on peut également voir à gauche et à droite de la projection que la luminosité de l’image globale est modifiée par la désactivation de la projection. On essaie de compenser cela par l’apprentissage du procédé « mélange de gaussiennes » qui a pour but de détecter des changements de luminosité simples. Si la personne quitte l’image, la valeur seuil n’est plus dépassée et le projecteur est réactivé.
[0087] Les figures 7 à 10 montrent chacune la même image de caméra 32, évaluée / traitée par différents procédés. La personne 10 représentée ne fait pas partie du contenu d’image 15 de l’image 14b, mais se trouve en tant que personne réelle 10 dans le cône de faisceau 26.
[0088] Caractéristiques :
[0089] Ce procédé est basé sur la reconnaissance de caractéristiques AKAZE utilisée dans l’approche 1. Toutefois, dans ce cas, les caractéristiques sont recherchées en dehors de la projection. Ici aussi, une valeur seuil de l’image vide est calculée au début à partir du nombre de caractéristiques. Lorsqu’une personne entre dans l’image de caméra, le nombre de caractéristiques change. D’une part, des caractéristiques trouvées dans l’image vide sont cachées et d’autre part, en raison de la personne, plus de caractéristiques sont détectées.
[0090] Cette modification des caractéristiques par rapport à la valeur seuil entraîne la désactivation du projecteur. Comme la reconnaissance de caractéristiques est relativement robuste par rapport aux changements de luminosité, la variation de la luminosité due à l’extinction du projecteur n’exerce pas un grande influence sur le nombre de caractéristiques 16. Voir pour cela l’image de caractéristiques selon la figure 8.
[0091] Structure :
[0092] La reconnaissance de structures consiste à ne faire ressortir que les structures dans l’image par convolution selon la méthode « Laws Texture Energy Measurement » et binarisation consécutive. Ici aussi, on calcule avec l’image sans personne une valeur moyenne qui servira de valeur seuil. Si cette image est maintenant modifiée par une personne qui y entre, le projecteur est désactivé par dépassement de la valeur seuil et réactivé par passage sous la valeur seuil. Voir l’image de structures sur la figure 9 (procédé de l’image de structures).
[0093] Approche 3 : Reconnaissance de visage :
[0094] La reconnaissance de visage permet de détecter la position exacte de la personne et donc, contrairement aux autres approches, de ne pas désactiver tout le projecteur, mais seulement la zone dans laquelle se trouve le visage de la personne. Cette approche est implémentée à l’aide de l’algorithme de Viola et Jones. Un classificateur en cascade est initialisé avec des données d’apprentissage basées sur des ondelettes de Haar. Celui-ci recherche ensuite des visages dans les images de caméra. Si un visage est trouvé, il est marqué et on obtient les coordonnées de la position actuelle.
[0095] Cette position doit maintenant être transposée sur l’image projetée. Pour cela, on a besoin de la position de la projection dans l’image de caméra. Celle-ci est calculée au début avec une image test projetée et par reconnaissance de caractéristiques, voir figure 5. A partir de la position et de la taille du visage, de la projection et du rapport entre image de projection et projection dans l’image de caméra, il est maintenant possible de calculer les coordonnées où il faut créer un cercle noir.
[0096] Ces coordonnées permettent de créer un cercle dans l’image projetée, dont la position est recalculée pour chaque image individuelle afin de suivre en permanence le visage et de mettre à jour la position dans la projection. La reconnaissance de visage sur la figure 10 montre le résultat.
[0097] Évaluation :
[0098] Le test des différentes approches a montré que l’objectif de base, qui était de détecter des personnes dans la projection, de désactiver alors le projecteur et enfin de le réactiver lorsque la personne quitte la zone, a été atteint. Il existe cependant certaines limitations selon la reconnaissance de caractéristiques choisie, c’est-à-dire la recherche de caractéristiques, le procédé d’image de différence, la reconnaissance de structures ou la reconnaissance de visage.
[0099] Les tests ont également montré que l’allumage et l’extinction du projecteur ralentissent considérablement l’adaptation automatique de luminosité de la webcam et que cela doit être pris en compte dans le système.
[0100] Approche 1 : Détection à l’intérieur de l’image projetée :
[0101] La méthode AKAZE dans la projection ne permet de réaliser une comparaison de caractéristiques dans une image animée qu’à grand renfort de moyens, car à chaque nouvelle image, il faut fixer une nouvelle valeur seuil et vérifier en même temps si une personne se trouve dans la projection. Cela demanderait énormément de calculs et une comparaison permanente serait probablement difficile en raison de la latence. En outre, la méthode AKAZE dépend du contenu d’image. Les caractéristiques sont générées à l’aide de structures présentes dans l’image. Si on a une image avec peu de structures ou si les structures n’apparaissent que dans une certaine zone, la reconnaissance ne peut avoir lieu que dans cette zone. Ce problème peut s’expliquer à l’aide de la figure 5. Dans cette image, on ne trouve des correspondances que dans la partie inférieure de l’image (paysage), mais pas dans la partie supérieure (ciel). Un grand avantage de la méthode AKAZE est qu’elle est invariante par rapport aux changements de luminosité dans la cabine d’avion.
[0102] La méthode de l’image de différence donne également de bons résultats. Cependant, cette méthode dépend des changements de luminosité. Ainsi, si les conditions d’éclairage dans la cabine changent par rapport à l’image d’arrière-plan générée au début, cette méthode ne fonctionne plus. Cependant, cette image d’arrière-plan est apte à l’apprentissage et peut être adaptée.
[0103] Un avantage de cette approche est que le projecteur n’est désactivé que lorsque la personne entre dans la projection.
[0104] Approche 2 : Détection à l’extérieur de l’image projetée :
[0105] Egalement dans le cas de la détection autour de l’image projetée, l’objectif de ne pas éblouir la personne a été atteint avec les trois solutions. En outre, cette approche permet de lire des vidéos avec des moyens réduits.
[0106] Image de différence :
[0107] La vitesse d’apprentissage est fiable et a également un bon temps de réaction.
Cependant, la personne à l’arrêt est calculée dans l’image de différence et disparaît donc. On contourne cela en limitant dans le temps la vitesse d’apprentissage, aussi bien en mode projection activée qu’en mode projection désactivée. Cela résout également le problème que l’arrière-plan est pris en compte trop « fortement » dans l’image d’arrière-plan lorsque personne ne traverse l’image pendant longtemps, de sorte que la différence entre arrière-plan avec et sans personne serait trop grande et que, par conséquent, le projecteur ne se rallumerait plus. En outre, les ombres projetées par la personne ainsi que les changements de luminosité lorsque le projecteur est allumé et éteint créent des limitations qui faussent l’image de différence. Les différences de luminosité dans les contenus vidéo entraînent également de légères différences dans l’image de caméra, qui peuvent toutefois être compensées. En outre, de forts changements de luminosité dans la cabine d’avion entraînent l’extinction du projecteur, car la différence par rapport à l’image de différence devient trop grande. Ce problème pourrait être résolu soit en créant une liaison entre les systèmes d’éclairage et de projection pour que le système de projection puisse être informé en cas de changement d’éclairage, soit en adaptant l’algorithme d’apprentissage afin que celui-ci connaisse les différentes situations d’éclairage. En outre, la puissance de calcul pour ce procédé est relativement faible.
[0108] Caractéristiques :
[0109] La reconnaissance de caractéristiques est moins fiable que l’image de différence, mais donne le résultat souhaité. Cependant, la reconnaissance dépend fortement des structures de la personne qui traverse l’image. Si, par exemple, la personne porte un haut monochrome, on trouve beaucoup moins de caractéristiques qu’avec un haut présentant un logo ou beaucoup de structure. Il est donc difficile de trouver une valeur seuil significative et il est arrivé que certaines personnes ne soient pas détectées. En outre, l’indépendance par rapport aux changements de luminosité n’est pas aussi bonne qu’on l’espérait.
[0110] Le changement de luminosité entraîne la création ou la perte de caractéristiques dans des zones d’image riches en structures. Par rapport à l’image de différence, cependant, les surfaces homogènes sont constantes. En mesurant les caractéristiques trouvées dans les conditions de la figure 8, on a trouvé environ 100 caractéristiques sans personne et environ 200 avec une personne. Cette valeur peut varier pour d’autres personnes. La puissance de calcul pour ce procédé est relativement élevée.
[OUI] Structure:
[0112] La reconnaissance de structures ne donne le résultat souhaité que dans une mesure très limitée. Le changement entre image vide et image avec une personne n’est pas assez grand. La mesure de la valeur moyenne de l’image binaire de ces deux états a donné une valeur d’environ 30 avec une personne et 29 sans personne. Avec des valeurs allant de 0 à 255, cette différence est trop faible pour une reconnaissance fiable.
[0113] Approche 3 : Reconnaissance de visage :
[0114] La reconnaissance de visage a donné un très bon résultat pour le visage frontal. L’algorithme de Viola et Jones fonctionne de manière très fiable et reconnaît même le visage lorsqu’il se trouve dans la projection. Cependant, aucune donnée d’apprentissage utile n’a pu être trouvée pour la reconnaissance de visages de profil. Le masquage de zones d’image est également fiable, de sorte que la reproduction de vidéos peut se poursuivre et que des zones sont toujours visibles. Toutefois, le calcul est un peu plus intensif, de sorte qu’il y a une certaine latence entre la position réelle de la tête et la position calculée du cercle noir dans la projection. Par conséquent, des mouvements rapides de la tête peuvent entraîner un éblouissement de la personne car le cercle noir n’est pas directement déplacé à la position de la tête. Le changement optique résultant de la projection sur le visage peut conduire à ce qu’aucun visage ne soit brièvement reconnu. Cependant, cette approche pose un problème lorsque le contenu d’image projeté contient des visages. Ceux-ci seraient reconnus et masqués sans qu’une personne ne soit présente dans la projection. Ce problème pourrait être résolu soit par une analyse supplémentaire du contenu d’image projeté, soit par une combinaison avec d’autres approches, comme par exemple l’image de différence.
[0115] Une vue d’ensemble des résultats est donnée par le tableau ci-dessous :
[0116] [Tableaux 1]
Approche Puissance de calcul Stabilité/ Vitesse de détection Invariance à la luminosité Approches d’optimisation
1 Intérieur image + + o o - Calcul permanent de valeur seuil - Image de différence adaptative
2.1 Extérieur image de différence - - + + - - Image de différence adaptative liée à l’éclairage
2.2 Extérieur caractéristiques + - o
2.3 Extérieur Structure - o
3 Reconnaissance de visage + + + + - Meilleur algorithme - Analyse préalable du contenu d’image sur des visages - Combinaison avec image de différence
[0117] On obtiendrait le meilleur résultat en combinant la reconnaissance de visage et le procédé d’image de différence à l’intérieur de la projection. La reconnaissance de visage ne serait activée que lorsqu’une personne se trouve vraiment dans la projection. Le procédé d’image de différence utilisé ici devrait être adaptatif pour une invariance contre les changements de luminosité.
[0118] Les documents et publications suivants illustrent l’état de la technique et les connaissances de l’homme du métier :
- AKAZE and ORB planar tracking . (04. 09 2016). Consulté le 07. 11 2017 sur https://gregorkovalcik.github.io/opencv_contrib/tutorial_akaze_tracking.html Alcantarilla, P. F., Nuevo, J., & Bartoli, A. (10 2012). KAZE FEATURES. Consulté le 24. 10 2017 sur http://robesafe.com/personaFpablo.alcantarilla/kaze.html
- Chris Stauffer, W. G. (1999). Adaptive background mixture models for realtime tracking. Cambridge.
- Erhardt, A. (2008). Einführung in die Digitale Bildverarbeitung. Vieweg+Teubner.
- How to Use Background Subtraction Methods . (7. 11 2017). Consulté le 8. 11 2017 sur https://docs.opencv.org/master/dl/dc5/tutorial_background_subtraction.html
- Kunz, D. (2016). Bildverarbeitung SS 2016 chapitre 20. TH Kôln.
- Kunz, D. (2016). Bildverarbeitung SS 2016 chapitre 5. TH Koln.
- Laws, K. I. (1980). Rapid Texture Identification.
- Melton, B. (2015). Presentation on theme: Segmentation Using Texture. Consulté le 22. 11 2017 sur http://slideplayer.com/slide/6920161/
- Viola, P., & Jones, Μ. (2001). Rapid Object Detection using a Boosted Cascade of Simple. Cambridge.
[0119] Les objets, systèmes, dispositifs, éléments, composants et parties constitutives illustrées sur les figures 1 à 9 sont référencés comme suit :
[0120] 2 : surface cible
[0121] 4 : caméra
[0122] 6 : source lumineuse
[0123] 8 : ordinateur
[0124] 10 : personne
[0125] 12 : flèche
[0126] 14a,b : image
[0127] 15 : contenu d’image
[0128] 16 : caractéristique
[0129] 17 : environnement
[0130] 18 : zone
[0131] 20 : espace intérieur
[0132] 22 : véhicule
[0133] 24 : lumière
[0134] 26 : cône de faisceau
[0135] 28 : section de surveillance
[0136] 30 : champ de vision
[0137] 32 : image de caméra
[0138] 40a,b : masque de convolution
[0139] 42 : cadre
[0140] Bien entendu, l'invention n'est pas limitée au mode de réalisation décrit et représenté aux dessins annexés. Des modifications restent possibles, notamment du point de vue de la constitution des divers éléments ou par substitution d'équivalents techniques, sans sortir pour autant du domaine de protection de l'invention.
[0141] ANNEXE
[0142] //Position du visage
[0143] int FaceX = faces[i].x + faces[i].width*0.5;
[0144] int FaceY = faces[i].y + faces[i].height*0.5;
[0145] //Positions projection
[0146] Point ProjectionLO = points[0][0];
[0147] Point ProjectionLU = points[0][3];
[0148] Point ProjectionRO = points[0][l];
[0149] Point ProjectionRU = points[0][2];
[0150] //Facteur de mise à l’échelle du cercle
[0151] float faktHori =(float)proje.cols/((float)ProjectionRO.x - (float)ProjectionLO.x);
[0152] float faktVert =(float)proje.rows/((float)ProjectionRU.y -(float) ProjectionRO.y);
[0153] //nouvelles coordonnées dans la projection
[0154] int FaceXnew = FaceX - ProjectionLO.x;
[0155] int FaceYnew = FaceY - ProjectionLO.y;

Claims (1)

  1. Revendications [Revendication 1] Procédé pour éviter l’éblouissement d’une personne (10) par une source lumineuse (6) disposée dans un espace intérieur (20) d’un véhicule (22), la source lumineuse (6) émettant, en fonctionnement, une lumière (24) à l’intérieur d’un cône de faisceau (26), dans lequel : - une caméra (4) est disposée dans l’espace intérieur (20) et orientée de telle sorte qu’au moins une section de surveillance (28) du cône de faisceau (26), dans lequel la personne (10) peut entrer, se situe dans le champ de vision (30) de la caméra (4), - la caméra (4) prend une image de caméra (32), - on détermine à partir de l’image de caméra (32), par recon- naissance automatique de personnes, si au moins une partie de la personne (10) se trouve dans le cône de faisceau (26), - dans un tel cas, au moins la zone (18) du cône de faisceau (26) dans laquelle se trouve la partie de la personne (10) est rendue non éblouissante. [Revendication 2] Procédé selon la revendication 1, caractérisé en ce que l’ensemble du cône de faisceau (26) est rendu non éblouissant si au moins une partie de la personne (10) se trouve dans le cône de faisceau (26). [Revendication 3] Procédé selon l’une des revendications précédentes, caractérisé en ce que la zone (18) du cône de faisceau (26) est rendue non éblouissante en rendant non éblouissante ou en éteignant la source lumineuse (6) pour la zone (18). [Revendication 4] Procédé selon l’une des revendications précédentes, caractérisé en ce que le cône de faisceau (26) est dirigé vers une surface cible (2) de l’espace intérieur (20) et la caméra (4) est orientée de telle sorte qu’au moins une zone partielle de la surface cible (2) soit située dans le champ de vision (30) de la caméra (4). [Revendication 5] Procédé selon la revendication 4, caractérisé en ce que la zone partielle de la surface cible (2) couverte par la caméra (4) n’est pas prise en compte lors de la vision par ordinateur. [Revendication 6] Procédé selon la revendication 5, caractérisé en ce que la zone partielle de la surface cible (2) couverte par la caméra (4) n’est pas prise en compte lors de la vision par ordinateur uniquement en ce qui concerne
    [Revendication 7] [Revendication 8] [Revendication 9] [Revendication 10] des contenus d’image (15) générés par la source lumineuse (6) sous la forme de personnes et/ou de mouvements et/ou d’éléments d’image de type humain.
    Procédé selon l’une des revendications précédentes, caractérisé en ce que la caméra (4) est alignée de telle sorte qu’un environnement (17) du cône de faisceau (26) se situe également dans le champ de vision (30) de la caméra (4).
    Procédé selon l’une des revendications précédentes, caractérisé en ce que la caméra (4) est placée à côté de la source lumineuse (6).
    Procédé selon l’une des revendications précédentes, caractérisé en ce que une vision par ordinateur et/ou une reconnaissance de visage et/ou une reconnaissance de textures et/ou une détection de mouvement sont réalisées dans le cadre de la reconnaissance automatique de personnes. Utilisation de la reconnaissance automatique de personnes dans un procédé selon l’une des revendications précédentes.
FR1914579A 2018-12-21 2019-12-17 Procédé pour éviter l’éblouissement de personne(s) par une source lumineuse Active FR3090522B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018010099.6 2018-12-21
DE102018010099.6A DE102018010099B4 (de) 2018-12-21 2018-12-21 Vermeiden der Blendung von Personen durch eine Lichtquelle

Publications (2)

Publication Number Publication Date
FR3090522A1 true FR3090522A1 (fr) 2020-06-26
FR3090522B1 FR3090522B1 (fr) 2022-07-22

Family

ID=70969093

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1914579A Active FR3090522B1 (fr) 2018-12-21 2019-12-17 Procédé pour éviter l’éblouissement de personne(s) par une source lumineuse

Country Status (6)

Country Link
US (1) US10858105B2 (fr)
CN (1) CN111355940A (fr)
BR (1) BR102019024585A8 (fr)
CA (1) CA3059405A1 (fr)
DE (1) DE102018010099B4 (fr)
FR (1) FR3090522B1 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10935222B1 (en) 2020-04-06 2021-03-02 Robert Bosch Gmbh Human tracking to produce improved jobsite lighting

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006015332A1 (de) 2005-04-04 2006-11-16 Denso Corp., Kariya Gastservice-System für Fahrzeugnutzer
DE102006030300C5 (de) 2006-06-30 2014-06-18 Audi Ag Kraftfahrzeug umfassend mehrere im Innenraum verteilt angeordnete Leuchteinrichtungen enthaltend wenigstens ein Leuchtmittel zur Beleuchtung des Fahrzeuginnenraums
US7946744B2 (en) * 2007-02-02 2011-05-24 Denso Corporation Projector and image pickup apparatus
JP2011140264A (ja) * 2010-01-07 2011-07-21 Jamco Corp 航空機の客室照明装置
JPWO2013186994A1 (ja) * 2012-06-15 2016-02-04 日本電気株式会社 投射型投影装置、光防眩方法、および光防眩用プログラム
DE102013207062A1 (de) * 2013-04-18 2014-10-23 Airbus Operations Gmbh Fahrzeugkabinenanordnung mit einer Beleuchtungseinrichtung
DE102013223145B4 (de) 2013-11-13 2023-09-14 Volkswagen Aktiengesellschaft Fahrzeug mit einer Vorrichtung und Verfahren zur Beleuchtung eines Innenraums des Fahrzeugs
US9454699B2 (en) * 2014-04-29 2016-09-27 Microsoft Technology Licensing, Llc Handling glare in eye tracking
KR101685534B1 (ko) 2014-12-16 2016-12-12 현대자동차주식회사 웨어러블 글래스를 이용한 차량 조명 제어 시스템 및 그 방법
EP3274624B1 (fr) * 2015-02-23 2020-10-28 CoeLux S.r.l. Système d'éclairage de siège
DE102016006703B4 (de) * 2016-06-01 2019-05-09 Diehl Aerospace Gmbh Beleuchtungsanordnung für einen Innenraum eines Fahrzeugs

Also Published As

Publication number Publication date
DE102018010099B4 (de) 2021-12-02
CN111355940A (zh) 2020-06-30
BR102019024585A2 (pt) 2020-11-03
FR3090522B1 (fr) 2022-07-22
US10858105B2 (en) 2020-12-08
US20200198784A1 (en) 2020-06-25
BR102019024585A8 (pt) 2022-08-09
CA3059405A1 (fr) 2020-06-21
DE102018010099A1 (de) 2020-06-25

Similar Documents

Publication Publication Date Title
US20230298141A1 (en) Bright Spot Removal Using A Neural Network
JP4783795B2 (ja) 照明および反射境界の区別
US10474894B2 (en) Image processing method and system for iris recognition
EP3901794A1 (fr) Procédé d'authentification ou d'identification d'un individu
US10650225B2 (en) Image processing apparatus which determines category to which object in image belongs, method therefor, and object discrimination apparatus
US11375133B2 (en) Automatic exposure module for an image acquisition system
Sun et al. Context based face spoofing detection using active near-infrared images
EP3866064A1 (fr) Procede d'authentification ou d'identification d'un individu
US9418434B2 (en) Method for detecting 3D geometric boundaries in images of scenes subject to varying lighting
KR102148586B1 (ko) 자동 조명 및 보안 장치
FR3090522A1 (fr) Procédé pour éviter l’éblouissement de personne(s) par une source lumineuse
Hong et al. Scene perception using pareidolia of faces and expressions of emotion
WO2020109122A1 (fr) Dispositif et procede d'authentification d'un individu
FR3037690A1 (fr) Procede de detection de fraude par determination de la brdf d'un objet
Veeramanikandan et al. An FPGA based real time face detection and recognition system across illumination
Martínez-Martín et al. Motion detection in static backgrounds
CN112766205B (zh) 一种基于颜色模态图像的鲁棒性静默活体检测方法
CN109961025B (zh) 一种基于图像偏斜度的真假脸部识别检测方法和检测系统
EP4198923A1 (fr) Procédé mis en uvre par ordinateur, système informatique et support non transitoire lisible par ordinateur pour détecter un objet mobile dans l'habitacle d'un véhicule
Hardas et al. Moving Object Detection for Video Surveillance using Different Color Spaces
Van Hook Scene Motion Detection in Imagery with Anisoplanatic Optical Turbulence
Javadi Research Into Illumination Variance In Video Processing
FR3110010A1 (fr) Procédé d’acquisition d’un trait biométrique d’un individu, en vue d’une authentification ou une identification dudit individu
FR2986641A1 (fr) Procede de detection d'un objet et systeme correspondant
Brisebarre et al. Hyperspectral change classification based on direction pursuit detection

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210521

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5