FR2987928A1 - Appareil de surveillance de peripherie de vehicule - Google Patents

Appareil de surveillance de peripherie de vehicule Download PDF

Info

Publication number
FR2987928A1
FR2987928A1 FR1351791A FR1351791A FR2987928A1 FR 2987928 A1 FR2987928 A1 FR 2987928A1 FR 1351791 A FR1351791 A FR 1351791A FR 1351791 A FR1351791 A FR 1351791A FR 2987928 A1 FR2987928 A1 FR 2987928A1
Authority
FR
France
Prior art keywords
vehicle
image
camera
variation
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1351791A
Other languages
English (en)
Inventor
Bingchen Wang
Hirohiko Yanagawa
Masakazu Takeichi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of FR2987928A1 publication Critical patent/FR2987928A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

Lorsqu'il est déterminé qu'une posture d'un véhicule contre une surface de route est dans un état anormal (S102), des variations d'une caméra embarquée par rapport à une position primaire et une direction primaire dans l'état anormal sont estimées (S110). Un paramètre amendable, qui indique une position réelle et une direction réelle de la caméra embarquée dans l'état anormal, est spécifié en fonction des variations estimées dans l'état anormal par rapport à la position primaire et à la direction primaire de la caméra embarquée. Une image de saisie, saisie par la caméra embarquée, est convertie en une image de conversion qui simule une image saisie par une caméra virtuelle en utilisant le paramètre amendable (S112).

Description

APPAREIL DE SURVEILLANCE DE PÉRIPHÉRIE DE VÉHICULE La présente invention concerne un appareil de surveillance de périphérie de véhicule qui génère une image composite d'une périphérie d'un véhicule en convertissant une image saisie par une caméra embarquée en une image de conversion pour simuler une image saisie à partir d'une position simulée d'une caméra virtuelle qui est séparée de la position de la caméra embarquée. Documentation de brevet 1 : JP 2007-102798 A Une technologie est connue, qui stocke, dans une mémoire de stockage temporaire une image de vue à vol d'oiseau acquise en convertissant une image de saisie d'une périphérie de véhicule en une image plane qui est vue à partir du ciel ; calcule un mouvement du véhicule en fonction de signaux, tels que ceux du volant de direction et la vitesse du véhicule ; génère une image composite de la périphérie de véhicule en utilisant de multiples images de vue à vol d'oiseau stockées dans la mémoire de stockage temporaire durant le mouvement du véhicule ; et affiche l'image composite dans une partie d'affichage. Par exemple, la documentation de brevet 1 décrit une technologie, qui spécifie un paramètre représentant une position et une direction d'une caméra embarquée fixée au véhicule ; réalise une conversion d'image en utilisant le paramètre à partir d'une image saisie par la caméra embarquée en une image de vue à vol d'oiseau simulée comme étant saisie à partir d'une position de caméra virtuelle au-dessus du véhicule ; stocke de multiples images de vue à vol d'oiseau, acquises avec la conversion d'image durant le mouvement du véhicule, dans une mémoire de stockage temporaire ; et génère une image composite de la périphérie de véhicule en utilisant de multiples images de vue à vol d'oiseau stockées dans la mémoire de stockage temporaire. Une telle configuration spécifie le paramètre représentant la position et la direction de la caméra embarquée fixée au véhicule comme étant une valeur fixe pour réaliser la conversion d'image. Lorsque la posture du véhicule change pour ainsi entraîner un écart de la position et de la direction de la caméra embarquée, une image de vue à vol d'oiseau est simulée comme étant saisie à partir d'une autre position de caméra virtuelle qui est différente de la position jusqu'à cet instant. Une telle vue à vol d'oiseau est stockée dans la mémoire de stockage temporaire, générant malheureusement une image composite qui contient une région déformée. La figure 8 illustre des exemples de vues latérales d'un véhicule et des images composites lorsque le véhicule se déplace vers l'arrière et se déplace par-dessus un amortisseur. En faisant référence à (a) et (b) sur la figure 8, alors que le véhicule se déplace vers l'arrière sur une surface de route plate, une conversion de point de vue en position de caméra virtuelle est réalisée normalement, ne produisant aucune déformation des images composites. En faisant référence à (c) sur la figure 8, le véhicule se déplace sur l'amortisseur prévu sur la surface de route ; ceci change la posture du véhicule pour entraîner des variations de la position et de la direction de la caméra embarquée. L'image de vue à vol d'oiseau est ainsi simulée comme étant saisie à partir d'une autre position de caméra virtuelle, différente de la position jusqu'à cet instant ; elle est alors stockée dans la mémoire de stockage temporaire. En faisant référence à (d) sur la figure 8, une image composite est générée pour contenir une région déformée indiquée en trait pointillé A. En outre, une telle région déformée indiquée avec le trait pointillé A reste en tant qu'image historique dans des images composites même après que la posture du véhicule retourne à un état normal, comme cela est indiqué dans (e) et (f) sur la figure 8. Ceci pose un désavantage pour donner aux utilisateurs un sens d'incongruité.
Un objet de la présente invention est d'empêcher la déformation dans une image composite de se produire en raison de changements d'une posture d'un véhicule portant une caméra embarquée. Pour atteindre l'objet ci-dessus, selon un exemple de la présente invention, un appareil de surveillance de périphérie de véhicule dans un véhicule portant une caméra embarquée est proposé pour comprendre une section de conversion d'image, une section de génération d'image composite, une section de détermination, et une section d'estimation de variation. La section de conversion d'image convertit une image de saisie, qui est saisie par la caméra embarquée, en une image de conversion en utilisant un premier paramètre qui stipule une position primaire et une direction primaire de la caméra embarquée, l'image de conversion simulant une image qui est saisie par une caméra virtuelle supposée être située séparément de la caméra embarquée. La section de génération d'image composite stocke une pluralité d'images de conversion, en lesquelles la section de conversion d'image réalise une conversion d'image durant un mouvement du véhicule, dans une mémoire de stockage temporaire, et génère une image composite d'une périphérie de véhicule en utilisant la pluralité d'images de conversion stockée dans la mémoire de stockage temporaire. La section de détermination détermine si une posture du véhicule est dans un état anormal, l'état anormal étant un état dans lequel la posture du véhicule contre une surface de route est anormale. La section d'estimation de variation estime une variation par rapport à la position primaire et à la direction primaire de la caméra embarquée dans l'état anormal. Lorsque la section de détermination détermine que la posture du véhicule est dans l'état anormal, la section de conversion d'image spécifie un second paramètre en fonction de la variation estimée par la section d'estimation de variation, le second paramètre indiquant une position réelle et une direction réelle de la caméra embarquée, et convertit l'image de saisie, saisie par la caméra embarquée, en une image de conversion simulant une image saisie par la caméra virtuelle, en utilisant le second paramètre.
Une telle configuration détermine si la posture du véhicule contre la surface de route est dans un état anormal dans lequel la posture du véhicule contre la surface de route est anormale durant l'estimation de variations (à savoir, des variations positionnelles de caméra embarquée) par rapport à la position primaire et à la direction primaire, ou de ceux-ci, de la caméra embarquée dans l'état anormal ; spécifie un paramètre amendable (à savoir, le second paramètre), qui indique une position réelle ou présente une direction réelle ou présente de la caméra embarquée, en fonction des variations estimées par rapport à la position primaire et la direction primaire de la caméra embarquée dans l'état anormal ; et convertit l'image de saisie, saisie par la caméra embarquée, en utilisant le paramètre amendable, en l'image de conversion qui simule une image saisie par une caméra virtuelle. Cette configuration peut empêcher l'image composite de fournir une déformation en raison du changement ou de la variation de la posture du véhicule. Avantageusement : - la section de détermination détermine si la posture du véhicule est dans l'état anormal en fonction d'informations d'inclinaison qu'un capteur envoie en réponse à une inclinaison du véhicule contre la surface de route. - la section d'estimation de variation estime la variation en fonction d'informations d'inclinaison qu'un capteur envoie en réponse à une inclinaison du véhicule contre la surface de route. - la section de détermination estime des vecteurs de mouvement de points caractéristiques contenus dans l'image de saisie, et détermine que la posture du véhicule contre la surface de route est dans l'état anormal en fonction des vecteurs de mouvement de points caractéristiques qui sont estimés. - la section d'estimation de variation estime des vecteurs de mouvement de points caractéristiques contenus dans l'image de saisie, et estime la variation en fonction des vecteurs de mouvement de points caractéristiques qui sont estimés. - la section de détermination acquiert un premier signal pour spécifier une première variation de la posture du véhicule en raison d'une force centrifuge lorsque le véhicule tourne, et un second signal pour spécifier une seconde variation de la posture du véhicule en raison d'une accélération et d'une décélération du véhicule, et détermine si la posture du véhicule contre la surface de route est dans l'état anormal en fonction de la première variation en raison de la force centrifuge spécifiée par le premier signal et de la seconde variation en raison de l'accélération et de la décélération spécifiées par le second signal. - la section d'estimation de variation acquiert un premier signal pour spécifier une première variation de la posture du véhicule en raison d'une force centrifuge lorsque le véhicule tourne, et un second signal pour spécifier une seconde variation de la posture du véhicule en raison d'une accélération et d'une décélération du véhicule, et estime la variation à partir de la position primaire et de la direction primaire en fonction de la première variation en raison de la force centrifuge spécifiée par le premier signal et de la seconde variation en raison de l'accélération et de la décélération spécifiées par le second signal. - la caméra virtuelle est supposée être dans une position au-dessus du véhicule ; et l'image de conversion est une image de vue à vol d'oiseau qui est saisie à partir de la position au-dessus du véhicule.
Les objets, caractéristiques, et avantages ci-dessus et autres de la présente invention deviendront plus évidents à partir de la description détaillée suivante réalisée en faisant référence aux dessins joints. Sur les dessins : la figure 1 est un schéma illustrant une configuration générale d'un appareil de surveillance de périphérie de véhicule monté dans un véhicule hôte selon un premier mode de réalisation de la présente invention ; la figure 2 est un organigramme illustrant un procédé par un circuit de commande de l'appareil de surveillance de périphérie de véhicule ; la figure 3 est un schéma d'une vue latérale du véhicule hôte montrant que la roue arrière se déplace par-dessus un amortisseur pour réaliser l'inclinaison de posture avec l'avant du véhicule hôte vers le bas selon l'angle 01 (nez vers le bas ou descendant) ; la figure 4 est un schéma d'une vue latérale du véhicule hôte montrant que la roue avant se déplace par-dessus un amortisseur pour réaliser l'inclinaison de posture avec l'avant vers le haut selon l'angle 02 (nez vers le haut ou ascendant) ; la figure 5 est un schéma illustrant une image générée après une conversion d'image pour convertir une image de saisie, saisie par une caméra embarquée, en une image de vue à vol d'oiseau en utilisant un paramètre primaire stocké dans une mémoire flash de l'appareil de surveillance de périphérie de véhicule ; la figure 6 est un schéma illustrant une image générée après une conversion d'image pour convertir une image de saisie, saisie par une caméra embarquée, en une image de vue à vol d'oiseau en utilisant un paramètre amendable ; la figure 7 représente des schémas illustrant des flux optiques de points caractéristiques contenus dans des images de saisie, saisies par la caméra embarquée ; et la figure 8 illustre des exemples de vues latérales d'un véhicule et des images composites lorsque le véhicule hôte se déplace vers l'arrière et se déplace par-dessus un amortisseur, présentant une déformation.
Premier mode de réalisation. La partie suivante va expliquer une configuration générale d'un appareil de surveillance de périphérie de véhicule monté dans un véhicule hôte (également appelé, simplement, « véhicule ») selon un premier mode de réalisation de la présente invention en faisant référence à la figure 1. L'appareil de surveillance de périphérie de véhicule comprend un circuit de commande 10, qui comprend une partie d'estimation d'angle de caméra 11, une partie de traitement de conversion d'image 12, une partie de calcul de mouvement de véhicule 13, et une partie de composition de véhicule 14. Le circuit de commande 10 est connecté à une caméra embarquée 20 et une partie d'affichage 30 ; la caméra embarquée 20 est fixée au véhicule pour prendre une image (à savoir, une image saisie ou une image de saisie) d'une zone postérieure au véhicule. La caméra embarquée 20 est fixée à un centre dans le sens de la largeur du véhicule dans une partie arrière du véhicule en tant que caméra arrière saisissant une image d'une zone périphérique derrière le véhicule. La caméra embarquée 20 transmet l'image de saisie de la zone périphérique derrière le véhicule au circuit de commande 10. Le circuit de commande 10 comprend un ordinateur contenant une CPU (unité centrale de traitement), une ROM (mémoire morte), une mémoire de stockage temporaire qui peut servit de mémoire volatile, telle qu'une RAM (mémoire vive), une mémoire flash qui peut servit de mémoire non volatile, et des interfaces d'entrée/sortie ; la CPU exécute plusieurs traitements selon un programme pertinent stocké dans la ROM.
La partie d'estimation d'angle de caméra 11 estime une variation de la posture du véhicule hôte contre une surface de route où le véhicule hôte est situé. La partie d'estimation d'angle de caméra 11 selon le premier mode de réalisation estime la variation de la posture contre la surface de route en fonction d'informations d'inclinaison envoyées à partir de capteurs d'inclinaison (dont aucun n'est représenté). Un des capteurs d'inclinaison est destiné à envoyer un signal en réponse à une inclinaison du véhicule dans une direction longitudinale (à savoir, la direction arrière-avant du véhicule) ; l'autre est destiné à envoyer un signal en réponse à une inclinaison du véhicule dans une direction latérale (à savoir, la direction gauche-droite du véhicule ou direction de la largeur du véhicule). Il faut noter que la partie d'estimation d'angle de caméra 11 estime, en fonction des informations d'inclinaison envoyées à partir des capteurs d'inclinaison, la variation de la posture du véhicule hôte ou de la caméra embarquée 20 contre, ou par rapport à, un plan horizontal sur la terre où le véhicule hôte est situé. La variation peut être appelée variation positionnelle de caméra embarquée. La partie de traitement de conversion d'image 12 réalise une conversion d'image pour convertir une image de saisie, saisie par la caméra embarquée 20 en une image de conversion qui simule une image comme étant saisie par une position de caméra virtuelle différente de la position de la caméra embarquée 20, en utilisant un paramètre primaire. Le paramètre primaire stipule ou représente une position primaire et une direction primaire de la caméra embarquée 20 fixée au véhicule hôte ; la position primaire et la direction primaire sont stipulées en fonction du plan horizontal où le véhicule hôte est situé. Le paramètre primaire peut également être appelé premier paramètre. Cette technologie est bien connue ; par exemple, se référer au brevet japonais n° 3286306 ou « Development of Omnidirectional Camera System », Matsushita Technical Journal Vol. 54 n° 2, juillet 2008, Matsushita DENKI-SANGYO Corporate R&D Strategy.
Dans le présent mode de réalisation, la mémoire flash du circuit de commande 10 servant de mémoire non volatile stocke un paramètre primaire, qui stipule une coordonnée (X0, Y0, ZO) en fonction du plan horizontal et indiquant une position primaire O de la caméra embarquée 20 et un angle de dépression 00 indiquant une direction primaire de la caméra embarquée 20 contre un plan horizontal ou direction horizontale où le véhicule hôte est situé, en fonction du centre dans la direction gauche-droite de l'essieu des roues arrière du véhicule hôte. Le paramètre primaire stocké dans la mémoire flash est utilisé pour réaliser une conversion vidéo à partir d'une image de saisie, saisie par la caméra embarquée 20, en, en tant qu'image de conversion, une image de vue à vol d'oiseau saisie à partir d'une position de caméra virtuelle (à savoir, à partir d'une position simulée d'une caméra virtuelle) au-dessus du véhicule. En outre, dans le présent mode de réalisation, une direction horizontal avançant vers l'arrière, de l'avant du véhicule à l'arrière du véhicule, est définie comme étant la direction Y ; une direction horizontale dans le sens de la largeur du véhicule avançant vers l'arrière, du côté arrière du véhicule au côté droit du véhicule, vu à partir de l'avant du véhicule, est défini comme étant la direction X ; une direction verticale à partir du plan horizontal où le véhicule est situé est défini comme étant la direction Z. En outre, le paramètre primaire stipule en outre une distance L, qui est une distance entre l'essieu des roues avant et l'essieu des roues arrière. En outre, le plan horizontal peut être appelé plan prédéterminé où le véhicule est situé ; en outre, une surface de route où le véhicule hôte est situé est supposée être plate ou un plan et peut être le plan horizontal, sauf indication contraire ci-après.
Le paramètre primaire est préparé pour chacun des modèles de véhicule. Le circuit de commande 10 réalise une conversion d'image en utilisant un paramètre primaire applicable sur le mode de véhicule du véhicule hôte auquel la caméra embarquée est fixée. La partie de calcul de mouvement de véhicule 13 reçoit un signal de position de changement de vitesse indiquant une position d'un levier de changement de vitesse, un signal de vitesse selon une vitesse du véhicule, et un signal de braquage selon un angle de rotation du volant de direction. La partie de calcul de mouvement de véhicule 13 calcule une direction de tête et une distance de mouvement du véhicule en fonction du signal de position de changement de vitesse, du signal de vitesse, et du signal de braquage. La partie de composition de véhicule 14 stocke de multiples images de conversion après la conversion d'image, durant un mouvement du véhicule, dans la mémoire de stockage temporaire ; et génère une image composite de périphérie de véhicule en utilisant de multiples images de conversion stockées dans la mémoire de stockage temporaire. Cette technologie est bien connue (se référer au document JP 2008-210084 A, par exemple). Dans le présent mode de réalisation, en outre, la partie de composition de véhicule 14 génère, en tant qu'images de conversion, de multiples images de vue à vol d'oiseau après conversion d'image en utilisant la direction de tête et la distance de mouvement du véhicule, qui sont calculés par la partie de calcul de mouvement de véhicule 13, et les stocke dans la mémoire de stockage temporaire qui sert de mémoire volatile ; ensuite, la partie de composition de véhicule 14 génère une image composite en utilisant les multiples images de vue à vol d'oiseau stockées dans la partie de stockage temporaire, et envoie l'image composite générée à la partie d'affichage 30. La partie d'affichage 30 comprend un écran à cristaux liquides pour afficher une image selon un signal d'image entré à partir du circuit de commande 10.
La configuration mentionnée ci-dessus fonctionne comme suit. Le circuit de commande 10 de l'appareil de surveillance de périphérie de véhicule reçoit une image de saisie d'une zone périphérique derrière le véhicule, saisie par la caméra embarquée 20. La partie de traitement de conversion d'image 12 du circuit de commande 10 réalise une conversion d'image pour convertir l'image de saisie en une image de conversion (également appelée première image de conversion) qui simule une image comme étant saisie par une position de caméra virtuelle différente et séparée de la position primaire de la caméra embarquée 20 en utilisant le paramètre primaire (également appelé premier paramètre) stipulant la position primaire et la direction primaire de la caméra embarquée 20 fixée au véhicule hôte. La partie de composition de véhicule 14 génère de multiples images de vue à vol d'oiseau après la conversion d'image par la partie de traitement de conversion d'image 12 en utilisant la direction de tête et la distance de mouvement du véhicule calculés par la partie de calcul de mouvement de véhicule 13, stockant ainsi les multiples images de vue à vol d'oiseau dans la mémoire de stockage temporaire. La partie de composition de véhicule 14 génère en outre une image composite d'une zone périphérique du véhicule en utilisant les multiples images de vue à vol d'oiseau stockées dans la mémoire de stockage temporaire, et envoie l'image composite à la partie d'affichage 30.
L'appareil de surveillance de périphérie de véhicule selon le présent mode de réalisation est prévu pour résoudre le désavantage suivant. À savoir, lorsque la posture du véhicule change pour ainsi entraîner un écart de la position primaire et de la direction primaire de la caméra embarquée 20, l'image de vue à vol d'oiseau est ainsi simulée comme étant saisie par une autre position de caméra virtuelle, différente de la position jusqu'à cet instant, et alors stockée dans la mémoire de stockage temporaire. Par conséquent, l'image composite est générée pour contenir malheureusement une région déformée. Dans ce but, l'appareil de surveillance de périphérie de véhicule selon le présent mode de réalisation détermine si la posture du véhicule contre la surface de route est anormale ou si la posture du véhicule est dans un état anormal dans lequel la posture du véhicule contre la surface de route est anormale ; estime des variations (à savoir, des variations positionnelles de caméra embarquée) de la position primaire et de la direction primaire de la caméra embarquée 20 dans l'état anormal, lors de la détermination que la posture du véhicule contre la surface de route est anormale ; puis stipule un paramètre amendable (également appelé second paramètre) indiquant une position réelle et une direction réelle de la caméra embarquée 20 en fonction du plan horizontal dans l'état anormal en fonction des variations par rapport à la position primaire et à la direction primaire de la caméra embarquée 20 ; et applique une conversion d'image pour convertir, en utilisant le paramètre amendable, une image de saisie, saisie par la caméra embarquée 20, en une image de conversion (également appelée seconde image de conversion) qui simule une image comme étant saisie à partir d'une position d'une caméra virtuelle.
La partie suivante va expliquer un procédé par le circuit de commande 10 en faisant référence à la figure 2. L'appareil de surveillance de périphérie de véhicule exécute le présent procédé périodiquement après que le commutateur d'allumage du véhicule est allumé selon une manipulation du conducteur. Il faut en outre noter qu'un organigramme dans la présente application comprend des sections (également appelées étapes), qui sont représentées, par exemple, comme S100. En outre, chaque section peut être divisée en plusieurs sections alors que plusieurs sections peuvent être associées en une seule section. En outre, chacune des sections ainsi configurées peut être appelée module, dispositif, ou moyen et obtenue non seulement (i) sous forme de section de logiciel en association avec une unité de matériel (par exemple, un ordinateur), mais également (ii) sous forme de section de matériel, comprenant une, ou ne comprenant pas de, fonction d'un appareil connexe. En outre, la section de matériel peut être à l'intérieur d'un microordinateur. À S100, il est déterminé si la position du levier de changement de vitesse est marche arrière « R » en fonction du signal de position de changement de vitesse. Lorsque la position du levier de changement de vitesse est autre que marche arrière « R », la détermination à S100 est réfutée, terminant le présent procédé. Par contre, lorsque la position du levier de changement de vitesse est mise en marche arrière « R » par le conducteur, la détermination à S100 est affirmée. Ensuite, à S102, il est déterminé si la posture du véhicule est anormale. Dans le présent mode de réalisation, l'inclinaison du véhicule dans le sens arrière-avant du véhicule et l'inclinaison du véhicule dans le sens gauche-droite du véhicule sont spécifiées en fonction des informations d'inclinaison entrées à partir des capteurs d'inclinaison. La posture du véhicule est déterminée être normale ou dans un état normal lorsque l'inclinaison du véhicule est inférieure à une valeur seuil (par exemple, 5 degrés). La posture du véhicule est déterminée être anormale ou dans un état anormal lorsque l'inclinaison du véhicule n'est pas inférieure à la valeur seuil.
Lorsque l'inclinaison du véhicule est inférieure à la valeur seuil, la détermination à S102 est réfutée. Ensuite, à S104, une conversion d'image est réalisée ou appliquée. Spécifiquement, l'image de saisie, saisie par la caméra embarquée 20, est soumise à une conversion d'image pour simuler une image de vue à vol d'oiseau comme étant saisie à partir d'une position de caméra virtuelle au- dessus du véhicule en utilisant un paramètre primaire stocké dans la mémoire flash. Spécifiquement, comme cela est expliqué ci-dessus, une coordonnée (X0, Y0, ZO) en fonction d'un plan horizontal est définie comme la position primaire O de la caméra embarquée 20 ; l'angle 00 est défini comme étant la direction primaire de la caméra embarquée 20 en fonction d'une direction horizontale. En fonction de telles définitions, l'image de saisie, saisie par la caméra embarquée 20, est soumise à une conversion d'image pour obtenir une image de conversion qui simule une image de vue à vol d'oiseau comme étant saisie à partir d'une position de caméra virtuelle au-dessus du véhicule. À S106, le mouvement du véhicule est calculé. Spécifiquement, la direction de tête et la distance de mouvement du véhicule sont calculés en fonction du signal de position de changement de vitesse, du signal de vitesse, et du signal de braquage. À S108, une image composite de la périphérie de véhicule (à savoir, une zone périphérique derrière le véhicule) est générée et envoyée à la partie d'affichage 30. Spécifiquement, une image de vue à vol d'oiseau acquise avec la conversion d'image 25 est stockée dans la mémoire de stockage temporaire ; et une image composite de la périphérie de véhicule est générée en utilisant la ou les image(s) de vue à vol d'oiseau stockée(s) dans la mémoire de stockage temporaire. En outre, lorsque l'image de vue à vol d'oiseau est déjà stockée dans la mémoire de stockage temporaire, une image composite de la périphérie de véhicule 30 est générée en utilisant les multiples images de vue à vol d'oiseau stockées dans la mémoire de stockage temporaire. Spécifiquement, lorsqu'une présente image de vue à vol d'oiseau est stockée à nouveau dans la mémoire de stockage temporaire, la présente image de vue à vol d'oiseau est associée à une direction de mouvement et une distance de mouvement du véhicule après avoir stocké une image de vue à vol d'oiseau précédente. Une image composite de la périphérie de véhicule est générée en fonction des directions de mouvement et des distances de mouvement du véhicule qui sont associés aux images de vue à vol d'oiseau stockées dans la mémoire de stockage temporaire. L'image composite générée est envoyée à la partie d'affichage 30. Cependant, à cet instant, une quelconque image de vue à vol d'oiseau n'est pas stockée dans la mémoire de stockage temporaire ; ainsi, seulement une image de vue à vol d'oiseau qui a subi la conversion d'image est stockée dans la mémoire de stockage temporaire sans aucune image composite de la périphérie de véhicule générée. Le procédé mentionné ci-dessus est répété. À S108, suivante et subséquente, lorsqu'une nouvelle image de vue à vol d'oiseau est stockée dans la mémoire de stockage temporaire, la direction de mouvement et la distance de mouvement du véhicule, après avoir stocké une image de vue à vol d'oiseau précédente dans la mémoire de stockage temporaire, sont associés à la nouvelle image de vue à vol d'oiseau. Une image composite de la périphérie de véhicule est générée en fonction des directions de mouvement et des distances de mouvement du véhicule qui sont associés aux images de vue à vol d'oiseau stockées dans la mémoire de stockage temporaire. L'image composite générée est envoyée à la partie d'affichage 30. Ainsi, l'image composite de la périphérie de véhicule est affichée dans la partie d'affichage 30. Lorsque le véhicule se déplace vers l'arrière, les roues arrière peuvent se déplacer sur un amortisseur sur une surface de route plate pour faire en sorte que l'inclinaison du véhicule soit égale ou supérieure à une valeur seuil. Dans un tel cas, la détermination à S102 est affirmée comme étant OUI. Ensuite, à S110, les variations de la position et de la direction de la caméra embarquée 20 sont estimées. En faisant référence à la figure 3, les roues arrière se déplacent sur l'amortisseur pour faire en sorte que la posture du véhicule s'incline avec l'avant vers le bas selon l'angle 01. La caméra embarquée 20 est supposée être fixée à une position de véhicule au-dessus de l'essieu des roues arrière. En outre, la caméra embarquée 20 est supposée être fixée selon un angle de dépression 00 = 30 degrés en fonction d'une direction horizontale où le véhicule est supposé être positionné.
Lorsque la posture du véhicule s'incline avec l'avant vers le bas selon un angle 01 = 5 degrés, la direction ou l'angle de la caméra embarquée 20 est vers le haut selon un angle de 5 degrés. À savoir, la variation de la direction (à savoir, l'angle) de la caméra embarquée 20 en fonction de la direction horizontale est estimée être 5 degrés. Donc, la direction réelle de la caméra embarquée 20 en fonction de la direction horizontale peut être spécifiée comme étant 00 - 01 = (30 5) = 25 degrés. Supposons que les roues arrière se déplacent sur l'amortisseur pour faire en sorte que la posture du véhicule s'incline avec l'avant vers le bas selon l'angle 01, avec la distance L entre l'essieu des roues avant et l'essieu des roues arrière. Dans ce cas, la position réelle O' de la caméra embarquée 20 est vers le haut selon L*tan01 par rapport à la position primaire O de la caméra embarquée 20 dans l'état normal où la posture du véhicule n'est pas inclinée. À savoir, la variation de la caméra embarquée 20 peut être estimée être L*tan01, et la coordonnée de la position réelle O' de la caméra embarquée 20 peut être donc spécifiée comme étant (X0, Y0, ZO + L*tan01). En faisant référence à la figure 4, les roues avant se déplacent sur un amortisseur pour faire en sorte que la posture du véhicule s'incline avec l'arrière vers le bas selon l'angle 02. Comme cela est expliqué ci-dessus, la caméra embarquée 20 est supposée être fixée à une position de véhicule au-dessus de l'essieu des roues arrière, alors que la caméra embarquée 20 est supposée être fixée selon un angle de dépression 00 = 30 degrés en fonction de la direction horizontale ou plan horizontal. Lorsque la posture du véhicule s'incline avec l'arrière vers le bas selon un angle 02 = 5 degrés, la direction ou l'angle de la caméra embarquée 20 est vers le bas selon un angle de 5 degrés. À savoir, la variation de la direction (à savoir, l'angle) de la caméra embarquée 20 en fonction de la direction horizontale est estimée être 5 degrés. Donc, la direction de la caméra embarquée 20 en fonction de la direction horizontale peut être spécifiée comme étant 00 + 02 = (30 + 5) = 35 degrés. Il faut noter que, contrairement au cas sur la figure 3, la présente position O 30 de la caméra embarquée 20 dans un état anormal dans lequel la posture du véhicule est inclinée est identique à la position O de la caméra embarquée 20 dans un état normal où la posture du véhicule n'est pas inclinée. À savoir, la coordonnée de la présente position réelle O' de la caméra embarquée 20 peut être spécifiée comme étant (X0, Y0, ZO). Ensuite, à 5112, l'image de saisie, saisie par la caméra embarquée 20, est soumise à une conversion d'image pour ainsi obtenir une image de conversion qui simule une image de vue à vol d'oiseau comme étant saisie à partir d'une position de caméra virtuelle au-dessus du véhicule en utilisant un paramètre amendable estimé à S110 qui indique la position réelle et la direction réelle de la caméra embarquée 20 pour remplacer le paramètre primaire stocké dans la mémoire flash. Le traitement passe alors à S106.
Supposons que, bien que la posture du véhicule contre la surface de route soit anormale, une image de saisie, saisie par la caméra embarquée 20, est soumise à une conversion d'image en utilisant le paramètre primaire stocké dans la mémoire flash pour ainsi simuler une image de vue à vol d'oiseau. Dans ce cas, comme cela est indiqué sur la figure 5, l'image ayant subi la conversion d'image devient une image comme étant vue à partir d'un sens oblique, fournissant ainsi une cause de déformation. Dans ce but, la partie suivante est exécutée pour résoudre un tel désavantage lorsque la posture du véhicule contre la surface de route est anormale. À savoir, la position et la direction de la caméra embarquée 20 dans l'état anormal dans lequel la posture est anormale contre la surface de route sont amendés en position réelle et direction réelle de la caméra embarquée 20. Lorsqu'une image de saisie, saisie par la caméra embarquée 20, est soumise à une conversion d'image pour ainsi simuler une image de vue à vol d'oiseau en fonction de la position amendée et de la direction amendé, l'image simulée résultante ayant subi la conversion d'image devient une image, qui exclut une déformation, comme étant vue à partir de la droite au-dessus du véhicule, comme cela est indiqué sur la figure 6. En outre, lorsque la posture du véhicule retourne à l'état normal où elle n'est pas inclinée, la détermination à S102 est réfutée comme étant NON. À S104, la conversion d'image est réalisée. Spécifiquement, l'image de saisie, saisie par la caméra embarquée 20, est soumise à une conversion d'image pour ainsi obtenir une image de conversion qui simule une image de vue à vol d'oiseau comme étant saisie à partir d'une position de caméra virtuelle au-dessus du véhicule en utilisant le paramètre primaire stocké dans la mémoire flash. À savoir, une coordonnée (X0, Y0, ZO) est définie comme la position primaire O de la caméra embarquée 20 alors que l'angle 00 est défini comme étant la direction primaire de la caméra embarquée 20 en fonction de la direction horizontale ou du plan horizontal. En fonction de telles définitions, l'image de saisie, saisie par la caméra embarquée 20, est soumise à une conversion d'image pour ainsi obtenir une image de conversion qui simule une image de vue à vol d'oiseau comme étant saisie à partir d'une position de caméra virtuelle au-dessus du véhicule. La configuration mentionnée ci-dessus détermine si la posture du véhicule contre la surface de route est anormale ; estime des variations de la position et de la direction de la caméra embarquée 20 lors de la détermination que la posture contre la surface de route est anormale ; spécifie un paramètre amendable, qui indique une position réelle et une direction réelle de la caméra embarquée 20 dans l'état anormal dans lequel la posture du véhicule est anormale contre la surface de route, à partir des variations estimées de la position et de la direction de la caméra embarquée 20 lors de la détermination que la posture du véhicule contre la surface de route est anormale ; et applique une conversion d'image sur une image de saisie, saisie par la caméra embarquée 20, en utilisant le paramètre amendable spécifié pour simuler une image comme étant saisie par une caméra virtuelle. Cette configuration peut empêcher l'image composite de fournir une déformation en raison de la variation dans la posture du véhicule.
En outre, comme cela est expliqué ci-dessus, les capteurs d'inclinaison peuvent être prévus pour envoyer des informations d'inclinaison selon l'inclinaison du véhicule contre la surface de route. En fonction des informations d'inclinaison envoyées à partir des capteurs d'inclinaison, il peut être déterminé si la posture de la caméra embarquée 20 contre la surface de route est anormale.
Deuxième mode de réalisation. L'appareil de surveillance de périphérie de véhicule selon le premier mode de réalisation détermine si la posture du véhicule est anormale et estime la position et la direction de la caméra embarquée 20 dans l'état anormal dans lequel la posture du véhicule est anormale à partir des variations de la position et de la direction en fonction des informations d'inclinaison entrées à partir des capteurs d'inclinaison. Le présent mode de réalisation diffère du premier mode de réalisation en ce qui concerne la reconnaissance de différences du mouvement de points caractéristiques contenus dans une image de saisie, saisie par la caméra embarquée 20, avec une analyse d'image, et estime la position et la direction de la caméra embarquée 20 dans l'état anormal dans lequel la posture du véhicule est anormale en fonction de flux optiques des points caractéristiques contenus dans l'image de saisie. 11 faut noter qu'un flux optique est destiné à indiquer le mouvement d'un objet en utilisant un vecteur dans l'image de saisie de la caméra embarquée 20. Des signes de référence identiques à ceux dans le premier mode de réalisation sont attribués à des parties identiques à celles dans le premier mode de réalisation, et ces parties sont omises de l'explication ; les différentes parties sont seulement expliquées en fonction de leur priorité.
En faisant référence à (a) sur la figure 7, lorsque le véhicule se déplace sur une surface de route plate, le flux optique de chaque point caractéristique contenu dans une image de saisie, saisie par la caméra embarquée 20, est illustré sous forme de vecteur. À savoir, les flux optiques des points caractéristiques contenus dans l'image de saisie sont indiqués sous forme de vecteurs convergeant vers un point à l'infini qui apparaît dans le sens de direction du véhicule. Par contre, au cas où une roue du véhicule se déplace par-dessus un gradin ou une différence de niveau pour ainsi changer un angle de pas du véhicule ou de la caméra embarquée 20 (à savoir, change une orientation du véhicule ou de la caméra embarquée 20 contre un plan horizontal), le flux optique de chaque point caractéristique contenu dans l'image de saisie, saisie par la caméra embarquée 20, est exprimé sous forme de vecteurs qui vont dans un sens uniforme, comme cela est illustré en traits pleins dans (b) sur la figure 7, contrairement aux traits pointillés dans (b) sur la figure 7, qui sont identiques aux traits pleins dans (a) sur la figure 7. Le présent mode de réalisation reconnaît des différences dans le mouvement de points caractéristiques contenus dans une image de saisie, saisie par la caméra embarquée 20, avec une analyse d'image ; détermine si la posture du véhicule est anormale ; et estime des variations de la position et de la direction de la caméra embarquée 20 lors de la détermination que la posture est anormale contre la surface de route. Spécifiquement, une base de données est prévue pour stocker des vecteurs de points caractéristiques contenus dans une image de saisie, saisie par la caméra embarquée 20, au cas où le véhicule se déplace une surface de route plate. À S102, la détermination que la posture du véhicule est anormale est réalisée en fonction de la différence entre (i) les vecteurs de points caractéristiques contenus dans l'image de saisie, saisie par la caméra embarquée 20, aux cas où le véhicule, qui est spécifié par la base de données, se déplace sur une surface de route plate, et (ii) les présents vecteurs réels des points caractéristiques contenus dans l'image de saisie, saisie par la caméra embarquée 20. Lors de la détermination que la posture du véhicule contre la surface de route est anormale, le traitement passe à S110. À S110, les variations de la position et de la direction de la caméra embarquée 20 lors de la détermination que la posture est anormale contre la surface de route sont estimées à partir de la différence entre (i) les vecteurs de points caractéristiques contenus dans l'image de saisie, saisie par la caméra embarquée 20, aux cas où le véhicule se déplace sur une surface de route plate, et (ii) les présents vecteurs réels des points caractéristiques contenus dans l'image de saisie, saisie par la caméra embarquée 20. Ensuite, à S112, un paramètre amendable est spécifié, qui indique une position réelle et une direction réelle de la caméra embarquée 20, à partir des variations estimées de la position et de la direction de la caméra embarquée 20 lors de la détermination que la posture du véhicule contre la surface de route est anormale ; et une conversion d'image est appliquée sur une image de saisie, saisie par la caméra embarquée 20, en utilisant le paramètre amendable pour simuler une image comme étant saisie par une caméra virtuelle. Comme cela est expliqué ci-dessus, une analyse d'image de l'image de saisie, saisie par la caméra embarquée 20, est réalisée ; les vecteurs de mouvement des points caractéristiques contenus dans l'image de saisie sont estimés ; et le fait que la posture de la caméra embarquée 20 contre la surface de route est anormale est déterminé en fonction des vecteurs de mouvement des points caractéristiques contenus dans l'image de saisie.
Troisième mode de réalisation. L'appareil de surveillance de périphérie de véhicule selon le premier mode de réalisation estime la position et la direction de la caméra embarquée 20 dans l'état anormal dans lequel la posture du véhicule est anormale en fonction des variations de la position et de la direction en fonction des informations d'inclinaison entrées à partir des capteurs d'inclinaison. L'appareil de surveillance de périphérie de véhicule selon un troisième mode de réalisation estime la position et la direction de la caméra embarquée 20 dans l'état anormal dans lequel la posture du véhicule est anormale en fonction des différentes sources. À savoir, un signal d'angle de gouvernail (également appelé signal de braquage) selon un angle du volant de direction du véhicule est acquis en tant que premier signal pour spécifier une variation de la posture du véhicule en raison de la force centrifuge à l'instant du virage du véhicule ; un signal de vitesse envoyé à partir d'un capteur de vitesse est acquis en tant que second signal pour spécifier une variation de la posture du véhicule en raison de l'accélération et de la décélération du véhicule. La détermination que la posture du véhicule est anormale contre la surface de route et l'estimation de variations de la position et de la direction de la caméra embarquée 20 lors de la détermination que la posture est anormale contre la surface de route sont réalisées en fonction de (i) la variation de la posture en raison de la force centrifuge à l'instant du virage du véhicule spécifié par le signal d'angle de gouvernail, et (ii) la variation de la posture du véhicule en raison de l'accélération et de la décélération du véhicule spécifiées par le signal de vitesse. Il faut noter que la posture du véhicule durant le déplacement ou le 15 mouvement du véhicule dépend des performances de la suspension du véhicule ainsi que des variations de la force centrifuge à l'instant du virage et de l'accélération du véhicule. Dans l'appareil de surveillance de périphérie de véhicule selon le troisième mode de réalisation, une table est préparée qui spécifie, par rapport à chacun des 20 modèles de véhicule, une association entre (i) les comportements de véhicule, tels qu'un angle de braquage du véhicule et une accélération du véhicule, et (ii) les variations de la posture du véhicule. Le présent mode de réalisation est ainsi prévu comme suit. À S102, il est déterminé, en utilisant la table applicable au modèle de véhicule d'un véhicule hôte, 25 si la posture du véhicule durant le mouvement ou le déplacement est anormale. À S110, lorsqu'il est déterminé que la posture du véhicule contre la surface de route est anormale, les variations de la position et de la direction de la caméra embarquée 20 dans l'état anormal dans lequel la posture du véhicule est anormale sont estimées. À S112, un paramètre amendable est spécifié, qui indique une position réelle et une 30 direction réelle de la caméra embarquée 20, à partir des variations estimées ; et une conversion d'image est appliquée sur une image de saisie, saisie par la caméra embarquée 20, en utilisant le paramètre amendable pour simuler une image comme étant saisie par une caméra virtuelle.
Autres modes de réalisation. Dans les modes de réalisations ci-dessus, du premier au troisième, l'image de saisie, saisie par la caméra embarquée 20, est soumise à une conversion d'image pour simuler une image de vue à vol d'oiseau comme étant saisie à partir d'une position de caméra virtuelle au-dessus du véhicule. Une position de caméra virtuelle peut ne pas être limitée à la position au-dessus du véhicule. En outre, dans les modes de réalisation ci-dessus, du premier au troisième, une position de caméra virtuelle est supposée être au-dessus du véhicule, et une image de saisie, saisie par la caméra embarquée, est convertie en une image de vue à vol d'oiseau simulée comme étant saisie à partir de la position de caméra virtuelle. L'image de vue à vol d'oiseau ayant subi la conversion d'image est stockée dans la mémoire de stockage temporaire ; et une image composite de la périphérie de véhicule est générée en utilisant de multiples images de vue à vol d'oiseau stockées dans la mémoire de stockage temporaire. Dans une telle configuration, lors de la détermination que la posture de la caméra embarquée 20 contre la surface de route est anormale, un paramètre amendable est spécifié, qui indique une position réelle et une direction réelle de la caméra embarquée 20, à partir des variations estimées de la position et de la direction de la caméra embarquée 20 contre la surface de route ; et une conversion d'image est appliquée sur une image saisie par la caméra embarquée 20 en utilisant le paramètre amendable pour simuler une image comme étant saisie par une caméra virtuelle. Un autre système peut être utilisé qui est affecté par le changement de l'angle de la caméra embarquée. Par exemple, un système peut être utilisé, qui estime une distance jusqu'à un objet cible à partir du pixel de l'image de saisie, saisie par la caméra embarquée fixée au véhicule. Dans ce système, lors de la détermination que la posture de la caméra embarquée 20 contre la surface de route est anormale, un paramètre amendable, qui indique une position réelle et une direction réelle de la caméra embarquée 20, peut être spécifié à partir des variations estimées de la position et de la direction de la caméra embarquée 20 contre la surface de route ; et une conversion d'image peut être appliquée sur une image de saisie, saisie par la caméra embarquée 20, en utilisant le paramètre amendable pour simuler une image comme étant saisie par une caméra virtuelle. En outre, dans le premier mode de réalisation ci-dessus, lorsque la posture du véhicule s'incline, avec l'avant du véhicule vers le bas, à savoir, une posture à nez vers le bas ou une posture descendante, ou lorsque la posture du véhicule s'incline, avec l'arrière du véhicule vers le bas, à savoir, une posture à nez vers le haut ou posture ascendante, un paramètre amendable indiquant une position et une direction de la caméra embarquée 20 contre la surface de route dans l'état anormal est stipulé à partir des variations de la position et de la direction de la caméra embarquée 20 contre la surface de route. La présente invention ne doit être limitée à ceci. Lorsque la posture du véhicule s'incline, avec le côté arrière du véhicule vers le bas, lorsque la posture du véhicule s'incline, avec le côté droit du véhicule vers le bas, lorsque la posture du véhicule s'incline, avec le côté avant gauche du véhicule vers le bas, ou lorsque la posture du véhicule s'incline, avec le côté arrière gauche du véhicule vers le bas, un paramètre amendable, qui indique une position réelle et une direction réelle de la caméra embarquée 20, peut être spécifié à partir des variations estimées de la position et de la direction de la caméra embarquée 20 contre la surface de route. En outre, ceci peut être applicable au deuxième mode de réalisation et au troisième mode de réalisation. L'estimation de la position et de la direction de la caméra embarquée 20 dans l'état anormal dans lequel la posture du véhicule est anormale est réalisée en faisant référence à diverses sources dans les modes de réalisation ci-dessus. Le premier mode de réalisation fait référence, en tant que première source, aux informations d'inclinaison à partir des capteurs d'inclinaison. Le deuxième mode de réalisation fait référence, en tant que deuxième source, à des flux optiques de points caractéristiques contenus dans l'image de saisie, saisie par la caméra embarquée 20. Le troisième mode de réalisation fait référence, en tant que troisième source, à (i) la variation de la posture en raison de la force centrifuge à l'instant du virage du véhicule, et (ii) la variation de la posture en raison de l'accélération et de la décélération du véhicule spécifiées par le signal de vitesse. Parmi les trois sources décrites ci-dessus dans les modes de réalisation, du premier au troisième, au moins deux peuvent être associées. En outre, dans les modes de réalisation ci-dessus, du premier au troisième, le paramètre primaire indiquant la position primaire et la direction primaire de la caméra embarquée 20 comprend (i) une coordonnée (X0, Y0, ZO) indiquant la position primaire O de la caméra embarquée 20, (ii) un angle 00 indiquant la direction primaire de la caméra embarquée 20 en fonction de la direction horizontale, et (iii) une distance L entre l'essieu des roues avant et l'essieu des roues arrière. Le paramètre primaire peut comprendre un autre élément, autre que les trois éléments ci-des sus . En outre, dans les modes de réalisation ci-dessus, du premier au troisième, une image composite d'une périphérie de véhicule est générée à partir d'une image de saisie, saisie par la caméra embarquée 20, fixée au véhicule en tant que caméra arrière. La présente invention ne doit être limitée à ceci. Une autre caméra embarquée 20, autre que la caméra arrière, peut être utilisée. En outre, dans les modes de réalisations ci-dessus, du premier au troisième, une image composite d'une périphérie de véhicule est générée en utilisant des images de saisie, saisies par une seule caméra embarquée 20. La présente invention ne doit être limitée à ceci. Plusieurs caméras embarquées 20 peuvent être prévues et une image composite d'une périphérie de véhicule peut être générée en utilisant des images de saisie, saisies par les multiples caméras embarquées 20.
Comme cela est expliqué ci-dessus, l'organigramme dans le mode de réalisation ci-dessus comprend les multiples sections, dont des exemples seront comme suit. S104, S112, exécutées par le circuit de commande 10, peuvent servir de section, de dispositif ou de moyen de conversion d'image. S106, S108, exécutées par le circuit de commande 10, peuvent servir de section, de dispositif ou de moyen de génération d'image composite. S102, exécutée par le circuit de commande 10, peut servir de section, de dispositif ou de moyen de détermination. S110, exécutée par le circuit de commande 10, peut servir de section, de dispositif ou de moyen d'estimation de variation. Bien que la présente invention ait été décrite en faisant référence à des modes de réalisation préférés de celle-ci, il faut entendre que l'invention n'est pas limitée aux modes de réalisation et constructions préférés. La présente invention est prévue pour couvrir divers agencements de modification et équivalents. En outre, bien que les diverses associations et configurations soient préférées, d'autres associations et configurations, comprenant plus, moins, voire seulement un seul élément, sont également au sein de l'esprit et de la portée de la présente invention.

Claims (8)

  1. REVENDICATIONS1. Appareil de surveillance de périphérie de véhicule dans un véhicule auquel une caméra embarquée (20) est fixée, l'appareil de surveillance de périphérie de véhicule comprenant : une section de conversion d'image, qui convertit une image de saisie, qui est saisie par la caméra embarquée (20), en une image de conversion en utilisant un premier paramètre qui stipule une position primaire et une direction primaire de la caméra embarquée (20), l'image de conversion simulant une image qui est saisie par une caméra virtuelle supposée être positionnée séparément de la caméra embarquée (20) ; une section de génération d'image composite, qui stocke une pluralité d'images de conversion, en lesquelles la section de conversion d'image réalise une conversion d'image durant un mouvement du véhicule, dans une mémoire de stockage temporaire, et génère une image composite d'une périphérie de véhicule en utilisant la pluralité d'images de conversion stockées dans la mémoire de stockage temporaire ; une section de détermination, qui détermine si une posture du véhicule est dans un état anormal, l'état anormal étant un état dans lequel la posture du véhicule contre une surface de route est anormale ; et une section d'estimation de variation, qui estime une variation par rapport à la position primaire et à la direction primaire de la caméra embarquée (20) dans l'état 20 anormal, dans lequel : lorsque la section de détermination détermine que la posture du véhicule est dans l'état anormal, la section de conversion d'image 25 spécifie un second paramètre en fonction de la variation estimée par la section d'estimation de variation, le second paramètre indiquant une position réelle et une direction réelle de la caméra embarquée (20), et convertit l'image de saisie, saisie par la caméra embarquée (20), en une image de conversion simulant une image saisie par la caméra virtuelle, en utilisant le second 30 paramètre.
  2. 2. Appareil de surveillance de périphérie de véhicule selon la revendication 1, dans lequel : la section de détermination détermine si la posture du véhicule est dans l'état anormal en fonction d'informations d'inclinaison qu'un capteur envoie en réponse à une inclinaison du véhicule contre la surface de route.
  3. 3. Appareil de surveillance de périphérie de véhicule selon la revendication 1 ou la revendication 2, dans lequel : la section d'estimation de variation estime la variation en fonction d'informations d'inclinaison qu'un capteur envoie en réponse à une inclinaison du véhicule contre la surface de route.
  4. 4. Appareil de surveillance de périphérie de véhicule selon une quelconque des revendications 1 à 3, dans lequel : la section de détermination estime des vecteurs de mouvement de points caractéristiques contenus dans l'image de saisie, et détermine que la posture du véhicule contre la surface de route est dans l'état anormal en fonction des vecteurs de mouvement de points caractéristiques qui sont estimés.
  5. 5. Appareil de surveillance de périphérie de véhicule selon une quelconque des revendications 1 à 4, dans lequel : la section d'estimation de variation estime des vecteurs de mouvement de points caractéristiques contenus dans l'image de saisie, et estime la variation en fonction des vecteurs de mouvement de points caractéristiques qui sont estimés.
  6. 6. Appareil de surveillance de périphérie de véhicule selon une quelconque des revendications 1 à 5, dans lequel : la section de détermination acquiert un premier signal pour spécifier une première variation de la posture du véhicule en raison d'une force centrifuge lorsque le véhicule tourne, et un second signal pour spécifier une seconde variation de la posture du véhicule en raison d'une accélération et d'une décélération du véhicule, et détermine si la posture du véhicule contre la surface de route est dans l'état anormal en fonction de la première variation en raison de la force centrifuge spécifiée par lepremier signal et de la seconde variation en raison de l'accélération et de la décélération spécifiées par le second signal.
  7. 7. Appareil de surveillance de périphérie de véhicule selon une quelconque des revendications 1 à 6, dans lequel : la section d'estimation de variation acquiert un premier signal pour spécifier une première variation de la posture du véhicule en raison d'une force centrifuge lorsque le véhicule tourne, et un second signal pour spécifier une seconde variation de la posture du véhicule en raison d'une accélération et d'une décélération du véhicule, et estime la variation à partir de la position primaire et de la direction primaire en fonction de la première variation en raison de la force centrifuge spécifiée par le premier signal et de la seconde variation en raison de l'accélération et de la décélération spécifiées par le second signal.
  8. 8. Appareil de surveillance de périphérie de véhicule selon une quelconque des revendications 1 à 7, dans lequel : la caméra virtuelle est supposée être dans une position au-dessus du véhicule ; et l'image de conversion est une image de vue à vol d'oiseau qui est saisie à partir de la position au-dessus du véhicule.
FR1351791A 2012-03-07 2013-02-28 Appareil de surveillance de peripherie de vehicule Withdrawn FR2987928A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012050454A JP2013186245A (ja) 2012-03-07 2012-03-07 車両周辺監視装置

Publications (1)

Publication Number Publication Date
FR2987928A1 true FR2987928A1 (fr) 2013-09-13

Family

ID=49029771

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1351791A Withdrawn FR2987928A1 (fr) 2012-03-07 2013-02-28 Appareil de surveillance de peripherie de vehicule

Country Status (4)

Country Link
JP (1) JP2013186245A (fr)
CN (1) CN103303198A (fr)
DE (1) DE102013203868A1 (fr)
FR (1) FR2987928A1 (fr)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101896715B1 (ko) * 2012-10-31 2018-09-07 현대자동차주식회사 주변차량 위치 추적 장치 및 방법
JP6380002B2 (ja) * 2014-10-28 2018-08-29 アイシン精機株式会社 周辺監視装置
JP2017117315A (ja) * 2015-12-25 2017-06-29 株式会社デンソー 表示制御装置
JP6614042B2 (ja) * 2016-06-15 2019-12-04 株式会社Jvcケンウッド 姿勢変化判定装置、俯瞰映像生成装置、俯瞰映像生成システム、姿勢変化判定方法およびプログラム
KR101864985B1 (ko) * 2017-02-16 2018-06-05 인하대학교 산학협력단 건설장비 기울기 변화에 따른 어라운드 뷰 영상 왜곡 보정 장치 및 그 방법
JP6941949B2 (ja) * 2017-03-15 2021-09-29 株式会社Subaru 車両用映像表示装置
CN108008596A (zh) * 2017-12-29 2018-05-08 百维雅(东莞)网络技术有限公司 一种立体360度全景影像系统及实现方法
CN113795140A (zh) * 2019-03-20 2021-12-14 株式会社久保田 收获机
JP7135977B2 (ja) * 2019-03-29 2022-09-13 マツダ株式会社 車両用演算装置
CN112124199B (zh) * 2019-06-24 2024-04-12 博世汽车部件(苏州)有限公司 车辆行驶路况的成像方法、成像系统及车辆
CN110677622A (zh) * 2019-10-12 2020-01-10 华为终端有限公司 一种摄像头的控制方法和监控设备
CN113141574A (zh) * 2021-06-01 2021-07-20 江铃汽车股份有限公司 一种基于高精度定位的车辆异动监测方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03286306A (ja) 1990-04-03 1991-12-17 Mitsubishi Electric Corp 数値制御装置
EP1115250B1 (fr) * 1998-07-31 2012-06-06 Panasonic Corporation Procede et appareil d'affichage d'images
JP2001245131A (ja) * 2000-02-29 2001-09-07 Matsushita Electric Ind Co Ltd 画像補正方法および画像補正装置
JP4156214B2 (ja) * 2001-06-13 2008-09-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
JP3900415B2 (ja) * 2002-03-12 2007-04-04 株式会社デンソー 車両周辺画像処理装置,プログラム及び記録媒体
JP2004064441A (ja) * 2002-07-29 2004-02-26 Sumitomo Electric Ind Ltd 車載画像処理装置及び周囲モニタシステム
JP4075722B2 (ja) * 2003-07-22 2008-04-16 日産自動車株式会社 車両用表示制御装置
WO2006087993A1 (fr) * 2005-02-15 2006-08-24 Matsushita Electric Industrial Co., Ltd. Dispositif et procede de surveillance de peripherie
JP4596978B2 (ja) * 2005-03-09 2010-12-15 三洋電機株式会社 運転支援システム
JP2007102798A (ja) * 2006-10-11 2007-04-19 Denso Corp 車両周辺監視システム
JP4770755B2 (ja) 2007-02-26 2011-09-14 株式会社デンソー 道路標示認識装置
JP2010245821A (ja) * 2009-04-06 2010-10-28 Denso Corp 車両用画像表示装置
JP2011130262A (ja) * 2009-12-18 2011-06-30 Honda Motor Co Ltd 車両の周辺監視装置

Also Published As

Publication number Publication date
CN103303198A (zh) 2013-09-18
JP2013186245A (ja) 2013-09-19
DE102013203868A1 (de) 2013-09-12

Similar Documents

Publication Publication Date Title
FR2987928A1 (fr) Appareil de surveillance de peripherie de vehicule
FR2963916B1 (fr) Appareil pour faire fonctionner un objet mobile
FR2883825A1 (fr) Appareil d'assistance a la conduite d'un vehicule
EP2133237B1 (fr) Procédé d'affichage d'aide au parking
FR2899332A1 (fr) Dispositif de mesure de champ de visibilite pour vehicule et systeme d'assistance a la conduite pour vehicule
FR2871737A1 (fr) Procede pour atteler une remorque a un vehicule automobile
FR3098172A1 (fr) Procédé de détermination d’une trajectoire d’évitement d’un véhicule automobile
JP2015102898A (ja) 道路標識判断装置
FR2965765A1 (fr) Procede et dispositif pour former une image d'un objet dans l'environnement d'un vehicule
EP3579191B1 (fr) Estimation dynamique du tangage instantané et du roulis instantané d'une caméra embarquée dans un véhicule automobile
WO2005010820A9 (fr) Procede et dispositif automatise de perception avec determination et caracterisation de bords et de frontieres d'objets d'un espace, construction de contours et applications
EP2432660B1 (fr) Procede et dispositif pour etendre une zone de visibilite
WO2022175034A1 (fr) Procédé d'activation d'un système d'évitement d'obstacle pour véhicule automobile
FR3016573B1 (fr) Installation de retroviseur de vehicule
EP3473000B1 (fr) Procédé et système de prise de vues a l'aide d'un capteur virtuel
EP2801075B1 (fr) Procede de traitement d'image d'une camera embarquee sur un vehicule et dispositif de traitement correspondant
WO2019091920A1 (fr) Procede d'affichage d'une image de l'environnement d'un vehicle sur un ecran tactile equipant le vehicule
EP1953698B1 (fr) Procédé de traitement d'images prises par une caméra embarquée sur véhicule
WO2022175103A1 (fr) Procédé d'évitement d'obstacles
EP3830741B1 (fr) Assistance à la conduite pour le controle d'un vehicule automobile comprenant des étappes parallèles de traitement des images transformées.
EP3924237A1 (fr) Conduite autonome fondé sur une distance et une vitesse d'objets cibles distincts
FR3060775A1 (fr) Procede pour determiner une zone d'affichage d'un element dans un dispositif d'affichage
FR2982552A1 (fr) Dispositif de surveillance perimetrique de vehicule
WO2021249809A1 (fr) Procede de calibration d'une camera et dispositif associe
EP4264535A1 (fr) Système et procédé de calcul d'une image finale d'un environnement d'un véhicule

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

PLSC Publication of the preliminary search report

Effective date: 20161021

ST Notification of lapse

Effective date: 20161028