DE60101440T2 - Vorrichtung zur Überwachung der Umgebung eines beweglichen Körpers - Google Patents

Vorrichtung zur Überwachung der Umgebung eines beweglichen Körpers Download PDF

Info

Publication number
DE60101440T2
DE60101440T2 DE60101440T DE60101440T DE60101440T2 DE 60101440 T2 DE60101440 T2 DE 60101440T2 DE 60101440 T DE60101440 T DE 60101440T DE 60101440 T DE60101440 T DE 60101440T DE 60101440 T2 DE60101440 T2 DE 60101440T2
Authority
DE
Germany
Prior art keywords
image
omniazimuth
vehicle
image data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60101440T
Other languages
English (en)
Other versions
DE60101440D1 (de
DE60101440T3 (de
Inventor
Kiyoshi Kyotanabe-shi Kumata
Noritoshi Nara-shi Kako
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26601909&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE60101440(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of DE60101440D1 publication Critical patent/DE60101440D1/de
Application granted granted Critical
Publication of DE60101440T2 publication Critical patent/DE60101440T2/de
Publication of DE60101440T3 publication Critical patent/DE60101440T3/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Lenses (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Description

  • Die Erfindung betrifft ein Umgebungsüberwachungssystem zur Überwachung der Umgebung eines beweglichen Körpers. Genauer betrifft die Erfindung eine Umgebungsüberwachungsvorrichtung zur Überwachung der Umgebung eines beweglichen Körpers, der Personen oder Fracht transportiert, wie etwa eines Fahrzeugs, eines Zugs usw.
  • BESCHREIBUNG DES STANDES DER TECHNIK
  • In den letzten Jahren ist die Zunahme von Verkehrsunfällen zu einem wichtigen gesellschaftlichen Problem geworden. Insbesondere an einem Ort, an dem mehrere Fahrbahnen aufeinander treffen (Einmündung, Kreuzung oder dergleichen) können sich mitunter verschiedene Unfälle ereignen. Beispielsweise treten Leute plötzlich auf die Straße, auf der sich Fahrzeuge bewegen, ein Fahrzeug stößt frontal mit einem anderen Fahrzeug zusammen oder fährt in das Heck eines anderen Fahrzeugs usw. Es wird angenommen, dass derartige Unfälle im Allgemeinen dadurch hervorgerufen werden, dass das Sichtfeld sowohl für Fahrzeugführer als auch für Fußgänger im Kreuzungsbereich eingeschränkt ist und viele Fahrzeugführer und Fußgänger nicht auf ihre Umgebung Acht geben und Gefahren nicht schnell genug erkennen können. Folglich besteht ein hoher Bedarf an Verbesserungen am Fahrzeug selbst, um die Aufmerksamkeit der Fahrzeugführer zu wecken, sowie an Verbesserungen und einem Ausbau des Verkehrsraumes.
  • Herkömmlich sind, um den Verkehrsraum günstiger zu gestalten, in einem Kreuzungsbereich an geeigneten Positionen Spiegel aufgestellt, damit Fahrzeugführer und Fußgänger ansonsten schwer einsehbare Bereiche hinter Hindernissen sehen können. Jedoch ist der sichtbare Teil eines schwer einsehbaren Bereichs, der mittels eines Spiegels abgedeckt werden kann, begrenzt, außerdem ist keine ausreichende Anzahl Spiegel aufgestellt worden.
  • In den letzten Jahren haben viele große Kraftfahrzeuge, wie etwa Busse und einige Personenkraftwagen, ein Überwachungssystem zur Überprüfung der Sicherheit ringsherum und insbesondere am Heck des Fahrzeugs erhalten. Das System enthält eine Überwachungskamera, die am Heck des Fahrzeugs angebracht ist, und einen Kontrollschirm, der in der Nähe des Fahrersitzes oder auf einem Armaturenbrett vorgesehen ist. Der Kontrollschirm ist über ein Kabel mit der Überwachungskamera verbunden. Ein von der Überwachungskamera aufgenommenes Bild wird auf dem Kontrollschirm angezeigt. Jedoch muss der Fahrzeugführer auch bei einem derartigen Überwachungssystem die Sicherheit beiderseits des Fahrzeugs persönlich unter Einsatz seines Sehvermögens überprüfen. Folglich kann der Fahrzeugführer in einem Kreuzungsbereich oder dergleichen, in dem es auf Grund von Hindernissen schwer einsehbare Bereiche gibt, mitunter Gefahren nicht sofort erkennen. Außerdem besitzt eine einzige Kamera dieses Typs ein eingeschränktes Sichtfeld, so dass die Kamera nur in einer Richtung Hindernisse erfassen und Zusammenstöße voraussehen kann. Um die Anwesenheit/Abwesenheit von Hindernissen zu überprüfen und die Gefahr eines Zusammenstoßes über einen weiten Bereich vorauszusehen ist eine bestimmte Manipulation, z. B. eine. Veränderung eines Kamerawinkels, erforderlich.
  • Da ein Hauptzweck des herkömmlichen Umgebungsüberwachungssystem für Kraftfahrzeuge die Überwachung in einer Richtung ist, sind mehrere Kameras erforderlich, um einen 360° umfassenden Bereich rings um ein Kraftfahrzeug zu beobachten; d. h. es ist erforderlich, vier oder mehr Kameras so vorzusehen, dass der vordere Bereich, der hintere Bereich, die linke und die rechte Seite des Fahrzeugs jeweils mit wenigstens einer Kamera versehen sind.
  • Außerdem könnte sich in dem Fall, in dem ein Fahrzeug in einem Gelände oder zu einem Zeitpunkt benutzt wird, in dem bzw. zu dem die Umgebungstemperatur auf einen bestimmten Wert oder unter diesen abgefallen ist, wie etwa in Gebieten großer Höher, Zonen großer geographischer Breite, im Winter usw., während eines bestimmten Zeitraums, nachdem die Maschine des Kraftfahrzeugs in Gang gesetzt worden ist, mitunter an einem Fensterglas des Fahrzeugs Feuchtigkeit niedergeschlagen haben und anschließend an dem Fenster gefroren sein. Durch einen solchen Niederschlag oder gefrorenen Niederschlag oder durch andere Faktoren könnte mitunter das Fenster beschlagen sein, so dass es für einen Fahrzeugführer schwierig ist, aus dem Fahrzeuginnenraum nach draußen zu sehen. Wenn der Fahrzeugführer beispielsweise das Fahrzeug am Straßenrand abgestellt hat, ist in vielen Fällen das Fahrzeug des Fahrzeugführers einem anderen Fahrzeug oder einer Person nahe. Wenn der Fahrzeugfüh rer das Fahrzeug unter derartigen Umständen zu fahren beginnt, kann er die Bedingungen rings um das Fahrzeug nicht voll erfassen, wenn nicht der Schleier auf dem Glasfenster in ausreichendem Maße weggewischt oder durch warme Luft verdampft worden ist.
  • Selbstverständlich trifft in dem Fall, in dem ein Kraftfahrzeug verwendet wird, ein Fahrzeugführer auf unterschiedliche Situationen, in denen er sich der Gefahrlosigkeit rings um das Kraftfahrzeug versichern muss. Beispielsweise hat der Fahrzeugführer dann, wenn er zu fahren beginnt, die Gefahrlosigkeit an der rechten, der linken und der Rückseite des Kraftfahrzeugs ebenso wie an der Vorderseite zu überprüfen. Wenn das Kraftfahrzeug eine Kurve nach rechts oder nach links fährt oder wenn der Fahrzeugführer das Kraftfahrzeug in einen Einstellplatz einparkt oder aus dem Einstellplatz herausfährt, muss er die Gefahrlosigkeit rings um das Kraftfahrzeug überprüfen. Auf Grund der Gestalt und des Aufbaus des Fahrzeugs gibt es jedoch schwer einsehbare Stellen/Bereiche, d. h. Bereiche, die der Fahrzeugführer hinter und/oder rings um das Fahrzeug nicht direkt einsehen kann, und es ist für ihn schwierig, die Gefahrlosigkeit solcher schwer einsehbarer Stellen/Bereiche zu überprüfen. Folglich stellen derartige schwer einsehbare Bereiche eine erhebliche Belastung für den Fahrzeugführer dar.
  • Außerdem ist es in dem Fall, in dem ein herkömmliches Umgebungsüberwachungssystem verwendet wird, notwendig, mehrere Kameras vorzusehen, um die Gefahrlosigkeit in einem Bereich von 360° rings um das Fahrzeug zu überprüfen. In einem solchen Fall muss der Fahrzeugführer gezielt von einer Kamera zu einer anderen umschalten und/oder die Richtung der ausgewählten Kamera den Umständen entsprechend verändern, um die Gefahrlosigkeit rings um das Fahrzeug zu prüfen. Eine derartige Manipulation stellt eine erhebliche Belastung für den Fahrzeugführer dar.
  • Außerdem muss der Fahrzeugführer in dem Fall, in dem ein Fensterglas eines Fahrzeugs beschlagen ist und es für ihn schwierig ist, aus dem Fahrzeuginnenraum nach draußen zu sehen, die Temperatur im Fahrzeuginnenraum ansteigen lassen und warten, bis der Niederschlag am Fenster beseitigt ist, oder er muss den Niederschlag am Fenster wegwischen, damit er unter Einsatz seines Sehvermögens die Gefahrlosigkeit rings um das Fahrzeug persönlich prüfen kann. Wenn es in einem solchen Fall Mittel gibt, die den Fahrzeugführer bei der Überprüfung der Gefahrlosigkeit rings um Fahrzeug unterstützen und er nicht nur sein Sehvermögen gebraucht, kann der Fahrzeugführer das Fahrzeug sicherer anfahren.
  • EP 1 158 473 A2 (unter Art. 54(3) EPÜ anführbar) offenbart ein Umgebungsüberwachungssystem, das Bilddaten von einem Omniazimuth-Sichtsensor transformiert und ein Panoramabild und/oder ein perspektivisches Bild anzeigt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Gemäß der Erfindung wird ein Umgebungsüberwachungssystem geschaffen, wie es im Anspruch 1 beansprucht wird.
  • Vorzugsweise zeigt der Anzeigeabschnitt gleichzeitig oder wahlweise das Panoramabild und das perspektivische Bild an.
  • Vorzugsweise zeigt der Anzeigeabschnitt ein Bild an, das in einer Richtung gesehen wird, die der wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers entgegengesetzt ist.
  • Vorzugsweise transformiert der Bildprozessor Bilddaten, die einem ersten Bereich innerhalb des Omniazimuth-Gesichtsfeldbereichs um das optische System entsprechen, in erste perspektivische Bilddaten.
  • Vorzugsweise transformiert der Bildprozessor in Reaktion auf die Steuerung durch den Anzeigesteuerabschnitt Bilddaten, die einem nicht mit dem ersten Bereich überlappenden zweiten Bereich in dem Omniazimuth-Gesichtsfeldbereich um das optische System entsprechen, in zweite perspektivische Bilddaten, die nicht mit den ersten perspektivischen Bilddaten übereinstimmen.
  • Vorzugsweise stimmt der zweite Bereich mit einem Bereich überein, der durch Ausführen wenigstens einer Verarbeitung einer translatorischen Verlagerung und einer Zoom-In/Zoom-Out-Verarbeitung des ersten Bereichs erhalten wird.
  • Vorzugsweise ist das optische System so positioniert, dass eine optische Achse des optischen Systems senkrecht zu einer wahrscheinlichsten Bewegungsrich tung des beweglichen Körpers ist.
  • Vorzugsweise zeigt der Anzeigeabschnitt in Reaktion auf die Steuerung durch den Anzeigesteuerabschnitt ein Bild an, das den beweglichen Körper auf einem Anzeigeschirm des Anzeigeabschnitts so zeigt, dass der bewegliche Körper an einer vorgegebenen Position auf einem auf dem Anzeigeschirm angezeigten Bild dargestellt wird.
  • Wenn ein Bild eines beweglichen Körpers und seiner Umgebung aus der Vogelperspektive angezeigt wird, stellt der Anzeigeabschnitt das Bild vorzugsweise so dar, dass der bewegliche Körper an einer vorgegebenen Position auf einem Anzeigeschirm gezeigt wird.
  • Der Anzeigeabschnitt zeigt ein Bild eines beweglichen Körpers und seiner Umgebung aus der Vogelperspektive an. In diesem Fall, in dem der Anzeigeabschnitt ein Bild des gesamten beweglichen Körpers und seiner Umgebung aus der Vogelperspektive anzeigt, kann ein Benutzer des beweglichen Körpers die Umgebung des beweglichen Körpers in allen Richtungen gleichzeitig überprüfen.
  • Wenn ein Omniazimuth-Sichtsensor im Stande ist, ein Bild eines gesamten beweglichen Körpers und seiner Umgebung aus der Vogelperspektive direkt in Bilddaten umzusetzen, kann der Anzeigeabschnitt ein Perspektivbild des gesamten beweglichen Körpers und seiner Umgebung aus der Vogelperspektive anzeigen, das aus den Bilddaten umgesetzt ist, die von dem Omniazimuth-Sichtsensor abgeleitet sind.
  • In einigen Fällen kann jedoch ein Omniazimuth-Sichtsensor ein Bild eines gesamten beweglichen Körpers und seiner Umgebung aus der Vogelperspektive nicht direkt in Bilddaten umsetzen. Wenn beispielsweise ein Omniazimuth-Sichtsensor an einer Stelle positioniert ist, die höher als der Hauptkörper (oder das Dach) eines Fahrzeugs ist, kann der Omniazimuth-Sichtsensor ein Bild des gesamten Fahrzeugs und seiner Umgebung aus der Vogelperspektive erhalten, das direkt von einer Position unmittelbar über dem Fahrzeug aus gesehen ist. Wenn jedoch der Omniazimuth-Sichtsensor an einer Stelle angeordnet ist, die niedriger als das Dach des Fahrzeugs ist, wird ein Teil des Sehfeldes des Omniazimuth-Sichtsensors durch das Fahrzeug unterbrochen, so dass kein Bild des gesamten Fahrzeugs und seiner Umgebung aus der Vogelperspektive erzielt werden kann.
  • In einem solchen Fall könnten mehrere Perspektivbilder, die von mehreren Omniazimuth-Sichtsensoren aufgenommen werden, kombiniert werden, um ein einziges Bild des gesamten Fahrzeugs und seiner Umgebung aus der Vogelperspektive anzuzeigen. Bei einer solchen Ausführung kann ein Bediener des beweglichen Körpers die Umgebung des beweglichen Körpers in allen Richtungen gleichzeitig überprüfen.
  • Als eine andere Möglichkeit könnten Fahrzeugbilddaten, die ein Draufsichtbild (Bild aus einer Vogelperspektive) des Fahrzeugs repräsentieren, das zu einem früheren Zeitpunkt von einer Position direkt über dem Fahrzeug aufgenommen und in einen Speicherabschnitt eines Bildprozessors gespeichert worden ist, und die Fahrzeugbilddaten, die in dem Speicherabschnitt gespeichert sind, mit Perspektivbilddaten, die durch Umsetzen des von dem Omniazimuth-Sichtsensor aufgenommenen Bildes erhalten werden, kombiniert werden, so dass der Anzeigeabschnitt ein perspektivisches Bild, welches das gesamte Fahrzeug an einer vorgegebenen Position zeigt, auf dem Anzeigeschirm zur Anzeige bringen könnte.
  • Als eine andere Möglichkeit könnten die Bilddaten eines Draufsichtbildes (eines Bildes aus der Vogelperspektive) des Fahrzeugs, die zu einem früheren Zeitpunkt unter Verwendung einer Computergraphik-Software erzeugt wurden, in einem Speicherabschnitt eines Bildprozessors gespeichert sein, und die zu einem früheren Zeitpunkt erzeugten Bilddaten könnten mit perspektivischen Bilddaten kombiniert werden, die durch Umsetzen eines von dem Omniazimuth-Sichtsensor abgeleiteten Bildes erzielt worden sind, so dass der Anzeigeabschnitt ein kombiniertes Bild anzeigen könnte, welches das gesamte Fahrzeug an einer vorgegebenen Position auf dem Anzeigeschirm zeigt.
  • Auf diese Weise werden ein vorbereitetes Bild eines beweglichen Körpers und ein von einem Omniazimuth-Sichtsensor aufgenommenes perspektivisches Bild, das den beweglichen Körper und seine Umgebung zeigt, zu einem anzuzeigenden Bild kombiniert. Anhand eines solchen kombinierten Bildes kann der Bediener des beweglichen Körpers leicht eine relative Entfernung zwischen dem beweglichen Körper und Gegenständen rings um das Fahrzeug erfassen. Bei Verwendung eines zu einem früheren Zeitpunkt aufgenommenen Bildes des beweglichen Körpers kann der Bediener des beweglichen Körpers problemlos eine relative Entfernung zwischen dem beweglichen Körper und Gegenständen rings um das Fahrzeug bei einer besseren bildlichen Realität erfassen.
  • In einer Ausführungsform zeigt der Anzeigeabschnitt ein Bild an, das in einer zur wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers entgegengesetzten Richtung gesehen wird, und gleichzeitig ein Bild, das in einer Richtung gesehen wird, die weder mit der wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers übereinstimmt noch zu ihr entgegengesetzt ist.
  • Vorzugsweise ist der bewegliche Körper ein Fahrzeug.
  • Vorzugsweise umfasst das Fahrzeug einen ersten Stoßfänger, der an der Seite der wahrscheinlichsten Bewegungsrichtung des Fahrzeugs vorgesehen ist, und einen zweiten Stoßfänger, der an der Seite des Fahrzeugs vorgesehen ist, die der Seite der wahrscheinlichsten Bewegungsrichtung gegenüberliegt. Der wenigstens eine Omniazimuth-Sichtsensor umfasst einen ersten Omniazimuth-Sichtsensor, der an dem ersten Stoßfänger angeordnet ist, und einen zweiten Omniazimuth-Sichtsensor, der an dem zweiten Stoßfänger angeordnet ist.
  • Vorzugsweise ist der erste Omniazimuth-Sichtsensor in Bezug auf die wahrscheinlichste Bewegungsrichtung des Fahrzeugs entweder am rechten oder am linken Ende des ersten Stoßfängers angeordnet. Der zweite Omniazimuth-Sichtsensor ist an dem Ende des zweiten Stoßfängers angeordnet, das in Bezug auf die Karosserie des Fahrzeugs zu dem Ende des ersten Stoßfängers, an dem der erste Omniazimuth-Sichtsensor angeordnet ist, diagonal entgegengesetzt ist.
  • Vorzugsweise zeigt der Anzeigeabschnitt ein Bild an, das durch Kombinieren eines ersten perspektivischen Bildes, das von dem ersten Omniazimuth-Sichtsensor abgeleitet ist, und eines zweiten perspektivischen Bildes, das von dem zweiten Omniazimuth-Sichtsensor abgeleitet ist, erhalten wird.
  • Vorzugsweise enthält der Bildprozessor einen Speicherabschnitt für die Speicherung von Bilddaten des beweglichen Körpers; der Bildprozessor kombiniert die Bilddaten des beweglichen Körpers aus dem Speicherabschnitt mit den Per spektivbilddaten, die von dem optischen System abgeleitet sind, und der Anzeigeabschnitt zeigt auf der Grundlage der kombinierten Bilddaten ein perspektivisches Bild an, welches das Bild enthält, das den beweglichen Körper zeigt.
  • Vorzugsweise sind die Bilddaten des beweglichen Körpers Bilddaten, die unter Verwendung einer Computergraphik-Software erzeugt werden.
  • Vorzugsweise sind die Bilddaten des beweglichen Körpers Bilddaten, die durch Aufnehmen eines Bildes des beweglichen Körpers erhalten werden.
  • Vorzugsweise weist das Omniazimuth-Sichtsystem des Weiteren einen Temperaturmessabschnitt zum Messen einer Umgebungstemperatur des beweglichen Körpers auf: Wenn die von dem Temperaturmessabschnitt gemessene Umgebungstemperatur einer vorgegebenen Temperatur gleich ist oder niedriger als diese ist, dann zeigt der Anzeigeabschnitt das Bild des beweglichen Körpers und seiner Umgebung aus der Vogelperspektive an, nachdem der bewegliche Körper beweglich geworden ist.
  • Vorzugsweise stellt der Anzeigeabschnitt dann, wenn er ein perspektivisches Bild eines überlappenden Bereichs zwischen einem Anzeigebereich eines Bildes des beweglichen Körpers und seiner Umgebung aus der Vogelperspektive, das von dem ersten Omniazimuth-Sichtsensor aufgenommen ist, und einem Anzeigebereich eines Bildes des beweglichen Körpers und seiner Umgebung aus der Vogelperspektive, das von dem zweiten Omniazimuth-Sichtsensor aufgenommen ist, anzeigt, auf der Grundlage der Steuerung durch den Anzeigesteuerabschnitt ein perspektivisches Bild dar, das von einem der Sichtsensoren, dem ersten Omniazimuth-Sichtsensor oder dem zweiten Omniazimuth-Sichtsensor, abgeleitet ist.
  • Außerdem zeigt dann, wenn die Umgebungstemperatur des beweglichen Körpers niedriger als eine vorgegebene Temperatur ist, der Anzeigeabschnitt vorzugsweise ein Bild des beweglichen Körpers und seiner Umgebung aus der Vogelperspektive an, nachdem der bewegliche Körper beweglich geworden ist. Damit ein Bild des beweglichen Körpers und seiner Umgebung aus der Vogelperspektive erhalten wird, ist der Omniazimuth-Sichtsensor vorzugsweise so positioniert, dass der Sichtwinkel des Omniazimuth-Sichtsensors senkrecht zur wahrscheinlichsten Bewegungsrichtung ist. Wenn der bewegliche Körper ein Fahrzeug ist, wird der Omniazimuth-Sichtsensor so positioniert, dass er ein perspektivisches Bild aus einer Richtung aufnehmen kann, die einen Winkel von 90° zur Horizontalebene aufweist (Richtung senkrecht nach unten auf die Horizontalebene). Wenn ein perspektivisches Bild, das durch Umsetzen eines von einem solchen Omniazimuth-Sichtsensor aufgenommenen Bildes erhalten wird, zur Anzeige gebracht wird, kann der Bediener des beweglichen Körpers leicht die Gefahrlosigkeit rings um den beweglichen Körper überprüfen.
  • In der vorliegenden Beschreibung wird eine optische Abbildung, die durch ein optisches System zentralprojektionstransformiert worden ist, als ein Bild rings um das optische System betrachtet, das aus der Richtung eines Brennpunktes oder mehrerer Brennpunkte des optischen Systems gesehen ist.
  • Ein optisches System eines Omniazimuth-Sichtsensors ist zu einer Zentralprojektionstransformation eines Bildes um das optische System in der Lage. Dieses optische System umfasst beispielsweise einen Hyperboloidspiegel, der die Form einer Schale eines zweischaligen Hyperboloids hat. In dem optischen System stimmt die optische Achse des Hyperboloidspiegels mit der optischen Achse der Abbildungslinse, die in dem bilderzeugenden Abschnitt des Omniazimuth-Sichtsensors enthalten ist, überein und der Hauptpunkt der Abbildungslinse befindet sich bei einem der Brennpunkte des Hyperboloidspiegels.
  • Eine mit einem derartigen optischen System erhaltene optische Abbildung wird von dem bilderzeugenden Abschnitt in Bilddaten transformiert, und die Bilddaten werden in Panoramabilddaten und/oder Perspektivbilddaten transformiert.
  • Der Anzeigeabschnitt bringt ein Panoramabild, das den Panoramabilddaten entspricht, und/oder ein perspektivisches Bild, das den Perspektivbilddaten entspricht, zur Anzeige.
  • Eine von dem bilderzeugenden Abschnitt erzielte optische Abbildung wird als ein Bild betrachtet, das von einem der Brennpunkte des optischen Systems aus gesehen ist. Folglich kann die optische Abbildung in ein Panoramabild oder ein perspektivisches Bild transformiert werden, indem eine Koordinatentransformation von Polarkoordinaten in rechtwinklige Koordinaten ausgeführt wird.
  • Die Auswahl eines anzuzeigenden Bildes oder die Auswahl der Größe des anzuzeigenden Bildes erfolgt mittels des Anzeigesteuerabschnitts.
  • In einer Ausführungsform ist ein Omniazimuth-Sichtsensor so angeordnet, dass Bilddaten des beweglichen Körpers und seiner Umgebung aus der Vogelperspektive erhalten werden können. Wenn der bewegliche Körper ein Fahrzeug ist, kann im Allgemeinen das Bild des Fahrzeugs und seiner Umgebung aus der Vogelperspektive angezeigt werden, indem die Blickrichtung eines perspektivischen Bildes, das mittels des Omniazimuth-Sichtsensors erhalten wird, nach unten verschoben wird, so dass sie 90° in Bezug auf eine Horizontalebene aufweist.
  • Bei einer derartigen Anordnung kann der Anzeigeabschnitt ein Bild des beweglichen Körpers und seiner Umgebung aus der Vogelperspektive anzeigen.
  • Dies hat zur Folge, dass der Fahrzugführer nicht zwischen mehreren Kameras umzuschalten braucht, um eine dieser Kameras für die Anzeige auf einem Sichtgerät auszuwählen oder um die Ausrichtung der Kamera zu verändern, wie bei herkömmlichen Fahrzeugüberwachungsvorrichtungen, bei denen jede Kamera für die Überwachung einer Richtung vorgesehen ist.
  • Der Anzeigeabschnitt zeigt ein perspektivisches Bild eines Bereichs innerhalb des Umgebungsbereichs des Omniazimuth-Sichtsensors an, welcher der wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers entgegengesetzt ist.
  • Als eine andere Möglichkeit kann der Anzeigeabschnitt ein Bild anzeigen, das in Reaktion auf eine Steuerung durch den Anzeigesteuerabschnitt durch Ausführen wenigstens einer Verarbeitung einer (vertikalen und/oder horizontalen) translatorischen Verlagerung (Kippen, Schwenken) und einer vergrößernden/verkleinernden Verarbeitung (Zoom-In/Zoom-Out) erzielt worden ist.
  • Folglich ist eine solche Funktion nützlich, wenn der Fahrzeugführer den Abstand zwischen seinem eigenen Fahrzeug und benachbarten Fahrzeugen oder Hindernissen prüfen muss: beispielsweise insbesondere dann, wenn der Fahrzeugführer das Fahrzeug in einen Einstellplatz oder eine Parklücke einparkt oder das Fahrzeug aus dem Einstellplatz oder der Parklücke herausfährt oder wenn der Fahrzeugführer das Fahrzeug so dicht wie möglich an der Kante benachbarter Fahrzeuge oder möglicher Hindernisse abstellt oder anhält.
  • In der vorliegenden Beschreibung bezieht sich die "vergrößernde/verkleinernde Operation" auf ein Vergrößern oder auf ein Verkleinern.
  • Wenn das optische System so positioniert ist, dass eine optische Achse des optischen Systems senkrecht zur wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers ist, kann ein perspektivisches Bild, das durch Konvertieren eines von dem optischen System aufgenommenen Bildes erzielt worden ist, ein Bild des gesamten beweglichen Körpers aus der Vogelperspektive sein, das aus einer Position direkt über dem beweglichen Körper gesehen ist. Beispielsweise in einem solchen Fall kann sich ein Fahrzeugführer problemlos des Abstands zwischen seinem Fahrzeug und benachbarten Fahrzeugen oder Hindernissen versichern, wenn er das Fahrzeug in einen Einstellplatz oder eine Parklücke einparkt oder das Fahrzeug aus dem Einstellplatz oder der Parklücke herausfährt oder wenn der Fahrzeugführer das Fahrzeug so dicht wie möglich an der Kante des benachbarten Fahrzeugs oder Hindernisses abstellt oder anhält. Selbst wenn die optische Achse des optischen Systems nicht senkrecht zur Horizontalebene ist, kann ein gewünschtes Bild erzielt werden, indem die Blickrichtung eines perspektivischen Bildes, das mittels des Omniazimuth-Sichtsensors erhalten wird, so geändert wird, dass sie senkrecht nach unten auf die Horizontalebene gerichtet ist.
  • Außerdem kann, wenn der Anzeigeabschnitt in Reaktion auf die Steuerung durch den Anzeigesteuerabschnitt ein perspektivisches Bild des beweglichen Körpers anzeigt, das perspektivische Bild so verschoben werden, dass der bewegliche Körper in einem gewünschten Abschnitt des angezeigten perspektivischen Bildes (beispielsweise in der Mitte des angezeigten perspektivischen Bildes) gezeigt wird. In einem solchen Fall kann der Führer des beweglichen Körpers leicht die Umgebung des beweglichen Körpers erkennen.
  • Außerdem kann dann, wenn ein Bild eines beweglichen Körpers, das zu einem früheren Zeitpunkt aufgenommen worden ist oder das zu einem früheren Zeitpunkt unter Verwendung einer Computergraphik-Software erzeugt worden ist, an einer vorgegebenen Stelle auf dem Anzeigeschirm des Anzeigeabschnitts angezeigt wird, der Bediener des beweglichen Körpers leicht die Lagebeziehun gen zwischen dem beweglichen Körper und Gegenständen (Hindernisse oder dergleichen) rings um den beweglichen Körper erkennen.
  • Außerdem zeigt der Anzeigeabschnitt ein Bild an, das in einer zu einer wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers entgegengesetzten Richtung gesehen ist, und gleichzeitig ein Bild, das in einer Richtung gesehen ist, die weder mit der wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers übereinstimmt noch zu ihr entgegengesetzt ist. Bei einer solchen Ausführung kann der Fahrzeugführer problemlos einen Bereich überprüfen, der in einer Richtung gesehen werden kann, die von der wahrscheinlichsten Bewegungsrichtung verschieden ist. Im Allgemeinen richtet ein Bediener des beweglichen Körpers den Blick in die wahrscheinlichste Bewegungsrichtung. Folglich ist es für die Sicherheit wesentlich, den Bereich zu überprüfen, der in einer Richtung zu sehen ist, die von der wahrscheinlichsten Bewegungsrichtung abweicht.
  • Beispielsweise sind, wenn der bewegliche Körper ein Fahrzeug ist, zwei Omniazimuth-Sichtsensoren so platziert, dass sich einer an einem vorderen Stoßfänger und der andere an einem hinteren Stoßfänger befindet, wodurch für den Fahrzeugführer ansonsten schwer einsehbare Bereiche leicht beobachtet werden können. Insbesondere dann, wenn ein Omniazimuth-Sichtsensor an der vorderen rechten Ecke oder der vorderen linken Ecke des Fahrzeugs platziert ist und der andere an der diagonal gegenüberliegenden hinteren Ecke des Fahrzeugs platziert ist, kann ein Bild mit einem Gesichtsfeld von 360° rings um den gesamten beweglichen Körper in nahen Bereichen, in unmittelbarer Nähe des Fahrzeugs, die ansonsten für den Fahrzeugführer schwer einsehbar sind, erzielt werden.
  • Außerdem zeigt die Anzeigeeinheit ein perspektivisches Bild an, das durch Kombinieren eines Bildes des Fahrzeugs und seiner Umgebung aus der Vogelperspektive, das von einem Omniazimuth-Sichtsensor abgeleitet ist, der an einer vorderen Ecke des Fahrzeugs platziert ist, und eines Bildes des Fahrzeugs und seiner Umgebung aus der Vogelperspektive, das von einem weiteren Omniazimuth-Sichtsensor abgeleitet ist, der an einer diagonal gegenüberliegenden hinteren Ecke des Fahrzeugs platziert ist, erzielt wird. Bei einer solchen Anordnung können Bilder rings um das gesamte Fahrzeug auf einem einzigen Anzeigeschirm angezeigt werden. Folglich kann sich der Fahrzeugführer leicht der Gefahrlosigkeit rings um das Fahrzeug versichern.
  • Außerdem zeigt in dem Fall, in dem die Umgebungstemperatur auf eine bestimmte Temperatur oder unter diese absinkt, beispielsweise in Gebieten großer Höhe, in Zonen großer geographischer Breite, im Winter usw., und es für einen Bediener eines beweglichen Körpers schwierig ist, aus dem Innenraum des beweglichen Körpers nach draußen zu sehen (wenn ein Fensterglas eines Fahrzeugs beschlagen ist), der Anzeigeabschnitt ein Bild des beweglichen Körpers und seiner Umgebung aus der Vogelperspektive an, nachdem der bewegliche Körper beweglich geworden ist, wodurch der Bediener des beweglichen Körpers leicht die Gefahrlosigkeit rings um den beweglichen Körper überprüfen kann. Wenn der bewegliche Körper beispielsweise ein Fahrzeug ist, kann ein Bild der Umgebung des Fahrzeugs angezeigt werden, indem die Blickrichtung eines perspektivischen Bildes, das mittels des Omniazimuth-Sichtsensor erhalten wird, nach unten verschoben wird, so dass sie 90° in Bezug auf eine Horizontalebene entspricht.
  • Folglich umfassen die Vorteile (1) die Schaffung einer Umgebungsüberwachungsvorrichtung zur problemlosen Beobachtung der Umgebung eines beweglichen Körpers, um einen Fahrzeugführer zu entlasten und die Sicherheit rings um den beweglichen Körper zu verbessern, und (2) die Schaffung einer Umgebungsüberwachungsvorrichtung, die einem Bediener eines beweglichen Körpers ermöglichen kann, rasch die Bedingungen rings um den beweglichen Körper zu erfassen, nachdem der bewegliche Körper beweglich geworden ist.
  • Zum leichteren Verständnis der Erfindung werden nun besondere Ausführungsformen dieser mit Bezug auf die beigefügte Zeichnung beschrieben.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • 1A ist eine Draufsicht, die einen Aufbau eines Fahrzeugs zeigt, in das eine Umgebungsüberwachungsvorrichtung gemäß der Ausführungsform 1 der Erfindung eingebaut ist; 1B ist eine Seitenansicht, die das Fahrzeug der 1A zeigt;
  • 1C ist eine Draufsicht, die einen Aufbau einer Variante des Fahrzeugs zeigt, in das eine Umgebungsüberwachungsvorrichtung gemäß der Ausfüh rungsform 1 der Erfindung eingebaut ist; 1D ist eine Seitenansicht, die das Fahrzeug der 1C zeigt;
  • 2 ist ein Blockdiagramm, das eine Konfiguration der Umgebungsüberwachungsvorrichtung gemäß der Ausführungsform 1 zeigt;
  • 3 zeigt einen beispielhaften Aufbau eines optischen Systems, das in der Umgebungsüberwachungsvorrichtung gemäß der Ausführungsform 1 verwendet wird;
  • 4A ist ein Blockdiagramm, das einen Aufbau eines Bildprozessors zeigt, der in der Umgebungsüberwachungsvorrichtung gemäß der Ausführungsform 1 verwendet wird;
  • 4B ist ein Blockdiagramm, das einen Aufbau eines Bildtransformationsabschnitts zeigt, der in der Umgebungsüberwachungsvorrichtung gemäß der Ausführungsform 1 verwendet wird;
  • 5 veranschaulicht ein Beispiel für eine Panorama (360°)-Bildtransformation gemäß der Ausführungsform 1, wobei der Teil (a) ein Eingangsbild runder Form zeigt, der Teil (b) ein ringförmiges Bild zeigt, das der Panoramabildtransformation ausgesetzt worden ist, und der Teil (c) ein Panoramabild zeigt, das durch Transformieren in rechtwinklige Koordinaten erzielt worden ist;
  • 6 veranschaulicht eine Perspektiventransformation in der Umgebungsüberwachungsvorrichtung gemäß der Ausführungsform 1;
  • 7 zeigt ein Beispiel für einen Anzeigeschirm eines Anzeigeabschnitts in der Umgebungsüberwachungsvorrichtung gemäß der Ausführungsform 1;
  • 8 zeigt ein weiteres Beispiel des Anzeigeschirms des Anzeigeabschnitts in der Umgebungsüberwachungsvorrichtung gemäß der Ausführungsform 1;
  • 9A ist eine Draufsicht, die ein Fahrzeug zeigt, in das eine Umgebungsüberwachungsvorrichtung für einen beweglichen Körper gemäß der Ausführungsform 2 der Erfindung eingebaut ist; 9B ist eine Seitenansicht des in 9A gezeigten Fahrzeugs;
  • 10 zeigt ein Beispiel für einen Anzeigeschirm eines Anzeigeabschnitts in der Umgebungsüberwachungsvorrichtung gemäß der Ausführungsform 2;
  • 11 zeigt eine Einteilung von Bereichen auf einem Anzeigeschirm eines Anzeigeabschnitts der Umgebungsüberwachungsvorrichtung gemäß der Ausführungsform 2;
  • 12A ist eine Draufsicht, die einen Aufbau eines Fahrzeugs zeigt, in das eine Umgebungsüberwachungsvorrichtung gemäß der Ausführungsform 3 der Erfindung eingebaut ist; 12B ist eine Seitenansicht, die das Fahrzeug von 12A zeigt;
  • 13 ist ein Blockdiagramm, das eine Konfiguration der Umgebungsüberwachungsvorrichtung gemäß der Ausführungsform 3 zeigt.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • [AUSFÜHRUNGSFORM 1]
  • 1A ist eine Draufsicht, die einen Aufbau eines beweglichen Körpers 100 zeigt, in den eine Umgebungsüberwachungsvorrichtung 200 gemäß der Ausführungsform 1 der Erfindung eingebaut ist. 1B ist eine Seitenansicht, die den beweglichen Körper 100 der 1A zeigt.
  • In der Ausführungsform 1 wird ein Fahrzeug als ein besonderes Beispiel für den beweglichen Körper 100 beschrieben.
  • In der Ausführungsform 1 ist in das Fahrzeug 100 eine Umgebungsüberwachungsvorrichtung 200 für einen beweglichen Körper eingebaut. Wie in den 1A und 1B gezeigt ist, enthält die Umgebungsüberwachungsvorrichtung 200 einen Omniazimuth-Sichtsensor 210 und einen Arithmetik/Steuer-Abschnitt 220. Der Omniazimuth-Sichtsensor 210 ist auf dem Dach des Fahrzeugs 100 platziert. Der Arithmetik/Steuer-Abschnitt 220 ist beispielsweise an einem Ort nahe dem Fahrersitz des Fahrzeugs 100 vorgesehen.
  • Der in den 1A und 1B gezeigte Omniazimuth-Sichtsensor 210 besitzt ein Omniazimuth-Gesichtsfeld mit einem 360°-Sichtfeld um seine eigene Achse in einer im Allgemeinen horizontalen Richtung.
  • 1C ist eine Draufsicht, die einen Aufbau eines beweglichen Körpers 100A zeigt, in den eine Umgebungsüberwachungsvorrichtung 200A gemäß der Ausführungsform 1 der Erfindung eingebaut ist. 1D ist eine Seitenansicht, die den beweglichen Körper 100A der 1C zeigt. In das Fahrzeug 100A ist eine Umgebungsüberwachungsvorrichtung 200A für einen beweglichen Körper eingebaut. Wie in den 1C und 1D gezeigt ist, enthält die Umgebungsüberwachungsvorrichtung 200A einen ersten Omniazimuth-Sichtsensor 210A, einen zweiten Omniazimuth-Sichtsensor 210B und einen Arithmetik/Steuer-Abschnitt 220. Der erste Omniazimuth-Sichtsensor 210A ist an der Vorderseite des Fahrzeugs 100A (Seite in Vorwärtsrichtung des Fahrzeugs 100A) platziert. Der zweite Omniazimuth-Sichtsensor 210B ist an der Rückseite des Fahrzeugs 100A (Seite in Rückwärtsrichtung des Fahrzeugs 100A) platziert. Der Arithmetik/Steuer-Abschnitt 220 ist an einem Ort nahe dem Fahrersitz des Fahrzeugs 100A vorgesehen.
  • Das Fahrzeug 100A umfasst ferner einen vorderen Stoßfänger 110 und einen hinteren Stoßfänger 120.
  • In der Ausführungsform 1 ist der erste Omniazimuth-Sichtsensor 210A am mittigen Abschnitt des vorderen Stoßfängers 110 platziert und der hintere Omniazimuth-Sichtsensor 210B ist am mittigen Abschnitt des hinteren Stoßfängers 120 platziert. Sowohl der erste Omniazimuth-Sichtsensor 210A als auch der zweite Omniazimuth-Sichtsensor 210B besitzt ein Omniazimuth-Gesichtsfeld mit einem 360°-Sichtfeld um seine eigene Achse in einer im Allgemeinen horizontalen Richtung.
  • Jedoch ist etwa die Hälfte des Gesichtsfeldes (ungefähr 180° rückwärtiges Gesichtsfeld) des ersten Omniazimuth-Sichtsensors 210A durch das Fahrzeug 100A versperrt. Das bedeutet, dass das effektive Gesichtfeld des ersten Omniazimuth-Sichtsensors 210A auf 180° frontales Gesichtsfeld (von der linken Seite zur rechten Seite des Fahrzeugs 100A) begrenzt ist. Genauso ist etwa die Hälfte des Gesichtsfeldes (ungefähr 180° frontales Gesichtsfeld) des zweiten Omniazimuth-Sichtsensors 210B durch das Fahrzeug 100A versperrt. Das bedeutet, dass das effektive Gesichtfeld des zweiten Omniazimuth-Sichtsensors 210B auf 180° rückwärtiges Gesichtsfeld (von der linken Seite zur rechten Seite des Fahrzeugs 100A) begrenzt ist.
  • 2 ist ein Blockdiagramm, das eine Konfiguration der Umgebungsüberwachungsvorrichtung 200 gemäß der Ausführungsform 1 zeigt.
  • Die Umgebungsüberwachungsvorrichtung 200 umfasst: den Omniazimuth-Sichtsensor 210, der ein Bild, das von der Umgebung des Omniazimuth-Sichtsensors 210 aufgenommen wird, in Bilddaten umsetzt, und den Arithmetik/ Steuer-Abschnitt 220, der die von dem Omniazimuth-Sichtsensor 210 umgesetzten Bilddaten verarbeitet und ein den verarbeiteten Bilddaten entsprechendes Bild anzeigt. Es sollte beachtet werden, dass die Umgebungsüberwachungsvorrichtung 200A, die in den 1C und 1D gezeigt ist, im Wesentlichen die gleiche Funktion wie die Umgebungsüberwachungsvorrichtung 200 hat, nur dass die Umgebungsüberwachungsvorrichtung 200A zwei Omniazimuth-Sichtsensoren enthält. Außerdem hat jeder der Omniazimuth-Sichtsensoren, sowohl der erste Omniazimuth-Sichtsensor 210A als auch der zweite Omniazimuth-Sichtsensor 210B, die in den 1C und 1D gezeigt sind, im Wesentlichen die gleiche Funktion wie der Omniazimuth-Sichtsensor 210.
  • Der Omniazimuth-Sichtsensor 210 enthält: ein optisches System 212, das in der Lage ist, ein Bild mit einem ringsherum reichenden Sehfeldbereich aufzunehmen und eine Zentralprojektionstransformation des Bildes auszuführen, und einen bilderzeugenden Abschnitt 214, der das von dem optischen System 212 aufgenommene Bild in Bilddaten umsetzt. Der bilderzeugende Abschnitt 214 enthält: eine Abbildungslinse 216, einen Licht empfangenden Abschnitt 217, der eine in eine Zentralprojektion umgesetzte optische Abbildung empfängt, und einen Bilddaten erzeugenden Abschnitt 218, der die von dem Licht empfangenden Abschnitt 217 empfangene optische Abbildung in Bilddaten umsetzt.
  • Der Arithmetik/Steuer-Abschnitt 220 enthält: einen Bildprozessor 230, der die von dem bilderzeugenden Abschnitt umgesetzten Bilddaten in Panoramabilddaten und/oder perspektivische Bilddaten umsetzt; einen Anzeigeabschnitt 240, der eine Ausgabe 236 vom Bildprozessor 230 zur Anzeige bringt; und einen Anzeigesteuerabschnitt 250, der auf der Grundlage einer Ausgabe 238 vom Bildprozessor 230 und/oder einer von außen gelieferten Eingabe 254 die Auswahl von Bildern der Umgebung des Fahrzeugs 100 (1C und 1D) und die Größe des ausgewählten Bildes, das am Anzeigeabschnitt 240 zur Anzeige gebracht werden soll, steuert. Der Bildprozessor 230 gibt bei Notwendigkeit eine Ausgabe 262 an einen Alarm erzeugenden Abschnitt 260 aus, damit der Alarm erzeugende Abschnitt 260 einen Alarm erzeugt. Der Bildprozessor 230 enthält einen Bildtransformationsabschnitt 232, einen Ausgabepufferspeicher 234 und einen Speicherabschnitt 235. Der Anzeigeabschnitt 240 zeigt ein Panoramabild an, das den Panoramabilddaten entspricht, und/oder ein perspektivisches Bild, das den Perspektivbilddaten entspricht. Der Speicherabschnitt 235 speichert Daten für den Bildverarbeitungsprozess, der in dem Bildprozessor 230 ausgeführt wird. Beispielsweise speichert der Speicherabschnitt 235 ein Bild des Fahrzeugs 100 oder 100A aus der Vogelperspektive, das aus einer Position direkt über dem Fahrzeug 100 oder 100A aufgenommen ist.
  • Der Bildprozessor 230 kann beispielsweise im Motorraum am vorderen Ende des Fahrzeugs 100 oder im Kofferraum am hinteren Ende des Fahrzeugs 100 untergebracht sein. Der Anzeigeabschnitt 240 und der Anzeigesteuerabschnitt 250 können in oder außerhalb einer Vorderwand in der Nähe des Fahrersitzes platziert sein.
  • Im Folgenden wird jede der oben angeführten Komponenten ausführlich beschrieben.
  • 3 zeigt ein besonderes Beispiel des optischen Systems 212, das zu einer Zentralprojektionstransformation in der Lage ist.
  • Hier enthält das optische System 212 einen Hyperboloidspiegel 310, der die Form einer Schale eines zweischaligen Hyperboloids hat. Die Abbildungslinse 216 und der Hyperboloidspiegel 310 sind so positioniert, dass die optische Achse (z-Achse) 312 des Hyperboloidspiegels 310 mit der optischen Achse 314 der Abbildungslinse 216 übereinstimmt, die in dem bilderzeugenden Abschnitt 214 enthalten ist. Der erste Hauptpunkt 215 der Abbildungslinse 216 befindet sich bei einem der Brennpunkte des Hyperboloidspiegels 310 (Brennpunkt (2)). Bei einer solchen Anordnung ist eine Zentralprojektionstransformation möglich, d. h. dass ein Bild, das mittels des bilderzeugenden Abschnitts 214 erhalten wird, einem Bild rund um den Hyperboloidspiegel 310 entspricht, das vom Brennpunkt (1) des Hyperboloidspiegels 310 aus gesehen ist. Das optische System 212 hat einen solchen Aufbau, wie er beispielsweise in der japanischen Patentauslegeschrift Nr. 6-295 333 offenbart ist, weshalb hier nur einige Merkmale des optischen Systems beschrieben werden.
  • In 3 ist der Hyperboloidspiegel 310 gebildet worden, indem ein Spiegel auf einer konvexen Oberfläche eines Körpers vorgesehen worden ist, die durch eine der gekrümmten Oberflächen definiert ist, die durch Drehen von Hyperbelfunktionen um eine z-Achse (zweischaliges Hyperboloid), d. h. einen Bereich des zweischaligen Hyperboloids, in dem Z > 0 ist, erhalten werden. Dieses zweischalige Hyperboloid wird dargestellt als: (x2 + Y2)/a2 – Z2/b2 = –1 c2 = (a2 + b2), (1)wobei a und b Konstanten sind, die die Gestalt des Hyperboloids definieren, und c eine Konstante ist, die einen Brennpunkt des Hyperboloids definiert. Nachfolgend werden die Konstanten a, b und c allgemein "Spiegelkonstanten" genannt. Da der Hyperboloidspiegel 310 eine gekrümmte Oberfläche aufweist, die durch Drehen einer Hyperbelfunktion erzielt worden ist, stimmt die Drehachse der Hyperbelfunktion mit der optischen Achse 312 des Hyperboloidspiegels 310 überein.
  • Der Hyperboloidspiegel 310 besitzt zwei Brennpunkte (1) und (2). Alles Licht, das von außerhalb auf einen dieser Brennpunkte (in diesem Fall auf den Brennpunkt (1)) fällt, wird von dem Hyperboloidspiegel 310 so reflektiert, dass es den anderen Brennpunkt (in diesem Fall den Brennpunkt (2)) erreicht. Der Hyperboloidspiegel 310 und der bilderzeugende Abschnitt 214 sind so positioniert, dass die optische Achse 312 des Hyperboloidspiegels 310 mit der optischen Achse 314 der Abbildungslinse 216 des bilderzeugenden Abschnitts 4b übereinstimmt und sich der erste Hauptpunkt 215 der Abbildungslinse 216 bei dem Brennpunkt (2) befindet. Bei einer solchen Konfiguration entspricht ein Bild, das vom bilderzeugenden Abschnitt 214 erzielt wird, einem Bild, das ungeachtet einer Blickrichtung immer vom Brennpunkt (1) des Hyperboloidspiegels 310 aus gesehen ist und in Bilddaten umgesetzt werden kann. Es sollte beachtet werden, dass in diesem Fall kein Bild innerhalb des Hyperboloidspiegels 310 erhalten werden kann. Außerdem empfängt der bilderzeugende Abschnitt 214, da er eine bestimmte Größe aufweist, kein Licht, das von ihm daran gehindert wird, den Brennpunkt (1) des Hyperboloidspiegels 310 zu er reichen.
  • Der bilderzeugende Abschnitt 214 könnte eine Videokamera sein. Der bilderzeugende Abschnitt 214 setzt eine optische Abbildung, die mittels des Hyperboloidspiegels 310 von 3 erzielt wird, unter Verwendung einer monolithischen Abbildungsvorrichtung, die etwa als CCD oder CMOS usw. ausgeführt ist, in Bilddaten um. Die umgesetzten Bilddaten werden an den Bildprozessor 230 weitergeleitet.
  • 4A ist ein Blockdiagramm, das einen Aufbau des Bildprozessors 230 zeigt.
  • Der Bildprozessor 230 enthält den Bildtransformationsabschnitt 232 und den Ausgabepufferspeicher 234. Der Bildtransformationsabschnitt 232 enthält einen A/D-Umsetzer 410, einen Eingabepufferspeicher 420, eine CPU 430, eine Nachschlage-Tabelle 440 und eine Bildtransformationslogik 450. Jede Komponente des Bildtransformationsabschnitts 232 ist über eine Busleitung 460 mit dem Ausgabepufferspeicher 234 verbunden.
  • 4B ist ein Blockdiagramm, das einen Aufbau des Bildtransformationsabschnitts 232 zeigt.
  • Der Bildtransformationsabschnitt 232 empfängt Bilddaten, die durch Umsetzen einer optischen Abbildung, die mittels des bilderzeugenden Abschnitts 214 erzielt worden ist, erhalten werden. Wenn die Bilddaten als analoges Signal vorliegen, wird das analoge Signal von dem A/D-Umsetzer 410 in ein digitales Signal umgesetzt, und das digitale Signal wird an den Eingangspufferspeicher 420 übertragen. Wenn die Bilddaten als digitales Signal vorliegen, werden sie direkt an den Eingangspufferspeicher 420 übertragen.
  • Bei Notwendigkeit wird eine Ausgabe (Bilddaten) vom Eingangspufferspeicher 420 im Bildtransformationsabschnitt 232 einer Bildbearbeitung unterzogen. Beispielsweise verwendet die Bildtransformationslogik 450 die Nachschlage-Tabelle 440, um die Bilddaten in Panoramabilddaten und/oder Perspektivbilddaten zu transformieren oder um ein anzuzeigendes Bild translatorisch (vertikal/horizontal) zu bewegen oder zu vergrößern/verkleinern.
  • Nach der Bildbearbeitung werden die bearbeiteten Bilddaten dem Ausgabepuf ferspeicher 234 zugeführt, der in 4A gezeigt ist. Während der Bearbeitung werden die Komponenten durch die CPU 430 gesteuert. Die CPU 430 könnte ein Rechner mit reduziertem Befehlssatz (RISC: reduced instruction set computer) oder ein Rechner mit komplexem Befehlssatz (CISC: complex instruction set computer) sein.
  • Es wird nun ein Prinzip der Bildtransformation durch die Bildtransformationslogik 450 beschrieben. Die Bildtransformation umfasst eine Panoramatransformation, um ein Panoramabild (360°-Bild) zu erhalten, und eine Perspektiventransformation, um ein perspektivisches Bild zu erhalten. Außerdem kann ein perspektivisches Bild horizontal und drehend (horizontale Verlagerung, "Schwenkbewegung" genannt) und vertikal und drehend (vertikale Verlagerung, "Kippbewegung" genannt) verlagert werden. In dieser Beschreibung wird mit "translatorischer Verlagerung" wenigstens eine der Verlagerungen, die horizontale drehende Verlagerung und/oder die vertikale drehende Verlagerung, bezeichnet.
  • Zunächst wird mit Bezug auf 5 eine Panoramabildtransformation (360°-Bildtransformation) beschrieben. Im Teil (a) der 5 ist ein Bild 510 ein Bild runder Form, das mittels des bilderzeugenden Abschnitts 214 erhalten wird. Der Teil (b) der 5 zeigt ein ringförmiges Bild 515, das einer Panoramabildtransformation unterzogen wurde. Der Teil (c) der 5 zeigt ein Panoramabild 520, das durch Transformieren des Bildes 510 in rechtwinklige Koordinaten erhalten worden ist.
  • Der Teil (a) der 5 zeigt das runde Eingangsbild 510, das in Polarkoordinaten formatiert ist, wobei der Mittelpunkt des Bildes 510 im Koordinatenursprung (X0, Y0) positioniert ist. In diesen Polarkoordinaten wird ein Bildpunkt P im Bild 510 durch P(r, _) repräsentiert. Im Teil (c) der 5, im Panoramabild 520, kann ein Punkt, der dem Bildpunkt P im Bild 510 (Teil (a) der 5) entspricht, als P2(x, y) dargestellt werden. Wenn das im Teil (a) der 5 gezeigte runde Bild 510 unter Verwendung eines Punktes P0(r0, _0) als Bezugspunkt in das im Teil (c) der 5 gezeigte rechtwinklige Panoramabild transformiert wird, lässt sich diese Transformation durch die folgenden Ausdrücke darstellen: x = _ – _0 y = r – r0
  • Wenn das runde Eingangsbild 510 (Teil (a) der 5) so in rechtwinklige Koordinaten formatiert worden ist, dass der Mittelpunkt des runden Bildes 510 im Ursprung des rechtwinkligen Koordinatensystems (X0, Y0) positioniert ist, wird der Punkt P im Bild 510 durch (X, Y) repräsentiert. Dementsprechend lassen sich X und Y folgendermaßen darstellen: X = X0 + r × cos_ Y = Y0 + r × sin_
  • Folglich ist: X = (y + r0) × cos(x + –0) + X0 Y = (y + r0) × sin(x + –0) + Y0
  • Für ein Panoramabild kann die Schwenk/Kipp-Bewegung verwirklicht werden, indem die Position des Bezugspunktes P0(r0, _0) verändert wird. Die Schwenkbewegung wird ausgeführt, indem der Wert von "_0" verändert wird. Die Kippbewegung wird ausgeführt, indem der Wert von "r0" verändert wird. In der Ausführungsform 1 wird jedoch die Kippbewegung nicht ausgeführt, da das sich ergebende Bild den Transformationsbereich verlässt.
  • Als Nächstes wird mit Bezug auf 6 eine Perspektiventransformation beschrieben. Bei der Perspektiventransformation wird die Position eines Punktes der mittels eines Licht empfangenden Abschnitts 217 des bilderzeugenden Abschnitts 214 erzielten optischen Eingangsabbildung, der einem Punkt in einem dreidimensionalen Raum entspricht, berechnet, und die Bildinformationen dieses Punktes des optischen Eingangsbildes werden einem entsprechenden Punkt in einem perspektivisch transformierten Bild zugeordnet, wodurch eine Koordinatentransformation durchgeführt wird.
  • Insbesondere ist, wie in 6 gezeigt ist, ein Punkt in einem dreidimensionalen Raum als P3 dargestellt, und ein Punkt, der jenem entspricht, der sich in dem runden Bild befindet, das auf einer Licht empfangenden Ebene eines Licht empfangenden Abschnitts 217 des bilderzeugenden Abschnitts 214 gebildet wird, ist als R(r, _) dargestellt, und die Brennweite der Abbildungslinse 216 ist F. Der Licht empfangende Abschnitt 217 ist an einer Position angeordnet, die sich in einer der Brennweite F entsprechenden Entfernung von der Abbildungslinse 216 befindet. Ferner sind die Spiegelkonstanten des Hyperbo loidspiegels 310 (a, b, c), die a, b, c von 3 gleich sind. Mit diesen Parametern wird der Ausdruck (2) erhalten: r = F ↔ tan((π/2)– β) (2)
  • In 6 ist _ ein Einfallswinkel des Lichts, das von einem Objektpunkt (Punkt P3) in Richtung des Brennpunktes (1) in Bezug auf eine Horizontalebene fällt, die den Brennpunkt (1) enthält; _ ist ein Einfallswinkel des Lichts, das vom Punkt P3 kommt, in einem Punkt auf dem Hyperboloidspiegel 310 reflektiert wird und in die Abbildungslinse 216 eintritt (es ist zu beachten, dass der Winkel _ kein Winkel in Bezug auf die optische Achse 314 der Abbildungslinse 216, sondern ein Winkel in Bezug auf eine Oberfläche der Abbildungslinse 216 ist, die senkrecht zur optischen Achse 324 ist). Die algebraischen Zeichen _, _ und _ repräsentieren: _ = arctan(((b2 + c2) ↔ sin_ – 2 ↔ b ↔ c)/(b2 – c2) ↔ cos_) _ = arctan(tz/sqrt(tx2 + ty2)) _ = arctan(ty/tx)
  • Damit lässt sich der Ausdruck (2) folgendermaßen darstellen: r = F ↔ (((b2 – c2) ↔ sqrt(tx2 + ty2))/((b2 + c2) ↔ tz – 2 ↔ b ↔ c ↔ sqrt(tx2 + ty2 + tz2))) (2')
  • Die Koordinaten eines Punktes des runden Bildes 510 werden in rechtwinklige Koordinaten R(X, Y) transformiert. X und Y lassen sich darstellen als: X = r ↔ cos_ (3) Y = r ↔ sin_ (4)
  • Aus den oben angegebenen Ausdrücken folgt: X = F ↔ (((b2 – c2) ↔ tx/((b2 + c2) ↔ tz – 2 ↔ b ↔ c ↔ sqrt(tx2 + ty2 + tz2))) (5) Y = F ↔ (((b2 – c2) ↔ ty/((b2 + c2) ↔ tz – 2 ↔ b ↔ c ↔ sqrt(tx2 + ty2 + tz2))) (6)
  • Als Nächstes werden die horizontale Drehbewegung und die vertikale Drehbewegung beschrieben.
  • Mit Bezug auf 6 wird nun eine rechtwinklige Bildebene mit einer Breite W und einer Höhe h betrachtet, die sich in dem dreidimensionalen Raum an einer Position befindet, die einem Drehwinkel _ um die Z-Achse 312 entspricht, wobei R ein Abstand zwischen der Ebene und dem Brennpunkt (1) des Hyperboloidspiegels 310 und _ ein Tiefenwinkel ist (der gleich dem Einfallswinkel _ ist). Der Punkt P3 ist der Mittelpunkt der rechtwinkligen Bildebene. Die Parameter eines Punktes an der linken oberen Ecke der rechtwinkligen Bildebene, des Punktes Q(tx, ty, tz), lassen sich folgendermaßen darstellen: tx = (R cos_ + (h/2)sin_)cos_ – (W/2)sin_ (7) ty = (R cos_ + (h/2)sin_)sin_ – (W/2)cos_ (8) tz = R sin_ – (h/2)cos_ (9)
  • Durch Einsetzen der Ausdrücke (7), (8) und (9) in die Ausdrücke (5) und (6) ist es möglich, die Koordinaten (X, Y) eines Punktes in dem Bild runder Form, das auf dem Licht empfangenden Abschnitt 217 des bilderzeugenden Abschnitts 214 gebildet wird, der dem Punkt Q der rechtwinkligen Bildebene entspricht, wie folgt zu erhalten: X = F ↔ (((b2 – c2) ↔ ((R cos_ + (h/2)sin_) ↔ cos_ – (W/2)sin_)/((b2 + c2) ↔ (R sin_ – (h/2)cos_) – 2 ↔ b ↔ c ↔ sqrt(R2 + (W/2)2 + (h/2)2))) (10) Y = F ↔ (((b2 – c2) ↔ ((R cos_ +(h/2)sin_) ↔ sin_ – (W/2)cos_)/((b2 + c2) ↔ (R sin_ – (h/2)cos_) – 2 ↔ b ↔ c ↔ sqrt(R2 + (W/2)2 + (h/2)2))) (11)
  • Außerdem wird angenommen, dass die rechtwinklige Bildebene in ein perspektivisches Bild transformiert wird, das in Bildpunkte gegliedert ist, die jeweils eine Breite n und eine Höhe m besitzen. In den Ausdrücken (7), (8) und (9) wird der Parameter W in einem Bereich von W bis –W in Einheiten von W/n verändert, und der Parameter h wird in einem Bereich von h bis –h in Einheiten von h/m geändert, wodurch Koordinaten von Punkten auf der rechtwinkligen Bildebene erhalten werden. Entsprechend diesen erhaltenen Koordinaten der Punkte auf der rechtwinkligen Bildebene werden Bilddaten an Punkten des runden Bildes, das auf dem Licht empfangenden Abschnitt 217 gebildet wird, die den Punkten auf der rechtwinkligen Bildebene entsprechen, in ein perspektivisches Bild transformiert, um auf dem Anzeigeabschnitt 240 (Bild 2) zur Anzeige gebracht zu werden.
  • Als Nächstes werden eine horizontale Drehbewegung (Schwenkbewegung) und eine vertikale Drehbewegung (Kippbewegung) in der Perspektiventransformation beschrieben. Zuerst wird ein Fall beschrieben, in dem der Punkt Q, wie oben erwähnt, horizontal und drehend verlagert wird (Schwenkbewegung). Die Koordinaten eines Punktes, der nach der horizontalen Drehbewegung erhalten wird, des Punktes Q'(tx', ty', tz'), lassen sich folgendermaßen darstellen: tx' =(R cos_ + (h/2)sin_)cos(_ + Δ_) – (W/2)sin(_ + Δ_) (12) ty' = (R cos_ + (h/2)sin_)sin(_ + Δ_) – (W/2)cos(_ + Δ_) (13) tz' = R sin_ – (h/2)cos_ (14)wobei Δ_ einen horizontalen Bewegungswinkel bezeichnet.
  • Durch Einsetzen der Ausdrücke (12), (13) und (14) in die Ausdrücke (5) und (6) können die Koordinaten (X, Y) eines Punktes in dem auf dem Licht empfangenden Abschnitt 217 gebildeten runden Bild 510, der dem Punkt Q' (tx', ty', tz') entspricht, erhalten werden. Dies wird auf die übrigen (vom Punkt P verschiedenen) Punkte in dem runden Bild 510 angewendet. In den Ausdrücken (12), (13) und (14) wird der Parameter W in einem Bereich von W bis –W in Einheiten von W/n verändert, und der Parameter h wird in einem Bereich von h bis –h in Einheiten von h/m geändert, wodurch Koordinaten von Punkten auf der rechtwinkligen Bildebene erhalten werden. Entsprechend diesen erhaltenen Koordinaten von Punkten auf der rechtwinkligen Bildebene, werden Bilddaten von Punkten in dem auf dem Licht empfangenden Abschnitt 217 gebildeten runden Bild 510, die dem Punkt Q'(tx', ty', tz') entsprechen, in ein perspektivisches Bild überführt, wodurch ein horizontal gedrehtes Bild erzielt werden kann.
  • Als Nächstes wird ein Fall beschrieben, in dem der oben erwähnte Punkt Q vertikal und drehend um die Z-Achse 312 bewegt wird (Kippbewegung). Die Koordinaten eines Punktes, der nach der vertikalen Drehbewegung erhalten wird, des Punktes Q''(tx'', ty'', tz''), lassen sich folgendermaßen darstellen: tx'' = (R cos(_ + Δ_) + (h/2)sin(_ + Δ_) ↔ cos_ – (W/2)sin_ (15) ty'' = (R cos(_ + Δ_) + (h/2)sin(_ + Δ_) ↔ sin_ – (W/2)cos_ (16) tz'' = (R sin(_ + Δ_) – (h/2)cos(_ + Δ_) (17)wobei Δ_ einen vertikalen Bewegungswinkel bezeichnet.
  • Durch Einsetzen der Ausdrücke (15), (16) und (17) in die Ausdrücke (5) und (6) können die Koordinaten (X, Y) eines Punktes des auf dem Licht empfangenden Abschnitt 217 gebildeten runden Bildes 510, der dem Punkt Q''(tx'', ty'', tz'') entspricht, erhalten werden. Dies findet auf weitere Punkte des runden Bildes Anwendung. In den Ausdrücken (15), (16) und (17) wird der Parameter W in einem Bereich von W bis –W in Einheiten von W/n verändert, und der Parameter h wird in einem Bereich von h bis –h in Einheiten von h/m verändert, wodurch Koordinaten von Punkten auf der rechtwinkligen Bildebene erhalten werden. Entsprechend diesen erhaltenen Koordinaten von Punkten auf der rechtwinkligen Bildebene, werden Bilddaten an Punkten des auf dem Licht empfangenden Abschnitt 217 gebildeten runden Bildes 510, die dem Punkt Q''(tx'', ty'', tz'') entsprechen, in ein perspektivisches Bild überführt, wodurch ein vertikal gedrehtes Bild erzielt werden kann.
  • Ferner wird durch einen Parameter, den Parameter R, eine Zoom-In/Zoom-Out-Funktion für ein perspektivisches Bild erzielt. Insbesondere wird dann, wenn der Parameter R in den Ausdrücken (4) bis (12) verkleinert wird, während die Parameter W und h fest sind, ein Sichtbereich vom Brennpunkt (1) aus reduziert, so dass ein Bild erzielt wird, das einem weggezoomten Bild äquivalent ist, das mittels einer Zoom-Out-Operation des optischen Systems erhalten werden kann. Insbesondere wird, wenn der Parameter R in den Ausdrücken (4) bis (12) größer wird, während die Parameter W und h fest sind, ein Sichtbereich vom Brennpunkt (1) aus erweitert, so dass ein Bild erzielt wird, das einem herangezoomten Bild äquivalent ist, das mittels einer Zoom-In-Operation des optischen Systems erhalten werden kann.
  • Es sei beispielsweise ein Fall betrachtet, in dem der Omniazimuth-Sichtsensor 210 so an dem Fahrzeug 100 angebracht ist, dass die optische Achse 314 des bilderzeugenden Abschnitts 214 senkrecht zum Boden ist. Wenn die Blickrichtung eines perspektivischen Bildes mittels vertikaler Drehung so gewählt ist, dass _ = –90°, ist eine erzielte perspektivische Ansicht die Ansicht des Fahrzeugs 100 und seiner Umgebung aus der Vogelperspektive, wie sie von einer Position direkt über dem Fahrzeug 100 nach unten gesehen wird. In diesem Fall kann der Betrachtungsbereich durch Verkleinern des Parameters R wie oben beschrieben erweitert werden, so dass eine weggezoomte Ansicht erhalten wird, während eine herangezoomte Ansicht erhalten werden kann, indem der Parameter R vergrößert wird. Außerdem wird durch Ausführen einer Zoom-In-Operation durch Steuern des Anzeigesteuerabschnitts 250 (z. B. eine Tastatureingabe) eine aus einer Position direkt über dem gesamten Fahrzeug 100 nach unten blickende Vogelperspektive erhalten, die einen bestimmten Bereich rings um den Omniazimuth-Sichtsensor 210 zeigt, der in den 1A und 1B gezeigt ist, und das Fahrzeug 100 überdeckt.
  • In der vorliegenden Beschreibung ist eine "Vogelperspektive" eine Ansicht, die sich von einer Position über dem beweglichen Körper 100 in einer Richtung senkrecht zur wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers 100 eröffnet.
  • Außerdem ist in der vorliegenden Beschreibung die "wahrscheinlichste Bewegungsrichtung" eine Richtung, in welche sich der bewegliche Körper 100 mit der größten Wahrscheinlichkeit bewegt. Im Allgemeinen ist der bewegliche Körper unter Beachtung der wahrscheinlichsten Bewegungsrichtung konstruiert. Außerdem ist ein Bediener des beweglichen Körpers 100 im Allgemeinen der wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers 100 zugewandt.
  • Außerdem ist in dem oben angegebenen Beispiel eine perspektivische Ansicht, die mittels des Omniazimuth-Sichtsensors 210 erzielt wird, in einer Ebene, die vom Brennpunkt (1) aus senkrecht zu einer ausgewählten Blickrichtung ist (beispielsweise in 6 eine Richtung vom Brennpunkt (1) zum Punkt P3), und der Bereich der erzielten perspektivischen Ansicht erstreckt sich gleichmäßig in der Ebene rings um die Linie der ausgewählten Blickrichtung vom Brennpunkt (1) aus.
  • Es ist jedoch offensichtlich, dass bei Verwendung der Gleichungen (5) und (6) eine beliebige perspektivische Ansicht von einer Ebene in einem dreidimensionalen Raum erhalten werden kann, der von dem optischen System des Omniazimuth-Sichtsensors abgedeckt wird, und die Ebene, von welcher eine solche perspektivische Ansicht erzielt wird, einen beliebigen Winkel in Bezug auf einen ausgewählten Sichtwinkel bilden könnte. Wenn beispielsweise der Omniazimuth-Sichtsensor 210 vielmehr an einer Ecke des im Allgemeinen rechteckigen Fahrzeugs 100 als auf dem Dach des Fahrzeugs 100 platziert ist, könnte eine Bildanzeige auf dem Anzeigeschirm des Anzeigeabschnitts 240 das Fahrzeug 100 nicht in der Mitte des Anzeigeschirms des Anzeigeabschnitts 240 anzeigen, da sich der Bereich der erzielten Perspektivansicht vom Brennpunkt (1) aus gleichmäßig rings um die Linie der ausgewählten Blickrichtung erstreckt.
  • In einem solchen Fall kann die Bildanzeige auf dem Anzeigeabschnitt 240 so verschoben werden, dass das Fahrzeug 100 in der Mitte des Bildes gezeigt wird, indem der variable Bereich der Parameter W und h in den oben angegebenen Ausdrücken (15), (16), und (17) verschoben wird. Als Beispiel sei ein Fall betrachtet, in dem die Breite des Fahrzeugs 2lw beträgt. In diesem Fall ist in den Gleichungen (15), (16) und (17) der Bildebenenbereich um (_, _) vertikal und horizontal verschoben (wobei lw =
    Figure 00280001
    gilt), d. h. der Bereich der Bildebene ist von "W bis –W (Breite)" und "h bis –h (Höhe)" nach "W+_ bis –W+_" bzw. "h+_ bis –h+_" verschoben, wodurch das Fahrzeug 100 in der Mitte des Bildes dargestellt ist, das auf dem Anzeigeabschnitt 240 angezeigt wird. Eine derartige Bearbeitung kann verwirklicht werden, indem bei der Transformationsverarbeitung durch den Bildprozessor _ bzw. _ zu dem Parameter W bzw. h addiert werden.
  • In der 2, auf die sich nun bezogen wird, ist der Anzeigeabschnitt 240 beispielsweise ein Kontrollschirm, der eine Katodenstrahlröhre, eine Flüssigkristall-Sichtanzeige (LCD), eine Elektrolumineszenzanzeige (ELD) usw. verwendet. Der Anzeigeabschnitt 240 empfängt eine Ausgabe von einem Ausgabepufferspeicher 234 des Bildprozessors 230, um auf der Grundlage der empfangenen Ausgabe ein Bild anzuzeigen. Während dieser Bildanzeigeoperation kann der Anzeigesteuerabschnitt 250, der einen Mikrorechner enthält, ein auf dem Anzeigeabschnitt 240 anzuzeigendes Bild (Panoramabild und/oder vom Bildprozessor 230 transformiertes perspektivisches Bild) auswählen.
  • 7 zeigt einen Anzeigeschirm 710 des Anzeigeabschnitts 240.
  • In 7 enthält der Anzeigeschirm 710: ein erstes Perspektivbild-Anzeigefenster 720, ein zweites Perspektivbild-Anzeigefenster 730, ein drittes Perspektivbild-Anzeigefenster 740 und ein Panoramabild-Anzeigefenster 750. Im Zustand der Standardeinstellung zeigt das erste Perspektivbild-Anzeigefenster 720 vom Fahrzeug 100 aus ein perspektivisches Bild des frontalen Sichtfeldes an; das zweite Perspektivbild-Anzeigefenster 730 zeigt vom Fahrzeug 100 aus ein perspektivisches Bild des linken Sichtfeldes an und das dritte Perspektivbild-Anzeigefenster 740 zeigt vom Fahrzeug 100 aus ein perspektivisches Bild des rechten Sichtfeldes an. Das Panoramabild-Anzeigefenster 750 präsentiert ein Panoramabild, das die Umgebung rings um das Fahrzeug 100 zeigt.
  • Außerdem enthält der Anzeigeschirm 710: ein erstes Erläuterungs-Anzeige fenster 725, das eine Erläuterung zu dem ersten Perspektivbild-Anzeigefenster 720 zeigt, ein zweites Erläuterungs-Anzeigefenster 735, das eine Erläuterung zu dem zweiten Perspektivbild-Anzeigefenster 730 zeigt, ein drittes Erläuterungs-Anzeigefenster 745, das eine Erläuterung zu dem dritten Perspektivbild-Anzeigefenster 740 zeigt, und ein viertes Erläuterungs-Anzeigefenster 755, das eine Erläuterung zu dem Panoramabild-Anzeigefenster 750 zeigt.
  • Ferner enthält der Anzeigeschirm 710: eine Richtungstaste 760, um die anzuzeigenden perspektivischen Bilder in vertikaler/horizontaler Richtung zu rollen; eine Vergrößerungstaste 770, um die Bilder zu vergrößern; und eine Verkleinerungstaste 780, um die Bilder zu verkleinern.
  • Die Erläuterungs-Anzeigefenster 725, 735, 745 und 755 werden als Schalter wirksam, um die Bildanzeigefenster 720, 730, 740 bzw. 750 zu aktivieren. Ein Benutzer aktiviert ein gewünschtes Bildanzeigefenster (Fenster 720, 730, 740 oder 750) mittels eines entsprechenden Erläuterungs-Anzeigefensters (Fenster 725, 735, 745 oder 755), das als Schalter wirksam wird, wodurch der Benutzer das in dem aktivierten Fenster angezeigte Bild in vertikaler/horizontaler Richtung rollen und vergrößern/verkleinern kann. Ferner könnte durch Ändern der Farbe der Anzeige des entsprechenden Erläuterungs-Anzeigefensters (Fenster 725, 735, 745 oder 755) angezeigt werden, ob ein Bildanzeigefenster (Fenster 720, 730, 740 oder 750) aktiv ist oder nicht. Der Benutzer kann das Bild, das in jedem der Perspektivbild-Anzeigefenster 720, 730 und 740 angezeigt wird, unter Verwendung der Richtungstaste 760, der Vergrößerungstaste 770 und der Verkleinerungstaste 780 translatorisch (vertikal/horizontal) rollen und/oder vergrößern/verkleinern. Der Benutzer kann das in dem Panoramabild-Anzeigefenster 750 angezeigte Bild unter Verwendung der Richtungstaste 760 translatorisch (vertikal/horizontal) rollen. Das in dem Panoramabild-Anzeigefenster 750 angezeigte Bild lässt sich jedoch nicht vergrößern oder verkleinern.
  • Beispielsweise wird dann, wenn der Benutzer das erste Erläuterungs-Anzeigefenster 725 berührt, ein Signal an den Anzeigesteuerabschnitt 250 (2) ausgegeben. In Reaktion auf die Berührung ändert der Anzeigesteuerabschnitt 250 die Bildschirmfarbe des ersten Erläuterungs-Anzeigefensters 725 oder ermöglicht dem ersten Erläuterungs-Anzeigefenster zu flackern, um anzuzeigen, dass das erste Perspektivbild-Anzeigefenster 720 aktiv ist. Unterdessen wird das erste Perspektivbild-Anzeigefenster 720 aktiv und der Benutzer kann das in dem Fenster 720 angezeigte Bild unter Verwendung der Richtungstaste 760, der Vergrößerungstaste 770 und der Verkleinerungstaste 780 vertikalhorizontal rollen und vergrößern/verkleinern. Insbesondere werden durch den Anzeigesteuerabschnitt 250 von der Richtungstaste 760, der Vergrößerungstaste 770 und der Verkleinerungstaste 780 Signale an den Bildtransformationsabschnitt 232 des Bildprozessors 230 (2) gesendet. Entsprechend den Signalen von der Richtungstaste 760, der Vergrößerungstaste 770 und der Verkleinerungstaste 780 wird das Bild transformiert, und das transformierte Bild wird an den Anzeigeabschnitt 240 (2) übermittelt und auf dem Schirm des Anzeigeabschnitts 240 angezeigt.
  • Ferner könnte der Anzeigeschirm 710 eine Omniazimuth-Sichtsensor-Umschalttaste 790 enthalten.
  • Beispielsweise benutzt ein Fahrzeugführer die Omniazimuth-Sichtsensor-Umschalttaste 790, die sich auf dem Anzeigeschirm 710 befindet, und auf der Grundlage der Betätigung der Umschalttaste 790 durch den Fahrzeugführer wird ein Signal vom Anzeigesteuerabschnitt 250 an den Bildprozessor 230 und den Anzeigeabschnitt 240 übermittelt, wodurch ein Umschalten zwischen einem frontalen Omniazimuth-Sichtsensor (210A in 1C und 1D) und einem rückwärtigen Omniazimuth-Sichtsensor (210B in 1C und 1D) derart erfolgt, dass ein Sichtsensor ausgewählt ist. Wenn beispielsweise der rückwärtige Omniazimuth-Sichtsensor 210B ausgewählt ist, wird ein Bild angezeigt, das von dem rückwärtigen Omniazimuth-Sichtsensor 210B abgeleitet ist. Danach wird beispielsweise das erste Perspektivbild-Anzeigefenster 720 unter den Perspektivbild-Anzeigefenstern 720, 730 und 740 ausgewählt und die Bildanzeige in dem Fenster 720 wird mittels der Richtungstaste 760 um –90° gekippt, so dass ein Bild aus der Vogelperspektive von einer Position direkt über dem hinteren Teil des Fahrzeugs 100A erhalten wird, wie weiter oben beschrieben ist. Ein Beispiel für ein derartiges Bild aus der Vogelperspektive ist in 8 gezeigt.
  • 8 zeigt einen weiteren beispielhaften Anzeigeschirm 810 des Anzeigeabschnitts 240.
  • Wie in 8 gezeigt ist, kann der Anzeigeschirm 810 nur ein erweitertes erstes Perspektivbild-Anzeigefenster 830 anzeigen. Ein erstes Erläuterungs-Anzeige fenster 820 gibt an, dass das erste Perspektivbild-Anzeigefenster 830 ein Rückseitenbild des hinteren Teils des Fahrzeugs 100A und seiner Umgebung aus der Vogelperspektive zeigt. Diese Anzeige eines Bildes aus der Vogelperspektive ist zweckmäßig, wenn der Fahrzeugführer den Abstand zwischen seinem eigenen Fahrzeug und benachbarten Fahrzeugen oder Hindernissen überprüfen muss: beispielsweise insbesondere dann, wenn der Fahrzeugführer das Fahrzeug in einen Einstellplatz oder eine Parklücke einparkt oder das Fahrzeug aus dem Einstellplatz oder der Parklücke herausfährt oder wenn der Fahrzeugführer das Fahrzeug so dicht wie möglich an der Kante benachbarter Fahrzeuge oder möglicher Hindernisse abstellt oder anhält.
  • In dem in 8 veranschaulichten Beispiel ist ein Omniazimuth-Sichtsensor 210B an einer Ecke des Fahrzeugs 100 angeordnet. (Eine derartige Anordnung wird später in der Ausführung 2 ausführlich beschrieben.) In diesem Fall ist ungefähr ein Viertel des Gesichtsfeldes (ungefähr 90°) des Omniazimuth-Sichtsensors 210B (Bereich 860 in 8) durch das Fahrzeug 100 versperrt. Das heißt das Gesichtsfeld des Omniazimuth-Sichtsensors 850 umfasst ungefähr 270°, was im Vergleich zu dem Omniazimuth-Sichtsensor 210B, der am mittigen Abschnitt des hinteren Stoßfängers 120 platziert ist (siehe 1C und 1D) und ein hinteres Gesichtsfeld von ungefähr 180° hat, weiter ist.
  • Außerdem kann jedes der auf dem zweiten Perspektivbild-Anzeigefenster 730 und dem dritten Perspektivbild-Anzeigefenster 740 angezeigten Bilder (7) horizontal um jeden Winkel innerhalb des 360°-Schwenkbereichs verlagert werden. Beispielsweise kann, wenn ein auf dem zweiten Perspektivbild-Anzeigefenster 730 oder dem dritten Perspektivbild-Anzeigefenster 740 angezeigtes Bild horizontal um 90° geschwenkt wird, ein nach vorn oder nach hinten gerichtetes perspektivisches Bild des Fahrzeugs 100 erzielt werden. Außerdem könnte der Anzeigeabschnitt 240 so beschaffen sein, dass der Anzeigeschirm durch eine einzige Betätigung eines zusätzlichen Schalters, der auf dem Bildschirm vorgesehen ist, zwischen dem Anzeigeschirm 710 (7) und dem Anzeigeschirm 810 (8) umgeschaltet werden kann.
  • [AUSFÜHRUNGSFORM 2)
  • 9A ist eine Draufsicht, die ein Fahrzeug 900 zeigt, das eine Umgebungsüberwachungsvorrichtung 1000 für einen beweglichen Körper gemäß der Aus führungsform 2 der Erfindung enthält. 9B ist eine Seitenansicht des Fahrzeugs 900.
  • Die Unterschiede zwischen dem Fahrzeug 900 der Ausführungsform 2 und dem Fahrzeug 100A der Ausführungsform 1 bestehen darin, dass ein Omniazimuth-Sichtsensor 1010A an der vorderen rechten Ecke des Fahrzeugs 900 platziert ist und ein Omniazimuth-Sichtsensor 1010B an der hinteren linken Ecke des Fahrzeugs 900 diagonal zum Sensor 1010A platziert ist.
  • Jeder der Omniazimuth-Sichtsensoren 1010A und 1010B hat ein Omniazimuth-Gesichtsfeld mit einem 360°-Sichtfeld um seine eigene Achse in einer im Allgemeinen horizontalen Richtung. Jedoch ist ein Viertel des Gesichtsfeldes (die linke Hälfte des hinteren Gesichtsfeldes (90°)) des Omniazimuth-Sichtsensors 1010A durch das Fahrzeug 900 versperrt. Das bedeutet, dass das effektive Gesichtsfeld des Omniazimuth-Sichtsensors 1010A auf ungefähr 270° vorderes Gesichtsfeld beschränkt ist. Genauso ist ein Viertel des Gesichtsfeldes (die rechte Hälfte des vorderen Gesichtsfeldes (90°)) des Omniazimuth-Sichtsensors 1010B durch das Fahrzeug 900 versperrt. Das bedeutet, dass das effektive Gesichtsfeld des Omniazimuth-Sichtsensors 1010B auf ungefähr 270° hinteres Gesichtsfeld beschränkt ist. Folglich kann mit diesen zwei Omniazimuth-Sichtsensoren 1010A und 1010B ein Bild mit einem Gesichtsfeld von ungefähr 360° von der Umgebung des gesamten Fahrzeugs 900 erhalten werden, derart, dass die Omniazimuth-Sichtsensoren 1010A und 1010B Bereiche in unmittelbarer Nähe des Fahrzeugs 900 sehen können, die schwer einsehbare Bereiche des Fahrzeugs 100 der Ausführungsform 1 sind.
  • In dem Beispiel, das in 7 veranschaulicht ist, wird nun ein Fall betrachtet, in dem der Fahrzeugführer das erste Perspektivbild-Anzeigefenster 720 auswählt und die Richtungstaste 760 benutzt, um ein Bild des Fahrzeugs 900 aus der Vogelperspektive zur Anzeige zu bringen. Wenn in diesem Fall Bilddaten verwendet werden, die mittels des Omniazimuth-Sichtsensors 1010A erhalten worden sind, ohne eine besondere Transformation erfahren zu haben, könnte das Fahrzeug 900 nicht in der Mitte des Anzeigeschirms angezeigt werden. Wenn dies auftritt, können gemäß dieser Ausführungsform die Bilddaten, die mittels des Omniazimuth-Sichtsensors 1010A erzielt werden, entsprechend den Transformationsverfahren wie in der Ausführungsform 1 beschrieben transformiert werden, so dass das Fahrzeug 900 an einer vorgegebenen Position (z. B.
  • in der Mitte) des Anzeigeschirms angezeigt wird, wie beispielsweise in 10 gezeigt ist.
  • 10 zeigt einen beispielhaften Anzeigeschirm 1110 gemäß der Ausführungsform 2. In der Ausführungsform 2 kann der Bildprozessor 230 oder der Anzeigeabschnitt 240 ein Bild aus der Vogelperspektive, das mittels des Omniazimuth-Sichtsensors 1010A erhalten worden ist, der sich an einer vorderen rechten Ecke befindet, mit einem Bild aus der Vogelperspektive, das mittels des Omniazimuth-Sichtsensors 1010B erhalten worden ist, der sich an einer linken hinteren Ecke, diagonal gegenüber dem Sensor 1010A befindet, kombinieren, um zu einem Zeitpunkt die Umgebung des Fahrzeugs 900 auf dem Anzeigeschirm 1110 anzuzeigen, wie aus 10 ersichtlich ist.
  • Es sollte beachtet werden, dass dann, wenn ein Omniazimuth-Sichtsensor so positioniert ist, dass er höher als der Hauptkörper (oder das Dach) eines Fahrzeugs ist, ein Bild des Fahrzeugs und seiner Umgebung aus einer Vogelperspektive, die aus einer Position direkt über dem Fahrzeug gesehen ist, erhalten werden kann. Wenn jedoch der Omniazimuth-Sichtsensor so positioniert ist, dass er niedriger als der Hauptkörper (oder das Dach) eines Fahrzeugs ist, kann der Omniazimuth-Sichtsensor nur ein Bild erzielen, das eine Seitenfläche bzw. Seitenflächen des Fahrzeugs zeigt. In einem solchen Fall wird, um ein Bild aus der Vogelperspektive anzuzeigen, das das gesamte Fahrzeug zeigt, ein Draufsichtbild des Fahrzeugs und seiner Umgebung, das zu einem früheren Zeitpunkt von einer Position direkt über dem Fahrzeug aufgenommen wurde oder das zu einem früheren Zeitpunkt unter Verwendung einer Computergraphik-Software geschaffen wurde, aufbereitet, und dieses Draufsichtbild wird überlagernd an einer vorgegebenen Position innerhalb eines angezeigten Bildes auf dem Anzeigeschirm zur Anzeige gebracht, so dass es mit dem Bild kombiniert wird, das mittels des Omniazimuth-Sichtsensors erzielt worden ist. Mit einer derartigen Anzeigefunktion kann der Führer des Fahrzeugs problemlos die Umgebung des Fahrzeugs überprüfen. Beispielsweise auf einem Parkplatz kann der Führer des Fahrzeugs leicht eine Entfernung zwischen dem Fahrzeug und weißen Linien oder Hindernissen erfassen.
  • Außerdem können, wie in 11 gezeigt ist, wenn Bilder, die mittels der Omniazimuth-Sichtsensoren 1010A und 1010B erzielt werden, die an diagonal gegenüberliegenden Ecken des Fahrzeugs angeordnet sind, kombiniert werden, die beiden Sensoren 1010A und 1010B Bilder der Region 1 und der Region 4 aufnehmen. In einem solchen Fall wird ein Bild der Region 1 (oder der Region 4) angezeigt, indem ein Bild, das vom Sensor 1010A abgeleitet ist, und ein Bild, das vom Sensor 1010B abgeleitet ist, gezielt verwendet werden. Jedoch wird bei Anwendung eines solches Anzeigeverfahrens auf Grund des unterschiedlichen Sichtwinkels der Sensoren 1010A und 1010B eine sichtbare Diskontinuität an einer Schnittstelle zwischen einem Bild, das von einem ausgewählten Omniazimuth-Sichtsensor abgeleitet ist, und einem Bild, das von dem anderen Omniazimuth-Sichtsensor abgeleitet ist (z. B. an einer Schnittstelle zwischen der Region 1 oder 4 und der Region 2 oder 3), bewirkt. Eine derartige sichtbare Diskontinuität verursacht dem Führer des Fahrzeugs 900 Schwierigkeiten und Unannehmlichkeiten beim Betrachten des angezeigten Bildes.
  • Zur Vermeidung eines solchen Problems ist eine Umschalttaste 790 auf dem Anzeigeschirm vorgesehen, die mit dem Anzeigesteuerabschnitt 250 verbunden ist. In Reaktion auf eine Umschaltoperation des Fahrers, der die Umschalttaste 790 betätigt, wird ein Signal an den Anzeigesteuerabschnitt 250 übermittelt. Entsprechend dem Signal von der Umschalttaste 790 wird einer der Sensoren 1010A und 1010B ausgewählt, um ein Bild der Region 1 oder 4 so anzuzeigen, dass ein Bild einer Region, die eine stärkere Beachtung durch den Fahrzeugführer erfährt, und ein Bild einer Region, die dieser benachbart ist, kombiniert werden, um dem Fahrzeugführer ein kombiniertes Anzeigebild ohne Diskontinuitäten zu liefern. Wenn der Führer des Fahrzeugs 900 beispielsweise vielmehr einem Bereich zwischen der Region 1 und der Region 3 als einem Bereich zwischen der Region 1 und der Region 2 größere Aufmerksamkeit zukommen lässt, kann der Fahrzeugführer die Umschalttaste 790 verwenden, um ein Bild der Region 1 auszuwählen, das mittels des Sensors 1010A erhalten worden ist, so dass ein angezeigtes Bild an der Schnittstelle zwischen der Region 1 und der Region 3 sichtbar glatt ist, während an der Schnittstelle zwischen der Region 1 und der Region 2 eine sichtbare Diskontinuität verursacht wird. Umgekehrt, wenn der Fahrzeugsführer die Umschalttaste 790 verwendet, um ein Bild der Region 1 auszuwählen, das mittels des Sensors 1010B aufgenommen wird, ist ein angezeigtes Bild an der Schnittstelle zwischen der Region 1 und der Region 2 sichtbar glatt, während an der Schnittstelle zwischen der Region 1 und der Region 3 eine sichtbare Diskontinuität verursacht wird.
  • [AUSFÜHRUNGSFORM 3]
  • 12A ist eine Draufsicht, die einen Aufbau eines Fahrzeugs 1200 zeigt, in das eine Umgebungsüberwachungsvorrichtung 1300 gemäß der Ausführungsform 3 der Erfindung eingebaut ist. 12B ist eine Seitenansicht, die das Fahrzeug von 12A zeigt.
  • Der Unterschied zwischen der in 12A und 12B gezeigten Umgebungsüberwachungsvorrichtung 1300 und der Umgebungsüberwachungsvorrichtung 1000 ist, dass bei der Umgebungsüberwachungsvorrichtung 1300 an einer Position an der Außenseite des Fahrzeugs 1200, die für ein Messen der Umgebungstemperatur optimal ist (z. B. an einem stirnseitigen Abschnitt des Dachs), ein Temperaturmessabschnitt 270 vorgesehen ist.
  • 13 ist ein Blockdiagramm, das eine Konfiguration der Umgebungsüberwachungsvorrichtung 1300 gemäß der Ausführungsform 3 zeigt. Die Umgebungsüberwachungsvorrichtung 1300 unterscheidet sich von der Umgebungsüberwachungsvorrichtung 200 der 2 dadurch, dass ein Arithmetik/ Steuerabschnitt 1320 der Vorrichtung 1300 den Temperaturmessabschnitt 270 enthält.
  • Wie oben erwähnt worden ist, ist in der Ausführungsform 3 der Temperaturmessabschnitt 270 an einer Position an der Außenseite des Fahrzeugs 1200 vorgesehen, die für ein Messen der Umgebungstemperatur optimal ist (z. B. an einem stirnseitigen Abschnitt des Dachs). Der Temperaturmessabschnitt 270 ist über ein Kabel mit dem Anzeigesteuerabschnitt 250 der Umgebungsüberwachungsvorrichtung 1300 verbunden. Wenn eine Maschine des Fahrzeugs 1200 in Gang gesetzt wird, zeigt der Anzeigesteuerabschnitt 250, falls ein Messergebnis des Temperaturmessabschnitts 270 gleich einer vorgegebenen Temperatur oder niedriger ist, auf der Grundlage einer Ausgabe 256 vom Messabschnitt 270 selbsttätig während eines bestimmten Zeitraums ein Bild an, das die Umgebung des Fahrzeugs 1200 zu einem Zeitpunkt auf einem einzigen Anzeigeschirm, beispielsweise als Bild aus der Vogelperspektive, wie in 10 gezeigt ist, darstellt. Eine solche Ausführung ermöglicht dem Fahrzeugführer auch dann, wenn die Umgebungstemperatur des Fahrzeugs 1200 gleich einer vorgegebenen Temperatur oder niedriger ist, so dass das Fensterglas des Fahrzeugs 1200 beschlagen ist und das beschlagene Fenster den Fahrzeugführer darin hindert, aus dem Fenster zu sehen, leicht die Sicherheit rings um das Fahrzeug 1200 zu prüfen.
  • In den Ausführungsformen 1 bis 3 ist der Omniazimuth-Sichtsensor auf dem Dach oder auf einem Stoßfänger eines Fahrzeugs angeordnet, er könnte jedoch auch auf der Motorhaube, einem Seitenspiegel oder an jeder anderen Stelle des Fahrzeugs angeordnet sein. Außerdem ist in den Ausführungsformen 1 bis 3 zur Veranschaulichung ein Personenkraftwagen als Fahrzeug dargestellt worden. Die vorliegende Erfindung ist jedoch nicht hierauf beschränkt, sondern kann auf ein großes Fahrzeug, wie etwa einen Bus oder dergleichen, und ein Fracht transportierendes Fahrzeug angewendet werden. Insbesondere ist die vorliegende Erfindung für ein Fracht transportierendes Fahrzeug zweckmäßig, da bei vielen Frachttransportern die Fahrersicht in Rückwärtsrichtung des Fahrzeugs durch einen Frachtraum versperrt ist. Die vorliegende Erfindung ist auf Züge anwendbar. Ferner ist die vorliegende Erfindung auf Flugzeuge und allgemein bewegliche Roboter anwendbar.
  • Entsprechend der weiter oben gegebenen ausführlichen Beschreibung ist (wenigstens) ein Omniazimuth-Sichtsensor beispielsweise an (wenigstens) einem Stoßfänger an (wenigstens) einer Ecke usw. eines Fahrzeugs angeordnet, wodurch ansonsten für einen Fahrzeugführer schwer einsehbare Bereiche leicht beobachtet werden können. Bei einem solchen System braucht der Fahrzugführer nicht wie bei herkömmlichen Fahrzeugüberwachungsvorrichtungen zwischen mehreren Kameras umzuschalten, um eine dieser Kameras für eine Anzeige auf einer Anzeigevorrichtung auszuwählen, oder die Orientierung der Kamera zu ändern. Folglich kann der Fahrzeugführer, wenn er zu fahren beginnt, wenn das Kraftfahrzeug eine Kurve nach rechts oder nach links fährt oder wenn der Fahrzeugführer das Kraftfahrzeug in einen Einstellplatz oder eine Parklücke einparkt oder das Fahrzeug aus dem Einstellplatz oder der Parklücke herausfährt, sich der Gefahrlosigkeit rings um das Fahrzeug versichern und ein sicheres Fahren verwirklichen.
  • Außerdem kann der Fahrzeugsführer ein gewünschtes Anzeigebild auswählen und die Anzeigerichtung oder die Bildgröße verändern. Insbesondere kann durch Umschalten einer Anzeige in eine Anzeige aus einer Vogelperspektive, wenn der Fahrzeugführer das Fahrzeug in einen Einstellplatz oder eine Parklücke einparkt oder das Fahrzeug aus dem Einstellplatz oder der Parklücke he rausfährt oder wenn der Fahrer das Fahrzeugs so dicht wie möglich an der Kante benachbarter Fahrzeuge oder Hindernisse abstellt oder anhält, die Gefahrlosigkeit rings um das Fahrzeug leicht überprüft werden (insbesondere kann der Abstand zwischen dem eigenen Fahrzeug und benachbarten Fahrzeugen oder Hindernissen leicht überprüft werden), wodurch Unfälle durch Berühren oder dergleichen vermieden werden können.

Claims (19)

  1. Umgebungsüberwachungssystem, das an einem beweglichen Körper (100) montiert ist, um die Umgebung um den beweglichen Körper (100) zu überwachen, mit einem Omniazimuth-Sichtsystem, das versehen ist mit wenigstens einem Omniazimuth-Sichtsensor (210), der ein optisches System (212), das ein Bild mit einem Omniazimuth-Gesichtsfeldbereich um ihn herum erhalten kann und eine Zentralprojektionstransformation des Bildes in ein optisches Bild ausführen kann, und einen Abbildungsabschnitt (214), der eine Abbildungslinse (216) zum Umsetzen des von dem optischen System (212) enthaltenen optischen Bildes in Bilddaten enthält, aufweist; einem Bildprozessor (230), der die Bilddaten in Panoramabilddaten und/oder perspektivische Bilddaten transformiert; einem Anzeigeabschnitt (240), der entweder ein Panoramabild, das den Panoramabilddaten entspricht, oder ein perspektivisches Bild, das den perspektivischen Bilddaten entspricht, anzeigt; und einem Anzeigesteuerabschnitt (250), der den Anzeigeabschnitt (240) steuert, wobei das optische System (212) einen Hyperboloidspiegel (310), der die Form eine Schale eines zweischaligen Hyperboloids hat, wobei eine optische Achse des Hyperboloidspiegels (310) mit einer optischen Achse der Abbildungslinse (216) zusammenfällt und der Hauptpunkt der Abbildungslinse (216) sich bei einem der Brennpunkte des Hyperboloidspiegels (310) befindet, der Bildprozessor (230) so betreibbar ist, dass er die Bilddaten von dem Omniazimuth-Sichtsensor (210) für die Anzeige des mobilen Körpers (100) und seiner Umgebung in der Vogelperspektive transformiert, und der Anzeigeabschnitt (240) ein Bild des mobilen Körpers (100) und seiner Umgebung in der Vogelperspektive anzeigt.
  2. Umgebungsüberwachungssystem nach Anspruch 1, bei dem der wenigstens eine Omniazimuth-Sichtsensor (210) so angeordnet ist, dass die Vogelperspektive des mobilen Körpers (100) und seiner Umgebung in die Bilddaten transformiert wird.
  3. Umgebungsüberwachungssystem nach Anspruch 1, bei dem der Anzeigeabschnitt (240) gleichzeitig oder wahlweise das Panoramabild und bzw. oder das perspektivische Bild anzeigt.
  4. Umgebungsüberwachungssystem nach Anspruch 1, bei dem der Anzeigeabschnitt (240) ein Bild anzeigt, das in einer Richtung gesehen wird, die zu einer wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers (100) entgegengesetzt ist.
  5. Umgebungsüberwachungssystem nach Anspruch 1, bei dem der Bildprozessor (230) Bilddaten, die einem ersten Bereich in dem Omniazimuth-Gesichtsfeldbereich um das optische System (212) entsprechen, in erste perspektivische Bilddaten transformiert.
  6. Umgebungsüberwachungssystem nach Anspruch 5, bei dem der Bildprozessor (230) in Reaktion auf die Steuerung durch den Anzeigesteuerabschnitt (250) Bilddaten, die einem nicht mit dem ersten Bereich überlappenden zweiten Bereich in dem Omniazimuth-Gesichtsfeldbereich um das optische System (212) entsprechen, in zweite perspektivische Bilddaten transformiert, die nicht mit den ersten perspektivischen Bilddaten übereinstimmen.
  7. Umgebungsüberwachungssystem nach Anspruch 6, bei dem der zweite Bereich mit einem Bereich übereinstimmt, der durch Ausführen wenigstens einer Verarbeitung einer translatorischen Verlagerung und einer Zoom-In/Zoom-Out-Verarbeitung des ersten Bereichs erhalten wird.
  8. Umgebungsüberwachungssystem nach Anspruch 1, bei dem das optische System (212) so positioniert ist, dass eine optische Achse des optischen Systems (212) zu einer wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers (100) senkrecht ist.
  9. Umgebungsüberwachungssystem nach Anspruch 1, bei dem in Reaktion auf die Steuerung durch den Anzeigesteuerabschnitt (250) der Anzeigeabschnitt (240) ein Bild anzeigt, das den mobilen Körper (100) auf einem Anzeigeschirm des Anzeigeabschnitts (240) zeigt, so dass der bewegliche Körper (100) an einer vorgegebenen Position auf einem auf dem Anzeigeschirm angezeigten Bild gezeigt wird.
  10. Umgebungsüberwachungssystem nach Anspruch 1, bei dem der Anzeigeabschnitt (240) gleichzeitig ein Bild, das in einer zu einer wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers (100) entgegengesetzten Richtung gesehen wird, und ein Bild, das in einer Richtung gesehen wird, die weder mit der wahrscheinlichsten Bewegungsrichtung des beweglichen Körpers (100) übereinstimmt noch zu ihr entgegengesetzt ist, anzeigt.
  11. Umgebungsüberwachungssystem nach Anspruch 1, bei dem der bewegliche Körper (100) ein Fahrzeug ist.
  12. Umgebungsüberwachungssystem nach Anspruch 11, bei dem: das Fahrzeug einen ersten Stoßfänger (110), der auf jener Seite des Fahrzeugs, in die es sich am wahrscheinlichsten bewegt, vorgesehen ist, und einen zweiten Stoßfänger (120), der auf einer Seite des Fahrzeugs vorgesehen ist, die zu jener Seite, in die es sich am wahrscheinlichsten bewegt, entgegengesetzt ist, enthält; und der wenigstens eine Omniazimuth-Sichtsensor einen ersten Omniazimuth-Sichtsensor (210), der am ersten Stoßfänger (110) angeordnet ist, und einen zweiten Omniazimuth-Sichtsensor (210B), der am zweiten Stoßfänger (120) angeordnet ist, enthält.
  13. Umgebungsüberwachungssystem nach Anspruch 12, bei dem: der erste Omniazimuth-Sichtsensor (210A) in bezug auf die wahrscheinlichste Bewegungsrichtung des Fahrzeugs (100) entweder am rechten oder am linken Ende des ersten Stoßfängers (110) angeordnet ist; der zweite Omniazimuth-Sichtsensor (210B) an einem Ende des zweiten Stoßfängers (120) angeordnet ist, das in bezug auf eine Karosserie des Fahrzeugs zu dem Ende des ersten Stoßfängers (110), an dem der erste Omniazimuth-Sichtsensor (210A) angeordnet ist, diagonal entgegengesetzt ist.
  14. Umgebungsüberwachungssystem nach Anspruch 13, bei dem der Anzeigeabschnitt (240) ein Bild anzeigt, das durch Kombinieren eines ersten perspektivischen Bildes, das von dem ersten Omniazimuth-Sichtsensor (210A) abgeleitet wird, und eines zweiten perspektivischen Bildes, das von dem zweiten Omniazimuth-Sichtsensor (210B) abgeleitet wird, erhalten wird.
  15. Umgebungsüberwachungssystem nach Anspruch 1, bei dem: der Bildprozessor (230) einen Speicherabschnitt zum Speichern von Bilddaten des beweglichen Körpers aufweist; der Bildprozessor (230) die Bilddaten des beweglichen Körpers aus dem Speicherabschnitt mit den perspektivischen Bilddaten, die von dem optischen System (212) abgeleitet werden, kombiniert; und der Anzeigeabschnitt (240) anhand der kombinierten Bilddaten ein perspektivisches Bild anzeigt, das das den beweglichen Körper (100) zeigende Bild enthält.
  16. Umgebungsüberwachungssystem nach Anspruch 15, bei dem die Bilddaten des beweglichen Körpers (100) Bilddaten sind, die unter Verwendung einer Computergraphik-Software erzeugt werden.
  17. Umgebungsüberwachungssystem nach Anspruch 15, bei dem die Bilddaten des beweglichen Körpers Bilddaten sind, die durch Aufnehmen eines Bildes des beweglichen Körpers (100) erhalten werden.
  18. Umgebungsüberwachungssystem nach Anspruch 1, bei dem: das Omniazimuth-Sichtsystem ferner einen Temperaturmessabschnitt zum Messen einer Umgebungstemperatur des beweglichen Körpers aufweist; und der Anzeigeabschnitt dann, wenn die von dem Temperaturmessabschnitt gemessene Umgebungstemperatur gleich oder niedriger als eine vorgegebene Temperatur ist, das Bild der Vogelperspektive des beweglichen Körpers (100) und seiner Umgebung anzeigt, nachdem der bewegliche Körper (100) beweglich geworden ist.
  19. Umgebungsüberwachungssystem nach Anspruch 13, bei dem der Anzeigeabschnitt (240) dann, wenn er ein perspektivisches Bild eines überlappenden Bereichs zwischen einem Anzeigebereich eines Bildes des beweglichen Körpers (100) und seiner Umgebung in der Vogelperspektive, der durch den ersten Omniazimuth-Sichtsensor (210A) erhalten wird, und einem Anzeigebereich eines Bildes des beweglichen Körpers und seiner Umgebung in der Vogelperspektive, der durch den zweiten Omniazimuth-Sichtsensor (210B) erhalten wird, anzeigt, auf der Grundlage der Steuerung durch den Anzeigesteuerabschnitt (250) ein perspektivisches Bild anzeigt, das von dem ersten Omniazimuth-Sichtsensor oder dem zweiten Omniazimuth-Sichtsensor abgeleitet ist.
DE60101440T 2000-10-11 2001-10-11 Umgebungsüberwachungssystem für beweglichen Körper Expired - Lifetime DE60101440T3 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000311206 2000-10-11
JP2000311206 2000-10-11
JP2001310887 2001-10-09
JP2001310887A JP3773433B2 (ja) 2000-10-11 2001-10-09 移動体の周囲監視装置

Publications (3)

Publication Number Publication Date
DE60101440D1 DE60101440D1 (de) 2004-01-22
DE60101440T2 true DE60101440T2 (de) 2004-09-23
DE60101440T3 DE60101440T3 (de) 2008-04-17

Family

ID=26601909

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60101440T Expired - Lifetime DE60101440T3 (de) 2000-10-11 2001-10-11 Umgebungsüberwachungssystem für beweglichen Körper

Country Status (5)

Country Link
US (1) US7295229B2 (de)
EP (1) EP1197937B2 (de)
JP (1) JP3773433B2 (de)
KR (1) KR100650121B1 (de)
DE (1) DE60101440T3 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008034606A1 (de) * 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Darstellung der Umgebung eines Fahrzeugs auf einer mobilen Einheit
WO2010066332A1 (de) 2008-12-12 2010-06-17 Daimler Ag Vorrichtung zur überwachung einer umgebung eines fahrzeugs
DE102010015079A1 (de) * 2010-04-15 2011-10-20 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen eines Bildes auf einer Anzeigeeinrichtung in einem Fahrzeug. Fahrerassistenzsystem und Fahrzeug

Families Citing this family (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4658408B2 (ja) * 2001-08-30 2011-03-23 株式会社東海理化電機製作所 車両用監視装置
US7145519B2 (en) 2002-04-18 2006-12-05 Nissan Motor Co., Ltd. Image display apparatus, method, and program for automotive vehicle
US20030202110A1 (en) * 2002-04-30 2003-10-30 Owens James W. Arrangement of images
US20030227424A1 (en) * 2002-06-05 2003-12-11 Lynch Marvin L. Method and apparatus for in-vehicle traffic flow viewing
JP3849645B2 (ja) * 2003-01-20 2006-11-22 ソニー株式会社 監視装置
DE10303013A1 (de) * 2003-01-27 2004-08-12 Daimlerchrysler Ag Fahrzeug mit einer katadioptrischen Kamera
DE10307607A1 (de) * 2003-02-22 2004-09-09 Daimlerchrysler Ag Verteiltes Bildverarbeitungssystem für Kraftfahrzeuge
JP2004312638A (ja) 2003-04-10 2004-11-04 Mitsubishi Electric Corp 障害物検知装置
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
US20050062845A1 (en) * 2003-09-12 2005-03-24 Mills Lawrence R. Video user interface system and method
JP2005167638A (ja) * 2003-12-02 2005-06-23 Sharp Corp 移動体周囲監視装置、移動体および画像変換方法
JP2005191962A (ja) 2003-12-25 2005-07-14 Sharp Corp 移動体周囲監視装置および移動体
US7653486B2 (en) * 2004-02-20 2010-01-26 Sharp Kabushiki Kaisha Surroundings exhibiting system and surroundings exhibiting method
JP4661112B2 (ja) * 2004-07-09 2011-03-30 日産自動車株式会社 画像情報処理装置及び画像情報処理方法
JP4590962B2 (ja) * 2004-07-21 2010-12-01 日産自動車株式会社 車両用周辺監視装置
JP2006054662A (ja) * 2004-08-11 2006-02-23 Mitsubishi Electric Corp 運転支援装置
DE102004042281A1 (de) * 2004-09-01 2006-03-02 Daimlerchrysler Ag Hilfsvorrichtung für das Handhaben eines Fahrzeugs
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
JP4639753B2 (ja) 2004-10-25 2011-02-23 日産自動車株式会社 運転支援装置
DE102005006754A1 (de) * 2005-02-15 2006-08-17 Robert Bosch Gmbh Weitwinkeliges Kamera-Spiegel-System für Beobachtungszwecke
JP4907883B2 (ja) * 2005-03-09 2012-04-04 株式会社東芝 車両周辺画像表示装置および車両周辺画像表示方法
JP4596978B2 (ja) * 2005-03-09 2010-12-15 三洋電機株式会社 運転支援システム
WO2007015446A1 (ja) 2005-08-02 2007-02-08 Nissan Motor Co., Ltd. 車両周囲監視装置及び車両周囲監視方法
DE102006006850B4 (de) * 2006-02-15 2022-12-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ausrichtung eines verschwenkbaren Fahrzeugsensors
US20070271028A1 (en) * 2006-05-18 2007-11-22 Zicheng Liu Method and Apparatus for Vehicle Safety Surveillance
US8013838B2 (en) * 2006-06-30 2011-09-06 Microsoft Corporation Generating position information using a video camera
JP4758481B2 (ja) * 2007-01-16 2011-08-31 パイオニア株式会社 車両用画像処理装置及び車両用画像処理プログラム
JP4969269B2 (ja) * 2007-02-21 2012-07-04 アルパイン株式会社 画像処理装置
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
DE102007016956A1 (de) 2007-04-05 2008-10-09 Continental Teves Ag & Co. Ohg Fahrerassistenzsystem
US20080266397A1 (en) * 2007-04-25 2008-10-30 Navaratne Dombawela Accident witness
JP5120880B2 (ja) 2007-10-15 2013-01-16 アルパイン株式会社 画像処理装置及び画像処理方法
DE102009050368A1 (de) 2008-10-24 2010-05-27 Magna Electronics Europe Gmbh & Co.Kg Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
JP4840452B2 (ja) * 2009-01-22 2011-12-21 株式会社デンソー 車両周辺表示装置
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
JP5344227B2 (ja) * 2009-03-25 2013-11-20 アイシン精機株式会社 車両用周辺監視装置
JP5436086B2 (ja) * 2009-08-03 2014-03-05 アルパイン株式会社 車両周辺画像表示装置および車両周辺画像表示方法
FR2956364B1 (fr) * 2010-02-18 2016-01-29 Peugeot Citroen Automobiles Sa Dispositif d'aide aux manoeuvres d'un vehicule par affichage de points de vue fonction de la position de la tete du conducteur
US9210307B2 (en) 2010-11-04 2015-12-08 Magna Electronics, Inc. Vehicular camera system with reduced number of pins and conduits
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
US9233641B2 (en) 2011-02-25 2016-01-12 Magna Electronics Inc. Vehicular camera with aligned housing members and electrical connection between aligned housing members
US20140218535A1 (en) 2011-09-21 2014-08-07 Magna Electronics Inc. Vehicle vision system using image data transmission and power supply via a coaxial cable
JP5682788B2 (ja) * 2011-09-27 2015-03-11 アイシン精機株式会社 車両周辺監視装置
US9264673B2 (en) 2011-11-20 2016-02-16 Magna Electronics, Inc. Vehicle vision system with enhanced functionality
US10071687B2 (en) 2011-11-28 2018-09-11 Magna Electronics Inc. Vision system for vehicle
TWI457861B (zh) * 2011-12-19 2014-10-21 Transpac Corp 監控裝置及其方法
US9565342B2 (en) 2012-03-06 2017-02-07 Magna Electronics Inc. Vehicle camera with tolerance compensating connector
US10089537B2 (en) 2012-05-18 2018-10-02 Magna Electronics Inc. Vehicle vision system with front and rear camera integration
US9288446B2 (en) * 2012-09-10 2016-03-15 Nissan North America, Inc. Vehicle video system
TWI517992B (zh) * 2012-11-13 2016-01-21 義晶科技股份有限公司 車用影像系統及其影像之顯示控制方法
KR101406211B1 (ko) 2012-12-20 2014-06-16 현대오트론 주식회사 차량용 avm 영상 제공 장치 및 방법
US10057544B2 (en) 2013-03-04 2018-08-21 Magna Electronics Inc. Vehicle vision system camera with integrated physical layer components
US9834143B2 (en) * 2013-05-23 2017-12-05 GM Global Technology Operations LLC Enhanced perspective view generation in a front curb viewing system
CN105658479B (zh) * 2013-08-07 2018-08-31 奥迪股份公司 可视化系统、车辆以及用于操作可视化系统的方法
JP6261266B2 (ja) * 2013-10-02 2018-01-17 東芝アルパイン・オートモティブテクノロジー株式会社 移動体検知装置
US9881220B2 (en) 2013-10-25 2018-01-30 Magna Electronics Inc. Vehicle vision system utilizing communication system
DE102015202846B4 (de) 2014-02-19 2020-06-25 Magna Electronics, Inc. Fahrzeugsichtsystem mit Anzeige
US9688199B2 (en) 2014-03-04 2017-06-27 Magna Electronics Inc. Vehicle alert system utilizing communication system
US9971947B2 (en) 2014-07-31 2018-05-15 Magna Electronics Inc. Vehicle vision system with camera power control
US9729636B2 (en) 2014-08-01 2017-08-08 Magna Electronics Inc. Smart road system for vehicles
US10356337B2 (en) 2014-10-07 2019-07-16 Magna Electronics Inc. Vehicle vision system with gray level transition sensitive pixels
US9740945B2 (en) 2015-01-14 2017-08-22 Magna Electronics Inc. Driver assistance system for vehicle
US10032369B2 (en) 2015-01-15 2018-07-24 Magna Electronics Inc. Vehicle vision system with traffic monitoring and alert
JP6222137B2 (ja) * 2015-03-02 2017-11-01 トヨタ自動車株式会社 車両制御装置
US10298818B2 (en) 2015-03-23 2019-05-21 Magna Electronics Inc. Vehicle camera with enhanced imager and PCB assembly
US10486599B2 (en) 2015-07-17 2019-11-26 Magna Mirrors Of America, Inc. Rearview vision system for vehicle
US10875403B2 (en) 2015-10-27 2020-12-29 Magna Electronics Inc. Vehicle vision system with enhanced night vision
US11027654B2 (en) 2015-12-04 2021-06-08 Magna Electronics Inc. Vehicle vision system with compressed video transfer via DSRC link
US10132971B2 (en) 2016-03-04 2018-11-20 Magna Electronics Inc. Vehicle camera with multiple spectral filters
KR101866875B1 (ko) 2016-06-10 2018-07-23 (주)헥스하이브 전방위 촬상용 영상 시스템 및 블랙박스
KR101671340B1 (ko) 2016-03-15 2016-11-01 (주)헥스하이브 전방위 촬상용 렌즈 조립체
US10380439B2 (en) 2016-09-06 2019-08-13 Magna Electronics Inc. Vehicle sensing system for detecting turn signal indicators
US10607094B2 (en) 2017-02-06 2020-03-31 Magna Electronics Inc. Vehicle vision system with traffic sign recognition
JP7130923B2 (ja) * 2017-07-19 2022-09-06 株式会社アイシン 表示制御装置
CN107396061B (zh) * 2017-08-25 2018-05-01 胡海明 重型卡车实时监控系统
CN107371001B (zh) * 2017-08-25 2018-07-20 北京中都格罗唯视物流有限公司 一种重型卡车实时监控系统
US10933798B2 (en) 2017-09-22 2021-03-02 Magna Electronics Inc. Vehicle lighting control system with fog detection
US10682966B2 (en) 2017-11-16 2020-06-16 Magna Electronics Inc. Vehicle light/display control system using camera
US11417107B2 (en) 2018-02-19 2022-08-16 Magna Electronics Inc. Stationary vision system at vehicle roadway
DE102018206062A1 (de) * 2018-04-20 2019-10-24 Robert Bosch Gmbh Verfahren zur Steuerung eines Anzeigesystems
US11683911B2 (en) 2018-10-26 2023-06-20 Magna Electronics Inc. Vehicular sensing device with cooling feature
JP7038643B2 (ja) * 2018-11-26 2022-03-18 本田技研工業株式会社 映像表示装置
US11609304B2 (en) 2019-02-07 2023-03-21 Magna Electronics Inc. Vehicular front camera testing system
US11535158B2 (en) 2019-03-28 2022-12-27 Magna Electronics Inc. Vehicular camera with automatic lens defogging feature
US11135883B2 (en) 2019-05-13 2021-10-05 Magna Electronics Inc. Vehicular sensing system with ultrasonic sensor at trailer hitch
US11750905B2 (en) 2020-08-14 2023-09-05 Magna Electronics Inc. Vehicular camera with inductive lens heater
US11801795B2 (en) 2020-09-18 2023-10-31 Magna Electronics Inc. Vehicular camera with lens heater with connectors
US11749105B2 (en) 2020-10-01 2023-09-05 Magna Electronics Inc. Vehicular communication system with turn signal identification
CN112822359B (zh) * 2020-12-30 2022-03-25 山东大学 一种基于车载式钻爆洞隧道的全景成像系统及方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4420238A (en) * 1982-04-19 1983-12-13 Felix Larry L Apparatus for enabling concealing surveillance by use of a camera in a vehicle
GB2185360B (en) * 1986-01-11 1989-10-25 Pilkington Perkin Elmer Ltd Display system
JP2939087B2 (ja) * 1993-04-07 1999-08-25 シャープ株式会社 全方位視覚系
JPH08167100A (ja) * 1994-12-12 1996-06-25 Hisaji Nakamura 操縦装置
US6891563B2 (en) * 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
JP3453960B2 (ja) * 1995-10-24 2003-10-06 日産自動車株式会社 車両周囲モニタ装置
DE19636028C1 (de) * 1996-09-05 1997-11-20 Daimler Benz Ag Verfahren zur Stereobild-Objektdetektion
EP1408693A1 (de) * 1998-04-07 2004-04-14 Matsushita Electric Industrial Co., Ltd. Bildanzeigegerät an Bord eines Fahrzeugs, Bildsendersystem, -sendegerät und -aufnahmegerät
US6477464B2 (en) * 2000-03-09 2002-11-05 Donnelly Corporation Complete mirror-based global-positioning system (GPS) navigation solution
JP3327255B2 (ja) 1998-08-21 2002-09-24 住友電気工業株式会社 安全運転支援システム
US6704048B1 (en) * 1998-08-27 2004-03-09 Polycom, Inc. Adaptive electronic zoom control
JP2000295604A (ja) * 1999-04-06 2000-10-20 Yazaki Corp 車両用後側方監視装置
JP3627914B2 (ja) * 2000-05-23 2005-03-09 シャープ株式会社 車両の周囲監視システム
US6422062B1 (en) * 2000-08-29 2002-07-23 Delphi Technologies, Inc. Integrated glass fog sensor unit
US6424273B1 (en) * 2001-03-30 2002-07-23 Koninklijke Philips Electronics N.V. System to aid a driver to determine whether to change lanes
US7697027B2 (en) * 2001-07-31 2010-04-13 Donnelly Corporation Vehicular video system
US6521868B1 (en) * 2001-11-02 2003-02-18 Ford Global Technologies, Inc. Method and apparatus for heating a portion of a vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008034606A1 (de) * 2008-07-25 2010-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Darstellung der Umgebung eines Fahrzeugs auf einer mobilen Einheit
WO2010066332A1 (de) 2008-12-12 2010-06-17 Daimler Ag Vorrichtung zur überwachung einer umgebung eines fahrzeugs
DE102010015079A1 (de) * 2010-04-15 2011-10-20 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen eines Bildes auf einer Anzeigeeinrichtung in einem Fahrzeug. Fahrerassistenzsystem und Fahrzeug

Also Published As

Publication number Publication date
US7295229B2 (en) 2007-11-13
JP3773433B2 (ja) 2006-05-10
DE60101440D1 (de) 2004-01-22
KR100650121B1 (ko) 2006-11-24
EP1197937B2 (de) 2007-08-01
EP1197937A1 (de) 2002-04-17
US20020080017A1 (en) 2002-06-27
JP2002218451A (ja) 2002-08-02
KR20020028853A (ko) 2002-04-17
DE60101440T3 (de) 2008-04-17
EP1197937B1 (de) 2003-12-10

Similar Documents

Publication Publication Date Title
DE60101440T2 (de) Vorrichtung zur Überwachung der Umgebung eines beweglichen Körpers
DE102004043257B4 (de) Kameraeinheit und Vorrichtung zur Überwachung der Fahrzeugumgebung
DE102004043236B4 (de) Kameraeinheit und Vorrichtung zur Überwachung einer Fahrzeugumgebung
DE102018101542B4 (de) Bordanzeigevorrichtung, Steuerverfahren für Bordanzeigevorrichtung und Steuerprogramm für Bordanzeigevorrichtung
DE60104599T2 (de) Umgebungs-Überwachungssystem für bewegliche Körper wie Kraftfahrzeug oder Zug
DE10017072C2 (de) Hecküberwachungssystem für ein Fahrzeug
EP1302076B1 (de) Vorrichtung und verfahren zur überwachung der umgebung eines objekts
DE60005426T2 (de) Rückblicksüberwachungssystem für Fahrzeuge
DE102005018773B4 (de) Vorrichtung zur Sicht der Umgebung eines Fahrzeugs
EP2865569B1 (de) Anzeigeeinrichtung für Sichtfelder eines Nutzfahrzeugs
EP1470958B1 (de) Freiraumüberwachung bei Kraftfahrzeugen
DE102012025322B4 (de) Kraftfahrzeug mit Kamera-Monitor-System
DE19741896C2 (de) Vorrichtung zur bildlichen Darstellung von Bereichen der Umgebung eines Kraftfahrzeugs
EP2603402B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung und fahrerassistenzsystem
DE10253378B4 (de) Visuelles Fahrzeugumgebungs-Erkennungssystem, Kamera und Fahrzeugumgebungs-Überwachungsvorrichtung sowie Fahrzeugumgebungs-Überwachungssystem
EP2373521B1 (de) Vorrichtung zur überwachung einer umgebung eines fahrzeugs
DE19801884A1 (de) Überwachungssystem für Fahrzeuge
DE102005018361B4 (de) Vorrichtung zur visuellen Überprüfung der Umgebung eines Fahrzeugs
DE102013220669A1 (de) Dynamische Rückspiegelanzeigemerkmale
DE102017127248B4 (de) Bildbearbeitungsvorrichtung und Bildbearbeitungsverfahren
DE102012203491A1 (de) Elektronisches Rückspiegel-System
DE102004017143A1 (de) Hinderniserfassungseinrichtung
DE10321228B4 (de) Optisches Erfassungssystem für Fahrzeuge
DE10218175B4 (de) Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit fahrsituationsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds
DE10227171A1 (de) Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit abstandsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds

Legal Events

Date Code Title Description
8363 Opposition against the patent
8366 Restricted maintained after opposition proceedings