DE102019007001B4 - VEHICLE IMAGE PROCESSING DEVICE, VEHICLE IMAGE PROCESSING METHOD, PROGRAM and STORAGE MEDIUM - Google Patents

VEHICLE IMAGE PROCESSING DEVICE, VEHICLE IMAGE PROCESSING METHOD, PROGRAM and STORAGE MEDIUM Download PDF

Info

Publication number
DE102019007001B4
DE102019007001B4 DE102019007001.1A DE102019007001A DE102019007001B4 DE 102019007001 B4 DE102019007001 B4 DE 102019007001B4 DE 102019007001 A DE102019007001 A DE 102019007001A DE 102019007001 B4 DE102019007001 B4 DE 102019007001B4
Authority
DE
Germany
Prior art keywords
vehicle
image data
processor
image processing
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019007001.1A
Other languages
German (de)
Other versions
DE102019007001A1 (en
Inventor
Kenta Nakao
Kiichi Sugimoto
Tomohiro Matsumoto
Kensuke Futahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MITSUBISHI LOGISNEXT CO., LTD., NAGAOKAKYO-SHI, JP
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Publication of DE102019007001A1 publication Critical patent/DE102019007001A1/en
Application granted granted Critical
Publication of DE102019007001B4 publication Critical patent/DE102019007001B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Fahrzeugbildverarbeitungsvorrichtung (1), aufweisend:eine Vielzahl von Puffern (2), die konfiguriert sind, um Teile von Bilddaten (G) zu akkumulieren, die von einer Vielzahl von Kameras (8) einzeln und sequenziell eingegeben sind, die in einem Fahrzeug (9) installiert sind und jeweils unterschiedliche Umgebungsgebiete des Fahrzeugs (9) aufnehmen, um die Teile von Bilddaten (G) mit den Kameras (8) zu verknüpfen;einen Prozessor (3), der konfiguriert ist, um den Puffer (2) basierend auf Zustandsinformationen (S) zum Bestimmen von Fahrbedingungen des Fahrzeugs (9) auszuwählen, und um den Teil von Bilddaten (G) aus dem ausgewählten Puffer (2) zu akquirieren, um diesbezüglich eine Bildverarbeitung durchzuführen;eine Signalleitung (4), die die Teile von Bilddaten (G) in den Puffern (2) zu dem Prozessor (3) überträgt; undeine Transfersteuerung (5), die konfiguriert ist, um den von dem Prozessor (3) benötigten Teil von Bilddaten (G) in dem Puffer (2) an die Signalleitung (4) auszugeben, indem basierend auf den Zustandsinformationen (S) ausgewählt wird,wobei die Zustandsinformationen (S) eine Fahrzeuggeschwindigkeit (V) umfassen, undder Prozessor (3) die Auswahl des Puffers (2) basierend auf einem Vergleich der Fahrzeuggeschwindigkeit (V) und Schwellenwerten (L) durchführt,wobei die Schwellenwerte (L) einen Umschaltbeginn-Schwellenwert (Ls) und einen Umschaltbeendigungs-Schwellenwert (Le) umfassen, bei welchen eine Differenz zu dem Umschaltbeginn-Schwellenwert (Ls) ein erster Wert ist,der Prozessor (3) konfiguriert ist, um die Bildverarbeitung auf einer vorbestimmten Anzahl an Teilen der Bilddaten (G) pro Einheitszeit durchzuführen, undwenn die Fahrzeuggeschwindigkeit (V) zwischen dem Umschaltbeginn-Schwellenwert (Ls) und dem Umschaltbeendigungs-Schwellenwert (Le) liegt, der Prozessor (3) die auszuwählenden Puffer (2) derart umschaltet, dass, wenn sich die Fahrzeuggeschwindigkeit (V) dem Umschaltbeendigungs-Schwellenwert (Le) von dem Umschaltbeginn-Schwellenwert (Ls) nähert, die vorbestimmte Anzahl an Teilen von Bilddaten (G), auf welchen die Bildverarbeitung pro Einheitszeit durchgeführt wird, bevor die Fahrzeuggeschwindigkeit (V) den Umschaltbeginn-Schwellenwert (Ls) erreicht, mit der vorbestimmten Anzahl an Teilen von Bilddaten (G) ersetzt wird, nachdem die Fahrzeuggeschwindigkeit (V) den Umschaltbeendigungs-Schwellenwert (Le) erreicht hat.A vehicle image processing device (1), comprising:a plurality of buffers (2) configured to accumulate portions of image data (G) individually and sequentially inputted from a plurality of cameras (8) mounted in a vehicle (9 ) are installed and each record different surrounding areas of the vehicle (9) in order to link the parts of image data (G) with the cameras (8); a processor (3) which is configured to process the buffer (2) based on status information (S) for determining driving conditions of the vehicle (9), and for acquiring the portion of image data (G) from the selected buffer (2) to perform image processing thereon; a signal line (4) which contains the portions of image data (G) in the buffers (2) to the processor (3); and a transfer controller (5) configured to output the portion of image data (G) in the buffer (2) required by the processor (3) to the signal line (4) by selecting based on the status information (S), wherein the status information (S) includes a vehicle speed (V), and the processor (3) carries out the selection of the buffer (2) based on a comparison of the vehicle speed (V) and threshold values (L), the threshold values (L) indicating a start of switching. Threshold (Ls) and a switching completion threshold (Le), in which a difference from the switching start threshold (Ls) is a first value, the processor (3) is configured to carry out the image processing on a predetermined number of pieces of the image data (G) per unit time, and when the vehicle speed (V) is between the switching start threshold (Ls) and the switching completion threshold (Le), the processor (3) switches the buffers (2) to be selected such that when the Vehicle speed (V) approaches the switching completion threshold (Le) from the switching start threshold (Ls), the predetermined number of pieces of image data (G) on which the image processing is performed per unit time before the vehicle speed (V) reaches the switching start threshold. Threshold (Ls) is reached, is replaced with the predetermined number of pieces of image data (G) after the vehicle speed (V) has reached the switching completion threshold (Le).

Description

Technisches Gebiet der ErfindungTechnical field of the invention

Die vorliegende Erfindung bezieht sich auf eine Außenumgebungserkennung, welche mit einer in einem Fahrzeug installierten Vielzahl von Kameras durchgeführt wird.The present invention relates to outdoor environment detection performed with a plurality of cameras installed in a vehicle.

Hintergrund der ErfindungBackground of the invention

In den vergangenen Jahren sind viele Technologien entwickelt worden, in welchen eine in einem Fahrzeug installierte Vielzahl von Kameras verwendet wird, um eine Außenumgebungserkennung bezüglich des Fahrzeugs durchzuführen, und in welchen somit ein Bremsen in Abhängigkeit von der Situation auf das Fahrzeug automatisch mit dem Ergebnis angewendet wird, dass die Fahrunterstützung und das automatische Fahren von Fahrzeugen voranschreitet. Da sich in den vorstehend beschriebenen Technologien nicht nur das vorliegende Fahrzeug, sondern auch Menschen drumherum, andere Fahrzeuge und dergleichen bewegen, müssen hinsichtlich einer Rückkopplung von der Außenumgebungserkennung zum Steuern von Alarmen, einem Bremsen und dergleichen mit den Kameras aufgenommene Bilder in Echtzeit verarbeitet werden. Wenn allerdings ein Prozessor in jeder der Kameras vorgesehen ist, dann werden die Kosten des Fahrzeugs signifikant zunehmen.In recent years, many technologies have been developed in which a plurality of cameras installed in a vehicle are used to perform external environment detection regarding the vehicle, and thus braking depending on the situation is automatically applied to the vehicle with the result will ensure that driving assistance and automatic driving of vehicles advances. In the above-described technologies, since not only the present vehicle but also people around it, other vehicles and the like move, images captured by the cameras must be processed in real time for feedback from the external environment detection for controlling alarms, braking and the like. However, if a processor is provided in each of the cameras, then the cost of the vehicle will increase significantly.

Zur Lösung eines solchen Problems offenbart die Patentschrift 1, dass in einer Konfiguration, in welcher eine Vielzahl von Stereokameras mit I/Os einzeln verbunden sind, und in welcher eine CPU (Bildverarbeitungs-IC) einen RAM verwendet, um nach Bedarf eine Bildverarbeitung auf aufgenommenen Bilddaten durchzuführen, ein Situationsbeurteilungs-/Bildauswahlabschnitt bestimmt, welches der mit den Stereokameras aufgenommenen Bilder an einen Bildverarbeitungsabschnitt gemäß einerTo solve such a problem, Patent Document 1 discloses that in a configuration in which a plurality of stereo cameras with I/Os are individually connected and in which a CPU (Image Processing IC) uses a RAM to perform image processing on captured images as needed To perform image data, a situation assessment/image selection section determines which of the images recorded with the stereo cameras is sent to an image processing section according to one

Unterstützungsbetriebsart ausgegeben wird, und dass somit der Bildverarbeitungsabschnitt (ein Vorverarbeitungsabschnitt und die nachfolgenden Abschnitte) die Bildverarbeitung durchführt. Auf diese Weise kann vermieden werden, dass eine Berechnungsvorrichtung verwendet werden muss, deren Verarbeitungsfähigkeit hoch ist, und dergleichen, und somit können die Kosten verringert werden.Support mode is output, and thus the image processing section (a pre-processing section and the subsequent sections) performs the image processing. In this way, the need to use a computing device whose processing capability is high and the like can be avoided, and thus the cost can be reduced.

In ähnlicher Weise offenbart die Patentschrift 2, dass eine CPU (Berechnungsabschnitt) die eine Vorderkennungsverarbeitung für die Bildinformation einer Vorderkamera, die in einen Eingabeabschnitt eingegeben werden, und eine Rückerkennungsverarbeitung für die Bildinformationen einer Rückkamera durchführen kann, eine jeweils als die Vordererkennungsverarbeitung und die Rückerkennungsverarbeitung ausgeführte Verarbeitung basierend auf den Zustandsinformationen des vorliegenden Fahrzeugs (Informationen, die eine Vorwärtsbewegung und eine Rückwärtsbewegung und einen Fahrzustand anzeigen) auswählt und durchführt. Auf diese Weise kann im Vergleich zu dem Fall, dass CPUs für die Vordererkennungsverarbeitung und die Rückerkennungsverarbeitung getrennt vorgesehen sind, ihre Konfiguration vereinfacht werden.Similarly, Patent Literature 2 discloses that a CPU (calculation section) which can perform front detection processing for the image information of a front camera inputted into an input section and rear detection processing for the image information of a rear camera, respectively executed as the front detection processing and the back detection processing Selects and performs processing based on the state information of the present vehicle (information indicating forward movement and backward movement and driving state). In this way, compared to the case where CPUs for front detection processing and back detection processing are provided separately, their configuration can be simplified.

Außerdem offenbart die Patentschrift 3, dass ein Teil von aufgenommenen Bildern, die durch Abbilden der Außenumgebung eines Fahrzeugs erhalten sind, gemäß Bedingungen des Fahrzeugs einschließlich der Fahrtumgebung und des Fahrzustands des Fahrzeugs als ein Zielgebiet ausgewählt wird, dass eine Bildverarbeitung auf dem ausgewählten Zielgebiet durchgeführt wird, und somit im Vergleich zu dem Fall, dass eine Bildverarbeitung auf die gesamten aufgenommenen Bilder durchgeführt wird, eine Verarbeitungslast verringert werden kann.Furthermore, Patent Literature 3 discloses that a part of captured images obtained by imaging the external environment of a vehicle is selected as a target area according to conditions of the vehicle including the driving environment and the driving state of the vehicle, and image processing is performed on the selected target area , and thus a processing load can be reduced compared to the case where image processing is performed on the entire captured images.

Die Patentschrift 4 offenbart eine Bereitstellung einer Bildaufnahmevorrichtung und eines Bildaufnahmeverfahrens zum Anzeigen des optimalen Beobachtungsbereichs ohne Abhängigkeit von den Bedingungen, unter denen das Fahrzeug in die Straße einfährt, oder von der Installationssituation der Vielzahl von Kameras. Zudem ist eine Bereitstellung einer Vielzahl von Peripherie-Bildaufnahmemitteln offenbart, die Bilder von der Peripherie eines Fahrzeugs erhalten, wobei die Peripherie-Bildaufnahmemittel, die die für den Fahrer des Fahrzeugs angezeigten Bilder erhalten, und der Bildbereich der durch die Peripherie-Bildaufnahmemittel erhaltenen Bilder, die dem Fahrer des Fahrzeugs angezeigt werden, ausgewählt werden.Patent Document 4 discloses providing an image pickup device and an image pickup method for displaying the optimal observation area without depending on the conditions under which the vehicle enters the road or the installation situation of the plurality of cameras. In addition, a provision of a plurality of peripheral image capture means which obtain images of the periphery of a vehicle is disclosed, the peripheral image capture means which receives the images displayed to the driver of the vehicle and the image area of the images obtained by the peripheral image capture means, that are displayed to the driver of the vehicle can be selected.

Die Patentschrift 5 offenbart einen Bildprozessor für ein Fahrzeug mit einer Vielzahl von Kameras und einem Monitor, der ein Panoramabild anzeigt, das aus mehreren von der Vielzahl von Kameras erzeugten Bildern abgeleitet ist. Der Prozessor umfasst Eingangspuffer zum Speichern von Kamerabilddaten, die durch entsprechende Kameramodule erfasst werden, und Ausgangspuffer zum Speichern eines Panoramabildes. Die Kamerabilddaten zur Erzeugung des Panoramabildes werden aus den Eingangspuffern abgerufen. Die Kamerabilddaten werden unter Verwendung einer rekonfigurierten Adressumwandlungstabelle in einem Ausgangspuffer gespeichert. Die rekonfigurierte Adressumwandlungstabelle ist eine Adressumwandlungstabelle, die durch Rekonfiguration einer Adressumwandlungstabelle erhalten wird, wenn davon ausgegangen wird, dass die Kameramodule frei von Fahrzeuginstallationsfehlern sind. Die Rekonfiguration wird auf der Grundlage von Parametern durchgeführt, die zur Korrektur von Fahrzeuginstallationsfehlern von Kameramodulen verwendet werden.Patent Document 5 discloses an image processor for a vehicle having a plurality of cameras and a monitor that displays a panoramic image derived from a plurality of images generated by the plurality of cameras. The processor includes input buffers for storing camera image data captured by corresponding camera modules and output buffers for storing a panoramic image. The camera image data for generating the panoramic image is retrieved from the input buffers. The camera image data is stored in an output buffer using a reconfigured address translation table. The reconfigured address conversion table is an address conversion table obtained by reconfiguring an address conversion table assuming that the camera modules are free from vehicle installation errors. The reconfiguration is carried out based on parameters which are used to correct vehicle installation errors of camera modules.

Die Patentschrift 6 offenbart eine Bildverarbeitungsvorrichtung, die Stereokameras enthält und den Abstand zu einem Ziel in der Umgebung eines Fahrzeugs erfasst. Die Bildverarbeitungsvorrichtung enthält in dem Fahrzeug installierte Sensoren; bestimmt eine Fahrzeugsituation durch Kombinieren von Erfassungssignalen der Sensoren und schaltet von Bilddaten einer Stereokamera zur Fahrunterstützung auf Bilddaten einer Stereokamera zur Türöffnungs-/schließunterstützung um; führt Verzerrungskorrekturen, die für die Vielzahl von Stereokameras jeweils einzigartig sind, an den ausgewählten Bilddaten durch, so dass eine für die Vielzahl von Stereokameras gemeinsame Korrelationsberechnung ausgeführt werden kann; führt die Korrelationsberechnung an zwei Sätzen von Bilddaten der einzelnen Stereokamera aus; und erfasst den Abstand zu dem Ziel unter Verwendung eines Berechnungsergebnisses der Korrelationsberechnung.Patent Document 6 discloses an image processing device that includes stereo cameras and detects the distance to a target in the vicinity of a vehicle. The image processing device includes sensors installed in the vehicle; determines a vehicle situation by combining detection signals from the sensors and switches from image data from a stereo camera for driving support to image data from a stereo camera for door opening/closing support; performs distortion corrections unique to the plurality of stereo cameras on the selected image data so that a correlation calculation common to the plurality of stereo cameras can be performed; performs the correlation calculation on two sets of image data from the single stereo camera; and detects the distance to the target using a calculation result of the correlation calculation.

Die Patentschrift 7 offenbart einen Bildprozessor, der ein natürlicheres synthetisiertes Bild aus Kamerabildern erzeugt, die mit einer Vielzahl von Kameras aufgenommen wurden, die die Umgebung eines Fahrzeugs erfassen. Ein Parameterspeicherabschnitt speichert eine Vielzahl von Bildsynthese-Parametergruppen, die die Korrespondenz zwischen den Kamerabildern und dem synthetisierten Bild darstellen und unterschiedliche räumliche oder zeitliche Auflösungsbeziehungen aufweisen. Ein Parameterauswahlabschnitt wählt die Bildsynthese-Parametergruppe gemäß der Ausgabe eines Fahrzeugbewegungserfassungsabschnitts zum Erfassen der Bewegung des Fahrzeugs, wie z.B. der Fahrgeschwindigkeit und -richtung, aus. Ein Bildsyntheseabschnitt erzeugt das synthetisierte Bild aus den Kamerabildern gemäß der ausgewählten Bildsynthese-Parametergruppe.Patent Document 7 discloses an image processor that produces a more natural synthesized image from camera images captured by a plurality of cameras that capture the surroundings of a vehicle. A parameter storage section stores a plurality of image synthesis parameter groups that represent the correspondence between the camera images and the synthesized image and have different spatial or temporal resolution relationships. A parameter selection section selects the image synthesis parameter group according to the output of a vehicle motion detection section for detecting the movement of the vehicle such as the traveling speed and direction. An image synthesis section generates the synthesized image from the camera images according to the selected image synthesis parameter group.

Die Patentschrift 8 offenbart eine Verkehrssignalerfassungsvorrichtung, die eine Schmalwinkelkamera, eine Weitwinkelkamera, die einen größeren Blickwinkel als die Schmalwinkelkamera hat, und einen Verkehrssignaldetektor umfasst, der so konfiguriert ist, dass er ein Verkehrssignal aus mindestens einem von der Schmalwinkelkamera erfassten Schmalwinkelbild und einem von der Weitwinkelkamera erfassten Weitwinkelbild erfasst. Der Verkehrssignaldetektor wählt als Erfassungsergebnis ein Verkehrssignal, das aus dem Schmalwinkelbild erfasst wird, oder ein Verkehrssignal, das aus dem Weitwinkelbild erfasst wird, auf der Grundlage eines Verzögerungsstartbereichs aus, in dem ein Fahrzeug mit der Verzögerung beginnen sollte, wobei der Verzögerungsstartbereich aus einer Position eines Verkehrssignals in Bezug auf das Fahrzeug und einer Geschwindigkeit des Fahrzeugs berechnet wird, um das Fahrzeug an einer Halteposition in Bezug auf das Verkehrssignal anzuhalten.Patent Document 8 discloses a traffic signal detection device including a narrow-angle camera, a wide-angle camera having a larger viewing angle than the narrow-angle camera, and a traffic signal detector configured to detect a traffic signal from at least one narrow-angle image captured by the narrow-angle camera and one captured by the wide-angle camera captured wide-angle image. The traffic signal detector selects, as a detection result, a traffic signal detected from the narrow-angle image or a traffic signal detected from the wide-angle image based on a deceleration start area in which a vehicle should start deceleration, the deceleration start area being from a position of a Traffic signal with respect to the vehicle and a speed of the vehicle is calculated to stop the vehicle at a stopping position with respect to the traffic signal.

PatentliteraturPatent literature

  • Patentschrift 1: JP 2013 - 93 013 A Patent specification 1: JP 2013 - 93 013 A
  • Patentschrift 2: JP 2018 - 95 067 A Patent specification 2: JP 2018 - 95 067 A
  • Patentschrift 3: JP 2015 - 210 584 A Patent specification 3: JP 2015 - 210 584 A
  • Patentschrift 4: US 2008/0143833 A1 Patent specification 4: US 2008/0143833 A1
  • Patentschrift 5: US 2006/0197761 A1 Patent specification 5: US 2006/0197761 A1
  • Patentschrift 6: US 2013/0088578 A1 Patent specification 6: US 2013/0088578 A1
  • Patentschrift 7: EP 1 150 252 A2 Patent specification 7: EP 1 150 252 A2
  • Patentschrift 8: EP 3 306 589 A1 Patent specification 8: EP 3 306 589 A1

Zusammenfassung der ErfindungSummary of the invention

Allerdings werden in der Patentschrift 1 alle Bilddaten, die durch Aufnehmen mit den einzelnen Stereokameras erzeugt sind, zeitweise in die CPU eingegeben, damit die Bildauswahl mit dem Situationsbeurteilungs-/Bildaufnahmeabschnitt durchgeführt wird. Somit muss die CPU eine Verarbeitung zum Aufnehmen aller Bilddaten in einer Stufe vor der vorstehend beschriebenen Bildauswahl durchführen, und demgemäß wird eine der Bildverarbeitung zugeordnete Betriebszeit verringert. In ähnlicher Weise empfängt die CPU in der Patentschrift 2 Eingaben von allen Bildinformationen der Vorderkamera und der Rückkamera, führt eine Korrekturverarbeitung (Verformungskorrektur) bezüglich aller Bildinformationen durch, welche eingegeben worden sind, und führt danach die vorstehend beschriebene Auswahl durch. Somit muss die CPU beispielsweise eine Verarbeitung zum Aufnehmen aller Bilddaten und eine Verarbeitung von Bildinformationen, welche nicht ausgewählt worden sind, durchführen, und somit wird eine der Bildverarbeitung zugeordnete Betriebszeit demgemäß verringert. Wenn wie vorstehend beschrieben die durch einen Prozessor für die Bildverarbeitung durchgeführte Verarbeitungsmenge vergrößert wird, um aufgenommene Bilder in Echtzeit zu verarbeiten, dann muss der Prozessor eine höhere Verarbeitungsfähigkeit mit dem Ergebnis aufweisen, dass die Kosten des Fahrzeugs wahrscheinlich nicht ausreichend verringert werden können.However, in Patent Document 1, all image data generated by shooting with each stereo camera is temporarily input to the CPU to perform image selection with the situation judgment/image capture section. Thus, the CPU must perform processing for picking up all the image data at a stage before the above-described image selection, and accordingly an operation time allocated to the image processing is reduced. Similarly, in Patent Document 2, the CPU receives inputs from all the image information of the front camera and the rear camera, performs correction processing (deformation correction) on all the image information that has been input, and thereafter performs the selection described above. Thus, for example, the CPU must perform processing for picking up all image data and processing of image information which has not been selected, and thus an operation time allocated to image processing is reduced accordingly. As described above, if the amount of processing performed by a processor for image processing is increased to process captured images in real time, then the processor must have a higher processing capability, with the result that the cost of the vehicle is unlikely to be sufficiently reduced.

In Anbetracht der vorstehenden Situation besteht eine Aufgabe von zumindest einem Ausführungsbeispiel der vorliegenden Erfindung darin, eine Fahrzeugbildverarbeitungsvorrichtung bereitzustellen, welche eine Bildverarbeitung von Bildern, die mit einer Vielzahl von Kameras aufgenommen worden sind, schneller durchzuführen, während die Kosten eines Fahrzeugs verringert werden. In view of the above situation, an object of at least one embodiment of the present invention is to provide a vehicle image processing apparatus which can perform image processing of images captured by a plurality of cameras more quickly while reducing the cost of a vehicle.

Gemäß der vorliegenden Erfindung sind eine Fahrzeugbildverarbeitungsvorrichtung gemäß den unabhängigen Patentanspruch 1, ein Fahrzeugbildverarbeitungsverfahren gemäß dem unabhängigen Patentanspruch 13, ein Fahrzeugbildverarbeitungsprogramm gemäß dem unabhängigen Patentanspruch 14, und ein computerlesbares Speichermedium gemäß dem unabhängigen Patentanspruch 15 vorgesehen. Vorteilhafte Modifikationen befinden sich in den abhängigen Patentansprüchen.

  • Eine Fahrzeugbildverarbeitungsvorrichtung gemäß zumindest einem Ausführungsbeispiel der vorliegenden Erfindung umfasst: eine Vielzahl von Puffern, die konfiguriert sind, um Teile von Bilddaten, die von einer Vielzahl von Kameras einzeln und sequenziell eingegeben sind, die in einem Fahrzeug installiert sind, zu akkumulieren, um die Teile von Bilddaten mit den Kameras zu verknüpfen; einen Prozessor, der konfiguriert ist, um den Puffer basierend auf den Zustandsinformationen des Fahrzeugs auszuwählen, und um den Teil von Bilddaten aus dem ausgewählten Puffer zu akquirieren, um diesbezüglich eine Bildverarbeitung durchzuführen; eine Signalleitung zum Übertragen der Teile von Bilddaten in den Puffern zu dem Prozessor; und eine Transfersteuerung, die konfiguriert ist, um den Teil von Bilddaten in dem Puffer, der von dem Prozessor benötigt wird, an die Signalleitung auszugeben.
According to the present invention, there are provided a vehicle image processing apparatus according to independent claim 1, a vehicle image processing method according to independent claim 13, a vehicle image processing program according to independent claim 14, and a computer-readable storage medium according to independent claim 15. Advantageous modifications can be found in the dependent patent claims.
  • A vehicle image processing apparatus according to at least one embodiment of the present invention includes: a plurality of buffers configured to accumulate pieces of image data individually and sequentially inputted from a plurality of cameras installed in a vehicle to form the pieces to link image data to the cameras; a processor configured to select the buffer based on the state information of the vehicle and to acquire the portion of image data from the selected buffer to perform image processing thereon; a signal line for transmitting the pieces of image data in the buffers to the processor; and a transfer controller configured to output to the signal line the portion of image data in the buffer required by the processor.

In der vorstehend beschriebenen Konfiguration von (1) führt der Prozessor für die Bildverarbeitung nicht irgendeine Verarbeitung auf den Bilddaten durch, bis die Bilddaten mit der Transfersteuerung von dem Puffer, in welchem die mit jeder der Kameras aufgenommenen Bilddaten gespeichert sind, übertragen werden, und er führt die Bildverarbeitung lediglich auf den Bilddaten durch, die durch die Übertragung akquiriert sind. Auf diese Weise kann die Last des Prozessors verringert werden, und somit kann eine größere Menge an Betriebszeit der Bildverarbeitung zugeordnet werden. Außerdem bestimmt der Prozessor beispielsweise aus den in den Puffern zugeordneten Bilddaten der einzelnen Kameras basierend auf den Zustandsinformationen des Fahrzeugs, wie etwa die Fahrzeuggeschwindigkeit und die Schaltposition, die Puffer, welche auf das Ziel für die Bildverarbeitung eingestellt werden müssen, um die auf das Ziel für die Bildverarbeitung eingestellten Kameras auf zumindest einen Teil davon einzuschränken, und somit kann die Anzahl an Teilen von Bilddaten, welche pro Einheitszeit verarbeitet werden müssen, verringert werden.In the configuration of (1) described above, the processor for image processing does not perform any processing on the image data until the image data is transferred with the transfer control from the buffer in which the image data captured by each of the cameras is stored, and it performs image processing only on the image data acquired through the transmission. In this way, the load on the processor can be reduced and thus a greater amount of operating time can be allocated to image processing. In addition, the processor determines, for example, from the image data of the individual cameras assigned in the buffers based on the status information of the vehicle, such as the vehicle speed and the switching position, the buffers which must be set to the target for the image processing in order to be adjusted to the target for to limit the cameras set to image processing to at least a part thereof, and thus the number of pieces of image data that need to be processed per unit time can be reduced.

Wie vorstehend beschrieben, stellt der Prozessor für die Bildverarbeitung die basierend auf den Zustandsinformationen des Fahrzeugs bestimmten Bilddaten der Kameras auf das Ziel für die Bildverarbeitung ein, und er führt keine Verarbeitung durch, bis die auf das Ziel eingestellten Bilddaten akquiriert worden sind, mit dem Ergebnis, dass eine Umgebungserkennung (die Erfassung einer Person und eines Artikels) um das Fahrzeug herum durch die Kameras schneller durchgeführt werden kann. Somit können die Bereitstellung des Prozessors für jede der Kameras und die Verwendung eines teuren Prozessors mit besserer Verarbeitungsfähigkeit vermieden werden, und somit können die Kosten des Fahrzeugs verringert werden.As described above, the image processing processor sets the image data of the cameras determined based on the state information of the vehicle to the target for image processing, and does not perform any processing until the image data set to the target has been acquired, with the result that environmental detection (the detection of a person and an object) around the vehicle can be carried out more quickly by the cameras. Thus, providing the processor for each of the cameras and using an expensive processor with better processing capability can be avoided, and thus the cost of the vehicle can be reduced.

(2) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration von (1) bestimmt der Prozessor basierend auf den Zustandsinformationen zumindest einen Puffer der Puffer als ein Auswahlziel, und er stellt eine Auswahlfrequenz von dem zumindest einen in dem Auswahlziel enthaltenen Puffer größer als Auswahlfrequenzen der anderen Puffer ein, um den zumindest einen in dem Auswahlziel enthaltenen Puffer sequenziell auszuwählen.(2) In some embodiments, according to the configuration of (1) described above, the processor determines at least one of the buffers as a selection target based on the state information, and sets a selection frequency of the at least one buffer included in the selection target larger than selection frequencies of the others Buffer to sequentially select the at least one buffer included in the selection target.

In der vorstehend beschriebenen Konfiguration von (2) bestimmt der Prozessor aus den Kameras eine oder mehrere Kameras (einen oder mehrere Puffer), welche auf das Ziel für die Bildverarbeitung eingestellt sind, akquiriert die Bilddaten aus dem einen oder den mehreren Puffern korrespondierend zu der einen oder den mehreren Kameras sequenziell, die bestimmt ist/sind, um die Bildverarbeitung durchzuführen, und führt dadurch die Bildverarbeitung auf einer vorbestimmten Anzahl an Teilen von Bilddaten pro Einheitszeit durch. Wie vorstehend beschrieben, werden die Kameras, welche auf das Ziel für die Bildverarbeitung eingestellt sind, auf zumindest einen Teil der Kameras eingeschränkt, und somit kann die Anzahl an Teilen von Bilddaten, welche pro Einheitszeit verarbeitet werden müssen, mit dem Ergebnis verringert werden, dass eine Umgebungserkennung (Erfassung einer Bewegung von einer Person und einem Artikel) um das Fahrzeug herum durch die Kameras in einer zufriedenstellenden Art und Weise in Echtzeit durchgeführt werden kann.In the configuration of (2) described above, the processor determines from the cameras one or more cameras (one or more buffers) set to the target for image processing, acquires the image data from the one or more buffers corresponding to the one or the plurality of cameras designated to perform the image processing sequentially, thereby performing the image processing on a predetermined number of pieces of image data per unit time. As described above, the cameras set to the target for image processing are restricted to at least a part of the cameras, and thus the number of pieces of image data to be processed per unit time can be reduced, with the result that Environment detection (detection of movement of a person and an article) around the vehicle can be performed by the cameras in a satisfactory manner in real time.

(3) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration von (1) und (2) umfasst die Fahrzeugbildverarbeitungsvorrichtung ferner: eine Erfassungseinheit, die die Puffer und die darin vorgesehene Transfersteuerung aufweist; einen Arbeitspuffer der konfiguriert ist, um den durch die Transfersteuerung an die Signalleitung ausgegebenen und der durch den Prozessor durgeführten Bildverarbeitung ausgesetzten Teil von Bilddaten zu speichern; und eine Prozessoreinheit, die den Prozessor und den darin vorgesehenen Arbeitsspeicher aufweist, und wobei die Signalleitung konfiguriert ist, um die Puffer in der Erfassungseinheit und den Arbeitspuffer in der Prozessoreinheit miteinander verbinden zu können.(3) In some embodiments, according to the configuration of (1) and (2) described above, the vehicle image processing apparatus further includes: a detection unit having the buffers and the transfer controller provided therein; a working buffer configured to store the portion of image data output by the transfer controller to the signal line and subjected to image processing performed by the processor; and a processor unit having the processor and the working memory provided therein, and wherein the signal line is configured to be able to interconnect the buffers in the acquisition unit and the working buffer in the processor unit.

In der vorstehend beschriebenen Konfiguration von (3) werden die mit den Puffern verwalteten Teile von Bilddaten der einzelnen Kameras durch die Signalleitung zum Verbinden der Erfassungseinheit und der Prozessoreinheit übermittelt, und an den in der Prozessoreinheit vorgesehenen Arbeitspuffer übertragen und der Bildverarbeitung in dem Prozessor ausgesetzt. Die Verwaltung und die Transferverarbeitung der Puffer in der Erfassungseinheit werden mit der Bildverarbeitung in der Prozessoreinheit hinsichtlich Hardware auf diese Weise voneinander getrennt, und somit kann, wie vorstehend beschrieben, eine Umgebungserkennung (die Erfassung von einer Person und einem Artikel) um das Fahrzeug herum durch die Kameras in einer zufriedenstellenden Art und Weise in Echtzeit durchgeführt werden.In the configuration of (3) described above, the portions of image data of each camera managed with the buffers are transmitted through the signal line for connecting the detection unit and the processor unit, and transferred to the working buffer provided in the processor unit and subjected to image processing in the processor. The management and transfer processing of the buffers in the detection unit are separated from the image processing in the processing unit in terms of hardware in this way, and thus, as described above, environmental detection (the detection of a person and an article) around the vehicle can be performed the cameras are carried out in a satisfactory manner in real time.

(4) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration von (1) bis (3) umfassen die Zustandsinformationen eine Fahrzeuggeschwindigkeit, und der Prozessor führt die Auswahl des Puffers basierend auf dem Vergleich der Fahrzeuggeschwindigkeit und Schwellenwerten durch. (4) In some embodiments, according to the configuration of (1) to (3) described above, the state information includes a vehicle speed, and the processor performs the selection of the buffer based on the comparison of the vehicle speed and threshold values.

Im Allgemeinen gibt es eine obere Grenze bezüglich der Anzahl an Teilen von Bilddaten, auf welchen ein Prozessor eine Bildverarbeitung pro Einheitszeit durchführen kann. Wenn somit die Teile von Bilddaten der Kameras sequenziell verarbeitet werden, wenn die Anzahl an Kameras (Puffer) erhöht wird, dann wird die Anzahl an Teilen von Bilddaten pro Kamera, die einer Bildverarbeitung zu einer Einheitszeit ausgesetzt sind, verringert. Wenn diese Anzahl verringert wird, dann tritt eine längere Verzögerung bei der Bildverarbeitung bezüglich der Teile von Bilddaten auf, welche von jeder der Kamera sequenziell zugeführt werden, und somit wird eine Zeitverzögerung bei der Umgebungserkennung durch die Bildverarbeitung der Kameras vergrößert.In general, there is an upper limit on the number of pieces of image data on which a processor can perform image processing per unit time. Thus, if the pieces of image data of the cameras are processed sequentially as the number of cameras (buffers) is increased, then the number of pieces of image data per camera subjected to image processing at a unit time is reduced. If this number is reduced, a longer delay in image processing occurs with respect to the pieces of image data sequentially supplied from each of the cameras, and thus a time delay in environment recognition by the image processing of the cameras is increased.

In der vorstehend beschriebenen Konfiguration von (4) führt der Prozessor basierend auf dem Vergleich der Fahrzeuggeschwindigkeit und der Schwellenwerte eine Auswahl durch, indem er etwa die Puffer bestimmt, welche als das Ziel für die Bildverarbeitung eingestellt werden. Wenn die Fahrzeuggeschwindigkeit erhöht wird, dann wird die Zeitverzögerung bei der Umgebungserkennung durch die Bildverarbeitung wahrscheinlicher schlimm, wohingegen wenn die Fahrzeuggeschwindigkeit verringert wird, die Zeitverzögerung wahrscheinlicher in einem zulässigen Bereich liegen wird. Somit kann, wenn die Fahrzeuggeschwindigkeit verringert wird, sogar wenn eine größere Anzahl an Kameras auf das Ziel für die Bildverarbeitung eingestellt sind, eine Fahrunterstützung für das Fahrzeug in geeigneter Weise durchgeführt werden. Deshalb werden die Kameras, welche auf das Ziel für die Bildverarbeitung eingestellt sind, durch die Beziehung zu der Fahrzeuggeschwindigkeit ausgewählt, und somit kann sogar der Prozessor, dessen Verarbeitungsfähigkeit relativ gering ist, die Fahrunterstützung für das Fahrzeug durch die Umgebungserkennung unter Verwendung der Kameras in einer zufriedenstellenden Art und Weise in Echtzeit durchgeführt werden.In the configuration of (4) described above, the processor makes a selection based on the comparison of the vehicle speed and the threshold values, such as determining the buffers which are set as the target for the image processing. If the vehicle speed is increased, then the time delay in environment detection by the image processing is more likely to become severe, whereas if the vehicle speed is reduced, the time delay is more likely to be within an acceptable range. Thus, when the vehicle speed is reduced, even if a larger number of cameras are set to the image processing target, driving assistance for the vehicle can be performed appropriately. Therefore, the cameras set to the target for image processing are selected by the relationship with the vehicle speed, and thus even the processor whose processing capability is relatively low can provide driving assistance to the vehicle through the environment recognition using the cameras in one be carried out in a satisfactory manner in real time.

(5) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration von (4) umfassen die Kameras eine oder mehrere der Kameras zum Aufnehmen der Umgebung des Fahrzeugs, die Schwellenwerte umfassen einen ersten Schwellenwert, und wenn die Fahrzeuggeschwindigkeit kleiner als der erste Schwellenwert ist, dann wählt der Prozessor den Puffer aus, in welchem der Teil von Bilddaten akkumuliert ist, der mit der einen oder den mehreren der Kameras zum Aufnehmen der gesamten Umgebung des Fahrzeugs aufgenommen ist.(5) In some embodiments according to the configuration of (4) described above, the cameras include one or more of the cameras for recording the surroundings of the vehicle, the thresholds include a first threshold, and if the vehicle speed is less than the first threshold, then selects the processor selects the buffer in which the portion of image data recorded with the one or more cameras for recording the entire surroundings of the vehicle is accumulated.

Wenn beispielsweise das Fahrzeug gestoppt wird, bevor es bewegt worden ist, oder es sich in einem Zustand (Zustand, in welchem ein Fahren gestartet worden ist) befindet, in welchem das Fahrzeug mit einer sehr geringen Geschwindigkeit aufgrund eines Kriechphänomens oder dergleichen bewegt wird, dann kann das Fahrzeug zu verschiedenen Positionen in Abhängigkeit von einem Lenkwinkel bewegt werden. Somit ist es mit den Nahfeldkameras, welche einen relativ breiten Sichtwinkel aufweisen, um ein Nahfeld oder dergleichen in geeigneter Weise aufnehmen zu können, erforderlich, die gesamte Umgebung des vorliegenden Fahrzeugs (zumindest die gesamte Orientierung in einer Horizontalrichtung) zu überwachen.For example, if the vehicle is stopped before it has been moved or is in a state (state in which driving has been started) in which the vehicle is moved at a very low speed due to a creeping phenomenon or the like The vehicle can be moved to different positions depending on a steering angle. Thus, with the near-field cameras, which have a relatively wide viewing angle in order to be able to appropriately record a near field or the like, it is necessary to monitor the entire surroundings of the present vehicle (at least the entire orientation in a horizontal direction).

In der vorstehend beschriebenen Konfiguration von (5) stellt der Prozessor, wenn der vorstehend beschriebene Zustand (Zustand, in welchem ein Fahren gestartet worden ist) mit dem ersten Schwellenwert erfasst worden ist, Bilder, die mit einer oder mehreren der Kameras (wie etwa eine oder mehrere der Nahfeldkameras) aufgenommen sind, die zum Erhalten von Bildern um das Fahrzeug herum (die gesamte Orientierung) erforderlich sind, auf das Ziel für die Bildverarbeitung ein. Auf diese Weise kann eine Fahrunterstützung korrespondierend zu Bedingungen des Fahrzeugs durch Überwachung mit den Kameras in einer zufriedenstellenden Art und Weise in Echtzeit durchgeführt werden.In the configuration of (5) described above, when the above-described state (state in which driving has been started) has been detected with the first threshold value, the processor provides images captured by one or more of the cameras (such as one or more of the near-field cameras) required to obtain images around the vehicle (the entire orientation) are recorded on the target for image processing. In this way, driving assistance corresponding to conditions of the vehicle can be carried out in a satisfactory manner in real time by monitoring with the cameras.

Wenn beispielsweise die Kameras, wie etwa insgesamt vier Kameras zum Aufnehmen der Vorderseite, der Rückseite, der linken Seite und der rechten Seite des Fahrzeugs installiert sind, um die gesamte Umgebung zu erhalten, dann wird die Anzahl an Kameras, die auf das Ziel für die Bildverarbeitung eingestellt sind, wahrscheinlicher erhöht werden. Wenn somit die Bilder der Kameras sequenziell eins zu eins umgeschaltet werden, und dann die Bildverarbeitung durchgeführt wird, wenn die Anzahl an Kameras erhöht ist, dann wird der Verarbeitungszyklus der Bilddaten in den einzelnen Kameras (einzelne Puffer) verlängert. Da allerdings das Fahrzeug mit einer sehr geringen Geschwindigkeit bewegt wird, solange die Bildverarbeitung als die Fahrunterstützung für das Fahrzeug zulässig (nicht problematisch ist), kann die Bildverarbeitung bezüglich der mit den einzelnen Kameras aufgenommenen Bilder durchgeführt werden.For example, if the cameras, such as a total of four cameras for recording the front, back, left side and right side of the vehicle are installed to obtain the entire environment, then the number of cameras aimed at the target for the Image processing settings are more likely to be increased. If the images from the cameras are sequential are switched one-to-one and then the image processing is performed when the number of cameras is increased, then the processing cycle of the image data in the individual cameras (individual buffers) is lengthened. However, since the vehicle is moving at a very low speed, as long as the image processing is permissible (not problematic) as the driving assistance for the vehicle, the image processing can be performed on the images captured by the individual cameras.

(6) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration von (4) und (5) umfassen die Kameras eine Kamera zum Aufnehmen eines Gebiets vor dem Fahrzeug und eine Kamera zum Aufnehmen eines Gebiets hinter dem Fahrzeug, die Zustandsinformationen umfassen ferner eine Schaltposition von einem Getriebe des Fahrzeugs, die Schwellenwerte umfassen den ersten Schwellenwert und einen zweiten Schwellenwert, welcher größer als der erste Schwellenwert ist, und wenn die Fahrzeuggeschwindigkeit gleich oder größer als der erste Schwellenwert und kleiner als der zweite Schwellenwert ist, und die Schaltposition zeigt eine Vorwärtsbewegung an, der Prozessor wählt lediglich den Puffer aus, in welchem der Teil von Bilddaten akkumuliert ist, der mit der Kamera zum Aufnehmen des Gebiets vor dem Fahrzeug aufgenommen ist, wohingegen wenn die Schaltposition eine Rückwärtsbewegung anzeigt, der Prozessor lediglich den Puffer auswählt, in welchem der Teil von Bilddaten akkumuliert ist, der mit der Kamera zum Aufnehmen des Gebiets hinter dem Fahrzeug aufgenommen ist.(6) In some embodiments according to the configuration of (4) and (5) described above, the cameras include a camera for recording an area in front of the vehicle and a camera for recording an area behind the vehicle, the state information further includes a switching position of one Transmission of the vehicle, the threshold values include the first threshold value and a second threshold value which is greater than the first threshold value, and when the vehicle speed is equal to or greater than the first threshold value and less than the second threshold value, and the shift position indicates forward movement, the processor only selects the buffer in which the part of image data taken by the camera for recording the area in front of the vehicle is accumulated, whereas when the switch position indicates a backward movement, the processor only selects the buffer in which the part of image data captured by the camera for capturing the area behind the vehicle is accumulated.

In einem Zustand (Niedriggeschwindigkeitsfahrzustand), in welchem das Fahrzeug in einer Lateralrichtung mit Bezug auf die Fahrtrichtung in Abhängigkeit von dem Lenkwinkel schnell bewegt werden kann, ist es beispielsweise erforderlich, die Nahfeldkameras (vorstehend beschrieben) und dergleichen zu verwenden, damit ein Gebiet in der Fahrtrichtung des vorliegenden Fahrzeugs in umfangreichem Maße überwacht wird.For example, in a state (low-speed traveling state) in which the vehicle can be quickly moved in a lateral direction with respect to the traveling direction depending on the steering angle, it is necessary to use the near-field cameras (described above) and the like in order to detect an area in the The direction of travel of the present vehicle is monitored extensively.

In der vorstehend beschriebenen Konfiguration von (6) stellt der Prozessor, wenn der vorstehend beschriebene Zustand (Niedriggeschwindigkeitsfahrzustand) mit dem ersten Schwellenwert und dem zweiten Schwellenwert erfasst ist, Bilder, die mit den Kameras zum Aufnehmen von Bildern in der Fahrtrichtung des Fahrzeugs aufgenommen sind, auf das Ziel für die Bildverarbeitung ein. Auf diese Weise kann eine Fahrunterstützung korrespondierend zu Bedingungen des Fahrzeugs durch Überwachen mit den Kameras in einer zufriedenstellenden Art und Weise in Echtzeit durchgeführt werden.In the configuration of (6) described above, when the above-described state (low-speed running state) is detected with the first threshold value and the second threshold value, the processor provides images taken with the cameras for taking images in the traveling direction of the vehicle, on the target for image processing. In this way, driving assistance corresponding to conditions of the vehicle can be performed in a satisfactory manner in real time by monitoring with the cameras.

(7) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration von (4) bis (6) umfassen die Kameras eine Fernfeldkamera, welche ein Fernfeldgebiet in der Fahrtrichtung des Fahrzeugs aufnimmt, und eine Nahfeldkamera welche ein Nahfeldgebiet in der Fahrtrichtung des Fahrzeugs aufnimmt, und welche einen breiteren Sichtwinkel als die Fernfeldkamera aufweist, die Schwellenwerte umfassen den zweiten Schwellenwert, und wenn die Fahrzeuggeschwindigkeit gleich oder größer als der zweite Schwellenwert ist, dann wählt der Prozessor den Puffer aus, in welchem der Teil von Bilddaten akkumuliert ist, der mit der Fernfeldkamera aufgenommen ist, wohingegen wenn die Fahrzeuggeschwindigkeit kleiner ist als der zweite Schwellenwert ist, der Prozessor den Puffer auswählt, in welchem der Teil von Bilddaten akkumuliert ist, der mit der Nahfeldkamera aufgenommen ist.(7) In some embodiments according to the configuration of (4) to (6) described above, the cameras include a far-field camera that captures a far-field area in the traveling direction of the vehicle, and a near-field camera that captures a near-field area in the traveling direction of the vehicle, and which has a wider viewing angle than the far-field camera, the thresholds include the second threshold, and if the vehicle speed is equal to or greater than the second threshold, then the processor selects the buffer in which the portion of image data captured by the far-field camera is accumulated whereas when the vehicle speed is less than the second threshold, the processor selects the buffer in which the portion of image data captured by the near-field camera is accumulated.

In einem Fahrzustand, in welchem die Fahrzeuggeschwindigkeit relativ so hoch ist, dass das Fahrzeug nicht schnell in einer Richtung durch Lenken abbiegen kann, wird die Zeit, die für eine Rückkopplung (z.B. automatisches Bremsen in dem Fahrzeug oder eine Warnung an den Fahrer) von der Umgebungserkennung (die Erfassung einer Person und eines Artikels) durch die Bildverarbeitung zu dem Fahrer des Fahrzeugs oder dergleichen zulässig ist, weiter verkürzt. Somit ist es erforderlich, ein entferntes Gebiet von dem Fahrzeug zu überwachen, um ein Ziel (eine Person und ein Artikel) in einem entfernten Gebiet früher zu erfassen.In a driving condition in which the vehicle speed is relatively so high that the vehicle cannot quickly turn in one direction by steering, the time required for feedback (e.g. automatic braking in the vehicle or a warning to the driver) depends on the Environment detection (the detection of a person and an article) through image processing is permitted to the driver of the vehicle or the like, further shortened. Thus, it is necessary to monitor a distant area from the vehicle in order to detect a target (a person and an article) in a distant area earlier.

In der vorstehend beschriebenen Konfiguration von (7) stellt der Prozessor, wenn der vorstehend beschriebene Fahrzustand mit dem zweiten Schwellenwert erfasst wird, Bilder, die mit den Fernfeldkameras zum Aufnehmen eines entfernten Gebiets in der Fahrtrichtung des Fahrzeugs aufgenommen sind, auf das Ziel für die Bildverarbeitung ein. Wie vorstehend beschrieben, werden beispielsweise Bilder, die mit einer kleineren Anzahl an Kameras, wie etwa eine Kamera, aufgenommen sind, auf das Ziel für die Bildverarbeitung eingestellt, und somit kann eine Fahrunterstützung korrespondierend zu Bedingungen des Fahrzeugs durch Überwachen mit den Kameras in einer zufriedenstellenden Art und Weise in Echtzeit durchgeführt werden.In the configuration of (7) described above, when the above-described driving state is detected with the second threshold, the processor sets images captured by the far-field cameras for photographing a distant area in the traveling direction of the vehicle as the target for image processing a. As described above, for example, images captured with a smaller number of cameras such as one camera are adjusted to the target for image processing, and thus driving assistance can be provided corresponding to conditions of the vehicle by monitoring with the cameras in a satisfactory manner carried out in real time.

(8) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration von (4) bis (7) umfassen die Schwellenwerte einen Umschaltbeginn-Schwellenwert und einen Umschaltbeendigungs-Schwellenwert, bei welchem eine Differenz zu dem Umschaltbeginn-Schwellenwert ein erster Wert ist, der Prozessor ist konfiguriert, um die Bildverarbeitung bezüglich einer vorbestimmten Anzahl an Teilen der Bilddaten pro Einheitszeit durchzuführen, und wenn die Fahrzeuggeschwindigkeit zwischen dem Umschaltbeginn-Schwellenwert und dem Umschaltbeendigungs-Schwellenwert liegt, schaltet der Prozessor die auszuwählenden Puffer derart um, dass, wenn sich die Fahrzeuggeschwindigkeit dem Umschaltbeendigungs-Schwellenwert von dem Umschaltbeginn-Schwellenwert annähert, die vorbestimmte Anzahl an Teilen von Bilddaten, bezüglich welchen die Bildverarbeitung pro Einheitszeit durchgeführt wird, bevor die Fahrzeuggeschwindigkeit den Umschaltbeginn-Schwellenwert erreicht, mit der vorbestimmten Anzahl an Teilen von Bilddaten ersetzt wird, nachdem die Fahrzeuggeschwindigkeit den Umschaltbeendigungs-Schwellenwert erreicht hat.(8) In some embodiments, according to the configuration of (4) to (7) described above, the threshold values include a switching start threshold and a switching completion threshold, in which a difference from the switching start threshold is a first value, the processor is configured to perform the image processing on a predetermined number of pieces of the image data per unit time, and when the vehicle speed is between the switching start threshold and the switching completion threshold, the processor switches the buffers to be selected such that when the vehicle speed approaches the switching completion threshold from the switching start threshold, the predetermined number of pieces of image data on which the image processing is performed per unit time, before the vehicle speed reaches the switching start threshold, is replaced with the predetermined number of pieces of image data after the vehicle speed reaches the switching completion threshold.

Wenn die Kameras (Puffer), welche auf das Ziel für die Bildverarbeitung eingestellt sind, bei einem vorbestimmten Schwellenwert exakt umgeschaltet werden, falls beispielsweise die von dem Fahrzeug erhaltene Fahrzeuggeschwindigkeit einen Fehler umfasst, werden geeignete Puffer korrespondierend zu der Fahrzeuggeschwindigkeit um den Schwellenwert herum nicht ausgewählt, mit dem Ergebnis, dass die geeignete Umgebungserkennung wahrscheinlich nicht durchgeführt wird.When the cameras (buffers) set to the target for image processing are switched accurately at a predetermined threshold, for example, if the vehicle speed obtained from the vehicle includes an error, appropriate buffers corresponding to the vehicle speed around the threshold are not selected , with the result that appropriate environmental detection is unlikely to be performed.

Gemäß der vorstehend beschriebenen Konfiguration von (8) werden die Kameras (Puffer), welche auf das Ziel für die Bildverarbeitung des Prozessors eingestellt sind, von der vorangegangenen Stufe graduell umgeschaltet, um bei den vorbestimmten Schwellenwerten (wie etwa der vorstehend beschriebene erste Schwellenwert und der zweite Schwellenwert) vollständig umgeschaltet zu werden. Auf diese Weise kann, sogar wenn die von dem Fahrzeug erhaltene Fahrzeuggeschwindigkeit einen Fehler aufweist, die Außenumgebungserkennung bezüglich des Fahrzeugs in geeigneter Weise durchgeführt werden.According to the configuration of (8) described above, the cameras (buffers) set to the target for the image processing of the processor are gradually switched from the previous stage to be at the predetermined threshold values (such as the first threshold value described above and the second threshold value) to be switched completely. In this way, even if the vehicle speed obtained from the vehicle has an error, the external environment detection regarding the vehicle can be performed appropriately.

(9) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration von (8) schaltet der Prozessor, wenn die Fahrzeuggeschwindigkeit den Umschaltbeginn-Schwellenwert erreicht, zunächst die Kamera korrespondierend zu dem Puffer um, welche ausgewählt werden muss, wenn die Fahrzeuggeschwindigkeit den Umschaltbeendigungs-Schwellenwert erreicht, und den Puffer korrespondierend zu der Kamera um, welche zumindest mit einer Aufnahmerichtung verknüpft ist.(9) In some embodiments, according to the configuration of (8) described above, when the vehicle speed reaches the switching start threshold, the processor first switches the camera corresponding to the buffer, which must be selected when the vehicle speed reaches the switching completion threshold , and the buffer corresponding to the camera, which is linked to at least one recording direction.

Gemäß der vorstehend beschriebenen Konfiguration von (9) kann die Außenumgebungserkennung bezüglich des Fahrzeugs in geeigneter Weise durchgeführt werden, sogar wenn die von dem Fahrzeug erhaltene Fahrzeuggeschwindigkeit einen Fehler aufweist.According to the configuration of (9) described above, the external environment detection regarding the vehicle can be performed appropriately even if the vehicle speed obtained from the vehicle has an error.

(10) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration (1) bis (9) umfasst die Fahrzeugbildverarbeitungsvorrichtung ferner: einen Akquirierungsabschnitt, der Eigenschaftsinformationen einschließlich einer Anweisung für die Überwachungsrichtung an einem spezifischen Ort akquiriert, und der Prozessor wählt die Puffer basierend auf der Fahrtposition und den Eigenschaftsinformationen aus.(10) In some embodiments according to the configuration (1) to (9) described above, the vehicle image processing device further includes: an acquiring section that acquires characteristic information including an instruction for the monitoring direction at a specific location, and the processor selects the buffers based on the driving position and the property information.

Gemäß der vorstehend beschriebenen Konfiguration von (10) stellt der Prozessor die Bilddaten der Kamera zum Aufnehmen des Gebiets in der durch die Eigenschaftsinformationen angezeigten Überwachungsrichtung auf das Ziel für die Bildverarbeitung ein. Obwohl es in dem an verschiedenen Orten fahrenden Fahrzeug erforderlich sein kann, die spezifische Richtung in einer fokussierten Art und Weise zu überwachen, wie etwa ein Ort, an welchem Unfälle häufig auftreten, werden die Kameras, welche auf das Ziel für die Bildverarbeitung eingestellt sind, basierend auf den Eigenschaftsinformationen umgeschaltet, und somit kann die Fahrunterstützung durchgeführt werden, was sicherer ist.According to the configuration of (10) described above, the processor sets the image data of the camera for photographing the area in the monitoring direction indicated by the property information to the target for image processing. Although it may be necessary to monitor the specific direction in a focused manner in the vehicle traveling in various places, such as a place where accidents frequently occur, the cameras set to the target for image processing switched based on the property information, and thus the driving assistance can be carried out, which is safer.

(11) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration von (1) bis (10) stellt das Fahrzeug ein Nutzfahrzeug dar, die Zustandsinformationen umfassen die Fahrzeuggeschwindigkeit und den Lenkwinkel, der Prozessor bestimmt basierend auf den Zustandsinformationen, ob ein Abbiegen des Fahrzeugs ein Abbiegen nach rechts oder ein Abbiegen nach links darstellt, und wenn das Fahrzeug nach rechts abbiegt, wählt der Prozessor den Puffer aus, in welchem der Teil von Bilddaten akkumuliert ist, der durch Aufnehmen zumindest eines Gebiets an einer rechten Seite in einer Vorwärtsrichtung und eines Gebiets an einer linken Seite in einer Rückwärtsrichtung mit Bezug auf die Fahrtrichtung erhalten ist, wohingegen wenn das Fahrzeug nach links abbiegt, der Prozessor den Puffer auswählt, in welchem der Teil von Bilddaten akkumuliert ist, der durch Aufnehmen zumindest eines Gebiets an der linken Seite in der Vorwärtsrichtung und eines Gebiets an der rechten Seite in der Rückwärtsrichtung mit Bezug auf die Fahrtrichtung erhalten ist.(11) In some embodiments according to the configuration of (1) to (10) described above, the vehicle represents a commercial vehicle, the state information includes the vehicle speed and the steering angle, the processor determines whether a turn of the vehicle is a turn based on the state information to the right or a left turn, and when the vehicle turns right, the processor selects the buffer in which the portion of image data is accumulated by capturing at least an area on a right side in a forward direction and an area on a left side in a backward direction with respect to the traveling direction, whereas when the vehicle turns left, the processor selects the buffer in which the portion of image data obtained by capturing at least an area on the left side in the forward direction is accumulated and an area on the right side in the backward direction with respect to the traveling direction.

Da beispielsweise ein Nutzfahrzeug, wie etwa ein Gabelstapler, einen kurzen Radstand und einen großen Lenkwinkel aufweist, ist es erforderlich, auf die Lateralrichtung im Vergleich zu der Vorwärtsrichtung mit Bezug auf die Fahrtrichtung aufzupassen, wenn ein Fahren gestartet wird, in einem Zustand, in welchem ein Lenkrad gedreht wird. Insbesondere ist es erforderlich, nicht nur die rechte Seite in der Vorwärtsrichtung mit Bezug auf die Fahrtrichtung, sondern auch die linke Seite in der Rückwärtsrichtung mit Bezug darauf zu dem Zeitpunkt eines Abbiegens nach rechts, und nicht nur die linke Seite in der Vorwärtsrichtung mit Bezug auf die Fahrtrichtung, sondern auch die rechte Seite in der Rückwärtsrichtung mit Bezug darauf zu dem Zeitpunkt eines Abbiegens nach links simultan zu überwachen.For example, since a commercial vehicle such as a forklift has a short wheelbase and a large steering angle, it is necessary to pay attention to the lateral direction compared to the forward direction with respect to the traveling direction when driving is started in a state in which a steering wheel is turned. In particular, it is necessary to not only the right side in the forward direction with respect to the traveling direction, but also the left side in the reverse direction with respect thereto at the time of turning right, and not only the left side in the forward direction with respect to the direction of travel, but also the right side in the reverse direction with respect to the Simultaneously monitor the time of a left turn.

Gemäß der vorstehend beschriebenen Konfiguration von (11) bestimmt der Prozessor die Abbiegungsrichtung basierend auf der Fahrzeuggeschwindigkeit und dem Lenkwinkel, und er wählt basierend auf dem Bestimmungsergebnis die Kameras aus, welche auf das Ziel für die Bildverarbeitung eingestellt sind. Wie vorstehend beschrieben, werden gemäß der Abbiegungsrichtung (Lenkwinkel) des Fahrzeugs die Bilddaten von nicht nur einer Seite, wie etwa der rechten Seite, sondern auch der entgegengesetzten Seite (linke Seite) auf das Ziel für die Bildverarbeitung eingestellt, und somit wird zu dem Zeitpunkt eines lateralen Abbiegens, während auf die der Fahrtrichtung entgegengesetzten Richtung aufgepasst wird, beispielsweise die Erfassung einer Person und eines Artikels mit dem Ergebnis durchgeführt, dass die Fahrunterstützung durchgeführt werden kann, was sicherer ist.According to the configuration of (11) described above, the processor determines the turning direction based on the vehicle speed and the steering angle, and selects the cameras set to the target for image processing based on the determination result. As described above, according to the turning direction (steering angle) of the vehicle, the image data from not only one side such as the right side but also the opposite side (left side) is set to the target for image processing, and thus at the time a lateral turn while paying attention to the direction opposite to the direction of travel, for example, the detection of a person and an article is performed with the result that driving assistance can be performed, which is safer.

(12) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration von (11) umfassen die Kameras eine rechtsseitige Aufnahmekamera zum Aufnehmen eines Gebiets an der rechten Seite des Fahrzeugs und eine linksseitige Aufnahmekamera zum Aufnehmen eines Gebiets an der linken Seite desselben, und wenn das Fahrzeug nach rechts abbiegt, führt der Prozessor die Bildverarbeitung auf dem Gebiet von einem Teil an einer linken Seite der Teile von Bilddaten durch, die mit der rechtsseitigen Aufnahmekamera und der linksseitigen Aufnahmekamera einzeln aufgenommen worden sind, wohingegen wenn das Fahrzeug nach links abbiegt, der Prozessor die Bildverarbeitung auf dem Gebiet von einem Teil an einer rechten Seite der Teile von Bilddaten durchführt, die mit der rechtsseitigen Aufnahmekamera und der linksseitigen Aufnahmekamera einzeln aufgenommen worden sind.(12) In some embodiments according to the configuration of (11) described above, the cameras include a right-side recording camera for recording an area on the right side of the vehicle and a left-side recording camera for recording an area on the left side thereof, and when the vehicle is after when the vehicle turns right, the processor performs the image processing on the area of a part on a left side of the parts of image data captured by the right-side capture camera and the left-side capture camera individually, whereas when the vehicle turns left, the processor performs the image processing in the area of a part on a right side of the parts of image data individually captured by the right-side pickup camera and the left-side pickup camera.

Gemäß der Abbiegungsrichtung (Lenkwinkel) des Fahrzeugs werden die Bilddaten von nicht nur einer Seite, wie etwa der rechten Seite, sondern auch der entgegengesetzten Seite (linke Seite) auf das Ziel für die Bildverarbeitung eingestellt, und somit wird die Anzahl an Kameras, die auf das Ziel für die Bildverarbeitung eingestellt sind, mit dem Ergebnis erhöht, dass die Frequenz, mit welcher die Bildverarbeitung mit dem Prozessor auf den in jedem der Puffer (Kameras) akkumulierten Bilddaten durchgeführt wird, verringert wird (der Zyklus wird verringert).According to the turning direction (steering angle) of the vehicle, the image data from not only one side such as the right side but also the opposite side (left side) is set to the target for image processing, and thus the number of cameras that are on the target for image processing is increased, with the result that the frequency at which image processing is performed by the processor on the image data accumulated in each of the buffers (cameras) is reduced (the cycle is reduced).

Gemäß der vorstehend beschriebenen Konfiguration von (12) führt der Prozessor die Bildverarbeitung auf dem Gebiet von einem Teil von jedem Teil von Bilddaten durch, die akquiriert werden, wenn das Fahrzeug abbiegt. Beispielsweise verarbeitet die Kamera an der rechten Seite zum Zeitpunkt eines Abbiegens nach rechts das Gebiet (die linke Seite des Bildes) von lediglich der Vorderseite des Fahrzeugs, und die Kamera an der linken Seite verarbeitet das Gebiet (die linke Seite des Bildes) von lediglich der Rückseite des Fahrzeugs in einer begrenzten Art und Weise gemäß dem Lenkwinkel, d.h., die Bildverarbeitung wird lediglich auf den Gebieten von Teilen mit dem Ergebnis durchgeführt, dass die Verlängerung des Akquirierungszyklus der Bilddaten von jedem der Puffer verringert werden kann. Auf die Weise kann, sogar wenn die Anzahl an Kameras erhöht wird, eine Fahrunterstützung in einer zufriedenstellenden Art und Weise in Echtzeit durchgeführt werden, was sicherer ist.According to the configuration of (12) described above, the processor performs the image processing on the area of a part of each part of image data acquired when the vehicle turns. For example, at the time of a right turn, the camera on the right processes the area (the left side of the image) of only the front of the vehicle, and the camera on the left processes the area (the left side of the image) of only the rear of the vehicle in a limited manner according to the steering angle, that is, the image processing is performed only on the areas of parts with the result that the lengthening of the acquisition cycle of the image data from each of the buffers can be reduced. In this way, even if the number of cameras is increased, driving assistance can be performed in a satisfactory manner in real time, which is safer.

(13) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration von (1) bis (12) umfassen die Zustandsinformationen den Lenkwinkel und die Schaltposition des Getriebes des Fahrzeugs, und der Prozessor führt basierend auf dem Lenkwinkel und der Schaltposition die Bildverarbeitung auf einem Gebiet von einem Teil durch, der in den von den Puffern akquirierten Teilen von Bilddaten enthalten ist.(13) In some embodiments according to the configuration of (1) to (12) described above, the state information includes the steering angle and the shift position of the transmission of the vehicle, and the processor performs image processing in an area of one based on the steering angle and the shift position Part contained in the parts of image data acquired by the buffers.

Gemäß der vorstehend beschriebenen Konfiguration von (13) wird basierend auf dem Lenkwinkel und der Schaltposition ein Teil von jedem Teil von Bilddaten extrahiert, um auf das Ziel für die Bildverarbeitung eingestellt zu werden. Auf diese Weise kann in jedem Teil von Bilddaten auf die Bildverarbeitung auf dem Teilgebiet verzichtet werden, welches den basierend auf den Lenkwinkel und der Schaltposition vorhergesagten Fahrweg des Fahrzeugs nicht umfasst. Somit kann die Last der Bildverarbeitung auf jedem Teil von Bilddaten verringert werden, und somit kann die Anzahl an Teilen von Bilddaten erhöht werden, auf welchen die Bildverarbeitung pro Einheitszeit durchgeführt werden kann. Somit kann eine Leistungszeit bewältigt werden, welche bei einer hohen Fahrzeuggeschwindigkeit oder dergleichen erforderlich ist.According to the configuration of (13) described above, based on the steering angle and the shift position, a part of each piece of image data is extracted to be adjusted to the target for image processing. In this way, in each part of image data, image processing can be dispensed with in the sub-area that does not include the vehicle's travel path predicted based on the steering angle and the switching position. Thus, the load of image processing on each piece of image data can be reduced, and thus the number of pieces of image data on which image processing can be performed per unit time can be increased. Thus, performance time required at high vehicle speed or the like can be met.

(14) In einigen Ausführungsbeispielen gemäß der vorstehend beschriebenen Konfiguration von (1) bis (13) umfassen die Kameras eine erste Kamera zum Aufnehmen eines Gebiets in einer ersten Richtung des Fahrzeugs und eine zweite Kamera zum Aufnehmen eines Gebiets in einer von der ersten Richtung verschiedenen Richtung, und die Fahrzeugbildverarbeitungsvorrichtung umfasst ferner einen Einstellungsabschnitt, der basierend auf der Helligkeit der Teile von Bilddaten, die mit der ersten Kamera und der zweiten Kamera einzeln aufgenommen worden sind, den Aufnahmeparameter für jede der Kameras einstellt.(14) In some embodiments according to the configuration of (1) to (13) described above, the cameras include a first camera for photographing an area in a first direction of the vehicle and a second camera for recording an area in a direction different from the first direction Direction, and the vehicle image processing device further includes a setting section that sets the shooting parameter for each of the cameras based on the brightness of the pieces of image data captured by the first camera and the second camera individually.

Gemäß der vorstehend beschriebenen Konfiguration von (14) werden das Vorderlicht und das Rücklicht der Kameras, welche auf das Ziel für die Bildverarbeitung eingestellt sind, derart erfasst, dass die Aufnahmeparameter für die Kameras eingestellt werden, und somit kann ein Einfluss minimiert werden, der durch Helligkeitsvariationen bewirkt wird, die durch Sonnenlicht erzeugt sind, mit dem Ergebnis, dass eine stabile Umgebungserkennung durchgeführt werden kann.According to the configuration of (14) described above, the front light and the Backlight of the cameras set on the target for image processing is detected so that the shooting parameters for the cameras are adjusted, and thus an influence caused by brightness variations caused by sunlight can be minimized, with the result that stable environment detection can be carried out.

(15) Ein Fahrzeugbildverarbeitungsverfahren gemäß zumindest einem Ausführungsbeispiel der vorliegenden Erfindung wird durch einen Prozessor eines Computers durchgeführt, wobei der Computer umfasst: eine Vielzahl von Puffern, die konfiguriert sind, um Teile von Bilddaten zu akkumulieren, die von einer Vielzahl von Kameras einzeln und sequenziell eingegeben sind, die in einem Fahrzeug installiert sind, um die Teile von Bilddaten mit den Kameras zu verknüpfen; den Prozessor, der konfiguriert ist, um den Puffer basierend auf den Zustandsinformationen des Fahrzeugs einschließlich einer Fahrzeuggeschwindigkeit auszuwählen, und den Teil von Bilddaten von dem ausgewählten Puffer zu akquirieren, um diesbezüglich eine Bildverarbeitung durchzuführen; eine Signalleitung zum Übertragen der Teile von Bilddaten in den Puffern zu dem Prozessor; und eine Transfersteuerung, die konfiguriert ist, um den Teil von Bilddaten in dem Puffer, der von dem Prozessor benötigt wird, an die Signalleitung auszugeben, und wobei das Fahrzeugbildverarbeitungsverfahren einen Schritt zum Durchführen der Auswahl des Puffers basierend auf einem Vergleich der Fahrzeuggeschwindigkeit und Schwellenwerten umfasst.(15) A vehicle image processing method according to at least one embodiment of the present invention is performed by a processor of a computer, the computer comprising: a plurality of buffers configured to accumulate portions of image data obtained from a plurality of cameras individually and sequentially are entered that are installed in a vehicle to associate the pieces of image data with the cameras; the processor configured to select the buffer based on the state information of the vehicle including a vehicle speed, and to acquire the portion of image data from the selected buffer to perform image processing thereon; a signal line for transmitting the pieces of image data in the buffers to the processor; and a transfer controller configured to output to the signal line the portion of image data in the buffer required by the processor, and wherein the vehicle image processing method includes a step of performing selection of the buffer based on a comparison of vehicle speed and threshold values .

Gemäß der vorstehend beschriebenen Konfiguration von (15) werden dieselben Effekte wie in (1) vorstehend beschrieben erzielt.According to the configuration of (15) described above, the same effects as described in (1) above are achieved.

(16) Ein Fahrzeugbildverarbeitungsprogramm gemäß zumindest einem Ausführungsbeispiel der vorliegenden Erfindung weist einen Prozessor eines Computers an, einen Schritt zum Durchführen der Auswahl eines Puffers basierend auf dem Vergleich von einer Fahrzeuggeschwindigkeit und Schwellenwerten durchzuführen, und der Computer umfasst: eine Vielzahl von Puffern, die konfiguriert sind, um Teile von Bilddaten, die von einer Vielzahl von Kameras einzeln und sequenziell eingegeben sind, die in einem Fahrzeug installiert sind, zu akkumulieren, um die Teile von Bilddaten mit den Kameras zu verknüpfen; den Prozessor, der konfiguriert ist, um den Puffer basierend auf Zustandsinformationen des Fahrzeugs einschließlich der Fahrzeuggeschwindigkeit auszuwählen, und um den Teil von Bilddaten von dem ausgewählten Puffer zu akquirieren, um diesbezüglich eine Bildverarbeitung durchzuführen; eine Signalleitung zum Übertragen der Teile von Bilddaten in den Puffern zu dem Prozessor; und eine Transfersteuerung, die konfiguriert ist, um den Teil von Bilddaten in dem Puffer, der von dem Prozessor benötigt wird, an die Signalleitung auszugeben.(16) A vehicle image processing program according to at least one embodiment of the present invention instructs a processor of a computer to perform a step of performing selection of a buffer based on the comparison of a vehicle speed and threshold values, and the computer includes: a plurality of buffers configured are to accumulate pieces of image data individually and sequentially inputted from a plurality of cameras installed in a vehicle to associate the pieces of image data with the cameras; the processor configured to select the buffer based on state information of the vehicle including the vehicle speed, and to acquire the portion of image data from the selected buffer to perform image processing thereon; a signal line for transmitting the pieces of image data in the buffers to the processor; and a transfer controller configured to output to the signal line the portion of image data in the buffer required by the processor.

Gemäß der vorstehend beschriebenen Konfiguration von (16) werden dieselben Effekte, wie in (1) vorstehend beschrieben, erzielt.According to the configuration of (16) described above, the same effects as described in (1) above are achieved.

(17) Ein Speichermedium gemäß zumindest einem Ausführungsbeispiel der vorliegenden Erfindung ist ein computerlesbares Speichermedium, das das vorstehend in (16) beschriebene Fahrzeugbildverarbeitungsprogramm speichert.(17) A storage medium according to at least one embodiment of the present invention is a computer-readable storage medium that stores the vehicle image processing program described in (16) above.

Gemäß der vorstehend beschriebenen Konfiguration von (17) wird das in dem Speichermedium gespeicherte Fahrzeugbildverarbeitungsprogramm ausgeführt, und somit werden dieselben Effekte, wie in (1) vorstehend beschrieben, erzielt.According to the configuration of (17) described above, the vehicle image processing program stored in the storage medium is executed, and thus the same effects as described in (1) above are achieved.

Gemäß zumindest einem Ausführungsbeispiel der vorliegenden Erfindung wird eine Fahrzeugbildverarbeitungsvorrichtung bereitgestellt, welche eine Bildverarbeitung bezüglich Bildern, die mit einer Vielzahl von Kameras aufgenommen worden sind, schneller durchführen kann, während die Kosten eines Fahrzeugs verringert werden.According to at least one embodiment of the present invention, there is provided a vehicle image processing apparatus which can perform image processing on images captured by a plurality of cameras more quickly while reducing the cost of a vehicle.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

  • 1 ist ein Diagramm, das die Hardware-Konfiguration einer Fahrzeugbildverarbeitungsvorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung schematisch zeigt; 1 is a diagram schematically showing the hardware configuration of a vehicle image processing apparatus according to an embodiment of the present invention;
  • 2 ist ein Diagramm, das ein Installationsbeispiel einer Vielzahl von Kameras in einem Fahrzeug gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigt; 2 is a diagram showing an installation example of a plurality of cameras in a vehicle according to the embodiment of the present invention;
  • 3 ist ein Diagramm, das die funktionalen Blöcke der Fahrzeugbildverarbeitungsvorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigt; 3 is a diagram showing the functional blocks of the vehicle image processing apparatus according to the embodiment of the present invention;
  • 4 ist ein Flussdiagramm, das ein Verfahren zum Bestimmen der Puffer eines Auswahlziels gemäß dem Ausführungsbeispiel der vorliegenden Erfindung und zum Auswählen der Kameras gemäß einer Fahrzeuggeschwindigkeit zeigt; 4 is a flowchart showing a method of determining buffers of a selection target according to the embodiment of the present invention and selecting cameras according to a vehicle speed;
  • 5 ist ein Diagramm, das eine Reihenfolge zeigt, in welcher die Puffer (Kameras) ausgewählt werden, wenn die Fahrzeuggeschwindigkeit gemäß dem Ausführungsbeispiel der vorliegenden Erfindung kleiner als ein erster Schwellenwert ist (V < L1); 5 is a diagram showing an order in which the buffers (cameras) are selected when the vehicle speed is less than a first threshold (V < L1) according to the embodiment of the present invention;
  • 6 ist ein Diagramm, das eine Reihenfolge zeigt, in welcher die Puffer (Kameras) ausgewählt werden, wenn die Fahrzeuggeschwindigkeit gemäß dem Ausführungsbeispiel der vorliegenden Erfindung gleich oder größer als der erste Schwellenwert und kleiner als ein zweiter Schwellenwert ist (L1 ≤ V < L2); 6 is a diagram showing an order in which the buffers (cameras) are selected when the vehicle speed is equal to or greater than that according to the embodiment of the present invention first threshold and is less than a second threshold (L1 ≤ V <L2);
  • 7 ist ein Diagramm, das eine Reihenfolge zeigt, in welcher die Puffer (Kameras) ausgewählt werden, wenn die Fahrzeuggeschwindigkeit gemäß dem Ausführungsbeispiel der vorliegenden Erfindung gleich oder größer als der zweite Schwellenwert ist (L2 < V); 7 is a diagram showing an order in which the buffers (cameras) are selected when the vehicle speed is equal to or greater than the second threshold (L2 < V) according to the embodiment of the present invention;
  • 8 ist ein Diagramm zum Darstellen des schrittweise Umschaltens der Puffer um den ersten Schwellenwert herum, wenn die Fahrzeuggeschwindigkeit gemäß dem Ausführungsbeispiel der vorliegenden Erfindung erhöht wird; 8th is a diagram for illustrating the gradual switching of the buffers around the first threshold when the vehicle speed is increased according to the embodiment of the present invention;
  • 9 ist ein Diagramm zum Darstellen des schrittweise Umschaltens der Puffer um den zweiten Schwellenwert herum, wenn die Fahrzeuggeschwindigkeit gemäß dem Ausführungsbeispiel der vorliegenden Erfindung erhöht wird; 9 is a diagram for illustrating the gradual switching of the buffers around the second threshold when the vehicle speed is increased according to the embodiment of the present invention;
  • 10 ist ein Diagramm, das Richtungen und Gebiete zeigt, welche überwacht werden, wenn ein Gabelstaplerfahrzeug gemäß dem Ausführungsbeispiel der vorliegenden Erfindung abbiegt; 10 is a diagram showing directions and areas monitored when a forklift vehicle turns according to the embodiment of the present invention;
  • 11 ist ein Flussdiagramm, das ein Verfahren zum Bestimmen der Puffer zeigt, wenn das Gabelstaplerfahrzeug gemäß dem Ausführungsbeispiel der vorliegenden Erfindung abbiegt; 11 is a flowchart showing a method for determining the buffers when the forklift vehicle turns according to the embodiment of the present invention;
  • 12 ist ein Diagramm, das einen Fahrweg in Bilddaten, welche auf das Ziel für eine Bildverarbeitung eingestellt sind, gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigt; und 12 is a diagram showing a travel path in image data set to the target for image processing according to the embodiment of the present invention; and
  • 13 ist ein Diagramm zum Darstellen eines Falles, in welchem die Fahrzeugbildverarbeitungsvorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung den von hinten beleuchteten Zustand des Fahrzeugs bestimmt. 13 is a diagram for illustrating a case in which the vehicle image processing apparatus according to the embodiment of the present invention determines the backlit state of the vehicle.

Detaillierte Beschreibung der ErfindungDetailed description of the invention

Nachstehend werden einige Ausführungsbeispiele der vorliegenden Erfindung mit Bezug auf begleitende Zeichnungen beschrieben. Allerdings wird durch die Dimensionen, die Materialien, die Formen, die relativen Anordnungen und dergleichen von Bestandteilkomponenten, welche als Ausführungsbeispiele beschrieben oder in Zeichnungen gezeigt sind, nicht beabsichtigt, den Umfang der vorliegenden Erfindung zu begrenzen. Sie stellen lediglich einfache Beschreibungsbeispiele dar.Some embodiments of the present invention will be described below with reference to accompanying drawings. However, the dimensions, materials, shapes, relative arrangements and the like of constituent components described by way of example or shown in drawings are not intended to limit the scope of the present invention. They only represent simple descriptive examples.

Beispielsweise soll ein Ausdruck einer relativen oder absoluten Anordnung, wie etwa „in einer Richtung“, „entlang einer Richtung“, „parallel“, „orthogonal“, „zentriert“, „konzentrisch“ und „koaxial“ nicht dahingehend ausgelegt werden, dass lediglich die Anordnung in einem streng wörtlichen Sinne angezeigt wird, sondern auch einen Zustand umfasst, in welchem die Anordnung durch eine Abweichung oder durch einen Winkel oder eine Entfernung relativ verschoben ist, wodurch dieselbe Funktion erzielt werden kann.For example, an expression of relative or absolute arrangement such as "in one direction", "along one direction", "parallel", "orthogonal", "centered", "concentric" and "coaxial" should not be construed as meaning only the arrangement is displayed in a strictly literal sense, but also includes a state in which the arrangement is relatively displaced by a deviation or by an angle or a distance, whereby the same function can be achieved.

Beispielsweise soll ein Ausdruck eines gleichen Zustands, wie etwa „derselbe, dieselbe, dasselbe“, „gleich“, und „gleichmäßig bzw. gleichförmig“ nicht dahingehend ausgelegt werden, dass lediglich der Zustand angezeigt ist, in welchem das Merkmal strenggenommen gleich ist, sondern auch einen Zustand umfasst, in welchem eine Abweichung oder eine Differenz vorliegt, die immer noch dieselbe Funktion erzielen kann.For example, an expression of a same state, such as "the same, the same, the same," "same," and "uniform" should not be construed as indicating only the state in which the feature is, strictly speaking, the same also includes a condition in which there is a deviation or a difference that can still achieve the same function.

Ferner soll beispielsweise ein Ausdruck einer Form, wie etwa eine rechteckige Form oder eine zylindrische Form, nicht als lediglich geometrisch strenge Form ausgelegt werden, sondern auch eine Form mit einer Unebenheit oder abgeschrägten Ecken innerhalb des Bereichs umfassen, in welchem derselbe Effekt erzielt werden kann.Further, for example, an expression of a shape such as a rectangular shape or a cylindrical shape should not be construed as only a geometrically strict shape, but also include a shape with unevenness or chamfered corners within the range in which the same effect can be achieved.

Andererseits beabsichtigt ein Ausdruck, wie etwa „aufweisen“, „umfassen“, „haben“, „enthalten“ und „bilden“ nicht, dass andere Komponenten ausgeschlossen sind.On the other hand, an expression such as "comprising", "comprising", "having", "containing" and "constituting" does not intend to exclude other components.

1 ist ein Diagramm, das die Hardware-Konfiguration einer Fahrzeugbildverarbeitungsvorrichtung 1 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung schematisch zeigt. 2 ist ein Diagramm, das ein Installationsbeispiel einer Vielzahl von Kameras 8 in einem Fahrzeug 9 gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigt. 3 ist ein Diagramm, das die funktionalen Blöcke der Fahrzeugbildverarbeitungsvorrichtung 1 gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigt. 1 is a diagram schematically showing the hardware configuration of a vehicle image processing device 1 according to an embodiment of the present invention. 2 is a diagram showing an installation example of a plurality of cameras 8 in a vehicle 9 according to the embodiment of the present invention. 3 is a diagram showing the functional blocks of the vehicle image processing apparatus 1 according to the embodiment of the present invention.

Die Fahrzeugbildverarbeitungsvorrichtung 1 (nachstehend nach Bedarf die Bildverarbeitungsvorrichtung 1) ist eine Vorrichtung zum Durchführen einer Bildverarbeitung auf Bildern (Bilddaten G), die mit einer Vielzahl von Kameras 8 einzeln aufgenommen werden, die in dem Fahrzeug 9 installiert (enthalten) sind, welches ein allgemeines Automobil oder ein Nutzfahrzeug, wie etwa einen Gabelstapler, darstellt. Wie in 1 gezeigt, sind die Kameras 8 in der Bildverarbeitungsvorrichtung 1 mit separaten Drähten oder dergleichen einzeln verbunden, und die mit den einzelnen Kameras 8 aufgenommenen Bilder werden in die Bildverarbeitungsvorrichtung 1 eingegeben. Die Anzahl an Kameras 8 ist beliebig und wird vorzugsweise gemäß dem Zwecke derselben und den Spezifikationen (wie etwa ein Sichtwinkel und eine Entfernung, die ein Aufnehmen durchführen kann) der Kameras bestimmt. In den einzelnen Kameras 8 werden mit den Kameras 8 aufgenommene Bilder kontinuierlich in die Bildverarbeitungsvorrichtung 1 eingegeben.The vehicle image processing device 1 (hereinafter, as necessary, the image processing device 1) is a device for performing image processing on images (image data G) individually captured with a plurality of cameras 8 installed (included) in the vehicle 9, which is a general one Automobile or a commercial vehicle, such as a forklift. As in 1 As shown, the cameras 8 in the image processing device 1 are individually connected with separate wires or the like, and the images captured by the individual cameras 8 are input to the image processing device 1. The number of cameras 8 is arbitrary and is preferably determined according to the purpose thereof and the specifications (such as a viewing angle and a distance that can perform shooting) of the cameras. In the Individual cameras 8, images recorded with the cameras 8 are continuously input into the image processing device 1.

Gemäß dem in 1 und 2 gezeigten Ausführungsbeispiel erzeugt jede der Kameras 8 eine vorbestimmte Anzahl an Bildern pro Sekunde. Gemäß dem in 2 gezeigten Ausführungsbeispiel sind insgesamt sechs Kameras 8 in dem Fahrzeug 9 installiert, und die einzelnen Kameras sind installiert, um in der Umfangsrichtung des Fahrzeugs 9 aufzunehmen. Insbesondere sind vier von den sechs Kameras 8 Nahfeldkameras 81 für eine Nahfeldaufnahme, und zwei Kameras sind Fernfeldkameras 82 für eine Fernfeldaufnahme. Die Nahfeldkamera 81 hat einen breiteren Sichtwinkel als die Fernfeldkameras, um ein relativ nahes Feld in geeigneter Weise aufnehmen zu können. Im Gegensatz dazu hat die Fernfeldkamera 82 einen eingeschränkteren Sichtwinkel als die Nahfeldkamera 81, um ein relativ fernes Feld in geeigneter Weise aufnehmen zu können. Somit sind die vier Nahfeldkameras 81 an vier Orten der Vorderseite, der Rückseite, der linken Seite und der rechten Seite des Fahrzeugs 9 getrennt installiert, um den gesamten Umfang des Fahrzeugs 9 mit den vier Nahfeldkameras 81 vollständig aufzunehmen. Die beiden Fernfeldkameras 82 sind an zwei Orten der Vorderseite (an welcher der Sichtschutz des Fahrers vorliegt) und der Rückseite des Fahrzeugs 9 getrennt voneinander installiert, um entfernte Gebiete in der Vorwärts- und Rückwärtsrichtung aufzunehmen.According to the in 1 and 2 In the exemplary embodiment shown, each of the cameras 8 generates a predetermined number of images per second. According to the in 2 In the embodiment shown, a total of six cameras 8 are installed in the vehicle 9, and the individual cameras are installed to record in the circumferential direction of the vehicle 9. In particular, four of the six cameras 8 are near-field cameras 81 for near-field recording, and two cameras are far-field cameras 82 for far-field recording. The near-field camera 81 has a wider viewing angle than the far-field cameras in order to be able to appropriately record a relatively close field. In contrast, the far-field camera 82 has a more restricted viewing angle than the near-field camera 81 in order to be able to appropriately record a relatively distant field. Thus, the four near-field cameras 81 are separately installed at four locations of the front, rear, left side and right side of the vehicle 9 to completely capture the entire perimeter of the vehicle 9 with the four near-field cameras 81. The two far-field cameras 82 are separately installed at two locations of the front (where the driver's vision is provided) and the rear of the vehicle 9 to record distant areas in the forward and backward directions.

Damit die aufgenommenen Bilder, welche von den Kameras 8, die in dem Fahrzeug 9 installiert sind, wie vorstehend beschrieben, sequenziell eingegeben sind, wie in 1 gezeigt, in Echtzeit verarbeitet werden, umfasst die Bildverarbeitungsvorrichtung 1 eine Vielzahl von Puffern 2, einen Prozessor 3, eine Signalleitung 4 und eine Transfersteuerung 5.So that the captured images which are input from the cameras 8 installed in the vehicle 9 as described above are sequentially shown in 1 shown, are processed in real time, the image processing device 1 comprises a plurality of buffers 2, a processor 3, a signal line 4 and a transfer controller 5.

Die Konfigurationen derselben werden einzeln beschrieben.The configurations of the same are described individually.

Die Puffer 2 sind Speicherabschnitte, welche konfiguriert sind, um Teile von Bilddaten G zu akkumulieren, die von den Kameras 8, die in dem Fahrzeug 9 installiert sind, für jede der Kameras 8 einzeln und sequenziell eingegeben werden. Wie in 1 gezeigt, ist ein dedizierter Puffer 2 für jede der Kameras 8 vorgesehen, und somit werden die Bilddaten G für jede der Kameras 8 verwaltet (gespeichert). Gemäß dem in 1 gezeigten Ausführungsbeispiel stellt jeder der Puffer 2 eine Warteschlange (FIFO) dar, und somit werden die Teile von Bilddaten G in einer Reihenfolge entnommen, in welcher die Teile von Bilddaten G in die Puffer 2 eingegeben sind. Jeder der Puffer 2 kann eine Ringpufferstruktur aufweisen. Jeder der Puffer 2 kann eingestellt sein, um eine solche Kapazität aufzuweisen, damit lediglich eine kleine Anzahl an Teilen von Bilddaten G gespeichert werden kann, und ein Speicher, welcher eine kleinere Kapazität aufweist, wird derart verwendet, dass die Kosten verringert werden können. Gemäß dem in 1 gezeigten Ausführungsbeispiel wandelt ein A/D-Umwandler 22 die analogen Informationen des von jeder der Kameras 8 aufgenommenes Bildes in digitale Informationen um, und somit werden die Bilddaten G in jedem der Puffer 2 akkumuliert. Die Transfersteuerung 5, welche nachstehend beschrieben wird, verwaltet die einzelnen Puffer 2, um die Bilddaten G in den einzelnen Puffern 2 zu akkumulieren (speichern).The buffers 2 are storage sections configured to accumulate pieces of image data G input from the cameras 8 installed in the vehicle 9 for each of the cameras 8 individually and sequentially. As in 1 As shown, a dedicated buffer 2 is provided for each of the cameras 8, and thus the image data G is managed (stored) for each of the cameras 8. According to the in 1 In the embodiment shown, each of the buffers 2 represents a queue (FIFO), and thus the pieces of image data G are taken out in an order in which the pieces of image data G are input into the buffers 2. Each of the buffers 2 can have a ring buffer structure. Each of the buffers 2 may be set to have such a capacity that only a small number of pieces of image data G can be stored, and a memory having a smaller capacity is used so that the cost can be reduced. According to the in 1 In the embodiment shown, an A/D converter 22 converts the analog information of the image captured by each of the cameras 8 into digital information, and thus the image data G is accumulated in each of the buffers 2. The transfer controller 5, which will be described below, manages the individual buffers 2 to accumulate (store) the image data G in the individual buffers 2.

Der Prozessor 3 wählt den Puffer 2 unter den vorstehend beschriebenen Puffern 2 basierend auf z.B. den Zustandsinformationen S des Fahrzeugs 9 aus, wie etwa einer Fahrzeuggeschwindigkeit V und einer Schaltposition Sp, und akquiriert die Bilddaten G aus dem ausgewählten Puffer, um die Bildverarbeitung durchzuführen. Insbesondere wird jeder Prozessor 3 gemäß dem Befehl eines Programms (Bildverarbeitungsprogramm), das in einer Hauptspeichervorrichtung geladen ist, betrieben (wie etwa die Berechnung von Daten), um die Bilddaten G aus irgendeinem der Puffer 2 sequenziell zu akquirieren, und um die Bildverarbeitung (wie etwa die Erfassung einer Person und eines Artikels) auf den Bilddaten G, welche akquiriert sind, durchzuführen. Wie in 1 gezeigt, ist die Anzahl an Prozessoren 3 kleiner als die Anzahl an Puffern 2, damit die Kosten des Fahrzeugs 9 verringert werden. Gemäß dem in 1 gezeigten Ausführungsbeispiel weist der in der Bildverarbeitungsvorrichtung 1 enthaltene Prozessor 3 eine in der Figur gezeigte CPU auf.The processor 3 selects the buffer 2 among the above-described buffers 2 based on, for example, the state information S of the vehicle 9, such as a vehicle speed V and a shift position Sp, and acquires the image data G from the selected buffer to perform image processing. Specifically, each processor 3 operates (such as computing data) according to the instruction of a program (image processing program) loaded in a main storage device to sequentially acquire the image data G from any one of the buffers 2, and to perform image processing (such as for example, the capture of a person and an article) on the image data G that has been acquired. As in 1 shown, the number of processors 3 is smaller than the number of buffers 2 in order to reduce the cost of the vehicle 9. According to the in 1 In the exemplary embodiment shown, the processor 3 contained in the image processing device 1 has a CPU shown in the figure.

Insbesondere wird der Prozessor 3 gemäß dem Bildverarbeitungsprogramm betrieben, welches eine in 3 gezeigte Funktion aufweist, um zumindest einen der Puffer 2 als ein Auswahlziel unter den Puffern 2 basierend auf den Zustandsinformationen S des Fahrzeugs 9 zu bestimmen, und er stellt die Auswahlfrequenzen der in dem Auswahlziel enthaltenen Puffer 2 größer ein als die Auswahlfrequenzen der anderen Puffer 2, die in dem Auswahlziel nicht enthalten sind, um einen oder mehrere der in dem Auswahlziel enthaltene Puffer 2 sequenziell auszuwählen. Insbesondere indem beispielsweise die Auswahlfrequenzen der Puffer 2, die nicht in dem Auswahlziel enthalten sind, auf eine signifikant niedrige Frequenz, wie etwa Null, eingestellt werden, kann verhindert werden, dass sie durch den Prozessor 3 ausgewählt werden. Gemäß dem in 3 gezeigten Ausführungsbeispiel weist das Bildverarbeitungsprogramm einen Computer an, um folgendes zu realisieren: einen Auswahlzielpuffer-Bestimmungsabschnitt 71 welcher die Puffer 2 des Auswahlziels bestimmt; einen Bilddaten-Akquirierungsabschnitt 72, welcher einen oder mehrere der Puffer 2, die in dem Auswahlziel bestimmt und enthalten sind, sequenziell auswählt, und welcher die Bilddaten G der ausgewählten Puffer 2 akquiriert; und einen Bildverarbeitungsabschnitt 73, welcher die Bildverarbeitung auf den akquirierten Bilddaten G durchführt.In particular, the processor 3 is operated according to the image processing program, which has an in 3 function shown to determine at least one of the buffers 2 as a selection target among the buffers 2 based on the state information S of the vehicle 9, and sets the selection frequencies of the buffers 2 included in the selection target larger than the selection frequencies of the other buffers 2, which are not included in the selection target, to sequentially select one or more of the buffers 2 included in the selection target. In particular, for example, by setting the selection frequencies of the buffers 2 not included in the selection target to a significantly low frequency such as zero, they can be prevented from being selected by the processor 3. According to the in 3 In the embodiment shown, the image processing program instructs a computer to realize: a selection target buffer determining section 71 which determines the buffers 2 of the selection target; an image data acquiring section 72 which sequentially selects one or more of the buffers 2 designated and included in the selection target selects, and which acquires the image data G of the selected buffers 2; and an image processing section 73 that performs image processing on the acquired image data G.

Da im Allgemeinen die Anzahl an Teilen von Bilddaten G, auf welchen ein Prozessor 3 die Bildverarbeitung pro Einheitszeit durchführen kann, begrenzt ist, wenn die Bilddaten G von allen Kameras 8 in Echtzeit überwacht werden, muss beispielsweise ein Prozessor 3 vorgesehen sein, welcher eine exzellente Verarbeitungsfähigkeit aufweist, oder der Prozessor 3 muss für jede der Kameras 8 vorgesehen sein. Allerdings liegt im Allgemeinen eine Priorität (Wichtigkeit) in der Richtung vor, welche gemäß Fahrbedingungen überwacht werden muss, und es ist beispielsweise die Notwendigkeit zum Überwachen der Richtung entgegengesetzt zu der Fahrtrichtung zum Zeitpunkt eines Fahrens gering. Somit sind jedes Mal, wenn die Fahrbedingungen des Fahrzeugs 9 basierend auf den Zustandsinformationen S des Fahrzeugs 9 bestimmt werden, die Kameras 8, welche auf das Ziel für die Bildverarbeitung eingestellt werden müssen, auf zumindest einen Teil der Kameras 8, die in dem Fahrzeug 9 installiert sind, gemäß den Details einer Fahrunterstützung, welche durchgeführt wird, mit dem Ergebnis beschränkt, dass der Prozessor 3 die Bildverarbeitung durchführt. Da auf diese Weise, sogar wenn eine Vielzahl von Puffern 2 in dem Auswahlziel enthalten ist, die Anzahl an Puffern 2, welche auf das Ziel für die Bildverarbeitung eingestellt sind, minimiert ist, wird die Frequenz, mit welcher der Prozessor 3 die Bilddaten G akquiriert, für jeden der Puffer 2 erhöht (der Zyklus, in welchem die Bildverarbeitung durchgeführt wird, wird verkürzt), mit dem Ergebnis, dass eine Umgebungserkennung, die die Kameras 8 verwendet, in Echtzeit durchgeführt werden kann.Since in general the number of pieces of image data G on which a processor 3 can perform image processing per unit time is limited when the image data G from all cameras 8 are monitored in real time, for example, a processor 3 must be provided which has an excellent Has processing capability, or the processor 3 must be provided for each of the cameras 8. However, there is generally a priority (importance) in the direction that needs to be monitored according to driving conditions, and, for example, the need for monitoring the direction opposite to the driving direction at the time of driving is small. Thus, each time the driving conditions of the vehicle 9 are determined based on the state information S of the vehicle 9, the cameras 8 that need to be set to the target for image processing are at least a part of the cameras 8 installed in the vehicle 9 are installed, limited according to the details of driving assistance being performed, with the result that the processor 3 performs the image processing. In this way, even if a plurality of buffers 2 are included in the selection target, the number of buffers 2 set to the target for image processing is minimized, the frequency at which the processor 3 acquires the image data G becomes , for each of the buffers 2 is increased (the cycle in which the image processing is performed is shortened), with the result that environment detection using the cameras 8 can be performed in real time.

Die Signalleitung 4 ist ein Transferpfad zum Übertragen der Bilddaten G in jedem der vorstehend beschriebenen Puffer 2 zu dem Prozessor 3. Die Signalleitung 4 kann so konfiguriert sein, um die Bilddaten G seriell zu übertragen, oder sie kann so konfiguriert sein, um die Bilddaten G parallel zu übertragen. Somit werden die Bilddaten G in jedem der Puffer 2 durch die Signalleitung 4 übertragen, um zu dem Prozessor 3 übertragen zu werden.The signal line 4 is a transfer path for transmitting the image data G in each of the above-described buffers 2 to the processor 3. The signal line 4 may be configured to transmit the image data G serially, or may be configured to transmit the image data G to be transmitted in parallel. Thus, the image data G in each of the buffers 2 is transmitted through the signal line 4 to be transmitted to the processor 3.

Die Transfersteuerung 5 kann mit dem Prozessor 3 für eine vorstehend beschriebene Bildverarbeitung kommunizieren, verwaltet die Akkumulation der Bilddaten G in den Puffern 2, und gibt die von dem Prozessor 3 benötigten Bilddaten G an die Signalleitung 4 aus. Anders ausgedrückt, die Transfersteuerung 5 speichert die Bilddaten G in geeigneter Weise in jedem der Puffer 2, während die Kommunikation mit den Kameras 8 und Speicheradressen verwaltet werden, um die kommunizierten Bilddaten G in jedem der Puffer 2 in geeigneter Weise zu speichern. Wie vorstehend beschrieben, bestimmt der Prozessor 3 die Puffer 2, welche auf das Auswahlziel eingestellt sind, basierend auf den Zustandsinformationen S des Fahrzeugs 9, und jedes Mal, wenn der Prozessor 3 den Puffer 2 darin sequenziell auswählt, werden die Bilddaten G des ausgewählten Puffers 2 akquiriert. Hier gibt die Transfersteuerung 5 die Bilddaten G des benötigten Puffers 2 an die Signalleitung 4 aus, wenn der Prozessor 3 den zu der Transfersteuerung 5 zu akquirierenden Puffer 2 spezifiziert, um die Bilddaten G zu benötigen, und somit überträgt die Transfersteuerung 5 die Bilddaten G an den Prozessor 3. Der Prozessor 3 kann das vorstehend beschriebene Erfordernis (Steuerungssignal) für die Transfersteuerung 5 durch die Signalleitung 4 durchführen, oder er kann es durch eine Steuerungssignalleitung durchführen, welche getrennt vorgesehen ist.The transfer controller 5 can communicate with the processor 3 for image processing described above, manages the accumulation of the image data G in the buffers 2, and outputs the image data G required by the processor 3 to the signal line 4. In other words, the transfer controller 5 appropriately stores the image data G in each of the buffers 2, while managing the communication with the cameras 8 and memory addresses to appropriately store the communicated image data G in each of the buffers 2. As described above, the processor 3 determines the buffers 2 set to the selection target based on the state information S of the vehicle 9, and each time the processor 3 sequentially selects the buffer 2 therein, the image data G of the selected buffer becomes 2 acquired. Here, the transfer controller 5 outputs the image data G of the required buffer 2 to the signal line 4 when the processor 3 specifies the buffer 2 to be acquired to the transfer controller 5 to require the image data G, and thus the transfer controller 5 transmits the image data G the processor 3. The processor 3 may perform the above-described requirement (control signal) for the transfer control 5 through the signal line 4, or it may perform it through a control signal line provided separately.

Wie vorstehend beschrieben, wird der Transfer der Bilddaten G an den Prozessor 3 durch die Transfersteuerung 5 durchgeführt, und somit kann der Prozessor 3 der Bildverarbeitung eine Betriebszeit zuordnen, ohne die Transferverarbeitung auf den Bilddaten G durchzuführen. Somit kann der Prozessor 3 der Bildverarbeitung einen größeren Anteil der Verarbeitungsfähigkeit zuordnen, und somit kann der Prozessor 3, sogar wenn der Prozessor 3 eine relativ geringe Verarbeitungsfähigkeit aufweist, eine Fahrunterstützung durch die einzelnen Kameras 8 in Echtzeit in geeigneter Weise durchführen.As described above, the transfer of the image data G to the processor 3 is performed by the transfer controller 5, and thus the processor 3 can assign an operation time to the image processing without performing the transfer processing on the image data G. Thus, the processor 3 can allocate a larger proportion of the processing capability to the image processing, and thus, even if the processor 3 has a relatively low processing capability, the processor 3 can appropriately perform real-time driving assistance by the individual cameras 8.

Kurzum, da in der wie vorstehend beschrieben konfigurierten Bildverarbeitungsvorrichtung 1 die Transfersteuerung 5 die Transferverarbeitung auf den Bilddaten G durchführt, führt der Prozessor 3 für die Bildverarbeitung keine Verarbeitung auf den Bilddaten G durch, bis die Bilddaten G mit der Transfersteuerung 5 von dem Puffer 2, in welchem die mit jeder der Kameras 8 aufgenommenen Bilddaten G gespeichert sind, übertragen worden sind, und er führt die Bildverarbeitung lediglich auf den Bilddaten G durch, die durch den Transfer akquiriert worden sind. Außerdem bestimmt der Prozessor 3 beispielsweise aus den in den Puffern 2 akkumulierten Bilddaten G der einzelnen Kameras 8 basierend auf den Zustandsinformationen S des Fahrzeugs 9 die Puffer 2, welche auf das Ziel für die Bildverarbeitung eingestellt werden müssen, um die auf das Ziel für die Bildverarbeitung eingestellten Kameras 8 auf zumindest einen Teil der Kameras 8 einzuschränken, und somit wird die Anzahl an Teilen von Bilddaten, welche pro Einheitszeit verarbeitet werden müssen, verringert.In short, in the image processing device 1 configured as described above, since the transfer controller 5 performs the transfer processing on the image data G, the image processing processor 3 does not perform any processing on the image data G until the image data G is transferred from the buffer 2 with the transfer controller 5. in which the image data G recorded with each of the cameras 8 is stored, has been transferred, and it performs image processing only on the image data G acquired through the transfer. In addition, the processor 3 determines, for example, from the image data G of the individual cameras 8 accumulated in the buffers 2, based on the status information S of the vehicle 9, the buffers 2, which must be set to the target for the image processing in order to be set to the target for the image processing set cameras 8 to at least a part of the cameras 8, and thus the number of parts of image data that have to be processed per unit time is reduced.

Wie vorstehend beschrieben, stellt der Prozessor 3 die basierend auf den Zustandsinformationen S des Fahrzeugs 9 bestimmten Bilddaten G der Kameras 8 auf das Ziel für die Bildverarbeitung ein und führt keine Verarbeitung durch, bis die auf das Ziel eingestellten Bilddaten G akquiriert worden sind, mit dem Ergebnis, dass eine Umgebungserkennung (die Erfassung einer Person und eines Artikels) um das Fahrzeug 9 herum durch die Kameras 8 schneller durchgeführt werden kann. Somit kann die Bereitstellung des Prozessors 3 für jede der Kameras 8 und die Verwendung eines teuren Prozessors 3 mit besserer Verarbeitungsfähigkeit vermieden werden, und somit können die Kosten des Fahrzeugs 9 verringert werden.As described above, the processor 3 sets the image data G of the cameras 8 determined based on the state information S of the vehicle 9 to the target for image processing and does not perform any processing until the image data G set to the target has been acquired are, with the result that environmental detection (the detection of a person and an article) around the vehicle 9 can be carried out more quickly by the cameras 8. Thus, providing the processor 3 for each of the cameras 8 and using an expensive processor 3 with better processing capability can be avoided, and thus the cost of the vehicle 9 can be reduced.

In einigen Ausführungsbeispielen kann die Bildverarbeitungsvorrichtung 1, wie in 1 gezeigt, ferner umfassen: eine Erfassungseinheit 11 (Tafel bzw. Platine bzw. Karte), in welcher einer Vielzahl von vorstehend beschriebenen Puffern 2 und die Transfersteuerung 5 vorgesehen sind; einen Bildverarbeitungspuffer 6 (Arbeitspuffer), welcher die Bilddaten G speichert, welche durch die Transfersteuerung 5 an die Signalleitung 4 ausgegeben worden sind, und auf welchen der Prozessor 3 die Bildverarbeitung durchführt; eine Prozessoreinheit 12 (Tafel bzw. Platine bzw. Karte), in welcher der Prozessor 3 und der Bildverarbeitungspuffer 6 vorgesehen sind. In diesem Fall kann die vorstehend beschriebene Signalleitung 4 die Puffer 2 in der Erfassungseinheit 11 und den Bildverarbeitungspuffer 6 in der Prozessoreinheit 12 miteinander verbinden. Die vorstehend beschriebene Erfassungseinheit 11 kann mit einer programmierbaren Logikvorrichtung, wie etwa einem FPGA, ausgebildet sein.In some embodiments, the image processing device 1, as in 1 shown, further comprising: a detection unit 11 (board) in which a plurality of the above-described buffers 2 and the transfer controller 5 are provided; an image processing buffer 6 (work buffer) which stores the image data G outputted to the signal line 4 by the transfer controller 5 and on which the processor 3 performs image processing; a processor unit 12 (board or card), in which the processor 3 and the image processing buffer 6 are provided. In this case, the signal line 4 described above can connect the buffers 2 in the detection unit 11 and the image processing buffer 6 in the processor unit 12 to each other. The detection unit 11 described above may be formed with a programmable logic device such as an FPGA.

Anders ausgedrückt, die Bilddaten G, welche mit der Transfersteuerung 5 gemäß dem Erfordernis des Prozessors 3 übertragen werden, sind in dem in der Prozessoreinheit 12 vorgesehenen Bildverarbeitungspuffer 6 gespeichert. Dann führt der Prozessor 3 die Bildverarbeitung auf den in dem Bildverarbeitungspuffer 6 gespeicherten Bilddaten G durch. Der Bildverarbeitungspuffer 6 des in 1 gezeigten Ausführungsbeispiels ist eine Warteschlange (FIFO), und der Prozessor 3 führt die Bildverarbeitung auf einem oder mehreren Teilen von in dem Bildverarbeitungspuffer 6 gespeicherten Bilddaten G in einer Reihenfolge durch, in welcher die Teile von Bilddaten G in dem Bildverarbeitungspuffer 6 gespeichert sind.In other words, the image data G, which is transferred with the transfer controller 5 according to the requirement of the processor 3, is stored in the image processing buffer 6 provided in the processor unit 12. Then, the processor 3 performs image processing on the image data G stored in the image processing buffer 6. The image processing buffer 6 of the in 1 The embodiment shown is a queue (FIFO), and the processor 3 performs image processing on one or more pieces of image data G stored in the image processing buffer 6 in an order in which the pieces of image data G are stored in the image processing buffer 6.

Gemäß dem in 1 gezeigten Ausführungsbeispiel akquiriert die Bildverarbeitungsvorrichtung 1 die vorstehend beschriebenen Zustandsinformationen S des Fahrzeugs 9 von einem Fahrzeugzustandsüberwachungsabschnitt 14, wie etwa einer ECU, welche in dem Fahrzeug 9 installiert ist. Insbesondere sammelt der Fahrzeugzustandsüberwachungsabschnitt 14 durch ein in dem Fahrzeug 9 installiertes Fahrzeugnetzwerk 15 (wie etwa ein CAN) die Zustandsinformationen S des Fahrzeugs 9, die die Fahrzeuggeschwindigkeit und die Schaltposition Sp umfassen, und speichert die Zustandsinformationen S in einen Puffer (Zustandsinformationspuffer 62) zum Speichern der in der Prozessoreinheit 12 vorgesehenen Zustandsinformationen S. Das Sammeln der Zustandsinformationen S mit dem Fahrzeugzustandsüberwachungsabschnitt 14 und das Speichern der Zustandsinformationen S in dem Zustandsinformationspuffer 62 werden zyklisch durchgeführt, und somit werden die letzten Zustandsinformationen S in dem Zustandsinformationspuffer 62 gespeichert. Somit greift der Prozessor 3 auf den vorstehend beschriebenen Zustandsinformationspuffer 62 zu, um die letzten Zustandsinformationen S des Fahrzeugs 9 akquirieren zu können, und bestimmt die Puffer 2, welche auf das Auswahlziel eingestellt sind, basierend auf den akquirierten Zustandsinformationen S.According to the in 1 In the embodiment shown, the image processing device 1 acquires the above-described state information S of the vehicle 9 from a vehicle state monitoring section 14 such as an ECU installed in the vehicle 9. Specifically, the vehicle condition monitoring section 14 collects the condition information S of the vehicle 9 including the vehicle speed and the shift position Sp through a vehicle network 15 (such as a CAN) installed in the vehicle 9, and stores the condition information S into a buffer (condition information buffer 62) for storage of the status information S provided in the processor unit 12. Collecting the status information S with the vehicle status monitoring section 14 and storing the status information S in the status information buffer 62 are carried out cyclically, and thus the last status information S is stored in the status information buffer 62. Thus, the processor 3 accesses the status information buffer 62 described above in order to be able to acquire the last status information S of the vehicle 9, and determines the buffers 2 which are set to the selection target based on the acquired status information S.

Obwohl in dem in 1 gezeigten Ausführungsbeispiel der Fahrzeugzustandsüberwachungsabschnitt 14 in der anderen Einheit auf der Seite des Fahrzeugs (Steuerungseinheit 13) vorgesehen ist, können die Steuerungseinheit 13 und die Prozessoreinheit 12 mit dem Fahrzeugnetzwerk 15 verbunden sein, oder sie können mit getrennten Drähten verbunden sein.Although in the in 1 In the embodiment shown, the vehicle condition monitoring section 14 is provided in the other unit on the vehicle side (control unit 13), the control unit 13 and the processor unit 12 may be connected to the vehicle network 15, or they may be connected to separate wires.

Gemäß der vorstehend beschriebenen Konfiguration werden die Bilddaten G der mit den Puffern 2 verwalteten einzelnen Kameras 8 durch die Signalleitung 4 zum Verbinden der Erfassungseinheit 11 und der Prozessoreinheit 12 übertragen, sie werden an den in der Prozessoreinheit 12 vorgesehenen Bildverarbeitungspuffer 6 übertragen und der Bildverarbeitung in dem Prozessor 3 ausgesetzt. Die Verwaltung und die Transferverarbeitung der Puffer 2 in der Erfassungseinheit 11 und die Bildverarbeitung in der Prozessoreinheit 12 sind hinsichtlich Hardware auf diese Weise voneinander getrennt, und somit kann, wie vorstehend beschrieben, die Umgebungserkennung (Erfassung von einer Bewegung einer Person und eines Artikels) um das Fahrzeug 9 herum durch die Kameras 8 in einer zufriedenstellenden Art und Weise in Echtzeit durchgeführt werden.According to the configuration described above, the image data G of the individual cameras 8 managed with the buffers 2 is transmitted through the signal line 4 for connecting the detection unit 11 and the processor unit 12, is transmitted to the image processing buffer 6 provided in the processor unit 12, and is subjected to image processing in the Processor 3 suspended. The management and transfer processing of the buffers 2 in the detection unit 11 and the image processing in the processor unit 12 are separated in hardware in this way, and thus, as described above, the environment detection (detection of a movement of a person and an article) can be carried out the vehicle 9 around through the cameras 8 can be carried out in a satisfactory manner in real time.

Einige Ausführungsbeispiele bezüglich eines Verfahrens zum Bestimmen der Puffer 2 des vorstehend beschriebenen Auswahlziels werden dann mit Bezug auf 4 bis 10 beschrieben. 4 ist ein Flussdiagramm, das das Verfahren zum Bestimmen der Puffer 2 des Auswahlziels gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigt, und die Kameras 8 werden gemäß der Fahrzeuggeschwindigkeit V ausgewählt. 5 ist ein Diagramm, das eine Reihenfolge zeigt, in welcher die Puffer 2 (Kameras 8) ausgewählt werden, wenn die Fahrzeuggeschwindigkeit V gemäß dem Ausführungsbeispiel der vorliegenden Erfindung kleiner als ein erster Schwellenwert L1 ist (V < L1). 6 ist ein Diagramm, das eine Reihenfolge zeigt, in welcher die Puffer 2 (Kameras 8) ausgewählt werden, wenn die Fahrzeuggeschwindigkeit V gemäß dem Ausführungsbeispiel der vorliegenden Erfindung gleich oder größer als der erste Schwellenwert L1 und kleiner als ein zweiter Schwellenwert L2 ist (L1 ≤ V < L2). 7 ist ein Diagramm, das eine Reihenfolge zeigt, in welcher die Puffer 2 (Kameras 8) ausgewählt werden, wenn die Fahrzeuggeschwindigkeit V gemäß dem Ausführungsbeispiel der vorliegenden Erfindung gleich oder größer als der zweite Schwellenwert L2 ist (L2 ≤ V). 8 ist ein Diagramm zum Darstellen des schrittweise Umschaltens der Puffer um den ersten Schwellenwert L1 herum, wenn die Fahrzeuggeschwindigkeit V gemäß dem Ausführungsbeispiel der vorliegenden Erfindung erhöht wird. 9 ist ein Diagramm zum Darstellen des schrittweise Umschaltens der Puffer um den zweiten Schwellenwert L2 herum, wenn die Fahrzeuggeschwindigkeit V gemäß dem Ausführungsbeispiel der vorliegenden Erfindung erhöht wird. 10 ist ein Diagramm, das Richtungen und Gebiete zeigt, welche überwacht werden, wenn ein Gabelstaplerfahrzeug gemäß dem Ausführungsbeispiel der vorliegenden Erfindung abbiegt. 11 ist ein Flussdiagramm, das ein Verfahren zum Bestimmen der Puffer 2 zeigt, wenn das Gabelstaplerfahrzeug gemäß dem Ausführungsbeispiel der vorliegenden Erfindung abbiegt.Some embodiments regarding a method for determining the buffers 2 of the selection target described above will then be given with reference to 4 until 10 described. 4 is a flowchart showing the method of determining the buffers 2 of the selection target according to the embodiment of the present invention, and the cameras 8 are selected according to the vehicle speed V. 5 is a diagram showing an order in which the buffers 2 (cameras 8) are selected when the vehicle speed V is smaller than a first threshold L1 (V < L1) according to the embodiment of the present invention. 6 is a diagram showing an order in which the Buffer 2 (cameras 8) are selected when the vehicle speed V according to the embodiment of the present invention is equal to or greater than the first threshold L1 and less than a second threshold L2 (L1 ≤ V < L2). 7 is a diagram showing an order in which the buffers 2 (cameras 8) are selected when the vehicle speed V is equal to or greater than the second threshold L2 (L2 ≤ V) according to the embodiment of the present invention. 8th is a diagram for illustrating the gradual switching of the buffers around the first threshold L1 when the vehicle speed V is increased according to the embodiment of the present invention. 9 is a diagram for illustrating the gradual switching of the buffers around the second threshold L2 when the vehicle speed V is increased according to the embodiment of the present invention. 10 is a diagram showing directions and areas monitored when a forklift vehicle turns according to the embodiment of the present invention. 11 is a flowchart showing a method for determining the buffers 2 when the forklift vehicle turns according to the embodiment of the present invention.

In der folgenden Beschreibung wird angenommen, dass der Prozessor 3 gemäß dem Befehl des vorstehend beschriebenen Bildverarbeitungsprogramms betrieben wird, um eine Realisierung zu erzielen. Es wird auch angenommen, dass gemäß dem ersten Schwellenwert L1, dem zweiten Schwellenwert L2 und einem dritten Schwellenwert L3 eine Beziehung L1 < L2 < L3 gilt.In the following description, it is assumed that the processor 3 is operated according to the instruction of the image processing program described above to achieve realization. It is also assumed that a relationship L1 < L2 < L3 holds according to the first threshold L1, the second threshold L2 and a third threshold L3.

Gemäß einigen Ausführungsbeispielen umfassen die Zustandsinformationen S des Fahrzeugs 9 die Fahrzeuggeschwindigkeit V. Wie in 4 gezeigt, kann der Prozessor 3 die Auswahl der vorstehend beschriebenen Puffer 2 basierend auf dem Vergleich der Fahrzeuggeschwindigkeit V und vorbestimmten Schwellenwerten L durchführen. Gemäß dem in 1 bis 4 gezeigten Ausführungsbeispiel bestimmt der Prozessor 3 einen oder mehrere der Puffer 2, welche auf das vorstehend beschriebene Auswahlziel eingestellt sind, gemäß dem Befehl des Bildverarbeitungsprogramms für den Auswahlzielpuffer-Bestimmungsabschnitt 71 basierend auf dem Vergleich der Fahrzeuggeschwindigkeit V und einer Vielzahl von Schwellenwerten L (L1 bis L3). Insbesondere überprüft der Prozessor 3 (Auswahlzielpuffer-Bestimmungsabschnitt 71) in Schritt S1 von 4, ob ein Fahrer beabsichtigt, das Fahrzeug 9 zu bewegen oder nicht, indem überprüft wird, ob sich die Schaltposition Sp nicht auf Parken befindet. Gemäß den Befehlen des Auswahlzielpuffer-Bestimmungsabschnitts 71 und des Bilddaten-Akquirierungsabschnitts 72, wenn sich die Schaltposition Sp nicht auf Parken (P) befindet, wird in Schritt S2 und den nachfolgenden Schritten die Auswahl der Kameras 8 (Puffer 2) korrespondierend zu der Fahrzeuggeschwindigkeit V durchgeführt.According to some embodiments, the state information S of the vehicle 9 includes the vehicle speed V. As in 4 shown, the processor 3 can perform the selection of the buffers 2 described above based on the comparison of the vehicle speed V and predetermined threshold values L. According to the in 1 until 4 In the embodiment shown, the processor 3 determines one or more of the buffers 2 set to the above-described selection target according to the command of the image processing program for the selection target buffer determining section 71 based on the comparison of the vehicle speed V and a plurality of threshold values L (L1 to L3 ). Specifically, the processor 3 (selection target buffer determining section 71) checks in step S1 of 4 whether a driver intends to move the vehicle 9 or not by checking whether the shift position Sp is not in park. According to the commands of the selection target buffer determining section 71 and the image data acquiring section 72, when the shift position Sp is not in parking (P), in step S2 and the subsequent steps, the selection of the cameras 8 (buffer 2) is made corresponding to the vehicle speed V carried out.

Im Allgemeinen liegt eine obere Grenze bezüglich der Anzahl an Teilen von Bilddaten vor, auf welchen ein Prozessor eine Bildverarbeitung pro Einheitszeit durchführen kann. Wenn somit die Teile von Bilddaten G der Kameras 8 sequenziell verarbeitet werden, wenn die Anzahl an Kameras 8 (Puffer 2) erhöht wird, dann wird die Anzahl an Teilen von Bilddaten, auf welchen die Bildverarbeitung pro Einheitszeit durchgeführt wird, in jeder der Kameras 8 verringert. Wenn diese Anzahl verringert wird, dann tritt eine längere Verzögerung in der Bildverarbeitung bezüglich der Teile von Bilddaten G auf, welche von jeder der Kameras 8 sequenziell zugeführt sind, und somit wird eine Zeitverzögerung in der Umgebungserkennung durch die Bildverarbeitung der Kameras vergrößert. Wenn allerdings die Fahrzeuggeschwindigkeit V erhöht wird, dann wird die Zeitverzögerung bei der Umgebungserkennung durch die Bildverarbeitung wahrscheinlicher schlimm, wohingegen wenn die Fahrzeuggeschwindigkeit V verringert wird, sich die Zeitverzögerung wahrscheinlicher in einem zulässigen Bereich befinden wird. Anders ausgedrückt, wenn die Fahrzeuggeschwindigkeit V verringert wird, sogar wenn eine höhere Anzahl an Kameras 8 auf das Ziel für die Bildverarbeitung eingestellt sind, dann kann eine Fahrunterstützung für das Fahrzeug 9 in geeigneter Weise durchgeführt werden. Somit werden gemäß dem vorliegenden Ausführungsbeispiel die Puffer 2 gemäß der Fahrzeuggeschwindigkeit V umgeschaltet, und somit wird die Bildverarbeitung auf Bildern durchgeführt, die mit Kameras 8 aufgenommen worden sind, welche eine höhere Priorität gemäß der Fahrunterstützung unter den Kameras 8 aufweisen, die in dem Fahrzeug 9 installiert sind.In general, there is an upper limit to the number of pieces of image data on which a processor can perform image processing per unit time. Thus, when the pieces of image data G of the cameras 8 are processed sequentially as the number of cameras 8 (buffer 2) is increased, the number of pieces of image data on which image processing is performed per unit time in each of the cameras 8 becomes reduced. If this number is reduced, a longer delay occurs in image processing with respect to the pieces of image data G sequentially supplied from each of the cameras 8, and thus a time delay in environment recognition by the image processing of the cameras is increased. However, if the vehicle speed V is increased, then the time delay in environment detection by the image processing is more likely to become severe, whereas if the vehicle speed V is reduced, the time delay is more likely to be within an acceptable range. In other words, when the vehicle speed V is reduced even if a larger number of cameras 8 are set to the image processing target, driving assistance for the vehicle 9 can be performed appropriately. Thus, according to the present embodiment, the buffers 2 are switched according to the vehicle speed V, and thus the image processing is performed on images taken with cameras 8 having a higher priority according to driving assistance among the cameras 8 installed in the vehicle 9 are installed.

Wenn insbesondere beispielsweise das Fahrzeug 9 gestoppt wird, bevor es bewegt wird, oder es sich in einem Zustand befindet (Zustand in welchem ein Fahren gestartet wird), in welchem das Fahrzeug 9 mit einer sehr geringen Geschwindigkeit aufgrund eines Kriechphänomens oder dergleichen bewegt wird, dann kann das Fahrzeug 9 zu verschieden Positionen in Abhängigkeit von einem Lenkwinkel bewegt werden. Somit wird berücksichtigt, dass es mit den Nahfeldkameras 81, welche einen relativ breiten Sichtwinkel aufweisen, um ein Nahfeld oder dergleichen in geeigneter Weise aufnehmen zu können, erforderlich ist, die gesamte Umgebung des vorliegenden Fahrzeugs zu überwachen.Specifically, for example, when the vehicle 9 is stopped before moving or is in a state (state in which driving is started) in which the vehicle 9 is moving at a very low speed due to a creeping phenomenon or the like The vehicle 9 can be moved to different positions depending on a steering angle. Thus, it is taken into account that with the near-field cameras 81, which have a relatively wide viewing angle in order to be able to appropriately record a near-field or the like, it is necessary to monitor the entire surroundings of the present vehicle.

Somit umfassen die Kameras 8 gemäß einigen in 2 gezeigten Ausführungsbeispielen eine oder mehrere der Kameras 8 (in 2 die vier Nahfeldkameras 81) zum Aufnehmen der Umgebung des Fahrzeugs 9. Die vorstehend beschriebenen Schwellenwerte L, welche mit der Fahrzeuggeschwindigkeit V verglichen werden, umfassen den ersten Schwellenwert L1. In diesem Fall kann der Prozessor 3, wie in 4 gezeigt, wenn die Fahrzeuggeschwindigkeit V kleiner als der erste Schwellenwert L1 ist (V < L1), die Puffer 2 auswählen, in welchen die Bilddaten G akkumuliert sind, die mit der einen oder den mehreren der Kameras 8 zum Aufnehmen der gesamten Umgebung des Fahrzeugs aufgenommen worden sind.Thus, the cameras include 8 according to some in 2 shown embodiments one or more of the cameras 8 (in 2 the four near-field cameras 81) for recording the surroundings of the vehicle 9. The threshold values L described above, which are compared with the vehicle speed V, include the first threshold value L1. In this case, the processor 3, as in 4 shown, when the vehicle speed V is less than the first threshold value L1 (V < L1), the buffers 2 select in which the image data G is accumulated, which is recorded with the one or more of the cameras 8 for recording the entire surroundings of the vehicle have been.

Wenn gemäß dem in 4 gezeigten Ausführungsbeispiel in Schritt S2 V < L1 gilt, dann wird in Schritt S3, wie in 5 gezeigt, eine Außenumgebungserkennung durch die Bildverarbeitung auf den Bilddaten G der Nahfeldkameras 81 durchgeführt. Anders ausgedrückt, der Prozessor 3 stellt als das Auswahlziel die vier Puffer 2 (2a bis 2d) ein, in welchen die Bilddaten G akkumuliert sind, die von den vier Nahfeldkameras 81 einzeln eingegeben worden sind. Hier kann beispielsweise, obwohl die Reihenfolge, in welcher die Puffer 2 des Auswahlziels ausgewählt werden, beliebig ist, die Auswahl, wie in 5 gezeigt, durchgeführt werden. Da gemäß dem in 5 gezeigten Ausführungsbeispiel der Prozessor 3 die Bildverarbeitung auf den durch Aufnehmen mit den Nahfeldkameras 81 erhaltenen Bilddaten G in der Reihenfolge einer ersten Nahfeldkamera 81a (die Vorderseite des Fahrzeugs 9), einer zweiten Nahfeldkamera 81b (die rechte Seite des Fahrzeugs 9), einer dritten Nahfeldkamera 81c (die Rückseite des Fahrzeugs 9), und einer vierten Nahfeldkamera 81d (die linke Seite des Fahrzeugs 9) durchführt (s. Schritte S31 bis S34 in 5), werden die Teile von Bilddaten G sequenziell akquiriert, während die Puffer 2 in der Reihenfolge eines ersten Puffers 2a, eines zweiten Puffers 2b, eines dritten Puffers 2c, eines vierten Puffers 2d, des ersten Puffers 2a, ... ausgewählt werden.If according to the in 4 shown embodiment in step S2 V < L1 applies, then in step S3, as in 5 shown, external environment detection is carried out by image processing on the image data G of the near-field cameras 81. In other words, the processor 3 sets as the selection target the four buffers 2 (2a to 2d) in which the image data G inputted from the four near-field cameras 81 one by one are accumulated. Here, for example, although the order in which the buffers 2 of the selection target are selected is arbitrary, the selection as in 5 shown, carried out. Since according to the in 5 In the exemplary embodiment shown, the processor 3 performs image processing on the image data G obtained by recording with the near-field cameras 81 in the order of a first near-field camera 81a (the front of the vehicle 9), a second near-field camera 81b (the right side of the vehicle 9), a third near-field camera 81c (the rear of the vehicle 9), and a fourth near-field camera 81d (the left side of the vehicle 9) (see steps S31 to S34 in 5 ), the pieces of image data G are acquired sequentially while selecting the buffers 2 in the order of a first buffer 2a, a second buffer 2b, a third buffer 2c, a fourth buffer 2d, the first buffer 2a, ....

Wie in dem in 1 gezeigten Ausführungsbeispiel wird zum Erhalten der gesamten Umgebung die Anzahl an Kameras, die auf das Ziel für die Bildverarbeitung eingestellt sind, wahrscheinlicher erhöht. Wenn somit die Bilder der Kameras 8 sequenziell eines nach dem anderen umgeschaltet werden, und dann die Bildverarbeitung durchgeführt wird, wenn die Anzahl an Kameras 8 erhöht ist, dann wird der Verarbeitungszyklus der Bilddaten G in den einzelnen Kameras 8 (einzelne Puffer 2) verlängert. Da allerdings das Fahrzeug 9 mit einer sehr geringen Geschwindigkeit bewegt wird, kann die Bildverarbeitung auf den mit den einzelnen Kameras 8 aufgenommenen Bildern durchgeführt werden, solange die Bildverarbeitung als die Fahrunterstützung für das Fahrzeug 9 zugelassen (nicht problematisch) ist.As in the in 1 In the embodiment shown, in order to obtain the entire environment, the number of cameras tuned to the target for image processing is more likely to be increased. Thus, if the images of the cameras 8 are sequentially switched one by one and then the image processing is performed when the number of cameras 8 is increased, the processing cycle of the image data G in the individual cameras 8 (individual buffers 2) is lengthened. However, since the vehicle 9 is moving at a very low speed, the image processing can be carried out on the images recorded with the individual cameras 8 as long as the image processing is permitted (not problematic) as driving support for the vehicle 9.

Es wird berücksichtigt, dass sogar wenn die Fahrzeuggeschwindigkeit V gleich oder größer als der erste Schwellenwert L1 ist, beispielsweise in einem Zustand (Niedriggeschwindigkeitsfahrzustand), in welchem das Fahrzeug 9 in einer Lateralrichtung mit Bezug auf die Fahrtrichtung in Abhängigkeit von dem Lenkwinkel schnell bewegt werden kann, es erforderlich ist, die Nahfeldkameras 81 und dergleichen zu verwenden, um ein breites Gebiet in der Fahrtrichtung des vorliegenden Fahrzeugs zu überwachen.It is considered that even when the vehicle speed V is equal to or greater than the first threshold L1, for example, in a state (low-speed traveling state) in which the vehicle 9 can be quickly moved in a lateral direction with respect to the traveling direction depending on the steering angle , it is necessary to use the near-field cameras 81 and the like to monitor a wide area in the traveling direction of the present vehicle.

Somit umfassen gemäß einigen anderen Ausführungsbeispielen, wie in 2 gezeigt, die Kameras 8 zumindest die Kameras 8 (in 2 sind die beiden Nahfeldkameras 81 an der Vorder- und der Rückseite des Fahrzeugs 9 installiert) zum einzelnen Aufnehmen eines Gebiets vor dem Fahrzeug 9 und eines Gebiets hinter dem Fahrzeug 9. Die Zustandsinformationen S des Fahrzeugs 9 umfassen ferner die Schaltposition Sp des Getriebes des Fahrzeugs 9. Die vorstehend beschriebenen Schwellenwerte L, welche mit der Fahrzeuggeschwindigkeit V verglichen werden, umfassen den ersten Schwellenwert L1 und den zweiten Schwellenwert L2, welcher größer als der erste Schwellenwert L1 ist. Wenn in diesem Fall, wie in 4 und 6 gezeigt, die Fahrzeuggeschwindigkeit V gleich oder größer als der erste Schwellenwert L1 und kleiner als der zweite Schwellenwert L2 ist (L1 ≤ V < L2), und die Schaltposition Sp eine Vorwärtsbewegung anzeigt, dann kann der Prozessor 3 den Puffer 2 auswählen, in welchem die Bilddaten G akkumuliert sind, die mit der Kamera 8 (in 2 die erste Nahfeldkamera 81a) zum Aufnehmen des Gebiets vor dem Fahrzeug 9 aufgenommen worden sind, wohingegen wenn die Schaltposition Sp eine Rückwärtsbewegung anzeigt, der Prozessor 3 den Puffer 2 auswählen kann, in welchem die Bilddaten G akkumuliert sind, die mit der Kamera 8 (in 2 die dritte Nahfeldkamera 81c) zum Aufnehmen des Gebiets hinter dem Fahrzeug 9 aufgenommen worden sind.Thus, according to some other embodiments, such as in 2 shown, the cameras 8 at least the cameras 8 (in 2 the two near-field cameras 81 are installed on the front and rear of the vehicle 9) for individually recording an area in front of the vehicle 9 and an area behind the vehicle 9. The status information S of the vehicle 9 further includes the switching position Sp of the transmission of the vehicle 9 The threshold values L described above, which are compared with the vehicle speed V, include the first threshold value L1 and the second threshold value L2, which is greater than the first threshold value L1. If in this case, as in 4 and 6 shown, the vehicle speed V is equal to or greater than the first threshold L1 and less than the second threshold L2 (L1 ≤ V < L2), and the switching position Sp indicates forward movement, then the processor 3 can select the buffer 2 in which the Image data G is accumulated with the camera 8 (in 2 the first near-field camera 81a) has been recorded for recording the area in front of the vehicle 9, whereas when the switch position Sp indicates a backward movement, the processor 3 can select the buffer 2 in which the image data G obtained with the camera 8 (in 2 the third near-field camera 81c) has been recorded for recording the area behind the vehicle 9.

Wenn gemäß dem in 4 gezeigten Ausführungsbeispiel in dem vorstehend beschriebenen Schritt S2 eine Beziehung V < L1 nicht gilt und in dem folgenden Schritt S4 L1 ≤ V < L2 gilt, dann wird in Schritt S5 die Außenumgebungserkennung, welche von der in dem vorstehend beschriebenen Schritt S3 verschieden ist, durch die Bildverarbeitung auf den Bilddaten G der Nahfeldkameras 81 durchgeführt. Wie insbesondere in 6 gezeigt, überprüft der Prozessor 3 (Auswahlzielpuffer-Bestimmungsabschnitt 71) in Schritt S61 die Schaltposition Sp. Dann wird, wenn die Schaltposition Sp die Vorwärtsbewegung anzeigt, in Schritt S62 der erste Puffer 2a, in welchem die Bilddaten G der ersten Nahfeldkamera 81a zum Aufnehmen eines Nahfeldgebiets vor dem Fahrzeug 9 akkumuliert sind, auf das Auswahlziel eingestellt. Wenn im Gegensatz dazu die Schaltposition Sp die Rückwärtsbewegung anzeigt, dann wird in Schritt S63 der dritte Puffer 2c, in welchem die Bilddaten G der dritten Nahfeldkamera 81c zum Aufnehmen eines Nahfeldgebiets hinter dem Fahrzeug 9 akkumuliert sind, auf das Auswahlziel eingestellt.If according to the in 4 In the exemplary embodiment shown in the above-described step S2, a relationship V < L1 does not apply and in the following step S4 L1 ≤ V < L2 applies, then in step S5 the external environment detection, which is different from that in the above-described step S3, is carried out by the Image processing is carried out on the image data G of the near-field cameras 81. Like in particular 6 shown, the processor 3 (selection target buffer determining section 71) checks the switching position Sp in step S61. Then, if the switching position Sp indicates the forward movement, in step S62 the first buffer 2a in which the image data G of the first near-field camera 81a for shooting a Near field area in front of the vehicle 9 are accumulated, set to the selection target. If in On the contrary, the switch position Sp indicates the backward movement, then in step S63, the third buffer 2c in which the image data G of the third near-field camera 81c for shooting a near-field area behind the vehicle 9 is accumulated is set to the selection target.

Im Gegensatz dazu wird in einem Fahrzustand, in welchem die Fahrzeuggeschwindigkeit relativ so hoch ist, dass das Fahrzeug durch Lenken nicht schnell in einer Richtung abbiegen kann, die für eine Rückkopplung zulässige Zeit (z.B. automatisches Bremsen in dem Fahrzeug 9 oder eine Warnung an den Fahrer) von der Umgebungserkennung (die Erfassung einer Person und eines Artikels) durch die Bildverarbeitung zu dem Fahrer des Fahrzeugs 9 oder dergleichen weiter verkürzt. Somit wird berücksichtigt, dass ein entferntes Gebiet von dem Fahrzeug 9 überwacht wird, und dass es somit erforderlich ist, ein Ziel (eine Person und einen Artikel) in einem entfernten Gebiet früher zu erfassen.In contrast, in a driving state in which the vehicle speed is relatively so high that the vehicle cannot quickly turn in one direction by steering, the time allowed for feedback (e.g. automatic braking in the vehicle 9 or a warning to the driver). ) from the environmental recognition (the detection of a person and an article) through the image processing to the driver of the vehicle 9 or the like is further shortened. Thus, it is considered that a remote area is being monitored by the vehicle 9, and thus it is necessary to detect a target (a person and an article) in a remote area earlier.

Somit umfassen gemäß einigen Ausführungsbeispielen, wie in 2 gezeigt, die Kameras 8: die Fernfeldkameras 82 zum Aufnehmen eines Fernfeldgebiets in der Fahrtrichtung des Fahrzeugs 9; und die Nahfeldkameras 81, welche das Nahfeldgebiet in der Fahrtrichtung des Fahrzeugs 9 aufnehmen, und welche einen breiteren Sichtwinkel als die Fernfeldkameras 82 aufweisen. Die vorstehend beschriebenen Schwellenwerte L, welche mit der Fahrzeuggeschwindigkeit V verglichen werden, umfassen den zweiten Schwellenwert L2. Wie in 4 und 7 gezeigt, kann der Prozessor 3 die Puffer 2 (2e und 2f in 1), in welchen die Bilddaten G akkumuliert sind, die mit den Fernfeldkameras 82 aufgenommen worden sind, auswählen, wenn die Fahrzeuggeschwindigkeit V gleich oder größer als der zweite Schwellenwert L2 ist, wohingegen wenn die Fahrzeuggeschwindigkeit V kleiner als der zweite Schwellenwert L2 ist, der Prozessor 3 die Puffer 2 (2a bis 2d in 1) auswählen kann, in welchen die Bilddaten G akkumuliert sind, die mit den Nahfeldkameras 81 aufgenommen worden sind.Thus, according to some embodiments, such as in 2 shown, the cameras 8: the far-field cameras 82 for recording a far-field area in the direction of travel of the vehicle 9; and the near-field cameras 81, which record the near-field area in the direction of travel of the vehicle 9, and which have a wider viewing angle than the far-field cameras 82. The threshold values L described above, which are compared with the vehicle speed V, include the second threshold value L2. As in 4 and 7 shown, processor 3 can use buffers 2 (2e and 2f in 1 ), in which the image data G accumulated with the far-field cameras 82 are accumulated, select when the vehicle speed V is equal to or greater than the second threshold L2, whereas when the vehicle speed V is less than the second threshold L2, the processor 3 the buffers 2 (2a to 2d in 1 ) can select in which the image data G that was recorded with the near-field cameras 81 is accumulated.

Wenn gemäß dem in 4 gezeigten Ausführungsbeispiel in dem vorstehend beschriebenen Schritt S4 eine Beziehung von V < L2 nicht gilt und in dem folgenden Schritt S6 L2 ≤ V < L3 (oder L2 ≤ V) gilt, dann wird in Schritt S7 die Außenumgebungserkennung durch die Bildverarbeitung auf den Bilddaten G der Fernfeldkameras 82 durchgeführt. Wie insbesondere in 7 gezeigt, überprüft der Prozessor 3 (Auswahlzielpuffer-Bestimmungsabschnitt 71) in Schritt S71 die Schaltposition Sp. Dann stellt der Prozessor 3 (derselbe wie vorstehend beschrieben), wenn die Schaltposition Sp die Vorwärtsbewegung anzeigt, in Schritt S72 den fünften Puffer 2e als das Auswahlziel ein, in welchem die Bilddaten G der ersten Fernfeldkamera 82a zum Aufnehmen des Fernfeldgebiets vor dem Fahrzeug 9 akkumuliert sind. Wenn im Gegensatz dazu die Schaltposition Sp die Rückwärtsbewegung anzeigt, dann stellt der Prozessor 3 in Schritt S73 den sechsten Puffer 2f als das Auswahlziel ein, in welchem die Bilddaten G der zweiten Fernfeldkamera 82b zum Aufnehmen eines Fernfeldgebiets hinter dem Fahrzeug 9 akkumuliert sind.If according to the in 4 In the exemplary embodiment shown in step S4 described above, a relationship of V < L2 does not apply and in the following step S6 L2 ≤ V < L3 (or L2 ≤ V) applies, then in step S7 the external environment recognition is carried out by image processing on the image data G Far-field cameras 82 carried out. Like in particular 7 As shown, the processor 3 (selection target buffer determining section 71) checks the switching position Sp in step S71. Then, when the switching position Sp indicates the forward movement, the processor 3 (the same as described above) sets the fifth buffer 2e as the selection target in step S72 , in which the image data G of the first far-field camera 82a for recording the far-field area in front of the vehicle 9 are accumulated. In contrast, if the switch position Sp indicates the backward movement, then the processor 3 sets the sixth buffer 2f as the selection target in which the image data G of the second far-field camera 82b for shooting a far-field area behind the vehicle 9 is accumulated in step S73.

Gemäß der vorstehend beschriebenen Konfiguration führt der Prozessor 3 basierend auf dem Vergleich der Fahrzeuggeschwindigkeit V und der Schwellenwerte L eine Auswahl durch, indem beispielsweise die Puffer 2 bestimmt werden, welche auf das Ziel für die Bildverarbeitung eingestellt sind. Wie vorstehend beschrieben, werden die Kameras 8 (Puffer 2), welche auf das Ziel für die Bildverarbeitung eingestellt sind, durch die Beziehung zu der Fahrzeuggeschwindigkeit V ausgewählt, und somit kann sogar der Prozessor 3, dessen Verarbeitungsfähigkeit relativ gering ist, die Fahrunterstützung für das Fahrzeug durch die Umgebungserkennung unter Verwendung der Kameras in einer zufriedenstellenden Art und Weise in Echtzeit durchführen.According to the configuration described above, the processor 3 performs selection based on the comparison of the vehicle speed V and the threshold values L, for example, determining the buffers 2 which are set to the target for image processing. As described above, the cameras 8 (buffers 2) set to the target for image processing are selected by the relationship with the vehicle speed V, and thus even the processor 3, whose processing capability is relatively low, can provide driving assistance for that Vehicle through environment detection using the cameras in a satisfactory manner in real time.

Gemäß einigen Ausführungsbeispielen können, wie in 8 und 9 gezeigt, die vorstehend beschriebenen Schwellenwerte L, welche mit der Fahrzeuggeschwindigkeit V verglichen werden, einen Umschaltbeginn-Schwellenwert Ls und einen Umschaltbeendigungs-Schwellenwert Le umfassen, bei welchem eine Differenz mit dem Umschaltbeginn-Schwellenwert Ls einen ersten Wert W darstellt. Wenn in diesem Fall die Fahrzeuggeschwindigkeit V zwischen dem Umschaltbeginn-Schwellenwert Ls und dem Umschaltbeendigungs-Schwellenwert Le liegt, dann kann der Prozessor 3 die auszuwählenden Puffer 2 derart umschalten, dass, wenn sich die Fahrzeuggeschwindigkeit V dem Umschaltbeendigungs-Schwellenwert Le von dem Umschaltbeginn-Schwellenwert Ls annähert, eine vorbestimmte Anzahl an Teilen von Bilddaten G, auf welchen die Bildverarbeitung pro Einheitszeit durchgeführt wird, bevor die Fahrzeuggeschwindigkeit V den Umschaltbeginn-Schwellenwert Ls erreicht, mit der vorbestimmten Anzahl an Teilen von Bilddaten G ersetzt wird, nachdem die Fahrzeuggeschwindigkeit V den Umschaltbeendigungs-Schwellenwert Le erreicht hat. Anders ausgedrückt, ein Verhältnis der Kamera 8 (in 8 die erste Nahfeldkamera 81a), deren Priorität (Wichtigkeit) hoch ist, wird gemäß der Fahrzeuggeschwindigkeit V graduell erhöht.According to some embodiments, as in 8th and 9 shown, the above-described threshold values L, which are compared with the vehicle speed V, include a switching start threshold Ls and a switching completion threshold Le, in which a difference with the switching start threshold Ls represents a first value W. In this case, if the vehicle speed V is between the switching start threshold Ls and the switching completion threshold Le, then the processor 3 can switch the buffers 2 to be selected such that when the vehicle speed V is at the switching completion threshold Le from the switching start threshold Ls approximates, a predetermined number of pieces of image data G on which the image processing is performed per unit time before the vehicle speed V reaches the switching start threshold Ls is replaced with the predetermined number of pieces of image data G after the vehicle speed V reaches the switching completion -Threshold Le has been reached. In other words, a ratio of the camera 8 (in 8th the first near-field camera 81a), whose priority (importance) is high, is gradually increased according to the vehicle speed V.

Wenn die Kameras 8 (Puffer 2), welche auf das Ziel für die Bildverarbeitung des Prozessors 3 eingestellt sind, bei einem vorbestimmten Schwellenwert L (der erste Schwellenwert L1 oder der zweite Schwellenwert L2) genau umgeschaltet werden, falls beispielsweise die von dem Fahrzeug 9 erhaltene Fahrzeuggeschwindigkeit V einen Fehler umfasst, dann werden geeignete Puffer 2 korrespondierend zu der Fahrzeuggeschwindigkeit V nicht um den Schwellenwert L herum ausgewählt, mit dem Ergebnis, dass die geeignete Umgebungserkennung wahrscheinlich nicht durchgeführt wird. Somit werden gemäß dem vorliegenden Ausführungsbeispiel die Puffer 2, welche auf das Auswahlziel eingestellt sind, graduell umgeschaltet.When the cameras 8 (buffers 2) set to the target for the image processing of the processor 3 are accurately switched at a predetermined threshold L (the first threshold L1 or the second threshold L2), for example, that obtained from the vehicle 9 Vehicle speed V an error then appropriate buffers 2 corresponding to the vehicle speed V are not selected around the threshold L, with the result that the appropriate environment detection is unlikely to be performed. Thus, according to the present embodiment, the buffers 2 set to the selection target are gradually switched.

Da hier der Prozessor 3 die Bildverarbeitung auf der vorbestimmten Anzahl an Teilen von Bilddaten G pro Einheitszeit durchführt, wird die vorbestimmte Anzahl an Teilen von Bilddaten G mit Bilddaten G ausgebildet, die von einem oder mehreren Puffern 2 des Auswahlziels akquiriert sind. Der Umschaltbeginn-Schwellenwert Ls ist der Schwellenwert L, welcher eine Möglichkeit bietet, einen Teil der Puffer 2, die die vorbestimmten Teile von Bilddaten G akquirieren, zu einem des einen oder der mehreren Puffer 2, die durch den Prozessor 3 ausgewählt sind, umzuschalten, wenn die Fahrzeuggeschwindigkeit V den Umschaltbeendigungs-Schwellenwert Le erreicht. Der Umschaltbeendigungs-Schwellenwert Le ist beispielsweise der erste Schwellenwert L1 oder der zweite Schwellenwert L2, die vorstehend beschrieben sind, und der Umschaltbeginn-Schwellenwert Ls ist ein Wert, der durch Erhöhen oder Verringern des Umschaltbeendigungs-Schwellenwert Le lediglich um den ersten Wert W erhalten ist. Wenn insbesondere beispielweise der Umschaltbeendigungs-Schwellenwert Le der vorstehend beschriebene erste Schwellenwert L1 ist, dann beträgt der Umschaltbeginn-Schwellenwert Ls Le+W (wobei Le+W < L2) oder Le-W. Wenn beispielsweise der Umschaltbeendigungs-Schwellenwert Le der vorstehend beschriebene zweite Schwellenwert L2 ist, dann beträgt der Umschaltbeginn-Schwellenwert Ls Le+W oder Le-W (wobei Le-W > L1). Zwischen dem Umschaltbeginn-Schwellenwert Ls und dem Umschaltbeendigungs-Schwellenwert Le kann ferner, wie in 8 und 9 gezeigt, einer oder mehrere Schwellenwerte (schrittweiser Schwellenwert Lm) vorgesehen sein, sodass das vorstehend beschriebene Umschalten eher Schrittweise durchgeführt wird.Here, since the processor 3 performs image processing on the predetermined number of pieces of image data G per unit time, the predetermined number of pieces of image data G is formed with image data G acquired from one or more buffers 2 of the selection target. The switching start threshold Ls is the threshold L which provides an opportunity to switch a part of the buffers 2 that acquire the predetermined parts of image data G to one of the one or more buffers 2 selected by the processor 3, when the vehicle speed V reaches the switching completion threshold Le. The switching completion threshold Le is, for example, the first threshold L1 or the second threshold L2 described above, and the switching start threshold Ls is a value obtained by increasing or decreasing the switching completion threshold Le only by the first value W . In particular, for example, if the switching completion threshold Le is the first threshold L1 described above, then the switching start threshold Ls is Le+W (where Le+W < L2) or Le-W. For example, if the switching completion threshold Le is the second threshold L2 described above, then the switching start threshold Ls is Le+W or Le-W (where Le-W > L1). Between the switching start threshold Ls and the switching completion threshold Le can also be made, as in 8th and 9 shown, one or more threshold values (stepwise threshold value Lm) may be provided, so that the switching described above is carried out more gradually.

Gemäß dem in 8 gezeigten Ausführungsbeispiel ist der Umschaltbeendigungs-Schwellenwert Le der vorstehend beschriebene erste Schwellenwert L1, und der Umschaltbeginn-Schwellenwert Ls ist ein Wert, der durch Verringern des ersten Schwellenwerts L1 lediglich um den ersten Wert W erhalten ist (Ls=Le-W). Wenn in diesem Fall gemäß dem in 1 bis 3 gezeigten Ausführungsbeispiel die Fahrzeuggeschwindigkeit V kleiner als der erste Schwellenwert L1 (Le) ist, dann wählt der Prozessor 3 die vier Puffer 2 (2a bis 2d) korrespondierend zu den vier Nahfeldkameras 81 (s. 5) sequenziell aus, wohingegen wenn die Fahrzeuggeschwindigkeit V gleich oder größer als der erste Schwellenwert L1 ist, der Prozessor 3 lediglich den ersten Puffer 2a korrespondierend zu der ersten Nahfeldkamera 81a auswählt, welche das Gebiet vor dem Fahrzeug 9 aufnimmt (s. 6).According to the in 8th In the embodiment shown, the switching completion threshold Le is the first threshold L1 described above, and the switching start threshold Ls is a value obtained by reducing the first threshold L1 only by the first value W (Ls=Le-W). If in this case, according to in 1 until 3 In the exemplary embodiment shown, the vehicle speed V is less than the first threshold value L1 (Le), then the processor 3 selects the four buffers 2 (2a to 2d) corresponding to the four near-field cameras 81 (see. 5 ) sequentially, whereas if the vehicle speed V is equal to or greater than the first threshold L1, the processor 3 only selects the first buffer 2a corresponding to the first near-field camera 81a, which records the area in front of the vehicle 9 (see Fig. 6 ).

Wenn somit in einem Fall, in welchem die Schaltposition Sp die Vorwärtsbewegung anzeigt und die Fahrzeuggeschwindigkeit V von Null sequenziell erhöht wird, die Fahrzeuggeschwindigkeit V kleiner als der Umschaltbeginn-Schwellenwert Ls ist (V < Ls), dann wählt der Prozessor 3 (Bilddaten-Akquirierungsabschnitt 72) den ersten Puffer 2a, den zweiten Puffer 2b, den dritten Puffer 2c und den vierten Puffer 2d sequenziell aus, kehrt danach zu dem ersten Puffer 2a erneut zurück, und führt wiederholt die Auswahl in derselben Reihenfolge durch. Wenn danach die Fahrzeuggeschwindigkeit V den Umschaltbeginn-Schwellenwert Ls erreicht, dann ersetzt der Prozessor 3 (derselbe wie vorstehend beschrieben) zumindest einen des zweiten Puffers 2b, des dritten Puffers 2c und des vierten Puffers 2d unter den Puffern 2 (2a bis 2d), welche bislang in dem Auswahlziel enthalten sind, mit dem ersten Puffer 2a.Thus, in a case where the shift position Sp indicates the forward movement and the vehicle speed V is sequentially increased from zero, the vehicle speed V is smaller than the shift start threshold Ls (V < Ls), then the processor selects 3 (image data acquisition section 72) selects the first buffer 2a, the second buffer 2b, the third buffer 2c and the fourth buffer 2d sequentially, then returns to the first buffer 2a again and repeatedly performs the selection in the same order. Thereafter, when the vehicle speed V reaches the switching start threshold Ls, then the processor 3 (the same as described above) replaces at least one of the second buffer 2b, the third buffer 2c and the fourth buffer 2d among the buffers 2 (2a to 2d), which have so far been included in the selection target, with the first buffer 2a.

Wenn hier die Fahrzeuggeschwindigkeit V, wie in 8 gezeigt, den Umschaltbeginn-Schwellenwert Ls erreicht, dann kann der Prozessor 3 die Kamera 8 (in 8 die erste Nahfeldkamera 81a zum Aufnehmen des vorausliegendes Gebiets) korrespondierend zu dem Puffer 2 (in 8 lediglich der erste Puffer 2a), welcher ausgewählt werden muss, wenn die Fahrzeuggeschwindigkeit V den Umschaltbeendigungs-Schwellenwert Le erreicht, und den Puffer 2 (in 8 der dritte Puffer 2c) korrespondierend zu der Kamera 8 (in 8 die dritte Nahfeldkamera 81c zum Aufnehmen des zurückliegendes Gebiets), welche am wenigsten mit der Aufnahmerichtung verknüpft ist, umschalten.If here the vehicle speed V, as in 8th shown, the switching start threshold Ls is reached, then the processor 3 can control the camera 8 (in 8th the first near-field camera 81a for recording the area ahead) corresponding to the buffer 2 (in 8th only the first buffer 2a), which must be selected when the vehicle speed V reaches the switching completion threshold Le, and the buffer 2 (in 8th the third buffer 2c) corresponding to the camera 8 (in 8th the third near-field camera 81c for recording the area behind), which is least linked to the recording direction, switch.

Gemäß dem in 8 gezeigten Ausführungsbeispiel schaltet der Prozessor 3 den dritten Puffer 2c korrespondierend zu der dritten Nahfeldkamera 81c zum Aufnehmen des Gebiets hinter dem Fahrzeug 9 zu dem ersten Puffer 2a um. Anders ausgedrückt, wenn die Fahrzeuggeschwindigkeit V den Umschaltbeendigungs-Schwellenwert Le (erster Schwellenwert L1) erreicht, da ein Zustand, in welchem die Bilddaten G in den vier Richtungen der Vorderseite, der Rückseite, der linken Seite und der rechten Seite des Fahrzeugs 9 bislang auf das Ziel für die Bildverarbeitung eingestellt worden sind, zu einem Zustand geändert worden ist, in welchem lediglich das vorausliegende Gebiet überwacht wird, und somit die Rückwärtsrichtung entgegengesetzt zu der Vorwärtsrichtung ist, dann sind die Bilddaten G in der Rückwärtsrichtung die am wenigsten Wichtigen unter der linken Seite, der rechten Seite und der Rückseite des Fahrzeugs 9. Wenn somit die Fahrzeuggeschwindigkeit V den Umschaltbeginn-Schwellenwert Ls erreicht, dann schaltet der Prozessor 3 den dritten Puffer 2c um.According to the in 8th In the exemplary embodiment shown, the processor 3 switches the third buffer 2c corresponding to the third near-field camera 81c for recording the area behind the vehicle 9 to the first buffer 2a. In other words, when the vehicle speed V reaches the switching completion threshold Le (first threshold L1), a state in which the image data G in the four directions of the front, rear, left side and right side of the vehicle 9 has hitherto occurred the target for image processing has been set has been changed to a state in which only the area ahead is monitored, and thus the backward direction is opposite to the forward direction, then the image data G in the backward direction is the least important among the left side, the right side and the rear of the vehicle 9. If the vehicle speed V reaches the start of the switchover Threshold Ls is reached, then the processor 3 switches the third buffer 2c.

Gemäß dem in 8 gezeigten Ausführungsbeispiel ist der schrittweise Schwellenwert Lm zwischen dem Umschaltbeginn-Schwellenwert Ls und dem Umschaltbeendigungs-Schwellenwert Le vorgesehen, und wenn die Fahrzeuggeschwindigkeit V von dem Umschaltbeginn-Schwellenwert Ls erhöht wird, um den schrittweise Schwellenwert Lm zu erreichen (V = Lm), dann wird der zweite Puffer 2b korrespondierend zu der zweiten Nahfeldkamera 81b zum Aufnehmen eines Gebiets an der rechten Seite des Fahrzeugs 9 zu dem ersten Puffer 2a umgeschaltet. Dann schaltet der Prozessor 3, wenn die Fahrzeuggeschwindigkeit V weiter erhöht wird, um den Umschaltbeendigungs-Schwellenwert Le zu erreichen (V = Le), den vierten Puffer 2d korrespondierend zu der vierten Nahfeldkamera 81d zum Aufnehmen eines Gebiets an der linken Seite des Fahrzeugs 9 zu dem ersten Puffer 2a um. Auf diese Weise stellt der Prozessor 3 bei dem ersten Schwellenwert L1 den ersten Puffer 2a korrespondierend zu der ersten Nahfeldkamera 81a auf das Auswahlziel ein, um die Bildverarbeitung durchzuführen. Somit wird das Verhältnis der Kamera 8 (in 8 die erste Nahfeldkamera 81a), deren Wichtigkeit hoch ist, gemäß der Fahrzeuggeschwindigkeit V graduell erhöht.According to the in 8th In the embodiment shown, the stepwise threshold Lm is provided between the shift start threshold Ls and the shift completion threshold Le, and when the vehicle speed V is increased from the shift start threshold Ls to reach the stepwise threshold Lm (V = Lm), then the second buffer 2b corresponding to the second near-field camera 81b for recording an area on the right side of the vehicle 9 is switched to the first buffer 2a. Then, when the vehicle speed V is further increased to reach the switching completion threshold Le (V = Le), the processor 3 switches the fourth buffer 2d corresponding to the fourth near-field camera 81d for shooting an area on the left side of the vehicle 9 the first buffer 2a. In this way, at the first threshold L1, the processor 3 sets the first buffer 2a corresponding to the first near-field camera 81a to the selection target to perform image processing. Thus the ratio of the camera becomes 8 (in 8th the first near-field camera 81a), whose importance is high, is gradually increased according to the vehicle speed V.

Andererseits ist der Umschaltbeendigungs-Schwellenwert Le gemäß dem in 9 gezeigten Ausführungsbeispiel der vorstehend beschriebene zweite Schwellenwert L2, und der Umschaltbeginn-Schwellenwert Ls ist ein Wert, der durch Verringern des zweiten Schwellenwerts L2 lediglich um den ersten Wert W erhalten ist (Ls=Le-W). In diesem Fall wählt der Prozessor 3 gemäß dem in 1 bis 3 gezeigten Ausführungsbeispiel, wie vorstehend beschrieben, wenn die Fahrzeuggeschwindigkeit V gleich oder größer als der erste Schwellenwert L1 und kleiner als der zweite Schwellenwert L2 ist, lediglich den ersten Puffer 2a korrespondierend zu der ersten Nahfeldkamera 81a zum Aufnehmen des Gebiets vor dem Fahrzeug 9 aus (s. 6), wohingegen wenn die Fahrzeuggeschwindigkeit V gleich oder größer als der zweite Schwellenwert L2 ist, der Prozessor 3 lediglich den fünften Puffer 2e korrespondierend zu der ersten Fernfeldkamera 82a zum Aufnehmen des Gebiets vor dem Fahrzeug 9 auswählt (s. 7).On the other hand, the switching completion threshold Le is according to FIG 9 In the embodiment shown, the above-described second threshold L2, and the switching start threshold Ls is a value obtained by reducing the second threshold L2 only by the first value W (Ls=Le-W). In this case, the processor selects 3 according to in 1 until 3 shown embodiment, as described above, when the vehicle speed V is equal to or greater than the first threshold value L1 and less than the second threshold value L2, only the first buffer 2a corresponding to the first near-field camera 81a for recording the area in front of the vehicle 9 (see . 6 ), whereas when the vehicle speed V is equal to or greater than the second threshold L2, the processor 3 only selects the fifth buffer 2e corresponding to the first far-field camera 82a for recording the area in front of the vehicle 9 (see Fig. 7 ).

Somit wählt der Prozessor 3 lediglich den ersten Puffer 2a aus, in einem Fall, in welchem die Schaltposition Sp die Vorwärtsbewegung anzeigt und die Fahrzeuggeschwindigkeit V von dem ersten Schwellenwert L1 sequenziell erhöht wird, wenn die Fahrzeuggeschwindigkeit V kleiner als der Umschaltbeginn-Schwellenwert Ls ist (V < Ls). Danach umfasst (addiert) der Prozessor 3 den fünften Puffer 2e in das gegenwärtige Auswahlziel und verringert die Auswahlfrequenz des ersten Puffers 2e, welcher das gegenwärtige Auswahlziel darstellt, wenn die Fahrzeuggeschwindigkeit V den Umschaltbeginn-Schwellenwert Ls erreicht. Gemäß dem in 9 gezeigten Ausführungsbeispiel wird unter drei kontinuierlichen Teilen von Bilddaten G, auf welchen die Bildverarbeitung durchgeführt wird, der erste Puffer 2a des letzten Teils von Bilddaten G mit dem fünften Puffer 2e ersetzt, und somit wird die Auswahlfrequenz des ersten Puffers 2a verringert. Wenn außerdem die Fahrzeuggeschwindigkeit V so erhöht wird, dass der schrittweise Schwellenwert Lm erreicht wird, dann werden die letzten beiden Teile unter den drei kontinuierlichen Teilen von Bilddaten G mit dem fünften Puffer 2e ersetzt. Wenn außerdem die Fahrzeuggeschwindigkeit V erhöht wird, um den Umschaltbeendigungs-Schwellenwert Le zu erreichen, dann wird lediglich der fünfte Puffer 2e ausgewählt. Auf diese Weise wird ein Verhältnis der Kamera 8 (in 9 die erste Fernfeldkamera 82a), deren Wichtigkeit hoch ist, gemäß der Fahrzeuggeschwindigkeit V graduell erhöht.Thus, the processor 3 selects only the first buffer 2a in a case where the shift position Sp indicates the forward movement and the vehicle speed V is sequentially increased from the first threshold L1 when the vehicle speed V is smaller than the shift start threshold Ls ( V < Ls). Thereafter, the processor 3 includes (adds) the fifth buffer 2e into the current selection target and reduces the selection frequency of the first buffer 2e constituting the current selection target when the vehicle speed V reaches the switching start threshold Ls. According to the in 9 In the embodiment shown, among three continuous pieces of image data G on which image processing is performed, the first buffer 2a of the last piece of image data G is replaced with the fifth buffer 2e, and thus the selection frequency of the first buffer 2a is reduced. Furthermore, when the vehicle speed V is increased so that the gradual threshold Lm is reached, the last two parts among the three continuous parts of image data G are replaced with the fifth buffer 2e. Furthermore, when the vehicle speed V is increased to reach the switching completion threshold Le, then only the fifth buffer 2e is selected. In this way, a ratio of the camera is 8 (in 9 the first far-field camera 82a), whose importance is high, is gradually increased according to the vehicle speed V.

Obwohl gemäß der vorstehenden Diskussion der Fall beschrieben worden ist, in welchem die Fahrzeuggeschwindigkeit V erhöht ist, gilt dasselbe für einen Fall, in welchem, wenn die Fahrzeuggeschwindigkeit V verringert ist, die Fahrzeuggeschwindigkeit V durch den Umschaltbeginn-Schwellenwert Ls, den schrittweise Schwellenwert Lm und den Umschaltbeendigungs-Schwellenwert Le in dieser Reihenfolge verläuft.According to the above discussion, although the case in which the vehicle speed V is increased has been described, the same applies to a case in which, when the vehicle speed V is reduced, the vehicle speed V is determined by the switching start threshold Ls, the step threshold Lm and the switching completion threshold Le runs in this order.

Gemäß der vorstehend beschriebenen Konfiguration werden die Kameras 8 (Puffer 2), welche auf das Ziel für die Bildverarbeitung des Prozessor 3 eingestellt sind, von der vorhergehenden Stufe graduell umgeschaltet, um mit den vorbestimmten Schwellenwerten L vollständig umgeschaltet zu werden (wie etwa der erste Schwellenwert L1 und der zweite Schwellenwert L2, die vorstehend beschrieben sind). Auf diese Weise kann, sogar wenn die von dem Fahrzeug 9 erhaltene Fahrzeuggeschwindigkeit V einen Fehler aufweist, die Außenumgebungserkennung bezüglich des Fahrzeugs 9 in geeigneter Weise durchgeführt werden.According to the configuration described above, the cameras 8 (buffers 2) set to the image processing target of the processor 3 are gradually switched from the previous stage to be fully switched with the predetermined threshold values L (such as the first threshold value L1 and the second threshold L2 described above). In this way, even if the vehicle speed V obtained from the vehicle 9 has an error, the external environment detection regarding the vehicle 9 can be performed appropriately.

Gemäß einigen Ausführungsbeispielen kann die Bildverarbeitungsvorrichtung 1 ferner einen Eigenschaftsinformations-Akquirierungsabschnitt 74 (Akquirierungsabschnitt) umfassen, welcher Eigenschaftsinformationen akquiriert, die eine Anweisung für die Überwachungsrichtung an einem spezifischen Ort umfassen, und der Prozessor 3 wählt den Puffer 2 basierend auf den Eigenschaftsinformationen aus. In dem Fahrzeug 9, welches sich an verschiedenen Orten fortbewegt, liegt ein Ort (spezifischer Ort) vor, an welchem die spezifische Richtung vorzugsweise in einer fokussierten Weise als die Fahrunterstützung überwacht wird, und es liegt beispielsweise ein Ort vor, an welchem Unfälle häufig auftreten, bei welchen eine Person aus der rechten Richtung hervorspringt. Somit akquiriert die Bildverarbeitungsvorrichtung 1 die vorstehend beschriebenen Eigenschaftsinformationen, um in dem Auswahlziel den Puffer 2 korrespondierend zu der Kamera 8 zum Aufnehmen eines Gebiets in der durch die Eigenschaftsinformationen angezeigten Überwachungsrichtung zu umfassen. Hier kann die Auswahlfrequenz des Puffers 2 korrespondierend zu der Kamera 8 zum Aufnehmen des Gebiets in der durch die Eigenschaftsinformationen angezeigten Überwachungsrichtung auch über die der in dem Auswahlziel enthaltenen anderen Puffer 2 erhöht werden.According to some embodiments, the image processing device 1 may further include a feature information acquisition section 74 (acquiring section) that acquires feature information including an instruction for the monitoring direction at a specific location, and the processor 3 selects the buffer 2 based on the feature information. In the vehicle 9, which travels in different places, there is a place (specific place) in which the specific direction is preferably in a focused manner as the driving assistance is monitored, and there is, for example, a place where accidents in which a person jumps out from the right direction often occur. Thus, the image processing device 1 acquires the above-described feature information to include in the selection target the buffer 2 corresponding to the camera 8 for shooting an area in the monitoring direction indicated by the feature information. Here, the selection frequency of the buffer 2 corresponding to the camera 8 for shooting the area in the monitoring direction indicated by the property information can also be increased over that of the other buffers 2 included in the selection target.

Insbesondere kann die Bildverarbeitungsvorrichtung 1 (Bildverarbeitungsprogramm) ferner, wie in 3 gezeigt, zusätzlich zu dem vorstehend beschriebenen Eigenschaftsinformations-Akquirierungsabschnitt 74 einen Positionsakquirierungsabschnitt 75 umfassen, welcher die Fahrtposition des Fahrzeugs 9 akquiriert. Gemäß dem in 3 gezeigten Ausführungsbeispiel korrespondieren die vorstehend beschriebenen Eigenschaftsinformationen zu dem spezifischen Ort, und wenn die Fahrtposition des Fahrzeugs 9 den spezifischen Ort korrespondierend zu den Eigenschaftsinformationen erreicht, dann ist der Puffer 2 korrespondierend zu der Kamera 8 zum Aufnehmen des Gebiets in der durch die Eigenschaftsinformationen angezeigten Überwachungsrichtung in dem Auswahlziel enthalten. Der Eigenschaftsinformations-Akquirierungsabschnitt 74 und der Positionsakquirierungsabschnitt 75 können durch den Betrieb des Prozessors 3 gemäß dem Befehl des Bildverarbeitungsprogramms realisiert werden, oder sie können unter Verwendung von Hardware realisiert werden. Gemäß dem in 3 gezeigten Ausführungsbeispiel wird die Anweisung für die Überwachungsrichtung in den Auswahlzielpuffer-Bestimmungsabschnitt 71 eingegeben, und somit ist der Puffer 2 korrespondierend zu der Kamera 8 zum Aufnehmen des Gebiets in der Überwachungsrichtung in dem Auswahlziel enthalten.In particular, the image processing device 1 (image processing program) can also, as in 3 shown, in addition to the above-described property information acquisition section 74, include a position acquisition section 75 which acquires the traveling position of the vehicle 9. According to the in 3 In the embodiment shown, the above-described feature information corresponds to the specific location, and when the traveling position of the vehicle 9 reaches the specific location corresponding to the feature information, then the buffer 2 corresponding to the camera 8 for recording the area in the monitoring direction indicated by the feature information is in included in the selection target. The property information acquisition section 74 and the position acquisition section 75 may be realized by the operation of the processor 3 according to the instruction of the image processing program, or they may be realized using hardware. According to the in 3 In the embodiment shown, the instruction for the surveillance direction is input to the selection target buffer designating section 71, and thus the buffer 2 corresponding to the camera 8 for shooting the area in the surveillance direction is included in the selection target.

Die Fahrtposition des Fahrzeugs 9 kann durch eine Eigenpositionserkennungstechnologie akquiriert werden, wie etwa GPS („Global Positioning System“) oder SLAM („Simultaneous Localization and Mapping“), oder die Fahrtposition (Positionsinformationen) kann von außen durch Kommunikation mit einer in einer Straße installierten Bakenstation, eine Kommunikation mit einer Basisstation in einem mobilen Kommunikationsnetzwerk, oder eine Kommunikation mit der Außenseite unter Verwendung einer drahtlosen Kommunikationstechnologie, wie etwa eine Nahfeldkommunikation unter Verwendung von RFID („Radio Frequency IDentification“) akquiriert werden. Der spezifische Ort und die Eigenschaftsinformationen sind im Voraus in der Datenbank gespeichert, und die Informationen derselben können akquiriert werden, indem eine Kommunikation mit der Außenseite nach Bedarf durchgeführt wird, oder die Bildverarbeitungsvorrichtung 1 kann diese Datenbank speichern. Alternativ kann in der Bildverarbeitungsvorrichtung 1 eine Vorrichtung, wie etwa eine Bakenstation, in der Nähe des spezifischen Orts installiert sein, und der Puffer 2 korrespondierend zu der Kamera 8, welche, wenn eine Kommunikation von der Vorrichtung, wie etwa eine Bakenstation, empfangen ist, basierend auf den Informationen der in den Eigenschaftsinformationen enthaltenen Überwachungsrichtung, die durch diese Kommunikation erhalten sind, ein Gebiet in der Richtung derselben aufnimmt, kann in dem Auswahlziel enthalten sein.The driving position of the vehicle 9 can be acquired by a self-position detection technology, such as GPS (“Global Positioning System”) or SLAM (“Simultaneous Localization and Mapping”), or the driving position (position information) can be acquired from outside by communicating with one installed on a road Beacon station, communication with a base station in a mobile communication network, or communication with the outside using a wireless communication technology such as near field communication using RFID (“Radio Frequency IDentification”). The specific location and property information are stored in the database in advance, and the information thereof can be acquired by performing communication with the outside as needed, or the image processing device 1 can store this database. Alternatively, in the image processing device 1, a device such as a beacon station may be installed near the specific location, and the buffer 2 corresponding to the camera 8, which when a communication is received from the device such as a beacon station, based on the information of the monitoring direction included in the property information obtained through this communication, an area in the direction thereof may be included in the selection target.

Gemäß der vorstehend beschriebenen Konfiguration stellt der Prozessor 3 die Bilddaten G der Kamera 8 zum Aufnehmen des Gebiets in der durch die Eigenschaftsinformationen angezeigten Überwachungsrichtung auf das Ziel für die Bildverarbeitung ein. Obwohl es in dem Fahrzeug 9, welches an verschiedenen Orten fährt, erforderlich sein kann, die spezifische Richtung in einer fokussierten Art und Weise zu überwachen, wie etwa ein Ort, an welchem häufig Unfälle auftreten, werden die Kameras 8, welche auf das Ziel für die Bildverarbeitung eingestellt sind, basierend auf den Eigenschaftsinformationen umgeschaltet, und somit kann die Fahrunterstützung durchgeführt werden, was sicherer ist.According to the configuration described above, the processor 3 sets the image data G of the camera 8 for photographing the area in the monitoring direction indicated by the property information to the target for image processing. Although it may be necessary to monitor the specific direction in a focused manner in the vehicle 9 traveling in various places, such as a place where accidents frequently occur, the cameras 8 pointing to the target for the image processing is set, switched based on the characteristic information, and thus the driving assistance can be performed, which is safer.

Wenn gemäß einigen Ausführungsbeispielen beispielsweise das Fahrzeug 9 ein Nutzfahrzeug ist, dann umfassen die Zustandsinformationen S des Fahrzeugs 9 die Fahrzeuggeschwindigkeit V und einen Lenkwinkel A, und der Prozessor 3 kann basierend auf den Zustandsinformationen S bestimmen, ob das Abbiegen des Fahrzeugs 9 ein Abbiegen nach rechts oder ein Abbiegen nach links ist. Dann kann der Prozessor 3, wenn das Fahrzeug 9 nach rechts abbiegt, den Puffer 2 auswählen, in welchem die Bilddaten G akkumuliert sind, die durch Aufnehmen von zumindest einem Gebiet auf der rechten Seite in der Vorwärtsrichtung und einem Gebiet auf der linken Seite in der Rückwärtsrichtung mit Bezug auf die Fahrtrichtung erhalten sind, wohingegen das Fahrzeug 9 nach links abbiegt, der Prozessor den Puffer 2 auswählen kann, in welchem die Bilddaten G akkumuliert sind, die durch Aufnehmen von zumindest einem Gebiet auf der linken Seite in der Vorwärtsrichtung und einem Gebiet auf der rechten Seite in der Rückwärtsrichtung mit Bezug auf die Fahrtrichtung erhalten sind.For example, according to some embodiments, if the vehicle 9 is a commercial vehicle, then the state information S of the vehicle 9 includes the vehicle speed V and a steering angle A, and the processor 3 may determine based on the state information S whether the turn of the vehicle 9 is a right turn or turning left. Then, when the vehicle 9 turns right, the processor 3 can select the buffer 2 in which the image data G is accumulated by capturing at least a right-side area in the forward direction and a left-side area in the forward direction backward direction with respect to the traveling direction, whereas the vehicle 9 turns left, the processor can select the buffer 2 in which the image data G is accumulated by capturing at least an area on the left in the forward direction and an area are preserved on the right side in the reverse direction with respect to the direction of travel.

Da beispielsweise, wie in 10 gezeigt, ein Nutzfahrzeug, wie etwa ein Gabelstapler einen kurzen Radstand und einen großen Lenkwinkel aufweist, ist es erforderlich, auf die laterale Richtung im Vergleich zu der Vorwärtsrichtung mit Bezug auf die Fahrtrichtung in ausreichendem Maße aufzupassen, wenn ein Fahren in einem Zustand gestartet wird, in welchem ein Lenkrad betätigt wird. Insbesondere ist es erforderlich, nicht nur die rechte Seite in der Vorwärtsrichtung mit Bezug auf die Fahrtrichtung, sondern auch die linke Seite in der Rückwärtsrichtung mit Bezug dazu zum Zeitpunkt eines Abbiegens nach rechts, und nicht nur die linke Seite in der Vorwärtsrichtung mit Bezug auf die Fahrtrichtung, sondern auch die rechte Seite in der Rückwärtsrichtung mit Bezug dazu zum Zeitpunkt eines Abbiegens nach links simultan zu überwachen.For example, as in 10 shown, a commercial vehicle, such as a forklift, has a short wheelbase and a large steering angle, it is required to be directed to the lateral direction to pay sufficient attention to the driving direction compared to the forward direction when starting driving in a state in which a steering wheel is operated. In particular, it is necessary to have not only the right side in the forward direction with respect to the traveling direction, but also the left side in the reverse direction with respect thereto at the time of a right turn, and not only the left side in the forward direction with respect to the driving direction direction of travel, but also the right side in the reverse direction with reference to this at the time of a left turn.

Wenn allerdings, wie vorstehend beschrieben, die durch Aufnehmen eines Gebiets an der Seite der Richtung, die zu der Fahrtrichtung entgegengesetzt ist, erhaltenen Bilddaten G auch auf das Ziel für die Bildverarbeitung eingestellt sind, wird die Anzahl an Kameras 8, bezüglich welchen der Prozessor 3 die Bildverarbeitung durchführt, einfach erhöht, und somit werden die Auswahlfrequenzen der in dem Auswahlziel enthaltenen Puffer 2 verringert (der Auswahlzyklus wird verlängert).However, as described above, if the image data G obtained by shooting an area on the side of the direction opposite to the traveling direction is also set to the target for image processing, the number of cameras 8 with respect to which the processor 3 which performs image processing is simply increased, and thus the selection frequencies of the buffers 2 included in the selection target are reduced (the selection cycle is lengthened).

Somit umfassen gemäß einigen Ausführungsbeispielen, wie in 10 und 11 gezeigt, die Kameras 8 eine rechtsseitige Aufnahmekamera (in 2 die zweite Nahfeldkamera 81b) zum Aufnehmen des Gebiets an der rechten Seite des Fahrzeugs 9 und eine linksseitige Aufnahmekamera (in 2 die vierte Nahfeldkamera 81d) zum Aufnehmen des Gebiets an der linken Seite desselben. Der Prozessor 3 wird gemäß dem Befehl des Bildverarbeitungsprogramms für den Bildverarbeitungsabschnitt 73 betrieben, und somit kann die Bildverarbeitung zum Zeitpunkt eines Abbiegens nach rechts auf dem Gebiet (Teilgebiet Gp, in 10 die linke Hälfte der Bilddaten G) eines Teils der linken Seite der Bilddaten G durchgeführt werden, die mit der rechtsseitigen Aufnahmekamera und der linksseitigen Aufnahmekamera, die vorstehend beschrieben sind, einzeln aufgenommen sind, wohingegen zum Zeitpunkt eines Abbiegens nach links die Bildverarbeitung auf dem Teilgebiet Gp (in 10 die rechte Hälfte der Bilddaten G) der rechten Seite der Bilddaten G durchgeführt werden kann, die mit der rechtsseitigen Aufnahmekamera und der linksseitigen Aufnahmekamera, die vorstehend beschrieben sind, einzeln aufgenommen sind. Auf diese Weise kann die Fahrunterstützung, was sicherer ist, auf eine zufriedenstellende Art und Weise durchgeführt werden.Thus, according to some embodiments, such as in 10 and 11 shown, the cameras 8 are a right-side recording camera (in 2 the second near-field camera 81b) for recording the area on the right side of the vehicle 9 and a left-side recording camera (in 2 the fourth near-field camera 81d) for recording the area on the left side of the same. The processor 3 is operated according to the command of the image processing program for the image processing section 73, and thus the image processing can be carried out at the time of a right turn in the area (subarea Gp, in 10 the left half of the image data G) of a part of the left side of the image data G which are individually recorded with the right-side recording camera and the left-side recording camera described above, whereas at the time of turning to the left, the image processing is carried out on the sub-area Gp (in 10 the right half of the image data G) can be performed on the right side of the image data G individually captured with the right-side capture camera and the left-side capture camera described above. In this way, driving assistance, which is safer, can be performed in a satisfactory manner.

11 korrespondiert zu einem Übergang von Schritt S2 zu Schritt S3 in 4, und wenn in Schritt S2 von 4 die Fahrzeuggeschwindigkeit V kleiner als der vorstehend beschriebene erste Schwellenwert L1 ist (V < L1), dann wird in Schritt S21 von 11 der Lenkwinkel A überprüft, und wenn der Lenkwinkel A gleich oder kleiner als ein Lenkwinkelschwellenwert At ist (A ≤ At), dann fährt der Prozess zu Schritt S3 von 4, wie bereits beschrieben, fort. Im Gegensatz dazu, wenn in Schritt S21 von 11 der Lenkwinkel A größer als der Lenkwinkelschwellenwert At ist (A > At), dann wird in Schritt S22 der Lenkwinkel A überprüft. Dann wird, wenn der Lenkwinkel A ein Abbiegen nach rechts anzeigt, in Schritt S23 die Bildverarbeitung auf dem Gebiet der linken Hälfte der Bilddaten G durchgeführt, die mit der rechtsseitigen Aufnahmekamera und der linksseitigen Aufnahmekamera, die vorstehend beschrieben sind, einzeln aufgenommen sind. Wenn im Gegensatz dazu der Lenkwinkel A ein Abbiegen nach links anzeigt, dann wird in Schritt S24 die Bildverarbeitung auf dem Gebiet der rechten Hälfte der Bilddaten G durchgeführt, die mit der rechtsseitigen Aufnahmekamera und der linksseitigen Aufnahmekamera, die vorstehend beschrieben sind, einzeln aufgenommen sind. 11 corresponds to a transition from step S2 to step S3 in 4 , and if in step S2 of 4 the vehicle speed V is smaller than the first threshold value L1 described above (V < L1), then in step S21 of 11 the steering angle A is checked, and if the steering angle A is equal to or smaller than a steering angle threshold At (A ≤ At), then the process goes to step S3 of 4 , as already described. In contrast, if in step S21 of 11 the steering angle A is greater than the steering angle threshold At (A > At), then the steering angle A is checked in step S22. Then, when the steering angle A indicates a right turn, in step S23, image processing is performed on the left half area of the image data G individually captured with the right-side pickup camera and the left-side pickup camera described above. In contrast, if the steering angle A indicates a left turn, then in step S24, image processing is performed on the right half area of the image data G individually captured by the right-side pickup camera and the left-side pickup camera described above.

Gemäß der vorstehend beschriebenen Konfiguration bestimmt der Prozessor 3 die Abbiegungsrichtung basierend auf der Fahrzeuggeschwindigkeit V und dem Lenkwinkel A, und wählt basierend auf dem Bestimmungsergebnis die Kameras 8 aus, welche auf das Ziel für die Bildverarbeitung eingestellt sind. Wie vorstehend beschrieben, sind gemäß der Abbiegungsrichtung (Lenkwinkel) des Fahrzeugs die Bilddaten G von nicht nur einer Seite, wie etwa der rechten Seite, sondern auch der entgegengesetzten Seite (linke Seite) auf das Ziel für die Bildverarbeitung eingestellt, und somit wird zum Zeitpunkt eines lateralen Abbiegens, während auf die Richtung entgegengesetzt zu der Fahrtrichtung ebenfalls aufgepasst wird, beispielsweise die Erfassung von einer Person und einem Artikel mit dem Ergebnis durchgeführt, dass die Fahrunterstützung durchgeführt werden kann, was sicherer ist.According to the configuration described above, the processor 3 determines the turning direction based on the vehicle speed V and the steering angle A, and selects the cameras 8 set to the target for image processing based on the determination result. As described above, according to the turning direction (steering angle) of the vehicle, the image data G from not only one side such as the right side but also the opposite side (left side) is set to the target for image processing, and thus at the time a lateral turn while paying attention to the direction opposite to the driving direction is also performed, for example, the detection of a person and an article is performed with the result that the driving assistance can be performed, which is safer.

Im Folgenden wird mit Bezug auf 12 und 13 ein anderes Ausführungsbeispiel beschrieben. 12 ist ein Diagramm, das einen Fahrweg in den Bilddaten G zeigt, welche auf das Ziel für die Bildverarbeitung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung eingestellt sind. 13 ist ein Diagramm zum Darstellen eines Falls, in welchem die Fahrzeugbildverarbeitungsvorrichtung 1 gemäß dem Ausführungsbeispiel der vorliegenden Erfindung den von hinten beleuchteten Zustand des Fahrzeugs 9 bestimmt.The following is with reference to 12 and 13 another embodiment is described. 12 is a diagram showing a travel path in the image data G set to the target for image processing according to the embodiment of the present invention. 13 is a diagram for illustrating a case in which the vehicle image processing device 1 according to the embodiment of the present invention determines the backlit state of the vehicle 9.

Gemäß einigen Ausführungsbeispielen umfassen die vorstehend beschriebenen Zustandsinformationen S des Fahrzeugs 9 den Lenkwinkel A und die Schaltposition Sp. Wie in 12 gezeigt, wird der Prozessor 3 gemäß dem Befehl des Bildverarbeitungsprogramms für den Bildverarbeitungsabschnitt 73 betrieben, um die Bildverarbeitung auf dem Gebiet (Teilgebiet Gp) eines Teils durchzuführen, der in den Bilddaten G enthalten ist, die von den Puffern 2 basierend auf dem Lenkwinkel A und der Schaltposition Sp akquiriert sind. Obwohl in einem in 12 gezeigten Kamerabild ein Horizont h in einem entfernten Gebiet gezeigt wird und eine Straße r in der Richtung nach rechts gekrümmt ist, wenn das Fahrzeug 9 entlang der Straße r fährt, wird berücksichtigt, dass die Notwendigkeit, eine automatische Erfassungsverarbeitung auf den von dem Fahrweg verschiedenen Gebieten durchzuführen, nicht hoch ist. Wie vorstehend beschrieben, wird die Bildverarbeitung auf lediglich dem Teilgebiet Gp der Bilddaten G durchgeführt, und somit kann die Informationsmenge von jedem Teil von Bilddaten G, auf welchen die Bildverarbeitung durchgeführt wird, mit dem Ergebnis verringert werden, dass die Leistungszeit der Bildverarbeitung auf einem Teil von Bilddaten G verringert wird.According to some exemplary embodiments, the status information S of the vehicle 9 described above includes the steering angle A and the switching position Sp. As in 12 As shown, the processor 3 is operated according to the command of the image processing program for the image processing section 73 to perform image processing on the area (subarea Gp) of a part included in the image data G obtained from the buffers 2 are acquired based on the steering angle A and the switching position Sp. Although in an in 12 In the camera image shown, a horizon h is shown in a distant area and a road r is curved in the rightward direction when the vehicle 9 travels along the road r, it is considered that the need for automatic detection processing in the areas other than the travel path to carry out is not high. As described above, the image processing is performed on only the portion Gp of the image data G, and thus the amount of information of each portion of image data G on which the image processing is performed can be reduced, with the result that the performance time of the image processing on one portion of image data G is reduced.

Beispielsweise kann gemäß einigen Ausführungsbeispielen, wie in 12 gezeigt, der Weg, auf welchem das Fahrzeug 9 fährt, basierend auf dem Lenkwinkel A und der Schaltposition Sp geschätzt werden, und das Teilgebiet Gp der Bilddaten G kann basierend auf dem Schätzergebnis bestimmt werden. Gemäß dem in 12 gezeigten Ausführungsbeispiel führt der Prozessor 3 die Bildverarbeitung auf dem geschätzten Fahrweg durch, und er führt beispielsweise die automatische Erfassungsverarbeitung lediglich auf dem geschätzten Fahrweg durch. Wenn beispielsweise die Schwellenwert L, welche mit der vorstehend beschriebenen Fahrzeuggeschwindigkeit V verglichen werden, den dritten Schwellenwert L3 umfassen, und die Fahrzeuggeschwindigkeit V, wie in 4 gezeigt, gleich oder größer als der dritte Schwellenwert L3 ist, dann kann der Prozessor 3 basierend auf dem Ergebnis einer Vorhersage des Fahrwegs basierend auf dem Lenkwinkel A und der Schaltposition Sp die Bildverarbeitung auf dem Teilgebiet Gp durchführen, das in den von den Puffern 2 akquirierten Bilddaten G enthalten ist. Obwohl die Vorhersage des Fahrwegs durch ein bekanntes Verfahren durchgeführt werden kann, kann die Vorhersage des Fahrwegs unter Berücksichtigung der Größe des vorliegenden Fahrzeugs, der Position, an welcher die Kamera 8 angebracht ist, des Winkels (optischer Achsenwinkel), mit welchem die Kamera 8 angebracht ist, und der internen Parameter der Kamera 8 durchgeführt werden. Wenn auf diese Weise beispielsweise die Fahrzeuggeschwindigkeit V den zweiten Schwellenwert 12 überschreitet und ferner erhöht wird, dann wird die Anzahl an Kameras 8, welche auf das Ziel für die Bildverarbeitung eingestellt sind, eingeschränkt, und außerdem wird das Gebiet von jedem Teil von akquirierten Bilddaten G, auf welchen die Bildverarbeitung durchgeführt wird, mit dem Ergebnis verringert, dass die Anzahl an Teilen von Bilddaten G, auf welchen der Prozessor 3 die Bildverarbeitung pro Einheitszeit durchführen kann, erhöht wird, und dass somit die Umgebungserkennung in Echtzeit durchgeführt werden kann.For example, according to some embodiments, as in 12 shown, the path on which the vehicle 9 travels can be estimated based on the steering angle A and the shift position Sp, and the sub-area Gp of the image data G can be determined based on the estimation result. According to the in 12 In the embodiment shown, the processor 3 performs the image processing on the estimated travel path, and, for example, performs the automatic detection processing only on the estimated travel path. For example, if the threshold L compared with the vehicle speed V described above includes the third threshold L3, and the vehicle speed V as in 4 shown is equal to or greater than the third threshold value L3, then the processor 3 can, based on the result of a prediction of the travel path based on the steering angle A and the switching position Sp, carry out the image processing on the sub-area Gp that is in the acquired by the buffers 2 Image data G is included. Although the prediction of the traveling path can be performed by a known method, the prediction of the traveling path can be performed taking into account the size of the present vehicle, the position at which the camera 8 is mounted, the angle (optical axis angle) at which the camera 8 is mounted is, and the internal parameters of the camera 8 are carried out. In this way, for example, when the vehicle speed V exceeds the second threshold 12 and is further increased, the number of cameras 8 set to the target for image processing is restricted, and further, the area of each piece of acquired image data G , on which the image processing is performed, is reduced, with the result that the number of pieces of image data G on which the processor 3 can perform the image processing per unit time is increased, and thus the environment recognition can be performed in real time.

Gemäß einigen anderen Ausführungsbeispielen werden beispielsweise die Gebiete eines oberen Abschnitts und eines Teils der linken und rechten Seite der Bilddaten G, welche gemäß der Fahrzeuggeschwindigkeit V und dem Lenkwinkel A bestimmt sind, aus dem Ziel der Bildverarbeitung entfernt, und somit kann basierend auf der Fahrzeuggeschwindigkeit V, dem Lenkwinkel A und der Schaltposition Sp das Teilgebiet Gp der Bilddaten G bestimmt werden, auf welchem die Bildverarbeitung durchgeführt werden soll. Es ist beispielsweise in 12 aus dem Lenkwinkel A ersichtlich, dass das Fahrzeug 9 fährt, um nach rechts abzubiegen, und somit können unter Berücksichtigung der Fahrzeuggeschwindigkeit V Gebiete eines oberen Abschnitts und einer linken Seite des aufgenommenen Bildes von dem Ziel für die Bildverarbeitung entfernt werden.According to some other embodiments, for example, the areas of an upper portion and a part of the left and right sides of the image data G, which are determined according to the vehicle speed V and the steering angle A, are removed from the target of the image processing, and thus based on the vehicle speed V , the steering angle A and the switching position Sp, the sub-area Gp of the image data G on which the image processing is to be carried out is determined. For example, it is in 12 It can be seen from the steering angle A that the vehicle 9 is traveling to turn right, and thus, taking into account the vehicle speed V, areas of an upper portion and a left side of the captured image can be removed from the target for image processing.

Gemäß der vorstehend beschriebenen Konfiguration wird basierend auf dem Lenkwinkel A und der Schaltposition Sp ein Teil von jedem Teil von Bilddaten G extrahiert, um auf das Ziel für die Bildverarbeitung eingestellt zu sein. Auf diese Weise kann in jedem Teil von Bilddaten G auf die Bildverarbeitung auf dem Teilgebiet, welches den Fahrweg des Fahrzeugs nicht umfasst, der basierend auf dem Lenkwinkel A und der Schaltposition Sp vorhergesagt ist, verzichtet werden. Somit kann die Last der Bildverarbeitung auf jedem Teil von Bilddaten G verringert werden, und somit kann die Anzahl an Teilen von Bilddaten G, auf welchen die Bildverarbeitung pro Einheitszeit durchgeführt werden kann, erhöht werden. Folglich kann mit einer Leistungszeit zurechtgekommen werden, welche bei einer hohen Fahrzeuggeschwindigkeit V oder dergleichen erforderlich ist.According to the configuration described above, based on the steering angle A and the shift position Sp, a part of each piece of image data G is extracted to be adjusted to the target for image processing. In this way, in each part of image data G, the image processing on the part area which does not include the travel path of the vehicle predicted based on the steering angle A and the shift position Sp can be omitted. Thus, the load of image processing on each piece of image data G can be reduced, and thus the number of pieces of image data G on which image processing can be performed per unit time can be increased. Consequently, a performance time required at a high vehicle speed V or the like can be coped with.

Gemäß einigen Ausführungsbeispielen, wie in 13 gezeigt, umfassen die Kameras 8 eine erste Kamera 8a zum Aufnehmen eines Gebiets in einer Richtung des Fahrzeugs 9 und eine zweite Kamera 8b zum Aufnehmen eines Gebiets in einer von der einen Richtung verschiedenen Richtung. Wie in 3 gezeigt, kann die Bildverarbeitungsvorrichtung 1 ferner einen Einstellungsabschnitt 76 umfassen, welcher basierend auf der Helligkeit der Bilddaten G, die mit der ersten Kamera 8a und der zweiten Kamera 8b, die vorstehend beschrieben sind, einzeln aufgenommen sind, Aufnahmeparameter für jede der Kameras 8 einstellt. Der vorstehend beschriebene Prozessor 3 kann gemäß dem Befehl des Bildverarbeitungsprogramms derart betrieben werden, dass der Einstellungsabschnitt 76 realisiert wird, oder der Einstellungsabschnitt 76 kann unter Verwendung eines anderen Typs einer Hardware realisiert werden. Gemäß dem in 13 gezeigten Ausführungsbeispiel ist die erste Kamera 8a die erste Fernfeldkamera 82a, und die zweite Kamera 8b ist die zweite Fernfeldkamera 82b, welche ein Gebiet in einer Richtung aufnimmt, die der mit der ersten Kamera 8a aufgenommenen einen Richtung entgegengesetzt ist. Allerdings ist die vorliegende Erfindung auf das vorliegende Ausführungsbeispiel nicht beschränkt. Gemäß einigen anderen Ausführungsbeispielen müssen die erste Kamera 8a und die zweite Kamera 8b nicht von demselben Typ sein, solange die Aufnahmerichtungen zwischen der ersten Kamera 8a und der zweiten Kamera 8b verschieden sind, und beispielsweise ist die erste Kamera 8a die Fernfeldkamera 82, und die zweite Kamera 8b ist die Nahfeldkamera.According to some embodiments, as in 13 shown, the cameras 8 include a first camera 8a for recording an area in one direction of the vehicle 9 and a second camera 8b for recording an area in a direction different from the one direction. As in 3 As shown, the image processing device 1 may further include an adjustment section 76 which sets shooting parameters for each of the cameras 8 based on the brightness of the image data G individually captured by the first camera 8a and the second camera 8b described above. The processor 3 described above may be operated according to the command of the image processing program to realize the setting section 76, or the setting section 76 may be realized using another type of hardware. According to the in 13 The exemplary embodiment shown is the first camera 8a first far-field camera 82a, and the second camera 8b is the second far-field camera 82b, which captures an area in a direction opposite to the one direction captured by the first camera 8a. However, the present invention is not limited to the present embodiment. According to some other embodiments, the first camera 8a and the second camera 8b need not be of the same type as long as the shooting directions between the first camera 8a and the second camera 8b are different, and for example, the first camera 8a is the far-field camera 82, and the second Camera 8b is the near field camera.

Da die gesamte Umgebung des Fahrzeugs 9, wie vorstehend beschrieben, mit den Kameras 8 in einem Außengebiet in Abhängigkeit von einer Positionsbeziehung mit dem Sonnenlicht aufgenommen wird, werden einige Kameras 8 von hinten beleuchtet, und einige Kameras 8 werden von vorne beleuchtet, und wenn die Aufnahmeparameter für alle Kameras gleich sind, dann liegt wahrscheinlich eine Kamera vor, welche Bilder von geeigneter Bildqualität (z.B. Helligkeit) nicht erhalten kann. Somit sind gemäß dem vorliegenden Ausführungsbeispiel beispielsweise jedes Mal Kameras 8, die von den Kameras 8 verschieden sind, welche auf das Ziel für die Bildverarbeitung eingestellt sind, zeitweise in dem Auswahlziel enthalten, die Helligkeit der Bilddaten G wird derart bewertet, dass eine Außenumgebung bezüglich Licht und dergleichen geschätzt wird, und somit werden die Aufnahmeparameter für die Kameras 8 nach Bedarf automatisch mit dem Ergebnis eingestellt, dass in irgendeiner Umgebung die Bilddaten G einer geeigneter Bildqualität von den einzelnen Kameras 8 erhalten werden können.As described above, since the entire surroundings of the vehicle 9 are photographed with the cameras 8 in an outdoor area depending on a positional relationship with the sunlight, some cameras 8 are illuminated from behind and some cameras 8 are illuminated from the front, and when the If recording parameters are the same for all cameras, then you probably have a camera that cannot obtain images of suitable image quality (e.g. brightness). Thus, according to the present embodiment, for example, every time cameras 8 other than the cameras 8 set to the target for image processing are temporarily included in the selection target, the brightness of the image data G is evaluated such that an outdoor environment is light and the like is estimated, and thus the recording parameters for the cameras 8 are automatically adjusted as required, with the result that in any environment, the image data G of a suitable image quality can be obtained from the individual cameras 8.

Wenn insbesondere gemäß dem vorstehend beschriebenen Ausführungsbeispiel die Fahrzeuggeschwindigkeit V gleich oder größer als der erste Schwellenwert L1 ist, dann wird die Umgebungserkennung lediglich mit der Kamera 8 (die erste Nahfeldkamera 81a oder die erste Fernfeldkamera 82a) zum Aufnehmen des Gebiets in der Fahrtrichtung durchgeführt, und beispielsweise ist diese Kamera 8 die vorstehend beschriebene erste Kamera 8a. Hier akquiriert der Prozessor 3 die mit der Kamera 8 (die dritte Nahfeldkamera 81c oder die zweite Fernfeldkamera 82b) zum aufnehmen des Gebiets in der Richtung, die der Fahrtrichtung oder dergleichen entgegengesetzt ist, aufgenommenen Bilddaten G zyklisch (z.B. einmal alle 10 Sekunden). Beispielsweise ist diese Kamera 8 die vorstehend beschriebene zweite Kamera 8b. Dann wird die Helligkeit der Bilddaten G von jeder der ersten Kamera 8a und der zweiten Kamera 8b bewertet.Specifically, according to the embodiment described above, if the vehicle speed V is equal to or greater than the first threshold L1, then the environment detection is performed only with the camera 8 (the first near-field camera 81a or the first far-field camera 82a) for photographing the area in the traveling direction, and for example, this camera 8 is the first camera 8a described above. Here, the processor 3 acquires the image data G captured with the camera 8 (the third near-field camera 81c or the second far-field camera 82b) for capturing the area in the direction opposite to the direction of travel or the like cyclically (for example, once every 10 seconds). For example, this camera 8 is the second camera 8b described above. Then, the brightness of the image data G from each of the first camera 8a and the second camera 8b is evaluated.

Danach können beispielsweise die Durchschnittshelligkeit (erste Durchschnittshelligkeit I1) von einer Vielzahl von Teilen von Bilddaten G, die lediglich mit Bildern ausgebildet sind, die mit der ersten Kamera 8a aufgenommen sind, und die Durchschnittshelligkeit (zweite Durchschnittshelligkeit 12) einer Vielzahl von Teilen von Bilddaten G, die mit Bildern ausgebildet sind, die mit der ersten Kamera 8a und der zweiten Kamera 8b aufgenommen sind, einzeln bewertet werden. Beispielsweise kann unter Teilen von Bilddaten G, die kontinuierlich mit der Zeit akquiriert sind, die zweite Durchschnittshelligkeit 12 einer Vielzahl von kontinuierlichen Teilen von Bilddaten G, welche die Bilddaten G enthalten, die durch Aufnehmen des Gebiets der Richtung erhalten sind, die zu der Fahrtrichtung entgegengesetzt ist, bewertet werden, und es kann die erste Durchschnittshelligkeit I1 einer Vielzahl von kontinuierlichen Teilen von Bilddaten G, welche die Bilddaten G in der entgegengesetzten Richtung nicht enthalten, bewertet werden. Dann, wenn I1 < 12, wird bestimmt, dass die Kamera 8 zum Aufnehmen des Gebiets in der Fahrtrichtung zu diesem Zeitpunkt in dem von hinten beleuchteten Zustand ist, und somit wird die Einstellung der Aufnahmeparameter für die erste Kamera 8a derart geändert, dass beispielsweise die durch die Kameras 8 in dem von hinten beleuchteten Zustand erzeugten Bilddaten G hell gemacht werden, und dass somit eine geeignete Aufnahme durchgeführt werden kann. Im Gegensatz dazu, wenn I1 > 12, wird die Einstellung derart geändert, dass die Helligkeit der ersten Kamera 8a verringert wird.Thereafter, for example, the average brightness (first average brightness I1) of a plurality of pieces of image data G formed only with images captured with the first camera 8a and the average brightness (second average brightness 12) of a plurality of pieces of image data G , which are formed with images recorded with the first camera 8a and the second camera 8b, are evaluated individually. For example, among pieces of image data G acquired continuously with time, the second average brightness 12 of a plurality of continuous pieces of image data G containing the image data G obtained by recording the area of the direction opposite to the traveling direction is, and the first average brightness I1 of a plurality of continuous pieces of image data G which do not contain the image data G in the opposite direction can be evaluated. Then, if I1<12, it is determined that the camera 8 for shooting the area in the traveling direction is in the backlit state at that time, and thus the setting of the shooting parameters for the first camera 8a is changed such that, for example, Image data G generated by the cameras 8 in the backlit state can be made bright, and a suitable recording can therefore be carried out. In contrast, when I1 > 12, the setting is changed so that the brightness of the first camera 8a is reduced.

Gemäß dem in 13 gezeigten Ausführungsbeispiel ist die Helligkeit der Bilddaten G der ersten Kamera 8a aufgrund des Rücklichts relativ gering, und die Helligkeit der Bilddaten G der zweiten Kamera 8b ist aufgrund des Vorderlichts relativ hoch. Somit gilt eine Beziehung von I1 < 12, und somit bestimmt der Einstellungsabschnitt 76, dass die erste Kamera 8a für die Fahrtrichtung von hinten beleuchtet wird, um die Einstellung der Aufnahmeparameter zu ändern, und um dadurch die Bilddaten G der ersten Kamera 8a hell zu machen.According to the in 13 In the exemplary embodiment shown, the brightness of the image data G of the first camera 8a is relatively low due to the rear light, and the brightness of the image data G of the second camera 8b is relatively high due to the front light. Thus, a relationship of I1 < 12 holds, and thus the setting section 76 determines that the first camera 8a for the traveling direction is illuminated from behind to change the setting of the shooting parameters, and thereby make the image data G of the first camera 8a bright .

Gemäß der vorstehend beschriebenen Konfiguration werden das Vorderlicht und das Rücklicht der Kameras 8, welche auf das Ziel für die Bildverarbeitung eingestellt sind, derart erfasst, dass die Aufnahmeparameter für die Kameras 8 eingestellt werden, und somit kann ein Einfluss minimiert werden, der durch Änderungen der durch Sonnenlicht erzeugten Helligkeit bewirkt wird, mit dem Ergebnis, dass eine stabile Umgebungserkennung durchgeführt werden kann.According to the configuration described above, the front light and the back light of the cameras 8 set to the target for image processing are detected so that the shooting parameters for the cameras 8 are adjusted, and thus an influence caused by changes in the cameras 8 can be minimized brightness generated by sunlight, with the result that stable environmental detection can be carried out.

Die vorliegende Erfindung ist auf die vorstehend beschriebenen Ausführungsbeispiele nicht beschränkt, und umfasst Ausführungsbeispiele, die durch Hinzufügen von Variationen zu den vorstehend beschriebenen Ausführungsbeispielen erhalten sind, und Ausführungsbeispiele, die durch Kombinieren dieser Ausführungsbeispiele erhalten sind.The present invention is not limited to the embodiments described above, and includes embodiments that by adding variations to the above-described embodiments, and embodiments obtained by combining these embodiments.

Der Eigenschaftsinformations-Akquirierungsabschnitt 74, der vorstehend beschrieben ist, stellt ein Beispiel des Akquirierungsabschnitts dar.The property information acquiring section 74 described above represents an example of the acquiring section.

Die vorstehend beschriebenen Programme stellen Software zum Anweisen eines Computers dar, einzelne Funktionsabschnitte zu realisieren, welche nachstehend beschrieben werden, und sie können in einem computerlesbaren Speichermedium gespeichert sein.The programs described above constitute software for instructing a computer to implement individual functional portions described below, and may be stored in a computer-readable storage medium.

Claims (15)

Fahrzeugbildverarbeitungsvorrichtung (1), aufweisend: eine Vielzahl von Puffern (2), die konfiguriert sind, um Teile von Bilddaten (G) zu akkumulieren, die von einer Vielzahl von Kameras (8) einzeln und sequenziell eingegeben sind, die in einem Fahrzeug (9) installiert sind und jeweils unterschiedliche Umgebungsgebiete des Fahrzeugs (9) aufnehmen, um die Teile von Bilddaten (G) mit den Kameras (8) zu verknüpfen; einen Prozessor (3), der konfiguriert ist, um den Puffer (2) basierend auf Zustandsinformationen (S) zum Bestimmen von Fahrbedingungen des Fahrzeugs (9) auszuwählen, und um den Teil von Bilddaten (G) aus dem ausgewählten Puffer (2) zu akquirieren, um diesbezüglich eine Bildverarbeitung durchzuführen; eine Signalleitung (4), die die Teile von Bilddaten (G) in den Puffern (2) zu dem Prozessor (3) überträgt; und eine Transfersteuerung (5), die konfiguriert ist, um den von dem Prozessor (3) benötigten Teil von Bilddaten (G) in dem Puffer (2) an die Signalleitung (4) auszugeben, indem basierend auf den Zustandsinformationen (S) ausgewählt wird, wobei die Zustandsinformationen (S) eine Fahrzeuggeschwindigkeit (V) umfassen, und der Prozessor (3) die Auswahl des Puffers (2) basierend auf einem Vergleich der Fahrzeuggeschwindigkeit (V) und Schwellenwerten (L) durchführt, wobei die Schwellenwerte (L) einen Umschaltbeginn-Schwellenwert (Ls) und einen Umschaltbeendigungs-Schwellenwert (Le) umfassen, bei welchen eine Differenz zu dem Umschaltbeginn-Schwellenwert (Ls) ein erster Wert ist, der Prozessor (3) konfiguriert ist, um die Bildverarbeitung auf einer vorbestimmten Anzahl an Teilen der Bilddaten (G) pro Einheitszeit durchzuführen, und wenn die Fahrzeuggeschwindigkeit (V) zwischen dem Umschaltbeginn-Schwellenwert (Ls) und dem Umschaltbeendigungs-Schwellenwert (Le) liegt, der Prozessor (3) die auszuwählenden Puffer (2) derart umschaltet, dass, wenn sich die Fahrzeuggeschwindigkeit (V) dem Umschaltbeendigungs-Schwellenwert (Le) von dem Umschaltbeginn-Schwellenwert (Ls) nähert, die vorbestimmte Anzahl an Teilen von Bilddaten (G), auf welchen die Bildverarbeitung pro Einheitszeit durchgeführt wird, bevor die Fahrzeuggeschwindigkeit (V) den Umschaltbeginn-Schwellenwert (Ls) erreicht, mit der vorbestimmten Anzahl an Teilen von Bilddaten (G) ersetzt wird, nachdem die Fahrzeuggeschwindigkeit (V) den Umschaltbeendigungs-Schwellenwert (Le) erreicht hat.Vehicle image processing device (1), comprising: a plurality of buffers (2) configured to accumulate portions of image data (G) individually and sequentially input from a plurality of cameras (8) installed in a vehicle (9) and each having different surrounding areas of the vehicle (9) in order to link the parts of image data (G) to the cameras (8); a processor (3) configured to select the buffer (2) based on state information (S) for determining driving conditions of the vehicle (9), and to extract the portion of image data (G) from the selected buffer (2). acquire in order to carry out image processing in this regard; a signal line (4) which transmits the pieces of image data (G) in the buffers (2) to the processor (3); and a transfer controller (5) which is configured to output the part of image data (G) in the buffer (2) required by the processor (3) to the signal line (4) by selecting based on the status information (S), wherein the status information (S) includes a vehicle speed (V), and the processor (3) carries out the selection of the buffer (2) based on a comparison of the vehicle speed (V) and threshold values (L), wherein the threshold values (L) include a switching start threshold (Ls) and a switching completion threshold (Le), in which a difference to the switching start threshold (Ls) is a first value, the processor (3) is configured to perform image processing on a predetermined number of pieces of the image data (G) per unit time, and when the vehicle speed (V) is between the switching start threshold (Ls) and the switching completion threshold (Le), the processor (3) switches the buffers (2) to be selected in such a way that when the vehicle speed (V) approaches the switching completion threshold Threshold value (Le) approaches the switching start threshold (Ls), the predetermined number of pieces of image data (G) on which the image processing is performed per unit time before the vehicle speed (V) reaches the switching start threshold (Ls). the predetermined number of pieces of image data (G) is replaced after the vehicle speed (V) reaches the switching completion threshold (Le). Fahrzeugbildverarbeitungsvorrichtung nach Anspruch 1, wobei der Prozessor (3) basierend auf den Zustandsinformationen (S) zumindest einen Puffer (2) der Puffer (2) als ein Auswahlziel bestimmt und eine Auswahlfrequenz des zumindest einen in dem Auswahlziel enthaltenen Puffers (2) größer als Auswahlfrequenzen der anderen Puffer (2) einstellt, um den in dem Auswahlziel enthaltenen zumindest einen Puffer (2) sequenziell auszuwählen.Vehicle image processing device Claim 1 , wherein the processor (3) determines at least one buffer (2) of the buffers (2) as a selection target based on the status information (S) and a selection frequency of the at least one buffer (2) contained in the selection target is greater than selection frequencies of the other buffers ( 2) sets to sequentially select the at least one buffer (2) contained in the selection target. Fahrzeugbildverarbeitungsvorrichtung (1) nach Anspruch 1 oder 2, ferner aufweisend: eine Erfassungseinheit (11), die die Puffer (2) und die darin vorgesehene Transfersteuerung (5) aufweist; einen Arbeitspuffer (6), der konfiguriert ist, um den durch die Transfersteuerung (5) an die Signalleitung (4) ausgegebenen und der durch den Prozessor (3) durchgeführten Bildverarbeitung ausgesetzten Teil von Bilddaten (G) zu speichern; und eine Prozessoreinheit (12), die den Prozessor (3) und den darin vorgesehenen Arbeitspuffer (6) aufweist, wobei die Signalleitung (4) konfiguriert ist, um die Puffer (2) in der Erfassungseinheit (11) und den Arbeitspuffer (6) in der Prozessoreinheit (12) miteinander verbinden zu können.Vehicle image processing device (1). Claim 1 or 2 , further comprising: a detection unit (11) which has the buffers (2) and the transfer controller (5) provided therein; a work buffer (6) configured to store the portion of image data (G) output by the transfer controller (5) to the signal line (4) and subjected to image processing performed by the processor (3); and a processor unit (12) which has the processor (3) and the working buffer (6) provided therein, the signal line (4) being configured to connect the buffers (2) in the detection unit (11) and the working buffer (6). to be able to connect to each other in the processor unit (12). Fahrzeugbildverarbeitungsvorrichtung (1) nach einem der Ansprüche 1 bis 3, wobei die Kameras (8) eine oder mehrere der eine Umgebung des Fahrzeugs (9) aufnehmenden Kameras umfassen, die Schwellenwerte (L) einen ersten Schwellenwert (L1) umfassen, und wenn die Fahrzeuggeschwindigkeit (V) kleiner als der erste Schwellenwert (L1) ist, der Prozessor (3) den Puffer (2) auswählt, in welchem der Teil von Bilddaten (G) akkumuliert ist, der mit der einen oder mehreren der die Gesamtumgebung des Fahrzeugs (9) aufnehmenden Kameras (8) aufgenommen ist.Vehicle image processing device (1) according to one of Claims 1 until 3 , wherein the cameras (8) comprise one or more of the cameras recording an environment of the vehicle (9), the threshold values (L) comprise a first threshold value (L1), and if the vehicle speed (V) is less than the first threshold value (L1) is, the processor (3) selects the buffer (2) in which the part of image data (G) which is recorded with the one or more of the cameras (8) recording the entire surroundings of the vehicle (9) is accumulated. Fahrzeugbildverarbeitungsvorrichtung (1) nach einem der Ansprüche 1 bis 4, wobei die Kameras (8) eine Kamera, die ein Gebiet vor dem Fahrzeug (9) aufnimmt, und eine Kamera, die ein Gebiet hinter dem Fahrzeug (9) aufnimmt, umfassen, die Zustandsinformationen (S) ferner eine Schaltposition (Sp) von einem Getriebe des Fahrzeugs (9) umfassen, die Schwellenwerte (L) den ersten Schwellenwert (L1) und einen zweiten Schwellenwert (L2), welcher größer als der erste Schwellenwert (L1) ist, umfassen, und wenn die Fahrzeuggeschwindigkeit (V) gleich oder größer als der erste Schwellenwert (L1) und kleiner als der zweite Schwellenwert (L2) ist, und die Schaltposition (Sp) eine Vorwärtsbewegung anzeigt, der Prozessor (3) lediglich den Puffer (2) auswählt, in welchem der Teil von Bilddaten (G) akkumuliert ist, der mit der Kamera aufgenommen ist, die das Gebiet vor dem Fahrzeug (9) aufnimmt, wohingegen wenn die Schaltposition (Sp) eine Rückwärtsbewegung anzeigt, der Prozessor (3) lediglich den Puffer (2) auswählt, in welchem der Teil von Bilddaten (G) akkumuliert ist, der mit der Kamera aufgenommen ist, die das Gebiet hinter dem Fahrzeug (9) aufnimmt.Vehicle image processing device (1) according to one of Claims 1 until 4 , where the cameras (8) are a camera covering an area in front of the vehicle (9), and a camera that records an area behind the vehicle (9), the status information (S) further includes a switching position (Sp) of a transmission of the vehicle (9), the threshold values (L ) the first threshold value (L1) and a second threshold value (L2), which is greater than the first threshold value (L1), and if the vehicle speed (V) is equal to or greater than the first threshold value (L1) and less than the second Threshold value (L2), and the switching position (Sp) indicates a forward movement, the processor (3) only selects the buffer (2) in which the part of image data (G) recorded with the camera is accumulated Area in front of the vehicle (9), whereas if the switching position (Sp) indicates a backward movement, the processor (3) only selects the buffer (2) in which the part of image data (G) recorded with the camera is accumulated is which takes up the area behind the vehicle (9). Fahrzeugbildverarbeitungsvorrichtung (1) nach einem der Ansprüche 1 bis 5, wobei die Kameras (8) eine Fernfeldkamera (82), welche ein Fernfeldgebiet in einer Fahrtrichtung des Fahrzeugs (9) aufnehmen, und eine Nahfeldkamera (81), welche ein Nahfeldgebiet in der Fahrtrichtung des Fahrzeugs (9) aufnimmt und welche einen breiteren Sichtwinkel als die Fernfeldkamera (82) aufweist, umfassen, die Schwellenwerte (L) den zweiten Schwellenwert (L2) umfassen, und wenn die Fahrzeuggeschwindigkeit (V) gleich oder größer als der zweite Schwellenwert (L2) ist, der Prozessor (3) den Puffer (2) auswählt, in welchem der Teil von Bilddaten (G) akkumuliert ist, der mit der Fernfeldkamera (82) aufgenommen ist, wohingegen wenn die Fahrzeuggeschwindigkeit (V) kleiner als der zweite Schwellenwert (L2) ist, der Prozessor (3) den Puffer (2) auswählt, in welchem der Teil von Bilddaten (G) akkumuliert ist, der mit der Nahfeldkamera (81) aufgenommen ist.Vehicle image processing device (1) according to one of Claims 1 until 5 , wherein the cameras (8) are a far-field camera (82), which records a far-field area in a direction of travel of the vehicle (9), and a near-field camera (81), which records a near-field area in the direction of travel of the vehicle (9) and which has a wider viewing angle than the far-field camera (82), the threshold values (L) include the second threshold value (L2), and if the vehicle speed (V) is equal to or greater than the second threshold value (L2), the processor (3) uses the buffer ( 2) selects in which the part of image data (G) recorded with the far-field camera (82) is accumulated, whereas if the vehicle speed (V) is less than the second threshold value (L2), the processor (3) uses the buffer (2) selects in which the part of image data (G) recorded with the near-field camera (81) is accumulated. Fahrzeugbildverarbeitungsvorrichtung (1) nach einem der Ansprüche 1 bis 6, wobei, wenn die Fahrzeuggeschwindigkeit (V) den Umschaltbeginn-Schwellenwert (Ls) erreicht, der Prozessor (3) zunächst die Kamera korrespondierend zu dem Puffer (2) umschaltet, welcher ausgewählt werden muss, wenn die Fahrzeuggeschwindigkeit (V) den Umschaltbeendigungs-Schwellenwert (Le) erreicht, und zu dem Puffer (2) korrespondierend zu der Kamera, welche zumindest mit einer Aufnahmerichtung verknüpft ist.Vehicle image processing device (1) according to one of Claims 1 until 6 , wherein when the vehicle speed (V) reaches the switching start threshold (Ls), the processor (3) first switches the camera corresponding to the buffer (2) which must be selected when the vehicle speed (V) reaches the switching completion threshold (Le) is reached, and to the buffer (2) corresponding to the camera, which is linked to at least one recording direction. Fahrzeugbildverarbeitungsvorrichtung (1) nach einem der Ansprüche 1 bis 7, ferner aufweisend: einen Akquirierungsabschnitt (74), der Eigenschaftsinformationen mit einer Anweisung für eine Überwachungsrichtung an einem spezifischen Ort umfasst, wobei der Prozessor (3) zumindest einen der Puffer (2) basierend auf einer Fahrtposition und den Eigenschaftsinformationen auswählt.Vehicle image processing device (1) according to one of Claims 1 until 7 , further comprising: an acquiring section (74) comprising property information with an instruction for a monitoring direction at a specific location, wherein the processor (3) selects at least one of the buffers (2) based on a travel position and the property information. Fahrzeugbildverarbeitungsvorrichtung (1) nach einem der Ansprüche 1 bis 8, wobei das Fahrzeug (9) ein Nutzfahrzeug ist, die Zustandsinformationen (S) die Fahrzeuggeschwindigkeit (V) und einen Lenkwinkel (A) umfassen, der Prozessor (3) basierend auf den Zustandsinformationen (S) bestimmt, ob ein Abbiegen des Fahrzeugs (9) ein Abbiegen nach rechts oder ein Abbiegen nach links ist, und wenn das Fahrzeug (9) nach rechts abbiegt, der Prozessor (3) den Puffer (2) auswählt, in welchem der Teil von Bilddaten (G) akkumuliert ist, der durch Aufnehmen zumindest eines Gebiets auf einer rechten Seite in einer Vorwärtsrichtung und eines Gebiets auf einer linken Seite in einer Rückwärtsrichtung mit Bezug auf die Fahrtrichtung erhalten wird, wohingegen wenn das Fahrzeug (9) nach links abbiegt, der Prozessor (3) den Puffer (2) auswählt, in welchem der Teil von Bilddaten (G) akkumuliert ist, der durch Aufnehmen zumindest eines Gebiets auf der linken Seite in der Vorwärtsrichtung und eines Gebiets auf der rechten Seite in der Rückwärtsrichtung mit Bezug auf die Fahrtrichtung erhalten wird.Vehicle image processing device (1) according to one of Claims 1 until 8th , wherein the vehicle (9) is a commercial vehicle, the status information (S) includes the vehicle speed (V) and a steering angle (A), the processor (3) determines based on the status information (S) whether the vehicle (9 ) is a right turn or a left turn, and when the vehicle (9) turns right, the processor (3) selects the buffer (2) in which the portion of image data (G) obtained by recording is accumulated at least an area on a right side in a forward direction and an area on a left side in a backward direction with respect to the traveling direction, whereas when the vehicle (9) turns left, the processor (3) selects the buffer (2). , in which the part of image data (G) obtained by recording at least a region on the left side in the forward direction and a region on the right side in the backward direction with respect to the traveling direction is accumulated. Fahrzeugbildverarbeitungsvorrichtung (1) nach Anspruch 9, wobei die Kameras (8) eine rechtsseitige Aufnahmekamera (81b), die ein Gebiet auf der rechten Seite des Fahrzeugs (9) aufnimmt, und eine linksseitige Aufnahmekamera (81d), die ein Gebiet auf der linken Seite desselben aufnimmt, umfassen, und wenn das Fahrzeug (9) nach rechts abbiegt, der Prozessor (3) die Bildverarbeitung auf einem Gebiet von einem Teil auf einer linken Seite der Teile von Bilddaten (G) durchführt, die mit der rechtsseitigen Aufnahmekamera (81b) und der linksseitigen Aufnahmekamera (81d) einzeln aufgenommen sind, wohingegen wenn das Fahrzeug (9) nach links abbiegt, der Prozessor (3) die Bildverarbeitung auf einem Gebiet von einem Teil auf einer rechten Seite der Teile von Bilddaten (G) durchführt, die mit der rechtsseitigen Aufnahmekamera (81b) und der linksseitigen Aufnahmekamera (81d) einzeln aufgenommen sind.Vehicle image processing device (1). Claim 9 , wherein the cameras (8) include a right-side recording camera (81b) which records an area on the right side of the vehicle (9) and a left-side recording camera (81d) which records an area on the left side thereof, and if the vehicle (9) turns right, the processor (3) performs the image processing on an area of a part on a left side of the pieces of image data (G) obtained with the right-side recording camera (81b) and the left-side recording camera (81d). are individually captured, whereas when the vehicle (9) turns left, the processor (3) performs the image processing on an area of a part on a right side of the pieces of image data (G) recorded with the right-side recording camera (81b) and are recorded individually using the left-hand recording camera (81d). Fahrzeugbildverarbeitungsvorrichtung (1) nach einem der Ansprüche 1 bis 10, wobei die Zustandsinformationen (S) den Lenkwinkel (A) und die Schaltposition (Sp) des Getriebes des Fahrzeugs (9) umfassen, und der Prozessor (3) basierend auf dem Lenkwinkel (A) und der Schaltposition (Sp) einen Weg schätzt, auf welchem das Fahrzeug (9) fährt, und basierend auf einem Ergebnis der Schätzung die Bildverarbeitung auf einem Gebiet von einem Teil durchführt, der in den aus den Puffern (2) akquirierten Teilen von Bilddaten (G) enthalten ist.Vehicle image processing device (1) according to one of Claims 1 until 10 , wherein the status information (S) includes the steering angle (A) and the switching position (Sp) of the transmission of the vehicle (9), and the processor (3) estimates a path based on the steering angle (A) and the switching position (Sp). which the vehicle (9) drives, and based on a result of the estimation, performs the image processing on an area of a part contained in the parts of image data (G) acquired from the buffers (2). Fahrzeugbildverarbeitungsvorrichtung (1) nach einem der Ansprüche 1 bis 11, wobei die Kameras (8) eine erste Kamera (8a), die ein Gebiet in einer ersten Richtung des Fahrzeugs (9) aufnimmt, und eine zweite Kamera (8b), die ein Gebiet in einer von der ersten Richtung verschiedenen Richtung aufnimmt, umfassen, und die Fahrzeugbildverarbeitungsvorrichtung (1) ferner einen Einstellungsabschnitt (76) aufweist, der basierend auf einer Helligkeit der Teile von Bilddaten (G), die mit der ersten Kamera (8a) und der zweiten Kamera (8b) einzeln aufgenommen sind, einen Aufnahmeparameter für jede der Kameras (8) einstellt.Vehicle image processing device (1) according to one of Claims 1 until 11 , wherein the cameras (8) comprise a first camera (8a), which records an area in a first direction of the vehicle (9), and a second camera (8b), which records an area in a direction different from the first direction , and the vehicle image processing device (1) further has a setting section (76) which, based on a brightness of the parts of image data (G) individually captured by the first camera (8a) and the second camera (8b), determines a capture parameter for adjusts each of the cameras (8). Fahrzeugbildverarbeitungsverfahren, das durch einen Prozessor (3) eines Computers durchgeführt wird, wobei der Computer aufweist: eine Vielzahl von Puffern (2), die konfiguriert sind, um Teile von Bilddaten (G) zu akkumulieren, die von einer Vielzahl von Kameras (8) einzeln und sequenziell eingegeben sind, die in einem Fahrzeug (9) installiert sind, um die Teile von Bilddaten (G) mit den Kameras (8) zu verknüpfen; wobei der Prozessor (3) konfiguriert ist, um den Puffer (2) basierend auf Zustandsinformationen (S) des Fahrzeugs (9) einschließlich einer Fahrzeuggeschwindigkeit (V) auszuwählen, und um den Teil von Bilddaten (G) aus dem ausgewählten Puffer (2) zu akquirieren, um diesbezüglich eine Bildverarbeitung durchzuführen; eine Signalleitung (4), die die Teile von Bilddaten (G) in den Puffern (2) zu dem Prozessor (3) überträgt; und eine Transfersteuerung (5), die konfiguriert ist, um den von dem Prozessor (3) benötigten Teil von Bilddaten (G) in dem Puffer (2) an die Signalleitung (4) auszugeben, wobei das Fahrzeugbildverarbeitungsverfahren einen Schritt zum Durchführen der Auswahl des Puffers (2) basierend auf einem Vergleich der Fahrzeuggeschwindigkeit (V) und Schwellenwerten (L) aufweist, wobei die Zustandsinformationen (S) eine Fahrzeuggeschwindigkeit (V) umfassen, und der Prozessor (3) die Auswahl des Puffers (2) basierend auf einem Vergleich der Fahrzeuggeschwindigkeit (V) und Schwellenwerten (L) durchführt, wobei die Schwellenwerte (L) einen Umschaltbeginn-Schwellenwert (Ls) und einen Umschaltbeendigungs-Schwellenwert (Le) umfassen, bei welchen eine Differenz zu dem Umschaltbeginn-Schwellenwert (Ls) ein erster Wert ist, der Prozessor (3) konfiguriert ist, um die Bildverarbeitung auf einer vorbestimmten Anzahl an Teilen der Bilddaten (G) pro Einheitszeit durchzuführen, und wenn die Fahrzeuggeschwindigkeit (V) zwischen dem Umschaltbeginn-Schwellenwert (Ls) und dem Umschaltbeendigungs-Schwellenwert (Le) liegt, der Prozessor (3) die auszuwählenden Puffer (2) derart umschaltet, dass, wenn sich die Fahrzeuggeschwindigkeit (V) dem Umschaltbeendigungs-Schwellenwert (Le) von dem Umschaltbeginn-Schwellenwert (Ls) nähert, die vorbestimmte Anzahl an Teilen von Bilddaten (G), auf welchen die Bildverarbeitung pro Einheitszeit durchgeführt wird, bevor die Fahrzeuggeschwindigkeit (V) den Umschaltbeginn-Schwellenwert (Ls) erreicht, mit der vorbestimmten Anzahl an Teilen von Bilddaten (G) ersetzt wird, nachdem die Fahrzeuggeschwindigkeit (V) den Umschaltbeendigungs-Schwellenwert (Le) erreicht hat.Vehicle image processing method performed by a processor (3) of a computer, the computer comprising: a plurality of buffers (2) configured to accumulate pieces of image data (G) individually and sequentially input from a plurality of cameras (8) installed in a vehicle (9) to the pieces to link image data (G) to the cameras (8); wherein the processor (3) is configured to select the buffer (2) based on state information (S) of the vehicle (9) including a vehicle speed (V), and to select the portion of image data (G) from the selected buffer (2) to acquire in order to carry out image processing in this regard; a signal line (4) which transmits the pieces of image data (G) in the buffers (2) to the processor (3); and a transfer control (5) which is configured to output the part of image data (G) required by the processor (3) in the buffer (2) to the signal line (4), wherein the vehicle image processing method comprises a step for performing the selection of the buffer (2) based on a comparison of the vehicle speed (V) and threshold values (L), wherein the status information (S) includes a vehicle speed (V), and the processor (3) carries out the selection of the buffer (2) based on a comparison of the vehicle speed (V) and threshold values (L), wherein the threshold values (L) include a switching start threshold (Ls) and a switching completion threshold (Le), in which a difference to the switching start threshold (Ls) is a first value, the processor (3) is configured to perform image processing on a predetermined number of pieces of the image data (G) per unit time, and when the vehicle speed (V) is between the switching start threshold (Ls) and the switching completion threshold (Le), the processor (3) switches the buffers (2) to be selected in such a way that when the vehicle speed (V) approaches the switching completion threshold Threshold value (Le) approaches the switching start threshold (Ls), the predetermined number of pieces of image data (G) on which the image processing is performed per unit time before the vehicle speed (V) reaches the switching start threshold (Ls). the predetermined number of pieces of image data (G) is replaced after the vehicle speed (V) reaches the switching completion threshold (Le). Fahrzeugbildverarbeitungsprogramm, das einen Prozessor (3) eines Computers anweist, einen Schritt zum Durchführen einer Auswahl eines Puffers (2) basierend auf einem Vergleich einer Fahrzeuggeschwindigkeit (V) und Schwellenwerten (L) durchzuführen, wobei der Computer aufweist: eine Vielzahl von Puffern (2), die konfiguriert sind, um Teile von Bilddaten (G) zu akkumulieren, die von einer Vielzahl von Kameras (8) einzeln und sequenziell eingegeben sind, die in einem Fahrzeug (9) installiert sind, um die Teile von Bilddaten (G) mit den Kameras (8) zu verknüpfen; wobei der Prozessor (3) konfiguriert ist, um den Puffer (2) basierend auf Zustandsinformationen (S) des Fahrzeugs (9) einschließlich der Fahrzeuggeschwindigkeit (V) auszuwählen, und um den Teil von Bilddaten (G) aus dem ausgewählten Puffer (2) zu akquirieren, um diesbezüglich eine Bildverarbeitung durchzuführen; eine Signalleitung (4), die die Teile von Bilddaten (G) in den Puffern (2) zu dem Prozessor (3) überträgt; und eine Transfersteuerung (5), die konfiguriert ist, um den von dem Prozessor (3) benötigten Teil von Bilddaten (G) in dem Puffer (2) an die Signalleitung (4) auszugeben, wobei die Zustandsinformationen (S) eine Fahrzeuggeschwindigkeit (V) umfassen, und der Prozessor (3) die Auswahl des Puffers (2) basierend auf einem Vergleich der Fahrzeuggeschwindigkeit (V) und Schwellenwerten (L) durchführt, wobei die Schwellenwerte (L) einen Umschaltbeginn-Schwellenwert (Ls) und einen Umschaltbeendigungs-Schwellenwert (Le) umfassen, bei welchen eine Differenz zu dem Umschaltbeginn-Schwellenwert (Ls) ein erster Wert ist, der Prozessor (3) konfiguriert ist, um die Bildverarbeitung auf einer vorbestimmten Anzahl an Teilen der Bilddaten (G) pro Einheitszeit durchzuführen, und wenn die Fahrzeuggeschwindigkeit (V) zwischen dem Umschaltbeginn-Schwellenwert (Ls) und dem Umschaltbeendigungs-Schwellenwert (Le) liegt, der Prozessor (3) die auszuwählenden Puffer (2) derart umschaltet, dass, wenn sich die Fahrzeuggeschwindigkeit (V) dem Umschaltbeendigungs-Schwellenwert (Le) von dem Umschaltbeginn-Schwellenwert (Ls) nähert, die vorbestimmte Anzahl an Teilen von Bilddaten (G), auf welchen die Bildverarbeitung pro Einheitszeit durchgeführt wird, bevor die Fahrzeuggeschwindigkeit (V) den Umschaltbeginn-Schwellenwert (Ls) erreicht, mit der vorbestimmten Anzahl an Teilen von Bilddaten (G) ersetzt wird, nachdem die Fahrzeuggeschwindigkeit (V) den Umschaltbeendigungs-Schwellenwert (Le) erreicht hat.Vehicle image processing program instructing a processor (3) of a computer to perform a step of performing a selection of a buffer (2) based on a comparison of a vehicle speed (V) and threshold values (L), the computer comprising: a plurality of buffers (2 ), which are configured to accumulate pieces of image data (G) input individually and sequentially from a plurality of cameras (8) installed in a vehicle (9) to share the pieces of image data (G). to link the cameras (8); wherein the processor (3) is configured to select the buffer (2) based on state information (S) of the vehicle (9) including the vehicle speed (V), and to select the portion of image data (G) from the selected buffer (2) to acquire in order to carry out image processing in this regard; a signal line (4) which transmits the pieces of image data (G) in the buffers (2) to the processor (3); and a transfer controller (5) which is configured to output the part of image data (G) required by the processor (3) in the buffer (2) to the signal line (4), the status information (S) being a vehicle speed (V ), and the processor (3) performs the selection of the buffer (2) based on a comparison of the vehicle speed (V) and thresholds (L), the thresholds (L) comprising a switch start threshold (Ls) and a switch completion threshold (Le), in which a difference to the switching start threshold (Ls) is a first value, the processor (3) is configured to carry out the image processing processing on a predetermined number of pieces of the image data (G) per unit time, and when the vehicle speed (V) is between the switching start threshold (Ls) and the switching completion threshold (Le), the processor (3) selects the buffers (3) to be selected 2) switches such that when the vehicle speed (V) approaches the switching completion threshold (Le) from the switching start threshold (Ls), the predetermined number of pieces of image data (G) on which the image processing is performed per unit time , before the vehicle speed (V) reaches the switching start threshold (Ls), is replaced with the predetermined number of pieces of image data (G) after the vehicle speed (V) reaches the switching completion threshold (Le). Computerlesbares Speichermedium, das das Fahrzeugbildverarbeitungsprogramm nach Anspruch 14 speichert.Computer-readable storage medium that contains the vehicle image processing program Claim 14 saves.
DE102019007001.1A 2018-10-15 2019-10-08 VEHICLE IMAGE PROCESSING DEVICE, VEHICLE IMAGE PROCESSING METHOD, PROGRAM and STORAGE MEDIUM Active DE102019007001B4 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-194136 2018-10-15
JP2018194136A JP7184591B2 (en) 2018-10-15 2018-10-15 Vehicle image processing device, vehicle image processing method, program and storage medium

Publications (2)

Publication Number Publication Date
DE102019007001A1 DE102019007001A1 (en) 2020-04-16
DE102019007001B4 true DE102019007001B4 (en) 2023-09-28

Family

ID=69954827

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019007001.1A Active DE102019007001B4 (en) 2018-10-15 2019-10-08 VEHICLE IMAGE PROCESSING DEVICE, VEHICLE IMAGE PROCESSING METHOD, PROGRAM and STORAGE MEDIUM

Country Status (4)

Country Link
US (1) US11450029B2 (en)
JP (1) JP7184591B2 (en)
CN (1) CN111038387B (en)
DE (1) DE102019007001B4 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6607272B2 (en) * 2018-03-02 2019-11-20 株式会社Jvcケンウッド VEHICLE RECORDING DEVICE, VEHICLE RECORDING METHOD, AND PROGRAM
KR20210030523A (en) * 2019-09-09 2021-03-18 현대자동차주식회사 Vehicle and method for controlling the vehicle
US20240152592A1 (en) * 2021-03-26 2024-05-09 Nec Corporation Authentication terminal, authentication system, authentication method, and non-transitory computer readable medium
US11987266B2 (en) * 2022-02-25 2024-05-21 Hitachi Astemo, Ltd. Distributed processing of vehicle sensor data
CN115719325B (en) * 2022-12-07 2023-11-17 钧捷科技(北京)有限公司 Unmanned road condition image processing system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1150252A2 (en) 2000-04-28 2001-10-31 Matsushita Electric Industrial Co., Ltd. Synthesis of image from a plurality of camera views
US20060197761A1 (en) 2005-03-03 2006-09-07 Nissan Motor Co., Ltd. Image processor and image processing method for a vehicle
US20080143833A1 (en) 2004-11-26 2008-06-19 Tatsumi Yanai Image Pickup Device and Image Pickup Method
US20130088578A1 (en) 2011-10-06 2013-04-11 Yuhko UMEZAWA Image processing apparatus and vehicle
JP2015210584A (en) 2014-04-24 2015-11-24 トヨタ自動車株式会社 Image processing apparatus
EP3306589A1 (en) 2015-06-05 2018-04-11 Nissan Motor Co., Ltd. Traffic signal detection device and traffic signal detection method
JP2018095067A (en) 2016-12-13 2018-06-21 株式会社デンソー Recognition device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4647975B2 (en) * 2004-11-17 2011-03-09 オリンパス株式会社 Image generation device
JP4710403B2 (en) * 2005-04-27 2011-06-29 日産自動車株式会社 Vehicular image generation apparatus and method
JP4765649B2 (en) * 2006-02-08 2011-09-07 日産自動車株式会社 VEHICLE VIDEO PROCESSING DEVICE, VEHICLE PERIPHERAL MONITORING SYSTEM, AND VIDEO PROCESSING METHOD
JP2011131678A (en) * 2009-12-24 2011-07-07 Fujitsu Ten Ltd Image processing device, image processing system and image processing method
JP6340969B2 (en) * 2014-07-14 2018-06-13 アイシン精機株式会社 Perimeter monitoring apparatus and program
JP6582644B2 (en) * 2014-08-11 2019-10-02 セイコーエプソン株式会社 Imaging device, imaging display device, and vehicle
JP6361415B2 (en) * 2014-09-24 2018-07-25 株式会社デンソー Image processing apparatus for vehicle
US20170132476A1 (en) * 2015-11-08 2017-05-11 Otobrite Electronics Inc. Vehicle Imaging System
JP6838248B2 (en) * 2016-02-22 2021-03-03 日立Astemo株式会社 Information processing device
US20180314253A1 (en) * 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Embedded automotive perception with machine learning classification of sensor data

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1150252A2 (en) 2000-04-28 2001-10-31 Matsushita Electric Industrial Co., Ltd. Synthesis of image from a plurality of camera views
US20080143833A1 (en) 2004-11-26 2008-06-19 Tatsumi Yanai Image Pickup Device and Image Pickup Method
US20060197761A1 (en) 2005-03-03 2006-09-07 Nissan Motor Co., Ltd. Image processor and image processing method for a vehicle
US20130088578A1 (en) 2011-10-06 2013-04-11 Yuhko UMEZAWA Image processing apparatus and vehicle
JP2013093013A (en) 2011-10-06 2013-05-16 Ricoh Co Ltd Image processing device and vehicle
JP2015210584A (en) 2014-04-24 2015-11-24 トヨタ自動車株式会社 Image processing apparatus
EP3306589A1 (en) 2015-06-05 2018-04-11 Nissan Motor Co., Ltd. Traffic signal detection device and traffic signal detection method
JP2018095067A (en) 2016-12-13 2018-06-21 株式会社デンソー Recognition device

Also Published As

Publication number Publication date
US20200118294A1 (en) 2020-04-16
US11450029B2 (en) 2022-09-20
DE102019007001A1 (en) 2020-04-16
JP2020064341A (en) 2020-04-23
CN111038387B (en) 2023-05-19
CN111038387A (en) 2020-04-21
JP7184591B2 (en) 2022-12-06

Similar Documents

Publication Publication Date Title
DE102019007001B4 (en) VEHICLE IMAGE PROCESSING DEVICE, VEHICLE IMAGE PROCESSING METHOD, PROGRAM and STORAGE MEDIUM
DE102018116108B4 (en) CALIBRATION TEST METHOD FOR THE OPERATION OF AUTONOMOUS VEHICLES AND VEHICLE WITH A CONTROLLER FOR EXECUTING THE METHOD
DE60005426T2 (en) Rearview monitoring system for vehicles
DE10251880B4 (en) Image recognition device
EP2835973B1 (en) 3D camera and method for capturing of three-dimensional image data
DE102013112171B4 (en) External environment recognition device
DE102011103802A1 (en) Portable image recognition system
DE102016202920A1 (en) Shared vehicle camera
DE10108646A1 (en) Collision deciding apparatus, for motor vehicle, selects particular region image based on speed information, and detects approaching of object for deciding danger of contact
DE102004038494A1 (en) Method and device for operating a sensor system
DE102013112916A1 (en) Vehicle driving support control device
DE102012220089B4 (en) Active vision system with unnoticed directed and modulated lighting
EP2417594A1 (en) Data processing system and method for providing at least one driver assistance function
EP1647448A2 (en) Method and apparatus for improving visibility of a driver in a vehicle
DE102019108610A1 (en) IMPROVING VEHICLE BEHAVIOR USING INFORMATION FROM OTHER VEHICLE LIGHTS
DE102020107960A1 (en) DEVICE FOR OPENING AND CLOSING DOORS
DE102019205542A1 (en) Method and device for pictorial information about cross traffic on a display device of a driven vehicle
DE102019125967A1 (en) Driving control device, driving control method, program
DE10321228B4 (en) Optical detection system for vehicles
DE102019116058A1 (en) METHOD AND DEVICE FOR DETECTING OBJECTS IN CAMERA BLIND ZONES
DE102018215859A1 (en) Method for adaptive data transmission for a teleoperation operation for a means of transportation
EP3221190B1 (en) Vehicle
EP2603403B1 (en) Method of displaying pictures on a display in a motor vehicle, corresponding driver assistance system and vehicle
DE112020003760T5 (en) SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD AND IMAGING DEVICE
DE102006020930B4 (en) Environmental monitoring method for a motor vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R130 Divisional application to

Ref document number: 102019009411

Country of ref document: DE

R081 Change of applicant/patentee

Owner name: MITSUBISHI LOGISNEXT CO., LTD., NAGAOKAKYO-SHI, JP

Free format text: FORMER OWNER: MITSUBISHI HEAVY LNDUSTRIES, LTD., TOKYO, JP