WO2019201537A1 - Method and controller for denoting a person - Google Patents

Method and controller for denoting a person Download PDF

Info

Publication number
WO2019201537A1
WO2019201537A1 PCT/EP2019/056872 EP2019056872W WO2019201537A1 WO 2019201537 A1 WO2019201537 A1 WO 2019201537A1 EP 2019056872 W EP2019056872 W EP 2019056872W WO 2019201537 A1 WO2019201537 A1 WO 2019201537A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
vehicle
environment
image
recognized
Prior art date
Application number
PCT/EP2019/056872
Other languages
German (de)
French (fr)
Inventor
Bastian Volpert
Markus Birk
Stefan Bemetz
Carolin HELLER
Roland Rehtanz
Steffen BIEL
Original Assignee
Zf Friedrichshafen Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zf Friedrichshafen Ag filed Critical Zf Friedrichshafen Ag
Publication of WO2019201537A1 publication Critical patent/WO2019201537A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18036Reversing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/881Radar or analogous systems specially adapted for specific applications for robotics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/12Trucks; Load vehicles
    • B60W2300/121Fork lift trucks, Clarks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/15Fork lift trucks, Industrial trucks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/426Scanning radar, e.g. 3D radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Definitions

  • the invention relates to detecting a person in the vicinity of a vehicle by means of camera-based image acquisition.
  • environment awareness is used on a vehicle to detect environmental situations. This may allow the driver or the vehicle to detect conditions in the vehicle environment, to recognize and respond accordingly to hazards.
  • an emergency braking system for a vehicle is known, which is based on a sensor-based environment detection.
  • the sensor-based environment detection serves to detect and recognize a pedestrian to initiate emergency braking.
  • a further sensor-supported environment detection of a vehicle for perceiving road conditions is known. To do this, sensor data from several sensors is combined to create an environment view.
  • the present invention relates to a method of identifying a person in the vicinity of a vehicle.
  • the marking of the person in the environment of the vehicle can be done visually.
  • a visual identification can be done in an image-based representation of the vehicle environment or in an abstract representation of the vehicle environment.
  • Under the vehicle environment can also be understood an environment around the vehicle.
  • An image-based representation of the vehicle environment may include, for example, at least one region or section of a be captured all around picture or panorama picture.
  • an abstract representation may merely be an abstract representation of the detected person with respect to a vehicle coordinate system without an image-based representation.
  • a visual identification of the person as such can take place by means of any abstract information suitable for visual marking.
  • the marking may be signaling, marking and / or highlighting the person or his environment in a vehicle surroundings display.
  • the person may be identified in such a way temporarily, cyclically or permanently.
  • the person can be displayed to a driver or any other operator or user of the vehicle in an abstract manner.
  • the method of warning against the person in the vicinity of the vehicle can be used.
  • the vehicle may be a non-autonomous vehicle, that is, a manned vehicle, or an autonomous vehicle, that is, a driverless vehicle.
  • the method may be applied so that the designated person is automatically taken into account as additional information in the autonomous operation of the vehicle.
  • Such consideration may include an intervention in the vehicle drive, in the vehicle steering or in a work task performed by the vehicle.
  • emergency braking can be initiated if the person is an obstacle that can not be bypassed, or a deviation from a driving route is performed in order to drive around the person or if a person is reposting a work task, for example, if the person blocks a work site to be approached.
  • Such a response to a person identified may also be performed by a driver of a vehicle himself.
  • a method step is a capture of at least one image with at least one camera arranged on the vehicle, wherein the at least one image has image information relating to the person.
  • the image capture may be capturing or generating a digital image of an area of the vehicle's surroundings corresponding to a viewing angle of the camera as its detection area.
  • the viewing angle can be up to approximately 180 degrees with a wide-angle lens or a fisheye lens.
  • the camera can be any imaging camera sensor, which can be, for example, an RGB camera, an infrared camera or a 3D camera. These can each be a panoramic camera or an omnidirectional camera.
  • the image captured by the camera may have as image information pixels with corresponding RGB information, heat information or depth information.
  • each of the mentioned cameras can also be designed as a video camera.
  • Another method step is recognizing the person based on the image information of the at least one image.
  • Recognition of the person in the image information can be based on known image processing algorithms, for example this can be done by means of segmentation algorithms or matching algorithms.
  • segmentation algorithm semantic segmentation for person recognition may be applied in the image.
  • matching algorithm template matching can be used for this purpose.
  • Yet another method step is to assign a region of an at least partial representation of the surroundings of the vehicle to the recognized person and to identify the area assigned to the person.
  • the area in the environment representation can be defined by an outline, a contour or a silhouette of the person represented himself.
  • the area in the environment representation may also be an area adjacent to the person depicted in the representation. Such an adjacent area may be adjacent to or spaced from the representation of the person.
  • the representation of the environment as such can basically be any real or abstract visualization of the vehicle environment, which is displayed on a visual display device, for example on a screen, as Still image or as a video, can be visualized. If it is an autonomous vehicle, the representation can also be further processed in an in-vehicle process without a visualization made visible to the user of the vehicle. The representation can also be visualized by a user of the autonomous vehicle and remote from the vehicle.
  • a person detected with a camera or a camera system can be visually highlighted, in addition to a mere visual reproduction thereof, by an additional visual identification of the person in order to visually warn the driver or user.
  • An advantageous effect of such a warning system can be the reduction of personal accidents with the vehicle.
  • the invention is based on the finding that a person recognition on the basis of a real image, which is thus incumbent only on the driver or viewer, is disadvantageous, since it can lead to dangerous situations when operating a vehicle.
  • a concept of the invention therefore consists in the fact that both the person recognition and a person identification are automatically provided on a vehicle, in order to immediately and automatically recognize perilous danger situations.
  • the invention can thus be used to warn directly and essentially only automatically when a person is in the vehicle environment, but not when another object is in the vehicle environment.
  • the emergence of a hazardous situation for persons can be minimized. This is especially true when a person abruptly moves toward the vehicle in the vehicle environment or when the vehicle quickly approaches a non-moving person.
  • An embodiment has, as a further method step, detection of at least one point cloud with at least one radar sensor arranged on the vehicle, wherein the at least one point cloud has at least one point with respect to the person.
  • the radar sensor may be a one-dimensionally or punctually sensing sensor, a two-dimensional or fan-like sensing sensor or a three-dimensional or scanning sensor.
  • the point cloud can be a corresponding dimension in the one-dimensional case may already consist of one point.
  • a contour of the person can thus be detected discreetly with individual points, with a horizontally oriented fan-like radar sensor a transverse plane is detected as a contour of the person and with a vertically oriented fan-like radar sensor a sagittal plane or a frontal plane can be detected as a contour of the person.
  • the person detection by means of a radar sensor is advantageous due to its spatially and temporally high resolution.
  • the embodiment has, as additional method steps, a determination of a distance of the recognized person from the vehicle based on the at least one point of the at least one point cloud and a marking of the area assigned to the person as a function of the determined distance.
  • the distance determination may be based on the points detected on the person, for example in the center of gravity of these points, with respect to any point of the vehicle.
  • the distance between the person and the vehicle can be determined with a radar-based distance measurement.
  • the specific distance can be taken into account so that the marking is scaled as a function of the distance. This can be done by means of a distance-dependent coloring of the marking, for example based on a traffic light system.
  • a person who is in a danger area around the vehicle, in the direction of travel or in the working radius can be colored accordingly.
  • a distance-dependent identification and thus a fusion of radar data and image data is advantageous because it can thus be warned in front of people, which may represent a danger due to their relative location to the moving vehicle.
  • the position and orientation of the radar sensor can be determined in the vehicle coordinate system or determined by means of calibration.
  • a distance to a central distance can be determined on the basis of the camera-based image acquisition.
  • detected image processing or person whose position can be determined For example, methods of stereophotogrammetry can be used for this purpose, it being possible to use at least two images of the same or different cameras from different image acquisition locations.
  • image-based person recognition a person can also be identified based on the radar-based point cloud detection. For this purpose, for example, motion patterns of individual points in temporally offset measured point clouds can be taken into account.
  • the embodiment may, as additional method steps, comprise determining a directional angle of the recognized person with respect to a vehicle-specific reference direction based on the at least one point of the at least one point cloud and marking the area associated with the person as a function of the determined direction angle.
  • the vehicle-specific reference direction can be determined for example by the vehicle longitudinal axis.
  • a further embodiment has, as a further method step, a visualization of the at least partial representation of the environment of the vehicle based on the at least one captured image.
  • the visualization of the vehicle environment may be based on a single image of a camera or on a combination of several images of one or more cameras. Multiple images can be stitched together to form a bird's-eye view image, a panoramic image or an all-around image of the vehicle environment using stitching and projection.
  • Such a pictorial representation has the advantage that the environment of the vehicle can be reproduced in real and a person identified in it can be placed in an intuitive spatial relation to the vehicle environment.
  • the at least partial representation of the surroundings of the vehicle is an image of the surroundings of the vehicle from a bird's-eye view.
  • the environment of the vehicle or a part of the same can basically in any Perspective, for example, in a side view, in a perspective view or in a plan view are shown.
  • An environment representation from a bird's-eye view can be advantageous, since with it the vehicle itself can be represented and thus spatial relations between the person identified in the representation and the vehicle can be recognized.
  • the bird's eye view may be based on a central projection or a spherical projection of at least one image on a presentation plane.
  • Such a "bowl" presentation has the advantage that almost the entire vehicle environment can be visualized in an image.
  • a panoramic image can also be generated with a spherical projection.
  • the assigned area is formed based on a contour of the recognized person.
  • the marking of the person can thus refer to a line-like or area-like marking based on the contour, that is to say a marking based on an outline of the person in its pictorial representation.
  • the visible in a pictorial representation of the person and / or the vehicle environment contour can thus be marked abstract in any representation perspective and thus highlighted in the representation visually.
  • the contour or the area enclosed by it can be colored.
  • the contour may correspond to the silhouette of the person or have a symbolic contour, which may differ from the actual silhouette.
  • the assigned area has a segment with respect to a foot point of the recognized person in the at least partial representation of the surroundings of the vehicle.
  • the segment may be any geometric shape suitable for identifying the person.
  • the segment may be bar-shaped, circular or triangular.
  • a corresponding segment can be arranged to identify the person in the environment representation so that it includes a projection point of the person on a presentation level.
  • the segment may also be located adjacent or spaced from the projection point in the illustration.
  • Such a segment-like representation may be advantageous because the person can not be covered as in a contour-based areal labeling, but can be surrounded by the segment. this has the effect that a real representation of the person and an abstract marking of the same can be combined in one presentation.
  • the person can be covered or deposited with a partially transparent colored area segment for this purpose.
  • Full coverage of the person has the beneficial effect of generalizing a detailed environment representation.
  • a further embodiment has, as a further method step, a marking of the area assigned to the person with a visual warning signal.
  • the warning signal can be a visual warning signal which has at least one coloring of the assigned area and its visualization or display.
  • the coloring can be done with a signal color, for example red, yellow or green.
  • the warning signal can be visualized temporarily, ie flashing, cyclically, that is flashing, or permanently, ie permanently lit.
  • Dyeing of the area assigned to the person can be effected as a function of the distance, that is to say with a choice of color as a function of the distance between the vehicle and the person.
  • the coloring can also be done depending on the direction angle of the person with respect to the vehicle-specific reference direction.
  • the area associated with the person can be dyed with a different signal color, for example green, if there is no danger from this person, that is, if he is not in the vicinity of the vehicle, not in the direction of travel or outside the working radius of the vehicle ,
  • the close range can be a few meters.
  • the direction of travel may be determined based on a route or movement trajectory of the vehicle.
  • a further embodiment has, as a further method step, determining a relative position of the person with respect to the vehicle based on at least one of the steps of detection, that is, based on the step of capturing an image with the camera and / or based on the step of detecting a point cloud with the radar sensor, on.
  • the relative position can be a relative position of the person with respect to the vehicle and / or a relative direction or angle between a vehicle-specific reference direction and the person.
  • the consideration of the relative position is advantageous since the identification of the person or of the area assigned to her can be carried out on the basis of a vehicle-specific coordinate system detached from a superordinate coordinate system. In this way, it is possible to make a self-sufficient warning in a moving vehicle and in the near real-time to a person in their environment.
  • the embodiment has, as an additional method step, a marking of the area assigned to the person as a function of the determined relative position.
  • a person identification or a marking of a person assigned area can thus take place in dependence of the position of the person in a vehicle coordinate system.
  • Hazardous areas can thus be defined in the coordinate system of the vehicle, with marking only taking place when the person is in such a danger area.
  • An advantageous effect of this may be that, independently of a current absolute position of the vehicle, an area for a vehicle-mounted tool can be defined, in which a person can be identified.
  • a further embodiment has, as a further method step, an indication of the determined relative position in the representation of the environment of the vehicle.
  • an indication of the determined relative position in the representation of the environment of the vehicle In addition to identifying the area associated with the person, in the illustration, a distance to a person, a distance between the vehicle and the person, a directional angle to the person can be displayed. In addition, these parameters can also be used as the basis for operating an autonomous vehicle without displaying it.
  • This embodiment has the advantage that additional visual information about persons in the vicinity of the vehicle can be provided to a driver or user.
  • a further embodiment has, as a further method step, detection of a multiplicity of point clouds with at least one radar sensor arranged on the vehicle, the point clouds each having at least one point with respect to the person.
  • the acquisition of the point clouds can be synchronized with several sensors. chron.
  • a large area of the vehicle environment can be detected from a single location of the vehicle.
  • fan-like scanning radar sensors can be combined in such a way that a large number of persons can be detected synchronously in different vertical and / or horizontal detection planes.
  • the detection of the point clouds with one or more sensors can be carried out continuously, that is to say temporally successively, at specific time intervals.
  • points can be recorded with respect to the same person and thus the person tracked or tracked.
  • This has the advantageous effect that in addition to the location of the person and their movement or kinematics can be determined.
  • This in turn has the advantage that even a moving person can be marked continuously in the near real time.
  • the embodiment has, as additional method steps, determining a movement behavior of the person based on the detected point clouds, wherein the movement behavior comprises at least one of resting the person, moving the person, a direction of movement of the person, a movement speed of the person and a change of one these movement characteristics, and further identifying the area assigned to the person as a function of the determined movement behavior.
  • the marking of the area assigned to the person in dependence of one or more of the named types can thus visualize the movement of the person, that is, reproduce it.
  • the movement may be related to a location or movement of the vehicle, and a danger situation derived therefrom.
  • a further embodiment has, as a further method step, an indication of the determined movement behavior in the representation of the surroundings of the vehicle.
  • one or more movement behavior of the person can be displayed in the display.
  • these motion parameters can also be used as the basis for operating an autonomous vehicle without displaying them.
  • This embodiment has the advantage that additional visual information on the movement behavior of persons in the vicinity of the vehicle can be provided to a driver or user.
  • a further embodiment has, as further method steps, a classification of the recognized person as a person moving or as a non-moving person and a marking of the recognized person as a function of the classification. For example, a person staying in the vehicle environment can then be identified when it is in motion. An identification of the area assigned to the person can alternatively or additionally be carried out on each of the mentioned movement characteristics alone or, for example, on the basis of a corresponding truth table. Classification may also be classifying, and classifying may also be understood as classifying. Identifying a person as a function of a classification is advantageous, as it can only be used to warn persons of artificial intelligence when they pose a danger. A driver or user remains so constantly aware of hazards, as an unnecessary warning of non-existent hazards can be minimized. Furthermore, deliberate ignoring of a perceived lack of danger by the driver or user can be minimized.
  • a further embodiment has, as a further method step, outputting of a warning signal as a reaction to a recognized person.
  • the issuing of the warning signal can be effected as a function of the classification according to the movement behavior, that is, if the person has been classified as moved or as not moved.
  • a warning signal can be separately visualized or output. This can basically any other Warning signal be visualized or issued to warn the driver or user in front of a person in the vehicle environment.
  • any medium such as a screen, a speaker or a display can be used.
  • the warning signal may be a visual warning signal, for example a light signal from a beacon.
  • the warning signal can also be an audible warning signal, for example a sound from a horn.
  • the warning signal may also be a haptic warning signal, for example triggered by a vibration of a steering wheel or control lever of the vehicle.
  • One or more such warning signals reinforce advantageously in addition to the identification of the person a warning of a dangerous situation.
  • a further embodiment has, as a further method step, intervention in the drive train of the vehicle as a reaction to a recognized person. If a person is marked, possibly as a function of one of the classifications mentioned, intervention can be made in the vehicle drive or drive train of the vehicle. An autonomously driving vehicle can thus be braked automatically or diverted around the person as an obstacle. Further, an emergency stop or emergency stop may be performed as a result of the designated person to avoid collision with the person. Especially for the operation of autonomous vehicles, such a response can be an improvement in the safety of people staying in the vicinity of the vehicle.
  • a further embodiment has, as a further method step, detection of an object which is not a person based on the image information of the at least one image, wherein the at least one image has image information relating to the object.
  • each method step of the invention or one of its embodiments can also be applied to any object recognizable in an image which is not a person.
  • the embodiment has an allocation of a region of the visualized, at least partial, representation of the environment of the vehicle to the object recognized in the image information and a marking of the region assigned to the object.
  • each method step of the invention or one of its embodiments can furthermore also be applied to a recognition and identification of the object, which is not a person.
  • substantially all objects in the vehicle environment can also be identified.
  • an object can also be assigned to one of the areas mentioned in connection with the marking of a person. This has the advantage that the vehicle environment can be monitored with regard to a large number of obstacles.
  • a further embodiment has, as further method steps, a classification as a recognized person or as a recognized object and a marking of the area assigned to the person and of the area assigned to the object as a function of the classification.
  • an identification step may take place in one of the mentioned types if it concerns one person and another labeling step takes place in another of the named types if the object is or is omitted.
  • the classification of this embodiment may be combined with the classification based on the mentioned motion characteristics. Identifying a person as a function of one of these classifications is advantageous because it can further minimize unnecessary warning of non-existing hazards.
  • the present invention further relates to a control device which is adapted to carry out the method steps of the invention or the method steps of one or more of its embodiments.
  • the control device may be a control device with which such, programmed method steps can be controlled or regulated on the vehicle and / or in a user environment of a user of an autonomous vehicle.
  • the present invention also relates to a vehicle having such a control device.
  • the vehicle may be autonomous, semi-autonomous or non-autonomous Be a vehicle.
  • the vehicle may be any vehicle designed to transport people and / or goods.
  • the vehicle can basically be any manned or unmanned transport vehicle, for example from the field of logistics, or any work vehicle.
  • the vehicle is an autonomous industrial truck.
  • a material handling vehicle may for example be a forklift.
  • the at least one camera arranged on the vehicle is arranged at a rear region of the industrial truck.
  • the arrangement of sensors in general and the camera or the radar sensor in particular in the rear area of an industrial truck, for example, the forklift, is advantageous because there are stationary vehicle parts in the rear area.
  • An alternative or additional arrangement of a sensor on a front area, for example on a lift mast of a fork-lift truck, or a side area can also be provided. In these areas, however, moving parts of the vehicle, such as the fork of the forklift, which can make a fixed positioning difficult.
  • a lateral arrangement of at least one camera or a radar sensor can produce a corresponding lateral detection area.
  • FIG. 1 shows a flowchart with method steps of an exemplary embodiment of a method for identifying a person who is located in the environment of a vehicle.
  • Figure 2 shows an embodiment of a vehicle in a perspective
  • FIG. 3 shows exemplary embodiments of a marking of a person located in the surroundings of the vehicle for further explanation of the method according to FIG. 1 and of the vehicle according to FIG. 2.
  • FIG. 4 shows further exemplary embodiments of a marking in the
  • method steps S1, S2, S3, S4, S5 are shown in a time sequence for carrying out the method for identifying a person 2 who is in the environment 4 of a forklift 10 as a vehicle 2 (see the following figures).
  • a first sub-step K1 an image of the surroundings 4 of the forklift 10 is recorded with each of the cameras 22, 24, 26. At least one of these images from one of the cameras 22, 24, 26 has image information relating to the person 2.
  • each of the radar sensors 32, 34, 36 detects a point cloud with respect to the environment 4 of the forklift 10, wherein in at least one of these point clouds a point with respect to the person 2 is present.
  • a person recognition is carried out based on the data acquired in step S1 with the cameras 22, 24, 26 or with the radar sensors 32, 34, 36.
  • the person 2 is automatically detected by means of image processing based on image information of at least one image of the cameras 22, 24, 26.
  • a second substep R2 based on at least one point cloud of a radar sensor 32, 34, 36, a distance or a movement behavior of the person 2 identified in substep K2 is determined.
  • the image information of at least one of the images captured with the cameras 22, 24, 26 and at least one of the point clouds, which are associated with the radar Sensors 32, 34, 36 have been detected, are transformed by means of a transformation in a common coordinate system, to establish a spatial relationship between the image information and the point clouds.
  • image information which comprises at least one pixel or its value or values and one point of a point cloud are assigned to the same person.
  • the environment 4 of the forklift 10 is visualized based on the images captured by the cameras 22, 24, 26.
  • the images of the cameras 22, 24, 26 are combined by stitching to form an overall image of the environment 4 of the forklift 10, this image 5 shows the environment 4 from a bird's eye view.
  • the image 5 of the environment 4 of the forklift 10 is to be seen in the center, which includes the center of a central projection of Figure 5 underlying.
  • step S4 an area of the image 5 of the environment 4 of the forklift 10 is assigned to a person 2 identified in the sub-step K2.
  • the environment representation performed in step S3 and the area allocation performed in step S4 will be explained in more detail with reference to FIGS. 3 and 4.
  • step S5 the person 2 identified in sub-step K2 is signaled by identifying the area assigned to her in step S4.
  • the personal identification carried out in step S5 will also be explained in more detail with reference to FIGS. 3 and 4.
  • FIG. 2 shows a forklift 10 as a vehicle with a control unit 50 for carrying out the method steps S1, S2, S3, S4, S5 according to FIG.
  • the cameras 22, 24, 26 are arranged on a roof 12 of the forklift 10, with the first camera 22 as a rearview camera, the second camera 24 as a camera looking laterally to the left and the third camera 26 as a camera looking laterally to the right with corresponding viewing angles are set back, left and right.
  • the cameras 22, 24, 26 are designed as wide-angle cameras, wherein their respective viewing angle is up to about 180 degrees.
  • the first radar sensor 32 and the second radar sensor 34 are each arranged on a lateral spar 13 of an open cab 14 of the forklift 10. The driver's cab 14 is bounded at the top by the roof 12 and to the rear by the two bars 13.
  • the radar sensors 32, 34 are fan-like scanning radar sensors 32, 34, which form a scanning plane horizontally, obliquely or vertically at the level of their respective mounting location on the bars 13.
  • the radar sensors 32, 34 are mounted at approximately the same height on the bars 13, whereby they detect point clouds in a common scan plane, for example in a horizontal plane.
  • Another radar sensor 36 is disposed below the other radar sensors 32, 34 on the chassis 15 of the forklift 10 in the rear region 1 1.
  • the further radar sensor 36 detects a point cloud in a scanning plane spanned by the other two radar sensors 32, 34.
  • the Scakes are here parallel to each other, for example, horizontally aligned.
  • the radar sensors 32, 34, 36 are each identical cameras or sensors.
  • FIG. 3 persons 2 staying in the environment 4 of the forklift 10 are identified in a so-called top-view view.
  • An area assigned to persons 2 is defined in each case by their illustrated contour 3.
  • the contour 3 is filled to identify the person each with a signal color, for example, red.
  • the person 2 is colored within its contour 3.
  • the contour 3 of the person 2 is extracted from a background image visualized representation of the environment 4 of the forklift 1 1.
  • the control unit 50 is used, which is also designed as a central evaluation unit 40 for generating the image 5.
  • beam segments 6 are visualized as areas assigned to the person 2 as a further exemplary embodiment.
  • the beam segments 6 are dyed with different signal colors, for example red for close persons 2, yellow for persons 2 further away and green for persons 2 located further away.
  • the longitudinal axis of the forklift 1 1 per person 2 are a plurality of respective beam segments 6 at a foot of each person 2 projected and so shown in Figure 5 of the environment of the forklift 1 1.
  • the distances are calculated from the point clouds of the radar sensors 32, 34, 36 based on the points of the point clouds assigned to a person 2 by means of the evaluation unit 40.
  • the marking of a person 2 by means of one or more beam segments 6 is further shown on an object 9, which is not a person 2, by means of evaluation of the point clouds generated by the radar sensors 32, 34, 36 by the evaluation unit 40.
  • FIG. 4 of identifying a person 2 located in the environment 4 of the forklift 10 initially differ from the exemplary embodiments shown in FIG. 3 in that an image 5 of the environment 4 of the forklift 10 is made of an abstract background and of one of the Cameras 22, 24, 26 extracted by stitching of the evaluation unit 40 generated panoramic image persons 2 is formed.
  • the embodiments may therefore be referred to as simplified.
  • Another difference is that for identifying the persons 2 not their contour 3 is used and colored, but that each person 2 is assigned a circle segment 7, which is shown below her feet. The center of each circle segment refers to the position or representation of the forklift 10.
  • the respective circle segment 7 is colored in dependence of the distance between a person 2 and the forklift 10, which is determined radar-based, by means of a signal color.
  • the associated circle segment 7 of a close to the forklift 11 resident person 2 is dyed, for example, with red, a circle segment of a person further away is colored, for example, yellow and a circle segment of an even further away person 2 is dyed, for example, with green.
  • line segments 8 represent a standard for the distance-dependent coloration mentioned by way of example.
  • the line segments 8 thus also define a region assigned to a person 2, which area is colored according to the distance.
  • FIGS. 3 and 4 explain how a person 2 in the environment 4 of a forklift 10 is indicated to his or her forklift 10 by means of abstract marking of an associated area of an environment representation with a signal color, and how he thus appears in front of the person 2 is warned.

Abstract

A method for denoting a person (2) who is in the surroundings (4) of a vehicle, wherein the method involves, as steps, capturing (K1) at least one image using at least one camera (22, 24, 26) arranged on the vehicle, wherein the at least one image has image information in respect of the person (2), recognising (K2) the person (2) on the basis of the image information of the at least one image, associating (S4) an area of an at least partial representation of the surroundings (4) of the vehicle with the recognised person (2) and denoting (S5) the area associated with the person (2), and a controller for performing the method.

Description

Verfahren und Steuergerät zum Kennzeichnen einer Person  Method and control device for identifying a person
Technisches Gebiet Technical area
Die Erfindung betrifft ein Erfassen einer sich im Umfeld eines Fahrzeugs befindenden Person mittels kamerabasierter Bilderfassung. The invention relates to detecting a person in the vicinity of a vehicle by means of camera-based image acquisition.
Stand der Technik State of the art
Zum Realisieren von Fahrerassistenzsystemen wird zum Erkennen von Umfeldsituationen Umfeldsensorik auf einem Fahrzeug verwendet. Dies kann dem Fahrer beziehungsweise dem Fahrzeug erlauben, Zustände im Fahrzeugumfeld zu erfassen, zu erkennen und entsprechend auf Gefahren zu reagieren. For realizing driver assistance systems environment awareness is used on a vehicle to detect environmental situations. This may allow the driver or the vehicle to detect conditions in the vehicle environment, to recognize and respond accordingly to hazards.
Aus der DE 102015209857 A1 ist ein Notbremssystem für ein Fahrzeug bekannt, welches auf einer sensorgestützten Umfelderfassung basiert. Die sensorgestützte Umfelderfassung dient dabei dem Erfassen und Erkennen eines Fußgängers, um eine Notbremsung einzuleiten. Ferner ist aus der DE 102017120498 A1 eine weitere sensorgestützte Umfelderfassung von einem Fahrzeug zum Wahrnehmen von Fahrbahnbedingungen bekannt. Hierzu werden Sensordaten mehrerer Sensoren zum Erzeugen einer Umgebungsansicht kombiniert. From DE 102015209857 A1 an emergency braking system for a vehicle is known, which is based on a sensor-based environment detection. The sensor-based environment detection serves to detect and recognize a pedestrian to initiate emergency braking. Furthermore, from DE 102017120498 A1 a further sensor-supported environment detection of a vehicle for perceiving road conditions is known. To do this, sensor data from several sensors is combined to create an environment view.
Darstellung der Erfindung Presentation of the invention
Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Kennzeichnen einer sich im Umfeld eines Fahrzeugs befindenden Person. The present invention relates to a method of identifying a person in the vicinity of a vehicle.
Das Kennzeichnen der sich im Umfeld des Fahrzeugs befindenden Person, beispielsweise eines Fußgängers, kann visuell erfolgen. Eine derartige visuelle Kennzeichnung kann in einer bildbasierten Darstellung des Fahrzeugumfelds oder in einer abstrakten Darstellung des Fahrzeugumfelds erfolgen. Unter dem Fahrzeugumfeld kann auch eine Umgebung um das Fahrzeug verstanden werden. Eine bildbasierte Darstellung des Fahrzeugumfelds kann beispielsweise zumindest ein Bereich oder Ausschnitt eines er- fassten Rundumbilds oder Panoramabilds sein. Eine abstrakte Darstellung kann beispielsweise lediglich eine abstrakte Darstellung der erfassten Person mit Bezug auf ein Fahrzeugkoordinatensystem ohne eine bildbasierte Darstellung sein. The marking of the person in the environment of the vehicle, for example a pedestrian, can be done visually. Such a visual identification can be done in an image-based representation of the vehicle environment or in an abstract representation of the vehicle environment. Under the vehicle environment can also be understood an environment around the vehicle. An image-based representation of the vehicle environment may include, for example, at least one region or section of a be captured all around picture or panorama picture. For example, an abstract representation may merely be an abstract representation of the detected person with respect to a vehicle coordinate system without an image-based representation.
Ein visuelles Kennzeichnen der Person als solches kann grundsätzlich mittels jeder zum visuellen Kennzeichnen geeigneten abstrakten Information erfolgen. Das Kennzeichnen kann ein Signalisieren, ein Markieren und/oder ein Hervorheben der Person oder ihrer Umgebung in einer Fahrzeugumfelddarstellung sein. Die Person kann auf eine derartige Weise darin temporär, zyklisch oder permanent gekennzeichnet werden. Durch ein derartiges Kennzeichnen der sich im Umfeld des Fahrzeugs befindenden Person kann einem Fahrer oder jedem anderen Bediener oder Nutzer des Fahrzeugs die Person in abstrakter Weise angezeigt werden. Damit kann das Verfahren zum Warnen vor der sich im Umfeld des Fahrzeugs befindenden Person angewandt werden. As a matter of principle, a visual identification of the person as such can take place by means of any abstract information suitable for visual marking. The marking may be signaling, marking and / or highlighting the person or his environment in a vehicle surroundings display. The person may be identified in such a way temporarily, cyclically or permanently. By characterizing the person who is located in the vicinity of the vehicle, the person can be displayed to a driver or any other operator or user of the vehicle in an abstract manner. Thus, the method of warning against the person in the vicinity of the vehicle can be used.
Das Fahrzeug kann ein nicht autonomes Fahrzeug, das heißt ein bemanntes Fahrzeug, oder ein autonomes Fahrzeug, das heißt ein führerlos fahrbares Fahrzeug sein. Handelt es sich um ein autonomes Fahrzeug kann das Verfahren dahingehend angewandt werden, dass die gekennzeichnete Person als zusätzliche Information im autonomen Betrieb des Fahrzeugs automatisch berücksichtigt wird. Ein derartiges Berücksichtigen kann einen Eingriff in den Fahrzeugantrieb, in die Fahrzeuglenkung oder in eine von dem Fahrzeug durchgeführte Arbeitsaufgabe aufweisen. So kann beispielsweise eine Notbremsung eingeleitet werden, falls die Person ein nicht umfahrbares Hindernis darstellt, oder ein Abweichen von einer Fahrroute ausgeführt werden, um die Person zu umfahren oder ein Umdisponieren einer Arbeitsaufgabe ausgeführt werden, falls die Person beispielsweise einen anzufahrenden Arbeitsort blockiert. Eine derartige Reaktion auf eine gekennzeichnete Person kann auch von einem Fahrer eines Fahrzeugs selbst ausgeführt werden. The vehicle may be a non-autonomous vehicle, that is, a manned vehicle, or an autonomous vehicle, that is, a driverless vehicle. In the case of an autonomous vehicle, the method may be applied so that the designated person is automatically taken into account as additional information in the autonomous operation of the vehicle. Such consideration may include an intervention in the vehicle drive, in the vehicle steering or in a work task performed by the vehicle. Thus, for example, emergency braking can be initiated if the person is an obstacle that can not be bypassed, or a deviation from a driving route is performed in order to drive around the person or if a person is reposting a work task, for example, if the person blocks a work site to be approached. Such a response to a person identified may also be performed by a driver of a vehicle himself.
Ein Verfahrensschritt ist ein Erfassen zumindest eines Bilds mit mindestens einer auf dem Fahrzeug angeordneten Kamera, wobei das zumindest eine Bild Bildinformationen bezüglich der Person aufweist. Die Bilderfassung kann ein Aufnehmen oder Erzeugen eines digitalen Bilds eines Bereichs des Fahrzeugumfelds entsprechend einem Blickwinkel der Kamera als deren Erfassungsbereich sein. Der Blickwinkel kann mit einem Weitwinkelobjektiv oder Fis- heye-Objektiv einen sphärischen Bereich bis ungefähr 180 Grad umfassen. Bei der Kamera kann es sich grundsätzlich um jeden bildgebenden Kamerasensor handeln, wobei dieser beispielsweise eine RGB-Kamera, eine Infrarot-Kamera oder eine 3D- Kamera sein kann. Hierbei kann es sich jeweils um eine Panoramakamera oder eine omnidirektionale Kamera handeln. Das mit der Kamera erfasste Bild kann als Bildinformationen Pixel mit entsprechenden RGB-Informationen, Wärmeinformationen oder Tiefeninformationen aufweisen. Zum kontinuierlichen Erfassen der Person kann jede der genannten Kameras auch als Videokamera ausgebildet sein. A method step is a capture of at least one image with at least one camera arranged on the vehicle, wherein the at least one image has image information relating to the person. The image capture may be capturing or generating a digital image of an area of the vehicle's surroundings corresponding to a viewing angle of the camera as its detection area. The viewing angle can be up to approximately 180 degrees with a wide-angle lens or a fisheye lens. In principle, the camera can be any imaging camera sensor, which can be, for example, an RGB camera, an infrared camera or a 3D camera. These can each be a panoramic camera or an omnidirectional camera. The image captured by the camera may have as image information pixels with corresponding RGB information, heat information or depth information. For continuous detection of the person, each of the mentioned cameras can also be designed as a video camera.
Ein weiterer Verfahrensschritt ist ein Erkennen der Person basierend auf den Bildinformationen des zumindest einen Bilds. Another method step is recognizing the person based on the image information of the at least one image.
Ein Erkennen der Person in den Bildinformationen kann basierend auf bekannten Bildverarbeitungsalgorithmen erfolgen, beispielsweise kann dies mittels Segmentierungsalgorithmen oder Matchingalgorithmen durchgeführt werden. Als ein Segmentierungsalgorithmus kann eine semantische Segmentierung zur Personenerkennung in dem Bild angewandt werden. Als ein Matchingalgorithmus kann hierzu ein Template-Matching angewandt werden. Recognition of the person in the image information can be based on known image processing algorithms, for example this can be done by means of segmentation algorithms or matching algorithms. As a segmentation algorithm, semantic segmentation for person recognition may be applied in the image. As a matching algorithm, template matching can be used for this purpose.
Noch ein weiterer Verfahrensschritt ist ein Zuordnen eines Bereichs einer zumindest teilweisen Darstellung des Umfelds des Fahrzeugs zu der erkannten Person und Kennzeichnen des der Person zugeordneten Bereichs. Yet another method step is to assign a region of an at least partial representation of the surroundings of the vehicle to the recognized person and to identify the area assigned to the person.
Der Bereich in der Umfelddarstellung kann durch einen Umriss, eine Kontur oder eine Silhouette der dargestellten Person selbst definiert sein. Der Bereich in der Umfelddarstellung kann auch ein zu der dargestellten Person in der Darstellung benachbarter Bereich sein. Ein derart benachbarter Bereich kann an die Darstellung der Person selbst angrenzen oder zu ihr beabstandet sein. Die Darstellung des Umfelds als solche kann grundsätzlich jede reale oder abstrakte Visualisierung des Fahrzeugumfelds sein, wobei diese auf einem visuellen Anzeigegerät, beispielsweise auf einem Bildschirm, als Standbild oder als Video, visualisiert werden kann. Handelt es sich um ein autonomes Fahrzeug kann die Darstellung auch in einem fahrzeuginternen Prozess weiterverarbeitet werden ohne eine für den Nutzer des Fahrzeugs sichtbar gemachte Darstellung. Die Darstellung kann einem Nutzer des autonomen Fahrzeugs auch von dem Fahrzeug getrennt und davon entfernt visualisiert werden. The area in the environment representation can be defined by an outline, a contour or a silhouette of the person represented himself. The area in the environment representation may also be an area adjacent to the person depicted in the representation. Such an adjacent area may be adjacent to or spaced from the representation of the person. As such, the representation of the environment as such can basically be any real or abstract visualization of the vehicle environment, which is displayed on a visual display device, for example on a screen, as Still image or as a video, can be visualized. If it is an autonomous vehicle, the representation can also be further processed in an in-vehicle process without a visualization made visible to the user of the vehicle. The representation can also be visualized by a user of the autonomous vehicle and remote from the vehicle.
Im Rahmen der Erfindung kann somit eine mit einer Kamera oder einem Kamerasystem erfasste Person neben einer bloßen visuellen Wiedergabe derselben vielmehr durch eine zusätzliche visuelle Kennzeichnung der Person optisch hervorgehoben werden, um den Fahrer oder Nutzer visuell zu warnen. Ein vorteilhafter Effekt eines solchen Warnsystems kann die Reduzierung von Personenunfällen mit dem Fahrzeug sein. In the context of the invention, therefore, a person detected with a camera or a camera system can be visually highlighted, in addition to a mere visual reproduction thereof, by an additional visual identification of the person in order to visually warn the driver or user. An advantageous effect of such a warning system can be the reduction of personal accidents with the vehicle.
Der Erfindung liegt die Erkenntnis zugrunde, dass eine Personenerkennung auf Basis eines realen Bilds, welche somit lediglich dem Fahrer oder Betrachter obliegt, nachteilig ist, da sie zu Gefahrensituation beim Betreiben eines Fahrzeugs führen kann. Ein Konzept der Erfindung besteht daher darin, dass sowohl die Personenerkennung als auch eine Personenkennzeichnung automatisch auf einem Fahrzeug bereitgestellt wird, um personengefährdende Gefahrensituationen unmittelbar und automatisch zu erkennen. The invention is based on the finding that a person recognition on the basis of a real image, which is thus incumbent only on the driver or viewer, is disadvantageous, since it can lead to dangerous situations when operating a vehicle. A concept of the invention therefore consists in the fact that both the person recognition and a person identification are automatically provided on a vehicle, in order to immediately and automatically recognize perilous danger situations.
Dies ist vorteilhaft, da somit mit der Erfindung direkt und im Wesentlichen nur dann automatisch gewarnt werden kann, wenn sich eine Person im Fahrzeugumfeld befindet, jedoch nicht, wenn sich ein anderes Objekt im Fahrzeugumfeld befindet. Hierdurch kann das Entstehen einer personengefährdenden Gefahrensituation minimiert werden. Dies trifft vor allem dann zu, wenn eine Person sich abrupt im Fahrzeugumfeld auf das Fahrzeug zu bewegt oder wenn sich das Fahrzeug schnell einer sich nicht bewegenden Person nähert. This is advantageous since the invention can thus be used to warn directly and essentially only automatically when a person is in the vehicle environment, but not when another object is in the vehicle environment. As a result, the emergence of a hazardous situation for persons can be minimized. This is especially true when a person abruptly moves toward the vehicle in the vehicle environment or when the vehicle quickly approaches a non-moving person.
Eine Ausführungsform weist als weiteren Verfahrensschritt ein Erfassen zumindest einer Punktwolke mit mindestens einem auf dem Fahrzeug angeordneten Radarsensor auf, wobei die zumindest eine Punktwolke mindestens einen Punkt bezüglich der Person aufweist. Der Radarsensor kann ein eindimensional oder punktuell erfassender Sensor, ein zweidimensional oder fächerartig erfassender Sensor oder ein dreidimensional oder scannender Sensor sein. Die Punktwolke kann eine entsprechend Dimension aufweisen, wobei diese im eindimensionalen Fall bereits aus einem Punkt bestehen kann. Mit dem Radarsensor kann eine Kontur der Person somit diskret mit Einzelpunkten erfasst werden, wobei mit einem horizontal ausgerichteten fächerartigen Radarsensor eine Transversalebene als Kontur der Person erfassbar ist und mit einem vertikal ausgerichteten fächerartigen Radarsensor eine Sagittalebene oder eine Frontalebene als Kontur der Person erfassbar ist. Die Personenerfassung mittels eines Radarsensors ist aufgrund dessen räumlich und zeitlich hohen Auflösung vorteilhaft. An embodiment has, as a further method step, detection of at least one point cloud with at least one radar sensor arranged on the vehicle, wherein the at least one point cloud has at least one point with respect to the person. The radar sensor may be a one-dimensionally or punctually sensing sensor, a two-dimensional or fan-like sensing sensor or a three-dimensional or scanning sensor. The point cloud can be a corresponding dimension in the one-dimensional case may already consist of one point. With the radar sensor, a contour of the person can thus be detected discreetly with individual points, with a horizontally oriented fan-like radar sensor a transverse plane is detected as a contour of the person and with a vertically oriented fan-like radar sensor a sagittal plane or a frontal plane can be detected as a contour of the person. The person detection by means of a radar sensor is advantageous due to its spatially and temporally high resolution.
Die Ausführungsform weist als zusätzliche Verfahrensschritte ein Bestimmen eines Abstands der erkannten Person von dem Fahrzeug basierend auf dem mindestens einen Punkt der zumindest einen Punktwolke und ein Kennzeichnen des der Person zugeordneten Bereichs in Abhängigkeit des bestimmten Abstands auf. Die Abstandsbestimmung kann basierend auf den auf der Person erfassten Punkten, beispielsweise im Schwerpunkt dieser Punkte, bezogen auf einen beliebigen Punkt des Fahrzeugs, erfolgen. Hiermit kann der Abstand zwischen der Person und dem Fahrzeug mit einer radarbasierten Entfernungsmessung bestimmt werden. In einer Kennzeichnung der Person kann der bestimmte Abstand dahingehend berücksichtigt werden, dass die Kennzeichnung abstandsabhängig skaliert wird. Dies kann mittels einer abstandsabhängigen Farbgebung der Kennzeichnung, beispielsweise basierend auf einem Ampelsystem, erfolgen. Eine Person, welche sich in einem Gefahrenbereich um das Fahrzeug, in dessen Fahrtrichtung oder in dessen Arbeitsradius befindet kann so entsprechend eingefärbt werden. Eine abstandsabhängige Kennzeichnung und somit eine Fusion von Radardaten und Bilddaten ist vorteilhaft, da somit vor Personen gewarnt werden kann, welche aufgrund ihres relativen Aufenthaltsorts zum sich bewegenden Fahrzeug eine Gefahr darstellen können. The embodiment has, as additional method steps, a determination of a distance of the recognized person from the vehicle based on the at least one point of the at least one point cloud and a marking of the area assigned to the person as a function of the determined distance. The distance determination may be based on the points detected on the person, for example in the center of gravity of these points, with respect to any point of the vehicle. Hereby, the distance between the person and the vehicle can be determined with a radar-based distance measurement. In a characterization of the person, the specific distance can be taken into account so that the marking is scaled as a function of the distance. This can be done by means of a distance-dependent coloring of the marking, for example based on a traffic light system. A person who is in a danger area around the vehicle, in the direction of travel or in the working radius can be colored accordingly. A distance-dependent identification and thus a fusion of radar data and image data is advantageous because it can thus be warned in front of people, which may represent a danger due to their relative location to the moving vehicle.
Basierend auf dem mindestens einen Punkt der Punktwolke bezüglich der Person kann auch deren Position relativ zum Fahrzeug in einem Fahrzeugkoordinatensystem ermittelt werden. Hierfür kann die Position und Ausrichtung des Radarsensors im Fahrzeugkoordinatensystem bestimmt sein oder mittels Kalibrierung festgestellt werden. Based on the at least one point of the point cloud with respect to the person and their position relative to the vehicle in a vehicle coordinate system can be determined. For this purpose, the position and orientation of the radar sensor can be determined in the vehicle coordinate system or determined by means of calibration.
Alternativ oder zusätzlich zur radarbasierten Abstandsfestlegung oder Positionsbestimmung kann basierend auf der kamerabasierten Bilderfassung ein Abstand zu einer mit- tels Bildverarbeitung erkannten Person oder deren Position ermittelt werden. Hierzu können beispielsweise Methoden der Stereophotogrammetrie angewandt werden, wobei mindestens zwei Bilder derselben oder verschiedener Kameras von unterschiedlichen Bilderfassungsorten verwendet werden können. Zusätzlich zur bildbasierten Personenerkennung kann auch basierend auf der radarbasierten Punktwolkenfassung eine Person erkannt werden. Hierzu können beispielsweise Bewegungsmuster einzelner Punkte in zeitlich versetzt gemessenen Punktwolken berücksichtigt werden. As an alternative or in addition to the radar-based distance definition or position determination, a distance to a central distance can be determined on the basis of the camera-based image acquisition. detected image processing or person whose position can be determined. For example, methods of stereophotogrammetry can be used for this purpose, it being possible to use at least two images of the same or different cameras from different image acquisition locations. In addition to image-based person recognition, a person can also be identified based on the radar-based point cloud detection. For this purpose, for example, motion patterns of individual points in temporally offset measured point clouds can be taken into account.
Alternativ oder zusätzlich kann die Ausführungsform als zusätzliche Verfahrensschritte ein Bestimmen eines Richtungswinkels der erkannten Person bezüglich einer fahrzeugspezifischen Bezugsrichtung basierend auf dem mindestens einen Punkt der zumindest einen Punktwolke und ein Kennzeichnen des der Person zugeordneten Bereichs in Abhängigkeit des bestimmten Richtungswinkels aufweisen. Die fahrzeugspezifische Bezugsrichtung kann beispielsweise durch die Fahrzeuglängsachse festgelegt sein. Ein derartiges Berücksichtigen einer relativen Orientierung der erkannten Person bezüglich des Fahrzeugs kann vorteilhaft sein, da so eine Person gekennzeichnet werden kann und vor ihr gewarnt werden kann, wenn sie sich beispielsweise in einem auf die Fahrtrichtung bezogenen Winkel oder Sektor aufhält. Alternatively or additionally, the embodiment may, as additional method steps, comprise determining a directional angle of the recognized person with respect to a vehicle-specific reference direction based on the at least one point of the at least one point cloud and marking the area associated with the person as a function of the determined direction angle. The vehicle-specific reference direction can be determined for example by the vehicle longitudinal axis. Such a consideration of a relative orientation of the recognized person with respect to the vehicle may be advantageous, since such a person can be identified and warned of her, for example, if she is in an angle or sector related to the direction of travel.
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Visualisieren der zumindest teilweisen Darstellung des Umfelds des Fahrzeugs basierend auf dem zumindest einen erfassten Bild auf. Die Visualisierung des Fahrzeugumfelds kann auf einem Einzelbild einer Kamera oder auf einer Kombination von mehreren Bildern einer oder mehrerer Kameras basieren. Mehrere Bilder können zu einem Bild aus einer Vogelperspektive, zu einem Panoramabild oder einem Rundumbild des Fahrzeugumfeldes mittels Stitching und einer entsprechenden Projektion zusammengefügt werden. Eine derart bildliche Darstellung hat den Vorteil, dass das Umfeld des Fahrzeugs real wiedergeben werden kann und ein in ihm gekennzeichnete Person in einen intuitiven räumlichen Bezug zum Fahrzeugumfeld gesetzt werden kann. A further embodiment has, as a further method step, a visualization of the at least partial representation of the environment of the vehicle based on the at least one captured image. The visualization of the vehicle environment may be based on a single image of a camera or on a combination of several images of one or more cameras. Multiple images can be stitched together to form a bird's-eye view image, a panoramic image or an all-around image of the vehicle environment using stitching and projection. Such a pictorial representation has the advantage that the environment of the vehicle can be reproduced in real and a person identified in it can be placed in an intuitive spatial relation to the vehicle environment.
In einer weiteren Ausführungsform ist die zumindest teilweise Darstellung des Umfelds des Fahrzeugs ein Bild des Umfelds des Fahrzeugs aus einer Vogelperspektive. Das Umfeld des Fahrzeugs oder ein Teil desselben kann grundsätzlich in einer beliebigen Perspektive, beispielsweise in einer Seitenansicht, in einer perspektivischen Ansicht oder in einer Draufsicht dargestellt werden. Eine Umfelddarstellung aus einer Vogelperspektive kann vorteilhaft sein, da mit ihr das Fahrzeug selbst dargestellt werden kann und somit räumliche Relationen zwischen der in der Darstellung gekennzeichneten Person und dem Fahrzeug erkennbar sind. Die Darstellung in Vogelperspektive kann auf einer Zentralprojektion oder einer sphärischen Projektion mindestens eines Bilds auf eine Darstellungsebene basieren. Eine derartige„Bowl“-Darstellung hat den Vorteil, dass nahezu das gesamte Fahrzeugumfeld in einem Bild visualisierbar ist. Alternativ oder zusätzlich kann mit einer sphärischen Projektion auch ein Panoramabild generiert werden. In a further embodiment, the at least partial representation of the surroundings of the vehicle is an image of the surroundings of the vehicle from a bird's-eye view. The environment of the vehicle or a part of the same can basically in any Perspective, for example, in a side view, in a perspective view or in a plan view are shown. An environment representation from a bird's-eye view can be advantageous, since with it the vehicle itself can be represented and thus spatial relations between the person identified in the representation and the vehicle can be recognized. The bird's eye view may be based on a central projection or a spherical projection of at least one image on a presentation plane. Such a "bowl" presentation has the advantage that almost the entire vehicle environment can be visualized in an image. Alternatively or additionally, a panoramic image can also be generated with a spherical projection.
In einer weiteren Ausführungsform wird der zugeordnete Bereich basierend auf einer Kontur der erkannten Person gebildet. Das Kennzeichnen der Person kann sich somit auf ein linienartiges oder ein flächenartiges Kennzeichnen basierend auf der Kontur, das heißt einem Kennzeichnen basierend auf einem Umriss der Person in deren bildlichen Darstellung, beziehen. Die in einer bildlichen Darstellung der Person und/oder des Fahrzeugumfelds sichtbare Kontur kann somit in einer beliebigen Darstellungsperspektive abstrakt gekennzeichnet werden und somit in der Darstellung visuell hervorgehoben werden. Die Kontur oder die von ihr eingeschlossene Fläche kann beispielsweise eingefärbt werden. Die Kontur kann der Silhouette der Person entsprechen oder eine symbolische Kontur aufweisen, welche von der tatsächliche Silhouette abweichen kann. In a further embodiment, the assigned area is formed based on a contour of the recognized person. The marking of the person can thus refer to a line-like or area-like marking based on the contour, that is to say a marking based on an outline of the person in its pictorial representation. The visible in a pictorial representation of the person and / or the vehicle environment contour can thus be marked abstract in any representation perspective and thus highlighted in the representation visually. For example, the contour or the area enclosed by it can be colored. The contour may correspond to the silhouette of the person or have a symbolic contour, which may differ from the actual silhouette.
In einer weiteren Ausführungsform weist der zugeordnete Bereich ein Segment mit Bezug auf einen Fußpunkt der erkannten Person in der zumindest teilweisen Darstellung des Umfelds des Fahrzeugs auf. Bei dem Segment kann es sich um jede geometrische Form handeln, welche geeignet ist, die Person zu kennzeichnen. Beispielsweise kann das Segment balkenförmig, kreisförmig oder dreieckig sein. Ein entsprechendes Segment kann zur Kennzeichnung der Person in der Umfelddarstellung so angeordnet werden, dass es einen Projektionspunkt der Person auf eine Darstellungsebene umfasst. Das Segment kann auch angrenzend oder beabstandet zu dem Projektionspunkt in der Darstellung angeordnet sein. Eine derart segmentartige Darstellung kann vorteilhaft sein, da die Person nicht wie bei einer konturbasiert flächenhaften Kennzeichnung überdeckt werden kann, sondern von dem Segment umgeben werden kann. Dies hat den Effekt, dass eine reale Darstellung der Person und eine abstrakte Kennzeichnung derselben in einer Darstellung kombiniert werden können. Beispielsweise kann die Person hierzu mit einem teiltransparenten farbigen Flächensegment überdeckt, beziehungsweise hinterlegt werden. Eine vollständige Überdeckung der Person hat dagegen den vorteilhaften Effekt einer Generalisierung einer detailreichen Umfelddarstellung. In a further embodiment, the assigned area has a segment with respect to a foot point of the recognized person in the at least partial representation of the surroundings of the vehicle. The segment may be any geometric shape suitable for identifying the person. For example, the segment may be bar-shaped, circular or triangular. A corresponding segment can be arranged to identify the person in the environment representation so that it includes a projection point of the person on a presentation level. The segment may also be located adjacent or spaced from the projection point in the illustration. Such a segment-like representation may be advantageous because the person can not be covered as in a contour-based areal labeling, but can be surrounded by the segment. this has the effect that a real representation of the person and an abstract marking of the same can be combined in one presentation. For example, the person can be covered or deposited with a partially transparent colored area segment for this purpose. Full coverage of the person, on the other hand, has the beneficial effect of generalizing a detailed environment representation.
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Kennzeichnen des der Person zugeordneten Bereichs mit einem visuellen Warnsignal auf. Das Warnsignal kann ein visuelles Warnsignal sein, welches mindestens eine Einfärbung des zugeordneten Bereichs und dessen Visualisieren beziehungsweise Anzeigen aufweist. Das Einfärben kann mit einer Signalfarbe, beispielsweise rot, gelb oder grün erfolgen. Das Warnsignal kann temporär, das heißt aufleuchtend, zyklisch, das heißt blinkend, oder dauerhaft, das heißt permanent leuchtend visualisiert werden. A further embodiment has, as a further method step, a marking of the area assigned to the person with a visual warning signal. The warning signal can be a visual warning signal which has at least one coloring of the assigned area and its visualization or display. The coloring can be done with a signal color, for example red, yellow or green. The warning signal can be visualized temporarily, ie flashing, cyclically, that is flashing, or permanently, ie permanently lit.
Eine Einfärbung des der Person zugeordneten Bereichs kann abstandsabhängig, das heißt mit einer Farbwahl in Abhängigkeit der Entfernung zwischen Fahrzeug und der Person, erfolgen. Das Einfärben kann auch in Abhängigkeit des Richtungswinkels der Person bezüglich der fahrzeugspezifischen Bezugsrichtung erfolgen. Durch Einfärben des der Person zugeordneten Bereichs mit einer Signalfarbe, beispielsweise rot, kann somit vorteilhaft vor Personen gewarnt werden, welche sich in einem Nahbereich um das Fahrzeug, in einer Fahrtrichtung oder in einem Arbeitsradius des Fahrzeugs aufhalten. Dagegen kann der der Person zugeordnete Bereich mit einer anderen Signalfarbe, beispielsweis grün, eingefärbt werden, wenn von dieser Person keine Gefahr ausgeht, das heißt wenn sie sich nicht in dem Nahbereich um das Fahrzeug, nicht in der Fahrtrichtung oder außerhalb des Arbeitsradius des Fahrzeugs aufhält. Der Nahbereich kann wenige Meter umfassen. Die Fahrtrichtung kann basierend auf einer Route oder einer Bewegungstrajektorie des Fahrzeugs bestimmt werden. Dyeing of the area assigned to the person can be effected as a function of the distance, that is to say with a choice of color as a function of the distance between the vehicle and the person. The coloring can also be done depending on the direction angle of the person with respect to the vehicle-specific reference direction. By coloring the area assigned to the person with a signal color, for example red, it is thus advantageously possible to warn against persons who are in a vicinity of the vehicle, in a direction of travel or in a working radius of the vehicle. By contrast, the area associated with the person can be dyed with a different signal color, for example green, if there is no danger from this person, that is, if he is not in the vicinity of the vehicle, not in the direction of travel or outside the working radius of the vehicle , The close range can be a few meters. The direction of travel may be determined based on a route or movement trajectory of the vehicle.
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Ermitteln einer relativen Lage der Person in Bezug auf das Fahrzeug basierend auf zumindest einem der Schritte des Erfassens, das heißt basierend auf dem Schritt des Erfassens eines Bilds mit der Kamera und/oder basierend auf dem Schritt des Erfassen einer Punktwolke mit dem Radarsensor, auf. Die relative Lage kann eine relative Position der Person in Bezug auf das Fahrzeug und/oder eine relative Richtung beziehungsweise Winkel zwischen einer fahrzeugspezifischen Bezugsrichtung und der Person umfassen. Das Berücksichtigen der relativen Lage ist vorteilhaft, da das Kennzeichnen der Person beziehungsweise des ihr zugeordneten Bereichs basierend auf einem fahrzeugspezifischen Koordinatensystem losgelöst von einem übergeordneten Koordinatensystem durchgeführt werden kann. So kann auf einem sich bewegenden Fahrzeug autark und in naher Echtzeit vor einer Person in dessen Umfeld gewarnt werden. A further embodiment has, as a further method step, determining a relative position of the person with respect to the vehicle based on at least one of the steps of detection, that is, based on the step of capturing an image with the camera and / or based on the step of detecting a point cloud with the radar sensor, on. The relative position can be a relative position of the person with respect to the vehicle and / or a relative direction or angle between a vehicle-specific reference direction and the person. The consideration of the relative position is advantageous since the identification of the person or of the area assigned to her can be carried out on the basis of a vehicle-specific coordinate system detached from a superordinate coordinate system. In this way, it is possible to make a self-sufficient warning in a moving vehicle and in the near real-time to a person in their environment.
Die Ausführungsform weist als zusätzlichen Verfahrensschritt ein Kennzeichnen des der Person zugeordneten Bereichs in Abhängigkeit der ermittelten relativen Lage auf. Eine Personenkennzeichnung oder ein Kennzeichnen eines einer Person zugeordneten Bereichs kann somit in Abhängigkeit der Lage der Person in einem Fahrzeugkoordinatensystem erfolgen. In dem Koordinatensystem des Fahrzeugs können so Gefahrenbereiche definiert werden, wobei erst dann ein Kennzeichnen erfolgt, wenn sich die Person in einem solchen Gefahrenbereich aufhält. Ein vorteilhafter Effekt hiervon kann sein, dass unabhängig von einer aktuellen absoluten Lage des Fahrzeugs ein Bereich für ein auf dem Fahrzeug angeordnetes Werkzeug definiert werden kann, in welchem eine Person gekennzeichnet werden kann. The embodiment has, as an additional method step, a marking of the area assigned to the person as a function of the determined relative position. A person identification or a marking of a person assigned area can thus take place in dependence of the position of the person in a vehicle coordinate system. Hazardous areas can thus be defined in the coordinate system of the vehicle, with marking only taking place when the person is in such a danger area. An advantageous effect of this may be that, independently of a current absolute position of the vehicle, an area for a vehicle-mounted tool can be defined, in which a person can be identified.
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Anzeigen der ermittelten relativen Lage in der Darstellung des Umfelds des Fahrzeugs auf. Zusätzlich zum Kennzeichnen des der Person zugeordneten Bereichs kann in der Darstellung ein Abstand zu einer Person, eine Entfernung zwischen Fahrzeug und der Person, ein Richtungswinkel zu der Person angezeigt werden. Diese Parameter können daneben auch dem Betreiben eines autonomen Fahrzeugs zugrunde gelegt werden ohne diese anzuzeigen. Diese Ausführungsform hat den Vorteil, dass zusätzliche visuelle Information zu Personen im Umfeld des Fahrzeugs einem Fahrer oder Nutzer bereitgestellt werden können. A further embodiment has, as a further method step, an indication of the determined relative position in the representation of the environment of the vehicle. In addition to identifying the area associated with the person, in the illustration, a distance to a person, a distance between the vehicle and the person, a directional angle to the person can be displayed. In addition, these parameters can also be used as the basis for operating an autonomous vehicle without displaying it. This embodiment has the advantage that additional visual information about persons in the vicinity of the vehicle can be provided to a driver or user.
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Erfassen einer Vielzahl von Punktwolken mit mindestens einem auf dem Fahrzeug angeordneten Radarsensor auf, wobei die Punktwolken jeweils mindestens einen Punkt bezüglich der Person aufweisen. Das Erfassen der Punktwolken kann mit mehreren Sensoren syn- chron erfolgen. Damit kann ein großer Bereich des Fahrzeugumfelds von einem einzelnen Aufenthaltsort des Fahrzeugs erfasst werden. Dies hat den Vorteil, dass beispielsweise fächerartig scannende Radarsensoren derart kombiniert werden können, dass in verschiedenen vertikalen und/oder horizontalen Erfassungsebenen eine Vielzahl von Personen synchron erfasst werden können. Alternativ oder zusätzlich kann das Erfassen der Punktwolken mit einem oder mehreren Sensoren kontinuierlich, das heißt zeitlich aufeinanderfolgend, in bestimmten zeitlichen Erfassungsabständen erfolgen. Somit können Punkte bezüglich derselben Person erfasst werden und somit die Person ge- trackt bzw. verfolgt werden. Dies hat den vorteilhaften Effekt, dass neben dem Aufenthaltsort der Person auch deren Bewegungsverhalten oder deren Kinematik festgestellt werden kann. Dies hat wiederum den Vorteil, dass auch eine sich bewegende Person in naher Echtzeit kontinuierlich gekennzeichnet werden kann. A further embodiment has, as a further method step, detection of a multiplicity of point clouds with at least one radar sensor arranged on the vehicle, the point clouds each having at least one point with respect to the person. The acquisition of the point clouds can be synchronized with several sensors. chron. Thus, a large area of the vehicle environment can be detected from a single location of the vehicle. This has the advantage that, for example, fan-like scanning radar sensors can be combined in such a way that a large number of persons can be detected synchronously in different vertical and / or horizontal detection planes. Alternatively or additionally, the detection of the point clouds with one or more sensors can be carried out continuously, that is to say temporally successively, at specific time intervals. Thus, points can be recorded with respect to the same person and thus the person tracked or tracked. This has the advantageous effect that in addition to the location of the person and their movement or kinematics can be determined. This in turn has the advantage that even a moving person can be marked continuously in the near real time.
Die Ausführungsform weist als zusätzliche Verfahrensschritte ein Ermitteln eines Bewegungsverhaltens der Person basierend auf den erfassten Punktwolken, wobei das Bewegungsverhalten mindestens eines aufweist von einem Stillstehen der Person, einem sich Bewegen der Person, einer Bewegungsrichtung der Person, einer Bewegungsgeschwindigkeit der Person und einer Änderung von einem dieser Bewegungsmerkmale, und ferner ein Kennzeichnen des der Person zugeordneten Bereichs in Abhängigkeit des ermittelten Bewegungsverhaltens auf. Das Kennzeichnen des der Person zugeordneten Bereichs in Abhängigkeit einer oder mehrerer der genannten Arten kann somit die Bewegung der Person visualisieren, das heißt wiedergeben. Die Bewegung kann in Beziehung zu einem Aufenthaltsort oder einer Bewegung des Fahrzeugs gesetzt werden und daraus eine Gefahrensituation abgeleitet werden. Beispielsweise kann so vor einer sich auf das Fahrzeug zubewegenden Person mit einer Signalfarbe, beispielsweise rot, gewarnt werden, während eine sich vom Fahrzeug wegbewegende Person nicht gekennzeichnet werden kann oder mit einer anderen Signalfarbe, beispielsweise grün, hervorgehoben werden kann. Das Berücksichtigen eines derartigen Bewegungsverhaltens beim Kennzeichnen einer Person hat den Vorteil, dass ein sich dynamisch veränderndes Umfeld überwacht werden kann und vor in diesem sich bewegenden Personen explizit gewarnt werden kann. Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Anzeigen des ermittelten Bewegungsverhaltens in der Darstellung des Umfelds des Fahrzeugs auf. Zusätzlich zum Kennzeichnen des der Person zugeordneten Bereichs kann in der Darstellung ein oder mehrere Bewegungsverhalten der Person angezeigt werden. Diese Bewegungsparameter können daneben auch dem Betreiben eines autonomen Fahrzeugs zugrunde gelegt werden ohne diese anzuzeigen. Diese Ausführungsform hat den Vorteil, dass zusätzliche visuelle Information zum Bewegungsverhalten von Personen im Umfeld des Fahrzeugs einem Fahrer oder Nutzer bereitgestellt werden können. The embodiment has, as additional method steps, determining a movement behavior of the person based on the detected point clouds, wherein the movement behavior comprises at least one of resting the person, moving the person, a direction of movement of the person, a movement speed of the person and a change of one these movement characteristics, and further identifying the area assigned to the person as a function of the determined movement behavior. The marking of the area assigned to the person in dependence of one or more of the named types can thus visualize the movement of the person, that is, reproduce it. The movement may be related to a location or movement of the vehicle, and a danger situation derived therefrom. For example, it is thus possible to be warned of a person moving towards the vehicle with a signal color, for example red, while a person moving away from the vehicle can not be identified or can be highlighted with a different signal color, for example green. The consideration of such a movement behavior when marking a person has the advantage that a dynamically changing environment can be monitored and can be explicitly warned in front of this moving people. A further embodiment has, as a further method step, an indication of the determined movement behavior in the representation of the surroundings of the vehicle. In addition to identifying the area assigned to the person, one or more movement behavior of the person can be displayed in the display. In addition, these motion parameters can also be used as the basis for operating an autonomous vehicle without displaying them. This embodiment has the advantage that additional visual information on the movement behavior of persons in the vicinity of the vehicle can be provided to a driver or user.
Eine weitere Ausführungsform weist als weitere Verfahrensschritte ein Durchführen einer Klassifikation der erkannten Person als eine sich bewegende Person oder als eine sich nicht bewegende Person und ein Kennzeichnen der erkannten Person in Abhängigkeit der Klassifikation auf. So kann beispielsweise eine sich im Fahrzeugumfeld aufhaltende Person dann gekennzeichnet werden, wenn sie sich in Bewegung befindet. Eine dem Kennzeichnen des der Person zugeordneten Bereichs kann alternativ oder zusätzlich auf jedem der genannten Bewegungsmerkmale alleine oder beispielsweise auf Grundlage einer entsprechenden Wahrheitstabelle erfolgen. Unter einem Klassifizieren kann auch ein Klassieren und unter einer Klassifikation kann auch einen Klassierung verstanden werden. Ein Kennzeichnen einer Person in Abhängigkeit einer Klassifikation ist vorteilhaft, da hierdurch mittels künstlicher Intelligenz erst dann vor Personen gewarnt werden kann, wenn von diesen auch eine Gefahr ausgeht. Ein Fahrer oder Nutzer bleibt so ständig für Gefahren sensibilisiert, da ein unnötiges Warnen vor nicht existierenden Gefahren minimiert werden kann. Ferner kann ein bewusstes Ignorieren einer vermeintlich nicht vorliegenden Gefahr durch den Fahrer oder Nutzer so minimiert werden. A further embodiment has, as further method steps, a classification of the recognized person as a person moving or as a non-moving person and a marking of the recognized person as a function of the classification. For example, a person staying in the vehicle environment can then be identified when it is in motion. An identification of the area assigned to the person can alternatively or additionally be carried out on each of the mentioned movement characteristics alone or, for example, on the basis of a corresponding truth table. Classification may also be classifying, and classifying may also be understood as classifying. Identifying a person as a function of a classification is advantageous, as it can only be used to warn persons of artificial intelligence when they pose a danger. A driver or user remains so constantly aware of hazards, as an unnecessary warning of non-existent hazards can be minimized. Furthermore, deliberate ignoring of a perceived lack of danger by the driver or user can be minimized.
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Ausgeben eines Warnsignals als eine Reaktion auf eine erkannte Person auf. Das Ausgeben des Warnsignals kann in Abhängigkeit der Klassifikation nach dem Bewegungsverhalten erfolgen, das heißt falls die Person als bewegt oder als nicht bewegt klassifiziert worden ist. Alternativ oder zusätzlich zum Verfahrensschritt des Kennzeichnens des der Person zugeordneten Bereichs mit einem visuellen Warnsignal kann ein derartiges Warnsignal separat visualisiert oder ausgegeben werden. Hierzu kann grundsätzlich jedes andere Warnsignal visualisiert oder ausgeben werden, um den Fahrer oder Nutzer vor einer sich im Fahrzeugumfeld aufhaltenden Person zu warnen. Hierfür kann jedes Medium, beispielsweise ein Bildschirm, ein Lautsprecher oder eine Anzeige verwendet werden. Das Warnsignal kann ein visuelles Warnsignal, beispielsweise ein Lichtsignal von einer Rundumleuchte, sein. Das Warnsignal kann auch ein akustisches Warnsignal, beispielsweise ein Ton von einer Hupe, sein. Ferner kann das Warnsignal auch ein haptisches Warnsignal, beispielsweise ausgelöst von einem Vibrieren eines Lenkrades oder Steuerhebels des Fahrzeugs, sein. Eines oder mehrere derartige Warnsignale verstärken in vorteilhafter Weise neben dem Kennzeichnen der Person eine Warnung vor einer Gefahrensituation. A further embodiment has, as a further method step, outputting of a warning signal as a reaction to a recognized person. The issuing of the warning signal can be effected as a function of the classification according to the movement behavior, that is, if the person has been classified as moved or as not moved. As an alternative or in addition to the method step of marking the area associated with the person with a visual warning signal, such a warning signal can be separately visualized or output. This can basically any other Warning signal be visualized or issued to warn the driver or user in front of a person in the vehicle environment. For this purpose, any medium, such as a screen, a speaker or a display can be used. The warning signal may be a visual warning signal, for example a light signal from a beacon. The warning signal can also be an audible warning signal, for example a sound from a horn. Furthermore, the warning signal may also be a haptic warning signal, for example triggered by a vibration of a steering wheel or control lever of the vehicle. One or more such warning signals reinforce advantageously in addition to the identification of the person a warning of a dangerous situation.
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Eingreifen in den Antriebsstrang des Fahrzeugs als eine Reaktion auf eine erkannte Person auf. Falls eine Person, gegebenenfalls in Abhängigkeit einer der genannten Klassifikationen, gekennzeichnet wird, kann in den Fahrzeugantrieb oder Triebstrang des Fahrzeugs eingegriffen werden. Ein autonom fahrendes Fahrzeug kann so automatisch abgebremst oder um die Person als Hindernis umgeleitet werden. Ferner kann ein Not-Aus oder ein Not-Halt als Folge der gekennzeichneten Person ausgeführt werden, um eine Kollision mit der Person zu vermeiden. Vor allem für den Betrieb autonomer Fahrzeuge kann eine solche Reaktion eine Verbesserung der Sicherheit für sich im Umfeld der Fahrzeug aufhaltende Personen darstellen. A further embodiment has, as a further method step, intervention in the drive train of the vehicle as a reaction to a recognized person. If a person is marked, possibly as a function of one of the classifications mentioned, intervention can be made in the vehicle drive or drive train of the vehicle. An autonomously driving vehicle can thus be braked automatically or diverted around the person as an obstacle. Further, an emergency stop or emergency stop may be performed as a result of the designated person to avoid collision with the person. Especially for the operation of autonomous vehicles, such a response can be an improvement in the safety of people staying in the vicinity of the vehicle.
Eine weitere Ausführungsform weist als weiteren Verfahrensschritt ein Erkennen eines Objekts, welches keine Person ist, basierend auf den Bildinformationen des zumindest einen Bilds auf, wobei das zumindest eine Bild Bildinformationen bezüglich des Objekts aufweist. Jeder Verfahrensschritt der Erfindung oder einer ihrer Ausführungsformen lässt sich grundsätzlich auch auf jedes in einem Bild erkennbare Objekt, welches keine Person ist, anwenden. Neben einem Warnen vor Personen kann so auch vor einzeln definierten Objekten oder alternativ vor im Wesentlichen allen Objekten im Fahrzeugumfeld gewarnt werden. Dies hat den Vorteil, dass Kollisionen mit verschiedenen Objekten und Personen minimiert werden können, wodurch ein Automatisierungsgrad des Fahrzeugs erhöht werden kann. Die Ausführungsform weist als zusätzliche Verfahrensschritte ein Zuordnen eines Bereichs der visualisierten zumindest teilweisen Darstellung des Umfelds des Fahrzeugs zu dem in den Bildinformationen erkannten Objekt und ein Kennzeichnen des dem Objekt zugeordneten Bereichs auf. Jeder Verfahrensschritt der Erfindung oder einer ihrer Ausführungsformen lässt sich grundsätzlich im Weiteren auch auf ein Erkennen und Kennzeichnen des Objekts, welches keine Person ist, anwenden. Neben einem Kennzeichnen von Personen können so auch einzeln definierte Objekte oder alternativ im Wesentlichen alle Objekte im Fahrzeugumfeld gekennzeichnet werden. Hierzu kann auch einem Objekt einer der im Zusammenhang mit dem Kennzeichnen einer Person genannten Bereiche zugeordnet werden. Dies hat den Vorteil, dass das Fahrzeugumfeld hinsichtlich einer Vielzahl von Hindernissen überwacht werden kann. A further embodiment has, as a further method step, detection of an object which is not a person based on the image information of the at least one image, wherein the at least one image has image information relating to the object. In principle, each method step of the invention or one of its embodiments can also be applied to any object recognizable in an image which is not a person. In addition to warning people, it is also possible to warn against individually defined objects or, alternatively, against essentially all objects in the vehicle environment. This has the advantage that collisions with different objects and persons can be minimized, whereby a degree of automation of the vehicle can be increased. As an additional method step, the embodiment has an allocation of a region of the visualized, at least partial, representation of the environment of the vehicle to the object recognized in the image information and a marking of the region assigned to the object. In principle, each method step of the invention or one of its embodiments can furthermore also be applied to a recognition and identification of the object, which is not a person. In addition to identifying persons, individually defined objects or, alternatively, substantially all objects in the vehicle environment can also be identified. For this purpose, an object can also be assigned to one of the areas mentioned in connection with the marking of a person. This has the advantage that the vehicle environment can be monitored with regard to a large number of obstacles.
Eine weitere Ausführungsform weist als weitere Verfahrensschritte ein Vornehmen einer Klassifikation als eine erkannte Person oder als ein erkanntes Objekt und ein Kennzeichnen des der Person zugeordneten Bereichs und des dem Objekt zugeordneten Bereichs in Abhängigkeit der Klassifikation auf. So kann beispielsweise ein Kennzeichnungsschritt in einer der genannten Arten erfolgen, wenn es sich um eine Person handelt und ein weiterer Kennzeichnungsschritt in einer anderen der genannten Arten erfolgen, wenn es sich um ein Objekt handelt, oder letzterer unterbleiben. Die Klassifikation dieser Ausführungsform kann mit der Klassifikation basierend auf den genannten Bewegungsmerkmalen kombiniert werden. Ein Kennzeichnen einer Person in Abhängigkeit einer dieser Klassifikationen ist vorteilhaft, da hierdurch ein unnötiges Warnen vor nicht existierenden Gefahren weitergehend minimiert werden kann. A further embodiment has, as further method steps, a classification as a recognized person or as a recognized object and a marking of the area assigned to the person and of the area assigned to the object as a function of the classification. Thus, for example, an identification step may take place in one of the mentioned types if it concerns one person and another labeling step takes place in another of the named types if the object is or is omitted. The classification of this embodiment may be combined with the classification based on the mentioned motion characteristics. Identifying a person as a function of one of these classifications is advantageous because it can further minimize unnecessary warning of non-existing hazards.
Die vorliegende Erfindung bezieht sich ferner auf ein Steuergerät, welches dazu eingerichtet ist, die Verfahrensschritte der Erfindung oder die Verfahrensschritte einer oder mehrere ihrer Ausführungsformen durchzuführen. Das Steuergerät kann eine Steuereinrichtung sein, mit welcher derartige, programmierte Verfahrensschritte auf dem Fahrzeug und/oder in einer Nutzerumgebung eines Nutzer eines autonomen Fahrzeugs gesteuert oder geregelt werden können. The present invention further relates to a control device which is adapted to carry out the method steps of the invention or the method steps of one or more of its embodiments. The control device may be a control device with which such, programmed method steps can be controlled or regulated on the vehicle and / or in a user environment of a user of an autonomous vehicle.
Die vorliegende Erfindung bezieht sich zudem auf ein Fahrzeug mit einem derartigen Steuergerät. Das Fahrzeug kann ein autonomes, teilautonomes oder nicht autonomes Fahrzeug sein. Das Fahrzeug kann jedes Fahrzeug sein, welches zum Transportieren von Personen und/oder Gütern ausgebildet ist. The present invention also relates to a vehicle having such a control device. The vehicle may be autonomous, semi-autonomous or non-autonomous Be a vehicle. The vehicle may be any vehicle designed to transport people and / or goods.
Das Fahrzeug kann grundsätzlich jedes bemannte oder unbemannte Transportfahrzeug, beispielsweise aus dem Bereich der Logistik, oder jedes Arbeitsfahrzeug sein. In einer Ausführungsform ist das Fahrzeug ein autonomes Flurförderfahrzeug. Ein derartiges Flurförderfahrzeug kann beispielsweise ein Gabelstapler sein. Beim Betreiben eines Gabelstaplers ist das Vermeiden von Arbeitsunfällen mit Personen, welche sich im Umfeld des Gabelstaplers aufhalten, von besonderer Bedeutung, da so die Arbeitssicherheit im Umfeld des Gabelstaplers erhöht werden kann. The vehicle can basically be any manned or unmanned transport vehicle, for example from the field of logistics, or any work vehicle. In one embodiment, the vehicle is an autonomous industrial truck. Such a material handling vehicle may for example be a forklift. When operating a forklift, the avoidance of accidents at work with people who are in the vicinity of the forklift, of particular importance, since the work safety in the environment of the forklift can be increased.
In einer weiteren Ausführungsform ist die mindestens eine auf dem Fahrzeug angeordnete Kamera an einem Heckbereich des Flurförderfahrzeugs angeordnet. Das Anordnen von Sensoren im Allgemeinen und der Kamera beziehungsweise des Radarsensors im Speziellen im Heckbereich eines Flurförderfahrzeugs, beispielsweise des Gabelstapler, ist vorteilhaft, da sich im Heckbereich unbewegte Fahrzeugteile befinden. Eine alternative oder zusätzliche Anordnung eines Sensors an einem Frontbereich, beispielsweise an einem Hubmast eines Gabelstaplers, oder einem Seitenbereich kann auch vorgesehen sein. In diesen Bereichen können sich allerdings bewegte Fahrzeugteile, beispielsweise die Gabel des Gabelstaplers, befinden welche ein festes Anordnen erschweren können. Dagegen kann auch ein seitliches Anordnen zumindest einer Kamera oder einer Radarsensors einen entsprechen seitlichen Erfassungsbereich erzeugen. In a further embodiment, the at least one camera arranged on the vehicle is arranged at a rear region of the industrial truck. The arrangement of sensors in general and the camera or the radar sensor in particular in the rear area of an industrial truck, for example, the forklift, is advantageous because there are stationary vehicle parts in the rear area. An alternative or additional arrangement of a sensor on a front area, for example on a lift mast of a fork-lift truck, or a side area can also be provided. In these areas, however, moving parts of the vehicle, such as the fork of the forklift, which can make a fixed positioning difficult. In contrast, a lateral arrangement of at least one camera or a radar sensor can produce a corresponding lateral detection area.
Kurze Beschreibung der Zeichnungen Brief description of the drawings
Figur 1 zeigt ein Ablaufdiagramm mit Verfahrensschritten eines Ausführungsbeispiels eines Verfahrens zum Kennzeichnen einer sich im Umfeld eines Fahrzeugs befindenden Person. FIG. 1 shows a flowchart with method steps of an exemplary embodiment of a method for identifying a person who is located in the environment of a vehicle.
Figur 2 zeigt ein Ausführungsbeispiel eines Fahrzeugs in einer perspektivischen Figure 2 shows an embodiment of a vehicle in a perspective
Ansicht. Figur 3 zeigt Ausführungsbeispiele eines Kennzeichnens einer sich im Umfeld des Fahrzeugs befindenden Person zur weiteren Erläuterung des Verfahrens gemäß Figur 1 und des Fahrzeugs gemäß Figur 2. View. FIG. 3 shows exemplary embodiments of a marking of a person located in the surroundings of the vehicle for further explanation of the method according to FIG. 1 and of the vehicle according to FIG. 2.
Figur 4 zeigt weitere Ausführungsbeispiele eines Kennzeichnens einer sich im FIG. 4 shows further exemplary embodiments of a marking in the
Umfeld des Fahrzeugs befindenden Person zur weiteren Erläuterung des Verfahrens gemäß Figur 1 und des Fahrzeugs gemäß Figur 2.  Person surrounding the vehicle for further explanation of the method according to FIG. 1 and the vehicle according to FIG. 2.
Detaillierte Beschreibung von Ausführunqsformen Detailed description of embodiments
In Figur 1 sind Verfahrensschritte S1 , S2, S3, S4, S5 in einer zeitlichen Abfolge zum Ausführen des Verfahrens zum Kennzeichnen einer sich im Umfeld 4 eines Gabelstaplers 10 als Fahrzeug befindenden Person 2 (vgl. nachfolgende Figuren) gezeigt. In FIG. 1, method steps S1, S2, S3, S4, S5 are shown in a time sequence for carrying out the method for identifying a person 2 who is in the environment 4 of a forklift 10 as a vehicle 2 (see the following figures).
In einem ersten Schritt S1 erfolgt eine Datenerfassung mit einer Vielzahl von Kameras 22, 24, 26 und einer Vielzahl von Radarsensoren 32, 34, 36, welche auf dem Gabelstapler 10 angeordnet sind. In einem ersten Unterschritt K1 wird mit jeder der Kameras 22, 24, 26 jeweils ein Bild des Umfelds 4 des Gabelstaplers 10 erfasst. Mindestens eines dieser Bilder von einer der Kameras 22, 24, 26 weist Bildinformationen bezüglich der Person 2 auf. In einem zweiten Unterschritt R1 wird von jedem der Radarsensoren 32, 34, 36 jeweils eine Punktwolke bezüglich des Umfelds 4 des Gabelstaplers 10 erfasst, wobei in mindestens einer dieser Punktwolken ein Punkt bezüglich der Person 2 vorhanden ist. In a first step S1, a data acquisition with a plurality of cameras 22, 24, 26 and a plurality of radar sensors 32, 34, 36, which are arranged on the forklift 10. In a first sub-step K1, an image of the surroundings 4 of the forklift 10 is recorded with each of the cameras 22, 24, 26. At least one of these images from one of the cameras 22, 24, 26 has image information relating to the person 2. In a second substep R1, each of the radar sensors 32, 34, 36 detects a point cloud with respect to the environment 4 of the forklift 10, wherein in at least one of these point clouds a point with respect to the person 2 is present.
Nach Schritt S1 wird in einem zweiten Schritt S2 eine Personenerkennung basierend auf den in Schritt S1 erfassten Daten mit den Kameras 22, 24, 26 beziehungsweise mit den Radarsensoren 32, 34, 36 durchgeführt. In einem ersten Unterschritt K2 wird die Person 2 basierend auf Bildinformationen von mindestens einem Bild der Kameras 22, 24, 26 automatisch mittels Bildverarbeitung erkannt. In einem zweiten Unterschritt R2 wird basierend auf mindestens einer Punktwolke eines Radarsensors 32, 34, 36 ein Abstand oder ein Bewegungsverhalten der in Unterschritt K2 erkannten Person 2 bestimmt. Hierzu können die Bildinformationen zumindest eines der mit den Kameras 22, 24, 26 erfassten Bilder und zumindest eine der Punktwolken, welche mit den Radar- Sensoren 32, 34, 36 erfasst worden sind, mittels einer Transformation in ein gemeinsames Koordinatensystem transformiert werden, um einen räumlichen Bezug zwischen den Bildinformationen und den Punktwolken herzustellen. Durch eine solche Verknüpfung mittels Transformation wird eine Bildinformation, welche zumindest ein Pixel beziehungsweise dessen Wert oder Werte umfasst, und ein Punkt einer Punktwolke derselben Person zugeordnet. After step S1, in a second step S2, a person recognition is carried out based on the data acquired in step S1 with the cameras 22, 24, 26 or with the radar sensors 32, 34, 36. In a first sub-step K2, the person 2 is automatically detected by means of image processing based on image information of at least one image of the cameras 22, 24, 26. In a second substep R2, based on at least one point cloud of a radar sensor 32, 34, 36, a distance or a movement behavior of the person 2 identified in substep K2 is determined. For this purpose, the image information of at least one of the images captured with the cameras 22, 24, 26 and at least one of the point clouds, which are associated with the radar Sensors 32, 34, 36 have been detected, are transformed by means of a transformation in a common coordinate system, to establish a spatial relationship between the image information and the point clouds. Through such a linkage by means of transformation, image information which comprises at least one pixel or its value or values and one point of a point cloud are assigned to the same person.
In einem weiteren Schritt S3 wird das Umfeld 4 des Gabelstaplers 10 basierend auf den mit den Kameras 22, 24, 26 erfassten Bildern visualisiert. Hierzu werden die Bilder der Kameras 22, 24, 26 mittels Stitching zu einem Gesamtbild des Umfelds 4 des Gabelstaplers 10 kombiniert, wobei dieses Bild 5 das Umfeld 4 aus einer Vogelperspektive zeigt. In dem Bild 5 des Umfelds 4 ist der Gabelstapler 10 mittig zu sehen, wobei dieser das Zentrum einer dem Bild 5 zugrunde liegenden Zentral Projektion umfasst. In a further step S3, the environment 4 of the forklift 10 is visualized based on the images captured by the cameras 22, 24, 26. For this purpose, the images of the cameras 22, 24, 26 are combined by stitching to form an overall image of the environment 4 of the forklift 10, this image 5 shows the environment 4 from a bird's eye view. In the image 5 of the environment 4 of the forklift 10 is to be seen in the center, which includes the center of a central projection of Figure 5 underlying.
Nach Schritt S2 oder Schritt S3 wird in einem vierten Schritt S4 ein Bereich des Bilds 5 des Umfelds 4 des Gabelstaplers 10 einer im Unterschritt K2 erkannten Person 2 zugeordnet. Die in Schritt S3 durchgeführte Umfelddarstellung und die in Schritt S4 durchgeführte Bereichszuordnung wird mit Bezug auf die Figuren 3 und 4 näher erläutert. After step S2 or step S3, in a fourth step S4, an area of the image 5 of the environment 4 of the forklift 10 is assigned to a person 2 identified in the sub-step K2. The environment representation performed in step S3 and the area allocation performed in step S4 will be explained in more detail with reference to FIGS. 3 and 4.
Nach Schritt S4 wird in einem fünften Schritt S5 die im Unterschritt K2 erkannte Person 2 durch ein Kennzeichnen des ihr in Schritt S4 zugeordneten Bereichs signalisiert. Auch die in Schritt S5 durchgeführte Personenkennzeichnung wird mit Bezug auf die Figuren 3 und 4 näher erläutert. After step S4, in a fifth step S5, the person 2 identified in sub-step K2 is signaled by identifying the area assigned to her in step S4. The personal identification carried out in step S5 will also be explained in more detail with reference to FIGS. 3 and 4.
In Figur 2 ist ein Gabelstapler 10 als Fahrzeug mit einem Steuergerät 50 zum Durchführen der Verfahrensschritte S1 , S2, S3, S4, S5 gemäß Figur 1 dargestellt. FIG. 2 shows a forklift 10 as a vehicle with a control unit 50 for carrying out the method steps S1, S2, S3, S4, S5 according to FIG.
An einem Heckbereich 1 1 des Gabelstaplers 10 sind drei Kameras 22, 24, 26 und drei Radarsensoren 32, 34, 36 angeordnet. Die Kameras 22, 24, 26 sind dabei auf einem Dach 12 des Gabelstaplers 10 angeordnet, wobei die erste Kamera 22 als Rückblickskamera, die zweite Kamera 24 als seitlich nach links blickende Kamera und die dritte Kamera 26 als seitlich nach rechts blickende Kamera mit entsprechenden Blickwinkeln nach hinten, nach links und nach rechts eingerichtet sind. Die Kameras 22, 24, 26 sind als Weitwinkelkameras ausgebildet, wobei ihr jeweiliger Blickwinkel bis zu etwa 180 Grad beträgt. Der erste Radarsensor 32 und der zweite Radarsensor 34 ist jeweils an einem seitlichen Holm 13 einer offenen Fahrerkabine 14 des Gabelstaplers 10 angeordnet. Die Fahrerkabine 14 wird dabei nach oben von dem Dach 12 und nach hinten von den beiden Holmen 13 begrenzt. At a rear portion 1 1 of the forklift 10, three cameras 22, 24, 26 and three radar sensors 32, 34, 36 are arranged. The cameras 22, 24, 26 are arranged on a roof 12 of the forklift 10, with the first camera 22 as a rearview camera, the second camera 24 as a camera looking laterally to the left and the third camera 26 as a camera looking laterally to the right with corresponding viewing angles are set back, left and right. The cameras 22, 24, 26 are designed as wide-angle cameras, wherein their respective viewing angle is up to about 180 degrees. The first radar sensor 32 and the second radar sensor 34 are each arranged on a lateral spar 13 of an open cab 14 of the forklift 10. The driver's cab 14 is bounded at the top by the roof 12 and to the rear by the two bars 13.
Bei den Radarsensoren 32, 34 handelt es sich um fächerartig scannende Radarsensoren 32, 34, welche eine Scanebene horizontal, schräg oder vertikal in Höhe ihres jeweiligen Anbringungsortes auf den Holmen 13 ausbilden. In diesem Ausführungsbeispiel sind die Radarsensoren 32, 34 in etwa auf gleicher Höhe an den Holmen 13 angebracht, wodurch sie in einer gemeinsamen Scanebene, beispielsweise in einer horizontalen Ebene, Punktwolken erfassen. The radar sensors 32, 34 are fan-like scanning radar sensors 32, 34, which form a scanning plane horizontally, obliquely or vertically at the level of their respective mounting location on the bars 13. In this embodiment, the radar sensors 32, 34 are mounted at approximately the same height on the bars 13, whereby they detect point clouds in a common scan plane, for example in a horizontal plane.
Ein weiterer Radarsensor 36 ist unterhalb der anderen Radarsensoren 32, 34 am Chassis 15 des Gabelstaplers 10 in dessen Heckbereich 1 1 angeordnet. Der weitere Radarsensor 36 erfasst in einer zu den von den beiden anderen Radarsensoren 32, 34 aufgespannten Scanebene weiteren Scanebene eine Punktwolke. Die Scanebenen sind hier parallel zueinander, beispielsweise horizontal ausgerichtet. Another radar sensor 36 is disposed below the other radar sensors 32, 34 on the chassis 15 of the forklift 10 in the rear region 1 1. The further radar sensor 36 detects a point cloud in a scanning plane spanned by the other two radar sensors 32, 34. The Scakes are here parallel to each other, for example, horizontally aligned.
Bei den Kameras 22, 24, 26 sowie bei den Radarsensoren 32, 34, 36 handelt es sich jeweils um baugleiche Kameras beziehungsweise Sensoren. In the cameras 22, 24, 26 and the radar sensors 32, 34, 36 are each identical cameras or sensors.
In Figur 3 sind im Umfeld 4 des Gabelstaplers 10 sich aufhaltende Personen 2 in einer sogenannten Top-View-Ansicht gekennzeichnet. Ein den Personen 2 zugeordneter Bereich wird jeweils durch deren dargestellte Kontur 3 definiert. Die Kontur 3 ist zur Kennzeichnung der Person jeweils mit einer Signalfarbe, beispielsweise rot, ausgefüllt. Somit wird die Person 2 innerhalb ihrer Kontur 3 eingefärbt. Die Kontur 3 der Person 2 wird aus einer als Hintergrundbild visualisierten Darstellung des Umfelds 4 des Gabelstaplers 1 1 extrahiert. In FIG. 3, persons 2 staying in the environment 4 of the forklift 10 are identified in a so-called top-view view. An area assigned to persons 2 is defined in each case by their illustrated contour 3. The contour 3 is filled to identify the person each with a signal color, for example, red. Thus, the person 2 is colored within its contour 3. The contour 3 of the person 2 is extracted from a background image visualized representation of the environment 4 of the forklift 1 1.
Das Bild 5 des Umfelds 4 des Gabelstaplers 10, welches das Umfeld 4 aus einer Vogelperspektive einschließlich des Gabelstaplers 10 als Hintergrund zeigt, ist aus Einzel- bildern der Kameras 22, 24, 26 mittels Stitching und Zentral Projektion erzeugt. Hierdurch wird im Wesentlichen das gesamte Umfeld 4 des Gabelstaplers 1 1 visualisiert. Zum Kennzeichen der Personen 2 im Umfeld 4 des Gabelstaplers 10 wird das Steuergerät 50 verwendet, welches zudem als zentrale Auswerteeinheit 40 zum Generieren des Bilds 5 ausgebildet ist. The image 5 of the environment 4 of the forklift 10, which shows the background 4 from a bird's-eye view including the forklift 10 as a background, is made of individual images of the cameras 22, 24, 26 generated by stitching and central projection. As a result, substantially the entire environment 4 of the forklift 1 1 is visualized. For the identification of the persons 2 in the environment 4 of the forklift 10, the control unit 50 is used, which is also designed as a central evaluation unit 40 for generating the image 5.
In Figur 3 sind als weiteres Ausführungsbeispiel Balkensegmente 6 als der Person 2 zugeordnete Bereiche visualisiert. In Abhängigkeit des Abstands einer Person 2 vom Gabelstapler 10 werden die Balkensegmente 6 mit unterschiedlichen Signalfarben, beispielsweise rot für nahe Personen 2, gelb für weiter entfernt befindliche Personen 2 und grün für noch weiter entfernt befindliche Personen 2 eingefärbt. In Abhängigkeit des Abstands zwischen Gabelstapler 10 und einer Person 2 oder in Abhängigkeit eines Richtungswinkels im Gabelstapler 10 zu einer Person 2 ausgehend von der Fahrtrichtung oder der Längsachse des Gabelstaplers 1 1 sind pro Person 2 eine Vielzahl von jeweiligen Balkensegmenten 6 an einen Fußpunkt der jeweiligen Person 2 projiziert und so im Bild 5 des Umfelds des Gabelstaplers 1 1 dargestellt. Die Abstände werden aus den Punktwolken der Radarsensoren 32, 34, 36 basierend auf den einer Person 2 zugeordneten Punkten der Punktwolken mittels der Auswerteeinheit 40 berechnet. In FIG. 3, beam segments 6 are visualized as areas assigned to the person 2 as a further exemplary embodiment. Depending on the distance of a person 2 from the forklift 10, the beam segments 6 are dyed with different signal colors, for example red for close persons 2, yellow for persons 2 further away and green for persons 2 located further away. Depending on the distance between the forklift 10 and a person 2 or depending on a direction angle in the forklift 10 to a person 2 starting from the direction of travel or the longitudinal axis of the forklift 1 1 per person 2 are a plurality of respective beam segments 6 at a foot of each person 2 projected and so shown in Figure 5 of the environment of the forklift 1 1. The distances are calculated from the point clouds of the radar sensors 32, 34, 36 based on the points of the point clouds assigned to a person 2 by means of the evaluation unit 40.
Das Kennzeichnen einer Person 2 mittels einem oder mehreren Balkensegmente 6 wird ferner auf ein Objekt 9, welches keine Person 2 ist, mittels Auswertung der von den Radarsensoren 32, 34, 36 erzeugten Punktwolken durch die Auswerteeinheit 40 dargestellt. The marking of a person 2 by means of one or more beam segments 6 is further shown on an object 9, which is not a person 2, by means of evaluation of the point clouds generated by the radar sensors 32, 34, 36 by the evaluation unit 40.
Die in Figur 4 gezeigten Ausführungsbeispiele eines Kennzeichnens einer sich im Umfeld 4 des Gabelstaplers 10 befindlichen Person 2 unterscheiden sich zunächst von den in Figur 3 gezeigten Ausführungsbeispielen darin, dass ein Bild 5 des Umfelds 4 des Gabelstaplers 10 aus einem abstrakten Hintergrund sowie aus einem von den Kameras 22, 24, 26 mittels Stitching von der Auswerteeinheit 40 erzeugten Panoramabild extrahierten Personen 2 gebildet ist. Die Ausführungsbeispiele können daher als vereinfacht bezeichnet werden. Ein weiterer Unterschied besteht darin, dass zum Kennzeichnen der Personen 2 nicht deren Kontur 3 verwendet und eingefärbt wird, sondern dass jeder Person 2 ein Kreissegment 7 zugeordnet wird, welches unterhalb ihrer Füße dargestellt wird. Der Mittelpunkt des jeweiligen Kreissegments bezieht sich auf die Position beziehungsweise Darstellung des Gabelstaplers 10. Das jeweilige Kreissegment 7 ist in Abhängigkeit des Abstands zwischen einer Person 2 und dem Gabelstapler 10, welcher radarbasiert bestimmt wird, mittels einer Signalfarbe eingefärbt. Das zugeordnete Kreissegment 7 einer sich nahe am Gabelstapler 11 aufhaltenden Person 2 wird beispielsweise mit rot eingefärbt, ein Kreissegment einer sich weiter entfernt befindlichen Person wird beispielsweise mit gelb eingefärbt und ein Kreissegment einer noch weiter entfernt befindlichen Person 2 wird beispielsweise mit grün eingefärbt. The embodiments shown in FIG. 4 of identifying a person 2 located in the environment 4 of the forklift 10 initially differ from the exemplary embodiments shown in FIG. 3 in that an image 5 of the environment 4 of the forklift 10 is made of an abstract background and of one of the Cameras 22, 24, 26 extracted by stitching of the evaluation unit 40 generated panoramic image persons 2 is formed. The embodiments may therefore be referred to as simplified. Another difference is that for identifying the persons 2 not their contour 3 is used and colored, but that each person 2 is assigned a circle segment 7, which is shown below her feet. The center of each circle segment refers to the position or representation of the forklift 10. The respective circle segment 7 is colored in dependence of the distance between a person 2 and the forklift 10, which is determined radar-based, by means of a signal color. The associated circle segment 7 of a close to the forklift 11 resident person 2 is dyed, for example, with red, a circle segment of a person further away is colored, for example, yellow and a circle segment of an even further away person 2 is dyed, for example, with green.
Entsprechend eingefärbte Liniensegmente 8 geben einen Maßstab für die beispielhaft genannte abstandsabhängige Einfärbung wieder. Die Liniensegmente 8 definieren so auch einen einer Person 2 zugeordneten Bereich, welcher entsprechend abstandsabhängig eingefärbt wird. Correspondingly colored line segments 8 represent a standard for the distance-dependent coloration mentioned by way of example. The line segments 8 thus also define a region assigned to a person 2, which area is colored according to the distance.
Die in den Figuren 3 und 4 gezeigten Ausführungsbeispiele erläutern, wie eine Person 2 im Umfeld 4 eines Gabelstaplers 10 mittels abstraktem Kennzeichnen eines ihr zugeordneten Bereichs einer Umfelddarstellung mit einer Signalfarbe einem Fahrer oder Nutzer des Gabelstaplers 10 angezeigt wird und wie er somit vor der Person 2 gewarnt wird. The exemplary embodiments shown in FIGS. 3 and 4 explain how a person 2 in the environment 4 of a forklift 10 is indicated to his or her forklift 10 by means of abstract marking of an associated area of an environment representation with a signal color, and how he thus appears in front of the person 2 is warned.
Bezugszeichen reference numeral
Person person
Kontur  contour
Umfeld  environment
Bild des Umfelds  Picture of the environment
Balkensegment  bar segment
Kreissegment  circular segment
Liniensegment  line segment
Objekt  object
10 Gabelstapler  10 forklifts
11 Heckbereich  11 rear area
12 Dach  12 roof
13 Holm  13 spar
14 Fahrerkabine  14 driver's cab
15 Chassis  15 chassis
22 erste Kamera  22 first camera
24 zweite Kamera  24 second camera
26 dritte Kamera  26 third camera
32 erster Radarsensor  32 first radar sensor
34 zweiter Radarsensor  34 second radar sensor
36 dritter Radarsensor  36 third radar sensor
40 Auswerteeinheit  40 evaluation unit
50 Steuergerät  50 control unit
51 Datenerfassung  51 Data acquisition
K1 Bilderfassung  K1 image capture
R1 Punktwolkenerfassung  R1 point cloud detection
52 Personenerkennung  52 person recognition
K2 bildbasierte Personenerkennung  K2 image-based person recognition
R2 punktwolkenbasierte Abstandsbestimmung R2 point cloud based distance determination
53 Umfelddarstellung 53 Environment representation
54 Bereichszuordnung  54 Area assignment
55 Personenkennzeichnung  55 person identification

Claims

Patentansprüche claims
1 . Verfahren zum Kennzeichnen einer sich im Umfeld (4) eines Fahrzeugs befindenden Person (2), mit den Schritten 1 . Method for identifying a person (2) in the environment (4) of a vehicle, comprising the steps
Erfassen (K1 ) zumindest eines Bilds mit mindestens einer auf dem Fahrzeug angeordneten Kamera (22, 24, 26), wobei das zumindest eine Bild Bildinformationen bezüglich der Person (2) aufweist,  Detecting (K1) at least one image with at least one camera (22, 24, 26) arranged on the vehicle, the at least one image having image information relating to the person (2),
Erkennen (K2) der Person (2) basierend auf den Bildinformationen des zumindest einen Bilds,  Recognizing (K2) the person (2) based on the image information of the at least one image,
Zuordnen (S4) eines Bereichs einer zumindest teilweisen Darstellung des Umfelds (4) des Fahrzeugs zu der erkannten Person (2) und  Assigning (S4) a region of an at least partial representation of the environment (4) of the vehicle to the recognized person (2) and
Kennzeichnen (S5) des der Person (2) zugeordneten Bereichs. Flag (S5) the area assigned to the person (2).
2. Verfahren nach Anspruch 1 , mit 2. The method according to claim 1, with
Erfassen (R1 ) zumindest einer Punktwolke mit mindestens einem auf dem Fahrzeug angeordneten Radarsensor (32, 34, 36), wobei die zumindest eine Punktwolke mindestens einen Punkt bezüglich der Person aufweist und  Detecting (R1) at least one point cloud with at least one radar sensor (32, 34, 36) arranged on the vehicle, wherein the at least one point cloud has at least one point with respect to the person and
Bestimmen (R2) eines Abstands der erkannten Person (2) von dem Fahrzeug basierend auf dem mindestens einen Punkt der zumindest einen Punktwolke und  Determining (R2) a distance of the recognized person (2) from the vehicle based on the at least one point of the at least one point cloud and
Kennzeichnen (S5) des der Person (2) zugeordneten Bereichs in Abhängigkeit des bestimmten Abstands. Marking (S5) the area assigned to the person (2) as a function of the determined distance.
3. Verfahren nach Anspruch 1 oder 2, mit 3. The method according to claim 1 or 2, with
Visualisieren (S3) der zumindest teilweisen Darstellung des Umfelds (4) des Fahrzeugs basierend auf dem zumindest einen erfassten Bild.  Visualizing (S3) the at least partial representation of the environment (4) of the vehicle based on the at least one captured image.
4. Verfahren nach einem der vorherigen Ansprüche, wobei 4. The method according to any one of the preceding claims, wherein
die zumindest teilweise Darstellung des Umfelds (4) des Fahrzeugs ein Bild (5) des Umfelds (4) des Fahrzeugs aus einer Vogelperspektive ist. the at least partial representation of the environment (4) of the vehicle is an image (5) of the surroundings (4) of the vehicle from a bird's-eye view.
5. Verfahren nach einem der vorherigen Ansprüche, wobei der zugeordnete Bereich basierend auf einer Kontur (3) der erkannten Person (2) gebildet wird. 5. The method according to any one of the preceding claims, wherein the assigned area is formed based on a contour (3) of the recognized person (2).
6. Verfahren nach einem der vorherigen Ansprüche, wobei 6. The method according to any one of the preceding claims, wherein
der zugeordnete Bereich ein Segment (6, 7, 8) mit Bezug auf einen Fußpunkt der erkannten Person (2) in der zumindest teilweisen Darstellung des Umfelds (4) des Fahrzeugs aufweist. the assigned area comprises a segment (6, 7, 8) with respect to a foot point of the recognized person (2) in the at least partial representation of the environment (4) of the vehicle.
7. Verfahren nach einem der vorherigen Ansprüche, mit 7. The method according to any one of the preceding claims, with
Kennzeichnen (S5) des der Person (2) zugeordneten Bereichs mit einem visuellen Warnsignal.  Identifying (S5) the area associated with the person (2) with a visual warning signal.
8. Verfahren nach einem der vorherigen Ansprüche, mit 8. The method according to any one of the preceding claims, with
Ermitteln einer relativen Lage der Person (2) in Bezug auf das Fahrzeug basierend auf zumindest einem der Schritte des Erfassens (K1 , R1 ) und  Determining a relative position of the person (2) with respect to the vehicle based on at least one of the steps of detecting (K1, R1) and
Kennzeichnen (S5) des der Person (2) zugeordneten Bereichs in Abhängigkeit der ermittelten relativen Lage.  Marking (S5) the area assigned to the person (2) as a function of the determined relative position.
9. Verfahren nach Anspruch 8, mit 9. The method according to claim 8, with
Anzeigen der ermittelten relativen Lage in der Darstellung des Umfelds (4) des Fahrzeugs.  Displaying the determined relative position in the representation of the environment (4) of the vehicle.
10. Verfahren nach einem der vorherigen Ansprüche, mit 10. The method according to any one of the preceding claims, with
Erfassen (R1 ) einer Vielzahl von Punktwolken mit mindestens einem auf dem Fahrzeug angeordneten Radarsensor (32, 34, 36), wobei die Punktwolken jeweils mindestens einen Punkt bezüglich der Person aufweisen,  Detecting (R1) a plurality of point clouds with at least one radar sensor (32, 34, 36) arranged on the vehicle, the point clouds each having at least one point with respect to the person,
Ermitteln eines Bewegungsverhaltens der Person (2) basierend auf den erfassten Punktwolken, wobei das Bewegungsverhalten mindestens eines aufweist von einem Stillstehen der Person (2), einem sich Bewegen der Person (2), einer Bewegungsrichtung der Person (2), einer Bewegungsgeschwindigkeit der Person (2) und einer Änderung von einem dieser Bewegungsmerkmale und  Determining a movement behavior of the person (2) based on the detected point clouds, wherein the movement behavior comprises at least one of resting the person (2), moving the person (2), a direction of movement of the person (2), a movement speed of the person (2) and a change of one of these movement characteristics and
Kennzeichnen (S5) des der Person (2) zugeordneten Bereichs in Abhängigkeit des ermittelten Bewegungsverhaltens. Marking (S5) the area assigned to the person (2) as a function of the determined movement behavior.
1 1 . Verfahren nach Anspruch 10, mit 1 1. The method of claim 10, with
Anzeigen des ermittelten Bewegungsverhaltens in der Darstellung des Umfelds (4) des Fahrzeugs.  Display of the determined movement behavior in the representation of the environment (4) of the vehicle.
12. Verfahren nach einem der vorherigen Ansprüche, mit 12. The method according to any one of the preceding claims, with
Durchführen einer Klassifikation der erkannten Person (2) als eine sich bewegende Performing a classification of the recognized person (2) as a moving one
Person oder als eine sich nicht bewegende Person und Person or as a non-moving person and
Kennzeichnen (S5) der erkannten Person (2) in Abhängigkeit der Klassifikation.  Identification (S5) of the recognized person (2) depending on the classification.
13. Verfahren nach einem der vorherigen Ansprüche, mit 13. The method according to any one of the preceding claims, with
Ausgeben eines Warnsignals als eine Reaktion auf eine erkannte Person (2).  Issuing a warning signal as a response to a recognized person (2).
14. Verfahren nach einem der vorherigen Ansprüche, mit 14. The method according to any one of the preceding claims, with
Eingreifen in den Antriebsstrang des Fahrzeugs als eine Reaktion auf eine erkannte Person (2).  Engaging the drive train of the vehicle as a response to a recognized person (2).
15. Verfahren nach einem der vorherigen Ansprüche, mit 15. The method according to any one of the preceding claims, with
Erkennen eines Objekts (9), welches keine Person (2) ist, basierend auf den Bildinformationen des zumindest einen Bilds, wobei das zumindest eine Bild Bildinformationen bezüglich des Objekts (9) aufweist,  Recognizing an object (9) which is not a person (2) based on the image information of the at least one image, the at least one image having image information relating to the object (9),
Zuordnen (S4) eines Bereichs der visualisierten zumindest teilweisen Darstellung des Umfelds (4) des Fahrzeugs zu dem in den Bildinformationen erkannten Objekt (9) und Kennzeichnen (S5) des dem Objekt (9) zugeordneten Bereichs.  Assigning (S4) a region of the visualized at least partial representation of the environment (4) of the vehicle to the object (9) recognized in the image information and identifying (S5) the region associated with the object (9).
16. Verfahren nach Anspruch 15, 16. The method according to claim 15,
gekennzeichnet durch marked by
Vornehmen einer Klassifikation als eine erkannte Person (2) oder als ein erkanntes Objekt (9) und  Making a classification as a recognized person (2) or as a recognized object (9) and
Kennzeichnen (S5) des der Person (2) zugeordneten Bereichs und des dem Objekt (9) zugeordneten Bereichs in Abhängigkeit der Klassifikation. Identifying (S5) the area associated with the person (2) and the area associated with the object (9) depending on the classification.
17. Steuergerät, welches dazu eingerichtet ist, die Verfahrensschritte nach einem der vorherigen Ansprüche durchzuführen. 17. Control device which is adapted to perform the method steps according to one of the preceding claims.
18. Fahrzeug mit einem Steuergerät (50) nach Anspruch 17. 18. Vehicle with a control device (50) according to claim 17.
19. Fahrzeug nach Anspruch 18, wobei 19. Vehicle according to claim 18, wherein
das Fahrzeug ein autonomes Flurförderfahrzeug ist. the vehicle is an autonomous industrial truck.
20. Fahrzeug nach Anspruch 18 oder 19, wobei 20. Vehicle according to claim 18 or 19, wherein
die mindestens eine auf dem Fahrzeug angeordnete Kamera (22, 24, 26) an einem Heckbereich (11 ) des Flurförderfahrzeugs angeordnet ist. the at least one camera (22, 24, 26) arranged on the vehicle is arranged on a rear region (11) of the industrial truck.
PCT/EP2019/056872 2018-04-19 2019-03-19 Method and controller for denoting a person WO2019201537A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018205965.9 2018-04-19
DE102018205965.9A DE102018205965A1 (en) 2018-04-19 2018-04-19 Method and control device for identifying a person

Publications (1)

Publication Number Publication Date
WO2019201537A1 true WO2019201537A1 (en) 2019-10-24

Family

ID=66049161

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/056872 WO2019201537A1 (en) 2018-04-19 2019-03-19 Method and controller for denoting a person

Country Status (2)

Country Link
DE (1) DE102018205965A1 (en)
WO (1) WO2019201537A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019120440A1 (en) * 2019-07-29 2021-02-04 Bayerische Motoren Werke Aktiengesellschaft Method and system for the automated creation of object markings for use in a driver assistance system of a vehicle
DE102019121469A1 (en) * 2019-08-08 2021-02-11 Bayerische Motoren Werke Aktiengesellschaft Method and system for labeling situation data for use in a driver assistance system of a vehicle
DE102020213861A1 (en) * 2020-11-04 2022-05-05 Robert Bosch Gesellschaft mit beschränkter Haftung Method for detecting objects in a vehicle environment, computer program, storage medium and electronic control device
DE102022205674A1 (en) * 2022-06-02 2023-12-07 Zf Friedrichshafen Ag Method and control device for controlling an industrial truck

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2720458A1 (en) * 2011-06-09 2014-04-16 Aisin Seiki Kabushiki Kaisha Image generation device
DE102015209857A1 (en) 2014-05-30 2015-12-03 Mando Corporation Autonomous emergency braking system and method for detecting pedestrians in this
DE102017120498A1 (en) 2016-09-08 2018-03-08 Ford Global Technologies, Llc PERCEIVING TRAVEL CONDITIONS FROM FUSED SENSOR DATA

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010010912A1 (en) * 2010-03-10 2010-12-02 Daimler Ag Driver assistance device for vehicle, has sensor unit for detecting object in surrounding of vehicle and display unit for optical representation of detected object by sensor unit to schematic top view of vehicle
DE102012023009A1 (en) * 2012-11-24 2013-05-29 Daimler Ag Driver assistance system for vehicle, has display device which displays detected position of pedestrian relative to vehicle by symbol, during standstill of vehicle or by turning off ignition in bird's-eye view
DE102014100673A1 (en) * 2014-01-22 2015-07-23 Sick Ag Driver's cab of a vehicle with a display unit
DE102014014662A1 (en) * 2014-09-19 2016-03-24 Mekra Lang North America, Llc Display device for vehicles, in particular commercial vehicles
DE102016208634B4 (en) * 2016-05-19 2024-02-01 Volkswagen Aktiengesellschaft Method for issuing warning information in a vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2720458A1 (en) * 2011-06-09 2014-04-16 Aisin Seiki Kabushiki Kaisha Image generation device
DE102015209857A1 (en) 2014-05-30 2015-12-03 Mando Corporation Autonomous emergency braking system and method for detecting pedestrians in this
DE102017120498A1 (en) 2016-09-08 2018-03-08 Ford Global Technologies, Llc PERCEIVING TRAVEL CONDITIONS FROM FUSED SENSOR DATA

Also Published As

Publication number Publication date
DE102018205965A1 (en) 2019-10-24

Similar Documents

Publication Publication Date Title
WO2019201537A1 (en) Method and controller for denoting a person
DE60207029T2 (en) 360 degree vision system for a vehicle
DE69932021T2 (en) Three-dimensional display system with a single camera for vehicles
DE102005056645B4 (en) Vehicle environment monitoring device
EP2289044B1 (en) Image data visualization
DE102005056429B4 (en) Vehicle environment monitoring device
DE102016116839A1 (en) Active detection and improved visualization of approaching vehicles
DE102015105248A1 (en) CREATING A PICTURE FROM THE ENVIRONMENT OF A TURNING VEHICLE
WO2016120044A1 (en) Measurement of a dimension on a surface
DE19947766A1 (en) Device for monitoring the surroundings of a parking vehicle
DE102005056616B4 (en) Vehicle environment monitoring device
DE102019124152A1 (en) CLUTCH SUPPORT SYSTEM
DE10035223A1 (en) Device and method for monitoring the surroundings of an object
DE102007059735A1 (en) Obstacle and vehicle e.g. lorry, recognition system, has cameras aligned such that area on side and over end of own vehicle are recognized, and output device providing information about object or vehicle within range of own vehicle
DE102018205964A1 (en) Method and control device for navigating an autonomous industrial truck
EP2869284B1 (en) Driver assistance system for vehicles, in particular for commercial vehicles
DE102017108254B4 (en) All-round camera system for object recognition and tracking and method for equipping a vehicle with a panoramic camera system
DE102017218074A1 (en) Method for representing an environment of a vehicle
DE102019104352A1 (en) COUPLING SUPPORT SYSTEM WITH ESTIMATE OF THE TRAILER HEIGHT AND IDENTIFICATION OF THE CLUTCH COUPLER
DE102018108751B4 (en) Method, system and device for obtaining 3D information from objects
WO2019063341A1 (en) Method for detecting a roadway condition of a roadway for a motor vehicle, driver assistance system and motor vehicle
DE102013215408A1 (en) A vehicle display system and method for displaying a vehicle environment
DE102018205694B3 (en) System and method for detecting an environment of a vehicle, vehicle with a system for environment detection and method for emergency braking of a vehicle
EP3704631A2 (en) Method for determining a distance between a motor vehicle and an object
DE102019206582A1 (en) Device, system, method and computer program for speed control of a vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19715831

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19715831

Country of ref document: EP

Kind code of ref document: A1