EP3504871A1 - Method and device for operating an interior camera - Google Patents

Method and device for operating an interior camera

Info

Publication number
EP3504871A1
EP3504871A1 EP17757472.0A EP17757472A EP3504871A1 EP 3504871 A1 EP3504871 A1 EP 3504871A1 EP 17757472 A EP17757472 A EP 17757472A EP 3504871 A1 EP3504871 A1 EP 3504871A1
Authority
EP
European Patent Office
Prior art keywords
camera
image
head
image signal
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP17757472.0A
Other languages
German (de)
French (fr)
Inventor
Hoang Trinh
Gabor GYURASZ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP3504871A1 publication Critical patent/EP3504871A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • H04N23/21Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from near infrared [NIR] radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors

Definitions

  • the invention is based on a device or a method according to the preamble of the independent claims.
  • the subject of the present invention is also a computer program.
  • An indoor camera captures images in the near infrared range.
  • the interior camera has an infrared illumination device. The closer an object is to the
  • Lighting device is, the greater is an illumination intensity on the object.
  • Has detection probability It is expected that the designated here as an object head of a driver of a vehicle with a very high probability after a short time is again arranged in an expected position.
  • the reference value is matched to the expected position.
  • the camera parameter is tracked according to the detected position of the head.
  • a method of operating an interior camera for a vehicle wherein in a step of controlling at least one camera parameter of the indoor camera is controlled using at least one quality parameter of a previously acquired image of the indoor camera when a head of a target person is detected in the image of the
  • Camera parameter is set to a predefined value if no head is detected.
  • An interior camera can be understood as a camera directed into an interior of a vehicle.
  • the interior camera can be understood as a camera directed into an interior of a vehicle.
  • the interior camera can be understood as a camera directed into an interior of a vehicle.
  • the vehicle be aimed in particular at a driver of the vehicle.
  • Indoor camera can provide an image sequence of individual images of the interior.
  • the indoor camera can also provide a video signal.
  • a camera parameter can be an adjustable size.
  • the driver can be the target person.
  • a predefined value can be a default value for the
  • a contrast As a quality parameter, a contrast, a brightness and / or a
  • Brightness distribution of the image can be used.
  • the camera parameters an exposure time and / or sensitivity of the indoor camera can be regulated.
  • the camera parameter can be a Be regulated light intensity of a lighting device of the interior camera. By adjusting these camera parameters, the image can be of high quality.
  • the method may include a step of detecting the head in a subsequently captured image of the indoor camera.
  • Quality parameter can be related to a header of the image.
  • the header is the region of interest of the image. By referring the quality parameters to the header area, the header area can be displayed very well.
  • the method may include a step of adjusting in which a color depth of a raw image signal of the indoor camera is adjusted to obtain a working image signal.
  • the head can be detected in an image of the working image signal. Reduced color depth requires less computation to process the image.
  • a color depth spectrum can be extracted from the raw image signal to obtain the working image signal.
  • raw color levels of the raw image signal may be added using a processing protocol
  • the color depth spectrum can by a
  • Processing instructions can be an algorithm for converting the color levels. By converting a large information content of the image can be obtained. By extracting, the color depth can be reduced quickly and easily.
  • This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
  • the approach presented here also provides a device which is designed to implement the steps of a variant of a method presented here
  • the device may comprise at least one computing unit for processing signals or data, at least one memory unit for storing signals or data, at least one interface to a sensor or an actuator for reading sensor signals from the sensor or for outputting data or control signals to the sensor Actuator and / or at least one
  • the arithmetic unit may be, for example, a signal processor, a microcontroller or the like, wherein the memory unit may be a flash memory, an EEPROM or a magnetic memory unit.
  • the communication interface can be designed to read or output data wirelessly and / or by line, wherein a communication interface that can read or output line-bound data, for example, electrically or optically read this data from a corresponding data transmission line or output in a corresponding data transmission line.
  • a device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon.
  • the device may have an interface, which may be formed in hardware and / or software.
  • the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device.
  • the interfaces are their own integrated circuits or at least partially consist of discrete components.
  • the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
  • a computer program product or computer program with program code which is stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical disk Memory may be stored and for carrying out, implementing and / or controlling the steps of the method according to one of the above
  • FIG. 1 is a block diagram of a vehicle having an apparatus for operating an interior camera according to an embodiment
  • FIG. 2 is an illustration of a procedure of operating an indoor camera according to an embodiment
  • FIG. 3 is a flowchart of a method for operating a
  • FIG. 4 is a state diagram of a controller for a method of operating an indoor camera according to an embodiment
  • 5 shows representations of a detection of an object in an image of an interior camera according to an exemplary embodiment
  • 6 is a flowchart of an algorithm for operating a
  • FIG. 7 is a block diagram of a controlled system for operating a
  • Fig. 12 is a flow chart of a method of operation
  • FIG. 1 shows a block diagram of a vehicle 100 with a device 102 for operating an interior camera 104 according to one exemplary embodiment.
  • the interior camera 104 is aligned with an expected head area 106 of a driver 108 of the vehicle 100.
  • the head 110 is the head 110 in
  • the interior camera 104 has a lighting device 112.
  • the illumination device 112 comprises at least one infrared light source 114, 116, which is aligned in the head region 106.
  • the first infrared light source 114 is close to
  • Interior camera 104 is arranged. Light from the first light source 114 is reflected on the retina of the driver's eyes to the interior camera 104 and, similar to the red eye effect, produces bright pupils in images of the camera
  • the second infrared light source 116 is disposed away from the indoor camera 104. Light from the second light source 116 is not reflected via the retina to the indoor camera 104 and produces dark pupils in the images.
  • the head 110 When the head 110 is within the head area 106, it may be detected in images of the indoor camera 104. Depending on a position of the head 110 in the header 106, the image has quality parameters 118. When the head 110 is detected, at least one camera parameter 122 of the indoor camera 104 is readjusted in a controller 120 of the apparatus 102 for operation using the quality parameters 118.
  • FIG. 1 shows a device 102 for controlling a motor vehicle interior camera 104 with active I R illumination 112.
  • Driver surveillance camera systems consist of at least one
  • Camera module 104 an active near-infrared illumination or I R Modules 112 and a computer unit 102.
  • Driver surveillance camera system may typically be a one-way, two-way multi-camera system.
  • the I R modules 112 can in
  • Bright Pupil (BP) 114 and Dark Pupil (DP) 116 can be distinguished.
  • Bright pupil (BP) 114 produces bright pupils similar to the "red eye effect" when the illumination 114 is located very close to the camera 104, whereby the light which has hit the retina through the pupil is reflected back into the camera image.
  • DP 116 occurs when the
  • Lighting 116 away from the camera 104 is located and thus no emitted light enters directly on the retina or pupil and therefore the pupil in the camera image remains dark.
  • the active I R illumination 112 provides a good illumination of the scene or the driver's face. This can be done at all
  • the integration times of the imager and the I R illumination can be changed.
  • the I R illumination 112 may be in terms of illumination and
  • Irradiance can be adjusted for changing distances. Thus, many use cases are covered where the driver or the user is at different distances to the head or eye tracking system.
  • a camera control for example by means of the built-in imager auto exposure control (AEC) or a dedicated camera SW module leads to a brightness control on the full picture or a set image area.
  • AEC built-in imager auto exposure control
  • a dedicated camera SW module leads to a brightness control on the full picture or a set image area.
  • the picture area can not between the face and objects, like the sun behind the face, one Obscurity, for example, be distinguished in front of the face with one hand. This causes the face in the controlled image by means of
  • Image processing methods can no longer be found because the contrast and brightness is not sufficient.
  • the camera 104 and the I R illumination 112 provide an optimal image for the head tracking.
  • the image has a quantization of 10 or 12 bits and in the first step becomes, for example, a 10/12 -> 8 bit mapping by means of a function such as a logarithmic characteristic or by simple bit selection or cutting of 8 bits from 10 / 12 bit performed.
  • the raw image is thus reduced to 8-bit resolution and fed to the head tracking algorithm.
  • Image control based on the image quality parameters perform. If, however, no face is detected, the system jumps back to the defined operating point.
  • the transition may be made by temporally configuring with a defined period of time, instead of a hard transition to the aforementioned operating point. It is in the use cases mentioned, such as sun behind the head and
  • Obscurations avoided unfavorable regulation on objects. Even in the case of an approach of the head with previously detected face to the camera 104, adapted to the situation lighting and integration of the image ensure an optimal for the head tracking image.
  • FIG. 2 shows an illustration of an effect chain of a camera control of an interior camera 104 according to one exemplary embodiment.
  • the chain of effects comprises a frame buffer 200, a preprocessing means 202, a head tracking means 204, an eye tracking means 206, and higher level functions 208.
  • the indoor camera 104 provides raw image data 210 at 12 or 10 bits per pixel for the image buffer 200.
  • the raw image data 210 is in the
  • Preprocessor 202 by mapping or by a non-linear function, such as log or simply dropping bits, for example, the twelfth and first bits or the two lowest first and second bits of 12 to 8-bit image data 212 reduced.
  • the 8-bit image data 212 is used in the tracker 204 to
  • header data 214 The head tracking data 214 is used in the controller 120 in accordance with the approach presented herein to adjust camera and IR exposure control to head tracking data 214. Image quality can be improved for head tracking.
  • the head tracking data 214 is evaluated to determine parameter 122 for controlling the camera / 1 R.
  • a 2D head boundary box is used as the region of interest (ROI) for calculating image quality parameters 118.
  • ROI region of interest
  • the head tracking data 214 and the 2D header box may be used if a
  • Acceptance level / acceptance threshold is exceeded.
  • a confidence may be used to set a region of interest for calculating image quality parameters 118.
  • the size of the region of interest is limited in minimum and maximum size to avoid too small or too large a region of interest.
  • the camera / 1R parameters 122 may be frozen if the face is not frontal.
  • a head tracking status may be initialized, tracked / tracked, or retrieved / reinitiated when the head tracking is in the tracked mode. In other cases, init or refind, the camera / 1R control will not be changed.
  • Possible default settings are a bit shift or bit shift substantially greater than seven, a predetermined gain of one, a predetermined analog gain of one.
  • Control parameters for example (PID controller). Timing thresholds especially for transition between face captured and not captured.
  • a log function for mapping the 12-bit or 10-bit image to an 8-bit image may be applied.
  • the image recording and exposure are adjusted by moving from the operating point 216 to a good image quality achieved, which is suitable for tracking the head and eyes.
  • FIG. 3 shows a flow chart of a method for operating a
  • the method can be carried out on a device for operating, as shown for example in FIG. 1.
  • the flowchart includes a memory block 300, a first functional block 302, a first decision block 304, a second functional block 306, a second decision block 308, and a third functional block 310.
  • the third functional block 310 is a third
  • a start takes place with a default setting or in an operating point from the memory block 300, as shown in Fig. 2.
  • a setting control starts when the face is detected or with an input signal of the Head tracking.
  • the tracking quality / confidence level, tracking refresh rate, estimated distance from the face bounding box in a 2 D image plane may be used to set the region of interest of the image. This region of interest is used to calculate the image quality parameters and to make a review
  • the region of interest may be a face area within the image displayed by the detected face boundary box.
  • facial features such as visibility, symmetry, or head tracking obscurities are evaluated.
  • the control is only done with (near) frontal view of the face.
  • Brightness symmetry and / or face rotation or alignment are checked. Control parameters on header profiles are kept. Control occurs only when Head Tracking is in tracking mode. In this mode, only facial features or landmarks such as canthus and nostrils are tracked by applying, for example, a Kalman filter. In the initialization mode, the search is performed over a full frame for head / face candidates. In the recovery mode, try the search.
  • Head tracking to find or capture a head within a larger image region than in the tracking mode.
  • the control is carried out in two stages.
  • For the exposure a new exposure time is used using the exposure time +/-
  • Shutter speed_Step size determined.
  • the step size is used to get a smooth dynamic brightness change to avoid changing a brightness level between frames.
  • Control speed is adjusted to head movement toward the camera.
  • a six, seven or eight bit shift bit shift can be used as an optional stage. If the threshold to a good image parameter with a matched image is not met, another bit shift operation may be performed one to two bits left or right.
  • the main control parameter is the
  • Exposure time The level and range, span or range can be tested iteratively.
  • Minimum and maximum range of parameters A minimum and maximum exposure time is limited, for example between 40 microseconds and three milliseconds. The values are based on heuristics to allow adjustment close to the given operating point. The bit shift takes place with a maximum of 2 bits left and right.
  • img_qpar or image quality parameters such as brightness and contrast and the comparison of actual image parameters with target image quality parameters qpar_thr, ideally equal to an average value, such as image brightness about 128 LSB with 8-bit image.
  • an exposure time for the next frame may be set above 12C to obtain a result closer to a good image parameter based on an analysis of the current frame. For example, if it is too dark, the exposure time may be increased; if it is too bright, the exposure time may be reduced.
  • the range or range and step or stages can be evaluated heuristically.
  • Standard control for example via a PID controller, can be used.
  • the reference variable w is the image quality parameter
  • the feedback x is the control parameter
  • the control deviation e is the difference for the controller.
  • the head tracking quality and the estimated distance corresponding to the detected face bounding box in the 2-D image plane may be used to set a region of interest to the control.
  • the interested parties Region (ROI) is relevant for calculating the image quality parameter and checking against the configured threshold.
  • a frame n is recorded with a given exposure time exp_time and a bit shift bitshift.
  • cam_capture_par are used.
  • a query is made as to whether the head is detected in frame n-1.
  • quality parameters qpar for frame n are calculated, qpar are image quality parameters such as image brightness or contrast in the full image or the face bounding box. This is followed by another query as to whether qpar is greater or less than a threshold qpar_thr. Where qpar is greater than qpar_thr if qpark is greater than qpar_thrk and qpark + i is greater than qpar_thrk + i and within operational header related parameters and
  • Thresholds is.
  • the exposure time exp_time is set and the bit shift for frame n + 1 is adjusted using a controller.
  • the exposure is adjusted. If g_mean is less than g_mean_thr, the exp_time (n + l) is set to clip (exp_time (n) + exp_time_step). If g_mean is greater than g_mean_thr, the exp_time (n + l) is set to clip (exp_time (n) -exp_time_step).
  • the exp_time_range is 0.5 to 3 ms.
  • the exp_time_step is 0.5 ms.
  • the bit shift is set. If qpar (n) - qpar (n-l) is greater than qpar_delta_thr and last_adj_act is greater than
  • bitshift (n + l) is set as bitshift (n) ⁇ bitshift_step. If qpar (n) -qpar (n-l) is less than qpar_delta_thr and last_adj_act is less than last_adi_act_thr, bitshift (n + l) is set as bitshift (n) >> bitshift step.
  • bitshift_range is 6 to 8 and the
  • Bitshift step is 1.
  • the exposure is set based on the first level histogram. If Hist_pix_cnt is greater than pix_cnt thr and the mean gray value, that is, Hist_pix_dark_cnt is greater than pix_dark_cnt_thr and g_mean is less when g_mean_thr is set, the exp_time (n + l) is set to clip (exp_time (n) + exp_time_step).
  • FIG. 4 shows a state diagram of a controller 400 for a method for operating an interior camera according to an exemplary embodiment.
  • the controller is a finite automaton or state machine
  • the controller essentially corresponds to the controller in FIG. 3.
  • the controller 400 has a first function block 402, a second function block 404 and a third
  • a global ROI in a global state is used as a default value as long as no head is detected.
  • the controller 400 changes to a head tracking state within a head tracking ROI.
  • the controller 400 transitions to a transient state with a transitional time
  • Head tracking ROI If the head is not recognized within the transition time, the controller 400 returns to the global state with the global ROI.
  • FIG. 5 shows illustrations of a detection of an object 500 in an image of an interior camera according to an exemplary embodiment.
  • a preset setting of the region of interest 502 is started.
  • the indoor camera with a fixed exposure time or fixed exposure time or with adaptive
  • Exposure time or operated with adaptive exposure time is used.
  • the ROI 502, where the probability for the head 500 is highest, is used.
  • the region of interest 502 may be referred to as header 502.
  • the ROI size in the head tracking depends on the two-dimensional size of the detected head 500, the quality of the head tracking and the Frame rate of the head tracking.
  • the center of the region of interest 502 is the center of the captured two-dimensional head 500, with limitation, to hold the region of interest 502 within the image.
  • the setpoint is converted linearly over time. If the exposure time is fixed, a low pass filter with a longer rise time is used. if the
  • Exposure time is adaptive, corners of the region of interest 502 are converted from the head track to linear ROI corners.
  • FIG. 6 shows a flowchart of an algorithm for operating a
  • the controller implements a model-based algorithm.
  • the optimum actuation value or the exposure time u is calculated using an inverse model 600.
  • An input signal u is the exposure time.
  • An output signal y is an average of image pixel values. Both values are processed in the inverse model, giving an estimated optimal
  • Input signal u which is filtered via an LPF low-pass filter 602 with a rise time of 0.14 seconds to be used again as input signal u.
  • Fig. 7 shows a block diagram of a controlled system for operating a
  • the controlled system implements the algorithm shown in FIG. 6.
  • the exposure time is computed in a calculator 700 as the estimated optimal input signal (u) of the system.
  • the mean target value is a predefined mean value which leads to good image quality.
  • the image average is the calculated average of the image pixel values of a downsampled or downsampled image.
  • the input signal (u) is filtered in the low-pass filter 602 with the rise time of 0.14 seconds.
  • the imaging device 702 the
  • Input signal of the system is mapped to camera control variables.
  • Camera action variables are exposure time, gain and bit shift.
  • 8 shows an illustration of an application case for an interior camera 104 according to an exemplary embodiment.
  • the head 110 is arranged close to the camera 104 or IR 112 at a near border of the head area 106 or a beginning of the head motion box HMB 106.
  • FIG. 9 shows an illustration of an application case for an interior camera 104 according to an embodiment.
  • the application case corresponds essentially to the application in Fig. 1.
  • the head in contrast, the head
  • FIG. 10 shows an illustration of an application case for an indoor camera
  • the application case essentially corresponds to the application in FIG. 1.
  • an object 1000 is arranged between the camera and the head 110.
  • the object 1000 partially covers the head 110.
  • the obscuring object 1000 for example, a hand or the steering wheel shadows parts of the face.
  • FIG. 11 shows an illustration of an application case for an interior camera 104 according to an embodiment.
  • the application corresponds essentially to the application in Fig. 1.
  • the head 110 is illuminated by extraneous light sources 1100.
  • Ambient light for example from the
  • HMB head motion field 106
  • FIG. 12 shows a flowchart of a method for operating a
  • the method points a step 1200 of the regulation.
  • at least one camera parameter of the indoor camera is controlled by using at least one quality parameter of a previously acquired image of the indoor camera when a head of a target person is detected in the image.
  • the camera parameter is set to a predefined value if no head is detected.
  • an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

The invention relates to a method for operating an interior camera (104) for a vehicle (100), wherein in one control step at least one camera parameter (122) of the interior camera (104) is controlled by using at least one quality parameter (118) of a previously recorded image from the interior camera (104) when a head (110) of a target person (108) is detected in the image, wherein the camera parameter (122) is set to a predefined value when no head (110) is detected.

Description

Beschreibung Titel  Description title
Verfahren und Vorrichtung zum Betreiben einer Innenraumkamera Stand der Technik  Method and device for operating an interior camera Prior art
Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm. The invention is based on a device or a method according to the preamble of the independent claims. The subject of the present invention is also a computer program.
Eine Innenraumkamera erfasst Bilder im nahen Infrarotbereich. Um ausreichend ausgeleuchtete Bilder zu erhalten, weist die Innenraumkamera eine Infrarot- Beleuchtungseinrichtung auf. Je näher ein Objekt an der An indoor camera captures images in the near infrared range. In order to obtain sufficiently illuminated images, the interior camera has an infrared illumination device. The closer an object is to the
Beleuchtungseinrichtung ist, um so größer ist eine Beleuchtungsintensität auf dem Objekt. Lighting device is, the greater is an illumination intensity on the object.
Beispielsweise kann ein Kopf eines Fahrers des Fahrzeugs bei einer For example, a head of a driver of the vehicle at a
Vorverlagerung eine sehr geringe Entfernung zu der Beleuchtungseinrichtung aufweisen, sodass die Innenraumkamera den Kopf nicht mehr erfassen kann. Forward displacement have a very short distance to the lighting device, so that the interior camera can no longer detect the head.
Offenbarung der Erfindung Disclosure of the invention
Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Betreiben einer Innenraumkamera für ein Fahrzeug, weiterhin eine Vorrichtung, die dieses Verfahren verwendet, sowie schließlich ein Against this background, with the approach presented here, a method for operating an interior camera for a vehicle, a device that uses this method, and finally a
entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich. Wenn ein Objekt nicht mehr von einer Kamera erfasst werden kann, versucht eine Regelung der Kamera Kameraparameter zu verändern, um wieder in einen erfassungsbereiten Zustand zu gelangen. Bei dem hier vorgestellten Ansatz wird zumindest ein Kameraparameter dercorresponding computer program presented according to the main claims. The measures listed in the dependent claims advantageous refinements and improvements of the independent claim device are possible. If an object can no longer be detected by a camera, a control of the camera attempts to change camera parameters in order to return to an acquisition-ready state. In the approach presented here at least one camera parameter is the
Kamera unmittelbar nach einem Verlust des Objekts auf einen Referenzwert gesetzt, bei dem die Kamera unter Normalbedingungen eine hohe Set the camera to a reference level immediately after the object has been lost, causing the camera to be high under normal conditions
Erfassungswahrscheinlichkeit aufweist. Dabei wird erwartet, dass der hier als Objekt bezeichnete Kopf eines Fahrers eines Fahrzeugs mit einer sehr hohen Wahrscheinlichkeit nach kurzer Zeit wieder in einer erwarteten Position angeordnet ist. Der Referenzwert ist auf die erwartete Position abgestimmt. Wenn der Kopf wieder erfasst wird, wird der Kameraparameter entsprechend der erfassten Position des Kopfs nachgeführt. Has detection probability. It is expected that the designated here as an object head of a driver of a vehicle with a very high probability after a short time is again arranged in an expected position. The reference value is matched to the expected position. When the head is detected again, the camera parameter is tracked according to the detected position of the head.
Es wird ein Verfahren zum Betreiben einer Innenraumkamera für ein Fahrzeug vorgestellt, wobei in einem Schritt des Regeins zumindest ein Kameraparameter der Innenraumkamera unter Verwendung zumindest eines Qualitätsparameters eines vorausgehend erfassten Bilds der Innenraumkamera geregelt wird, wenn ein Kopf einer Zielperson in dem Bild detektiert wird, wobei der A method of operating an interior camera for a vehicle is provided, wherein in a step of controlling at least one camera parameter of the indoor camera is controlled using at least one quality parameter of a previously acquired image of the indoor camera when a head of a target person is detected in the image of the
Kameraparameter auf einen vordefinierten Wert gesetzt wird, wenn kein Kopf detektiert wird. Camera parameter is set to a predefined value if no head is detected.
Unter einer Innenraumkamera kann eine in einen Innenraum eines Fahrzeugs gerichtete Kamera verstanden werden. Die Innenraumkamera kann An interior camera can be understood as a camera directed into an interior of a vehicle. The interior camera can
insbesondere auf einen Fahrer des Fahrzeugs ausgerichtet sein. Die be aimed in particular at a driver of the vehicle. The
Innenraumkamera kann eine Bildfolge von Einzelbildern des Innenraums bereitstellen. Die Innenraumkamera kann auch ein Videosignal bereitstellen. Ein Kameraparameter kann eine einstellbare Größe sein. Der Fahrer kann die Zielperson sein. Ein vordefinierter Wert kann ein Vorgabewert für den Indoor camera can provide an image sequence of individual images of the interior. The indoor camera can also provide a video signal. A camera parameter can be an adjustable size. The driver can be the target person. A predefined value can be a default value for the
Kameraparameter sein. Be camera parameters.
Als Qualitätsparameter kann ein Kontrast, eine Helligkeit und/oder eine As a quality parameter, a contrast, a brightness and / or a
Helligkeitsverteilung des Bilds verwendet werden. Als Kameraparameter kann eine Belichtungszeit und/oder Empfindlichkeit der Innenraumkamera geregelt werden. Alternativ oder ergänzend kann als Kameraparameter eine Lichtintensität einer Beleuchtungseinrichtung der Innenraumkamera geregelt werden. Durch Einstellung dieser Kameraparameter kann das Bild eine hohe Qualität aufweisen. Brightness distribution of the image can be used. As the camera parameters, an exposure time and / or sensitivity of the indoor camera can be regulated. Alternatively or additionally, the camera parameter can be a Be regulated light intensity of a lighting device of the interior camera. By adjusting these camera parameters, the image can be of high quality.
Das Verfahren kann einen Schritt des Detektierens des Kopfs in einem nachfolgend erfassten Bild der Innenraumkamera aufweisen. Der The method may include a step of detecting the head in a subsequently captured image of the indoor camera. Of the
Qualitätsparameter kann auf einen Kopfbereich des Bilds bezogen werden. Der Kopfbereich ist die interessierende Region des Bilds. Durch den Bezug der Qualitätsparameter auf den Kopfbereich kann der Kopfbereich besonders gut abgebildet werden. Quality parameter can be related to a header of the image. The header is the region of interest of the image. By referring the quality parameters to the header area, the header area can be displayed very well.
Das Verfahren kann einen Schritt des Einstellens aufweisen, in dem eine Farbtiefe eines Rohbildsignals der Innenraumkamera eingestellt wird, um ein Arbeitsbildsignal zu erhalten. Der Kopf kann in einem Bild des Arbeitsbildsignals detektiert werden. Durch eine verringerte Farbtiefe wird weniger Rechenaufwand benötigt, um das Bild zu bearbeiten. The method may include a step of adjusting in which a color depth of a raw image signal of the indoor camera is adjusted to obtain a working image signal. The head can be detected in an image of the working image signal. Reduced color depth requires less computation to process the image.
Ein Farbtief enspektrum kann aus dem Rohbildsignal extrahiert werden, um das Arbeitsbildsignal zu erhalten. Alternativ oder ergänzend können Rohfarbstufen des Rohbildsignals unter Verwendung einer Verarbeitungsvorschrift zu A color depth spectrum can be extracted from the raw image signal to obtain the working image signal. Alternatively or additionally, raw color levels of the raw image signal may be added using a processing protocol
Arbeitsfarbstufen des Arbeitsbildsignals zugeordnet werden, um das Working color levels of the working image signal are assigned to the
Arbeitsbildsignal zu erhalten. Das Farbtiefenspektrum kann durch ein Obtain working image signal. The color depth spectrum can by a
Abschneiden von irrelevanten Farbstufen des Bilds erreicht werden. Die Cutting off irrelevant color levels of the image can be achieved. The
Verarbeitungsvorschrift kann ein Algorithmus zum Umrechnen der Farbstufen sein. Durch das Umrechnen kann ein großer Informationsgehalt des Bilds erhalten werden. Durch das Extrahieren kann die Farbtiefe schnell und einfach reduziert werden. Processing instructions can be an algorithm for converting the color levels. By converting a large information content of the image can be obtained. By extracting, the color depth can be reduced quickly and easily.
Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein. This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in The approach presented here also provides a device which is designed to implement the steps of a variant of a method presented here
entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden. to implement, control or implement appropriate facilities. Also by this embodiment of the invention in the form of a device, the object underlying the invention can be solved quickly and efficiently.
Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine For this purpose, the device may comprise at least one computing unit for processing signals or data, at least one memory unit for storing signals or data, at least one interface to a sensor or an actuator for reading sensor signals from the sensor or for outputting data or control signals to the sensor Actuator and / or at least one
Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EEPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann. Communication interface for reading or outputting data embedded in a communication protocol. The arithmetic unit may be, for example, a signal processor, a microcontroller or the like, wherein the memory unit may be a flash memory, an EEPROM or a magnetic memory unit. The communication interface can be designed to read or output data wirelessly and / or by line, wherein a communication interface that can read or output line-bound data, for example, electrically or optically read this data from a corresponding data transmission line or output in a corresponding data transmission line.
Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind. In the present case, a device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon. The device may have an interface, which may be formed in hardware and / or software. In the case of a hardware-based embodiment, the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device. However, it is also possible that the interfaces are their own integrated circuits or at least partially consist of discrete components. In a software training, the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend Also of advantage is a computer program product or computer program with program code which is stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical disk Memory may be stored and for carrying out, implementing and / or controlling the steps of the method according to one of the above
beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird. described embodiments, in particular when the program product or program is executed on a computer or a device.
Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt: Fig. 1 ein Blockschaltbild eines Fahrzeugs mit einer Vorrichtung zum Betreiben einer Innenraumkamera gemäß einem Ausführungsbeispiel; Embodiments of the approach presented here are shown in the drawings and explained in more detail in the following description. 1 is a block diagram of a vehicle having an apparatus for operating an interior camera according to an embodiment;
Fig. 2 eine Darstellung eines Ablaufs eines Betreibens Betreiben einer Innenraumkamera gemäß einem Ausführungsbeispiel; FIG. 2 is an illustration of a procedure of operating an indoor camera according to an embodiment; FIG.
Fig. 3 ein Flussdiagramm eines Verfahrens zum Betreiben einer 3 is a flowchart of a method for operating a
Innenraumkamera gemäß einem Ausführungsbeispiel; Interior camera according to an embodiment;
Fig. 4 ein Zustandsdiagramm eines Reglers für ein Verfahren zum Betreiben einer Innenraumkamera gemäß einem Ausführungsbeispiel; 4 is a state diagram of a controller for a method of operating an indoor camera according to an embodiment;
Fig. 5 Darstellungen einer Detektion eines Objekts in einem Bild einer Innenraumkamera gemäß einem Ausführungsbeispiel; Fig. 6 ein Ablaufdiagramm eines Algorithmus zum Betreiben einer 5 shows representations of a detection of an object in an image of an interior camera according to an exemplary embodiment; 6 is a flowchart of an algorithm for operating a
Innenraumkamera gemäß einem Ausführungsbeispiel;  Interior camera according to an embodiment;
Fig. 7 ein Blockschaltbild einer Regelstrecke zum Betreiben einer 7 is a block diagram of a controlled system for operating a
Innenraumkamera gemäß einem Ausführungsbeispiel; die Figuren 8 bis 11 Darstellungen von Anwendungsfällen für eine Interior camera according to an embodiment; Figures 8 to 11 representations of applications for a
Innenraumkamera gemäß einem Ausführungsbeispiel; und Interior camera according to an embodiment; and
Fig. 12 ein Ablaufdiagramm eines Verfahrens zum Betreiben Fig. 12 is a flow chart of a method of operation
Innenraumkamera gemäß einem Ausführungsbeispiel. In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren Interior camera according to an embodiment. In the following description of favorable embodiments of the present invention are for the in the various figures
dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche represented and similar elements acting the same or similar
Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird. Reference numeral used, wherein a repeated description of these elements is omitted.
Fig. 1 zeigt ein Blockschaltbild eines Fahrzeugs 100 mit einer Vorrichtung 102 zum Betreiben einer Innenraumkamera 104 gemäß einem Ausführungsbeispiel. Die Innenraumkamera 104 ist auf einen erwarteten Kopfbereich 106 eines Fahrers 108 des Fahrzeugs 100 ausgerichtet. Hier ist der Kopf 110 im 1 shows a block diagram of a vehicle 100 with a device 102 for operating an interior camera 104 according to one exemplary embodiment. The interior camera 104 is aligned with an expected head area 106 of a driver 108 of the vehicle 100. Here is the head 110 in
Wesentlichen mittig beziehungsweise in mittlerer Reichweite in dem Kopfbereich 106 an einer Normalposition angeordnet. Die Innenraumkamera 104 weist eine Beleuchtungseinrichtung 112 auf. Die Beleuchtungseinrichtung 112 umfasst zumindest eine Infrarotlichtquelle 114, 116, die in den Kopfbereich 106 ausgerichtet ist. Die erste Infrarotlichtquelle 114 ist nahe an der Essentially arranged centrally or in the middle range in the head region 106 at a normal position. The interior camera 104 has a lighting device 112. The illumination device 112 comprises at least one infrared light source 114, 116, which is aligned in the head region 106. The first infrared light source 114 is close to
Innenraumkamera 104 angeordnet. Licht von der ersten Lichtquelle 114 wird an der Netzhaut der Augen des Fahrers zu der Innenraumkamera 104 reflektiert und erzeugt analog zum rote Augen Effekt für helle Pupillen in Bildern der Interior camera 104 is arranged. Light from the first light source 114 is reflected on the retina of the driver's eyes to the interior camera 104 and, similar to the red eye effect, produces bright pupils in images of the camera
Innenraumkamera 104. Die zweite Infrarotlichtquelle 116 ist entfernt von der Innenraumkamera 104 angeordnet. Licht von der zweiten Lichtquelle 116 wird nicht über die Netzhaut zu der Innenraumkamera 104 reflektiert und erzeugt dunkle Pupillen in den Bildern. Interior camera 104. The second infrared light source 116 is disposed away from the indoor camera 104. Light from the second light source 116 is not reflected via the retina to the indoor camera 104 and produces dark pupils in the images.
Wenn der Kopf 110 innerhalb des Kopfbereichs 106 ist, kann er in Bildern der Innenraumkamera 104 detektiert werden. Abhängig von einer Position des Kopfs 110 in dem Kopfbereich 106 weist das Bild Qualitätsparameter 118 auf. Wenn der Kopf 110 detektiert wird, wird in einer Regeleinrichtung 120 der Vorrichtung 102 zum Betreiben zumindest ein Kameraparameter 122 der Innenraumkamera 104 unter Verwendung der Qualitätsparameter 118 nachgeregelt. When the head 110 is within the head area 106, it may be detected in images of the indoor camera 104. Depending on a position of the head 110 in the header 106, the image has quality parameters 118. When the head 110 is detected, at least one camera parameter 122 of the indoor camera 104 is readjusted in a controller 120 of the apparatus 102 for operation using the quality parameters 118.
Mit anderen Worten zeigt Fig. 1 eine Vorrichtung 102 zur Regelung einer Kfz- Innenraumkamera 104 mit aktiver I R Beleuchtung 112. In other words, FIG. 1 shows a device 102 for controlling a motor vehicle interior camera 104 with active I R illumination 112.
Fahrerbeobachtungskamerasysteme bestehen aus zumindest einem Driver surveillance camera systems consist of at least one
Kameramodul 104, einer aktiver Nah-Infrarotbeleuchtung beziehungsweise I R- Modulen 112 und einer Rechnereinheit 102. Ein Camera module 104, an active near-infrared illumination or I R Modules 112 and a computer unit 102. A
Fahrerbeobachtungskamerasystem kann typischerweise ein Ein-, Zweibeziehungsweise Multikamerasystem sein. Die I R-Module 112 können im  Driver surveillance camera system may typically be a one-way, two-way multi-camera system. The I R modules 112 can in
Wesentlichen in Bright Pupil (BP) 114 und Dark Pupil (DP) 116 unterschieden werden. Bright Pupil (BP) 114 bewirkt ähnlich zu dem„roten Augeneffekt" helle Pupillen, wenn die Beleuchtung 114 sehr nah bei der Kamera 104 sich befindet, wodurch das durch die Pupille auf die Retina aufgetroffene Licht wieder in das Kamerabild zurückreflektiert wird. Dark Pupil (DP) 116 tritt auf, wenn die Essentially in Bright Pupil (BP) 114 and Dark Pupil (DP) 116 can be distinguished. Bright pupil (BP) 114 produces bright pupils similar to the "red eye effect" when the illumination 114 is located very close to the camera 104, whereby the light which has hit the retina through the pupil is reflected back into the camera image. DP) 116 occurs when the
Beleuchtung 116 weg von der Kamera 104 sich befindet und somit kein ausgesandtes Licht direkt auf die Retina beziehungsweise Pupille eintritt und daher die Pupille im Kamerabild dunkel bleibt. Lighting 116 away from the camera 104 is located and thus no emitted light enters directly on the retina or pupil and therefore the pupil in the camera image remains dark.
Unter Verwendung der Innenraumkamera 104 können Software Funktionen beziehungsweise Algorithmen, wie head and eye tracking, Face Identification, Driver Modelling (drowsiness, distraction detection) und gaze control umgesetzt werden. Die aktive I R-Beleuchtung 112 sorgt für eine gute Ausleuchtung der Szene beziehungsweise des Fahrergesichts. Dadurch kann bei allen Using the interior camera 104, software functions or algorithms such as head and eye tracking, face identification, driver modeling (drowsiness, distraction detection) and gaze control can be implemented. The active I R illumination 112 provides a good illumination of the scene or the driver's face. This can be done at all
Bedingungen, beispielsweise bei Tag und Nacht, im Gesichtsbereich ein kontrastreiches und helles Bild für die videobasierte Detektionsperformance gewährleistet werden. Conditions such as day and night, in the face area a high-contrast and bright image for the video-based detection performance can be ensured.
Die Integrationszeiten des Imagers und der I R-Beleuchtung können verändert werden. Die I R Beleuchtung 112 kann bezüglich der Ausleuchtung und The integration times of the imager and the I R illumination can be changed. The I R illumination 112 may be in terms of illumination and
Bestrahlungsstärke für wechselnde Abstände angepasst werden. Es werden somit viele Usecases abgedeckt, wo sich der Fahrer beziehungsweise der Nutzer in verschiedenen Abständen zum Head oder Eye tracking System befindet. Irradiance can be adjusted for changing distances. Thus, many use cases are covered where the driver or the user is at different distances to the head or eye tracking system.
Ohne die Variabilität würde das aufgenommene Kamerabild sehr stark überbelichtet und dadurch ungeeignet für ein Tracking, beispielsweise wenn sich der Fahrer nach vorne beugt oder während einer Einstiegsphase den Kopf sehr nah an der Innenraumkamera 104 hat. Eine Kameraregelung beispielsweise mittels des im Imager eingebaute auto exposure control (AEC) oder ein dediziertes Kamera SW Modul führt zu einer Helligkeitssteuerung auf das volle Bild beziehungsweise eines eingestellten Bildbereichs. Im Bildbereich kann nicht zwischen dem Gesicht und Objekten, wie der Sonne hinter dem Gesicht, einer Verdeckung, beispielsweise bei einer Hand vor dem Gesicht unterschieden werden. Dies führt dazu, dass das Gesicht im geregelten Bild mittels Without the variability, the captured camera image would be very overexposed and thus unsuitable for tracking, for example, when the driver bends forward or has his head very close to the interior camera 104 during a boarding phase. A camera control, for example by means of the built-in imager auto exposure control (AEC) or a dedicated camera SW module leads to a brightness control on the full picture or a set image area. In the picture area can not between the face and objects, like the sun behind the face, one Obscurity, for example, be distinguished in front of the face with one hand. This causes the face in the controlled image by means of
Bildverarbeitungsmethoden nicht mehr gefunden werden kann, da der Kontrast und Helligkeit nicht ausreichend gegeben ist. Image processing methods can no longer be found because the contrast and brightness is not sufficient.
Bei dem hier vorgestellten Ansatz wird ein für typische Situationen ausgelegter Arbeitspunkt mit einer bestimmten Integrationszeit beziehungsweise In the approach presented here, an operating point designed for typical situations with a specific integration time or time is used
Beleuchtungszeitdauer bestimmt. Im Arbeitspunkt liefern die Kamera 104 und die I R Beleuchtung 112 ein optimales Bild für das Head tracking. Das Bild hat je nach Imager eine Quantisierung von 10 oder 12 Bit und wird im ersten Schritt beispielsweise über eine 10/12 -> 8 Bit Abbildung mittels einer Funktion, wie einer Logarithmus Kennlinie oder durch einfache Bit-Selektion oder Schneiden von 8 Bit aus 10/12 Bit durchgeführt. Das Rohbild wird somit auf 8 Bit Auflösung reduziert und wird dem Head tracking Algorithmus zugeführt. Sobald ein Kopf 110 detektiert wird, werden Tracking Daten, wie eine 2D head bounding box, eine tracking Konfidenz, eine Gesichtsorientierung, detektierte Duration of illumination determined. At the operating point, the camera 104 and the I R illumination 112 provide an optimal image for the head tracking. Depending on the imager, the image has a quantization of 10 or 12 bits and in the first step becomes, for example, a 10/12 -> 8 bit mapping by means of a function such as a logarithmic characteristic or by simple bit selection or cutting of 8 bits from 10 / 12 bit performed. The raw image is thus reduced to 8-bit resolution and fed to the head tracking algorithm. Once a head 110 is detected, tracking data, such as a 2D head bounding box, a tracking confidence, a face orientation, is detected
Gesichtslandmarken sowie der aktuelle Zustand der Tracking-Zustandsmaschine dem Kamera-Regelungs-Software Modul zugeführt um eine angepasste Face landmarks and the current state of the tracking state machine supplied to the camera control software module to an adapted
Bildregelung anhand der Bildqualitätsparameter, wie Kontrast, Helligkeit, und Helligkeitsverteilung durchzuführen. Wird hingegen kein Gesicht detektiert, so wird auf den festgelegten Arbeitspunkt zurückgesprungen. Der Übergang kann eventuell durch zeitliche Konfigurierung mit einer definierten Zeitdauer gleitend anstelle einer harten Umstellung auf den zuvor erwähnten Arbeitspunkt erfolgen. Dabei wird bei den genannten use-cases, wie Sonne hinterm Kopf und Image control based on the image quality parameters, such as contrast, brightness, and brightness distribution perform. If, however, no face is detected, the system jumps back to the defined operating point. The transition may be made by temporally configuring with a defined period of time, instead of a hard transition to the aforementioned operating point. It is in the use cases mentioned, such as sun behind the head and
Verdeckungen eine ungünstige Regelung auf Objekte vermieden. Auch im Falle einer Annäherung des Kopfes mit zuvor detektiertem Gesicht an die Kamera 104 kann eine an die Situation angepasste Beleuchtung und Integration des Bildes ein für das Head tracking optimales Bild sicherstellen. Obscurations avoided unfavorable regulation on objects. Even in the case of an approach of the head with previously detected face to the camera 104, adapted to the situation lighting and integration of the image ensure an optimal for the head tracking image.
Fig. 2 zeigt eine Darstellung einer Wirkungskette einer Kamerasteuerung Innenraumkamera 104 gemäß einem Ausführungsbeispiel. Ausgehend von der Innenraumkamera 104 weist die Wirkungskette einen Bildpuffer 200, eine Vorverarbeitungseinrichtung 202, eine Kopfverfolgungseinrichtung 204, eine Augenverfolgungseinrichtung 206 und Funktionen 208 auf höherer Ebene auf. Die Innenraumkamera 104 stellt Rohbilddaten 210 mit 12 oder 10 Bit pro Pixel für den Bildpuffer 200 zu Verfügung. Die Rohbilddaten 210 werden in der FIG. 2 shows an illustration of an effect chain of a camera control of an interior camera 104 according to one exemplary embodiment. Starting from the interior camera 104, the chain of effects comprises a frame buffer 200, a preprocessing means 202, a head tracking means 204, an eye tracking means 206, and higher level functions 208. The indoor camera 104 provides raw image data 210 at 12 or 10 bits per pixel for the image buffer 200. The raw image data 210 is in the
Vorverarbeitungseinrichtung 202 durch Mapping beziehungsweise durch eine nichtlineare Funktion, beispielsweise log oder einfaches Fallenlassen von Bits, zum Beispiel des zwölften und ersten Bits oder der zwei niedrigsten ersten und zweiten Bits von 12 auf 8-Bit-Bilddaten 212 reduziert. Die 8-Bit-Bilddaten 212 werden in der Kopfverfolgungseinrichtung 204 dazu verwendet, um Preprocessor 202 by mapping or by a non-linear function, such as log or simply dropping bits, for example, the twelfth and first bits or the two lowest first and second bits of 12 to 8-bit image data 212 reduced. The 8-bit image data 212 is used in the tracker 204 to
Kopfverfolgungsdaten 214 zu erhalten. Die Kopfverfolgungsdaten 214 werden in der Regeleinrichtung 120 gemäß dem hier vorgestellten Ansatz verwendet, um eine Kamera- und I R-Belichtungssteuerung an Kopfverfolgungsdaten 214 anzupassen. Eine Bildqualität kann zur Kopfverfolgung verbessert werden. Die Kopfverfolgungsdaten 214 werden ausgewertet, um Parameter 122 zum Steuern der Kamera/1 R zu bestimmen. Dabei wird insbesondere eine 2D- Kopfbegrenzungsbox als interessierende Region (ROI = region of interest) zum Berechnen von Bildqualitätsparametern 118 verwendet. Ein Grad der To obtain header data 214. The head tracking data 214 is used in the controller 120 in accordance with the approach presented herein to adjust camera and IR exposure control to head tracking data 214. Image quality can be improved for head tracking. The head tracking data 214 is evaluated to determine parameter 122 for controlling the camera / 1 R. In particular, a 2D head boundary box is used as the region of interest (ROI) for calculating image quality parameters 118. A degree of
Qualität/Konfidenz der Kopfverfolgung kann dabei berücksichtigt werden. Quality / Confidence of the head tracking can be considered.
Beispielsweise können die Kopfverfolgungsdaten 214 beziehungsweise die 2D- Kopfbegrenzungsbox verwendet werden, wenn ein For example, the head tracking data 214 and the 2D header box, respectively, may be used if a
Akzeptanzpegel/Akzeptanzschwelle überschritten wird. Acceptance level / acceptance threshold is exceeded.
Eine Konfidenz kann verwendet werden, um eine interessierende Region zum Berechnen von Bildqualitätsparametern 118 einzustellen. Die Größe der interessierenden Region ist in minimaler und maximaler Größe beschränkt, um eine zu kleine oder zu große interessierende Region zu vermeiden. A confidence may be used to set a region of interest for calculating image quality parameters 118. The size of the region of interest is limited in minimum and maximum size to avoid too small or too large a region of interest.
Bei einer Drehung/Ausrichtung des Kopfes können die Kamera/1 R-Parameter 122 eingefroren werden, falls das Gesicht nicht frontal ist. Upon rotation / alignment of the head, the camera / 1R parameters 122 may be frozen if the face is not frontal.
Die Sichtbarkeit von Merkmalen von Kopf/Gesicht, also ob das vollständige Gesicht sichtbar ist oder zumindest beide Augen und Nase oder Mundwinkel sichtbar sind. Umgang mit möglichen Verdeckungen durch Nähe zu / Weite von der Kamera. Ein Kopfverfolgungsstatus kann init initialisiert, tracked/verfolgt oder refind/wieder finden sein, wenn sich die Kopfverfolgung in dem tracked-Modus befindet. In anderen Fällen, init oder refind, wird die Kamera/1 R-Steuerung nicht verändert. The visibility of features of the head / face, ie whether the entire face is visible or at least both eyes and nose or corner of the mouth are visible. Dealing with possible occlusions caused by proximity to / far from the camera. A head tracking status may be initialized, tracked / tracked, or retrieved / reinitiated when the head tracking is in the tracked mode. In other cases, init or refind, the camera / 1R control will not be changed.
Eine Bildgerätebelichtung und I R-Beleuchtungszeit von etwa 500 Mikrosekunden bei 5 A und 60 fps. Eine minimale Belichtungszeit von 40 Mikrosekunden und eine maximale Belichtungszeit von drei Millisekunden für Steuerbereich. A device exposure and I R illumination time of about 500 microseconds at 5 A and 60 fps. A minimum exposure time of 40 microseconds and a maximum exposure time of three milliseconds for control range.
Mögliche Vorgabeeinstellungen sind eine Bitverschiebung beziehungsweise Bitshift wesentlich größer sieben, eine vorgegebene Verstärkung von eins, eine vorgegebene analoge Verstärkung von eins. Steuerparameter zum Beispiel (PID- Regler). Zeitgebungsschwellen besonders für Übergang zwischen Gesicht erfasst und nicht erfasst. Possible default settings are a bit shift or bit shift substantially greater than seven, a predetermined gain of one, a predetermined analog gain of one. Control parameters, for example (PID controller). Timing thresholds especially for transition between face captured and not captured.
Als nichtlineare Abbildungsfunktion kann beispielsweise eine log-Funktion zum Abbilden des 12- oder 10-Bit-Bildes auf ein 8-Bit-Bild angewandt werden. As a non-linear mapping function, for example, a log function for mapping the 12-bit or 10-bit image to an 8-bit image may be applied.
Bei der hier vorgestellten Steuerstrategie zum Ansprechen unterschiedlicher Anwendungsfälle wird, ausgehend von einem gut definierten Arbeitspunkt 216, die Bildaufnahme und Belichtung eingestellt, in dem sich von dem Arbeitspunkt 216 zu einer guten erreichten Bildqualität bewegt wird, die zur Verfolgung von Kopf und Augen geeignet ist. In the control strategy presented here for addressing different applications, starting from a well-defined operating point 216, the image recording and exposure are adjusted by moving from the operating point 216 to a good image quality achieved, which is suitable for tracking the head and eyes.
Fig. 3 zeigt ein Flussdiagramm eines Verfahrens zum Betreiben einer FIG. 3 shows a flow chart of a method for operating a
Innenraumkamera gemäß einem Ausführungsbeispiel. Das Verfahren kann auf einer Vorrichtung zum Betreiben, wie sie beispielsweise in Fig. 1 dargestellt ist ausgeführt werden. Das Flussdiagramm weist einen Speicherblock 300, einen ersten Funktionsblock 302, einen ersten Entscheidungsblock 304, einen zweiten Funktionsblock 306, einen zweiten Entscheidungsblock 308 und einen dritten Funktionsblock 310 auf. Im dritten Funktionsblock 310 ist ein dritter Interior camera according to an embodiment. The method can be carried out on a device for operating, as shown for example in FIG. 1. The flowchart includes a memory block 300, a first functional block 302, a first decision block 304, a second functional block 306, a second decision block 308, and a third functional block 310. In the third functional block 310 is a third
Entscheidungsblock 312, ein vierter Funktionsblock 314, ein fünfter Decision block 312, a fourth function block 314, a fifth
Funktionsblock 316, ein vierter Entscheidungsblock 318, ein sechster Function block 316, a fourth decision block 318, a sixth
Funktionsblock 320 und ein siebter Funktionsblock 322 enthalten. Dabei erfolgt ein Start mit einer Vorgabeeinstellung beziehungsweise in einem Arbeitspunkt aus dem Speicherblock 300, wie in Fig. 2 dargestellt. Eine Einstellungssteuerung beginnt bei erfasstem Gesicht beziehungsweise mit einem Eingangssignal der Kopfverfolgung. Die Verfolgungsgüte/der Konfidenzpegel, die Aktualisierungsrate der Verfolgung, ein geschätzter Abstand anhand der Gesichtsbegrenzungsbox in einer 2 D-Bildebene kann verwendet werden, um die interessierende Region des Bildes einzustellen. Diese interessierende Region wird verwendet, um die Bild Qualitätsparameter zu berechnen und eine Überprüfung gegenüber Function block 320 and a seventh function block 322 included. In this case, a start takes place with a default setting or in an operating point from the memory block 300, as shown in Fig. 2. A setting control starts when the face is detected or with an input signal of the Head tracking. The tracking quality / confidence level, tracking refresh rate, estimated distance from the face bounding box in a 2 D image plane may be used to set the region of interest of the image. This region of interest is used to calculate the image quality parameters and to make a review
konfigurierten Bildqualitätsparameterschwellen durchzuführen. Diese configured image quality parameter thresholds. These
interessierende Region kann im einfachen Fall ein Gesichtsbereich innerhalb des Bilds sein, der durch die erfasste Gesichtsbegrenzungsbox angezeigt ist. In the simple case, the region of interest may be a face area within the image displayed by the detected face boundary box.
Um eine Steuerung bei verdeckter Szene zu vermeiden, wenn die Erfassung des Gesichts nicht mehr machbar ist, werden Gesichtsmerkmale, wie Sichtbarkeit, Symmetrie oder Verdeckungen aus der Kopfverfolgung ausgewertet. In order to avoid covert scene control when face capture is no longer feasible, facial features such as visibility, symmetry, or head tracking obscurities are evaluated.
Beispielsweise wenn das Lenkrad oder eine Hand im Bild ist, und die Adaption der Bildqualität, wie der Helligkeit, am Nicht-Gesicht erfolgen würde. For example, if the steering wheel or a hand is in the picture, and the adaptation of image quality, such as brightness, would be done on the non-face.
Dabei erfolgt die Steuerung nur bei (naher) frontaler Sicht auf das Gesicht. The control is only done with (near) frontal view of the face.
Helligkeitssymmetrie und/oder Gesichtsdrehung oder Ausrichtung werden überprüft. Steuerparameter an Kopfprofilen werden gehalten. Steuerung erfolgt nur dann, wenn Kopfverfolgung sich in Verfolgungsmodus befindet. In diesem Modus werden nur Gesichtsmerkmale oder Landmarken, wie Augenwinkel und Nasenlöcher durch Anwenden zum Beispiel eines Kaiman-Filters verfolgt. In dem Initialisierungsmodus wird die Suche über einen vollen Frame für Kopf/Gesichts- Kandidaten durchgeführt. In dem Wiederfindungsmodus versucht die Brightness symmetry and / or face rotation or alignment are checked. Control parameters on header profiles are kept. Control occurs only when Head Tracking is in tracking mode. In this mode, only facial features or landmarks such as canthus and nostrils are tracked by applying, for example, a Kalman filter. In the initialization mode, the search is performed over a full frame for head / face candidates. In the recovery mode, try the
Kopfverfolgung einen Kopf innerhalb einer größeren Bildregion, als in dem Verfolgungsmodus zu finden oder zu erfassen. Head tracking to find or capture a head within a larger image region than in the tracking mode.
Falls kein Gesicht erfasst wird oder die Bedingungen nicht erfüllt sind, wird der vorgegebene Arbeitspunkt zur Kamera/1 R-Steuerung verwendet. If no face is detected or the conditions are not fulfilled, the default operating point for camera / 1 R control is used.
Die Steuerung wird in zwei Stufen durchgeführt. Für die Belichtung wird eine neue Belichtungszeit unter Verwendung der Belichtungszeit +/- der The control is carried out in two stages. For the exposure, a new exposure time is used using the exposure time +/-
Belichtungszeit_Schrittgröße bestimmt. Die Schrittgröße wird verwendet, um eine weiche dynamische Helligkeitsveränderung zu bekommen, um eine Veränderung eines Helligkeitspegels zwischen Frames zu vermeiden. Die Shutter speed_Step size determined. The step size is used to get a smooth dynamic brightness change to avoid changing a brightness level between frames. The
Steuergeschwindigkeit ist an eine Kopfbewegung zu der Kamera hin angepasst. Eine Bitverschiebung mit einer Verschiebung um sechs, sieben oder acht Bits kann als eine optionale Stufe verwendet werden. Falls die Schwelle zu einem gutem Bildparameter mit einem angepassten Bild nicht eingehalten wird, kann eine weitere Bitverschiebungsoperation um ein bis zwei Bits nach links oder rechts durchgeführt werden. Der hauptsächliche Steuerparameter ist die Control speed is adjusted to head movement toward the camera. A six, seven or eight bit shift bit shift can be used as an optional stage. If the threshold to a good image parameter with a matched image is not met, another bit shift operation may be performed one to two bits left or right. The main control parameter is the
Belichtungszeit. Die Stufe und Reichweite, Spanne beziehungsweise der Bereich können iterativ getestet werden. Exposure time. The level and range, span or range can be tested iteratively.
Minimale und maximale Spanne von Parametern. Eine minimale und maximale Belichtungszeit ist begrenzt, beispielsweise zwischen 40 Mikrosekunden und drei Millisekunden. Die Werte basieren Heuristik, um eine Einstellung nahe an dem vorgegebenen Arbeitspunkt zu ermöglichen. Die Bitverschiebung erfolgt mit maximal 2 Bit nach links und rechts. Minimum and maximum range of parameters. A minimum and maximum exposure time is limited, for example between 40 microseconds and three milliseconds. The values are based on heuristics to allow adjustment close to the given operating point. The bit shift takes place with a maximum of 2 bits left and right.
Die Berechnung von img_qpar beziehungsweise den Bildqualitätsparametern, wie Helligkeit und Kontrast und der Vergleich von Ist-Bildparametern mit Soll- Bildqualitätsparametern qpar_thr, idealerweise gleich einem Durchschnittswert, wie Bildhelligkeit etwa 128 LSB bei 8-Bit-Bild. The calculation of img_qpar or image quality parameters such as brightness and contrast and the comparison of actual image parameters with target image quality parameters qpar_thr, ideally equal to an average value, such as image brightness about 128 LSB with 8-bit image.
Eine Belichtungszeit für den nächsten Frame kann beispielsweise über 12C eingestellt werden, um basierend auf einer Analyse des aktuellen Frames ein Ergebnis näher an einem guten Bildparameter zu erhalten. Falls es zum Beispiel zu dunkel ist, kann die Belichtungszeit erhöht werden, falls es zu hell ist, kann die Belichtungszeit verringert werden. Der Bereich beziehungsweise die Reichweite und Schritt beziehungsweise die Stufen können heuristisch ausgewertet werden. For example, an exposure time for the next frame may be set above 12C to obtain a result closer to a good image parameter based on an analysis of the current frame. For example, if it is too dark, the exposure time may be increased; if it is too bright, the exposure time may be reduced. The range or range and step or stages can be evaluated heuristically.
Eine standardmäßige Steuerung, beispielsweise über einen PID-Regler, kann angewendet werden. Die Führungsgröße w ist der Bild Qualitätsparameter, die Rückführung x ist der Steuerparameter, die Regelabweichung e ist die Differenz für den Regler. Standard control, for example via a PID controller, can be used. The reference variable w is the image quality parameter, the feedback x is the control parameter, the control deviation e is the difference for the controller.
Die Kopfverfolgungsqualität und der geschätzte Abstand entsprechend der erfassten Gesichtsbegrenzungsbox in der 2 D-Bildebene können zum Einstellen einer Steuer- interessierende Region verwendet werden. Die Interessierende Region (ROI) ist relevant zum Berechnen des Bildqualitätsparameters und zum Prüfen gegen die konfigurierte Schwelle. The head tracking quality and the estimated distance corresponding to the detected face bounding box in the 2-D image plane may be used to set a region of interest to the control. The interested parties Region (ROI) is relevant for calculating the image quality parameter and checking against the configured threshold.
Mit anderen Worten wird mit einer vorgegebenen Belichtungszeit exp_time und einer Bitverschiebung bitshift ein Frame n aufgenommen. Dazu werden weiterhin vorgegebene Kameraaufnahmeparameter cam_capture_par verwendet. Es erfolgt eine Abfrage, ob in Frame n-1 der Kopf erfasst ist. In other words, a frame n is recorded with a given exposure time exp_time and a bit shift bitshift. For this purpose, further predetermined camera recording parameters cam_capture_par are used. A query is made as to whether the head is detected in frame n-1.
Wenn der Kopf erfasst ist, werden Qualitätsparameter qpar für Frame n berechnet, qpar sind Bildqualitätsparameter, wie Bildhelligkeit oder Kontrast im vollständigen Bild oder der Gesichtsbegrenzungsbox. Darauf erfolgt eine weitere Abfrage, ob qpar größer oder kleiner als ein Schwellenwert qpar_thr ist. Dabei ist qpar größer qpar_thr, wenn qpark größer als qpar_thrk und qpark+i größer als qpar_thrk+i und innerhalb operationeller kopfbezogener Parameter und When the head is detected, quality parameters qpar for frame n are calculated, qpar are image quality parameters such as image brightness or contrast in the full image or the face bounding box. This is followed by another query as to whether qpar is greater or less than a threshold qpar_thr. Where qpar is greater than qpar_thr if qpark is greater than qpar_thrk and qpark + i is greater than qpar_thrk + i and within operational header related parameters and
Schwellenwerte ist. Thresholds is.
Wenn die Abfrage positiv ist, wird die Belichtungszeit exp_time eingestellt und die Bitverschiebung für Frame n+1 unter Verwendung eines Reglers eingestellt. In einer ersten Stufe wird die Belichtung eingestellt. Wenn g_mean kleiner als g_mean_thr ist, wird die exp_time(n+l) auf clip(exp_time(n)+exp_time_step) gesetzt. Wenn g_mean größer als g_mean_thr ist, wird die exp_time(n+l) auf clip(exp_time(n)-exp_time_step) gesetzt. Dabei beträgt der exp_time_range 0,5 bis 3 ms. Der exp_time_step beträgt 0,5 ms. In einer zweiten Stufe wird die Bitverschiebung eingestellt. Wenn qpar(n) - qpar(n-l) größer als qpar_delta_thr ist und last_adj_act größer als If the query is positive, the exposure time exp_time is set and the bit shift for frame n + 1 is adjusted using a controller. In a first step, the exposure is adjusted. If g_mean is less than g_mean_thr, the exp_time (n + l) is set to clip (exp_time (n) + exp_time_step). If g_mean is greater than g_mean_thr, the exp_time (n + l) is set to clip (exp_time (n) -exp_time_step). The exp_time_range is 0.5 to 3 ms. The exp_time_step is 0.5 ms. In a second stage, the bit shift is set. If qpar (n) - qpar (n-l) is greater than qpar_delta_thr and last_adj_act is greater than
last_adi_act_thr ist, dann wird bitshift(n+l )als bitshift(n) << bitshift_step eingestellt. Wenn qpar(n) - qpar(n-l) kleiner als qpar_delta_thr ist und last_adj_act kleiner als last_adi_act_thr ist, dann wird bitshift(n+l )als bitshift(n) >> bitshift step eingestellt. Dabei beträgt der bitshift_range 6 bis 8 und derlast_adi_act_thr, then bitshift (n + l) is set as bitshift (n) << bitshift_step. If qpar (n) -qpar (n-l) is less than qpar_delta_thr and last_adj_act is less than last_adi_act_thr, bitshift (n + l) is set as bitshift (n) >> bitshift step. The bitshift_range is 6 to 8 and the
Bitshift step beträgt 1. Bitshift step is 1.
In einem Ausführungsbeispiel wird die Belichtung in der ersten Stufe Histogramm basiert eingestellt. Wenn Hist_pix_cnt größer als pix_cnt thr und der mean grey value ist, also Hist_pix_dark_cnt größer als pix_dark_cnt_thr und g_mean kleiner als g_mean_thr ist, wird die exp_time(n+l) auf clip(exp_time(n)+exp_time_step) gesetzt. Wenn Hist_pix_cnt kleiner als pix_cnt thr und der mean grey value ist, also Hist_pix_bright_cnt größer als pix bright cnt thr und g_mean größer als g_mean_thr ist, wird die exp_time(n+l) auf clip(exp_time(n)-exp_time_step) gesetzt. In one embodiment, the exposure is set based on the first level histogram. If Hist_pix_cnt is greater than pix_cnt thr and the mean gray value, that is, Hist_pix_dark_cnt is greater than pix_dark_cnt_thr and g_mean is less when g_mean_thr is set, the exp_time (n + l) is set to clip (exp_time (n) + exp_time_step). If Hist_pix_cnt is smaller than pix_cnt thr and the mean gray value, ie Hist_pix_bright_cnt is greater than pix bright cnt thr and g_mean is greater than g_mean_thr, the exp_time (n + l) is set to clip (exp_time (n) -exp_time_step).
Fig. 4 zeigt ein Zustandsdiagramm eines Reglers 400 für ein Verfahren zum Betreiben einer Innenraumkamera gemäß einem Ausführungsbeispiel. Der Regler ist als endlicher Automat beziehungsweise Zustandsmaschine 4 shows a state diagram of a controller 400 for a method for operating an interior camera according to an exemplary embodiment. The controller is a finite automaton or state machine
beziehungsweise Finite-State-Machine (FSM) ausgeführt. Der Regler entspricht dabei im Wesentlichen dem Regler in Fig. 3. Der Regler 400 weist einen ersten Funktionsblock 402, einen zweiten Funktionsblock 404 und einen dritten or Finite State Machine (FSM). The controller essentially corresponds to the controller in FIG. 3. The controller 400 has a first function block 402, a second function block 404 and a third
Funktionsblock 406 auf. Dabei wird als Vorgabewert eine globale ROI in einem globalen Zustand so lange verendet, wie kein Kopf erkannt wird. Wenn der Kopf erkannt wird, wechselt der Regler 400 in einen Kopfverfolgungszustand innerhalb einer Kopfverfolgung ROI. Wenn der Kopf nicht mehr erkannt wird, wechselt der Regler 400 für eine Übergangszeit in einen Übergangszustand mit einer Function block 406 on. In the process, a global ROI in a global state is used as a default value as long as no head is detected. When the head is detected, the controller 400 changes to a head tracking state within a head tracking ROI. When the head is no longer detected, the controller 400 transitions to a transient state with a transitional time
Übergangs ROI. Wird der Kopf innerhalb der Übergangszeit wieder erkannt, wechselt der Regler 400 wieder in den Kopfverfolgungszustand in der Transition ROI. If the head is recognized again during the transitional period, the controller 400 returns to the head tracking state in FIG
Kopfverfolgung ROI. Wird der Kopf innerhalb der Übergangszeit nicht wieder erkannt, wechselt der Regler 400 wieder in den globalen Zustand mit der globalen ROI. Head tracking ROI. If the head is not recognized within the transition time, the controller 400 returns to the global state with the global ROI.
Fig. 5 zeigt Darstellungen einer Detektion eines Objekts 500 in einem Bild einer Innenraumkamera gemäß einem Ausführungsbeispiel. Dabei wird, wie in Fig. 4 dargestellt mit einer voreingestellten Einstellung der interessierenden Region 502 (ROI) begonnen. Im Vorgabezustand wird die Innenraumkamera mit einer Fix exposure time beziehungsweise Fix Belichtungszeit oder mit adaptiver 5 shows illustrations of a detection of an object 500 in an image of an interior camera according to an exemplary embodiment. At this time, as shown in Fig. 4, a preset setting of the region of interest 502 (ROI) is started. In the default state, the indoor camera with a fixed exposure time or fixed exposure time or with adaptive
Belichtungszeit beziehungsweise mit adaptiver exposure time betrieben. Die ROI 502, wo die Wahrscheinlichkeit für den Kopf 500 am höchsten ist, wird verwendet. Die interessierende Region 502 kann als Kopfbereich 502 bezeichnet werden. Exposure time or operated with adaptive exposure time. The ROI 502, where the probability for the head 500 is highest, is used. The region of interest 502 may be referred to as header 502.
Die ROI-Größe bei der Kopfverfolgung ist abhängig von der zweidimensionalen Größe des erfassten Kopfes 500, der Güte der Kopfverfolgung und der Rahmenrate der Kopfverfolgung. Die Mitte der interessierenden Region 502 ist die Mitte des erfassten zweidimensionalen Kopfes 500, mit Begrenzung, um die interessierende Region 502 innerhalb des Bildes zu halten. The ROI size in the head tracking depends on the two-dimensional size of the detected head 500, the quality of the head tracking and the Frame rate of the head tracking. The center of the region of interest 502 is the center of the captured two-dimensional head 500, with limitation, to hold the region of interest 502 within the image.
Der Sollwert wird linear über der Zeit umgewandelt. Falls die Belichtungszeit fest ist, wird ein Tiefpassfilter mit längerer Anstiegszeit verwendet. Falls die The setpoint is converted linearly over time. If the exposure time is fixed, a low pass filter with a longer rise time is used. if the
Belichtungszeit adaptiv ist, werden Ecken der interessierenden Region 502 aus der Kopfverfolgung linearer in globale ROI-Ecken umgewandelt. Exposure time is adaptive, corners of the region of interest 502 are converted from the head track to linear ROI corners.
Fig. 6 zeigt ein Ablaufdiagramm eines Algorithmus zum Betreiben einer FIG. 6 shows a flowchart of an algorithm for operating a
Innenraumkamera 104 gemäß einem Ausführungsbeispiel. Der Regler implementiert einen modellbasierten Algorithmus. Der optimale Betätigungswert beziehungsweise die Belichtungszeit ü wird unter Verwendung eines inversen Modells 600 berechnet. Dabei ist ein Eingangssignal u die Belichtungszeit. Ein Ausgangssignal y ist ein Mittelwert von Bildpixelwerten. Beide Werte werden im inversen Modell verarbeitet und ergeben ein geschätztes optimales Interior camera 104 according to an embodiment. The controller implements a model-based algorithm. The optimum actuation value or the exposure time u is calculated using an inverse model 600. An input signal u is the exposure time. An output signal y is an average of image pixel values. Both values are processed in the inverse model, giving an estimated optimal
Eingangssignal ü, das über einen LPF Tiefpassfilter 602 mit einer Anstiegszeit von 0,14 Sekunden gefiltert wird, um wieder als Eingangssignal u verwendet zu werden. Input signal u, which is filtered via an LPF low-pass filter 602 with a rise time of 0.14 seconds to be used again as input signal u.
Fig. 7 zeigt ein Blockschaltbild einer Regelstrecke zum Betreiben einer Fig. 7 shows a block diagram of a controlled system for operating a
Innenraumkamera gemäß einem Ausführungsbeispiel. Die Regelstrecke setzt den in Fig. 6 dargestellten Algorithmus um. Unter Verwendung eines mittleren Sollwerts und eines Bildmittelwerts (y) wird in einer Berechnungseinrichtung 700 die Belichtungszeit als geschätztes optimales Eingangssignal (ü) des Systems berechnet. Der mittlere Sollwert ist dabei ein vordefinierter Bildmittelwert, der zu guter Bildqualität führt. Der Bildmittelwert ist der berechnete Mittelwert der Bildpixelwerte eines abwärts abgetasteten beziehungsweise downsampled Bildes. Das Eingangssignal (ü) wird in dem Tiefpassfilter 602 mit der Anstiegszeit von 0,14 Sekunden gefiltert. In einer Abbildungseinrichtung 702 wird das Interior camera according to an embodiment. The controlled system implements the algorithm shown in FIG. 6. Using a mean target value and an image average (y), the exposure time is computed in a calculator 700 as the estimated optimal input signal (u) of the system. The mean target value is a predefined mean value which leads to good image quality. The image average is the calculated average of the image pixel values of a downsampled or downsampled image. The input signal (u) is filtered in the low-pass filter 602 with the rise time of 0.14 seconds. In an imaging device 702, the
Eingangssignal des Systems auf Kamerasteuervariablen abgebildet. Die Input signal of the system is mapped to camera control variables. The
Kamerabetätigungsvariablen sind dabei die Belichtungszeit, die Verstärkung und die Bitverschiebung. Fig. 8 zeigt eine Darstellung eines Anwendungsfalls für eine Innenraumkamera 104 gemäß einem Ausführungsbeispiel. Der Anwendungsfall entspricht dabei im Wesentlichen dem Anwendungsfall in Fig. 1. Hier ist im Gegensatz dazu der Kopf 110 nahe an der Kamera 104 beziehungsweise IR 112 an einer Nahgrenze des Kopfbereichs 106 beziehungsweise einem Beginn der head motion box HMB 106 angeordnet. Camera action variables are exposure time, gain and bit shift. 8 shows an illustration of an application case for an interior camera 104 according to an exemplary embodiment. In this case, in contrast, the head 110 is arranged close to the camera 104 or IR 112 at a near border of the head area 106 or a beginning of the head motion box HMB 106.
Fig. 9 zeigt eine Darstellung eines Anwendungsfalls für eine Innenraumkamera 104 gemäß einem Ausführungsbeispiel. Der Anwendungsfall entspricht dabei im Wesentlichen dem Anwendungsfall in Fig. 1. Hier ist im Gegensatz dazu der Kopf9 shows an illustration of an application case for an interior camera 104 according to an embodiment. The application case corresponds essentially to the application in Fig. 1. Here, in contrast, the head
110 weit von der Kamera 104 beziehungsweise I R 112 an einer Ferngrenze des Kopfbereichs 106 beziehungsweise einem Ende der head motion box HMB 106 angeordnet. Fig. 10 zeigt eine Darstellung eines Anwendungsfalls für eine Innenraumkamera110 far from the camera 104 or I R 112 at a remote boundary of the head portion 106 and one end of the head motion box HMB 106 is arranged. 10 shows an illustration of an application case for an indoor camera
104 gemäß einem Ausführungsbeispiel. Der Anwendungsfall entspricht dabei im Wesentlichen dem Anwendungsfall in Fig. 1. Hier ist ein Objekt 1000 zwischen der Kamera und dem Kopf 110 angeordnet. Das Objekt 1000 verdeckt dabei den Kopf 110 teilweise. Das Verdeckungsobjekt 1000, beispielsweise eine Hand oder das Lenkrad schattet Teile des Gesichts ab. 104 according to an embodiment. The application case essentially corresponds to the application in FIG. 1. In this case, an object 1000 is arranged between the camera and the head 110. The object 1000 partially covers the head 110. The obscuring object 1000, for example, a hand or the steering wheel shadows parts of the face.
Fig. 11 zeigt eine Darstellung eines Anwendungsfalls für eine Innenraumkamera 104 gemäß einem Ausführungsbeispiel. Der Anwendungsfall entspricht dabei im Wesentlichen dem Anwendungsfall in Fig. 1. Hier wird der Kopf 110 durch Fremdlichtquellen 1100 angeleuchtet. Umgebungslicht, zum Beispiel von der11 shows an illustration of an application case for an interior camera 104 according to an embodiment. The application corresponds essentially to the application in Fig. 1. Here, the head 110 is illuminated by extraneous light sources 1100. Ambient light, for example from the
Infrastruktur oder von Frontscheinwerfern entgegenkommender Fahrzeuge und/oder Sonnenlicht aus unterschiedlichen Winkeln, wie frontal, seitlich und von hinten bewirkt dabei einen großen Dynamikbereich. Das Umgebungslicht, unterschiedliche Kopfpositionen zu der Position der Kamera 104 Infrastructure or from front headlights oncoming vehicles and / or sunlight from different angles, such as frontal, side and rear causes a large dynamic range. The ambient light, different head positions to the position of the camera 104
beziehungsweise des IR 112 aufgrund des Kopfbewegungsbereichs 106 (head motion box, HMB) und störenden Objekten erfordert eine Kamerasteuerung mit guter Bildqualität zur Computervision. or the IR 112 due to the head motion field 106 (HMB) and interfering objects requires a camera control with good image quality for computer vision.
Fig. 12 zeigt ein Ablaufdiagramm eines Verfahrens zum Betreiben einer FIG. 12 shows a flowchart of a method for operating a
Innenraumkamera gemäß einem Ausführungsbeispiel. Das Verfahren weist einen Schritt 1200 des Regeins auf. Dabei wird zumindest ein Kameraparameter der Innenraumkamera unter Verwendung zumindest eines Qualitätsparameters eines vorausgehend erfassten Bilds der Innenraumkamera geregelt, wenn ein Kopf einer Zielperson in dem Bild detektiert wird. Der Kameraparameter wird auf einen vordefinierten Wert gesetzt, wenn kein Kopf detektiert wird. Interior camera according to an embodiment. The method points a step 1200 of the regulation. Here, at least one camera parameter of the indoor camera is controlled by using at least one quality parameter of a previously acquired image of the indoor camera when a head of a target person is detected in the image. The camera parameter is set to a predefined value if no head is detected.
Umfasst ein Ausführungsbeispiel eine„und/oder"-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist. If an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

Claims

Ansprüche claims
1. Verfahren zum Betreiben einer Innenraumkamera (104) für ein Fahrzeug (100), wobei in einem Schritt (1200) des Regeins zumindest ein A method for operating an interior camera (104) for a vehicle (100), wherein in a step (1200) of the rule at least one
Kameraparameter (122) der Innenraumkamera (104) unter Verwendung zumindest eines Qualitätsparameters (118) eines vorausgehend erfassten Bilds der Innenraumkamera (104) geregelt wird, wenn ein Kopf (110) einer Zielperson (108) in dem Bild detektiert wird, wobei der Kameraparameter (122) auf einen vordefinierten Wert gesetzt wird, wenn kein Kopf (110) detektiert wird.  Camera parameter (122) of the indoor camera (104) is controlled using at least one quality parameter (118) of a previously acquired image of the indoor camera (104) when a head (110) of a target person (108) is detected in the image, wherein the camera parameter ( 122) is set to a predefined value if no head (110) is detected.
2. Verfahren gemäß Anspruch 1, bei dem im Schritt (1200) des Regeins als Qualitätsparameter (118) ein Kontrast, eine Helligkeit und/oder eine Helligkeitsverteilung des Bilds verwendet wird, um als Kameraparameter (122) eine Belichtungszeit und/oder Empfindlichkeit der 2. The method according to claim 1, wherein in step (1200) of the rule as a quality parameter (118), a contrast, a brightness and / or a brightness distribution of the image is used as the camera parameters (122) an exposure time and / or sensitivity of the
Innenraumkamera (104) zu regeln.  Indoor camera (104) to regulate.
3. Verfahren gemäß einem der vorhergehenden Ansprüche, bei dem im Schritt (1200) des Regeins als Qualitätsparameter (118) ein Kontrast, eine Helligkeit und/oder eine Helligkeitsverteilung des Bilds verwendet wird, um als Kameraparameter (122) eine Lichtintensität einer 3. Method according to one of the preceding claims, in which a contrast, a brightness and / or a brightness distribution of the image is used as quality parameter (118) in step (1200) of the sequence to produce a light intensity of a camera parameter (122)
Beleuchtungseinrichtung (112) der Innenraumkamera (104) zu regeln.  Lighting device (112) of the interior camera (104) to regulate.
4. Verfahren gemäß einem der vorhergehenden Ansprüche, mit einem 4. The method according to any one of the preceding claims, with a
Schritt des Detektierens des Kopfs (110) in einem erfassten Bild der Innenraumkamera (104), wobei insbesondere der Qualitätsparameter (118) auf einen Kopfbereich (502) des Bilds bezogen wird.  A step of detecting the head (110) in a captured image of the indoor camera (104), wherein in particular the quality parameter (118) is related to a header (502) of the image.
5. Verfahren gemäß einem der vorhergehenden Ansprüche, mit einem 5. The method according to any one of the preceding claims, with a
Schritt des Einstellens, in dem eine Farbtiefe eines Rohbildsignals (210) der Innenraumkamera (104) eingestellt wird, um ein Arbeitsbildsignal (212) zu erhalten, wobei der Kopf (110) in einem Bild des A step of adjusting in which a color depth of a raw image signal (210) of the indoor camera (104) is adjusted to a working image signal (212), the head (110) being in an image of the
Arbeitsbildsignals (212) detektiert wird.  Working image signal (212) is detected.
6. Verfahren gemäß Anspruch 5, bei dem im Schritt des Einstellens ein Farbtiefenspektrum aus dem Rohbildsignal (210) extrahiert wird, um das Arbeitsbildsignal (212) zu erhalten. A method according to claim 5, wherein in the setting step, a color depth spectrum is extracted from the raw image signal (210) to obtain the working image signal (212).
7. Verfahren gemäß einem der Ansprüche 5 bis 6, bei dem im Schritt des Einstellens Rohfarbstufen des Rohbildsignals (210) unter Verwendung einer Verarbeitungsvorschrift zu Arbeitsfarbstufen des Arbeitsbildsignals (212) zugeordnet werden, um das Arbeitsbildsignal (212) zu erhalten. A method according to any one of claims 5 to 6, wherein, in the setting step, raw color steps of the raw image signal (210) are assigned using a processing rule to working color levels of the working image signal (212) to obtain the working image signal (212).
8. Vorrichtung (102), die eingerichtet ist, um Schritte (1200) des Verfahrens gemäß einem der vorangegangenen Ansprüche in zumindest einer entsprechenden Einheit (120) auszuführen. An apparatus (102) arranged to execute steps (1200) of the method according to one of the preceding claims in at least one corresponding unit (120).
9. Computerprogramm, das dazu eingerichtet ist, das Verfahren gemäß einem der vorangegangenen Ansprüche auszuführen. A computer program adapted to carry out the method according to any one of the preceding claims.
10. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 9 gespeichert ist. 10. A machine-readable storage medium on which the computer program according to claim 9 is stored.
EP17757472.0A 2016-08-23 2017-08-03 Method and device for operating an interior camera Withdrawn EP3504871A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016215766.3A DE102016215766A1 (en) 2016-08-23 2016-08-23 Method and device for operating an interior camera
PCT/EP2017/069684 WO2018036784A1 (en) 2016-08-23 2017-08-03 Method and device for operating an interior camera

Publications (1)

Publication Number Publication Date
EP3504871A1 true EP3504871A1 (en) 2019-07-03

Family

ID=59699653

Family Applications (1)

Application Number Title Priority Date Filing Date
EP17757472.0A Withdrawn EP3504871A1 (en) 2016-08-23 2017-08-03 Method and device for operating an interior camera

Country Status (4)

Country Link
EP (1) EP3504871A1 (en)
CN (1) CN109565549B (en)
DE (1) DE102016215766A1 (en)
WO (1) WO2018036784A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7210965B2 (en) 2018-09-26 2023-01-24 株式会社アイシン indoor monitoring device
JP6894880B2 (en) * 2018-11-07 2021-06-30 矢崎総業株式会社 Monitoring system
DE102019202302B3 (en) 2019-02-20 2020-01-02 Zf Friedrichshafen Ag Method, control device and computer program product for determining a head orientation and / or position of a vehicle occupant
DE102019114754A1 (en) * 2019-06-03 2020-12-03 Bayerische Motoren Werke Aktiengesellschaft Method for operating an interior camera while a vehicle is in motion, computer-readable medium, system and vehicle
FR3101568B1 (en) * 2019-10-03 2022-08-05 Aleph Sas METHOD FOR MANUFACTURING A FILM COMPRISING CAVITIES WITH DETERMINATION OF DRAWING PROFILES, DENSITY, THICKNESS AND/OR POROSITY OF THE FILM

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
JP2008094221A (en) * 2006-10-11 2008-04-24 Denso Corp Eye state detector, and eye state detector mounting method
US8520979B2 (en) * 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
US8233789B2 (en) * 2010-04-07 2012-07-31 Apple Inc. Dynamic exposure metering based on face detection
CN101866215B (en) * 2010-04-20 2013-10-16 复旦大学 Human-computer interaction device and method adopting eye tracking in video monitoring
DE102011006564A1 (en) * 2011-03-31 2012-10-04 Robert Bosch Gmbh Method for evaluating an image captured by a camera of a vehicle and image processing device
CN203327138U (en) * 2013-07-26 2013-12-04 朱耀辉 Ball-type camera
FR3013875B1 (en) * 2013-11-25 2017-03-31 Renault Sas SYSTEM AND METHOD FOR FORMING NIGHT IMAGES FOR A MOTOR VEHICLE.
CN104036238B (en) * 2014-05-28 2017-07-07 南京大学 The method of the human eye positioning based on active light
CN105302135B (en) * 2015-09-18 2017-10-20 天津鑫隆机场设备有限公司 The navigation of navigational lighting aid light-intensity test car and alignment system based on binocular vision

Also Published As

Publication number Publication date
CN109565549A (en) 2019-04-02
DE102016215766A1 (en) 2018-03-01
WO2018036784A1 (en) 2018-03-01
CN109565549B (en) 2021-03-23

Similar Documents

Publication Publication Date Title
EP3504871A1 (en) Method and device for operating an interior camera
EP3157426B1 (en) Device, method, and computer program for detecting micro- sleep
DE112008002645B4 (en) Face picture taking device, face picture taking procedure and program for this
DE69627138T2 (en) METHOD FOR ESTIMATING THE SITUATION OF A PICTURE TARGET REGION FROM SEVERAL REGIONS OF TRACKED LANDMARKS
DE60209989T2 (en) Robust visual models for visual motion analysis and tracking
DE102007034657B4 (en) Image processing device
DE102010001520A1 (en) Iris detection system and method supported by an aircraft sensor
EP1504960B1 (en) Device and method to improve vision in a vehicle
DE102018201054A1 (en) System and method for image representation by a driver assistance module of a vehicle
DE112011105439B4 (en) Red-eye detection device
DE112018005191T5 (en) System and method for improving the signal-to-noise ratio when tracking objects under poor lighting conditions
EP1703462B1 (en) System or method for enhancing an image
DE102014100352A1 (en) Method for detecting condition of viewing direction of rider of vehicle, involves estimating driver&#39;s line of sight on basis of detected location for each of eye characteristic of eyeball of rider and estimated position of head
DE102014002134A1 (en) Device for detecting a lighting environment of a vehicle and control method thereof
DE102013114996A1 (en) Method for applying super-resolution to images detected by camera device of vehicle e.g. motor car, involves applying spatial super-resolution to area-of-interest within frame to increase the image sharpness within area-of-interest
DE112018006886T5 (en) Occupant condition detection apparatus, occupant condition detection system, and occupant condition detection method
EP4078941A2 (en) Converting input image data from a plurality of vehicle cameras of a surround-view system into optimised output image data
CN111833367A (en) Image processing method and device, vehicle and storage medium
DE102014100364A1 (en) Method for determining eye-off-the-road condition for determining whether view of driver deviates from road, involves determining whether eye-offside-the-road condition exists by using road classifier based on location of driver face
DE102012214637A1 (en) Method for adjusting light emitting characteristic of headlamp to illuminate environment of vehicle, involves determining luminance characteristic of headlamp based on light distribution and default value for light distribution
DE102014209863A1 (en) Method and device for operating a stereo camera for a vehicle and stereo camera for a vehicle
WO2004068850A1 (en) Method for adjusting an image sensor
DE102018201909A1 (en) Method and device for object recognition
DE112021007535T5 (en) Setting the shutter value of a surveillance camera via AI-based object detection
DE102004047476B4 (en) Device and method for adjusting a camera

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20190325

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20200224

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ROBERT BOSCH GMBH

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20200908