EP3332284A1 - Verfahren und vorrichtung zur datenerfassung und auswertung von umgebungsdaten - Google Patents

Verfahren und vorrichtung zur datenerfassung und auswertung von umgebungsdaten

Info

Publication number
EP3332284A1
EP3332284A1 EP16751273.0A EP16751273A EP3332284A1 EP 3332284 A1 EP3332284 A1 EP 3332284A1 EP 16751273 A EP16751273 A EP 16751273A EP 3332284 A1 EP3332284 A1 EP 3332284A1
Authority
EP
European Patent Office
Prior art keywords
data
image
selection
evaluation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP16751273.0A
Other languages
English (en)
French (fr)
Inventor
Eberhard Schmidt
Tom Sengelaub
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH filed Critical SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Publication of EP3332284A1 publication Critical patent/EP3332284A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Definitions

  • the invention is based on a method for data acquisition of environmental data of an environment of a user by means of a scene image recording device and for evaluation of the acquired environmental data by means of an evaluation device. Furthermore, the invention is based on a corresponding device with a scene image recording device for data acquisition of environmental data of an environment of a user and with an evaluation device for evaluating the acquired environmental data.
  • augmented reality systems such as, for example, augmented reality glasses
  • computer-generated objects can be superimposed on the reality perceived by the user through such glasses, which in particular can be related to objects of the real environment.
  • additional information about objects in the environment can be displayed through the glasses. To make this possible, the pictures taken by the scene camera are evaluated and searched for existing or specific objects. If such objects are found in the image recordings, the corresponding information, through which Glasses are faded in.
  • the eyetracking data can be compared with the recorded scene image data in order, for example, to determine where in the surroundings the user is currently looking, in particular also to which object in the surroundings.
  • registration methods can also be used here, which make it possible to image an image to a reference image, which was taken for example from another perspective. Such registration methods can be used to easily accumulate, for example, gaze direction data over time as well as over multiple users by transferring them to a common reference image.
  • certain objects, significant areas, or significant points can be defined in the reference image, such as, for example, patterns, edges or intersections of edges which are sought and identified in the evaluation of the scene image therein.
  • a transformation can be derived that maps the scene image onto the reference image. This transformation can, for example, be used in the same way in order to map the point of view of the user in the scene image onto the reference image.
  • the object of the present invention is therefore to provide a method and a device for data acquisition and evaluation of environmental data, which allow a reduction of data volumes and at the same time keep the loss of relevant data as low as possible.
  • the inventive method for data acquisition of environmental data environment of a user by means of a scene image recording device, such as a scene camera, and for evaluation of the detected environment data by means of an evaluation is characterized in that a spatial and / or temporal selection is made, the detection of the environmental data by means of the scene image recording device and / or a transmission of the environmental data from the scene image recording device to the evaluation device and / or an evaluation of the environmental data by the evaluation device.
  • This selection is made as a function of at least one detected and temporally variable first parameter, and in particular controlled or regulated.
  • a selection it is advantageously possible to categorize data, for example, in terms of their relevance, specified by the first parameter recorded.
  • Several temporal and / or spatial selections can also be made here, for example a first selection for environment data with the highest relevance, a second selection for environment data with medium relevance, a third selection for environment data with little relevance, etc.
  • Various reduction measures can then advantageously be limited to non-relevant or less relevant data, so that the total amount of data can be reduced without having to give up relevant information.
  • such a selection can advantageously be made on the entire data path from acquisition to evaluation, so that numerous possibilities for data reduction are provided.
  • the selection concerning the detection of the environment data may specify which one of the image data taken by the scene image pickup device from an image sensor of the Scene pickup device are read out and which not or how often and at what rate.
  • the selection concerning the transmission of the environment data may specify which of the acquired data is transmitted, which is not, or of which quality, for example compressed or uncompressed.
  • a selection related to the evaluation may determine which of the data is to be evaluated, which not, or which one first.
  • a time selection may specify, for example, when data is collected, read, transmitted, or evaluated, for example, when not, or at what rate.
  • the invention thus enables a significant reduction of the baseband width, whereby the gain at wide latitude can again be converted into faster frame rates, faster processing, lower latency times, lower energy or processor power requirements, simpler interfaces and less expensive components.
  • the scene image recording device can generally be configured as one or more cameras, for example as a classic 2D sensor, as a so-called event-based sensor and / or as a 3D camera (for example TOF, depth map, stereo camera, etc.).
  • the environmental data selected according to the selection are treated in a first predeterminable manner, in particular detected with the scene image recording device and / or read from the scene image recording device and / or transmitted to the evaluation and / or evaluated by this, and not according to the environment data selected selection not treated or treated in at least a second of the first different predeterminable manner, in particular again recorded and / or read and / or transmitted and / or evaluated.
  • advantageously different reduction measures can be applied to the selected as well as to the non-selected environmental data.
  • the selected environment data can be captured, transmitted and evaluated with maximum quality, while the non-selected environmental data, for example, not at all be used, which can reduce the total amount of data in a particularly effective manner, or at least recorded with lower quality, transmitted or evaluated with lower priority, which advantageously still allows use of these data while reducing data simultaneously.
  • the environment data not selected according to the selection is reduced, in particular wherein the environmental data selected according to the selection is not reduced.
  • a spatial selection such a reduction can take place, for example, by not recording non-selected image areas, transmitting them to the evaluation device or evaluating them, or by compressing non-selected image regions, reducing them structurally, for example in terms of their color depth. or similar.
  • a spatial selection for example, in the presence of multiple cameras of the scene image recording device by a choice of one of these cameras for data acquisition of the environmental data done. Alternatively, only selected infomation levels are recorded, read out, transmitted or processed from individual or multiple cameras. This may concern eg reduction to edges, depth information, gray values, certain frequency ranges.
  • a spatial selection has the consequence, in particular, irrespective of whether it relates to the recording, transmission or evaluation, that an image reduced in terms of its data volume compared to the originally recorded image is provided for the purpose of evaluation.
  • the reduction can be accomplished, for example, by the fact that image data are either not recorded at all or are recorded at low frame rate, transmitted and / or evaluated.
  • it is advantageously possible to reduce the total amount of data, whereby the fact that this reduction is preferably restricted to the non-selected environmental data means that the loss of information relative to relevant data can be kept as low as possible.
  • the environment data not selected according to the selection is compressed.
  • the environment data not selected according to the selection may be filtered.
  • Data compression can be achieved, for example, by binning or dyeing
  • color filters can be used during filtering, for example to reduce the color depth. In this way, the unselected data sets can be reduced without losing them completely. In the event that the selected data still does not contain the desired information, it can still be used for the non-selected data.
  • a rate relating to the detection and / or the reading and / or the transmission and / or the evaluation of the environment data not selected according to the selection is reduced Rate relating to the acquisition and / or reading and / or transmission and / or evaluation of the environment data selected according to the selection.
  • the image acquisition rate can be kept low and thus also the data to be recorded, amount of data to be transmitted and ultimately evaluated - quasi in sleep mode for data acquisition.
  • the transmission rate or the evaluation rate can be reduced accordingly.
  • the environmental data not selected according to the selection is assigned a lower temporal priority, in particular during the evaluation, than the environmental data selected according to the selection.
  • This variant saves a great deal of time in the evaluation, since in image areas the analysis can be started, for which the probability is high that the information or objects sought there are to be found.
  • a 3D scene camera as a scene image recording device, it is also conceivable that only part of the so-called depth map is utilized as a reduction measure.
  • This part can in turn be determined or selected as a function of an eye parameter of the user as well as in dependence on one or more image characteristics, for example on the basis of the determined line of sight and its intersection with a user. object, or on the basis of vergence, the state of accommodation of the eye, etc.
  • How to reduce the environment data not selected according to the selection may be either predetermined or determined depending on one or more other parameters. For example, this can be done depending on the image characteristics. In the course of a preliminary analysis of a captured image, it can be determined, for example, whether objects or further objects are present in the image around the area of the viewpoint. For example, if the user is looking at a particular point on a white wall, it can be determined based on the pre-analysis that the data not selected according to the selection should not be further processed, for example, instead of being transmitted or evaluated only in a compressed manner.
  • the type of reduction of the environmental data can also take place as a function of specifications relating to a maximum amount of data or data rate during the transmission and / or evaluation, so that a compression type is selected that meets these specifications. Also, the type of reduction may be made depending on an application or, in general, the tick of data analysis and processing. If, for example, color information plays a subordinate role and good contrasts or high resolution are required, then, for example, color filters can be selected as a reduction measure instead of using compression methods which reduce the overall resolution.
  • the described selection parameters for the reduction measures are advantageous in particular when applied to structural and / or spatial reduction measures.
  • the environment data selected according to the selection can be enriched by additional data of a different from the scene image recording device data source.
  • Such enrichments may, for example, predefined emphasis, in particular color or in terms of the contrast represent an annotation by the user, for example by voice input, an annotation of biometric or other user data, and / or an annotation or combination of performance data based on an action, task or task performed by the user Application.
  • these can advantageously be evaluated with additional additional data, and evaluated, for example, just with reference to the additional information.
  • the data source can represent, for example, a further detection device, for example a voice detection device, a gesture detection device, a heart rate monitor, an EEG, or also a memory in which the additional data are stored.
  • the at least one first detected parameter represents an eye parameter of at least one eye of the user.
  • an eye tracker can serve to capture the eye parameter.
  • the eye parameter may in this case represent a viewing direction and / or a viewpoint and / or a gaze pattern, in particular an eye movement and / or eye tracking movement and / or a temporal viewpoint sequence, and / or an eye opening state and / or information about a distance of the viewpoint from the user , such as a convergence angle of the user's two eyes.
  • the invention is based on the recognition that in particular objects or significant points, such as corners or edges of objects, attract the attention of the eye, in particular in contrast to, for example, color-homogeneous and non-structured surfaces. For example, if the user looks around in his environment, his eyes automatically look at salient points and areas, such as corners, edges, or objects in general. This can be used in a particularly advantageous manner for object detection in the user's environment since it can be assumed that relevant objects, points or areas are very likely to be located at the location of the environment which the user is currently looking at.
  • the detected viewing direction can, for example, be matched with the environmental data recorded by means of the scene image recording device in order to determine the user's point of view in the corresponding scene image.
  • an area around this determined viewpoint in the scene image can be spatially selected and thus treated as a relevant image area in the first predeterminable manner, while image areas outside this area can be classified as irrelevant or less relevant and thus not or in the second predeterminable manner can be treated to reduce the amount of data.
  • information about a distance of the viewpoint to the user such as from a convergence angle of the two eyes or a state of accommodation of the at least one eye determined, can advantageously be used to make a spatial selection, especially for making a three-dimensional data selection.
  • a 3D scene camera as a scene image recording device only a part of the so-called depth map can be utilized, in particular only for the selected three-dimensional area.
  • the viewpoint of the user in the scene image in particular as a 2D viewpoint or 3D viewpoint, can thereby be determined in particular by the scene image recording device and the eye tracker working synchronously to determine the viewing direction and / or the viewpoint.
  • the eyetracker can take an image of an eye of the user at the same time and determine therefrom the viewing direction to which the scene image recording device makes a corresponding image recording of the environment for acquiring the environmental data.
  • the scene image recording device is preferably also arranged and / or formed such that the field of view of the scene image recording device for the most part intersects with the field of view of the user or at least one possible field of view of the user, and in particular completely covers this.
  • the scene image recording device it is particularly advantageous, for example, for the scene image recording device to be part of a device carried on the head, which also includes the eye tracker.
  • the scene image recording device is thus also advantageously moved so that it is always advantageously oriented in the direction of the field of vision of the user.
  • Conceivable would be embodiments in which the scene image recording device is not arranged on the head of the user or other body part of the user but, for example, stationary.
  • the scene image recording device may include, for example, one or more cameras, preferably then as large as possible Cover the room angle area of a room.
  • a position of the user or of his head in relation to the scene camera coordinate system could also be determined by the scene image recording device, and the correspondingly determined viewing direction could also be converted into the scene camera system.
  • the invention allows the use of the available bandwidth for the information essential to the user.
  • the viewing direction corresponding to an image acquisition of the scene image recording device at a specific time does not necessarily have to be determined on the basis of image data that was recorded by the user's eye at the same time.
  • the viewing direction and / or the resulting viewpoint can, for example, also be predicted by the eye on the basis of one or more temporally previously recorded image recordings, for example by means of Kalman filters or other methods.
  • the idea underlying the viewpoint prediction consists in the fact that eye movements or eye movements can be subdivided into saccades and fixations, in particular moving and non-moving fixations.
  • a saccade represents the change between two fixations. During such a saccade, the eye does not receive information, but only during a fixation.
  • Such a saccade follows a ballistic eye movement, so that, for example, by detecting initial values of such a saccade, such as initial velocity, initial acceleration and their direction, the time and location of the end point of such a saccade that ultimately empties into fixation will be determined and predicted leaves.
  • Such viewpoint forecasts can advantageously also be used in the present case in order, for example, to predict the viewing direction or the viewpoint for a time at which the scene image recording device then records a corresponding environmental image.
  • the end point can be determined and used for the next temporal and / or spatial selection at the end of the saccade. This advantageously also latencies can be shortened.
  • a spatial selection can then be made by moving the area to be selected or a second spatial area to the one or more possible viewpoints in a prediction window.
  • the viewpoint or the viewing direction can be advantageously used to select relevant and irrelevant data, but also, for example, a gaze pattern or eye movements or temporal Magnoliayakab- consequences or characteristic eye movement sequences, such as the saccades and fixations just described.
  • Such gaze patterns can preferably be used particularly advantageously for a temporal selection since, as described, a user does not record any environmental information during a saccade.
  • the viewpoints in an image recorded by the scene image recording device during a saccade are also less suitable in order to provide information about the presence of relevant objects, points or areas in the image.
  • viewpoints attributable to a fixation in the scene image are very well suited to providing an indication of the presence of relevant image areas, objects or points. Since these two states can be distinguished and recorded on the basis of characteristic eye movements for the saccade and fixation, these states are particularly well suited for making a temporal selection with regard to relevant environmental data.
  • provision may be made for image recordings of the surroundings to be made only when a fixation is detected.
  • the image acquisition rate during a non-moving fixation compared to a moving fixation can be reduced, for example, limited to one or a few during a detected or predicted fixation phase, since during a non-moving fixation, the user's point of view with respect to its environment not changes.
  • Look-up movements can also be detected and thus a moving object of particular importance can be indexed. It is also possible to draw conclusions about the meaning of certain image contents from pupil reactions and thus support selection for recording, transmission or analysis. These selection and reduction measures described for the image recordings can also be used in the same way for additionally or alternatively for the readout of the image data, the transmission and their evaluation.
  • the eye-opening state which is also particularly suitable for making a temporal selection for the acquisition, reading, transmission and / or evaluation of the environmental data. Since the eye, for example in the case of a lid closure, can not provide information on relevant image areas, it can be assumed that be seen that only then images of the environment using the scene image recording device are made, or only then these data are transmitted or evaluated when the eye is open, while when a lid closure is detected, on image recordings, their transmission or evaluation omitted or reduced, or compressed, or reduced by other reduction measures.
  • a detected eye parameter thus provides numerous advantageous information about where and when relevant information is present in the environment of a user or in the corresponding images recorded by the scene image recording device. This advantageously makes it possible to make or also to control the spatial and / or temporal selection so that on the one hand data volumes can be reduced particularly effectively and on the other hand the loss of relevant data can be reduced to a minimum.
  • the at least one detected parameter represents an image characteristic of an image recorded during the detection of the environmental data by means of the scene image recording device and / or a change of the image characteristic with respect to at least one previously recorded image. It is particularly advantageous, for example, to use the image content of the recorded image or the change in the image content of the recorded image with respect to a previously recorded image as the at least one first parameter, since if the image content is not or only slightly opposite to one previously recorded image, for example, if previously determined results can be used without having to evaluate the newly taken image. For example, it can also be provided that as long as the image content does not change significantly, images are recorded, transmitted or evaluated at a lower rate or frequency, whereby data can again be saved enormously.
  • This image content comparison can be carried out, for example, in the course of preprocessing, in particular before the image data is transmitted to the evaluation device and evaluated by the latter.
  • an image content comparison can be performed in a much less time-consuming and computationally intensive manner.
  • Such an image content The same can apply here to the entire respective recorded scene image or even only to a subarea thereof, such as, for example, again to a previously spatially selected area around the determined viewpoint of the user.
  • it can then be decided, for example, whether the recorded image data is ever transmitted to the evaluation device or evaluated by it.
  • image characteristics which can be used as the at least one first parameter are, for example, also spatial frequencies in the recorded scene image, a contrast or contrast curves, the presence of objects, regions or significant points in the image, a number of objects present in the image, regions or dots also the arrangement of existing objects in the image, areas, points, structures, etc.
  • image parameters or image characteristics can be advantageously used to make particular a spatial selection or to control, which will be explained later in more detail.
  • the at least one first parameter represents a user input or a detected user characteristic or any other external event from other signal sources or input modalities.
  • Such parameters may alternatively or additionally also be used to, for example, the recording, the Transmission or the transfer and / or the analysis or evaluation of individual images or image sequences trigger and in particular also to control or regulate.
  • conventional controls such as buttons, mouse, and so forth may be used, gesture detection may be used, or the like. This allows the user, for example, to actively signal when interesting or relevant objects are in his field of view or look at them.
  • User characteristics may be detected, for example, by detecting movements of a user, gesturing, EEG signals, or the like. Such characteristics can also provide information about whether interesting objects are currently in the user's field of view or not. It is particularly advantageous to provide such parameters for a temporal selection of relevant data.
  • the invention determines the spatial selection, which area of the environment than the environment data, in particular to the first predeterminable manner, by means of the scene image recording device is detected and / or read from the scene image pickup device and / or is transmitted to the evaluation and / or evaluated by the evaluation. On the entire data path from acquisition to evaluation, it is thus advantageously possible to spatially select data, thereby characterizing the relevant data.
  • the spatial selection is made in such a way depending on a detected viewpoint of the user that the area comprises the viewpoint.
  • the viewpoint is particularly suitable in order to be able to select between relevant and non-relevant or less relevant data.
  • the viewpoint is particularly well suited as the detected parameter, depending on which the spatial selection is made and possibly also time-controlled.
  • the size of the area is predetermined, that is, not variable or constant.
  • the user's point of view may be determined in a corresponding image of the scene image pickup device, and then an area determined in terms of its size may be selected around that viewpoint as the relevant data.
  • This area can be predetermined for example by a fixed radius around the viewpoint or as a fixed image portion with respect to the entire recorded scene image. This represents a particularly simple, less computation-intensive and above all time-saving possibility for selecting and defining the area with the relevant image data.
  • the size of the area is defined or controlled as a function of at least one second parameter. This provides particularly flexible options with regard to the relevant image data. This allows, for example, an adaptive adaptation in order to better distinguish between relevant and non-relevant data around the viewpoint.
  • an image characteristic of an image recorded during the detection of the environmental data by means of the scene image recording device and / or a measure of one is suitable as these second parameters
  • Accuracy and / or dynamics of the determined viewpoint of the user and / or at least one device parameter such as transmission quality, latencies or performance of the processing device, a device comprising the scene image recording device and / or the evaluation device, and / or a size of a in a predetermined proximity of the viewpoint or even in at least partially overlapping with the user's viewpoint object in a captured in the detection of the environmental data by means of the scene image recording device image.
  • the second parameter represents, for example, the image characteristic
  • the characteristic of the image content such as spatial frequency around the viewpoint, number or uniqueness of the objects or relevant points, object clusters, feature clusters, contrast around the viewpoint or detected Objects behind, before or around the viewpoint, are used to set or control the size and also the boundary of the area to be determined.
  • This makes it possible, for example, to define the area in such a way that it is always possible to cover an entire object which the user is looking at, or for example always a contiguous area, or from the viewpoint all the way to the next edge (start burst), and so on.
  • the size of the area depending on a size of an object on which the viewpoint is or which is at least in a predetermined proximity of the viewpoint of the user is set or controlled, in particular so that always the whole Object or a group of objects is selected with. This advantageously increases the probability that the relevant information to be acquired is also completely covered by the selected area. It is also particularly advantageous to provide the measure for the accuracy of the determined viewpoint of the user as the second parameter. If the eye-tracking quality is poor, for example, it may be that the point of view determined deviates greatly from the actual point of view of the user.
  • the area to be selected around the viewpoint is particularly advantageous to increase the area to be selected around the viewpoint with lower accuracy of the determined viewpoint, in contrast to the case of higher accuracy of the determined viewpoint.
  • the accuracy of the determined viewpoint can be calculated or estimated by known methods, such as the gaze quality of the image taken by the eye tracker, the temporal spread of viewpoint values, and so forth.
  • the Dynamics of the viewpoint can be advantageously taken into account in controlling the size of the area. If the viewpoint has a high degree of dynamics over its time course, ie if it moves or jumps within a short time within a large surrounding area, the size of the area to be selected can also be selected to be correspondingly larger. Also, various other device parameters may be considered in determining the size of the area.
  • the region to be selected may be selected to be smaller in size to reduce the amount of data to be transmitted or evaluated, and thus to shorten or keep latencies within predetermined limits .
  • the range can be selected to be correspondingly larger.
  • performance parameters can relate, for example, to both the transmission and the evaluation as well as various other components of the device. It can also be provided, for example, that the user himself or another person can specify to the system this second parameter for determining the size of the area. Thus, the user himself can set his priorities regarding time efficiency or data reduction, and quality of the result. The larger the range chosen, the more likely it is that all relevant information is included in that range, while the smaller that range is chosen, the less data must be read, transmitted, and / or evaluated.
  • the temporal selection determines when, in particular in the first predeterminable manner, an area of the environment is detected as environmental data by means of the scene image recording device and / or read from the scene image recording device and / or is transmitted to the evaluation and / or is evaluated by the evaluation device.
  • the spatial selection it is thus advantageously possible to select data with regard to the entire data path.
  • the temporal selection is made as a function of the at least one first parameter, that only then or in the first predeterminable manner, for example with increased temporal rate, uncompressed, unfiltered, and so on, images and / or Image sections are recorded with the scene image recording device and / or recorded image data are read out and / or transmitted to the evaluation device and / or evaluated by the evaluation device if the at least one first parameter fulfills a predetermined criterion.
  • data selection therefore, there is the possibility of either not treating any further selected data, in particular of not even detecting them, or of reading them in a reduced manner, such as by compression or filtering or less frequently, and / or or to process.
  • a temporal control of the selection can thus advantageously be carried out, so that in turn data sets can be reduced by not treating data classified as less relevant or at least treating it with lower quality due to the reduction, without sacrificing quality influence relevant data.
  • the predetermined criterion is that it is detected that a gaze pattern and / or an eye movement and / or a gaze sequence and / or a fixation of the eye, as the at least one first Parameter is detected and / or forecast, has a predetermined characteristic.
  • the predetermined criterion may be that, based on the opening state of the eye, the at least one first parameter is detected and / or predicted that the at least one eye of the user is open.
  • the predetermined criterion can also consist in detecting, on the basis of the image characteristic as the at least one first parameter, that a change of at least a part of the image content with respect to at least a part of the image content of at least one temporally previously recorded image is a predeterminable measure exceeds. If the image content does not change or does not change significantly, the newly acquired image likewise contains no additional, new or relevant information, so that the amount of data can advantageously also be reduced thereby.
  • the predetermined criterion can also be that a user input is detected as the at least one first parameter. This allows the user to tell the system itself when particularly relevant information is in its field of view. Alternatively or additionally, it may also be provided that the user provides information about the presence of relevant information in his field of view in a passive manner, for example by recognizing a predetermined user state as the at least one first parameter on the basis of a user characteristic, such as EEG signals / or is forecasted. User behavior, such as gestures or the like, can also be analyzed to provide information about the presence of relevant information in the user's environment.
  • a preprocessing of the environmental data is carried out, at which the selection is made and / or at which the first predeterminable manner is determined, the environmental data selected according to the selection and / or in which the second way is determined which one of the environment data not selected according to the selection is assigned.
  • Such preprocessing is particularly advantageous in particular if the spatial and / or temporal selection is to be made as a function of an image characteristic of the environmental data acquired as image.
  • a first selection already performed before the preprocessing of the environment data so that only selected environment data are subjected to preprocessing at all.
  • the invention relates to a device with a scene image recording device for data acquisition of environmental data of an environment of a user and with an evaluation device for evaluating the acquired environmental data.
  • the device is designed to provide a spatial and / or temporal selection relating to a detection of the environmental data by means of the scene image recording device and / or a transmission of the environmental data from the scene image recording device to the evaluation device and / or an evaluation of the environmental data by the evaluation device in dependence of at least one detected, temporally variable first parameter.
  • the device further comprises an eye-tracking device which is designed to detect the at least one first parameter.
  • eye-tracking device which is designed to detect the at least one first parameter.
  • eye parameters such as viewing direction, viewpoint and so on are particularly suitable for selecting the image data recorded with the scene image recording device into more or less relevant data.
  • the device comprises a device that can be worn on the head, for example an augmented reality goggle, wherein the head-portable device has the scene image recording device and at least one display device, and preferably the eye tracking device.
  • Augmented reality glasses allow additional information and objects to be superimposed and superimposed on the real environment.
  • the evaluation device can also be integrated, for example, in the device which can be worn on the head, or else be provided as an external evaluation device, for example as a computer, computer, etc., in which case the device which can be worn on the head is designed in accordance with FIG Selection of selected data in the first pre-definable manner to the external evaluation device, for example, wired or wireless to transmit and corresponding to the not selected according to the selection data in the second predeterminable manner or not at all.
  • the time expenditure can thus be significantly reduced even in a subsequent video analysis of the scene video or video images.
  • the invention can be advantageously used in a variety of fields of application such as mobile eye tracking to reduce the bandwidth of the scene video by limiting the area of the foveal or extended foveal point of view of the user, in augmented reality applications also to reduce the bandwidth.
  • the area of the scene to which an overlay, that is, information or objects to be overlaid must be registered can be reduced in size.
  • objects can be visually marked, to limit the shooting with the scene camera on it.
  • the invention also offers advantageous and numerous possibilities for use in automatic scene video analysis, in which, for example, only one area is transmitted around the viewpoint in the scene and, for example, registered with a reference, that is to say with a reference video or a reference picture.
  • a clear reduction of the baseband is possible.
  • image detail content and recording can be controlled with certain available control criteria, so that the amount of data compared to the original video is significantly reduced, without losing the respective critical, that is relevant information.
  • Fig. 1 is a schematic representation of a device for data acquisition of
  • FIG. 2 shows a schematic cross-sectional illustration of the device for data acquisition and evaluation according to an embodiment of the invention
  • FIG. 3 shows a schematic representation of acquired environmental data in the form of a scene image to illustrate a method for data acquisition and evaluation according to an exemplary embodiment of the invention
  • FIG. 4 shows a flow chart for illustrating a method for data acquisition and evaluation according to an exemplary embodiment of the invention
  • 5 shows a flow chart for illustrating a method for data acquisition and evaluation, in particular with a spatial selection of environmental data, according to an exemplary embodiment of the invention
  • FIG. 6 shows a flowchart to illustrate a method for data acquisition and evaluation, in particular with a temporal selection, according to an exemplary embodiment of the invention.
  • 1 shows a schematic representation of a device 10 for data acquisition of environmental data of an environment 12 of a user and for their evaluation according to an exemplary embodiment of the invention.
  • the device 10 comprises a head-worn device which can be embodied here as an eyewear 14, for example, which can be designed as augmented reality glasses or data glasses, or can also be designed as conventional eyeglasses with or without eyeglass lenses.
  • the wearable device could also be formed in any other way, for example as a helmet or the like.
  • These spectacles 14 furthermore comprise a scene image recording device embodied as a scene camera 16, which is arranged at the front and in the center of the spectacles 14.
  • the scene camera 16 has a field of view 18, which is to be illustrated in FIG. 1 by dashed lines. Regions of the environment 12 within the field of view 16 of the scene camera 14 can be imaged on the image sensor of the scene camera 16 and thus detected as environmental data.
  • This field of view 18 is preferably designed such that it at least partially overlaps with a field of view of a user wearing the glasses 14, preferably for the most part or even completely.
  • the glasses 14 comprise an eye tracker with two eye cameras 20a, 20b, which in this example are arranged on the inside of the frame of the spectacles 14, so that they can each take pictures of a respective eye of a user wearing the spectacles 14 in order to record these image recordings for example, for sight line detection, viewpoint detection, gaze pattern recognition, detecting eyelid closure, and so on.
  • the spectacles 14 have an optional preprocessing device 23, of which preprocessing steps of the image recordings, in particular of the scene camera 16, explained in greater detail later, can be performed.
  • the device 10 has an evaluation device 22, which in this example represents an out-of-the-beam device.
  • the evaluation device 22 can also be coupled with the glasses 14 via a communicative connection 25, for example a data line, wirelessly or bound by a strap.
  • a communicative connection 25 for example a data line, wirelessly or bound by a strap.
  • the scene camera 16 initially takes a scene video and the corresponding data are first stored in a memory (not shown) of the glasses 14, and only at a later time the communicative connection 25 between the glasses 14 and the evaluation device 22 is prepared to read out the data stored in memory and to the evaluation device 22 to transmit.
  • this evaluation device 22 could also be integrated into the spectacles 14.
  • the spectacles 14 can optionally have displays 21, by means of which, for example, additional digital information or objects of the view of the surroundings 12 can be superimposed superimposed.
  • Such a device 10 can now be used for a variety of applications.
  • a scene video can be recorded by means of the scene camera 16 while a user is wearing the glasses 14 and moves, for example, in the surroundings 12. Meanwhile, the eye cameras 20a, 20b can take pictures of the user's eyes to determine the line of sight corresponding to the respective pictures of the scene video.
  • the acquired data can now be transmitted, for example, to the evaluation device 22, which evaluates the image data of the scene camera 16 and of the eye cameras 20a, 20b.
  • a scene video can be created by marking the user's point of view at the respective time.
  • such a reference recording can also represent an image recording of the environment 12, which was also made by means of the scene camera 16 or else by means of another image recording device.
  • the image recordings of the scene camera 1 6 must be registered with the reference image. This can be done, for example, by marking significant points or objects in the reference image which are searched for and identified in the respective images of the scene video in order to derive, for example, a transformation that represents a respective scene. picture on the reference picture. In this way, the viewpoints of the user can then be mapped to the one reference image at the respective times.
  • the points of view that are respectively current for a first user with respect to his surroundings can be determined and a second user who views the same environment, but from a different perspective, these points of view of the first user via the display 21 of his spectacles 14 at the corresponding location , especially in real time, so that the second user can track which objects in the environment the first user is currently looking at.
  • these methods usually very high amounts of data accumulate, so that both the data transmission and their evaluation is extremely time-consuming and computationally intensive.
  • the invention now advantageously makes it possible to reduce these enormous amounts of data without losing essential information, which would greatly reduce the quality of such a method.
  • This is accomplished by making a selection related to the environment data.
  • This selection can take place during data acquisition by means of the scene camera 16, when reading out the data from the scene camera 16 or its image sensor, when transmitting the data to the evaluation device 22 as well as during the evaluation by the evaluation device 22.
  • the device 10 may comprise at least one control device, which may for example be part of the preprocessing device 23, the evaluation device 22, the scene camera 16 and / or the eye tracker, or may also be designed as a further separate control device to the data acquisition, the reading of the To control data, data transmission and their evaluation as well as making the selection.
  • the one or more control devices may comprise a processor device which is set up to carry out one or more embodiments of the method according to the invention.
  • the processor device can have at least one microprocessor and / or at least one microcontroller.
  • the processor device can have program code which is set up to execute the embodiments of the method according to the invention when executed by the processor device.
  • the program code may be stored in a data memory of the processor device.
  • the selection is made depending on at least one detected parameter.
  • This parameter serves to categorize or estimate the relevance of the environment data. Numerous parameters come into consideration on the basis of which such a categorization can be made.
  • the viewing direction or the point of view of the user with respect to a recorded scene image This is due to that the eye automatically targets significant areas, points, or objects in its surroundings.
  • the viewpoint in the image can be advantageously used to find the most likely location of significant points, objects or areas in the scene image.
  • FIG. 2 shows a schematic representation of the spectacles 14 of the device 10 in cross-section and an eye 24 of a user looking through the spectacles 14.
  • the scene camera 16 takes an image 26 (see FIG. 3) of a surrounding area 28, which is located in the field of view 18 of the scene camera 16.
  • the eye tracker with the eye camera 20a takes one or more pictures of the eye 24 of the user, on the basis of which the viewing direction 30 of the eye 24 at the time of the acquisition of the surrounding image 26 is determined.
  • the viewpoint 32 in the recorded scene image 26 can be calculated.
  • FIG. 3 shows a schematic representation of such a captured scene image 26, with respect to this calculated viewpoint 32.
  • 34a and 34b designate objects in the scene image 26.
  • an area around the viewpoint 32 can now be selected as relevant image data since the probability of finding an object, a significant point or area in the vicinity of the viewpoint 32, is the highest.
  • the size of this area can be fixed by a fixed parameter, such as image proportion or radius around the viewpoint 32, as illustrated in this example in Fig. 3 for the area 36a. Even better results can be achieved, for example, if this range can be adapted adaptively, for example by means of a feedback loop.
  • the characteristic of the image content such as the spatial frequency around the viewpoint 32, the number or uniqueness of features or feature clusters, objects, more interesting regions, contrast intensity around the viewpoint 32, can be considered for such an adaptive adaptation.
  • the examination of the image characteristic in the region of the determined viewpoint 32 can be carried out, for example, in the course of preprocessing by the preprocessing device 23. This makes it possible to detect contiguous areas or objects, such as the object 34a in this example, and the area 36b to be selected may then be chosen so that always an entire object 34a being viewed, or a contiguous area, or from the viewpoint 32 all to the nearest edge, is encompassed by the selected area 36b. Such a selection now allows a data reduction in a particularly advantageous manner.
  • the selected region 36a, 36b is received by the scene camera 16, read out of it, transmitted to the evaluation device 22 or evaluated by the evaluation device 22.
  • different image regions of the scene image 26 are further treated by the selected region 36a, 36b in a reduced manner, which are detected, for example, at a lower resolution and transmitted or evaluated in compressed form by compression algorithms.
  • the image data in the immediate vicinity of the viewpoint 32 can be treated in an unreduced manner in order to achieve maximum quality, while the data outside this first region 36a and within the second region 36c are treated in a reduced manner, for example compressed or with lower priority while the remaining data outside the area 36c and area 36a are not treated at all or are treated in a much reduced manner compared to the data in area 36c.
  • image data can be assigned to a plurality of relevance classes, whereby preferably the further image regions are removed from the viewpoint 32, the less relevance is assigned. Also, this can provide various degrees and / or modes of compression based on human vision. For relevance-dependent data reduction, however, not only a spatial selection can be used, but, for example, a temporal selection of data can also be made.
  • Such temporal selection means for example, that if a plurality of images 26 are taken as a sequence of images, depending on the time of their acquisition, they may be classified as relevant or less relevant and may be selected in terms of time.
  • Such a temporal selection can be event-driven, for example. If, for example, eyelid closure of the user is detected or if for other reasons the viewpoint 32 can not be determined for a specific time or period, the image data captured during this period can be classified as less relevant, or even no image recordings during a time less relevant period. It can also be provided that image data are only classified as relevant if they have a significant change in content compared to a previously recorded image.
  • advantageously temporal and spatial selection can also be combined as desired.
  • image data outside a spatially selected area 36a, 36b are read out, transmitted or processed at a lower frequency or rate than the image data assigned to the selected areas 36a, 36b.
  • 4 shows a flow chart for illustrating a method for environmental data acquisition and evaluation, which combines, in particular, spatial and temporal selections, according to an exemplary embodiment of the invention.
  • images 26 are taken from the environment 12 of a user in a time sequence, for example in the form of a video, a respective image acquisition being illustrated by S1 6.
  • the viewing direction in S18 is determined for a respective image acquisition and the user's point of view in the corresponding image 26 is determined based on the determined viewing direction and on the corresponding image acquisition in S20.
  • a timely selection is already preceded by this procedure in this example.
  • this information may also be based on the eye or eye data determined by the eye tracker be recorded.
  • an image acquisition and a corresponding determination of the direction of sight take place only when the eye has been opened or a fixation has been recognized or predicted. If this is not the case, then the check is made as to whether the eye has been opened or a fixation has been recognized or predicted, until this is the case.
  • a first rate to be established for the image acquisition and the sight line determination in S12 in the event that the eye is opened or a certain eye movement, such as the fixation or a saccade, is detected, while, when the eye is closed or, for example, no fixation has been detected or predicted, a second rate is set at S14 in S6 and the line of sight determination at S18 is less than the first rate.
  • These rates relate to the image acquisition rates for image acquisition in S16 and possibly also to the corresponding viewing direction determination in S18. In other words, the image is taken as long as one eye is closed or the eye is not fixed to a specific point or area, less frequently or at a reduced rate.
  • a fixation can also be detected on the basis of an offline fixation detection, which can be used, for example, for an additional or alternative selection of the environmental data in a subsequent evaluation of the data.
  • An additional time selection could optionally also be made in S20 when determining the viewpoint 32 in FIG. 26. For example, if the viewpoint 32 of the user is outside the field of view 18 of the scene camera 14 and thus not in the captured image 32, the image acquisition may be discarded and proceeded to the next image acquisition.
  • biometric characteristics or also external ones may be used Signals are used, which should be illustrated in SO.
  • a biometric signal based on a detected biometric characteristic of the user such as a pulse rate, a pupil contraction, etc.
  • SO it can also be checked whether a signal from an external device has been received and / or whether such an external signal fulfills a criterion.
  • Such signals can then be used, for example, to trigger or start the method and only then to begin the check in S10.
  • Such biometric and / or external signals can also be used additionally or alternatively for checking in S10, so that, for example, a viewing direction determination in S19 and an image recording in S16 only take place when a signal in SO is received or such a signal fulfills a criterion , It is also possible optionally to use such a signal in order to decide when the size determination of the image area according to S22, which will be described in more detail below, is carried out and when and not, for example, immediately proceeding to S24.
  • the size of an image region around the viewpoint 32 is determined in S22 in the course of a spatial selection.
  • the size determination of this image area is carried out dynamically in this example, that is to say as a function of one or more further parameters.
  • a parameter may represent, for example, the viewpoint accuracy, which is determined in S22a.
  • An estimation of the viewpoint accuracy can for example be based on image characteristics or the image quality of the image taken by the eye tracker to determine the line of sight and the point of view, by statistical analysis of several gaze data, for example, their scattering, or even numerous other parameters.
  • the range size is chosen to be larger if the viewpoint accuracy is lower in comparison to a larger viewpoint accuracy.
  • another parameter can be determined or specified in S22b, such as a threshold for the viewpoint accuracy described above, so that, for example, a corresponding resizing of the image area is performed only if the viewpoint accuracy falls below this threshold value and otherwise the size of the image area always the equal to predetermined value, or the setting of the area size in S22c is performed irrespective of the viewpoint accuracy.
  • other parameters may alternatively or additionally be determined in S22b, such as biometric and / or external signals again, so that the setting of the range size in S22c may also be dependent on such signals.
  • an image characteristic of the recorded image 26 can also be used.
  • the area encompassing the viewpoint 32 should be selected such that objects that the user is currently looking at are also completely contained in this area.
  • image characteristics can be determined within the framework of a preliminary analysis or preprocessing of the recorded image 26, in which the image content can be analyzed by analyzing spatial frequencies around the viewpoint 32, the contrast intensity around the viewpoint 32 can be taken into account, the presence of objects, Edges, or the like around the viewpoint 32 around can be considered.
  • S22a, S22b and S22d finally, in S22c, the area size of the image area of the image 26 including the viewpoint 32 is set.
  • An additional temporal selection may optionally be added to this spatial selection.
  • this temporal selection it can now be checked in S24 whether the image content of either entire image 26 or only the image content of the region selected in S22 has changed significantly compared to a previous image acquisition. If this is not the case, according to a first embodiment, all image data relating to the current image acquisition can be discarded and transferred to the next image acquisition. This can be done as long be repeated until a significant change in image content is detected in S24. Only then are the data, at least the image data of the selected image area, transmitted in S28 to the evaluation device 22. According to a further embodiment, however, first and second rates for the transmission of the image data can also be set here again.
  • the image data of the selected image area may be transmitted at a first rate in S25.
  • the image data of at least the selected image area may be transmitted at a second rate lower than the first rate in S26, since in that case the image data is less relevant.
  • predetermined criteria such as whether objects were detected in the selected and evaluated image area, whether predetermined objects in this image area were detected, predetermined significant points or areas in that image area could be recognized, and so on. If this is the case, then the method can be
  • the invention thus provides numerous possibilities, the data according to their relevance both spatially and temporally, in particular in a variety of ways and according to numerous possible criteria can be selected to allow data reduction without loss of relevant image content.
  • the described selection steps can be implemented in any combination, as well as individually, as will be illustrated with reference to FIG. 5 and FIG. 6 based on simplified examples.
  • 5 shows a flowchart for illustrating a method for data acquisition and evaluation of environmental data, according to which in particular only a spatial selection is made, according to a further exemplary embodiment of the invention.
  • image acquisition by means of the scene camera 16 takes place again from the surroundings 12 of a user in S1 6, wherein the eye tracker in S1 8 determines or predicts a viewing direction which corresponds to the time of image acquisition.
  • the user's point of view 32 in the recorded image 26 is again determined in S20.
  • an area size of the area around the viewpoint 32 is determined.
  • the range size may be predetermined, for example, by a fixed parameter, such as a predetermined radius around the viewpoint 32.
  • the image data of the selected area are transmitted to the evaluation device 22 around the viewpoint 32 in S28.
  • the image data outside the range specified in S23 is first compressed in S32 and then transmitted to the evaluation device 22 in S34. The latter then evaluates the transmitted data in S38, optionally in a predetermined sequence, for example, first that of the selected image area and only then that of the non-selected image area.
  • this method can be advantageously selected by a spatial selection of an image area image data in relevant and less relevant data and provide compression of the less relevant data overall data reduction without having to give up relevant information.
  • a further parameter such as a biometric signal or an external signal, as illustrated in S00
  • triggering for example, the image acquisition in S1 and / or the viewpoint determination in S20 and / or depending on which the area size is set in S23.
  • step S10 it is again checked in step S10 whether the user's eye or both eyes of the user are open and / or a fixation of the eye is recognized or at least for the time being. point of the subsequent image acquisition in S16 is predicted. If this is the case, a first rate for image acquisition in S1 6 is determined in S12. This first rate, ie image acquisition rate, is retained, that is to say in particular for the subsequent image recordings, as long as it is still detected in S10 that the eye is opened and / or a fixation is detected.
  • a second image capture rate in S16 is set which is lower than the first rate, since it can then be assumed that the relevant image recordings contain less relevant information and thereby simultaneously Data can be saved.
  • one or more image characteristics are determined in S21 in the course of a preprocessing of the image data, for example by the preprocessing device 23.
  • This image characteristic can relate, for example, to the image content of the recorded image 26, wherein it is checked in the following step S24 whether this image content has changed significantly, for example to a predetermined extent, compared with a previous image acquisition. If this is the case, the image data are transmitted to the evaluation device 22 in S33. If this is not the case, however, less relevant image data can be assumed, and these are then first compressed in S31 and only then transmitted in S33 to the evaluation device 22, which then evaluates the transmitted image data in S38.
  • the viewpoint 32 (2D or 3D) calculated using the eye tracker can also be used here with respect to the scene camera coordinate system in order to spatially and possibly additionally specify a relevant image detail temporally.
  • This image section can then also be displayed alone or with an additional reference detail, e.g. a frame on the outer edge of the scene image 26, a few lines above, below or laterally in the scene image 26, can be read out, transferred or further processed together from the scene camera sensor only.
  • AOI area of interest
  • a preprocessing of a part or of the entire image 26 can also be undertaken in order to precisely determine the extent and type of data reduction. For this purpose, either the whole or a certain subarea of the image 26 would be read out, then completely or partially pre-analyzed and then the characteristic and if necessary, to determine a further data reduction or compression for the further reading, the transmission and / or the final processing.
  • the environmental data finally provided by the temporal and / or spatial selection can be advantageously used to perform efficient registration with previously recorded reference images or videos and on the basis of this registration, which also applies to several users, and thus to several image streams, gaze data streams
  • additional input or trigger data can be performed in parallel or in succession, and based thereon a visual and quantitative aggregation and / or a comparison of eye movements and, if appropriate, other associated events.
  • the reference image may, for example, also represent a reduced or unchanged scene image or be composed of a plurality of reduced scene images or also unchanged scene images.
  • the image data may also be used to provide more efficient registration of visually marked, such as by long fixing or by fixing and speech command or key press, and so on, or contiguously, to reach objects or scene areas with overlays in a transparent head-mounted display that does not have to process and / or search the entire scene video, such as in a content analysis such as OCR (optical character recognition) for signs, for example, to translate only the sign that the user is currently looking at.
  • OCR optical character recognition
  • a user may be given a detailed view, zoomed view, or X-ray view of a viewed object, efficient simultaneous location and mapping (SLAM), and assembly of the scene (s) in the scene, preferably using the angles and constrast depths Fixations allows to create a 3D map of the room, especially over time and possibly multiple users.
  • the relative position of the selected area on the sensor can also be used for this, or it is conceivable that further selected areas on the sensor may be set relative to a current selected area in order to enable a more robust detection.
  • contextual information such as distance, gaze, fixation behavior, and so on
  • these overlays can also be calculated as a function of a deviation of the viewpoint or gaze course from a target object, such as a target sighting point or target course, and then positioned on the basis of target and actual.
  • the device according to the invention and the method according to the invention can thus be used for a multitude of possible applications in which it is clear Improvements are made possible while saving a great deal of time and saving on computation.

Abstract

Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur Datenerfassung von Umgebungsdaten einer Umgebung (12) eines Benutzers mittels einer Szenenbildaufnahmeeinrichtung (16) und zur Auswertung der erfassten Umgebungsdaten mittels einer Auswerteeinrichtung (22). Dabei wird eine räumliche Auswahl (36a, 36b, 36c) und/oder zeitliche Auswahl betreffend eine Erfassung der Umgebungsdaten mittels der Szenenbildaufnahmeeinrichtung (16) und/oder eine Übertragung der Umgebungsdaten von der Szenenbildaufnahmeeinrichtung (16) zur Auswerteeinrichtung (22) und/oder eine Auswertung der Umgebungsdaten durch die Auswerteeinrichtung (22) getroffen. Weiterhin wird die Auswahl (36a, 36b, 36c) in Abhängigkeit von mindestens einem erfassten, zeitlich variablen ersten Parameter (30, 32) getroffen, um diese hinsichtlich ihrer Relevanz zu selektieren, und damit eine Reduktion der Datenmenge durch auf weniger relevante Daten beschränkte Reduktionsmaßnahmen zu ermöglichen.

Description

Verfahren und Vorrichtung zur Datenerfassung und Auswertung von Umge- bungsdaten
BESCHREIBUNG:
Die Erfindung geht aus von einem Verfahren zur Datenerfassung von Umgebungsda- ten einer Umgebung eines Benutzers mittels einer Szenenbildaufnahmeeinrichtung und zur Auswertung der erfassten Umgebungsdaten mittels einer Auswerteeinrichtung. Des Weiteren geht die Erfindung aus von einer entsprechenden Vorrichtung mit einer Szenenbildaufnahmeeinrichtung zur Datenerfassung von Umgebungsdaten einer Umgebung eines Benutzers und mit einer Auswerteeinrichtung zur Auswertung der erfassten Umgebungsdaten.
Aus dem Stand der Technik sind vielzählige Anwendungsmöglichkeiten bekannt, bei denen eine Datenerfassung von Umgebungsdaten, zum Beispiel in Form von Bildern mittels einer Szenenkamera, sowie deren Auswertung eine große Rolle spielt. Bei- spielsweise können Augmented Reality Systeme, wie beispielsweise Augmented Reali- ty Brillen eine frontseitig angeordnete Szenenkamera beziehungsweise Umgebungskamera aufweisen, die Bilder der Umgebung des Benutzers aufnimmt. Weiterhin können durch eine solche Brille computergenerierte Objekte in die vom Benutzer wahrgenommene Realität eingeblendet werden, die insbesondere mit Objekten der realen Umgebung in Zusammenhang stehen können. Beispielsweise können zu Objekten in der Umgebung Zusatzinformationen durch die Brille eingeblendet werden. Um dies zu ermöglichen, werden die von der Szenenkamera aufgenommenen Bilder ausgewertet und auf vorhandene bzw. bestimmte Objekte durchsucht. Werden solche Objekte in den Bildaufnahmen gefunden, können die korrespondierenden Informationen, durch die Brille eingeblendet werden. In Kombination mit mobilen Eyetracking-Systemen gibt es zahlreiche weitere Anwendungsmöglichkeiten. Weist beispielsweise eine solche Brille auch einen Eyetracker auf, können die Eyetracking-Daten mit den aufgenommenen Szenenbilddaten abgeglichen werden, um beispielsweise festzustellen, wohin in der Umgebung der Benutzer gerade blickt, insbesondere auch auf welches Objekt in der Umgebung. Zusätzlich können hierbei auch noch Registrierungsverfahren zum Einsatz kommen, die es ermöglichen, eine Bildaufnahme auf ein Referenzbild, welches beispielsweise aus einer anderen Perspektive aufgenommen wurde, abzubilden. Solche Registrierungsverfahren können genutzt werden, um auf einfache Weise zum Beispiel Blickrichtungsdaten über die Zeit sowie auch über mehrere Benutzer zu akkumulieren, indem diese auf ein gemeinsames Referenzbild übertragen werden. Bei Registrierungsverfahren können beispielsweise im Referenzbild bestimmte Objekte, signifikante Bereiche, oder signifikante Punkte definiert sein, wie beispielsweise Muster, Kanten oder Schnittpunkte von Kanten, die bei der Auswertung des Szenenbilds in diesem ge- sucht und identifiziert werden. Über die Korrespondenz zwischen den im Szenenbild identifizierten Punkten oder Bereichen und denen des Referenzbilds kann eine Transformation abgeleitet werden, die das Szenenbild auf das Referenzbild abbildet. Diese Transformation kann beispielsweise in gleicher Weise genutzt werden, um den Blickpunkt des Benutzers im Szenenbild auf das Referenzbild abzubilden.
Bei all diesen Verfahren, bei denen Szenenbilder oder Szenenvideos aufgenommen und ausgewertet werden, besteht das Problem, dass sehr große Datenmengen anfallen können. Sowohl die Datenübermittlung als auch deren Auswertung gestaltet sich damit entsprechend zeitintensiv und erfordert viel Rechenkapazität. Echtzeitsysteme sind dadurch nur bedingt oder gar nicht realisierbar, zumindest wenn eine hohe Qualität entweder bezüglich der Bildaufnahmen selbst oder auch bei der Auswertung, m beispielsweise eine hohe Zuverlässigkeit bei der Objekterkennung in Bildern zu ermöglichen, gewünscht oder erforderlich ist. Weiterhin sind auch Möglichkeiten zur Datenreduktion bekannt, wie beispielsweise Komprimierungsverfahren. Diese sind jedoch wie- derum mit dem großen Nachteil behaftet, dass durch eine derartige Datenreduktion auch Informationen verloren gehen, die insbesondere sehr relevant für die Auswertung sein können, und damit wiederum die Qualität eines solchen Systems oder Vorrichtung extrem mindern. Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren und eine Vorrichtung zur Datenerfassung und Auswertung von Umgebungsdaten bereitzustellen, die eine Reduktion von Datenmengen ermöglichen und dabei gleichzeitig den Verlust relevanter Daten möglichst gering halten können.
Diese Aufgabe wird gelöst durch ein Verfahren und eine Vorrichtung mit den Merkmalen gemäß den unabhängigen Ansprüchen. Vorteilhafte Ausgestaltungen der Erfindung finden sich in den abhängigen Ansprüchen. Das erfindungsgemäße Verfahren zur Datenerfassung von Umgebungsdaten einer Umgebung eines Benutzers mittels einer Szenenbildaufnahmeeinrichtung, wie beispielsweise einer Szenenkamera, und zur Auswertung der erfassten Umgebungsdaten mittels einer Auswerteeinrichtung zeichnet sich dadurch aus, dass eine räumliche und/oder zeitliche Auswahl getroffen wird, die eine Erfassung der Umgebungsdaten mittels der Szenenbildaufnahmeeinrichtung und/oder eine Übertragung der Umgebungsdaten von der Szenenbildaufnahmeeinrich- tung zur Auswerteeinrichtung und/oder eine Auswertung der Umgebungsdaten durch die Auswerteeinrichtung betrifft. Diese Auswahl wird dabei in Abhängigkeit von mindestens einem erfassten und zeitlich variablen ersten Parameter getroffen, und insbesondere gesteuert oder auch geregelt. Durch das Treffen einer Auswahl ist es vorteilhafterweise möglich, Daten beispielsweise hinsichtlich ihrer Relevanz, spezifiziert durch den ersten erfassten Parameter, zu kategorisieren. Dabei können auch mehrere zeitliche und/oder räumliche Auswahlen getroffen werden, beispielsweise eine erste Auswahl für Umgebungsdaten mit der höchsten Relevanz, eine zweite Auswahl für Umgebungsdaten mit mittlerer Relevanz, eine dritte Auswahl für Umgebungsdaten mir geringer Relevanz, usw.. Diverse Reduktionsmaßnahmen können dann vorteilhafterweise auf nicht oder weniger relevante Daten beschränkt sein, sodass sich insgesamt die Datenmengen reduzieren lassen ohne dabei auf relevante Informationen verzichten zu müssen. Eine solche Auswahl kann dabei zudem vorteilhafterweise auf dem gesamten Datenweg von der Erfassung bis hin zur Auswertung getroffen werden, sodass vielzählige Möglichkeiten zur Datenreduktion bereitgestellt sind. Beispielsweise kann die die Erfassung der Umgebungsdaten betreffende Auswahl spezifizieren, welche der mittels der Szenenbildaufnahmeeinrichtung aufgenommenen Bilddaten aus einem Bildsensor der Szenenbildaufnahmeeinrichtung ausgelesen werden und welche nicht oder auch wie oft und mit welcher Rate. Die die Übertragung der Umgebungsdaten betreffende Auswahl kann zum Beispiel spezifizieren, welche der erfassten Daten übertragen werden, welche nicht, oder auch mit welcher Qualität, zum Beispiel komprimiert oder unkompri- miert. Eine die Auswertung betreffende Auswahl kann beispielsweise festlegen, welche der Daten ausgewertet werden, welche nicht, oder welche zuerst. Eine zeitliche Auswahl kann entsprechend spezifizieren, wann Daten beispielsweise erfasst, ausgelesen, übertragen oder ausgewertet werden, wann nicht oder mit welcher Rate. Damit sind insgesamt vielzählige Möglichkeiten bereitgestellt zum einen eine Auswahl zu treffen und zum anderen wie mit den ausgewählten und nicht ausgewählten Daten verfahren werden kann, wodurch zahlreiche Optimierungsmöglichkeiten bezüglich Bandbreiteneffizienz und Datenrelevanz bereitgestellt sind. Die Erfindung ermöglicht damit eine deutliche Reduktion der Basisbandbreite, wobei der Gewinn an Breitbreite wiederum umgesetzt werden kann in schnellere Bildraten, schnellere Verarbeitung geringere Latenzzei- ten, geringere Energie oder Prozessorleistungsbedarf, einfacheren Schnittstellen und kostengünstigeren Komponenten.
Die Szenenbildaufnahmeeinrichtung kann dabei im Allgemeinen als eine oder mehrere Kameras ausgebildet sein, beispielswiese als klassischer 2D Sensor, als ein sogenann- ter event-based Sensor und/oder auch als 3D Kamera (z.B. TOF, Depth Map, Stereokamera, usw.).
Bei einer vorteilhaften Ausgestaltung der Erfindung werden die gemäß der Auswahl ausgewählten Umgebungsdaten in einer ersten vorbestimmbaren Weise behandelt, insbesondere mit der Szenenbildaufnahmeeinrichtung erfasst und/oder aus der Szenenbildaufnahmeeinrichtung ausgelesen und/oder an die Auswerteeinrichtung übertragen und/oder von dieser ausgewertet, und die nicht gemäß der Auswahl ausgewählten Umgebungsdaten nicht oder in zumindest einer zweiten von der ersten verschiedenen vorbestimmbaren Weise behandelt, insbesondere wiederum erfasst und/oder ausgele- sen und/oder übertragen und/oder ausgewertet. Dadurch können vorteilhafterweise unterschiedliche Reduktionsmaßnahmen auf die ausgewählten sowie auf die nicht ausgewählten Umgebungsdaten angewendet werden. Beispielsweise können die ausgewählten Umgebungsdaten mit maximaler Qualität erfasst, übertragen und ausgewertet werden, während die nicht ausgewählten Umgebungsdaten beispielsweise gar nicht verwertet werden, wodurch sich die Datenmenge insgesamt auf besonders effektive Weise reduzieren lässt, oder zumindest mit geringerer Qualität erfasst, übermittelt oder mit niedrigerer Priorität ausgewertet werden, was vorteilhafterweise dennoch eine Verwendung dieser Daten bei gleichzeitiger Datenreduktion zulässt.
Bei einer besonders vorteilhaften Ausgestaltung der Erfindung werden die nicht gemäß der Auswahl ausgewählten Umgebungsdaten reduziert, insbesondere wobei die gemäß der Auswahl ausgewählten Umgebungsdaten nicht reduziert werden. Eine derartige Reduktion kann bei einer räumlichen Auswahl beispielsweise dadurch erfolgen, dass nicht ausgewählte Bildbereiche gar nicht erst aufgenommen, an die Auswerteeinrichtung übermittelt oder von dieser ausgewertet werden, oder dass nicht ausgewählte Bildbereiche komprimiert werden, strukturell, zum Beispiel in ihrer Farbtiefe, reduziert werden, oder ähnliches. Eine räumliche Auswahl kann beispielsweise bei Vorhandensein von mehreren Kameras der Szenenbildaufnahmeeinrichtung auch durch eine Wahl einer dieser Kameras zur Datenerfassung der Umgebungsdaten erfolgen. Alternativ werden aus einzelnen oder mehreren Kameras nur ausgewählte Infomationsebe- nen aufgenommen, ausgelesen, übertragen oder verarbeitet. Dies kann betreffen z.B. Reduktion auf Kanten, Tiefeninformationen, Grauwerte, bestimmte Frequensbereiche. Eine räumliche Auswahl hat dabei insbesondere unabhängig davon, ob sie die Erfas- sung, Übermittlung oder Auswertung betrifft, zur Folge, dass zur Auswertung eine gegenüber dem ursprünglich aufgenommenen Bild hinsichtlich seiner Datenmenge reduziertes Bild bereitgestellt ist. Bei einer zeitlichen Auswahl lässt sich die Reduktion beispielsweise dadurch bewerkstelligen, dass Bilddaten entweder gar nicht erst erfasst werden oder mit niedriger Bildfrequenz aufgenommen werden, übertragen werden und/oder ausgewertet werden. Durch all diese Maßnahmen lassen sich vorteilhafterweise die Datenmengen insgesamt reduzieren, wobei dadurch, dass diese Reduktion vorzugsweise nur auf die nicht ausgewählten Umgebungsdaten beschränkt ist, der Informationsverlust bezogen auf relevante Daten möglichst gering gehalten werden kann. Dabei ist es besonders vorteilhaft, wenn zur Reduktion, insbesondere strukturellen Reduktion, der nicht gemäß der Auswahl ausgewählten Umgebungsdaten die nicht gemäß der Auswahl ausgewählten Umgebungsdaten komprimiert werden. Alternativ oder zusätzlich können die nicht gemäß der Auswahl ausgewählten Umgebungsdaten gefiltert werden. Die Datenkompression lässt sich beispielsweise durch Binning oder Färb- komprimierung bewerkstelligen, während bei einer Filterung beispielsweise Farbfilter zum Einsatz kommen können, um zum Beispiel die Farbtiefe zu reduzieren. Auf diese Weise lassen sich die nicht ausgewählten Datenmengen reduzieren, ohne diese vollständig zu verlieren. Für den Fall, dass die ausgewählten Daten dennoch nicht die ge- wünschten Informationen enthalten, kann damit immer noch auf die nicht ausgewählten Daten zurückgegriffen werden. Alternativ oder zusätzlich kann es zur Reduktion der nicht ausgewählten Daten auch vorgesehen sein, dass eine Rate betreffend die Erfassung und/oder das Auslesen und/oder das Übertragen und/oder das Auswerten der nicht gemäß der Auswahl ausgewählten Umgebungsdaten reduziert ist, gegenüber ei- ner Rate betreffend die Erfassung und/oder das Auslesen und/oder das Übertragen und/oder das Auswerten der gemäß der Auswahl ausgewählten Umgebungsdaten. Solange beispielsweise bei den Bildaufnahmen keine relevanten Informationen zu erwarten sind, was beispielsweise durch den mindestens einen ersten Parameter, in Abhängigkeit von welchem diese Auswahl getroffen wird, spezifiziert werden kann, kann bei- spielsweise die Bildaufnahmerate gering gehalten werden und damit auch die zu erfassende, zu übertragende und letztendlich auszuwertende Datenmenge - quasi in Sleepmodus für die Datenaufnahme. In gleicher Weise kann entsprechend auch die Übertragungsrate, oder die Auswertungsrate reduziert sein. Alternativ oder zusätzlich kann es auch vorgesehen sein, dass den nicht gemäß der Auswahl ausgewählten Um- gebungsdaten eine gegenüber den gemäß der Auswahl ausgewählten Umgebungsdaten geringere zeitliche Priorität, insbesondere bei der Auswertung, zugeordnet wird. Dadurch lässt es sich beispielsweise bewerkstelligen, dass zunächst ein relevanter Bildbereich ausgewertet und analysiert wird, und erst wenn die gesuchten Informationen darin nicht gefunden werden, wie beispielsweise zu detektierende Objekte, können zeitlich danach auch die nicht ausgewählten Daten ausgewertet werden. Diese Variante spart enorm viel Zeit bei der Auswertung, da in Bildbereichen mit der Analyse begonnen werden kann, für die die Wahrscheinlichkeit hoch ist, dass dort die gesuchten Informationen beziehungsweise Objekte aufzufinden sind. Im Falle einer 3D Szenenkamera als Szenenbildaufnahmeeinrichtung ist es auch denkbar, dass als Reduktions- maßnähme nur ein Teil der sogenannten Depth Map verwertet wird. Diese Teil kann wiederum in Abhängigkeit von einem Augen parameter des Benutzers sowie in Abhängigkeit von einer oder mehrerer Bildcharakteristiken bestimmt bzw. ausgewählt werden, wie zum Beispiel auf Basis der ermittelten Blickrichtung und deren Schnittpunkt mit ei- nem Objekt, oder auf Basis der Vergenz, dem Akkommodierungszustand des Auges, usw..
Auf welche Weise die nicht gemäß der Auswahl ausgewählten Umgebungsdaten redu- ziert werden, z.B. welche der oben genannten Reduktionsmaßnahmen angewandt wird, kann entweder vorab festgelegt sein oder in Abhängigkeit von einem oder mehreren weiteren Parameter bestimmt werden. Beispielsweise kann dies in Abhängigkeit von der Bildcharakteristik erfolgen. Im Zuge einer Voranalyse eines aufgenommen Bildes kann beispielsweise ermittelt werden, ob um den Bereich des Blickpunkts herum überhaupt Objekte oder weitere Objekte im Bild vorhanden sind. Blickt der Benutzer beispielsweise auf einen bestimmten Punkt auf einer weißen Wand, so kann auf Basis der Voranalyse bestimmt werden, dass die nicht gemäß der Auswahl ausgewählten Daten beispielsweise gar nicht weiterbehandelt werden sollen, anstatt nur komprimiert übertragen oder ausgewertet zu werden. Die Art der Reduktion der Umgebungsdaten kann auch in Abhängigkeit von Vorgaben bezüglich einer maximalen Datenmenge oder Datenrate bei der Übermittlung und/oder Auswertung erfolgen, so dass entsprechend eine Komprimierungsart gewählt wird, die diese Vorgaben erfüllt. Auch kann die Art der Reduktion in Abhängigkeit von einer Anwendung oder im Allgemeinen vom Zeck der Datenanalyse und Verarbeitung gemacht werden. Spielen dabei beispielsweise Farbin- formationen eine untergeordnete Rolle und es kommt vielmehr auf gute Kontraste oder hohe Auflösung an, dann können beispielsweise Farbfilter als Reduktionmaßnahme ausgewählt werden anstatt Komprimierungsverfahren zu verwenden, die die Auflösung insgesamt reduzieren. Die beschriebenen Auswahlparameter für die Reduktionsmaßnahmen sind dabei insbesondere bei Anwendung auf strukturelle und/oder räumliche Reduktionsmaßnahmen vorteilhaft.
Gemäß einer weiteren vorteilhaften Ausgestaltung der Erfindung können die gemäß der Auswahl ausgewählten Umgebungsdaten durch zusätzliche Daten einer von der Szenebildaufnahmeeinrichtung verschiedenen Datenquelle angereichert werden. Derartige Anreicherungen können beispielsweise vorab definierte Hervorhebungen, insbesondere farblich oder auch in Bezug auf den Kontrast, darstellen, eine Annotation durch den Benutzer, zum Beispiel durch Spracheingabe, eine Annotation von biometrischen oder anderen Nutzerdaten, und/oder eine Annotation oder Kombination von Performancedaten bezogen auf eine gerade vom Benutzer durchgeführte Handlung, Aufgabe oder Anwendung. Bei der Auswertung der ausgewählten Umgebungsdaten können diese vorteilhafterweise mit weiteren zusätzlichen Daten ausgewertet werden, und zum Beispiel gerade mit Bezug auf die zusätzlichen Informationen ausgewertet werden. Die Datenquelle kann beispielsweise eine weitere Erfassungseinrichtung, zum Beispiel eine Spracherfassungseinrichtung, eine Gestenerfassungseinrichtung, ein Pulsmessgerät, ein EEG, oder auch ein Speicher, in dem die zusätzlichen Daten abgelegt sind, darstellen.
Um nun geeignet spezifizieren zu können, zum Beispiel welche Bildbereiche eines auf- genommenen Bildes oder wann Bildaufnahmen relevante Informationen enthalten, kommen für den mindestens einen erfassten und zeitlich variablen ersten Parameter ebenfalls mehrere vorteilhafte Möglichkeiten in Betracht, die im Folgenden näher erläutert werden. Besonders vorteilhaft ist es, wenn der mindestens eine erste erfasste Parameter einen Augenparameter mindestens eines Auges des Benutzers darstellt. Zur Erfassung des Augenparameters kann beispielsweise ein Eyetracker dienen. Insbesondere kann der Augenparameter dabei eine Blickrichtung und/oder einen Blickpunkt und/oder ein Blickmuster, insbesondere eine Augenbewegung und/oder Blickfolgebewegung und/oder eine zeitliche Blickpunktabfolge, und/oder einen Augenöffnungszustand darstellen und/oder einer Information über einen Abstand des Blickpunkts zum Benutzer, wie beispielsweise ein Konvergenzwinkel der beiden Augen des Benutzers, darstellen. Die Erfindung beruht dabei auf der Erkenntnis, dass insbesondere Objekte oder signifikante Punkte, wie beispielsweise Ecken oder Kanten von Objekten, die Aufmerksam- keit des Auges erregen, insbesondere im Gegensatz zu zum Beispiel farblich homogenen und nicht strukturierten Flächen. Sieht sich der Benutzer beispielsweise in seiner Umgebung um, so blicken seine Augen ganz automatisch auf hervorstechende Punkte und Bereich, wie Ecken, Kanten oder Objekte im Allgemeinen. Dies kann auf besonders vorteilhafte Weise zur Objektdetektion in der Umgebung des Benutzers genutzt werden, da angenommen werden kann, dass sich mit sehr hoher Wahrscheinlichkeit relevante Objekte, Punkte oder Bereiche an der Stelle der Umgebung befinden, auf die der Benutzer gerade blickt. Die erfasste Blickrichtung kann beispielsweise mit den mittels der Szenenbildaufnahmeeinrichtung erfassten Umgebungsdaten abgeglichen werden, um den Blickpunkt des Benutzers im korrespondierenden Szenenbild zu ermitteln. Anschließend kann beispielsweise ein Bereich um diesen ermittelten Blickpunkt im Szenenbild räumlich ausgewählt werden und damit als relevanter Bildbereich in der ersten vorbestimmbaren Weise behandelt werden, während Bildbereiche außerhalb dieses Bereichs als nicht relevant oder weniger relevant eingestuft werden können und damit nicht oder in der zweiten vorbestimmbaren Weise zur Reduktion der Datenmenge behandelt werden können. Auch eine Information über einen Abstand des Blickpunkts zum Benutzer, wie beispielsweise aus einem Konvergenzwinkel der beiden Augen oder einem Akkommodierungszustand des mindestens einen Auges ermittelbar, kann vorteilhafterweise zum Treffen einer räumlichen Auswahl, insbesondere auch zum Treffen einer dreidimensionalen Datenauswahl genutzt werden. Beispielsweise kann im Falle einer 3D Szenenkamera als Szenenbildaufnahmeeinrichtung nur ein Teil der sogenannten Depth Map verwertet werden, insbesondere auch nur für den ausgewählten dreidimensionalen Bereich. Der Blickpunkt des Benutzers im Szenenbild, insbesondere als 2D Blickpunkt oder auch 3D Blickpunkt, kann dabei insbesondere dadurch ermittelt werden, indem die Szenenbildaufnahmeeinrichtung und der Eyetracker zum Ermitteln der Blickrichtung und/oder des Blickpunkts synchronisiert arbeiten. Beispielsweise kann der Eyetracker zum gleichen Zeitpunkt eine Bildaufnahme eines Auges des Benutzers machen und daraus die Blickrichtung ermitteln, zu dem die Szenenbildaufnahmeeinrichtung eine korrespondierende Bildaufnahme der Umgebung zur Erfassung der Umgebungsdaten macht. Die Szenenbildaufnahmeeinrichtung ist dabei bevorzugt auch so angeordnet und/oder ausgebildet, dass sich das Sichtfeld der Szenenbildaufnahmeeinrichtung zum Großteil mit dem Sichtfeld des Benutzers oder zumindest einem möglichen Sichtfeld des Benutzers überschneidet, und insbesondere dieses vollständig umfasst. Besonders vorteilhaft ist es dabei beispielsweise, wenn die Szenenbildaufnahmeeinrichtung dabei Teil einer am Kopf getragenen Einrichtung darstellt, die zudem auch den Eyetracker umfasst. Bei einer Kopfbewegung des Benutzers wird damit vorteilhafterweise auch die Szenenbildaufnahmeeinrichtung mitbewegt, sodass diese auch immer vorteil hafter- weise in Richtung des Sichtfelds des Benutzers ausgerichtet ist. Denkbar wären jedoch auch Ausgestaltungen, bei denen die Szenenbildaufnahmeeinrichtung nicht am Kopf des Benutzers oder einem sonstigen Körperteil des Benutzers sondern zum Beispiel ortsfest angeordnet ist. Die Szenenbildaufnahmeeinrichtung kann beispielsweise eine oder mehrere Kameras umfassen, die vorzugsweise dann einen möglichst großen Raum winkelbereich eines Raums abdecken. In diesem Fall könnte beispielsweise auch durch die Szenenbildaufnahmeeinrichtung eine Position des Benutzers oder seines Kopfes in Bezug zum Szenenkamerakoordinatensystem ermittelt werden und auch die entsprechend ermittelte Blickrichtung in das Szenenkamerasystem umgerechnet wer- den. Dies ist besonders vorteilhaft, wenn das Szenenkamerasystem entfernt vom Benutzer angebracht ist und die Bandbreite für die Datenübertragung gering oder unzuverlässig ist. In derartigen Fällen erlaubt die Erfindung die Nutzung der zur Verfügung stehende Bandbreite für die für den Benutzer wesentlichen Informationen. Die zu einer Bildaufnahme der Szenenbildaufnahmeeinrichtung zu einem bestimmten Zeitpunkt korrespondierende Blickrichtung muss aber nicht notwendigerweise auf Basis von Bilddaten ermittelt werden, die zum gleichen Zeitpunkt vom Auge des Benutzers aufgenommen wurden. Die Blickrichtung und/oder der daraus resultierende Blickpunkt kann beispielsweise auch auf Basis einer oder mehrerer zeitlich vorher aufgenomme- ner Bildaufnahmen vom Auge prognostiziert werden, zum Beispiel mittels Kaimanfilter oder anderer Verfahren. Die der Blickpunktvorhersage zugrundeliegende Idee besteht dabei darin, dass Augenbewegungen beziehungsweise Blickbewegungen in Sakkaden und Fixationen, insbesondere bewegte und nicht bewegte Fixationen, unterteilt werden können. Eine Sakkade stellt dabei den Wechsel zwischen zwei Fixationen dar. Wäh- rend einer solchen Sakkade nimmt das Auge keine Informationen auf, sondern lediglich während einer Fixation. Weiterhin folgt eine solche Sakkade einer ballistischen Augenbewegung, sodass sich beispielsweise durch Erfassen von Anfangswerten einer solchen Sakkade, wie beispielsweise Anfangsgeschwindigkeit, Anfangsbeschleunigung und deren Richtung, der Zeitpunkt und Ort des Endpunkts einer solchen Sakkade, die letztendlich in eine Fixation mündet, bestimmen und damit vorhersagen lässt. Derartige Blickpunktvorhersagen können vorteilhafterweise auch im vorliegenden Fall genutzt werden, um beispielsweise die Blickrichtung beziehungsweise den Blickpunkt für einen Zeitpunkt vorherzusagen, zu dem dann die Szenenbildaufnahmeeinrichtung ein korrespondierendes Umgebungsbild aufnimmt. Insbesondere kann bei Sakkaden der End- punkt ermittelt und für die nächste zeitliche und/oder räumliche Auswahl am Ende der Sakkade verwendet werden. Damit lassen sich vorteilhafterweise zusätzlich Latenzzeiten verkürzen. Eine räumliche Auswahl kann dann durch Verschieben des auszuwählenden Bereichs oder eines zweiten räumlichen Bereichs an den oder die möglichen Blickpunkte in einem Prädiktionsfernster vorgenommen werden. Aber nicht nur der Blickpunkt oder die Blickrichtung können vorteilhafterweise zur Auswahl relevanter und nicht relevanter Daten genutzt werden, sondern beispielsweise auch ein Blickmuster beziehungsweise Augenbewegungen oder zeitliche Blickpunktab- folgen oder charakteristische Augenbewegungsabfolgen, wie die eben beschriebenen Sakkaden und Fixationen. Derartige Blickmuster können dabei vorzugsweise für eine zeitliche Auswahl besonders vorteilhaft genutzt werden, da wie beschrieben ein Benutzer während einer Sakkade keine Umgebungsinformationen aufnimmt. Damit sind auch die Blickpunkte in einem von der Szenenbildaufnahmeeinrichtung während einer Sak- kade aufgenommenen Bild weniger geeignet, um Aufschluss auf das Vorhandensein relevanter Objekte, Punkte oder Bereiche im Bild zu geben. Dagegen sind jedoch einer Fixation zuzuordnende Blickpunkte im Szenenbild sehr gut geeignet, um ein Indiz für das Vorhandensein relevanter Bildbereiche, Objekte oder Punkte zu liefern. Da auf Basis charakteristischer Augenbewegungen für Sakkade und Fixation diese beiden Zu- stände unterschieden und damit erfasst werden können, sind diese Zustände besonders gut dazu geeignet, eine zeitliche Auswahl bezüglich relevanter Umgebungsdaten zu treffen. Beispielsweise kann es vorgesehen sein, dass nur dann Bildaufnahmen von der Umgebung gemacht werden, wenn eine Fixation erkannt wird. Auch kann die Bildaufnahmerate während einer nicht bewegten Fixation gegenüber einer bewegten Fixa- tion reduziert sein, beispielsweise auch auf eine oder wenige während einer erfassten oder prognostizierten Fixationsphase beschränkt sein, da während einer nicht bewegten Fixation, sich auch der Blickpunkt des Benutzers bezüglich seiner Umgebung nicht ändert. Auch können Blickfolgebewegungen erkannt werden und damit ein bewegtes Objekt von besonderer Bedeutung indiziert sein. Auch aus Pupillenreaktionen lassen sich Rückschlüsse auf die Bedeutung von bestimmten Bildinhalten ziehen und damit eine Auswahl für die Aufnahme, Übertragung oder Anlyse unterstützen. Diese für die Bildaufnahmen beschriebenen Auswahl und Reduktionsmaßnahmen, können in gleicher Weise auch zusätzlich oder alternativ für das Auslesen der Bilddaten, das Übermitteln und deren Auswertung angewandt werden.
Gleiches gilt auch für den Augenöffnungszustand, der ebenfalls besonders geeignet ist, um eine zeitliche Auswahl für die Erfassung, das Auslesen, Übermitteln und/oder das Auswerten der Umgebungsdaten zu treffen. Da das Auge, beispielsweise bei einem Lidschluss, keinen Aufschluss über relevante Bildbereiche liefern kann, kann es vorge- sehen sein, dass auch nur dann Bildaufnahmen von der Umgebung mittels der Sze- nenbildaufnahmeeinrichtung getätigt werden, oder nur dann diese Daten übermittelt oder ausgewertet werden, wenn das Auge geöffnet ist, während wenn ein Lidschluss detektiert wird, auf Bildaufnahmen, deren Übermittlung oder Auswertung verzichtet werden kann oder diese mit geringerer zeitlichen Rate durchgeführt, oder komprimiert übermittelt, oder durch andere Reduktionsmaßnahmen reduziert behandelt werden.
Ein erfasster Augenparameter liefert somit vielzählige vorteilhafte Informationen darüber, wo und wann relevante Informationen in der Umgebung eines Benutzers bezie- hungsweise in den korrespondierenden, von der Szenenbildaufnahmeeinrichtung aufgenommenen Bildern vorhanden sind. Dies ermöglicht es vorteilhafterweise, die räumliche und/oder zeitliche Auswahl so zu treffen beziehungsweise auch zu steuern, dass sich einerseits Datenmengen besonders effektiv reduzieren lassen und sich andererseits der Verlust relevanter Daten auf ein Minimum reduzieren lässt.
Alternativ oder zusätzlich kann es auch vorgesehen sein, dass der mindestens eine erfasste Parameter einen eine Bildcharakteristik eines bei der Erfassung der Umgebungsdaten mittels der Szenenbildaufnahmeeinrichtung aufgenommenen Bildes darstellt und/oder eine Änderung der Bildcharakteristik mit Bezug auf zumindest ein zeitlich vorher aufgenommenes Bild. Besonders vorteilhaft ist es dabei beispielsweise, als Bildcharakteristik den Bildinhalt des aufgenommenen Bildes beziehungsweise die Änderung des Bildinhalts des aufgenommenen Bildes mit Bezug auf ein zeitlich vorher aufgenommenes Bild als den mindestens einen ersten Parameter heranzuziehen, da, wenn sich der Bildinhalt nicht oder nur geringfügig gegenüber einem vorher aufge- nommenen Bild geändert hat, beispielsweise auf bereits vorher ermittelte Ergebnisse zurückgegriffen werden kann, ohne das neu aufgenommene Bild auswerten zu müssen. Beispielsweise kann es auch vorgesehen sein, dass so lange sich der Bildinhalt nicht signifikant ändert, Bilder mit geringerer Rate beziehungsweise Frequenz aufgenommen, übermittelt oder ausgewertet werden, wodurch sich Daten wiederum enorm einsparen lassen. Dieser Bildinhaltsvergleich kann beispielsweise im Zuge einer Vorverarbeitung durchgeführt werden, insbesondere bevor die Bilddaten an die Auswerteeinrichtung übermittelt und von dieser ausgewertet werden. Im Gegensatz zu einer detaillierten Bildanalyse lässt sich ein solcher Bildinhaltsvergleich auf deutlich weniger zeitaufwändige und rechenintensive Weise durchführen. Ein solcher Bildinhaltsver- gleich kann sich dabei auf das gesamte jeweilige aufgenommene Szenenbild beziehen oder auch nur auf einen Teilbereich davon, wie beispielsweise wiederum auf einen vorab räumlich ausgewählten Bereich um den ermittelten Blickpunkt des Benutzers. Anhand eines Ergebnisses eines solchen Vergleichs kann dann beispielsweise entschie- den werden, ob die aufgenommenen Bilddaten überhaupt an die Auswerteeinrichtung übermittelt oder von dieser ausgewertet werden. Weitere vorteilhafte Bildcharakteristiken, die als der mindestens eine erste Parameter herangezogen werden können, sind beispielsweise auch Raumfrequenzen im aufgenommenen Szenenbild, ein Kontrast oder Kontrastverläufe, das Vorhandensein von Objekten, Bereichen oder signifikanten Punkten im Bild, eine Anzahl im Bild vorhandener Objekte, Bereiche Punkte oder auch die Anordnung von im Bild vorhandener Objekte, Bereiche, Punkte, Strukturen, usw.. Derartige Bildparameter beziehungsweise Bildcharakteristiken können vorteilhafterweise herangezogen werden, um insbesondere eine räumliche Auswahl zu treffen bzw. zu steuern, was später näher erläutert wird.
Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung stellt der mindestens eine erste Parameter eine Benutzereingabe oder eine erfasste Benutzercharakteristik oder auch jedes andere externe Ereignis aus anderen Signalquellen oder Inputmodalitäten dar. Derartige Parameter können alternativ oder zusätzlich ebenfalls verwendet wer- den, um beispielsweise die Aufnahme, die Übermittlung beziehungsweise den Transfer und/oder die Analyse beziehungsweise Auswertung von Einzelbildern oder Bildsequenzen auszulösen und insbesondere auch zu steuern oder zu regeln. Zur Erfassung von Benutzereingaben können herkömmliche Steuerelemente wie Tasten, Maus, und so weiter dienen, Gestenerfassung genutzt werden, oder ähnliches. Damit kann der Be- nutzer beispielsweise aktiv signalisieren, wann sich interessante bzw. relevante Objekte in seinem Sichtfeld befinden oder auf diese blickt. Benutzercharakteristiken können beispielsweise durch das Erfassen von Bewegungen eines Benutzers, sein Gestikulieren, durch EEG-Signale, oder ähnliches erfasst werden. Solche Charakteristiken können ebenfalls darüber Aufschluss geben, ob sich gerade interessante Objekte im Sicht- feld des Benutzers befinden oder nicht. Besonders vorteilhaft ist es dabei, derartige Parameter für eine zeitliche Auswahl relevanter Daten vorzusehen.
Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung legt die räumliche Auswahl fest, welcher Bereich der Umgebung als die Umgebungsdaten, insbesondere auf die erste vorbestimmbare Weise, mittels der Szenenbildaufnahmeeinrichtung erfasst wird und/oder aus der Szenenbildaufnahmeeinrichtung ausgelesen wird und/oder an die Auswerteeinrichtung übermittelt wird und/oder von der Auswerteeinrichtung ausgewertet wird. Auf dem gesamten Datenweg von der Erfassung bis zur Auswertung können damit vorteilhafterweise Daten räumlich ausgewählt werden, und dadurch die relevanten Daten charakterisiert werden.
Gemäß einer weiteren vorteilhaften Ausgestaltung der Erfindung wird die räumliche Auswahl derart in Abhängigkeit von einem erfassten Blickpunkt des Benutzers getroffen, dass der Bereich den Blickpunkt umfasst. Wie bereits beschrieben ist der Blickpunkt besonders geeignet, um zwischen relevanten und nicht relevanten oder weniger relevanten Daten selektieren zu können. Damit eignet sich der Blickpunkt besonders gut als der erfasste Parameter, in Abhängigkeit von welchem die räumliche Auswahl getroffen und ggf. auch zeitlich gesteuert wird.
In diesem Zusammenhang kann es weiterhin vorgesehen sein, dass die Größe des Bereichs fest vorgegeben, das heißt nicht variabel beziehungsweise konstant ist. Beispielsweise kann der Blickpunkt des Benutzers in einem korrespondierenden Bild der Szenenbildaufnahmeeinrichtung bestimmt werden und dann ein in Bezug auf seine Größe festgelegter Bereich um diesen Blickpunkt als die relevanten Daten ausgewählt werden. Dieser Bereich kann beispielsweise durch einen fest vorgegebenen Radius um den Blickpunkt vorgegeben sein oder auch als fester Bildanteil in Bezug auf das gesamte aufgenommene Szenenbild. Dies stellt eine besonders einfache, wenig rechenintensive und vor allem zeitsparende Möglichkeit zur Auswahl und Festlegung des Bereichs mit den relevanten Bilddaten dar.
Alternativ kann es auch vorgesehen sein, dass die Größe des Bereichs in Abhängigkeit von mindestens einem zweiten Parameter festgelegt beziehungsweise gesteuert wird. Damit sind besonders flexible Auswahlmöglichkeiten bezüglich der relevanten Bildda- ten bereitgestellt. Dies ermöglicht beispielsweise eine adaptive Anpassung, um noch besser zwischen relevanten und nicht relevanten Daten um den Blickpunkt herum unterscheiden zu können. Als diese zweiten Parameter eignen sich dabei vor allem wiederum eine Bildcharakteristik eines bei der Erfassung der Umgebungsdaten mittels der Szenenbildaufnahmeeinrichtung aufgenommenen Bildes und/oder ein Maß für eine Genauigkeit und/oder Dynamik des ermittelten Blickpunkts des Benutzers und/oder mindestens ein Geräteparameter, wie beispielsweise Übertragungsqualität, Latenzzeiten oder Performance des Verarbeitungsgeräts, einer Vorrichtung umfassend die Sze- nenbildaufnahmeeinrichtung und/oder die Auswerteeinrichtung, und/oder eine Größe eines sich in vorbestimmter Nähe des Blickpunkts oder auch in zumindest teilweise Überdeckung mit dem Blickpunkt des Benutzers befindlichen Objekts in einem bei der Erfassung der Umgebungsdaten mittels der Szenenbildaufnahmeeinrichtung aufgenommenen Bildes. Stellt der zweite Parameter beispielsweise die Bildcharakteristik dar, so kann zum Beispiel auf Basis der Charakteristik des Bildinhalts, wie zum Bei- spiel Raumfrequenz um den Blickpunkt, Anzahl oder Eindeutigkeit der Objekte oder relevanter Punkte, Objektcluster, Feature Cluster, Kontraststärke um den Blickpunkt oder erkannter Objekte hinter, vor oder um den Blickpunkt, herangezogen werden, um die Größe und auch den Grenzverlauf des festzulegenden Bereichs festzulegen beziehungsweise zu steuern. Dies ermöglicht es beispielsweise, den Bereich derart festzule- gen, dass immer ein ganzes Objekt, auf welches der Benutzer gerade blickt, abgedeckt werden kann oder zum Beispiel immer eine zusammenhängende Fläche, oder ausgehend vom Blickpunkt alles bis zur nächsten Kante (Startburst), und so weiter. Daher ist es auch besonders vorteilhaft, die Größe des Bereichs in Abhängigkeit von einer Größe eines Objektes, auf dem sich der Blickpunkt befindet oder welches sich zumindest in vorbestimmter Nähe des Blickpunkts des Benutzers befindet, festgelegt bzw. gesteuert wird, insbesondere so dass immer das ganze Objekt oder auch einer Objektgruppe mit ausgewählt wird. Dies erhöht vorteilhafterweise die Wahrscheinlichkeit, dass die relevanten zu erfassenden Informationen auch vollständig von dem ausgewählten Bereich umfasst sind. Besonders vorteilhaft ist es auch als den zweiten Para- meter das Maß für die Genauigkeit des ermittelten Blickpunkts des Benutzers vorzusehen. Ist die Eyetracking-Qualität beispielsweise schlecht, so kann es sein, dass der ermittelte Blickpunkt stark vom eigentlichen Blickpunkt des Benutzers abweicht. Damit dennoch möglichst alle relevanten Daten erfasst werden beziehungsweise ausgewählt werden, ist es besonders vorteilhaft, bei geringerer Genauigkeit des ermittelten Blick- punkts den auszuwählenden Bereich um den Blickpunkt zu vergrößern im Gegensatz zum Fall bei höherer Genauigkeit des ermittelten Blickpunkts. Die Genauigkeit des ermittelten Blickpunkts lässt sich durch bekannte Verfahren berechnen beziehungsweise abschätzen, wie beispielsweise aus der Blickqualität des vom Eyetracker aufgenommenen Bildes, der zeitlichen Streuung von Blickpunktwerten, und so weiter. Auch die Dynamik des Blickpunkts kann vorteilhafterweise bei der Steuerung der Größe des Bereichs berücksichtigt werden. Weist der Blickpunkt in seinem zeitlichen Verlauf eine hohe Dynamik auf, d.h. bewegt sich bzw. springt dieser beispielsweise in kurzer Zeit innerhalb eines großen Umgebungsbereichs, so kann auch die Größe des auszuwäh- lenden Bereichs entsprechend größer gewählt werden. Auch können diverse andere Geräteparameter bei der Festlegung der Größe des Bereichs berücksichtigt werden. Zum Beispiel kann bei insgesamt niedriger Performance der Vorrichtung oder geringer Rechenleistung, geringer Übertragungsbandbreite, usw. der auszuwählende Bereich in seiner Größe entsprechend geringer gewählt werden, um die zu übermittelnden, oder auszuwertenden Datenmengen zu reduzieren und damit Latenzzeiten zu verkürzen oder in vorgebbaren Grenzen zu halten. Im Gegensatz dazu kann bei höherer Performance oder Leistungsfähigkeit der Vorrichtung der Bereich auch entsprechend größer gewählt werden. Solche Performanceparameter können beispielsweise sowohl die Übertragung als auch die Auswertung sowie diverse andere Komponenten der Vorrich- tung betreffen. Auch kann es beispielsweise vorgesehen sein, dass der Benutzer selbst oder eine andere Person dem System diesen zweiten Parameter zur Festlegung der Größe des Bereichs vorgeben kann. Damit kann der Benutzer selbst seine Prioritäten bezüglich Zeiteffizienz beziehungsweise Datenreduktion, und Qualität des Ergebnisses festlegen. Je größer der Bereich gewählt wird, desto wahrscheinlicher ist es, dass alle relevanten Informationen von diesem Bereich umfasst sind, während je kleiner dieser Bereich gewählt wird, desto weniger Daten müssen ausgelesen, übertragen und/oder ausgewertet werden.
Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung legt die zeitliche Auswahl fest, wann, insbesondere auf die erste vorbestimmbare Weise, ein Bereich der Umgebung als Umgebungsdaten mittels der Szenenbildaufnahmeeinrichtung erfasst wird und/oder aus der Szenenbildaufnahmeeinrichtung ausgelesen wird und/oder an die Auswerteeinrichtung übermittelt wird und/oder von der Auswerteeinrichtung ausgewertet wird. In gleicher Weise wie bei der räumlichen Auswahl kann damit vorteilhafter- weise eine Auswahl von Daten bezüglich des gesamten Datenwegs erfolgen. Damit sind vielzählige Möglichkeiten zur Datenreduktion bereitgestellt, beispielsweise bereits bei der Datenerfassung, oder erst bei der Übermittlung sowie letztendlich auch erst bei der Auswertung der erfassten Daten. Dabei ist es weiterhin besonders vorteilhaft, wenn die zeitliche Auswahl derart in Abhängigkeit des mindestens einen ersten Parameters getroffen wird, dass nur dann oder in der ersten vorbestimmbaren Weise zum Beispiel mit erhöhter zeitlicher Rate, unkomprimiert, ungefiltert, und so weiter, Bilder und/oder Bildausschnitte mit der Szenen- bildaufnahmeeinrichtung aufgenommen werden und/oder aufgenommene Bilddaten ausgelesen werden und/oder an die Auswerteeinrichtung übermittelt werden und/oder von der Auswerteeinrichtung ausgewertet werden, wenn der mindestens eine erste Parameter ein vorbestimmtes Kriterium erfüllt. Bei der Datenselektion besteht also die Möglichkeit, nicht ausgewählte Daten entweder gar nicht weiter zu behandeln, insbe- sondere auch gar nicht erst zu erfassen, oder diese in reduzierter Weise, wie beispielsweise durch Kompression oder Filterung oder weniger häufig, auszulesen, zu übermitteln und/oder zu verarbeiten. Durch den mindestens einen ersten erfassten Parameter kann so vorteilhafterweise eine zeitliche Steuerung der Auswahl vorgenommen werden, sodass sich wiederum Datenmengen reduzieren lassen indem als weniger relevant eingestufte Daten gar nicht erst behandelt oder zumindest mit geringerer Qualität bedingt durch die Reduktion behandelt werden, ohne dabei die Qualität relevanter Daten zu beeinflussen.
Eine besonders vorteilhafte Ausgestaltung der Erfindung sieht es dabei weiterhin vor, dass das vorbestimmte Kriterium darin besteht, dass erfasst wird, dass ein Blickmuster und/oder eine Augenbewegung und/oder eine Blickfolge und/oder eine Fixation des Auges, die als der mindestens eine erste Parameter erfasst und/oder prognostiziert wird, eine vorbestimmte Charakteristik aufweist. Wie bereits beschrieben, kann durch das Vorliegen einer Fixaktion des Auges auf das Vorliegen relevanter Umgebungsda- ten geschlossen werden, auch langsame und kontinuierliche Augenbewegungen lassen darauf beispielsweise schließen, dass das Auge ein bewegtes Objekt verfolgt, welches als relevante Umgebungsdaten kategorisiert werden kann, usw.. Alternativ oder zusätzlich kann das vorbestimmte Kriterium darin bestehen, dass auf Basis des Öffnungszustands des Auges als der mindestens eine erste Parameter erfasst und/oder prognostiziert wird, dass das mindestens eine Auge des Benutzers geöffnet ist. Gerade bei Verfahren, bei denen der Blickpunkt des Benutzers in Bezug auf Objekte in seiner Umgebung analysiert und ausgewertet werden soll, ist es eine besonders vorteilhafte Möglichkeit, Datenmengen zu reduzieren indem Bildaufnahmen, während welchen der Benutzer seine Augen, zum Beispiel durch Lidschluss, geschlossen hat, gar nicht erst betrachtet werden, da sie keine relevanten Informationen enthalten. Alternativ oder zusätzlich kann das vorbestimmte Kriterium auch darin bestehen, dass auf Basis der Bildcharakteristik als der mindestens eine erste Parameter erfasst wird, dass eine Änderung zumindest eines Teils des Bildinhalts gegenüber zumindest einem Teil des Bildin- halts zumindest eines zeitlich vorher aufgenommenen Bildes ein vorbestimmbares Maß überschreitet. Ändert sich der Bildinhalt nicht oder nicht signifikant, so enthält das neu aufgenommene Bild ebenfalls keine zusätzlichen, neuen oder relevanten Informationen, sodass auch dadurch vorteilhafterweise die Datenmenge reduziert werden kann. Alternativ oder zusätzlich kann das vorbestimmte Kriterium auch darin bestehen, dass eine Benutzereingabe als der mindestens eine erste Parameter detektiert wird. Damit kann der Benutzer dem System selbst mitteilen, wann sich in seinem Sichtfeld besonders relevante Informationen befinden. Alternativ oder zusätzlich kann es auch vorgesehen sein, dass der Benutzer passiv über das Vorhandensein relevanter Informationen in seinem Sichtfeld Aufschluss gibt, beispielsweise dadurch, dass auf Basis einer Benutzercharakteristik, wie beispielsweise EEG-Signale, als der mindestens eine erste Parameter ein vorbestimmter Benutzerzustand erkannt und/oder prognostiziert wird. Auch das Benutzerverhalten, wie beispielsweise Gesten oder ähnliches, können analysiert werden, um über das Vorhandensein relevanter Informationen in der Umgebung des Benutzers Aufschluss zu geben. Diese genannten Kriterien können entweder ein- zeln oder auch in Kombination vorgesehen sein, was vielzählige Möglichkeiten bereitstellt, um Situationen, in welchen relevante Informationen, insbesondere relevante Umgebungsdaten vorliegen, und Situationen, in welchen solche relevante Umgebungsdaten nicht vorliegen, charakterisieren zu können. Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung wird nach dem Erfassen der Umgebungsdaten und vor der Auswertung der Umgebungsdaten eine Vorverarbeitung der Umgebungsdaten durchgeführt, bei welcher die Auswahl getroffen wird und/oder bei welcher die erste vorbestimmbare Weise bestimmt wird, die den gemäß der Auswahl ausgewählten Umgebungsdaten zugeordnet wird, und/oder bei welcher die zweite Weise bestimmt wird, welche der nicht gemäß der Auswahl ausgewählten Umgebungsdaten zugeordnet wird. Eine derartige Vorverarbeitung ist insbesondere dann besonders vorteilhaft, wenn die räumliche und/oder zeitliche Auswahl in Abhängigkeit von einer Bildcharakteristik der als Bild erfassten Umgebungsdaten getroffen werden soll. Dabei kann es zudem auch vorgesehen sein, dass eine erste Auswahl bereits vor der Vorverarbeitung der Umgebungsdaten durchgeführt wird, sodass nur ausgewählte Umgebungsdaten überhaupt einer Vorverarbeitung unterzogen werden. Beispielsweise kann es vorgesehen sein, dass diese erste Auswahl auf Basis des ermittelten Blickpunktes des Benutzers in der korrespondierenden Szenenbildaufnahme getroffen wird, und in der Vorverarbeitung entsprechend nur ein Bereich des Bildes um den ermittelten Blickpunkt auf Bildcharakteristiken hin untersucht wird, wie beispielsweise auf zusammenhängende Flächen oder das Vorhandensein von Objekten, Kanten im Bereich des Blickpunkts, wodurch dann beispielsweise die letztendliche Größe des Bereichs um den Blickpunkt gemäß einer zweiten Auswahl festgelegt wird, sodass dann nur die Daten den Bereich betreffend auch übermittelt oder final ausgewertet werden. Auch kann im Zuge einer solchen Vorverarbeitung festgestellt werden, ob sich der Bildinhalt des aktuell aufgenommenen Szenenbildes in signifikanter Weise gegenüber einem vorher aufgenommenen Bildinhalt geändert hat. Durch eine solche Vorverarbeitung kann auf besonders zeiteffiziente Weise einer Selektion von relevanten und weni- ger relevanten Bildinformationen vorgenommen werden und entsprechend auch für die betreffenden ausgewählten oder nicht ausgewählten Daten die Art ihrer Weiterbehandlung festgelegt werden.
Des Weiteren betrifft die Erfindung eine Vorrichtung mit einer Szenenbildaufnahmeein- richtung zur Datenerfassung von Umgebungsdaten einer Umgebung eines Benutzers und mit einer Auswerteeinrichtung zur Auswertung der erfassten Umgebungsdaten. Dabei ist die Vorrichtung dazu ausgelegt, eine räumliche und/oder zeitliche Auswahl betreffend einer Erfassung der Umgebungsdaten mittels der Szenenbildaufnahmeein- richtung und/oder eine Übertragung der Umgebungsdaten von der Szenenbildaufnah- meeinrichtung zur Auswerteeinrichtung und/oder eine Auswertung der Umgebungsdaten durch die Auswerteeinrichtung in Abhängigkeit von mindestens einem erfassten, zeitlich variablen ersten Parameter zu treffen.
Die für das erfindungsgemäße Verfahren und seine Ausgestaltungen genannten Vortei- le gelten in gleicher Weise für die erfindungsgemäße Vorrichtung. Darüber hinaus ermöglichen die im Zusammenhang mit dem erfindungsgemäßen Verfahren und seine Ausgestaltungen genannten Verfahrensschritte die Weiterbildung der erfindungsgemäßen Vorrichtung durch weitere gegenständliche Merkmale. Insbesondere ist die Vor- richtung dazu ausgelegt das erfindungsgemäße Verfahren oder eines seiner Ausgestaltungen durchzuführen.
Bevorzugt weist die Vorrichtung weiterhin eine Eyetracking-Einrichtung auf, die dazu ausgelegt ist, den mindestens einen ersten Parameter zu erfassen. Dies ist besonders vorteilhaft, da Augenparameter, wie Blickrichtung, Blickpunkt und so weiter besonders geeignet sind, um die mit der Szenenbildaufnahmeeinrichtung aufgenommenen Bilddaten in mehr oder weniger relevante Daten zu selektieren. Des Weiteren ist es vorteilhaft, wenn die Vorrichtung eine am Kopf tragbare Vorrichtung umfasst, beispielsweise eine Augmented Reality Brille, wobei die am Kopf tragbare Vorrichtung die Szenenbildaufnahmeeinrichtung und mindestens eine Anzeigevorrichtung, und vorzugsweise die Eyetracking-Einrichtung, aufweist. Durch eine Augmented Reality Brille können Zusatzinformationen und Objekte eingeblendet und der realen Umgebung überlagert werden. Um eine korrekte Positionierung bezüglich der realen Umgebung solcher eingeblendeten Objekte oder Informationen zu ermöglichen, ist es erforderlich, betreffende Objekte in der Umgebung eines Benutzers zu identifizieren, was durch die Erfindung auf besonders zeiteffiziente und wenig rechenintensive Weise erfolgen kann. Die Auswerteeinrichtung kann beispielsweise ebenfalls in der am Kopf tragbaren Vor- richtung integriert sein, oder auch als externe Auswerteeinrichtung, zum Beispiel als Rechner, Computer, und so weiter, bereitgestellt sein, wobei dann die am Kopf tragbare Vorrichtung dazu ausgelegt ist, die gemäß der Auswahl ausgewählten Daten in der ersten vorbestimmbaren Weise an die externe Auswerteeinrichtung zum Beispiel kabelgebunden oder kabellos zu übermitteln und entsprechend die nicht gemäß der Auswahl ausgewählten Daten in der zweiten vorbestimmbaren Weise oder gar nicht. Durch die Auswahl betreffender Bilddaten lässt sich damit auch bei einer nachfolgenden Videoanalyse des Szenenvideos oder Videobildern der Zeitaufwand deutlich reduzieren. Insgesamt lässt sich die Erfindung in vorteilhafter Weise in vielzähligen Anwendungsfeldern verwenden wie beispielsweise bei mobilem Eyetracking zur Reduktion der Band- breite des Szenenvideos durch Beschränkungen auf den Bereich des fovealen oder erweiterten fovealen Blickpunkts des Benutzers, bei Augmented Reality Anwendungen ebenfalls zur Reduktion der Bandbreite. Zusätzlich kann damit der Bereich der Szene, auf den ein Overlay, das heißt einzublendende Informationen oder Objekte, registriert werden muss, verkleinert werden. Außerdem können Objekte visuell markiert werden, um die Aufnahme mit der Szenenkamera darauf zu beschränken. Auch bietet die Erfindung vorteilhafte und vielzählige Einsatzmöglichkeiten bei der automatischen Szenen- videoanalyse, bei welcher beispielsweise nur ein Bereich um den Blickpunkt in der Szenen übertragen und beispielsweise mit einer Referenz, das heißt mit einem Refe- renzvideo oder einem Referenzbild, registriert wird. In allen Anwendungsfeldern ist damit eine deutliche Reduktion der Basisbandbreite möglich. Vorteilhafterweise können so insgesamt Bildausschnitte, Bildausschnittsinhalte und Aufnahme-, Übertragungs- und Verarbeitungsfrequenz mit bestimmten verfügbaren Steuerungskriterien gesteuert werden, sodass die Datenmenge gegenüber dem ursprünglichen Video deutlich reduziert wird, ohne die jeweils kritische, das heißt relevante Information zu verlieren.
Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele sowie anhand der Zeichnung.
Dabei zeigen:
Fig. 1 eine schematische Darstellung einer Vorrichtung zur Datenerfassung von
Umgebungsdaten und zur Auswertung der erfassten Umgebungsdaten gemäß einem Ausführungsbeispiel der Erfindung;
Fig. 2 eine schematische Querschnittsdarstellung der Vorrichtung zur Datenerfassung und Auswertung gemäß einem Ausführungsbeispiel der Erfindung;
Fig. 3 eine schematische Darstellung von erfassten Umgebungsdaten in Form eines Szenenbildes zur Veranschaulichung eines Verfahrens zur Datenerfassung und Auswertung gemäß einem Ausführungsbeispiel der Erfindung;
Fig. 4 ein Ablaufdiagramm zur Veranschaulichung eines Verfahrens zur Datenerfassung und Auswertung gemäß einem Ausführungsbeispiel der Erfindung; Fig. 5 ein Ablaufdiagramm zur Veranschaulichung eines Verfahrens zur Datenerfassung und Auswertung, insbesondere mit einer räumlichen Auswahl von Umgebungsdaten, gemäß einem Ausführungsbeispiel der Erfindung; und
Fig. 6 ein Ablaufdiagramm zur Veranschaulichung eines Verfahrens zur Datenerfassung und Auswertung, insbesondere mit einer zeitlichen Auswahl, gemäß einem Ausführungsbeispiel der Erfindung. Fig. 1 zeigt eine schematische Darstellung einer Vorrichtung 10 zur Datenerfassung von Umgebungsdaten einer Umgebung 12 eines Benutzers und zu deren Auswertung gemäß einem Ausführungsbeispiel der Erfindung. Die Vorrichtung 10 umfasst dabei eine hier exemplarisch als Brille 14 ausgebildete am Kopf tragbare Vorrichtung, die beispielsweise als Augmented Reality Brille oder Datenbrille ausgebildet sein kann, oder auch als herkömmliche Brille mit oder auch ohne Brillengläser ausgebildet sein. Die am Kopf tragbare Vorrichtung könnte auch in beliebiger anderer Weise, beispielsweise als Helm oder ähnliches, ausgebildet sein.
Diese Brille 14 umfasst weiterhin eine als Szenenkamera 16 ausgebildete Szenenbild- aufnahmeeinrichtung, die frontseitig und in der Mitte der Brille 14 angeordnet ist. Die Szenenkamera 16 besitzt ein Sichtfeld 18, welches in Fig. 1 durch gestrichelte Linien veranschaulicht werden soll. Bereiche der Umgebung 12 innerhalb des Sichtfelds 16 der Szenenkamera 14 können auf dem Bildsensor der Szenenkamera 16 abgebildet und damit als Umgebungsdaten erfasst werden. Dieses Sichtfeld 18 ist dabei vorzugs- weise so ausgebildet, dass dieses sich zumindest zum Teil mit einem Sichtfeld eines Benutzers, welcher die Brille 14 trägt, überschneidet, bevorzugt zum Großteil oder auch vollständig abdeckt. Weiterhin umfasst die Brille 14 einen Eyetracker mit zwei Augenkameras 20a, 20b, die in diesem Beispiel innenseitig am Rahmen der Brille 14 angeordnet sind, sodass diese jeweils Bilder von einem jeweiligen Auge eines Benutzers, der die Brille 14 trägt, aufnehmen können, um diese Bildaufnahmen zum Beispiel zur Blickrichtungsermittlung, Blickpunktsermittlung, Blickmustererkennung, zum Detektieren eines Lidschlusses, und so weiter, auszuwerten. Weiterhin weist die Brille 14 eine optionale Vorverarbeitungseinrichtung 23 auf, von welcher später noch näher erläuterte Vorverarbeitungsschritte der Bildaufnahmen, insbesondere der Szenenkamera 16, durchgeführt werden können. Weiterhin weist die Vorrichtung 10 eine Auswerteeinrichtung 22 auf, welche in diesem Beispiel eine brillenexterne Einrichtung darstellt. Die Auswerteeinrichtung 22 ist weiterhin mit der Brille 14 über eine kommunikative Verbindung 25, beispielsweise eine Datenleitung, drahtlos oder dratgebunden koppelbar. Bei- spielsweise kann es auch vorgesehen sein, dass die Szenenkamera 16 zunächst ein Szenenvideo aufnimmt und die entsprechenden Daten zunächst in einen Speicher (nicht dargestellt) der Brille 14 abgelegt werden, und erst zu einem späteren Zeitpunkt die kommunikative Verbindung 25 zwischen der Brille 14 und der Auswerteeinrichtung 22 hergestellt wird, um die im Speicher abgelegten Daten auszulesen und an die Aus- Werteeinrichtung 22 zu übermitteln. Alternativ könnte diese Auswerteeinrichtung 22 jedoch auch in die Brille 14 integriert sein. Des Weiteren kann die Brille 14 optional Displays 21 aufweisen, mittels welchen beispielsweise zusätzliche digitale Informationen oder Objekte der Sicht auf die Umgebung 12 überlagert eingeblendet werden können. Eine solche Vorrichtung 10 kann nun für vielzählige Anwendungen genutzt werden. Beispielsweise kann mittels der Szenenkamera 16 ein Szenenvideo aufgenommen werden, während ein Benutzer die Brille 14 trägt und sich beispielsweise in der Umgebung 12 bewegt. Währenddessen können die Augenkameras 20a, 20b Aufnahmen von den Augen des Benutzers machen, um daraus die zu den jeweiligen Bildaufnahmen des Szenenvideos korrespondierende Blickrichtung zu ermitteln. Die erfassten Daten können nun beispielsweise an die Auswerteeinrichtung 22 übermittelt werden, die die Bilddaten der Szenenkamera 16 und der Augenkameras 20a, 20b auswertet. Beispielsweise kann dadurch ein Szenenvideo erstellt werden, indem der Blickpunkt des Benutzers zum jeweiligen Zeitpunkt markiert ist. Weiterhin ist es möglich, sich auch den zeitlichen Verlauf des Blickpunkts als Akkumulation dieser Blickpunkte in einem einzigen Bild, zum Beispiel einer Referenzaufnahme, zu veranschaulichen. Eine solche Referenzaufnahme kann beispielsweise ebenfalls eine Bildaufnahme der Umgebung 12 darstellen, die ebenfalls mittels der Szenenkamera 16 oder auch mittels einer anderen Bildaufnahmeeinrichtung getätigt wurde. Um nun die aufgenommenen Blickpunkte auf diese Referenzaufnahme transferieren zu können, müssen die Bildaufnahmen der Szenenkamera 1 6 mit dem Referenzbild registriert werden. Dies kann beispielsweise dadurch erfolgen, dass im Referenzbild signifikante Punkte oder Objekte markiert werden, die in den jeweiligen Bildern des Szenenvideos gesucht und identifiziert werden, um dadurch beispielsweise eine Transformation abzuleiten, die ein jeweiliges Szenen- bild auf das Referenzbild abbildet. Auf diese Weise können dann auch die Blickpunkte des Benutzers zu den jeweiligen Zeitpunkten auf das eine Referenzbild abgebildet werden. Durch die Akkumulation solcher Blickpunkte lassen sich beispielsweise Aussagen darüber treffen, welche Objekte in der Umgebung 12 die Aufmerksamkeit eines Benut- zers erregen, und welcher weniger. Solche Maßnahmen können beispielsweise für Verbraucherverhaltensforschung eingesetzt werden, oder auch andere Studien. Ein solches Prozedere kann dabei nicht nur für einen Benutzer, sondern auch für mehrere Benutzer durchgeführt werden, die beispielsweise jeweils eine solche Brille 14 tragen oder die Brille 14 nacheinander. Zudem können Registrierungsverfahren auch dazu genutzt werden um eine Interaktion, zum Beispiel zwischen mehreren Benutzern, zu ermöglichen sowie auch eine live Analyse z.B. bei einer Besichtigung oder einem Ausprobieren von Verkaufsangeboten/objekten. Beispielsweise können die für einen ersten Benutzer jeweils aktuellen Blickpunkte bezüglich seiner Umgebung ermittelt werden und einem zweiten Benutzer, der beispielsweise die gleiche Umgebung betrachtet, je- doch aus einer anderen Perspektive, diese Blickpunkte des ersten Benutzers über das Display 21 seiner Brille 14 an korrespondierender Stelle, insbesondere auch in Echtzeit, eingeblendet werden, so dass der zweite Benutzer nachvollzeihen kann, auf welche Objekte in der Umgebung der erste Benutzer gerade Blickt. Bei solchen Verfahren fallen üblicherweise sehr hohe Datenmengen an, sodass sowohl die Datenübermittlung sowie auch deren Auswertung extrem zeitintensiv und rechenintensiv ist. Bei anderen Anwendungen, bei denen beispielsweise eine Onlinedatenauswertung erforderlich ist, insbesondere um Echtzeitsysteme bereitstellen zu können, und bei denen zudem die Auswerteeinrichtung zum Beispiel nicht als externe, sondern als in die Brille 14 integrierte Auswerteeinrichtung 22 bereitgestellt sein soll, wodurch die durch die Auswerteeinrichtung 22 bereitgestellte Rechenleistung zusätzlich begrenzt ist, stellen diese großen Datenmengen weiterhin große Probleme bereit. Dies gilt zum Beispiel für Augmented Reality Brillen, bei denen zusätzliche digitale Informationen durch die Brille 14 in die Umgebung 12 eingeblendet werden sollen, und zudem bezüg- lieh der Umgebung 12 auch in der richtigen Position. Ähnlich wie bei der Registrierung von Szenenbildern mit einem Referenzbild müssen hierbei die entsprechend einzublendenden Overlays mit den Umgebungsaufnahmen, die durch die Szenenbilder bereitgestellt sind, registriert werden. Durch die Erfindung wird es nun in vorteilhafter Weise ermöglicht, diese enormen Datenmengen zu reduzieren, ohne dass dabei wesentliche Informationen verloren gehen, was die Qualität eines solchen Verfahrens stark mindern würde. Dies wird dadurch bewerkstelligt, dass eine die Umgebungsdaten betreffende Auswahl getroffen wird. Diese Auswahl kann bei der Datenerfassung mittels der Szenenkamera 16, beim Auslesen der Daten aus der Szenenkamera 16 beziehungsweise deren Bildsensor, beim Übermitteln der Daten an die Auswerteeinrichtung 22 sowie auch beim Auswerten durch die Auswerteeinrichtung 22 erfolgen. Hierzu kann die Vorrichtung 10 zumindest eine Steuervorrichtung aufweisen, die beispielsweise Teil der Vorverarbeitungseinrichtung 23, der Auswerteeinrichtung 22, der Szenenkamera 16 und/oder des Eyetrackers sein kann, oder auch als eine weitere separate Steuervorrichtung ausgebildet sein kann, um die Datenerfassung, das Auslesen der Daten, die Datenübermittlung und deren Auswertung sowie das Treffen der Auswahl zu steuern. Insbesondere können die eine oder mehreren Steuervorrichtungen eine Prozessoreinrichtung aufweisen, die dazu einge- richtet ist, eine oder mehrere Ausführungsformen des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen MikroController aufweisen. Des Weiteren kann die Prozessoreinrichtung Programmcode aufweisen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsformen des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein.
Durch eine die Umgebungsdaten betreffende Auswahl lässt sich vorteilhafterweise eine Datenselektion bezüglich relevanter und weniger relevanter Daten vornehmen. Diese Auswahl kann dabei vorteilhafterweise sowohl zeitlich als auch räumlich getroffen werden. Beispiele für eine räumliche Auswahl werden nachfolgend exemplarisch anhand von Fig. 2 und Fig. 3 näher beschrieben.
Die Auswahl wird dabei in Abhängigkeit von mindestens einem erfassten Parameter getroffen. Dieser Parameter dient dazu, die Relevanz der Umgebungsdaten zu katego- risieren beziehungsweise einzuschätzen. Dabei kommen vielzählige Parameter in Betracht, anhand welcher eine solche Kategorisierung vorgenommen werden kann. Besonders vorteilhaft ist dabei vor allem die Blickrichtung beziehungsweise der Blickpunkt des Benutzers in Bezug auf ein aufgenommenes Szenenbild. Dies ist dadurch bedingt, dass sich das Auge automatisch auf signifikante Bereiche, Punkte oder Objekte in seiner Umgebung richtet. Damit kann der Blickpunkt im Bild vorteilhafterweise dazu genutzt werden, um den wahrscheinlichsten Aufenthaltsort signifikanter Punkte, Objekte oder Bereiche im Szenenbild zu finden.
Fig. 2 zeigt dabei eine schematische Darstellung der Brille 14 der Vorrichtung 10 im Querschnitt sowie ein Auge 24 eines Benutzers, der durch die Brille 14 blickt. Die Szenenkamera 16 nimmt dabei ein Bild 26 (vergleiche Fig. 3) von einem Umgebungsbereich 28 auf, welcher sich im Sichtfeld 18 der Szenenkamera 16 befindet. Des Weiteren nimmt der Eyetracker mit der Augenkamera 20a ein oder mehrere Bilder vom Auge 24 des Benutzers auf, auf deren Basis die Blickrichtung 30 des Auges 24 zum Zeitpunkt der Aufnahme des Umgebungsbildes 26 ermittelt wird. Auf Basis der ermittelten Blickrichtung 30 und des korrespondierend aufgenommenen Szenenbildes 26 kann der Blickpunkt 32 im aufgenommenen Szenenbild 26 berechnet werden.
Fig. 3 zeigt eine schematische Darstellung eines solchen aufgenommenen Szenenbildes 26, mit dem in Bezug auf dieses berechneten Blickpunkts 32. Weiterhin sind mit 34a und 34b Objekte im Szenenbild 26 bezeichnet. Als relevante Bilddaten kann hierbei nun ein Bereich um den Blickpunkt 32 ausgewählt werden, da die Wahrscheinlich- keit, ein Objekt, einen signifikanten Punkt oder Bereich in der Nähe des Blickpunkts 32 aufzufinden, am höchsten ist. Für die Auswahl dieses Bereichs gibt es nun ebenfalls mehrere Möglichkeiten. Bei einer besonders einfachen Ausgestaltung kann die Größe dieses Bereichs durch einen festen Parameter, wie zum Beispiel Bildanteil oder Radius um den Blickpunkt 32 fest vorgegeben sein, wie dies in diesem Beispiel in Fig. 3 für den Bereich 36a veranschaulicht ist. Noch bessere Ergebnisse lassen sich beispielsweise erzielen, wenn sich dieser Bereich adaptiv anpassen lässt, zum Beispiel mittels einer Feedbackschleife. Für eine solche adaptive Anpassung kann beispielsweise die Charakteristik des Bildinhalts, wie zum Beispiel die Raumfrequenz um den Blickpunkt 32, die Anzahl oder Eindeutigkeit von Features oder Feature Cluster, Objekte, interessante- re Bereiche, Kontraststärke um den Blickpunkt 32, betrachtet werden. Die Untersuchung der Bildcharakteristik im Bereich des ermittelten Blickpunkts 32 kann beispielsweise im Zuge einer Vorverarbeitung durch die Vorverarbeitungseinrichtung 23 durchgeführt werden. Dadurch lassen sich zusammenhängende Flächen oder Objekte erkennen, wie in diesem Beispiel das Objekt 34a, und der auszuwählende Bereich 36b kann dann so gewählt werden, dass immer ein ganzes Objekt 34a, das gerade angeschaut wird, oder eine zusammenhängende Fläche oder ausgehend vom Blickpunkt 32 alles bis zur nächsten Kante, durch den ausgewählten Bereich 36b umfasst ist. Eine solche Auswahl ermöglicht nun eine Datenreduktion in besonders vorteilhafter Weise. Beispielsweise kann es vorgesehen sein, dass nur der ausgewählte Bereich 36a, 36b von der Szenenkamera 16 aufgenommen, aus dieser ausgelesen, an die Auswerteeinrichtung 22 übermittelt oder von der Auswerteeinrichtung 22 ausgewertet wird. Alternativ kann es auch vorgesehen sein, dass von dem ausgewählten Bereich 36a, 36b verschiedene Bildbereiche des Szenenbilds 26 in reduzierter Weise weiter behandelt werden, die beispielsweise mit geringerer Auflösung erfasst und durch Komprimierungsalgorithmen komprimiert übermittelt oder ausgewertet werden.
Zudem kann nicht nur ein, sondern beispielsweise auch zwei oder mehrere ausgewähl- te Bereiche bereitgestellt werden, wie in Fig. 3 anhand des ersten ausgewählten Bereichs 36a und eines weiteren ausgewählten Bereichs 36c veranschaulicht werden soll. Dadurch lässt sich beispielsweise eine graduelle oder auch kontinuierliche Datenreduktion aus dem erfassten Blickpunkt 32 ermöglichen. Beispielsweise können so die Bilddaten in unmittelbarer Nähe des Blickpunkts 32 zum Erreichen einer maximalen Quali- tät in unreduzierter Weise behandelt werden, während die Daten außerhalb dieses ersten Bereichs 36a und innerhalb des zweiten Bereichs 36c in reduzierter Weise behandelt werden, beispielsweise komprimiert oder mit geringerer Priorität, während die übrigen Daten außerhalb des Bereichs 36c und des Bereichs 36a gar nicht oder gegenüber den Daten im Bereich 36c in weiter reduzierterer Weise behandelt werden. Damit lässt es sich beispielsweise bewerkstelligen, dass Bildbereiche, je peripherer diese in Bezug auf den Blickpunkt 32 angeordnet sind, mit umso höherer Komprimierung oder anderen Reduktionsmaßnahmen behandelt werden, und Bildbereiche im fovealen Bereich als unkomprimiertes Szenenvideo bereitgestellt werden (zum Beispiel mit H264 pro Macroblock 16x1 6). Damit lassen sich Bilddaten mehreren Relevanzklassen zuordnen, wobei vorzugsweise je weiter Bildbereiche vom Blickpunkt 32 entfernt sind, eine umso geringere Relevanz zugeordnet wird. Auch lassen sich dadurch verschiedene Grade und/oder Arten der Komprimierung anhand des menschlichen Sehvermögens vorsehen. Zur relevanzabhängigen Datenreduktion kann jedoch nicht nur eine räumliche Auswahl dienen, sondern beispielsweise auch eine zeitliche Auswahl von Daten getroffen werden. Eine solche zeitliche Auswahl bedeutet beispielsweise, dass, wenn mehrere Bilder 26 als eine Bildsequenz aufgenommen werden, in Abhängigkeit vom Zeitpunkt ihrer Aufnahme als relevant oder weniger relevant eingestuft werden können und entsprechend zeitlich ausgewählt werden können. Eine solche zeitliche Auswahl kann beispielsweise ereignisgesteuert sein. Wird beispielsweise ein Lidschluss des Benutzers detektiert, oder kann aus anderen Gründen der Blickpunkt 32 für einen bestimmten Zeitpunkt oder Zeitraum nicht bestimmt werden, so können die während dieses Zeit- raums erfassten Bilddaten als weniger relevant eingestuft werden, oder auch gar keine Bildaufnahmen während eines als weniger relevant eingestuften Zeitraums getätigt werden. Auch kann es vorgesehen sein, dass Bilddaten nur dann als relevant eingestuft werden, wenn sie gegenüber einem vorher aufgenommenen Bild eine signifikante inhaltliche Änderung aufweisen. Zudem lassen sich vorteilhafterweise zeitliche und räumliche Auswahl auch beliebig kombinieren. Beispielsweise kann es vorgesehen sein, dass Bilddaten außerhalb eines räumlich ausgewählten Bereichs 36a, 36b mit niedrigerer Frequenz beziehungsweise Rate ausgelesen, übermittelt oder verarbeitet werden, als die den ausgewählten Bereichen 36a, 36b zugeordneten Bilddaten. Fig. 4 zeigt ein Ablaufdiagramm zur Veranschaulichung eines Verfahrens zur Umgebungsdatenerfassung und Auswertung, welches insbesondere räumliche und zeitliche Auswahlen vereint, gemäß einem Ausführungsbeispiel der Erfindung. Gemäß diesem Beispiel werden mittels der Szenenkamera 16 Bilder 26 von der Umgebung 12 eines Benutzers in einer zeitlichen Sequenz, zum Beispiel in Form eines Videos, aufgenom- men, wobei eine jeweilige Bildaufnahme durch S1 6 veranschaulicht ist. Des Weiteren wird auf Basis der Blickdaten, welche vom Eyetracker erfasst werden, für eine jeweilige Bildaufnahme die Blickrichtung in S18 ermittelt und basierend auf der ermittelten Blickrichtung sowie auf der korrespondierenden Bildaufnahme in S20 der Blickpunkt des Benutzers im entsprechenden Bild 26 bestimmt. Zur Datenreduktion ist in diesem Bei- spiel diesem Ablauf jedoch bereits eine zeitliche Auswahl vorgelagert. Hierzu wird zunächst in Schritt S10 überprüft, ob beispielsweise ein Auge des Benutzers geöffnet ist und/oder eine Fixation des Auges erkannt wurde oder für den Zeitpunkt der nachfolgenden Bildaufnahme in S16 prognostiziert wurde. Diese Informationen können beispielsweise ebenfalls auf Basis der vom Eyetracker ermittelten Blick- oder Augendaten erfasst werden. Gemäß einem ersten Ausführungsbeispiel kann es vorgesehen sein, dass erst dann eine Bildaufnahme und eine korrespondierende Blickrichtungsermittlung stattfinden, wenn auch das Auge geöffnet beziehungsweise eine Fixation erkannt oder prognostiziert wurde. Ist dies nicht der Fall, so wird die Überprüfung darauf, ob das Au- ge geöffnet oder eine Fixation erkannt oder prognostiziert wurde, wiederholt, bis dies der Fall ist. Gemäß einer weiteren Ausführungsform kann es aber auch vorgesehen sein, dass für den Fall, dass das Auge geöffnet oder eine bestimmte Augenbewegung, wie die Fixation oder auch eine Sakkade, erkannt wurde, für die Bildaufnahme und die Blickrichtungsermittlung in S12 eine erste Rate festgelegt wird, während, wenn das Au- ge geschlossen oder zum Beispiel keine Fixation erkannt oder prognostiziert wurde, für die Bildaufnahme in S1 6 und die Blickrichtungsermittlung in S18 eine zweite Rate in S14 festgelegt wird, die geringer ist als die erste Rate. Diese Raten beziehen sich dabei auf die Bildaufnahmeraten für die Bildaufnahme in S16 und gegebenenfalls auch auf die korrespondierende Blickrichtungsermittlung in S18. Mit anderen Worten erfolgt die Bildaufnahme solange ein Auge geschlossen ist oder das Auge nicht auf einen bestimmten Punkt oder Bereich fixiert ist, weniger häufig beziehungsweise mit verringerter Rate. Wird dagegen detektiert, dass das Auge geöffnet ist oder eine Fixation erfolgt, wird zu einer höheren Aufnahmerate gewechselt. Diese bleibt erhalten bis wiederum detektiert wird, dass das Auge geschlossen ist, oder für den Fall einer erkannten Fixati- on des Auges zum Beispiel auch nur für eine vorbestimmbare Zeitdauer. Auch kann es im Rahmen dieser zeitlichen Auswahl vorgesehen sein, dass eine Reduktion auf eines oder nur einiger Bilder je Fixation vorgenommen wird. Eine Fixation lässt sich bei- spielswiese auch auf Basis einer offline Fixationserkennung detektieren, was beispielsweise für eine zusätzliche oder alternative Auswahl der Umgebungsdaten bei einer nachträglichen Auswertung der Daten genutzt werden kann.
Eine weitere zeitliche Auswahl könnte optional auch noch in S20 bei der Ermittlung des Blickpunkts 32 im Bild 26 erfolgen. Befindet sich der Blickpunkt 32 des Benutzers beispielsweise außerhalb des Sichtfeldes 18 der Szenenkamera 14 und damit nicht im aufgenommenen Bild 32, so kann die Bildaufnahme verworfen werden und zur nächsten Bildaufnahme übergegangen werden.
Als weiteres optionales Auswahlkriterium bzw. als weitere Auswahlparameter können auch alternativ oder zusätzlich andere biometrische Charakteristiken oder auch externe Signale herangezogen werden, was in SO veranschaulicht werden soll. Hier wird ein biometrisches Signal basierend auf einer erfassten biometrischen Charakteristik des Benutzers, wie beispielsweise eine Pulsrate, eine Pupillenkontraktion, usw. auf das erfüllt sein eines Kriteriums hin geprüft. Alternativ oder zusätzlich kann in SO auch über- prüft werden, ob ein Signal einer externen Vorrichtung empfangen wurde und/oder ob ein solches externes Signal ein Kriterium erfüllt. Derartige Signale können dann beispielsweise herangezogen werden, um das Verfahren zu triggern bzw. zu starten und erst dann mit der Überprüfung in S10 zu beginnen. Derartige biometrische und/oder externe Signale können auch zusätzlich oder alternativ zur Überprüfung in S10 ver- wendet werden, so dass beispielsweise erst dann eine Blickrichtungsermittlung in S19 und eine Bildaufnahme in S16 erfolgt, wenn ein Signal in SO empfangen oder ein solches Signal ein Kriterium erfüllt. Auch kann optional ein solches Signal herangezogen werden, um zu entscheiden, wann die nachfolgend noch näher beschriebene Größenbestimmung des Bildbereichs gemäß S22 durchgeführt wird und wann nicht und bei- spielsweise gleich zu S24 übergegangen wird.
Wurde nun ein Bild 26 in S16 aufgenommen und in S18 die korrespondierende Blickrichtung ermittelt, sowie auch in S20 der korrespondierende Blickpunkt des Benutzers im Bild 26 bestimmt, wird in S22 im Zuge einer räumlichen Auswahl die Größe eines Bildbereichs um den Blickpunkt 32 ermittelt. Um eine möglichst gute Situationsanpassung zu ermöglichen, erfolgt die Größenbestimmung dieses Bildbereichs in diesem Beispiel dynamisch, das heißt in Abhängigkeit von einem oder mehreren weiteren Parametern. Ein solcher Parameter kann beispielsweise die Blickpunktgenauigkeit darstellen, welche in S22a ermittelt wird. Eine Abschätzung der Blickpunktgenauigkeit kann beispielsweise auf Basis von Bildcharakteristiken oder der Bildqualität des durch den Eyetracker aufgenommenen Bildes zur Ermittlung der Blickrichtung und des Blickpunktes erfolgen, durch statistische Auswertung mehrerer Blickdaten, zum Beispiel deren Streuung, oder auch zahlreicher weiterer Parameter. Damit lässt es sich vorteilhafterweise bewerkstelligen, dass die Bereichsgröße größer gewählt wird, wenn die Blick- punktgenauigkeit geringer ist im Vergleich zu einer größeren Blickpunktgenauigkeit. Dadurch lässt es sich bewerkstelligen, dass die Bereichsgröße dynamisch in Abhängigkeit von der Blickpunktgenauigkeit oder im Allgemeinem von einem Qualitätsmaß des ermittelten Blickpunkts 32 gesteuert wird, so dass z.B. der Ausschnittsradius des Bereichs um den Blickpunkt 32 vergrößert wird, wenn die Genauigkeit der Blickpunktermittlung sinkt.
Zusätzlich kann in S22b ein weiterer Parameter ermittelt oder vorgegeben werden, wie beispielsweise ein Schwellwert für die oben beschriebene Blickpunktgenauigkeit, so dass zum Beispiel erst dann eine entsprechende Größenanpassung des Bildbereichs vorgenommen wird, wenn die Blickpunktgenauigkeit diesen Schwellwert unterschreitet und andernfalls die Größe des Bildbereichs immer den gleichen vorbestimmten Wert annimmt oder das Festlegen der Bereichsgröße in S22c unabhängig von der Blick- punktgenauigkeit erfolgt. Auch können in S22b andere Parameter alternativ oder zusätzlich ermittelt werden, wie zum Beispiel wieder biometrische und/oder externe Signale, so dass das Festlegen der Bereichsgröße in S22c auch in Abhängigkeit von solchen Signalen erfolgen kann. Als weiterer Parameter zur Größenbestimmung kann beispielsweise auch eine Bildcharakteristik des aufgenommenen Bildes 26 herangezogen werden. Beispielsweise sollte der den Blickpunkt 32 umfassende Bereich so gewählt werden, dass auch Objekte, auf die der Benutzer gerade blickt, vollständig in diesem Bereich enthalten sind. Solche Bildcharakteristiken lassen sich im Rahmen einer Voranalyse beziehungsweise Vorver- arbeitung des aufgenommenen Bildes 26 ermitteln, bei welcher der Bildinhalt durch Analyse von Raumfrequenzen um den Blickpunkt 32 hin analysiert werden kann, die Kontraststärke um den Blickpunkt 32 berücksichtigt werden kann, das Vorhandensein von Objekten, Kanten, oder ähnlichem um den Blickpunkt 32 herum berücksichtigt werden kann. In Abhängigkeit von diesen in S22a, S22b und S22d ermittelten Parametern wird schließlich in S22c die Bereichsgröße des den Blickpunkt 32 umfassenden Bildbereich des Bildes 26 festgelegt.
An diese räumliche Auswahl kann sich nun nochmal optional eine zeitliche Auswahl anschließen, die im Folgenden beschrieben wird. Gemäß dieser zeitlichen Auswahl kann nun in S24 überprüft werden, ob sich der Bildinhalt entweder gesamten Bildes 26 oder nur der Bildinhalt des in S22 ausgewählten Bereichs signifikant gegenüber einer vorherigen Bildaufnahme geändert hat. Ist dies nicht der Fall, können gemäß einer ersten Ausführungsform alle Bilddaten betreffend die aktuelle Bildaufnahme verworfen werden und zur nächsten Bildaufnahme übergegangen werden. Dies kann solange wiederholt werden, bis in S24 eine signifikante Änderung des Bildinhalts festgestellt wird. Erst dann werden die Daten, zumindest die Bilddaten des ausgewählten Bildbereichs, in S28 an die Auswerteeinrichtung 22 übermittelt. Gemäß einer weiteren Ausführungsform können jedoch auch hier wieder erste und zweite Raten für die Übermitt- lung der Bilddaten festgelegt werden. Wird beispielsweise eine signifikante Änderung in S24 festgestellt, so kann das Übermitteln der Bilddaten des ausgewählten Bildbereichs mit einer ersten Rate in S25 erfolgen. Wird dagegen keine signifikante Änderung in S24 festgestellt, so kann das Übermitteln der Bilddaten zumindest des ausgewählten Bildbereichs mit einer zweiten Rate in S26, die geringer ist als die erste Rate, erfolgen, da in diesem Fall die Bilddaten als weniger relevant einzustufen sind. Wurden nun schließlich in S28 die Bilddaten des ausgewählten Bildbereichs an die Auswerteeinrichtung 23 übermittelt, und insbesondere von dieser ausgewertet, so kann in Schritt S30 überprüft werden, ob die Auswertung dieser Bilddaten erfolgreich war. Dies kann beispielsweise anhand vorbestimmter Kriterien bemessen werden, wie beispielsweise daran, ob Ob- jekte im ausgewählten und ausgewerteten Bildbereich detektiert wurden, ob vorbestimmte Objekte in diesem Bildbereich detektiert wurden, vorbestimmte signifikante Punkte oder Bereiche in diesem Bildbereich wiedererkannt werden konnten, und so weiter. Ist dies der Fall, so kann das Verfahren zumindest für die aktuelle Bildaufnahme beendet sein und es wird optional das beschriebene Verfahren für weitere Bildaufnah- men in gleicher Weise durchgeführt. War die Auswertung in S30 dagegen nicht erfolgreich, zum Beispiel wenn keine Objekte, oder signifikante Punkte identifiziert werden konnten, so kann mit einer Analyse des nicht ausgewählten Bildbereichs fortgefahren werden. Dazu können die in S22 nicht ausgewählten Bildbereiche beziehungsweise diesen zugeordnete Bilddaten zunächst in S32 komprimiert werden, um die Datenmen- ge zu reduzieren, in S34 an die Auswerteeinrichtung 22 übermittelt werden und anschließend von dieser in S36 ausgewertet werden.
Die Erfindung stellt damit vielzählige Möglichkeiten bereit, die Daten gemäß ihrer Relevanz sowohl räumlich als auch zeitlich insbesondere auf unterschiedlichste Weise und nach vielzähligen möglichen Kriterien, ausgewählt werden können, um eine Datenreduktion ohne Verlust relevanter Bildinhalte zu ermöglichen. Die beschriebenen Auswahlschritte können dabei in beliebiger Kombination, sowie auch einzeln umgesetzt werden, wie anhand von Fig. 5 und Fig. 6 anhand vereinfachter Beispiele veranschaulicht werden soll. Fig. 5 zeigt dabei ein Ablaufdiagramm zur Veranschaulichung eines Verfahrens zur Datenerfassung und Auswertung von Umgebungsdaten, gemäß welchen insbesondere nur eine räumliche Auswahl getroffen wird, gemäß einem weiteren Ausführungsbeispiel der Erfindung. Gemäß diesem Verfahren erfolgt in S1 6 wiederum eine Bildaufnahme mittels der Szenenkamera 1 6 von der Umgebung 12 eines Benutzers, wobei der Eye- tracker in S1 8 eine Blickrichtung, die zum Zeitpunkt der Bildaufnahme korrespondiert, ermittelt oder prognostiziert. Aus der ermittelten Blickrichtung und der Bildaufnahme wird in S20 wiederum der Blickpunkt 32 des Benutzers im aufgenommenen Bild 26 be- stimmt. Anschließend wird in S23 eine Bereichsgröße des Bereichs um den Blickpunkt 32 bestimmt. Die Bereichsgröße kann beispielsweise durch einen festen Parameter, wie einen vorbestimmten Radius um den Blickpunkt 32 vorgegeben sein. Anschließend werden die Bilddaten des ausgewählten Bereichs um den Blickpunkt 32 in S28 an die Auswerteeinrichtung 22 übermittelt. Die Bilddaten außerhalb des in S23 festgelegten Bereichs werden dagegen zunächst in S32 komprimiert und erst anschließend in S34 an die Auswerteeinrichtung 22 übermittelt. Diese wertet dann in S38 die übermittelten Daten, gegebenenfalls in vorbestimmter Reihenfolge, zum Beispiel zunächst die des ausgewählten Bildbereichs und erst anschließend die des nicht ausgewählten Bildbereichs, aus. Auch durch dieses Verfahren lassen sich vorteilhafterweise durch eine räumliche Auswahl eines Bildbereichs Bilddaten in relevante und weniger relevante Daten selektieren und durch Kompression der weniger relevanten Daten insgesamt eine Datenreduktion bereitstellen, ohne auf relevante Informationen verzichten zu müssen. Auch bei diesem Verfahren kann optional noch die Erfassung eines weiteren Parameters, wie eines biometrischen Signals oder eines externen Signals, wie in S00 ver- anschaulicht, vorgesehen sein, das beispielsweise die Bildaufnahme in S1 6 und/oder die Blickpunktbestimmung in S20 triggert und/oder in Abhängigkeit von welchem das Festlegen der Bereichsgröße in S23 erfolgt.
Fig. 6 zeigt ein weiteres Ablaufdiagramm zur Veranschaulichung eines Verfahrens zur Datenerfassung und Auswertung von Umgebungsdaten, bei welchen insbesondere eine zeitliche Auswahl bezüglich Datenerfassung getroffen wird, gemäß einem Ausführungsbeispiel der Erfindung. Im Zuge dieser zeitlichen Auswahl wird wiederum im Schritt S10 überprüft, ob das Auge des Benutzers oder ob beide Augen des Benutzers geöffnet sind und/oder eine Fixation des Auges erkannt oder zumindest für den Zeit- punkt der nachfolgenden Bildaufnahme in S16 prognostiziert wird. Ist dies der Fall, so wird in S12 eine erste Rate für die Bildaufnahme in S1 6 festgelegt. Diese erste Rate, das heißt Bildaufnahmerate, bleibt erhalten, das heißt insbesondere für die nachfolgenden Bildaufnahmen, solange weiterhin in S10 erfasst wird, dass das Auge geöffnet und/oder eine Fixation erkannt wird. Ist dies dagegen nicht der Fall oder nicht mehr, so wird in S14 eine zweite Rate für die Bildaufnahme in S16 festgelegt, die geringer ist als die erste Rate, da dann davon ausgegangen werden kann, dass die betreffenden Bildaufnahmen weniger relevante Informationen enthalten und dadurch gleichzeitig Datenmengen eingespart werden können. Nach einer erfolgten Bildaufnahme in S16 werden im Zuge einer Vorverarbeitung der Bilddaten, beispielsweise durch die Vorverarbeitungseinrichtung 23, eine oder mehrere Bildcharakteristiken in S21 ermittelt. Diese Bildcharakteristik kann beispielsweise den Bildinhalt des aufgenommenen Bildes 26 betreffen, wobei im nachfolgenden Schritt S24 überprüft wird, ob sich dieser Bildinhalt in signifikanter Weise, beispielsweise in vorbestimmtem Ausmaß, gegenüber einer vor- hergehenden Bildaufnahme geändert hat. Ist dies der Fall, werden die Bilddaten in S33 an die Auswerteeinrichtung 22 übermittelt. Ist dies jedoch nicht der Fall, so kann von weniger relevanten Bilddaten ausgegangen werden, und diese werden daraufhin zunächst in S31 komprimiert und erst anschließend in S33 an die Auswerteeinrichtung 22 übermittelt, welche die übermittelten Bilddaten daraufhin in S38 auswertet.
Der mit dem Eyetracker berechnete Blickpunkt 32 (2D oder 3D) kann auch hier bezüglich des Szenenkamerakoordinatensystems verwendet werden, um einen relevanten Bildausschnitt räumlich und ggf. zusätzlich zeitlich festzulegen. Dieser Bildausschnitt kann dann auch alleine oder mit einem zusätzlichen Referenzausschnitt, z.B. einem Rahmen am Außenrand des Szenenbildes 26, einigen Zeilen oben, unten oder seitlich im Szenenbild 26, zusammen aus dem Szenenkamerasensor nur ausgelesen, übertragen oder weiterverarbeitet werden. Damit ist also explizit eingeschlossen, dass das gesamte Szenenbild 26 übertragen aber nur ein Bereich als AOI (area of interest) analysiert wird.
In allen Fällen kann zudem eine Vorverarbeitung eines Teiles oder des gesamten Bildes 26 vorgenommen werden um Umfang und Art der Datenreduktion genau zu bestimmen. Dazu würde entweder das ganze oder ein bestimmter Teilbereich des Bildes 26 ausgelesen, dann komplett oder teilweise voranalysiert um dann die Charakteristik und ggf. eine weitere Datenreduktion bzw. -kompression für das weitere Auslesen, die Übertagung und/ oder die finale Verarbeitung zu bestimmen.
Damit lassen sich vielzählige Möglichkeiten bereitstellen, Umgebungsdaten durch räumliche und/oder zeitliche Auswahl gemäß einer Einschätzung ihrer Relevanz auszulesen, zu übertragenden oder auszuwerten, wodurch sich die Datenmengen insgesamt deutlich reduzieren lassen, während gleichzeitig die Wahrscheinlichkeit für den Verlust relevanter Daten oder Informationen gering gehalten werden kann. Damit werden insgesamt eine Vorrichtung und ein Verfahren zur blickgesteuerten Aufnahme von Videos für die effiziente Weiterleitung, Verarbeitung und bevorzugt zur Registrierung relevanter Bildinhalte zueinander und zu anderen Referenzen wie Videos und Bildern bereitgestellt, die es sich zunutze machen, den Blickpunkt im Bild und/oder einen anderen externen Parameter und/oder eine Information oder Bildinhalt oder Bildstruktur entweder einmalig bei der Selektion eines Objekts oder fortlaufend bei der Bestimmung eines relevanten Zielbereichs einzusetzen und dabei entweder die laufenden Blickdaten oder nur die Fixationsdaten auf Basis einer Onlinefixationserkennung einerseits und einer Analyse dieses Bildbereichs andererseits zu verwenden. Nur ein so bestimmter relevanter Zielbereich des Szenenbildes oder Szenenvideos kann dann von der Kamera aufgenommen, ausgelesen oder übertragen und dann vom System, insbesondere der Auswerteeinrichtung, weiterverarbeitet und beispielsweise für eine Registrierung verwendet werden.
Die letztendlich durch die zeitliche und/oder räumliche Auswahl bereitgestellten Umgebungsdaten können in vorteilhafter Weise verwendet werden, um eine effiziente Regist- rierung mit vorher aufgenommenen Referenzbildern oder Videos vorzunehmen und auf Basis dieser Registrierung, die auch für mehrere Nutzer, und damit mehrerer Bildströme, Blickdatenströme gegebenenfalls zusätzliche Input- oder Triggerdaten, parallel o- der hintereinander erfolgen kann, und darauf basierend eine visuelle und quantitative Aggregation und/oder einen Vergleich von Blickverläufen und gegebenenfalls zugehö- rigen anderen Ereignissen, vorzunehmen. Das Referenzbild kann beispielsweise auch ein reduziertes oder unverändertes Szenenbild darstellen oder aus mehreren reduzierten Szenenbildern oder auch unveränderten Szenenbildern zusammengesetzt werden. Weiterhin können die Bilddaten auch verwendet werden, um eine effizientere Registrierung von visuell markierten, beispielsweise durch langes Fixieren oder durch Fixieren und Sprachkommando oder Tastendruck, und so weiter, oder fortlaufend betrachteten, Objekten oder Szenenbereichen mit Überlagerungen in einem transparenten Head- Mounted Display zu erreichen, die nicht das ganze Szenenvideo verarbeiten und/oder durchsuchen muss, beispielsweise wie bei einer Inhaltsanalyse wie durch OCR (optical character recognition) für Schilder, um zum Beispiel nur das Schild zu übersetzen, auf das der Benutzer gerade schaut. Weitere Anwendungsmöglichkeiten sind auch die Bestimmung relevanter Objekte oder Bereiche im Referenzbild und somit eine graduelle Reduktion der Bandbreite der zu analysierenden Bildströme, basierend auf der Idee, dass das Auge der beste„Merkmalsextrah ierer" ist.
Zudem ergeben sich daraus vielzählige weitere Anwendungsmöglichkeiten, in welchen in gleicher Weise große Datenmengen eingespart werden können. Beispielsweise kann einem Benutzer eine Detailansicht, Zoomansicht oder Röntgenansicht eines betrachteten Objekts gegeben werden, es wird eine effiziente simultane Lokalisierung und Abbil- dung (SLAM) und ein Zusammenfügen der Szene beziehungsweise Objekten in der Szene, vorzugsweise unter Benutzung der Winkel und Vergenztiefe zwischen den aufgenommenen Fixationen ermöglicht, um eine 3D-Karte des Raumes zu erstellen, insbesondere über Zeit und eventuell mehrere Benutzer. Dabei kann dafür auch die relative Position des ausgewählten Bereichs auf dem Sensor verwendet werden, bezie- hungsweise ist es denkbar, dass eventuell weitere ausgewählte Bereiche auf dem Sensor relativ zu einem aktuellen ausgewählten Bereich gesetzt werden, um eine robustere Erkennung zu ermöglichen. Zudem ist die Möglichkeit einer Aufwertung der Eigenschaften für registrierte Objekte oder Szenenausschnitte durch Kontextinformationen bereitgestellt, wie beispielsweise einer Entfernung, den Blickverlauf, Fixationsverhalten, und so weiter, um eine Featurezuordnung und Erstellung robuster zu machen. Es wird ein Mosaiking des Referenzbildes ermöglicht sowie eine Verbesserung der räumlichen Auflösung dessen über Zeit und über Benutzer. Zudem können diese Überlagerungen auch als Funktion einer Abweichung des Blickpunktes oder Blickverlaufs von einem Zielobjekt, wie einem Zielblickpunkt oder Zielverlauf, errechnet werden und dann auf Basis von Ziel und Ist positioniert werden.
Die erfindungsgemäße Vorrichtung und das erfindungsgemäße Verfahren lassen sich damit für vielzählige Anwendungsmöglichkeiten einsetzen, in welchen damit deutliche Verbesserungen bei gleichzeitiger enormer Zeitersparnis und Rechenersparnis ermöglicht wird.
Bezugszeichenliste:
10 Vorrichtung
12 Umgebung
14 Brille
16 Szenenkamera
18 Sichtfeld der Szenenkamera
20a, 20b Augenkamera
22 Auswerteeinrichtung
21 Display
23 Vorverarbeitungseinrichtung
24 Auge
25 kommunikative Verbindung
26 Bild
28 Umgebungsbereich
30 Blickrichtung
32 Blickpunkt
34a, 34b Objekt
36a,36b,36c Bereich

Claims

Verfahren und Vorrichtung zur Datenerfassung und Auswertung von Umge- bungsdaten ANSPRÜCHE:
1 . Verfahren zur Datenerfassung von Umgebungsdaten einer Umgebung (12) eines Benutzers mittels einer Szenenbildaufnahmeeinrichtung (1 6) und zur
Auswertung der erfassten Umgebungsdaten mittels einer Auswerteeinrichtung (22),
dadurch gekennzeichnet,
dass eine räumliche Auswahl (36a, 36b, 36c) und/oder zeitliche Auswahl be- treffend
eine Erfassung der Umgebungsdaten mittels der Szenenbildaufnahmeeinrichtung (1 6) und/oder
eine Übertragung der Umgebungsdaten von der Szenenbildaufnahmeeinrichtung (1 6) zur Auswerteeinrichtung (22) und/oder
- eine Auswertung der Umgebungsdaten durch die Auswerteeinrichtung
(22),
getroffen wird, wobei die Auswahl (36a, 36b, 36c) in Abhängigkeit von mindestens einem erfassten, zeitlich variablen ersten Parameter (30, 32) getroffen wird.
2. Verfahren nach Anspruch 1 ,
dadurch gekennzeichnet,
dass die gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten in einer ersten vorbestimmbaren Weise behandelt, insbesondere erfasst und/oder ausgelesen und/oder übertragen und/oder ausgewertet, werden und die nicht gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten nicht oder in zumindest einer zweiten von der ersten verschiedenen vorbestimmbaren Weise behandelt, insbesondere erfasst und/oder ausgelesen und/oder übertragen und/oder ausgewertet, werden.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass die nicht gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten reduziert werden.
Verfahren nach Anspruch 3,
dadurch gekennzeichnet,
dass zur Reduktion der nicht gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten
die nicht gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten komprimiert werden; und/oder
die nicht gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten gefiltert werden; und/oder
eine Rate betreffend die Erfassung und/oder das Auslesen und/oder das Übertragen und/oder das Auswerten der nicht gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten reduziert ist gegenüber einer Rate betreffend die Erfassung und/oder das Auslesen und/oder das Übertragen und/oder das Auswerten der gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten; und/oder den nicht gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten eine gegenüber den gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten geringere zeitliche Priorität, insbesondere bei der Auswertung, zugeordnet wird.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass die gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten durch zusätzliche Daten einer von der Szenebildaufnahmeeinrichtung verschiedenen Datenquelle angereichert werden.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass der mindestens eine erste erfasste Parameter (30, 32) einen Augenparameter (30, 32) mindestens eines Auges (24) des Benutzers darstellt, insbesondere wobei der Augenparameter (30, 32) mindestens einen aus der folgenden Gruppe darstellt:
eine Blickrichtung (30);
ein Blickpunkt (32);
- ein Blickmuster, insbesondere eine Augenbewegung und/oder eine zeitliche Blickpunktabfolge;
ein Augenöffnungszustand;
- eine Information über einen Abstand des Blickpunkts vom Benutzer, insbesondere ein Konvergenzwinkel der beiden Augen des Benutzers.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass der mindestens eine erste erfasste Parameter einen eine Bildcharakteristik eines bei der Erfassung der Umgebungsdaten mittels der Szenenbildauf- nahmeeinrichtung (1 6) aufgenommenen Bildes (26) darstellt und/oder eine Änderung der Bildcharakteristik mit Bezug auf zumindest ein zeitlich vorher aufgenommenes Bild.
Verfahren nach einem der vorhergehenden Ansprüche
dadurch gekennzeichnet,
dass der mindestens eine erste Parameter eine Benutzereingabe und/oder eine erfasste Benutzercharakteristik darstellt.
Verfahren nach einem der vorhergehenden Ansprüche
dadurch gekennzeichnet,
dass die räumliche Auswahl (36a, 36b, 36c) festlegt, welcher Bereich (36a, 36b, 36c) der Umgebung (12) als die Umgebungsdaten, insbesondere auf die erste vorbestimmbare Weise,
- mittels der Szenenbildaufnahmeeinrichtung (1 6) erfasst wird und/oder aus der Szenenbildaufnahmeeinrichtung (1 6) ausgelesen wird und/oder
- an die Auswerteeinrichtung (22) übermittelt wird und/oder
- von der Auswerteeinrichtung (22) ausgewertet wird.
0. Verfahren nach Anspruch 9,
dadurch gekennzeichnet,
dass die räumliche Auswahl (36a, 36b, 36c) derart in Abhängigkeit von einem erfassten Blickpunkt (32) des Benutzers getroffen wird, dass der Bereich (36a, 36b, 36c) den Blickpunkt (32) umfasst.
1 . Verfahren nach einem der Ansprüche 9 oder 10,
dadurch gekennzeichnet,
die Größe des Bereichs fest vorgegeben, das heißt nicht variabel bzw. konstant, ist.
2. Verfahren nach einem der Ansprüche 9 oder 10,
dadurch gekennzeichnet,
die Größe des Bereichs (36a, 36b, 36c) in Abhängigkeit von mindestens einem zweiten Parameter festgelegt bzw. gesteuert wird, insbesondere in Abhängigkeit von
einer Bildcharakteristik eines bei der Erfassung der Umgebungsdaten mittels der Szenenbildaufnahmeeinrichtung (1 6) aufgenommenen Bildes (26); und/oder
- einem Maß für eine Genauigkeit und/oder Dynamik des ermittelten
Blickpunkts (32) des Benutzers; und/oder
mindestens einem Geräteparameter einer Vorrichtung (10) umfassend die Szenenbildaufnahmeeinrichtung (1 6) und/oder die Auswerteeinrichtung (22); und/oder
- einer Größe eines sich in vorbestimmter Nähe des Blickpunkts (32) des Benutzers befindlichen Objekts (34a, 34b) in einem bei der Erfassung der Umgebungsdaten mittels der Szenenbildaufnahmeeinrichtung (1 6) aufgenommenen Bildes (26).
Verfahren nach einem der vorhergehenden Ansprüche
dadurch gekennzeichnet,
dass die zeitliche Auswahl festlegt, wann, insbesondere auf die erste vorbestimmbare Weise, ein Bereich (26; 36a, 36b, 36c) der Umgebung (12) als Umgebungsdaten
- mittels der Szenenbildaufnahmeeinrichtung (1 6) erfasst wird; und/oder
- aus der Szenenbildaufnahmeeinrichtung (1 6) ausgelesen wird;
und/oder
- an die Auswerteeinrichtung (22) übermittelt wird; und/oder
- von der Auswerteeinrichtung (22) ausgewertet wird.
Verfahren nach einem der vorhergehenden Ansprüche
dadurch gekennzeichnet,
dass die zeitliche Auswahl derart in Abhängigkeit des mindestens einen ersten Parameters (30, 32) getroffen wird, dass nur dann oder in der ersten vorbestimmbaren Weise
- Bilder (26) und/oder Bildausschnitte mit der Szenenbildaufnahmeeinrichtung (1 6) aufgenommen werden; und/oder
aufgenommene Bilddaten ausgelesen werden; und/oder
- an die Auswerteeinrichtung (22) übermittelt werden; und/oder
- von der Auswerteeinrichtung (22) ausgewertet werden;
wenn der mindestens eine erste Parameter (30, 32) ein vorbestimmtes Kriterium erfüllt.
Verfahren nach Anspruch 14,
dadurch gekennzeichnet,
dass das vorbestimmte Kriterium darin besteht, dass
erfasst wird, dass ein Blickmusters und/oder eine Augenbewegung und/oder eine Blickfolge und/oder eine Fixation des Auges (24), die als der mindestens eine erste Parameter erfasst und/oder prognostiziert wird, eine vorbestimmte Charakteristik aufweist; und/oder der Offnungszustand des Auges (24) als der mindestens eine erste Parameter erfasst und/oder prognostiziert wird, und darauf basierend er- fasst wird, dass das mindestens eine Auge (24) des Benutzers geöffnet ist; und/oder
auf Basis der Bildcharakteristik als der mindestens eine erste Parameter erfasst wird, dass eine Änderung zumindest eines Teils eines Bildinhalts gegenüber zumindest einem Teil eines Bildinhalts zumindest eines zeitlich vorher aufgenommenen Bildes ein vorbestimmbares Maß überschreitet; und/oder
eine Benutzereingabe als der mindestens eine erste Parameter detek- tiert wird; und/oder
- auf Basis einer Benutzercharakteristik als der mindestens eine erste Parameter ein vorbestimmter Benutzerzustand erkannt und/oder prognostiziert wird.
Verfahren nach einem der vorhergehenden Ansprüche
dadurch gekennzeichnet,
dass nach dem Erfassen der Umgebungsdaten und vor der Auswertung der Umgebungsdaten eine Vorverarbeitung der Umgebungsdaten durchgeführt wird, bei welcher die Auswahl (36a, 36b, 36c) getroffen wird und/oder bei welcher die erste vorbestimmbare Weise bestimmt wird, die den gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten zugeordnet wird, und/oder bei welcher die zweite Weise bestimmt wird, welche den nicht gemäß der Auswahl (36a, 36b, 36c) ausgewählten Umgebungsdaten zugeordnet wird.
Vorrichtung (10) mit einer Szenenbildaufnahmeeinrichtung (1 6) zur Datenerfassung von Umgebungsdaten einer Umgebung (12) eines Benutzers und mit einer Auswerteeinrichtung (22) zur Auswertung der erfassten Umgebungsdaten,
dadurch gekennzeichnet,
dass die Vorrichtung (10) dazu ausgelegt ist, eine räumliche und/oder zeitliche Auswahl (36a, 36b, 36c) betreffend eine Erfassung der Umgebungsdaten mittels der Szenenbildaufnahme- einrichtung (1 6) und/oder
eine Übertragung der Umgebungsdaten von der Szenenbildaufnahme- einrichtung (1 6) zur Auswerteeinrichtung (22) und/oder
- eine Auswertung der Umgebungsdaten durch die Auswerteeinrichtung
(22),
in Abhängigkeit von mindestens einem erfassten, zeitlich variablen ersten Parameter (30, 32) zu treffen. 18. Vorrichtung (10) nach Anspruch 17,
dadurch gekennzeichnet,
dass die Vorrichtung eine Eyetracking-Einrichtung (20a, 20b) aufweist, die dazu ausgelegt ist, den mindestens einen ersten Parameter (30, 32) zu erfassen. 19. Vorrichtung (10) nach Anspruch 17 oder 18,
dadurch gekennzeichnet,
dass die Vorrichtung (10) eine am Kopf tragbare Vorrichtung (14) umfasst, insbesondere eine Augmented-Reality-Brille, wobei die am Kopf tragbare Vorrichtung (14) die Szenenbildaufnahmeeinrichtung (1 6) und mindestens eine Anzeigevorrichtung (21 ) aufweist.
EP16751273.0A 2015-08-07 2016-08-05 Verfahren und vorrichtung zur datenerfassung und auswertung von umgebungsdaten Ceased EP3332284A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15180275 2015-08-07
PCT/EP2016/068815 WO2017025483A1 (de) 2015-08-07 2016-08-05 Verfahren und vorrichtung zur datenerfassung und auswertung von umgebungsdaten

Publications (1)

Publication Number Publication Date
EP3332284A1 true EP3332284A1 (de) 2018-06-13

Family

ID=53886891

Family Applications (1)

Application Number Title Priority Date Filing Date
EP16751273.0A Ceased EP3332284A1 (de) 2015-08-07 2016-08-05 Verfahren und vorrichtung zur datenerfassung und auswertung von umgebungsdaten

Country Status (4)

Country Link
US (1) US20200081524A1 (de)
EP (1) EP3332284A1 (de)
CN (1) CN108139582A (de)
WO (1) WO2017025483A1 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10276210B2 (en) * 2015-11-18 2019-04-30 International Business Machines Corporation Video enhancement
US11284109B2 (en) * 2016-01-29 2022-03-22 Cable Television Laboratories, Inc. Visual coding for sensitivities to light, color and spatial resolution in human visual system
JP6996514B2 (ja) * 2016-10-26 2022-01-17 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US11429337B2 (en) 2017-02-08 2022-08-30 Immersive Robotics Pty Ltd Displaying content to users in a multiplayer venue
EP3635952A4 (de) * 2017-06-05 2020-11-25 Immersive Robotics Pty Ltd Kompression eines digitalen inhaltsstroms
US10511842B2 (en) 2017-10-06 2019-12-17 Qualcomm Incorporated System and method for foveated compression of image frames in a system on a chip
AU2018373495B2 (en) 2017-11-21 2023-01-05 Immersive Robotics Pty Ltd Frequency component selection for image compression
US10893261B2 (en) * 2017-12-06 2021-01-12 Dolby Laboratories Licensing Corporation Positional zero latency
US11695977B2 (en) * 2018-09-28 2023-07-04 Apple Inc. Electronic device content provisioning adjustments based on wireless communication channel bandwidth condition
CN110972202B (zh) 2018-09-28 2023-09-01 苹果公司 基于无线通信信道带宽条件的移动设备内容提供调节
US11808941B2 (en) * 2018-11-30 2023-11-07 Google Llc Augmented image generation using virtual content from wearable heads up display
DE102020105196A1 (de) * 2020-02-27 2021-09-02 Audi Aktiengesellschaft Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer Datenbrille
US11354867B2 (en) 2020-03-04 2022-06-07 Apple Inc. Environment application model
CN113467605B (zh) 2020-03-31 2024-04-02 托比股份公司 用于对可视化数据进行预处理的方法、计算机程序产品和处理电路系统
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100883065B1 (ko) * 2007-08-29 2009-02-10 엘지전자 주식회사 모션 검출에 의한 녹화 제어장치 및 방법
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
EP2499960B1 (de) * 2011-03-18 2015-04-22 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Verfahren zur Bestimmung von mindestens einem Parameter aus zwei Augen durch Einstellen der Datenraten und optische Messvorrichtung
US9897805B2 (en) * 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
EP2642425A1 (de) * 2012-03-22 2013-09-25 SensoMotoric Instruments GmbH Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung

Also Published As

Publication number Publication date
US20200081524A1 (en) 2020-03-12
WO2017025483A1 (de) 2017-02-16
CN108139582A (zh) 2018-06-08

Similar Documents

Publication Publication Date Title
WO2017025483A1 (de) Verfahren und vorrichtung zur datenerfassung und auswertung von umgebungsdaten
DE102007056528B3 (de) Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
EP2828794B1 (de) Verfahren und vorrichtung zum auswerten von ergebnissen einer blickerfassung
EP2157903B1 (de) Verfahren zur wahrnehmungsmessung
DE102004044771B4 (de) Verfahren zur bildbasierten Fahreridentifikation in einem Kraftfahrzeug
EP3394708B1 (de) Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system
WO2015117907A2 (de) Selektiv-adaptiver datenprozessor
WO2017153355A1 (de) Verfahren und vorrichtung zum durchführen einer blickabbildung
WO2017153354A1 (de) Verfahren und vorrichtung zum bewerten von blickabbildungen
DE112018005191T5 (de) System und Verfahren zur Verbesserung des Signal-Rausch-Verhältnisses bei der Objektverfolgung unter schlechten Lichtbedingungen
EP3123278B1 (de) Verfahren und system zum betreiben einer anzeigevorrichtung
DE102016006242B4 (de) Anzeigevorrichtung des kopfgetragenen Typs, Steuerverfahren für Anzeigevorrichtung des kopfgetragenen Typs, Bildverarbeitungssystem und Speichermedium
DE112017003723T5 (de) Verbesserte Steuerung einer robotischen Prothese durch ein kognitives System
DE102009035422B4 (de) Verfahren zur geometrischen Bildtransformation
DE112021005703T5 (de) Informationsverarbeitungseinrichtung und informationsverarbeitungsverfahren
DE102023002197A1 (de) Verfahren und Einrichtung zur Bildanzeige für ein Fahrzeug
DE102019123220A1 (de) Zusammenfassen von Videos von mehreren sich bewegenden Videokameras
DE10046859B4 (de) System zur Blickrichtungsdetektion aus Bilddaten
DE112017007162T5 (de) Gesichtsermittlungsvorrichtung, dazugehöriges Steuerungsverfahren und Programm
DE102020214824A1 (de) Verfahren zum Betreiben eines Visualisierungssystems bei einer chirurgischen Anwendung und Visualisierungssystem für eine chirurgische Anwendung
DE102007001738B4 (de) Verfahren und Computerprogrammprodukt zur Blickerfassung
DE102020204612A1 (de) Verfahren zum Bestimmen eines zeitlichen Temperaturverlaufs eines Körperteils eines Lebewesens, sowie elektronisches Bestimmungssystem
DE102016009142A1 (de) Blickbasierte Aktionssteuerung durch adaptive Erkennung von natürlichen Objektauswahlsequenzen
DE202018006796U1 (de) System zur Vorhersage blickbezogener Parameter
DE102020113972A1 (de) Videoanalyse- und -managementtechniquen für medienerfassung und -aufbewahrung

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20180207

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: APPLE INC.

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: APPLE INC.

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20190909

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20231109