EP3376944A1 - System for formulating, emitting and interpreting a composite stream and associated method - Google Patents

System for formulating, emitting and interpreting a composite stream and associated method

Info

Publication number
EP3376944A1
EP3376944A1 EP16828759.7A EP16828759A EP3376944A1 EP 3376944 A1 EP3376944 A1 EP 3376944A1 EP 16828759 A EP16828759 A EP 16828759A EP 3376944 A1 EP3376944 A1 EP 3376944A1
Authority
EP
European Patent Office
Prior art keywords
data
interest
encoding
environment
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP16828759.7A
Other languages
German (de)
French (fr)
Inventor
Stéphane CURCIO
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Synapsys SA
Original Assignee
Synapsys SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Synapsys SA filed Critical Synapsys SA
Publication of EP3376944A1 publication Critical patent/EP3376944A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4863Measuring or inducing nystagmus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process

Definitions

  • the invention relates to a method for transmitting a composite data stream, said data being composed of data of interest and environment data respectively characterizing the digital production of information of interest and environmental information included. in one or more study information previously captured by capture means.
  • the invention further relates to a method for interpreting and exploiting such a composite data stream and a system for implementing said methods.
  • the invention relates to the transmission of a video stream in a videonystagmoscopy system used to observe eye movements in humans or animals or more generally a subject of study, and look for a possible nystagmus.
  • a nystagmus is an involuntary and jerky motion of the eyeball caused by a disturbance of the muscles of the eye.
  • the observation of a nystagmus may, by way of non-limiting example, make it possible to determine a dysfunction of the inner ear of a patient that may cause a feeling of vertigo.
  • Dizziness is an erroneous sensation of movement of the body relative to the surrounding space, usually reflecting dysfunction or imbalance between the two vestibular apparatus of the inner ear of a human or animal.
  • Each vestibular apparatus is composed of several sensors, such as semicircular canals and otolithic organs, whose walls are covered with ciliated sensory cells bathed in endolymphatic fluid.
  • the semicircular canals detect the amplitude of the angular rotation of the head, while the otolithic bodies detect the vertical and / or horizontal linear accelerations of the head as well as the inclination of the head with respect to the axis of the head. gravity.
  • the hair cells move and transmit information related to the rotation to the nervous system via the vestibular nerve.
  • the interpretation by the patient's nervous system of such information causes movements of the eyeball in order to guarantee the stability of the gaze and the stability of the patient's posture.
  • said stabilizations are not performed correctly causing nystagmus, as well as the feeling of vertigo.
  • a videonystagmoscopy system generally comprises a helmet, a mask or glasses comprising one or more cameras and an electronic device, such as by way of non-limiting examples a tablet or a personal computer.
  • an examination of the inner ear commonly called vestibular examination
  • the patient's eye is plunged into darkness thus preventing its inhibition at fixation, which could alter the outcome of the examination.
  • the movements of the eyeball are therefore only caused by the patient's nervous system following information received from the sensors of the inner ear said patient.
  • the camera generally of infra ⁇ red type, captures a succession of images in order to create a video stream.
  • the latter is transmitted to the electronic device, responsible for rendering images or graphics via a man-machine rendering interface, such as by way of non-limiting example a computer screen or a printer.
  • a man-machine rendering interface such as by way of non-limiting example a computer screen or a printer.
  • the practitioner can therefore analyze the restitution and make a diagnosis in the light of this tool.
  • the observation of a nystagmus requires a high resolution of the image. Indeed, the horizontal and / or vertical jerky motions of the eyeball and / or its twists are low amplitude events. In addition, said events can be very short.
  • the video stream must therefore be transmitted between 25Hz and 200Hz for images in 256 gray levels and up to a size of 640x480 pixels.
  • the stream thus generated between the infrared camera and the electronic device conveys a large amount of information expressed in the form of bit frames, thus occupying a large bandwidth.
  • videonystagmoscopy systems generally comprise a mask and a device communicating by wire connection, for example by means of a cable with USB type connector, acronym for "Universal Sériai” Bus “according to an Anglo-Saxon terminology.
  • USB type connector acronym for "Universal Sériai” Bus “according to an Anglo-Saxon terminology.
  • Such systems have the disadvantage of hindering the practitioner and the patient during the examination. Indeed, during an examination of the vestibular system, the practitioner must rotate the head of said patient from left to right, shake the patient's head and / or rotate at different speeds the chair on which the patient sits, in order to observe possible eye distortions and determine which organ is malfunctioning and causing vertigo.
  • the disadvantage of this system thus lies mainly in said cable that connects the camera positioned in front of the patient's eyes to the practitioner's computer. Indeed, this cable can wrap around the patient during the examination.
  • the USB standard may have insufficient bandwidth thus causing delays in receiving data packets or loss of data packets.
  • the invention makes it possible to respond particularly effectively to all or some of the disadvantages raised by the solutions mentioned above.
  • the invention proposes to reduce the volume of data to be transmitted by performing processing upstream of the transmission. Indeed, the invention provides to delegate to a microcontroller previously installed in videonystagmoscopy glasses and cooperating with the camera, local processing upstream of the transmission, in order to reduce the volume of data exchanged with an electronic device to the right useful information for the medical use that is made of the product. Indeed, during a vestibular examination, it suffices to observe the iris and the pupil of the patient's eye to diagnose a possible dysfunction of the inner ear, the rest of the image having a lower interest. or at least not requiring the same precision.
  • the invention therefore provides initially for compressing and encoding the data of interest Di related to the zone of interest Zi according to a first encoding function F1 and the environment data Dn related to the zone d Zn environment according to a second encoding function F2, said first encoding function having a data loss rate related to zero or low data compression with respect to said second encoding function F2.
  • the data of interest Di and the Dn environment data thus encoded will respectively be called encoded interest data Di 'and encoded environment data Dn'.
  • function F1, F2 is understood to mean any transcription of data of a first format into a second format, which may comprise a step of compressing the data.
  • a function F1, F2 may, by way of non-limiting example, consist in transcribing the digital representation R (t) of physical quantities captured by a matrix sensor of a camera encoded according to the ASCII standard, which stands for "American Standard Code for Information Interchange "according to an English terminology, in a standard JPEG acronym for" Joint Photographic Expert Group "according to English terminology.
  • Such functions may have reversible or irreversible compression features. Reversible compression is a treatment that guarantees the integrity of the encoded data with respect to the original data, that is, after decompression the encoded data and the original data are identical.
  • a transcription according to the RLE standard is an encoding according to a reversible compression.
  • an irreversible compression is a treatment that reduces the number of data to be encoded, for example by encoding only part of the data, as a non-limiting example, every other data, or by performing a preliminary processing to determine the average of a neighboring data set and encoding said average.
  • a transcription according to the JPEG standard acronym for "Joint Photographic Expert Group” according to a terminology Anglo-Saxon is an encoding according to an irreversible compression.
  • study data processing upstream of their transmission makes it possible to preserve the bandwidth of the communication networks.
  • the study data thus adapted can then be transported according to standard proximity communication protocols, such as non-limiting examples of WIFI or Bluetooth type. Therefore, it becomes possible to use standard communication equipment, thus reducing the hardware costs of the system while preserving the ergonomics and relevance of the system.
  • such a reduction in the volume of study data to be transmitted, said study data being produced from a determined sensor, for example a matrix image sensor, makes it possible, for a bandwidth of a network of given communication, to convey together with said study data other study data produced by one or more other sensors, for example an accelerometer, a gyroscope and / or a second matrix image sensor.
  • a determined sensor for example a matrix image sensor
  • the invention firstly relates to a method for interpreting a composite data stream implemented by a processing unit of an electronic device cooperating with at least one communicating electronic object comprising capture means, said device comprising, in addition to said processing unit, communication means providing a mode of communication with said electronic object at through a communication network.
  • the data flow includes study data previously encoded by the electronic object, said study data comprising data of interest encoded according to a first encoding function and environment data encoded according to a second function of encoding, said study data being previously produced by said means for capturing said electronic object.
  • the method comprises:
  • step for decoding said encoded study data said step consists of decoding said interest and environment data encoded respectively according to determined first and second decoding functions;
  • said message may furthermore comprise a descriptor translating a repository common to the data of interest and to the encoded environment data.
  • the step of jointly exploiting said data of interest and decoded environment data can therefore consist in producing restitution data from the decoded data of interest and environment and of said common repository.
  • the method may comprise a step, prior to the step of receiving a message comprising data of interest and encoded environment data, to elaborate and trigger the transmission by the communication means to the electronic object of a control request interpretable by said electronic object comprising a first encoding parameter and a second encoding parameter, said first and second parameters being different.
  • the method may comprise a step, prior to the step of receiving a message comprising data of interest and encoded environment data, for developing and triggering the transmission by the communication means to the electronic object of a control request interpretable by said electronic object comprising a parameter of area of interest designating data of interest in the data of studies produced by the means of capture of the electronic object, said area of interest parameter being interpretable by the electronic object to discriminate the data of interest from the environmental data previously produced by said object.
  • the electronic device may include a rendering interface cooperating with the processing unit of said device.
  • the step of jointly exploiting said data of interest and decoded environment data may consist in producing restitution data.
  • the process can when having a step subsequent to said step for jointly exploiting said data of interest and decoded environment data, to trigger the restitution of said restitution data by the rendering interface.
  • the invention relates to a computer program product comprising program instructions which, when they are previously stored in a program memory of an electronic device comprising in addition to the program memory, a processing unit, and communication means providing a determined communication mode, said program memory and said communication means cooperating with said processing unit, cause the implementation of a method for interpreting a composite data stream, according to the invention .
  • the invention provides an electronic device comprising a processing unit, a program memory, a data memory, communication means cooperating with said processing unit, said device being characterized in that it comprises in the program memory of the instructions of a computer program product according to the invention.
  • the invention provides a method for transmitting a composite data stream implemented by a processing unit of a communicating electronic object cooperating with at least one electronic device, said electronic object comprising in addition said processing unit of the capture means and communication means providing a mode of communication with said electronic device through a communication network.
  • said method comprises:
  • a step for triggering the production of study data by said means for capturing said electronic object said study data consisting of a digital representation of a measured physical quantity
  • the method may comprise a step prior to the step of encoding the data of interest according to a first encoding function and the environment data according to a second encoding function, for receiving via the communication means a control request transmitted from the electronic device comprising a first encoding parameter and a second encoding parameter, and extracting said parameters, said first and second encoding functions respectively being implemented according to the content of the first and second encoding parameters.
  • the method may include a step prior to the step of discriminating in the study data of the data of interest and the environment data according to a discrimination function. , for receiving via the communication means a control request transmitted from the electronic device comprising a zone of interest parameter designating data of interest and extracting said parameter, said discrimination function being implemented according to the content of said parameter of area of interest.
  • the electronic object may further comprise storage means comprising a zone of interest parameter designating data of interest from among the study data.
  • Said method can therefore comprise a step prior to the step of discriminating in the study data of the data of interest and the environment data, to extract from said storage means said parameter of area of interest denoting data of interest. interest and implement a discrimination function according to the content of said parameter.
  • the electronic object may further comprise storage means comprising first and second encoding parameters.
  • the step of encoding the data of interest according to a first encoding function and the environment data according to a second encoding function can therefore consist in extracting the content of said encoding parameters, said first and second encoding functions respectively being implemented according to said content of the first and second encoding parameters.
  • the capture means of the electronic object may comprise a matrix image sensor, the study data produced by said sensor being the digital representation of a scene captured by said matrix sensor.
  • the study data may consist of the digital representation of an eye, and the data of interest may be the digital representation of the iris and the pupil of said eye.
  • the invention relates to a computer program product comprising program instructions which, when they are previously stored in a program memory of a communicating electronic object comprising in addition to said program memory, a processing unit. , communication means ensuring a determined communication mode, and capture means, said program memory, said communication means, and said capture means cooperating with said processing unit, cause the implementation of a method for transmit a composite data stream, according to the invention.
  • the invention relates to a communicating electronic object comprising a processing unit, a program memory, a memory of data, means of communication, capture means cooperating with said processing unit, said object being characterized in that it comprises in the program memory instructions of a computer program product, according to the invention.
  • the capture means may comprise a first capture means and a second capture means for producing first and second study data respectively.
  • the processing unit can therefore implement a method for transmitting a composite data stream, according to the invention, for each of said first and second capture means.
  • the invention relates to a system comprising an electronic device according to the invention, and at least one communicating electronic object according to the invention.
  • said system may consist of a videonystagmoscopy system, for which the electronic device consists of a personal computer and the electronic object into a videonystagmoscopy mask comprising at least one matrix image sensor.
  • the invention relates to a data processing method comprising:
  • a step for triggering a production of study data by means of capturing a communicating electronic object according to the invention said step being implemented by a processing unit of said object; a step for discriminating in the study data of the data of interest and the environmental data by said electronic object;
  • the data processing method may comprise:
  • FIG. 2 is a block diagram of a method according to the invention for interpreting a composite data stream
  • FIG. 3 is a block diagram of a method according to the invention for transmitting a composite data stream
  • FIG. 4 presents a study scene captured by a system according to the invention
  • FIG. 5 shows a reproduction of a composite image by a system according to the invention
  • FIG. 6 shows a logic diagram implemented by a system according to the invention.
  • the invention will be described through an application relating to the development, transmission and interpretation of a composite video stream, such as produced during an examination of the vestibular system of a human or an animal or more generally of a subject of study.
  • a study scene according to the invention in connection with the examination of the vestibular system, comprises the region of an eye 0 of a patient that we will name study zone Ze, as described in FIG. Ze is the area observed by capture means 25, by way of non-limiting example, opposite said eye 0.
  • the study zone Ze includes a zone of interest Zi comprising the pupil P and the iris I of said eye 0 represented by dashed lines in connection with FIG. 4, and an environment zone Zn corresponding to the study zone Ze subtracted from the zone of interest Zi represented by hatching in connection with FIG. 4.
  • FIG. 1 makes it possible to present an exemplary system according to the invention.
  • a system consists of an electronic device 10 cooperating with one or more communicating electronic objects 20, 20-2 via a wired or wireless NI communication link.
  • Such electronic objects 20, 20-2 referenced in the remainder of the document for the sake of simplification, comprise capture means 25 cooperating with a processing unit 21.
  • Such capture means 25 may consist of a matrix sensor or a sensor. single infrared camera.
  • the processing unit 11 is responsible for collecting the data delivered by the capture means 25 and encoding them before transmitting them to the electronic device 10 by means of communication 24.
  • the processing unit 21 therefore advantageously comprises one or several microcontrollers or processors cooperating by coupling and / or by bus wired, represented by double arrows in FIG.
  • the capture means 25 may, in addition or alternatively, provide other study information, for example in connection with the trajectory and / or the movements made by the patient.
  • Such means 25 may therefore, for example, comprise an inclinometer, a gyroscope or an accelerometer or more generally any sensor for determining a movement, such as by way of non-limiting example a movement of the head of a patient .
  • the capture means 25 can measure one or more physical quantities related to the subject of study.
  • the capture means 25 produce a digital representation R (t) of the study area Ze.
  • the latter is recorded in storage means 22, 23 cooperating by coupling and / or wired bus with the processing unit 21.
  • Such storage means 22, 23 may consist of a data memory 23 arranged to record data.
  • the storage means 22, 23 may further consist of a program memory 22 comprising the instructions of a computer program product P2. Said program instructions P2 are arranged such that their execution by the processing unit 21 of the object 20 causes the implementation of a method for developing and transmitting a composite data stream. Such storage means 22, 23 may, optionally alternatively, constitute one and the same physical entity.
  • the recording of a temporal data t characterizing a period of acquisition can be jointly realized with that of the digital representation R (t).
  • the latter, and consequently the capture carried out by the capture means 25, is thus time stamped.
  • the capture means 25 may include a matrix sensor, such as an infrared camera for example.
  • the digital representation R (t) delivered by such a sensor consists of an array of pixels encoding a shade of gray for each of them.
  • the capture means 25 may comprise or be associated with a light emitting diode emitting in the infrared, not shown in Figure 1, to allow adequate illumination for the acquisition of data by said capture means 25.
  • FIG. 1 explicitly only describes a single capture device 25 in the form of a camera, other identical or complementary capture means can also be connected directly or indirectly to the capture unit. 21.
  • a system according to the invention may therefore include, by way of nonlimiting examples, two cameras respectively capturing a scene of interest corresponding to the left eye of a patient and a second scene of interest corresponding to the right eye of the patient.
  • Such a system may further comprise a gyro-type angular sensor to give the angular position of the patient's head in a given reference frame and thus be able to determine, by way of non-limiting example, the direction of rotation of the head or the body. of the patient during an examination.
  • a digital representation R (t) delivered by such an angular sensor could consist of a vector of accelerations along several reference axes.
  • such an electronic object 20 also comprises communication means 24, in the form of a modulator-demodulator enabling the electronic object 20 to communicate through an NI communication network, for example of the Bluetooth or WiFi type.
  • the communication means 25 may further consist of a USB port, "Universal Serial Bus" according to English terminology, to implement a wire-type NI link.
  • such an electronic object 20 may have a battery or more generally any internal electrical source, or be connected to the electrical network in order to draw sufficient electrical energy and necessary for its operation.
  • the use of an internal battery power source will be preferred so as not to hinder the mobility of the object by the presence of an electric cable.
  • an electronic object 20 may consist of non-limiting examples in a mask, glasses or helmet positioned on the head of a patient and having capture means 25. Unlike known solutions , it further comprises a processing unit 21, storage means 22, 23, and communication means 24. Such an object 20 no longer requires wired connectivity to cooperate with a third device.
  • Figure 1 further describes such a third electronic device, such as a personal computer 10 or a touch pad for example.
  • said device 10 comprises a processing unit 11, for example in the form of one or more microcontrollers or processors cooperating with storage means 12, 13, in the form of a memory of programs 12 and a data memory 13, said data memory 12 and programs 13 can be dissociated or possibly form one and the same physical entity.
  • the electronic device 10 can be adapted to interpret a composite data stream by the loading of a computer program product PI according to the invention into the program memory 12.
  • Said electronic device 10 thus adapted, becomes capable of receiving, interpreting and operating a composite data stream in the form of one or more incoming Ml messages conveyed by an NI communication network, advantageously exploiting a Wi-Fi or Bluetooth type wireless communication protocol.
  • the invention does not exclude as such a wired communication mode, for example USB type, in order to no longer be penalized by the bandwidth limits imposed by such a link.
  • the electronic device 10 thus comprises communication means 14 arranged to provide such communication, by receiving M1 messages previously encoded by an electronic object 20.
  • the storage means 12, 13 and the communication means 14 advantageously cooperate with the unit. 11 by one or more communication buses, represented by double arrows in FIG.
  • the data memory 13 can be arranged to record the content of messages Ml received by the communication means 14.
  • An electronic device 10 furthermore advantageously comprises a man-machine interface of instruction and / or reproduction 1D cooperating with the processing unit 11.
  • Said interface 1D makes it possible to restore to a user U of said device 10, for example the content of the data. transmitted by the electronic object 20 or produced by the processing unit 11 of said device 10.
  • Said man / machine interface setpoint and / or restitution 1D can also be used to translate a gesture or a voice command of said user U data. setpoint C interpretable by the processing unit 11 of said device 10.
  • Such a 1D interface may for example consist of a touch screen or be in the form of any other means allowing a user U of the device 10 to interact with said electronic device 10.
  • the electronic device 10 may comprise two separate man-machine interfaces for translating instructions ema a user U and to restore to it graphical and / or sound contents.
  • a setpoint interface may consist of a keyboard or a microphone and such a rendering interface may consist of a screen or a speaker.
  • a capture means 25 for example of image matrix sensor type, captures the eyeball of a patient.
  • the zone of interest Zi is therefore composed of the pupil P and the iris I of an eye 0 and the zone of environment Zn of the eyeball and the eyelid of the patient, as shown in connection with FIG.
  • Figure 3 depicts a block diagram according to the invention of a method 200 for developing a composite data stream.
  • a method 200 according to the invention and implemented by a processing unit 21 of an electronic object 20 as described in connection with FIG. 1, comprises a first step 202 for triggering the capture of a zone or scene of Ze study.
  • Said step 202 consists in producing a digital representation R (ti) of the study zone Ze in connection with a current period ti.
  • the data of studies characterizing the computer transcription of the digital representation R (ti) are stored within the storage means 22, 23, for example in the form of an array structure of integers, each field being respectively associated with the different pixels and describing a gray level of said associated pixel, such as for example a zero value describing a low gray level such as black and a value equal to 256 describing a high gray level such as the White.
  • Such a structure may furthermore, and by way of nonlimiting example, record one or more attributes related to the capture of the study scene. For example, such an attribute can record the acquisition period ti and an identifier Idc characterizing the capture means 25.
  • the method 200 also comprises a step 203 for discriminating, among the data of studies De, data of interest Di and data of environment Dn.
  • a step 203 consists in implementing a discriminating function or treatment that makes it possible to identify and to isolate data of interest Di according to a predefined criterion. For example, we will try to dissociate the Di data in relation to the P pupil and the iris I of the studied eye with regard to the Dn data in relation to the rest of the eyeball.
  • a discrimination function may consist in analyzing the digital representation, ie the data of studies De, of the captured study area, for example in the form of an array of pixels comprising the light intensities.
  • Such image analysis methods may, by way of nonlimiting example, consist firstly of performing a thresholding of the study data De in order to obtain a binarized digital representation of the image, ie say having only two values.
  • Such thresholding may for example consist of replacing the value of the gray level by a value of zero of all the pixels having a gray level lower than a predetermined value and replacing the value of gray level by a value of level maximum gray level of all pixels having a gray level greater than or equal to said predetermined value.
  • the predetermined value can be set at 125.
  • Another thresholding technique may consist in calculating the histogram of the image, that is to say, determining the distribution of the luminous intensities of the pixels of the image, then make a modification of the general intensity of the image to increase the shades of gray in order to increase the contrasts.
  • a so-called cleaning step can implement a so-called cleaning step.
  • the cleaning may consist, for example in a morphological analysis of the image from predetermined rules. For example, a pupil of an eye is usually circular in shape.
  • Such a cleaning can therefore consist in excluding from the image analysis all the non-circular shaped areas, such as, for example, the oblong shapes that can characterize a makeup area on the top of the eyelid of the eye. 'eye.
  • Such an image analysis method may comprise a calculation step for roughly estimating the location of the pupil.
  • a step may, for example, consist in virtually isolating a group of pixels representing a disk and having a low gray level close to black, and then determining the center of said disk, for example by calculating its center of gravity.
  • the discrimination function can provide for defining a geometrical shape around said center, for example a square or a circle of determined sides or radius, said geometric shape including the pixels of the area of interest, in this case the pupil and the iris.
  • said geometric shape may consist of a square of sides of 12 millimeters or 144 pixels.
  • the invention therefore provides for discriminating the data of interest Di as being written in a second integer array memory structure associated with the only pixels captured by said geometric shape.
  • a second data structure Di can be recorded as a non-limiting example, in the data memory 23 of said object 20.
  • the environment data Dn may consist of the structure recording the study data From or, as a variant, result from a copy of this data for which, the intensity values associated with the pixels of interest have been replaced by a predetermined value, for example zero.
  • the storage means 22, 23 of the electronic object 20 comprise a recording arranged for storing parameters of area of interest P1 making it possible to discriminate the data of interest Di within the study data.
  • Such parameters thus denote the data Di.
  • area of interest parameters PI may correspond to a pair of X, Y coordinates denoting a reference pixel, that is to say the data associated with said pixel when they are arranged. advantageously in the form of an array in storage means 22, 23 of the object 20.
  • Such parameters of area of interest PI may further comprise a pair of values W, H characterizing a width and / or a length a geometric figure, such as for example a square, delimiting a desired area of interest.
  • Step 203 for discriminating the data of interest Di from the data of studies D and thus to distinguish them from the environment data Dn, consists therefore in extracting said parameters of area of interest P1 and in implementing a function discriminating according to the content of said parameters of area of interest PI.
  • the data of interest Di can correspond to the set of data De studies.
  • the method 200 therefore comprises a step 204 for encoding the data of interest Di according to a first encoding function F1 and the environment data Dn according to a second encoding function F2.
  • the encoding functions F1, F2 can respectively rely on encoding parameters E1, E2, characterizing an encoding standard, a desired image resolution, expressed in number of pixels, and / or irreversible compression parameters characterizing a grouping ratio of pixels known under the name "binning" according to English terminology, etc.
  • first encoding parameters El can characterize an attribute translating a RLE standard, an acronym for "Run Length Encoding" according to an English terminology, an attribute characterizing an image of 744 ⁇ 480 pixels, an attribute characterizing a zero binning rate, a attribute requiring transmission of all light intensities of the pixels.
  • the second encoding parameters E2 encoding the environment data Dn can, on the other hand, characterize an attribute expressing a JPEG standard, an attribute characterizing an image of 320 ⁇ 240 pixels, an attribute characterizing a binning rate of 50%, and an attribute characterizing the transmission of light intensities of only pixels of odd rank.
  • the data of interest Di thus encoded can then be recorded in the form of a data table. It is the same for the environment data Dn encoded, hereinafter denoted Dn '.
  • the data memory 23 can thus comprise a table of encoded environment data Dn 'and a table of encoded interest data Di'. We can notice that according to the content of parameters E1 and E2, the data of interest encoded Di 'can be less degraded than the encoded environment data Dn'.
  • Such encoding parameters E1, E2 can advantageously be recorded in the storage means 22, 23 of the electronic object 20, in the form of one or more recordings.
  • the step 204 for encoding the data of interest Di according to a first encoding function F1 and the environment data Dn according to a second encoding function F2 then consists of extracting, prior to the encoding of the data Di and Dn as such, said parameters E1, E2 and to elaborate, parameterize or choose the first and second encoding functions Fl and F2 from the encoding parameters E1 and E2.
  • the method 200 then comprises a step 205 for generating and triggering the transmission, by the communication means 24 to an electronic device 10, of one or more messages M1 each comprising all or part of the data Di 'and / or Dn 'and a descriptor, for example in the form of a header.
  • a message descriptor M1 may comprise, for example, an identifier Idc of the capture means 25, a field comprising an identifier of the acquisition period t of the study data from which the data Di 'and / or Dn' originate, an attribute characterizing the type of study data transmitted, an encoding attribute designating the encoding function of said transmitted data, an object identifier transmitting said message M1, or even a device identifier receiving said message M1.
  • Such a descriptor may further include an attribute characterizing a common reference frame between data of interest Di 'and environment data Dn' transmitted in a batch of messages Ml.
  • Such a reference frame may consist, by way of example, in the coordinates of a reference pixel present in the two digital representations of the zone of interest Zi and the zone of environment Zn, for example a pixel associated with a pupillary center.
  • the transmission of the previously encoded data Di 'and Dn' can be translated into a plurality of messages M1 whose respective descriptors may further comprise a sequential indicator, for ordering said messages during their reception, or even data of redundancy, of integrity and / or possible ciphers.
  • the electronic device 10 receives through its communication means 14, one or more messages M1 during a step 102 of a method 100 for interpreting a composite data stream, an example of such a method 100 being described in connection with with Figures 2 and 6.
  • Such a method 100 for interpreting a composite data stream is implemented by the processing unit 11 of said device 10.
  • the method 100 includes a step 103 for decoding the content of said message M1.
  • Such a step 103 may consist in decoding and extracting from the descriptor of said message M1, the attribute characterizing the type of study data transmitted and the encoding attribute designating the encoding function of the data of studies implemented by the electronic object 20 having sent said message M1.
  • Step 103 may then consist of decoding the study data transmitted according to a decoding function F1 ', F2'.
  • the choice and / or parameterization of such a decoding function can depend on said encoding attribute thus decoded or be predetermined.
  • such an attribute may furthermore comprise an encoding parameter E1 or E2 of encoding function F1 or F2 implemented by the object 20.
  • Step 103 therefore consists in implementing a first decoding function F1 'for decoding the data of interest Di' and a second decoding function F2 'for decoding said environment data Dn'.
  • the storage means 12, 13 of the device 10 advantageously comprise data structures, for example in the form of one or more arrays of integers for storing the data of interest Di '' and the environment data Dn '' thus decoded. Such tables can thus, for example, record light intensities and / or gray level of pixels of an image that the device 10 can recompose.
  • Said tables are therefore numerical representations similar to those of the zone of interest Zi and the zone of environment Zn previously captured by the electronic object 20.
  • the data of study De may have been encoded and transmitted according to an irreversible compression factor implemented according to an encoding function F1, F2, for example by encoding and transmitting only the light intensities of only pixels of odd ranks.
  • the decoding functions F1 ', F2' must therefore, by way of nonlimiting example, interpolate the data of studies De 'thus obtained by recording in the odd rows of integer arrays the value of the luminous intensities of the ranks lower peers. Any other interpolation function could alternatively be implemented.
  • the method 100 comprises a step 104 for jointly exploiting said data of interest Di '' and environment data Dn '' thus decoded.
  • Such an operation can, by way of nonlimiting example, consist in producing time-stamped recordings dedicated to archiving in the data memory 13 to create a history of the data of interest Di '' and environment data Dn '' decoded .
  • a record may, by way of nonlimiting example, be arranged to store the acquisition period t of the study data from which the data Di 'and / or Dn' previously extracted from the message M1 and the tables of integers associated with the data of interest Di '' and the decoded environment data Dn ''.
  • Such archiving can be used for computational purposes or for the development of new data.
  • the study data relate to acceleration vectors delivered by a gyroscope
  • such archiving can make it possible to reproduce the trajectory and the speed of the eyeball during an examination.
  • the study data can be produced from a matrix image sensor of the eyeball.
  • the processing unit 11 of the device 10 can determine the location of the pupillary center according to known image analysis methods and exposed previously, from the data of interest Di '' extracted several records dedicated to archiving.
  • the data memory 13 therefore comprises a trajectory restitution data structure. having a plurality of records arranged to record trajectory feedback data Dr having said pupillary center locations and the associated acquisition period.
  • joint exploitation of the decoded data Di '' of interest and decoded environment data Dn '' from the same acquisition by the capture means 25 of the object 20 may consist in recomposing an image of the study scene Ze intended to be restored by a rendering interface 1D of the electronic device 10 or cooperating with the latter, from said data Di '' and Dn ''.
  • the data memory 13 therefore comprises an image restitution structure, for example in the form of an array of integers, for recording image reproduction data Dr necessary for the production of such an image.
  • Said image reproduction data Dr consists of data of interest Di '' and environment data Dn '' previously decoded and coming from the same acquisition.
  • Step 104 may therefore consist in recording in the rendering table the content of the decoded environment data Dn '', then in virtually superimposing the data of interest Di '' on the environment data Dn ''.
  • Such an overlay can consist in determining the location of the data of interest Di '' with respect to the environment data Dn '' from the common repository extracted from the message M1 previously received. The value of the luminous intensities of the common pixels are therefore replaced by those of the data of interest Di ''.
  • the reproduction data Dr thus created can be exploited later or restored on a 1D rendering interface of the electronic device 10.
  • the method 100 further comprises a step 105 for triggering the reproduction, by a man-machine interface of reproduction 1D of the electronic device 10, of all or part of Dr restitution data previously developed.
  • a reproduction may consist in displaying the trajectory restitution data Dr in the form of a graph representing the location of the pupillary center as a function of time.
  • such a reproduction may consist in displaying the image reproduction data Dr in the form of an image representing a reconstruction of the study zone Ze, as shown with reference to FIG. 5.
  • the curve of the eyelid of the observed eye is rendered in the form of a staircase of pixels in the part lying outside the white square and corresponding to the environment data Dn "decoded.
  • the curve of the eyelid is very smoothly restored. There are two different image resolutions.
  • the invention provides for the insertion of a demarcation line, as represented by the white square in FIG.
  • a demarcation line may, by way of a non-limiting example, be inserted into the image reproduction data Dr by replacing the value of the pixels of the surrounding environment data Dn '' with the interest data Di '' by a value of 256, describing a high gray level, such as white.
  • the detection of the boundary pixels can be done according to known image processing methods.
  • the invention can provide for superimposing on the restitution of the composite image additional metadata, such as by way of non-limiting examples the acquisition period t of the captured image and the location of the pupillary center represented. by a cross in connection with FIG. 5.
  • the electronic object 20 may comprise a plurality of capture means 25, such as by way of nonlimiting examples a matrix image sensor and a gyroscope, producing respectively first eyeball data Del and second data De2 studies relating to the direction of rotation of the head of a patient, said first and second study data Del, De2 being captured at the time of the same acquisition period ti.
  • the method 200 for transmitting a composite data stream and the method 100 for interpreting such a stream are respectively respectively implemented by the processing unit 21 of the object 20 from said first and second Del and study data De2 and the processing unit 11 of the device 10 from the first and second study data Del '' and De2 '' decoded.
  • the encoding functions Fl, F2, Fx and decoding Fl ', F2', Fx 'associated with the first and second data of interest Dil, Di2 and / or environment data Dn1, Dn2 respectively from the first and second data Del and De2 studies can be advantageously identical or distinct, depending on the nature of the data exchanged.
  • the step 104 of the method 100 for exploiting the data of studies Del '' and De2 '' decoded can therefore consist in producing first and second reproduction data Dr1 and Dr2 respectively from the first and second data Del study. '' and De2 '' decoded.
  • the step 105 for triggering the restitution of all or part of the reproduction data Dr1, Dr2 by a rendering interface 1D can therefore consist in embedding Dr2 reproduction data in the reproduction data Dr1.
  • such an incrustation may consist in inserting a representation of an arrow translating the direction of movement of the patient's head into the restitution of the composite image resulting from the reproduction data Dr1.
  • certain treatments implemented by the processing unit 21 of the electronic object 20 can be delegated and thus implemented in place of the electronic object 20, by the electronic device 10.
  • the electronic device 10 can inform the object 20 of the positioning of the zone of interest Zi during the following acquisition or impose it from the beginning of the implementation of the method 200.
  • Said method 100 comprises for that a step 101, prior to the step 102 to receive a message M1, to develop a control request Rcl comprising area parameters of interest PI defined above and designating Data of interest Di within the study data generated by the capture means 25 of the electronic object 20 that the object 20 will have to discriminate.
  • the method 200 for producing a composite data stream therefore comprises a step 201 for receiving, via the communication means 24 of said object 20, said control request Rcl, and then decoding and extracting said parameters of area of interest P1.
  • Step 203 for discriminating in the data of studies of data of interest Di and environment data Dn therefore consists in implementing a discrimination function according to the content of said parameters of area of interest P1.
  • the step 101 for producing a control request Rcl may also consist in producing a second control request Rc2 comprising encoding parameters of all or part of the data of De.
  • a request Rcl may comprise first encoding parameters E1 and second encoding parameters E2 specific to the data of interest D1 and environment data Dn.
  • Step 201 for receiving and decoding the control request Rcl of the method 200 implemented by the processing unit 21 of the electronic object 20 may therefore consist in extracting the content of said encoding parameters E1 and E2 from the second control request Rc2.
  • Step 204 to encode the data of interest Di according to a first encoding function F1 and the environment data Dn according to a second encoding function F2 is therefore to implement said first and second encoding functions F1 and F2 respectively according to the content of said first and second encoding parameters El, E2.
  • said first and second control requests Rc1 and Rc2 may consist of a single request Rc3 comprising parameters of area of interest P1 and first and second encoding parameters E1, E2 specific to data of interest D1 and data d. environment Dn.
  • the electronic object 20 can transmit a video stream to the electronic device 10.
  • the method 200 for developing a composite data stream is therefore implemented iteratively, for example, every 20 milliseconds or all the 5 milliseconds.
  • control requests Rc1 and / or Rc2 and / or Rc3 may comprise an attribute characterizing the capture frequency effected by the capture means 25 and transmission by the communication means 24 of the data of studies De.
  • a frequency can be equal to 50Hz or 200Hz.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Discrete Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

System for formulating, emitting and interpreting a composite stream and associated method. The invention relates to a system making it possible to formulate, transmit, interpret and exploit a composite data stream. The invention relates more precisely to a method (200) for emitting a composite data stream advantageously through a wireless communication network, and a method (100) for interpreting a composite data stream. Said methods are respectively implemented by the processing unit (21) of an electronic object (20) and by the processing unit (11) of an electronic device (10).

Description

Système d'élaboration, d'émission et d'interprétation d'un flux composite et procédés associés  System for developing, transmitting and interpreting a composite stream and associated methods
L' invention concerne un procédé pour émettre un flux de données composite, lesdites données étant composées de données d'intérêt et de données d'environnement caractérisant respectivement la production numérique d'une information d'intérêt et d'une information d'environnement comprises dans une ou plusieurs informations d'étude préalablement capturées par des moyens de capture. L'invention concerne en outre un procédé pour interpréter et exploiter un tel flux de données composite et un système permettant de mettre en œuvre lesdits procédés. The invention relates to a method for transmitting a composite data stream, said data being composed of data of interest and environment data respectively characterizing the digital production of information of interest and environmental information included. in one or more study information previously captured by capture means. The invention further relates to a method for interpreting and exploiting such a composite data stream and a system for implementing said methods.
Plus particulièrement, mais de manière non limitative, l'invention concerne la transmission d'un flux vidéo dans un système de vidéonystagmoscopie utilisé pour observer les mouvements oculaires chez l'humain ou l'animal ou plus généralement d'un sujet d'étude, et rechercher un éventuel nystagmus. Un nystagmus est un mouvement involontaire et saccadé du globe oculaire causé par une perturbation des muscles de l'œil. L'observation d'un nystagmus peut, à titre d'exemple non limitatif, permettre de déterminer un dysfonctionnement de l'oreille interne d'un patient pouvant provoquer une sensation de vertige . More particularly, but without limitation, the invention relates to the transmission of a video stream in a videonystagmoscopy system used to observe eye movements in humans or animals or more generally a subject of study, and look for a possible nystagmus. A nystagmus is an involuntary and jerky motion of the eyeball caused by a disturbance of the muscles of the eye. The observation of a nystagmus may, by way of non-limiting example, make it possible to determine a dysfunction of the inner ear of a patient that may cause a feeling of vertigo.
Le vertige est une sensation erronée de déplacement du corps par rapport à l'espace environnant traduisant généralement un dysfonctionnement ou un déséquilibre entre les deux appareils vestibulaires de l'oreille interne d'un humain ou d'un animal. Chaque appareil vestibulaire est composé de plusieurs capteurs, tels que des canaux semi-circulaires et des organes otolithiques , dont les parois sont recouvertes de cellules sensorielles ciliées baignant dans du liquide endolymphatique . Les canaux semi-circulaires détectent l'amplitude de la rotation angulaire de la tête, alors que les organes otolithiques détectent les accélérations linéaires verticales et/ou horizontales de la tête ainsi que l'inclinaison de la tête par rapport à l'axe de la gravité. Lors d'un mouvement provoqué, par exemple non limitatif lors d'une rotation de la tête, les cellules ciliées bougent et transmettent l'information liée à la rotation au système nerveux via le nerf vestibulaire . L'interprétation par le système nerveux du patient d'une telle information provoque des mouvements du globe oculaire afin de garantir la stabilité du regard et la stabilité de la posture du patient. Dizziness is an erroneous sensation of movement of the body relative to the surrounding space, usually reflecting dysfunction or imbalance between the two vestibular apparatus of the inner ear of a human or animal. Each vestibular apparatus is composed of several sensors, such as semicircular canals and otolithic organs, whose walls are covered with ciliated sensory cells bathed in endolymphatic fluid. The semicircular canals detect the amplitude of the angular rotation of the head, while the otolithic bodies detect the vertical and / or horizontal linear accelerations of the head as well as the inclination of the head with respect to the axis of the head. gravity. During a provoked movement, for example non-limiting during a rotation of the head, the hair cells move and transmit information related to the rotation to the nervous system via the vestibular nerve. The interpretation by the patient's nervous system of such information causes movements of the eyeball in order to guarantee the stability of the gaze and the stability of the patient's posture.
Lors d'un dysfonctionnement de l'oreille interne et plus particulièrement de l'appareil vestibulaire, lesdites stabilisations ne s'effectuent pas correctement provoquant un nystagmus, ainsi que la sensation de vertige.  During a malfunction of the inner ear and more particularly of the vestibular apparatus, said stabilizations are not performed correctly causing nystagmus, as well as the feeling of vertigo.
Un système de vidéonystagmoscopie comporte généralement un casque, un masque ou des lunettes comportant une ou plusieurs caméras et un dispositif électronique, tel qu'à titre d'exemples non limitatifs une tablette ou un ordinateur personnel. Lors d'un examen de l'oreille interne, communément appelé examen vestibulaire, l'œil du patient est plongé dans l'obscurité empêchant ainsi son inhibition à la fixation, qui pourrait altérer le résultat de l'examen. Les mouvements du globe oculaire sont dès lors uniquement provoqués par le système nerveux du patient faisant suite aux informations reçues des capteurs de l'oreille interne dudit patient. La caméra, généralement de type infra¬ rouge, capture une succession d'images afin de créer un flux vidéo. Ce dernier est transmis au dispositif électronique, chargé de restituer des images ou graphiques via une interface homme-machine de restitution, tel qu'à titre d'exemple non limitatif un écran d'ordinateur ou une imprimante. Le praticien peut dès lors analyser la restitution et effectuer un diagnostic à la lumière de cet outil. A videonystagmoscopy system generally comprises a helmet, a mask or glasses comprising one or more cameras and an electronic device, such as by way of non-limiting examples a tablet or a personal computer. During an examination of the inner ear, commonly called vestibular examination, the patient's eye is plunged into darkness thus preventing its inhibition at fixation, which could alter the outcome of the examination. The movements of the eyeball are therefore only caused by the patient's nervous system following information received from the sensors of the inner ear said patient. The camera, generally of infra ¬ red type, captures a succession of images in order to create a video stream. The latter is transmitted to the electronic device, responsible for rendering images or graphics via a man-machine rendering interface, such as by way of non-limiting example a computer screen or a printer. The practitioner can therefore analyze the restitution and make a diagnosis in the light of this tool.
L'observation d'un nystagmus nécessite une haute résolution de l'image. En effet, les déplacements saccadés horizontaux et/ou verticaux du globe oculaire et/ou ses torsions sont des événements de faibles amplitudes. De plus, lesdits événements peuvent être très courts. Le flux vidéo doit dès lors être transmis entre 25Hz et 200Hz pour des images en 256 niveaux de gris et pouvant aller jusqu'à une taille de 640x480 pixels. Le flux ainsi généré entre la caméra infrarouge et le dispositif électronique véhicule un grand nombre d'informations exprimées sous forme de trames de bits, occupant ainsi une large bande passante. Afin de rendre la restitution du flux ergonomique et exploitable, il est nécessaire de proposer une transmission des paquets de données avec une latence ou retard faible. Il est donc primordial de calibrer la bande passante du réseau de communication et la capacité de calcul du dispositif électronique, pour réorganiser les données entrantes et pour les décoder.  The observation of a nystagmus requires a high resolution of the image. Indeed, the horizontal and / or vertical jerky motions of the eyeball and / or its twists are low amplitude events. In addition, said events can be very short. The video stream must therefore be transmitted between 25Hz and 200Hz for images in 256 gray levels and up to a size of 640x480 pixels. The stream thus generated between the infrared camera and the electronic device conveys a large amount of information expressed in the form of bit frames, thus occupying a large bandwidth. In order to render the stream flow ergonomic and exploitable, it is necessary to propose a transmission of data packets with low latency or delay. It is therefore essential to calibrate the bandwidth of the communication network and the computing capacity of the electronic device, to reorganize the incoming data and to decode them.
Pour transmettre sans difficultés un tel volume de données, les systèmes de vidéonystagmoscopie comportent généralement un masque et un dispositif communicant par liaison filaire, par exemple au moyen d'un câble à connectique de type USB, acronyme de « Universal Sériai Bus » selon une terminologie anglo-saxonne. De tels systèmes présentent l'inconvénient d'entraver le praticien et le patient pendant l'examen. En effet, lors d'un examen du système vestibulaire, le praticien doit faire tourner la tête dudit patient de gauche à droite, secouer la tête du patient et/ou faire tourner à différentes vitesses le fauteuil sur lequel est assis le patient, afin d'observer les éventuelles distorsions des yeux et déterminer l'organe dysfonctionnant et causant des vertiges. L'inconvénient de ce système réside ainsi principalement dans ledit câble qui relie la caméra positionnée devant les yeux du patient à l'ordinateur du praticien. En effet, ce câble peut s'enrouler autour du patient pendant l'examen. De plus, la norme USB peut présenter une bande passante insuffisante provoquant ainsi des retards lors de la réception des paquets de données ou la perte de paquets de données. To transmit without difficulty such a volume of data, videonystagmoscopy systems generally comprise a mask and a device communicating by wire connection, for example by means of a cable with USB type connector, acronym for "Universal Sériai" Bus "according to an Anglo-Saxon terminology. Such systems have the disadvantage of hindering the practitioner and the patient during the examination. Indeed, during an examination of the vestibular system, the practitioner must rotate the head of said patient from left to right, shake the patient's head and / or rotate at different speeds the chair on which the patient sits, in order to observe possible eye distortions and determine which organ is malfunctioning and causing vertigo. The disadvantage of this system thus lies mainly in said cable that connects the camera positioned in front of the patient's eyes to the practitioner's computer. Indeed, this cable can wrap around the patient during the examination. In addition, the USB standard may have insufficient bandwidth thus causing delays in receiving data packets or loss of data packets.
Pour pallier à cet inconvénient lié à la présence du câble, plusieurs systèmes de vidéonystagmoscopie proposent de transmettre les données capturées par la caméra à l'ordinateur du praticien en s' appuyant sur des technologies radio-analogiques dédiées ou spécialisées. De tels systèmes présentent toutefois des inconvénients de coupure et/ou de parasitage en fonction de l'orientation des antennes, lors du déplacement du patient pendant l'examen, et se révèlent onéreux à l'acquisition et durant leur maintenance.  To overcome this drawback related to the presence of the cable, several videonystagmoscopy systems propose to transmit the data captured by the camera to the practitioner's computer by relying on dedicated or dedicated radio-analog technologies. Such systems, however, have the disadvantage of cutting and / or interference depending on the orientation of the antennas, during the patient's movement during the examination, and prove to be expensive at acquisition and during maintenance.
D'autres solutions ont cherché à s'appuyer sur des protocoles de communication de proximité, par exemple de type WIFI. Toutefois ces solutions se révèlent inopérantes car de tels réseaux sans fil présentent une bande passante inférieure au besoin d'un système de vidéonystagmoscopie, le flux vidéo n'étant pas restituable correctement. Other solutions have sought to rely on proximity communication protocols, for example WIFI type. However, these solutions prove to be inoperative because such wireless networks have a lower bandwidth than the need for a data protection system. Videonystagmoscopy, the video stream is not restorable correctly.
L' invention permet de répondre de manière particulièrement efficace à tout ou partie des inconvénients soulevés par les solutions précédemment évoquées. L'invention propose pour cela de réduire le volume de données à transmettre en effectuant des traitements en amont de la transmission. En effet, l'invention prévoit de déléguer à un microcontrôleur préalablement installé dans des lunettes de vidéonystagmoscopie et coopérant avec la caméra, des traitements locaux en amont de la transmission, afin de réduire le volume de données échangées avec un dispositif électronique aux justes informations utiles pour l'utilisation médicale qui est faite du produit. En effet, lors d'un examen vestibulaire, il suffit d'observer l'iris et la pupille de l'œil du patient pour diagnostiquer un éventuel dysfonctionnement de l'oreille interne, le reste de l'image revêtant d'un intérêt moindre ou du moins ne nécessitant pas la même précision. Cependant l'observation du reste du globe oculaire, appelé zone d'environnement, procure au praticien un confort visuel et demeure souhaité par les professionnels de santé. L'invention prévoit dès lors dans un premier temps de compresser et d'encoder les données d'intérêt Di liées à la zone d' intérêt Zi selon une première fonction d'encodage Fl et les données d'environnement Dn liées à la zone d'environnement Zn selon une deuxième fonction d'encodage F2, ladite première fonction d'encodage ayant un taux de perte de données lié à la compression des données nul ou faible par rapport à ladite deuxième fonction d'encodage F2. Les données d'intérêt Di et les données d'environnement Dn ainsi encodées seront respectivement dénommées données d'intérêt encodées Di' et données d'environnement encodées Dn' . The invention makes it possible to respond particularly effectively to all or some of the disadvantages raised by the solutions mentioned above. The invention proposes to reduce the volume of data to be transmitted by performing processing upstream of the transmission. Indeed, the invention provides to delegate to a microcontroller previously installed in videonystagmoscopy glasses and cooperating with the camera, local processing upstream of the transmission, in order to reduce the volume of data exchanged with an electronic device to the right useful information for the medical use that is made of the product. Indeed, during a vestibular examination, it suffices to observe the iris and the pupil of the patient's eye to diagnose a possible dysfunction of the inner ear, the rest of the image having a lower interest. or at least not requiring the same precision. However, the observation of the rest of the eyeball, called environmental zone, gives the practitioner a visual comfort and is desired by health professionals. The invention therefore provides initially for compressing and encoding the data of interest Di related to the zone of interest Zi according to a first encoding function F1 and the environment data Dn related to the zone d Zn environment according to a second encoding function F2, said first encoding function having a data loss rate related to zero or low data compression with respect to said second encoding function F2. The data of interest Di and the Dn environment data thus encoded will respectively be called encoded interest data Di 'and encoded environment data Dn'.
On entend par fonction d'encodage Fl, F2 toute transcription de données d'un premier format dans un deuxième format, pouvant comporter une étape de compression des données. Une telle fonction Fl, F2 peut, à titre d'exemple non limitatif, consister à transcrire la représentation numérique R(t) de grandeurs physiques capturées par un capteur matriciel d'une caméra encodée selon la norme ASCII acronyme de « American Standard Code for Information Interchange » selon une terminologie anglo-saxonne, dans une norme JPEG acronyme de « Joint Photographique Expert Group » selon une terminologie anglo-saxonne. De telles fonctions peuvent présenter des fonctionnalités de compression réversible ou irréversible. Une compression réversible est un traitement garantissant l'intégrité des données encodées par rapport aux données d'origine, c'est-à-dire qu'après décompression les données encodées et les données d'origine sont identiques. A titre d'exemple non limitatif, une transcription selon la norme RLE acronyme de « Run Length Encoding » selon une terminologie anglo- saxonne, est un encodage selon une compression réversible. Au contraire une compression irréversible est un traitement qui réduit le nombre de données à encoder, par exemple en encodant qu'une partie des données, à titre d'exemple non limitatif une donnée sur deux, ou en effectuant un traitement préalable pour déterminer la moyenne d'un lot de données voisines et en encodant ladite moyenne. A titre d'exemple non limitatif, une transcription selon la norme JPEG acronyme de « Joint Photographique Expert Group » selon une terminologie anglo-saxonne, est un encodage selon une compression irréversible . By encoding function F1, F2 is understood to mean any transcription of data of a first format into a second format, which may comprise a step of compressing the data. Such a function F1, F2 may, by way of non-limiting example, consist in transcribing the digital representation R (t) of physical quantities captured by a matrix sensor of a camera encoded according to the ASCII standard, which stands for "American Standard Code for Information Interchange "according to an English terminology, in a standard JPEG acronym for" Joint Photographic Expert Group "according to English terminology. Such functions may have reversible or irreversible compression features. Reversible compression is a treatment that guarantees the integrity of the encoded data with respect to the original data, that is, after decompression the encoded data and the original data are identical. By way of nonlimiting example, a transcription according to the RLE standard, the acronym for "Run Length Encoding" according to English terminology, is an encoding according to a reversible compression. On the other hand, an irreversible compression is a treatment that reduces the number of data to be encoded, for example by encoding only part of the data, as a non-limiting example, every other data, or by performing a preliminary processing to determine the average of a neighboring data set and encoding said average. By way of non-limiting example, a transcription according to the JPEG standard acronym for "Joint Photographic Expert Group" according to a terminology Anglo-Saxon, is an encoding according to an irreversible compression.
Un tel traitement des données d'étude en amont de leur transmission permet de préserver la bande passante des réseaux de communication. Les données d'étude ainsi adaptées peuvent dès lors être véhiculés selon des protocoles de communication de proximité standards, tels qu'à titre d'exemples non limitatifs de type WIFI ou Bluetooth. Dès lors, il devient possible d'utiliser des équipements de communication standard, réduisant ainsi les coûts matériels du système tout en préservant l'ergonomie et la pertinence du système. Such study data processing upstream of their transmission makes it possible to preserve the bandwidth of the communication networks. The study data thus adapted can then be transported according to standard proximity communication protocols, such as non-limiting examples of WIFI or Bluetooth type. Therefore, it becomes possible to use standard communication equipment, thus reducing the hardware costs of the system while preserving the ergonomics and relevance of the system.
De plus, une telle réduction du volume de données d'étude à transmettre, lesdites données d'étude étant élaborées à partir d'un capteur déterminé par exemple un capteur d'image matriciel, permet, pour une bande passante d'un réseau de communication donnée, de véhiculer conjointement auxdites données d'études d'autres données d'étude produites par un ou plusieurs autres capteurs, par exemple un accéléromètre, un gyroscope et/ou un deuxième capteur d'image matriciel. Le flux de données d'étude peut ainsi être considérablement enrichi .  In addition, such a reduction in the volume of study data to be transmitted, said study data being produced from a determined sensor, for example a matrix image sensor, makes it possible, for a bandwidth of a network of given communication, to convey together with said study data other study data produced by one or more other sensors, for example an accelerometer, a gyroscope and / or a second matrix image sensor. The flow of study data can thus be considerably enriched.
A cette fin, l'invention concerne tout d'abord un procédé pour interpréter un flux de données composite mis en œuvre par une unité de traitement d'un dispositif électronique coopérant avec au moins un objet électronique communicant comportant des moyens de capture, ledit dispositif comportant, outre ladite unité de traitement, des moyens de communication assurant un mode de communication avec ledit objet électronique au travers d'un réseau de communication. Le flux de données comporte des données d'études préalablement encodées par l'objet électronique, lesdites données d'études comportant des données d' intérêt encodées selon une première fonction d'encodage et des données d'environnement encodées selon une deuxième fonction d'encodage, lesdites données d'études étant préalablement produites par lesdits moyens de capture dudit objet électronique. Pour interpréter un tel flux de données composite le procédé comporte : To this end, the invention firstly relates to a method for interpreting a composite data stream implemented by a processing unit of an electronic device cooperating with at least one communicating electronic object comprising capture means, said device comprising, in addition to said processing unit, communication means providing a mode of communication with said electronic object at through a communication network. The data flow includes study data previously encoded by the electronic object, said study data comprising data of interest encoded according to a first encoding function and environment data encoded according to a second function of encoding, said study data being previously produced by said means for capturing said electronic object. To interpret such a composite data stream, the method comprises:
une étape pour recevoir, via les moyens de communication, un message comportant lesdites données d'études encodées ;  a step for receiving, via the communication means, a message comprising said encoded study data;
une étape pour décoder lesdites données d'études encodées, ladite étape consiste à décoder lesdites données d' intérêt et d'environnement encodées respectivement selon des première et deuxième fonctions de décodage déterminées ;  a step for decoding said encoded study data, said step consists of decoding said interest and environment data encoded respectively according to determined first and second decoding functions;
une étape pour exploiter conjointement lesdites données d'intérêt et données d'environnement ainsi décodées.  a step for jointly exploiting said data of interest and environmental data thus decoded.
Pour pouvoir produire des données de restitution à partir des données d'intérêt et des données d'environnement décodées ledit message peut comporter en outre un descripteur traduisant un référentiel commun aux données d'intérêt et aux données d'environnement encodées. L'étape pour exploiter conjointement lesdites données d'intérêt et données d'environnement décodées peut dès lors consister à produire des données de restitution à partir des données d' intérêt et d'environnement décodées et dudit référentiel commun. Pour commander les fonctions d'encodages mises en œuvre par l'objet électronique, le procédé peut comporter une étape, préalable à l'étape pour recevoir un message comportant des données d' intérêt et des données d'environnement encodées, pour élaborer et déclencher l'émission par les moyens de communication à destination de l'objet électronique d'une requête de commande interprétable par ledit objet électronique comportant un premier paramètre d' encodage et un deuxième paramètre d'encodage, lesdits premier et deuxième paramètres étant différents . In order to be able to produce restitution data from the data of interest and the decoded environment data, said message may furthermore comprise a descriptor translating a repository common to the data of interest and to the encoded environment data. The step of jointly exploiting said data of interest and decoded environment data can therefore consist in producing restitution data from the decoded data of interest and environment and of said common repository. To control the encoding functions implemented by the electronic object, the method may comprise a step, prior to the step of receiving a message comprising data of interest and encoded environment data, to elaborate and trigger the transmission by the communication means to the electronic object of a control request interpretable by said electronic object comprising a first encoding parameter and a second encoding parameter, said first and second parameters being different.
Pour commander les fonctions de discriminations mises en œuvre par l'objet électronique le procédé peut comporter une étape, préalable à l'étape pour recevoir un message comportant des données d'intérêt et des données d'environnement encodées, pour élaborer et déclencher l'émission par les moyens de communication à destination de l'objet électronique d'une requête de commande interprétable par ledit objet électronique comportant un paramètre de zone d'intérêt désignant des données d'intérêt au sein des données d'études produites par les moyens de capture de l'objet électronique, ledit paramètre de zone d' intérêt étant interprétable par l'objet électronique pour discriminer les données d'intérêt des données d'environnement préalablement produites par ledit objet.  To control the discrimination functions implemented by the electronic object, the method may comprise a step, prior to the step of receiving a message comprising data of interest and encoded environment data, for developing and triggering the transmission by the communication means to the electronic object of a control request interpretable by said electronic object comprising a parameter of area of interest designating data of interest in the data of studies produced by the means of capture of the electronic object, said area of interest parameter being interpretable by the electronic object to discriminate the data of interest from the environmental data previously produced by said object.
Pour permettre la restitution du flux de données composite réceptionné, le dispositif électronique peut comporter une interface de restitution coopérant avec l'unité de traitement dudit dispositif. L'étape pour exploiter conjointement lesdites données d'intérêt et données d'environnement décodées peut consister à produire des données de restitution. Le procédé peut dès lors comporter une étape postérieure à ladite étape pour exploiter conjointement lesdites données d'intérêt et données d'environnement décodées, pour déclencher la restitution desdites données de restitution par l'interface de restitution. To allow the return of the composite data stream received, the electronic device may include a rendering interface cooperating with the processing unit of said device. The step of jointly exploiting said data of interest and decoded environment data may consist in producing restitution data. The process can when having a step subsequent to said step for jointly exploiting said data of interest and decoded environment data, to trigger the restitution of said restitution data by the rendering interface.
Selon un nouvel objet, l'invention concerne un produit programme d' ordinateur comportant des instructions de programme qui, lorsqu'elles sont préalablement enregistrées dans une mémoire de programmes d'un dispositif électronique comportant outre la mémoire de programmes, une unité de traitement, et des moyens de communication assurant un mode de communication déterminé, ladite mémoire de programmes et lesdits moyens de communication coopérant avec ladite unité de traitement, provoquent la mise en œuvre d'un procédé pour interpréter un flux de données composite, conforme à 1 ' invention . Selon un troisième objet, l'invention prévoit un dispositif électronique comportant une unité de traitement, une mémoire de programmes, une mémoire de données, des moyens de communication coopérant avec ladite unité de traitement, ledit dispositif étant caractérisé en ce qu'il comporte dans la mémoire de programmes des instructions d'un produit programme d'ordinateur conforme à l'invention. According to a new object, the invention relates to a computer program product comprising program instructions which, when they are previously stored in a program memory of an electronic device comprising in addition to the program memory, a processing unit, and communication means providing a determined communication mode, said program memory and said communication means cooperating with said processing unit, cause the implementation of a method for interpreting a composite data stream, according to the invention . According to a third object, the invention provides an electronic device comprising a processing unit, a program memory, a data memory, communication means cooperating with said processing unit, said device being characterized in that it comprises in the program memory of the instructions of a computer program product according to the invention.
Selon un quatrième objet, l'invention prévoit un procédé pour émettre un flux de données composite mis en œuvre par une unité de traitement d'un objet électronique communicant coopérant avec au moins un dispositif électronique, ledit objet électronique comportant outre ladite unité de traitement des moyens de capture et des moyens de communication assurant un mode de communication avec ledit dispositif électronique au travers d'un réseau de communication. Pour émettre un tel flux de données composite, ledit procédé comporte : According to a fourth object, the invention provides a method for transmitting a composite data stream implemented by a processing unit of a communicating electronic object cooperating with at least one electronic device, said electronic object comprising in addition said processing unit of the capture means and communication means providing a mode of communication with said electronic device through a communication network. To transmit such a composite data stream, said method comprises:
- une étape pour déclencher la production de données d'étude par lesdits moyens de capture dudit objet électronique, lesdites données d'étude consistant en une représentation numérique d'une grandeur physique mesurée ;  a step for triggering the production of study data by said means for capturing said electronic object, said study data consisting of a digital representation of a measured physical quantity;
- une étape pour discriminer dans les données d'étude des données d'intérêt et des données d'environnement selon une fonction de discrimination ;  a step for discriminating in the study data of the data of interest and the environment data according to a discrimination function;
- une étape pour encoder les données d'intérêt selon une première fonction d'encodage et les données d'environnement selon une deuxième fonction d'encodage ;  a step for encoding the data of interest according to a first encoding function and the environment data according to a second encoding function;
- une étape pour élaborer et déclencher l'émission par les moyens de communication à destination du dispositif électronique d'un message comportant tout ou partie desdites données d' intérêt et/ou desdites données d'environnement encodées.  a step for generating and triggering transmission by the communication means to the electronic device of a message comprising all or part of said data of interest and / or said encoded environment data.
Pour modifier dynamiquement les paramètres de mise en œuvre desdites première et deuxième fonctions d'encodage, le procédé peut comporter une étape préalable à l'étape pour encoder les données d' intérêt selon une première fonction d'encodage et les données d'environnement selon une deuxième fonction d'encodage, pour recevoir via les moyens de communication une requête de commande émise depuis le dispositif électronique comportant un premier paramètre d'encodage et un deuxième paramètre d'encodage, et extraire lesdits paramètres, lesdites première et deuxième fonctions d'encodage étant respectivement mises en œuvre selon la teneur des premier et deuxième paramètres d'encodages. To dynamically modify the implementation parameters of said first and second encoding functions, the method may comprise a step prior to the step of encoding the data of interest according to a first encoding function and the environment data according to a second encoding function, for receiving via the communication means a control request transmitted from the electronic device comprising a first encoding parameter and a second encoding parameter, and extracting said parameters, said first and second encoding functions respectively being implemented according to the content of the first and second encoding parameters.
Pour modifier dynamiquement les paramètres de mise en œuvre de ladite fonction de discrimination, le procédé peut comporter une étape préalable à l'étape pour discriminer dans les données d'étude des données d'intérêt et des données d'environnement selon une fonction de discrimination, pour recevoir via les moyens de communication une requête de commande émise depuis le dispositif électronique comportant un paramètre de zone d' intérêt désignant des données d' intérêt et extraire ledit paramètre, ladite fonction de discrimination étant mise en œuvre selon la teneur dudit paramètre de zone d' intérêt .  To dynamically modify the implementation parameters of said discrimination function, the method may include a step prior to the step of discriminating in the study data of the data of interest and the environment data according to a discrimination function. , for receiving via the communication means a control request transmitted from the electronic device comprising a zone of interest parameter designating data of interest and extracting said parameter, said discrimination function being implemented according to the content of said parameter of area of interest.
Pour modifier les paramètres de mise en œuvre de la fonction de discrimination l'objet électronique peut comporter en outre des moyens de mémorisation comportant un paramètre de zone d' intérêt désignant des données d'intérêt parmi les données d'études. Ledit procédé peut dès lors comporter une étape préalable à l'étape pour discriminer dans les données d'étude des données d'intérêt et des données d'environnement, pour extraire desdits moyens de mémorisation ledit paramètre de zone d'intérêt désignant des données d'intérêt et mettre en œuvre une fonction de discrimination selon la teneur dudit paramètre.  To modify the implementation parameters of the discrimination function, the electronic object may further comprise storage means comprising a zone of interest parameter designating data of interest from among the study data. Said method can therefore comprise a step prior to the step of discriminating in the study data of the data of interest and the environment data, to extract from said storage means said parameter of area of interest denoting data of interest. interest and implement a discrimination function according to the content of said parameter.
Pour modifier les paramètres de mise en œuvre des fonctions d'encodages l'objet électronique peut comporter en outre des moyens de mémorisation comportant des premier et deuxième paramètres d'encodage. L'étape pour encoder les données d' intérêt selon une première fonction d'encodage et les données d'environnement selon une deuxième fonction d'encodage, peut dès lors consister à extraire la teneur desdits paramètres d'encodage, lesdites première et deuxième fonctions d'encodage étant respectivement mises en œuvre selon ladite teneur des premier et deuxième paramètres d' encodage . To modify the implementation parameters of the encoding functions, the electronic object may further comprise storage means comprising first and second encoding parameters. The step of encoding the data of interest according to a first encoding function and the environment data according to a second encoding function, can therefore consist in extracting the content of said encoding parameters, said first and second encoding functions respectively being implemented according to said content of the first and second encoding parameters.
Selon l'invention, les moyens de capture de l'objet électronique peuvent comporter un capteur d' image matriciel, les données d'étude produites par ledit capteur étant la représentation numérique d'une scène capturée par ledit capteur matriciel. A titre d'exemple d'application préférée, les données d'études peuvent consister en la représentation numérique d'un œil, et les données d' intérêt peuvent être la représentation numérique de l'iris et de la pupille dudit œil.  According to the invention, the capture means of the electronic object may comprise a matrix image sensor, the study data produced by said sensor being the digital representation of a scene captured by said matrix sensor. As an example of a preferred application, the study data may consist of the digital representation of an eye, and the data of interest may be the digital representation of the iris and the pupil of said eye.
Selon un cinquième objet, l'invention concerne un produit programme d' ordinateur comportant des instructions de programme qui, lorsqu'elles sont préalablement enregistrées dans une mémoire de programmes d'un objet électronique communicant comportant outre ladite mémoire de programmes, une unité de traitement, des moyens de communication assurant un mode de communication déterminé, et des moyens de capture, ladite mémoire de programmes, lesdits moyens de communication, et lesdits moyens de capture coopérant avec ladite unité de traitement, provoquent la mise en œuvre d'un procédé pour émettre un flux de données composite, conforme à 1 ' invention . According to a fifth object, the invention relates to a computer program product comprising program instructions which, when they are previously stored in a program memory of a communicating electronic object comprising in addition to said program memory, a processing unit. , communication means ensuring a determined communication mode, and capture means, said program memory, said communication means, and said capture means cooperating with said processing unit, cause the implementation of a method for transmit a composite data stream, according to the invention.
Selon un sixième objet, l'invention concerne un objet électronique communicant comportant une unité de traitement, une mémoire de programmes, une mémoire de données, des moyens de communication, des moyens de capture coopérant avec ladite unité de traitement, ledit objet étant caractérisé en ce qu'il comporte dans la mémoire de programmes des instructions d'un produit programme d'ordinateur, conforme à l'invention. According to a sixth object, the invention relates to a communicating electronic object comprising a processing unit, a program memory, a memory of data, means of communication, capture means cooperating with said processing unit, said object being characterized in that it comprises in the program memory instructions of a computer program product, according to the invention.
Pour exploiter un ensemble de données liées à un même sujet d'étude, les moyens de capture peuvent comporter un premier moyen de capture et un deuxième moyen de capture pour produire respectivement des premières et deuxièmes données d'étude. L'unité de traitement peut dès lors mettre en œuvre un procédé pour émettre un flux de données composite, conforme à l'invention, pour chacun desdits premier et deuxième moyens de capture. Selon un septième objet, l'invention concerne un système comportant un dispositif électronique conforme à l'invention, et au moins un objet électronique communicant conforme à l'invention.  To exploit a set of data related to the same subject of study, the capture means may comprise a first capture means and a second capture means for producing first and second study data respectively. The processing unit can therefore implement a method for transmitting a composite data stream, according to the invention, for each of said first and second capture means. According to a seventh object, the invention relates to a system comprising an electronic device according to the invention, and at least one communicating electronic object according to the invention.
Selon un exemple d'application préféré ledit système peut consister en un système de vidéonystagmoscopie, pour lequel le dispositif électronique consiste en un ordinateur personnel et l'objet électronique en un masque de vidéonystagmoscopie comportant au moins un capteur d'image matriciel.  According to an exemplary preferred application, said system may consist of a videonystagmoscopy system, for which the electronic device consists of a personal computer and the electronic object into a videonystagmoscopy mask comprising at least one matrix image sensor.
Selon un huitième objet, l'invention concerne un procédé de traitement de données comportant : According to an eighth object, the invention relates to a data processing method comprising:
- une étape pour déclencher une production de données d'étude par des moyens de capture d'un objet électronique communicant conforme à l'invention, ladite étape étant mise en œuvre par une unité de traitement dudit objet ; - une étape pour discriminer dans les données d'étude des données d'intérêt et des données d'environnement par ledit objet électronique ;a step for triggering a production of study data by means of capturing a communicating electronic object according to the invention, said step being implemented by a processing unit of said object; a step for discriminating in the study data of the data of interest and the environmental data by said electronic object;
- une étape pour encoder par ledit objet les données d' intérêt selon une première fonction d'encodage et les données d'environnement selon une deuxième fonction d'encodage ; a step for encoding by said object the data of interest according to a first encoding function and the environment data according to a second encoding function;
- une étape pour élaborer par ledit objet d'un message comportant lesdites données d' intérêt encodées et lesdites données d'environnement encodées et en déclencher l'émission à destination d'un dispositif électronique conforme à l'invention ;  a step for producing, by said object, a message comprising said encoded interest data and said encoded environment data and initiating transmission thereof to an electronic device according to the invention;
- une étape pour réceptionner par le dispositif ledit message et le décoder ;  a step for receiving the said message by the device and decoding it;
- une étape pour exploiter conjointement lesdites données d'intérêt et données d'environnement décodées par le dispositif.  a step for jointly exploiting said data of interest and environment data decoded by the device.
Pour rendre dynamiques les fonctions d'encodages et les fonctions de discrimination, le procédé de traitement de données peut comporter:  To make encoding functions and discrimination functions dynamic, the data processing method may comprise:
- une étape pour élaborer et déclencher l'émission au travers d'un réseau de communication à destination de l'objet électronique communicant, d'une requête de commande comportant des paramètres d'encodage et un paramètre de zone d' intérêt mise en œuvre par l'unité de traitement d'un dispositif électronique ;  a step for generating and triggering transmission via a communication network to the communicating electronic object, a control request including encoding parameters and an area of interest parameter implemented. by the processing unit of an electronic device;
- une étape pour réceptionner par l'objet électronique communicant ladite requête de commande et en extraire lesdits paramètres ; - l'étape pour discriminer étant mise en œuvre selon la teneur du paramètre de zone d' intérêt préalablement extrait ; a step for receiving, by the communicating electronic object, said control request and extracting said parameters from it; the step of discriminating being implemented according to the content of the previously extracted zone of interest parameter;
- l'étape pour encoder respectivement les données d'intérêt et les données d'environnement étant mise en œuvre par ledit objet selon la teneur desdits paramètres d'encodage préalablement extraits . D'autres caractéristiques et avantages apparaîtront plus clairement à la lecture de la description qui suit, se rapportant à un exemple de réalisation donné à titre indicatif et à l'examen des figures qui l'accompagnent parmi lesquelles :  the step of respectively encoding the data of interest and the environment data being implemented by said object according to the content of said encoding parameters previously extracted. Other characteristics and advantages will appear more clearly on reading the description which follows, referring to an exemplary embodiment given for information only and to the examination of the figures which accompany it, among which:
· la figure 1 présente un système conforme à · Figure 1 shows a system conforming to
1 ' invention ; The invention;
• la figure 2 présente un schéma fonctionnel d'un procédé conforme à l'invention pour interpréter un flux de données composite ;  FIG. 2 is a block diagram of a method according to the invention for interpreting a composite data stream;
· la figure 3 présente un schéma fonctionnel d'un procédé conforme à l'invention pour émettre un flux de données composite ;  FIG. 3 is a block diagram of a method according to the invention for transmitting a composite data stream;
• la figure 4 présente une scène d'étude capturée par un système selon l'invention ;  FIG. 4 presents a study scene captured by a system according to the invention;
· la figure 5 présente une restitution d'une image composite par un système selon l'invention ;  FIG. 5 shows a reproduction of a composite image by a system according to the invention;
• la figure 6 présente un schéma logique mis en œuvre par un système selon l'invention. A titre d'exemple d'application préférée mais non limitatif, l'invention sera décrite au travers d'une application relative à l'élaboration, la transmission et l'interprétation d'un flux vidéo composite, tel que produit lors d'un examen du système vestibulaire d'un humain ou d'un animal ou plus généralement d'un sujet d' étude . FIG. 6 shows a logic diagram implemented by a system according to the invention. As an example of a preferred but nonlimiting application, the invention will be described through an application relating to the development, transmission and interpretation of a composite video stream, such as produced during an examination of the vestibular system of a human or an animal or more generally of a subject of study.
Une scène d'étude selon l'invention, en lien avec l'examen du système vestibulaire, comporte la région d'un œil 0 d'un patient que nous nommerons zone d'étude Ze, comme le décrit la figure 4. La zone d'étude Ze est la zone observée par des moyens de capture 25 situés, à titre d'exemple non limitatif, en face dudit œil 0. La zone d'étude Ze inclut une zone d'intérêt Zi comportant la pupille P et l'iris I dudit œil 0 représentée par des pointillés en lien avec la figure 4, et une zone d'environnement Zn correspondant à la zone d'étude Ze soustraite de la zone d' intérêt Zi représentée par des hachures en lien avec la figure 4.  A study scene according to the invention, in connection with the examination of the vestibular system, comprises the region of an eye 0 of a patient that we will name study zone Ze, as described in FIG. Ze is the area observed by capture means 25, by way of non-limiting example, opposite said eye 0. The study zone Ze includes a zone of interest Zi comprising the pupil P and the iris I of said eye 0 represented by dashed lines in connection with FIG. 4, and an environment zone Zn corresponding to the study zone Ze subtracted from the zone of interest Zi represented by hatching in connection with FIG. 4.
La figure 1 permet de présenter un exemple de système selon l'invention. Un tel système consiste en un dispositif électronique 10 coopérant avec un ou plusieurs objets électroniques communicants 20, 20-2 via une liaison de communication NI filaire ou sans fil. De tels objets électroniques 20, 20-2, référencés 20 dans la suite du document par mesure de simplification, comportent des moyens de capture 25 coopérant avec une unité de traitement 21. De tels moyens de capture 25 peuvent consister en un capteur matriciel ou une caméra unique infrarouge. L'unité de traitement 11 est chargée de récolter les données délivrées par les moyens de capture 25 et de les encoder avant de les transmettre au dispositif électronique 10 par des moyens de communication 24. L'unité de traitement 21 comporte dès lors avantageusement un ou plusieurs microcontrôleurs ou processeurs coopérant par couplage et/ou par bus filaires, représentés par des flèches doubles en figure 1, avec les moyens de capture 25. Les moyens de capture 25 peuvent, en outre ou une variante, délivrer d'autres informations d'étude, par exemple en lien avec la trajectoire et/ou les mouvements effectués par le patient. De tels moyens 25 peuvent dès lors, par exemple, comporter un inclinomètre, un gyroscope ou un accéléromètre ou plus généralement tout capteur permettant de déterminer un mouvement, tel qu'à titre d'exemple non limitatif un mouvement de la tête d'un patient. Plus généralement, les moyens de capture 25 peuvent mesurer une ou plusieurs grandeurs physiques en lien avec le sujet d'étude. Les moyens de capture 25 produisent une représentation numérique R(t) de la zone d'étude Ze. Cette dernière est enregistrée dans des moyens de mémorisation 22, 23 coopérant par couplage et/ou par bus filaire avec l'unité de traitement 21. De tels moyens de mémorisation 22, 23 peuvent consister en une mémoire de données 23 agencées pour enregistrer des données d'étude De caractérisant la représentation numérique R(t) de la zone d'étude Ze. FIG. 1 makes it possible to present an exemplary system according to the invention. Such a system consists of an electronic device 10 cooperating with one or more communicating electronic objects 20, 20-2 via a wired or wireless NI communication link. Such electronic objects 20, 20-2, referenced in the remainder of the document for the sake of simplification, comprise capture means 25 cooperating with a processing unit 21. Such capture means 25 may consist of a matrix sensor or a sensor. single infrared camera. The processing unit 11 is responsible for collecting the data delivered by the capture means 25 and encoding them before transmitting them to the electronic device 10 by means of communication 24. The processing unit 21 therefore advantageously comprises one or several microcontrollers or processors cooperating by coupling and / or by bus wired, represented by double arrows in FIG. 1, with the capture means 25. The capture means 25 may, in addition or alternatively, provide other study information, for example in connection with the trajectory and / or the movements made by the patient. Such means 25 may therefore, for example, comprise an inclinometer, a gyroscope or an accelerometer or more generally any sensor for determining a movement, such as by way of non-limiting example a movement of the head of a patient . More generally, the capture means 25 can measure one or more physical quantities related to the subject of study. The capture means 25 produce a digital representation R (t) of the study area Ze. The latter is recorded in storage means 22, 23 cooperating by coupling and / or wired bus with the processing unit 21. Such storage means 22, 23 may consist of a data memory 23 arranged to record data. By characterizing the numerical representation R (t) of the study area Ze.
Les moyens de mémorisation 22, 23 peuvent en outre consister en une mémoire de programmes 22 comportant les instructions d'un produit programme d'ordinateur P2. Lesdites instructions de programme P2 sont agencées de sorte que leur exécution par l'unité de traitement 21 de l'objet 20 provoque la mise en œuvre d'un procédé pour élaborer et émettre un flux de données composite. De tels moyens de mémorisation 22, 23 peuvent, éventuellement en variante, ne constituer qu'une seule et même entité physique .  The storage means 22, 23 may further consist of a program memory 22 comprising the instructions of a computer program product P2. Said program instructions P2 are arranged such that their execution by the processing unit 21 of the object 20 causes the implementation of a method for developing and transmitting a composite data stream. Such storage means 22, 23 may, optionally alternatively, constitute one and the same physical entity.
Selon un mode de réalisation préféré, l'enregistrement d'une donnée temporelle t caractérisant une période d'acquisition peut être conjointement réalisé avec celui de la représentation numérique R(t) . Cette dernière, et par voie de conséquence la capture effectuée par les moyens de capture 25, est ainsi horodatée. According to a preferred embodiment, the recording of a temporal data t characterizing a period of acquisition can be jointly realized with that of the digital representation R (t). The latter, and consequently the capture carried out by the capture means 25, is thus time stamped.
A titre d'exemple non limitatif, les moyens de capture By way of non-limiting example, the means of capture
25 peuvent comporter un capteur matriciel, tel qu'une caméra infrarouge par exemple. La représentation numérique R(t) délivrée par un tel capteur consiste en un tableau de pixels encodant une nuance de gris pour chacun d'eux. Les moyens de capture 25 peuvent comporter ou être associés à une diode électroluminescente émettant dans les infrarouges, non représentée en figure 1, pour permettre un éclairage adéquat pour l'acquisition des données par lesdits moyens de capture 25. 25 may include a matrix sensor, such as an infrared camera for example. The digital representation R (t) delivered by such a sensor consists of an array of pixels encoding a shade of gray for each of them. The capture means 25 may comprise or be associated with a light emitting diode emitting in the infrared, not shown in Figure 1, to allow adequate illumination for the acquisition of data by said capture means 25.
Comme évoqué précédemment, bien que la figure 1 ne décrive explicitement qu'un seul équipement de capture 25 sous la forme d'une caméra, d'autres moyens de capture identiques ou complémentaires peuvent en outre être connectés directement ou indirectement à l'unité de traitement 21. Un système selon l'invention peut dès lors comporter, à titre d'exemples non limitatifs, deux caméras capturant respectivement une scène d' intérêt correspondant à l'œil gauche d'un patient et une deuxième scène d'intérêt correspondant à l'œil droit dudit patient. Un tel système peut en outre comporter un capteur angulaire de type gyroscope pour donner la position angulaire de la tête du patient dans un référentiel donné et ainsi pouvoir déterminer, à titre d'exemple non limitatif, le sens de rotation de la tête ou du corps du patient pendant un examen. Une représentation numérique R(t) délivrée par un tel capteur angulaire pourrait consister en un vecteur d'accélérations selon plusieurs axes de référence. Pour pouvoir coopérer avec un dispositif électronique 10, tel que décrit en liaison avec la figure 1, un tel objet électronique 20 comporte également des moyens de communication 24, sous la forme d'un modulateur- démodulateur permettant à l'objet électronique 20 de communiquer au travers d'un réseau de communication NI, par exemple de type Bluetooth ou WiFi. En variante, les moyens de communication 25 peuvent en outre consister en un port USB, « Universal Sériai Bus » selon une terminologie anglo-saxonne, afin de mettre en œuvre une liaison NI de type filaire. As mentioned above, although FIG. 1 explicitly only describes a single capture device 25 in the form of a camera, other identical or complementary capture means can also be connected directly or indirectly to the capture unit. 21. A system according to the invention may therefore include, by way of nonlimiting examples, two cameras respectively capturing a scene of interest corresponding to the left eye of a patient and a second scene of interest corresponding to the right eye of the patient. Such a system may further comprise a gyro-type angular sensor to give the angular position of the patient's head in a given reference frame and thus be able to determine, by way of non-limiting example, the direction of rotation of the head or the body. of the patient during an examination. A digital representation R (t) delivered by such an angular sensor could consist of a vector of accelerations along several reference axes. To be able to cooperate with an electronic device 10, as described in connection with FIG. 1, such an electronic object 20 also comprises communication means 24, in the form of a modulator-demodulator enabling the electronic object 20 to communicate through an NI communication network, for example of the Bluetooth or WiFi type. Alternatively, the communication means 25 may further consist of a USB port, "Universal Serial Bus" according to English terminology, to implement a wire-type NI link.
Avantageusement, un tel objet électronique 20 peut disposer d'une batterie ou plus généralement toute source électrique interne, ou bien être connecté au réseau électrique afin d'y puiser l'énergie électrique suffisante et nécessaire à son fonctionnement. L'usage d'une source électrique batterie interne sera privilégié afin de ne pas entraver la mobilité de l'objet par la présence d'un câble électrique.  Advantageously, such an electronic object 20 may have a battery or more generally any internal electrical source, or be connected to the electrical network in order to draw sufficient electrical energy and necessary for its operation. The use of an internal battery power source will be preferred so as not to hinder the mobility of the object by the presence of an electric cable.
Comme évoqué précédemment, un objet électronique 20 selon l'invention peut consister à titre d'exemples non limitatifs en un masque, des lunettes ou un casque positionnés sur la tête d'un patient et comportant des moyens de capture 25. Contrairement aux solutions connues, il comporte en outre une unité de traitement 21, des moyens de mémorisation 22, 23, et des moyens de communication 24. Un tel objet 20 ne nécessite plus de connectique filaire pour coopérer avec un dispositif tiers .  As mentioned above, an electronic object 20 according to the invention may consist of non-limiting examples in a mask, glasses or helmet positioned on the head of a patient and having capture means 25. Unlike known solutions , it further comprises a processing unit 21, storage means 22, 23, and communication means 24. Such an object 20 no longer requires wired connectivity to cooperate with a third device.
A ce sujet, la figure 1 décrit en outre un tel dispositif électronique tiers, tel qu'un ordinateur personnel 10 ou une tablette tactile par exemples. A l'instar d'un objet électronique 20, ledit dispositif 10 comporte une unité de traitement 11, par exemple sous la forme d'un ou plusieurs microcontrôleurs ou processeurs coopérant avec des moyens de mémorisation 12, 13, sous la forme d'une mémoire de programmes 12 et d'une mémoire de données 13, lesdites mémoire de données 12 et de programmes 13 pouvant être dissociées ou former éventuellement une seule et même entité physique. Le dispositif électronique 10 peut être adapté pour interpréter un flux de données composite par le chargement d'un produit programme d'ordinateur PI conforme à l'invention dans la mémoire de programmes 12. Ledit dispositif électronique 10, ainsi adapté, devient à même de réceptionner, d'interpréter et d'exploiter un flux de données composite sous la forme d'un ou plusieurs messages Ml entrants et véhiculés par un réseau de communication NI, exploitant avantageusement un protocole de communication sans fil de types Wifi ou Bluetooth. Notons que l'invention n'exclut pas en tant que telle un mode de communication filaire, par exemple de type USB, afin de ne plus être pénalisé par les limites de bande passante imposées par une telle liaison. Le dispositif électronique 10 comporte ainsi des moyens de communication 14 agencés pour assurer une telle communication, en réceptionnant des messages Ml préalablement encodés par un objet électronique 20. Les moyens de mémorisation 12, 13 et les moyens de communication 14 coopèrent avantageusement avec l'unité de traitement 11 par un ou plusieurs bus de communication, représentés par des doubles flèches en figure 1. In this regard, Figure 1 further describes such a third electronic device, such as a personal computer 10 or a touch pad for example. AT Like an electronic object 20, said device 10 comprises a processing unit 11, for example in the form of one or more microcontrollers or processors cooperating with storage means 12, 13, in the form of a memory of programs 12 and a data memory 13, said data memory 12 and programs 13 can be dissociated or possibly form one and the same physical entity. The electronic device 10 can be adapted to interpret a composite data stream by the loading of a computer program product PI according to the invention into the program memory 12. Said electronic device 10, thus adapted, becomes capable of receiving, interpreting and operating a composite data stream in the form of one or more incoming Ml messages conveyed by an NI communication network, advantageously exploiting a Wi-Fi or Bluetooth type wireless communication protocol. Note that the invention does not exclude as such a wired communication mode, for example USB type, in order to no longer be penalized by the bandwidth limits imposed by such a link. The electronic device 10 thus comprises communication means 14 arranged to provide such communication, by receiving M1 messages previously encoded by an electronic object 20. The storage means 12, 13 and the communication means 14 advantageously cooperate with the unit. 11 by one or more communication buses, represented by double arrows in FIG.
Dans un exemple préféré de l'invention, mais de manière non limitative, la mémoire de données 13 peut être agencée pour enregistrer la teneur des messages Ml réceptionnés par les moyens de communication 14. In a preferred example of the invention, but in a nonlimiting manner, the data memory 13 can be arranged to record the content of messages Ml received by the communication means 14.
Un dispositif électronique 10 comporte en outre avantageusement une interface homme-machine de consigne et/ou de restitution 1D coopérant avec l'unité de traitement 11. Ladite interface 1D permet de restituer à un utilisateur U dudit dispositif 10, par exemple la teneur des données transmises par l'objet électronique 20 ou produites par l'unité de traitement 11 dudit dispositif 10. Ladite interface homme/machine de consigne et/ou de restitution 1D peut permettre en outre de traduire une gestuelle ou une commande vocale dudit utilisateur U en données de consigne C interprétable par l'unité de traitement 11 dudit dispositif 10. Une telle interface 1D peut par exemple, consister en un écran tactile ou se présenter sous la forme de tout autre moyen permettant à un utilisateur U du dispositif 10 d' interagir avec ledit dispositif électronique 10. En variante, le dispositif électronique 10 peut comporter deux interfaces homme-machine distinctes pour traduire des consignes émanant d'un utilisateur U et pour restituer à celui-ci des contenus graphiques et/ou sonores. Par exemple et à titre non limitatif, une telle interface de consigne peut consister en un clavier ou un microphone et une telle interface de restitution peut consister un écran ou un haut-parleur.  An electronic device 10 furthermore advantageously comprises a man-machine interface of instruction and / or reproduction 1D cooperating with the processing unit 11. Said interface 1D makes it possible to restore to a user U of said device 10, for example the content of the data. transmitted by the electronic object 20 or produced by the processing unit 11 of said device 10. Said man / machine interface setpoint and / or restitution 1D can also be used to translate a gesture or a voice command of said user U data. setpoint C interpretable by the processing unit 11 of said device 10. Such a 1D interface may for example consist of a touch screen or be in the form of any other means allowing a user U of the device 10 to interact with said electronic device 10. Alternatively, the electronic device 10 may comprise two separate man-machine interfaces for translating instructions ema a user U and to restore to it graphical and / or sound contents. For example and without limitation, such a setpoint interface may consist of a keyboard or a microphone and such a rendering interface may consist of a screen or a speaker.
Pour illustrer l'apport de l'invention, étudions un cas selon lequel un moyen de capture 25, par exemple de type capteur matriciel d'images, capture le globe oculaire d'un patient. La zone d'intérêt Zi est dès lors constituée de la pupille P et de l'iris I d'un œil 0 et la zone d'environnement Zn du globe oculaire et de la paupière du patient, tel que représenté en lien avec la figure 4. To illustrate the contribution of the invention, let us study a case in which a capture means 25, for example of image matrix sensor type, captures the eyeball of a patient. The zone of interest Zi is therefore composed of the pupil P and the iris I of an eye 0 and the zone of environment Zn of the eyeball and the eyelid of the patient, as shown in connection with FIG.
La figure 3 décrit un schéma fonctionnel conforme à l'invention d'un procédé 200 pour élaborer un flux de données composite.  Figure 3 depicts a block diagram according to the invention of a method 200 for developing a composite data stream.
Un procédé 200 conforme à l'invention et mis en œuvre par une unité de traitement 21 d'un objet électronique 20 tel que décrit en liaison avec la figure 1, comporte une première étape 202 pour déclencher la capture d'une zone ou scène d'étude Ze. Ladite étape 202 consiste à produire une représentation numérique R(ti) de la zone d'étude Ze en lien avec une période courante ti. Les données d'études De caractérisant la transcription informatique de la représentation numérique R(ti) sont mémorisées au sein des moyens de mémorisation 22, 23, par exemple sous la forme d'une structure de type tableau d'entiers, chaque champs étant respectivement associé aux différents pixels et décrivant un niveau de gris dudit pixel associé, tel qu'à titre d'exemple une valeur nulle décrivant un niveau de gris faible tel que le noir et une valeur égale à 256 décrivant un niveau de gris élevé tel que le blanc. Une telle structure peut en outre, et à titre d'exemple non limitatif, enregistrer un ou plusieurs attributs liés à la capture de la scène d'étude. Par exemple, un tel attribut peut enregistrer la période d'acquisition ti et un identifiant Idc caractérisant les moyens de capture 25. A method 200 according to the invention and implemented by a processing unit 21 of an electronic object 20 as described in connection with FIG. 1, comprises a first step 202 for triggering the capture of a zone or scene of Ze study. Said step 202 consists in producing a digital representation R (ti) of the study zone Ze in connection with a current period ti. The data of studies characterizing the computer transcription of the digital representation R (ti) are stored within the storage means 22, 23, for example in the form of an array structure of integers, each field being respectively associated with the different pixels and describing a gray level of said associated pixel, such as for example a zero value describing a low gray level such as black and a value equal to 256 describing a high gray level such as the White. Such a structure may furthermore, and by way of nonlimiting example, record one or more attributes related to the capture of the study scene. For example, such an attribute can record the acquisition period ti and an identifier Idc characterizing the capture means 25.
Le procédé 200 comporte également une étape 203 pour discriminer parmi les données d'études De, des données d'intérêt Di et des données d'environnement Dn . Une telle étape 203 consiste à mettre en œuvre une fonction ou un traitement de discrimination permettant d' identifier et d' isoler des données d' intérêt Di selon un critère prédéfini. Par exemple on cherchera à dissocier les données Di en lien avec la pupille P et l'iris I de l'œil étudié au regard des données Dn en lien avec le reste du globe oculaire. Une telle fonction de discrimination peut consister à analyser la représentation numérique, c'est- à-dire les données d'études De, de la zone d'étude capturée, par exemple sous la forme d'un tableau de pixels comportant les intensités lumineuses en niveau de gris de chaque pixel, et de rechercher selon des méthodes connues d'analyse d'images, l'emplacement de la pupille de l'œil. De telles méthodes d'analyse d'image peuvent, à titre d'exemple non limitatif, consister premièrement à effectuer un seuillage des données d'étude De afin d'obtenir une représentation numérique binarisée de l'image, c'est-à-dire comportant que deux valeurs. Un tel seuillage peut à titre d'exemple consister à remplacer la valeur du niveau de gris par une valeur nulle de tous les pixels ayant un niveau de gris inférieur à une valeur prédéterminée et à remplacer la valeur de niveau de gris par une valeur de niveau de gris maximale de tous les pixels ayant un niveau de gris supérieur ou égal à ladite valeur prédéterminée. A titre d'exemple non limitatif pour une image en 256 niveaux de gris la valeur prédéterminée peut être fixée à 125. Une autre technique de seuillage peut consister à calculer l'histogramme de l'image, c'est-à-dire déterminer la distribution des intensités lumineuses des pixels de l'image, puis effectuer une modification de l'intensité générale de l'image pour en augmenter les nuances de gris afin d'augmenter les contrastes. Après le seuillage, une telle méthode peut mettre en œuvre une étape dite de nettoyage. Le nettoyage peut consister, à titre d'exemple en une analyse morphologique de l'image à partir de règles prédéterminées. Par exemple, une pupille d'un œil est généralement de forme circulaire. Un tel nettoyage peut dès lors consister à exclure de l'analyse de l'image toutes les zones de formes non circulaires, tel qu'à titre d'exemple les formes oblongues pouvant caractériser une zone de maquillage sur le dessus de la paupière de l'œil. Enfin une telle méthode d'analyse d'image peut comporter une étape de calcul pour estimer grossièrement l'emplacement de la pupille. Une telle étape peut, à titre d'exemple, consister à isoler virtuellement un groupe de pixels représentant un disque et ayant un niveau de gris faible proche du noir, puis à déterminer le centre dudit disque, par exemple en calculant son barycentre. The method 200 also comprises a step 203 for discriminating, among the data of studies De, data of interest Di and data of environment Dn. Such a step 203 consists in implementing a discriminating function or treatment that makes it possible to identify and to isolate data of interest Di according to a predefined criterion. For example, we will try to dissociate the Di data in relation to the P pupil and the iris I of the studied eye with regard to the Dn data in relation to the rest of the eyeball. Such a discrimination function may consist in analyzing the digital representation, ie the data of studies De, of the captured study area, for example in the form of an array of pixels comprising the light intensities. in gray level of each pixel, and search according to known methods of image analysis, the location of the pupil of the eye. Such image analysis methods may, by way of nonlimiting example, consist firstly of performing a thresholding of the study data De in order to obtain a binarized digital representation of the image, ie say having only two values. Such thresholding may for example consist of replacing the value of the gray level by a value of zero of all the pixels having a gray level lower than a predetermined value and replacing the value of gray level by a value of level maximum gray level of all pixels having a gray level greater than or equal to said predetermined value. By way of non-limiting example for a 256-level gray image, the predetermined value can be set at 125. Another thresholding technique may consist in calculating the histogram of the image, that is to say, determining the distribution of the luminous intensities of the pixels of the image, then make a modification of the general intensity of the image to increase the shades of gray in order to increase the contrasts. After thresholding, such a method can implement a so-called cleaning step. The cleaning may consist, for example in a morphological analysis of the image from predetermined rules. For example, a pupil of an eye is usually circular in shape. Such a cleaning can therefore consist in excluding from the image analysis all the non-circular shaped areas, such as, for example, the oblong shapes that can characterize a makeup area on the top of the eyelid of the eye. 'eye. Finally, such an image analysis method may comprise a calculation step for roughly estimating the location of the pupil. Such a step may, for example, consist in virtually isolating a group of pixels representing a disk and having a low gray level close to black, and then determining the center of said disk, for example by calculating its center of gravity.
Une fois l'emplacement du centre de la pupille déterminé, la fonction de discrimination peut prévoir de définir une forme géométrique autour dudit centre, par exemple un carré ou un cercle de côtés ou de rayon déterminés, ladite forme géométrique englobant les pixels de la zone d'intérêt, en l'espèce la pupille et l'iris. A titre d'exemple non limitatif, ladite forme géométrique peut consister en un carré de côtés de 12 millimètres ou de 144 pixels. L'invention prévoit dès lors de discriminer les données d'intérêt Di comme étant inscrites dans une deuxième structure mémoire de type tableau d'entiers associés aux seuls pixels capturés par ladite forme géométrique. Une telle deuxième structure de données Di peut être enregistrée à titre d'exemple non limitatif, dans la mémoire de données 23 dudit objet 20.  Once the location of the center of the pupil has been determined, the discrimination function can provide for defining a geometrical shape around said center, for example a square or a circle of determined sides or radius, said geometric shape including the pixels of the area of interest, in this case the pupil and the iris. By way of non-limiting example, said geometric shape may consist of a square of sides of 12 millimeters or 144 pixels. The invention therefore provides for discriminating the data of interest Di as being written in a second integer array memory structure associated with the only pixels captured by said geometric shape. Such a second data structure Di can be recorded as a non-limiting example, in the data memory 23 of said object 20.
Les données d'environnement Dn peuvent consister en la structure enregistrant les données d'étude De ou, en variante, résulter d'une copie de celle-ci pour laquelle, les valeurs d' intensités associées aux pixels d' intérêt ont été remplacés par une valeur prédéterminée, par exemple nulle. The environment data Dn may consist of the structure recording the study data From or, as a variant, result from a copy of this data for which, the intensity values associated with the pixels of interest have been replaced by a predetermined value, for example zero.
Selon une variante de l'invention les moyens de mémorisation 22, 23 de l'objet électronique 20 comportent un enregistrement agencé pour mémoriser des paramètres de zone d' intérêt PI permettant de discriminer les données d'intérêt Di au sein des données d'études De produites par le moyen de capture 25 de l'objet électronique 20. De tels paramètres désignent ainsi les données Di . A titre d'exemple non limitatif, de tels paramètres de zone d' intérêt PI peuvent correspondre à un couple de coordonnées X, Y désignant un pixel réfèrent, c'est-à- dire les données associées audit pixel lorsque celles-ci sont agencées avantageusement sous la forme d'un tableau dans des moyens de mémorisation 22, 23 de l'objet 20. De tels paramètres de zone d' intérêt PI peuvent en outre comporter un couple de valeurs W, H caractérisant une largeur et/ou une longueur d'une figure géométrique, tel qu'à titre d'exemple un carré, délimitant une zone d'intérêt souhaitée. L'étape 203 pour discriminer les données d'intérêt Di parmi les données d'études De et ainsi les distinguer des données d'environnement Dn, consiste dès lors à extraire lesdits paramètres de zone d'intérêt PI et à mettre en œuvre une fonction de discrimination selon la teneur desdits paramètres de zone d' intérêt PI .  According to one variant of the invention, the storage means 22, 23 of the electronic object 20 comprise a recording arranged for storing parameters of area of interest P1 making it possible to discriminate the data of interest Di within the study data. Produced by the capture means 25 of the electronic object 20. Such parameters thus denote the data Di. By way of non-limiting example, such area of interest parameters PI may correspond to a pair of X, Y coordinates denoting a reference pixel, that is to say the data associated with said pixel when they are arranged. advantageously in the form of an array in storage means 22, 23 of the object 20. Such parameters of area of interest PI may further comprise a pair of values W, H characterizing a width and / or a length a geometric figure, such as for example a square, delimiting a desired area of interest. Step 203 for discriminating the data of interest Di from the data of studies D and thus to distinguish them from the environment data Dn, consists therefore in extracting said parameters of area of interest P1 and in implementing a function discriminating according to the content of said parameters of area of interest PI.
Selon une variante de l'invention, les données d'intérêt Di peuvent correspondre à l'ensemble des données d'études De.  According to a variant of the invention, the data of interest Di can correspond to the set of data De studies.
Le procédé 200 comporte dès lors une étape 204 pour encoder les données d' intérêt Di selon une première fonction d'encodage Fl et les données d'environnement Dn selon une deuxième fonction d'encodage F2. A titre d'exemples non limitatifs, les fonctions d'encodage Fl, F2, peuvent respectivement s'appuyer sur des paramètres d'encodages El, E2, caractérisant une norme d'encodage, une résolution d'image souhaitée, exprimée en nombre de pixels, et/ou des paramètres de compression irréversible caractérisant un taux de regroupement de pixels connus sous la dénomination « binning » selon une terminologie anglo-saxonne, etc. Ainsi de tels premiers paramètres d'encodage El peuvent caractériser un attribut traduisant une norme RLE acronyme de « Run Length Encoding » selon une terminologie anglo-saxonne, un attribut caractérisant une image de 744x480 pixels, un attribut caractérisant un taux de binning nul, un attribut requérant la transmission de toutes les intensités lumineuses des pixels. A titre d'exemple non limitatif, les deuxièmes paramètres d'encodage E2 encodant les données d'environnement Dn peuvent en revanche caractériser un attribut traduisant une norme JPEG, un attribut caractérisant une image de 320x240 pixels, un attribut caractérisant un taux de binning de 50%, et un attribut caractérisant la transmission des intensités lumineuses des seuls pixels de rang impair. Les données d'intérêt Di ainsi encodées, ci après désignées Di' , peuvent dès lors être enregistrées sous la forme d'un tableau de données. Il en est de même pour les données d'environnement Dn encodées, ci après désignées Dn' . La mémoire de données 23 peut ainsi comporter un tableau de données d'environnement encodées Dn' et un tableau de données d'intérêt encodées Di' . Nous pouvons remarquer, que selon la teneur des paramètres El et E2, les données d'intérêt encodées Di' peuvent ainsi être moins dégradées que les données d'environnement encodées Dn' . The method 200 therefore comprises a step 204 for encoding the data of interest Di according to a first encoding function F1 and the environment data Dn according to a second encoding function F2. By way of nonlimiting examples, the encoding functions F1, F2 can respectively rely on encoding parameters E1, E2, characterizing an encoding standard, a desired image resolution, expressed in number of pixels, and / or irreversible compression parameters characterizing a grouping ratio of pixels known under the name "binning" according to English terminology, etc. Thus, such first encoding parameters El can characterize an attribute translating a RLE standard, an acronym for "Run Length Encoding" according to an English terminology, an attribute characterizing an image of 744 × 480 pixels, an attribute characterizing a zero binning rate, a attribute requiring transmission of all light intensities of the pixels. By way of nonlimiting example, the second encoding parameters E2 encoding the environment data Dn can, on the other hand, characterize an attribute expressing a JPEG standard, an attribute characterizing an image of 320 × 240 pixels, an attribute characterizing a binning rate of 50%, and an attribute characterizing the transmission of light intensities of only pixels of odd rank. The data of interest Di thus encoded, hereinafter designated Di ', can then be recorded in the form of a data table. It is the same for the environment data Dn encoded, hereinafter denoted Dn '. The data memory 23 can thus comprise a table of encoded environment data Dn 'and a table of encoded interest data Di'. We can notice that according to the content of parameters E1 and E2, the data of interest encoded Di 'can be less degraded than the encoded environment data Dn'.
De tels paramètres d'encodage El, E2, peuvent être avantageusement enregistrés dans les moyens de mémorisation 22, 23 de l'objet électronique 20, sous la forme d'un ou plusieurs enregistrements. L'étape 204 pour encoder les données d' intérêt Di selon une première fonction d'encodage Fl et les données d'environnement Dn selon une deuxième fonction d'encodage F2 consiste dès lors à extraire, préalablement à l'encodage des données Di et Dn en tant que tel, lesdits paramètres El, E2 et à élaborer, paramétrer ou choisir les première et deuxième fonctions d'encodage Fl et F2 à partir des paramètres d'encodage El et E2. Such encoding parameters E1, E2 can advantageously be recorded in the storage means 22, 23 of the electronic object 20, in the form of one or more recordings. The step 204 for encoding the data of interest Di according to a first encoding function F1 and the environment data Dn according to a second encoding function F2 then consists of extracting, prior to the encoding of the data Di and Dn as such, said parameters E1, E2 and to elaborate, parameterize or choose the first and second encoding functions Fl and F2 from the encoding parameters E1 and E2.
Le procédé 200 comporte dès lors une étape 205 pour élaborer et déclencher l'émission, par les moyens de communication 24 à destination d'un dispositif électronique 10, d'un ou plusieurs messages Ml comportant chacun tout ou partie des données Di' et/ou Dn' et un descripteur, par exemple sous la forme d'un entête. The method 200 then comprises a step 205 for generating and triggering the transmission, by the communication means 24 to an electronic device 10, of one or more messages M1 each comprising all or part of the data Di 'and / or Dn 'and a descriptor, for example in the form of a header.
Un descripteur de message Ml peut comporter, par exemples, un identifiant Idc des moyens de capture 25, un champ comportant un identifiant de la période d'acquisition t des données d'études dont sont issues les données Di' et/ou Dn' , un attribut caractérisant le type de données d'études transmises, un attribut d'encodage désignant la fonction d'encodage desdites données transmises, un identifiant d'objet émetteur dudit message Ml, voire un identifiant de dispositif destinataire dudit message Ml. Un tel descripteur peut en outre comporter un attribut caractérisant un référentiel commun entre des données d'intérêt Di' et des données d'environnement Dn' transmises dans un lot de messages Ml. Un tel référentiel peut consister, à titre d'exemple, en les coordonnées d'un pixel de référence présent dans les deux représentations numériques de la zone d' intérêt Zi et de la zone d'environnement Zn, à titre d'exemple un pixel associé à un centre pupillaire. A message descriptor M1 may comprise, for example, an identifier Idc of the capture means 25, a field comprising an identifier of the acquisition period t of the study data from which the data Di 'and / or Dn' originate, an attribute characterizing the type of study data transmitted, an encoding attribute designating the encoding function of said transmitted data, an object identifier transmitting said message M1, or even a device identifier receiving said message M1. Such a descriptor may further include an attribute characterizing a common reference frame between data of interest Di 'and environment data Dn' transmitted in a batch of messages Ml. Such a reference frame may consist, by way of example, in the coordinates of a reference pixel present in the two digital representations of the zone of interest Zi and the zone of environment Zn, for example a pixel associated with a pupillary center.
La transmission des données préalablement encodées Di' et Dn' peut se traduire en une pluralité de messages Ml dont les descripteurs respectifs peuvent en outre comporter un indicateur séquentiel, pour ordonner lesdits messages lors de leurs réceptions, voire des données de redondance, d'intégrité et/ou de chiffrements éventuels. The transmission of the previously encoded data Di 'and Dn' can be translated into a plurality of messages M1 whose respective descriptors may further comprise a sequential indicator, for ordering said messages during their reception, or even data of redundancy, of integrity and / or possible ciphers.
Le dispositif électronique 10 reçoit au travers de ses moyens de communication 14, un ou plusieurs messages Ml lors d'une étape 102 d'un procédé 100 pour interpréter un flux de données composite, un exemple d'un tel procédé 100 étant décrit en lien avec les figures 2 et 6. The electronic device 10 receives through its communication means 14, one or more messages M1 during a step 102 of a method 100 for interpreting a composite data stream, an example of such a method 100 being described in connection with with Figures 2 and 6.
Un tel procédé 100 pour interpréter un flux de données composite est mis en œuvre par l'unité de traitement 11 dudit dispositif 10. Le procédé 100 comporte une étape 103 pour décoder la teneur dudit message Ml. Une telle étape 103 peut consister à décoder et extraire du descripteur dudit message Ml, l'attribut caractérisant le type de données d'études transmises et l'attribut d'encodage désignant la fonction d'encodage des données d'études mises en œuvre par l'objet électronique 20 ayant émis ledit message Ml. L'étape 103 peut ensuite consister à décoder les données d'études transmises selon une fonction de décodage Fl', F2' . Le choix et/ou le paramétrage d'une telle fonction de décodage peut dépendre dudit attribut d'encodage ainsi décodé ou être prédéterminé. En variante un tel attribut peut en outre comporter un paramètre d'encodage El ou E2 de fonction d'encodage Fl ou F2 mise en œuvre par l'objet 20. Such a method 100 for interpreting a composite data stream is implemented by the processing unit 11 of said device 10. The method 100 includes a step 103 for decoding the content of said message M1. Such a step 103 may consist in decoding and extracting from the descriptor of said message M1, the attribute characterizing the type of study data transmitted and the encoding attribute designating the encoding function of the data of studies implemented by the electronic object 20 having sent said message M1. Step 103 may then consist of decoding the study data transmitted according to a decoding function F1 ', F2'. The choice and / or parameterization of such a decoding function can depend on said encoding attribute thus decoded or be predetermined. As a variant, such an attribute may furthermore comprise an encoding parameter E1 or E2 of encoding function F1 or F2 implemented by the object 20.
A titre d'exemple non limitatif, les données d'études By way of non-limiting example, the study data
De' véhiculées dans le message Ml, peuvent consister en des données d'intérêt encodées Di' et/ou des données d'environnement encodées Dn' . L'étape 103 consiste dès lors à mettre en œuvre une première fonction de décodage Fl' pour décoder les données d'intérêt Di' et une deuxième fonction de décodage F2' pour décoder lesdites données d'environnement Dn' . Les moyens de mémorisation 12, 13 du dispositif 10 comportent avantageusement des structures de données, par exemple sous la forme d'un ou plusieurs tableaux d'entiers pour enregistrer les données d'intérêt Di' ' et les données d'environnement Dn' ' ainsi décodées. De tels tableaux peuvent ainsi, par exemple, enregistrer des intensités lumineuses et/ou niveau de gris de pixels d'une image que le dispositif 10 pourra recomposer. Lesdits tableaux sont dès lors des représentations numériques semblables à celles de la zone d'intérêt Zi et de la zone d'environnement Zn préalablement capturées par l'objet électronique 20. En effet, comme nous l'avons vu précédemment les données d'étude De peuvent avoir été encodées et transmises selon un facteur de compression irréversible mis en œuvre selon une fonction d'encodage Fl, F2, par exemple en n'encodant et ne transmettant que les intensités lumineuses des seuls pixels de rangs impairs. Les fonctions de décodage Fl', F2' doivent dès lors à titre d'exemple non limitatif interpoler les données d'études De' ainsi reçues en enregistrant dans les rangs impairs des tableaux d'entiers la valeur des intensités lumineuses du rangs pairs inférieur. Toute autre fonction d'interpolation pourrait, en variante, être mise en œuvre. From 'conveyed in the message M1, may consist of encoded data of interest Di' and / or encoded environment data Dn '. Step 103 therefore consists in implementing a first decoding function F1 'for decoding the data of interest Di' and a second decoding function F2 'for decoding said environment data Dn'. The storage means 12, 13 of the device 10 advantageously comprise data structures, for example in the form of one or more arrays of integers for storing the data of interest Di '' and the environment data Dn '' thus decoded. Such tables can thus, for example, record light intensities and / or gray level of pixels of an image that the device 10 can recompose. Said tables are therefore numerical representations similar to those of the zone of interest Zi and the zone of environment Zn previously captured by the electronic object 20. In fact, as we have seen previously the data of study De may have been encoded and transmitted according to an irreversible compression factor implemented according to an encoding function F1, F2, for example by encoding and transmitting only the light intensities of only pixels of odd ranks. The decoding functions F1 ', F2' must therefore, by way of nonlimiting example, interpolate the data of studies De 'thus obtained by recording in the odd rows of integer arrays the value of the luminous intensities of the ranks lower peers. Any other interpolation function could alternatively be implemented.
Le procédé 100 comporte une étape 104 pour exploiter conjointement lesdites données d'intérêt Di' ' et données d'environnement Dn' ' ainsi décodées. The method 100 comprises a step 104 for jointly exploiting said data of interest Di '' and environment data Dn '' thus decoded.
Une telle exploitation peut à titre d'exemple non limitatif consister à produire des enregistrements horodatés et dédiés à l'archivage dans la mémoire de données 13 pour créer un historique des données d'intérêt Di' ' et données d'environnement Dn' ' décodées. Un tel enregistrement peut, à titre d'exemple non limitatif, être agencé pour mémoriser la période d'acquisition t des données d'étude dont sont issues les données Di' et/ou Dn' précédemment extraites du message Ml et les tableaux d'entiers associés aux données d'intérêt Di' ' et aux données d'environnement Dn' ' décodées. Un tel archivage peut être exploité à des fins de calculs ou d'élaboration de nouvelles données. A titre d'exemple non limitatif, lorsque les données d'études concernent des vecteurs d'accélération délivrés par un gyroscope, un tel archivage peut permettre de reproduire la trajectoire et la vitesse du globe oculaire pendant un examen. En variante ou en complément les données d'études peuvent être produites à partir d'un capteur d'image matriciel du globe oculaire. Pour déterminer la trajectoire dudit globe oculaire, l'unité de traitement 11 du dispositif 10 peut déterminer l'emplacement du centre pupillaire selon des méthodes d' analyse d' image connues et exposées précédemment, à partir des données d'intérêt Di' ' extraites de plusieurs enregistrements dédiés à l'archivage. La mémoire de données 13 comporte dès lors une structure de données de restitution de trajectoire comportant plusieurs enregistrements agencés pour enregistrer des données de restitutions Dr de trajectoire comportant lesdites emplacements de centre pupillaire et la période d'acquisition associée. Such an operation can, by way of nonlimiting example, consist in producing time-stamped recordings dedicated to archiving in the data memory 13 to create a history of the data of interest Di '' and environment data Dn '' decoded . Such a record may, by way of nonlimiting example, be arranged to store the acquisition period t of the study data from which the data Di 'and / or Dn' previously extracted from the message M1 and the tables of integers associated with the data of interest Di '' and the decoded environment data Dn ''. Such archiving can be used for computational purposes or for the development of new data. By way of non-limiting example, when the study data relate to acceleration vectors delivered by a gyroscope, such archiving can make it possible to reproduce the trajectory and the speed of the eyeball during an examination. Alternatively or in addition to the study data can be produced from a matrix image sensor of the eyeball. To determine the trajectory of said eyeball, the processing unit 11 of the device 10 can determine the location of the pupillary center according to known image analysis methods and exposed previously, from the data of interest Di '' extracted several records dedicated to archiving. The data memory 13 therefore comprises a trajectory restitution data structure. having a plurality of records arranged to record trajectory feedback data Dr having said pupillary center locations and the associated acquisition period.
A titre d'exemple préféré mais non limitatif, une exploitation conjointe des données d'intérêt Di' ' décodées et des données d'environnement Dn' ' décodées et issues d'une même acquisition par les moyens de capture 25 de l'objet 20, peut consister à recomposer une image de la scène d'étude Ze destinée à être restituée par un interface de restitution 1D du dispositif électronique 10 ou coopérant avec ce dernier, à partir desdites données Di' ' et Dn' ' . La mémoire de données 13 comporte dès lors une structure de restitution d'image, par exemple sous la forme d'un tableau d'entiers, pour enregistrer des données de restitution Dr d' image nécessaires à l'élaboration d'une telle image. Lesdites données de restitution Dr d' image consistent en des données d'intérêt Di' ' et des données d'environnement Dn' ' précédemment décodées et issues d'une même acquisition. L'étape 104 peut dès lors consister à enregistrer dans le tableau de restitution la teneur des données d'environnement Dn' ' décodées, puis à virtuellement superposer les données d'intérêt Di' ' sur les données d'environnement Dn' ' . Une telle superposition peut consister à déterminer l'emplacement des données d'intérêt Di' ' par rapport aux données d'environnement Dn' ' à partir du référentiel commun extrait du message Ml préalablement réceptionné. La valeur des intensités lumineuses des pixels communs sont dès lors remplacés par celles des données d'intérêt Di' ' .  By way of a preferred but nonlimiting example, joint exploitation of the decoded data Di '' of interest and decoded environment data Dn '' from the same acquisition by the capture means 25 of the object 20 , may consist in recomposing an image of the study scene Ze intended to be restored by a rendering interface 1D of the electronic device 10 or cooperating with the latter, from said data Di '' and Dn ''. The data memory 13 therefore comprises an image restitution structure, for example in the form of an array of integers, for recording image reproduction data Dr necessary for the production of such an image. Said image reproduction data Dr consists of data of interest Di '' and environment data Dn '' previously decoded and coming from the same acquisition. Step 104 may therefore consist in recording in the rendering table the content of the decoded environment data Dn '', then in virtually superimposing the data of interest Di '' on the environment data Dn ''. Such an overlay can consist in determining the location of the data of interest Di '' with respect to the environment data Dn '' from the common repository extracted from the message M1 previously received. The value of the luminous intensities of the common pixels are therefore replaced by those of the data of interest Di ''.
Les données de restitution Dr ainsi créées peuvent être exploitées ultérieurement ou restituées sur une interface de restitution 1D du dispositif électronique 10. The reproduction data Dr thus created can be exploited later or restored on a 1D rendering interface of the electronic device 10.
A cet effet et selon l'exemple décrit en liaison avec la figure 2 ou 6, le procédé 100 comporte en outre une étape 105 pour déclencher la restitution, par une interface homme-machine de restitution 1D du dispositif électronique 10, de tout ou partie des données de restitution Dr précédemment élaborées. A titre d'exemple non limitatif, une telle restitution peut consister à afficher les données de restitution Dr de trajectoire sous la forme d'un graphique représentant l'emplacement du centre pupillaire en fonction du temps. For this purpose and according to the example described with reference to FIG. 2 or 6, the method 100 further comprises a step 105 for triggering the reproduction, by a man-machine interface of reproduction 1D of the electronic device 10, of all or part of Dr restitution data previously developed. By way of nonlimiting example, such a reproduction may consist in displaying the trajectory restitution data Dr in the form of a graph representing the location of the pupillary center as a function of time.
En variante une telle restitution peut consister à afficher les données de restitution Dr image sous la forme d'une image représentant une reconstruction de la zone d'étude Ze, telle que représentée en lien avec la figure 5. Comme on peut l'observer sur la figure 5, la courbe de la paupière de l'œil observé est restituée sous la forme d'un escalier de pixels dans la partie se trouvant à l'extérieur du carré blanc et correspondant aux données d'environnement Dn' ' décodées. Au contraire dans la zone intérieure du carré blanc et correspondant aux données d'intérêt Di' ' décodées la courbe de la paupière est restituée de façon très lisse. On observe bien deux résolutions d'images différentes.  As a variant, such a reproduction may consist in displaying the image reproduction data Dr in the form of an image representing a reconstruction of the study zone Ze, as shown with reference to FIG. 5. As can be seen on FIG. 5, the curve of the eyelid of the observed eye is rendered in the form of a staircase of pixels in the part lying outside the white square and corresponding to the environment data Dn "decoded. On the contrary, in the inner zone of the white square and corresponding to the decoded data of interest Di ', the curve of the eyelid is very smoothly restored. There are two different image resolutions.
Certains personnels de santé peuvent être gênés par une image comportant deux résolutions différentes, telle que représentée en figure 5. Le praticien peut considérer qu' il y a eu une perte d' information trop importante entre la capture de l'œil par l'objet électronique 20 et sa restitution par le dispositif 10. Pour faciliter l'adhésion du praticien à une image composite et la focalisation de son regard sur la zone d'intérêt Zi' ' restituée, l'invention prévoit d'y insérer une ligne de démarcation, telle que représentée par le carré blanc en figure 5. Une telle ligne de démarcation peut, à titre d'exemple non limitatif, être insérée dans les données de restitution Dr image en remplaçant la valeur des pixels des données d'environnement Dn' ' limitrophes avec les données d'intérêts Di' ' par une valeur égale à 256, décrivant un niveau de gris élevé, tel que le blanc. La détection des pixels limitrophes peut se faire selon des méthodes de traitement d'images connues. Some health personnel may be embarrassed by an image having two different resolutions, as shown in Figure 5. The practitioner may consider that there has been a loss of too important information between the capture of the eye by the object 20 and its restitution by the device 10. To facilitate the practitioner's adhesion to a composite image and the focusing of his gaze on the zone of interest Zi '' restored, the invention provides for the insertion of a demarcation line, as represented by the white square in FIG. Such a demarcation line may, by way of a non-limiting example, be inserted into the image reproduction data Dr by replacing the value of the pixels of the surrounding environment data Dn '' with the interest data Di '' by a value of 256, describing a high gray level, such as white. The detection of the boundary pixels can be done according to known image processing methods.
En outre, l'invention peut prévoir de superposer à la restitution de l'image composite des métadonnées supplémentaires, tels qu'à titre d'exemples non limitatif la période d'acquisition t de la capture restituée et l'emplacement du centre pupillaire représenté par une croix en lien avec la figure 5. Selon l'invention, l'objet électronique 20 peut comporter une pluralité de moyens de capture 25, tels qu'à titres d'exemples non limitatifs un capteur d'image matriciel et un gyroscope, produisant respectivement des premières données d'études Del relatives au globe oculaire et des deuxièmes données d'études De2 relatives au sens de rotation de la tête d'un patient, lesdites premières et deuxièmes données d'études Del, De2 étant capturées lors d'une même période d'acquisition ti. Le procédé 200 pour émettre un flux de données composite et le procédé 100 pour interpréter un tel flux, tout deux précédemment décrits, sont dès lors respectivement mis en œuvre par l'unité de traitement 21 de l'objet 20 à partir desdites premières et deuxièmes données d'études Del et De2 et par l'unité de traitement 11 du dispositif 10 à partir des premières et deuxièmes données d'études Del'' et De2'' décodées. Les fonctions d'encodage Fl, F2, Fx et de décodages Fl', F2', Fx' associées aux premières et deuxièmes données d'intérêt Dil, Di2 et/ou données d'environnement Dnl, Dn2 respectivement issues des premières et deuxièmes données d'études Del et De2 peuvent être avantageusement identiques ou distinctes, selon la nature des données échangées. In addition, the invention can provide for superimposing on the restitution of the composite image additional metadata, such as by way of non-limiting examples the acquisition period t of the captured image and the location of the pupillary center represented. by a cross in connection with FIG. 5. According to the invention, the electronic object 20 may comprise a plurality of capture means 25, such as by way of nonlimiting examples a matrix image sensor and a gyroscope, producing respectively first eyeball data Del and second data De2 studies relating to the direction of rotation of the head of a patient, said first and second study data Del, De2 being captured at the time of the same acquisition period ti. The method 200 for transmitting a composite data stream and the method 100 for interpreting such a stream, all two previously described, are respectively respectively implemented by the processing unit 21 of the object 20 from said first and second Del and study data De2 and the processing unit 11 of the device 10 from the first and second study data Del '' and De2 '' decoded. The encoding functions Fl, F2, Fx and decoding Fl ', F2', Fx 'associated with the first and second data of interest Dil, Di2 and / or environment data Dn1, Dn2 respectively from the first and second data Del and De2 studies can be advantageously identical or distinct, depending on the nature of the data exchanged.
L'étape 104 du procédé 100 pour exploiter les données d'études Del'' et De2'' décodées peut dès lors consister à produire des premières et deuxièmes données de restitution Drl et Dr2 respectivement à partir des premières et deuxièmes données d'étude Del'' et De2'' décodées. L'étape 105 pour déclencher la restitution de tout ou partie des données de restitution Drl, Dr2 par une interface de restitution 1D peut dès lors consister à incruster des données de restitution Dr2 dans les données de restitution Drl. A titre d'exemple non limitatif, une telle incrustation peut consister à insérer une représentation d'une flèche traduisant le sens de déplacement de la tête du patient dans la restitution de l'image composite issue des données de restitution Drl. Selon une variante de l'invention certains traitements mis en œuvre par l'unité de traitement 21 de l'objet électronique 20 peuvent être délégués et donc mis en œuvre en lieu et place de l'objet électronique 20, par le dispositif électronique 10.  The step 104 of the method 100 for exploiting the data of studies Del '' and De2 '' decoded can therefore consist in producing first and second reproduction data Dr1 and Dr2 respectively from the first and second data Del study. '' and De2 '' decoded. The step 105 for triggering the restitution of all or part of the reproduction data Dr1, Dr2 by a rendering interface 1D can therefore consist in embedding Dr2 reproduction data in the reproduction data Dr1. By way of non-limiting example, such an incrustation may consist in inserting a representation of an arrow translating the direction of movement of the patient's head into the restitution of the composite image resulting from the reproduction data Dr1. According to one variant of the invention, certain treatments implemented by the processing unit 21 of the electronic object 20 can be delegated and thus implemented in place of the electronic object 20, by the electronic device 10.
A titre d'exemple non limitatif, le dispositif électronique 10 peut informer l'objet 20 du positionnement de la zone d' intérêt Zi lors de l'acquisition suivante ou bien l'imposer dès le début de la mise en œuvre du procédé 200. Ledit procédé 100 comporte pour cela une étape 101, préalable à l'étape 102 pour recevoir un message Ml, pour élaborer une requête de commande Rcl comportant des paramètres de zone d' intérêt PI définis précédemment et désignant des données d'intérêt Di au sein des données d'études De produites par le moyen de capture 25 de l'objet électronique 20 que l'objet 20 aura à discriminer. Le procédé 200 pour élaborer un flux de données composite comporte dès lors une étape 201 pour réceptionner via les moyens de communication 24 dudit objet 20, ladite requête de commande Rcl, puis décoder et extraire lesdits paramètres de zone d'intérêt PI. L'étape 203 pour discriminer dans les données d'études De des données d'intérêt Di et des données d'environnement Dn consiste dès lors à mettre en œuvre une fonction de discrimination selon la teneur desdits paramètres de zone d' intérêt PI . By way of nonlimiting example, the electronic device 10 can inform the object 20 of the positioning of the zone of interest Zi during the following acquisition or impose it from the beginning of the implementation of the method 200. Said method 100 comprises for that a step 101, prior to the step 102 to receive a message M1, to develop a control request Rcl comprising area parameters of interest PI defined above and designating Data of interest Di within the study data generated by the capture means 25 of the electronic object 20 that the object 20 will have to discriminate. The method 200 for producing a composite data stream therefore comprises a step 201 for receiving, via the communication means 24 of said object 20, said control request Rcl, and then decoding and extracting said parameters of area of interest P1. Step 203 for discriminating in the data of studies of data of interest Di and environment data Dn therefore consists in implementing a discrimination function according to the content of said parameters of area of interest P1.
Selon une variante de l'invention l'étape 101 pour élaborer une requête de commande Rcl, peut en outre consister à élaborer une deuxième requête de commande Rc2 comportant des paramètres d'encodages de tout ou partie des données d'études De. A titre d'exemple une telle requête Rcl peut comporter des premier paramètres d'encodage El et des deuxième paramètres d'encodage E2 spécifiques aux données d' intérêt Di et données d'environnement Dn . L'étape 201 pour réceptionner et décoder la requête de commande Rcl du procédé 200 mis en oeuvre par l'unité de traitement 21 de l'objet électronique 20 peut dès lors consister à extraire la teneur desdits paramètres d'encodages El et E2 de la deuxième requête de commande Rc2. L'étape 204 pour encoder les données d' intérêt Di selon une première fonction d'encodage Fl et les données d'environnement Dn selon une deuxième fonction d'encodage F2 consiste dès lors à mettre en œuvre lesdites première et deuxième fonctions d'encodage Fl et F2 respectivement selon la teneur desdits premier et deuxième paramètres d'encodages El, E2. According to one variant of the invention, the step 101 for producing a control request Rcl may also consist in producing a second control request Rc2 comprising encoding parameters of all or part of the data of De. for example, such a request Rcl may comprise first encoding parameters E1 and second encoding parameters E2 specific to the data of interest D1 and environment data Dn. Step 201 for receiving and decoding the control request Rcl of the method 200 implemented by the processing unit 21 of the electronic object 20 may therefore consist in extracting the content of said encoding parameters E1 and E2 from the second control request Rc2. Step 204 to encode the data of interest Di according to a first encoding function F1 and the environment data Dn according to a second encoding function F2 is therefore to implement said first and second encoding functions F1 and F2 respectively according to the content of said first and second encoding parameters El, E2.
En variante lesdites première et deuxième requêtes de commande Rcl et Rc2 peuvent consister en une seule requête Rc3 comportant des paramètres de zone d'intérêt PI et des premier et deuxième paramètres d'encodage El, E2 spécifiques aux données d' intérêt Di et données d'environnement Dn . Selon une variante de l'invention, l'objet électronique 20 peut transmettre un flux vidéo au dispositif électronique 10. Le procédé 200 pour élaborer un flux de données composite est dès lors mis en œuvre itérativement , par exemples, toutes les 20 millisecondes ou toutes les 5 millisecondes. In a variant, said first and second control requests Rc1 and Rc2 may consist of a single request Rc3 comprising parameters of area of interest P1 and first and second encoding parameters E1, E2 specific to data of interest D1 and data d. environment Dn. According to a variant of the invention, the electronic object 20 can transmit a video stream to the electronic device 10. The method 200 for developing a composite data stream is therefore implemented iteratively, for example, every 20 milliseconds or all the 5 milliseconds.
En variante les requêtes de commande Rcl et/ou Rc2 et/ou Rc3 peuvent comporter un attribut caractérisant la fréquence de capture effectuée par les moyens de capture 25 et de transmission par les moyens de communication 24 des données d'études De. A titre d'exemple une telle fréquence peut être égale à 50Hz ou 200Hz.  As a variant, the control requests Rc1 and / or Rc2 and / or Rc3 may comprise an attribute characterizing the capture frequency effected by the capture means 25 and transmission by the communication means 24 of the data of studies De. example such a frequency can be equal to 50Hz or 200Hz.

Claims

REVENDICATIONS
Procédé (100) pour interpréter un flux de données composite mis en œuvre par une unité de traitement (11) d'un dispositif électronique (10) coopérant avec au moins un objet électronique communicant (20) comportant des moyens de capture (25) , ledit dispositif (10) comportant outre ladite unité de traitement (11) des moyens de communication (14) assurant un mode de communication avec ledit objet électronique (20) au travers d'un réseau de communication (NI), ledit procédé (100) étant caractérisé en ce que : A method (100) for interpreting a composite data stream implemented by a processing unit (11) of an electronic device (10) cooperating with at least one communicating electronic object (20) having capture means (25), said device (10) comprising in addition to said processing unit (11) communication means (14) providing a mode of communication with said electronic object (20) through a communication network (NI), said method (100) characterized in that:
- le flux de données comporte des données d'études préalablement encodées (De') par l'objet électronique (20), lesdites données d'études (De') comportant des données d'intérêt encodées (Di' ) selon une première fonction d'encodage (Fl) et des données d'environnement encodées (Dn' ) selon une deuxième fonction d'encodage (F2), lesdites données d'études (De) étant préalablement produites par lesdits moyens de capture (25) dudit objet électronique (20) ;  the data stream comprises data of studies previously encoded (De ') by the electronic object (20), said data of studies (De') comprising data of interest encoded (Di ') according to a first function encoding means (F1) and encoded environment data (Dn ') according to a second encoding function (F2), said study data (De) being previously produced by said capturing means (25) of said electronic object (20);
- et en ce que ledit procédé (100) comporte :  and in that said method (100) comprises:
o une étape (102) pour recevoir, via les moyens de communication (14), un message (Ml) comportant lesdites données d'études (De' ) encodées ;  a step (102) for receiving, via the communication means (14), a message (M1) comprising said data of studies (De ') encoded;
o une étape (103) pour décoder lesdites données d'études (De') encodées, ladite étape consiste à décoder lesdites données d'intérêt et d'environnement encodées (Di' , Dn' ) respectivement selon des première et deuxième fonctions de décodage (Fl', F2') déterminées ; a step (103) for decoding said encoded study data (De '), said step consists in decoding said data of interest and environment encoded (Di ', Dn') respectively according to determined first and second decoding functions (F1 ', F2');
o une étape (104) pour exploiter conjointement lesdites données d'intérêt (Di' ' ) et données d'environnement (Dn' ' ) ainsi décodées.  a step (104) for jointly exploiting said data of interest (Di '') and environment data (Dn '') thus decoded.
Procédé (100) selon la revendication précédente, pour lequel le message (Ml) comporte en outre un descripteur traduisant un référentiel commun aux données d'intérêt (Di' ) et aux données d'environnement (Dn' ) encodées, l'étape (104) pour exploiter conjointement lesdites données (Di' , Dn' ) consistant à produire des données de restitution (Dr) à partir des données d'intérêt et d'environnement décodées (Di' ' , Dn' ' ) et dudit référentiel commun. Method (100) according to the preceding claim, wherein the message (Ml) further comprises a descriptor translating a repository common to the data of interest (Di ') and to the environment data (Dn') encoded, the step ( 104) for jointly exploiting said data (Di ', Dn') of producing restitution data (Dr) from the decoded data of interest and environment (Di '', Dn '') and said common repository.
3. Procédé (100) selon la revendication 1 ou 2, comportant une étape (101) préalable à l'étape (102) pour recevoir un message (Ml) comportant des données d'intérêt (Di' ) et des données d'environnement (Dn' ) encodées, pour élaborer et déclencher l'émission par les moyens de communication (14) à destination de l'objet électronique (20) d'une requête de commande (Rc2) interprétable par ledit objet électronique (20) comportant un premier paramètre d'encodage (El) et un deuxième paramètre d'encodage (E2), lesdits premier et deuxième paramètres (El, E2) étant différents . The method (100) of claim 1 or 2, including a step (101) prior to step (102) for receiving a message (M1) having data of interest (Di ') and environment data. (Dn ') encoded, for developing and triggering transmission by the communication means (14) to the electronic object (20) of a control request (Rc2) interpretable by said electronic object (20) comprising a first encoding parameter (El) and a second encoding parameter (E2), said first and second parameters (E1, E2) being different.
Procédé (100) selon la revendication 1 ou 2, comportant une étape (101) préalable à l'étape (102) pour recevoir un message (Ml) comportant des données d'intérêt (Di' ) et des données d'environnement (Dn' ) encodées, pour élaborer et déclencher l'émission par les moyens de communication (14) à destination de l'objet électronique (20) d'une requête de commande (Rcl) interprétable par ledit objet électronique (20) comportant un paramètre de zone d'intérêt (PI) désignant des données d'intérêt (Di) au sein des données d'études (De) produites par les moyens de capture (25) de l'objet électronique (20), ledit paramètre de zone d'intérêt (PI) étant interprétable par l'objet électronique (20) pour discriminer les données d'intérêt (Di) des données d'environnement (Dn) préalablement produites par ledit objet (20) . A method (100) according to claim 1 or 2 including a step (101) prior to step (102) for receiving a message (M1) having data of interest (Di ') and environment data (Dn) ') encoded, for generating and triggering transmission by the communication means (14) to the electronic object (20) of a control request (Rcl) interpretable by said electronic object (20) having a parameter of area of interest (PI) designating data of interest (Di) within the study data (De) produced by the capture means (25) of the electronic object (20), said area parameter of interest (PI) being interpretable by the electronic object (20) for discriminating the data of interest (Di) environment data (Dn) previously produced by said object (20).
Procédé (100) selon l'une quelconque des revendications précédentes, pour lequel : A process (100) according to any one of the preceding claims, wherein
- le dispositif électronique (10) comporte une interface de restitution (1D) coopérant avec l'unité de traitement (11) dudit dispositif (10) ;  the electronic device (10) comprises a rendering interface (1D) cooperating with the processing unit (11) of said device (10);
- l'étape (104) pour exploiter conjointement lesdites données d'intérêt (Di' ' ) et données d'environnement (Dn' ' ) décodées consiste à produire des données de restitution (Dr) ; step (104) for jointly exploiting said data of interest (Di '') and data decoded environment (Dn '') consists in producing restitution data (Dr);
- ledit procédé (100) comporte une étape (105) postérieure à ladite étape (104) pour exploiter conjointement lesdites données d'intérêt (Di' ' ) et données d'environnement (Dn' ' ) décodées, pour déclencher la restitution desdites données de restitution (Dr) par l'interface de restitution (1D).  said method (100) comprises a step (105) subsequent to said step (104) for jointly exploiting said decoded data of interest (Di '') and environment data (Dn ''), to trigger the restitution of said data of restitution (Dr) by the rendering interface (1D).
Procédé (100) selon l'une quelconque des revendications précédentes, pour lequel les moyens de capture (25) comportent un capteur d'image matriciel, les données d'étude (De) produites par lesdits moyens de capture (25) consistant en une représentation numérique (R(t)) d'une scène capturée par ledit capteur d'image matriciel. A method (100) according to any one of the preceding claims, wherein the capture means (25) comprises a matrix image sensor, the study data (De) produced by said capture means (25) consisting of a digital representation (R (t)) of a scene captured by said array image sensor.
Procédé (100) selon la revendication précédente, pour lequel la scène capturée par ledit capteur d'image matriciel comporte un œil d'un sujet d'étude, et les données d'intérêt (Di) sont la représentation numérique de l'iris et de la pupille dudit œil. Method (100) according to the preceding claim, wherein the scene captured by said matrix image sensor comprises an eye of a subject of study, and the data of interest (Di) are the digital representation of the iris and of the pupil of said eye.
Produit programme d' ordinateur comportant des instructions de programme qui, lorsqu'elles sont préalablement enregistrées dans une mémoire de programmes (12) d'un dispositif électronique (10) comportant outre la mémoire de programmes (12), une unité de traitement (11) et des moyens de communication (14) assurant un mode de communication déterminé, ladite mémoire de programmes (12) et lesdits moyens de communication (14) coopérant avec ladite unité de traitement (11), provoquent la mise en œuvre d'un procédé (100) pour interpréter un flux de données composite selon l'une quelconque des revendications 1 à 7. Dispositif électronique (10) comportant une unité de traitement (11), une mémoire de programmes (12), une mémoire de données (13), des moyens de communication (14) coopérant avec ladite unité de traitement (11), ledit dispositif (10) étant caractérisé en ce qu'il comporte dans la mémoire de programmes (12) des instructions d'un produit programme d' ordinateur selon la revendication précédente . A computer program product having program instructions which, when previously stored in a program memory (12) of an electronic device (10) having in addition to the program memory (12), a program program processing unit (11) and communication means (14) providing a determined communication mode, said program memory (12) and said communication means (14) cooperating with said processing unit (11), cause the setting of a method (100) for interpreting a composite data stream according to any one of claims 1 to 7. Electronic device (10) comprising a processing unit (11), a program memory (12), a memory communication means (14) cooperating with said processing unit (11), said device (10) being characterized in that it comprises in the program memory (12) instructions of a product computer program according to the preceding claim.
Procédé (200) pour émettre un flux de données composite mis en œuvre par une unité de traitement (21) d'un objet électronique communicant (20) coopérant avec au moins un dispositif électronique (10), ledit objet électronique (20) comportant outre ladite unité de traitement (21) des moyens de capture (25) et des moyens de communication (24) assurant un mode de communication avec ledit dispositif électronique (10) au travers d'un réseau de communication (NI), ledit procédé (200) étant caractérisé en ce qu' il comporte : une étape (202) pour déclencher la production de données d'étude (De) par lesdits moyens de capture (25) dudit objet électronique (20), lesdites données d'étude (De) consistant en une représentation numérique (R(t)) d'une grandeur physique mesurée ; A method (200) for transmitting a composite data stream implemented by a processing unit (21) of a communicating electronic object (20) cooperating with at least one electronic device (10), said electronic object (20) having further said processing unit (21) of the capture means (25) and communication means (24) providing a mode of communication with said electronic device (10) through a communication network (NI), said method (200) ) being characterized in that it comprises: a step (202) for triggering the production of study data (De) by said capture means (25) of said electronic object (20), said study data (De) consisting of a digital representation (R (t) ) a measured physical quantity;
une étape (203) pour discriminer dans les données d'étude (De) des données d'intérêt (Di) et des données d'environnement (Dn) selon une fonction de discrimination ;  a step (203) for discriminating in the study data (De) data of interest (Di) and environment data (Dn) according to a discrimination function;
une étape (204) pour encoder les données d'intérêt (Di) selon une première fonction d'encodage (Fl) et les données d'environnement a step (204) for encoding the data of interest (Di) according to a first encoding function (F1) and the environment data
(Dn) selon une deuxième fonction d'encodage(Dn) according to a second encoding function
(F2) ; (F2);
une étape (205) pour élaborer et déclencher l'émission par les moyens de communication (24) à destination du dispositif électronique (10) d'un message (Ml) comportant tout ou partie desdites données d'intérêt (Di' ) et/ou desdites données d'environnement (Dn' ) encodées.  a step (205) for generating and triggering transmission by the communication means (24) to the electronic device (10) of a message (M1) comprising all or part of said data of interest (Di ') and / or said encoded environment data (Dn ').
Procédé (200) selon la revendication 10 comportant une étape (201) préalable à l'étape (204) pour encoder les données d'intérêt (Di) selon une première fonction d'encodage (Fl) et les données d'environnement (Dn) selon une deuxième fonction d'encodage (F2), pour recevoir via les moyens de communication (24) une requête de commande (Rc2) émise depuis le dispositif électronique (10) comportant un premier paramètre d'encodage (El) et un deuxième paramètre d'encodage (E2), et extraire lesdits paramètres, lesdites première et deuxième fonctions d'encodage (Fl, F2) étant respectivement mises en œuvre selon la teneur des premier et deuxième paramètres d'encodages (El, E2). The method (200) of claim 10 including a step (201) prior to step (204) for encoding the data of interest (Di) according to a first encoding function (F1) and the environment data (Dn). ) according to a second encoding function (F2), for receiving via the communication means (24) a control request (Rc2) transmitted from the device electronics (10) having a first encoding parameter (E1) and a second encoding parameter (E2), and extracting said parameters, said first and second encoding functions (F1, F2) being respectively implemented according to the content of the first and second encoding parameters (E1, E2).
Procédé (200) selon la revendication 10, comportant une étape préalable à l'étape (203) pour discriminer dans les données d'étude (De) des données d'intérêt (Di) et des données d'environnement (Dn) selon une fonction de discrimination, pour recevoir via les moyens de communication (24) une requête de commande (Rcl) émise depuis le dispositif électronique (10) comportant un paramètre de zone d'intérêt (PI) désignant des données d'intérêt (Di) et extraire ledit paramètre, ladite fonction de discrimination étant mise en œuvre selon la teneur dudit paramètre de zone d'intérêt (PI) . A method (200) according to claim 10, comprising a step prior to step (203) for discriminating in the study data (De) data of interest (Di) and environment data (Dn) according to a discrimination function, for receiving via the communication means (24) a control request (Rcl) transmitted from the electronic device (10) comprising a parameter of area of interest (PI) designating data of interest (Di) and extracting said parameter, said discriminating function being implemented according to the content of said parameter of area of interest (PI).
Procédé (200) selon la revendication 10, pour lequel : The process (200) of claim 10 wherein
- l'objet électronique (20) comporte en outre des moyens de mémorisation (12, 13) comportant un paramètre de zone d' intérêt (PI) désignant des données d'intérêt (Di) parmi les données d'études (De) ; ledit procédé comporte une étape préalable à l'étape (203) pour discriminer dans les données d'étude (De) des données d'intérêt (Di) et des données d'environnement (Dn) , pour extraire desdits moyens de mémorisation (12, 13) ledit paramètre de zone d'intérêt (PI) désignant des données d'intérêt (Di) et mettre en œuvre une fonction de discrimination selon la teneur dudit paramètre ( PI ) . - the electronic object (20) further comprises storage means (12, 13) including an area of interest parameter (PI) designating data of interest (Di) among the study data (De); said method comprises a step prior to step (203) for discriminating in the study data (De) data of interest (Di) and environment data (Dn), to extract from said storage means (12) , 13) said area of interest parameter (PI) designating data of interest (Di) and implementing a discrimination function according to the content of said parameter (PI).
Procédé (200) selon la revendication 10, pour lequel : The process (200) of claim 10 wherein
- l'objet électronique (20) comporte en outre des moyens de mémorisation (12, 13) comportant des premier et deuxième paramètres d'encodage (El, E2) ;  the electronic object (20) furthermore comprises storage means (12, 13) comprising first and second encoding parameters (E1, E2);
- l'étape (204) pour encoder les données d'intérêt (Di) selon une première fonction d'encodage (Fl) et les données d'environnement (Dn) selon une deuxième fonction d'encodage (F2), consiste en outre à extraire la teneur desdits paramètres d'encodage, lesdites première et deuxième fonctions d'encodage (Fl, F2) étant respectivement mises en œuvre selon ladite teneur des premier et deuxième paramètres d'encodage (El, E2). Procédé (200) selon l'une quelconque des revendications 10 à 14 pour lequel les moyens de capture (25) de l'objet électronique (10) comportent un capteur d'image matriciel, les données d'étude (De) produites par ledit capteur (25) étant la représentation numérique (R(t)) d'une scène capturée par ledit capteur matriciel (25) . step (204) for encoding the data of interest (Di) according to a first encoding function (F1) and the environment data (Dn) according to a second encoding function (F2), furthermore extracting the content of said encoding parameters, said first and second encoding functions (F1, F2) being respectively implemented according to said content of the first and second encoding parameters (E1, E2). A method (200) according to any one of claims 10 to 14 wherein the capture means (25) of the electronic object (10) comprises a matrix image sensor, the study data (De) produced by said sensor (25) being the digital representation (R (t)) of a scene captured by said array sensor (25).
Produit programme d' ordinateur comportant des instructions de programme qui, lorsqu'elles sont préalablement enregistrées dans une mémoire de programmes (22) d'un objet électronique communicant (20) comportant outre ladite mémoire de programmes (22), une unité de traitement (21), des moyens de communication (24) assurant un mode de communication déterminé, et des moyens de capture (25), ladite mémoire de programmes (22), lesdits moyens de communication (24), et lesdits moyens de capture (25) coopérant avec ladite unité de traitement (21), provoquent la mise en œuvre d'un procédé (200) pour émettre un flux de données composite selon l'une quelconque des revendications 10 à 15. A computer program product having program instructions which, when previously stored in a program memory (22) of a communicating electronic object (20) having in addition to said program memory (22), a processing unit ( 21), communication means (24) providing a determined communication mode, and capture means (25), said program memory (22), said communication means (24), and said capture means (25). cooperating with said processing unit (21), cause the implementation of a method (200) for transmitting a composite data stream according to any one of claims 10 to 15.
Objet électronique communicant (20) comportant une unité de traitement (21), une mémoire de programmes (22), une mémoire de données (23), des moyens de communication (24), des moyens de capture (25) coopérant avec ladite unité de traitement (21), ledit objet (20) étant caractérisé en ce qu'il comporte dans la mémoire de programmes (22) des instructions d'un produit programme d'ordinateur selon la revendication précédente. 18. Objet électronique communicant (20) selon la revendication précédente, pour lequel : Communicating electronic object (20) comprising a processing unit (21), a program memory (22), a data memory (23), communication means (24), capture means (25) cooperating with said unit treatment device (21), said object (20) being characterized in that comprises in the program memory (22) instructions of a computer program product according to the preceding claim. 18. Communicating electronic object (20) according to the preceding claim, for which:
- les moyens de capture (25) comportent un premier moyen de capture et un deuxième moyen de capture pour produire respectivement des premières et deuxièmes données d'étude (Del, De2) et ;  the capture means (25) comprise a first capture means and a second capture means for producing respectively first and second study data (Del, De2) and;
- l'unité de traitement met en œuvre un procédé pour émettre un flux de données composite selon l'une quelconque des revendications 10 à 15 pour chacun desdits premier et deuxième moyens de capture.  the processing unit implements a method for transmitting a composite data stream according to any one of claims 10 to 15 for each of said first and second capture means.
19. Système comportant un dispositif électronique (10) selon la revendication 9, et au moins un objet électronique communicant (20) conforme à l'une quelconque des revendications 17 à 18. 19. System comprising an electronic device (10) according to claim 9, and at least one communicating electronic object (20) according to any one of claims 17 to 18.
20. Système selon la revendication précédente consistant en un système de vidéonystagmoscopie, pour lequel le dispositif électronique consiste en un ordinateur personnel et l'objet électronique en un masque de vidéonystagmoscopie comportant au moins un capteur d'image matriciel. 20. System according to the preceding claim consisting of a videonystagmoscopy system, for which the electronic device consists of a personal computer and the electronic object into a videonystagmoscopy mask comprising at least one matrix image sensor.
21. Procédé de traitement de données comportant une étape (202) pour déclencher une production de données d'étude (De) par des moyens de capture (25) d'un objet électronique communicant (20) conforme à l'une quelconque des revendications 17 à 18 d'un système selon la revendication 19, ladite étape étant mise en œuvre par une unité de traitement (21) dudit objet (20) ; une étape (203) pour discriminer dans les données d'étude (De) des données d'intérêt21. Data processing method comprising a step (202) for triggering a production of study data (De) by capture means (25) of a communicating electronic object (20) according to any one of claims 17 to 18 of a system according to claim 19, said step being implemented by a processing unit (21) of said object (20); a step (203) for discriminating in the study data (De) data of interest
(Di) et des données d'environnement (Dn) par ledit objet électronique (20) ; (Di) and environment data (Dn) by said electronic object (20);
une étape (204) pour encoder par ledit objeta step (204) for encoding by said object
(20) les données d'intérêt (Di) selon une première fonction d'encodage (Fl) et les données d'environnement (Dn) selon une deuxième fonction d'encodage (F2) ; (20) the data of interest (Di) according to a first encoding function (F1) and the environment data (Dn) according to a second encoding function (F2);
une étape (205) pour élaborer par ledit objet (20) d'un message (Ml) comportant lesdites données d'intérêt (Di' ) encodées et lesdites données d'environnement (Dn' ) encodées et en déclencher l'émission à destination d'un dispositif électroniquea step (205) for producing, by said object (20), a message (M1) comprising said encoded data of interest (Di ') and said encoded environment data (Dn') and initiating transmission thereof to an electronic device
(10) conforme à la revendication 9 d'un système conforme à la revendication 19 ; (10) according to claim 9 of a system according to claim 19;
une étape (102) pour réceptionner par le dispositif (10) ledit message (Ml) et le décoder (103) ; a step (102) for receiving by the device (10) said message (M1) and decoding (103);
une étape (104) pour exploiter conjointement lesdites données d'intérêt (Di' ' ) et données d'environnement (Dn' ' ) décodées par le dispositif (10). a step (104) for jointly exploiting said data of interest (Di '') and data environment (Dn '') decoded by the device (10).
Procédé de traitement de données selon la revendication précédente comportant: Data processing method according to the preceding claim, comprising:
- une étape (101) pour élaborer et déclencher l'émission au travers d'un réseau de communication (NI) à destination de l'objet électronique communicant (20), d'une requête de commande (Rc3) comportant des paramètres d'encodage (El, E2) et un paramètre de zone d'intérêt (PI) mise en œuvre par l'unité de traitement (11) d'un dispositif électronique (10) ;  a step (101) for generating and triggering the transmission via a communication network (NI) to the communicating electronic object (20) of a control request (Rc3) comprising parameters of encoding (E1, E2) and a parameter of area of interest (PI) implemented by the processing unit (11) of an electronic device (10);
- une étape (201) pour réceptionner par l'objet électronique communicant (20) ladite requête de commande (Rc3) et en extraire lesdits paramètres (El, E2, PI) ;  a step (201) for receiving by the communicating electronic object (20) said control request (Rc3) and extracting said parameters (El, E2, PI);
- l'étape pour discriminer (203) étant mise en œuvre selon la teneur du paramètre de zone d'intérêt (PI) préalablement extrait (201) ; the step for discriminating (203) being implemented according to the content of the parameter of area of interest (PI) previously extracted (201);
- l'étape (204) pour encoder respectivement les données d'intérêt (Di) et les données d'environnement (Dn) étant mise en œuvre par ledit objet (20) selon la teneur desdits paramètres d'encodage (El, E2) préalablement extraits (201) . step (204) for respectively encoding the data of interest (Di) and the environment data (Dn) being implemented by said object (20) according to the content of said encoding parameters (E1, E2) previously extracted (201).
EP16828759.7A 2015-11-16 2016-11-15 System for formulating, emitting and interpreting a composite stream and associated method Withdrawn EP3376944A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562255821P 2015-11-16 2015-11-16
FR1654875A FR3043818B1 (en) 2015-11-16 2016-05-31 SYSTEM FOR PRODUCING, TRANSMITTING AND INTERPRETING A COMPOSITE FLOW AND ASSOCIATED METHODS
PCT/FR2016/052961 WO2017085396A1 (en) 2015-11-16 2016-11-15 System for formulating, emitting and interpreting a composite stream and associated method

Publications (1)

Publication Number Publication Date
EP3376944A1 true EP3376944A1 (en) 2018-09-26

Family

ID=58669393

Family Applications (1)

Application Number Title Priority Date Filing Date
EP16828759.7A Withdrawn EP3376944A1 (en) 2015-11-16 2016-11-15 System for formulating, emitting and interpreting a composite stream and associated method

Country Status (4)

Country Link
US (1) US20190290199A1 (en)
EP (1) EP3376944A1 (en)
FR (1) FR3043818B1 (en)
WO (1) WO2017085396A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993115B (en) * 2019-03-29 2021-09-10 京东方科技集团股份有限公司 Image processing method and device and wearable device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6120461A (en) * 1999-08-09 2000-09-19 The United States Of America As Represented By The Secretary Of The Army Apparatus for tracking the human eye with a retinal scanning display, and method thereof
US7773670B1 (en) * 2001-06-05 2010-08-10 At+T Intellectual Property Ii, L.P. Method of content adaptive video encoding
US20110077548A1 (en) * 2004-04-01 2011-03-31 Torch William C Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US9994228B2 (en) * 2010-05-14 2018-06-12 Iarmourholdings, Inc. Systems and methods for controlling a vehicle or device in response to a measured human response to a provocative environment
FR2978639B1 (en) * 2011-07-29 2015-09-25 Cassidian Sas METHODS OF COMPRESSING AND DECOMPRESSING IMAGES
FR2999373B1 (en) * 2012-12-12 2018-04-06 Harmonic Inc. METHOD FOR DYNAMICALLY ADAPTING THE CODING OF AN AUDIO AND / OR VIDEO STREAM TRANSMITTED TO A DEVICE
JP2014207110A (en) * 2013-04-12 2014-10-30 株式会社日立ハイテクノロジーズ Observation apparatus and observation method

Also Published As

Publication number Publication date
FR3043818B1 (en) 2019-10-18
FR3043818A1 (en) 2017-05-19
WO2017085396A1 (en) 2017-05-26
US20190290199A1 (en) 2019-09-26

Similar Documents

Publication Publication Date Title
US11238568B2 (en) Method and system for reconstructing obstructed face portions for virtual reality environment
KR101768980B1 (en) Virtual video call method and terminal
US11698674B2 (en) Multimodal inputs for computer-generated reality
US8558907B2 (en) Multiple sensor input data synthesis
EP3535644A1 (en) Streaming virtual reality video
US20140029810A1 (en) Securing information using entity detection
EP2104925A1 (en) Method and device for the real time imbedding of virtual objects in an image stream using data from a real scene represented by said images
KR102284266B1 (en) Method for vr sickness assessment considering neural mismatch model and the apparatus thereof
EP3046501A1 (en) Method for monitoring the position of teeth
WO2010004040A2 (en) Method and device for storing medical data, method and device for viewing medical data, corresponding computer program products, signals and data medium
EP3612912A1 (en) Method for reading a video stream
KR20240051903A (en) Method for analyzing element of motion sickness for virtual reality content and apparatus using the same
FR3043818B1 (en) SYSTEM FOR PRODUCING, TRANSMITTING AND INTERPRETING A COMPOSITE FLOW AND ASSOCIATED METHODS
WO2021077721A1 (en) Method, apparatus and system for reconstructing three-dimensional model of human body, and readable storage medium
CN113257372A (en) Oral health management related system, method, device and equipment
CN114207557A (en) Position synchronization of virtual and physical cameras
KR102559721B1 (en) Control method of electronic apparatus for selectively restore images according to field of view of user
WO2015173528A1 (en) Method for displaying, on an augmented reality hmd, the image from a camera and data from other sensors
CA2965332C (en) Method for collecting image data for producing immersive video and method for viewing a space on the basis of the image data
FR3054396B1 (en) SYSTEM AND METHOD FOR MEASURING CENTERED-AUDIENCE AUDIENCE, CAPTURING AND ANALYZING IMAGES DISPLAYED BY A TERMINAL ASSOCIATED WITH AT LEAST ONE PANELIST.
KR102613032B1 (en) Control method of electronic apparatus for providing binocular rendering based on depth map matching field of view of user
CN112115852A (en) Living body detection method using RGB infrared camera
CN114374832A (en) Virtual reality experience control method and device, user equipment and network equipment
JP6855493B2 (en) Holographic video capture and telepresence system
FR3088458A1 (en) METHOD FOR CONTEXTUALLY RECOGNIZING AND DESCRIBING AN OBJECT OF INTEREST FOR A VISUALLY DEFICIENT USER, DEVICE IMPLEMENTING SAID METHOD

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20180517

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20220601