WO2023275477A1 - Systeme, dispositif et procede d'activation d'une fonction d'un dispositif de restitution de contenu - Google Patents

Systeme, dispositif et procede d'activation d'une fonction d'un dispositif de restitution de contenu Download PDF

Info

Publication number
WO2023275477A1
WO2023275477A1 PCT/FR2022/051276 FR2022051276W WO2023275477A1 WO 2023275477 A1 WO2023275477 A1 WO 2023275477A1 FR 2022051276 W FR2022051276 W FR 2022051276W WO 2023275477 A1 WO2023275477 A1 WO 2023275477A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
person
rendering device
zone
function
Prior art date
Application number
PCT/FR2022/051276
Other languages
English (en)
Inventor
David Excoffier
Franck Roudet
Original Assignee
Orange
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange filed Critical Orange
Priority to EP22744292.8A priority Critical patent/EP4364076A1/fr
Publication of WO2023275477A1 publication Critical patent/WO2023275477A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/04Electronic labels

Definitions

  • the invention relates to the general field of content rendering devices, and more particularly relates to a method for activating a function of a content rendering device.
  • the invention also relates to a content restitution system and a device for activating a function that can be used in such a system.
  • ESL Electronic Shelf Label
  • EPL Electronic Price Label
  • Document US 2013/0117153 discloses for example an electronic tag coupled to a screen.
  • the label is associated with a product, and has a processor configured to update the screen in real time with information specific to the product. This includes, for example, the display of a promotional video, information concerning the use or assembly of the product, information concerning its availability, comments and opinions from customers who have purchased this product, or information about other complementary products.
  • the invention relates to a method for activating a function of a first content rendering device, the method comprising the following steps: obtaining at least one image of at least part of the eyes of a person detected in a presence zone associated with the first rendering device; determining, by analysis of the at least one image obtained, that the person fixes a point of a first zone of interest situated close to and outside a zone in which the first rendering device is located; and, activating at least one function of the first rendering device.
  • the invention relates to a device for activating a function of a content rendering device comprising: a module for obtaining at least one image of at least part of the eyes of a person detected in a presence zone associated with the first rendering device; a gaze analysis module configured to determine, by analysis of the at least one image obtained, that the person is staring at a point of a first zone of interest located close to and outside a zone in which the first rendering device; and, a control module configured to activate at least one function of the first rendering device.
  • content rendering device we mean any device configured to render visual content (e.g., text, images, videos), and/or audio content.
  • visual content e.g., text, images, videos
  • audio content e.g., text, images, videos
  • This is, for example, an electronic gondola tag or a digital terminal equipped with at least one screen and/or at least one loudspeaker, or a computer.
  • a zone of interest corresponds for example to a zone of the space in which a product is placed (e.g., in the shelving of a shop or in a window).
  • the zone of interest is determined during a system configuration step, that is to say that it is for example defined by an operator during the configuration of the restitution device.
  • the zone of interest is preconfigured during the manufacture of the restitution device.
  • This variant is advantageous when the restitution device is associated with a zone of interest always having the same dimensions, and when the restitution device is intended to be systematically positioned at the same position with respect to the position of the zone of interest. .
  • a presence zone corresponds to an area in which the presence of a person can be detected, for example using a sensor as described below.
  • the presence zone is thus a zone covered by this sensor.
  • the proposed technique aims to activate at least one function of at least one content rendering device if it is determined that a detected person has fixed at least one point of a zone of 'interest. The proposed technique thus makes it possible to reduce the electrical consumption of the content rendering device.
  • the first content rendering device is a content display device, this device comprises a display area of the content, and the first area of interest is located outside the display area of the display device.
  • the activation of a function of a display device only when a person fixes a point of an area of interest improves this situation, by offering greater visual comfort by activating only the screens corresponding to the products viewed, and a richer immersive experience for customers of a store.
  • the first content rendering device is an audio rendering device.
  • the proliferation of simultaneously triggered audio playback devices has also been found to stress a customer.
  • the activation of a function of an audio restitution device only when a person fixes a point in an area of interest improves this situation, by offering greater sound comfort by activating only the devices associated with the products specifically viewed.
  • the characteristic according to which the person fixes a point of a first zone of interest is independent of the duration during which he fixes this point.
  • the step of determining comprises a calculation of a first score relating to the first zone of interest
  • the method further comprises a step of obtaining a second score relating to a second zone of interest set by the person, the second zone being associated with a second restitution device, and the activation of the first restitution device is effective if the first score is greater than the second score.
  • the score relating to an area is representative of an interest of the person for this area of interest. Thus, even if for a short period of time (e.g. 400 milliseconds) the gaze is directed towards several areas of interest associated with different restitution, only the one associated with the zone of interest presenting the highest score, that is to say the most watched, is activated.
  • a short period of time e.g. 400 milliseconds
  • the step of activating a function of the first content rendering device comprises the following steps: obtaining at least one content selection criterion; and, selecting content based on the at least one criterion.
  • the relevance of the content presented to the person is thus improved.
  • the step of activating a function of the first content rendering device comprises triggering the rendering of the content or a modification of at least one configuration parameter of the first rendering device.
  • the image is captured following reception of a signal for detecting the presence of the person in the presence zone.
  • the capture device is triggered when a person is located close to the restitution device, that is to say in the presence zone, and is therefore likely to listen to or watch the content returned by this device. In this way, the energy consumption of the capture device and of the activation device described above is also reduced.
  • the capture device is configured to capture an image at regular time intervals, and the person is detected in the captured image.
  • the content rendering device can be configured to go into an energy-saving mode (for example: display of a fixed image, reduction in brightness or even switching off the screen, broadcast of background music).
  • an energy-saving mode for example: display of a fixed image, reduction in brightness or even switching off the screen, broadcast of background music.
  • the activation of a function of the restitution device is then triggered only after analysis of the gaze of a person present in the detection zone.
  • the invention relates to a content rendering system comprising: a content rendering device; an image capture device configured to come out of a standby mode in response to receiving a signal for detecting the presence of a person in a presence zone, the signal being emitted by a presence sensor; and, a device for activating at least one function of a playback device conforming to the activation device previously described.
  • the image capture device is integrated into the content rendering device.
  • the device for activating at least one function of a rendering device is integrated into the content rendering device.
  • the content rendering device is equipped with a wireless communication module configured to communicate with a remote server via a communications network, and at least one of the modules of the device for activating at least least one function of a rendering device is incorporated into the server.
  • the different steps of the method for activating a function of a content rendering device are determined by computer program instructions.
  • the invention also relates to a computer program on an information medium, this program being capable of being implemented by a device for activating a function of a playback device, or more generally in a computer, this program comprising instructions suitable for implementing the steps of a method for activating a function of a content rendering device as described above.
  • This program may use any programming language, and be in the form of source code, object code, or intermediate code between source code and object code, such as in partially compiled form, or in any other desirable form.
  • the invention also relates to an information or recording medium readable by a computer, and comprising instructions of a computer program as mentioned above.
  • the information or recording medium can be any entity or device capable of storing the program.
  • the medium may include a storage medium, such as a ROM, for example a CD ROM or a microelectronic circuit ROM, or even a magnetic recording medium, for example a diskette (floppy disk) or a disk hard.
  • the information or recording medium can be a transmissible medium such as an electrical or optical signal, which can be conveyed via an electrical or optical cable, by radio or by other means.
  • the program according to the invention can in particular be downloaded from an Internet-type network.
  • the information or recording medium may be an integrated circuit in which the program is incorporated, the circuit being adapted to execute or to be used in the execution of one of the processes in question.
  • figure IA schematically represents an example of the architecture of a system in which the proposed technique can be implemented, and figure IB represents an example of an application scenario;
  • FIG. 2 shows, schematically, an example of hardware architecture of a device for activating a function of a playback device, according to a particular embodiment
  • FIG. 3 shows, schematically, a device for activating a function of a playback device, according to an example of a particular embodiment
  • FIG. 4 schematically represents a gaze analysis module of a device for activating a function of a playback device according to an example of a particular embodiment
  • FIG. 5 shows, in the form of a flowchart, the main steps of a method for activating a function of a device for rendering content, according to a particular embodiment
  • - Figure 6 shows, in the form of a flowchart, the main steps of a method for activating a function of a device for rendering content, according to a particular embodiment.
  • System 100 includes a sensor 110 configured to transmit an activation signal to an image capture device 120 in response to detecting the presence of a person within a presence zone 190 determined by properties of the sensor.
  • the sensor is for example a presence or proximity detector, an infrared sensor or a sensor operating on the time-of-flight principle.
  • the activation signal is, for example, transmitted when the person is within 40 cm of the sensor.
  • the image capture device 120 Upon receipt of the activation signal, the image capture device 120 comes out of a standby mode and triggers the capture of an image or a sequence of images.
  • the image capture device 120 is for example a camera or a video camera positioned in such a way as to be able to capture at least part of the detected person, such as his face or at least one of his eyes.
  • the image generated is then transmitted to an activation device 130 which, following an analysis described with reference to FIG. 5 or FIG. 6, decides whether or not to transmit an activation signal for at least one function of the content rendering device 140.
  • the content restitution device is an electronic gondola tag.
  • An area of interest corresponding to the position of a product on the shelf of a shop or in a window is associated with the electronic shelf label.
  • the image capture and content restitution devices can then be fixed on the same edge strip of the shelf of a store, for example a few centimeters from the other.
  • all or part of the devices making up the system can be integrated into a single device.
  • Figure IB shows an example application scenario.
  • a customer 150 accesses the grocery department of a store, and his presence in a presence zone 190 is detected by a presence/proximity sensor 110.
  • the senor 110 transmits an activation signal to a capture device 120 (not shown in this figure), configured to exit a standby mode in response to receiving the signal, and capture one or multiple images of the person's pupil and/or iris.
  • This packet of soup 180 is associated with a return device 140, such as an electronic gondola tag.
  • the visual field of a person although by definition a cone of revolution, can be represented on a plane section perpendicular to an optical axis.
  • the visual field includes a central part reduced to a few degrees (e.g., 3°), also called fixation point. We then say that the person is looking at or staring at a point.
  • a person's visual field also includes a so-called symbol recognition area with an angle of 40° (+/- 20° to the optical axis), and a binocular vision area with an angle of 120° ( 60° to the optical axis).
  • the optical axis is represented by a hatched straight line starting from the optical center of the person's eye and passing through the soup packet 180, the soup packet 180 is located in the symbol recognition zone 170, and the restitution device 140 is located in the zone 160 of binocular vision.
  • This zone 160 is illustrated in FIG. 1B by hatching having a large spacing, and does not include the zone 170 represented by hatching having a smaller spacing.
  • the packet of soup 180 is located close to but outside of an area in which the restitution device 140 is located.
  • the product 180 is for example located at 0.85 meter from the customer 150 (this distance corresponding to a typical distance at which a customer is located facing a shelf when he is looking for a product), that the restitution device 140 is located at a distance of one meter from the customer 150 (this distance corresponding for example to the optimum distance for viewing the electronic gondola tag as a whole), and that the angle between the product and the device 140 is 45°, then the distance between the product 180 and the device 140 will be equal to 41 cm.
  • the activation device 130 activates a function of the electronic shelf tag, for example by triggering the display of a video promoting the packet of soup 180, as well as the price of the package of soup 180.
  • FIG. 2 schematically represents a device 130 for activating a function of a playback device according to an exemplary particular embodiment.
  • the device for activating a function of a playback device comprises in this example at least one processor 200 (or more generally a controller), a non-volatile memory 204, a volatile memory 206 and a communication interface 208.
  • the memory 204 is a rewritable non-volatile memory or a read only memory (ROM), this memory constituting a recording medium (or information medium) in accordance with a particular embodiment, readable by the activation device 130 of a function of a playback device, and on which is recorded a computer program PG1 conforming to a particular embodiment.
  • This computer program PG1 includes instructions for executing the steps of an activation method according to a particular embodiment. The main steps of this method are represented, in a particular embodiment of the invention, in FIG. 5 and FIG. 6 described later.
  • Processor 200 uses volatile memory 206 to execute computer program PG1 when performing the activation process.
  • the processor 200 controlled by the computer program PG1 here implements a certain number of modules, namely: a gaze analysis module 310, a control module 340, a distance analysis module 320 and a behavior analysis module 330.
  • FIG. 4 schematically represents a gaze analysis module 310 of a device 130 for activating a function of a playback device according to an exemplary particular embodiment.
  • the gaze analysis module 310 includes several sub-modules:
  • an eye detection module 420 configured to detect the location of at least one eye in an image representing a person or a person's face
  • a determination module 440 configured to determine whether the person is staring at a predetermined area of interest, based on the analysis of the position of an eye or the position of the pupil of an eye;
  • a face detection module 410 configured to detect the presence or absence of one or more faces in an image taken by the image capture device 120;
  • a detection module of the pupil and/or of the iris of an eye 430 in an image possibly a detection module of the pupil and/or of the iris of an eye 430 in an image.
  • the face detection module 410 analyzes the image captured by the capture device 120 and identifies a face.
  • the module 410 extracts the detected face so as to generate an image of the detected face.
  • the module 410 generates a bounding box which characterizes the position of the face detected in the image of the person.
  • This data is then transmitted to eye detection module 420 which similarly analyzes the image received from face detection module 410. If it identifies at least one eye, it generates an image of the detected eye or as a variant generates a new bounding box which characterizes the position of the detected eye in the received image.
  • the determination module 440 calculates a score characterizing whether the detected person has actually looked with some interest at a given area of space, called the area of interest. This score is representative of the person's interest in this area.
  • the determination module is based on a sequence of images to carry out this calculation, and several metrics can be taken into account for the calculation of this score, such as the duration (sometimes called fixation) during which the gaze landed on the area, the average size of jerks (i.e. the size of a jump from one fixation to another), the path of the gaze, the speed with which the gaze scanned the scene, etc. If the score is greater than a threshold value, then the determination module 440 considers that the person detected has actually looked at the area of space with some interest. This threshold value is for example between 0 and 1.
  • the threshold value is for example equal to 1.
  • the processor 200 also implements a control module 340.
  • this module determines the action to be performed on the content rendering device 140 as a function of at at least one selection criterion among:
  • the context of use of the device for rendering content 140 e.g., the date on which the device is used, the location of the store in which it is used, the radius in which the device is placed
  • the context of use of the device for rendering content 140 e.g., the date on which the device is used, the location of the store in which it is used, the radius in which the device is placed
  • the current configuration of the content rendering device 140 (e.g., according to the content currently rendered by the content rendering device 140, according to the light level or the sound level),
  • control module 340 is coupled to a database (VID) referencing multimedia content, such as audio sequences, images and/or videos associated with the displayed area.
  • VIP database
  • the 340 control module is configured for:
  • CT context
  • USR profile
  • the selected content corresponds for example to an image such as a QR code (from the English " Quick Response” code).
  • QR code from the English " Quick Response” code. This code can be scanned by the person using their phone, so as to obtain a promotion on the product during checkout, information on the list of product components, or, if it is a food product, information on the nutritional value of the product concerned.
  • the action triggered on the content rendering device 140 corresponds to an increase in the brightness, the sound volume of the rendering device, and/or to an activation of a short-range wireless communication module of the restitution device, so as to be able for example to transmit, to the telephone of the detected person, a promotion on the product concerned.
  • the profile of the detected person is for example generated or fed according to the products that he has previously viewed.
  • the profile can include the history of the products viewed, the history of the products collected with a view to purchasing them, and possibly other information such as personal characteristics that can strongly influence the interaction (eg, age, gender, etc.) or personal preferences.
  • the image capture 120 and activation 130 devices are integrated into the device 140 so as to form a compact system 100, and several systems 100 are connected to one another, for example according to a mesh type topology. or mesh, through a wireless telecommunications network. They exchange information (for example the score described previously, or information determined by analysis of images captured by the capture device, such as the fact that the person has collected a product).
  • the profile of a person is preferably updated locally by each system 100.
  • the device 130 for activating a function of a rendering device 140 is integrated into remote equipment, such as a server, and the profile of a person is updated centrally, in particular thanks to the information transmitted by the image capture devices 120.
  • the control module 340 can optionally be connected to a module 320 for analyzing the distance of the detected person which is for example connected to the sensor 110, so as to determine the evolution of the position of the detected person.
  • the control module 340 can be configured to adapt in real time the content presented to a person, depending on whether he approaches or moves away from the rendering device 140.
  • the control module 340 can inform the analysis module 310 and/or 320 of the action in progress ( feedback loop).
  • the analysis module 310 and/or 320 can follow the evolution of the behavior of the person (e.g., his position by analysis of the data provided by the sensor 110 or his facial expression by analysis of images captured by the capture 120) once the return device 140 has been triggered, and thus assess whether the action has had an effect on the customer (e.g., whether the person has collected the product with a view to purchasing it).
  • the device 130 for activating a function of a restitution device comprises a module 330 for analyzing the behavior of the people detected by the system 100.
  • This module is configured to carry out, in real time or a posteriori, a behavioral analysis of the people detected, so as to understand the actions of these people, the importance of one criterion rather than another, the departments that attract them more, the products they are looking for or the reasons for their purchase.
  • the behavior analysis module 330 generates, for example, statistics, which can be represented in the form of heat maps (“heat map” according to the English terminology) on the basis of data such as:
  • the image capture 120 and activation 130 devices are integrated into the device 140 for restoring an image content.
  • This configuration offers the advantage of being compact.
  • At least one of the modules of the device for activating a function of a playback device is integrated into remote equipment (such as a server, a gateway or any other equipment), and the capture devices image 120 and content restitution 140 are connected to this remote equipment through a telecommunications network, for example a radio network, the Internet, a WiFi network, a Bluetooth network, or a fixed or mobile telephone network.
  • a telecommunications network for example a radio network, the Internet, a WiFi network, a Bluetooth network, or a fixed or mobile telephone network.
  • FIG. 5 represents, in the form of a flowchart, the main steps of a method for activating a function of a device for rendering content, according to a particular embodiment.
  • the senor 110 detects the presence of a person in a localized presence zone close to the restitution device 140 (for example 1 meter). In this case, the sensor 110 transmits an activation signal to the image capture device 120 which comes out of a standby mode and captures an image or a sequence of images of at least part of the eyes (e.g. , iris and/or pupil) of the detected person.
  • the image capture device 120 which comes out of a standby mode and captures an image or a sequence of images of at least part of the eyes (e.g. , iris and/or pupil) of the detected person.
  • the captured image is transmitted by the image capture device 120 to the device 130 for activating a function of a playback device.
  • the device 130 receives this image during a step referenced E510.
  • the activation device 130 determines the direction of the gaze of the detected person, that is to say the direction of the point of fixation looked at by the person, by analyzing the image obtained.
  • the face detection module 410 detects a face and extracts the detected face so as to generate an image of the detected face.
  • the module 410 generates a bounding box which characterizes the position of the face detected in the image of the person.
  • This data is then transmitted to the eye detection module 420 which, in a similar manner, analyzes the image received from the face detection module 410. If it detects at least one eye, it generates an image of the detected eye or alternatively generates a new bounding box which characterizes the position of the detected eye in the received image.
  • These data are then transmitted either to the determination module 440, or to the module 430 for detecting the pupil and/or the iris of an eye which determines the position of the pupil and/or the iris before transmitting it to the determination module 440.
  • the activation device 130 determines whether the detected person has actually fixed a point of a zone of interest located close to but outside a zone in which the first rendering device is located.
  • the characteristic according to which the person fixes a point of a zone of interest is independent of the duration during which the point is fixed.
  • the determination module 440 calculates a score.
  • the determination module is based on a sequence of images to carry out this calculation, and several metrics can be taken into account, such as the duration during which the gaze rested on the zone, the gaze path, the speed with which the gaze scanned the scene, and/or the blink rate. If the score is greater than a threshold value, then the determination module 440 considers that the gaze of the person detected has actually landed on a given area of the space associated with the content rendering device.
  • the determination module 440 determines the zone of space having presented the most interest for the detected person.
  • the determination module 440 determines whether the person has actually fixed a point of an area of interest, without a score being calculated.
  • the activation device 130 activates at least one function of the device for rendering content associated with the area over which the person is looking.
  • the action to be performed on the device 140 for rendering content is determined according to the context of use of the rendering device 140 (i.e., the date, the location of the store, the radius in which the associated product is placed), the current configuration of the rendering device 140 (i.e., according to the content currently displayed by the content rendering device 140), the profile of the person detected and/or the evolution of the position of the detected person (i.e., whether they are approaching or moving away from the system)
  • control module 340 of the activation device 130 is configured to: - Obtaining, during a step E541, information relating to the context, to the current configuration of the content rendering device 140, to the profile of the detected person and/or the evolution of the position of the detected person;
  • the device 130 for activating a function of a restitution device determines the evolution of the behavior of the detected person. For this, the activation device 130:
  • FIG. 6 represents, in the form of a flowchart, the main steps of a method for activating a function of a device for rendering content, according to one embodiment of the invention.
  • At least a first and second device 130 for activating a function of a playback device are associated with at least a first and second device 140 for content playback, and the two activation devices 130 communicate with each other, via their communication interface 208, in order to determine at least one function to be activated on at least one of the devices 140 for rendering content.
  • Each of the first and second activation devices implements steps E510 and E520 (previously described).
  • the first activation device determines whether the person fixes a point of a first zone of interest located close to and outside a zone in which the rendering device is located. For this, the first activation device calculates, during a step E531.A, a first score representative of the interest shown by the person in a first zone of interest associated with the first content restitution device.
  • the first activation device receives from the second activation device, a second score representative of the interest shown by the person in a second zone of interest associated with the second device for restoring A content.
  • the first activation device transmits the first score to the second activation device.
  • the second activation device also implements symmetrical steps, which are referenced E531.B, E532.B and E533.B.
  • each of the first and second activation devices compares the two scores If the first score is greater than the second score, the first activation device activates a function of the first content rendering device. Otherwise, the second activation device activates a function of the second content rendering device.
  • a first activation device determines that the detected person is moving, determines the direction taken by this person, and transmits an activation signal to at least a second activation device, so that the second restitution device associated with the second activation device is activated when the person passes close to this device.
  • only one activation device 130 is necessary, and is configured to carry out an analysis of images coming from two capture devices, and to control two content restitution devices.

Abstract

L'invention concerne un procédé d'activation d'une fonction d'un premier dispositif de restitution de contenu, le procédé comprenant les étapes suivantes : obtenir (E510) au moins une image d'au moins une partie des yeux d'une personne détectée dans une zone de présence associée au premier dispositif de restitution; déterminer (E530), par analyse de la au moins une image obtenue, que la personne fixe un point d'une première zone d'intérêt située à proximité et en dehors d'une zone dans laquelle se trouve le premier dispositif de restitution; et, activer (E540) au moins une fonction du premier dispositif de restitution.

Description

Système, dispositif et procédé d’activation d’une fonction d’un dispositif de restitution de contenu
L’invention se rapporte au domaine général des dispositifs de restitution de contenu, et concerne plus particulièrement un procédé d’activation d’une fonction d’un dispositif de restitution de contenu. L’invention concerne également un système de restitution de contenu et un dispositif d’activation d’une fonction pouvant être utilisé dans un tel système.
Dans la plupart des commerces, les étiquettes en papier sont peu à peu remplacées par des étiquettes électroniques de gondole (en anglais ESL ( Electronic Shelf Label], ou EPL ( Electronic Price Label]). Les versions les plus récentes des étiquettes électroniques de gondole ne sont plus de simples afficheurs passifs de prix, mais elles offrent la possibilité d’afficher des informations supplémentaires sur un écran.
Le document US 2013/0117153 divulgue par exemple une étiquette électronique couplée à un écran. L’étiquette est associée à un produit, et dispose d’un processeur configuré pour mettre à jour en temps réel l’écran avec des informations propres au produit. 11 s’agit par exemple de l’affichage d’une vidéo promotionnelle, d’informations concernant l’utilisation ou le montage du produit, d’informations qui concernent sa disponibilité, de commentaires et d’avis de clients ayant acheté ce produit, ou d’informations sur d’autres produits complémentaires.
Cependant, ces dispositifs sont pour la plupart alimentés par des batteries, et il serait avantageux de limiter leur consommation énergétique. L'invention se situe dans ce contexte.
Selon un premier aspect, l’invention concerne un procédé d’activation d’une fonction d’un premier dispositif de restitution de contenu, le procédé comprenant les étapes suivantes : obtenir au moins une image d’au moins une partie des yeux d’une personne détectée dans une zone de présence associée au premier dispositif de restitution; déterminer, par analyse de la au moins une image obtenue, que la personne fixe un point d’une première zone d’intérêt située à proximité et en dehors d’une zone dans laquelle se trouve le premier dispositif de restitution; et, activer au moins une fonction du premier dispositif de restitution. Corrélativement, l’invention concerne un dispositif d’activation d’une fonction d’un dispositif de restitution de contenu comprenant : un module d’obtention d’au moins une image d’au moins une partie des yeux d’une personne détectée dans une zone de présence associée au premier dispositif de restitution ; un module d’analyse du regard configuré pour déterminer, par analyse de la au moins une image obtenue, que la personne fixe un point d’une première zone d’intérêt située à proximité et en dehors d’une zone dans laquelle se trouve le premier dispositif de restitution ; et, un module de commande configuré pour activer au moins une fonction du premier dispositif de restitution.
Par dispositif de restitution de contenu, on entend tout dispositif configuré pour restituer un contenu visuel (e.g., du texte, des images, des vidéos), et/ou un contenu audio. Il s’agit par exemple d’une étiquette électronique de gondole ou d’une borne digitale équipées d’au moins un écran et/ou d’au moins un haut-parleur, ou d’un ordinateur.
Une zone d’intérêt correspond par exemple à une zone de l’espace dans laquelle est disposé un produit (e.g., dans le rayonnage d’un commerce ou dans une vitrine).
Dans un mode de réalisation particulier, la zone d’intérêt est déterminée lors d’une étape de configuration du système, c’est-à-dire qu’elle est par exemple définie par un opérateur lors de la configuration du dispositif de restitution.
En variante, la zone d’intérêt est préconfigurée lors de la fabrication du dispositif de restitution. Cette variante est avantageuse lorsque le dispositif de restitution est associé à une zone d’intérêt ayant toujours les mêmes dimensions, et lorsque le dispositif de restitution est destiné à être systématiquement positionné à une même position par rapport à la position de la zone d’intérêt.
Une zone de présence correspond à une zone dans laquelle la présence d’une personne peut être détectée, par exemple à l’aide d’un capteur tel que décrit ci-après. La zone de présence est ainsi une zone couverte par ce capteur. Ainsi, et d’une façon générale, la technique proposée vise à activer au moins une fonction d’au moins un dispositif de restitution de contenu s’il est déterminé qu’une personne détectée a fixé au moins un point d’une zone d’intérêt. La technique proposée permet ainsi de réduire la consommation électrique du dispositif de restitution de contenu.
Dans un mode de réalisation particulier, le premier dispositif de restitution de contenu est un dispositif d’affichage du contenu, ce dispositif comprend une zone d’affichage du contenu, et la première zone d’intérêt est située en dehors de la zone d’affichage du dispositif d’affichage.
Dans les systèmes actuellement déployés, il a été constaté que la multiplication de dispositifs d’affichage tels que les écrans dans un même lieu rend l’expérience client très fatigante, car si tous les écrans sont activés simultanément, cela crée une charge cognitive importante pour lui.
Ainsi, l’activation d’une fonction d’un dispositif d'affichage uniquement lorsqu’une personne fixe un point d’une zone d’intérêt améliore cette situation, en offrant un plus grand confort visuel en n’activant que le ou les écrans correspondant aux produits regardés, et une expérience immersive plus riche aux clients d’un magasin.
Dans un mode de réalisation particulier, le premier dispositif de restitution de contenu est un dispositif de restitution audio. Dans les systèmes actuellement déployés, il a également été constaté que la multiplication de dispositifs de restitution audio déclenchés simultanément stresse un client. Ainsi, l’activation d’une fonction d’un dispositif de restitution audio uniquement lorsqu’une personne fixe un point d’une zone d’intérêt améliore cette situation, en offrant un plus grand confort sonore en n’activant que le ou les dispositifs associés aux produits spécifiquement regardés.
Dans un mode de réalisation particulier, la caractéristique selon laquelle la personne fixe un point d’une première zone d’intérêt est indépendante de la durée pendant laquelle elle fixe ce point.
Dans un mode de réalisation particulier, l’étape de détermination comprend un calcul d’un premier score relatif à la première zone d’intérêt, et le procédé comprend en outre une étape d’obtention d’un deuxième score relatif à une deuxième zone d’intérêt fixée par la personne, la deuxième zone étant associée à un second dispositif de restitution, et l’activation du premier dispositif de restitution est effective si le premier score est supérieur au deuxième score.
Le score relatif à une zone est représentatif d’un intérêt de la personne pour cette zone d’intérêt. Ainsi, même si pendant une courte période de temps (p. ex. 400 millisecondes) le regard est dirigé vers plusieurs zones d’intérêt associées à différents dispositifs de restitution, seul celui associé à la zone d’intérêt présentant le score le plus élevé, c’est-à- dire la plus regardée, est activé.
Dans un mode de réalisation particulier, l’étape d’activation d’une fonction du premier dispositif de restitution de contenu comprend les étapes suivantes : obtenir au moins un critère de sélection de contenu ; et, sélectionner un contenu en fonction du au moins un critère.
En sélectionnant le contenu en fonction d’un critère par exemple relatif à un contexte d’utilisation du dispositif de restitution, à la configuration courante de ce dispositif, à un profil ou un comportement particulier de la personne, la pertinence du contenu présenté à la personne est ainsi améliorée.
Dans un mode de réalisation particulier, l’étape d’activation d’une fonction du premier dispositif de restitution de contenu comprend un déclenchement de la restitution du contenu ou une modification d’au moins un paramètre de configuration du premier dispositif de restitution.
Dans un mode de réalisation particulier, l’image est capturée suite à la réception d’un signal de détection de la présence de la personne dans la zone de présence.
Selon ce mode de réalisation, le dispositif de capture est déclenché lorsqu’une personne se situe à proximité du dispositif de restitution, c’est-à-dire dans la zone de présence, et est donc susceptible d’écouter ou de regarder le contenu restitué par ce dispositif. De cette manière, la consommation énergétique du dispositif de capture et du dispositif d’activation précédemment décrit est également réduite.
En variante, le dispositif de capture est configuré pour capturer une image à intervalles de temps réguliers, et la personne est détectée dans l’image capturée.
En outre, lorsqu’aucune personne n’est détectée pendant une durée donnée (par exemple 10 secondes) ou que personne n’est présent dans la zone de présence couverte par ledit capteur de présence/proximité, le dispositif de restitution de contenu peut être configuré pour se mettre dans un mode d’économie d’énergie (par exemple : affichage d’une image fixe, réduction de la luminosité voire extinction de l’écran, diffusion de musique d’ambiance). L’activation d’une fonction du dispositif de restitution n’est alors déclenchée qu’après analyse du regard d’une personne présente dans la zone de détection. Selon un deuxième aspect, l’invention concerne un système de restitution de contenu comprenant : un dispositif de restitution de contenu ; un dispositif de capture d’image configuré pour sortir d’un mode de veille en réponse à la réception d’un signal de détection de la présence d’une personne dans une zone de présence, le signal étant émis par un capteur de présence ; et, un dispositif d’activation d’au moins une fonction d’un dispositif de restitution conforme au dispositif d’activation précédemment décrit.
Dans un mode de réalisation particulier, le dispositif de capture d’image est intégré au dispositif de restitution de contenu.
Dans un mode de réalisation particulier, le dispositif d’activation d’au moins une fonction d’un dispositif de restitution est intégré au dispositif de restitution de contenu.
Dans un mode de réalisation particulier, le dispositif de restitution de contenu est muni d'un module de communication sans fil configuré pour communiquer avec un serveur distant via un réseau de communications, et au moins un des modules du dispositif d’activation d’au moins une fonction d’un dispositif de restitution est incorporé dans le serveur.
Dans un mode particulier de réalisation, les différentes étapes du procédé d’activation d’une fonction d’un dispositif de restitution de contenu sont déterminées par des instructions de programmes d’ordinateurs.
En conséquence, l’invention vise aussi un programme d’ordinateur sur un support d’informations, ce programme étant susceptible d’être mis en œuvre par un dispositif d’activation d’une fonction d’un dispositif de restitution, ou plus généralement dans un ordinateur, ce programme comportant des instructions adaptées à la mise en œuvre des étapes d'un procédé d’activation d’une fonction d’un dispositif de restitution de contenu tel que décrit ci-dessus.
Ce programme peut utiliser n’importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.
L’invention vise aussi un support d'informations ou d’enregistrement lisible par un ordinateur, et comportant des instructions d'un programme d'ordinateur tels que mentionnés ci-dessus. Le support d'informations ou d’enregistrement peut être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, ou encore un moyen d'enregistrement magnétique, par exemple une disquette (floppy dise) ou un disque dur.
D'autre part, le support d'informations ou d’enregistrement peut être un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, le support d'informations ou d’enregistrement peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution d’un des procédés en question.
D’autres caractéristiques et avantages de la présente invention ressortiront de la description faite ci-dessous, en référence aux dessins annexés qui en illustrent un exemple de réalisation dépourvu de tout caractère limitatif. Sur les figures :
- la figure IA représente, de façon schématique, un exemple d’architecture d’un système dans lequel la technique proposée peut être mise en œuvre, et la figure IB représente un exemple de scénario d’application ;
- la figure 2 représente, de manière schématique, un exemple d’architecture matérielle d’un dispositif d’activation d’une fonction d’un dispositif de restitution, selon un mode de réalisation particulier ;
- la figure 3 représente, de manière schématique, un dispositif d’activation d’une fonction d’un dispositif de restitution, selon un exemple de mode de réalisation particulier ;
- la figure 4 représente, de manière schématique, un module d’analyse du regard d’un dispositif d’activation d’une fonction d’un dispositif de restitution selon un exemple de mode de réalisation particulier ;
- la figure 5 représente, sous forme d’organigramme, les principales étapes d’un procédé d’activation d’une fonction d’un dispositif de restitution d’un contenu, selon un mode de réalisation particulier ; et, - la figure 6 représente, sous forme d’organigramme, les principales étapes d’un procédé d’activation d’une fonction d’un dispositif de restitution d’un contenu, selon un mode de réalisation particulier.
La figure IA représente, de façon schématique, un exemple d’architecture d’un système dans lequel la technique proposée peut être mise en œuvre. Le système 100 comprend un capteur 110 configuré pour transmettre un signal d’activation à un dispositif de capture d’image 120 en réponse à la détection de la présence d’une personne dans une zone de présence 190 déterminée par les propriétés du capteur. Le capteur est par exemple un détecteur de présence ou de proximité, un capteur infrarouge ou un capteur fonctionnant sur le principe du temps de vol. Le signal d’activation est par exemple transmis lorsque la personne se situe à moins de 40 cm du capteur.
Sur réception du signal d’activation, le dispositif de capture d’image 120 sort d’un mode de veille et déclenche la capture d’une image ou d’une séquence d’images. Le dispositif de capture d’image 120 est par exemple un appareil photo ou une caméra vidéo positionné de telle sorte à pouvoir capturer au moins une partie de la personne détectée, tel que son visage ou au moins un de ses yeux. L’image générée est ensuite transmise à un dispositif d’activation 130 qui, suite à une analyse décrite en référence à la figure 5 ou à la figure 6, décide de transmettre ou non un signal d’activation d’au moins une fonction du dispositif de restitution d’un contenu 140.
Dans un mode de réalisation particulier, le dispositif de restitution d’un contenu est une étiquette électronique de gondole. Une zone d’intérêt correspondant à la position d’un produit dans le rayonnage d’un commerce ou dans une vitrine est associée à l’étiquette électronique de gondole. Les dispositifs de capture d’image et de restitution de contenu peuvent alors être fixés sur une même bande de rive du rayon d’un magasin, par exemple à quelques centimètres de l’autre.
Dans un mode de réalisation particulier, tout ou partie des dispositifs composant le système peuvent être intégrés dans un seul dispositif.
Dans un mode de réalisation particulier, le système comprend plusieurs dispositifs de restitution. La figure IB représente un exemple de scénario d’application. Un client 150 accède au rayon épicerie d’un magasin, et sa présence dans une zone de présence 190 est détectée par un capteur de présence/proximité 110.
En réponse à cette détection, le capteur 110 transmet un signal d’activation à un dispositif de capture 120 (non représenté sur cette figure), configuré pour sortir d’un mode de veille en réponse à la réception du signal, et capturer une ou plusieurs images de la pupille et/ou de l’iris de la personne.
L’analyse de cette ou de ces images permet de déterminer que le client 150 fixe un paquet de soupe 180 ou une partie de ce paquet 180 placé sur une étagère de ce rayon, plus précisément un point de ce produit. Ce paquet de soupe 180 est associé à un dispositif de restitution 140, telle qu’une étiquette électronique de gondole.
11 est généralement admis que le champ visuel d’une personne, bien qu'étant par définition un cône de révolution, peut être représenté sur une section plane perpendiculaire à un axe optique. Le champ visuel comprend une partie centrale réduite à quelques degrés (e.g., 3°), aussi appelée point de fixation. On dit alors que la personne regarde ou fixe un point. Le champ visuel d’une personne comprend également une zone dite de reconnaissance des symboles ayant un angle de 40° (+/- 20° par rapport à l’axe optique), et une zone de vision binoculaire ayant un angle de 120° (60° par rapport à l’axe optique).
Dans cet exemple, l’axe optique est représenté par une droite hachurée partant du centre optique de l’œil de la personne et passant par le paquet de soupe 180, le paquet de soupe 180 est situé dans la zone 170 de reconnaissance des symboles, et le dispositif de restitution 140 se situe dans la zone 160 de vision binoculaire. Cette zone 160 est illustrée en figure IB par des hachures ayant un espacement important, et ne comprend pas la zone 170 représentée par des hachures ayant un espacement plus faible. Ainsi, le paquet de soupe 180 se situe à proximité mais en dehors d’une zone dans laquelle se trouve le dispositif de restitution 140.
Plus précisément, ce n’est pas le fait de regarder une zone d’affichage (e.g., l’écran) du dispositif de restitution 140 qui active une fonction, mais le fait de fixer un point d’une zone d’intérêt, la zone d’intérêt ne correspondant pas à au moins une partie de cet écran. Si le produit 180 est par exemple situé à 0,85 mètre du client 150 (cette distance correspondant à une distance typique à laquelle se situe un client face à un rayon lorsqu’il cherche un produit), que le dispositif de restitution 140 est situé à une distance d’un mètre du client 150 (cette distance correspondant par exemple à la distance optimale pour visualiser l’étiquette électronique de gondole dans son ensemble), et que l’angle entre le produit et le dispositif 140 est de 45°, alors la distance entre le produit 180 et le dispositif 140 sera égale à 41 cm.
Après avoir déterminé que le client 150 fixe le paquet de soupe 180, le dispositif d’activation 130 active une fonction de l’étiquette électronique de gondole, en déclenchant par exemple l’affichage d’une vidéo de promotion du paquet de soupe 180, ainsi que le prix du paquet de soupe 180.
La figure 2 représente, de manière schématique, un dispositif d’activation 130 d’une fonction d’un dispositif de restitution selon un exemple de mode de réalisation particulier.
Le dispositif d’activation d’une fonction d’un dispositif de restitution comprend dans cet exemple au moins un processeur 200 (ou plus généralement un contrôleur), une mémoire non volatile 204, une mémoire volatile 206 et une interface de communication 208.
La mémoire 204 est une mémoire non volatile réinscriptible ou une mémoire morte (ROM), cette mémoire constituant un support d’enregistrement (ou support d’informations) conforme à un mode de réalisation particulier, lisible par le dispositif d’activation 130 d’une fonction d’un dispositif de restitution, et sur lequel est enregistré un programme d’ordinateur PG1 conforme à un mode de réalisation particulier. Ce programme d’ordinateur PG1 comporte des instructions pour l’exécution des étapes d’un procédé d’activation selon un mode de réalisation particulier. Les principales étapes de ce procédé sont représentées, dans un mode particulier de réalisation de l’invention, sur la figure 5 et la figure 6 décrites ultérieurement.
Le processeur 200 utilise la mémoire volatile 206 pour exécuter le programme d’ordinateur PG1 lors de la mise en œuvre du procédé d’activation. Comme représenté en figure 3, selon un mode de réalisation particulier, le processeur 200 piloté par le programme d’ordinateur PG1 met ici en œuvre un certain nombre de modules, à savoir : un module d’analyse du regard 310, un module de commande 340, un module d’analyse de la distance 320 et un module d’analyse du comportement 330.
La figure 4 représente, de manière schématique, un module d’analyse du regard 310 d’un dispositif d’activation 130 d’une fonction d’un dispositif de restitution selon un exemple de mode de réalisation particulier.
Le module d’analyse du regard 310 comprend plusieurs sous-modules :
- un module de détection des yeux 420 configuré pour détecter la localisation d’au moins un œil dans une image représentant une personne ou le visage d’une personne ;
- un module de détermination 440 configuré pour déterminer si la personne fixe une zone d’intérêt prédéterminée, à partir de l’analyse de la position d’un œil ou de la position de la pupille d’un œil ;
- éventuellement un module de détection du visage 410 configuré pour détecter la présence ou non d’un ou de plusieurs visages dans une image prise par le dispositif de capture d’image 120 ; et,
- éventuellement un module de détection de la pupille et/ou de l’iris d’un œil 430 dans une image.
Plus précisément, dans un mode de réalisation particulier, le module de détection du visage 410 analyse l’image capturée par le dispositif de capture 120 et identifie un visage. Dans ce cas, le module 410 extrait le visage détecté de sorte à générer une image du visage détecté. En variante, le module 410 génère une boîte englobante qui caractérise la position du visage détecté dans l’image de la personne. Ces données sont ensuite transmises au module de détection des yeux 420 qui, de manière similaire, analyse l’image reçue du module de détection du visage 410. S’il identifie au moins un œil, il génère une image de l’œil détecté ou en variante génère une nouvelle boîte englobante qui caractérise la position de l’œil détecté dans l’image reçue. Ces données sont ensuite transmises soit au module de détermination 440, soit au module de détection de la pupille et/ou de l’iris d’un œil 430 qui détermine la position de la pupille avant de la transmettre au module de détermination 440. Dans un mode de réalisation particulier, le module de détermination 440, sur la base des données reçues du module de détection des yeux 420 ou du module de détection de la pupille et/ou de l’iris d’un œil 430, calcule un score caractérisant si la personne détectée a effectivement regardé avec un certain intérêt une zone donnée de l’espace, appelée zone d’intérêt. Ce score est représentatif d’un intérêt de la personne pour cette zone. Dans un mode de réalisation particulier, le module de détermination se base sur une séquence d’images pour réaliser ce calcul, et plusieurs métriques peuvent être prises en compte pour le calcul de ce score, telles que la durée (parfois appelée fixation) pendant laquelle le regard s’est posé sur la zone, la taille moyenne de saccades (c’est-à-dire la taille d’un saut d'une fixation à l'autre), le parcours du regard, la vitesse avec laquelle le regard a scanné la scène, etc. Si le score est supérieur à une valeur seuil, alors le module de détermination 440 considère que la personne détectée a effectivement regardé avec un certain intérêt la zone de l’espace. Cette valeur seuil est par exemple comprise entre 0 et 1.
Ainsi, si la durée moyenne de fixation est par exemple de 275 millisecondes (qui correspond à une valeur moyenne lors d’une recherche visuelle), et si la taille moyenne de saccades est de 3 degrés (en degré d’angle visuel, cette valeur étant également une valeur moyenne lors d’une recherche visuelle), alors la valeur seuil est par exemple égale à 1.
De retour à la figure 3, le processeur 200 met également en œuvre un module de commande 340. Selon un mode de réalisation particulier, ce module détermine l’action à effectuer sur le dispositif de restitution d’un contenu 140 en fonction d’au moins un critère de sélection parmi :
- le contexte d’utilisation du dispositif de restitution d’un contenu 140 (e.g., la date à laquelle le dispositif est utilisé, la localisation du magasin dans lequel il est utilisé, le rayon dans lequel le dispositif est placé),
- la configuration courante du dispositif de restitution d’un contenu 140 (e.g., selon le contenu actuellement restitué par le dispositif de restitution d’un contenu 140, selon le niveau de luminosité ou le niveau sonore),
- le profil de la personne détectée ; - et/ou l’évolution de la position de la personne détectée (e.g., selon qu’elle s’approche ou s’éloigne du système).
Selon un mode de réalisation particulier, le module de commande 340 est couplé à une base de données (VID) référençant des contenus multimédias, telles que des séquences audio, des images et/ou des vidéos associées à la zone visualisée. Le module de commande 340 est configuré pour :
- obtenir des informations relatives au contexte (CT) d’utilisation du dispositif de restitution 140, à la configuration courante du dispositif de restitution 140, au profil (USR) de la personne détectée et/ou à l’évolution de la position de la personne détectée ;
- sélectionner un contenu en fonction d’au moins un de ces critères, par application de règles prédéfinies ; et,
- transmettre, au dispositif de restitution 140, un signal visant à restituer le contenu sélectionné.
Lorsque la zone correspond à une zone dans laquelle est disposé un produit (e.g., dans le rayonnage d’un commerce ou dans une vitrine), le contenu sélectionné correspond par exemple à une image telle qu’un code QR (de l'anglais « Quick Response » code). Ce code peut être scanné par la personne au moyen de son téléphone, de sorte à obtenir une promotion sur le produit lors du passage en caisse, des informations sur la liste des composants du produit, ou, s’il s’agit d’un produit alimentaire, des informations sur la valeur nutritionnelle du produit concerné.
En variante, l’action déclenchée sur le dispositif de restitution d’un contenu 140 correspond à une augmentation de la luminosité, du volume sonore du dispositif de restitution, et/ou à une activation d’un module de communication sans fil à courte portée du dispositif de restitution, de sorte à pouvoir par exemple transmettre, au téléphone de la personne détectée, une promotion sur le produit concerné.
Le profil de la personne détectée est par exemple généré ou alimenté en fonction des produits qu’elle a précédemment visualisés. Le profil peut comprendre l’historique des produits visualisés, l’historique des produits collectés en vue de les acheter, et éventuellement d’autres informations telles que des caractéristiques personnelles pouvant influencer fortement l'interaction (e.g., l’âge, le sexe, etc.) ou des préférences personnelles. Selon un mode de réalisation, les dispositifs de capture d’image 120 et d’activation 130 sont intégrés au dispositif 140 de sorte à former un système 100 compact, et plusieurs systèmes 100 sont connectés entre eux, par exemple selon une topologie de type maillé ou mesh, au travers d’un réseau de télécommunications sans fil. Ils échangent des informations (par exemple le score précédemment décrit, ou une information déterminée par analyse d’images capturées par le dispositif de capture, comme le fait que la personne a collecté un produit). Dans ce contexte, le profil d’une personne est de préférence mis-à- jour localement par chaque système 100.
En variante, le dispositif d’activation 130 d’une fonction d’un dispositif de restitution 140 est intégré à un équipement distant, tel qu’un serveur, et le profil d’une personne est mis- à-jour de manière centralisée, notamment grâce aux informations transmises par les dispositifs de capture d’image 120.
Le module de commande 340 peut éventuellement être connecté à un module 320 d’analyse de la distance de la personne détectée qui est par exemple connecté au capteur 110, de sorte à déterminer l’évolution de la position de la personne détectée. Ainsi, le module de commande 340 peut être configuré pour adapter en temps réel le contenu présenté à une personne, selon qu’elle s’approche ou s’éloigne du dispositif de restitution 140.
Selon un mode de réalisation particulier, une fois que le contenu sélectionné est restitué par le dispositif 140 de restitution d’un contenu, le module de commande 340 peut informer le module d’analyse 310 et/ou 320 de l’action en cours (boucle de rétroaction). Ainsi, le module d’analyse 310 et/ou 320 peut suivre l’évolution du comportement de la personne (e.g., sa position par analyse des données fournies par le capteur 110 ou son expression faciale par analyse d’images capturées par le dispositif de capture 120) une fois le dispositif de restitution 140 déclenché, et ainsi évaluer si l’action a eu un effet sur le client (e.g., si la personne a collecté le produit en vue de l’acheter).
Éventuellement, le dispositif 130 d’activation d’une fonction d’un dispositif de restitution comprend un module 330 d’analyse du comportement des personnes détectées par le système 100. Ce module est configuré pour réaliser, en temps réel ou a posteriori, une analyse comportementale des personnes détectées, de sorte à comprendre les actions de ces personnes, l’importance d’un critère plutôt qu’un autre, les rayons qui les attirent plus, les produits qu’elles recherchent ou les motivations de leur achat.
Le module 330 d’analyse du comportement génère par exemple des statistiques, pouvant être par représentées sous la forme de cartes thermiques (« heat map » selon la terminologie anglo-saxonne) sur la base de données telles que :
- la position des personnes détectées, en fonction des données fournies par le capteur de distance 110, ou par analyse d’une séquence d’images capturées par un ou plusieurs dispositifs 120 de capture d’image ;
- la vitesse des personnes détectées ;
- le nombre de personnes passées dans un rayon ou devant un produit spécifique ;
- le temps de présence devant le dispositif 140 de restitution ;
- le nombre de personnes ayant visualisées un produit particulier ;
- la durée de la visualisation d’un produit spécifique ;
- le nombre de produits collectés par des personnes dans le rayon d’un supermarché, en fonction de l’heure de la journée ;
- le nombre de fois qu’une promotion a été proposée aux personnes qui regardaient un produit versus le nombre de fois où ce même produit a été acheté.
Selon un mode de réalisation, les dispositifs de capture d’image 120 et d’activation 130 sont intégrés au dispositif 140 de restitution d’un contenu d’image. Cette configuration offre l’avantage d’être compacte.
En variante, au moins un des modules du dispositif d’activation d’une fonction d’un dispositif de restitution est intégré à un équipement distant (tel qu’un serveur, une passerelle ou tout autre équipement), et les dispositifs de capture d’image 120 et de restitution de contenu 140 sont connectés à cet équipement distant au travers d’un réseau de télécommunications, par exemple un réseau radio, Internet, un réseau Wifi, un réseau Bluetooth, ou un réseau de téléphonie fixe ou mobile. La figure 5 représente, sous forme d’organigramme, les principales étapes d’un procédé d’activation d’une fonction d’un dispositif de restitution d’un contenu, selon un mode de réalisation particulier.
Lors d’une étape E505 optionnelle, le capteur 110 détecte la présence d’une personne dans une zone de présence localisée à proximité du dispositif de restitution 140 (par exemple 1 mètre). Dans ce cas, le capteur 110 transmet un signal d’activation à destination du dispositif 120 de capture d’image qui sort d’un mode veille et capture une image ou une séquence d’images d’au moins une partie des yeux (e.g., l’iris et/ou la pupille) de la personne détectée.
L’image capturée est transmise par le dispositif 120 de capture d’image au dispositif 130 d’activation d’une fonction d’un dispositif de restitution. Le dispositif 130 reçoit cette image lors d’une étape référencée E510.
Lors de l’étape E520, le dispositif d’activation 130 détermine la direction du regard de la personne détectée, c’est-à-dire la direction du point de fixation regardé par la personne, par analyse de l’image obtenue.
Selon un mode de réalisation particulier, le module 410 de détection du visage détecte un visage et extrait le visage détecté de sorte à générer une image du visage détecté. En variante, le module 410 génère une boîte englobante qui caractérise la position du visage détecté dans l’image de la personne. Ces données sont ensuite transmises au module 420 de détection des yeux qui, de manière similaire, analyse l’image reçue du module 410 de détection du visage. S’il détecte au moins un œil, il génère une image de l’œil détecté ou en variante génère une nouvelle boîte englobante qui caractérise la position de l’œil détecté dans l’image reçue. Ces données sont ensuite transmises soit au module de détermination 440, soit au module 430 de détection de la pupille et/ou de l’iris d’un œil qui détermine la position de la pupille et/ou de l’iris avant de la transmettre au module de détermination 440.
Lors de l’étape E530, le dispositif d’activation 130 détermine si la personne détectée a effectivement fixé un point d’une zone d’intérêt située à proximité mais en dehors d’une zone dans laquelle se trouve le premier dispositif de restitution. Selon un mode de réalisation particulier, la caractéristique selon laquelle la personne fixe un point d’une zone d’intérêt est indépendante de la durée pendant laquelle le point est fixé.
Selon un mode de réalisation particulier, le module de détermination 440, sur la base des données reçues du module 420 de détection des yeux ou du module 430 de détection de la pupille/de l’iris d’un œil, calcule un score. Dans un mode de réalisation particulier, le module de détermination se base sur une séquence d’images pour réaliser ce calcul, et plusieurs métriques peuvent être prises en compte, telles que la durée pendant laquelle le regard s’est posé sur la zone, le parcours du regard, la vitesse avec laquelle le regard a scanné la scène, et/ou la fréquence de clignotement. Si le score est supérieur à une valeur seuil, alors le module de détermination 440 considère que le regard de la personne détectée s’est effectivement posé sur une zone donnée de l’espace associé au dispositif de restitution de contenu.
En variante, lorsque le regard de la personne se pose sur plusieurs zones de l’espace, le module de détermination 440 détermine la zone de l’espace ayant présenté le plus d’intérêt pour la personne détectée.
En variante, le module de détermination 440 détermine si la personne a effectivement fixé un point d’une zone d’intérêt, sans qu’un score ne soit calculé.
Lors de l’étape E540, le dispositif d’activation 130 active au moins une fonction du dispositif de restitution d’un contenu associé à la zone sur laquelle le regard de la personne s’est porté.
Selon un mode de réalisation particulier, l’action à effectuer sur le dispositif 140 de restitution d’un contenu est déterminée en fonction du contexte d’utilisation du dispositif de restitution 140 (i.e., la date, la localisation du magasin, le rayon dans lequel est placé le produit associé), de la configuration courante du dispositif de restitution 140 (i.e., selon le contenu actuellement affiché par le dispositif de restitution d’un contenu 140), du profil de la personne détectée et/ou l’évolution de la position de la personne détectée (i.e., selon qu’elle s’approche ou s’éloigne du système)
Selon un mode de réalisation particulier, le module de commande 340 du dispositif d’activation 130 est configuré pour : - obtenir, lors d’une étape E541, des informations relatives au contexte, à la configuration courante du dispositif de restitution d’un contenu 140, au profil de la personne détectée et/ou l’évolution de la position de la personne détectée ;
- sélectionner, lors d’une étape E542, un contenu en fonction de ces critères, par application de règles prédéfinies ; et,
- transmettre au dispositif de restitution d’un contenu 140 un signal visant à restituer le contenu sélectionné, lors d’une étape E543.
Selon un mode de réalisation particulier, après avoir déclenché l’affichage d’un contenu particulier, le dispositif 130 d’activation d’une fonction d’un dispositif de restitution détermine l’évolution du comportement de la personne détectée. Pour cela, le dispositif d’activation 130 :
- détermine, par analyse d’images, l’évolution de la position de la personne, l’évolution de son expression faciale, et/ou si la personne collecte le produit en vue de l’acheter ;
- et éventuellement met à jour le profil utilisateur (USR) de la personne avec les informations déterminées et/ou informe le module 330 d’analyse du comportement.
La figure 6 représente, sous forme d’organigramme, les principales étapes d’un procédé d’activation d’une fonction d’un dispositif de restitution d’un contenu, selon un mode de réalisation de l’invention.
Selon ce mode de réalisation, au moins un premier et deuxième dispositifs 130 d’activation d’une fonction d’un dispositif de restitution sont associés à au moins un premier et deuxième dispositifs 140 de restitution de contenu, et les deux dispositifs d’activation 130 communiquent entre eux, via leur interface de communication 208, afin de déterminer au moins une fonction à activer sur au moins un des dispositifs 140 de restitution d’un contenu.
Chacun des premier et deuxième dispositifs d’activation met en œuvre les étapes E510 et E520 (précédemment décrites).
Lors d’une étape E530.A, le premier dispositif d’activation détermine si la personne fixe un point d’une première zone d’intérêt située à proximité et en dehors d’une zone dans laquelle se trouve le dispositif de restitution. Pour cela, le premier dispositif d’activation calcule, lors d’une étape E531.A, un premier score représentatif de l’intérêt porté par la personne à une première zone d’intérêt associée au premier dispositif de restitution d’un contenu.
Lors d’une étape E532.A, le premier dispositif d’activation reçoit du deuxième dispositif d’activation, un deuxième score représentatif de l’intérêt porté par la personne à une deuxième zone d’intérêt associée au deuxième dispositif de restitution d’un contenu.
Lors d’une étape E533.A, le premier dispositif d’activation transmet le premier score au deuxième dispositif d’activation.
Le deuxième dispositif d’activation met également en œuvre des étapes symétriques, qui sont référencées E531.B, E532.B et E533.B.
Enfin, lors d’une étape E534 (E534.A et E534.B), chacun des premier et deuxième dispositifs d’activation compare les deux scores Si le premier score est supérieur au second score, le premier dispositif d’activation active une fonction du premier dispositif de restitution d’un contenu. Sinon, le deuxième dispositif d’activation active une fonction du deuxième dispositif de restitution d’un contenu.
Dans un mode de réalisation particulier, un premier dispositif d’activation détermine que la personne détectée se déplace, détermine la direction prise par cette personne, et transmet un signal d’activation à destination d’au moins un deuxième dispositif d’activation, de sorte que le deuxième dispositif de restitution associé au deuxième dispositif d’activation soit activé lorsque la personne passe à proximité de ce dispositif.
Dans un mode de réalisation particulier, seul un dispositif d’activation 130 est nécessaire, et est configuré pour réaliser une analyse d’images provenant de deux dispositifs de capture, et pour piloter deux dispositifs de restitution d’un contenu.

Claims

Revendications
[Revendication 1] Procédé d’activation d’une fonction d’un premier dispositif de restitution de contenu, le procédé comprenant les étapes suivantes : obtenir (E510) au moins une image d’au moins une partie des yeux d’une personne détectée dans une zone de présence associée au premier dispositif de restitution, ladite image étant capturée suite à la réception d’un signal de détection de la présence de la personne dans la zone de présence ; déterminer (E530), par analyse de la au moins une image obtenue, que la personne fixe un point d’une première zone d’intérêt située à proximité et en dehors d’une zone dans laquelle se trouve le premier dispositif de restitution; et, activer (E540) au moins une fonction du premier dispositif de restitution.
[Revendication 2] Procédé selon la revendication 1, dans lequel le premier dispositif de restitution de contenu est un dispositif d’affichage dudit contenu, ce dispositif comprenant une zone d’affichage dudit contenu, ladite première zone d’intérêt étant située en dehors de la zone d’affichage du dispositif d’affichage.
[Revendication 3] Procédé selon la revendication 1 ou 2, dans laquelle ladite étape de détermination comprend un calcul (E531.A, E531.B) d’un premier score relatif à la première zone d’intérêt, le procédé comprenant en outre une étape d’obtention (E532A, E532.B) d’un deuxième score relatif à une deuxième zone d’intérêt fixée par la personne, la deuxième zone étant associée à un second dispositif de restitution, l’activation d’au moins une fonction du premier dispositif de restitution étant effective si le premier score est supérieur au deuxième score.
[Revendication 4] Procédé selon l’une des revendications 1 à 3, dans lequel l’étape d’activation d’au moins une fonction du premier dispositif de restitution de contenu comprend les étapes suivantes : obtenir (E541) au moins un critère de sélection de contenu ; et, sélectionner (E542) un contenu en fonction dudit au moins un critère.
[Revendication 5] Procédé selon l’une des revendications 1 à 4, dans lequel l’étape d’activation d’au moins une fonction du premier dispositif de restitution de contenu comprend un déclenchement de la restitution du contenu ou une modification d’au moins un paramètre de configuration du premier dispositif de restitution.
[Revendication 6] Dispositif d’activation d’une fonction d’un dispositif de restitution de contenu comprenant : un module d’obtention d’au moins une image d’au moins une partie des yeux d’une personne détectée dans une zone de présence associée au premier dispositif de restitution, ladite image étant capturée suite à la réception d’un signal de détection de la présence de la personne dans la zone de présence; un module (310) d’analyse du regard configuré pour déterminer, par analyse de la au moins une image obtenue, que la personne fixe un point d’une première zone d’intérêt située à proximité et en dehors d’une zone dans laquelle se trouve le premier dispositif de restitution; et, un module (340) de commande configuré pour activer au moins une fonction du premier dispositif de restitution.
[Revendication 7] Système de restitution de contenu comprenant : un dispositif (140) de restitution de contenu ; un dispositif (120) de capture d’image configuré pour sortir d’un mode de veille en réponse à la réception d’un signal de détection de la présence d’une personne dans une zone de présence, le signal étant émis par un capteur de présence (110); un dispositif (130) d’activation d’au moins une fonction d’un dispositif de restitution selon la revendication 6.
[Revendication 8] Système selon la revendication 7, dans lequel le dispositif (120) de capture d’image est intégré au dispositif (140) de restitution de contenu.
[Revendication 9] Système selon la revendication 7 ou 8, dans lequel le dispositif (130) d’activation d’au moins une fonction d’un dispositif de restitution est intégré au dispositif de restitution de contenu (140).
[Revendication 10] Système selon l'une des revendications 7 à 9, dans lequel le dispositif (140) de restitution de contenu comprend un module de communication sans fil configuré pour communiquer avec un serveur distant via un réseau de communications, et dans lequel au moins un des modules du dispositif (130) d’activation d’au moins une fonction d’un dispositif (140) de restitution est incorporé dans ledit serveur.
[Revendication 11] Programme informatique comportant des instructions pour la mise en œuvre du procédé selon l'une quelconque des revendications 1 à 5, lorsque ce programme est exécuté par un processeur.
[Revendication 12] Support d’enregistrement (204] lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes d’un procédé selon l'une quelconque des revendications 1 à 5.
PCT/FR2022/051276 2021-07-01 2022-06-28 Systeme, dispositif et procede d'activation d'une fonction d'un dispositif de restitution de contenu WO2023275477A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP22744292.8A EP4364076A1 (fr) 2021-07-01 2022-06-28 Systeme, dispositif et procede d'activation d'une fonction d'un dispositif de restitution de contenu

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FRFR2107129 2021-07-01
FR2107129A FR3124877A1 (fr) 2021-07-01 2021-07-01 Système, dispositif et procédé d’activation d’une fonction d’un dispositif de restitution de contenu

Publications (1)

Publication Number Publication Date
WO2023275477A1 true WO2023275477A1 (fr) 2023-01-05

Family

ID=77021621

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2022/051276 WO2023275477A1 (fr) 2021-07-01 2022-06-28 Systeme, dispositif et procede d'activation d'une fonction d'un dispositif de restitution de contenu

Country Status (3)

Country Link
EP (1) EP4364076A1 (fr)
FR (1) FR3124877A1 (fr)
WO (1) WO2023275477A1 (fr)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030052911A1 (en) * 2001-09-20 2003-03-20 Koninklijke Philips Electronics N.V. User attention-based adaptation of quality level to improve the management of real-time multi-media content delivery and distribution
US8219438B1 (en) * 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression
US20130117153A1 (en) 2011-11-04 2013-05-09 Pathway Innovations And Technologies, Inc. Fully interactive, wireless, retail video display tag, integrated with content distribution, data management, feedback data collection, inventory and product price search capabilities
US20160253735A1 (en) * 2014-12-30 2016-09-01 Shelfscreen, Llc Closed-Loop Dynamic Content Display System Utilizing Shopper Proximity and Shopper Context Generated in Response to Wireless Data Triggers
US20170213234A1 (en) * 2016-01-21 2017-07-27 International Business Machines Corporation Managing power, lighting, and advertising using gaze behavior data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030052911A1 (en) * 2001-09-20 2003-03-20 Koninklijke Philips Electronics N.V. User attention-based adaptation of quality level to improve the management of real-time multi-media content delivery and distribution
US8219438B1 (en) * 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression
US20130117153A1 (en) 2011-11-04 2013-05-09 Pathway Innovations And Technologies, Inc. Fully interactive, wireless, retail video display tag, integrated with content distribution, data management, feedback data collection, inventory and product price search capabilities
US20160253735A1 (en) * 2014-12-30 2016-09-01 Shelfscreen, Llc Closed-Loop Dynamic Content Display System Utilizing Shopper Proximity and Shopper Context Generated in Response to Wireless Data Triggers
US20170213234A1 (en) * 2016-01-21 2017-07-27 International Business Machines Corporation Managing power, lighting, and advertising using gaze behavior data

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"International Conference on Intelligent Information Processing , IFIP Advances in Information and Communication Technology", vol. 576, 1 January 2020 (2020-01-01), US, pages 226 - 241, XP055901112, ISSN: 1868-4238, Retrieved from the Internet <URL:https://link.springer.com/content/pdf/10.1007/978-3-030-42504-3_15.pdf> DOI: 10.1007/978-3-030-42504-3_15 *
ANONYMOUS: "Eye tracking - Wikipedia", 14 February 2020 (2020-02-14), XP055799622, Retrieved from the Internet <URL:https://en.wikipedia.org/w/index.php?title=Eye_tracking&oldid=940786241> [retrieved on 20210428] *
PUNDE PRAMODINI A ET AL: "A study of eye tracking technology and its applications", 2017 1ST INTERNATIONAL CONFERENCE ON INTELLIGENT SYSTEMS AND INFORMATION MANAGEMENT (ICISIM), IEEE, 5 October 2017 (2017-10-05), pages 86 - 90, XP033270710, DOI: 10.1109/ICISIM.2017.8122153 *

Also Published As

Publication number Publication date
EP4364076A1 (fr) 2024-05-08
FR3124877A1 (fr) 2023-01-06

Similar Documents

Publication Publication Date Title
US20220078529A1 (en) Methods and apparatus for secondary content analysis and provision within a network
US7643658B2 (en) Display arrangement including face detection
JP5619156B2 (ja) 閲覧者の要因および反応に応じた画像表示制御を行う方法および装置
US10726465B2 (en) System, method and computer program product providing eye tracking based cognitive filtering and product recommendations
US20170251262A1 (en) System and Method for Segment Relevance Detection for Digital Content Using Multimodal Correlations
US20080306999A1 (en) Systems and processes for presenting informational content
US20080147488A1 (en) System and method for monitoring viewer attention with respect to a display and determining associated charges
US20220207274A1 (en) Client Based Image Analysis
US20110238503A1 (en) System and method for personalized dynamic web content based on photographic data
US10846517B1 (en) Content modification via emotion detection
KR102474047B1 (ko) 사진 또는 비디오에서 잠재적 목록에 대한 관심 수집
CN101233540A (zh) 用于监控对目标感兴趣的人的装置及其方法
US10798425B1 (en) Personalized key object identification in a live video stream
US10638197B2 (en) System and method for segment relevance detection for digital content using multimodal correlations
EP1995931A2 (fr) Système et procédé de mise a jour d&#39;un etat de presence d&#39;un utilisateur sur un terminal par agregation d&#39;informations multi-sources
US11087182B1 (en) Image processing including streaming image output
AU2018271424A1 (en) System and Method for Algorithmic Editing of Video Content
WO2014060709A1 (fr) Procede et dispositif de diffusion d&#39;information a un utilisateur muni d&#39;un terminal portable communiquant avec filtrage d&#39;informations et apprentissage à l&#39;aide de graphes biparti ou de réseaux neuronaux
EP2905678A1 (fr) Procédé et système pour afficher un contenu à un utilisateur
WO2023275477A1 (fr) Systeme, dispositif et procede d&#39;activation d&#39;une fonction d&#39;un dispositif de restitution de contenu
WO2020222157A1 (fr) Procédé et système pour suivre, analyser et réagir à un comportement d&#39;utilisateur dans des espaces numériques et physiques
FR3055451A1 (fr) Systemes et procedes de mesure de l&#39;attention d&#39;un utilisateur a au moins une publicite video dans une page internet et de reciblage de la publicite video affichee en fonction de ladite mesure
CN114012746B (zh) 一种机器人、信息播放的方法、控制装置以及介质
US20220318550A1 (en) Systems, devices, and/or processes for dynamic surface marking
EP3494494A1 (fr) Moyens de diffusion d&#39;un contenu personnalisé dans un réseau de communication

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22744292

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022744292

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022744292

Country of ref document: EP

Effective date: 20240201