EP4348460A1 - Procédé et dispositif de caractérisation d'un utilisateur, et dispositif de fourniture de services l'utilisant - Google Patents

Procédé et dispositif de caractérisation d'un utilisateur, et dispositif de fourniture de services l'utilisant

Info

Publication number
EP4348460A1
EP4348460A1 EP22732606.3A EP22732606A EP4348460A1 EP 4348460 A1 EP4348460 A1 EP 4348460A1 EP 22732606 A EP22732606 A EP 22732606A EP 4348460 A1 EP4348460 A1 EP 4348460A1
Authority
EP
European Patent Office
Prior art keywords
sound
user
sound object
data
spatialized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP22732606.3A
Other languages
German (de)
English (en)
Inventor
Christian Gregoire
Julian MOREIRA
Nicolas PELLEN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Publication of EP4348460A1 publication Critical patent/EP4348460A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2133Verifying human interaction, e.g., Captcha

Definitions

  • the invention relates to the field of computer security.
  • the invention relates to a method and a device for characterizing a user, in particular a user of a device and/or a service.
  • the invention relates in particular to the characterization of a user as being a human user as opposed to a computer user or user-robot.
  • the characterization of a user makes it possible to differentiate the human user from the user-robot (that is to say in particular a computer user implemented by a computer).
  • This characterization uses a so-called CAPTCHA test for "Completely Automated Public Turing test to tell Computers and Humans Apart” in English, that is to say completely automated public Turing test to differentiate between computers and humans, or a HIP test to "Human Interaction Proof” in English, that is to say human interaction proof test.
  • CAPTCHA test makes it possible to protect a server receiving computer forms not only from receiving undesirable forms or spam because coming from a robot user, but also from a denial of service attack, i.e. the implementation by the server of a large number of useless treatments related to the undesirable forms received.
  • CAPTCHA test user makes it possible to reduce network overloads linked to denial of service attacks on one or more servers by avoiding downloading documents required by one or more robot users.
  • CAPTCHA test There are different types of CAPTCHA test. The most common are the so-called visual CAPTCHAs in which the user enters, on request, a series of letters corresponding to the distorted letters displayed on the screen or clicks, on request, in a mosaic of images displayed on the images of the mosaic containing a particular object, for example traffic lights.
  • CAPTCHA For some users, the presence of a CAPTCHA to access a site or content is simply prohibitive. For example, a blind user cannot fill in a visual CAPTCHA.
  • these verification systems fail to recognize some users with disabilities as human and therefore make it impossible for these users to create accounts, write reviews or make purchases on certain sites.
  • a sound CAPTCHA can be used proposing either that the user identifies, on request, a sound object broadcast or enters, on request, a series of numbers corresponding to the numbers spoken vocally during the broadcast of a sound clip.
  • current recognition systems, image recognition and voice recognition have made great progress and are available in a simple manner and to a large number of people. These CAPTCHAs are therefore easy to circumvent by robots properly programmed to use these image and voice recognition techniques.
  • CAPTCHA systems initially use visual 3D. For example, the displayed text to be entered by the user is distorted in three dimensions to further distort the letters to be recognized.
  • Other sound CAPTCHA systems then broadcast the sound extract to be identified (in particular lyrics) in a background sound, for example of the cocktail effect type. But recognition techniques are improving rapidly, the latest generations of image and voice recognition systems are increasingly robust to this kind of disturbance.
  • One of the aims of the present invention is to remedy the drawbacks/shortcomings of the state of the art/to make improvements with respect to the state of the art.
  • An object of the invention is a method for characterizing a user, the characterization method comprising a comparison of first data associated with a first spatialized sound object at a first location by a user interface of a communication terminal and second data received following the reproduction of the first spatialized sound object, the first data being distinct from the first sound object, the second data being a function of a second spatialized sound object perceived at a second location, the comparison triggering, in the event of a positive result, a characterization of the source of interaction as an appropriate user,.
  • an appropriate user in particular a human user, being capable of providing second data corresponding to the first data because the only one capable of giving the location of a given spatialized sound object or a characteristic of a spatialized sound object broadcast at a location data or even the answer to a voice question broadcast at a given location.
  • the existing sound and voice recognition systems are not able to select a sound in a spatialized sound environment, that is to say a three-dimensional 3D audio scene.
  • the first data and the second data are one of the following data types:
  • the invention reduces the errors of characterization of a user as a human user a robot user using a sound recognition system because these systems are only able:
  • the characterization method includes a reproduction of a request for interaction with the first spatialized sound object, the interaction request being intended for the user, the second data is data received following the reproduction of said request for interaction.
  • the interaction request includes the type of second data expected during the interaction.
  • the interaction request further includes the second location of the second spatialized sound object, the second location corresponding to the first location.
  • the localization of the sound object that the user must listen to in order to characterize it can vary from one characterization to another, reducing the risks of learning of the localization by computer systems and therefore the risks of characterization errors. .
  • the method for characterizing a user characterizes the user with at least one of the following elements:
  • the characterization method comprises a control implemented by the user interface, the control controlling the user interface by means of a spatialized reproduction command comprising the first sound object and the first location.
  • control triggers an activation of a capture of second data by the user interface, the data captured comprising the second data received.
  • the various steps of the method according to the invention are implemented by computer software or program, this software comprising software instructions intended to be executed by a data processor of a device forming part of a characterization device and/or a service provision device and being designed to control the execution of the various steps of this method.
  • the invention therefore also relates to a program comprising program code instructions for the execution of the steps of the method according to any one of the preceding claims when said program is executed by a processor.
  • This program can use any programming language and be in the form of source code, object code or intermediate code between source code and object code such as in a partially compiled form or in any other desirable form.
  • An object of the invention is also a device for characterizing a user, the characterization device comprising a comparator of first data associated with a first sound object spatialized in a first location by a user interface of a communication terminal and of second data received following the reproduction of the first spatialized sound object, the first data being distinct from the first sound object, the second data being a function of a second spatialized sound object perceived at a second location, the comparator triggering in the event of a positive result a characterization of the source of interaction as an appropriate user.
  • An object of the invention is also a service provision device, the service provision device comprising:
  • a device for characterizing a user of the service comprising a comparator of first data associated with a first sound object spatialized at a first location by a user interface of the user's communication terminal and of second data received following the reproduction of the first spatialized sound object, the first data being distinct from the first sound object, the second data being a function of a second spatialized sound object perceived at a second location, the comparator triggering in the event of a positive result a characterization of the source of interaction as being an appropriate user and commanding the processor to implement the service.
  • FIG. 1 a simplified diagram of a user characterization method according to the invention
  • FIG. 2 a simplified diagram of a 3D audio scene used by the invention
  • Figure 3a a simplified diagram of a user interface of a first embodiment of the invention in the case of an interaction request relating to a position of a sound object
  • Figure 3b a simplified diagram of a user interface of a second embodiment of the invention in the case of an interaction request relating to a position of a sound object
  • Figure 4a a simplified diagram of a user interface of a first embodiment of the invention in the case of an interaction request relating to a category of a sound object
  • Figure 4b a simplified diagram of a user interface of a second embodiment of the invention in the case of an interaction request relating to a category of a sound object
  • Figure 5a a simplified diagram of a user interface of a first embodiment of the invention in the case of a sound object comprising an interaction request
  • Figure 5b a simplified diagram of a user interface of a second embodiment of the invention in the case of a sound object comprising an interaction request
  • FIG. 6 a simplified diagram of a communication architecture comprising a characterization device according to the invention.
  • FIG. 1 illustrates a simplified diagram of a user characterization method according to the invention.
  • the HCP characterization method comprises a CMP comparison of first data d1 associated with a first spatialized sound object OSi at a first location pos osi of a spatialized audio scene ES by a user interface of a communication terminal and second data d2 received following the 3D_RPR reproduction of the first spatialized OSi sound object.
  • the first data d1 are distinct from the first sound object OS1.
  • the second data d2 are a function of a second spatialized sound object OSP2 perceived at a second location pososp2 of the spatialized audio scene 3DES.
  • first data d1 and the second data d2 are one of the following data types:
  • category of generating source can be understood classes of category: machine, animals, machines, natural, etc. and/or subclasses: for machines, vehicles, household appliances, industrial machinery, etc. ; for animals, dog, cat, cow, snake, whale, etc. ; for natural, rain, wind, storm, etc. and/or sub-subclasses: car, plane, train...
  • the HCP characterization method comprises a reproduction IRQ_RPR of an interaction request irq to the first spatialized sound object OSi.
  • the irq interaction request is for user UH, UR.
  • the second data d2 is data received dr following the reproduction of said interaction request IRQ_RPR.
  • the interaction request irq comprises the type ty 2 0S of second data d2 expected during the interaction a.
  • the interaction request irq further comprises the second location pos 2 os of the second spatialized sound object OS 2 .
  • the HCP characterization process of a user characterizes the user of at least one of the following elements:
  • the HCP characterization method comprises a CNT check implemented by the user interface.
  • the CNT control controls the user interface by means of a spatialized reproduction command rpr_cmd comprising the first sound object OS1 and the first location pos 1 os.
  • the CNT control triggers d2_trg an activation of a CPT data capture by the user interface.
  • the HCP characterization method comprises a selection of a sound environment ES_SLCT in a storage device BOS, such as a memory or a database, comprising one or more predefined sound environments.
  • a storage device BOS such as a memory or a database
  • the database is a base of sounds or a base of sound objects or even a base of sound environments.
  • a memorized predefined sound environment comprises one or more sound objects os 1 , ⁇ os 1 i ⁇ i.
  • a sound object os 1 , ⁇ os 1 i ⁇ i is associated with one or more characteristic parameters among the following:
  • the sound environment selection ES_SLCT receives from the BOS storage device a sound environment composed of:
  • the sound environment selection ES_SLCT sends a sound environment request es_req to a storage device, such as a memory or a BOS database.
  • a storage device such as a memory or a BOS database.
  • the sound environment selection ES_SLCT receives the sound environment es in response to the sound environment request es_req.
  • the sound environment selection ES_SLCT selects only a 3D sound environment, that is to say at least a first sound object associated with a first location allowing a spatialized reproduction of the first sound object at the first location.
  • the sound environment request includes a parameter indicative of the request for 3D sound environments and/or is sent only to a BOS storage device comprising only 3D sound environments.
  • the HCP characterization process includes a 3posl s ? the presence of first location(s) in the sound environment received es. Thus, if the sound environment received does not include a first location:
  • nv_e a new sound environment selection ES_SLCT until the received sound environment includes a first location of a first sound object
  • the HCP characterization method comprises a location generator POS_GN supplying a first sound object of the sound environment with a first location generated pos 1 m d -
  • the location generator is a random location generator or a location generator localization function of at least one parameter of the sound object (for example depending on the category of sound object, the sound object will be positioned on the ground or more or less high, etc.).
  • the selected sound environment es will be supplied to the spatialized sound reproduction 3D_RPR which will reproduce the first sound signal s 1 of the first sound object OS 1 as if the sound object were located at the first location pos 1 os in the spatialized audio scene 3DES .
  • the characterization method HCP comprises in particular a 3D_GN creation of a three-dimensional sound environment 3DES.
  • the 3D_GN creation of a three-dimensional sound environment includes in particular the spatialized reproduction of a 3D_RPR sound object.
  • the spatialized reproduction of a sound object makes it possible to broadcast a sound or sound signal s associated with the sound object OS as if it were emitted from a posos location corresponding to the location associated with the sound object OS in the 3D three-dimensional sound environment.
  • the 3D_GN creation of a 3DES three-dimensional sound environment further comprises at least one of the following steps:
  • the interaction request irq relates to one or more first sound objects.
  • FIG. 1 illustrates the case where the interaction request relates to a first sound object.
  • the selected sound environment comprises only one first sound object OS 1
  • the interaction request irq relates to this first sound object OS 1 .
  • the HCP characterization method then includes a selection OSi_SLCT of a sound object from among the set of first sound objects ⁇ OS 1 i ⁇ i, of the selected sound environment es.
  • the HCP characterization method comprises a generation IRQ_GN of an interaction request irq concerning a first sound object: single sound object OS 1 or selected sound object OS 1 jde the selected sound environment es.
  • the interaction request irq relates to one or more characteristic parameters of the first sound object OS 1 , OS 1 j.
  • the HCP characterization method includes generation of an interaction request relating to the location of the first object POSRQ_GN. If the reproduced sound environment comprises only one sound object, the interaction request can simply be relative to the position of the perceived sound.
  • the interaction request irq can include a characteristic parameter of the first selected sound object OS 1 j for which the interaction request irq requires an interaction relating to the position of the sound perceived for this first selected object.
  • the interaction query irq will indicate the category ty 1 0Sj of sound source to be positioned in the spatially reproduced sound environment.
  • the HCP characterization method includes generation of an interaction request relating to the category of the first sound object TYRQ_GN.
  • the generation of a request relating to the TYRQ_GN category is used in the case of a sound environment es comprising several first sound objects, the interaction request irq includes the first location associated with the first selected sound object OS 1 j and relates to the category of the source emitting the perceived sound.
  • the interaction request irq will indicate the location pos 1 OSj of the first spatially reproduced sound object for which the user must identify the sound source category.
  • the HCP characterization method includes generation of an interaction request relating to the vocalized question in the first sound object DRQ_GN.
  • the generation of a request relating to a vocalized question DRQ_GN is used in the case of a sound environment es comprising several first sound objects, the interaction request irq includes the first location associated with the first selected sound object OS 1 j and relates to the vocalized question in the perceived sound.
  • the interaction request irq will indicate the location pos 1 OSj of the first spatially reproduced sound object, the first sound object comprising a vocalized question to which the user must provide an answer.
  • the HCP characterization method comprises at least one verification of the presence of at least one characteristic parameter associated with the first selected sound object OSV in particular, a verification of the presence of an answer to a vocalized question in the first selected sound object r sj ?, a check for the presence of a category of the first object selected X tyl sj ?, etc. If the presence of a characteristic parameter is verified [Y], respectively 3r£ sj ?, 3tyl sj ?, then the generation of an interaction request relating to this characteristic parameter is implemented, respectively DRQ_GN, TYRQ_GN.
  • the series of sound objects are always composed of sound objects whose sound signal is broadcast/emitted one after the other, that is to say successively, with or without silence.
  • the sound objects can have a characteristic parameter whose value is common to all the sound objects of the series. For example, a series of sound objects from the same category of sources, a series of sound objects in which all the sound objects have an identical location, etc.
  • the HCP characterization method comprises several generations of specific requests: for example a generation of a request relating to a response DRQ_GN and a generation of a request relating to a source category TYRQ_GN.
  • the question can be asked by different categories of people: man, woman, children, different accents, etc.
  • the generated interaction request irq includes the specific interaction requests provided by each of the specific request generations;
  • either the HCP characterization method comprises a selection of request RNDRQ selecting one among the generations of specific requests available: for example a generation of request relating to a response DRQ_GN, or a generation of request relating to a category of source TYRQ_GN, or etc .
  • the RNDRQ query selection can be done randomly or based on the value of one of the characteristic parameters;
  • either the HCP characterization process will automatically implement the generation of a specific predefined request, for example the generation of the request relating to a DRQ_GN response.
  • the selection of a first sound object OS 1 i_SLCT in the sound environment or the selection of a series of sound objects SO_SLCT is performed on a selection action as of a UH, UR user.
  • the selection action as comprises a value of a characteristic parameter of the first sound object selected, respectively of the first series of first sound objects, distinct from the values of this parameter of the other first sound objects of the sound environment, respectively of the other first series of first sound objects.
  • the user will indicate that the sound object has the category of a donkey, and the characterization method will send an interaction request on the location of this donkey in the environment. spatialized sound.
  • the IRQ_GN generation of an irq interaction request includes one or more of the following steps:
  • the verification of the presence of at least one characteristic parameter associated with the first selected sound object OS 1 j in particular, the verification of the presence of an answer to a vocalized question in the first selected sound object 3rumble S7 - ?, the verification presence of a category of the first selected object X tyl sj ?, etc. ;
  • At least one generation of a specific interaction request in particular the generation of an interaction request relating to the location of the first object POSRQ_GN, and/or the generation of an interaction request relating to the vocalized question in the first sound object DRQ_GN, and/or a generation of a request relating to a source category TYRQ_GN, etc.
  • interaction request IRQ_GN and/or the generation or generations of specific requests DRQ_GN, TYRQ_GN, POSRQ_GN, SO_SLCT provide an interaction request irq relating to a first sound object, or even to a first series of first sound objects, comprising optionally one or more specific requests relating to a characteristic parameter associated with the first sound object, or even with the first series of first sound objects, with a reproduction of the interaction request IRQ_RPR.
  • the reproduction of interaction request IRQ_RPR is in particular a visual reproduction such as a display on a screen, a virtual or augmented reality headset, etc. (the visual reproduction being prior to or simultaneous with the reproduction of the 3D_RPR spatialized sound environment) and/or a sound reproduction prior to the reproduction of the 3D_RPR spatialized sound environment.
  • the reproduction of the spatialized sound environment 3D_RPR is triggered by one of the following steps: the selection of the sound environment ES_SLCT, the generation of a location, the generation of interaction request IRQ_GN, the reproduction of IRQ_RPR interaction request.
  • the user UH, UR reacts a by supplying second data d2 relating to a second sound object OS 2 .
  • the second sound object OS 2 is the sound object whose second sound signal or second sound s 2 is perceived by the user in the reproduced spatialized sound environment 3DES which corresponds for the user to the first sound object OS1 to which the request d
  • the reproduced irq interaction is relative.
  • the HCP characterization method receives these second data d2 from the user.
  • the HCP characterization process comprises one or more of the following steps: - a CPT capture of an action a of the user providing data captured from;
  • the creation of a 3D_GN spatialized sound environment and/or the CNT reproduction control and/or the reproduction of the 3D_RPR sound environment triggers an interaction processing IRTRT and or a CPT capture and/or a reception of data RCV.
  • the HCP characterization method comprises an interaction processing IRTRT implementing the processing of a user action following the reproduction of the interaction request IRQ_RPR provides the second data d2 for comparison.
  • IRTRT interaction processing involves one or more of the following steps:
  • the HCP characterization method is triggered by a service provision method that is not illustrated, in particular prior to the provision of the service.
  • the provision of the service will be triggered by the characterization of the source of interaction as being an appropriate user, in particular a human user.
  • the characterization method triggers the STP stop of the implementation of the method of providing Services.
  • the HCP characterization process is triggered by a process for accessing a third-party device (communication terminal, connected object, remote equipment, etc.) not shown, in particular prior to access authorization to the third-party device.
  • Access to the device will be triggered by characterizing the source of interaction as being an appropriate user, in particular a human user.
  • the characterization method triggers the STP stop of the implementation of the method of access to the third-party device.
  • a particular embodiment of the characterization method is a program comprising program code instructions for the execution of the steps of the characterization method when said program is executed by a processor.
  • Figure 2 illustrates a simplified diagram of a 3D audio scene used by the invention.
  • the invention is based on the positioning of sound objects in a 3D audio scene as elements to be characterized at the level of the Man-Machine interface.
  • the spatialized sound environment or 3D 3DES audio scene composed of sound objects is reproduced around a user U to be characterized.
  • the surrounding three-dimensional space around the user U is schematized by a plane represented by three axes centered on the user U: an abscissa axis x, an ordinate axis y and an axis of azimuth z.
  • Sound objects OSi, OS2. OSj,... are represented in this three-dimensional space.
  • a sound object OS1, OS2. OSj,... is an O1, O2 object. Oh. such as respectively a car, a person.
  • FIGS. 3a, 3b, 4a, 4b, 5a and 5b illustrate simplified diagrams of a user interface of different embodiments of the invention in the case of different types of interaction request: respectively, relating to a position of the sound object, relating to a category of the sound object or to an interaction request included in the sound object.
  • the characterization method according to the invention therefore proposes, to constitute a captcha, to present to the user U, in particular in an audio headset with binaural technology, spatialized sounds of different natures in a sound scene and/or in a certain order (for example at a certain moment of reproduction).
  • he will have to, for example, indicate the location of a certain type of sound among those presented and indicate in what position he hears them (left, front, right, etc.), in short, locate a sound in a space virtual as shown in Figures 3a and 3b. It may also be having to answer the question heard in the right ear for example (with different questions on the right, on the left, on the top) as shown in figures 5a and 5b.
  • FIG. 3a illustrates a simplified diagram of a user interface of a first embodiment of the invention in the case of an interaction request relating to a position of a sound object.
  • the simplest case implemented by the characterization method will therefore be a single first sound emitted s 1 from a first location pos 1 os (that is to say a sound environment is constituted of a single first sound object OS 1 ).
  • the interaction request irq will then ask the user U to indicate the origin of the sound signal s 1 , that is to say in which direction the user U perceives a second sound object OS 2 following the spatialized reproduction of the first sound object OS 1 .
  • FIG. 3a shows a user interface, in this case a screen 10 on which the interaction request irq is displayed, for example a question relating to the location pos os ? and possibly several choices of iqcm responses: fposrp, Iposrp, rposrp positioned on the display relative to a representation of the position of the user urp.
  • the user interface in this case the screen 10 offers an interaction zone at the level of the choices displayed allowing the user to select by means of a stylus, a mouse or by tactile interaction with the 10, one of the answer choices displayed: fposrp, Iposrp, rposrp. For example, the user hearing a sound to his right, will select the position R, providing a second datum corresponding to a second location having the right value, rposrp.
  • the characterization method comprises a determination of the second datum from a position of a hand of a user, for example his right hand or the hand holding a controller of a reality headset virtual or augmented or a game console. Either the characterization method receives the position of the hand from the joystick, or the characterization method captures the position of the hand, in particular by means of a camera. Thus, if the user places his hand:
  • the choice corresponds to fposrp in the proposals of the interaction request
  • the choice corresponds to Iposrp in the proposals of the interaction request.
  • the user interface comprises an ios interaction zone with the first sound object allowing the user to request the repetition of the spatialized reproduction of the first sound object.
  • the user interface includes an interaction zone islct with the selection of the first sound object allowing the user to request a selection of a new sound environment and therefore of a new first sound object.
  • the first sound object poses particular difficulties of perception to the user, the latter can change it to allow him to be characterized as an appropriate user and therefore to access the device/service using the characterization method. This therefore reduces false characterizations as an inappropriate user.
  • the interaction request irq reproduced on the screen 10 is for example "Where do you hear this sound?"".
  • a sound is reproduced to which the characterization method asks the user to react by means of the interaction request.
  • an interaction zone with the ios sound is also reproduced.
  • This area of interaction with ios sound includes in particular a reading interaction element.
  • An action a of the user relating to this interaction element triggers a control of the spatialized reproduction of the sound.
  • the interaction element is notably symbolized by a triangle pointing to the right as long as the sound is not broadcast and the sound playback is not finished, by two broad lines as long as the sound is broadcast, and, at the end of sound diffusion, by a triangle pointing to a vertical line on the left.
  • an action on the triangle pointing to the right triggers the reading and spatialized reproduction of the sound
  • an action on the two broad lines triggers a suspension of the reproduction of the sound making it possible to subsequently resume the spatialized reproduction of the sound from the moment pause
  • an action on the arrow pointing to the left triggers a spatialized reproduction of the sound from the beginning of it.
  • the interaction zone with the ios sound includes, in particular, a reading rule which consists of a horizontal line which gradually fills in according to the progress of the spatialized reproduction of the sound (the line is empty at the start of the sound reproduction and full
  • the user acting relative to a particular point of this reading rule triggers the spatialized reproduction of the sound from the moment of the sound signal represented by this point of the reading rule.
  • the ios sound interaction zone comprises, for example, an elevator allowing interaction with the sound volume of the spatialized reproduction of sound.
  • the sound interaction zone comprises one or more of the interaction elements among the following: a reading interaction element, a reading ruler, a volume slider.
  • the interaction request includes instructions relating to the sound reproduction devices to be used. For example, it asks for "Headphone listening only”. Thus, characterization errors related to a non-spatialized reproduction of the sound object due to the use of an unsuitable sound reproduction device will be avoided.
  • the multiple choices proposed iqcm will be in the form of text, such as "front” for the choice fposrp, "right” for the choice rposrp and “left” for the choice Iposrp and/or represented graphically by a symbolic drawing of a urp user, and selectable boxes or circles, for example by ticking them, as shown in Figure 3a.
  • the same sound or different sounds reproduced at distinct instants can move in the 3D audio scene over a series of N first locations. This constitutes a series of sound objects.
  • the process of characterization triggers a display of the screen 10 of FIG. 3b and waits for the user's action.
  • the passage to a new position of the sound and/or to a new sound object is then conditioned on a positive comparison result, that is to say on the fact that the user correctly identifies the current position of the current sound object (this means that the second datum corresponding to the location of the sound object perceived, that is to say the second sound object, by the user corresponds to the first datum corresponding to the current location of the sound object in course of spatial reproduction, that is to say of the first sound object).
  • a second implementation of the characterization process all the sound objects of the series are spatially reproduced in the order given by the series (for example at the time provided by the series).
  • the characterization process triggers a display of the screen 10 of FIG. 3b and waits for the action of the user.
  • the irq interaction request reproduced on screen 10 is then, for example "Indicate in order the different directions from which you heard a sound".
  • the CMP comparison verifies, for each first data associated di(n) with a first sound object reproduced at an instant n, if the second data d2(n) provided by the user for this instant n (for example because associated with the nth action of the user) corresponds to this first data d1(n)
  • the comparison triggers characterization of the user as a suitable user if there is a match of the series, in the order of the series. then again to the right. And, that the series of first sound objects corresponded to a first localization of a first ob sound jet to the right, in front then to the right, the user is characterized as an appropriate user. On the other hand, if the user indicates having heard a sound on the right, on the left then on the right, the user is characterized as an inappropriate user.
  • FIG. 3b illustrates a simplified diagram of a user interface of a second embodiment of the invention in the case of an interaction request relating to a position of a sound object.
  • the 3D audio scene comprises, in particular, several sound objects of distinct categories ty os .
  • the position request generation POSRQ_GN receives selection information from the selection of sound objects OSi_SLCT and generates an interaction request irq comprising not only a question irqq but also a subject irqsbj.
  • the irqq question relates in particular to the location pos os ?
  • the subject indicates that the question relates to a specific sound object by indicating that it is a sound object whose value of another characteristic parameter is that of the first sound object selected, for example the request of interaction requires the localization of a sound object of type ty os animal cry or more precisely a cat, a donkey, etc.
  • the interaction request irq reproduced on screen 10 is for example "Where do you hear the cat?" ".
  • an interaction zone with ios sound is also reproduced.
  • the sound interaction zone includes one or more of the following interaction elements: a reading interaction element, a reading ruler, a volume slider.
  • the interaction request includes instructions relating to the sound reproduction devices to be used. For example, it asks for "Headphone listening only”.
  • the response zone consists of an input zone iz or multiple choices proposed iqcm which will be in the form of text, such as "front” for the choice fposrp, "right” for the choice rposrp and “left” for the Iposrp choice and/or represented graphically by a symbolic drawing of an urp user, and selectable boxes or circles, for example by checking them, as shown in FIG. 3a.
  • the cat can move in the 3D audio scene over a series of first N locations. This constitutes a series of sound objects.
  • the characterization method triggers a display of the screen 10 of FIG. 3b and waits for the user action. Moving to a new position of the cat is then conditional on a positive comparison result, i.e. the fact that the user correctly identifies the current position of the cat (this means that the second piece of data corresponding to the location of the cat perceived by the user corresponds to the first datum corresponding to the current location of the cat being spatially reproduced).
  • a second implementation of the characterization method all of the sound objects in the series, that is to say the cat in its different positions, are spatially reproduced.
  • the characterization process triggers a display of the screen 10 of FIG. 3b and waits for the action of the user.
  • the interaction request irq reproduced on the screen 10 is then, for example “Indicate in order the different directions from which you heard the cat”.
  • the CMP comparison verifies, for each first data item di(n) associated with a first sound object reproduced at a time n, whether the second data item d2(n) provided by the user for this instant n (for example because associated with the nth action of the user) corresponds to this first datum d1(n).
  • the comparison triggers characterization of the user as an appropriate user if there is a series match, in series order. For example, if the user indicates that they heard the cat first on the right, then in front and then again on the right. And, that the series of first sound objects corresponded to a first location of the cat on the right, in front then on the right, the user is characterized as an appropriate user. On the other hand, if the user indicates having heard the chat only three times on the right, the user is characterized as an inappropriate user.
  • the user positions the sound object on the screen 10 by interaction with a representation of the position of the user urp.
  • the characterization process is then determines the position provided by the user and uses the position of the sound object thus determined in the comparison.
  • FIG. 4a illustrates a simplified diagram of a user interface of a first embodiment of the invention in the case of an interaction request relating to a category of a sound object.
  • the 3D audio scene comprises, in particular, several sound objects at distinct locations pos 0 s.
  • the category request generation TYRQ_GN receives selection information from the selection of sound objects OSi_SLCT and generates an interaction request irq comprising not only a question irqq but also a subject irqsbj.
  • the irqq question relates in particular to the category ty os ?
  • the subject indicates that the question relates to a specific sound object by indicating that it is a sound object positioned at a location having a value corresponding to that of the first sound object selected, for example the interaction request asks for the category of a sound object located pos os on the right.
  • the interaction request irq reproduced on the screen 10 is for example “What is the origin of the sound on the right? ".
  • the interaction request irq reproduced on the screen 10 is for example “What is the origin of the sound on the right? ".
  • the interaction request includes instructions relating to the sound reproduction devices to be used. For example, it asks for "Headphone listening only”.
  • the response zone consists of an input zone iz in which the user enters his answer by means of a keyboard or a stylus, for example.
  • the selection area of a new first sound object is reproduced the following proposition “Can't you find? Generate another sound”.
  • different sounds in particular a series of N first sound objects associated respectively with N first categories, can follow one another in the same location of the 3D audio scene.
  • the characterization method triggers a display of the screen 10 of FIG. 3a and waits for the user action. Switching to a new sound is then conditioned on a positive comparison result, i.e. on the fact that the user correctly identifies the current category of the sound on the right (this means that the second datum corresponding to the perceived category by the user corresponds to the first datum corresponding to the current category of the sound object being spatially reproduced).
  • a second implementation of the characterization process all the sound objects in the series are spatially reproduced, i.e. several sound objects are successively spatially reproduced on the right.
  • the characterization process triggers a display of the screen 10 of Figure 3a and waits for the user's action.
  • the interaction request irq reproduced on screen 10 is then, for example "Indicate in order the different categories of sounds heard on the right".
  • the CMP comparison verifies, for each first data item di(n) associated with a first sound object reproduced at an instant n, whether the second data item d2(n) provided by the user for this instant n (for example because associated with the nth user action) corresponds to this first datum d1(n).
  • the comparison triggers characterization of the user as an appropriate user if there is a series match, in series order. For example, if the user indicates having heard on the right first a cat, then a car and then a cat again.
  • the user is characterized as an appropriate user.
  • the user indicates having heard a cat on the right only three times, the user is characterized as an inappropriate user.
  • FIG. 4b illustrates a simplified diagram of a user interface of a second embodiment of the invention in the case of an interaction request relating to a category of a sound object.
  • the difference with the user interface of figure 4a lies in the interaction zone which comprises a multiple choice of answers iqcm.
  • the multiple choice has a mosaic of 4 interaction items d , c2 , c3 and c4 correspond to four distinct answer choices.
  • On each interaction element of the mosaic is reproduced in particular a content associated with a value of the sound source category, such as an image, a video, etc.
  • a choice corresponding to the first datum d1 that is to say to the value of the first category associated with the first selected sound object reproduced spatially.
  • the choice c1 corresponds to a category whose value is a car, c2 a cow, c3 rain and c4 a clock.
  • the spatially reproduced sound will be, for example, the noise of a car engine at the first location, for example on the right.
  • the cow may be associated as a sound signal with a cow cry, that is to say a moo; to rain, the lapping of rain on a surface; at the clock, the ticking.
  • the advantage of mosaic in the case of using a series of sound objects for characterization is that it facilitates user interaction limiting characterization errors. Indeed, if the series reproduced on the right is a cow, a car, a cow. The user selecting in this order the thumbnails c2, c1 then c2 will be characterized as an appropriate user.
  • FIG. 5a illustrates a simplified diagram of a user interface of a first embodiment of the invention in the case of a sound object comprising an interaction request.
  • the different sounds correspond to different vocalized questions coming from 3 directions (or more).
  • the user will have to indicate the answer to the vocalized question irqq carried by the sound s associated with a given position pos os (ex: right):
  • the 3D audio scene comprises, in particular, several sound objects at distinct locations pos 0 s.
  • the response request generation DRQ_GN receives selection information from the selection of sound objects OSi_SLCT and generates an interaction request irq comprising only a subject irqsbj since the question irqq is reproduced with the sound s.
  • the subject indicates that the question is reproduced with a specific sound object by indicating that it is a sound object positioned at a location having a value corresponding to that of the first sound object selected, for example the interaction request asks to answer the question posed by a sound object located pos os on the right.
  • the interaction request irq reproduced on the screen 10 is for example “Answer the question coming from your right” or “Please answer your interlocutor located on your right”.
  • an interaction zone with the ios sound is also reproduced.
  • the sound interaction zone includes one or more of the following interaction elements: a reading interaction element, a reading ruler, a volume slider.
  • the interaction request includes instructions relating to the sound reproduction devices to be used. For example, it asks for "Headphone listening only".
  • the response zone consists of an input zone iz in which the user enters his answer by means of a keyboard or a stylus, for example.
  • different sounds in particular a series of N first sound objects associated respectively with N first answers (that is to say whose N sound signals respectively comprise one of the N vocalized questions corresponding to these N first answers), can follow one another. in the same localization of the 3D audio scene.
  • the characterization method triggers a display of the screen 10 of FIG. 3b and waits for the user action. Switching to a new sound is then conditional on a positive comparison result, i.e. on the fact that the user provides a correct answer to the question vocalized in the sound on the right (this means that the second datum corresponding to the answer to the question perceived by the user corresponds to the first datum corresponding to the answer to the question currently vocalized by the sound object being spatially reproduced).
  • a second implementation of the characterization process all the sound objects of the series are spatially reproduced, that is to say that several sound objects are successively reproduced spatially on the right, in this case several questions are successively asked to right.
  • the characterization process triggers a display of the screen 10 of FIG. 3a and waits for the action of the user.
  • the interaction request irq reproduced on the screen 10 is then, for example “Indicate in order the different answers to the questions asked on your right”.
  • the CMP comparison verifies, for each first data associated di(n) with a first sound object reproduced at an instant n, if the second data item d2(n) supplied by the user for this instant n (for example because associated with the nth user action) corresponds to this first datum d1(n).
  • the comparison triggers characterization of the user as an appropriate user if there is a series match, in series order. For example, if the user responds to vocalized questions, such as "Who is the US President?" » « how much is 1 plus 1 ?
  • FIG. 5b illustrates a simplified diagram of a user interface of a second embodiment of the invention in the case of a sound object comprising an interaction request.
  • the multiple choice comprises a list of 3 interaction elements c1 , c2, and c3 corresponds to three distinct answer choices.
  • a text corresponding to a first response value is reproduced in particular.
  • a choice corresponding to the first datum d1 in this case c3, i.e. to the value of the first response associated with the first selected sound object spatially reproduced carrying a vocalized question.
  • the advantage of the list in the case of using a series of sound objects for characterization is that it facilitates user interaction limiting characterization errors. Indeed, if the answers to the vocalized questions with the series reproduced on the right are c3, c1, then c2. The user selecting in this order the elements of the list c3, c1 then c2 will be characterized as an appropriate user.
  • the question of the interaction request may relate to different characteristic parameters of the sound objects in the series.
  • the interaction request asks the user to listen to the sound on the right, for the first object it will provide a category value of the spatially reproduced sound object on the right, for the second it will respond to the question asked vocally, for the third, this could again be a category value.
  • a sound object comprising a vocalised question could be associated with a category value corresponding to a category of person or voice: man , woman, child, high, low, high, whisper, English accent, southern accent, etc.
  • FIG. 6 illustrates a simplified diagram of a communication architecture comprising a characterization device according to the invention.
  • the characterization device 33 of a user U comprises a comparator 334 of first data d1 associated with a first spatialized sound object OS 1 at a first location pos 1 os of a spatialized audio scene 3DES by a user interface 2 of a terminal communication 1 and second data d2 received following the reproduction of the first spatialized sound object OSi, the first data d1 being distinct from the first sound object OS1, the second data d2 being a function of a second spatialized sound object perceived OS 2 in one second location pos 20 s of the 3DES spatialized audio scene, the comparator 334 triggering, in the event of a positive result, a characterization of the interaction source as being an appropriate user.
  • the characterization device 33 comprises a selector 330 of a sound environment in a storage device 331, such as a memory or a database, comprising one or more predefined sound environments.
  • a storage device 331 such as a memory or a database
  • the database is a database of sounds or a database of sound objects or even a database of sound environments.
  • the sound environment selector 330 receives from the storage device 331 a sound environment consisting of:
  • the characterization device 33 comprises an interaction request generator 332 irq concerning a first sound object: single sound object OS 1 or selected sound object OS 1 jde the selected sound environment es.
  • the interaction request irq relates to one or more characteristic parameters of the first sound object OS 1 , OS 1 j.
  • the irq interaction request generator 332 includes one or more of the following devices (not shown):
  • a sound object selector in the selected sound environment - a checker for the presence of at least one characteristic parameter associated with the first selected sound object OS 1 j: in particular, a checker for the presence of an answer to a voiced question in the first selected sound object, a checker for the presence of a category of the first object selected, etc. ;
  • At least one generator of a specific interaction request in particular a generator of an interaction request relating to the location of the first object, and/or a generator of an interaction request relating to the vocalized question in the first sound object, and/or a source category query generator, etc.
  • the interaction request generator 332 provides an interaction request irq relating to a first sound object, or even to a first series of first sound objects, possibly comprising one or more specific requests relating to a characteristic parameter associated with the first sound object, or even to the first series of first sound objects, to an interaction request reproduction device 10, 2.
  • the interaction request reproduction device is in particular a visual reproduction device such as a display on a screen 10, a virtual or augmented reality headset, etc. (the visual reproduction being prior to or simultaneous with the reproduction of the spatialized sound environment 3D_RPR) and/or a sound reproduction device 2, the reproduction of the interaction request then being prior to the reproduction of the spatialized sound environment.
  • the spatialized sound environment reproduction device 2 is controlled triggered by one of the following devices: the sound environment selector 330, the interaction request generator 332, the reproduction device 10, 2 when reproducing the interaction request.
  • the user UH, UR reacts a by supplying second data d2 relating to a second sound object OS 2 by means of a user interface 10, 11 of the communication terminal 1.
  • the second sound object OS 2 is the sound object whose second sound signal or second sound s 2 is perceived by the user in the reproduced spatialized sound environment 3DES which corresponds for the user to the first sound object OS1 to which the request d
  • the reproduced irq interaction is relative.
  • the characterization device 33 receives from the user, possibly from a user interface of the communication terminal 1, these second data d2.
  • characterization device 33 includes one or more of the following devices (not shown):
  • a data receiver receiving data from a user interface, in particular data captured from or an action a, and supplying data received dr;
  • the user interface 10, 11 includes one or more of the following devices (not shown):
  • a sensor of a user action providing data captured from, such as a camera, a microphone, a touch screen, etc.;
  • a data receiver receiving data entered by the user on a peripheral (not illustrated, such as a keyboard, a mouse, etc.) from the communication terminal 1;
  • the creation of a 3D_GN spatialized sound environment and/or the CNT reproduction control and/or the reproduction of the 3D_RPR sound environment triggers an interaction processing IRTRT and or a CPT capture and/or a reception of data RCV.
  • the communication architecture comprises a service provision device 3.
  • the service provision device comprises:
  • a characterization device 33 of a user of the service comprising a comparator 334 of first data associated with a first sound object spatialized in a first location of an audio scene spatialized by a user interface of the communication terminal of the user and of second data received following the reproduction of the first spatialized sound object, the first data d1 being distinct from the first sound object OS1, the second data being a function of a second spatialized sound object perceived at a second location of the spatialized audio scene, the comparator triggering in the event of a positive result a characterization of the source of interaction as being an appropriate user and commanding the processor to implement the service.
  • the characterization device 33 is activated by the service provision device 3, in particular prior to the provision of the service.
  • the provision of the service will be triggered by the characterization of the source of interaction as being an appropriate user, in particular a human user.
  • the characterization process triggers the stopping of the service provision device 3.
  • the communication architecture comprises a characterization device according to the invention 33 in particular implemented in a service provision device 3 according to the invention.
  • the user U whom the characterization device 33 must characterize interacts in particular with the characterization device 33 by means of a terminal of communication 1 connected to the characterization device 33 and, where appropriate to the service provision device 3 in particular via a communication network 4.
  • the characterization device 3 uses in particular as a device for reproducing 3D sound or spatialized sound a headset 2 worn by the user U.
  • the helmet 2 constitutes in particular a peripheral of the communication terminal 1.
  • the user U wishes to download by means of his communication terminal 1 a content provided by the service provision device 3.
  • the communication terminal 1 requests the content (not shown) from the service provision device 3 which activates the characterization device 33 to avoid content request spam.
  • the sound environment selector 330 selects a sound environment es in the storage device 331. Then, the interaction request generator 332 uses at least one of the sound objects of the selected sound environment provided by the selector 333 to establish a irq interaction request.
  • the characterization device 33 comprises a controller 333 controlling the spatialized sound reproduction of the selected sound environment in particular by supplying a 3Dss spatialized sound signal. Eventually, the interaction request generator 332 triggers rpr_trg the spatialized sound reproduction command by the controller 333.
  • the characterization device 33 supplies the spatialized sound signal of the selected sound environment 3Dss to a transmitter 31 implemented in the characterization device 33 and/or in the service provision device 3 implementing the characterization device 33.
  • the transmitter 31 transmits the spatialized signal 3Dss to the communication terminal 1 which receives it in particular by means of a receiver 13.
  • the receiver 13 provides , in particular by means of a peripheral interface 12, this spatialized signal 3Dss to the spatialized sound reproduction device 2.
  • the interaction request generator 332 supplies the generated request irq to a transmitter 31 implemented in the characterization device 33 and/ or in the service provision device 3 implementing the characterization device 33.
  • the transmitter 31 transmits the interaction request irq to the communication terminal 1 which receives it in particular by means of a receiver 13.
  • the receiver 13 provides this request irq to the reproduction device 10, for example to the screen of the communication terminal 1.
  • the terminal 1 comprises a user interface 10, 11 receiving an action a from the user U following the reproductions of the interaction request and of the spatialized sound environment, and supplying data received or picked up di, from corresponding to this action has.
  • These data di, de are provided to the characterization device 33 in particular by means of a transmitter 13 of the communication terminal and a receiver 31 implemented in the characterization device 33 and/or in the service provision device 3 implementing the characterization device 33.
  • the characterization device 33 is implemented in a communication terminal 1, in particular the communication terminal 1 constituting a service provision device.
  • the characterization device 33 is activated by a device for accessing a third-party device (communication terminal 1, connected object, remote equipment, etc.), in particular prior to the authorization of access to the third-party device. Access to the third-party device will be triggered by characterizing the source of interaction as an appropriate user, in particular a human user.
  • the characterization method triggers the STP stop of the implementation of the method of access to the third-party device.
  • the controller 33 provides a pair of binaural filters which encodes the spatialized location of the sound object to the spatialized sound reproduction device.
  • the controller provides a pair of binaural filters distinct from the pair provided during the previous reproduction. This causes a slight change in the perception of the location of the sound object.
  • a pair of binaural filters represents the way in which a given human being physically perceives a sound coming from a given position in space when it arrives near their auditory canals (a filter for the right ear, a filter for the left ear).
  • Binaural filters are therefore individual, and for a given human, only their own filters allow them to perfectly simulate sound spatialization.
  • a modification of the binaural filters is not enough to blur the spatial perception.
  • the invention also relates to a support.
  • the information carrier can be any entity or device capable of storing the program.
  • the medium may include a storage medium, such as a ROM, for example a CD ROM or a microelectronic circuit ROM or else a magnetic recording medium, for example a floppy disk or a hard disk.
  • the information medium can be a transmissible medium such as an electrical or optical signal which can be conveyed via an electrical or optical cable, by radio or by other means.
  • the program according to the invention can in particular be downloaded onto a network, in particular of the Internet type.
  • the information carrier may be an integrated circuit in which the program is incorporated, the circuit being adapted to execute or to be used in the execution of the method in question.
  • module can correspond either to a software component or to a hardware component.
  • a software component corresponds to one or more computer programs, one or more sub-programs of a program, or more generally to any element of a program or software capable of implementing a function or a function set as described above.
  • a hardware component corresponds to any element of a hardware assembly capable of implementing a function or a set of functions.
  • the invention makes it possible to add a new mode of characterization of use, in particular differentiation between a human user and a user machine, which is more complex to circumvent automatically. It could be used as a captcha for the blind since it is based on the recognition of a characteristic parameter relating to a sound object provided that the interaction request is reproduced in a perceptible manner by a blind person, for example vocal reproduction or reproduction embossed (also called Braille reproduction).
  • the characterization method comprises unlocking a computer by forcing the user to put on his audio headset, for example, for an application for which the use of sound is essential (eg: advertisement, instruction on an industrial site, starting an audiophone after being sure that you hear well, etc.).
  • an application for which the use of sound is essential eg: advertisement, instruction on an industrial site, starting an audiophone after being sure that you hear well, etc.
  • the characterization method using 3D sound according to the invention therefore also makes it possible to verify that the helmet is put on in the right direction. It is an "augmented" captcha that goes beyond the security aspect. This can unlock an app with the help of 3D sound position.
  • the characterization method may possibly be used as a verification of the conformity of the position of the user in relation to the soundstage. For example, the sound scene is presented to the user, he is asked for example where the cow is, if his answer is wrong, he is asked to reposition himself with the appropriate instructions and we start again. This is particularly useful in the context of calibrating a 3D sound system that you have just bought and received at home. The maneuver will ensure that the user is well placed and will take full advantage of the sound stage that will be offered to him.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)

Abstract

L'invention relève du domaine de la sécurité informatique. Pour cela, l'invention concerne un procédé et un dispositif de caractérisation d'un utilisateur, notamment d'un utilisateur d'un dispositif et/ou d'un service. Un objet de l'invention est un procédé de caractérisation d'un utilisateur, le procédé de caractérisation comportant une comparaison de premières données associées à un premier objet sonore spatialisé en une première localisation par une interface utilisateur d'un terminal de communication et de deuxièmes données reçues suite à la reproduction du premier objet sonore spatialisé, les deuxièmes données étant fonction d'un deuxième objet sonore spatialisé perçu en une deuxième localisation la comparaison déclenchant en cas de résultat positif une caractérisation de la source d'interaction comme étant un utilisateur approprié,. Ainsi, les erreurs de caractérisation d'un utilisateur comme utilisateur approprié, notamment un utilisateur humain, sont réduites car les systèmes de reconnaissances sonores et vocaux existants n'étant pas aptes sélectionner un son dans un environnement sonore spatialisé, c'est-à-dire une scène audio en trois dimensions 3D.

Description

DESCRIPTION
PROCEDE ET DISPOSITIF DE CARACTERISATION D’UN UTILISATEUR, ET DISPOSITIF DE FOURNITURE DE
SERVICES L’UTILISANT
Domaine technique
L'invention relève du domaine de la sécurité informatique. Pour cela, l’invention concerne un procédé et un dispositif de caractérisation d’un utilisateur, notamment d’un utilisateur d’un dispositif et/ou d’un service. L’invention concerne en particulier la caractérisation d’un utilisateur comme étant un utilisateur humain par opposition à un utilisateur informatique ou utilisateur-robot.
État de la technique
Actuellement, la caractérisation d’un utilisateur permet de différence l’utilisateur humain de l’utilisateur-robot (c’est-à-dire notamment un utilisateur informatique mis en œuvre par un ordinateur). Cette caractérisation utilise un test dit CAPTCHA pour « Completely Automated Public Turing test to tell Computers and Humans Apart » en anglais, c’est-à-dire test public de Turing complètement automatisé pour différencier les ordinateurs et les humains, ou un test HIP pour « Human Interaction Proof » en anglais, c’est-à-dire test de preuve d’interaction humaine.
L’utilisation de test CAPTCHA permet de prémunir un serveur recevant des formulaires informatiques non seulement de la réception de formulaires indésirables ou spam car provenant d’utilisateur-robot, mais aussi d’attaque en déni de services, c’est-à-dire de la mise en œuvre par le serveur d’un grand nombre de traitements inutiles liés aux formulaires indésirables reçus. En outre, l’utilisateur de test CAPTCHA permet de réduire les surcharges de réseaux liés aux attaques par déni de services d’un ou plusieurs serveurs en évitant de télécharger des documents requis par un ou plusieurs utilisateurs-robots.
Il existe différents types de test CAPTCHA. Les plus courants sont les CAPTCHA dits visuels dans lesquels l’utilisateur saisit, sur demande, une série de lettres correspondant aux lettres déformées affichées à l’écran ou clique, sur demande, dans une mosaïque d’images affichées sur les images de la mosaïque comportant un objet particulier, par exemple des feux tricolores.
Mais, pour certains utilisateurs, la présence d’un CAPTCHA pour accéder à un site ou à un contenu est tout simplement rédhibitoire. Par exemple, un utilisateur non-voyant ne peut pas renseigner un CAPTCHA visuel. En outre, ces systèmes de vérification échouent à reconnaître certains utilisateurs handicapés comme humains et rendent donc impossible, pour ces utilisateurs, de créer des comptes, d’écrire des commentaires ou d’effectuer des achats sur certains sites. Pour remédier à ces problèmes d’accessibilité, un CAPTCHA sonore peut être utilisé proposant soit que l’utilisateur identifie, sur demande, un objet sonore diffusé ou saisit, sur demande, une série de chiffres correspondant aux chiffres énoncés vocalement lors de la diffusion d’un extrait sonore. Mais, les systèmes de reconnaissances actuels, reconnaissance d’image et reconnaissance vocale, ont fortement progressé et sont disponibles de manière simple et à un grand nombre de personnes. Ces CAPTCHAs sont donc faciles à contourner par des robots correctement programmés pour faire appel à ces techniques de reconnaissance d’image et de voix.
Pour limiter le contournement de ces CAPTCHAs, des systèmes de CAPTCHA utilisent, dans un premier temps, la 3D visuelle. Par exemple, le texte affiché à saisir par l’utilisateur est déformé en trois dimensions pour déformer d’avantage les lettres à reconnaître. D’autres systèmes de CAPTCHA sonore, diffuse, dans un deuxième temps, l’extrait sonore à identifier (notamment des paroles) dans un fond sonore, par exemple de type effet cocktail. Mais les techniques de reconnaissances s’améliorant rapidement, les dernières générations de système de reconnaissance d’image et vocale sont de plus en plus robustes à ce genre de perturbations.
Exposé de l’invention
Un des buts de la présente invention est de remédier à des inconvénients/insuffisances de l'état de la technique/ d'apporter des améliorations par rapport à l'état de la technique.
Un objet de l’invention est un procédé de caractérisation d’un utilisateur, le procédé de caractérisation comportant une comparaison de premières données associées à un premier objet sonore spatialisé en une première localisation par une interface utilisateur d’un terminal de communication et de deuxièmes données reçues suite à la reproduction du premier objet sonore spatialisé, les premières données étant distinctes du premier objet sonore, les deuxièmes données étant fonction d’un deuxième objet sonore spatialisé perçu en une deuxième localisation la comparaison déclenchant en cas de résultat positif une caractérisation de la source d’interaction comme étant un utilisateur approprié,.
Ainsi, seul un utilisateur approprié, notamment un utilisateur humain, étant apte à fournir des deuxièmes données correspondant aux premières données car seul apte à donner la localisation d’un objet sonore spatialisé donné ou une caractéristique d’un objet sonore spatialisé diffusé à une localisation donnée voire la réponse à une question vocale diffusée à une localisation donnée. En effet, les systèmes de reconnaissances sonores et vocaux existants n’étant pas aptes sélectionner un son dans un environnement sonore spatialisé, c’est-à-dire une scène audio en trois dimensions 3D.
Avantageusement, les premières données et les deuxièmes données sont une parmi les types de données suivantes :
+ un paramètre de localisation d’un objet sonore spatialisé ;
+ une catégorie de source génératrice d’un objet sonore ;
+ une réponse à une question vocalisée dans un objet sonore ; Ainsi, l’invention réduit les erreurs de caractérisation d’un utilisateur comme un utilisateur humain un utilisateur robot utilisant un système de reconnaissance sonore car ces systèmes ne sont aptes :
- ni à déterminer la localisation d’un objet sonore donné. Les erreurs de caractérisation de l’utilisateur sont réduites.
- ni, encore moins, à effectuer leur traitement sur un objet sonore diffusé à une localisation donnée dans un environnement sonore capté et traité par ces systèmes de reconnaissance pour déterminer la catégorie de source d’objet sonore, Par conséquent, les erreurs de caractérisation de l’utilisateur sont encore plus limitées.
- ni, encore moins, pour répondre à une question posée par l’objet sonore. En effet, cela nécessite non seulement la reconnaissance vocale d’un objet sonore diffusé de manière spatialisé en une localisation donnée dans un environnement sonore spatialisé mais aussi une recherche d’une réponse à la question reconnue par la reconnaissance vocale. Donc, les erreurs de reconnaissance liées à la difficulté par la reconnaissance vocale d’extraire de l’environnement sonore spatialisé l’objet sonore diffusé engendrent des erreurs de réponse car la question reconnue traitée par le moteur de recherche sera erronée. Par conséquent, les erreurs de caractérisation de l’utilisateur deviennent alors infimes.
Avantageusement, le procédé de caractérisation comporte une reproduction d’une requête d’interaction au premier objet sonore spatialisé, la requête d’interaction étant destinée à l’utilisateur, les deuxièmes données sont des données reçues suite à la reproduction de ladite requête d’interaction.
Avantageusement, la requête d’interaction comporte le type de deuxièmes données attendues lors de l’interaction.
Avantageusement, la requête d’interaction comporte en outre la deuxième localisation du deuxième objet sonore spatialisé, la deuxième localisation correspondant à la première localisation.
Ainsi, la localisation de l’objet sonore que l’utilisateur doit écouter pour le caractériser peut varier d’une caractérisation à une autre, réduisant les risques d’apprentissage de la localisation par des systèmes informatiques et donc les risques d’erreurs de caractérisation.
Avantageusement, le procédé de caractérisation d’un utilisateur caractérise l’utilisateur d’au moins un des éléments suivants :
+ un service mis en œuvre par un dispositif de fourniture de service ;
+ d’un dispositif parmi les dispositifs suivants :
- le terminal de communication ;
- un dispositif de traitement local ou réseau ;
- un dispositif de fourniture de services ; - un équipement d’un réseau de communication auquel est connecté un terminal de communication de l’utilisateur.
Avantageusement, le procédé de caractérisation comporte un contrôle mis en oeuvre par l’interface utilisateur, le contrôle contrôlant l’interface utilisateur au moyen d’une commande de reproduction spatialisée comportant le premier objet sonore et la première localisation.
Avantageusement, le contrôle déclenche une activation d’une capture de deuxièmes données par l’interface utilisateur, les données captées comportant les deuxièmes données reçues.
Avantageusement, selon une implémentation de l'invention, les différentes étapes du procédé selon l'invention sont mises en œuvre par un logiciel ou programme d'ordinateur, ce logiciel comprenant des instructions logicielles destinées à être exécutées par un processeur de données d'un dispositif faisant partie d’un dispositif de caractérisation et/ou d’un dispositif de fourniture de services et étant conçus pour commander l'exécution des différentes étapes de ce procédé.
L'invention vise donc aussi un programme comprenant des instructions de code de programme pour l’exécution des étapes du procédé de selon l’une quelconque des revendications précédentes lorsque ledit programme est exécuté par un processeur.
Ce programme peut utiliser n'importe quel langage de programmation et être sous la forme de code source, code objet ou code intermédiaire entre code source et code objet tel que dans une forme partiellement compilée ou dans n'importe quelle autre forme souhaitable.
Un objet de l’invention est également un dispositif de caractérisation d’un utilisateur, le dispositif de caractérisation comportant un comparateur de premières données associées à un premier objet sonore spatialisé en une première localisation par une interface utilisateur d’un terminal de communication et de deuxièmes données reçues suite à la reproduction du premier objet sonore spatialisé, les premières données étant distinctes du premier objet sonore, les deuxièmes données étant fonction d’un deuxième objet sonore spatialisé perçu en une deuxième localisation, le comparateur déclenchant en cas de résultat positif une caractérisation de la source d’interaction comme étant un utilisateur approprié.
Un objet de l’invention est aussi un dispositif de fourniture de services, le dispositif de fourniture de service comportant :
+ un processeur apte à mettre en œuvre au moins un service ;
+ une interface d’échange avec un terminal de communication ; et
+ un dispositif de caractérisation d’un utilisateur du service comportant un comparateur de premières données associées à un premier objet sonore spatialisé en une première localisation par une interface utilisateur du terminal de communication de l’utilisateur et de deuxièmes données reçues suite à la reproduction du premier objet sonore spatialisé, les premières données étant distinctes du premier objet sonore, les deuxièmes données étant fonction d’un deuxième objet sonore spatialisé perçu en une deuxième localisation, le comparateur déclenchant en cas de résultat positif une caractérisation de la source d’interaction comme étant un utilisateur approprié et commandant au processeur la mise en oeuvre du service.
Brève description des dessins
Les caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description, faite à titre d'exemple, et des figures s’y rapportant qui représentent :
Figure 1 , un schéma simplifié d’un procédé de caractérisation de l’utilisateur selon l’invention,
Figure 2, un schéma simplifié d’une scène audio 3D utilisée par l’invention,
Figure 3a, un schéma simplifié d’une interface utilisateur d’un premier mode de réalisation de l’invention dans le cas d’une requête d’interaction relative à une position d’un objet sonore,
Figure 3b, un schéma simplifié d’une interface utilisateur d’un deuxième mode de réalisation de l’invention dans le cas d’une requête d’interaction relative à une position d’un objet sonore,
Figure 4a, un schéma simplifié d’une interface utilisateur d’un premier mode de réalisation de l’invention dans le cas d’une requête d’interaction relative à une catégorie d’un objet sonore,
Figure 4b, un schéma simplifié d’une interface utilisateur d’un deuxième mode de réalisation de l’invention dans le cas d’une requête d’interaction relative à une catégorie d’un objet sonore,
Figure 5a, un schéma simplifié d’une interface utilisateur d’un premier mode de réalisation de l’invention dans le cas d’un objet sonore comportant une requête d’interaction,
Figure 5b, un schéma simplifié d’une interface utilisateur d’un deuxième mode de réalisation de l’invention dans le cas d’un objet sonore comportant une requête d’interaction,
Figure 6, un schéma simplifié d’une architecture de communication comportant un dispositif de caractérisation selon l’invention.
Description des modes de réalisation
Dans le contexte de la diffusion spatialisée de son ou son 3D, c’est-à-dire de la reproduction en 3D d’une scène audio, les différents objets virtuels de la scène audio émetteurs d’un signal sonore ou son constituent un objet sonore. La spatialisation de ces objets sonores en une localisation donnée permet à l’auditeur de percevoir ces objets sonores comme s’ils émettaient à partir de cette localisation dans l’environnement en trois dimensions entourant l’auditeur. Pour cela, l’invention utilise les techniques connues de spatialisation du son, notamment des techniques de synthèse binaurale ou techniques utilisant des fonctions de transfert acoustiques ou filtres binauraux (HRTF ou Head Related Transfer Function en anglais). L’avantage de l’utilisation des filtres binauraux et d’un casque mettant en oeuvre de tels filtres est qu’il est peu coûteux à mettre en oeuvre et donc utilisable par un grand nombre de personnes ce qui est notamment particulièrement adapté à la caractérisation de l’utilisateur. L’invention peut aussi utilisé d’autres techniques de spatialisation de son notamment sur enceintes comme les techniques transaurale, WSF, Ambisonoic, 5.1, etc. La figure 1 illustre un schéma simplifié d’un procédé de caractérisation de l’utilisateur selon l’invention.
Le procédé de caractérisation HCP comporte une comparaison CMP de premières données d1 associées à un premier objet sonore OSi spatialisé en une première localisation pososi d’une scène audio spatialisée ES par une interface utilisateur d’un terminal de communication et de deuxièmes données d2 reçues suite à la reproduction 3D_RPR du premier objet sonore OSi spatialisé. Les premières données d1 sont distinctes du premier objet sonore OS1. Les deuxièmes données d2 sont fonction d’un deuxième objet sonore OSP2 spatialisé perçu en une deuxième localisation pososp2 de la scène audio spatialisée 3DES. La comparaison CMP déclenche, en cas de résultat positif [Y], une caractérisation de la source d’interaction comme étant un utilisateur approprié cru=h.
En particulier, les premières données d1 et les deuxièmes données d2 sont une parmi les types de données suivantes :
+ un paramètre de localisation posos d’un objet sonore spatialisé OS;
+ une catégorie tyos de source génératrice d’un objet sonore OS;
+ un instant tos ou un ordre de reproduction de l’objet sonore OS dans un environnement sonore constitué d’une série d’objets sonores ;
+ une réponse à une question vocalisée dans un objet sonore OS.
Par catégorie de source génératrice peuvent être entendu des classes de catégorie : machine, animaux, machines, naturelles, etc. et/ou des sous-classes : pour les machines, véhicules, électroménager, machine industrielle, etc. ; pour les animaux, chien, chat, vache, serpent, baleine, etc. ; pour naturelle, pluie, vent, orage, etc. et/ou des sous-sous-classes : voiture, avion, train...
En particulier, le procédé de caractérisation HCP comporte une reproduction IRQ_RPR d’une requête d’interaction irq au premier objet sonore spatialisé OSi. La requête d’interaction irq est destinée à l’utilisateur UH, UR. Les deuxièmes données d2 sont des données reçues dr suite à la reproduction de ladite requête d’interaction IRQ_RPR.
En particulier, la requête d’interaction irq comporte le type ty2 0S de deuxièmes données d2 attendues lors de l’interaction a.
En particulier, la requête d’interaction irq comporte en outre la deuxième localisation pos2 os du deuxième objet sonore spatialisé OS2. Dans ce cas, la deuxième localisation pos2 os correspond à la première localisation pos1 os : pos2 0s = pos1 0s.
En particulier, le procédé de caractérisation HCP d’un utilisateur caractérise l’utilisateur d’au moins un des éléments suivants :
+ un service mis en œuvre par un dispositif de fourniture de service ; + d’un dispositif parmi les dispositifs suivants :
- le terminal de communication ;
- un dispositif de traitement local ou réseau ;
- un dispositif de fourniture de services ;
- un équipement d’un réseau de communication auquel est connecté un terminal de communication de l’utilisateur.
En particulier, le procédé de caractérisation HCP comporte un contrôle CNT mis en oeuvre par l’interface utilisateur. Le contrôle CNT contrôle l’interface utilisateur au moyen d’une commande de reproduction spatialisée rpr_cmd comportant le premier objet sonore OS1 et la première localisation pos1os.
En particulier, le contrôle CNT déclenche d2_trg une activation d’une capture CPT de données par l’interface utilisateur. Les données captées de comportant les deuxièmes données reçues d2.
En particulier, le procédé de caractérisation HCP comporte une sélection d’un environnement sonore ES_SLCT dans un dispositif de stockage BOS, tel qu’une mémoire ou une base de données, comportant un ou plusieurs environnements sonores prédéfinis. En particulier, la base de données, est une base de sons ou une base d’objets sonores voire une base d’environnements sonores. Un environnement sonore es prédéfini mémorisé comporte un ou plusieurs objets sonores os1, {os1i}i. Eventuellement, un objet sonore os1, {os1i}i est associé à un ou plusieurs paramètres caractéristiques parmi les suivants :
- une localisation prédéfinie pos1 0s, {pos1 OSi}i,
- une catégorie de sources sonores ty1 0s, {ty1 0Si}i,
- un instant {t1 0Si}i ou un ordre de reproduction de l’objet sonore OS dans un environnement sonore constitué d’une série d’objets sonores {OS1Î}Î;
- une réponse r1 os à une question vocalisée incluse dans l’objet sonore, la réponse r1 os constituant les premières données d1 ,
- etc.
Ainsi, la sélection d’environnement sonore ES_SLCT reçoit du dispositif de stockage BOS un environnement sonore es composé :
- soit d’un ou plusieurs premiers objets sonores OS1, {OS1i}i,
- soit d’un ou plusieurs couples formés par :
+ un premier objet sonore et une première localisation (OS1, pos1 0s), {(OS1i, pos1 0si)}i, ou + un premier objet sonore et une première catégorie de sources sonores (OS1, ty1 0s), {(OS1i,ty1osi)}i, ou
+ un premier objet sonore et une première réponse à une question vocalisée incluse dans le premier objet sonore (OS1, r1 0s=d1), {(OS1i, r1 0Si)}i,
+ etc.
- soit un ou plusieurs n-uplets formés par un premier objet sonore et un ou plusieurs des paramètres suivants : une première localisation, une première catégorie de source sonore, une première réponse, etc. (OS1, pos1 os, ty1 os), {(OS1·, posV ty1 0Si)}i, (OS1, pos1 os, r1 os=d1), {(OS1·, pos1 0si, r1 0Si)}i, (OS1, ty1os, r1os=d1), {(OS1i, ty1osi, r1osi)}i(OS1, pos1os, ty1os, r1os=d1), {(OS1i, pos1osi, ty1osi, r1osï)}ï, etc. Notamment, la sélection d’environnement sonore ES_SLCT envoie une requête d’environnement sonore es_req à un dispositif de stockage, tel qu’une mémoire ou une base de données BOS. Ainsi, la sélection d’environnement sonore ES_SLCT reçoit l’environnement sonore es en réponse à la requête d’environnement sonore es_req.
En particulier, la sélection d’environnement sonore ES_SLCT sélectionne uniquement un environnement sonore 3D, c’est-à-dire au moins un premier objet sonore associé à une première localisation permettant une reproduction spatialisée du premier objet sonore à la première localisation. Afin de réaliser une sélection uniquement d’environnement sonore 3D, la requête d’environnement sonore comporte un paramètre indicatif de la demande d’environnement sonore 3D et/ou est envoyé uniquement à un dispositif de stockage BOS comportant uniquement des environnements sonores 3D.
De manière alternative, le procédé de caractérisation HCP comporte une vérification 3posls ? de la présence de première(s) localisation(s) dans l’environnement sonore reçu es. Ainsi, si l’environnement sonore reçu es ne comporte pas de première localisation :
- soit la vérification 3pos„s ? déclenche nv_es une nouvelle sélection d’environnement sonore ES_SLCT jusqu’à ce que l’environnement sonore reçu comporte une première localisation d’un premier objet sonore;
- soit le procédé de caractérisation HCP comporte un générateur de localisation POS_GN fournissant à un premier objet sonore de l’environnement sonore, une première localisation générée pos1md- En particulier, le générateur de localisation est un générateur aléatoire de localisation ou un générateur de localisation fonction d’au moins un paramètre de l’objet sonore (par exemple en fonction de la catégorie d’objet sonore, l’objet sonore sera positionné au sol ou plus ou moins haut, etc.).
Ainsi l’environnement sonore sélectionné es sera fournie à la reproduction sonore spatialisée 3D_RPR qui reproduira le premier signal sonore s1 du premier objet sonore OS1 comme si l’objet sonore était situé à la première localisation pos1 os dans la scène audio spatialisée 3DES.
Afin de créer un environnement sonore en trois dimensions ES propice à la caractérisation d’un utilisateur, le procédé de caractérisation HCP comporte notamment une création 3D_GN d’un environnement sonore tridimensionnel 3DES. La création 3D_GN d’un environnement sonore tridimensionnel comporte notamment la reproduction spatialisé d’un objet sonore 3D_RPR. La reproduction spatialisée d’un objet sonore permet de diffuser un son ou signal sonore s associé à l’objet sonore OS comme s’il était émis à partir d’une localisation posos correspondant à la localisation associée à l’objet sonore OS dans l’environnement sonore tridimensionnel 3DES. En particulier, la création 3D_GN d’un environnement sonore tridimensionnel 3DES comporte, en outre, au moins une parmi les étapes suivantes :
- la sélection d’environnement sonore ES_SLCT ;
- la vérification de présence de première localisation X pos s ? ;
- la génération de localisation POS_GN.
En particulier, la requête d’interaction irq porte sur un ou plusieurs premiers objets sonores. La figure 1 illustre le cas où la requête d’interaction concerne un premier objet sonore. Soit l’environnement sonore sélectionné es comporte qu’un seul premier objet sonore OS1, alors la requête d’interaction irq porte sur ce premier objet sonore OS1. Soit l’environnement sonore sélectionné es ne comporte plusieurs premiers objets sonores {OS1i}i, le procédé de caractérisation HCP comporte alors une sélection OSi_SLCT d’un objet sonore parmi l’ensemble des premiers objets sonores {OS1i}i, de l’environnement sonore sélectionné es. La sélection d’objet sonore OSi_SLCT fournit [i=j] alors l’un des premiers objets sonores OS1j de l’environnement sélectionné es, voire un couple formés par :
+ le premier objet sonore sélectionné et une première localisation (OS1j, pos1 0sj), ou + le premier objet sonore sélectionné et une première catégorie de sources sonores (OS1j,ty1osj), ou
+ le premier objet sonore sélectionné et un premier instant ou numéro d’ordre de reproduction du premier objet sonore sélectionné dans la première série de premiers objets sonores S01os constituant l’environnement sélectionné (OS1j,t1 OSj), ou
+ le premier objet sonore sélectionné et une première réponse à une question vocalisée incluse dans le premier objet sonore (OS1j, r1 0Sj),
+ etc.
- soit un ou plusieurs n-uplets formés par le premier objet sonore sélectionné et un ou plusieurs des paramètre suivants : une première localisation, une première catégorie de source sonore, un premier instant de reproduction, une première réponse, etc. (OS1j, pos1 0sj, ty1 0sj), (OS1j, pos1 0sj, r1 0Sj), (OS1j, ty1osj, r1osj), (OS1j, pos1osj, ty1osj, r1osj), etc.
En particulier, le procédé de caractérisation HCP comporte une vérification du nombre d’objets sonores de l’environnement sonore sélectionné i = 1 ?. Si la vérification du nombre d’objets sonores i = 1 ? dénombre plus d’un objet sonore dans l’environnement sonore sélectionné es [N], alors la vérification du nombre d’objets sonores i = 1 ? déclenche la sélection OSi_SLCT d’un objet sonore dans l’environnement sonore sélectionné es.
En particulier, le procédé de caractérisation HCP comporte une génération IRQ_GN d’une requête d’interaction irq concernant un premier objet sonore : seul objet sonore OS1 ou objet sonore sélectionné OS1jde l’environnement sonore sélectionné es. La requête d’interaction irq porte sur un ou plusieurs paramètres caractéristiques du premier objet sonore OS1, OS1j. En particulier, le procédé de caractérisation HCP comporte une génération d’une requête d’interaction relative à la localisation du premier objet POSRQ_GN. Si l’environnement sonore reproduit es ne comporte qu’un seul objet sonore, la requête d’interaction peut être simplement relative à la position du son perçu. Mais, si l’environnement sonore reproduit es comporte plusieurs objet sonores, la requête d’interaction irq peut comporter un paramètre caractéristique du premier objet sonore sélectionné OS1j pour lequel la requête d’interaction irq requiert une interaction relative à la position du son perçu pour ce premier objet sélectionné. Par exemple, la requête d’interaction irq indiquera la catégorie ty1 0Sj de source sonore à positionner dans l’environnement sonore reproduit spatialement.
En particulier, le procédé de caractérisation HCP comporte une génération d’une requête d’interaction relative à la catégorie du premier objet sonore TYRQ_GN. La génération de requête relative à la catégorie TYRQ_GN est utilisée dans le cas d’un environnement sonore es comportant plusieurs premiers objets sonores, la requête d’interaction irq comporte la première localisation associé au premier objet sonore sélectionné OS1j et est relative à la catégorie de la source émettrice du son perçu. Par exemple, la requête d’interaction irq indiquera la localisation pos1 OSj du premier objet sonore reproduit spatialement pour lequel l’utilisateur doit identifier la catégorie de source sonore.
En particulier, le procédé de caractérisation HCP comporte une génération d’une requête d’interaction relative à la question vocalisée dans le premier objet sonore DRQ_GN. La génération de requête relative à une question vocalisée DRQ_GN est utilisée dans le cas d’un environnement sonore es comportant plusieurs premiers objets sonores, la requête d’interaction irq comporte la première localisation associé au premier objet sonore sélectionné OS1j et est relative à la question vocalisée dans le son perçu. Par exemple, la requête d’interaction irq indiquera la localisation pos1 OSj du premier objet sonore reproduit spatialement, premier objet sonore comportant une question vocalisée à laquelle l’utilisateur doit fournir une réponse.
En particulier, le procédé de caractérisation HCP comporte au moins une vérification de présence d’au moins un paramètre caractéristique associé au premier objet sonore sélectionné OSV notamment, une vérification de présence d’une réponse à une question vocalisée dans le premier objet sonore sélectionné r sj ?, une vérification de présence d’une catégorie du premier objet sélectionné X tylsj ?, etc. Si la présence d’un paramètre caractéristique est vérifié [Y], respectivement 3r£sj ?, 3tylsj ?, alors la génération d’une requête d’interaction relative à ce paramètre caractéristique est mise en oeuvre, respectivement DRQ_GN, TYRQ_GN.
En particulier, le procédé de caractérisation HCP comporte une vérification 3SO s = {(OSf = de présence d’une série de premiers objets sonores dans l’environnement sonore sélectionné (non illustré). Si la vérification de présence d’au moins une série 3S0gS = {( OS} = 051(tosi)» tosi))i ? détecte une première série de premiers objets sonores [Y], alors elle déclenche une génération d’une requête relative à la première série de premiers objets sonores SORQ_GN (non illustrée). Eventuellement, notamment si l’environnement sonore comporte plusieurs premières séries de premiers objets sonores, un résultat positif [Y] de la vérification de présence d’au moins une première série X SO s = {( OS = 051(toSi), ί^)}; ? déclenche une sélection d’une première série de premiers objets sonores dans l’environnement sonore SO_SLCT (non illustrée) préalablement à la génération SORQ_GN d’une requête relative à la première série de premiers objets sonores sélectionnée. Les séries d’objets sonores sont toujours composées d’objets sonores dont le signal sonore est diffusé/émis l’un après l’autre, c’est-à-dire successivement, espacé ou non de silence. Dans une série d’objets sonores, les objets sonores peuvent avoir un paramètre caractéristique dont la valeur est commune à tous les objets sonores de la série. Par exemple, une série d’objets sonores de mêmes catégorie de sources, une série d’objets sonores dont tous les objets sonores ont une localisation identique, etc.
En particulier, si plusieurs paramètres caractéristiques sont présents, alors :
- soit le procédé de caractérisation HCP comporte plusieurs générations de requêtes spécifiques : par exemple une génération de requête relative à une réponse DRQ_GN et une génération de requête relative à une catégorie de source TYRQ_GN. Par exemple, la question peut être posée par différente catégorie de personnes : homme, femme, enfants, différents accents, etc. Ainsi, la requête d’interaction générée irq comporte les requêtes d’interaction spécifiques fournies par chacune des générations de requêtes spécifiques;
- soit le procédé de caractérisation HCP comporte une sélection de requête RNDRQ sélectionnant une parmi les générations de requêtes spécifiques disponibles: par exemple une génération de requête relative à une réponse DRQ_GN, ou une génération de requête relative à une catégorie de source TYRQ_GN, ou etc. La sélection de requête RNDRQ peut être effectuée de manière aléatoire ou en fonction de la valeur d’un des paramètres caractéristiques ;
- soit le procédé de caractérisation HCP mettra automatiquement en oeuvre la génération d’une requête spécifique prédéfinie par exemple la génération de la requête relative à une réponse DRQ_GN.
Dans un mode de réalisation particulier de l’invention, la sélection d’un premier objet sonore OS1i_SLCT dans l’environnement sonore ou la sélection d’une série d’objets sonores SO_SLCT est effectuée sur une action de sélection as d’un utilisateur UH, UR. En particulier, l’action de sélection as comporte une valeur d’un paramètre caractéristique du premier objet sonore sélectionné, respectivement de la première série de premiers objets sonores, distinct des valeurs de ce paramètre des autres premiers objets sonores de l’environnement sonore, respectivement des autres premières séries de premiers objets sonores. Par exemple, dans un environnement sonore constitué de cris d’animaux, l’utilisateur indiquera que l’objet sonore a pour catégorie un âne, et le procédé de caractérisation enverra une requête d’interaction sur la localisation de cet âne dans l’environnement sonore spatialisé. En particulier, la génération IRQ_GN d’une requête d’interaction irq comporte une ou plusieurs des étapes suivantes :
- la vérification du nombre d’objets sonore de l’environnement sonore sélectionné i = 1 ?;
- le cas échéant, la sélection d’objet sonore OSi_SLCT dans l’environnement sonore sélectionné ;
- la vérification de présence d’au moins un paramètre caractéristique associé au premier objet sonore sélectionné OS1j : notamment, la vérification de présence d’une réponse à une question vocalisée dans le premier objet sonore sélectionné 3r„S7- ?, la vérification de présence d’une catégorie du premier objet sélectionné X tylsj ?, etc. ;
- au moins une génération d’une requête d’interaction spécifique, notamment la génération d’une requête d’interaction relative à la localisation du premier objet POSRQ_GN, et/ou la génération d’une requête d’interaction relative à la question vocalisée dans le premier objet sonore DRQ_GN, et/ou une génération de requête relative à une catégorie de source TYRQ_GN, etc.
- la sélection de requête RNDRQ ;
- etc.
La génération de requête d’interaction IRQ_GN et/ou la ou les générations de requêtes spécifiques DRQ_GN, TYRQ_GN, POSRQ_GN, SO_SLCT fournissent une requête d’interaction irq relative à un premier objet sonore, voire à une première série de premiers objets sonores, comportant éventuellement une ou plusieurs requêtes spécifiques relatives à un paramètre caractéristique associé au premier objet sonore, voire à la première série de premiers objets sonores, à une reproduction de requête d’interaction IRQ_RPR. La reproduction de requête d’interaction IRQ_RPR est notamment une reproduction visuelle telle qu’un affichage sur un écran, un casque de réalité virtuel ou augmenté, etc. (la reproduction visuelle étant préalable ou simultanée à la reproduction de l’environnement sonore spatialisée 3D_RPR) et/ou une reproduction sonore préalable à la reproduction de l’environnement sonore spatialisée 3D_RPR.
En particulier, la reproduction de l’environnement sonore spatialisée 3D_RPR est déclenchée par l’une des étapes suivantes : la sélection de l’environnement sonore ES_SLCT, la génération d’une localisation, la génération de requête d’interaction IRQ_GN, la reproduction de requête d’interaction IRQ_RPR.
Suite à la reproduction de la requête d’interaction IRQ_RPR, l’utilisateur UH, UR réagit a en fournissant des deuxièmes données d2 relatives à un deuxième objet sonore OS2. Le deuxième objet sonore OS2 est l’objet sonore dont le deuxième signal sonore ou deuxième son s2 est perçu par l’utilisateur dans l’environnement sonore spatialisé reproduit 3DES qui correspond pour l’utilisateur au premier objet sonore OS1 auquel la requête d’interaction irq reproduite est relative.
Le procédé de caractérisation HCP reçoit de l’utilisateur ces deuxièmes données d2. Notamment, le procédé de caractérisation HCP comporte une ou plusieurs des étapes suivantes : - une capture CPT d’une action a de l’utilisateur fournissant des données captées de;
- une réception de données RCV recevant des données provenant d’une interface utilisateur, notamment des données captées de ou une action a, et fournissant des données reçues dr ;
- une extraction de deuxièmes données XTR de données reçues dr et/ou captées de.
En particulier, la création d’un environnement sonore spatialisé 3D_GN et/ou le contrôle de reproduction CNT et/ou la reproduction de l’environnement sonore 3D_RPR déclenche un traitement d’interaction IRTRT et ou une capture CPT et/ou une réception de données RCV.
En particulier, le procédé de caractérisation HCP comporte un traitement d’interaction IRTRT mettant en œuvre le traitement d’une action de l’utilisateur suite à la reproduction de la requête d’interaction IRQ_RPR fournit à la comparaison les deuxièmes données d2. Le traitement d’interaction IRTRT comporte une ou plusieurs des étapes suivantes :
- une capture CPT d’une action a de l’utilisateur fournissant des données captées de;
- une réception de données RCV recevant des données provenant d’une interface utilisateur, notamment des données captées de ou une action a, et fournissant des données reçues dr ;
- une extraction de deuxièmes données XTR de données reçues dr et/ou captées de.
En particulier, la comparaison CMP déclenche, en cas de résultat positif [N], une caractérisation de la source d’interaction comme étant un utilisateur non-approprié cru=ia.
Dans un mode de réalisation particulier, le procédé de caractérisation HCP est déclenché par un procédé de fourniture de services non illustré, en particulier préalablement à la fourniture du service. La fourniture du service sera déclenchée par la caractérisation de la source d’interaction comme étant un utilisateur approprié, en particulier un utilisateur humain. Eventuellement, dans le cas d’une caractérisation de la source d’interaction comme étant un utilisateur non-approprié, en particulier un utilisateur robot ou agent informatique, le procédé de caractérisation déclenche l’arrêt STP de la mise en œuvre du procédé de fourniture de services.
Dans un mode de réalisation particulier, le procédé de caractérisation HCP est déclenché par un procédé d’accès à un dispositif tiers (terminal de communication, objet connecté, équipement distant..) non illustré, en particulier préalablement à l’autorisation d’accès au dispositif tiers. L’accès au dispositif sera déclenché par la caractérisation de la source d’interaction comme étant un utilisateur approprié, en particulier un utilisateur humain. Eventuellement, dans le cas d’une caractérisation de la source d’interaction comme étant un utilisateur non-approprié, en particulier un utilisateur robot ou agent informatique, le procédé de caractérisation déclenche l’arrêt STP de la mise en œuvre du procédé d’accès au dispositif tiers. Un mode de réalisation particulier du procédé de caractérisation est un programme comprenant des instructions de code de programme pour l’exécution des étapes du procédé de caractérisation lorsque ledit programme est exécuté par un processeur.
La figure 2 illustre un schéma simplifié d’une scène audio 3D utilisée par l’invention.
L’invention est basée sur les positionnements d’objets sonores dans une scène audio 3D comme éléments à caractériser au niveau de l’interface Homme Machine. L’environnement sonore spatialisée ou scène audio 3D 3DES composé d’objets sonores est reproduit autour d’un utilisateur U à caractériser. Sur la figure 2, l’espace tridimensionnel environnant autour de l’utilisateur U est schématisé par un plan figuré par trois axes centrés sur l’utilisateur U : un axe d’abscisse x, un axe d’ordonné y et un axe d’azimut z. Les objets sonores OSi, OS2. OSj,... sont représentés dans cet espace tridimensionnel. Un objet sonore OS1, OS2. OSj,... est un objet O1, O2. Oj . tel que respectivement une voiture, une personne . un animal - en l’occurrence une vache, ... positionné en une localisation pososi, posOS2. posOSj,... de l’espace (définie notamment par des coordonnées dans cet espace tel que, respectivement, pos0si=(xi,yi,zi), posOs2=(x2,y2,Z2=0) . pososj=(xj=0,yj,zj),...dans notre exemple de la figure 2, et émettant un signal sonore ou son si, S2.
Sj .
Les figures 3a, 3b, 4a, 4b, 5a et 5b illustrent des schémas simplifiés d’une interface utilisateur de différents modes de réalisation de l’invention dans le cas de différents types de requête d’interaction : respectivement, relative à une position de l’objet sonore, relative à une catégorie de l’objet sonore ou à une requête d’interaction incluse dans l’objet sonore.
Le procédé de caractérisation selon l’invention propose donc, pour constituer un captcha, de présenter à l’utilisateur U, notamment dans un casque audio avec la technologie binaurale, des sons spatialisés de natures différentes dans une scène sonore et/ou dans un certain ordre (par exemple à un certain instant de reproduction). Pour répondre, il devra, par exemple, indiquer l’emplacement d’un certain type de son parmi ceux présentés et indiqués à quel positionnement il les entend (gauche, devant, droite, ...), bref repérer un son dans un espace virtuel comme le montre les figures 3a et 3b. Cela peut être aussi de devoir répondre à la question entendue dans l’oreille droite par exemple (avec des questions différentes à droite, à gauche, en haut) comme le montre les figures 5a et 5b. La combinaison de la reconnaissance d’un type de son et de son positionnement étant complexe pour une machine, cela permet de déterminer si le répondant est humain ou non.
La figure 3a illustre un schéma simplifié d’une interface utilisateur d’un premier mode de réalisation de l’invention dans le cas d’une requête d’interaction relative à une position d’un objet sonore.
Le cas le plus simple mis en œuvre par le procédé de caractérisation sera donc un seul premier son émis s1 depuis une première localisation pos1 os (c’est-à-dire un environnement sonore es constitué d’un seul premier objet sonore OS1). La requête d’interaction irq demandera alors à l’utilisateur U d’indiquer la provenance du signal sonore s1, c’est-à-dire dans quelle direction l’utilisateur U perçoit un deuxième objet sonore OS2 suite à la reproduction spatialisée du premier objet sonore OS1.
La figure 3a montre une interface utilisateur, en l’occurrence un écran 10 sur lequel est affiché la requête d’interaction irq, par exemple une question relative à la localisation posos ? et, éventuellement plusieurs choix de réponses iqcm : fposrp, Iposrp, rposrp positionné sur l’affichage par rapport à une représentation de la position de l’utilisateur urp. Eventuellement, l’interface utilisateur, en l’occurrence l’écran 10 propose une zone d’interaction au niveau des choix affichés permettant à l’utilisateur de sélectionner au moyen d’un stylet, d’une souris ou par interaction tactile avec l’écran 10, l’un des choix de réponses affichés : fposrp, Iposrp, rposrp. Par exemple, l’utilisateur entendant un son à sa droite, sélectionnera la position R, fournissant une deuxième donnée correspondant à une deuxième localisation ayant pour valeur droite, rposrp.
Dans un mode de réalisation particulier, le procédé de caractérisation comporte une détermination de la deuxième donnée à partir d’une position d’une main d’un utilisateur, par exemple sa main droite ou la main tenant une manette d’un casque de réalité virtuelle ou augmenté ou d’une console de jeux. Soit le procédé de caractérisation reçoit la position de la main de la manette, soit le procédé de caractérisation capture la position de la main, notamment au moyen d’une caméra. Ainsi, si l’utilisateur place sa main :
- devant lui, le choix correspond à fposrp dans les propositions de la requête d’interaction,
- à sa droite, le choix correspond à rposrp dans les propositions de la requête d’interaction,
- à sa gauche, le choix correspond à Iposrp dans les propositions de la requête d’interaction.
Eventuellement, l’interface utilisateur comporte une zone d’interaction ios avec le premier objet sonore permettant à l’utilisateur de requérir la répétition de la reproduction spatialisée du premier objet sonore.
Eventuellement, l’interface utilisateur comporte une zone d’interaction islct avec la sélection du premier objet sonore permettant à l’utilisateur de requérir une sélection d’un nouvel environnement sonore et donc d’un nouveau premier objet sonore. Ainsi, si le premier objet sonore pose des difficultés particulières de perception à l’utilisateur, celui-ci peut en changer pour lui permettre d’être caractérisé comme utilisateur approprié et donc d’accéder au dispositif/service utilisant le procédé de caractérisation. Cela réduit donc les fausses caractérisations en utilisateur non-approprié.
Ainsi, la requête d’interaction irq reproduite sur l’écran 10 est par exemple « Où entendez-vous ce son ? ». Soit préalablement à la reproduction de la requête d’interaction, soit simultanément à la reproduction de la requête d’interaction, est reproduit un son auquel le procédé de caractérisation demande à l’utilisateur de réagir au moyen de la requête d’interaction. Eventuellement, sur l’écran 10 est aussi reproduite une zone d’interaction avec le son ios. Cette zone d’interaction avec le son ios comporte notamment un élément d’interaction de lecture. Une action a de l’utilisateur relative à cet élément d’interaction déclenche un contrôle de la reproduction spatialisée du son. Par exemple, l’élément d’interaction est notamment symbolisé par un triangle pointant vers la droite tant que le son n’est pas diffusé et la lecture du son n’est pas terminée, par deux traits larges tant que le son est diffusé, et, en fin de diffusion du son, par un triangle pointant sur un trait vertical à gauche. Ainsi, une action sur le triangle pointant vers la droite déclenche la lecture et reproduction spatialisée du son, une action sur les deux traits larges déclenche une suspension de la reproduction du son permettant de reprendre ultérieurement la reproduction spatialisée du son à partir de l’instant de pause, une actions sur la flèche pointant vers la gauche déclenche une reproduction spatialisée du son depuis le début de celui-ci. La zone d’interaction avec le son ios comporte, notamment une règle de lecture qui consiste en une ligne horizontale se remplissant progressivement en fonction de l'avancement de la reproduction spatialisée du son (la ligne est vide au début de la reproduction sonore et plein à la fin de celle-ci. En particulier, l’utilisateur agissant relativement à un point particulier de cette règle de lecture déclenche la reproduction spatialisée du son à partir de l’instant du signal sonore représenté par ce point de la règle de lecture. La zone d’interaction avec le son ios comporte, par exemple, un ascenseur permettant d’interagir avec le volume sonore de la reproduction spatialisée du son. La zone d’interaction avec le son comporte un ou plusieurs des éléments d’interactions parmi les suivants : un élément d’interaction de lecture, une règle de lecture, un ascenseur de volume.
En particulier, la requête d’interaction comporte des consignes relatives aux dispositifs de reproduction sonore à utiliser. Par exemple, elle demande une « écoute au casque uniquement ». Ainsi, les erreurs de caractérisation liées à une reproduction non spatialisée de l’objet sonore en raison de l’utilisation de dispositif de reproduction sonore non adaptée seront évitées.
Eventuellement, les choix multiples proposées iqcm seront sous forme de texte, tel que « devant » pour le choix fposrp, « droite » pour le choix rposrp et « gauche » pour le choix Iposrp et/ou représenté graphiquement par un dessin symbolique d’un utilisateur urp, et des cases ou cercles sélectionnables, par exemple en les cochant, comme le montre la figure 3a.
En particulier, dans la zone de sélection d’un nouveau premier objet sonore, est reproduite la proposition suivante « Vous ne trouvez pas ? Générer un autre son ».
Eventuellement, un même son ou des sons différents reproduits à des instants distincts, notamment dans un ordre donné, peuvent se déplacer dans la scène audio 3D sur une série de N premières localisations. Cela constitue une série d’objets sonores.
Dans une première implémentation du procédé de caractérisation, à chaque objet sonore de la série, c’est-à-dire à chaque nouvelle position d’un son (le même ou un nouveau son), le procédé de caractérisation déclenche un affichage de l’écran 10 de la figure 3b et attend l’action de l’utilisateur. Le passage à un nouvelle position du son et/ou à un nouvel objet sonore est alors conditionné à un résultat de comparaison positif, c’est-à-dire au fait que l’utilisateur identifie correctement la position actuelle de l’objet sonore actuel (cela signifie que la deuxième donnée correspondant à la localisation de l’objet sonore perçu, c’est-à-dire du deuxième objet sonore, par l’utilisateur correspond à la première donnée correspondant à la localisation actuelle de l’objet sonore en cours de reproduction spatiale, c’est-à-dire du premier objet sonore).
Dans une deuxième implémentation du procédé de caractérisation, l’ensemble des objets sonores de la série sont reproduit spatialement dans l’ordre donné par la série (par exemple à l’instant prévu par la série). Le procédé de caractérisation déclenche un affichage de l’écran 10 de la figure 3b et attend l’action de l’utilisateur. La requête d’interaction irq reproduite sur l’écran 10 est alors, par exemple « Indiquez dans l’ordre les différents directions d’où vous avez entendu un son». Le procédé de caractérisation reçoit alors une série d’actions (a(n)}n=1...N de l’utilisateur indiquant chacune au moins une deuxième localisation. Le procédé de caractérisation déclenche la comparaison une fois la série d’actions terminée et convertie en série de deuxième données fonction de ces actions (d2(n)= f(a(n))}n=1...N. La comparaison CMP vérifie, pour chaque première donnée associée di(n) à un premier objet sonore reproduit à un instant n, si la deuxième donnée d2(n) fournie par l’utilisateur pour cet instant n (par exemple parce que associée à la nième action de l’utilisateur) correspond à cette première donnée d1(n). La comparaison déclenche une caractérisation de l’utilisateur comme utilisateur approprié s’il y a correspondance de la série, dans l’ordre de la série. Par exemple, si l’utilisateur indique avoir entendu un son d’abord à droite, devant puis à nouveau à droite. Et, que la série de premiers objets sonores correspondait à une première localisation d’un premier objet sonore à droite, devant puis à droite, l’utilisateur est caractérisé comme utilisateur approprié. Par contre, si l’utilisateur indique avoir entendu un son à droite, à gauche puis à droite, l’utilisateur est caractérisé comme utilisateur non approprié.
La figure 3b illustre un schéma simplifié d’une interface utilisateur d’un deuxième mode de réalisation de l’invention dans le cas d’une requête d’interaction relative à une position d’un objet sonore.
On pourra aussi avoir des sons différents en provenance de 3 directions (ou plus). L’utilisateur devra positionner un type de son donné (ex : chat) :
Dans le cas de la figure 3b, la scène audio 3D comporte, en particulier, plusieurs objets sonores de catégories distinctes tyos. La génération de requête de position POSRQ_GN reçoit une information de sélection de la sélection d’objets sonores OSi_SLCT et génère une requête d’interaction irq comportant non seulement une question irqq mais aussi un sujet irqsbj. La question irqq porte notamment sur la localisation posos ? d’un objet sonore et le sujet indique que la question porte sur un objet sonore spécifique en indiquant qu’il s’agit d’un objet sonore dont la valeur d’un autre paramètre caractéristique est celle du premier objet sonore sélectionné, par exemple la requête d’interaction demande la localisation d’un objet sonore de type tyos cri d’animal ou plus précisément un chat, un âne, etc.
Ainsi, la requête d’interaction irq reproduite sur l’écran 10 est par exemple « Où entendez-vous le chat ? ». Eventuellement, sur l’écran 10 est aussi reproduite un zone d’interaction avec le son ios. La zone d’interaction avec le son comporte un ou plusieurs des éléments d’interactions parmi les suivants : un élément d’interaction de lecture, une règle de lecture, un ascenseur de volume. En particulier, la requête d’interaction comporte des consignes relatives aux dispositifs de reproduction sonore à utiliser. Par exemple, elle demande une « écoute au casque uniquement ».
Eventuellement, la zone de réponse est constitué par une zone de saisie iz ou des choix multiples proposées iqcm qui seront sous forme de texte, tel que « devant » pour le choix fposrp, « droite » pour le choix rposrp et « gauche » pour le choix Iposrp et/ou représenté graphiquement par un dessin symbolique d’un utilisateur urp, et des cases ou cercles sélectionnâmes, par exemple en les cochant, comme le montre la figure 3a.
En particulier, dans la zone de sélection d’un nouveau premier objet sonore, est reproduite la proposition suivante « Vous ne trouvez pas ? Générer un autre son ».
Eventuellement, le chat peut se déplacer dans la scène audio 3D sur une série de N premières localisations. Cela constitue une série d’objets sonores.
Dans une première implémentation du procédé de caractérisation, à chaque objet sonore de la série, c’est-à-dire à chaque nouvelle position du chat, le procédé de caractérisation déclenche un affichage de l’écran 10 de la figure 3b et attend l’action de l'utilisateur. Le passage à une nouvelle position du chat est alors conditionné à un résultat de comparaison positif, c’est-à-dire au fait que l'utilisateur identifie correctement la position actuelle du chat (cela signifie que la deuxième donnée correspondant à la localisation du chat perçue par l'utilisateur correspond à la première donnée correspondant à la localisation actuelle du chat en cours de reproduction spatiale).
Dans une deuxième implémentation du procédé de caractérisation, l’ensemble des objets sonores de la série, c’est-à-dire le chat dans ses différentes positions, sont reproduit spatialement. Le procédé de caractérisation déclenche un affichage de l’écran 10 de la figure 3b et attend l’action de l’utilisateur. La requête d’interaction irq reproduite sur l’écran 10 est alors, par exemple « Indiquez dans l’ordre les différents directions d’où vous avez entendu le chat». Le procédé de caractérisation reçoit alors une série d’actions {a(n)}n=1 ...N de l'utilisateur indiquant chacune au moins une deuxième localisation. Le procédé de caractérisation déclenche la comparaison une fois la série d’actions terminée et convertie en série de deuxième données fonction de ces actions {d2(n)= f(a(n))}n=1...N. La comparaison CMP vérifie, pour chaque première donnée associée di(n) à un premier objet sonore reproduit à un instant n, si la deuxième donnée d2(n) fournie par l’utilisateur pour cet instant n (par exemple parce que associée à la nième action de l'utilisateur) correspond à cette première donnée d1(n). La comparaison déclenche une caractérisation de l'utilisateur comme utilisateur approprié s’il y a correspondance de la série, dans l’ordre de la série. Par exemple, si l'utilisateur indique avoir entendu le chat d’abord à droite, devant puis à nouveau à droite. Et, que la série de premiers objets sonores correspondait à une première localisation du chat à droite, devant puis à droite, l’utilisateur est caractérisé comme utilisateur approprié. Par contre, si l’utilisateur indique avoir entendu le chat uniquement trois fois à droite, l’utilisateur est caractérisé comme utilisateur non approprié.
En particulier, l’utilisateur positionne l’objet sonore sur l’écran 10 par interaction par rapport à une représentation de la position de l’utilisateur urp. Le procédé de caractérisation est détermine alors la position fournie par l’utilisateur et utilisation la position de l’objet sonore ainsi déterminée dans la comparaison. L’avantage du placement libre de la position sur l’écran est plus difficile à contourner par un algorithme.
La figure 4a illustre un schéma simplifié d’une interface utilisateur d’un premier mode de réalisation de l’invention dans le cas d’une requête d’interaction relative à une catégorie d’un objet sonore.
On pourra aussi avoir des sons différents en terme de catégorie de sources sonores en provenance de 3 directions (ou plus). L’utilisateur devra indiquer le type de son associé à une position donnée (ex : droite) :
Dans le cas de la figure 4a, la scène audio 3D comporte, en particulier, plusieurs objets sonores à des localisations distinctes pos0s. La génération de requête de catégorie TYRQ_GN reçoit une information de sélection de la sélection d’objets sonores OSi_SLCT et génère une requête d’interaction irq comportant non seulement une question irqq mais aussi un sujet irqsbj. La question irqq porte notamment sur la catégorie tyos ? de la source d’un objet sonore et le sujet indique que la question porte sur un objet sonore spécifique en indiquant qu’il s’agit d’un objet sonore positionné à une localisation ayant une valeur correspondant à celle du premier objet sonore sélectionné, par exemple la requête d’interaction demande la catégorie d’un objet sonore localisé posos à droite.
Ainsi, la requête d’interaction irq reproduite sur l’écran 10 est par exemple « Quel est l’origine du son à droite? ». Eventuellement, sur l’écran 10 est aussi reproduite un zone d’interaction avec le son ios. La zone d’interaction avec le son comporte un ou plusieurs des éléments d’interactions parmi les suivants : un élément d’interaction de lecture, une règle de lecture, un ascenseur de volume. En particulier, la requête d’interaction comporte des consignes relatives aux dispositifs de reproduction sonore à utiliser. Par exemple, elle demande une « écoute au casque uniquement ».
Eventuellement, la zone de réponse est constitué par une zone de saisie iz dans laquelle l’utilisateur saisie sa réponse au moyen d’un clavier ou d’un stylet, par exemple. En particulier, dans la zone de sélection d’un nouveau premier objet sonore, est reproduite la proposition suivante « Vous ne trouvez pas ? Générer un autre son ».
Eventuellement, différents sons, notamment une série de N premiers objets sonores associés respectivement à N premières catégories, peuvent se succéder en une même localisation de la scène audio 3D.
Dans une première implémentation du procédé de caractérisation, à chaque objet sonore de la série, c’est-à-dire à chaque nouvelle catégorie de son, le procédé de caractérisation déclenche un affichage de l’écran 10 de la figure 3a et attend l’action de l’utilisateur. Le passage à un nouveau son est alors conditionné à un résultat de comparaison positif, c’est-à-dire au fait que l’utilisateur identifie correctement la catégorie actuelle du son de droite (cela signifie que la deuxième donnée correspondant à la catégorie perçue par l’utilisateur correspond à la première donnée correspondant à la catégorie actuelle de l’objet sonore en cours de reproduction spatiale).
Dans une deuxième implémentation du procédé de caractérisation, l’ensemble des objets sonores de la série sont reproduits spatialement, c’est-à-dire que plusieurs objets sonores sont successivement reproduits spatialement à droite. Le procédé de caractérisation déclenche un affichage de l’écran 10 de la figure 3a et attend l’action de l’utilisateur. La requête d’interaction irq reproduite sur l’écran 10 est alors, par exemple « Indiquez dans l’ordre les différentes catégories de sons entendus à droite». Le procédé de caractérisation reçoit alors une série d’actions {a(n)}n=1 ...N de l’utilisateur indiquant chacune au moins une deuxième catégorie. Le procédé de caractérisation déclenche la comparaison une fois la série d’actions terminée et convertie en série de deuxième données fonction de ces actions {d2(n)= f(a(n))}n=1...N. La comparaison CMP vérifie, pour chaque première donnée associée di(n) à un premier objet sonore reproduit à un instant n, si la deuxième donnée d2(n) fournie par l’utilisateur pour cet instant n (par exemple parce que associée à la nième action de l’utilisateur) correspond à cette première donnée d1(n). La comparaison déclenche une caractérisation de l’utilisateur comme utilisateur approprié s’il y a correspondance de la série, dans l’ordre de la série. Par exemple, si l’utilisateur indique avoir entendu à droite d’abord un chat, une voiture puis à nouveau un chat. Et, que la série de premiers objets sonores correspondait à une première catégorie ayant pour valeur un chat, une voiture puis un chat, l’utilisateur est caractérisé comme utilisateur approprié. Par contre, si l’utilisateur indique avoir entendu à droite uniquement trois fois un chat, l’utilisateur est caractérisé comme utilisateur non approprié.
La figure 4b illustre un schéma simplifié d’une interface utilisateur d’un deuxième mode de réalisation de l’invention dans le cas d’une requête d’interaction relative à une catégorie d’un objet sonore.
La différence avec l’interface utilisateur de la figure 4a réside dans la zone d’interaction qui comporte un choix multiple de réponses iqcm. En l’occurrence, le choix multiple comporte une mosaïque de 4 éléments d’interaction d , c2, c3 et c4 correspond à quatre choix de réponses distinctes. Sur chaque élément d’interaction de la mosaïque est reproduit notamment un contenu associé à une valeur de la catégorie de source sonore, tel qu’une image, une vidéo, etc. Parmi les choix sont proposés un choix correspondant à la première donnée d1, c’est-à-dire à la valeur de la première catégorie associée au premier objet sonore sélectionné reproduit spatialement.
Dans l’exemple de la figure 4b, le choix c1 correspond à une catégorie ayant pour valeur une voiture, c2 une vache, c3 la pluie et c4 une horloge. Ainsi, si le premier objet sonore sélectionné reproduit spatialement est une voiture, le son reproduit spatialement sera par exemple le bruit d’un moteur de voiture à la première localisation, par exemple à droite. A la vache pourra être associé comme signal sonore un cri de vache, c’est-à-dire un meuglement ; à la pluie, le clapotis de la pluie sur une surface ; à l’horloge, le tic-tac.
Ainsi, suite à la reproduction de la requête d’interaction demandant à l’utilisateur la catégorie correspondant au son à droite, si l’utilisateur sélectionne la vignette c1 de la mosaïque de choix multiples iqcm, la comparaison caractérisera l’utilisateur comme utilisateur approprié. Par contre, si l’utilisateur sélectionne n’importe laquelle des autres vignettes c2, c3 ou c4, la comparaison caractérisera l’utilisateur comme utilisateur non approprié.
L’avantage de la mosaïque dans le cas de l’utilisation d’une série d’objets sonores pour la caractérisation est que cela facilite l’interaction de l’utilisateur limitant les erreurs de caractérisation. En effet, si la série reproduite à droite est une vache, une voiture, une vache. L’utilisateur sélectionnant dans cet ordre les vignettes c2, c1 puis c2 sera caractérisé comme utilisateur approprié.
La figure 5a illustre un schéma simplifié d’une interface utilisateur d’un premier mode de réalisation de l’invention dans le cas d’un objet sonore comportant une requête d’interaction.
Eventuellement, les différents sons correspondent à différentes questions vocalisées en provenance de 3 directions (ou plus). L’utilisateur devra indiquer la réponse à la question vocalisée irqq portée par le son s associé à une position donnée posos (ex : droite) :
Dans le cas de la figure 5a, la scène audio 3D comporte, en particulier, plusieurs objets sonores à des localisations distinctes pos0s. La génération de requête de réponse DRQ_GN reçoit une information de sélection de la sélection d’objets sonores OSi_SLCT et génère une requête d’interaction irq comportant seulement un sujet irqsbj puisque la question irqq est reproduite avec le son s. Le sujet indique que la question est reproduite avec un objet sonore spécifique en indiquant qu’il s’agit d’un objet sonore positionné à une localisation ayant une valeur correspondant à celle du premier objet sonore sélectionné, par exemple la requête d’interaction demande de répondre à la question posée par un objet sonore localisé posos à droite. Ainsi, la requête d’interaction irq reproduite sur l’écran 10 est par exemple « Répondez à la question venant de votre droite » ou « Merci de répondre à votre interlocuteur situé à votre droite ». Eventuellement, sur l’écran 10 est aussi reproduite un zone d’interaction avec le son ios. La zone d’interaction avec le son comporte un ou plusieurs des éléments d’interactions parmi les suivants : un élément d’interaction de lecture, une règle de lecture, un ascenseur de volume. En particulier, la requête d’interaction comporte des consignes relatives aux dispositifs de reproduction sonore à utiliser. Par exemple, elle demande une « écoute au casque uniquement ».
Eventuellement, la zone de réponse est constitué par une zone de saisie iz dans laquelle l’utilisateur saisie sa réponse au moyen d’un clavier ou d’un stylet, par exemple.
En particulier, dans la zone de sélection d’un nouveau premier objet sonore, est reproduite la proposition suivante « Vous ne trouvez pas ? Générer un autre son ».
Eventuellement, différents sons, notamment une série de N premiers objets sonores associés respectivement à N premières réponses (c’est-à-dire dont les N signaux sonores comportent respectivement une des N questions vocalisées correspondant à ces N premières réponses), peuvent se succéder en une même localisation de la scène audio 3D.
Dans une première implémentation du procédé de caractérisation, à chaque objet sonore de la série, c’est-à-dire à chaque nouvelle question vocalisée, le procédé de caractérisation déclenche un affichage de l’écran 10 de la figure 3b et attend l’action de l’utilisateur. Le passage à un nouveau son est alors conditionnée à un résultat de comparaison positif, c’est-à-dire au fait que l’utilisateur fournisse une réponse correcte à la question vocalisée dans le son de droite (cela signifie que la deuxième donnée correspondant à la réponse de la question perçue par l’utilisateur correspond à la première donnée correspondant à la réponse à la question actuellement vocalisée par l’objet sonore en cours de reproduction spatiale).
Dans une deuxième implémentation du procédé de caractérisation, l’ensemble des objets sonores de la série sont reproduit spatialement, c’est-à-dire que plusieurs objets sonores sont successivement reproduit spatialement à droite, en l’occurrence plusieurs questions sont posées successivement à droite. Le procédé de caractérisation déclenche un affichage de l’écran 10 de la figure 3a et attend l’action de l’utilisateur. La requête d’interaction irq reproduite sur l’écran 10 est alors, par exemple « Indiquez dans l’ordre les différentes réponses aux questions posées sur votre droite ». Le procédé de caractérisation reçoit alors une série d’actions (a(n)}n=1...N de l’utilisateur indiquant chacune au moins une deuxième réponse. Le procédé de caractérisation déclenche la comparaison une fois la série d’actions terminée et convertie en série de deuxième données fonction de ces actions (d2(n)= f(a(n))}n=1...N. La comparaison CMP vérifie, pour chaque première donnée associée di(n) à un premier objet sonore reproduit à un instant n, si la deuxième donnée d2(n) fournie par l’utilisateur pour cet instant n (par exemple parce que associée à la nième action de l’utilisateur) correspond à cette première donnée d1(n). La comparaison déclenche une caractérisation de l’utilisateur comme utilisateur approprié s’il y a correspondance de la série, dans l’ordre de la série. Par exemple, si l’utilisateur répond aux questions vocalisées, par exemple « quel est le président américain? », « combien font 1 plus 1 ?», « sur quel continent est la France? » entendu à droite d’abord « Bidden », « 2 » puis « Europe ». Et, que la série de premiers objets sonores correspondait à une première réponse ayant pour valeur « Bidden », « 2 » puis « Europe », l’utilisateur est caractérisé comme utilisateur approprié. Par contre, si l’utilisateur répond aux questions vocalisées entendues à droite « Macron», « 2 » puis « Europe », l’utilisateur est caractérisé comme utilisateur non approprié.
La figure 5b illustre un schéma simplifié d’une interface utilisateur d’un deuxième mode de réalisation de l’invention dans le cas d’un objet sonore comportant une requête d’interaction.
La différence avec l’interface utilisateur de la figure 5a réside dans la zone d’interaction qui comporte un choix multiple de réponses iqcm. En l’occurrence, le choix multiple comporte une liste de 3 éléments d’interaction c1 , c2, et c3 correspond à trois choix de réponses distinctes. Pour chaque élément d’interaction de la liste sont reproduit notamment un texte correspond à une valeur de première réponse. Parmi les choix sont proposés un choix correspondant à la première donnée d1 , en l’occurrence c3, c’est-à-dire à la valeur de la première réponse associée au premier objet sonore sélectionné reproduit spatialement portant une question vocalisée.
L’avantage de la liste dans le cas de l’utilisation d’une série d’objets sonores pour la caractérisation est que cela facilite l’interaction de l’utilisateur limitant les erreurs de caractérisation. En effet, si les réponses aux questions vocalisées avec la série reproduite à droite sont c3, c1 , puis c2. L’utilisateur sélectionnant dans cet ordre les éléments de la liste c3, c1 puis c2 sera caractérisé comme utilisateur approprié.
Eventuellement, lorsque la série concerne une localisation donnée, la question de la requête d’interaction peut porter sur différents paramètres caractéristiques des objets sonores de la série. Par exemple, la requête d’interaction demande à l’utilisateur d’écouter le son de droite, pour le premier objet, il fournira une valeur de catégorie de l’objet sonore reproduit spatialement à droite, pour le second, il répondra à la question posée vocalement, pour le troisième, cela pourra être à nouveau une valeur de catégorie... A noter qu’à un objet sonore comportant une question vocalisée pourra être associé une valeur de catégorie correspondant à une catégorie de personne ou de voix : homme, femme, enfant, aigue, grave, forte, murmure, accent anglais, accent méridional, etc.
La figure 6 illustre un schéma simplifié d’une architecture de communication comportant un dispositif de caractérisation selon l’invention. Le dispositif de caractérisation 33 d’un utilisateur U comporte un comparateur 334 de premières données d1 associées à un premier objet sonore spatialisé OS1 en une première localisation pos1os d’une scène audio spatialisée 3DES par une interface utilisateur 2 d’un terminal de communication 1 et de deuxièmes données d2 reçues suite à la reproduction du premier objet sonore spatialisé OSi, les premières données d1 étant distinctes du premier objet sonore OS1 , les deuxièmes données d2 étant fonction d’un deuxième objet sonore spatialisé perçu OS2 en une deuxième localisation pos2 0s de la scène audio spatialisée 3DES, le comparateur 334 déclenchant en cas de résultat positif une caractérisation de la source d’interaction comme étant un utilisateur approprié.
En particulier, le dispositif de caractérisation 33 comporte un sélecteur 330 d’un environnement sonore dans un dispositif de stockage 331 , tel qu’une mémoire ou une base de données, comportant un ou plusieurs environnements sonores prédéfinis. En particulier, la base de données, est une base de sons ou une base d’objets sonores voire une base d’environnements sonores. Le sélecteur d’environnement sonore 330 reçoit du dispositif de stockage 331 un environnement sonore es composé :
- soit d’un ou plusieurs premiers objets sonores OSi, {OS1i}i,
- soit d’un ou plusieurs couples formés par :
+ un premier objet sonore et une première localisation (OS1, pos1 0s), {(OS1i, pos1 0si)}i, ou + un premier objet sonore et une première catégorie de sources sonores (OS1, ty1 0s), {(OS1i,ty1osi)}i, ou
+ un premier objet sonore et une première réponse à une question vocalisée incluse dans le premier objet sonore (OS1, r1 0s=d1), {(OS1i, r1 0Si)}i,
+ etc.
- soit un ou plusieurs n-uplets formés par un premier objet sonore et un ou plusieurs des paramètre suivants : une première localisation, une première catégorie de source sonore, une première réponse, etc. (OS1, pos1 os, ty1 os), {(OS1·, posV ty1 0Si)}i, (OS1, pos1 os, r1 os=d1), {(OS1·, posV r1 0Si)}i, (OS1, ty1os, r1os=d1), {(OS1i, ty1osi, r1osi)}i(OS1, pos1os, ty1os, r1os=d1), {(OS1i, pos1osi, ty1osi, r1osï)}ï, etc. Notamment, le sélecteur d’environnement sonore 330 envoie une requête d’environnement sonore es_req au dispositif de stockage331 , et reçoit l’environnement sonore es en réponse à la requête d’environnement sonore es_req.
En particulier, le dispositif de caractérisation 33 comporte un générateur 332 de requête d’interaction irq concernant un premier objet sonore : seul objet sonore OS1 ou objet sonore sélectionné OS1jde l’environnement sonore sélectionné es. La requête d’interaction irq porte sur un ou plusieurs paramètres caractéristiques du premier objet sonore OS1, OS1j.
En particulier, le générateur 332 de requête d’interaction irq comporte un ou plusieurs des dispositifs suivants (non illustrés):
- un vérificateur du nombre d’objets sonore de l’environnement sonore sélectionné i = 1 ?;
- le cas échéant, un sélecteur d’objet sonore dans l’environnement sonore sélectionné ; - un vérificateur de présence d’au moins un paramètre caractéristique associé au premier objet sonore sélectionné OS1j : notamment, un vérificateur de présence d’une réponse à une question vocalisée dans le premier objet sonore sélectionné, un vérificateur de présence d’une catégorie du premier objet sélectionné, etc. ;
- au moins un générateur d’une requête d’interaction spécifique, notamment un générateur d’une requête d’interaction relative à la localisation du premier objet, et/ou un générateur d’une requête d’interaction relative à la question vocalisée dans le premier objet sonore, et/ou un générateur de requête relative à une catégorie de source, etc.
- un sélecteur de requête;
- etc.
Le générateur de requête d’interaction 332 fournissent une requête d’interaction irq relative à un premier objet sonore, voire à une première série de premiers objets sonores, comportant éventuellement une ou plusieurs requêtes spécifiques relatives à un paramètre caractéristique associé au premier objet sonore, voire à la première série de premiers objets sonores, à un dispositif de reproduction de requête d’interaction 10, 2. Le dispositif de reproduction de requête d’interaction est notamment un dispositif de reproduction visuelle telle qu’un affichage sur un écran 10, un casque de réalité virtuel ou augmenté, etc. (la reproduction visuelle étant préalable ou simultanée à la reproduction de l’environnement sonore spatialisée 3D_RPR) et/ou un dispositif de reproduction sonore 2, la reproduction de la requête d’interaction étant alors préalable à la reproduction de l’environnement sonore spatialisée.
En particulier, le dispositif de reproduction de l’environnement sonore spatialisée 2 est commandé déclenchée par l’un des dispositifs suivants : le sélecteur de l’environnement sonore 330, le générateur de requête d’interaction 332, le dispositif de reproduction 10, 2 lors de la reproduction de la requête d’interaction.
Suite à la reproduction de la requête d’interaction IRQ_RPR, l’utilisateur UH, UR réagit a en fournissant des deuxièmes données d2 relatives à un deuxième objet sonore OS2 au moyen d’une interface utilisateur 10, 11 du terminal de communication 1. Le deuxième objet sonore OS2 est l’objet sonore dont le deuxième signal sonore ou deuxième son s2 est perçu par l’utilisateur dans l’environnement sonore spatialisé reproduit 3DES qui correspond pour l’utilisateur au premier objet sonore OS1 auquel la requête d’interaction irq reproduite est relative.
Le dispositif de caractérisation 33 reçoit de l’utilisateur, éventuellement d’une interface utilisateur du terminal de communication 1, ces deuxièmes données d2. En particulier, le dispositif de caractérisation 33 comporte un ou plusieurs des dispositifs suivants (non illustrés):
- un récepteur de données recevant des données provenant d’une interface utilisateur, notamment des données captées de ou une action a, et fournissant des données reçues dr ;
- un extracteur de deuxièmes données XTR de données reçues dr et/ou captées de. Notamment, l’interface utilisateur 10, 11 comporte un ou plusieurs des dispositifs suivants (non illustrés):
- un capteur d’une action a de l’utilisateur fournissant des données captées de, tel qu’une caméra, un microphone, un écran tactile, etc.;
- un récepteur de données recevant des données saisies par l’utilisateur sur un périphérique (non illustré, tel qu’un clavier, une souris, etc.) du terminal de communication 1 ;
En particulier, la création d’un environnement sonore spatialisé 3D_GN et/ou le contrôle de reproduction CNT et/ou la reproduction de l’environnement sonore 3D_RPR déclenche un traitement d’interaction IRTRT et ou une capture CPT et/ou une réception de données RCV.
En particulier, le comparateur 334 déclenche, en cas de résultat positif [N], une caractérisation de la source d’interaction comme étant un utilisateur non-approprié cru=ia.
Dans un mode de réalisation particulier, l’architecture de communication comporte un dispositif de fourniture de services 3. Le dispositif de fourniture de service comporte :
+ un processeur 32 apte à mettre en oeuvre au moins un service ;
+ une interface 31 d’échange avec un terminal de communication 1 ; et
+ un dispositif de caractérisation 33 d’un utilisateur du service comportant un comparateur 334 de premières données associées à un premier objet sonore spatialisé en une première localisation d’une scène audio spatialisée par une interface utilisateur du terminal de communication de l’utilisateur et de deuxièmes données reçues suite à la reproduction du premier objet sonore spatialisé, les premières données d1 étant distinctes du premier objet sonore OS1, les deuxièmes données étant fonction d’un deuxième objet sonore spatialisé perçu en une deuxième localisation de la scène audio spatialisée, le comparateur déclenchant en cas de résultat positif une caractérisation de la source d’interaction comme étant un utilisateur approprié et commandant au processeur la mise en oeuvre du service.
En particulier, le dispositif de caractérisation 33 est activé par le dispositif de fourniture de services 3, en particulier préalablement à la fourniture du service. La fourniture du service sera déclenchée par la caractérisation de la source d’interaction comme étant un utilisateur approprié, en particulier un utilisateur humain. Eventuellement, dans le cas d’une caractérisation de la source d’interaction comme étant un utilisateur non-approprié, en particulier un utilisateur robot ou agent informatique, le procédé de caractérisation déclenche l’arrêt du dispositif de fourniture de services 3.
Dans l’exemple de la figure 6, l’architecture de communication comporte un dispositif de caractérisation selon l’invention 33 notamment implémenté dans un dispositif de fournitures de services 3 selon l’invention. L’utilisateur U que le dispositif de caractérisation 33 doit caractériser interagit notamment avec le dispositif de caractérisation 33 au moyen d’un terminal de communication 1 connecté au dispositif de caractérisation 33 et, le cas échéant au dispositif de fourniture de services 3 notamment via un réseau de communication 4. Le dispositif de caractérisation 3 utilise notamment comme dispositif de reproduction de son 3D ou son spatialisé un casque 2 porté par l’utilisateur U. Le casque 2 constitue notamment un périphérique du terminal de communication 1.
Par exemple, l’utilisateur U souhaite télécharger au moyen de son terminal de communication 1 un contenu fournit par le dispositif de fourniture de services 3. Le terminal de communication 1 requiert le contenu (non illustré) au dispositif de fourniture de services 3 qui active le dispositif de caractérisation 33 pour éviter les spams de requête de contenu.
Le sélecteur d’environnement sonore 330 sélectionne un environnement sonore es dans le dispositif de stockage 331. Ensuite, le générateur de requête d’interaction 332 utilise au moins un des objets sonores de l’environnement sonore sélectionné fourni par le sélecteur 333 pour établir une requête d’interaction irq. Dans l’exemple de la figure 6, le dispositif de caractérisation 33 comporte un contrôleur 333 commandant la reproduction sonore spatialisé de l’environnement sonore sélectionné notamment en fournissant un signal sonore spatialisé 3Dss. Eventuellement, le générateur de requête d’interaction 332 déclenche rpr_trg la commande de reproduction sonore spatialisée par le contrôleur 333.
En particulier, lorsque le dispositif de caractérisation 33 et le dispositif de reproduction de son spatialisé 2 ne sont pas co-localisés, le dispositif de caractérisation fournit le signal sonore spatialisé de l’environnement sonore sélectionné 3Dss à un émetteur 31 implémenté dans le dispositif de caractérisation 33 et/ou dans le dispositif de fourniture de service 3 implémentant le dispositif de caractérisation 33. L’émetteur 31 transmet le signal spatialisé 3Dss au terminal de communication 1 qui le reçoit notamment au moyen d’un récepteur 13. Le récepteur 13 fournit, notamment au moyen d’une interface périphérique 12, ce signal spatialisé 3Dss au dispositif de reproduction sonore spatialisé 2.
En particulier, lorsque le dispositif de caractérisation 33 et le dispositif de reproduction de requête 10 ne sont pas co-localisé, le générateur de requête d’interaction 332 fournit la requête générée irq à un émetteur 31 implémenté dans le dispositif de caractérisation 33 et/ou dans le dispositif de fourniture de service 3 implémentant le dispositif de caractérisation 33. L’émetteur 31 transmet la requête d’interaction irq au terminal de communication 1 qui la reçoit notamment au moyen d’un récepteur 13. Le récepteur 13 fournit cette requête irq au dispositif de reproduction 10, par exemple à l’écran du terminal de communication 1.
Le terminal 1 comporte une interface utilisateur 10, 11 recevant une action a de l’utilisateur U suite aux reproductions de la requête d’interaction et de l’environnement sonore spatialisé, et fournissant des données reçues ou captées di, de correspondant à cette action a. Ces données di, de sont fournies au dispositif de caractérisation 33 notamment au moyen d’un émetteur 13 du terminal de communication et un récepteur 31 implémenté dans le dispositif de caractérisation 33 et/ou dans le dispositif de fourniture de service 3 implémentant le dispositif de caractérisation 33.
Le comparateur 334 compare alors les deuxièmes données d2 provenant des données reçues ou captées di, de du terminal de communication 1 avec les premières données d1 associées à l’objet sonore sélectionné par le générateur de requête d’interaction 332. En cas de correspondance entre les premières et deuxièmes données d1, d2 alors le comparateur 334 caractérise cru=h l’utilisateur U comme approprié (par exemple utilisateur humain) et, le cas échéant, en informe le dispositif de fourniture de services 3 qui fournit alors le contenu requis.
Dans un mode de réalisation non illustré, le dispositif de caractérisation 33 est implémenté dans un terminal de communication 1 , notamment le terminal de communication 1 constituant un dispositif de fourniture de services.
Dans un mode de réalisation particulier non illustré, le dispositif de caractérisation 33 est activé par un dispositif d’accès à un dispositif tiers (terminal de communication 1 , objet connecté, équipement distant..), en particulier préalablement à l’autorisation d’accès au dispositif tiers. L’accès au dispositif tiers sera déclenché par la caractérisation de la source d’interaction comme étant un utilisateur approprié, en particulier un utilisateur humain. Eventuellement, dans le cas d’une caractérisation de la source d’interaction comme étant un utilisateur non-approprié, en particulier un utilisateur robot ou agent informatique, le procédé de caractérisation déclenche l’arrêt STP de la mise en oeuvre du procédé d’accès au dispositif tiers.
Dans un mode de réalisation particulier, le contrôleur 33 fournit une paire de filtres binauraux qui encode la localisation spatialisé de l’objet sonore au dispositif de reproduction sonore spatialisé. En particulier, lorsque l’utilisateur demande une nouvelle reproduction du même objet sonore, le contrôleur fournit une paire de filtres binauraux distincte de la paire fournit lors de la précédente reproduction. Cela engendre une légère modification de la perception de la localisation de l’objet sonore.
En effet, une paire de filtres binauraux représente la façon dont un être humain donné perçoit physiquement un son provenant d’une position donnée dans l’espace lorsqu’il arrive aux abords de ses conduits auditifs (un filtre pour l’oreille droite, un filtre pour l’oreille gauche). Les filtres binauraux sont donc individuels, et pour un humain donné, seuls ses filtres à lui permettent de lui simuler parfaitement la spatialisation sonore. Cependant, pour des positions azimutales très marquées (typiquement en face de l’oreille droite, en face de l’oreille gauche et en face du sujet), une modification des filtres binauraux ne suffisent pas à brouiller la perception spatiale. Un changement aléatoire de ces filtres à chaque captcha, soient qu’ils soient piochés dans une base de données déjà constituée, ou modifiés algorithmiquement en temps-réel permet de rendre le dispositif de caractérisation plus robuste car ajoutant une difficulté supplémentaire permettant de contourner les algorithmes de reconnaissance.
L'invention vise aussi un support. Le support d'informations peut être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique ou encore un moyen d'enregistrement magnétique, par exemple une disquette ou un disque dur.
D'autre part, le support d'informations peut être un support transmissible tel qu'un signal électrique ou optique qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau notamment de type Internet.
Alternativement, le support d'informations peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
Dans une autre implémentation, l'invention est mise en œuvre au moyen de composants logiciels et/ou matériels. Dans cette optique le terme module peut correspondre aussi bien à un composant logiciel ou à un composant matériel. Un composant logiciel correspond à un ou plusieurs programmes d'ordinateur, un ou plusieurs sous-programmes d'un programme, ou de manière plus générale à tout élément d'un programme ou d'un logiciel apte à mettre en œuvre une fonction ou un ensemble de fonction selon la description ci-dessus. Un composant matériel correspond à tout élément d'un ensemble matériel (ou hardware) apte à mettre en œuvre une fonction ou un ensemble de fonctions.
L’invention permet de rajouter une nouvelle modalité de caractérisation de l’utilisation, notamment différenciation entre un utilisateur humain et une machine utilisatrice, plus complexe à contourner de manière automatique. Elle pourrait servir de captcha aux non-voyants puisqu’elle est basée sur la reconnaissance de paramètre caractéristique relatif à un objet sonore à condition que la requête d’interaction soit reproduite de manière perceptible par un non-voyant, par exemple reproduction vocale ou reproduction en relief (aussi nommée reproduction Braille).
Dans une variante de l’invention, le procédé de caractérisation comporte un déverrouillage d’un ordinateur en obligeant l’utilisateur à mettre son casque audio, par exemple, pour une application dont l’usage du son est indispensable (ex : pub, instruction sur un site industriel, démarrage d’un audiophone après être sûr que tu entends bien, ...).
Le procédé de caractérisation utilisant le son 3D selon l’invention permet donc également de vérifier que le casque est mis dans le bon sens. C’est un captcha « augmenté » qui va au-delà de l’aspect sécurité. Cela peut permettre de déverrouiller une appli avec l’aide la position du son 3D. Dans la variante de l’invention utilisant des techniques de spatialisation de son aux moyens d’enceintes telles que les techniques transaurale, WSF, Ambisonic,5.1, etc., le procédé de caractérisation pourra éventuellement être utilisé comme une vérification de la conformité de la position de l'utilisateur par rapport à la scène sonore. Par exemple, on présente la scène sonore à l'utilisateur, on lui demande par exemple où se trouve la vache, si sa réponse est mauvaise on lui demande de se repositionner avec les instructions adaptées et on recommence. Cela est particulièrement utile dans le cadre d'une calibration d'un système sonore 3D qu'on vient d'acheter et qu'on reçoit chez soi. La manœuvre permettra de s'assurer que l'utilisateur est bien placé et profitera pleinement de la scène sonore qui lui sera offerte.

Claims

REVENDICATIONS
1. Procédé de caractérisation d’un utilisateur, le procédé de caractérisation comportant une comparaison de premières données associées à un premier objet sonore spatialisé en une première localisation d’une scène audio spatialisée par une interface utilisateur d’un terminal de communication et de deuxièmes données reçues suite à la reproduction du premier objet sonore spatialisé, les premières données étant distinctes du premier objet sonore, les deuxièmes données étant fonction d’un deuxième objet sonore spatialisé perçu en une deuxième localisation de la scène audio spatialisée, la comparaison déclenchant en cas de résultat positif une caractérisation de la source d’interaction comme étant un utilisateur approprié,.
2. Procédé de caractérisation d’un utilisateur d’un service selon la revendication précédente, dans lequel les premières données et les deuxièmes données sont une parmi les types de données suivantes :
+ un paramètre de localisation d’un objet sonore spatialisé ;
+ une catégorie de source génératrice d’un objet sonore ;
+ une réponse à une question vocalisée dans un objet sonore ;
3. Procédé de caractérisation d’un utilisateur d’un service selon l’une quelconque des revendications précédentes, dans lequel le procédé de caractérisation comporte une reproduction d’une requête d’interaction au premier objet sonore spatialisé, la requête d’interaction étant destinée à l’utilisateur, les deuxièmes données sont des données reçues suite à la reproduction de ladite requête d’interaction.
4. Procédé de caractérisation d’un utilisateur d’un service selon la revendication précédente, dans lequel la requête d’interaction comporte le type de deuxièmes données attendues lors de l’interaction.
5. Procédé de caractérisation d’un utilisateur d’un service selon la revendication précédente, dans lequel la requête d’interaction comporte en outre la deuxième localisation du deuxième objet sonore spatialisé, la deuxième localisation correspondant à la première localisation.
6. Procédé de caractérisation d’un utilisateur selon l’une quelconque des revendications précédentes, dans lequel le procédé de caractérisation d’un utilisateur caractérise l’utilisateur d’au moins un des éléments suivants :
+ un service mis en œuvre par un dispositif de fourniture de service ;
+ d’un dispositif parmi les dispositifs suivants :
- le terminal de communication ;
- un dispositif de traitement local ou réseau ;
- un dispositif de fourniture de services ;
- un équipement d’un réseau de communication auquel est connecté un terminal de communication de l’utilisateur.
7. Procédé de caractérisation selon l’une quelconque des revendications précédentes, dans lequel le procédé de caractérisation comporte un contrôle mis en œuvre par l’interface utilisateur, le contrôle contrôlant l’interface utilisateur au moyen d’une commande de reproduction spatialisée comportant le premier objet sonore et la première localisation.
8. Procédé de caractérisation selon la revendication précédente, dans lequel le contrôle déclenche une activation d’une capture de deuxièmes données par l’interface utilisateur, les données captées comportant les deuxièmes données reçues.
9. Programme comprenant des instructions de code de programme pour l’exécution des étapes du procédé de caractérisation selon l’une quelconque des revendications précédentes lorsque ledit programme est exécuté par un processeur.
10. Dispositif de caractérisation d’un utilisateur, le dispositif de caractérisation comportant un comparateur de premières données associées à un premier objet sonore spatialisé en une première localisation d’une scène audio spatialisée par une interface utilisateur d’un terminal de communication et de deuxièmes données reçues suite à la reproduction du premier objet sonore spatialisé, les premières données étant distinctes du premier objet sonore, les deuxièmes données étant fonction d’un deuxième objet sonore spatialisé perçu en une deuxième localisation de la scène audio spatialisée, le comparateur déclenchant en cas de résultat positif une caractérisation de la source d’interaction comme étant un utilisateur approprié.
11. Dispositif de fourniture de services, le dispositif de fourniture de service comportant :
+ un processeur apte à mettre en oeuvre au moins un service ;
+ une interface d’échange avec un terminal de communication ; et + un dispositif de caractérisation d’un utilisateur du service comportant un comparateur de premières données associées à un premier objet sonore spatialisé en une première localisation d’une scène audio spatialisée par une interface utilisateur du terminal de communication de l’utilisateur et de deuxièmes données reçues suite à la reproduction du premier objet sonore spatialisé, les premières données étant distinctes du premier objet sonore, les deuxièmes données étant fonction d’un deuxième objet sonore spatialisé perçu en une deuxième localisation de la scène audio spatialisée, le comparateur déclenchant en cas de résultat positif une caractérisation de la source d’interaction comme étant un utilisateur approprié et commandant au processeur la mise en oeuvre du service.
EP22732606.3A 2021-05-31 2022-05-30 Procédé et dispositif de caractérisation d'un utilisateur, et dispositif de fourniture de services l'utilisant Pending EP4348460A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2105682A FR3123467A1 (fr) 2021-05-31 2021-05-31 Procédé et dispositif de caractérisation d’un utilisateur, et dispositif de fourniture de services l’utilisant
PCT/FR2022/051010 WO2022254136A1 (fr) 2021-05-31 2022-05-30 Procédé et dispositif de caractérisation d'un utilisateur, et dispositif de fourniture de services l'utilisant

Publications (1)

Publication Number Publication Date
EP4348460A1 true EP4348460A1 (fr) 2024-04-10

Family

ID=76807810

Family Applications (1)

Application Number Title Priority Date Filing Date
EP22732606.3A Pending EP4348460A1 (fr) 2021-05-31 2022-05-30 Procédé et dispositif de caractérisation d'un utilisateur, et dispositif de fourniture de services l'utilisant

Country Status (4)

Country Link
US (1) US20240256641A1 (fr)
EP (1) EP4348460A1 (fr)
FR (1) FR3123467A1 (fr)
WO (1) WO2022254136A1 (fr)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012075175A1 (fr) * 2010-11-30 2012-06-07 Towson University Protection contre l'interaction humaine à l'aide de sons
JP5954147B2 (ja) * 2012-12-07 2016-07-20 ソニー株式会社 機能制御装置およびプログラム
US9263055B2 (en) * 2013-04-10 2016-02-16 Google Inc. Systems and methods for three-dimensional audio CAPTCHA

Also Published As

Publication number Publication date
US20240256641A1 (en) 2024-08-01
FR3123467A1 (fr) 2022-12-02
WO2022254136A1 (fr) 2022-12-08

Similar Documents

Publication Publication Date Title
US10798509B1 (en) Wearable electronic device displays a 3D zone from where binaural sound emanates
McGill et al. Acoustic transparency and the changing soundscape of auditory mixed reality
FR3059191B1 (fr) Dispositif a casque audio perfectionne
US20230335121A1 (en) Real-time video conference chat filtering using machine learning models
EP3412036B1 (fr) Procédé d'aide au suivi d'une conversation pour personne malentendante
JP7037654B2 (ja) キャプチャされた空間オーディオコンテンツの提示用の装置および関連する方法
EP3603076B1 (fr) Procédé de sélection d'au moins une partie d'image à télécharger par anticipation pour restituer un flux audiovisuel
JP2021508193A5 (fr)
US20240046914A1 (en) Assisted speech
WO2022254136A1 (fr) Procédé et dispositif de caractérisation d'un utilisateur, et dispositif de fourniture de services l'utilisant
WO2022194861A1 (fr) Système autonome et sécurisé de thérapie par immersion dans un environnement virtuel et procédé de contrôle d'un tel système de thérapie
FR3081572A1 (fr) Procede et systeme d'authentification d'un utilisateur porteur d'un dispositif d'immersion
EP4127990A1 (fr) Procédé et dispositif de contrôle d'accès
FR3102925A1 (fr) Dispositif de test audiometrique
US20240272867A1 (en) Cognitive aid for audio books
US20240144562A1 (en) Selective amplification of voice and interactive language simulator
US11163826B2 (en) Method and system for generating elements of recorded information in response to a secondary user's natural language input
US20230343349A1 (en) Digital audio emotional response filter
FR3079320A1 (fr) Procede et dispositif de traitement de donnees d' un environnement de realite virtuelle en mode perception de l'accessibilite
EP4349006A1 (fr) Procédé de communication en réalite mixte, système de communication, programme d'ordinateur et support d'informations
FR3130057A1 (fr) Réglage temporel en réalité augmentée
EP4386532A1 (fr) Procédé de gestion de fenêtres et gestionnaire de fenêtre d affichage d'un poste de travail virtuel d'un environnement immersif, procédé de gestion d environnement immersif et système de réalite immersive
WO2022229563A1 (fr) Caracterisation d'un utilisateur par association d'un son a un element interactif
FR3111503A1 (fr) Dispositif et procédé d’authentification d’un utilisateur d’un premier dispositif électronique connecté à un deuxième dispositif électronique
FR3115132A1 (fr) Procédé et dispositif de génération d’un signal haptique

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20231124

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)