EP4330838A1 - Characterisation of a user via association of a sound with an interactive element - Google Patents

Characterisation of a user via association of a sound with an interactive element

Info

Publication number
EP4330838A1
EP4330838A1 EP22727214.3A EP22727214A EP4330838A1 EP 4330838 A1 EP4330838 A1 EP 4330838A1 EP 22727214 A EP22727214 A EP 22727214A EP 4330838 A1 EP4330838 A1 EP 4330838A1
Authority
EP
European Patent Office
Prior art keywords
sound
subset
identifier
user
thumbnails
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP22727214.3A
Other languages
German (de)
French (fr)
Inventor
Nicolas PELLEN
Christian Gregoire
Katell PERON
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Publication of EP4330838A1 publication Critical patent/EP4330838A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2133Verifying human interaction, e.g., Captcha

Definitions

  • This disclosure relates to the field of computer security.
  • the present disclosure relates to a method for differentiation between a human and a machine and to a corresponding computer program and recording medium.
  • a CAPTCHA Completely Automated Public Turing-test to tell Computers and Humans Apart
  • a CAPTCHA is a test intended to differentiate a user from a program computer science. It is used in particular on forms to protect against spam, that is to say unsolicited electronic communications.
  • CAPTCHAs There are different types of CAPTCHAs, the most numerous are visual CAPTCHAs where the user is asked to enter a series of distorted letters displayed on the screen.
  • CAPTCHAs In return for such accentuated distortion, CAPTCHAs often pose difficulties even for the most seasoned users. Indeed, it is often necessary to make several attempts before responding correctly to a CAPTCHA.
  • CAPTCHA For some users, the presence of a CAPTCHA is simply prohibitive. For example, a blind user cannot fill in a visual CAPTCHA.
  • These verification systems fail to recognize some users with disabilities as human and therefore make it impossible for these users, to create accounts, to write comments or to make purchases on certain sites.
  • Some sites offer, as an alternative for users who so wish, an audio CAPTCHA in which a voice recites a sequence of numbers to be transcribed in the user's supposed language.
  • audio description is conditioned on the language of the user and his level of understanding of the language used, even native in cases of illiteracy.
  • audio description remains a barrier to accessibility for a certain number of users.
  • a method for characterizing a user is proposed, the method being implemented by a processing device, the method comprising:
  • processing device means any device capable of performing computer processing according to the proposed method. It may be, for example, a terminal for use by a user such as a television set, a computer or a multifunction telephone, or network equipment, in particular a home gateway, a set-top box, or any form of device for providing digital services and/or digital content, accessible for example via a local network and/or a wide area network.
  • first sounds such as a drum roll, a kettle whistle, thunder, etc.
  • associate, with each of these first sounds one or more first identifiers.
  • a first corresponding subset is obtained, composed of one or more first identifiers.
  • the first sound corresponding to a drum roll can thus be associated with various identifiers such as for example a word “drum”, an expression “drum roll”, different images of drums, possibly animated, etc.
  • the second sound heard by the user, corresponds to one of the first sounds.
  • the second sound may include a drum roll identical or similar to that constituting one of the examples of first sounds defined above.
  • the user then interacts with the man-machine interface so as to associate at least a second identifier with the second sound.
  • the method thus makes it possible, thanks to the comparison between at least a second identifier and a first identifier, to determine whether the identification by the user of the second sound heard is consistent with the expected identification. This makes it possible to certify, in the event of success, that the user is able to correctly identify the second sound and to conclude by characterizing the user as being an appropriate user. Conversely, this also makes it possible to characterize a user who has not succeeded in correctly identifying the second sound as being an inappropriate user, or at least not to characterize him as being an appropriate user.
  • the user will identify one of the second sounds heard prior to a question relating to one of these second sounds heard, for example, after having reproduced 5 animal cries, the following question is asked to the user: "What animal is heard third in the list of calls?" and the second identifier supplied/selected by the user for the second sound heard in the third position of the list of second sounds reproduced will be compared with the first identifier stored in association with a first sound corresponding to the second sound heard in the third position of the list second sounds reproduced.
  • the user will identify one of the second sounds heard prior to a question relating to one of these second sounds heard, for example, after having successively reproduced 5 second sounds (each sound possibly being associated with a graphic element such as a box in a mosaic), the following question is asked to the user: "In which position did you hear the or which box corresponds to the animal cry? and the second identifier provided/selected by the user for the second sound heard will be compared to the first identifier, namely in this case the position/the identifier of the box, associated with a first sound associated with the corresponding second sound heard to the animal cry from the list of second sounds reproduced.
  • the user will identify each of the second sounds heard in the order of reproduction of these second sounds heard and each of the second identifiers provided/selected by the user for each second sound heard will be compared to a first identifier stored in association with a first sound corresponding to each second sound heard from the list of second sounds reproduced.
  • a sound captcha according to the invention is a sound "memory" since the user must memorize each sound heard in order to then identify one or more sounds according to the order of reproduction which is also the order listening.
  • the expression “appropriate user” can designate, for example, a human capable of correctly identifying the second sound as opposed to a machine devoid of such a capacity.
  • the expression “appropriate user” can designate a user equipped with specific equipment, such as an audio output capable of broadcasting the second sound to allow the user to hear it, or such as an audio input capable of capturing the second sound as it is heard by the user, as opposed to a user not equipped with such hardware.
  • the method comprises:
  • - a command to broadcast a sound extract - a command for displaying a set of thumbnails, the set of thumbnails displayed comprising a first subset formed of at least one thumbnail, the first subset being associated with the sound extract broadcast,
  • a command for displaying a set of thumbnails a thumbnail being superimposed respectively on a play button, the set of thumbnails displayed comprising a first subset of thumbnails formed of at least one thumbnail, the first subset -set of thumbnails being superimposed on a subset of buttons associated with said subset of sound extracts, - reception of at least one selection signal from a man-machine interface, a signal being indicative of a selection of a thumbnail from the set of thumbnails displayed,
  • the user performs, in the first example of variation of the method, an association between a sound, that is to say the sound extract broadcast, and at least one image, that is to say say at least one of the thumbnails displayed, by interaction with this thumbnail or thumbnails.
  • the general principle is the same.
  • the user makes an association between an image, the one displayed, and at least one sound, that is to say at least one of the sound extracts broadcast, by interaction with at least one of the thumbnails displayed.
  • the comparison test makes it possible to verify whether the association made by the user corresponds to an association actually expected, characteristic of an association that a human would make. If so, then the user can be identified as a human, otherwise the user is identified as a machine.
  • first and second identifiers are not restricted to an image or a thumbnail.
  • Each first identifier and each second identifier can for example have one type of identifier from among the following:
  • - at least one word i.e. a word, an expression, a definition, a short text, etc.
  • a label associated with an object such as a barcode, QR code, FNC tag, etc. allowing the user to select the second identifier in a real or virtual environment,
  • the user generally makes an association between the second sound and a second identifier of any type (image, text, or label in particular) via a man-machine interface.
  • This second identifier is then compared with a subset of first identifiers for the purposes of characterizing the user as appropriate or not.
  • a computer program is also proposed comprising instructions for implementing the above method when this program is executed by a processor.
  • a non-transitory recording medium readable by a computer on which the above program is recorded is also proposed.
  • Such a recording medium can be any entity or device capable of storing the program.
  • the medium may comprise a storage means, such as a ROM, for example a CD ROM or a microelectronic circuit ROM, or even a magnetic recording means, for example a USB key or a hard disk.
  • a recording medium can be a transmissible medium such as an electrical or optical signal, which can be conveyed via an electrical or optical cable, by radio or by other means, so that the computer program it contains can be executed remotely.
  • the program according to the invention can in particular be downloaded onto a network, for example the Internet network.
  • the recording medium may be an integrated circuit in which the program is incorporated, the circuit being adapted to execute or to be used in the execution of the aforementioned management method.
  • processing device capable of implementing characterization processing of a user on command from a man-machine interface, in which the processing device comprises:
  • a comparator able to compare at least a first identifier of a first sound and at least a second identifier received from a man-machine interface, the second identifier being received after a reproduction of a plurality of second sounds by the interface man-machine, the comparator triggering, if the second identifier received corresponding to the first identifier, a characterizer capable of characterizing the user as being an appropriate user.
  • the above method may optionally include certain additional functions as defined below.
  • the method may comprise reception of at least one signal originating from a man-machine interface, the signal comprising the second identifier of the second sound heard.
  • the signal may be a voice recording of the user reading, or naming, a second identifier in the form of text.
  • the signal can result from a tactile interaction of the user with a button on a screen, this button representing the second identifier in the form of a text or an image.
  • the signal may be the result of an analysis of an acquired image displaying the second identifier in the form of a label associated with an object, this label that can be real, for example a QR code, or virtual, such as an augmented reality tooltip.
  • the method may comprise a command to reproduce a sound extract comprising a first sound associated with one of the first subsets of first identifiers of first sounds, the second sound heard comprising the first sound reproduced.
  • the comparison between the first subset of first identifiers of the first sound and the second identifier received from the man-machine interface is intended to assess whether a user has heard and correctly identified the first sound. , Already known.
  • the method may include a command to capture the second sound heard, the capture triggering a comparison of the second sound heard with at least one first sound associated with a first subset of identifiers.
  • the comparison between the first subset of first identifiers of the first sound and the second identifier received from the man-machine interface is intended to assess whether the second sound, potentially unknown, finds a match. with a first sound, known, within a database of first sounds.
  • the method may include a display command for a set of thumbnails, the set of thumbnails displayed comprising at least one identifier of a first subset associated with the second sound heard. This is particularly the case in the first variation above.
  • the method may include:
  • the comparison being carried out between at least a first subset of first identifiers of a first sound and at least a second identifier of the second subset, the comparison triggering, if at least a second identifier or all the second identifiers of the second subset received belong to the first subset associated with a first sound corresponding to the second sound heard, characterizing the user as being an appropriate user.
  • the user can thus provide a beam of information identifying the second sound heard, this beam being compared with a beam of reference information identifying a first known sound similar to the second sound heard.
  • the comparison may comprise a determination of a resemblance metric, for example 100% resemblance if the second identifiers of the second subset are strictly identical to the first identifiers of the first subset and 0% resemblance if none of the second identifiers of the second subset are also found in the first subset and vice versa.
  • This resemblance metric can for example be compared to a threshold beyond which the user is characterized as being an appropriate user. This allows the user some leeway in determining the second identifiers, instead of simply considering the user to be inappropriate if the user's identification of the second sound differs slightly. of the expected identification.
  • the method can comprise a selection of said at least one first subset of first identifiers in a base of first identifiers on the basis of a correspondence table associating, with each first identifier of the base, a class respectively.
  • each subset of first identifiers belongs to a different class.
  • several subsets of first identifiers can be selected, each being associated with a corresponding first sound, the first sounds in question being of a different type (ringing, roaring, whistling, etc.), or being associated with a different theme ( vehicle, everyday object, animal, ambient noise, etc.).
  • the notion of sound classes is also described below using various examples, a class of first identifiers that can be associated with such a class of sounds.
  • provision may be made for the selection of said at least one first subset of first identifiers from the base of first identifiers to be further based on the class associated with the sound clip selected as the second sound.
  • each first identifier of the first subset of first identifiers associated with the first sound corresponding to the second sound represents the given element.
  • the second sound may for example be an animal cry, or an operating noise of a device, or even a noise resulting from a meteorological event.
  • Such sound clips have the common advantage of having an easily representable source, in an unambiguous manner for a human being, in visual form.
  • each identifier of a first subset of first identifiers being associated with the corresponding animal.
  • each identifier of a first subset of first identifiers is associated with the corresponding device.
  • the method can include a selection of the second sound in a base of sound extracts on the basis of a correspondence table associating, with each sound extract of the base, a respective class.
  • Classes of sounds can be defined, for example, by grouping together sounds having a source of the same type, for example the noise of rain and the noise of the wind can be grouped together as noises coming from nature, while that a meow and a bark can be grouped together as pet calls.
  • the formation of such classes of sounds, or of noises or sound effects, is known to those skilled in the art.
  • classes of sounds can be defined by grouping together sounds having similarities, for example in terms of frequency spectrum.
  • the first variation of the above method may comprise a selection of the set of thumbnails in a thumbnail database on the basis of a correspondence table associating, with each thumbnail of the database, a respective class .
  • the latter can analogously comprise a selection of the image in an image database on the basis of a correspondence table associating, with each image of the base, a respective class.
  • Classes of images or thumbnails can be defined so that a class corresponds to the same entity represented, or an entity of the same type.
  • a class of images can be formed of images representing an animal, and a subclass of this class of images can be formed solely of images representing a horse.
  • the formation of such classes of images or thumbnails is known to those skilled in the art.
  • the selection of the set of thumbnails in a thumbnail database, or of the image in an image database, can also be performed on the basis of the class associated with at least one selected sound extract.
  • a sound extract belonging to a given class for example a vacuum cleaner noise belonging to a class of noises from household appliances.
  • vignettes representing a vacuum cleaner it is possible to select one, or several, vignettes representing a vacuum cleaner and provide that the other vignettes of the set of vignettes must be selected from classes of vignettes other than that representing household appliances.
  • the set of thumbnails may also comprise a third subset formed of at least one thumbnail, and said method may comprise:
  • the third subset may for example be formed of one or more thumbnails of the same class as that of the first subset. So Generally, the third subset can represent an entity capable of emitting a noise close to that emitted by the entity represented by the thumbnail(s) of the first subset.
  • the first subset can represent a kettle
  • the third subset can represent a roof window in the rain.
  • the hissing of the kettle and the impacts of the rain on the roof window have similarities.
  • This principle can be applied analogously in the second version of the method, by displaying an image and selecting different sound extracts on the basis of this image, so as to have a first group and a second group.
  • disjoint sound clips each having a reasonable probability of corresponding to noises emitted by the entity depicted in the image, and a third group of sound clips clearly unrelated to the entity depicted in the image .
  • the user can associate the first group or the second group of sound extracts with the displayed image and thus be identified as being a human while at the same time offering the possibility of characterizing the group of sound extracts associated with the picture displayed.
  • FIG. 1 illustrates an example of a graphical interface as part of the implementation of a process for differentiating between a human and a machine.
  • FIG. 2 illustrates in an exemplary embodiment, a variant of the graphic interface of FIG. Fig. 3
  • FIG. 3 illustrates, in an exemplary embodiment, a general algorithm of a computer program for implementing a method for differentiating between a human and a machine.
  • FIG. 4 illustrates, in an exemplary embodiment, another variant of the graphic interface of figure 1 .
  • FIG. 5 illustrates, in an exemplary embodiment, a variant of the algorithm of figure 3.
  • FIG. 6 illustrates, in an exemplary embodiment, a system for implementing a method for differentiating between a human and a machine.
  • FIG. 7 illustrates, in an exemplary embodiment, another variant of the graphic interface of figure 1 .
  • the general principle of the invention is based on the identification, by a user, of a sound heard. This identification made by the user is then compared to an expected result.
  • the expected result takes the form of a first subset of first identifiers of a “first sound” corresponding to the sound heard, the sound heard being referred to below as a “second sound”, and -
  • the identification made by the user when hearing the second sound takes the form of at least one second identifier received from a man-machine interface.
  • the user is characterized as being an appropriate user only if the at least one second identifier received belongs to the first subset. Otherwise, the user is characterized as an inappropriate user.
  • the invention finds many applications in particular in the field of access control to digital services and spam prevention.
  • the invention can be used, when receiving a message to be published, to characterize the author of the message as being a human or a machine.
  • the publication of the received message can only be triggered, for example, if the author of the message is characterized as being a human.
  • the invention can be implemented, when controlling access to digital content having an audio component, to determine whether a user at the origin of a request for access to digital content is equipped with specific equipment, in this case an audio reproduction device such as a headset or earphones.
  • access to digital content may only be triggered, for example, if the user initiating the request is actually able to listen to the audio component.
  • a graphical interface is a man-machine interface, that is to say a man-machine dialogue device, in which the objects to be manipulated are drawn in the form of pictograms on a screen, with which the user can interact by means of for example from a pointing device such as a mouse or by digital pressure in the case of a touch screen.
  • An upper section comprises instructions, in textual form, intended for the user, as well as a button for playing (11) a sound extract comprising a second sound as defined above, and a button volume control (12).
  • the sound extracts to which reference is made in the context of the invention are likely to belong to any class of sounds mentioned above, and to any subclass within these classes. , excluding, however, specifically, the intelligible human voice and the sounds attached to a musical genre, insofar as it is desired to overcome linguistic and cultural barriers.
  • a first instruction is to listen to the sound extract by interacting with the play button (11).
  • the volume adjustment button (12) is provided to optimize the user's listening comfort.
  • an additional button can be provided at the end of reading to allow the sound extract to be listened to again.
  • a middle section displays a set (2) of interactive elements, in this case a set of thumbnails (21-29).
  • the vignettes each represent either an animal having a generally recognizable cry or a device having a characteristic operating noise.
  • a second instruction is to interact with the thumbnail evoking the second sound.
  • the user is expected to interact only with the interactive element associated with such a second sound, here the thumbnail representing a horse (28).
  • the second sound is an engine roar
  • the user interacts with the interactive element associated with such a second sound, here the thumbnail representing a car (29).
  • the thumbnail representing a car here the thumbnail representing a car (29).
  • other interactions can also be accepted.
  • a human interacts alternately with the thumbnail representing a police car (26), or even with that representing an airplane (21).
  • thumbnails are nine in number, distributed in a grid of three by three.
  • a lower section offers to reset the graphical interface by means of a reset button (31), in order to allow, if the user wishes, to listen to a new second sound then to identify an interactive element corresponding to this new second sound.
  • Figure 2 is a variant of Figure 1, in which the interactive elements also happen to be thumbnails and in which, after having listened to a second sound, the user is asked to no longer select the interactive element corresponding to this second sound, but all the interactive elements, here all the thumbnails corresponding to this second sound from among a set (4) of interactive elements, here thumbnails (41-49).
  • the second sound can be an extract from a sound recording of a kettle heating water, or a synthetic sound reproducing such a sound extract.
  • thumbnails displayed, a first subset of thumbnails, formed of thumbnails (43, 44) each representing a kettle, with each of which an interaction on the part of the user is expected.
  • These thumbnails can thus be associated beforehand, within a correspondence table, with the sound extract indicative of the kettle in operation.
  • thumbnails formed of the thumbnails with which the user will have actually performed an interaction. More generally, it is possible to define within the set (2) of interactive elements a second subset of interactive elements respectively associated with a second identifier, thus forming a second subset of associated identifiers, by user when hearing a second sound, to this second sound.
  • thumbnails displayed that are not part of the first subset it is possible that some are previously associated, within a correspondence table, with a sound extract different from that indicative of the kettle in operation.
  • the thumbnail (49) at the bottom right of the set of thumbnails shown in Figure 2 may be associated with a sound sample indicative of thunder.
  • a secondary objective to the characterization of a user as being appropriate or not, for example to the differentiation between a human and a machine, can be to qualify a given sound extract.
  • two interactive elements for example two vignettes (43, 44), as a first subset of vignettes, each representing a kettle, and - an interactive element, for example a thumbnail (42), as a third subset of thumbnails, representing a roof window in the rain.
  • Figure 3 illustrates a general algorithm of a computer program, for example in connection with one or other of the graphical interfaces of Figures 1 and 2, for the implementation of a method for differentiating between a human and a machine.
  • this computer program can be executed, for example, by one or more processing circuits on the server side, while the interaction with the user takes place on the client side.
  • the display of the graphical interface takes place at the level of a terminal on the client side, this terminal possibly being for example a multifunction telephone or "smartphone", a laptop or desktop computer, or a set-top box connected to a television, or network equipment for the provision of services and/or digital content.
  • the user can interact, still on the client side, with the graphical interface by means for example of a touch interface, a remote control, a pointing device.
  • the computer program described below can be implemented exclusively on the server side, with the aim of preventing attempts to circumvent the man-machine differentiation.
  • a sound extract, as defined above, is selected (S1) from a database of sound extracts.
  • thumbnails are selected (S2) from a base of interactive elements, here of thumbnails, thus forming a set of interactive elements, here of thumbnails.
  • S2 several interactive elements, here several thumbnails
  • 4, 6, 8, 9, 12, 15, or 16 initial thumbnails can be selected to be displayed simultaneously on a 2x2, 2x3, 2x4, 3x3, 3x4, 3x5, or 4x4 grid, respectively.
  • One or more additional thumbnails can also be selected with a view to being displayed later, replacing an initial thumbnail having been the subject of an interaction via a man-machine interface.
  • one or more of the selected interactive elements represent or are associated with an entity that can be uniquely associated by a human with the selected sound clip
  • one or more of the remaining interactive elements represent an entity that can be considered by a human, unequivocally, as unrelated to the selected sound clip.
  • This objective can be achieved for example by means of statistical learning.
  • the same second sound can be broadcast to a large number of human users while the same set of thumbnails is simultaneously presented to them. Human users may then be asked to indicate one or more thumbnails corresponding to the sound clip broadcast.
  • the first subset of interactive elements is then determined (S3).
  • the first subset of interactive elements is defined as being formed by the interactive element(s) of the set of interactive elements for which an interaction is expected from a user when hearing a second sound corresponding to said first sound.
  • the first subset of interactive elements designates, in this example, the interactive elements of the set of interactive elements selected which are associated to the first selected sound.
  • a command is issued to trigger the display of a graphical interface such as, for example, that of Figure 1 or that of Figure 2.
  • the command triggers the display of the set of interactive elements, here of the selected set of thumbnails (S4) on a display device such as a screen, and can also trigger the display of a play button to start playing the selected sound clip.
  • the play button is optional, alternatively any other mechanism triggering the playback of the selected sound extract comprising the second sound can be used.
  • the playback of the sound clip and the display of the set of thumbnails can be triggered, automatically, at the same time.
  • playback of the ssoonnoorree snippet can be triggered automatically after a predefined time expires. This allows the user to prepare, by taking note of the thumbnails as well as the fact that a sound extract is going to be broadcast.
  • the user is offered to select, from among the set of thumbnails displayed, a thumbnail, or alternatively several thumbnails, corresponding to the selected sound extract.
  • the thumbnails displayed can become interactive, so that the user can interact, by means of a man-machine interface such as described above, with one or more of these thumbnails.
  • a selection signal or several selection signals, indicating a user interaction by means of a human-machine interface with one or more thumbnails of the set of thumbnails is received (S5).
  • a selection signal can be transmitted to the server side in order to be interpreted there.
  • This second selection signal comprises one or more second identifiers.
  • a second subset of thumbnails is determined (S51). This second subset of thumbnails is formed of the thumbnail with which the user has actually interacted, or the thumbnails with which the user has actually interacted.
  • thumbnails formed exclusively of the thumbnail or thumbnails with which a human user was expected to interact because these thumbnails are associated with the selected sound clip
  • thumbnails consisting exclusively of the thumbnail(s) with which the user actually interacted during or after the broadcast of the selected sound clip.
  • This first subset of first identifiers and this or these second identifiers are then compared (S6) with a view to identifying (S7) the user as being appropriate or as not being appropriate, according to predefined rules.
  • the comparison can return several types of results.
  • the result of the comparison can indicate that the first and the second subset of thumbnails are identical. This means that the user has correctly identified all the thumbnails that he was asked to associate with the selected sound clip.
  • An example of a predefined rule can provide that when the comparison returns such a result, then the user is identified as being a human.
  • the result of the comparison may indicate that the first and the second subset of thumbnails have no element in common. This means that the user has certainly interacted with one or more thumbnails, but has not correctly identified any of the thumbnails that he was asked to associate with the selected sound clip.
  • An example of a predefined rule can provide that when the comparison returns such a result, then the user is identified as being a machine.
  • a possible example of a predefined rule is to identify the user as a machine when the first and the second subset of thumbnails are not strictly identical.
  • additional rules can be predefined to take account of certain cases where the first and the second subset of thumbnails partially overlap.
  • the result of the comparison may indicate that the first subset of thumbnails includes all the thumbnails of the second subset of thumbnails, as well as one or more additional thumbnails. The user therefore correctly selected only part of the thumbnails which were expected to associate them with the selected sound clip, and did not select any other thumbnail.
  • a predefined rule can, for example, require direct conclusion of the human-machine differentiation by identifying the user as being a human, in order to pursue a general objective of ergonomics.
  • a predefined rule can for example provide:
  • Turing test to definitively identify the user as a human or as a machine.
  • the algorithm described above can make it possible, optionally, not only to identify a user as being a human or as being a machine, but also to enrich a database associating sound clips with thumbnails representing each a source entity of such a sound clip.
  • a database can for example be used downstream to perform sound recognition from recordings.
  • one or more of the selected thumbnails represent an entity that can be uniquely associated by a human with the selected sound clip
  • thumbnails represent an entity that can be considered by a human, unequivocally, as unrelated to the selected sound clip.
  • This selected sound extract can be associated, in a correspondence table, with a first group of thumbnails from a database of thumbnails and representing mowers.
  • thumbnail database a second group of thumbnails representing animals, musical instruments, or other entities that are not likely to emit a sound resembling the sound of a lawn mower engine.
  • the thumbnails of this second group of thumbnails can be associated, in the correspondence table, with an indication according to which they are unrelated to the selected sound extract.
  • thumbnail database a third group of thumbnails representing another device fitted with a motor, for example a moped, and capable as such of emitting a sound similar to that of a lawnmower engine.
  • the selection of the set of thumbnails can thus provide, in this new iteration, for selecting one or more thumbnails from each of the three groups of thumbnails defined above.
  • the set of vignettes thus comprises:
  • thumbnails representing various entities, for example animals or musical instruments
  • a third subset of thumbnails formed of the thumbnails selected within the third group of thumbnails (here thumbnails representing mopeds).
  • This third subset of vignettes is determined (S31) as designating a subset of vignettes whose relationship with the selected sound extract is undefined at the time of their selection.
  • the selected set of thumbnails is displayed, the selected sound extract is played, then at least one selection signal is received.
  • This signal comes from a man-machine interface and is indicative of a selection of one or more thumbnails from the set of thumbnails displayed. [0169] After identification, on the basis of this selection signal received, of a second subset formed of each selected thumbnail, it is possible to carry out a comparison (S61) between the third subset of thumbnails and the second subset of thumbnails. In this example, it is therefore determined whether or not the thumbnails selected by the user represent mopeds.
  • thumbnail here representing a moped
  • this makes it possible to determine whether the user, identified as being a human, considers that this thumbnail represents, or not, a entity capable of emitting a noise corresponding to such a sound extract.
  • Figure 4 shows an example of a variant of the graphical interfaces of Figures 1 and 2.
  • a plurality of play buttons (11) are displayed, here nine play buttons distributed in the form of a 3 ⁇ 3 grid.
  • the play button with which the interaction is currently performed can animate, for example in the form of an emphasis.
  • a set (2) of vignettes is then superimposed on the play buttons (11).
  • each play button is replaced with a corresponding thumbnail.
  • an image (13) representing an entity likely to have generated one of the sound clips having been broadcast to the user is displayed. This image (13) is associated with the sound clip in question.
  • Figure 5 illustrates an example of a variant of the algorithm shown in Figure 3, this variant being linked for example to the graphical interface shown in Figure 4.
  • An image associated with one of the selected sound extracts and representing an entity likely to have emitted, or capable of emitting, this sound extract selected, is also selected (S2), for example in an image database.
  • a subset of sound extracts is determined (S3), it is defined as designating the sound extract associated with the selected image.
  • buttons are displayed simultaneously (S41). These buttons are interactive and respectively associated with one of the selected sound clips. A user can therefore act successively with each play button and thus listen successively to each of the selected sound extracts.
  • thumbnails of the set of thumbnails it is possible to define a first subset of thumbnails as formed of the thumbnail superimposed on the play button having triggered the sound clip associated with the selected image.
  • the selected image represents a cat and if the interaction with the play button located at the top left of a grid of 3x3 play buttons has triggered the emission of a sound extract, associated to the selected image and corresponding to a meow, then the first subset of thumbnails is formed of the thumbnail located at the top left of a grid of 3x3 thumbnails.
  • the user is invited to interact, specifically, with the thumbnail having the same position as the play button that triggered the sound clip associated with the selected image.
  • a signal indicating this interaction is received (S5) and based on this signal, a second subset of thumbnails is determined (S51).
  • the second thumbnail subset is the thumbnail with which the user actually interacted.
  • a comparison test can be carried out (S6) between, on the one hand, the first subset of thumbnails and, on the other hand, the second subset of thumbnails and, on the basis of the result of this test, identifying (S7) the user either as a human or as a machine.
  • FIG. 6 represents an example of a system capable of implementing any of the algorithms described above.
  • the system comprises a first processing circuit (100) and a second processing circuit (200) connected through a network (300), for example the Internet network or a local network.
  • a network for example the Internet network or a local network.
  • the first processing circuit comprises at least one processor (101) connected to a memory (102) and to a network communication interface (103)
  • the first processing circuit (100) can for example be integrated into a desktop or portable computer, into a network gateway, into a computer server or, more generally, into any computer or network equipment.
  • the second processing circuit (200) also comprises at least one processor (201) connected to a memory (202) and to at least one communication interface (203), in particular a network communication interface, thereby enabling communication with the first processing circuit (100) via the network (300).
  • the second processing circuit (200) designates a network equipment such as a decoder box or a terminal such as a multifunction telephone and is intended to be used to provide a service to one or more users.
  • the second processing circuit (200) is also connected to a visual reproduction peripheral (204) such as a screen or a video projector to display a graphic interface, a sound reproduction peripheral such as a loudspeaker which may optionally be integrated into the visual reproduction peripheral, and a man-machine interface (205), for example voice or touch, via which a user can interact with the graphical interface displayed.
  • a visual reproduction peripheral (204) such as a screen or a video projector to display a graphic interface
  • a sound reproduction peripheral such as a loudspeaker which may optionally be integrated into the visual reproduction peripheral
  • a man-machine interface for example voice or touch
  • Figure 7 illustrates yet another example of a variant of the graphical interfaces shown in Figures 1, 2 and 4.
  • the graphical interface of Figure 7 includes a button (11) for controlling playback of a second sound, a series (2) of interactive elements during the audition of the second sound, and a reset button (31).
  • the user is considered to be an appropriate user when he is equipped with a sound sensor making it possible to pick up the second sound.
  • the second sound can then be compared to a database of first sounds so as to identify therein a first sound having a resemblance to the second sound.
  • At least one second identifier, resulting from the interaction of the user to characterize this second sound can then be compared to a first subset of first identifiers associated with the first sound thus identified, for characterize, according to a predefined rule, the user as being or not being an appropriate user.
  • the result of this last comparison can make it possible to identify the user as being equipped with a sound sensor, and consequently to determine that the user is an appropriate user.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The invention relates to a method for characterising a user and to a corresponding computer program, storage medium and processing device. The method comprises a comparison (S6) between at least a first sub-set of first identifiers of a first sound and at least one second identifier received from a human-machine interface, while a second sound is being listened to by a user of the human-machine interface. The comparison triggers, if the at least one received second identifier belongs to the first sub-set associated with a first sound corresponding to the expected second sound, a characterisation of the user as being a suitable user.

Description

Description Description

Titre : Caractérisation d’un utilisateur par association d’un son à un élément interactif Title: Characterization of a user by association of a sound with an interactive element

Domaine technique Technical area

[0001] La présente divulgation relève du domaine de la sécurité informatique. [0001] This disclosure relates to the field of computer security.

[0002] Plus particulièrement, la présente divulgation porte sur un procédé pour une différenciation entre un humain et une machine et sur un programme informatique et un support d’enregistrement correspondants. More particularly, the present disclosure relates to a method for differentiation between a human and a machine and to a corresponding computer program and recording medium.

Technique antérieure Prior technique

[0003] Un CAPTCHA (« Completely Automated Public Turing-test to tell Computers and Humans Apart », en français « Test public de Turing complètement automatisé pour différencier les humains des ordinateurs ») est un test destiné à différencier un utilisateur d’un programme informatique. Il est employé notamment sur des formulaires pour se prémunir du spam, c’est-à-dire des communications électroniques non sollicitées. [0003] A CAPTCHA ("Completely Automated Public Turing-test to tell Computers and Humans Apart") is a test intended to differentiate a user from a program computer science. It is used in particular on forms to protect against spam, that is to say unsolicited electronic communications.

[0004] Il existe différents types de CAPTCHA, les plus nombreux sont les CAPTCHAs visuels où on demande à l’utilisateur de saisir une série de lettres déformées affichées à l’écran. [0004] There are different types of CAPTCHAs, the most numerous are visual CAPTCHAs where the user is asked to enter a series of distorted letters displayed on the screen.

[0005] Une déformation accentuée est essentielle en termes de sécurité informatique. En effet, la reconnaissance d’image étant très répandue il est de plus en plus aisé à un robot informatique de détourner ce genre de briques de sécurité. [0005] An accentuated deformation is essential in terms of computer security. Indeed, image recognition being very widespread, it is increasingly easy for a computer robot to hijack this kind of security bricks.

[0006] En contrepartie d’une telle déformation accentuée, les CAPTCHAs posent souvent des difficultés même pour les utilisateurs les plus aguerris. En effet il est souvent nécessaire d’effectuer plusieurs tentatives avant de répondre correctement à un CAPTCHA. [0006] In return for such accentuated distortion, CAPTCHAs often pose difficulties even for the most seasoned users. Indeed, it is often necessary to make several attempts before responding correctly to a CAPTCHA.

[0007] Pour certains utilisateurs, la présence d’un CAPTCHA est tout simplement rédhibitoire. Par exemple, un utilisateur non-voyant ne peut pas renseigner un CAPTCHA visuel. Ces systèmes de vérification échouent à reconnaître certains utilisateurs handicapés comme humains et rendent donc impossible, pour ces utilisateurs, de créer des comptes, d’écrire des commentaires ou d’effectuer des achats sur certains sites. [0007] For some users, the presence of a CAPTCHA is simply prohibitive. For example, a blind user cannot fill in a visual CAPTCHA. These verification systems fail to recognize some users with disabilities as human and therefore make it impossible for these users, to create accounts, to write comments or to make purchases on certain sites.

[0008] Certains sites proposent, comme alternative pour les utilisateurs qui le souhaitent, un CAPTCHA audio dans lequel une voix récite une suite de chiffres à retranscrire dans la langue supposée de l’utilisateur. [0008] Some sites offer, as an alternative for users who so wish, an audio CAPTCHA in which a voice recites a sequence of numbers to be transcribed in the user's supposed language.

[0009] Néanmoins, l’audio-description est conditionnée à la langue de l’utilisateur et à son niveau de compréhension de la langue utilisée, même native dans des cas d’illettrisme. Ainsi, l’audio-description reste une barrière à l’accessibilité pour un certain nombre d’utilisateurs. [0009] Nevertheless, the audio description is conditioned on the language of the user and his level of understanding of the language used, even native in cases of illiteracy. Thus, audio description remains a barrier to accessibility for a certain number of users.

[0010] Il existe donc un besoin pour une nouvelle modalité de différenciation homme-machine s’affranchissant des barrières du langage, aux fins d’une accessibilité accrue. [0010]There is therefore a need for a new method of man-machine differentiation that overcomes language barriers, for the purposes of increased accessibility.

Résumé Summary

[0011] La présente divulgation vient améliorer la situation. [0011] This disclosure improves the situation.

[0012] Il est proposé un procédé de caractérisation d’un utilisateur, le procédé étant mis en œuvre par un dispositif de traitement, le procédé comprenant : [0012] A method for characterizing a user is proposed, the method being implemented by a processing device, the method comprising:

- une comparaison entre au moins un premier identifiant d’un premier son et au moins un deuxième identifiant reçu d’une interface homme-machine, le deuxième identifiant étant reçu après une reproduction d’une pluralité de deuxièmes sons par l’interface homme-machine, la comparaison déclenchant, si le deuxième identifiant reçu correspondant au premier identifiant, une caractérisation de l’utilisateur comme étant un utilisateur approprié. - a comparison between at least a first identifier of a first sound and at least a second identifier received from a man-machine interface, the second identifier being received after a reproduction of a plurality of second sounds by the man-machine interface machine, the comparison triggering, if the second identifier received corresponding to the first identifier, a characterization of the user as being an appropriate user.

[0013] On entend par « dispositif de traitement » tout dispositif apte à effectuer un traitement informatique selon le procédé proposé. Il peut s’agir, par exemple, d’un terminal à l’usage d’un utilisateur tel qu’un téléviseur, un ordinateur ou un téléphone multifonctions, ou d’un équipement réseau, notamment une passerelle domestique, un boîtier décodeur, ou toute forme de dispositif de fourniture de services numériques et/ou de contenus numériques, accessible par exemple via un réseau local et/ou un réseau étendu. [0014] On peut définir par exemple plusieurs premiers sons, tels qu’un roulement de tambour, un sifflement de bouilloire, le tonnerre, etc... et associer, à chacun de ces premiers sons, un ou plusieurs premiers identifiants. Ainsi, on obtient, pour chacun de ces premiers sons, un premier sous-ensemble correspondant, composé d'un ou de plusieurs premiers identifiants. Le premier son correspondant à un roulement de tambour peut ainsi être associé à divers identifiants tels que par exemple un mot « tambour », une expression « roulement de tambour », différentes images de tambours, éventuellement animées, etc. [0013] The term "processing device" means any device capable of performing computer processing according to the proposed method. It may be, for example, a terminal for use by a user such as a television set, a computer or a multifunction telephone, or network equipment, in particular a home gateway, a set-top box, or any form of device for providing digital services and/or digital content, accessible for example via a local network and/or a wide area network. [0014] It is possible, for example, to define several first sounds, such as a drum roll, a kettle whistle, thunder, etc., and associate, with each of these first sounds, one or more first identifiers. Thus, for each of these first sounds, a first corresponding subset is obtained, composed of one or more first identifiers. The first sound corresponding to a drum roll can thus be associated with various identifiers such as for example a word “drum”, an expression “drum roll”, different images of drums, possibly animated, etc.

[0015] On considère que le deuxième son, entendu par l’utilisateur, correspond à l’un des premiers sons. Par exemple, le deuxième son peut comprendre un roulement de tambour identique ou similaire à celui constituant l’un des exemples de premiers sons définis ci-avant. L’utilisateur interagit alors avec l’interface homme-machine de manière à associer au moins un deuxième identifiant au deuxième son. [0015] It is considered that the second sound, heard by the user, corresponds to one of the first sounds. For example, the second sound may include a drum roll identical or similar to that constituting one of the examples of first sounds defined above. The user then interacts with the man-machine interface so as to associate at least a second identifier with the second sound.

[0016] Le procédé permet ainsi, grâce à la comparaison entre au moins un deuxième identifiant et un premier identifiant, de déterminer si l’identification par l’utilisateur du deuxième son entendu est conforme à l’identification attendue. Ceci permet d’attester, en cas de succès, que l’utilisateur est apte à identifier correctement le deuxième son et de conclure en caractérisant l’utilisateur comme étant un utilisateur approprié. A l’inverse, ceci permet aussi de caractériser un utilisateur n’ayant pas réussi à identifier correctement le deuxième son comme étant un utilisateur inapproprié, ou a minima de ne pas le caractériser comme étant un utilisateur approprié. The method thus makes it possible, thanks to the comparison between at least a second identifier and a first identifier, to determine whether the identification by the user of the second sound heard is consistent with the expected identification. This makes it possible to certify, in the event of success, that the user is able to correctly identify the second sound and to conclude by characterizing the user as being an appropriate user. Conversely, this also makes it possible to characterize a user who has not succeeded in correctly identifying the second sound as being an inappropriate user, or at least not to characterize him as being an appropriate user.

[0017] Dans un premier mode de réalisation particulier, l’utilisateur identifiera un des deuxièmes sons entendus préalablement à une question relative à un de ces deuxièmes sons entendus, par exemple, après avoir reproduit 5 cris d’animaux, la question suivante est posée à l’utilisateur : « Quel est l’animal entendu en troisième dans la liste de cris? » et le deuxième identifiant foumi/sélectionné par l’utilisateur pour le deuxième son entendu en troisième position de la liste de deuxièmes sons reproduits sera comparé au premier identifiant stocké en association avec un premier son correspondant au deuxième son entendu en troisième position de la liste de deuxièmes sons reproduits. [0018] Dans un deuxième mode de réalisation particulier, l’utilisateur identifiera un des deuxièmes sons entendus préalablement à une question relative à un de ces deuxièmes sons entendus, par exemple, après avoir reproduit successivement 5 deuxièmes sons (chaque son étant éventuellement associé à un élément graphique telle qu’une case d’une mosaïque) , la question suivante est posée à l’utilisateur : « En quel position avez-vous entendu le ou quelle est la case correspond au cri d’animal? » et le deuxième identifiant fourni/sélectionné par l’utilisateur pour le deuxième son entendu sera comparé au premier identifiant, à savoir en l’occurrence la position/l’identifiant de la case, associé avec un premier son associé au deuxième son entendu correspondant au cri d’animal de la liste de deuxièmes sons reproduits. In a first particular embodiment, the user will identify one of the second sounds heard prior to a question relating to one of these second sounds heard, for example, after having reproduced 5 animal cries, the following question is asked to the user: "What animal is heard third in the list of calls?" and the second identifier supplied/selected by the user for the second sound heard in the third position of the list of second sounds reproduced will be compared with the first identifier stored in association with a first sound corresponding to the second sound heard in the third position of the list second sounds reproduced. In a second particular embodiment, the user will identify one of the second sounds heard prior to a question relating to one of these second sounds heard, for example, after having successively reproduced 5 second sounds (each sound possibly being associated with a graphic element such as a box in a mosaic), the following question is asked to the user: "In which position did you hear the or which box corresponds to the animal cry? and the second identifier provided/selected by the user for the second sound heard will be compared to the first identifier, namely in this case the position/the identifier of the box, associated with a first sound associated with the corresponding second sound heard to the animal cry from the list of second sounds reproduced.

[0019] Dans un troisième mode de réalisation particulier, l'utilisateur identifiera chacun des deuxièmes sons entendus dans l’ordre de reproduction de ces deuxièmes sons entendus et chacun des deuxièmes identifiants fournis/sélectionnés par l’utilisateur pour chaque deuxième son entendu sera comparé à un premier identifiant stocké en association avec un premier son correspondant à chaque deuxième son entendu de la liste de deuxièmes sons reproduits. In a third particular embodiment, the user will identify each of the second sounds heard in the order of reproduction of these second sounds heard and each of the second identifiers provided/selected by the user for each second sound heard will be compared to a first identifier stored in association with a first sound corresponding to each second sound heard from the list of second sounds reproduced.

[0020] Un captcha sonore selon l’invention est un « memory » sonore puisque l’utilisateur doit mémoriser chaque son entendu dans l'ordre pour ensuite identifier un ou plusieurs sons en fonction de l’ordre de reproduction qui est aussi l’ordre d’écoute. [0020] A sound captcha according to the invention is a sound "memory" since the user must memorize each sound heard in order to then identify one or more sounds according to the order of reproduction which is also the order listening.

[0021] L’expression « utilisateur approprié » peut désigner par exemple un humain capable d’identifier correctement le deuxième son par opposition à une machine dénuée d’une telle capacité. Alternativement, l’expression « utilisateur approprié » peut désigner un utilisateur équipé d’un matériel spécifique, tel qu’une sortie audio pouvant diffuser le deuxième son pour en permettre l'audition par l’utilisateur, ou tel qu’une entrée audio pouvant capturer le deuxième son lors de son audition par l’utilisateur, par opposition à un utilisateur non équipé d’un tel matériel. [0021] The expression “appropriate user” can designate, for example, a human capable of correctly identifying the second sound as opposed to a machine devoid of such a capacity. Alternatively, the expression “appropriate user” can designate a user equipped with specific equipment, such as an audio output capable of broadcasting the second sound to allow the user to hear it, or such as an audio input capable of capturing the second sound as it is heard by the user, as opposed to a user not equipped with such hardware.

[0022] Il est proposé un premier exemple de déclinaison du procédé ci-avant. Dans ce premier exemple de déclinaison, le procédé comprend : [0022] A first example of variation of the above method is proposed. In this first example of variation, the method comprises:

- une commande de diffusion d’un extrait sonore, - une commande d’affichage d’un ensemble de vignettes, l’ensemble de vignettes affiché comprenant un premier sous-ensemble formé d’au moins une vignette, le premier sous-ensemble étant associé à l’extrait sonore diffusé, - a command to broadcast a sound extract, - a command for displaying a set of thumbnails, the set of thumbnails displayed comprising a first subset formed of at least one thumbnail, the first subset being associated with the sound extract broadcast,

- une réception d’au moins un signal de sélection issu d’une interface homme- machine, un signal étant indicatif d’une sélection d’une vignette de l’ensemble de vignettes affiché, - reception of at least one selection signal from a man-machine interface, a signal being indicative of a selection of a thumbnail from the set of thumbnails displayed,

- sur la base de l’au moins un signal de sélection reçu, une identification d'un deuxième sous-ensemble formé de chaque vignette sélectionnée, - on the basis of the at least one selection signal received, an identification of a second subset formed of each selected thumbnail,

- un test de comparaison entre le premier sous-ensemble et le deuxième sous- ensemble, et - a comparison test between the first subset and the second subset, and

- sur la base du résultat du test, une identification d’un utilisateur comme étant un humain ou comme étant une machine. - based on the test result, an identification of a user as a human or as a machine.

[0023] Il est également proposé un deuxième exemple de déclinaison du procédé ci-avant , dans lequel le procédé comprend : [0023] A second example of variation of the above process is also proposed, in which the process comprises:

- une commande d’affichage d’un ensemble de boutons de lecture, un bouton étant respectivement associé à un extrait sonore, - a command for displaying a set of playback buttons, one button being respectively associated with a sound extract,

- pour chaque bouton affiché, sur réception d’un signal d'interaction, issu d’une interface homme-machine, indicatif d’une interaction avec ledit bouton, une commande de diffusion de l’extrait sonore associé audit bouton, - for each button displayed, upon receipt of an interaction signal, from a man-machine interface, indicative of an interaction with said button, a command to broadcast the sound clip associated with said button,

- après diffusion, pour chaque bouton, de l'extrait sonore associé audit bouton :- after broadcast, for each button, of the sound extract associated with said button:

- une commande d’affichage d’une entité visuelle descriptive d’un sous-ensemble d’extraits sonores formé d’au moins un extrait sonore parmi les extraits sonores diffusés, - a command for displaying a descriptive visual entity of a subset of sound extracts made up of at least one sound extract from among the sound extracts broadcast,

- une commande d’affichage d’un ensemble de vignettes, une vignette venant respectivement se superposer à un bouton de lecture, l'ensemble de vignettes affiché comprenant un premier sous-ensemble de vignettes formé d’au moins une vignette, le premier sous-ensemble de vignettes étant superposé à un sous- ensemble de boutons associé audit sous-ensemble d’extraits sonores, - une réception d’au moins un signal de sélection issu d’une interface homme- machine, un signal étant indicatif d’une sélection d’une vignette de l’ensemble de vignettes affiché, - a command for displaying a set of thumbnails, a thumbnail being superimposed respectively on a play button, the set of thumbnails displayed comprising a first subset of thumbnails formed of at least one thumbnail, the first subset -set of thumbnails being superimposed on a subset of buttons associated with said subset of sound extracts, - reception of at least one selection signal from a man-machine interface, a signal being indicative of a selection of a thumbnail from the set of thumbnails displayed,

- sur la base de l’au moins un signal reçu, une identification d’un deuxième sous- ensemble formé de chaque vignette sélectionnée, - on the basis of the at least one signal received, an identification of a second subset formed of each selected thumbnail,

- un test de comparaison entre le premier sous-ensemble et le deuxième sous- ensemble, et - a comparison test between the first subset and the second subset, and

- sur la base du résultat du test, une identification d’un utilisateur comme étant un humain ou comme étant une machine. - based on the test result, an identification of a user as a human or as a machine.

[0024]Ainsi, l’utilisateur effectue, dans le premier exemple de déclinaison du procédé, une association entre un son, c’est-à-dire l’extrait sonore diffusé, et au moins une image, c’est-à-dire au moins l’une des vignettes affichées, par interaction avec cette vignette ou ces vignettes. [0024]Thus, the user performs, in the first example of variation of the method, an association between a sound, that is to say the sound extract broadcast, and at least one image, that is to say say at least one of the thumbnails displayed, by interaction with this thumbnail or thumbnails.

[0025] Dans le deuxième exemple de déclinaison du procédé, le principe général est le même. L’utilisateur effectue une association entre une image, celle affichée, et au moins un son, c’est-à-dire au moins l’un des extraits sonores diffusés, par interaction avec l’une au moins des vignettes affichées. In the second example of variation of the method, the general principle is the same. The user makes an association between an image, the one displayed, and at least one sound, that is to say at least one of the sound extracts broadcast, by interaction with at least one of the thumbnails displayed.

[0026] Dans les deux exemples de déclinaison du procédé, le test de comparaison permet de vérifier si l’association réalisée par l’utilisateur correspond à une association effectivement attendue, caractéristique d’une association qu’un humain réaliserait. Si tel est le cas, alors l’utilisateur peut être identifié comme étant un humain, sinon l’utilisateur est identifié comme étant une machine. In the two examples of variations of the method, the comparison test makes it possible to verify whether the association made by the user corresponds to an association actually expected, characteristic of an association that a human would make. If so, then the user can be identified as a human, otherwise the user is identified as a machine.

[0027] Dans la mesure où, par la nature du ou des extraits sonores diffusés, tels que des bruits ou bruitages, et de l’image ou des vignettes affichées, une telle association son-image n’est pas rattachée à un langage particulier, et n’impose pas de connaissances culturelles particulières, les deux déclinaisons ci-avant du procédé proposé permettent toutes deux de différencier un humain d’une machine en s'affranchissant des barrières du langage et de la culture, permettant ainsi une meilleure accessibilité que les procédés de différenciation humain-machine connus. [0028] Par ailleurs, les algorithmes de reconnaissance de sons étant actuellement moins avancés que ceux de reconnaissance d’images, ce procédé de différenciation humain-machine est également plus difficile à contourer par un acteur malveillant. La sécurité informatique est donc accrue. [0027] Insofar as, by the nature of the sound extract(s) broadcast, such as noises or sound effects, and of the image or thumbnails displayed, such a sound-image association is not attached to a particular language , and does not require any particular cultural knowledge, the two variations above of the proposed method both make it possible to differentiate a human from a machine by overcoming the barriers of language and culture, thus allowing better accessibility than known human-machine differentiation methods. [0028] Furthermore, since the sound recognition algorithms are currently less advanced than those for image recognition, this process of human-machine differentiation is also more difficult to circumvent by a malicious actor. Computer security is therefore increased.

[0029] La nature des premiers et deuxièmes identifiants n'est toutefois pas restreinte à une image ou une vignette. [0029] However, the nature of the first and second identifiers is not restricted to an image or a thumbnail.

[0030] Chaque premier identifiant et chaque deuxième identifiant peut par exemple avoir un type d’identifiant parmi les suivants : [0030] Each first identifier and each second identifier can for example have one type of identifier from among the following:

- au moins un mot, c’est-à-dire un mot, une expression, une définition, un texte court, etc., - at least one word, i.e. a word, an expression, a definition, a short text, etc.,

- au moins une image, c’est-à-dire une photographie, un dessin, une image animée, une vidéo, etc., - at least one image, i.e. a photograph, a drawing, an animated image, a video, etc.,

- une étiquette associé à un objet ; telle qu’un code-barre, un QR code, un tag FNC, etc. permettant à l’utilisateur de sélectionner le deuxième identifiant dans un environnement réel ou virtuel, - a label associated with an object; such as a barcode, QR code, FNC tag, etc. allowing the user to select the second identifier in a real or virtual environment,

- une vignette. - a thumbnail.

[0031]Ainsi, l’utilisateur effectue, de manière générale, une association entre le deuxième son et un deuxième identifiant de tout type (image, texte, ou étiquette notamment) via une interface homme-machine. Ce deuxième identifiant est ensuite comparé avec un sous-ensemble de premiers identifiants aux fins de caractériser l'utilisateur comme étant approprié ou non. [0031] Thus, the user generally makes an association between the second sound and a second identifier of any type (image, text, or label in particular) via a man-machine interface. This second identifier is then compared with a subset of first identifiers for the purposes of characterizing the user as appropriate or not.

[0032] Il est également proposé un programme informatique comportant des instructions pour la mise en œuvre du procédé ci-avant lorsque ce programme est exécuté par un processeur. [0032] A computer program is also proposed comprising instructions for implementing the above method when this program is executed by a processor.

[0033] Il est également proposé un support d’enregistrement non transitoire lisible par un ordinateur sur lequel est enregistré le programme ci-avant. [0033] A non-transitory recording medium readable by a computer on which the above program is recorded is also proposed.

[0034] Un tel support d'enregistrement peut être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit micro-électronique, ou encore un moyen d'enregistrement magnétique, par exemple une clé USB ou un disque dur. [0035] D'autre part, un tel support d'enregistrement peut être un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens, de sorte que le programme d’ordinateur qu’il contient est exécutable à distance. Le programme selon l'invention peut être en particulier téléchargé sur un réseau par exemple le réseau Internet. [0034] Such a recording medium can be any entity or device capable of storing the program. For example, the medium may comprise a storage means, such as a ROM, for example a CD ROM or a microelectronic circuit ROM, or even a magnetic recording means, for example a USB key or a hard disk. . [0035] On the other hand, such a recording medium can be a transmissible medium such as an electrical or optical signal, which can be conveyed via an electrical or optical cable, by radio or by other means, so that the computer program it contains can be executed remotely. The program according to the invention can in particular be downloaded onto a network, for example the Internet network.

[0036] Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé de gestion précité. Alternatively, the recording medium may be an integrated circuit in which the program is incorporated, the circuit being adapted to execute or to be used in the execution of the aforementioned management method.

[0037] Il est également proposé un dispositif de traitement apte à mettre en œuvre un traitement de caractérisation d’un utilisateur sur commande d’une interface homme-machine, dans lequel le dispositif de traitement comporte : [0037] There is also proposed a processing device capable of implementing characterization processing of a user on command from a man-machine interface, in which the processing device comprises:

- un comparateur apte à comparer au moins un premier identifiant d’un premier son et au moins un deuxième identifiant reçu d’une interface homme-machine, le deuxième identifiant étant reçu après une reproduction d’une pluralité de deuxièmes sons par l’interface homme-machine, le comparateur déclenchant, si le deuxième identifiant reçu correspondant au premier identifiant, un caractériseur apte à caractériser l’utilisateur comme étant un utilisateur approprié. - a comparator able to compare at least a first identifier of a first sound and at least a second identifier received from a man-machine interface, the second identifier being received after a reproduction of a plurality of second sounds by the interface man-machine, the comparator triggering, if the second identifier received corresponding to the first identifier, a characterizer capable of characterizing the user as being an appropriate user.

[0038] Le procédé ci-avant peut comprendre optionnellement certaines fonctions supplémentaires telles que définies ci-après. The above method may optionally include certain additional functions as defined below.

[0039] Par exemple, le procédé peut comprendre une réception d’au moins un signal provenant d’une interface homme-machine, le signal comportant le deuxième identifiant du deuxième son entendu. [0039] For example, the method may comprise reception of at least one signal originating from a man-machine interface, the signal comprising the second identifier of the second sound heard.

[0040] Le signal peut être un enregistrement vocal de l’utilisateur lisant, ou nommant, un deuxième identifiant sous la forme d’un texte. [0040] The signal may be a voice recording of the user reading, or naming, a second identifier in the form of text.

[0041] Le signal peut résulter d’une interaction tactile de l’utilisateur avec un bouton sur un écran, ce bouton représentant le deuxième identifiant sous la forme d’un texte ou d’une image. The signal can result from a tactile interaction of the user with a button on a screen, this button representing the second identifier in the form of a text or an image.

[0042] Le signal peut être le résultat d’une analyse d’une image acquise affichant le deuxième identifiant sous la forme d’une étiquette associée à un objet, cette étiquette pouvant être réelle, par exemple un QR code, ou virtuelle, telle qu’une info- bulle en réalité augmentée. The signal may be the result of an analysis of an acquired image displaying the second identifier in the form of a label associated with an object, this label that can be real, for example a QR code, or virtual, such as an augmented reality tooltip.

[0043] Par exemple, le procédé peut comprendre une commande de reproduction d’un extrait sonore comportant un premier son associé à un des premiers sous- ensembles de premiers identifiants de premiers sons, le deuxième son entendu comportant le premier son reproduit. [0043] For example, the method may comprise a command to reproduce a sound extract comprising a first sound associated with one of the first subsets of first identifiers of first sounds, the second sound heard comprising the first sound reproduced.

[0044] Dans cet exemple, la comparaison entre le premier sous-ensemble de premiers identifiants du premier son et le deuxième identifiant reçu de l’interface homme-machine a pour but d’évaluer si un utilisateur a entendu et correctement identifié le premier son, déjà connu. In this example, the comparison between the first subset of first identifiers of the first sound and the second identifier received from the man-machine interface is intended to assess whether a user has heard and correctly identified the first sound. , Already known.

[0045] Par exemple, le procédé peut comprendre une commande de capture du deuxième son entendu, la capture déclenchant une comparaison du deuxième son entendu avec au moins un premier son associé à un premier sous-ensemble d’identifiants. For example, the method may include a command to capture the second sound heard, the capture triggering a comparison of the second sound heard with at least one first sound associated with a first subset of identifiers.

[0046] Dans cet exemple, la comparaison entre le premier sous-ensemble de premiers identifiants du premier son et le deuxième identifiant reçu de l’interface homme-machine a pour but d’évaluer si le deuxième son, potentiellement inconnu, trouve une correspondance avec un premier son, connu, au sein d’une base de données de premiers sons. In this example, the comparison between the first subset of first identifiers of the first sound and the second identifier received from the man-machine interface is intended to assess whether the second sound, potentially unknown, finds a match. with a first sound, known, within a database of first sounds.

[0047] Par exemple, le procédé peut comprendre une commande d’affichage d’un ensemble de vignettes, l’ensemble de vignettes affiché comprenant au moins un identifiant d’un premier sous-ensemble associé au deuxième son entendu. C’est le cas notamment dans la première déclinaison ci-avant. For example, the method may include a display command for a set of thumbnails, the set of thumbnails displayed comprising at least one identifier of a first subset associated with the second sound heard. This is particularly the case in the first variation above.

[0048] Par exemple, le procédé peut comprendre : [0048] For example, the method may include:

- sur la base d’au moins un signal de sélection reçu comportant au moins un deuxième identifiant reçu d’une interface homme-machine, lors de l’audition d’un deuxième son par l’utilisateur de l’interface homme-machine, une génération d’un deuxième sous-ensemble comportant les deuxièmes identifiants, - on the basis of at least one selection signal received comprising at least one second identifier received from a man-machine interface, during the hearing of a second sound by the user of the man-machine interface, a generation of a second subset comprising the second identifiers,

- la comparaison étant effectuée entre au moins un premier sous-ensemble de premiers identifiants d’un premier son et au moins un deuxième identifiant du deuxième sous-ensemble, la comparaison déclenchant, si au moins un deuxième identifiant ou tous les deuxième identifiants du deuxième sous-ensemble reçu appartiennent au premier sous-ensemble associé à un premier son correspondant au deuxième son entendu, la caractérisation de l’utilisateur comme étant un utilisateur approprié. - the comparison being carried out between at least a first subset of first identifiers of a first sound and at least a second identifier of the second subset, the comparison triggering, if at least a second identifier or all the second identifiers of the second subset received belong to the first subset associated with a first sound corresponding to the second sound heard, characterizing the user as being an appropriate user.

[0049] Par exemple, l’utilisateur peut ainsi fournir un faisceau d’informations identifiant le deuxième son entendu, ce faisceau étant comparé à un faisceau d’informations de référence identifiant un premier son connu similaire au deuxième son entendu. For example, the user can thus provide a beam of information identifying the second sound heard, this beam being compared with a beam of reference information identifying a first known sound similar to the second sound heard.

[0050] La comparaison peut comprendre une détermination d'une métrique de ressemblance, par exemple 100% de ressemblance si les deuxièmes identifiants du deuxième sous-ensemble sont strictement identiques aux premiers identifiants du premier sous-ensemble et 0% de ressemblance si aucun des deuxièmes identifiants du deuxième sous-ensemble ne se retrouve également dans le premier sous-ensemble et réciproquement. Cette métrique de ressemblance peut par exemple être comparée à un seuil au-delà duquel l’utilisateur est caractérisé comme étant un utilisateur approprié. Ceci permet de laisser à l’utilisateur une certaine marge de manœuvre vis-à-vis de la détermination des deuxièmes identifiants, au lieu de simplement considérer l’utilisateur comme étant non approprié si l’identification du deuxième son par l’utilisateur diffère légèrement de l’identification attendue. The comparison may comprise a determination of a resemblance metric, for example 100% resemblance if the second identifiers of the second subset are strictly identical to the first identifiers of the first subset and 0% resemblance if none of the second identifiers of the second subset are also found in the first subset and vice versa. This resemblance metric can for example be compared to a threshold beyond which the user is characterized as being an appropriate user. This allows the user some leeway in determining the second identifiers, instead of simply considering the user to be inappropriate if the user's identification of the second sound differs slightly. of the expected identification.

[0051] Par exemple, le procédé peut comprendre une sélection dudit au moins un premier sous-ensemble de premiers identifiants dans une base de premiers identifiants sur la base d’une table de correspondance associant, à chaque premier identifiant de la base, une classe respective. For example, the method can comprise a selection of said at least one first subset of first identifiers in a base of first identifiers on the basis of a correspondence table associating, with each first identifier of the base, a class respectively.

[0052] Il peut être par exemple prévu que chaque sous-ensemble de premiers identifiants appartienne à une classe différente. Ainsi, plusieurs sous-ensembles de premiers identifiants peuvent être sélectionnés, chacun étant associé à un premier son correspondant, les premiers sons en question étant de type différent (tintement, vrombissement, sifflement, etc.), ou étant associé à une thématique différente (véhicule, objet du quotidien, animal, bruit d’ambiance, etc.). La notion de classes de sons est également décrite plus loin au moyen de divers exemples, une classe de premiers identifiants pouvant être associée à une telle classe de sons. [0052] For example, it may be provided that each subset of first identifiers belongs to a different class. Thus, several subsets of first identifiers can be selected, each being associated with a corresponding first sound, the first sounds in question being of a different type (ringing, roaring, whistling, etc.), or being associated with a different theme ( vehicle, everyday object, animal, ambient noise, etc.). The notion of sound classes is also described below using various examples, a class of first identifiers that can be associated with such a class of sounds.

[0053] Par exemple, il peut être prévu que la sélection dudit au moins un premier sous-ensemble de premiers identifiants dans la base de premiers identifiants soit sur la base en outre de la classe associée à l’extrait sonore sélectionné comme deuxième son. For example, provision may be made for the selection of said at least one first subset of first identifiers from the base of first identifiers to be further based on the class associated with the sound clip selected as the second sound.

[0054] Ceci permet par exemple de faire en sorte que l’au moins un deuxième identifiant dont il est attendu qu’il soit associé au deuxième son ne ressemble qu’à un seul des sous-ensembles de premiers identifiants sélectionnés. La robustesse de la détermination de l’utilisateur comme étant ou non un utilisateur approprié s’en trouve renforcée. This makes it possible, for example, to ensure that the at least one second identifier which is expected to be associated with the second sound resembles only one of the subsets of first selected identifiers. The robustness of the determination of the user as being or not being an appropriate user is thereby reinforced.

[0055] Par exemple, il peut être prévu que, le deuxième son étant un son produit par un élément donné, chaque premier identifiant du premier sous-ensemble de premiers identifiants associé au premier son correspondant au deuxième son représente l’élément donné. For example, it can be provided that, the second sound being a sound produced by a given element, each first identifier of the first subset of first identifiers associated with the first sound corresponding to the second sound represents the given element.

[0056] De nombreux types d’éléments donnés sont envisageables en tant que sources possibles du deuxième son. Many types of given elements can be considered as possible sources of the second sound.

[0057]Ainsi, le deuxième son peut être par exemple un cri d’animal, ou un bruit de fonctionnement d’un dispositif, ou encore un bruit résultant d’un événement météorologique. [0057]Thus, the second sound may for example be an animal cry, or an operating noise of a device, or even a noise resulting from a meteorological event.

[0058] De tels extraits sonores présentent l’avantage commun d’avoir une source facilement représentable, de manière non ambiguë pour un être humain, sous forme visuelle. [0058] Such sound clips have the common advantage of having an easily representable source, in an unambiguous manner for a human being, in visual form.

[0059] Ainsi, par exemple, on peut prévoir que le deuxième son étant un cri d’animal, chaque identifiant d’un premier sous-ensemble de premiers identifiants soit associé à l’animal correspondant. Thus, for example, provision can be made for the second sound being an animal cry, each identifier of a first subset of first identifiers being associated with the corresponding animal.

[0060]Alternativement, on peut prévoir que, le deuxième son étant un bruit de fonctionnement d’un dispositif, chaque identifiant d’un premier sous-ensemble de premiers identifiants soit associé au dispositif correspondant. [0061]Alternativement, on peut prévoir que, le deuxième son étant un bruit résultant d’un événement météorologique, chaque identifiant d’un premier sous-ensemble de premiers identifiants soit associé à l’événement météorologique correspondant. [0060] Alternatively, provision can be made that, the second sound being an operating noise of a device, each identifier of a first subset of first identifiers is associated with the corresponding device. [0061] Alternatively, provision can be made that, the second sound being a noise resulting from a meteorological event, each identifier of a first subset of first identifiers is associated with the corresponding meteorological event.

[0062] Par exemple, le procédé peut comprendre une sélection du deuxième son dans une base d’extraits sonores sur la base d’une table de correspondance associant, à chaque extrait sonore de la base, une classe respective. For example, the method can include a selection of the second sound in a base of sound extracts on the basis of a correspondence table associating, with each sound extract of the base, a respective class.

[0063] Des classes de sons peuvent être définies par exemple par regroupement de sons ayant une source d’un même type, par exemple le bruit de la pluie et le bruit du vent peuvent être regroupés en tant que bruits issus de la nature, tandis qu’un miaulement et un aboiement peuvent être regroupés en tant que cris d'animaux domestiques. La formation de telles classes de sons, ou de bruits ou bruitages, est connue de l’homme du métier. [0063] Classes of sounds can be defined, for example, by grouping together sounds having a source of the same type, for example the noise of rain and the noise of the wind can be grouped together as noises coming from nature, while that a meow and a bark can be grouped together as pet calls. The formation of such classes of sounds, or of noises or sound effects, is known to those skilled in the art.

[0064]Alternativement, des classes de sons peuvent être définies par regroupement de sons présentant des similitudes par exemple en termes de spectre de fréquence. [0064] Alternatively, classes of sounds can be defined by grouping together sounds having similarities, for example in terms of frequency spectrum.

[0065] Par exemple, la première déclinaison du procédé ci-avant peut comprendre une sélection de l’ensemble de vignettes dans une base de vignettes sur la base d’une table de correspondance associant, à chaque vignette de la base, une classe respective. [0065] For example, the first variation of the above method may comprise a selection of the set of thumbnails in a thumbnail database on the basis of a correspondence table associating, with each thumbnail of the database, a respective class .

[0066] En transposant ce principe à la deuxième déclinaison du procédé, celui-ci peut de manière analogue comprendre une sélection de l’image dans une base d’images sur la base d’une table de correspondance associant, à chaque image de la base, une classe respective. [0066] By transposing this principle to the second variation of the method, the latter can analogously comprise a selection of the image in an image database on the basis of a correspondence table associating, with each image of the base, a respective class.

[0067] Des classes d’images ou de vignettes peuvent être définies de sorte qu’une classe correspond à une même entité représentée, ou une entité de même type. Par exemple une classe d’images peut être formée d’images représentant un animal, et une sous-classe de cette classe d’images peut être formée uniquement d’images représentant un cheval. La formation de telles classes d'images ou de vignettes est connue de l’homme du métier. [0068] La sélection de l’ensemble de vignettes dans une base de vignettes, ou de l’image dans une base d’images, peut en outre être effectuée sur la base de la classe associée à au moins un extrait sonore sélectionné. [0067] Classes of images or thumbnails can be defined so that a class corresponds to the same entity represented, or an entity of the same type. For example, a class of images can be formed of images representing an animal, and a subclass of this class of images can be formed solely of images representing a horse. The formation of such classes of images or thumbnails is known to those skilled in the art. The selection of the set of thumbnails in a thumbnail database, or of the image in an image database, can also be performed on the basis of the class associated with at least one selected sound extract.

[0069] En se référant par exemple à la première déclinaison du procédé, il est possible de sélectionner un extrait sonore appartenant à une classe donnée, par exemple un bruit d’aspirateur appartenant une classe de bruits issus d’appareils électroménagers. Sur cette base, on peut sélectionner une, ou plusieurs, vignettes représentant un aspirateur et prévoir que les autres vignettes de l’ensemble de vignettes soient impérativement sélectionnées parmi des classes de vignettes autres que celle représentant des appareils électroménagers. By referring for example to the first variation of the method, it is possible to select a sound extract belonging to a given class, for example a vacuum cleaner noise belonging to a class of noises from household appliances. On this basis, it is possible to select one, or several, vignettes representing a vacuum cleaner and provide that the other vignettes of the set of vignettes must be selected from classes of vignettes other than that representing household appliances.

[0070] Ceci permet de former l’ensemble de vignettes par sélection à partir de classes de vignettes différentes et ainsi de garantir qu’aucune vignette ne représente une entité similaire à celle à identifier. This makes it possible to form the set of vignettes by selection from different classes of vignettes and thus to guarantee that no vignette represents an entity similar to that to be identified.

[0071] De cette manière, on évite les ambiguïtés risquant d’occasionner pour un humain une association d’une vignette à un extrait sonore diffusé qui, bien qu’objectivement légitime, s’avère différente de l’association attendue. La pertinence du procédé pour différencier un humain d’une machine en est renforcée. [0071] In this way, ambiguities are avoided that risk causing a human to associate a vignette with a broadcast sound extract which, although objectively legitimate, turns out to be different from the expected association. The relevance of the process to differentiate a human from a machine is reinforced.

[0072] Par exemple, dans la première déclinaison du procédé, l’ensemble de vignettes peut comprendre en outre un troisième sous-ensemble formé d’au moins une vignette, et ledit procédé peut comprendre : [0072] For example, in the first version of the method, the set of thumbnails may also comprise a third subset formed of at least one thumbnail, and said method may comprise:

- un test de comparaison entre le troisième sous-ensemble et le deuxième sous- ensemble, et - a comparison test between the third subset and the second subset, and

- sur la base de ce test, une mise à jour, dans la table de correspondance associant, à chaque extrait sonore de la base d’extraits sonores, une classe respective, de la classe associée à l’extrait sonore sélectionné, ou une mise à jour, dans la table de correspondance associant, à chaque vignette de la base de vignettes, une classe respective, de la classe associée à au moins une vignette du troisième sous-ensemble. - on the basis of this test, an update, in the correspondence table associating, with each sound extract from the base of sound extracts, a respective class, of the class associated with the selected sound extract, or an update updated, in the correspondence table associating, with each thumbnail of the thumbnail base, a respective class, of the class associated with at least one thumbnail of the third subset.

[0073] Le troisième sous-ensemble peut être par exemple formé d’une ou plusieurs vignettes de la même classe que celle du premier sous-ensemble. De manière générale, le troisième sous-ensemble peut représenter une entité susceptible d’émettre un bruit voisin de celui émis par l’entité représentée par la ou les vignettes du premier sous-ensemble. The third subset may for example be formed of one or more thumbnails of the same class as that of the first subset. So Generally, the third subset can represent an entity capable of emitting a noise close to that emitted by the entity represented by the thumbnail(s) of the first subset.

[0074] Par exemple, le premier sous-ensemble peut représenter une bouilloire, le troisième sous-ensemble peut représenter une fenêtre de toit sous la pluie. Le sifflement de la bouilloire et les impacts de la pluie sur la fenêtre de toit présentent des similitudes. De cette manière, en diffusant un extrait sonore dont il n’est pas certain s’il correspond à un sifflement de bouilloire ou aux impacts de la pluie sur la fenêtre de toit, il est possible de s’appuyer sur l’association réalisée par l’utilisateur entre cet extrait sonore et les vignettes présentées pour pouvoir caractériser cet extrait sonore. For example, the first subset can represent a kettle, the third subset can represent a roof window in the rain. The hissing of the kettle and the impacts of the rain on the roof window have similarities. In this way, by broadcasting a sound extract which it is not certain whether it corresponds to the whistling of a kettle or the impact of rain on the roof window, it is possible to rely on the association made by the user enters this sound extract and the thumbnails presented in order to be able to characterize this sound extract.

[0075] Ce principe peut être appliqué de manière analogue dans la deuxième déclinaison du procédé, en affichant une image et en sélectionnant différents extraits sonores sur la base de cette image, de manière à disposer d’un premier groupe et d’un deuxième groupe d’extraits sonores disjoints, chacun ayant une probabilité raisonnable de correspondre à des bruits émis par l’entité représentée sur l’image, ainsi que d’un troisième groupe d’extraits sonores clairement sans rapport avec l’entité représentée sur l’image. Ainsi, l’utilisateur peut associer le premier groupe ou le deuxième groupe d’extraits sonores à l’image affichée et être ainsi identifié comme étant un humain tout en offrant en parallèle la possibilité de caractériser le groupe d’extraits sonores associé à l’image affichée. This principle can be applied analogously in the second version of the method, by displaying an image and selecting different sound extracts on the basis of this image, so as to have a first group and a second group. disjoint sound clips, each having a reasonable probability of corresponding to noises emitted by the entity depicted in the image, and a third group of sound clips clearly unrelated to the entity depicted in the image . Thus, the user can associate the first group or the second group of sound extracts with the displayed image and thus be identified as being a human while at the same time offering the possibility of characterizing the group of sound extracts associated with the picture displayed.

Brève description des dessins Brief description of the drawings

[0076] D’autres caractéristiques, détails et avantages apparaîtront à la lecture de la description détaillée ci-après, et à l’analyse des dessins annexés, sur lesquels :[0076] Other characteristics, details and advantages will appear on reading the detailed description below, and on analyzing the appended drawings, in which:

Fig. 1 Fig. 1

[0077] [Fig. 1] illustre un exemple d'interface graphique dans le cadre de la mise en œuvre d’un procédé pour une différenciation entre un humain et une machine.[0077] [Fig. 1] illustrates an example of a graphical interface as part of the implementation of a process for differentiating between a human and a machine.

Fig. 2 Fig. 2

[0078] [Fig. 2] illustre dans un exemple de réalisation, une variante de l’interface graphique de la figure 1 . Fig. 3 [0078] [Fig. 2] illustrates in an exemplary embodiment, a variant of the graphic interface of FIG. Fig. 3

[0079] [Fig. 3] illustre, dans un exemple de réalisation, un algorithme général d’un programme informatique pour la mise en œuvre d’un procédé pour une différenciation entre un humain et une machine. [0079] [Fig. 3] illustrates, in an exemplary embodiment, a general algorithm of a computer program for implementing a method for differentiating between a human and a machine.

Fig. 4 Fig. 4

[0080] [Fig. 4] illustre, dans un exemple de réalisation, une autre variante de l’interface graphique de la figure 1 . [0080] [Fig. 4] illustrates, in an exemplary embodiment, another variant of the graphic interface of figure 1 .

Fig. 5 Fig. 5

[0081] [Fig. 5] illustre, dans un exemple de réalisation, une variante de l’algorithme de la figure 3. [0081] [Fig. 5] illustrates, in an exemplary embodiment, a variant of the algorithm of figure 3.

Fig. 6 Fig. 6

[0082] [Fig. 6] illustre, dans un exemple de réalisation, un système pour la mise en œuvre d’un procédé pour une différenciation entre un humain et une machine.[0082] [Fig. 6] illustrates, in an exemplary embodiment, a system for implementing a method for differentiating between a human and a machine.

Fig. 7 Fig. 7

[0083] [Fig. 7] illustre, dans un exemple de réalisation, une autre variante de l’interface graphique de la figure 1 . [0083] [Fig. 7] illustrates, in an exemplary embodiment, another variant of the graphic interface of figure 1 .

Description des modes de réalisation Description of embodiments

[0084] Les dessins et la description ci-après contiennent, pour l’essentiel, des éléments de caractère certain. Ils pourront donc non seulement servir à mieux faire comprendre la présente divulgation, mais aussi contribuer à sa définition, le cas échéant. [0084] The drawings and the description below contain, for the most part, certain elements. They may therefore not only serve to better understand this disclosure, but also contribute to its definition, where applicable.

[0085] Le principe général de l'invention repose sur l’identification, par un utilisateur, d’un son entendu. Cette identification effectuée par l’utilisateur est ensuite comparée à un résultat attendu. The general principle of the invention is based on the identification, by a user, of a sound heard. This identification made by the user is then compared to an expected result.

[0086] Spécifiquement, [0086] Specifically,

- le résultat attendu prend la forme d'un premier sous-ensemble de premiers identifiants d’un « premier son » correspondant au son entendu, le son entendu étant désigné ci-après comme un « deuxième son », et - l’identification effectuée par l’utilisateur lors de l’audition du deuxième son prend la forme d’au moins un deuxième identifiant reçu d’une interface homme-machine. - the expected result takes the form of a first subset of first identifiers of a “first sound” corresponding to the sound heard, the sound heard being referred to below as a “second sound”, and - The identification made by the user when hearing the second sound takes the form of at least one second identifier received from a man-machine interface.

[0087] Sur la base de la comparaison entre le premier sous-ensemble de premiers identifiants et le deuxième identifiant, l’utilisateur est caractérisé comme étant un utilisateur approprié seulement si l’au moins un deuxième identifiant reçu appartient au premier sous-ensemble. Dans le cas contraire, l’utilisateur est caractérisé comme étant un utilisateur inapproprié. [0087] Based on the comparison between the first subset of first identifiers and the second identifier, the user is characterized as being an appropriate user only if the at least one second identifier received belongs to the first subset. Otherwise, the user is characterized as an inappropriate user.

[0088] L’invention trouve de nombreuses applications en particulier dans le domaine du contrôle d’accès à des services numériques et de la prévention du spam. The invention finds many applications in particular in the field of access control to digital services and spam prevention.

[0089] Par exemple, l’invention peut être employée, lors de la réception d’un message à publier, pour caractériser l’auteur du message comme étant un humain ou une machine. Ainsi, la publication du message reçu peut n’être déclenchée, par exemple, que si l’auteur du message est caractérisé comme étant un humain. For example, the invention can be used, when receiving a message to be published, to characterize the author of the message as being a human or a machine. Thus, the publication of the received message can only be triggered, for example, if the author of the message is characterized as being a human.

[0090] Par exemple, l’invention peut être mise en œuvre, lors du contrôle d’accès à un contenu numérique ayant une composante audio, pour déterminer si un utilisateur à l’origine d’une requête d’accès au contenu numérique est doté d’un équipement spécifique, en l’espèce un dispositif de restitution audio tel qu'un casque ou des écouteurs. Ainsi, l’accès au contenu numérique peut n’être déclenché, par exemple, que si l’utilisateur à l’origine de la requête est effectivement en mesure d’en écouter la composante audio. For example, the invention can be implemented, when controlling access to digital content having an audio component, to determine whether a user at the origin of a request for access to digital content is equipped with specific equipment, in this case an audio reproduction device such as a headset or earphones. Thus, access to digital content may only be triggered, for example, if the user initiating the request is actually able to listen to the audio component.

[0091] Dans la suite de la description, on s’attache à décrire en détails différents exemples de mise en œuvre de l’invention. In the following description, we endeavor to describe in detail various examples of implementation of the invention.

[0092]0n se réfère à présent à la figure 1 , qui illustre un exemple d'interface graphique. Une interface graphique est une interface homme-machine, c’est-à-dire un dispositif de dialogue homme-machine, dans lequel les objets à manipuler sont dessinés sous forme de pictogrammes sur un écran, avec lesquels l’utilisateur peut interagir au moyen par exemple d’un dispositif de pointage tel qu’une souris ou par pression digitale dans le cas d'un écran tactile. [0092]0n now refers to Figure 1, which illustrates an example of a graphical interface. A graphical interface is a man-machine interface, that is to say a man-machine dialogue device, in which the objects to be manipulated are drawn in the form of pictograms on a screen, with which the user can interact by means of for example from a pointing device such as a mouse or by digital pressure in the case of a touch screen.

[0093] Dans l’exemple présenté ici, différentes sections sont représentées. [0094] Une section supérieure comporte des instructions, sous forme textuelle, à destination de l’utilisateur, ainsi qu’un bouton de lecture (11 ) d’un extrait sonore comprenant un deuxième son tel que défini ci-avant, et un bouton de réglage de volume (12). In the example presented here, different sections are represented. [0094] An upper section comprises instructions, in textual form, intended for the user, as well as a button for playing (11) a sound extract comprising a second sound as defined above, and a button volume control (12).

[0095] Par « extrait sonore » on entend : [0095] By “sound excerpt” is meant:

- soit un extrait d’un enregistrement sonore, éventuellement soumis à un traitement informatique, comprenant un contenu audio inintelligible, - either an extract from a sound recording, possibly subject to computer processing, including unintelligible audio content,

- soit un son synthétique comprenant un tel contenu audio. - or a synthetic sound comprising such audio content.

[0096] Différents exemples de sons sont présentés sur https://research.google.com/audioset/ontology/index.html, sous la forme de plusieurs classes de sons, en l’espèce des sons : [0096] Different examples of sounds are presented on https://research.google.com/audioset/ontology/index.html, in the form of several classes of sounds, in this case sounds:

- en lien avec le fonctionnement du corps humain (voix, respiration, applaudissement, sifflement, battement cardiaque), ou - in connection with the functioning of the human body (voice, breathing, clapping, whistling, heartbeat), or

- émis par des animaux (domestiques, de ferme, sauvages), ou - emitted by animals (domestic, farm, wild), or

- émis par des objets (véhicule, moteur, sonnette, alarme, outil, explosion, cassure de bois ou verre, écoulement contrôlé de liquide), ou - emitted by objects (vehicle, engine, bell, alarm, tool, explosion, broken wood or glass, controlled flow of liquid), or

- musicaux (d’un instrument ou d'un genre musical spécifique), ou - musical (of a specific instrument or musical genre), or

- issus de la nature (vent, tempête, feu, pluie, cascade), ou - from nature (wind, storm, fire, rain, waterfall), or

- d’ambiance (bruit, environnement acoustique), ou - ambient (noise, acoustic environment), or

- considérés comme ambigus car n’entrant pas formellement dans une unique classe parmi celles évoquées ci-dessus (onomatopées, impacts, frottements). - considered ambiguous because they do not formally fall into a single class among those mentioned above (onomatopoeia, impacts, friction).

[0097] Les extraits sonores auxquels il est fait référence dans le contexte de l’invention sont susceptibles d’appartenir à n’importe quelle classe de sons évoquée ci-avant, et à n'importe quelle sous-classe au sein de ces classes, en excluant toutefois, spécifiquement, la voix humaine intelligible et les sons rattachés à un genre musical, dans la mesure où il est souhaité de s'affranchir des barrières linguistiques et culturelles. The sound extracts to which reference is made in the context of the invention are likely to belong to any class of sounds mentioned above, and to any subclass within these classes. , excluding, however, specifically, the intelligible human voice and the sounds attached to a musical genre, insofar as it is desired to overcome linguistic and cultural barriers.

[0098] En l’occurrence, une première instruction est d’écouter l’extrait sonore en interagissant avec le bouton de lecture (11 ). Le bouton de réglage de volume (12) est prévu pour optimiser le confort d’écoute de l’utilisateur. Optionnellement, un bouton supplémentaire peut être prévu en fin de lecture pour permettre de réécouter l’extrait sonore. In this case, a first instruction is to listen to the sound extract by interacting with the play button (11). The volume adjustment button (12) is provided to optimize the user's listening comfort. Optionally, an additional button can be provided at the end of reading to allow the sound extract to be listened to again.

[0099] Une section médiane affiche un ensemble (2) d’éléments interactifs, en l’occurrence ici un ensemble de vignettes (21-29). [0099] A middle section displays a set (2) of interactive elements, in this case a set of thumbnails (21-29).

[0100] Dans l’exemple présenté ici, les vignettes représentent chacune soit un animal ayant un cri généralement reconnaissable soit un dispositif ayant un bruit de fonctionnement caractéristique. [0100] In the example presented here, the vignettes each represent either an animal having a generally recognizable cry or a device having a characteristic operating noise.

[0101] Une deuxième instruction est d’interagir avec la vignette évoquant le deuxième son. A second instruction is to interact with the thumbnail evoking the second sound.

[0102] Par exemple si le deuxième son est un hennissement, alors il est attendu que l’utilisateur interagisse, uniquement, avec l’élément interactif associé à un tel deuxième son, ici la vignette représentant un cheval (28). [0102] For example, if the second sound is a neigh, then the user is expected to interact only with the interactive element associated with such a second sound, here the thumbnail representing a horse (28).

[0103] Si en revanche, le deuxième son est un vrombissement de moteur, alors il peut être attendu par exemple que l’utilisateur interagisse avec l’élément interactif associé à un tel deuxième son, ici la vignette représentant une voiture (29). Optionnellement, d’autres interactions peuvent être également acceptées. Par exemple, il est concevable, dans cet exemple, qu'un humain interagisse alternativement avec la vignette représentant une voiture de police (26), ou encore avec celle représentant un avion (21 ). [0103] If, on the other hand, the second sound is an engine roar, then it can be expected for example that the user interacts with the interactive element associated with such a second sound, here the thumbnail representing a car (29). Optionally, other interactions can also be accepted. For example, it is conceivable, in this example, that a human interacts alternately with the thumbnail representing a police car (26), or even with that representing an airplane (21).

[0104] Dans l’exemple présenté ici, les vignettes sont au nombre de neuf, réparties dans une grille de trois par trois. In the example presented here, the thumbnails are nine in number, distributed in a grid of three by three.

[0105] Une telle répartition permet aux vignettes d’être affichées facilement sur différentes formes d’écrans, par de nombreux dispositifs exploités par différentes plateformes. [0105] Such a distribution allows the thumbnails to be displayed easily on different forms of screens, by numerous devices operated by different platforms.

[0106] Le nombre de neuf est un compromis entre : [0106] The number of nine is a compromise between:

- d’une part, minimiser la probabilité qu’une machine interagissant avec une vignette choisie au hasard ne soit incorrectement identifiée comme humain, et - on the one hand, to minimize the probability that a machine interacting with a randomly chosen thumbnail will be incorrectly identified as human, and

- d’autre part, éviter d’évaluer, outre la reconnaissance de sons, la performance d’un humain en mémoire à court terme. [0107] Il est par ailleurs souhaitable, toujours pour éviter de mesurer la performance de la mémoire à court terme d’un humain, que les vignettes restent affichées avant, pendant et après l’écoute du deuxième son. - on the other hand, avoid evaluating, in addition to the recognition of sounds, the performance of a human in short-term memory. [0107] It is moreover desirable, still to avoid measuring the performance of the short-term memory of a human, that the thumbnails remain displayed before, during and after listening to the second sound.

[0108] Sur le plan de la psychologie cognitive, l’empan mnésique, quantifiant le nombre de chiffres que l’on peut restituer immédiatement après les avoir entendus, varie habituellement entre 5 et 9 selon les individus. Comparativement à un tel test de restitution, un utilisateur fait moins appel à sa mémoire lorsqu’il s’agit de sélectionner, suite à l’écoute d’un extrait sonore, un élément interactif sur la base de son contenu cognitif. Ainsi, dans le contexte présent, afficher neuf vignettes est acceptable. [0108] In terms of cognitive psychology, the mnesic span, quantifying the number of digits that can be reproduced immediately after having heard them, usually varies between 5 and 9 depending on the individual. Compared to such a restitution test, a user makes less use of his memory when it comes to selecting, after listening to a sound extract, an interactive element on the basis of its cognitive content. Thus, in the present context, displaying nine thumbnails is acceptable.

[0109] Une section inférieure propose de réinitialiser l’interface graphique au moyen d’un bouton de réinitialisation (31 ), afin de permettre, si l’utilisateur le désire, d’écouter un nouveau deuxième son puis d’identifier un élément interactif correspondant à ce nouveau deuxième son. [0109] A lower section offers to reset the graphical interface by means of a reset button (31), in order to allow, if the user wishes, to listen to a new second sound then to identify an interactive element corresponding to this new second sound.

[0110] On se réfère à présent à la figure 2 qui est une variante de la figure 1 , dans laquelle les éléments interactifs se trouvent également être des vignettes et dans laquelle, après avoir écouté un deuxième son, il est demandé à l’utilisateur de sélectionner non plus l’élément interactif correspondant à ce deuxième son, mais tous les éléments interactifs, ici toutes les vignettes correspondant à ce deuxième son parmi un ensemble (4) d’éléments interactifs, ici de vignettes (41-49). We now refer to Figure 2 which is a variant of Figure 1, in which the interactive elements also happen to be thumbnails and in which, after having listened to a second sound, the user is asked to no longer select the interactive element corresponding to this second sound, but all the interactive elements, here all the thumbnails corresponding to this second sound from among a set (4) of interactive elements, here thumbnails (41-49).

[0111] Par exemple, le deuxième son peut être un extrait d’un enregistrement sonore d’une bouilloire chauffant de l’eau, ou un bruitage synthétique reproduisant un tel extrait sonore. For example, the second sound can be an extract from a sound recording of a kettle heating water, or a synthetic sound reproducing such a sound extract.

[0112]Ainsi, on peut définir au sein de l’ensemble (2) de vignettes affichées, un premier sous-ensemble de vignettes, formé des vignettes (43, 44) représentant chacune une bouilloire, avec chacune desquelles une interaction de la part de l’utilisateur est attendue. Ces vignettes peuvent ainsi être préalablement associées, au sein d’une table de correspondance, à l’extrait sonore indicatif de la bouilloire en fonctionnement. Plus généralement, on peut définir au sein de l’ensemble (2) d’éléments interactifs un premier sous-ensemble d’éléments interactifs respectivement associés à un premier identifiant, formant ainsi un premier sous-ensemble d’identifiants associés à un premier son. [0112] Thus, it is possible to define within the set (2) of thumbnails displayed, a first subset of thumbnails, formed of thumbnails (43, 44) each representing a kettle, with each of which an interaction on the part of the user is expected. These thumbnails can thus be associated beforehand, within a correspondence table, with the sound extract indicative of the kettle in operation. More generally, it is possible to define within the set (2) of interactive elements a first subset of elements interactive respectively associated with a first identifier, thus forming a first subset of identifiers associated with a first sound.

[0113] On peut également définir un deuxième sous-ensemble de vignettes, formé des vignettes avec lesquelles l’utilisateur aura réellement effectué une interaction. Plus généralement, on peut définir au sein de l’ensemble (2) d'éléments interactifs un deuxième sous-ensemble d’éléments interactifs respectivement associés à un deuxième identifiant, formant ainsi un deuxième sous-ensemble d’identifiants associés, par l’utilisateur lors de l’audition d’un deuxième son, à ce deuxième son. It is also possible to define a second subset of thumbnails, formed of the thumbnails with which the user will have actually performed an interaction. More generally, it is possible to define within the set (2) of interactive elements a second subset of interactive elements respectively associated with a second identifier, thus forming a second subset of associated identifiers, by user when hearing a second sound, to this second sound.

[O114JSI le deuxième sous-ensemble de vignettes comprend toutes les vignettes du premier sous-ensemble, alors cela signifie que l’utilisateur a bien interagi avec toutes les vignettes associées à l’extrait sonore indicatif de la bouilloire en fonctionnement. [O114JSI the second subset of thumbnails includes all thumbnails from the first subset, then this means that the user has successfully interacted with all the thumbnails associated with the sound bite indicative of the kettle in operation.

[0115] Parmi les vignettes affichées ne faisant pas partie du premier sous- ensemble, il est possible que certaines soient préalablement associées, au sein d’une table de correspondance, à un extrait sonore différent de celui indicatif de la bouilloire en fonctionnement. Par exemple, la vignette (49) en bas à droite de l’ensemble de vignettes représenté sur la figure 2 peut être associée à un extrait sonore indicatif du tonnerre. [0115] Among the thumbnails displayed that are not part of the first subset, it is possible that some are previously associated, within a correspondence table, with a sound extract different from that indicative of the kettle in operation. For example, the thumbnail (49) at the bottom right of the set of thumbnails shown in Figure 2 may be associated with a sound sample indicative of thunder.

[0116] Il est également possible que d’autres vignettes, formant un troisième sous- ensemble de vignettes, ne soient préalablement associées, au sein d’une table de correspondance, à aucun extrait sonore. It is also possible that other vignettes, forming a third subset of vignettes, are not previously associated, within a correspondence table, with any sound extract.

[0117] Par exemple, un objectif secondaire à la caractérisation d’un utilisateur comme étant approprié ou non, par exemple à la différenciation entre un humain et une machine, peut être de qualifier un extrait sonore donné. [0117] For example, a secondary objective to the characterization of a user as being appropriate or not, for example to the differentiation between a human and a machine, can be to qualify a given sound extract.

[0118] Notamment, le bruit de la pluie sur une fenêtre de toit présente une ressemblance avec le bruit d’une bouilloire en fonctionnement. Pour lever le doute sur la nature d’un deuxième son donné pouvant a priori correspondre à l’une ou l’autre de ces deux possibilités, on peut présenter à un utilisateur à la fois : [0118] In particular, the sound of rain on a roof window bears a resemblance to the sound of a kettle in operation. To remove the doubt on the nature of a given second sound that could a priori correspond to one or the other of these two possibilities, one can present to a user at the same time:

- deux éléments interactifs, par exemple deux vignettes (43, 44), en tant que premier sous-ensemble de vignettes, représentant chacune une bouilloire, et - un élément interactif, par exemple une vignette (42), en tant que troisième sous- ensemble de vignettes, représentant une fenêtre de toit sous la pluie. - two interactive elements, for example two vignettes (43, 44), as a first subset of vignettes, each representing a kettle, and - an interactive element, for example a thumbnail (42), as a third subset of thumbnails, representing a roof window in the rain.

[0119] Par comparaison entre le deuxième sous-ensemble formé du ou des éléments interactifs avec lesquelles l’utilisateur aura interagi et, respectivement, le premier et le troisième sous-ensemble, il est possible : By comparison between the second subset formed of the interactive element(s) with which the user will have interacted and, respectively, the first and the third subset, it is possible:

- d’une part, d’identifier l’utilisateur comme étant un humain, par suite un utilisateur approprié, si le deuxième sous-ensemble est identique au premier ou au troisième sous-ensemble, ou comme étant une machine, par suite un utilisateur non approprié, si le deuxième sous-ensemble n’est identique ni au premier ni au troisième sous-ensemble, et - on the one hand, to identify the user as being a human, consequently an appropriate user, if the second subset is identical to the first or the third subset, or as being a machine, consequently a user not appropriate, if the second subset is neither identical to the first nor to the third subset, and

- d’autre part, de qualifier l’extrait sonore comme se rapportant soit au bruit de la pluie sur la fenêtre de toit, soit au fonctionnement de la bouilloire, conformément à l’interprétation de l’utilisateur. Une table de correspondance entre extraits sonores et vignettes peut ainsi être mise à jour pour rendre compte de cette interprétation. - on the other hand, to qualify the sound extract as relating either to the sound of the rain on the roof window, or to the operation of the kettle, in accordance with the interpretation of the user. A correspondence table between sound clips and vignettes can thus be updated to reflect this interpretation.

[0120] On se réfère à présent à la figure 3 qui illustre un algorithme général d’un programme informatique, en lien par exemple avec l’une ou l’autre des interfaces graphiques des figures 1 et 2, pour la mise en œuvre d’un procédé pour une différenciation entre un humain et une machine. We now refer to Figure 3 which illustrates a general algorithm of a computer program, for example in connection with one or other of the graphical interfaces of Figures 1 and 2, for the implementation of a method for differentiating between a human and a machine.

[0121] En considérant une architecture client-serveur, ce programme informatique peut être exécuté, par exemple, par un ou plusieurs circuits de traitement côté serveur, tandis que l’interaction avec l’utilisateur s’effectue côté client. By considering a client-server architecture, this computer program can be executed, for example, by one or more processing circuits on the server side, while the interaction with the user takes place on the client side.

[0122] En d’autres termes, l’affichage de l’interface graphique s’effectue au niveau d’un terminal côté client, ce terminal pouvant être par exemple un téléphone multifonction ou « smartphone », un ordinateur portable ou de bureau, ou un boîtier décodeur raccordé à un téléviseur, ou encore un équipement réseau pour la fourniture de services et/ou de contenus numériques. De même, l’utilisateur peut interagir, toujours côté client, avec l’interface graphique au moyen par exemple d’une interface tactile, d’une télécommande, d’un dispositif de pointage. En revanche, le programme informatique décrit ci-après peut être mis en œuvre exclusivement côté serveur, dans le but de prévenir des tentatives de contournement de la différenciation homme-machine. [0123]Un extrait sonore, tel que défini précédemment, est sélectionné (S1 ) dans une base d’extraits sonores. In other words, the display of the graphical interface takes place at the level of a terminal on the client side, this terminal possibly being for example a multifunction telephone or "smartphone", a laptop or desktop computer, or a set-top box connected to a television, or network equipment for the provision of services and/or digital content. Similarly, the user can interact, still on the client side, with the graphical interface by means for example of a touch interface, a remote control, a pointing device. On the other hand, the computer program described below can be implemented exclusively on the server side, with the aim of preventing attempts to circumvent the man-machine differentiation. A sound extract, as defined above, is selected (S1) from a database of sound extracts.

[0124] De même, plusieurs éléments interactifs, ici plusieurs vignettes, sont sélectionnés (S2) dans une base d'éléments interactifs, ici de vignettes, formant ainsi un ensemble d’éléments interactifs, ici de vignettes. Par exemple, 4, 6, 8, 9, 12, 15 ou 16 vignettes initiales peuvent être sélectionnées en vue d’être affichées simultanément sur une grille 2x2, 2x3, 2x4, 3x3, 3x4, 3x5 ou 4x4, respectivement. Similarly, several interactive elements, here several thumbnails, are selected (S2) from a base of interactive elements, here of thumbnails, thus forming a set of interactive elements, here of thumbnails. For example, 4, 6, 8, 9, 12, 15, or 16 initial thumbnails can be selected to be displayed simultaneously on a 2x2, 2x3, 2x4, 3x3, 3x4, 3x5, or 4x4 grid, respectively.

[0125] Une ou plusieurs vignettes supplémentaires peuvent également être sélectionnées en vue d’être affichées ultérieurement, en remplacement d’une vignette initiale ayant fait l’objet d'une interaction via une interface homme- machine. [0125] One or more additional thumbnails can also be selected with a view to being displayed later, replacing an initial thumbnail having been the subject of an interaction via a man-machine interface.

[0126] La sélection de l’extrait sonore et celle des éléments interactifs s’effectuent sans ordre particulier. Il convient seulement de s’assurer : [0126] The selection of the sound clip and that of the interactive elements are carried out in no particular order. You just need to make sure:

- qu’un ou plusieurs des éléments interactifs sélectionnés représentent ou sont associés à une entité pouvant être associée par un humain, de manière univoque, à l’extrait sonore sélectionné, et - that one or more of the selected interactive elements represent or are associated with an entity that can be uniquely associated by a human with the selected sound clip, and

- qu’un ou plusieurs des éléments interactifs restants représentent une entité pouvant être considérée par un humain, de manière univoque, comme sans rapport avec l’extrait sonore sélectionné. - that one or more of the remaining interactive elements represent an entity that can be considered by a human, unequivocally, as unrelated to the selected sound clip.

[0127] Cet objectif peut être atteint par exemple au moyen d’un apprentissage statistique. Typiquement, un même deuxième son peut être diffusé à un grand nombre d’utilisateurs humains tandis qu’un même ensemble de vignettes leur est simultanément présenté. Il peut être alors demandé aux utilisateurs humains d’indiquer une ou plusieurs vignettes correspondant à l’extrait sonore diffusé. This objective can be achieved for example by means of statistical learning. Typically, the same second sound can be broadcast to a large number of human users while the same set of thumbnails is simultaneously presented to them. Human users may then be asked to indicate one or more thumbnails corresponding to the sound clip broadcast.

[0128] Sur la base des indications reçues, il est possible par exemple d’associer un ou plusieurs éléments interactifs majoritairement sélectionnés, ucu une ou plusieurs vignettes majoritairement sélectionnées, ou sélectionnées par un pourcentage d’utilisateurs appropriés dépassant un certain seuil, au deuxième son diffusé. Cette association peut être opérée au moyen d’une table de correspondance entre, d’une part, les extraits sonores de la base d’extraits sonores et, d’autre part, les éléments interactifs de la base d’éléments interactifs. [0128] On the basis of the indications received, it is possible for example to associate one or more mostly selected interactive elements, or one or more mostly selected thumbnails, or selected by a percentage of appropriate users exceeding a certain threshold, with the second broadcast sound. This association can be operated by means of a table of correspondence between, on the one hand, the sound extracts of the base of sound extracts and, on the other hand, the interactive elements of the base of interactive elements.

[0129] Ainsi, il est possible par exemple de sélectionner un premier son donné, ainsi qu’un ou plusieurs éléments interactifs associés à ce premier son et formant le premier sous-ensemble d’éléments interactifs associés à un premier ensemble d’identifiants, et un ou plusieurs éléments interactifs n’étant pas associés à ce premier son. Thus, it is possible for example to select a given first sound, as well as one or more interactive elements associated with this first sound and forming the first subset of interactive elements associated with a first set of identifiers, and one or more interactive elements not associated with this first sound.

[0130] En complément, il est également possible, par exemple dans la table de correspondance définie ci-avant, de prévoir d'associer un ou plusieurs éléments interactifs minoritairement sélectionnés, ou sélectionnés par un pourcentage d’utilisateurs appropriés inférieur à un certain seuil, à une indication selon laquelle cet élément interactif, ou ces éléments interactifs, sont sans rapport avec ce premier son. [0130] In addition, it is also possible, for example in the correspondence table defined above, to plan to associate one or more minority-selected interactive elements, or selected by a percentage of appropriate users below a certain threshold. , to an indication that this interactive element, or these interactive elements, are unrelated to this first sound.

[0131] Ainsi, il est possible par exemple de sélectionner un premier son donné, de même qu’un ou plusieurs éléments interactifs associés à ce premier son et formant le premier sous-ensemble d’éléments interactifs, ainsi que : Thus, it is possible for example to select a given first sound, as well as one or more interactive elements associated with this first sound and forming the first subset of interactive elements, as well as:

- un ou plusieurs éléments interactifs associés à une indication selon laquelle ce, ou ces, éléments interactifs sont sans rapport avec ce premier son, et/ou - one or more interactive elements associated with an indication that this or these interactive elements are unrelated to this first sound, and/or

- un ou plusieurs élément interactif n’étant ni associés à ce premier son ni associés à une telle indication. - one or more interactive elements that are neither associated with this first sound nor associated with such an indication.

[0132] Le premier sous-ensemble d'éléments interactifs est alors déterminé (S3). Le premier sous-ensemble d’éléments interactifs est défini comme étant formé du ou des éléments interactifs de l'ensemble d’éléments interactifs pour lesquels une interaction est attendue de la part d’un utilisateur lors de l’audition d’un deuxième son correspondant audit premier son. The first subset of interactive elements is then determined (S3). The first subset of interactive elements is defined as being formed by the interactive element(s) of the set of interactive elements for which an interaction is expected from a user when hearing a second sound corresponding to said first sound.

[0133] En poursuivant l'exemple précédent impliquant des bases de données et une table de correspondance, le premier sous-ensemble d’éléments interactifs désigne, dans cet exemple, les éléments interactifs de l’ensemble d’éléments interactifs sélectionné qui sont associés au premier son sélectionné. [0134] Une commande est émise afin de déclencher l’affichage d’une interface graphique telle que, par exemple, celle de la figure 1 ou celle de la figure 2. [0133] Continuing the previous example involving databases and a correspondence table, the first subset of interactive elements designates, in this example, the interactive elements of the set of interactive elements selected which are associated to the first selected sound. A command is issued to trigger the display of a graphical interface such as, for example, that of Figure 1 or that of Figure 2.

[0135] Ainsi, la commande déclenche l’affichage de l’ensemble d’éléments interactifs, ici de l'ensemble de vignettes sélectionné (S4) sur un dispositif d’affichage tel qu'un écran, et peut en outre déclencher l’affichage d’un bouton de lecture pour permettre de démarrer la lecture de l’extrait sonore sélectionné. Thus, the command triggers the display of the set of interactive elements, here of the selected set of thumbnails (S4) on a display device such as a screen, and can also trigger the display of a play button to start playing the selected sound clip.

[0136] Le bouton de lecture est optionnel, alternativement tout autre mécanisme déclenchant la lecture de l’extrait sonore sélectionné comprenant le deuxième son peut être employé. The play button is optional, alternatively any other mechanism triggering the playback of the selected sound extract comprising the second sound can be used.

[0137] Par exemple, la lecture de l’extrait sonore et l’affichage de l'ensemble de vignettes peuvent être déclenchées, automatiquement, en même temps. Alternativement, la lecture de l’extrait ssoonnoorree peut être déclenchée automatiquement après expiration d’un délai prédéfini. Ceci permet à l’utilisateur de se mettre en condition, en prenant connaissance des vignettes ainsi que du fait qu’un extrait sonore va être diffusé. For example, the playback of the sound clip and the display of the set of thumbnails can be triggered, automatically, at the same time. Alternatively, playback of the ssoonnoorree snippet can be triggered automatically after a predefined time expires. This allows the user to prepare, by taking note of the thumbnails as well as the fact that a sound extract is going to be broadcast.

[0138] Il est proposé à l’utilisateur de sélectionner, parmi l’ensemble de vignettes affiché, une vignette, ou alternativement plusieurs vignettes, correspondant à l’extrait sonore sélectionné. The user is offered to select, from among the set of thumbnails displayed, a thumbnail, or alternatively several thumbnails, corresponding to the selected sound extract.

[0139] Une fois l’extrait sonore sélectionné lu, ou pendant la lecture de l’extrait sonore sélectionné, les vignettes affichées peuvent devenir interactives, de sorte que l’utilisateur puisse interagir, au moyen d’une interface homme-machine telle que décrite précédemment, avec une ou plusieurs de ces vignettes. [0139] Once the selected sound extract has been played, or during the playback of the selected sound extract, the thumbnails displayed can become interactive, so that the user can interact, by means of a man-machine interface such as described above, with one or more of these thumbnails.

[0140] Alterativement, on peut prévoir que les vignettes affichées soient interactives même avant la lecture de l’extrait sonore sélectionné, et que toute interaction avec une vignette affichée survenant avant la lecture de l'extrait sonore sélectionné entraîne l’émission d’un message d’erreur, ou soit interprété comme un indice en faveur d’une identification de l’utilisateur comme étant une machine. [0140] Alternatively, provision can be made for the displayed thumbnails to be interactive even before the selected sound extract is played, and that any interaction with a displayed thumbnail occurring before the selected sound extract is played results in the emission of a error message, or is interpreted as an indication in favor of identifying the user as being a machine.

[0141]On considère que l’utilisateur interagit, comme il lui est proposé, avec au moins une vignette de l’ensemble de vignettes. [0142] En conséquence, un signal de sélection, ou plusieurs signaux de sélection, indiquant une interaction de l’utilisateur au moyen d’une interface homme-machine avec une ou plusieurs vignettes de l’ensemble de vignettes est reçu (S5). Par exemple, un tel signal de sélection peut être transmis côté serveur pour y être interprété. Ce deuxième signal de sélection comprend un ou plusieurs deuxièmes identifiants. It is considered that the user interacts, as proposed to him, with at least one thumbnail of the set of thumbnails. [0142] Accordingly, a selection signal, or several selection signals, indicating a user interaction by means of a human-machine interface with one or more thumbnails of the set of thumbnails is received (S5). For example, such a selection signal can be transmitted to the server side in order to be interpreted there. This second selection signal comprises one or more second identifiers.

[0143]Sur la base du signal de sélection reçu, ou des signaux de sélection reçus, un deuxième sous-ensemble de vignettes est déterminé (S51 ). Ce deuxième sous- ensemble de vignettes est formé de la vignette avec laquelle l’utilisateur a effectivement interagi, ou des vignettes avec lesquelles l’utilisateur a effectivement interagi. [0143] Based on the received selection signal, or received selection signals, a second subset of thumbnails is determined (S51). This second subset of thumbnails is formed of the thumbnail with which the user has actually interacted, or the thumbnails with which the user has actually interacted.

[0144] On dispose donc à ce stade : At this stage, therefore, we have:

- d’un premier sous-ensemble de vignettes, formé exclusivement de la ou des vignettes avec lesquelles il était attendu qu’un utilisateur humain interagisse car ces vignettes sont associées à l’extrait sonore sélectionné, et - a first subset of thumbnails, formed exclusively of the thumbnail or thumbnails with which a human user was expected to interact because these thumbnails are associated with the selected sound clip, and

- d’un deuxième sous-ensemble de vignettes, formé exclusivement de la ou des vignettes avec lesquelles l’utilisateur a effectivement interagi pendant ou après la diffusion de l’extrait sonore sélectionné. - a second subset of thumbnails, consisting exclusively of the thumbnail(s) with which the user actually interacted during or after the broadcast of the selected sound clip.

[0145] Cela se traduit par : [0145] This results in:

- un premier sous-ensemble de premiers identifiants d'un premier son, et - a first subset of first identifiers of a first sound, and

- au moins un deuxième identifiant reçu d’une interface homme-machine, lors de l’audition d’un deuxième son par un utilisateur de l’interface homme-machine. - at least one second identifier received from a man-machine interface, when hearing a second sound by a user of the man-machine interface.

[0146] Ce premier sous-ensemble de premiers identifiants et ce ou ces deuxièmes identifiants sont alors comparés (S6) en vue d’identifier (S7) l’utilisateur comme étant approprié ou comme étant non approprié, en fonction de règles prédéfinies. This first subset of first identifiers and this or these second identifiers are then compared (S6) with a view to identifying (S7) the user as being appropriate or as not being appropriate, according to predefined rules.

[0147] La comparaison peut renvoyer plusieurs types de résultats. The comparison can return several types of results.

[0148] Par exemple, le résultat de la comparaison peut indiquer que le premier et le deuxième sous-ensemble de vignettes sont identiques. Cela signifie que l’utilisateur a correctement identifié toutes les vignettes qu’il lui était demandé d’associer à l’extrait sonore sélectionné. Un exemple de règle prédéfinie peut prévoir que lorsque la comparaison renvoie un tel résultat, alors l’utilisateur est identifié comme étant un humain. For example, the result of the comparison can indicate that the first and the second subset of thumbnails are identical. This means that the user has correctly identified all the thumbnails that he was asked to associate with the selected sound clip. An example of a predefined rule can provide that when the comparison returns such a result, then the user is identified as being a human.

[0149] Par exemple, le résultat de la comparaison peut indiquer que le premier et le deuxième sous-ensemble de vignettes n’ont aucun élément en commun. Cela signifie que l’utilisateur a certes interagi avec une ou plusieurs vignettes, mais n’a correctement identifié aucune des vignettes qu’il lui était demandé d’associer à l’extrait sonore sélectionné. Un exemple de règle prédéfinie peut prévoir que lorsque la comparaison renvoie un tel résultat, alors l’utilisateur est identifié comme étant une machine. For example, the result of the comparison may indicate that the first and the second subset of thumbnails have no element in common. This means that the user has certainly interacted with one or more thumbnails, but has not correctly identified any of the thumbnails that he was asked to associate with the selected sound clip. An example of a predefined rule can provide that when the comparison returns such a result, then the user is identified as being a machine.

[0150] Outre ces exemples binaires, d’autres cas sont possibles. Un exemple possible de règle prédéfinie est d’identifier l’utilisateur comme une machine dès lors que le premier et le deuxième sous-ensemble de vignettes ne sont pas rigoureusement identiques. In addition to these binary examples, other cases are possible. A possible example of a predefined rule is to identify the user as a machine when the first and the second subset of thumbnails are not strictly identical.

[0151] Alternativement, des règles supplémentaires peuvent être prédéfinies pour tenir compte de certains cas où le premier et le deuxième sous-ensemble de vignettes se superposent en partie. [0151] Alternatively, additional rules can be predefined to take account of certain cases where the first and the second subset of thumbnails partially overlap.

[0152] Par exemple, le résultat de la comparaison peut indiquer que le premier sous- ensemble de vignettes comprend toutes les vignettes du deuxième sous-ensemble de vignettes, ainsi qu’une ou plusieurs vignettes supplémentaires. L’utilisateur a donc correctement sélectionné uniquement une partie des vignettes dont il était attendu qu’il les associe à l’extrait sonore sélectionné, et n’a sélectionné aucune autre vignette. For example, the result of the comparison may indicate that the first subset of thumbnails includes all the thumbnails of the second subset of thumbnails, as well as one or more additional thumbnails. The user therefore correctly selected only part of the thumbnails which were expected to associate them with the selected sound clip, and did not select any other thumbnail.

[0153] Dans une telle situation, une règle prédéfinie peut par exemple imposer de conclure directement la différenciation humain-machine en identifiant l’utilisateur comme étant un humain, ceci afin de poursuivre un objectif général d’ergonomie. [0153] In such a situation, a predefined rule can, for example, require direct conclusion of the human-machine differentiation by identifying the user as being a human, in order to pursue a general objective of ergonomics.

[0154] Alternativement, si l’objectif principal visé est d’empêcher autant que faire se peut une machine d’être incorrectement identifiée comme étant un humain, une règle prédéfinie peut par exemple prévoir : [0154] Alternatively, if the main objective is to prevent a machine from being incorrectly identified as being a human as much as possible, a predefined rule can for example provide:

- de déclencher une nouvelle itération de l’algorithme en sélectionnant un nouvel extrait sonore et un nouvel ensemble de vignettes, ou encore - to trigger a new iteration of the algorithm by selecting a new sound extract and a new set of thumbnails, or even

- de mettre en œuvre, en complément, une autre forme de test de Turing pour définitivement identifier l’utilisateur comme étant un humain ou comme étant une machine. - to implement, in addition, another form of Turing test to definitively identify the user as a human or as a machine.

[0155] L’algorithme décrit ci-avant peut permettre, optionnellement, non seulement d’identifier un utilisateur comme étant un humain ou comme étant une machine, mais également d’enrichir une base de données associant des extraits sonores à des vignettes représentant chacune une entité source d’un tel extrait sonore. Une telle base de données peut par exemple être exploitée en aval pour effectuer une reconnaissance sonore à partir d’enregistrements. The algorithm described above can make it possible, optionally, not only to identify a user as being a human or as being a machine, but also to enrich a database associating sound clips with thumbnails representing each a source entity of such a sound clip. Such a database can for example be used downstream to perform sound recognition from recordings.

[0156] Par exemple, si l’utilisateur est identifié comme étant un humain, alors il est possible de déclencher une nouvelle itération de l’algorithme en sélectionnant un nouvel extrait sonore et un nouvel ensemble de vignettes. For example, if the user is identified as being a human, then it is possible to trigger a new iteration of the algorithm by selecting a new sound clip and a new set of thumbnails.

[0157] Dans cette nouvelle itération, il convient toujours de s’assurer : [0157] In this new iteration, it is always necessary to ensure:

- qu’une ou plusieurs des vignettes sélectionnées représentent une entité pouvant être associée par un humain, de manière univoque, à l’extrait sonore sélectionné, et - that one or more of the selected thumbnails represent an entity that can be uniquely associated by a human with the selected sound clip, and

- qu’une ou plusieurs des vignettes restantes représentent une entité pouvant être considérée par un humain, de manière univoque, comme sans rapport avec l’extrait sonore sélectionné. - that one or more of the remaining thumbnails represent an entity that can be considered by a human, unequivocally, as unrelated to the selected sound clip.

[0158] Par ailleurs, dans cette nouvelle itération, on prévoit également, parmi les vignettes sélectionnées, une ou plusieurs vignettes représentant une entité dont le rapport avec l’extrait sonore sélectionné est indéfini, potentiellement équivoque pour un humain. Furthermore, in this new iteration, provision is also made, among the thumbnails selected, for one or more thumbnails representing an entity whose relationship with the selected sound extract is indefinite, potentially equivocal for a human.

[0159] On considère par exemple un extrait sonore sélectionné, issu d’une base de données d’extraits sonores et correspondant au bruit d’un moteur de tondeuse. Consider for example a selected sound extract, from a database of sound extracts and corresponding to the noise of a mower engine.

[0160] Cet extrait sonore sélectionné peut être associé, dans une table de correspondance, à un premier groupe de vignettes issues d’une base de données de vignettes et représentant des tondeuses. This selected sound extract can be associated, in a correspondence table, with a first group of thumbnails from a database of thumbnails and representing mowers.

[0161]On peut également définir, dans cette base de données de vignettes, un deuxième groupe de vignettes représentant des animaux, des instruments de musique, ou d’autres entités n’étant pas susceptibles d'émettre un son ressemblant au bruit d’un moteur de tondeuse. Les vignettes de ce deuxième groupe de vignettes peuvent être associées, dans la table de correspondance, à une indication selon laquelle elles sont sans rapport avec l’extrait sonore sélectionné. It is also possible to define, in this thumbnail database, a second group of thumbnails representing animals, musical instruments, or other entities that are not likely to emit a sound resembling the sound of a lawn mower engine. The thumbnails of this second group of thumbnails can be associated, in the correspondence table, with an indication according to which they are unrelated to the selected sound extract.

[0162] Enfin, on peut également définir, dans cette base de données de vignettes, un troisième groupe de vignettes représentant un autre dispositif équipé d’un moteur, par exemple un cyclomoteur, et susceptible à ce titre d'émettre un son analogue à celui d’un moteur de tondeuse. Finally, it is also possible to define, in this thumbnail database, a third group of thumbnails representing another device fitted with a motor, for example a moped, and capable as such of emitting a sound similar to that of a lawnmower engine.

[0163] La sélection de l’ensemble de vignettes peut ainsi prévoir, dans cette nouvelle itération, de sélectionner une ou plusieurs vignettes de chacun des trois groupes de vignettes définis ci-avant. The selection of the set of thumbnails can thus provide, in this new iteration, for selecting one or more thumbnails from each of the three groups of thumbnails defined above.

[0164] L’ensemble de vignettes comprend ainsi : [0164] The set of vignettes thus comprises:

- un premier sous-ensemble de vignettes formé des vignettes sélectionnées au sein du premier groupe de vignettes (ici des vignettes représentant une tondeuse),- a first subset of thumbnails formed of the thumbnails selected within the first group of thumbnails (here thumbnails representing a mower),

- un autre sous-ensemble de vignettes formé des vignettes sélectionnées au sein du deuxième groupe de vignettes (ici des vignettes représentant des entités diverses, par exemple des animaux ou des instruments de musique), et - another subset of thumbnails formed of the thumbnails selected within the second group of thumbnails (here thumbnails representing various entities, for example animals or musical instruments), and

- un troisième sous-ensemble de vignettes formé des vignettes sélectionnées au sein du troisième groupe de vignettes (ici des vignettes représentant des cyclomoteurs). - A third subset of thumbnails formed of the thumbnails selected within the third group of thumbnails (here thumbnails representing mopeds).

[0165] Ce troisième sous-ensemble de vignettes est déterminé (S31 ) comme désignant un sous-ensemble de vignettes dont le rapport avec l’extrait sonore sélectionné est indéfini au moment de leur sélection. This third subset of vignettes is determined (S31) as designating a subset of vignettes whose relationship with the selected sound extract is undefined at the time of their selection.

[0166] L’interaction avec l’utilisateur est la même qu’au cours de l’itération précédente de l’algorithme. [0166] The interaction with the user is the same as during the previous iteration of the algorithm.

[0167] L’ensemble de vignettes sélectionné est affiché, l’extrait sonore sélectionné est lu, puis au moins un signal de sélection est reçu. The selected set of thumbnails is displayed, the selected sound extract is played, then at least one selection signal is received.

[0168] Ce signal est issu d’une interface homme-machine et indicatif d’une sélection d’une ou plusieurs vignettes de l’ensemble de vignettes affiché. [0169] Après identification, sur la base de ce signal de sélection reçu, d’un deuxième sous-ensemble formé de chaque vignette sélectionnée, il est possible de procéder à une comparaison (S61 ) entre le troisième sous-ensemble de vignettes et le deuxième sous-ensemble de vignettes. Dans cet exemple, on détermine donc si les vignettes sélectionnées par l’utilisateur représentent ou non des cyclomoteurs. This signal comes from a man-machine interface and is indicative of a selection of one or more thumbnails from the set of thumbnails displayed. [0169] After identification, on the basis of this selection signal received, of a second subset formed of each selected thumbnail, it is possible to carry out a comparison (S61) between the third subset of thumbnails and the second subset of thumbnails. In this example, it is therefore determined whether or not the thumbnails selected by the user represent mopeds.

[0170] Pour chaque vignette (ici représentant un cyclomoteur) dont le rapport avec l’extrait sonore sélectionné est initialement incertain, ceci permet de déterminer si l’utilisateur, identifié comme étant un humain, considère que cette vignette représente, ou non, une entité susceptible d’émettre un bruit correspondant à un tel extrait sonore. For each thumbnail (here representing a moped) whose relationship with the selected sound clip is initially uncertain, this makes it possible to determine whether the user, identified as being a human, considers that this thumbnail represents, or not, a entity capable of emitting a noise corresponding to such a sound extract.

[0171]Si le résultat d’une telle comparaison (S61 ) indique que le deuxième sous- ensemble de vignettes (celles sélectionnées) comprend toutes les vignettes du troisième sous-ensemble de vignettes (celles représentant un cyclomoteur), alors on peut prévoir d’associer (S71 ) l’extrait sonore sélectionné aux vignettes du troisième sous-ensemble. Il est également possible, en complément, de procéder à une comparaison (S6) entre le premier sous-ensemble de vignettes (ici celles représentant une tondeuse) et le deuxième sous-ensemble de vignettes. Si le résultat d’une telle comparaison (S6) indique que le deuxième sous-ensemble de vignettes ne comprend aucune vignette du premier sous-ensemble de vignettes (dans cet exemple, représentant une tondeuse), alors cela signifie que l’extrait sonore sélectionné était incorrectement associé aux vignettes du premier sous- ensemble de vignettes. Donc, il peut être prévu, en pareil cas, de mettre à jour une table de correspondance préexistante entre extraits sonores et vignettes. Une telle mise à jour se résume, par exemple, à associer l’extrait sonore sélectionné non plus au premier sous-ensemble de vignettes (ici celles représentant une tondeuse), mais à la place au troisième sous-ensemble de vignettes (ici celles représentant un cyclomoteur). If the result of such a comparison (S61) indicates that the second subset of thumbnails (those selected) includes all the thumbnails of the third subset of thumbnails (those representing a moped), then provision can be made for associating (S71) the selected sound extract with the thumbnails of the third subset. It is also possible, in addition, to carry out a comparison (S6) between the first subset of thumbnails (here those representing a mower) and the second subset of thumbnails. If the result of such a comparison (S6) indicates that the second thumbnail subset does not include any thumbnail of the first thumbnail subset (in this example, representing a lawn mower), then this means that the selected sound clip was incorrectly associated with the thumbnails of the first subset of thumbnails. Therefore, provision may be made, in such a case, to update a pre-existing correspondence table between sound extracts and vignettes. Such an update comes down, for example, to associating the selected sound clip no longer with the first subset of thumbnails (here those representing a mower), but instead with the third subset of thumbnails (here those representing a moped).

[0172] On se réfère à présent à la figure 4 qui présente un exemple de variante des interfaces graphiques des figures 1 et 2. We now refer to Figure 4 which shows an example of a variant of the graphical interfaces of Figures 1 and 2.

[0173] Dans cet exemple, une pluralité de boutons de lecture (11 ) sont affichés, ici neuf boutons de lecture répartis sous la forme d’une grille 3x3. [0174] Lorsqu’un utilisateur interagit avec l’un de ces boutons de lecture, un extrait sonore qui lui est associé est diffusé. Simultanément, le bouton de lecture avec lequel l’interaction est couramment effectuée peut s’animer, par exemple sous la forme d'une emphase. In this example, a plurality of play buttons (11) are displayed, here nine play buttons distributed in the form of a 3×3 grid. When a user interacts with one of these playback buttons, a sound clip associated with it is played. Simultaneously, the play button with which the interaction is currently performed can animate, for example in the form of an emphasis.

[0175] Une fois que l’utilisateur a interagi avec tous les boutons de lecture, il peut interagir avec un bouton « Suivant » (14) pour déclencher une animation de l’interface graphique. [0175] Once the user has interacted with all the playback buttons, he can interact with a "Next" button (14) to trigger an animation of the graphical interface.

[0176] Un ensemble (2) de vignettes vient alors se superposer aux boutons de lecture (11 ). En d’autres termes, chaque bouton de lecture est remplacé par une vignette correspondante. A set (2) of vignettes is then superimposed on the play buttons (11). In other words, each play button is replaced with a corresponding thumbnail.

[0177] Simultanément, une image (13) représentant une entité susceptible d’avoir généré l’un des extraits sonores ayant été diffusé à l'utilisateur est affichée. Cette image (13) est associée à l’extrait sonore en question. Simultaneously, an image (13) representing an entity likely to have generated one of the sound clips having been broadcast to the user is displayed. This image (13) is associated with the sound clip in question.

[0178] Il est alors demandé à l’utilisateur d’indiquer l’extrait sonore, parmi ceux ayant été diffusés, susceptible d'avoir été émis par l’entité représentée sur l’image (13). Pour cela, il est attendu que l’utilisateur interagisse avec la vignette qui se situe au même endroit que le bouton de lecture ayant déclenché l’extrait sonore en question, puis, optionnellement, valide son choix en interagissant avec un bouton de validation (15). [0178] The user is then asked to indicate the sound extract, among those having been broadcast, likely to have been emitted by the entity represented in the image (13). For this, it is expected that the user interacts with the thumbnail which is located in the same place as the play button that triggered the sound clip in question, then, optionally, validates his choice by interacting with a validation button (15 ).

[0179] On se réfère à présent à la figure 5 qui illustre un exemple de variante de l’algorithme illustré sur la figure 3, cette variante étant en lien par exemple avec l’interface graphique représentée sur la figure 4. We now refer to Figure 5 which illustrates an example of a variant of the algorithm shown in Figure 3, this variant being linked for example to the graphical interface shown in Figure 4.

[0180] L’algorithme illustré sur la figure 5 reprend tous les éléments essentiels de celui illustré sur la figure 3, qui sont décrits à nouveau ci-après, et peut également intégrer l'un quelconque des éléments optionnels représentés sur la figure 3. The algorithm illustrated in Figure 5 incorporates all the essential elements of that illustrated in Figure 3, which are described again below, and can also incorporate any of the optional elements shown in Figure 3.

[0181] Plusieurs extraits sonores sont sélectionnés (S1 ), par exemple dans une base de données d’extraits sonores. Several sound clips are selected (S1), for example from a database of sound clips.

[0182] Une image associée à l’un des extraits sonores sélectionnés et représentant une entité susceptible d'avoir émis, ou apte à émettre, cet extrait sonore sélectionné, est également sélectionnée (S2), par exemple dans une base de données d’images. [0182] An image associated with one of the selected sound extracts and representing an entity likely to have emitted, or capable of emitting, this sound extract selected, is also selected (S2), for example in an image database.

[0183] Un sous-ensemble d’extraits sonores est déterminé (S3), il est défini comme désignant l'extrait sonore associé à l’image sélectionnée. A subset of sound extracts is determined (S3), it is defined as designating the sound extract associated with the selected image.

[0184] Plusieurs boutons de lecture sont affichés simultanément (S41). Ces boutons sont interactifs et respectivement associés à l’un des extraits sonores sélectionnés. Un utilisateur peut donc agir successivement avec chaque bouton de lecture et ainsi écouter successivement chacun des extraits sonores sélectionnés. [0184] Several read buttons are displayed simultaneously (S41). These buttons are interactive and respectively associated with one of the selected sound clips. A user can therefore act successively with each play button and thus listen successively to each of the selected sound extracts.

[0185] Concrètement, suite à l'interaction de l'utilisateur avec un bouton de lecture, un signal indiquant cette interaction est reçu (S42) et déclenche (S43) la diffusion de l’extrait sonore associé à ce bouton de lecture. [0185] Concretely, following the interaction of the user with a play button, a signal indicating this interaction is received (S42) and triggers (S43) the broadcasting of the sound extract associated with this play button.

[0186] Une fois que tous les extraits sonores sélectionnés ont été diffusés, il est possible de déclencher une routine d’animation de l’interface graphique, afin d’afficher (S4) un ensemble de vignettes venant se superposer aux boutons de lecture, ainsi que l’image sélectionnée. [0286] Once all the selected sound clips have been broadcast, it is possible to trigger an animation routine of the graphical interface, in order to display (S4) a set of thumbnails superimposed on the play buttons, as well as the selected image.

[0187] Parmi les vignettes de l’ensemble de vignettes, on peut définir un premier sous-ensemble de vignettes comme formé de la vignette superposée au bouton de lecture ayant déclenché l’extrait sonore associé à l’image sélectionnée. Among the thumbnails of the set of thumbnails, it is possible to define a first subset of thumbnails as formed of the thumbnail superimposed on the play button having triggered the sound clip associated with the selected image.

[0188] Par exemple, si l’image sélectionnée représente un chat et si l’interaction avec le bouton de lecture situé en haut à gauche d’une grille de boutons de lecture 3x3 a déclenché l’émission d’un extrait sonore, associé à l’image sélectionnée et correspondant à un miaulement, alors le premier sous-ensemble de vignettes est formé de la vignette située en haut à gauche d’une grille de vignettes 3x3. [0188] For example, if the selected image represents a cat and if the interaction with the play button located at the top left of a grid of 3x3 play buttons has triggered the emission of a sound extract, associated to the selected image and corresponding to a meow, then the first subset of thumbnails is formed of the thumbnail located at the top left of a grid of 3x3 thumbnails.

[0189] L’utilisateur est alors invité à indiquer l’extrait sonore parmi ceux diffusés susceptible d’être émis par l’entité représentée sur l’image sélectionnée. [0289] The user is then invited to indicate the sound extract among those broadcast likely to be emitted by the entity represented on the selected image.

[0190] Pour cela, l’utilisateur est invité à interagir, spécifiquement, avec la vignette ayant la même position que le bouton de lecture ayant déclenché l’extrait sonore associé à l’image sélectionnée. [0191]Suite à l’interaction de l’utilisateur avec une vignette, un signal indiquant cette interaction est reçu (S5) et sur la base de ce signal, un deuxième sous-ensemble de vignettes est déterminé (S51). Le deuxième sous-ensemble de vignettes est formé de la vignette avec laquelle l’utilisateur a effectivement interagi. To do this, the user is invited to interact, specifically, with the thumbnail having the same position as the play button that triggered the sound clip associated with the selected image. [0191] Following the user's interaction with a thumbnail, a signal indicating this interaction is received (S5) and based on this signal, a second subset of thumbnails is determined (S51). The second thumbnail subset is the thumbnail with which the user actually interacted.

[0192] Ensuite, on peut conduire (S6) un test de comparaison entre d’une part le premier sous-ensemble de vignettes et d’autre part le deuxième sous-ensemble de vignettes et, sur la base du résultat de ce test, identifier (S7) l’utilisateur soit comme étant un humain, soit comme étant une machine. Next, a comparison test can be carried out (S6) between, on the one hand, the first subset of thumbnails and, on the other hand, the second subset of thumbnails and, on the basis of the result of this test, identifying (S7) the user either as a human or as a machine.

[0193] Bien entendu, l’algorithme représenté sur la figure 5 peut alternativement, à titre de variante supplémentaire, requérir : Of course, the algorithm shown in Figure 5 can alternatively, as an additional variant, require:

- d’identifier plusieurs extraits sonores associés à une même image sélectionnée,- to identify several sound extracts associated with the same selected image,

OU WHERE

- d’identifier tous les extraits sonores associés à l’une quelconque des images d’une liste d'images sélectionnées, ou encore - to identify all the sound clips associated with any of the images from a list of selected images, or even

- d’identifier un ou plusieurs extraits sonores n’étant pas associés à une image sélectionnée. - identify one or more sound clips not associated with a selected image.

[0194] On se réfère à présente à la figure 6, qui représente un exemple de système apte à mettre en œuvre l’un quelconque des algorithmes décrits ci-avant. Reference is now made to FIG. 6, which represents an example of a system capable of implementing any of the algorithms described above.

[0195] Le système comprend un premier circuit de traitement (100) et un deuxième circuit de traitement (200) connectés à travers un réseau (300), par exemple le réseau Internet ou un réseau local. The system comprises a first processing circuit (100) and a second processing circuit (200) connected through a network (300), for example the Internet network or a local network.

[0196]Le premier circuit de traitement comprend au moins un processeur (101 ) raccordé à une mémoire (102) et à une interface de communication réseau (103) The first processing circuit comprises at least one processor (101) connected to a memory (102) and to a network communication interface (103)

[0197] Le premier circuit de traitement (100) peut par exemple être intégré à un ordinateur du bureau ou portable, à une passerelle réseau, à un serveur informatique ou, plus généralement, à tout équipement informatique ou réseau. The first processing circuit (100) can for example be integrated into a desktop or portable computer, into a network gateway, into a computer server or, more generally, into any computer or network equipment.

[0198] Le deuxième circuit de traitement (200) comprend également au moins un processeur (201 ) raccordé à une mémoire (202) et à au moins une interface de communication (203), notamment une interface de communication réseau, permettant ainsi une communication avec le premier circuit de traitement (100) par l’entremise du réseau (300). The second processing circuit (200) also comprises at least one processor (201) connected to a memory (202) and to at least one communication interface (203), in particular a network communication interface, thereby enabling communication with the first processing circuit (100) via the network (300).

[0199] Le deuxième circuit de traitement (200) désigne un équipement réseau tel qu’un boîtier décodeur ou un terminal tel qu’un téléphone multifonctions et est destiné à être utilisé pour fournir un service à un ou plusieurs utilisateurs. The second processing circuit (200) designates a network equipment such as a decoder box or a terminal such as a multifunction telephone and is intended to be used to provide a service to one or more users.

[0200] Le deuxième circuit de traitement (200) est par ailleurs raccordé à un périphérique de restitution visuelle (204) tel qu'un écran ou un vidéoprojecteur pour afficher une interface graphique, un périphérique de restitution sonore tel qu’un haut-parleur qui peut éventuellement être intégré au périphérique de restitution visuelle, et une interface homme-machine (205), par exemple vocale ou tactile, via laquelle un utilisateur peut interagir avec l’interface graphique affichée. [0200] The second processing circuit (200) is also connected to a visual reproduction peripheral (204) such as a screen or a video projector to display a graphic interface, a sound reproduction peripheral such as a loudspeaker which may optionally be integrated into the visual reproduction peripheral, and a man-machine interface (205), for example voice or touch, via which a user can interact with the graphical interface displayed.

[0201]On se réfère à présent à la figure 7, qui illustre encore un autre exemple de variante des interfaces graphiques représentées sur les figures 1 , 2 et 4. We now refer to Figure 7, which illustrates yet another example of a variant of the graphical interfaces shown in Figures 1, 2 and 4.

[0202] Comme sur les figures 1 , 2, et 4, l’interface graphique de la figure 7 comporte un bouton (11) de commande de lecture d’un deuxième son, une série (2) d’éléments interactifs lors de l’audition du deuxième son, et un bouton de réinitialisation (31 ). [0202] As in Figures 1, 2, and 4, the graphical interface of Figure 7 includes a button (11) for controlling playback of a second sound, a series (2) of interactive elements during the audition of the second sound, and a reset button (31).

[0203] La série (2) d’éléments interactifs de la figure 7 se distingue de celle des figures 1 et 2 en ce qu’elle est dénuée de vignettes mais affiche une sélection de mots. [0203] The series (2) of interactive elements in Figure 7 differs from that of Figures 1 and 2 in that it is devoid of thumbnails but displays a selection of words.

[0204]Ainsi, lors de l’audition d’un deuxième son par l'utilisateur, celui-ci interagit avec l’interface graphique au moyen d’une interface homme-machine en sélectionnant l’un des mots affichés, générant ainsi un deuxième identifiant. [0204] Thus, when the user listens to a second sound, the latter interacts with the graphical interface by means of a man-machine interface by selecting one of the words displayed, thus generating a second identifier.

[0205] L’interface graphique représentée sur la figure 7 répond au besoin de déterminer si un utilisateur est doté ou non d’un certain type d’équipement particulier. [0205] The graphical interface shown in Figure 7 meets the need to determine whether or not a user has a certain type of particular equipment.

[0206] Il peut être prévu par exemple que l’utilisateur soit considéré comme étant un utilisateur approprié dès lors qu’il est équipé d’un dispositif de restitution sonore permettant de reproduire le deuxième son. [0207] Ainsi, il suffit de permettre à l’utilisateur de : [0206] Provision can be made, for example, for the user to be considered to be an appropriate user as soon as he is equipped with a sound reproduction device making it possible to reproduce the second sound. [0207] Thus, it suffices to allow the user to:

- commander la lecture du deuxième son, par exemple au moyen du bouton (11 ) de commande afférent, puis - control the reading of the second sound, for example by means of the related control button (11), then

- caractériser ce deuxième son par une interaction avec un ou plusieurs éléments interactifs de la série (2) d’éléments interactifs. - characterize this second sound by an interaction with one or more interactive elements of the series (2) of interactive elements.

[0208] Dans cette optique, la nature de la série (2) d’éléments interactifs n’a pas d’importance dès lors : que ces éléments sont respectivement associés à un premier identifiant associé à un premier son et qu’interagir avec l’un de ces éléments interactifs génère un deuxième identifiant. [0208] With this in mind, the nature of the series (2) of interactive elements does not matter since: that these elements are respectively associated with a first identifier associated with a first sound and that interacting with the one of these interactive elements generates a second identifier.

[0209] Il n’est donc aucunement nécessaire que les éléments interactifs soient, en particulier, des vignettes. [0209] There is therefore no need for the interactive elements to be, in particular, thumbnails.

[0210] Alternativement, il peut être prévu par exemple que l’utilisateur soit considéré comme étant un utilisateur approprié dès lors qu’il est équipé d’un capteur sonore permettant de capter le deuxième son. [0210] Alternatively, it can be provided for example that the user is considered to be an appropriate user when he is equipped with a sound sensor making it possible to pick up the second sound.

[0211]Ainsi, il suffit de permettre à l’utilisateur, lors de l’audition du deuxième son, de : [0211] Thus, it suffices to allow the user, when hearing the second sound, to:

- déclencher la capture de ce deuxième son, par exemple au moyen d’un bouton de commande, et - trigger the capture of this second sound, for example by means of a control button, and

- caractériser ce deuxième son par une interaction avec un ou plusieurs éléments interactifs de la série (2) d’éléments interactifs. - characterize this second sound by an interaction with one or more interactive elements of the series (2) of interactive elements.

[0212] Ces deux étapes ne nécessitent pas d’être mises en œuvre dans un ordre particulier. These two steps do not need to be implemented in any particular order.

[0213] Le deuxième son peut alors être comparé à une base de données de premiers sons de manière à y identifier un premier son présentant une ressemblance avec le deuxième son. The second sound can then be compared to a database of first sounds so as to identify therein a first sound having a resemblance to the second sound.

[0214] Au moins un deuxième identifiant, résultant de l’interaction de l’utilisateur pour caractériser ce deuxième son, peut alors être comparé à un premier sous- ensemble de premiers identifiants associé au premier son ainsi identifié, pour caractériser, en fonction d’une règle prédéfinie, l’utilisateur comme étant ou non un utilisateur approprié. [0214] At least one second identifier, resulting from the interaction of the user to characterize this second sound, can then be compared to a first subset of first identifiers associated with the first sound thus identified, for characterize, according to a predefined rule, the user as being or not being an appropriate user.

[0215] Par exemple, le résultat de cette dernière comparaison peut permettre d’identifier l’utilisateur comme étant équipé d’un capteur sonore, et de déterminer par conséquent que l’utilisateur est un utilisateur approprié. [0215] For example, the result of this last comparison can make it possible to identify the user as being equipped with a sound sensor, and consequently to determine that the user is an appropriate user.

Claims

Revendications Claims [Revendication 1] Procédé de caractérisation d’un utilisateur, le procédé étant mis en œuvre par un dispositif de traitement, le procédé comprenant : [Claim 1] A method of characterizing a user, the method being implemented by a processing device, the method comprising: - une (S6) comparaison entre au moins un premier identifiant d’un premier son et au moins un deuxième identifiant reçu d’une interface homme-machine, le deuxième identifiant étant reçu après une reproduction d'une pluralité de deuxièmes sons par l’interface homme-machine, la comparaison déclenchant, si le deuxième identifiant reçu correspondant au premier identifiant, une caractérisation de l’utilisateur comme étant un utilisateur approprié. - a (S6) comparison between at least a first identifier of a first sound and at least a second identifier received from a man-machine interface, the second identifier being received after a reproduction of a plurality of second sounds by the man-machine interface, the comparison triggering, if the second identifier received corresponding to the first identifier, a characterization of the user as being an appropriate user. [Revendication 2] Procédé selon la revendication 1 , dans lequel le procédé comprend : [Claim 2] A method according to claim 1, wherein the method comprises: - une réception (S5) d’au moins un signal provenant d’une interface homme- machine, le signal comportant le deuxième identifiant du deuxième son entendu. - reception (S5) of at least one signal originating from a man-machine interface, the signal comprising the second identifier of the second sound heard. [Revendication 3] Procédé selon l’une quelconque des revendications 1 ou 2, dans lequel le procédé comprend une parmi les étapes suivantes: [Claim 3] A method according to any of claims 1 or 2, wherein the method comprises one of the following steps: - une commande de reproduction d’un extrait sonore comportant un premier son associé à un des premiers sous-ensembles de premiers identifiants de premiers sons, le deuxième son entendu comportant le premier son reproduit ; - a command for reproducing a sound extract comprising a first sound associated with one of the first subsets of first identifiers of first sounds, the second sound heard comprising the first sound reproduced; - une commande de capture du deuxième son entendu, la capture déclenchant une comparaison du deuxième son entendu avec au moins un premier son associé à un premier sous-ensemble d'identifiants. - a command for capturing the second sound heard, the capture triggering a comparison of the second sound heard with at least one first sound associated with a first subset of identifiers. [Revendication 4] Procédé selon l’une quelconque des revendications 1 à 3, dans lequel le procédé comprend : [Claim 4] A method according to any of claims 1 to 3, wherein the method comprises: - une commande (S4) d’affichage d’un ensemble de vignettes, l’ensemble de vignettes affiché comprenant au moins un identifiant d’un premier sous- ensemble associé au deuxième son entendu, - a command (S4) for displaying a set of thumbnails, the set of thumbnails displayed comprising at least one identifier of a first subset associated with the second sound heard, [Revendication 5] Procédé selon l’une quelconque des revendications 1 à 4, dans lequel le procédé comprend : [Claim 5] A method according to any of claims 1 to 4, wherein the method comprises: - sur la base d’au moins un signal de sélection reçu comportant au moins un deuxième identifiant reçu d’une interface homme-machine, lors de l’audition d’un deuxième son par l'utilisateur de l’interface homme-machine, une génération (S51 ) d’un deuxième sous-ensemble comportant les deuxièmes identifiants,- on the basis of at least one selection signal received comprising at least one second identifier received from a man-machine interface, during the hearing of a second sound by the user of the man-machine interface, a generation (S51) of a second subset comprising the second identifiers, - la (S6) comparaison étant effectuée entre au moins un premier sous-ensemble de premiers identifiants d’un premier son et au moins un deuxième identifiant du deuxième sous-ensemble, la comparaison déclenchant, si aauu moins un deuxième identifiant ou tous les deuxième identifiants du deuxième sous- ensemble reçu appartiennent au premier sous-ensemble associé à un premier son correspondant au deuxième son entendu, la caractérisation de l’utilisateur comme étant un utilisateur approprié. - the (S6) comparison being carried out between at least a first subset of first identifiers of a first sound and at least a second identifier of the second subset, the comparison triggering, if at least a second identifier or all the second identifiers of the second subset received belong to the first subset associated with a first sound corresponding to the second sound heard, characterizing the user as being an appropriate user. [Revendication 6] Procédé selon l’une quelconque des revendications 1 à 5, dans lequel le premier identifiant et le deuxième identifiant ont un type d’identifiant parmi les suivants : [Claim 6] A method according to any of claims 1 to 5, wherein the first identifier and the second identifier have one of the following identifier types: - au moins un mot, - at least one word, - au moins une image, - at least one image, - une étiquette associé à un objet ; - a label associated with an object; - une vignette. - a thumbnail. [Revendication 7] Procédé selon l’une quelconque des revendications 1 à 6, dans lequel : [Claim 7] A method according to any of claims 1 to 6, wherein: - le deuxième son étant un son produit par un élément donné, chaque premier identifiant du premier sous-ensemble de premiers identifiants associé au premier son correspondant au deuxième son représente l’élément donné. - the second sound being a sound produced by a given element, each first identifier of the first subset of first identifiers associated with the first sound corresponding to the second sound represents the given element. [Revendication 8] Procédé selon l’une quelconque des revendications 1 à 7, comprenant une sélection (S1 ) du deuxième son dans une base d’extraits sonores sur la base d’une table de correspondance associant, à chaque extrait sonore de la base, une classe respective. [Claim 8] Method according to any one of claims 1 to 7, comprising a selection (S1) of the second sound in a base of sound extracts on the basis of a correspondence table associating, with each sound extract of the base , a respective class. [Revendication 9] Procédé selon l’une quelconque des revendications 1 à 8, comprenant une sélection (S2) dudit au moins un premier sous-ensemble de premiers identifiants dans une base de premiers identifiants sur la base d'une table de correspondance associant, à chaque premier identifiant de la base, une classe respective. [Claim 9] Method according to any one of claims 1 to 8, comprising a selection (S2) of said at least one first subset of first identifiers in a base of first identifiers on the basis of a correspondence table associating, at each first identifier of the base, a respective class. [Revendication 10] Procédé selon la revendication 9 lorsqu’elle dépend de la revendication 8, dans lequel la sélection (S2) dudit au moins un premier sous- ensemble de premiers identifiants dans la base de premiers identifiants est sur la base en outre de la classe associée à l’extrait sonore sélectionné comme deuxième son. [Claim 10] A method according to claim 9 when dependent on claim 8, wherein the selection (S2) of said at least a first subset of first identifiers in the first identifier database is further based on the class associated with the sound clip selected as the second sound. [Revendication 11] Procédé selon l’une quelconque des revendications 8 à 10, l’ensemble de vignettes comprenant en outre un troisième sous-ensemble formé d’au moins une vignette, le procédé comprenant : [Claim 11] A method according to any one of claims 8 to 10, the set of thumbnails further comprising a third subset formed of at least one thumbnail, the method comprising: - un test de comparaison (S61) entre le troisième sous-ensemble et le deuxième sous-ensemble, et - a comparison test (S61) between the third subset and the second subset, and - sur la base de ce test, une mise à jour (S71 ), dans la table de correspondance associant, à chaque extrait sonore de la base d’extraits sonores, une classe respective, de la classe associée à l’extrait sonore sélectionné. - on the basis of this test, an update (S71), in the correspondence table associating, with each sound extract from the base of sound extracts, a respective class, of the class associated with the selected sound extract. [Revendication 12] Procédé selon l’une quelconque des revendications 8 à 10, l'ensemble de vignettes comprenant en outre un troisième sous-ensemble formé d’au moins une vignette, le procédé comprenant : [Claim 12] A method according to any one of claims 8 to 10, the set of thumbnails further comprising a third subset formed of at least one thumbnail, the method comprising: - un test de comparaison (S61) entre le troisième sous-ensemble et le deuxième sous-ensemble, et - a comparison test (S61) between the third subset and the second subset, and - sur la base de ce test, une mise à jour (S71 ), dans la table de correspondance associant, à chaque vignette de la base de vignettes, une classe respective, de la classe associée à au moins une vignette du troisième sous-ensemble. - on the basis of this test, an update (S71), in the correspondence table associating, with each thumbnail of the thumbnail base, a respective class, of the class associated with at least one thumbnail of the third subset . [Revendication 13] Programme informatique comportant des instructions pour la mise en œuvre du procédé selon l’une quelconque des revendications 1 à 12 lorsque ce programme est exécuté par un processeur. [Claim 13] Computer program comprising instructions for implementing the method according to any one of Claims 1 to 12 when this program is executed by a processor. [Revendication 14] Support (102) d’enregistrement non transitoire lisible par un ordinateur sur lequel est enregistré un programme pour la mise en œuvre du procédé selon l’une quelconque des revendications 1 à 12 lorsque ce programme est exécuté par un processeur. [Claim 14] Non-transitory computer-readable recording medium (102) on which is recorded a program for carrying out the method according to any one of claims 1 to 12 when this program is executed by a processor. [Revendication 15] Dispositif de traitement apte à mettre en œuvre un traitement de caractérisation d’un utilisateur sur commande d’une interface homme-machine, dans lequel le dispositif de traitement comporte : [Claim 15] Processing device capable of implementing user characterization processing on command from an interface man-machine, in which the processing device comprises: - un comparateur apte à comparer au moins un premier identifiant d’un premier son et au moins un deuxième identifiant reçu d’une interface homme-machine, le deuxième identifiant étant reçu après une reproduction d’une pluralité de deuxièmes sons par l’interface homme-machine, le comparateur déclenchant, si le deuxième identifiant reçu correspondant au premier identifiant, un caractériseur apte à caractériser l’utilisateur comme étant un utilisateur approprié. - a comparator able to compare at least a first identifier of a first sound and at least a second identifier received from a man-machine interface, the second identifier being received after a reproduction of a plurality of second sounds by the interface man-machine, the comparator triggering, if the second identifier received corresponding to the first identifier, a characterizer capable of characterizing the user as being an appropriate user.
EP22727214.3A 2021-04-29 2022-04-28 Characterisation of a user via association of a sound with an interactive element Pending EP4330838A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2104517A FR3122508A1 (en) 2021-04-29 2021-04-29 Characterization of a user by associating a sound with an interactive element
PCT/FR2022/050811 WO2022229563A1 (en) 2021-04-29 2022-04-28 Characterisation of a user via association of a sound with an interactive element

Publications (1)

Publication Number Publication Date
EP4330838A1 true EP4330838A1 (en) 2024-03-06

Family

ID=76283999

Family Applications (1)

Application Number Title Priority Date Filing Date
EP22727214.3A Pending EP4330838A1 (en) 2021-04-29 2022-04-28 Characterisation of a user via association of a sound with an interactive element

Country Status (4)

Country Link
US (1) US20240202296A1 (en)
EP (1) EP4330838A1 (en)
FR (1) FR3122508A1 (en)
WO (1) WO2022229563A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2109837B1 (en) * 2007-01-23 2012-11-21 Carnegie Mellon University Controlling access to computer systems and for annotating media files
US8245277B2 (en) * 2008-10-15 2012-08-14 Towson University Universally usable human-interaction proof
US8959648B2 (en) * 2010-10-01 2015-02-17 Disney Enterprises, Inc. Audio challenge for providing human response verification
US8875239B2 (en) * 2011-08-10 2014-10-28 International Business Machines Corporation Cognitive pattern recognition for security access in a flow of tasks
US9722985B2 (en) * 2014-05-01 2017-08-01 Qualcomm Incorporated Sensory output for image association

Also Published As

Publication number Publication date
WO2022229563A1 (en) 2022-11-03
US20240202296A1 (en) 2024-06-20
FR3122508A1 (en) 2022-11-04

Similar Documents

Publication Publication Date Title
US20200058088A1 (en) Method and system for determining content treatment
US9785841B2 (en) Method and system for audio-video signal processing
KR20100107451A (en) Real-time annotator
EP2393022A2 (en) Method for creating a media sequence using coherent groups of media files
US12120154B2 (en) Filtering video content items
EP2104937B1 (en) Method for creating a new summary of an audiovisual document that already includes a summary and reports and a receiver that can implement said method
EP1652180B1 (en) Method for reproducing audio documents with the aid of an interface comprising document groups and associated reproducing device
EP1977365A1 (en) Electronic document management method
WO2022229563A1 (en) Characterisation of a user via association of a sound with an interactive element
EP3556102B1 (en) Method of recording a forthcoming telebroadcast program
CN103136277B (en) Multimedia file playing method and electronic device
US11700285B2 (en) Filtering video content items
JP2001075992A (en) Method and system for sound retrieval and computer- readable recording medium
FR2956515A1 (en) NAVIGATION METHOD IN SOUND CONTENT
Clarke Freedom of information: The Internet as harbinger of the new Dark Ages
US20230306093A1 (en) Computer challenge systems based on sound recognition
WO2018167420A1 (en) Method for enriching a digital content with spontaneous data
FR3089324A1 (en) Method for determining a conversational agent on a terminal
FR3053557A1 (en) METHOD FOR STORING A MULTIMEDIA CONTENT, ASSOCIATED READING METHOD AND METHOD FOR MANAGING A STORAGE SPACE CONTAINING SUCH CONTENT
Clarke Freedom of information
WO2015044590A1 (en) Method for authenticating a user provided with a first device by a second device
US20060101342A1 (en) System and method for generating suggested alternatives for visual or audible submissions
CN118802206A (en) A network address processing method, device, electronic device, and medium
Mitra Digital Music
FR3093607A1 (en) Audiovisual content restitution process

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20231124

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)