FR3072249A1 - METHOD FOR DETECTING A FINGER ROTARY OR OTHER PART OF THE BODY OF A USER FROM A PARTICULARLY PORTABLE DEVICE - Google Patents

METHOD FOR DETECTING A FINGER ROTARY OR OTHER PART OF THE BODY OF A USER FROM A PARTICULARLY PORTABLE DEVICE Download PDF

Info

Publication number
FR3072249A1
FR3072249A1 FR1771088A FR1771088A FR3072249A1 FR 3072249 A1 FR3072249 A1 FR 3072249A1 FR 1771088 A FR1771088 A FR 1771088A FR 1771088 A FR1771088 A FR 1771088A FR 3072249 A1 FR3072249 A1 FR 3072249A1
Authority
FR
France
Prior art keywords
user
measurement
target area
finger
dimension
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1771088A
Other languages
French (fr)
Other versions
FR3072249B1 (en
Inventor
Fabien Raiola
Jeremy Neyrou
Florian Zebidi
Sebastien Bertolozzi
Damien Grandi
Pascal Poggioli
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Icare Tech
Original Assignee
Icare Tech
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Icare Tech filed Critical Icare Tech
Priority to FR1771088A priority Critical patent/FR3072249B1/en
Publication of FR3072249A1 publication Critical patent/FR3072249A1/en
Application granted granted Critical
Publication of FR3072249B1 publication Critical patent/FR3072249B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L'invention porte principalement sur un procédé de détection d'une partie du corps (24) d'un utilisateur, notamment un tour de doigt, à l'aide d'un appareil (10) muni d'un support tel qu'une dalle ou un écran (15), par exemple un téléphone mobile ou une tablette numérique, ou autre. Le procédé est notamment basé sur la réalisation d'une étape de détermination d'une donnée relative à une dimension de la zone cible (26) en fonction d'un écart entre des repÚres de mesure (25.1, 25.2) et pourra, le cas échéant, faire intervenir des modÚles 2D ou 3D de la partie du corps, ainsi que des données biométriques ou non pour effectuer une identification du porteur.The invention primarily relates to a method of detecting a user's body part (24), in particular a finger circumference, using a device (10) provided with a support such as a slab or screen (15), for example a mobile phone or a digital tablet, or other. The method is based in particular on the realization of a step of determining a datum relative to a dimension of the target zone (26) according to a gap between measurement markers (25.1, 25.2) and may, where appropriate, involve 2D or 3D models of the body part, as well as biometric data or not to carry out identification of the wearer .

Description

PROCÉDÉ DE DÉTECTION D'UN TOUR DE DOIGT OU AUTRE PARTIE DU CORPS D'UN UTILISATEUR À PARTIR D'UN APPAREIL NOTAMMENT PORTATIF [0001] La présente invention porte sur un procédé de détection d'un tour de doigt ou autre partie du corps d'un utilisateur. L'invention trouve une application particulièrement avantageuse avec les appareils portatifs de type téléphone mobile ou tablette. Toutefois, l'invention pourra également être mise en oeuvre avec des appareils mobiles ou non ainsi qu'avec des appareils autonomes ou non.METHOD FOR DETECTING A FINGERTIME OR OTHER PART OF THE BODY OF A USER FROM A PARTICULARLY PORTABLE APPARATUS The present invention relates to a method of detecting a fingertip or other part of the body of a user. 'an user. The invention finds a particularly advantageous application with portable devices of the mobile phone or tablet type. However, the invention can also be implemented with mobile devices or not as well as with autonomous devices or not.

[0002] L'invention vient du besoin de déterminer le tour de doigt d’un utilisateur, afin de faciliter le déclenchement d’un acte d’achat, notamment l'achat d'une bague sous forme d'un bijou ou d'objet communicant.The invention comes from the need to determine the finger size of a user, in order to facilitate the initiation of a purchase act, in particular the purchase of a ring in the form of a jewel or communicating object.

[0003] Une bague communicante décrite notamment dans les demandes de brevet WO2016/180544, W02017/134170, ou WO2017/134174 est apte à échanger des informations avec un appareil mobile et/ou un lecteur externe, tel qu'un terminal de paiement ou un système de démarrage de véhicule automobile ou un terminal d'accès à un bâtiment.A communicating ring described in particular in patent applications WO2016 / 180544, W02017 / 134170, or WO2017 / 134174 is capable of exchanging information with a mobile device and / or an external reader, such as a payment terminal or a motor vehicle starting system or a building access terminal.

[0004] De façon connue en soi, il est possible de déterminer un tour de doigt à partir d’un baguier muni de formes calibrées ou d'un dispositif de mesure. D’un point de vue numérique, certaines applications ont été développées afin de fournir à l'utilisateur des mesures de son tour de doigt. Toutefois, aucune méthode connue n'interagit directement avec le doigt. En effet, ces méthodes nécessitent l'utilisation de morceaux de papier intermédiaires qui sont imprimés à des dimensions prédéterminées correspondant à des tailles de bague et à partir desquels l'utilisateur peut en déduire son tour de doigt. Suivant une autre méthode connue, il est possible de mesurer le tour de doigt à l’aide d’un ruban enroulé autour du doigt puis posé sur l’écran de l'appareil portatif. L'utilisateur peut ensuite obtenir son tour de doigt par comparaison de la longueur du ruban mesuré avec des tailles de référence.In a manner known per se, it is possible to determine a finger turn from a ring holder provided with calibrated shapes or from a measuring device. From a digital point of view, some applications have been developed in order to provide the user with measurements of his or her fingertip. However, no known method interacts directly with the finger. In fact, these methods require the use of intermediate pieces of paper which are printed at predetermined dimensions corresponding to ring sizes and from which the user can deduce his finger turn. According to another known method, the circumference of the finger can be measured using a tape wrapped around the finger and then placed on the screen of the portable device. The user can then obtain his finger turn by comparing the length of the tape measured with reference sizes.

[0005] Toutefois, ces méthodes ne sont pas intuitives et peuvent mener à un grand nombre d’erreurs du fait d'un manque d’expérience dans la prise en main. En effet, dans le cas de l'utilisation du ruban, la précision de la mesure dépend de l’appréciation de l’utilisateur qui peut plus ou moins serrer le ruban autour de son doigt, ce qui a un impact direct sur la précision de la mesure.However, these methods are not intuitive and can lead to a large number of errors due to a lack of experience in handling. Indeed, in the case of the use of the tape, the precision of the measurement depends on the appreciation of the user who can more or less tighten the tape around his finger, which has a direct impact on the accuracy of measurement.

[0006] L'invention vise à remédier efficacement à ces inconvénients en proposant un procédé de détection d'une partie du corps d'un utilisateur, notamment un tour de doigt, à l'aide d'un appareil muni d'un support tel qu'une dalle ou un écran, par exemple un téléphone mobile ou une tablette numérique, caractérisé en ce qu'il comporte:The invention aims to effectively remedy these drawbacks by providing a method of detecting a part of the body of a user, in particular a finger turn, using a device provided with a support such than a screen or a screen, for example a mobile phone or a digital tablet, characterized in that it comprises:

- une étape de mise en contact de la partie du corps contre le support de l'appareil,a step of bringing the part of the body into contact with the support of the device,

- une étape de déplacement d'au moins un repère de mesure par rapport à un autre repère de mesure, de sorte que les deux repères de mesure coïncident chacun avec un bord d'extrémité d'une zone cible correspondant notamment à la zone destinée à recevoir un objet, tel qu'une bague ou un bracelet, eta step of moving at least one measurement mark relative to another measurement mark, so that the two measurement marks each coincide with an end edge of a target zone corresponding in particular to the zone intended for receive an object, such as a ring or bracelet, and

- une étape de détermination d'une donnée relative à une dimension de la zone cible en fonction d'un écart entre les deux repères de mesure.a step of determining data relating to a dimension of the target area as a function of a difference between the two measurement marks.

[0007] L'invention permet ainsi de proposer un procédé de détection d'une partie du corps de l'utilisateur qui est robuste et simple à mettre en oeuvre. En effet, l'invention ne nécessite pas l'utilisation d'éléments rapportés, tels que des morceaux de papier, mais est mise en oeuvre directement sur la partie du corps à mesurer. L'invention est également économique puisqu'elle peut être implémentée sur des appareils uniquement par installation d'une application logicielle adaptée.The invention thus allows to provide a method of detecting a part of the body of the user which is robust and simple to implement. In fact, the invention does not require the use of added elements, such as pieces of paper, but is implemented directly on the part of the body to be measured. The invention is also economical since it can be implemented on devices only by installing a suitable software application.

[0008] Selon une mise en oeuvre, ledit procédé comporte une étape de validation de la mesure lorsque l’utilisateur considère que les repères de mesure coïncident avec les bords d'extrémité de la zone cible.According to one implementation, said method comprises a step of validating the measurement when the user considers that the measurement marks coincide with the end edges of the target area.

[0009] Selon une mise en oeuvre, le déplacement du ou des repères de mesure est effectué à l'aide de boutons de commande, tels que des boutons numériques et/ou des boutons physiques, notamment des boutons de réglage de volume de l'appareil.According to one implementation, the displacement of the measurement mark (s) is carried out using control buttons, such as digital buttons and / or physical buttons, in particular buttons for adjusting the volume of the apparatus.

[0010] Selon une mise en oeuvre, le déplacement du ou des repères de mesure est effectué par commande vocale, de mouvement, tels que des mouvements du doigt, du téléphone, de la main devant une caméra ou autre, ou par variation d'une pression exercée par la partie du corps de l'utilisateur.According to one implementation, the displacement of the measurement mark (s) is carried out by voice command, by movement, such as movements of the finger, the telephone, the hand in front of a camera or the like, or by variation of pressure exerted by the body part of the user.

[0011 ] Selon une mise en oeuvre, dans le cas où le support est de type tactile, la partie du corps est détectée par le support, notamment par pression sur le support, de sorte que les repères de mesure apparaissent automatiquement de part et d'autre de la partie du corps de l'utilisateur, un ajustement final du ou des repères de mesure suivant les bords d'extrémité de la zone cible pouvant être effectué à partir de commandes de l’utilisateur.According to one implementation, in the case where the support is of tactile type, the part of the body is detected by the support, in particular by pressing on the support, so that the measurement marks appear automatically on both sides. In the other part of the body of the user, a final adjustment of the measurement mark (s) along the end edges of the target zone can be carried out using user commands.

[0012] Selon une mise en oeuvre, dans le cas où le support est un écran (15) non tactile ou un support de projection tel qu'une vitre, un bureau, ou autre associé à une caméra située au-dessus et/ou en dessous dudit support de projection, l’utilisateur maintient un bord d'extrémité de la zone cible (26) contre un repère de mesure, par exemple une ligne fixe, et déplace au moins un repère de mesure mobile jusqu'à ce que ledit repère de mesure coïncide avec un bord d'extrémité opposé de la zone cible. Dans le cas d'une caméra sous ou au-dessus d'un support tel qu'une vitre, on effectue un traitement d’image de la partie du corps posée sur la vitre.According to one implementation, in the case where the support is a screen (15) non-touch or a projection support such as a window, a desk, or other associated with a camera located above and / or below said projection support, the user maintains an end edge of the target area (26) against a measurement mark, for example a fixed line, and moves at least one mobile measurement mark until said measurement mark coincides with an opposite end edge of the target area. In the case of a camera under or above a support such as a window, an image processing of the part of the body placed on the window is carried out.

[0013] Selon une mise en oeuvre, la détermination de la donnée relative à une dimension de la zone cible est effectuée par transformation, via un calcul mathématique, d'une mesure en nombres pixels d'un écart entre au moins deux repères de mesure en une mesure dimensionnelle.According to one implementation, the determination of the data relating to a dimension of the target area is carried out by transformation, via a mathematical calculation, of a measurement in pixel numbers of a difference between at least two measurement marks in a dimensional measurement.

[0014] Selon une mise en oeuvre, ledit procédé comporte une étape d'affichage d'une dimension du doigt de l’utilisateur selon une unité de mesure standard propre à un pays de l’utilisateur.According to one implementation, said method comprises a step of displaying a dimension of the user's finger according to a standard unit of measurement specific to a country of the user.

[0015] Selon une mise en oeuvre, l'appareil transpose une mesure de la partie du corps, par exemple le tour de doigt, dans une ou plusieurs variables, telle qu'une taille de doigt, la ou les variables étant utilisées par une application gérant la mesure ou par une autre application ou en partie par l'application et en partie ou totalement à distance par des serveurs.According to one implementation, the device transposes a measurement of the part of the body, for example the circumference of the finger, into one or more variables, such as a finger size, the variable or variables being used by a application managing the measurement or by another application or partly by the application and partly or totally remotely by servers.

[0016] Les algorithmes de traitement pourront être mis en oeuvre en local sur l'appareil, en semi déporté, c’est-à-dire avec un traitement en partie local et en partie sur des serveurs ou totalement sur un ou plusieurs serveurs.The processing algorithms can be implemented locally on the device, in semi-remote mode, that is to say with processing partly local and partly on servers or totally on one or more servers.

[0017] Selon une mise en oeuvre, la donnée relative à une dimension de la zone cible de la partie du corps de l'utilisateur est déterminée grâce à la pression du doigt sur le support.According to one implementation, the data relating to a dimension of the target area of the part of the user's body is determined by pressing the finger on the support.

[0018] Selon une mise en oeuvre, la donnée relative à une dimension de la zone cible de la partie du corps de l'utilisateur est déterminée par analyse d’image d’une caméra notamment implantée à l'avant et/ou à l'arrière de l'appareil.According to one implementation, the data relating to a dimension of the target area of the part of the user's body is determined by image analysis of a camera, in particular located at the front and / or at the front. rear of the unit.

[0019] Selon une mise en oeuvre, la donnée relative à une dimension de la zone cible de la partie du corps de l'utilisateur est déterminée par analyse ultrasons ou infrarouges.According to one implementation, the data relating to a dimension of the target area of the part of the body of the user is determined by ultrasonic or infrared analysis.

[0020] Selon une mise en oeuvre, la donnée relative à une dimension de la zone cible de la partie du corps de l'utilisateur est déterminée par un module externe.According to one implementation, the data relating to a dimension of the target area of the body part of the user is determined by an external module.

[0021] Selon une mise en oeuvre, ledit procédé comporte une étape de réalisation de plusieurs mesures de la partie du corps de l'utilisateur pour accroître une précision de la donnée relative à la dimension de la zone cible.According to one implementation, said method comprises a step of carrying out several measurements of the part of the user's body to increase the accuracy of the data relating to the dimension of the target area.

[0022] L'invention a également pour objet un appareil comportant une mémoire stockant des instructions logicielles pour la mise en oeuvre du procédé de détection d'une partie du corps d'un utilisateur tel que défini selon l'une quelconque des revendications précédentes.The invention also relates to an apparatus comprising a memory storing software instructions for the implementation of the method for detecting a part of the body of a user as defined in any one of the preceding claims.

[0023] Selon une réalisation, l'appareil pourra comporter un écran d’affichage ou en être dépourvu, en comportant par exemple uniquement une dalle tactile ou un support de projection.According to one embodiment, the device may include a display screen or be devoid of it, for example comprising only a touch screen or a projection support.

[0024] Selon une mise en oeuvre, la détermination de la donnée est basée sur l'établissement d'une multitude de lignes tangentes à la partie du corps en des points, de manière à obtenir une fonction dérivée d'une circonférence de la partie du corps pour réaliser plusieurs mesures. Cela permet d’ébaucher une succession de fonctions qui vont approximer le contour du corps détecté. Ce développement est facilité dans le cas où l’écran tactile, la caméra, le détecteur ultrason ou infrarouge détermine seul le contour du corps, et le transforme en une succession de points.According to one implementation, the determination of the data is based on the establishment of a multitude of lines tangent to the part of the body at points, so as to obtain a function derived from a circumference of the part of the body to perform several measurements. This allows you to sketch a succession of functions that will approximate the outline of the detected body. This development is facilitated in the case where the touch screen, the camera, the ultrasonic or infrared detector alone determines the outline of the body, and transforms it into a succession of points.

[0025] Selon une mise en oeuvre, ledit procédé comporte une étape de construction de modèles 2D ou 3D d'une surface mesurée associée à la partie du corps.According to one implementation, said method comprises a step of building 2D or 3D models of a measured surface associated with the part of the body.

[0026] Selon une mise en oeuvre, ledit procédé comporte une étape de combinaison de plusieurs mesures et/ou d'utilisation de plusieurs capteurs pour créer une image en 3D.According to one implementation, said method comprises a step of combining several measurements and / or using several sensors to create a 3D image.

[0027] Selon une mise en oeuvre, une caméra ou un détecteur ultrason ou un détecteur infrarouge déporté capte une zone colorée ou calibrée, de telle façon que lorsque l’utilisateur place une partie de son corps dans cette zone calibrée, on en déduit des proportions de la partie du corps.According to one implementation, a camera or an ultrasonic detector or a remote infrared detector captures a colored or calibrated area, so that when the user places a part of his body in this calibrated area, we deduce proportions of the body part.

[0028] Selon une mise en oeuvre, la détermination de l'information relative à une dimension de la partie du corps est effectuée à partir de références, comme par exemple une photo d’une main située à côté une pièce de monnaie, ledit procédé pouvant également comporter des étapes de traitement pour déduire des dimensions de n’importe quelle partie du corps de l'utilisateur à partir d'une photographie sur laquelle on connaît des dimensions d'une partie du corps d'un utilisateur, telle que son tour de doigt ou une pointure de chaussure.According to one implementation, the determination of the information relating to a dimension of the body part is carried out from references, such as for example a photo of a hand located next to a coin, said method can also include processing steps to deduce the dimensions of any part of the user's body from a photograph on which we know the dimensions of a part of the user's body, such as his turn finger or shoe size.

[0029] Par exemple, par analyse d’image, on détecte une bague portée par un utilisateur. Connaissant les dimensions de la bague, le système peut fournir des dimensions de n’importe quelle autre partie du corps transformée en un nuage de points, et après une succession de traitements et d’opérations.For example, by image analysis, a ring worn by a user is detected. Knowing the dimensions of the ring, the system can provide dimensions of any other part of the body transformed into a point cloud, and after a succession of treatments and operations.

[0030] Selon une mise en oeuvre, les étapes de traitement sont basées sur une exploitation d'informations issues d'une combinaison de plusieurs capteurs, comme par exemple une caméra et un capteur de distance pour estimer une distance entre la caméra et le corps, nécessaire pour application d'un principe de proportionnalité, ou deux caméras sous certaines conditions. Si le lieu est calibré il est toutefois possible de se passer de cela.According to one implementation, the processing steps are based on an exploitation of information originating from a combination of several sensors, such as for example a camera and a distance sensor to estimate a distance between the camera and the body , necessary for the application of a proportionality principle, or two cameras under certain conditions. If the place is calibrated it is however possible to do without it.

[0031] Selon une mise en oeuvre, ledit procédé comporte une étape de connexion à un réseau de manière à échanger, archiver et/ou comparer des données.According to one implementation, said method comprises a step of connection to a network so as to exchange, archive and / or compare data.

[0032] Selon une mise en oeuvre, ledit procédé comporte une étape de prélèvement d'une ou plusieurs informations du corps avant, pendant ou après avoir réalisé une mesure, de type température, poids, humidité, densité graisseuse, lecture de veines, de pouls, d’iris, d’impédance, réflectivité, ADN, pigmentation de la peau, empreinte digitale, gerçures ou aspérités de la peau, ou données biométriques en tout genre.According to one implementation, said method comprises a step of taking one or more pieces of information from the body before, during or after having carried out a measurement, of the temperature, weight, humidity, fatty density type, reading of veins, pulse, iris, impedance, reflectivity, DNA, skin pigmentation, fingerprint, cracking or asperity of the skin, or biometric data of all kinds.

[0033] Selon une mise en oeuvre, ledit procédé comporte une étape de prélèvement ou d’échange d'une ou plusieurs informations d’un ou plusieurs objets portés par l'utilisateur avant, pendant, ou après, une mesure dimensionnelle via une communication de type NFC, Bluetooth, lora, Sigfox, GSM, ou via un réseaux téléphoniques radio ou autre, WIFI, code barre, QR codes, couleur, forme, modèle d’un objet. Plusieurs données citées ci-dessus pourront être corrélées.According to one implementation, said method comprises a step of taking or exchanging one or more pieces of information from one or more objects carried by the user before, during, or after, a dimensional measurement via a communication type NFC, Bluetooth, lora, Sigfox, GSM, or via radio or other telephone networks, WIFI, barcode, QR codes, color, shape, model of an object. Several data cited above may be correlated.

[0034] Selon une mise en oeuvre, ledit procédé comporte une étape de construction d'un modèle structurel de la partie du corps mesurée permettant de s’affranchir de variations dimensionnelles possibles de la partie du corps de l'utilisateur. Autrement dit, on définit une structure de la partie du corps de l'utilisateur pour pouvoir négliger les changements dimensionnels.According to one implementation, said method comprises a step of construction of a structural model of the part of the body measured making it possible to overcome possible dimensional variations of the part of the body of the user. In other words, we define a structure of the body part of the user to be able to neglect the dimensional changes.

[0035] Selon une mise en oeuvre, ledit procédé comporte une étape de reconnaissance et d’analyse de marques distinctives du corps telles que des tatouages, grains de beauté, cicatrices, ou autres imperfections de peau et/ou une étape de reconnaissance d'objets portés ou non par l’utilisateur, tels qu'une bague, un bracelet, un collier, une montre, un vêtement, des chaussure, un chapeau, une casquette, des lunettes, pour connaître la présence ou non de ces objets ainsi que leurs dimensions.According to one implementation, said method comprises a step of recognition and analysis of distinctive marks of the body such as tattoos, moles, scars, or other skin imperfections and / or a step of recognizing objects worn or not by the user, such as a ring, a bracelet, a necklace, a watch, a garment, shoes, a hat, a cap, glasses, to know the presence or not of these objects as well as their dimensions.

[0036] Selon une mise en oeuvre, ledit procédé comporte une étape de corrélation de données biométriques ou non pour assurer une identification de l'utilisateur.According to one implementation, said method comprises a step of correlating biometric data or not to ensure identification of the user.

[0037] Ainsi, il est possible de corréler plusieurs analyses (constitution physionomique d’une partie du corps combinée à une lecture d’empreinte digitale ou autre méthode ou alternativement une constitution physionomique d’un corps combinée à un modèle de montre ou de vêtement ou tout type d’objets incluant tatouages et grains de beauté) pour assurer une identification sécurisée grâce à la multiplication des mesures et des canaux de mesures de données biométriques ou non.Thus, it is possible to correlate several analyzes (physiognomic constitution of a part of the body combined with a fingerprint reading or other method or alternatively a physiognomic constitution of a body combined with a watch or garment model or any type of object including tattoos and moles) to ensure secure identification thanks to the multiplication of measurements and measurement channels of biometric data or not.

[0038] Dans le cas d’un objet porté, si l’objet est en mesure de démontrer qu’il a identifié son porteur directement, lors de la mesure ou quelques temps avant ou lors du port de l’objet (avec une synchronisation et par le principe de persistance) par l’intermédiaire d’une connexion pouvant être à distance à l’instant (avant, pendant ou après) où le dispositif tente d’analyser une ou plusieurs mesures, alors on peut considérer qu’une donnée biométrique associée au port d’un objet lié à son porteur est une identification forte du porteur. Le système selon l'invention peut ainsi être considéré comme un dispositif de sécurisation.In the case of a worn object, if the object is able to demonstrate that it has identified its carrier directly, during the measurement or some time before or during the wearing of the object (with synchronization and by the principle of persistence) via a connection that can be remote at the instant (before, during or after) when the device attempts to analyze one or more measurements, then we can consider that a given biometric associated with the wearing of an object linked to its wearer is a strong identification of the wearer. The system according to the invention can thus be considered as a security device.

[0039] Les mesures extraites de l’analyse d’image et/ou de la détection tactile permettent de générer une ou plusieurs clés qui serviront potentiellement de dispositif d’identification.The measurements extracted from the image analysis and / or from the tactile detection make it possible to generate one or more keys which will potentially serve as an identification device.

[0040] Selon une mise en oeuvre, ledit procédé comporte une étape d’apprentissage empirique pour améliorer les performances de détection par une intelligence artificielle et/ou des réseaux neuronaux.According to one implementation, said method includes an empirical learning step to improve the detection performance by artificial intelligence and / or neural networks.

[0041] L’invention sera mieux comprise à la lecture de la description qui suit et à l’examen des figures qui l’accompagnent. Ces figures ne sont données qu’à titre illustratif mais nullement limitatif de l’invention.The invention will be better understood on reading the description which follows and on examining the figures which accompany it. These figures are given only by way of illustration but in no way limit the invention.

[0042] La figure 1 est une représentation schématique d'un appareil portatif de type téléphone mobile ou tablette apte à mettre en oeuvre le procédé selon l'invention de détection automatique d'une partie du corps d'un utilisateur;Figure 1 is a schematic representation of a portable device of the mobile phone or tablet type capable of implementing the method according to the invention for automatic detection of a part of the body of a user;

[0043] La figure 2 est une représentation schématique de la mesure d'un tour de doigt à l'aide de repères dimensionnels affichés sur un écran;Figure 2 is a schematic representation of the measurement of a turn of the finger using dimensional marks displayed on a screen;

[0044] La figure 3 est un diagramme des différentes étapes du procédé selon l'invention de détection d'un tour de doigt ou autre partie du corps d'un utilisateur.Figure 3 is a diagram of the different steps of the method according to the invention for detecting a finger turn or other part of the body of a user.

[0045] Les éléments identiques, similaires ou analogues conservent la même référence d'une figure à l'autre.Identical, similar or analogous elements retain the same reference from one figure to another.

[0046] La figure 1 montre un appareil portatif 10 de type téléphone mobile ou tablette numérique comportant un microcontrôleur 11 intégrant un microprocesseur 12 et une mémoire 13, ainsi qu'une interface hommemachine 14 comprenant par exemple un écran tactile 15.FIG. 1 shows a portable device 10 of the mobile phone or digital tablet type comprising a microcontroller 11 integrating a microprocessor 12 and a memory 13, as well as a human-machine interface 14 comprising for example a touch screen 15.

[0047] Suivant un exemple de réalisation particulier, l'appareil portatif 10 peut comporter également un bouton central de commande 16 ainsi que d'autres boutons de commande physiques, tels que des boutons de réglage du volume sonore 17. Toutefois, cela n'est pas obligatoire, l'appareil 10 pouvant comporter uniquement des boutons de commande numériques s'affichant sur l'écran 15. Les éléments fonctionnels 12, 13, 15 communiquent entre eux via un bus de communication standard 19. En variante, l'écran 15 n'est pas tactile et l'interface homme-machine 14 prend la forme d'un clavier physique. Une caméra 18 pourra être implantée à l'avant et/ou à l'arrière de l'appareil 10.According to a particular embodiment, the portable device 10 may also include a central control button 16 as well as other physical control buttons, such as buttons for adjusting the volume 17. However, this does not is not compulsory, the device 10 being able to comprise only digital control buttons which are displayed on the screen 15. The functional elements 12, 13, 15 communicate with each other via a standard communication bus 19. As a variant, the screen 15 is not tactile and the man-machine interface 14 takes the form of a physical keyboard. A camera 18 could be installed at the front and / or at the rear of the device 10.

[0048] L'appareil portatif 10 peut comporter également d'autres composants nécessaires à son fonctionnement (module de communication, microphone, haut-parleur, etc...) qui ne sont pas représentés sur la figure afin de faciliter la compréhension de l'invention. Ces composants élémentaires sont connus de l'homme du métier.The portable device 10 may also include other components necessary for its operation (communication module, microphone, speaker, etc.) which are not shown in the figure in order to facilitate understanding of the 'invention. These elementary components are known to those skilled in the art.

[0049] La mémoire 13 stocke des instructions logicielles 11-In exploitées par une application 20 dont l'icône correspondant 21 Mesure tour de doigt est affiché sur l'écran 15. L'invention est ainsi décrite ci-après, en référence avec les figures 2 et 3, pour la détection d'un tour de doigt mais elle pourrait également être mise en oeuvre pour la mesure d'une dimension d'une autre partie du corps de l'utilisateur, tel que le poignet ou le pied.The memory 13 stores 11-In software instructions used by an application 20 whose corresponding icon 21 Finger measurement measurement is displayed on the screen 15. The invention is thus described below, with reference to the Figures 2 and 3, for the detection of a turn of the finger but it could also be implemented for the measurement of a dimension of another part of the body of the user, such as the wrist or the foot.

[0050] Au cours d'une étape 100, l'utilisateur sélectionne, via l'icône 21, l'application Mesure tour de doigts pour déclencher l'exécution des instructions correspondantes 11-In. L'application 20 invite alors l'utilisateur à poser son doigt 24 tendu sur l'écran 15 via l'affichage d'un message 23.During a step 100, the user selects, via the icon 21, the Fingertip measurement application to trigger the execution of the corresponding 11-In instructions. The application 20 then invites the user to place his finger 24 stretched out on the screen 15 via the display of a message 23.

[0051] Dans une étape 101, l'utilisateur met en contact son doigt 24 contre l'écran 15 de l'appareil, tel que cela est montré sur la figure 2. Dans le cas où l'écran 15 est de type tactile, la partie du corps est détectée par l'écran 15, notamment par pression sur l'écran 15. Des repères de mesure 25.1, 25.2 apparaissent alors automatiquement, dans une étape 102, de part et d'autre du doigt 24 de l'utilisateur. Ces repères 25.1, 25.2 pourront prendre avantageusement la forme de lignes droites. Alternativement, les lignes présentent une forme légèrement incurvée épousant le contour externe du doigt 24. Les repères pourront prendre la forme de curseurs.In a step 101, the user brings his finger 24 into contact with the screen 15 of the device, as shown in FIG. 2. In the case where the screen 15 is of the touch type, the body part is detected by the screen 15, in particular by pressing on the screen 15. Measurement marks 25.1, 25.2 then appear automatically, in a step 102, on either side of the user's finger 24 . These marks 25.1, 25.2 may advantageously take the form of straight lines. Alternatively, the lines have a slightly curved shape matching the external contour of finger 24. The marks may take the form of cursors.

[0052] Un ajustement final du ou des repères 25.1, 25.2 autour d'une zone cible 26 correspondant par exemple à la zone destinée à recevoir la bague est effectué dans une étape 103. Cet ajustement pourra être effectué à partir de commandes de l’utilisateur.A final adjustment of the reference mark (s) 25.1, 25.2 around a target zone 26 corresponding for example to the zone intended to receive the ring is carried out in a step 103. This adjustment can be carried out using commands from the user.

[0053] Pour ce faire, un seul des repères de mesure 25.1, 25.2 pourra être mobile par rapport à l'autre. En variante, les deux repères 25.1, 25.2 sont mobiles l'un par rapport à l'autre. Le déplacement d'au moins un repère 25.1,To do this, only one of the measurement marks 25.1, 25.2 may be movable relative to the other. Alternatively, the two pins 25.1, 25.2 are movable relative to each other. The displacement of at least one reference 25.1,

25.2 par rapport à l'autre repère est effectué de façon à ce que les deux repères de mesure 25.1, 25.2 coïncident chacun avec un bord d'extrémité de la zone cible 26.25.2 with respect to the other mark is made so that the two measurement marks 25.1, 25.2 each coincide with an end edge of the target area 26.

[0054] Il est à noter que, dans le cas où l'écran 15 est du type tactile, l'ajustement du ou des repères 25.1, 25.2 à la largeur de la zone cible 26 pourra être effectué alors que le doigt 24 est en contact avec l'écran 15.It should be noted that, in the case where the screen 15 is of the tactile type, the adjustment of the marker (s) 25.1, 25.2 to the width of the target area 26 can be carried out while the finger 24 is in contact with the screen 15.

[0055] Alternativement, l'ajustement des repères 25.1,25.2 peut être effectué par rapport à une forme qui s'affiche sur l'écran 15 suite à la détection de la pression du doigt 24 contre la dalle tactile, l'utilisateur pouvant alors retirer son doigt de l'écran 15.Alternatively, the adjustment of the marks 25.1, 25.2 can be carried out with respect to a shape which is displayed on the screen 15 following the detection of the pressure of the finger 24 against the touch screen, the user then being able to remove your finger from the screen 15.

[0056] Dans le cas où l’écran 15 n’est pas de type tactile, l’utilisateur maintient un bord d'extrémité de la zone cible 26 contre un repère de mesureIn the case where the screen 15 is not of the tactile type, the user maintains an end edge of the target zone 26 against a measurement mark

25.1, 25.2 affiché sur l'écran 15 ou un support de projection tel qu'une vitre, un bureau, ou autre associé à une caméra située au-dessus et/ou en dessous dudit support de projection. L'utilisateur déplace ensuite un repère 25.1,25.2 mobile jusqu'à ce que ledit repère mobile 25.1, 25.2 coïncide avec le bord d'extrémité opposé de la zone cible 26.25.1, 25.2 displayed on the screen 15 or a projection support such as a window, a desk, or the like associated with a camera situated above and / or below said projection support. The user then moves a mobile marker 25.1,25.2 until said mobile marker 25.1, 25.2 coincides with the opposite end edge of the target area 26.

Dans tous les cas, le déplacement du ou des repères de mesure 25.1, 25.2 peut être effectué à l'aide de boutons de commande, tels que des boutons numériques et/ou des boutons physiques, notamment des boutons de réglage de volume 17 de l'appareil. Le ou les repères 25.1, 25.2 pourront ainsi se déplacer au rythme des appuis sur les boutons de commande et s’approcher l'un vers l'autre jusqu’à venir en coïncidence avec un bord d'extrémité correspondant de la zone cible 26.In all cases, the displacement of the measurement mark (s) 25.1, 25.2 can be carried out using control buttons, such as numeric buttons and / or physical buttons, in particular volume adjustment buttons 17 of the 'apparatus. The reference mark (s) 25.1, 25.2 can thus move at the rate of pressing on the control buttons and approach one towards the other until they come into coincidence with a corresponding end edge of the target area 26.

[0057] Alternativement, le déplacement du ou des repères 25.1, 25.2 est effectué par commande vocale, de mouvement, tels que des mouvements du doigt, du téléphone, de la main devant une caméra ou autre, ou par variation d'une pression exercée par la partie du corps de l'utilisateur.Alternatively, the displacement of the marker (s) 25.1, 25.2 is effected by voice command, by movement, such as movements of the finger, the telephone, the hand in front of a camera or the like, or by variation of a pressure exerted. by the user's body part.

[0058] Lorsque l’utilisateur considère que les repères de mesure 25.1, 25.2 coïncident avec les bords d'extrémité de la zone cible 26, l'utilisateur valide la mesure dans une étape 104. A cette fin, l'utilisateur pourra par exemple appuyer sur un bouton de validation 27 affiché sur l'écran 15.When the user considers that the measurement marks 25.1, 25.2 coincide with the end edges of the target area 26, the user validates the measurement in a step 104. To this end, the user can for example press a validation button 27 displayed on the screen 15.

[0059] Une fois la validation effectuée, un calcul mathématique tenant compte d'une dimension de chaque pixel de l'écran 15 permet de transformer, dans une étape 105, une mesure en nombres pixels de l'écart entre les repères 25.1 et 25.2 en une mesure dimensionnelle. La distance mesurée est assimilée au diamètre du doigt 24 de l'utilisateur.Once the validation has been carried out, a mathematical calculation taking into account a dimension of each pixel of the screen 15 makes it possible to transform, in a step 105, a measurement in pixel numbers of the difference between the marks 25.1 and 25.2 in a dimensional measurement. The measured distance is assimilated to the diameter of the user's finger 24.

[0060] En variante, l'écart entre les repères 25.1,25.2 est transformée en une ou plusieurs variables, telle qu'une taille de doigt 24 exprimée dans la norme du pays concerné. La ou les variables étant utilisées par une application gérant la mesure ou par une autre application ou en partie par l'application et en partie ou totalement à distance par des serveurs.Alternatively, the difference between the benchmarks 25.1, 25.2 is transformed into one or more variables, such as a finger size 24 expressed in the standard of the country concerned. The variable or variables being used by an application managing the measurement or by another application or partly by the application and partly or totally remotely by servers.

[0061 ] Les données ainsi déterminées (dimension et/ou valeur correspondant à la dimension du doigt, telle qu'une taille de doigt 24 normalisée) pourront être affichées sur l'écran 15 de l'appareil 10 dans une étape 106. La dimension du doigt 24 pourra ainsi être affichée selon une unité de mesure standard propre au pays de l’utilisateur.The data thus determined (dimension and / or value corresponding to the dimension of the finger, such as a normalized finger size 24) can be displayed on the screen 15 of the device 10 in a step 106. The dimension finger 24 can thus be displayed according to a standard measurement unit specific to the user's country.

[0062] L'affichage de ces données n'est toutefois pas nécessaire. En effet, la donnée relative à la mesure pourrait être envoyée directement à l'application de façon transparente pour l'utilisateur, sans être affichée sur l'écran 15 de l'appareil. En variante, la donnée relative à la mesure est affichée et transmise à l'application.The display of this data is however not necessary. In fact, the data relating to the measurement could be sent directly to the application in a manner transparent to the user, without being displayed on the screen 15 of the device. As a variant, the data relating to the measurement is displayed and transmitted to the application.

[0063] Afin d'accroître une précision de la donnée relative à la dimension de la zone cible 26, il sera possible de réaliser plusieurs mesures du doigt 24 de l'utilisateur. Typiquement, il sera possible de réaliser une première mesure de diamètre du doigt 24 avec le doigt posé sur l’écran 15 par sa face inférieure ainsi qu'une deuxième mesure de diamètre de doigt 24 avec le doigt posé sur la tranche.In order to increase the accuracy of the data relating to the dimension of the target area 26, it will be possible to carry out several measurements of the user's finger 24. Typically, it will be possible to make a first measurement of the diameter of the finger 24 with the finger placed on the screen 15 by its underside as well as a second measurement of the diameter of the finger 24 with the finger placed on the edge.

[0064] Il est bien entendu possible d’appliquer cette détection à d’autres parties du corps. On peut par exemple identifier les dimensions (largeur, périmètre, rayon ou diamètre) d’un poignet ou d'un pied en utilisant la même méthode que celle décrite précédemment.It is of course possible to apply this detection to other parts of the body. We can, for example, identify the dimensions (width, perimeter, radius or diameter) of a wrist or a foot using the same method as that described above.

[0065] En variante, la dimension de la zone cible 26 de la partie du corps de l'utilisateur ou une valeur correspondante est déterminée par analyse d’image de la caméra 18.Alternatively, the size of the target area 26 of the body part of the user or a corresponding value is determined by image analysis of the camera 18.

[0066] En variante, la dimension de la zone cible 26 de la partie du corps de l'utilisateur ou une valeur correspondante est déterminée par analyse ultrasons ou infrarouges.Alternatively, the size of the target area 26 of the body part of the user or a corresponding value is determined by ultrasonic or infrared analysis.

[0067] En variante, la donnée relative à une dimension d'une zone cible 26 de la partie du corps de l'utilisateur est déterminée par un module externe.Alternatively, the data relating to a dimension of a target area 26 of the body part of the user is determined by an external module.

[0068] L'invention n'est pas limitée à une partie du corps isolé et pourrait être appliquée à un corps complet.The invention is not limited to a part of the isolated body and could be applied to a whole body.

[0069] Alternativement ou en complément la détermination de la donnée dimensionnelle est basée sur l'établissement d'une multitude de lignes tangentes à la partie du corps en des points, de manière à obtenir une fonction dérivée d'une circonférence de la partie du corps pour réaliser plusieurs mesures. Cela permet d’ébaucher une succession de fonctions qui vont approximer le contour du corps détecté. Ce développement est facilité dans le cas où l’écran tactile, la caméra, le détecteur ultrason ou infrarouge détermine seul le contour du corps, et le transforme en une succession de points.Alternatively or in addition, the determination of the dimensional data is based on the establishment of a multitude of lines tangent to the part of the body at points, so as to obtain a function derived from a circumference of the part of the body to perform multiple measurements. This allows you to sketch a succession of functions that will approximate the outline of the detected body. This development is facilitated in the case where the touch screen, the camera, the ultrasonic or infrared detector alone determines the outline of the body, and transforms it into a succession of points.

[0070] Il est également possible de construire des modèles 2D ou 3D d'une surface mesurée associée à la partie du corps. On peut également combiner plusieurs mesures et/ou d'utilisation de plusieurs capteurs pour créer une image en 3D.It is also possible to construct 2D or 3D models of a measured surface associated with the part of the body. One can also combine several measurements and / or use of several sensors to create a 3D image.

[0071] Suivant une mise en oeuvre particulière, une caméra ou un détecteur ultrason ou un détecteur infrarouge déporté capte une zone colorée ou calibrée, de telle façon que lorsque l’utilisateur place une partie de son corps dans cette zone calibrée, on en déduit des proportions de la partie du corps.According to a particular implementation, a camera or an ultrasonic detector or a remote infrared detector captures a colored or calibrated area, so that when the user places a part of his body in this calibrated area, it is deduced therefrom proportions of the body part.

[0072] La détermination de l'information relative à une dimension de la partie du corps peut également être effectuée à partir de références, comme par exemple une photo d’une main située à côté une pièce de monnaie, ledit procédé pouvant également comporter des étapes de traitement pour déduire des dimensions de n’importe quelle partie du corps de l'utilisateur à partir d'une photographie sur laquelle on connaît des dimensions d'une partie du corps d'un utilisateur, telle que son tour de doigt ou une pointure de chaussure.The determination of the information relating to a dimension of the body part can also be carried out from references, such as for example a photo of a hand situated next to a coin, said method also being able to include processing steps to deduce the dimensions of any part of the user's body from a photograph on which we know the dimensions of a part of the user's body, such as his finger size or a shoe size.

[0073] Par exemple, par analyse d’image, on détecte une bague portée par un utilisateur. Connaissant les dimensions de la bague, le système peut fournir des dimensions de n’importe quelle autre partie du corps transformée en un nuage de points, et après une succession de traitements et d’opérations.For example, by image analysis, a ring worn by a user is detected. Knowing the dimensions of the ring, the system can provide dimensions of any other part of the body transformed into a point cloud, and after a succession of treatments and operations.

[0074] Les étapes de traitement peuvent être basées sur une exploitation d'informations issues d'une combinaison de plusieurs capteurs, comme par exemple une caméra et un capteur de distance pour estimer une distance entre la caméra et le corps, nécessaire pour application d'un principe de proportionnalité, ou deux caméras sous certaines conditions. Si la pièce est calibrée il est toutefois possible de se passer de cela.The processing steps can be based on an exploitation of information originating from a combination of several sensors, such as for example a camera and a distance sensor to estimate a distance between the camera and the body, necessary for application of 'a principle of proportionality, or two cameras under certain conditions. If the part is calibrated it is however possible to do without this.

[0075] L'appareil peut également se connecter à un réseau de manière à échanger, archiver et/ou comparer des données.The device can also connect to a network so as to exchange, archive and / or compare data.

[0076] On pourra également prélever une ou plusieurs informations du corps avant, pendant ou après avoir réalisé une mesure, de type température, poids, humidité, densité graisseuse, lecture de veines, de pouls, d’iris, d’impédance, réflectivité, ADN, pigmentation de la peau, empreinte digitale, gerçures ou aspérités de la peau, ou données biométriques en tout genre.We can also take one or more pieces of information from the body before, during or after making a measurement, such as temperature, weight, humidity, fat density, reading of veins, pulse, iris, impedance, reflectivity. , DNA, pigmentation of the skin, fingerprint, chapped skin or roughness of the skin, or biometric data of all kinds.

[0077] Il est également possible de prélever ou échanger une ou plusieurs informations d’un ou plusieurs objets portés par l'utilisateur avant, pendant, ou après, une mesure dimensionnelle via une communication de type NFC, Bluetooth, lora, Sigfox, GSM, ou via un réseaux téléphoniques radio ou autre, WIFI, code barre, QR codes, couleur, forme, modèle d’un objet. Plusieurs données citées ci-dessus pourront être corrélées.It is also possible to take or exchange one or more pieces of information from one or more objects carried by the user before, during, or after, a dimensional measurement via an NFC, Bluetooth, Lora, Sigfox, GSM type communication. , or via a radio or other telephone network, WIFI, barcode, QR codes, color, shape, model of an object. Several data cited above may be correlated.

[0078] Un modèle structurel de la partie du corps mesurée peut être construit pour s’affranchir de variations dimensionnelles possibles de la partie du corps de l'utilisateur. Autrement dit, on définit une structure de la partie du corps de l'utilisateur pour pouvoir négliger les changements dimensionnels.A structural model of the body part measured can be constructed to overcome possible dimensional variations in the body part of the user. In other words, we define a structure of the body part of the user to be able to neglect the dimensional changes.

[0079] On peut également prévoir une étape de reconnaissance et d’analyse de marques distinctives du corps telles que des tatouages, grains de beauté, cicatrices, ou autres imperfections de peau et/ou une étape de reconnaissance d'objets portés ou non par l’utilisateur, tels qu'une bague, un bracelet, un collier, une montre, un vêtement, des chaussure, un chapeau, une casquette, des lunettes, pour connaître la présence ou non de ces objets ainsi que leurs dimensions.One can also provide a step of recognition and analysis of distinctive marks of the body such as tattoos, moles, scars, or other skin imperfections and / or a step of recognition of objects worn or not by the user, such as a ring, a bracelet, a necklace, a watch, a garment, shoes, a hat, a cap, glasses, to know the presence or not of these objects as well as their dimensions.

[0080] Une identification de l'utilisateur peut être assurée grâce à la corrélation de données biométriques ou non. Ainsi, il est possible de corréler plusieurs analyses (constitution physionomique d’une partie du corps combiné à une lecture d’empreinte digitale ou autre méthode ou alternativement une constitution physionomique d’un corps combinée à un modèle de montre ou de vêtement ou tout type d’objets incluant tatouages et grains de beauté) pour assurer une identification sécurisée grâce à la multiplication des mesures et des canaux de mesures de données biométriques ou non.User identification can be ensured through the correlation of biometric data or not. Thus, it is possible to correlate several analyzes (physiognomic constitution of a part of the body combined with a fingerprint reading or other method or alternatively a physiognomic constitution of a body combined with a watch or clothing model or any type objects including tattoos and moles) to ensure secure identification thanks to the multiplication of measurements and measurement channels of biometric data or not.

[0081] Dans le cas d’un objet porté, si l’objet est en mesure de démontrer qu’il a identifié son porteur directement, lors de la mesure ou quelques temps avant ou lors du port de l’objet (avec une synchronisation et par le principe de persistance) par l’intermédiaire d’une connexion pouvant être à distance à l’instant (avant, pendant ou après) où le dispositif tente d’analyser une ou plusieurs mesures, alors on peut considérer qu’une donnée biométrique associée au port d’un objet lié à son porteur est une identification forte du porteur. Le système selon l'invention peut ainsi être considéré comme un dispositif de sécurisation.In the case of a worn object, if the object is able to demonstrate that it has identified its carrier directly, during the measurement or some time before or during the wearing of the object (with synchronization and by the principle of persistence) via a connection that can be remote at the instant (before, during or after) when the device attempts to analyze one or more measurements, then we can consider that a given biometric associated with the wearing of an object linked to its wearer is a strong identification of the wearer. The system according to the invention can thus be considered as a security device.

[0082] Il sera possible de prévoir une étape d’apprentissage empirique pour améliorer les performances de détection par une intelligence artificielle et/ou des réseaux neuronaux [0083] On appréciera que la description qui précède a été donnée à titre d'exemple uniquement et ne limite pas le domaine de l'invention dont on ne sortirait pas en remplaçant les différents éléments ou étapes par tous autres équivalents.It will be possible to provide an empirical learning step to improve detection performance by artificial intelligence and / or neural networks. It will be appreciated that the above description has been given by way of example only and does not limit the field of the invention from which one would not depart by replacing the various elements or steps by any other equivalent.

[0084] En outre, les différentes caractéristiques, variantes, et/ou formes de réalisation de la présente invention peuvent être associées les unes avec les autres selon diverses combinaisons, dans la mesure où elles ne sont pas incompatibles ou exclusives les unes des autres.In addition, the different characteristics, variants, and / or embodiments of the present invention can be associated with each other in various combinations, insofar as they are not incompatible or mutually exclusive of each other.

Claims (27)

REVENDICATIONS 1. Procédé de détection d'une partie du corps (24) d'un utilisateur, notamment un tour de doigt, à l'aide d'un appareil (10) muni d'un support tel qu'une dalle ou un écran (15), par exemple un téléphone mobile ou une tablette numérique, caractérisé en ce qu'il comporte:1. A method of detecting a part of the body (24) of a user, in particular a finger loop, using an apparatus (10) provided with a support such as a screen or a screen ( 15), for example a mobile phone or a digital tablet, characterized in that it comprises: - une étape de mise en contact de la partie du corps (24) contre le support (15) de l'appareil (10),a step of bringing the part of the body (24) into contact with the support (15) of the device (10), - une étape de déplacement d'au moins un repère de mesure (25.1,25.2) par rapport à un autre repère de mesure (25.1, 25.2), de sorte que les deux repères de mesure (25.1, 25.2) coïncident chacun avec un bord d'extrémité d'une zone cible (26) correspondant notamment à la zone destinée à recevoir un objet, tel qu'une bague ou un bracelet, et- a step of moving at least one measurement mark (25.1,25.2) relative to another measurement mark (25.1, 25.2), so that the two measurement marks (25.1, 25.2) each coincide with an edge end of a target area (26) corresponding in particular to the area intended to receive an object, such as a ring or a bracelet, and - une étape de détermination d'une donnée relative à une dimension de la zone cible (26) en fonction d'un écart entre les deux repères de mesure (25.1,25.2).- a step of determining data relating to a dimension of the target area (26) as a function of a difference between the two measurement marks (25.1,25.2). 2. Procédé selon la revendication 2 ou 3, caractérisé en ce qu'il comporte une étape de validation de la mesure lorsque l’utilisateur considère que les repères de mesure (25.1, 25.2) coïncident avec les bords d'extrémité de la zone cible (26).2. Method according to claim 2 or 3, characterized in that it includes a measurement validation step when the user considers that the measurement marks (25.1, 25.2) coincide with the end edges of the target area (26). 3. Procédé selon la revendication 1 ou 2, caractérisé en ce que le déplacement du ou des repères de mesure (25.1,25.2) est effectué à l'aide de boutons de commande, tels que des boutons numériques et/ou des boutons physiques, notamment des boutons de réglage de volume (17) de l'appareil (10).3. Method according to claim 1 or 2, characterized in that the displacement of the measurement mark (s) (25.1,25.2) is carried out using control buttons, such as numeric buttons and / or physical buttons, in particular buttons for adjusting the volume (17) of the device (10). 4. Procédé selon la revendication 1 ou 2, caractérisé en ce que le déplacement du ou des repères de mesure (25.1,25.2) est effectué par commande vocale, de mouvement, tels que des mouvements du doigt, du téléphone, de la main devant une caméra ou autre, ou par variation d'une pression exercée par la partie du corps (24) de l'utilisateur.4. Method according to claim 1 or 2, characterized in that the displacement of the measurement mark (s) (25.1,25.2) is carried out by voice command, of movement, such as movements of the finger, of the telephone, of the hand in front a camera or the like, or by varying a pressure exerted by the body part (24) of the user. 5. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce que dans le cas où le support (15) est de type tactile, la partie du corps (24) est détectée par le support (15), notamment par pression sur le support (15), de sorte que les repères de mesure (25.1, 25.2) apparaissent automatiquement de part et d'autre de la partie du corps (24) de l'utilisateur, un ajustement final du ou des repères de mesure (25.1,25.2) suivant les bords d'extrémité de la zone cible (26) pouvant être effectué à partir de commandes de l’utilisateur.5. Method according to any one of claims 1 to 4, characterized in that in the case where the support (15) is of tactile type, the part of the body (24) is detected by the support (15), in particular by pressure on the support (15), so that the measurement marks (25.1, 25.2) appear automatically on both sides of the body part (24) of the user, a final adjustment of the measurement marks (25.1,25.2) along the end edges of the target area (26) which can be carried out from user commands. 6. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce que, dans le cas où le support est un écran (15) non tactile ou un support de projection tel qu'une vitre, un bureau, ou autre associé à une caméra située au-dessus et/ou en dessous dudit support de projection, l’utilisateur maintient un bord d'extrémité de la zone cible (26) contre un repère de mesure (25.1, 25.2), par exemple une ligne fixe, et déplace au moins un repère de mesure (25.1,25.2) mobile jusqu'à ce que ledit repère de mesure (25.1,25.2) coïncide avec un bord d'extrémité opposé de la zone cible (26).6. Method according to any one of claims 1 to 4, characterized in that, in the case where the support is a screen (15) non-touch or a projection support such as a window, a desk, or other associated to a camera located above and / or below said projection support, the user maintains an end edge of the target area (26) against a measurement mark (25.1, 25.2), for example a fixed line, and moves at least one movable measurement mark (25.1,25.2) until said measurement mark (25.1,25.2) coincides with an opposite end edge of the target area (26). 7. Procédé selon l'une quelconque des revendications 1 à 6, caractérisé en ce que la détermination de la donnée relative à une dimension de la zone cible (26) est effectuée par transformation, via un calcul mathématique, d'une mesure en nombres pixels d'un écart entre au moins deux repères de mesure (25.1,25.2) en une mesure dimensionnelle.7. Method according to any one of claims 1 to 6, characterized in that the determination of the data relating to a dimension of the target area (26) is carried out by transformation, via a mathematical calculation, of a measurement in numbers pixels of a difference between at least two measurement marks (25.1,25.2) in a dimensional measurement. 8. Procédé selon l'une quelconque des revendications 1 à 7, caractérisé en ce qu'il comporte une étape d'affichage d'une dimension du doigt (24) de l’utilisateur selon une unité de mesure standard propre à un pays de l’utilisateur.8. Method according to any one of claims 1 to 7, characterized in that it comprises a step of displaying a dimension of the finger (24) of the user according to a standard measurement unit specific to a country of the user. 9. Procédé selon l'une quelconque des revendications 1 à 8, caractérisé en ce que l'appareil transpose une mesure de la partie du corps, par exemple le tour de doigt (24), dans une ou plusieurs variables, telle qu'une taille de doigt (24), la ou les variables étant utilisées par une application gérant la mesure ou par une autre application ou en partie par l'application et en partie ou totalement à distance par des serveurs.9. Method according to any one of claims 1 to 8, characterized in that the device transposes a measurement of the body part, for example the finger circumference (24), in one or more variables, such as a finger size (24), the variable or variables being used by an application managing the measurement or by another application or partly by the application and partly or totally remotely by servers. 10. Procédé selon l'une quelconque des revendications 1 à 9, caractérisé en ce que la donnée relative à une dimension de la zone cible (26) de la partie du corps (24) de l'utilisateur est déterminée grâce à la pression du doigt (24) sur le support (15).10. Method according to any one of claims 1 to 9, characterized in that the data relating to a dimension of the target area (26) of the body part (24) of the user is determined by means of the pressure of the finger (24) on the support (15). 11. Procédé selon l'une quelconque des revendications 1 à 9, caractérisé en ce que la donnée relative à une dimension de la zone cible (26) de la partie du corps (24) de l'utilisateur est déterminée par analyse d’image d’une caméra (18) notamment implantée à l'avant et/ou à l'arrière de l'appareil (10).11. Method according to any one of claims 1 to 9, characterized in that the data relating to a dimension of the target area (26) of the body part (24) of the user is determined by image analysis a camera (18) in particular located at the front and / or at the rear of the device (10). 12. Procédé selon l'une quelconque des revendications 1 à 9, caractérisé en ce que la donnée relative à une dimension de la zone cible (24) de la partie du corps (24) de l'utilisateur est déterminée par analyse ultrasons ou infrarouges.12. Method according to any one of claims 1 to 9, characterized in that the data relating to a dimension of the target area (24) of the part of the body (24) of the user is determined by ultrasonic or infrared analysis . 13. Procédé selon l'une quelconque des revendications 1 à 9, caractérisé en ce que la donnée relative à une dimension de la zone cible (26) de la partie du corps (24) de l'utilisateur est déterminée par un module externe.13. Method according to any one of claims 1 to 9, characterized in that the data relating to a dimension of the target area (26) of the body part (24) of the user is determined by an external module. 14. Procédé selon l'une quelconque des revendications 1 à 13, caractérisé en ce qu'il comporte une étape de réalisation de plusieurs mesures de la partie du corps (24) de l'utilisateur pour accroître une précision de la donnée relative à la dimension de la zone cible (26).14. Method according to any one of claims 1 to 13, characterized in that it comprises a step of carrying out several measurements of the part of the body (24) of the user to increase the accuracy of the data relating to the dimension of the target area (26). 15. Procédé selon l'une quelconque des revendications 1 à 14, caractérisé en ce que la détermination de la donnée est basée sur l'établissement d'une multitude de lignes tangentes à la partie du corps en des points, de manière à obtenir une fonction dérivée d'une circonférence de la partie du corps pour réaliser plusieurs mesures.15. Method according to any one of claims 1 to 14, characterized in that the determination of the data is based on the establishment of a multitude of lines tangent to the part of the body at points, so as to obtain a function derived from a circumference of the body part to perform several measurements. 16. Procédé selon l'une quelconque des revendications 1 à 15, caractérisé en ce qu'il comporte une étape de construction de modèles 2D ou 3D d'une surface mesurée associée à la partie du corps.16. Method according to any one of claims 1 to 15, characterized in that it comprises a step of construction of 2D or 3D models of a measured surface associated with the part of the body. 17. Procédé selon l'une quelconque des revendications 1 à 15, caractérisé en ce qu'il comporte une étape de combinaison de plusieurs mesures et/ou d'utilisation de plusieurs capteurs pour créer une image en 3D.17. Method according to any one of claims 1 to 15, characterized in that it comprises a step of combining several measurements and / or using several sensors to create a 3D image. 18. Procédé selon l'une quelconque des revendications 1 à 17, caractérisé en ce qu’une caméra ou un détecteur ultrason ou un détecteur infrarouge déporté capte une zone colorée ou calibrée, de telle façon que lorsque l’utilisateur place une partie de son corps dans cette zone calibrée, on en déduit des proportions de la partie du corps.18. Method according to any one of claims 1 to 17, characterized in that a camera or an ultrasonic detector or a remote infrared detector captures a colored or calibrated area, so that when the user places part of his body in this calibrated area, we deduce the proportions of the body part. 19. Procédé selon l'une quelconque des revendications 1 à 18, caractérisé en ce que la détermination de l'information relative à une dimension de la partie du corps est effectuée à partir de références, comme par exemple une photo d’une main située à coté une pièce de monnaie, ledit procédé pouvant également comporter des étapes de traitement pour déduire des dimensions de n’importe quelle partie du corps de l'utilisateur à partir d'une photographie sur laquelle on connaît des dimensions d'une partie du corps d'un utilisateur, telle que son tour de doigt ou une pointure de chaussure.19. Method according to any one of claims 1 to 18, characterized in that the determination of the information relating to a dimension of the body part is carried out from references, such as for example a photo of a hand located next to a coin, said method can also include processing steps to deduce the dimensions of any part of the user's body from a photograph on which we know the dimensions of a part of the body of a user, such as his finger size or a shoe size. 20. Procédé selon la revendication 19, caractérisé en ce que les étapes de traitement sont basées sur une exploitation d'informations issues d'une combinaison de plusieurs capteurs, comme par exemple une caméra et un capteur de distance pour estimer une distance entre la caméra et le corps, nécessaire pour application d'un principe de proportionnalité, ou deux caméras sous certaines conditions.20. The method of claim 19, characterized in that the processing steps are based on an exploitation of information from a combination of several sensors, such as for example a camera and a distance sensor to estimate a distance between the camera and the body, necessary for the application of a principle of proportionality, or two cameras under certain conditions. 21. Procédé selon l'une quelconque des revendications 1 à 20, caractérisé en ce qu'il comporte une étape de connexion à un réseau de manière à échanger, archiver et/ou comparer des données.21. Method according to any one of claims 1 to 20, characterized in that it comprises a step of connection to a network so as to exchange, archive and / or compare data. 22. Procédé selon l'une quelconque des revendications 1 à 21, caractérisé en ce qu'il comporte une étape de prélèvement d'une ou plusieurs informations du corps avant, pendant ou après avoir réalisé une mesure, de type température, poids, humidité, densité graisseuse, lecture de veines, de pouls, d’iris, d’impédance, réflectivité, ADN, pigmentation de la peau, empreinte digitale, gerçures ou aspérités de la peau, ou données biométriques en tout genre.22. Method according to any one of claims 1 to 21, characterized in that it comprises a step of taking one or more pieces of information from the body before, during or after having carried out a measurement, of the temperature, weight and humidity type. , fat density, reading of veins, pulse, iris, impedance, reflectivity, DNA, skin pigmentation, fingerprint, cracking or roughness of the skin, or biometric data of all kinds. 23. Procédé selon l'une quelconque des revendications 1 à 22, caractérisé en ce qu'il comporte une étape de prélèvement ou d’échange d'une ou plusieurs informations d’un ou plusieurs objets portés par l'utilisateur avant, pendant, ou après, une mesure dimensionnelle via une communication de type radio ou autre.23. Method according to any one of claims 1 to 22, characterized in that it comprises a step of taking or exchanging one or more pieces of information from one or more objects carried by the user before, during, or after, a dimensional measurement via radio or other type of communication. 24. Procédé selon l'une quelconque des revendications 1 à 23, caractérisé en ce qu'il comporte une étape de construction d'un modèle structurel de la partie du corps mesurée permettant de s’affranchir de variations dimensionnelles possibles de la partie du corps de l'utilisateur.24. Method according to any one of claims 1 to 23, characterized in that it comprises a stage of construction of a structural model of the part of the body measured making it possible to be free from possible dimensional variations of the part of the body of the user. 25. Procédé selon l'une quelconque des revendications 1 à 24, caractérisé en ce qu'il comporte une étape de reconnaissance et d’analyse de marques25. Method according to any one of claims 1 to 24, characterized in that it comprises a step of recognition and analysis of marks 5 distinctives du corps telles que des tatouages, grains de beauté, cicatrices, ou autres imperfections de peau et/ou une étape de reconnaissance d'objets portés ou non par l’utilisateur, tels qu'une bague, un bracelet, un collier, une montre, un vêtement, des chaussure, un chapeau, une casquette, des lunettes, pour connaître la îo présence ou non de ces objets ainsi que leurs dimensions.5 distinctive of the body such as tattoos, moles, scars, or other skin imperfections and / or a step of recognizing objects worn or not worn by the user, such as a ring, a bracelet, a necklace, a watch, a garment, shoes, a hat, a cap, glasses, to know the presence or not of these objects as well as their dimensions. 26. Procédé selon l'une quelconque des revendications 1 à 25, caractérisé en ce qu'il comporte une étape de corrélation de données biométriques ou non pour assurer une identification de l'utilisateur.26. Method according to any one of claims 1 to 25, characterized in that it comprises a step of correlating biometric data or not to ensure identification of the user. 27. Procédé selon l'une quelconque des revendications 1 à 26, caractérisé en 15 ce qu'il comporte une étape d’apprentissage empirique par une intelligence artificielle et/ou des réseaux neuronaux.27. A method according to any one of claims 1 to 26, characterized in that it comprises a step of empirical learning by artificial intelligence and / or neural networks.
FR1771088A 2017-10-16 2017-10-16 METHOD OF DETECTION OF A TURN OF A FINGER OR OTHER PART OF THE BODY OF A USER FROM A PARTICULARLY PORTABLE DEVICE Active FR3072249B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1771088A FR3072249B1 (en) 2017-10-16 2017-10-16 METHOD OF DETECTION OF A TURN OF A FINGER OR OTHER PART OF THE BODY OF A USER FROM A PARTICULARLY PORTABLE DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1771088A FR3072249B1 (en) 2017-10-16 2017-10-16 METHOD OF DETECTION OF A TURN OF A FINGER OR OTHER PART OF THE BODY OF A USER FROM A PARTICULARLY PORTABLE DEVICE
FR1771088 2017-10-16

Publications (2)

Publication Number Publication Date
FR3072249A1 true FR3072249A1 (en) 2019-04-19
FR3072249B1 FR3072249B1 (en) 2020-10-16

Family

ID=61750378

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1771088A Active FR3072249B1 (en) 2017-10-16 2017-10-16 METHOD OF DETECTION OF A TURN OF A FINGER OR OTHER PART OF THE BODY OF A USER FROM A PARTICULARLY PORTABLE DEVICE

Country Status (1)

Country Link
FR (1) FR3072249B1 (en)

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Android boy's Lab: Smart Ruler Pro (ver 2.6) manual", 29 January 2016 (2016-01-29), XP055488162, Retrieved from the Internet <URL:http://androidboy1.blogspot.com/2016/01/smart-ruler-pro-v26.html> [retrieved on 20180626] *
MADS BOCK ET AL: "Tangible Widgets for a Multiplayer Tablet Game in Comparison to Finger Touch", PROCEEDINGS OF THE 2015 ANNUAL SYMPOSIUM ON COMPUTER-HUMAN INTERACTION IN PLAY, 5 October 2015 (2015-10-05), pages 755 - 758, XP055487373, ISBN: 978-1-4503-3466-2, DOI: 10.1145/2793107.2810269 *
SUPER USER: "Technology", 7 January 2017 (2017-01-07), XP055488623, Retrieved from the Internet <URL:https://web.archive.org/web/20170107173303/https://anthropometry.ibv.org/en/technology.html> [retrieved on 20180628] *

Also Published As

Publication number Publication date
FR3072249B1 (en) 2020-10-16

Similar Documents

Publication Publication Date Title
FR2997528A1 (en) BIOMETRIC IDENTIFICATION
US9536159B2 (en) Smart glasses and method for recognizing and prompting face using smart glasses
WO2015131352A1 (en) Method for starting electronic device, and electronic device
FR3095056A1 (en) Display on a smartphone screen of a contactless card positioning pattern to improve near-field communication
WO2014206887A1 (en) Method for detecting a real face
CA3000153A1 (en) Analysis process for a structure document capable of being deformed
EP3281093A1 (en) Electronic bracelet for displaying interactive digital content intended to be projected onto a zone of an arm
WO2016115786A1 (en) Terminal unlocking method and device, terminal and computer storage medium
EP3401837A1 (en) Device for capturing fingerprints
FR2979728A1 (en) FRAUD DETECTION FOR BIOMETRIC TYPE ACCESS CONTROL SYSTEM
EP1047336B1 (en) Device for authenticating a person on the basis of his fingerprints
US9565370B2 (en) System and method for assisting in computer interpretation of surfaces carrying symbols or characters
FR2962824A1 (en) DEVICE AND METHOD FOR CONTROLLING IMAGE PROCESSING
EP3388976A1 (en) Method for detecting fraud
EP2474937B1 (en) Electronic authentication method of a handwritten signature, module and corresponding computer program
WO2007000504A1 (en) Biometric hand recognition method and associated system and device
FR2960087A1 (en) PORTABLE DEVICE COMPRISING A TOUCH SCREEN AND METHOD OF USING SAME.
EP2425375B1 (en) Device for identifying a person by a print thereof
FR3072249A1 (en) METHOD FOR DETECTING A FINGER ROTARY OR OTHER PART OF THE BODY OF A USER FROM A PARTICULARLY PORTABLE DEVICE
EP3073416B1 (en) Device for checking the veracity of a fingerprint
EP3471016A1 (en) Method for detecting a presence of a body part carrying a fingerprint on a fingerprint sensor
WO2016162539A1 (en) Interactive electronic projection device
EP3182333B1 (en) Fraud detection method for authenticating a finger
CN109670422A (en) Face datection information display method, device, equipment and storage medium
WO2022001381A1 (en) Biological feature recognition method and apparatus

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20190419

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6