ES2935795T3 - Aparato para determinar una posición de un dispositivo en una parte del cuerpo - Google Patents

Aparato para determinar una posición de un dispositivo en una parte del cuerpo Download PDF

Info

Publication number
ES2935795T3
ES2935795T3 ES20708111T ES20708111T ES2935795T3 ES 2935795 T3 ES2935795 T3 ES 2935795T3 ES 20708111 T ES20708111 T ES 20708111T ES 20708111 T ES20708111 T ES 20708111T ES 2935795 T3 ES2935795 T3 ES 2935795T3
Authority
ES
Spain
Prior art keywords
body part
orientation
orientations
treatment operation
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20708111T
Other languages
English (en)
Inventor
Ingrid Christina Maria Flinsenberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Application granted granted Critical
Publication of ES2935795T3 publication Critical patent/ES2935795T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B26HAND CUTTING TOOLS; CUTTING; SEVERING
    • B26BHAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
    • B26B19/00Clippers or shavers operating with a plurality of cutting edges, e.g. hair clippers, dry shavers
    • B26B19/38Details of, or accessories for, hair clippers, or dry shavers, e.g. housings, casings, grips, guards
    • B26B19/3873Electric features; Charging; Computing devices
    • B26B19/388Sensors; Control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Forests & Forestry (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Eye Examination Apparatus (AREA)
  • Vehicle Body Suspensions (AREA)
  • Paper (AREA)
  • Dry Shavers And Clippers (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

De acuerdo con un aspecto, se proporciona un método para determinar la ubicación de un dispositivo en una superficie de una parte del cuerpo de un sujeto que es tratado por el dispositivo durante una operación de tratamiento. El dispositivo es para realizar la operación de tratamiento en la parte del cuerpo, y el dispositivo comprende uno o más sensores de orientación para medir la orientación del dispositivo en un marco de referencia del dispositivo. El método comprende obtener una representación tridimensional, 3D, de la parte del cuerpo, comprendiendo la representación 3D vectores normales para posiciones respectivas en la superficie de la parte del cuerpo; recibir una pluralidad de medidas de orientación desde uno o más sensores de orientación que representan la orientación del dispositivo durante la operación de tratamiento en la parte del cuerpo; procesar las medidas de orientación recibidas para determinar una secuencia de orientaciones del dispositivo durante la operación de tratamiento; y comparar la secuencia determinada de orientaciones del dispositivo con los vectores normales y las posiciones respectivas de los vectores normales para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Aparato para determinar una posición de un dispositivo en una parte del cuerpo
CAMPO DE LA INVENCIÓN
Esta divulgación se refiere a un dispositivo que se utiliza para realizar una operación de tratamiento en una parte del cuerpo de un sujeto y, en particular, a una técnica para determinar una ubicación del dispositivo sobre una superficie de la parte del cuerpo durante la operación de tratamiento.
ANTECEDENTES DE LA INVENCIÓN
Están disponibles muchos tipos de dispositivos que se pueden usar en el cuerpo de un sujeto para proporcionar una operación de tratamiento al cuerpo, incluyendo una operación de cuidado personal en el cuerpo. Por ejemplo, existen dispositivos para la eliminación o el corte del pelo no deseado mediante diversas técnicas tales como el afeitado, el corte, la electrólisis, la depilación y las terapias con láser y luz (conocidas como fotodepilación o luz pulsada intensa, IPL). Otros tipos de tratamientos dermatológicos, incluyendo la reducción del crecimiento del pelo y el tratamiento del acné, también pueden utilizar tecnologías basadas en la luz. Los dispositivos también se pueden usar para proporcionar un masaje al sujeto, para proporcionar un tratamiento de las uñas, para limpiar los dientes, para proporcionar fisioterapia, para aplicar parches al sujeto (por ejemplo, electrodos de electrocardiograma, etc.).
A menudo, cuando se realiza una operación de tratamiento, puede ser útil (o quizás necesario) asegurarse de que todas las áreas de la parte del cuerpo que se van a tratar, se traten uniformemente y/o no se traten en exceso. También, o alternativamente, puede ser útil proporcionar instrucciones u orientación al usuario del dispositivo para permitirle completar la operación de tratamiento de una manera particular (por ejemplo, lograr un peinado particular en el caso de una operación de corte de pelo o lograr una forma de barba particular en el caso de una operación de afeitado). Por lo tanto, es útil controlar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento. Se puede proporcionar retroalimentación al usuario del dispositivo en base a esta información.
Para dispositivos, tales como recortadoras/cortadoras y afeitadoras, se han presentado conceptos en los que la ubicación del dispositivo con respecto a la cabeza del usuario (o la ubicación del dispositivo en la cabeza del usuario) se usa para ajustar una recortadora, por ejemplo, documentos WO 2013/163999 y WO 2013/096572). En dichos sistemas se hace uso de un campo (por ejemplo, electromagnético, ultrasónico, etc.) para detectar la posición tanto del dispositivo como de la cabeza con respecto a una fuente de campo. En estos sistemas, puede ser necesario colocar una fuente de campo o un sensor de campo en o sobre la cabeza y/o el dispositivo, pero esta disposición tiene un coste relativamente alto (en vista de los componentes adicionales requeridos) y requiere que la posición y el desgaste la(s) fuente(s) de campo o sensor(es) de campo.
Alternativamente, los dispositivos utilizados en las operaciones de tratamiento a menudo incluyen sensores de movimiento tales como acelerómetros y giroscopios, y se ha propuesto estimar las posiciones del dispositivo y la cabeza en función de los movimientos medidos de la cabeza y del dispositivo (por ejemplo, documento WO 2016/113202).
Sin embargo, uno de los principales problemas para determinar la ubicación completa de un dispositivo basándose únicamente en las mediciones de aceleración y giroscopio desde el dispositivo es establecer el direccionamiento del dispositivo (es decir, la orientación en un plano horizontal). Por lo general, el direccionamiento de un dispositivo (en ausencia de otra información sobre el dispositivo), generalmente puede ser proporcionado por un magnetómetro o un receptor de sistema de posicionamiento por satélite en el dispositivo. Sin embargo, en el caso de un dispositivo para realizar una operación de tratamiento en una parte del cuerpo, el simple conocimiento de la orientación del dispositivo (incluyendo el direccionamiento) no es suficiente para determinar la ubicación del dispositivo en la parte del cuerpo. Por lo tanto, la orientación absoluta del dispositivo solo es útil si también se conoce la posición completa y el direccionamiento absoluto de la parte del cuerpo, que normalmente no es el caso de las mediciones de aceleración y giroscopio obtenidas por un dispositivo.
Por lo tanto, es deseable poder determinar la ubicación de un dispositivo en la superficie de una parte del cuerpo usando uno o más sensores en el propio dispositivo, y sin requerir que el sujeto use o lleve sensores adicionales en su cuerpo o en el parte del cuerpo correspondiente.
SUMARIO DE LA INVENCIÓN
De acuerdo con un primer aspecto específico, se proporciona un método para determinar la ubicación de un dispositivo en una superficie de una parte del cuerpo de un sujeto que es tratado por el dispositivo durante una operación de tratamiento, en el que el dispositivo es para realizar la operación de tratamiento en la parte del cuerpo, y en el que el dispositivo comprende uno o más sensores de orientación para medir la orientación del dispositivo en un marco de referencia del dispositivo, comprendiendo el método: obtener una representación tridimensional, en 3D, de la parte del cuerpo, comprendiendo la representación en 3D vectores normales para posiciones respectivas en la superficie de la parte del cuerpo; recibir una pluralidad de mediciones de orientación desde uno o más sensores de orientación que representan la orientación del dispositivo durante la operación de tratamiento en la parte del cuerpo; procesar las mediciones de orientación recibidas para determinar una secuencia de orientaciones del dispositivo durante la operación de tratamiento; y comparar la secuencia determinada de orientaciones del dispositivo con los vectores normales y las posiciones respectivas de los vectores normales para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento. Por lo tanto, el primer aspecto proporciona que la ubicación de un dispositivo en la superficie de una parte del cuerpo puede determinarse utilizando uno o más sensores de orientación en el propio dispositivo, sin que el sujeto deba usar o llevar sensores adicionales en su cuerpo o en la parte del cuerpo correspondiente.
En algunas realizaciones, la etapa de comparar comprende identificar una secuencia de vectores normales en la representación en 3D que tienen orientaciones respectivas que coinciden con la secuencia de orientaciones del dispositivo. En algunas realizaciones, la etapa de comparar comprende determinar una trayectoria tomada por el dispositivo sobre la superficie de la parte del cuerpo como las posiciones respectivas de los vectores normales en la secuencia identificada de vectores normales. En algunas realizaciones, la etapa de comparar comprende determinar la ubicación del dispositivo en la superficie de la parte del cuerpo como la posición asociada con un vector normal en la superficie de la parte del cuerpo que tiene una orientación que coincide con una orientación final en la secuencia de orientaciones del dispositivo.
En algunas realizaciones, el dispositivo comprende además uno o más sensores de movimiento para medir el movimiento del dispositivo; el método comprende además recibir una pluralidad de mediciones de movimiento desde uno o más sensores de movimiento que representan el movimiento del dispositivo durante la operación de tratamiento en la parte del cuerpo; la etapa de procesamiento comprende procesar las mediciones de orientación recibidas y las mediciones de movimiento recibidas para determinar una secuencia de posiciones y orientaciones del dispositivo durante la operación de tratamiento; y la etapa de comparar comprende comparar la secuencia determinada de orientaciones y posiciones del dispositivo con los vectores normales y las respectivas posiciones de los vectores normales para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento. Estas realizaciones mejoran la precisión de la ubicación determinada para el dispositivo.
En estas realizaciones, la etapa de comparar puede comprender identificar una secuencia de vectores normales en la representación en 3D que tengan posiciones y orientaciones respectivas que coincidan con la secuencia de posiciones y orientaciones del dispositivo. En estas realizaciones, la etapa de comparar puede comprender determinar una trayectoria tomada por el dispositivo sobre la superficie de la parte del cuerpo como las posiciones respectivas de los vectores normales en la secuencia identificada de vectores normales. En estas realizaciones, la etapa de comparar puede comprender determinar la ubicación del dispositivo en la superficie de la parte del cuerpo como la posición asociada con un vector normal en la superficie de la parte del cuerpo que tiene una posición y orientación que coincide con una posición final y orientación en la secuencia de posiciones y orientaciones del dispositivo.
En estas realizaciones, el uno o más sensores de movimiento pueden incluir un acelerómetro, y la etapa de procesamiento puede comprender: procesar la pluralidad de mediciones de orientación para estimar una dirección en la que la gravedad actúa sobre el dispositivo; procesar la pluralidad de mediciones de movimiento utilizando la dirección estimada para eliminar la aceleración debida a la gravedad de la pluralidad de mediciones de movimiento; y determinar la secuencia de posiciones y orientaciones del dispositivo durante la operación de tratamiento a partir de las mediciones de orientación recibidas y la pluralidad de mediciones de movimiento procesadas.
En estas realizaciones, el método puede comprender además: estimar una orientación de la parte del cuerpo con respecto al dispositivo a partir de la secuencia determinada de posiciones y orientaciones del dispositivo; y girar la representación en 3D de la parte del cuerpo según la orientación estimada; y la etapa de comparar comprende comparar la secuencia determinada de orientaciones y posiciones del dispositivo con los vectores normales y las posiciones respectivas de los vectores normales en la representación en 3D girada para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante el tratamiento operación. Estas realizaciones pueden mejorar la precisión de la ubicación determinada para el dispositivo al corregir la orientación de la parte del cuerpo que es diferente a la de la representación en 3D.
En algunas realizaciones, el método comprende además: obtener una imagen inicial que incluye el dispositivo y la parte del cuerpo; procesar la imagen obtenida para determinar una orientación del dispositivo con respecto a la parte del cuerpo; girar la representación en 3D de la parte del cuerpo según la orientación determinada del dispositivo con respecto a la parte del cuerpo; y la etapa de comparar comprende comparar la secuencia determinada de orientaciones del dispositivo con los vectores normales y las respectivas posiciones de los vectores normales en la representación en 3D girada para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento. Estas realizaciones proporcionan la ventaja de que la orientación del dispositivo con respecto a la parte del cuerpo se puede determinar en una etapa temprana, lo que permite determinar la ubicación del dispositivo antes en la operación de tratamiento.
En estas realizaciones, el método puede comprender además: obtener una o más imágenes adicionales durante la operación de tratamiento, incluyendo la una o más imágenes adicionales la parte del cuerpo; comparar la una o más imágenes adicionales y la imagen inicial para determinar una cantidad de movimiento y/o cambio en la orientación de la parte del cuerpo durante la operación de tratamiento; y, si se determina que se produce un movimiento y/o un cambio en la orientación de la parte del cuerpo en un punto de tiempo durante la operación de tratamiento, ajustar la representación en 3D de la parte del cuerpo de acuerdo con la cantidad determinada de movimiento y/o cambio de orientación; en el que la etapa de comparar comprende, para las mediciones de orientación obtenidas después del punto de tiempo, comparar la secuencia determinada de orientaciones del dispositivo después del punto de tiempo con los vectores normales y las posiciones respectivas de los vectores normales en la representación en 3D ajustada para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento. Estas realizaciones tienen la ventaja de que se pueden observar y compensar los movimientos de la parte del cuerpo durante la operación de tratamiento.
En algunas realizaciones, la representación en 3D de la parte del cuerpo incluye vectores normales para posiciones respectivas en la superficie de parte de la parte del cuerpo que es relevante para la operación de tratamiento. En estas realizaciones, la parte de la parte del cuerpo que es relevante para la operación de tratamiento se puede determinar de acuerdo con una plantilla o estilo para la operación de tratamiento. En estas realizaciones, la etapa de comparar puede comprender comparar la secuencia determinada de orientaciones del dispositivo con los vectores normales y las posiciones respectivas de los vectores normales para una parte de la parte del cuerpo que es relevante para la operación de tratamiento para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento.
En algunas realizaciones, la parte del cuerpo es la cara y la operación de tratamiento es una operación de afeitado. En estas realizaciones, la representación en 3D de la cara puede incluir vectores normales para posiciones respectivas en la superficie de la cara que tiene vello facial.
En algunas realizaciones, la parte del cuerpo es la cabeza y la operación de tratamiento es una operación de corte de pelo. En estas realizaciones, la representación en 3D de la cabeza puede incluir vectores normales para posiciones respectivas en la superficie de la cabeza que tiene pelo.
En algunas realizaciones, la etapa de obtener la representación en 3D comprende procesar una imagen de la parte del cuerpo para generar la representación en 3D de la parte del cuerpo. En estas realizaciones, la imagen de la parte del cuerpo puede ser una imagen de la parte del cuerpo después de una operación de tratamiento anterior, y el procesamiento de la imagen comprende: procesar la imagen para identificar una o más partes de la parte del cuerpo tratada por la operación de tratamiento anterior y/o una o más partes del cuerpo no tratadas por la operación de tratamiento anterior; y determinar vectores normales para posiciones respectivas en la superficie de una o más partes de la parte del cuerpo que fueron tratadas por la operación de tratamiento anterior. En realizaciones alternativas, la etapa de obtener la representación en 3D puede comprender procesar una primera y segunda imágenes de la parte del cuerpo para generar la representación en 3D de la parte del cuerpo, en el que la primera imagen es una imagen de la parte del cuerpo antes de una operación de tratamiento y la segunda imagen de la parte del cuerpo es una imagen de la parte del cuerpo después de una operación de tratamiento anterior; y procesar la imagen comprende: procesar la primera y segunda imágenes para identificar una o más partes de la parte del cuerpo tratada por la operación de tratamiento anterior y/o una o más partes de la parte del cuerpo no tratada por la operación de tratamiento anterior; y determinar vectores normales para posiciones respectivas en la superficie de una o más partes de la parte del cuerpo que fueron tratadas por la operación de tratamiento anterior.
En algunas realizaciones, el dispositivo comprende una porción de tratamiento para contactar con la parte del cuerpo y para realizar la operación de tratamiento; la etapa de procesar las mediciones de orientación recibidas comprende: girar las mediciones de orientación de modo que las mediciones de orientación giradas representen la orientación de la porción de tratamiento; y procesar las mediciones de orientación giradas para determinar una secuencia de orientaciones de la porción de tratamiento durante la operación de tratamiento; y la etapa de comparar comprende comparar la secuencia determinada de orientaciones de la porción de tratamiento con los vectores normales y las posiciones respectivas de los vectores normales para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento. Estas realizaciones proporcionan la ventaja de que se mejora la precisión de la determinación de la ubicación a medida que las mediciones de orientación se corrigen a la orientación de la parte del dispositivo que está en contacto con la superficie de la parte del cuerpo. En estas realizaciones, y donde se proporcionan uno o más sensores de movimiento, la porción de tratamiento puede separarse a una distancia predeterminada de uno o más sensores de movimiento; y la etapa de procesamiento puede comprender además: corregir las mediciones de movimiento utilizando la pluralidad de mediciones de orientación y la distancia predeterminada, de modo que las mediciones de movimiento representen los movimientos de la parte de tratamiento; y procesar las mediciones de movimiento corregidas y las mediciones de orientación giradas para determinar una secuencia de orientaciones y posiciones de la porción de tratamiento durante la operación de tratamiento. Estas realizaciones proporcionan la ventaja de que la precisión de la determinación de la ubicación mejora aún más, ya que las mediciones de movimiento también se corrigen a la posición de la parte del dispositivo que está en contacto con la superficie de la parte del cuerpo.
En algunas realizaciones, el método comprende además proporcionar información al sujeto en función de la ubicación determinada del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento.
De acuerdo con un segundo aspecto, se proporciona un producto de programa informático que comprende un medio legible por ordenador que tiene incorporado un código legible por ordenador, estando configurado el código legible por ordenador de tal manera que, al ser ejecutado por un ordenador o procesador adecuado, el ordenador o procesador se hace que realice el método de acuerdo con el primer aspecto o cualquier realización del mismo.
De acuerdo con un tercer aspecto, se proporciona un aparato para determinar la ubicación de un dispositivo en una superficie de una parte del cuerpo de un sujeto que es tratado por el dispositivo durante una operación de tratamiento, en el que el dispositivo es para realizar la operación de tratamiento en la parte del cuerpo, y en el que el dispositivo comprende uno o más sensores de orientación para medir la orientación del dispositivo en un marco de referencia del dispositivo, comprendiendo el aparato una unidad de procesamiento configurada para: obtener una representación tridimensional, en 3D, de la parte del cuerpo, comprendiendo la representación en 3D vectores normales para posiciones respectivas en la superficie de la parte del cuerpo; recibir una pluralidad de mediciones de orientación desde uno o más sensores de orientación que representan la orientación del dispositivo durante la operación de tratamiento en la parte del cuerpo; procesar las mediciones de orientación recibidas para determinar una secuencia de orientaciones del dispositivo durante la operación de tratamiento; y comparar la secuencia determinada de orientaciones del dispositivo con los vectores normales y las posiciones respectivas de los vectores normales para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento. Por lo tanto, el aparato permite que la ubicación de un dispositivo en la superficie de una parte del cuerpo pueda determinarse usando uno o más sensores de orientación en el propio dispositivo, sin que el sujeto deba usar o llevar sensores adicionales en su cuerpo o en la parte del cuerpo correspondiente.
Se contemplan varias realizaciones del aparato en las que la unidad de procesamiento está además configurada para operar de acuerdo con cualquiera de las realizaciones del primer aspecto expuesto anteriormente.
De acuerdo con un cuarto aspecto, se proporciona un sistema que comprende un aparato de acuerdo con el tercer aspecto, o cualquier realización del mismo; y un dispositivo para realizar una operación de tratamiento en una parte del cuerpo, en el que el dispositivo comprende uno o más sensores de orientación para medir la orientación del dispositivo en un marco de referencia del dispositivo.
En algunas realizaciones, el aparato está incluido en el dispositivo. En realizaciones alternativas, el aparato está separado del dispositivo.
Estos y otros aspectos serán evidentes y se dilucidarán con referencia a la(s) realización(es) descrita(s) a continuación.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Ahora se describirán realizaciones ilustrativas, solo a modo de ejemplo, con referencia a los siguientes dibujos, en los que:
La figura 1 es una ilustración de un dispositivo de ejemplo en forma de máquina de afeitar giratoria;
La figura 2 es un diagrama de bloques de un sistema de ejemplo que comprende un dispositivo para realizar una operación de tratamiento y un aparato para determinar la ubicación del dispositivo en la superficie de una parte del cuerpo de acuerdo con la invención;
La figura 3 es una ilustración de una representación en 3D de ejemplo;
La figura 4 es un diagrama de flujo que ilustra un método de ejemplo de acuerdo con la invención; y
Las figuras 5 y 6 ilustran cómo se usa la representación en 3D para determinar la ubicación del dispositivo.
DESCRIPCIÓN DETALLADA DE REALIZACIONES
Como se indicó anteriormente, la invención es para determinar la ubicación de un dispositivo en una superficie de una parte del cuerpo de un sujeto. La superficie de la parte del cuerpo puede ser la piel, o la superficie puede ser la ropa que se usa sobre la parte del cuerpo (si es apropiado para la operación de tratamiento a realizar). El dispositivo es para realizar una operación de tratamiento en la parte del cuerpo cuando el dispositivo (o una parte del dispositivo) está en contacto con la superficie de la parte del cuerpo. El dispositivo puede ser un dispositivo de mano, es decir, un dispositivo que debe sujetarse con una mano de un usuario. El usuario del dispositivo puede ser la persona en la que se va a realizar la operación de tratamiento (es decir, el usuario está usando el propio dispositivo), o el usuario del dispositivo puede estar usando el dispositivo para realizar la operación de tratamiento en otra persona o un animal. En ambos casos, la persona (o animal) sobre la que se realiza la operación de tratamiento se denomina en el presente documento "sujeto".
Una operación de tratamiento podría ser una operación de cuidado personal tal como depilación o corte de pelo, incluyendo afeitado, corte, electrólisis, depilación y terapias con láser y luz (conocidas como fotodepilación o luz pulsada intensa, IPL). Otras operaciones de cuidado personal pueden incluir la reducción del crecimiento del pelo, el tratamiento del acné, la limpieza de la piel, el masaje de la piel, el tratamiento de las uñas y la fisioterapia. En la siguiente descripción de la invención, se hace referencia al dispositivo para afeitar a un sujeto, particularmente afeitar la cara y cortar el pelo, particularmente cortar el pelo en la cabeza, pero a menos que se indique lo contrario a continuación, debe apreciarse que la invención es aplicable a cualquier tipo de dispositivo que tenga una porción de tratamiento para realizar cualquier tipo de operación de tratamiento en la superficie de una parte del cuerpo.
La figura 1 es una ilustración de un dispositivo 2 de ejemplo al que se puede aplicar la invención, con el dispositivo 2 en forma de máquina de afeitar giratoria. La afeitadora giratoria comprende un cuerpo principal 4 que se sujeta en la mano de un usuario y una porción de tratamiento 6 en forma de porción de afeitado que incluye una pluralidad de elementos de corte 8 para cortar/afeitar el pelo. Cada elemento de corte 8 comprende una o más cuchillas circulares (no mostradas en la figura 1) que giran rápidamente. Aunque la porción de tratamiento 6 se muestra incluyendo tres elementos de corte 8 dispuestos en un triángulo (como se muestra en la figura 1), se apreciará que una afeitadora giratoria puede tener un número diferente de elementos de corte 8 y/o una disposición diferente de elementos de corte 8. Como se indicó anteriormente, el dispositivo 2 podría tener una forma diferente, por ejemplo, una cortadora de pelo, un dispositivo de fotodepilación, un dispositivo de limpieza de la piel, etc.
La figura 2 muestra un diagrama de bloques de un aparato 10 de ejemplo para determinar la ubicación de un dispositivo 2 en la superficie de una parte del cuerpo de acuerdo con la invención. El aparato 10 se muestra como parte de un sistema 11 que también incluye el dispositivo 2 (por ejemplo, una afeitadora giratoria como se muestra en la figura 1, o cortapelos, un cepillo de dientes, un dispositivo de fotodepilación, etc.). En las realizaciones que se muestran en la figura 2, el aparato 10 es un aparato separado del dispositivo 2 y, por lo tanto, el aparato 10 puede tener la forma de un dispositivo electrónico, tal como un teléfono inteligente, un reloj inteligente, una tableta, un asistente digital personal (PDA), ordenador portátil, ordenador de escritorio, espejo inteligente, etc. En otras realizaciones (no mostradas en la figura 2), el aparato 10, y particularmente la funcionalidad de acuerdo con la invención proporcionada por el aparato 10, es parte del dispositivo 2.
El aparato 10 comprende una unidad de procesamiento 12 que generalmente controla el funcionamiento del aparato 10 y permite que el aparato 10 realice el método y las técnicas descritas en el presente documento. Brevemente, la unidad de procesamiento 12 recibe mediciones de la orientación del dispositivo durante la operación de tratamiento, las procesa para determinar una secuencia de orientaciones durante la operación de tratamiento y determina la ubicación del dispositivo comparando la secuencia con una representación tridimensional (en 3D) de la parte del cuerpo que se está tratando, con la representación en 3D incluyendo vectores normales para posiciones respectivas en la superficie de la parte del cuerpo.
Por lo tanto, la unidad de procesamiento 12 puede configurarse para recibir las mediciones de orientación de otro componente del aparato 10 y, por lo tanto, la unidad de procesamiento 12 puede incluir o comprender uno o más puertos de entrada u otros componentes para recibir las mediciones de orientación del otro componente. La unidad de procesamiento 12 también puede incluir o comprender uno o más puertos de salida u otros componentes para comunicarse con otros componentes del aparato 10.
La unidad de procesamiento 12 puede implementarse de numerosas maneras, con software y/o hardware, para realizar las diversas funciones descritas en el presente documento. La unidad de procesamiento 12 puede comprender uno o más microprocesadores o procesadores de señales digitales (DSP) que pueden programarse usando software o código de programa de ordenador para realizar las funciones requeridas y/o controlar componentes de la unidad de procesamiento 12 para efectuar las funciones requeridas. La unidad de procesamiento 12 puede implementarse como una combinación de hardware dedicado para realizar algunas funciones (por ejemplo, amplificadores, preamplificadores, convertidores de analógico a digital (ADC) y/o convertidores de digital a analógico (DAC)) y un procesador (por ejemplo, uno o más microprocesadores, controladores, DSP y circuitos asociados programados) para realizar otras funciones. Los ejemplos de componentes que pueden emplearse en diversas realizaciones de la presente descripción incluyen, entre otros, microprocesadores convencionales, DSP, circuitos integrados específicos de aplicación (ASIC) y matrices de puertas programables en campo (FPGA).
La unidad de procesamiento 12 puede comprender o estar asociada con una unidad de memoria 14. La unidad de memoria 14 puede almacenar datos, información y/o señales (incluidas las mediciones de orientación y/o la representación en 3D) para su uso por parte de la unidad de procesamiento 12 para controlar el funcionamiento del aparato 10 y/o para ejecutar o llevar a cabo los métodos descritos en el presente documento. En algunas implementaciones, la unidad de memoria 14 almacena código legible por ordenador que puede ser ejecutado por la unidad de procesamiento 12 para que la unidad de procesamiento 12 realice una o más funciones, incluyendo los métodos descritos en el presente documento. En realizaciones particulares, el código del programa puede tener la forma de una aplicación para un teléfono inteligente, una tableta, un ordenador portátil o un ordenador. La unidad de memoria 14 puede comprender cualquier tipo de medio legible por máquina no transitorio, tal como caché o memoria del sistema, incluyendo memoria de ordenador volátil y no volátil, tal como memoria de acceso aleatorio (RAM), RAM estática (SRAM), RAM dinámica (DRAM), memoria de solo lectura (ROM), ROM programable ( P r O m ), PROM borrable (EPROM) y PROM borrable eléctricamente (EEPROM), y la unidad de memoria se puede implementar en forma de un chip de memoria, un disco óptico (tal como un disco compacto (CD), un disco versátil digital (DVD) o un disco Blu-Ray), un disco duro, una solución de almacenamiento en cinta o un dispositivo de estado sólido, que incluye una tarjeta de memoria, una unidad de estado sólido (SSD), una tarjeta de memoria, etc.
En la realización que se muestra en la figura 2, como el aparato 10 está separado del dispositivo 2, el aparato 10 también incluye un circuito de interfaz 16 para permitir que el aparato 10 reciba las mediciones de orientación del dispositivo 2. El circuito de interfaz 16 en el aparato 10 permite una conexión de datos y/o intercambio de datos con otros dispositivos, incluyendo cualquiera o más del dispositivo 2, servidores, bases de datos, dispositivos de usuario y sensores. La conexión al dispositivo 2 (o cualquier otro dispositivo) puede ser directa o indirecta (por ejemplo, a través de Internet) y, por lo tanto, el circuito de interfaz 16 puede permitir una conexión entre el aparato 10 y una red, o directamente entre el aparato 10 y otro dispositivo (tal como el dispositivo 2), a través de cualquier protocolo de comunicación por cable o inalámbrico deseable. Por ejemplo, el circuito de interfaz 16 puede funcionar usando WiFi, Bluetooth, Zigbee o cualquier protocolo de comunicación celular (incluyendo, pero no limitado a, Sistema global para comunicaciones móviles (GSM), Sistema universal de telecomunicaciones móviles (UMTS), Evolución a largo plazo (LTE), LTE-Avanzado, etc.). En el caso de una conexión inalámbrica, el circuito de interfaz 16 (y, por lo tanto, el aparato 10) puede incluir una o más antenas adecuadas para transmitir/recibir sobre un medio de transmisión (por ejemplo, el aire). Alternativamente, en el caso de una conexión inalámbrica, el circuito de interfaz 16 puede incluir medios (por ejemplo, un conector o enchufe) para permitir que el circuito de interfaz 16 se conecte a una o más antenas adecuadas externas al aparato 10 para transmitir/recibir a través de un medio de transmisión (por ejemplo, el aire). El circuito de interfaz 16 está conectado a la unidad de procesamiento 12.
Aunque no se muestra en la figura 2, el aparato 10 puede comprender uno o más componentes de interfaz de usuario que incluyen uno o más componentes que permiten al usuario del aparato 10 introducir información, datos y/o comandos en el aparato 10, y/o permite que el aparato 10 envíe información o datos al usuario del aparato 10. La interfaz de usuario puede comprender cualquier componente de entrada adecuado, incluyendo, pero no limitado a, un teclado, teclado numérico, uno o más botones, interruptores o diales, un ratón, un panel táctil, una pantalla táctil, un lápiz óptico, una cámara, un micrófono, etc., y la interfaz de usuario puede comprender cualquier componente de salida adecuado, incluyendo, pero no limitado a, una unidad de visualización o pantalla de visualización, una o más luces o elementos luminosos, uno o más altavoces, un elemento vibratorio, etc.
Se apreciará que una implementación práctica de un aparato 10 puede incluir componentes adicionales a los que se muestran en la figura 2. Por ejemplo, el aparato 10 también puede incluir una fuente de alimentación, tal como una batería, o componentes para permitir que el aparato 10 se conecte a una fuente de alimentación principal.
En algunas realizaciones, como se describe más adelante, el sistema 12 puede incluir una unidad de formación de imágenes 18 que es para capturar u obtener imágenes. En particular, la unidad de formación de imágenes 18 puede utilizarse para capturar u obtener imágenes de la parte del cuerpo a tratar, y también, al menos al comienzo de la operación de tratamiento, el dispositivo 2. Como tal, la unidad de formación de imágenes 18 puede estar separada del dispositivo 2. Por lo tanto, la unidad de formación de imágenes 18 puede ser parte del aparato 10 (en realizaciones donde el aparato 10 está separado del dispositivo 2, por ejemplo, como se muestra en la figura 2), o la unidad de formación de imágenes 18 puede estar separada del aparato 10. En algunas realizaciones, la unidad de formación de imágenes 18 puede ser una cámara en un teléfono inteligente, tableta, ordenador portátil o espejo inteligente. En realizaciones donde la imagen o imágenes obtenidas por la unidad de formación de imágenes 18 se utilizan para determinar la representación en 3D de la parte del cuerpo, la unidad de formación de imágenes 18 también puede configurarse para obtener una imagen o imágenes que incluyen información de profundidad (es decir, información sobre la distancia, o diferencia de distancia, de partes de la imagen de la unidad de formación de imágenes 18), o que permitan determinar dicha información de profundidad a partir de las imágenes obtenidas.
La unidad de formación de imágenes 18 puede incluir cualquier componente adecuado para capturar una imagen, por ejemplo, un dispositivo de carga acoplada (CCD) y una o más lentes y/o espejos. En algunas realizaciones, la unidad de formación de imágenes 18 es una cámara, como una cámara digital. El dispositivo 2 que se muestra en la figura 2 incluye un sensor de orientación 22 para medir la orientación del dispositivo 2, una unidad de procesamiento del dispositivo 24 y un circuito de interfaz 26. El circuito de interfaz 26 es para transmitir señales desde el dispositivo 2 al aparato 10, incluyendo las mediciones de orientación. El circuito de interfaz 26 se puede implementar de acuerdo con cualquiera de las opciones descritas anteriormente para el circuito de interfaz 16 en el aparato 10 para comunicarse con el circuito de interfaz 16 en el aparato 10.
El sensor de orientación 22 es integral con o está fijado de otra manera al dispositivo 2, de modo que el sensor de orientación 22 mide directamente la orientación del dispositivo 2 en un marco de referencia del dispositivo 2. El sensor de orientación 22 puede ser cualquier tipo de sensor, o combinación de sensores, que pueda medir la orientación del dispositivo 2. Por ejemplo, el sensor de orientación 22 puede ser un giroscopio y/o un acelerómetro. En el caso de un acelerómetro, las mediciones de aceleración se pueden procesar para determinar una dirección en la que la gravedad actúa en el marco de referencia del sensor de orientación 22 (y, por lo tanto, en el marco de referencia del dispositivo 2), y esto puede proporcionar una indicación de la orientación del dispositivo 2. El sensor de orientación 22 puede generar mediciones de orientación en forma de una señal continua (o señales) o una serie temporal de muestras de medición de acuerdo con una frecuencia de muestreo del sensor de orientación 22. Si se utilizan tanto un giroscopio como un acelerómetro para medir la orientación, las mediciones de aceleración del acelerómetro y las mediciones de velocidad de rotación del giroscopio se pueden procesar para determinar una estimación de orientación única para el dispositivo 2. Por ejemplo, se puede usar un filtro complementario para transformar las mediciones del acelerómetro y las mediciones del giroscopio en una estimación de orientación fiable. Alternativamente, se puede utilizar un filtro de Kalman.
La unidad de procesamiento del dispositivo 24 generalmente controla el funcionamiento del dispositivo 2, por ejemplo, activando y desactivando una porción de tratamiento para efectuar una operación de tratamiento. La unidad de procesamiento del dispositivo 24 se puede implementar de numerosas maneras de acuerdo con cualquiera de las opciones descritas anteriormente para la unidad de procesamiento 12 en el aparato 10.
La unidad de procesamiento del dispositivo 24 se puede conectar al sensor de orientación 22 y recibe mediciones de la orientación del dispositivo 2 desde el sensor de orientación 22, por ejemplo, a través de un puerto de entrada a la unidad de procesamiento del dispositivo 24. En algunas realizaciones, la unidad de procesamiento del dispositivo 24 puede enviar las mediciones (por ejemplo, datos de orientación sin procesar) de la orientación al circuito de interfaz 26 para su transmisión al aparato 10 para el procesamiento posterior. En realizaciones alternativas, la unidad de procesamiento del dispositivo 24 puede realizar algún procesamiento inicial en las mediciones, por ejemplo, para reducir el ruido u otros artefactos, y la unidad de procesamiento del dispositivo 24 envía las mediciones de orientación procesadas al circuito de interfaz 26 para su transmisión al aparato 10 para procesamiento posterior.
En algunas realizaciones, el dispositivo 2 también puede incluir uno o más sensores de movimiento 28 para medir el movimiento o la movilidad del dispositivo 2 durante el uso del dispositivo 2 por parte del usuario. Los sensores de movimiento 28 pueden generar mediciones de movimiento en forma de una señal continua (o señales) o una serie temporal de muestras de medición de acuerdo con una frecuencia de muestreo del sensor de movimiento 28. El(los) sensor(es) de movimiento 28 son preferiblemente integrales o están fijados de otra manera al dispositivo 2, de modo que el(los) sensor(es) de movimiento 28 miden directamente los movimientos del dispositivo 2. En algunas realizaciones, el sensor de movimiento 28 es un acelerómetro, por ejemplo, que mide la aceleración a lo largo de tres ejes ortogonales (es decir, en tres dimensiones). Como se indica a continuación, para determinar el movimiento del dispositivo 2 a partir de las mediciones de aceleración, se determina una dirección de aceleración gravitacional a partir de las mediciones de orientación, se resta la aceleración debida a la gravedad de las mediciones de aceleración y luego se utiliza la integración doble y uno o más filtros para determinar el movimiento del dispositivo 2. Como alternativa o, además, el sensor de movimiento 28 puede comprender un sensor de fuerza, por ejemplo, para medir el movimiento de una parte del dispositivo 2, tal como la porción de tratamiento 6 con respecto al cuerpo principal 4, un giroscopio, un receptor de un sistema de posicionamiento por satélite (SPS), o un sistema de localización interior.
En algunas implementaciones de la figura 2, el aparato 2 es un teléfono inteligente, una tableta o un espejo inteligente que está ejecutando una aplicación que proporciona la funcionalidad de acuerdo con la invención.
En realizaciones donde el aparato 10, o la funcionalidad del aparato 10, es parte del dispositivo 2, la unidad de procesamiento del dispositivo 24 puede implementar las funciones de la unidad de procesamiento del aparato 12 para determinar la ubicación del dispositivo 2 de acuerdo con la invención.
Se apreciará que una implementación práctica del dispositivo 2 puede incluir componentes adicionales a los que se muestran en la figura 2. Por ejemplo, el dispositivo 2 también puede incluir una fuente de alimentación, tal como una batería, o componentes para permitir que el dispositivo 2 se conecte a una fuente de alimentación principal. El dispositivo 2 también incluirá una porción de tratamiento para realizar la operación de tratamiento. Por ejemplo, la porción de tratamiento puede ser una porción de corte o una porción de afeitado que incluye uno o más elementos de corte 8.
Como se indicó anteriormente, para determinar la ubicación del dispositivo 2 en la superficie de una parte del cuerpo de un sujeto que está siendo tratada por el dispositivo 2 en una operación de tratamiento, la invención prevé que se obtengan las mediciones de la orientación del dispositivo 2 durante la operación de tratamiento, las mediciones se procesan para determinar una secuencia de orientaciones durante la operación de tratamiento, y la ubicación del dispositivo se determina comparando la secuencia con una representación en 3D de la parte del cuerpo que se está tratando. En algunas realizaciones, también se obtienen mediciones de los movimientos del dispositivo 2, se determina una secuencia de orientaciones y movimientos del dispositivo 2, y esta secuencia se compara con la representación en 3D.
Así, la invención hace uso de una representación en 3D de la parte del cuerpo, que incluye vectores normales para posiciones respectivas en la superficie de la parte del cuerpo. Así, para cada una de una pluralidad de posiciones sobre la superficie de la parte del cuerpo, la representación en 3D incluye un vector normal (es decir, un vector que es perpendicular a la superficie en esa posición). En la figura 3 se muestra una representación en 3D de ejemplo de la cabeza 40 de un sujeto. Así, la representación en 3D comprende una pluralidad de vectores 42 que son normales a una posición 44 respectiva en la superficie de la cabeza. La secuencia de orientaciones del dispositivo 2 durante la operación de tratamiento se compara con la representación en 3D para identificar una trayectoria a través de la representación en 3D donde las orientaciones de los vectores normales a lo largo de la trayectoria coinciden o se ajustan (o proporcionan la mejor coincidencia o ajuste posible) con la secuencia de orientaciones del dispositivo 2. Las posiciones sobre la superficie de la parte del cuerpo de los vectores normales a lo largo de la trayectoria proporcionan la ubicación del dispositivo 2 durante la operación de tratamiento. En algunas realizaciones, la comparación se realiza después de completar la operación de tratamiento, en cuyo caso la trayectoria puede proporcionar una indicación de, por ejemplo, las partes del cuerpo que se han tratado. En otras realizaciones, la comparación se puede realizar en tiempo real o casi en tiempo real a medida que se obtienen las mediciones de orientación, y la comparación puede proporcionar la ubicación actual del dispositivo 2 en la superficie de la parte del cuerpo (es decir, la ubicación actual del dispositivo 2 corresponde a la posición del último o último vector normal en la trayectoria).
El diagrama de flujo de la figura 4 ilustra un método de ejemplo realizado por el aparato 10 de acuerdo con las técnicas descritas en el presente documento. Una o más de las etapas del método pueden realizarse mediante la unidad de procesamiento 12 en el aparato 10, junto con el circuito de interfaz 16 (si está presente) y la unidad de memoria 14, según corresponda. La unidad de procesamiento 12 puede realizar una o más etapas en respuesta a la ejecución del código del programa informático, que puede almacenarse en un medio legible por ordenador, tal como, por ejemplo, la unidad de memoria 14. Durante una operación de tratamiento (por ejemplo, cuando la parte de tratamiento está activada/operativa y el dispositivo 2 está siendo movido por un usuario), el sensor de orientación 22 mide la orientación del dispositivo 2.
En una primera etapa del método, etapa 101, se obtiene una representación en 3D de la parte del cuerpo a tratar (o que se trata). Esta etapa puede comprender recuperar o recibir una representación en 3D previamente determinada, por ejemplo, de la unidad de memoria 14. Alternativamente, esta etapa puede comprender determinar la representación en 3D de la parte del cuerpo. Como se describe con más detalle a continuación, se pueden procesar una o más imágenes (por ejemplo, fotografías) para determinar la representación en 3D. Como se señaló anteriormente, en la figura 3 se muestra una representación en 3D de ejemplo.
En la etapa 103, la unidad de procesamiento 12 recibe una pluralidad de mediciones que representan la orientación del dispositivo 2 durante la operación de tratamiento. La unidad de procesamiento 12 puede recibir las mediciones directamente desde el sensor de orientación 22 (por ejemplo, cuando la unidad de procesamiento 12 es parte del dispositivo 2), o puede recibirlas la unidad de procesamiento 12 a través del circuito de interfaz 16. Para determinar la ubicación del dispositivo 2 en la superficie de la parte del cuerpo en tiempo real o casi en tiempo real, el sensor de orientación 22 obtiene mediciones de orientación de forma continua o semicontinua (por ejemplo, de acuerdo con una frecuencia de muestreo del sensor de orientación 22) y proporcionada a la unidad de procesamiento 12 de forma continua o semicontinua (es decir, a medida que el sensor de orientación 22 obtiene las mediciones). En realizaciones preferidas, el sensor de orientación 22 es un giroscopio y/o un acelerómetro.
En la etapa 105, las mediciones de orientación recibidas se procesan para determinar una secuencia de orientaciones del dispositivo 2 durante la operación de tratamiento.
A continuación, en la etapa 107, se determina la ubicación del dispositivo comparando la secuencia de orientaciones del dispositivo con la representación en 3D obtenida en la etapa 101. En particular, la secuencia de orientaciones se compara con los vectores normales para identificar una secuencia de vectores normales en la representación en 3D (también conocida como trayectoria) donde la orientación de los vectores normales en la secuencia coincide o se ajusta, o proporciona una mejor posible coincidencia o ajuste en comparación con otras trayectorias posibles a través de la parte del cuerpo, la secuencia de orientaciones del dispositivo 2.
En algunas realizaciones, la etapa 107 se puede realizar utilizando Modelos Ocultos de Markov, campos aleatorios condicionales o redes neuronales recurrentes. Como se sabe, un Modelo Oculto de Markov estima una secuencia de 'estados' que mejor empareja los 'datos de entrada' con las 'emisiones' de 'estados'. Por lo tanto, en el contexto de la etapa 107, se puede usar un Modelo Oculto de Markov para estimar una secuencia de posiciones candidatas en la superficie de la parte del cuerpo que mejor se adapte a la secuencia de entrada de orientaciones del dispositivo 2 a vectores normales de posiciones en la parte del cuerpo. Al usar un Modelo Oculto de Markov, se supone que la siguiente ubicación del dispositivo 2 en la parte del cuerpo solo depende de la ubicación actual del dispositivo 2 en la parte del cuerpo, y se supone que la probabilidad de que el dispositivo 2 se mueva a la siguiente ubicación es independiente del tiempo.
Las posiciones sobre la superficie de la parte del cuerpo de los vectores normales a lo largo de la trayectoria corresponden a la ubicación del dispositivo 2 sobre la superficie de la parte del cuerpo en algún punto durante la operación de tratamiento. Si en el momento en que se realiza la etapa 107, la operación de tratamiento todavía está en curso y las mediciones de orientación se reciben en la etapa 103 en tiempo real o casi en tiempo real, la ubicación actual del dispositivo 2 en la superficie de la parte del cuerpo corresponde a la posición del último vector normal (final) en la trayectoria.
Se apreciará que para que el enfoque en la etapa 107 sea exitoso, la representación en 3D y la trayectoria tomada por el dispositivo 2 deben ser lo suficientemente curvadas para que sea posible hacer coincidir la trayectoria y la representación en 3D con un cierto grado de fiabilidad (es decir, debería haber un conjunto único o pequeño de posibilidades para hacer coincidir la secuencia de orientaciones del dispositivo 2 con la representación en 3D).
Las figuras 5 y 6 ilustran cómo se puede usar la representación en 3D en la etapa 107 para determinar la ubicación del dispositivo 2 para dos ubicaciones de dispositivos diferentes. Para facilitar la ilustración, las figuras 5 y 6 solo muestran una orientación actual del dispositivo 2 y un vector normal 42 correspondiente en la representación en 3D, pero se apreciará que normalmente se requiere una secuencia de orientaciones para proporcionar una coincidencia fiable de la secuencia de orientación con una posible trayectoria en la parte del cuerpo. Por lo tanto, la figura 5 muestra un vector 46 que representa la orientación del dispositivo 2 en un punto de tiempo particular, y un vector normal 42-1 que ha sido identificado y que tiene una orientación que coincide aproximadamente con la del vector 46. El vector normal 42-1 es para una posición 44-1 en la superficie de la cabeza 40 y, por lo tanto, la ubicación del dispositivo 2 se da como la posición 44-1, que es el lado derecho del mentón. A modo de comparación, el punto 48 corresponde a la ubicación real del dispositivo 2 en la superficie de la cabeza 40 cuando se obtuvo la medición de orientación correspondiente al vector 46. La figura 6 muestra otro vector 50 que representa la orientación del dispositivo 2 en otro momento, y un vector normal 42-2 que se ha identificado y que tiene una orientación que coincide aproximadamente con la del vector 50. El vector normal 42-2 es para una posición 44-2 en la superficie de la cabeza 40 y, por lo tanto, la ubicación del dispositivo 2 se da como la posición 44-2, que es la mejilla izquierda. A modo de comparación, el punto 52 corresponde a la ubicación real del dispositivo 2 en la superficie de la cabeza 40 cuando se obtuvo la medida de orientación correspondiente al vector 50.
En algunas realizaciones, las etapas 103-107 se pueden repetir para obtener más mediciones de orientación del dispositivo 2 para proporcionar una ubicación actualizada del dispositivo 2. Se apreciará que al repetir la etapa 105, la secuencia de orientaciones del dispositivo 2 se puede determinar a partir de las mediciones de orientación adicionales y algunas o todas las mediciones de orientación recibidas en la primera ocurrencia de la etapa 103.
Como se señaló anteriormente, en algunas realizaciones, el dispositivo 2 también incluye un sensor de movimiento 28 para medir los movimientos del dispositivo 2. En estas realizaciones, el método comprende además una etapa de recibir una pluralidad de mediciones de movimiento desde el sensor de movimiento 28, representando las mediciones de movimiento el movimiento del dispositivo 2 durante la operación de tratamiento en la parte del cuerpo. Las mediciones de movimiento recibidas corresponden generalmente al mismo período de tiempo que las mediciones de orientación recibidas en la etapa 103 (es decir, al menos algunas de las mediciones de movimiento se relacionan con el mismo período de tiempo que las mediciones de orientación recibidas en la etapa 103). Las mediciones de movimiento indican el movimiento o la movilidad del dispositivo 2 en el marco de referencia del dispositivo 2. En esta etapa, no se conoce la posición absoluta del dispositivo 2 (por ejemplo, en un marco de referencia global), o la posición del dispositivo 2 con respecto a la parte del cuerpo. En la etapa 105 se determina una secuencia de posiciones y orientaciones del dispositivo 2 a partir de las mediciones de orientación recibidas y las mediciones de posición recibidas. La secuencia representa las orientaciones del dispositivo 2 durante la operación de tratamiento, y las posiciones del dispositivo 2 (en el marco de referencia del dispositivo 2) o los cambios de posición del dispositivo 2 durante la operación de tratamiento en la que se produjeron esas orientaciones o cambios en la orientación. Dicho de otro modo, la secuencia de posiciones indica una trayectoria en el marco de referencia del dispositivo 2 que el dispositivo 2 ha movido durante la operación de tratamiento, y la secuencia de orientaciones indica las orientaciones del dispositivo 2 a lo largo de esa trayectoria. En la etapa 107, la secuencia de posiciones y orientaciones se compara con los vectores normales en la representación en 3D. Similar a la realización de solo orientación, la comparación en la etapa 107 tiene como objetivo identificar una secuencia de vectores normales en la representación en 3d donde la orientación y la separación posicional de los vectores normales en la secuencia coinciden o se ajustan, o proporcionan la mejor coincidencia o ajuste posible (en comparación con otras trayectorias posibles a través de la parte del cuerpo), la secuencia de orientaciones y posiciones correspondientes del dispositivo 2. Como antes, las posiciones sobre la superficie de la parte del cuerpo de los vectores normales a lo largo de la trayectoria corresponden a la ubicación del dispositivo 2 sobre la superficie de la parte del cuerpo en algún punto durante la operación de tratamiento. Si en el momento en que se realiza la etapa 107, la operación de tratamiento aún está en curso y las mediciones de orientación y movimiento se reciben en tiempo real o casi en tiempo real, la ubicación actual del dispositivo 2 en la superficie de la parte del cuerpo corresponde a la posición del último vector normal (final) en la trayectoria.
En algunas realizaciones, la etapa 105 puede incluir algún procesamiento de las mediciones de movimiento para eliminar la aceleración debida a la gravedad. En particular, cuando el sensor de movimiento 28 es un acelerómetro, las mediciones de movimiento (aceleración) serán una serie de vectores de aceleración que incluyen cada uno un componente de aceleración debido a la gravedad. En este caso, la pluralidad de mediciones de orientación, que puede proporcionar un giroscopio, puede procesarse para estimar una dirección en la que la gravedad actúa sobre el dispositivo 2 a través de la operación de tratamiento. Es decir, la orientación del dispositivo 2 en un marco de referencia global se determina en cada instante de muestreo a partir de las mediciones de orientación. Los expertos en la materia conocerán diversas técnicas para determinar la orientación del dispositivo 2 a partir de mediciones de giroscopio y/o aceleración, por ejemplo, utilizando filtros complementarios o filtros de Kalman. La aceleración debida a la gravedad (~9,81 ms'2) luego se resta de cada uno de los vectores de aceleración de acuerdo con la dirección estimada de la gravedad en ese instante de muestreo. Esto proporciona una serie de mediciones de movimiento que han sido corregidas por gravedad. La secuencia de posiciones y orientaciones del dispositivo 2 durante la operación de tratamiento se determina a continuación a partir de las mediciones de orientación recibidas y las mediciones de movimiento que han sido corregidas por gravedad. En algunas realizaciones, cada posición en la secuencia puede determinarse por integración doble con respecto al tiempo de cada medición de movimiento. En algunas realizaciones, el filtrado y/o el suavizado se pueden usar para mejorar las posiciones estimadas, por ejemplo, asegurando que la aceleración promedio después de eliminar la gravedad sea 0, y filtrando la velocidad estimada después de la primera integración para garantizar que la velocidad promedio sea 0. El filtrado para estimar la velocidad puede ser un filtro de Savitzky-Golay seguido de un filtro de promedio móvil.
Se apreciará que las mediciones de orientación y las mediciones de movimiento (si se obtienen), serán obtenidas por un sensor de orientación 22 y un sensor de movimiento 28 que están fijados en una posición particular dentro del dispositivo 2. Por ejemplo, el sensor de orientación 22 y el sensor de movimiento 28 pueden estar dentro del cuerpo principal 4 del dispositivo 2 que se muestra en la figura 1 y, por lo tanto, las mediciones de orientación representan la orientación del cuerpo principal 4, por ejemplo, con respecto a un eje de medición 30 que se extiende a través del cuerpo principal 4. Sin embargo, la construcción física del dispositivo 2 puede ser tal que la porción de tratamiento 6 no esté alineada con el eje de medición 30 del sensor de orientación 22, por ejemplo, como se muestra en la afeitadora de la figura 1. Aquí, el eje 32 es perpendicular al plano de la porción de tratamiento 6 (que corresponde al plano de la superficie de la parte del cuerpo en el punto donde la porción de tratamiento 6 entra en contacto con la parte del cuerpo), y forma un ángulo 0 con respecto a el eje de medición 30 debido a la construcción del dispositivo 2. Para que la comparación entre las orientaciones y los vectores normales de la representación en 3D sea más fácil (y más precisa), las mediciones de orientación obtenidas por el sensor de orientación 22 deben girarse o corregirse en el marco de referencia de la porción de tratamiento 6 del dispositivo 2, representado por el eje 32 (que está desplazado por el ángulo 0 desde el marco de referencia de medición representado por el eje de medición 30).
El ángulo 0 será un parámetro conocido del dispositivo 2 (por ejemplo, se determina durante una etapa de diseño o fabricación del dispositivo 2) y, por lo tanto, la etapa 105 puede comprender girar las mediciones de orientación obtenidas por el sensor de orientación 22 en el marco de referencia de la porción de tratamiento 6 (por ejemplo, girando las mediciones de orientación según el ángulo 0). Las mediciones de orientación giradas se pueden usar para determinar la secuencia de orientaciones y, por lo tanto, la secuencia de orientaciones representa las orientaciones de la porción de tratamiento 6 durante la operación de tratamiento.
Asimismo, el sensor de movimiento 28 medirá los movimientos en la posición del sensor de movimiento 28 dentro del cuerpo principal 4, que está separado de la porción de tratamiento 6 por una distancia predeterminada (que está determinada por el diseño del dispositivo 2). Por lo tanto, las mediciones de movimiento del sensor de movimiento 28 pueden corregirse para que representen los movimientos de la porción de tratamiento 6, en base a la construcción física del dispositivo 2 (la distancia predeterminada) y las mediciones de orientación. Las mediciones de movimiento corregidas y las mediciones de orientación giradas pueden usarse para determinar la secuencia de orientaciones y posiciones de la porción de tratamiento 6 durante la operación de tratamiento.
Como se indicó anteriormente, la etapa 101 puede comprender determinar la representación en 3D de la parte del cuerpo, y la representación en 3D puede determinarse a partir de una o más imágenes (por ejemplo, fotografías) de la parte del cuerpo. La una o más imágenes se pueden obtener usando la unidad de formación de imágenes 18, si está presente en el aparato 10, o se pueden obtener mediante un aparato o dispositivo diferente, por ejemplo, usando una cámara en un teléfono inteligente, y proporcionarse a la unidad de procesamiento 12. La representación en 3D se puede determinar durante o antes del primer uso del dispositivo 2 por parte del usuario, o en la parte del cuerpo particular a tratar. Una vez que se determina la representación en 3D, las iteraciones posteriores de la etapa 101 (es decir, cuando el dispositivo 2 se va a usar para otra operación de tratamiento en la parte del cuerpo) pueden comprender recuperar la representación en 3D de una memoria, por ejemplo, de la unidad de memoria 14.
Sobre la base de la imagen de la parte del cuerpo (por ejemplo, la cara, la cabeza, el brazo, el pecho, la pierna, etc.), se genera la representación en 3D de la parte del cuerpo. Los expertos en la materia conocerán las técnicas que se pueden utilizar para generar una representación en 3D. Una de estas técnicas se describe en el documento WO 2017/085075. En algunas realizaciones, también se puede proporcionar y utilizar información sobre el sujeto para generar la representación en 3D. La información puede incluir, por ejemplo, altura, peso, edad, sexo, circunferencia del cuello, etc.
En algunas realizaciones, la representación en 3D generada incluye vectores normales al menos para partes de la parte del cuerpo que son relevantes para la operación de tratamiento a realizar. La representación en 3D también puede denominarse modelo paramétrico en 3D. Por ejemplo, en el caso de una operación de afeitado de la cabeza o la cara, la representación en 3D puede incluir vectores normales para al menos un "área de la barba" en la cara y el cuello, es decir, las partes de la cara y el cuello en las que crece el vello facial. En algunas realizaciones, la representación en 3D solo incluye vectores normales para la(s) parte(s) de la parte del cuerpo que son relevantes para la operación de tratamiento.
La(s) parte(s) de la parte del cuerpo relevante para la operación de tratamiento puede identificarse automáticamente, por ejemplo, procesando la(s) imagen(es) en vista de la operación de tratamiento a realizar para identificar la(s) parte(s) del cuerpo relevante(s). Alternativamente, el usuario puede proporcionar una entrada que indique las partes relevantes. En algunas realizaciones, donde la operación de tratamiento es para producir un estilo particular, por ejemplo, una barba con una forma particular, o un corte de pelo con un estilo particular, la(s) parte(s) relevante(s) de la(s) parte(s) del cuerpo pueden corresponder a la(s) parte(s) a tratar durante la operación de tratamiento para lograr ese estilo. El estilo que se producirá se puede determinar a partir de una imagen que muestre la parte del cuerpo con el estilo, en cuyo caso el análisis de la imagen puede identificar el estilo (por ejemplo, la(s) parte(s) de la parte del cuerpo que tiene vello facial y/o pelo de una longitud determinada). La imagen que muestra el estilo puede ser una imagen del sujeto después de haber realizado una operación de tratamiento para producir el estilo, o una imagen de un sujeto diferente que muestre el estilo que el sujeto desea lograr. En algunas realizaciones, la imagen del tratamiento posterior se puede comparar con una imagen obtenida antes del tratamiento para identificar el estilo a partir de las diferencias entre las imágenes. Alternativamente, el sujeto puede seleccionar un estilo de una pluralidad de plantillas que definen estilos respectivos.
En algunas realizaciones, las áreas de la parte del cuerpo que son relevantes para la operación de tratamiento pueden considerarse como un mapa de probabilidad espacial, es decir, las partes o áreas de la parte del cuerpo que son ubicaciones probables o factibles para el dispositivo 2 durante la operación de tratamiento El mapa de probabilidad espacial puede determinarse a partir de la(s) parte(s) relevante(s) de la parte del cuerpo a tratar identificada anteriormente. Por ejemplo, se puede determinar un área de afeitado esperada (por ejemplo, cuello, mejillas, mentón y labio superior) en la cara o la cabeza. En realizaciones en las que se analiza una imagen del estilo de afeitado o corte de pelo deseado, se puede determinar un mapa de probabilidad espacial basado en la densidad del pelo detectada en la imagen. Es más probable que el dispositivo 2 esté situado en zonas de la cara en las que crece pelo pero que, en la imagen, no tienen pelo. Por otro lado, si la imagen es una imagen del sujeto antes de la operación de afeitado o corte de pelo, es más probable que el dispositivo 2 esté ubicado en áreas de la cara o la cabeza en las que hay pelo, y el mapa de probabilidad espacial puede determinarse en consecuencia.
Por lo tanto, el mapa de probabilidad espacial se puede utilizar en la etapa 107 para mejorar la fiabilidad de la detección de la ubicación del dispositivo 2. En particular, la comparación en la etapa 107 de las orientaciones con los vectores normales puede proporcionar múltiples trayectorias posibles para el dispositivo 2 sobre la superficie, y la información en el mapa de probabilidad espacial puede usarse para determinar cuál de esas trayectorias es la más probable para el dispositivo 2.
Se apreciará que la fiabilidad de comparar la etapa 107 para determinar la ubicación del dispositivo 2 en la superficie de la parte del cuerpo dependerá de la orientación inicial de la parte del cuerpo y qué tan quieta (inmóvil) esté la parte del cuerpo durante la operación de tratamiento. Si la parte del cuerpo no está orientada de la misma manera que en la representación en 3D (por ejemplo, el sujeto ha inclinado la cabeza hacia atrás, mientras que la representación en 3D tiene la cabeza mirando hacia adelante), entonces la etapa 107 puede encontrar una coincidencia incorrecta entre la secuencia de orientaciones (y movimientos, si se obtienen) y los vectores normales. Del mismo modo, si la parte del cuerpo se mueve durante la operación de tratamiento (ya sea un movimiento de traslación/lineal o de rotación o ambos), esto puede conducir a una coincidencia incorrecta entre la secuencia de orientaciones y movimientos.
Por lo tanto, en algunas realizaciones, las mediciones de orientación y/o las mediciones de movimiento se analizan para estimar la orientación de la parte del cuerpo con respecto al dispositivo 2. Esta estimación se puede realizar después de girar las mediciones de orientación en el marco de referencia de la porción de tratamiento 6.
En realizaciones en las que se obtienen mediciones de orientación para una operación de tratamiento completa, o al menos durante un período de tiempo suficiente antes de que se determinen las ubicaciones previas del dispositivo 2, la orientación de la parte del cuerpo se puede estimar, suponiendo que la orientación de la parte del cuerpo no cambió durante la operación de tratamiento. En particular, después de determinar las ubicaciones candidatas del dispositivo 2 en la parte del cuerpo haciendo coincidir la secuencia de orientaciones del dispositivo 2 con los vectores normales, se puede estimar una sola orientación de la parte del cuerpo como la que proporciona la suma total mínima de los ángulos entre los vectores normales para las ubicaciones candidatas y la secuencia de orientaciones.
En realizaciones donde se obtienen mediciones de orientación y movimiento, si en la etapa 107 la secuencia de mediciones de orientación y de movimiento no proporciona una coincidencia suficientemente buena (o ninguna coincidencia) con la representación en 3D, entonces se puede determinar que es probable que la parte del cuerpo se haya movido durante la operación de tratamiento. Este desajuste se puede usar para estimar el movimiento más probable de la parte del cuerpo. En particular, un movimiento de traslación del dispositivo 2 indicado por las mediciones de movimiento debe coincidir con la distancia entre ubicaciones sucesivas en la parte del cuerpo. Si las estimaciones del movimiento de traslación son correctas y no coinciden, la parte del cuerpo se ha movido. Por lo tanto, en la etapa 107 se identifica una secuencia de ubicaciones de partes del cuerpo que tienen normales iguales a la secuencia de orientaciones del dispositivo, y se identifica una secuencia de rotaciones de partes del cuerpo que conducen a traslaciones/movimientos iguales a las traslaciones/movimientos medidos del dispositivo 2. Esto se puede hacer utilizando un Modelo Oculto de Markov, donde los "estados" del modelo son el estado inicial, el estado final, todas las combinaciones de posiciones y orientaciones de partes del cuerpo (denominadas estados de posición/orientación), pares de estados de posición/orientación adyacentes (denominados estados de par) y transiciones del estado de parte del cuerpo/orientación al estado de par al estado de parte del cuerpo/orientación, las 'emisiones' del modelo para el estado de posición/orientación es el vector normal de la posición de la parte del cuerpo en una orientación determinada y para un par, indica la distancia (por ejemplo, euclidiana), y los 'datos de entrada' son la orientación y la traslación/movimiento del dispositivo desde la última muestra de medición. En esta realización, se supone que la trayectoria del dispositivo 2 sobre la parte del cuerpo y la rotación de la parte del cuerpo son suaves, los movimientos principales son movimientos del dispositivo 2, no movimientos de la parte del cuerpo, el dispositivo 2 se coloca en el área apropiada de la parte del cuerpo para la operación de tratamiento, la parte del cuerpo solo gira (es decir, no se traslada), y la aceleración y la velocidad de la parte del cuerpo son ambas 0 en promedio (por ejemplo, el sujeto no camina).
En las realizaciones anteriores, como se desconoce la orientación inicial de la parte del cuerpo (es decir, la orientación al comienzo de la operación de tratamiento), se requiere un número relativamente grande de mediciones de orientación (y mediciones de movimiento, si se obtienen) antes de que sea posible determinar de forma fiable la ubicación del dispositivo (incluso cuando la parte del cuerpo no se mueve ni gira durante la operación de tratamiento). La posición del dispositivo 2 con respecto a la parte del cuerpo también se desconoce al comienzo de la operación de tratamiento. Por lo tanto, en algunas realizaciones, la unidad de formación de imágenes 18 se utiliza para obtener una o más imágenes en (o antes) del comienzo de la operación de tratamiento, y estas imágenes se analizan para determinar la orientación de la parte del cuerpo y/o la orientación del dispositivo 2 al comienzo de la operación de tratamiento. Esta información de orientación inicial se puede usar para establecer la orientación del dispositivo 2 en relación con la parte del cuerpo y para corregir la orientación de la representación en 3D antes de la comparación en la etapa 107.
Por lo tanto, en o antes del inicio de la operación de tratamiento, el aparato 10 (u otro dispositivo o aparato que incluye la unidad de formación de imágenes 18) se dispone de modo que pueda ver la parte del cuerpo a tratar. Como se indicó anteriormente, en algunas realizaciones, la unidad de formación de imágenes 18 puede ser la cámara de un teléfono inteligente o una tableta, por ejemplo, una cámara frontal para que el usuario o sujeto pueda ver la(s) imagen(es) en la pantalla de visualización del teléfono inteligente o tableta mientras se realiza la operación de tratamiento. También se le puede pedir al usuario que, al comienzo de la operación de tratamiento o antes, coloque el dispositivo 2 de modo que también sea visible en la(s) imagen(es) con la parte del cuerpo, y la(s) imagen(es) obtenida(s) pueda(n) analizarse para determinar la orientación del dispositivo 2 con respecto a la parte del cuerpo. Los expertos en la materia conocerán diversas técnicas de análisis de imágenes que se pueden utilizar para analizar imágenes para identificar partes del cuerpo. Por ejemplo, se pueden utilizar técnicas de reconocimiento de esqueletos y/o identificación de rasgos (por ejemplo, que identifiquen caras o rasgos faciales como ojos, nariz y boca). Después de este posicionamiento inicial del dispositivo 2 y la "calibración" de las orientaciones relativas, el dispositivo 2 se puede usar para realizar la operación de tratamiento y no es necesario que el dispositivo 2 permanezca en el campo de visión de la unidad de formación de imágenes 18.
En realizaciones en las que se obtienen imágenes o una secuencia de vídeo durante la operación de tratamiento, el sujeto debe mantener la parte del cuerpo en el campo de visión de la unidad de formación de imágenes 18 para que la orientación y la posición de la parte del cuerpo puedan monitorizarse durante la operación de tratamiento. En particular, la(s) imagen(es) o el vídeo se analizan para identificar la parte del cuerpo y la orientación de la parte del cuerpo, y esto se compara con la orientación de la parte del cuerpo en la(s) imagen(es) obtenida(s) antes o al comienzo de la operación de tratamiento para determinar si la parte del cuerpo se ha movido (en posición u orientación). Si la parte del cuerpo se ha movido durante la operación de tratamiento, entonces la representación en 3D puede corregirse para esas rotaciones y/o movimientos. En algunas realizaciones, se pueden proporcionar instrucciones al sujeto para que mantenga la parte de su cuerpo lo más quieta posible (o al menos en el campo de visión), por ejemplo, como texto en la pantalla o como un mensaje audible.
Se apreciará que, aunque el dispositivo 2 debe ser visible en la(s) imagen(es) obtenida(s) al comienzo de la operación de tratamiento para determinar la orientación relativa del dispositivo 2 y la parte del cuerpo, es posible que el dispositivo 2 ya no sea visible en la(s) imagen(es) o vídeo durante parte de la operación de tratamiento (por ejemplo, cuando se afeita o corta el otro lado de la cabeza del sujeto). Siempre que la parte del cuerpo permanezca visible en la(s) imagen(es) o vídeo, se pueden identificar los cambios en la orientación de la parte del cuerpo y girar la representación en 3D en consecuencia.
En cualquiera de las realizaciones anteriores, una vez que se ha determinado la ubicación del dispositivo 2 en la parte del cuerpo, se puede proporcionar información al sujeto en función de la ubicación determinada. La retroalimentación que se proporciona puede depender de si la ubicación se determina en tiempo real o casi en tiempo real, al final de la operación de tratamiento o después de una parte sustancial de la operación de tratamiento (es decir, una parte lo suficientemente larga como para permitir la comparación en la etapa 107 para determinar de forma fiable la ubicación del dispositivo 2). Si la ubicación se determina en tiempo real o casi en tiempo real, la retroalimentación puede incluir orientación o instrucciones para el usuario sobre cómo mover o usar el dispositivo 2 para lograr un estilo particular y/o reducir el daño o la irritación de la piel. Si las ubicaciones del dispositivo 2 durante la operación de tratamiento se determinan una vez que se completa la operación de tratamiento o después de una parte sustancial de la operación de tratamiento, la retroalimentación puede incluir información sobre el desempeño del usuario al completar la operación de tratamiento, tal como la eficiencia, suavidad de movimiento, cubriendo la superficie de la parte del cuerpo de manera uniforme, velocidad de movimiento, corrección de movimiento (por ejemplo, trazos largos en lugar de movimientos circulares (o viceversa)), etc.
También en cualquiera de las realizaciones anteriores donde la ubicación se determina en tiempo real o casi en tiempo real, una vez que se ha determinado la ubicación del dispositivo 2 en la parte del cuerpo, uno o más parámetros operativos del dispositivo 2 pueden ajustarse o cambiarse según la ubicación. Por ejemplo, si se determina que el dispositivo 2 está en un lugar de la cara donde no se debe afeitar la barba (por ejemplo, según un estilo de barba seleccionado por el sujeto o usuario al comienzo de la operación de tratamiento), los elementos de corte 8 se pueden desactivar o retraer para que la barba no se afeite en ese lugar. Como otro ejemplo, si se determina que el dispositivo 2 está en un lugar de la cabeza donde el pelo debe cortarse a una longitud más corta (por ejemplo, de acuerdo con un estilo de pelo seleccionado por el sujeto o usuario al comienzo de la operación de tratamiento), los elementos de corte 8 u otra parte del dispositivo 2 (por ejemplo, un peine) se pueden ajustar para proporcionar la longitud de corte correcta en ese lugar.
Por lo tanto, de acuerdo con las técnicas descritas anteriormente, es posible determinar la ubicación de un dispositivo 2 en la superficie de una parte del cuerpo usando uno o más sensores en el propio dispositivo, sin necesidad de que el sujeto use o lleve sensores adicionales en su cuerpo o en la parte del cuerpo correspondiente.
Los expertos en la técnica pueden entender y efectuar variaciones de las realizaciones descritas en la práctica de los principios y técnicas descritos en el presente documento, a partir de un estudio de los dibujos, la descripción y las reivindicaciones adjuntas. En las reivindicaciones, la palabra "que comprende" no excluye otros elementos o etapas, y el artículo indefinido "un" o "una" no excluye una pluralidad. Un solo procesador u otra unidad puede cumplir las funciones de varios elementos enumerados en las reivindicaciones. El mero hecho de que determinadas mediciones se mencionen en reivindicaciones dependientes mutuamente diferentes no indica que una combinación de estas medidas no pueda utilizarse con ventaja. Un programa informático puede almacenarse o distribuirse en un medio adecuado, tal como un medio de almacenamiento óptico o un medio de estado sólido suministrado junto con o como parte de otro hardware, pero también puede distribuirse de otras formas, tal como por Internet u otros sistemas de telecomunicaciones alámbricos o inalámbricos. Cualquier signo de referencia en las reivindicaciones no debe interpretarse como una limitación del alcance.

Claims (15)

REIVINDICACIONES
1. Un método para determinar una ubicación de un dispositivo en una superficie de una parte del cuerpo de un sujeto que es tratado por el dispositivo durante una operación de tratamiento, en el que el dispositivo es para realizar la operación de tratamiento en la parte del cuerpo, y en el que el dispositivo comprende uno o más sensores de orientación para medir la orientación del dispositivo en un marco de referencia del dispositivo, comprendiendo el método:
obtener una representación tridimensional, en 3D, de la parte del cuerpo, comprendiendo la representación en 3D vectores normales para posiciones respectivas en la superficie de la parte del cuerpo;
recibir una pluralidad de mediciones de orientación desde el uno o más sensores de orientación que representan la orientación del dispositivo durante la operación de tratamiento en la parte del cuerpo;
procesar las mediciones de orientación recibidas para determinar una secuencia de orientaciones del dispositivo durante la operación de tratamiento; y
comparar la secuencia determinada de orientaciones del dispositivo con los vectores normales y las respectivas posiciones de los vectores normales para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento.
2. Un método según la reivindicación 1, en el que la etapa de comparar comprende identificar una secuencia de vectores normales en la representación en 3D que tienen orientaciones respectivas que coinciden con la secuencia de orientaciones del dispositivo.
3. Un método según cualquiera de las reivindicaciones 1 a 2, en el que la etapa de comparar comprende determinar la ubicación del dispositivo en la superficie de la parte del cuerpo como la posición asociada con un vector normal en la superficie de la parte del cuerpo que tiene una orientación que coincide con una orientación final en la secuencia de orientaciones del dispositivo.
4. Un método según cualquiera de las reivindicaciones 1 a 3, en el que:
el dispositivo comprende además uno o más sensores de movimiento para medir el movimiento del dispositivo; el método comprende además recibir una pluralidad de mediciones de movimiento desde el uno o más sensores de movimiento que representan el movimiento del dispositivo durante la operación de tratamiento en la parte del cuerpo;
la etapa de procesamiento comprende procesar las mediciones de orientación recibidas y las mediciones de movimiento recibidas para determinar una secuencia de posiciones y orientaciones del dispositivo durante la operación de tratamiento; y
la etapa de comparar comprende comparar la secuencia determinada de orientaciones y posiciones del dispositivo con los vectores normales y las posiciones respectivas de los vectores normales para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento.
5. Un método según la reivindicación 4, en el que la etapa de comparar comprende identificar una secuencia de vectores normales en la representación en 3D que tienen posiciones y orientaciones respectivas que coinciden con la secuencia de posiciones y orientaciones del dispositivo.
6. Un método según cualquiera de las reivindicaciones 4 a 5, en el que la etapa de comparar comprende determinar la ubicación del dispositivo en la superficie de la parte del cuerpo como la posición asociada con un vector normal en la superficie de la parte del cuerpo que tiene una posición y orientación que coincide con una posición y orientación finales en la secuencia de posiciones y orientaciones del dispositivo.
7. Un método según cualquiera de las reivindicaciones 4 a 6, en el que el método comprende, además:
estimar una orientación de la parte del cuerpo relativa al dispositivo a partir de la secuencia determinada de posiciones y orientaciones del dispositivo; y
girar la representación en 3D de la parte del cuerpo según la orientación estimada; y
en el que la etapa de comparar comprende comparar la secuencia determinada de orientaciones y posiciones del dispositivo con los vectores normales y las posiciones respectivas de los vectores normales en la representación en 3D girada para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante el tratamiento operación.
8. Un método según cualquiera de las reivindicaciones 1 a 7, en el que el método comprende, además:
obtener una imagen inicial que incluya el dispositivo y la parte del cuerpo;
procesar la imagen obtenida para determinar una orientación del dispositivo con respecto a la parte del cuerpo; girar la representación en 3D de la parte del cuerpo según la orientación determinada del dispositivo con respecto a la parte del cuerpo; y
en el que la etapa de comparar comprende comparar la secuencia determinada de orientaciones del dispositivo con los vectores normales y las posiciones respectivas de los vectores normales en la representación en 3D girada para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento.
9. Un método según la reivindicación 8, en el que el método comprende, además:
obtener una o más imágenes adicionales durante la operación de tratamiento, incluyendo la una o más imágenes adicionales la parte del cuerpo;
comparar la una o más imágenes adicionales y la imagen inicial para determinar una cantidad de movimiento y/o un cambio en la orientación de la parte del cuerpo durante la operación de tratamiento; y
si se determina que se produce un movimiento y/o un cambio en la orientación de la parte del cuerpo en un punto de tiempo durante la operación de tratamiento, ajustar la representación en 3D de la parte del cuerpo de acuerdo con la cantidad determinada de movimiento y/o el cambio de orientación;
en el que la etapa de comparar comprende, para las mediciones de orientación obtenidas después del punto de tiempo, comparar la secuencia determinada de orientaciones del dispositivo después del punto de tiempo con los vectores normales y las posiciones respectivas de los vectores normales en la representación en 3D ajustada para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento.
10. Un método según cualquiera de las reivindicaciones 1 a 9, en el que el dispositivo comprende una porción de tratamiento para contactar con la parte del cuerpo y para realizar la operación de tratamiento;
en el que la etapa de procesar las mediciones de orientación recibidas comprende:
girar las mediciones de orientación de modo que las mediciones de orientación giradas representen la orientación de la porción de tratamiento; y
procesar las mediciones de orientación giradas para determinar una secuencia de orientaciones de la porción de tratamiento durante la operación de tratamiento; y
en el que la etapa de comparar comprende comparar la secuencia determinada de orientaciones de la porción de tratamiento con los vectores normales y las posiciones respectivas de los vectores normales para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento.
11. Un producto de programa informático que comprende un medio legible por ordenador que tiene incorporado un código legible por ordenador, estando configurado el código legible por ordenador de tal manera que, al ser ejecutado por un dispositivo de acuerdo con la reivindicación 12, se hace que el dispositivo realice el método de cualquiera de las reivindicaciones 1 a 10.
12. Un aparato para determinar una ubicación de un dispositivo en una superficie de una parte del cuerpo de un sujeto que es tratado por el dispositivo durante una operación de tratamiento, en el que el dispositivo es para realizar la operación de tratamiento en la parte del cuerpo, y en el que el dispositivo comprende uno o más sensores de orientación para medir la orientación del dispositivo en un marco de referencia del dispositivo, comprendiendo el aparato una unidad de procesamiento configurada para:
obtener una representación tridimensional, en 3D, de la parte del cuerpo, comprendiendo la representación en 3D vectores normales para posiciones respectivas en la superficie de la parte del cuerpo;
recibir una pluralidad de mediciones de orientación desde el uno o más sensores de orientación que representan la orientación del dispositivo durante la operación de tratamiento en la parte del cuerpo;
procesar las mediciones de orientación recibidas para determinar una secuencia de orientaciones del dispositivo durante la operación de tratamiento; y
comparar la secuencia determinada de orientaciones del dispositivo con los vectores normales y las posiciones respectivas de los vectores normales para determinar la ubicación del dispositivo en la superficie de la parte del cuerpo durante la operación de tratamiento.
13. Un sistema, que comprende:
un aparato como se define en la reivindicación 12; y
un dispositivo para realizar una operación de tratamiento en una parte del cuerpo, en el que el dispositivo comprende uno o más sensores de orientación para medir la orientación del dispositivo en un marco de referencia del dispositivo.
14. Un sistema según la reivindicación 13, en el que el aparato está incluido en el dispositivo.
15. Un sistema según la reivindicación 13, en el que el aparato está separado del dispositivo.
ES20708111T 2019-03-14 2020-03-09 Aparato para determinar una posición de un dispositivo en una parte del cuerpo Active ES2935795T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP19162805.6A EP3708312A1 (en) 2019-03-14 2019-03-14 Determining a device location a body part
PCT/EP2020/056131 WO2020182698A1 (en) 2019-03-14 2020-03-09 Determining a device location a body part

Publications (1)

Publication Number Publication Date
ES2935795T3 true ES2935795T3 (es) 2023-03-10

Family

ID=66048980

Family Applications (1)

Application Number Title Priority Date Filing Date
ES20708111T Active ES2935795T3 (es) 2019-03-14 2020-03-09 Aparato para determinar una posición de un dispositivo en una parte del cuerpo

Country Status (7)

Country Link
US (1) US20220176575A1 (es)
EP (2) EP3708312A1 (es)
JP (1) JP7285947B2 (es)
CN (1) CN113573860B (es)
ES (1) ES2935795T3 (es)
PL (1) PL3938155T3 (es)
WO (1) WO2020182698A1 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4108397A1 (en) 2021-06-22 2022-12-28 Koninklijke Philips N.V. Determining a beard growth distribution for a subject
EP4124423A1 (en) * 2021-07-29 2023-02-01 Braun GmbH Personal care device
EP4296018A1 (en) 2022-06-23 2023-12-27 Koninklijke Philips N.V. Electric shaver with rotatable external cutting member having adjustable rotational speed
EP4302945A1 (en) 2022-07-08 2024-01-10 Koninklijke Philips N.V. Personal care device and method for determining a location of the personal care device on a body part

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3780146B2 (ja) * 2000-04-12 2006-05-31 オリンパス株式会社 手術ナビゲーション装置
US6497043B1 (en) * 2000-10-13 2002-12-24 Sarcos, L.C. Intelligent shaver
EP2189198B1 (de) 2008-11-20 2017-06-21 Braun GmbH Körperpflegegerät des persönlichen Bedarfs
WO2012053160A1 (ja) * 2010-10-21 2012-04-26 パナソニック株式会社 超音波検査装置及び超音波検査方法
CN107088896B (zh) 2011-12-21 2019-09-10 马修·W·克雷尼科 自动理发系统及其操作方法
DK177610B1 (en) 2012-05-01 2013-12-02 Klaus Lauritsen Holding Aps Programmable hair trimming system
US20140137714A1 (en) * 2012-11-21 2014-05-22 Matthew W. Krenik Sensing and control techniques for automated hair cutting system
WO2014110069A1 (en) * 2013-01-11 2014-07-17 The Cleveland Clinic Foundation Alignment of manipulable sensor assembly
US9778631B2 (en) * 2013-01-16 2017-10-03 Matthew W. Krenik Positioning device for automated hair cutting system
US10357092B2 (en) * 2013-11-06 2019-07-23 Koninklijke Phiilps N.V. System and a method for guiding a user during a shaving procedure
JP6495267B2 (ja) * 2013-11-06 2019-04-03 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 身体部位を処置するためのシステム及び方法
US9307828B2 (en) * 2013-12-13 2016-04-12 Elwha Llc Grooming systems, devices, and methods including detection of hair-covered skin lesions during grooming and including topographical analysis
JP6300560B2 (ja) * 2014-02-14 2018-03-28 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
RU2675458C2 (ru) 2014-11-06 2018-12-19 Конинклейке Филипс Н.В. Система обработки кожи
EP3245029B1 (en) 2015-01-15 2021-06-16 Koninklijke Philips N.V. System for determining a relative inclination of a device to a user
EP3326153A1 (en) 2015-07-17 2018-05-30 Koninklijke Philips N.V. Device and method for determining a position of a mobile device in relation to a subject
ES2964759T3 (es) 2015-09-08 2024-04-09 Braun Gmbh Determinación de una parte del cuerpo actualmente tratada de un usuario
US11013467B2 (en) * 2015-10-22 2021-05-25 Tyto Care Ltd System, method and computer program product for physiological monitoring
WO2017085075A1 (en) 2015-11-18 2017-05-26 Koninklijke Philips N.V. Method and device for estimating absolute size dimensions of a test object
US20170232624A1 (en) * 2016-02-12 2017-08-17 The King Of Shaves Company Limited Shaving System
EP3416788B1 (en) * 2016-02-19 2019-09-04 Koninklijke Philips N.V. A system and method for treating a part of a body
WO2017151441A2 (en) * 2016-02-29 2017-09-08 Truinject Medical Corp. Cosmetic and therapeutic injection safety systems, methods, and devices
EP3381630A1 (en) 2017-03-28 2018-10-03 Koninklijke Philips N.V. System, appliance and method for automated hair processing procedures

Also Published As

Publication number Publication date
CN113573860A (zh) 2021-10-29
JP2022524858A (ja) 2022-05-10
EP3938155B1 (en) 2022-11-02
US20220176575A1 (en) 2022-06-09
EP3938155A1 (en) 2022-01-19
JP7285947B2 (ja) 2023-06-02
PL3938155T3 (pl) 2023-04-11
EP3708312A1 (en) 2020-09-16
WO2020182698A1 (en) 2020-09-17
CN113573860B (zh) 2023-11-03

Similar Documents

Publication Publication Date Title
ES2935795T3 (es) Aparato para determinar una posición de un dispositivo en una parte del cuerpo
ES2964759T3 (es) Determinación de una parte del cuerpo actualmente tratada de un usuario
JP6297687B2 (ja) シェービング処理中に利用者をガイドするためのシステム及び方法
JP6692821B2 (ja) ユーザに対する装置の相対的な向きを決定するシステム
ES2877719T3 (es) Método y aparato para proporcionar retroalimentación con respecto al movimiento de una afeitadora rotativa realizado por un usuario
US20180204346A1 (en) Device and method for determining a position of a mobile device in relation to a subject
ES2908579T3 (es) Generación de un indicador de guía y de una señal de indicador
JP6563917B2 (ja) 身体部位を処置するためのシステム及び方法
JP2020512064A (ja) ハンドヘルドパーソナルケア装置並びに対象に対するハンドヘルドパーソナル装置の位置及び/又は向きを推定する方法
ES2929317T3 (es) Un método para determinar una posición y/u orientación de un dispositivo portátil con respecto a un sujeto, un aparato correspondiente y un producto de programa informático
CN108701170A (zh) 用于产生解剖部分的三维(3d)视图的图像处理系统和方法
JP7313366B2 (ja) 口腔ケア装置の位置感知方法
JP7107960B2 (ja) ユーザに対するハンドヘルド・パーソナルケアデバイスの位置及び/又は向きを推定するシステム、装置、方法及びマシン読取可能媒体
ES2934059T3 (es) Un método implementado en ordenador para proporcionar realimentación visual a un usuario de una máquina de afeitar giratoria, y un aparato y un producto de programa informático que implementan el mismo
EP4302945A1 (en) Personal care device and method for determining a location of the personal care device on a body part
CN114502341A (zh) 确定设备的定位
EP3692858A1 (en) Localization sensing method for an oral care device
EP4108397A1 (en) Determining a beard growth distribution for a subject
KR20230168094A (ko) 손톱 분석을 위해 이미지를 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체