WO2023084424A1 - Dispositivo de monitoreo nutricional - Google Patents

Dispositivo de monitoreo nutricional Download PDF

Info

Publication number
WO2023084424A1
WO2023084424A1 PCT/IB2022/060805 IB2022060805W WO2023084424A1 WO 2023084424 A1 WO2023084424 A1 WO 2023084424A1 IB 2022060805 W IB2022060805 W IB 2022060805W WO 2023084424 A1 WO2023084424 A1 WO 2023084424A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
food
processing unit
image
user
Prior art date
Application number
PCT/IB2022/060805
Other languages
English (en)
French (fr)
Inventor
Mateo ARDILA VILLEGAS
Camilo Alberto BURITICÁ RESTREPO
Yeison Javier Montagut Ferizzola
Ana María RINCÓN HERNÁNDEZ
Simón VILLA ARANGO
Original Assignee
Kutai Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kutai Inc. filed Critical Kutai Inc.
Publication of WO2023084424A1 publication Critical patent/WO2023084424A1/es

Links

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G21/00Table-ware
    • A47G21/02Forks; Forks with ejectors; Combined forks and spoons; Salad servers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/03Detecting, measuring or recording fluid pressure within the body other than blood pressure, e.g. cerebral pressure; Measuring pressure in body tissues or organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets

Definitions

  • the present invention relates to devices and methods for monitoring a user's food and beverage intake.
  • Noncommunicable Diseases ENTs
  • ENTs Noncommunicable Diseases
  • the diet can be easily intervened to avoid risk factors and drastically reduce the probability of the appearance of NCDs. This is possible only if there is complete and relevant information on food and drink intake, which is usually recorded by hand in a nutritional diary.
  • the great challenge for the construction of nutritional diaries is that people forget many of the details of what they consume during the day or week and carrying a notebook to write down each food is really tedious, which leads to low levels of adherence.
  • Document US 10,790,054 Bl discloses a sensor device for tracking, monitoring events and details of food intake.
  • the device comprises a programmed processing unit, which controls aspects of the sensor device to capture, store and analyze data, and provide feedback related to food intake.
  • the processing unit is connected to a group of sensors, including a camera module, an accelerometer, a gyroscope, a microphone, and furthermore, it is connected to a memory; the above elements are mounted on a portable device.
  • the sensor group provides information to the processing unit related to food intake, this information comprises accelerometer readings that are used to determine the orientation of the user's wrist and the device.
  • the accelerometer and gyroscope can provide information about the detection of biting or sipping gestures by the user;
  • the camera provides information to the processing unit in the form of images of the food that the user eats.
  • the microphone also provides voice commands that can tell the processing unit to activate the device or to add labels or messages of a food intake event or image recorded by the accelerometer, gyroscope, or camera.
  • Document US 10,790,054 Bl also discloses a method in which the processing unit obtains information data from the sensor group, and performs information processing relating start or end data of a food intake action. Also, it generates a new data set associated with the initial data, and runs a process to determine if food intake occurred within the monitored period, identifies a label or gesture associated with food intake, and finally, the unit of processing issues the label associated with a food intake gesture identified by at least one of the group of sensors.
  • the information is processed by the processing unit using machine learning techniques or other data analytics techniques. Also, the disclosed method per US 10,790,054 Bl provides a real-time report to the user on food intake, and the processed image data can be used as feedback for automatic training using the processing unit.
  • document US 2,020,337,635 Al discloses systems and methods for monitoring food intake.
  • the system comprises an air pressure sensor to detect deformation of the ear canal, a temporal muscle activity sensor, and an accelerometer to detect movement of the temple portion due to jaw movement while chewing.
  • document US 2,020,337,635 Al discloses a portable device or headset housing with a computer-based computing system.
  • the earphone casing contains inside a central processing unit connected to a memory module for data storage.
  • the central processing unit is also connected to a plurality of sensors that are used by the central processing unit to obtain information on a user's swallowing or chewing.
  • the method disclosed by US 2,020,337,635 Al comprises making measurements of a temporalis muscle by means of the plurality of sensors and determining whether the activity of the temporalis muscle corresponds to food intake. A measurement of body movement and hand movement is also made and it is determined whether these movements, together with movement of the temporalis muscle, are associated with food intake. .
  • the method is executed in the central processing unit and this performs the processing of the information obtained from the plurality of sensors using pattern processing algorithms, for example, artificial neural networks.
  • the device provides a real-time report to the user on food intake.
  • document US 9,536,449 B2 discloses a device and a system for monitoring a person's food consumption.
  • the device comprises a wearable sensor that automatically collects data to detect feeding events; a smart food dish, probe or utensil that collects data on the chemical composition of food that is requested from the person using the device, when an ingestion event is detected; and a data analysis component that analyzes chemical composition data to estimate the types and amounts of food, ingredients, nutrients, and/or calories consumed by the person.
  • the device disclosed by US 9,536,449 B2 includes a communication unit, a movement sensor, a power supply and a transducer, all of the aforementioned elements being connected to a data processing unit.
  • the communication unit establishes wireless communication between the monitoring device and a smartphone including a camera.
  • the user of both devices uses the camera to take pictures and collect information related to the user's food consumption, this information is sent to the data processing unit, and the processing unit performs processing, analysis, identification, and monitoring of the data. information obtained by the motion sensor and the smartphone camera.
  • US 9,536,449 B2 also discloses that an accelerometer is used to monitor possible feeding events and the camera takes pictures of the interaction between a person and food, including the distribution of food, hand-to-mouth movements, and mouth movements. chewing movements.
  • the present invention seeks to solve the problems of the art by providing a nutritional monitoring device for the food that a user eats.
  • the device may comprise an image sensor configured to capture at least one image of a user's food intake.
  • the device may comprise a position sensor configured to obtain position data from the food monitoring device.
  • the device may include a real time clock configured to generate a real time base.
  • the device may include a processing unit connected to the image sensor, the position sensor and the real time clock.
  • the image sensor can capture at least one image of the food that the user eats according to a command from the processing unit.
  • the processing unit can generate a report recording the food intake based on the image captured by the image sensor.
  • the present disclosure also describes a method for performing nutritional monitoring.
  • the method may include a step of sending a command to an image sensor via a processing unit.
  • the image sensor can be activated based on the command sent by the processing unit.
  • the method may include a step of capturing at least one image by means of the image sensor and sending said image to the processing unit.
  • the method may include a step of receiving time data from a real time clock in the processing unit. The time data may correspond to the real-time capture time of the image.
  • the method may also comprise a step of executing by means of the processing unit a data analysis process, which may comprise a substep of storing the image in a database.
  • the database may be stored on a memory module.
  • the method may include a substep of generating a feed data by applying an object recognition algorithm that can take as input the image, the time data and a plurality of feed data stored in the memory module.
  • the object recognition algorithm can be based on convolutional neural networks.
  • the method may include a substep of generating a fit data by applying a probability analysis process, which may take as input the food data and a user profile that may be stored in the database.
  • the method may include a substep of generating a report to the user based on the feed data, the user profile, and the adjustment factor data.
  • FIG. 1 corresponds to a preferred embodiment of the device according to the present disclosure.
  • the FIG. 2 corresponds to a schematic view in which a user uses the device of a modality of the present invention and a line of sight of said device is shown to capture images.
  • the FIG. 3 shows an isometric projection of a modality of the device for monitoring the food that a user ingests.
  • FIG. 4 shows a block diagram of one embodiment of the method for monitoring the food that a user eats.
  • FIG. 5 shows a flowchart of the steps of one modality of the method for monitoring the food that a user eats.
  • the present invention provides a device and method for the nutritional monitoring of food that a user ingests and that allows to be carried by the user, to capture information about the intake of food and beverages without requiring constant human intervention to report each item in the diet. time of intake.
  • the present disclosure discloses a food monitoring device (20) that a user (21) ingests, comprising an image sensor (2) configured to capture at least one image (13) of the user's food intake. (twenty-one). It also comprises a position sensor (3) configured to obtain position data (15) from the food monitoring device (20). Furthermore, the food monitoring device (20) comprises a real time clock (4) configured to generate a real time base. Additionally, the food monitoring device (20) comprises a processing unit (5) connected to the image sensor (2), to the position sensor (3) and to the real time clock (4).
  • the image sensor (2) captures at least the image (13) of the food that the user (21) eats according to an order (6) from the processing unit (5) and where the processing unit (5) generates a report (7) in which food intake is recorded based on the image (13) captured by the image sensor (2).
  • the image sensor (2) can be an element of an electronic camera, both video and still photography, that detects and captures the information that makes up the image, and can be selected from among CCD Sensors, Sensors Super CCD, CCD RGBE Sensors, CMOS Sensors, Foveon X3 Sensors, Full Frame Sensors, APS-H Sensors, APS-C Sensors, Foveon Sensors, Micro Four Thirds Sensors, Photoelectric Cells, Infrared Image Sensors and/or combinations of the above .
  • the aforementioned sensors can be used, combined and not limited to the use or selection between Photographic Cameras, Video Cameras, Main Cameras, Telephoto Cameras, Wide Angle Cameras, Depth Cameras, Macro Cameras, 3D Cameras, Monochrome Cameras , Infrared Cameras, ToF Cameras and/or combinations of the above.
  • the image (13) can be and not be limited to a visual representation, which manifests the visual appearance of an object.
  • the image (13) can be a digital representation in the form of a binary type information file, for example, Vector Images, Bitmap Images, Raster Images, Grayscale Images and/or Direct Images and that can be stored in formats such as .AI, CDR, .DXF, .EMF, .EPS, ODG, SVG, SWF, WMF, BMP, GIF, JPEG, PNG, PSD, RAW, TIFF, and PSD.
  • the image (13) can be a sequence of images representing moving scenes, such as a video or a video clip.
  • video formats that can be used are .AVI, .MOV, .MKV, MP4, WMV, WMA; FLV, RM, RMVB, DIVX, H.264, XVID, 3GPP or other video formats known to a person moderately versed in the matter and combinations thereof.
  • the food monitoring device (20) may comprise a position sensor (3) configured to obtain position data (15) from the food monitoring device (20).
  • the position sensor (3) can be and not be limited to devices that make it possible to determine the linear or angular position of an object, for example, the food monitoring device (20), and whose position can be converted into a signal that can be transmitted to the processing unit (5).
  • the position sensor (3) can be selected among Potentiometric, LVDT Position Sensors, RVDT Position Sensors, Optical Position Sensors, Magnetic Position Sensors, Magnetostrictive Position Sensors, Capacitive Position Sensors, Inductive Position Sensors, Linear Transformers Variable Differential, Encoders, Gyroscopes, Gyrocompasses, Accelerometers, Magnetometers and/or combinations thereof.
  • the position data (15) can represent the linear or angular displacement of the food monitoring device (20) with respect to a reference point.
  • the position data (15) can be a numerical data expressed in percentage units, angular units, longitudinal units and/or combinations of the above.
  • the food monitoring device (20) may comprise a real time clock (4) configured to generate a real time basis.
  • the real-time clock (4) can be a clock known as real-time clock (RTC) that can be included in an integrated circuit and that has the ability to count or record the passage of time. , for example, hours, minutes, seconds, and years, even though the food monitoring device (20) might lose its main electrical power supply.
  • RTC real-time clock
  • the real time clock (4) can be selected and not limited to radio based PSTNs, software based PSTNs and/or historical PSTNs.
  • the real-time clock (4) can have an alternative power source or power supply, and not depend on the power supply that the food monitoring device (20) could provide.
  • the real time clock (4) can generate the real time base that would correspond to a time record independent of the one that could be generated by the processing unit (5). It will be understood in the present disclosure that the real time base may correspond to an exact time. In addition, the real time base could also correspond to a time synchronization of greater precision than the synchronization of the processing unit (5).
  • the real time base generated by the real time clock (4) would allow the food monitoring device (20) to obtain a greater precision of the exact moment in which the image sensor (2) captures an image. .
  • the information associated with the moment in which the user (21) consumes the food is very important to carry out an analysis of the nutritional habits of said user (21), of the relationship that exists between the moments of food intake, and the effect that these generate in the user's body (21), as well as identifying changes in their blood glucose levels, changes in their mood, changes in sleep hygiene, changes in sports performance, among others.
  • the food monitoring device (20) can comprise a processing unit (5) connected to the image sensor (2), to the position sensor (3) and to the real time clock (4).
  • the image sensor (2) can capture at least one image (13) of the food that the user (21) eats according to an order (6) from the processing unit (5).
  • the processing unit (5) can generate a report (7) in which the food intake is recorded based on the image (13) captured by the image sensor (2).
  • the processing unit (5) can be any processing unit, processing module, or any device that processes data, for example, microcontrollers, microprocessors, DSCs (Digital Signal Controller for its acronym in English), FPGAs (Field Programmable Gate Array), CPLDs (Complex Programmable Logic Device), ASICs (Application Specific Integrated Circuit), SoCs (System on Chip for its acronym in English), PSoCs (Programmable System on Chip for its acronym in English), computers, servers, tablets, cell phones, smart phones, signal generators and control units known by a person moderately versed in the matter and combinations thereof.
  • DSCs Digital Signal Controller for its acronym in English
  • FPGAs Field Programmable Gate Array
  • CPLDs Complex Programmable Logic Device
  • ASICs Application Specific Integrated Circuit
  • SoCs System on Chip for its acronym in English
  • PSoCs Programmable System on Chip for its acronym in English
  • computers servers, tablets, cell phones, smart phones, signal generators and control units known by a person moderately versed in the
  • the processing unit (5) may also include a display device and/or a Human Interface Device (HID), it may be or include a special purpose computing unit programmed to execute the method of this disclosure.
  • HID Human Interface Device
  • a display device is, without limitation, any device that can be connected to a control unit and display its output, is selected from, but is not limited to, CRT (Cathode Ray Tube) monitor, flat panel display, glass display Liquid Crystal Display (Liquid Crystal Display), Active Matrix LCD, Passive Matrix LCD, LED screens, Screen projectors, TV (4KTV, HDTV, Plasma TV, Smart TV), OLED screens ( Organic Light Emitting Diode), AMOLED displays (Active Matrix Organic Light Emitting Diode), Quantum Dot Displays (QD), segment displays, etc. other devices capable of displaying data to a user, known to those skilled in the art, and combinations thereof.
  • CTR Cathode Ray Tube
  • flat panel display glass display Liquid Crystal Display (Liquid Crystal Display), Active Matrix LCD, Passive Matrix LCD, LED screens, Screen projectors, TV (4KTV, HDTV, Plasma TV, Smart TV), OLED screens ( Organic Light Emitting Diode), AMOLED displays (
  • An HID (Human Interface Device) device includes, without limitation, a keyboard, mouse, trackball, touchpad, pointing device, joystick, touch screen, among other devices capable of allowing a user to input data into the drive. device processing and combinations thereof.
  • a memory module (25) connected to the processing unit (5) can be used.
  • a memory module (25) shall be understood as a hardware element that includes, but is not limited to, RAM memories (cache memory, SRAM, DRAM, DDR), ROM memory (Flash, Cache, hard drives, SSD, EPROM, EEPROM, removable ROM memories (eg SD (mimSD, microSD, etc), MMC (MultiMedia Card), Compact Flash, SMC (Smart Media Card), SDC (Secure Digital Card), MS (Memory Stick), among others) ), CD-ROMs, Digital Versatile Discs (DVDs) or other optical storage, magnetic cassettes, magnetic tapes, storage or any other media that can be used to store information and can be accessed by a computing unit, processing unit, or processing module.
  • Instructions, data structures, computer program modules are generally incorporated into memory modules. Some examples of data structure are: a text sheet or a spreadsheet, or a database.
  • the processing unit (5) can be connected to a communications module (36) with one or more connection ports configured to access a communications network, for example, a wired network, a wireless network and combinations thereof.
  • a communications network for example, a wired network, a wireless network and combinations thereof.
  • Examples of communication networks may be the Internet, VPN networks, LAN networks, WANs, other equivalent and similar communication networks known to a person of ordinary skill in the art, and combinations thereof.
  • wired communications modules have a wired connection port that allows communication with external devices through a communications bus, which is selected, among others, from the group made up of I2C (from the acronym of IIC Inter-Integrated Circuit), CAN (Controller Area Network), Ethernet, SPI (Serial Peripheral Interface), SCI (Serial Communication Interface), QSPI (Quad Serial Peripheral Interface), 1-Wire, D2B (Domestic Digital Bus), Profibus and others known to a person moderately versed in the matter, and combinations thereof.
  • I2C from the acronym of IIC Inter-Integrated Circuit
  • CAN Controller Area Network
  • Ethernet Ethernet
  • SPI Serial Peripheral Interface
  • SCI Serial Communication Interface
  • QSPI Quadad Serial Peripheral Interface
  • 1-Wire 1-Wire
  • D2B Domestic Digital Bus
  • Profibus and others known to a person moderately versed in the matter, and combinations thereof.
  • wireless communication modules use a wireless communication technology selected from the group consisting of Bluetooth, WiFi, Radio Frequency RF ID (Radio Frequency Identification), UWB (Ultra Wide B-and), GPRS, Konnex or KNX, DMX (Digital Multiplex), CDMA, GSM, UMTS, CDMA2000, EVDO, HSDPA, HSUPA, HSPA+, UTE , LTE Advanced, LTE Advanced, LTE Advanced Pro, Mobile WiMAX, 5G NR and equivalent wireless communication technologies that are known by a person moderately versed in the matter and combinations of the above
  • the processing unit (5) can activate the image sensor (2) by means of the command (6) and upon receiving said command (6) the image sensor can be configured to capture at least one image (13 ).
  • the order (6) can be a command, message, instruction, code, data set, data sequence and/or combinations of the above.
  • the report (7) can be a report that allows information to be transmitted to the user (21), to an operator, to an external server, an external communications network, a database, a device computational and/or combinations of the above that may be known by a person moderately versed in the matter.
  • report (7) can be an organized data structure and of different types, languages or categories, for example, tables, graphs, messages, data exchange files, images, videos, audio files, audio signals and/or or vibrations.
  • the processing unit (5) can activate or deactivate the image sensor (2) when there is a change in the position data (15) obtained by the position sensor (3).
  • the position data (15) can be generated each time the food monitoring device (20) changes its orientation with respect to a reference position.
  • An example of changing the orientation of the food monitoring device (20) could be that the image sensor (2) is oriented towards the ground or towards the sky.
  • Another example could be that the food monitoring device (20) changes from a vertical position to a horizontal position with respect to a reference point or vice versa.
  • the processing unit (5) could activate or deactivate the image sensor (2) when the changes in the position data (15) occur in a way that could be considered high or exceed certain tolerance thresholds preconfigured in the image. processing unit (5), and that can lead to the image (13) captured by the image sensor (2) being affected by movement.
  • the processing unit (5) can detect the contact of the user (21) on the surface of the support (1) by means of the analysis of a signal obtained by the position sensor (3) and can use this type of contact to activate or deactivate the image sensor (2) or to change a configuration established in the processing unit (5).
  • the processing unit (5) can be connected to a positioning module (37) that can be configured to obtain geolocation data (38) from the food monitoring device (20), and where the geolocation data (38) can correspond to a location point or location of the food monitoring device (20).
  • the geolocation data (38) can be expressed in a geographic coordinate format.
  • the positioning module (37) can be selected from the group consisting of GPS Devices with connection to 2G, 3G, 4G, 5G or later generation cellular networks, Bluetooth GPS Devices, LPWAN GPS Devices, GPS Devices for communication via Wifi, GPS Devices of communication via satellite, Data Pushbuttons, and/or any other similar or equivalent device known by a person moderately versed in the matter.
  • the processing unit (5) may be connected to a glucose sensor (9) which may be configured to obtain glucose data (14) corresponding to the user's (21) blood glucose level.
  • the glucose sensor (9) can be a device or instrument that makes it possible to perform glucose measurements in the user's blood (21) and instantly obtain the glucose data (14).
  • the glucose sensor (9) can be selected from the group of Glucometers, Continuous Glucose Monitoring Systems and Flash Monitoring Systems.
  • the glucose sensor (9) could capture the information related to the glucose in the user's blood (21) using near-infrared radiation, electrochemical methods, acoustic waves in the ultrasonic range, electromagnetic fields, resonant sensors, enzymatic biosensors, immunosensors , and/or combinations of the above.
  • the glucose data (14) can be a numerical value expressed as a percentage, such as a value relative to the change in blood glucose level, or a value expressed as an average blood sugar level in units of milligrams per deciliter ( mg/dL).
  • the processing unit (5) can be connected to a pressure sensor (10) configured to obtain pressure data (18), where said pressure data (18) is a reference value that You can adjust the glucose data (14).
  • the pressure sensor (10) can be an instrument or element that generates an electrical signal depending on the pressure to which it is subjected.
  • the pressure sensor (10) can be selected from Absolute Pressure Sensors, Relative Pressure Sensors, Differential Pressure Sensors, Piezoelectric Pressure Sensors, Piezoresistive Pressure Sensors, and Capacitive Pressure Sensors.
  • the pressure data (18) can be a measure of the force exerted by the user (21) with one of his fingers on the pressure sensor (10).
  • the pressure data (18) can be a numerical value expressed in units such as Gigapascal (GPa), Megapascal (MPa), Kilopascal (kPa), Pascal (Pa), Kilogram-force (kgf/m 2 ), Gram-force per Square Centimeter (gf/cm 2 ), Kilogram-force per Square Decimeter (kgf/dm 2 ), KSI, PSI (lbf/in2) and /or BAR.
  • the pressure data (18) can serve as a reference measure to calibrate or adjust the glucose data (14) because pressure changes have an impact on the amplitude of a signal obtained by the glucose sensor (9 ).
  • the processing unit (5) can be connected to a heating module (12).
  • the heating module (12) can be selected among heating resistors, Peltier cells, light bulbs, LEDs or electronic components that, when turned on, generate an increase in the temperature of their surface or radiate heat.
  • the processing unit (5) can be connected to a temperature sensor (39) configured to obtain temperature data (40) and where said temperature data (40) can correspond to the level of user's body temperature (21). In another embodiment, the temperature data (40) can also correspond to the ambient temperature.
  • the temperature data (40) can be a numerical value that indicates the degree or thermal level of the user (21) expressed in terms of heat and cold.
  • the temperature data (40) can be represented in values of degrees Celsius (°C), degrees Fahrenheit (°F) and/or degrees Kelvin (K).
  • the temperature sensor (39) can be selected from thermocouple, resistance (RTD), bimetallic, change-of-state temperature sensors or any other temperature sensor known by a person fairly well-versed in the matter and that allows knowing the temperature from the user (21) or from the environment.
  • the processing unit (5) can be connected to a mechanical wave transducer (11) that can be configured to obtain food intake data (17) from the user (21) when sounds related to the food intake of the user are generated. user (21).
  • the mechanical wave transducer (11) can be an element with the capacity to transform vibrations generated by acoustic pressure, exerted on its capsule by sound waves, into electrical energy and that allows to identify and/or record sounds.
  • the mechanical wave transducer can be selected from the groups of Electrostatic or Condenser Transducers, Dynamic Transducers, Magnetic Transducers, Carbon Transducers, Piezoelectric Transducers, and/or Ribbon Transducers.
  • the food intake data (17) can be associated with sounds that the user (21) can emit before starting and during food intake, for example, the sound of a bag of snacks.
  • the sound that the user (21) emits when chewing the sound of a drink can that is opened by the user (21) before ingesting the drink, the sound that the user emits ( 21) when sipping the drink, among other examples.
  • the mechanical wave transducer (11) can activate or deactivate the image sensor (2) by means of the processing unit (5) based on the food intake data (17) obtained by the image transducer. mechanical waves (11).
  • the image sensor (2) could be activated when the mechanical wave transducer (11) detects sounds associated with food intake by the user (21), or in another example , the image sensor (2) could be deactivated because the mechanical wave transducer (11) does not detect or identify sounds associated with the action of eating by the user (21).
  • the food monitoring device (20) could be configured in a low power consumption mode, and could only be activated at times when the user (21) eats food, or be deactivated in the event that the image sensor (2) is not required to be operational to capture images, which would allow savings in the energy consumption of the device.
  • the food monitoring device (20) can include an infrared type temperature sensor (34) to obtain additional information about food and beverages, which could facilitate the classification of said foods and beverages, for example, by providing data for the differentiation between foods that are usually served hot from other foods that are usually served cold.
  • the temperature sensor (34) may correspond to a plurality of temperature sensors.
  • the food monitoring device (20) can comprise a support (1) that can be an element in which the other elements that comprise the food monitoring device (20) can be arranged, fixed or mounted.
  • the support (1) can be a fixed or sliding element that can also be located in the lower part of a base encapsulation, where the latter can be used to cover the other components of the food monitoring device (20).
  • the food monitoring device (20) may further include a depth sensor (32) connected to the processing unit (5) and configured to generate depth data (41).
  • the depth sensor (32) can make it possible to have reference points on the depth of the image (3) and on the open or closed state of the support (1).
  • the depth sensor (32) can facilitate the processing of the amounts of food that the user (21) ingests and save energy by avoiding the capture of images when the support (1) is closed.
  • the depth sensor (32) may correspond to a plurality of depth sensors.
  • the plurality of depth sensors (32) may have depth sensors configured as emitters and/or receivers. Also, the depth sensor (32) can be configured to improve the accuracy of the quantification of the food and drinks that the user (21) ingests. Furthermore, the depth sensor (32) can use optical and/or acoustic principles to obtain the information.
  • the depth sensor (32) can be selected from the group comprising infrared sensors, image sensors, mechanical wave sensors and/or ultrasonic wave sensors.
  • the support (1) can be connected to a fixing mechanism (23) by means of an elbow (35) that can be fixed or removable, and that allows the location of the food monitoring device (20) in the clothing of the user. user (21).
  • the fixing mechanism (23) can additionally comprise a magnetic element that interacts with a ferrous material or with another magnetic element of opposite polarity contained in the support (1), in order to improve the fixation of the device.
  • food monitoring device (20) to clothing as can be seen in FIG. 2.
  • the elbow (35) can be removed to more easily locate the food monitoring device (20) in garments, and without having to make openings or holes in said garments.
  • the food monitoring device (20) of the present invention can include an interchangeable cover that can be located on the support (1) so that the user (21) can add an aesthetic component to the device and thus facilitate use on any occasion.
  • the support (1) can include an adapter element through which a rope, necklace, chain, or any other element can be passed that allows the food monitoring device (20) to be hung from the user's neck (21) or place it in some bodily extremity.
  • the present disclosure also describes a method for monitoring food that comprises a step a) of sending an order (6) to an image sensor (2) by means of a processing unit (5), where the image sensor image (2) is activated based on command (6).
  • the method also comprises a step b) of capturing at least one image (13) by means of the image sensor (2) and sending said image (13) to the processing unit (5).
  • the method comprises a stage c) of receiving in the processing unit (5) a time data (16) from a real time clock (4), where the time data (16) corresponds to the capture time. in real time of the image (13).
  • the method comprises a stage d) of executing, by means of the processing unit (5), a data analysis process (22) that comprises a substage i) of storing the image (13) in a database (26). ), where the database (26) is stored in a memory module (25).
  • Stage d) also comprises a substage ii) of generating a piece of food data (27) by applying an object recognition algorithm (8) that takes as input the image (13), the time data (16) and a plurality of feed data (33) stored in the memory module (25), where the object recognition algorithm (8) is based on convolutional neural networks.
  • stage d) comprises a substage iii) of generating an adjustment factor data (28) applying a probability analysis process (30) that takes as input the food data (27), a user profile (29) stored in the database (26) and the time data (16).
  • stage d) comprises a substage iv) of generating a report (7) to the user (21) based on the food data (27), the user profile (29) and the adjustment factor data (28 ).
  • the method of the present disclosure may comprise a step a) of sending an order (6) to an image sensor (2) by means of a processing unit (5), where the image sensor (2) is activated based on the order (6).
  • the processing unit (5) can receive position data (15) from a position sensor (3) and the processing unit (5) can activate or deactivate the image sensor (2 ) based on the position data (15).
  • the processing unit (5) can also receive food intake data (17) from a mechanical wave transducer (11) and the processing unit (5) can activate or deactivate the sensor. image (2) based on food intake data (17).
  • the method may comprise a step b) of capturing at least one image (13) by means of the image sensor (2) and sending said image (13) to the processing unit (5).
  • the image sensor (2) could capture an image, a plurality of images or a video of the food that the user (21) is eating, and send one or more captures to the processing unit (5), so that these catches are processed and analyzed later.
  • the method may comprise a step c) of receiving in the processing unit (5) a time data (16) from a real time clock (4).
  • the time data (16) can correspond to the real-time capture time of the image (13).
  • the time data (16) can allow a more precise analysis of the image (13) to be carried out to the extent that the adjustment factor (28) could carry out a more precise probability analysis (30) by knowing the moment of the day on which the food was ingested by the user (21). It is well known that the probability of consuming certain foods increases at different times of the day and week.
  • the food monitoring device (20) can also receive glucose data (14) from a glucose sensor (9) in the processing unit (5).
  • the time data (16) would make it possible to know "in vivo” or at a high-precision instant of time, the glucose level present in the user's blood (21), which could be used to alert the user (21). changes in blood glucose levels.
  • the food monitoring device (20) can also receive pressure data (18) from a pressure sensor (10) in the processing unit (5).
  • the pressure data (18) can be used to adjust or calibrate the glucose data (14).
  • the processing unit (5) can receive geolocation data (38) from a positioning module (37).
  • the geolocation data (38) can provide information on the location of the food monitoring device (20) and the user (21).
  • step c) the processing unit (5) can receive a depth data (41) from a depth sensor (32), and the depth data (41) can improve the accuracy of the quantization of the food and/or drinks that the user ingests (21) since it allows to calculate with greater precision the amount of food contained or represented in the image (13).
  • the method may comprise a stage d) of executing, by means of the processing unit (5), a data analysis process (22) that may comprise a substage i) of storing the image (13) in a database.
  • the database (26) can be stored in a memory module (25) or in an external server.
  • the time data (16), the glucose data (14), the pressure data (18), the geolocation data (38) and the depth data (41) can also be stored in the database (26) and used to improve the fit factor (28) and probability analysis (30).
  • the database (26) can be an organized collection of information or data that is structured and in which data of different types, languages or categories can be stored, for example, tables, swap files data, images, videos, audio files, among others.
  • the database (26) can be chosen among Relational Databases, Object Oriented Databases, Distributed Databases, Data Warehouses, NoSQL Databases, Graph Oriented Databases, OLTP Databases, Databases Open Source Data, Cloud Databases, Multi-Model Databases, Document/JSON Databases, Self-Management Databases, Data Lakes and/or combinations of the above.
  • stage d) can comprise a substage ii) of generating a food data (27) by applying an object recognition algorithm (8) that takes as input the image (13), the time data (16) and a plurality of feed data (33) stored in a memory module (25).
  • the object recognition algorithm (8) can be based on convolutional neural networks.
  • the food data (27) can be a symbolic representation, for example, numeric, alphabetic, algorithmic or spatial.
  • the plurality of food data (33) can be information on different types of food and beverages, which can also include nutritional information, such as calories, nutrients, vitamins, percentage of consumption recommended daily, among others.
  • the object recognition algorithm (8) can be an ordered set of systematic operations that allows analysis and calculations to be carried out with the aim of purpose of identifying objects contained in the image (13).
  • An example of this can be the identification and labeling of a portion of fruit or a glass of coffee captured in the image (13).
  • the labeling of the objects can also include an estimated value of portions and calories of food identified in the image (13).
  • convolutional neural networks is a Deep Learning algorithm designed to work with images, taking these as inputs, which can assign importance to certain elements in the image in order to differentiate one from another, detect or categorize objects, classify scenes and/or perform general image classification.
  • the object recognition algorithm (8) can also use supervised learning, unsupervised learning, reinforcement learning, machine learning, machine learning and/or combinations of the above techniques.
  • the object recognition algorithm (8) can also take as input the position data (15), the glucose data (14 ), the pressure data (18), the geolocation data (38), the temperature data (40), the time data (16) and/or the depth data (41).
  • step d) can comprise a substep iii) of generating an adjustment factor data (28) applying a probability analysis process (30) that takes as input the food data (27), a user profile ( 29) stored in the database (26) and the time data (16).
  • an adjustment factor data (28) can be a numerical data, for example, expressed in percentage units or decimal units.
  • the probability analysis process (30) can correspond to a process of data collection, classification, analysis and interpretation.
  • the object recognition algorithm (8) can generate a list of probable labels for a certain object or food present in the image (13).
  • the probability analysis (30) and the adjustment factor (28) can be used to prioritize the most probable tag within a list of probable tags, this by having contextual information from the moment of image capture (13).
  • geolocation 38
  • temperature 40
  • time 16
  • amount of food derived from depth data 41
  • amount of movement derived from position data (15)
  • impact of foods in the user's blood glucose level (21) from the pressure data (18) and the glucose data (14)
  • food preferences and/or restrictions obtained from the user profile can influence the user's food selection and consumption (21).
  • the user profile (29) can be a set of particular data that characterizes the user (21).
  • the user profile (29) can include, for example, information related to a diet, nutritional habits and nutritional goals of the user (21).
  • the user profile (29) can include information on the consumption of macronutrients and portions on plates, food groups consumed, amount of sugars, amount of saturated fats, hourly distribution of foods, and diversity of particular food groups of the user. user (21).
  • step d) can comprise a substep iv) of generating a report (7) to the user (21) based on the food data (27), the user profile (29) and the adjustment factor data ( 28).
  • the report (7) can also include information on the glucose data (14), the pressure data (18), the geolocation data (38) and/or the temperature (40).
  • the position data (15), the time data (16), the glucose data (14), the food intake data (17), the food data ( 27), the geolocation data (38), the temperature data (40), the data depth (41) and adjustment factor data (28) can be stored in the memory module (25) in the form of data structures such as tables, registers, information blocks, index blocks, CSV files, XLS files, XLSX, spreadsheets or a database. Additionally, the aforementioned data can be stored in the form of multidimensional arrays of n rows by m columns, tensors, vectors, associative vectors, unions, sets, multisets, graphs, trees, classes and/or any other similar or equivalent data structure. that can be known by a person moderately versed in the matter.
  • an embodiment of the method of the present disclosure as well as an embodiment of the food monitoring device (20) can be used to obtain information on the food intake made by an elderly person corresponding to the user (21). .
  • a microphone of the monitoring device of food (20) is active because a 3-axis accelerometer has captured a position data (15) that after being processed in the processing unit (5) indicates that the food monitoring device (20) is is located in the correct position.
  • the microphone which is active, detects sounds related to the action of eating by the elderly person, in this example, the microphone corresponds to the mechanical wave transducer (11) and the accelerometer to the position sensor (3 ).
  • the processing unit (5) of the food monitoring device (20) determines by means of the microphone that the person is eating, and sends an activation message to a camera of the food monitoring device (20).
  • the camera would correspond to the image sensor (2). After activating the camera, it The last captures a series of images of the food that the elderly person is eating.
  • the processing unit (5) obtains the time and date of capture of said image, such data is obtained by means of an RTC clock.
  • the date and time of image capture correspond to the time data (16) and the RTC clock corresponds to the real time clock (4).
  • the processing unit (5) initiates an analysis of the images to identify the foods that were captured in the images, and temporarily stores said images in a memory. or memory module (25).
  • the processing unit (5) uses an object recognition algorithm (8) and this algorithm uses the images, the time of image capture and certain information stored in the memory module (25). , which is associated with training data from the object recognition algorithm (8).
  • the aforementioned data allow us to obtain an approximation of what are the foods that the elderly person is consuming.
  • a probability analysis process (30) is executed, said process is also executed by the processing unit (5) and with this an adjustment factor is obtained for each food that is identified in the images, which improves the identification of food. Because the elderly person had previously indicated that their eating style was vegetarian, this information must be considered in the food identification process, as well as the time of food intake when making the food identification process. probability analysis process (30), the geographical location of the elderly person, the ambient temperature and the time of year in which the information is captured. The information related to the diet of the elderly person corresponds to the user profile (29) and whose profile may be stored in the memory module (25).
  • the processing unit (5) updates the digital nutritional diary of the elderly person and performs a nutritional assessment based on information previously stored in the memory module (25). After all the previous analysis has been carried out, and particularly in the present example, it is determined that the elderly person is consuming foods that are not recommended to achieve their nutritional objectives, a report (7) is generated to the elderly person and their caregiver or treating health professional that includes the nutritional diary, nutritional assessment and recommendations to change their lifestyle for the better.
  • an embodiment of the method of the present disclosure as well as an embodiment of the food monitoring device (20) can be used to obtain information on the food intake made by an athlete corresponding to the user (21).
  • the food monitoring device (20) is active because a 3-speed accelerometer axes has captured a position data (15) that after being processed in the processing unit (5) indicates that the food monitoring device (20) is located in the correct position.
  • the processing unit (5) of the food monitoring device (20) upon detecting that it does not have an active microphone, sends an activation message to a camera of the food monitoring device (20) so that it captures a series of images every 3 minutes.
  • the camera would correspond to the image sensor (2).
  • the processing unit (5) obtains the time and date of capture of said image, such data is obtained by means of an RTC clock.
  • the date and time of image capture correspond to the time data (16) and the RTC clock corresponds to the real time clock (4).
  • the processing unit (5) initiates an analysis of the images to identify the presence of food in the captured images, and temporarily stores said images in a memory. or memory module (25).
  • the processing unit (5) uses an object recognition algorithm (8) and this algorithm uses the images, the time of image capture and certain information stored in the memory module (25). , which is associated with training data from the object recognition algorithm (8).
  • the aforementioned data allow us to obtain an approximation of what are the foods that the athlete is consuming.
  • a probability analysis process (30) is executed, said process is also executed by the processing unit (5) and with this an adjustment factor is obtained for each food that is identified in the images, which improves the identification of food. Since the athlete had previously indicated that his eating style corresponds to a high performance profile that includes the consumption of a lot of protein, this information must be considered in the food identification process, as well as the time of ingestion. of the food at the time of carrying out the probability analysis process (30), the geographical location of the athlete, the ambient temperature and the time of year in which the information is captured. The information related to the athlete's diet corresponds to the user profile (29) and whose profile may be stored in the memory module (25).
  • the processing unit (5) updates the athlete's digital nutritional diary and performs a nutritional assessment based on information previously stored in the memory module (25). After all the previous analysis has been carried out, and particularly in the present example, it is determined that the athlete is consuming foods that are not recommended to achieve their nutritional objectives of improving their sports performance, a report (7) is generated to the sportsman, to your nutritionist and your coach that includes the nutritional diary, the nutritional assessment and recommendations to improve your sports performance.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Educational Technology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Educational Administration (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Epidemiology (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Mathematical Optimization (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Primary Health Care (AREA)
  • Pure & Applied Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Nutrition Science (AREA)

Abstract

La presente invención busca resolver los problemas de la técnica al proporcionar un dispositivo para el monitoreo nutricional de alimentos que ingiere un usuario. El dispositivo comprende un sensor de imagen configurado para capturar al menos una imagen de la ingesta de alimentos que realiza el usuario; adicionalmente, el dispositivo comprende un sensor de posición configurado para obtener un dato de posición del dispositivo de monitoreo de alimentos; asimismo, el dispositivo comprende un reloj en tiempo real configurado para generar una base de tiempo real y una unidad de procesamiento conectada al sensor de imagen, al sensor de posición y al reloj en tiempo real; el sensor de imagen captura al menos una imagen de los alimentos que ingiere el usuario de acuerdo a una orden de la unidad de procesamiento; y la unidad de procesamiento genera un reporte en el que se registra la ingesta de alimentos con base a la imagen capturada por el sensor de imagen.

Description

DISPOSITIVO DE MONITOREO NUTRICIONAL
CAMPO TÉCNICO
La presente invención está relacionada con dispositivos y métodos para el monitoreo de la ingesta de alimentos y bebidas de un usuario.
DESCRIPCIÓN DEL ESTADO DE LA TÉCNICA
En la actualidad existe un tipo de enfermedades crónicas llamadas Enfermedades No Transmisibles (ENTs). Estas enfermedades están caracterizadas porque son en su mayoría prevenibles y su aparición está asociada al estilo de vida de las personas. Dentro de los factores de riesgo más significativos para la aparición de enfermedades no transmisibles está la mala alimentación.
La dieta puede ser fácilmente intervenida para evitar los factores de riesgo y disminuir drásticamente la probabilidad de aparición de ENTs. Esto es posible sólo si se cuenta con información relevante y completa sobre la ingesta de alimentos y bebidas que es consignada usualmente a mano en un diario nutritonal. El gran desafío para la construcción de los diarios nutricionales es que las personas olvidan muchos de los detalles de lo que consumen durante el día o la semana y llevar una libreta para apuntar cada alimento es realmente tedioso, lo que lleva a bajos niveles de adherencia.
Estas barreras hacen que el proceso de llevar un diario nutritional sólo se realice en una ocasión, o que su repetición sea en intervalos de tiempo prolongados, lo que deriva en un control de la dieta poco eficiente y sin información para retroalimentar el impacto y adherencia de las recomendaciones que expertos metabólicos y nutricionistas realizan.
En el estado de la técnica existen diferentes tipos de dispositivos y métodos relacionados al monitoreo de la ingesta de alimentos, como los divulgados en los documentos US 10,790,054 Bl, US 2,020,337,635 Al y US 9,536,449 B2. El documento US 10,790,054 Bl divulga un dispositivo sensor de seguimiento, monitoreo de eventos y detalles de ingesta de alimentos. El dispositivo comprende una unidad de procesamiento programada, que controla aspectos del dispositivo sensor para capturar, almacenar y analizar datos, y proporcionar retroalimentación relacionada con la ingesta de alimentos. Además, la unidad de procesamiento se conecta a un grupo de sensores, entre ellos, un módulo de cámara, un acelerómetro, un giroscopio, un micrófono y, además, se conecta a una memoria; los anteriores elementos se encuentran montados en un dispositivo portátil.
El grupo de sensores proporciona información a la unidad de procesamiento relacionada con la ingesta de alimentos, esta información comprende lecturas del acelerómetro que son utilizadas para determinar la orientación de la muñeca del usuario y del dispositivo. También, en el dispositivo divulgado por US 10,790,054 Bl, el acelerómetro y el giroscopio pueden proporcionar información sobre la detección de gestos de morder o sorber por parte del usuario; además, la cámara proporciona información a la unidad de procesamiento en forma de imágenes de la comida que ingiere el usuario. El micrófono también proporciona comandos de voz que pueden indicar a la unidad de procesamiento la activación del dispositivo o para agregar etiquetas o mensajes de un evento o imagen de ingesta de alimentos registrados por el acelerómetro, el giroscopio o la cámara.
El documento US 10,790,054 Bl también divulga un método en el cual la unidad de procesamiento obtiene datos de información del grupo de sensores, y realiza un procesamiento de la información relacionando unos datos de inicio o finalización de una acción de ingesta de alimentos. También, genera un nuevo conjunto de datos asociados a los datos de inicio, y ejecuta un procesamiento para determinar si dentro del periodo monitoreado se produjo la ingesta de alimentos, identifica una etiqueta o gesto asociado a la ingesta de alimentos y finalmente, la unidad de procesamiento emite la etiqueta asociada a un gesto de ingesta de alimentos identificado por al menos uno del grupo de sensores.
La información es procesada por la unidad de procesamiento utilizando técnicas de machine learning u otras técnicas de analítica de datos. También, el método divulgado por US 10,790,054 Bl proporciona un reporte en tiempo real al usuario sobre la ingesta de alimentos, y los datos procesados de las imágenes pueden utilizarse como retroalimentación para el entrenamiento automático que usa la unidad de procesamiento.
Por otro lado, el documento US 2,020,337,635 Al divulga sistemas y métodos para monitorear la ingesta de alimentos. El sistema comprende un sensor de presión de aire para detectar la deformación del canal auditivo, un sensor de actividad del músculo temporal y un acelerómetro para detectar el movimiento de la parte de la sien debido al movimiento mandibular al masticar.
Asimismo, el documento US 2,020,337,635 Al divulga un dispositivo portable o carcasa auricular con un sistema informático basado en computador. Ea carcasa auricular contiene en su interior una unidad de procesamiento central conectada a un módulo de memoria para almacenamiento de datos. La unidad de procesamiento central también se conecta a una pluralidad de sensores que son utilizados por la unidad de procesamiento central para obtener información de la deglución o masticación que realiza un usuario.
El documento US 2,020,337,635 Al también divulga que los sensores corresponden a un sensor de presión de aire, un acelerómetro o un micrófono y adicionalmente, el dispositivo incluye una cámara como parte de la pluralidad de sensores conectados a la unidad de procesamiento central.
El método divulgado por US 2,020,337,635 Al comprende realizar mediciones de un músculo temporal mediante la pluralidad de sensores y determinar si la actividad del músculo temporal corresponde a la ingesta de alimentos. También se realiza una medición del movimiento corporal y del movimiento de la mano y se determina si dichos movimientos, junto con el movimiento del músculo temporal están asociados con la ingesta de alimentos. . El método es ejecutado en la unidad de procesamiento central y esta realiza el procesamiento de la información que obtiene de la pluralidad de sensores utilizando algoritmos de procesamiento de patrones, por ejemplo, redes neuronales artificiales. En el método divulgado, el dispositivo proporciona un reporte en tiempo real al usuario sobre la ingesta de alimentos. Por último, el documento US 9,536,449 B2 divulga un dispositivo y un sistema para monitorear el consumo de alimentos de una persona. El dispositivo comprende un sensor portátil que recopila datos automáticamente para detectar eventos de alimentación; un utensilio, sonda o plato de comida inteligente que recopila datos sobre la composición química de los alimentos que se solicita a la persona que usa el dispositivo, cuando se detecta un evento de ingesta; y un componente de análisis de datos que analiza los datos de composición química para estimar los tipos y cantidades de alimentos, ingredientes, nutrientes y /o calorías consumidas por la persona.
El dispositivo divulgado por US 9,536,449 B2 incluye una unidad de comunicación, un sensor de movimiento, una fuente de alimentación y un transductor, todos los elementos antes mencionados se conectan a una unidad de procesamiento de datos. La unidad de comunicación establece una comunicación inalámbrica entre el dispositivo de monitoreo y un teléfono inteligente que incluye una cámara.
El usuario de ambos dispositivos utiliza la cámara para tomar fotografías y colectar información relacionada con el consumo de alimentos del usuario, esta información es enviada a la unidad de procesamiento de datos y la unidad de procesamiento ejecuta un procesamiento, análisis, identificación y seguimiento de la información obtenida por el sensor de movimiento y la cámara del teléfono inteligente.
El documento US 9,536,449 B2 también divulga que un acelerómetro es utilizado para monitorear posibles eventos de alimentación y la cámara toma fotografías de la interacción entre una persona y la comida, incluida la distribución de la comida, los movimientos de la mano a la boca y los movimientos de masticación.
Sin embargo, ninguno de los documentos del estado del arte indica la existencia de un reloj en tiempo real para realizar un mejor registro y monitoreo de la hora del día en la que el usuario ingiere los alimentos. Tampoco divulgan la ejecución de una medición asociada al nivel de glucosa en la sangre del usuario para correlacionar el momento exacto en el que se da la ingesta del alimento y el efecto que este tiene sobre su cuerpo, que en últimas está altamente relacionado con variaciones en los niveles de glucosa en sangre. Adicionalmente, el estado del arte no divulga documentos que presenten mecanismos o estrategias para realizar una optimización del consumo de batería lo que hace que sea complejo realizar esta actividad de monitoreo nutricional por tiempo prolongado.
Existe entonces todavía la necesidad de desarrollar dispositivos y métodos para realizar un monitoreo de la ingesta de comidas y bebidas que ingiera un usuario y que puedan garantizar una mayor precisión en la identificación de los alimentos y el efecto de los mismos en la salud del usuario por un tiempo prolongado.
BREVE DESCRIPCIÓN
La presente invención busca resolver los problemas de la técnica al proporcionar un dispositivo de monitoreo nutricional de alimentos que ingiere un usuario. El dispositivo puede comprender un sensor de imagen configurado para capturar al menos una imagen de la ingesta de alimentos que realiza un usuario. También, el dispositivo puede comprender un sensor de posición configurado para obtener un dato de posición del dispositivo de monitoreo de alimentos.
Además, el dispositivo puede incluir un reloj en tiempo real configurado para generar una base de tiempo real. Adicionalmente, el dispositivo puede incluir una unidad de procesamiento conectada al sensor de imagen, al sensor de posición y al reloj en tiempo real. El sensor de imagen puede capturar al menos una imagen de los alimentos que ingiere el usuario de acuerdo a una orden de la unidad de procesamiento. La unidad de procesamiento puede generar un reporte en el que se registra la ingesta de alimentos con base a la imagen capturada por el sensor de imagen.
Además, la presente divulgación también describe un método para realizar monitoreo nutricional. El método puede incluir una etapa de enviar una orden a un sensor de imagen por medio de una unidad de procesamiento. El sensor de imagen puede activarse con base a la orden enviada por la unidad de procesamiento. También, el método puede incluir una etapa de capturar al menos una imagen por medio del sensor de imagen y enviar dicha imagen a la unidad de procesamiento. Además, el método puede incluir una etapa de recibir en la unidad de procesamiento un dato de tiempo desde un reloj en tiempo real. El dato de tiempo puede corresponder a la hora de captura en tiempo real de la imagen.
El método también puede comprender una etapa de ejecutar por medio de la unidad de procesamiento un proceso de análisis de datos, que puede comprender una subetapa de almacenar la imagen en una base de datos. La base de datos puede encontrarse almacenada en un módulo de memoria.
También, el método puede incluir una subetapa de generar un dato de alimento aplicando un algoritmo de reconocimiento de objetos que puede tomar como entrada la imagen, el dato de tiempo y una pluralidad de datos de alimentación almacenada en el módulo de memoria. El algoritmo de reconocimiento de objetos puede basarse en redes neuronales convolucionales.
Además, el método puede incluir una subetapa de generar un dato de ajuste aplicando un proceso de análisis de probabilidad, que puede tomar como entrada el dato de alimento y un perfil de usuario que puede estar almacenado en la base de datos.
Finalmente, el método puede incluir una subetapa de generar un reporte al usuario con base en el dato de alimento, el perfil de usuario y el dato de factor de ajuste.
BREVE DESCRIPCIÓN DE LAS FIGURAS
La FIG. 1 corresponde a una modalidad preferida del dispositivo de acuerdo con la presente divulgación.
La FIG. 2 corresponde a una vista esquemática en la cual un usuario utiliza el dispositivo de una modalidad de la presente invención y se muestra una línea de visión de dicho dispositivo para realizar la captura de imágenes. La FIG. 3 muestra una proyección isométnca de una modalidad del dispositivo para el monitoreo de alimentos que ingiere un usuario.
La FIG. 4 muestra un diagrama de bloques de una modalidad del método para realizar el monitoreo de alimentos que ingiere un usuario.
La FIG. 5 muestra un diagrama de flujo de las etapas de una modalidad del método para el monitoreo de alimentos que ingiere un usuario.
DESCRIPCIÓN DETALLADA
La presente invención proporciona un dispositivo y método para el monitoreo nutrí cional de alimentos que ingiere un usuario y que permite ser portado por el usuario, capturar la información sobre la ingesta de alimentos y bebidas sin requerir una constante intervención humana para reportar cada elemento en el momento de su ingesta.
Haciendo referencia a la FIG. 1, la presente divulgación revela un dispositivo de monitoreo de alimentos (20) que ingiere un usuario (21) que comprende un sensor de imagen (2) configurado para capturar al menos una imagen (13) de la ingesta de alimentos que realiza el usuario (21). También comprende un sensor de posición (3) configurado para obtener un dato de posición (15) del dispositivo de monitoreo de alimentos (20). Además, el dispositivo de monitoreo de alimentos (20) comprende un reloj en tiempo real (4) configurado para generar una base de tiempo real. Adicionalmente, el dispositivo de monitoreo de alimentos (20) comprende una unidad de procesamiento (5) conectada al sensor de imagen (2), al sensor de posición (3) y al reloj en tiempo real (4). El sensor de imagen (2) captura al menos la imagen (13) de los alimentos que ingiere el usuario (21) de acuerdo a una orden (6) de la unidad de procesamiento (5) y donde la unidad de procesamiento (5) genera un reporte (7) en el que se registra la ingesta de alimentos con base a la imagen (13) capturada por el sensor de imagen (2). Deberá entenderse en la presente divulgación que el sensor de imagen (2) puede ser un elemento de una cámara electrónica, tanto de vídeo como de fotografía estática, que detecta y captura la información que compone la imagen, y puede seleccionarse entre Sensores CCD, Sensores Super CCD, Sensores CCD RGBE, Sensores CMOS, Sensores Foveon X3, Sensores Full Frame, Sensores APS-H, Sensores APS-C, Sensores Foveon, Sensores Micro Cuatro Tercios, Celdas Fotoeléctricas, Sensores de Imagen Infrarrojos y/o combinaciones de los anteriores. Asimismo, los sensores anteriormente mencionados pueden ser utilizados, combinarse y no limitarse a la utilización o selección entre Cámaras Fotográficas, Cámaras de Video, Cámaras Principales, Cámaras Teleobjetivo, Cámaras de Gran Angular, Cámaras de Profundidad, Cámaras Macro, Cámaras 3D, Cámaras Monocromáticas, Cámaras Infrarrojas, Cámaras ToF y/o combinaciones de los anteriores.
También, deberá entenderse en la presente divulgación que la imagen (13) puede ser y no limitarse a una representación visual, que manifiesta la apariencia visual de un objeto. Además, la imagen (13) puede ser una representación digital en forma de archivo de información tipo binaria, por ejemplo, Imágenes Vectoriales, Imágenes en Mapa de Bits, Imágenes Rasterizadas, Imágenes en Escala de Grises y/o Imágenes Directas y que pueden almacenarse en formatos como, por ejemplo .AI, CDR, .DXF, .EMF, .EPS, ODG, SVG, SWF, WMF, BMP, GIF, JPEG, PNG, PSD, RAW, TIFF y PSD.
En una modalidad preferida de la invención, la imagen (13) puede ser una secuencia de imágenes que represente escenas en movimiento, como, por ejemplo, un video o un clip de video. Ejemplos de formatos de videos que pueden utilizarse son .AVI, .MOV, .MKV, MP4, WMV, WMA; FLV, RM, RMVB, DIVX, H.264, XVID, 3GPP u otros formatos de video conocidos por una persona medianamente versada en la materia y combinaciones de estas.
También, haciendo referencia a la FIG. 1, el dispositivo de monitoreo de alimentos (20) puede comprender un sensor de posición (3) configurado para obtener un dato de posición (15) del dispositivo de monitoreo de alimentos (20). Se debe entender en la presente divulgación que el sensor de posición (3) puede ser y no limitarse a dispositivos que permitan determinar la posición lineal o angular de un objeto, por ejemplo, el dispositivo de monitoreo de alimentos (20), y cuya posición pueda ser convertida en una señal que pueda transmitirse a la unidad de procesamiento (5). El sensor de posición (3) puede seleccionarse entre Potenciométricos, Sensores de Posición LVDT, Sensores de Posición RVDT, Sensores de Posición Ópticos, Sensores de Posición Magnéticos, Sensores de Posición Magnetostrictivos, Sensores de posición Capacitivos, Sensores de Posición Inductivos, Transformadores Lineales de Diferencial Variable, Encoders, Giroscopios, Girocompases, Acelerómetros, Magnetómetros y/o combinaciones de los mismos.
También, puede entenderse en la presente divulgación que el dato de posición (15) puede representar el desplazamiento lineal o angular del dispositivo de monitoreo de alimentos (20) con respecto a un punto de referencia. El dato de posición (15) puede ser un dato numérico expresado en unidades de porcentaje, unidades angulares, unidades longitudinales y/o combinaciones de las anteriores.
También, el dispositivo de monitoreo de alimentos (20) puede comprender un reloj en tiempo real (4) configurado para generar una base de tiempo real.
Se entenderá en la presente divulgación que el reloj en tiempo real (4) puede ser un reloj conocido como real-time clock (RTC) que puede estar incluido en un circuito integrado y que cuente con la capacidad de contabilizar o registrar el paso del tiempo, por ejemplo, horas, minutos, segundos y años, aun cuando el dispositivo de monitoreo de alimentos (20) pudiera perder su suministro principal de energía eléctrica.
Además, el reloj en tiempo real (4) puede ser seleccionado y no limitarse a RTCs basados en radio, RTCs basados en software y/o RTCs históricos.
Ventajosamente el reloj en tiempo real (4) puede tener una fuente de alimentación o suministro de energía eléctrica alternativa, y no depender del suministro de energía eléctrica que pudiera proporcionarle el dispositivo de monitoreo de alimentos (20). Además, el reloj en tiempo real (4) puede generar la base de tiempo real que correspondería a un registro de tiempo independiente del que pudiera generarse por la unidad de procesamiento (5). Se entenderá en la presente divulgación que la base de tiempo real puede corresponder a una hora exacta. Además, la base de tiempo real también podría corresponder a una sincronización de tiempo de mayor precisión que la sincronización de la unidad de procesamiento (5).
Ventajosamente, la base de tiempo real generada por el reloj en tiempo real (4) permitiría al dispositivo de monitoreo de alimentos (20) obtener una mayor precisión del momento exacto en el cual el sensor de imagen (2) realiza la captura de una imagen. La información asociada al momento en que el usuario (21) consume el alimento es muy importante para lograr realizar un análisis de los hábitos nutricionales de dicho usuario (21), de la relación que existe entre los momentos de ingesta de alimentos, y el efecto que estos generan en el cuerpo del usuario (21), así como también, identificar cambios en sus niveles de glucosa en sangre, cambios en su estado de ánimo, cambios en la higiene del sueño, cambios en el rendimiento deportivo, entre otros.
Adicionalmente, el dispositivo de monitoreo de alimentos (20) puede comprender una unidad de procesamiento (5) conectada al sensor de imagen (2), al sensor de posición (3) y al reloj en tiempo real (4). El sensor de imagen (2) puede capturar al menos una imagen (13) de los alimentos que ingiere el usuario (21) de acuerdo a una orden (6) de la unidad de procesamiento (5). Además, la unidad de procesamiento (5) puede generar un reporte (7) en el que se registra la ingesta de alimentos con base a la imagen (13) capturada por el sensor de imagen (2).
En la modalidad preferida de la invención, la unidad de procesamiento (5) puede ser cualquier unidad de procesamiento, módulo de procesamiento, o cualquier dispositivo que procesa datos, por ejemplo, microcontroladores, micro procesadores, DSCs (Digital Signal Controller por sus siglas en inglés), FPGAs (Field Programmable Gate Array por sus siglas en inglés), CPLDs (Complex Programmable Logic Device por sus siglas en inglés), ASICs (Application Specific Integrated Circuit por sus siglas en inglés), SoCs (System on Chip por sus siglas en inglés), PSoCs (Programmable System on Chip por sus siglas en inglés), computadores, servidores, tabletas, celulares, celulares inteligentes, generadores de señales y unidades de control conocidas por una persona medianamente versada en la materia y combinaciones de estas.
La unidad de procesamiento (5) puede incluir, además, un dispositivo de visualización y /o un Dispositivo de Interfaz Humana (HID, por las siglas en inglés de Human Interface Device), puede ser o incluir una unidad de computación de propósito especial programada para ejecutar el método de esta divulgación.
Un dispositivo de visualización corresponde, sin limitación, a cualquier dispositivo que pueda conectarse a una unidad de control y mostrar su salida, se selecciona entre otros de monitor CRT (por las siglas en inglés de Cathode Ray Tube), pantalla plana, pantalla de cristal líquido LCD (por las siglas en inglés de Liquid Crystal Display), pantalla LCD de matriz activa, pantalla LCD de matriz pasiva, pantallas LED, proyectores de pantallas, TV (4KTV, HDTV, TV de plasma, Smart TV), pantallas OLED (por las siglas en inglés de Organic Light Emitting Diode), pantallas AMOLED (por las siglas en inglés de Active Matrix Organic Light Emitting Diode), Pantallas de puntos cuánticos QD (por las siglas en inglés de Quantic Display), pantallas de segmentos, entre otros dispositivos capaces de mostrar datos a un usuario, conocidos por los expertos en la técnica, y combinaciones de estos.
Un dispositivo HID (por las siglas en inglés de Human Interface Device) incluye, sin limitación, teclado, mouse, trackball, touchpad, dispositivo apuntador, joystick, pantalla táctil, entre otros dispositivos capaces de permitir que un usuario ingrese datos en la unidad de procesamiento del dispositivo y combinaciones de estos.
Particularmente, en la modalidad preferida y otras modalidades alternativas de la presente divulgación, puede utilizarse un módulo de memoria (25) conectado a la unidad de procesamiento (5). Se entenderá en la presente divulgación por módulo de memoria (25), un elemento de hardware que incluye, pero no se limita a, memorias RAM (memoria caché, SRAM, DRAM, DDR), memoria ROM (Flash, Caché, discos duros, SSD, EPROM, EEPROM, memorias ROM extraíbles (v.g. SD (mimSD, microSD, etc), MMC ( MultiMedia Card ), Compact Flash, SMC (Smart Media Card), SDC (Secure Digital Card), MS (Memory Stick), entre otras)), CD-ROM, discos versátiles digitales (DVD por las siglas en inglés de Digital Versatile Disc) u otro almacenamiento óptico, casetes magnéticos, cintas magnéticas, almacenamiento o cualquier otro medio que pueda usarse para almacenar información y a la que se puede acceder por una unidad de cómputo, unidad de procesamiento, o módulo de procesamiento. En los módulos de memoria generalmente se incorporan instrucciones, estructuras de datos, módulos de programas informáticos. Algunos ejemplos de estructura de datos son: una hoja de texto o una hoja de cálculo, o una base de datos.
En la modalidad preferida de la presente invención, la unidad de procesamiento (5) puede conectarse a un módulo de comunicaciones (36) con uno o más puertos de conexión configurados para acceder a una red de comunicaciones, por ejemplo, una red alámbrica, una red inalámbrica y combinaciones de las mismas. Ejemplos de redes de comunicaciones pueden ser la internet, redes VPN, redes LAN, WAN, otras redes de comunicaciones equivalentes y similares conocidas por una persona medianamente versada en la materia, y combinaciones de las mismas.
Los ejemplos de módulos de comunicaciones alámbricas tienen un puerto de conexión cableada que permite la comunicación con los dispositivos extemos mediante un bus de comunicaciones, el cual se selecciona entre otros, del grupo conformado por I2C (del acrónimo de IIC Inter-Integrated Circuit), CAN (por las siglas en inglés de Controller Area Network) , Ethernet, SPI (por las siglas en inglés de Serial Peripheral Interface), SCI (por las siglas en inglés de Serial Communication Interface), QSPI (por las siglas en inglés de Quad Serial Peripheral Interface), 1-Wire, D2B (por las siglas en inglés de Domestic Digital Bus), Profibus y otros conocidos por una persona medianamente versada en la materia, y combinaciones de los mismos.
Ejemplos de módulos de comunicaciones inalámbricas usan una tecnología de comunicación inalámbrica que se selecciona del grupo conformado por Bluetooth, WiFi, Radio Frecuencia RF ID (por las siglas en inglés de Radio Frequency Identification), UWB (por las siglas en inglés de Ultra Wide B-and), GPRS, Konnex o KNX, DMX (por sus siglas en inglés, Digital Multiplex), CDMA, GSM, UMTS, CDMA2000, EVDO, HSDPA, HSUPA, HSPA+, UTE, LTE Advanced, LTE Advanced, LTE Advanced Pro, Mobile WiMAX, 5G NR y tecnologías de comunicación inalámbricas equivalentes que sean conocidos por una persona medianamente versada en la materia y combinaciones de las anteriores
La unidad de procesamiento (5) puede activar el sensor de imagen (2) por medio de la orden (6) y al recibir dicha orden (6) el sensor de imagen se puede configurar para realizar la captura de al menos una imagen (13). La orden (6) puede ser un comando, mensaje, instrucción, código, conjunto de datos, secuencia de datos y/o combinaciones de los anteriores.
También, se entenderá en la presente divulgación que el reporte (7) puede ser un informe que permita transmitir información al usuario (21), a un operador, a un servidor externo, una red de comunicaciones externa, una base de datos, un dispositivo computacional y/o combinaciones de los anteriores que puedan ser conocidos por una persona medianamente versada en la materia.
Además, el reporte (7) puede ser una estructura de datos organizada y de diferentes tipos, lenguajes o categorías, por ejemplo, tablas, gráficos, mensajes, archivos de intercambio de datos, imágenes, videos, archivos de audio, señales auditivas y/o vibraciones.
Además, en la modalidad preferida de la invención y haciendo referencia a la FIG. 2, la unidad de procesamiento (5) puede activar o desactivar el sensor de imagen (2) cuando hay un cambio en el dato de posición (15) obtenido por el sensor de posición (3). El dato de posición (15) puede generarse cada vez que el dispositivo de monitoreo de alimentos (20) cambia de orientación con respecto a una posición de referencia. Un ejemplo de cambio de orientación del dispositivo de monitoreo de alimentos (20) podría ser que el sensor de imagen (2) se encuentre orientado hacia el piso o hacia el cielo. Otro ejemplo podría ser que el dispositivo de monitoreo de alimentos (20) cambie de una posición vertical a una posición horizontal con respecto a un punto de referencia o viceversa. Adicionalmente, la unidad de procesamiento (5) podría activar o desactivar el sensor de imagen (2) cuando los cambios en el dato de posición (15) ocurran de una manera que podría considerarse como elevada o que sobrepasen ciertos umbrales de tolerancia preconfigurados en la unidad de procesamiento (5), y que puede llevar a que la imagen (13) capturada por el sensor de imagen (2) resulte afectada por el movimiento.
En una modalidad de la invención, la unidad de procesamiento (5) puede detectar el contacto del usuario (21) en la superficie del soporte (1) por medio del análisis de una señal obtenida por el sensor de posición (3) y puede usar este tipo de contacto para activar o desactivar el sensor de imagen (2) o para cambiar una configuración establecida en la unidad de procesamiento (5).
En otra modalidad de la invención, la unidad de procesamiento (5) puede conectarse a un módulo de posicionamiento (37) que puede estar configurado para obtener un dato de geolocalización (38) del dispositivo de monitoreo de alimentos (20), y donde el dato de geolocalización (38) puede corresponder a un punto de localización o ubicación del dispositivo de monitoreo de alimentos (20). El dato de geolocalización (38) puede expresarse en un formato de coordenadas geográficas.
Además, el módulo de posicionamiento (37) puede seleccionarse del grupo compuesto por Dispositivos GPS con conexión a redes celulares 2G, 3G, 4G, 5G o generaciones posteriores, Dispositivos GPS Bluetooth, Dispositivos GPS LPWAN, Dispositivos GPS de comunicación vía Wifi, Dispositivos GPS de comunicación vía satélite, Pulsores de Datos, y/o cualquier otro dispositivo similar o equivalente conocido por una persona medianamente versada en la materia.
En la modalidad preferida de la invención y haciendo referencia a la FIG. 1, la unidad de procesamiento (5) puede conectarse a un sensor de glucosa (9) que puede estar configurado para obtener un dato de glucosa (14) que corresponde al nivel de glucosa en la sangre del usuario (21). Se entenderá en la presente divulgación que el sensor de glucosa (9) puede ser un dispositivo o instrumento que permita realizar mediciones de glucosa en la sangre del usuario (21) y obtener instantáneamente el dato de glucosa (14). El sensor de glucosa (9) puede seleccionarse entre el grupo de Glucómetros, Sistemas de monitorización continua de glucosa y Sistemas de monitorización flash. También, el sensor de glucosa (9) podría capturar la información relacionada con la glucosa en la sangre del usuario (21) utilizando radiación en infrarrojo cercano, métodos electroquímicos, ondas acústicas en rango ultrasónico, campos electromagnéticos, sensores resonantes, biosensores enzimáticos, immunosensores, y /o combinaciones de los anteriores.
Además, el dato de glucosa (14) puede ser un valor numérico expresado en porcentaje, cómo un valor relativo al cambio del nivel de glucosa en sangre o un valor expresado como un nivel promedio de azúcar en la sangre en unidades de miligramos por decilitros (mg/dl).
En la modalidad preferida de la invención, la unidad de procesamiento (5) puede conectarse a un sensor de presión (10) configurado para obtener un dato de presión (18), donde dicho dato de presión (18) es un valor de referencia que puede ajustar el dato de glucosa (14).
Se entenderá en la presente divulgación que el sensor de presión (10) puede ser un instrumento o elemento que genere una señal eléctrica en función de la presión a la cual es sometido. El sensor de presión (10) puede seleccionarse entre Sensores de presión absoluta, Sensores de presión relativa, Sensores de presión diferencial, Sensores de presión piezoeléctricos, Sensores de presión piezorresistivos y Sensores de presión capacitivos.
Por otro lado, el dato de presión (18) puede ser una medida de la fuerza que ejerce el usuario (21) con uno de sus dedos sobre el sensor de presión (10). Además, se entenderá en la presente divulgación que el dato de presión (18) puede ser un valor numérico expresado en unidades como Gigapascal (GPa), Megapascal (MPa), Kilopascal (kPa), Pascal (Pa), Kilogramo-fuerza (kgf/m2), Gramo-fuerza por centímetro cuadrado (gf/cm2), Kilogramo-fuerza por decímetro cuadrado (kgf/dm2), KSI, PSI (lbf/in2) y /o BAR.
Además, el dato de presión (18) puede servir como medida de referencia para calibrar o ajustar el dato de glucosa (14) debido a que los cambios de presión tienen un impacto sobre la amplitud de una señal obtenida por el sensor de glucosa (9).
También, en la modalidad preferida de la invención, la unidad de procesamiento (5) puede conectarse a un módulo de calefacción (12).
Deberá entenderse en la presente divulgación que el módulo de calefacción (12) puede seleccionarse entre resistencias calefactoras, celdas de Peltier, bombillas, LEDs o componentes electrónicos que al ser encendidos generan un aumento en la temperatura de su superficie o irradian calor.
También, en otra modalidad de la invención, la unidad de procesamiento (5) puede conectarse a un sensor de temperatura (39) configurado para obtener un dato de temperatura (40) y donde dicho dato de temperatura (40) puede corresponder al nivel de temperatura corporal del usuario (21). En otra modalidad, el dato de temperatura (40) también puede corresponder a la temperatura ambiente.
Se entenderá en la presente divulgación que el dato de temperatura (40) puede ser un valor numérico que indique el grado o nivel térmico del usuario (21) expresado en términos de calor y frío. El dato de temperatura (40) puede ser representado en valores de grados Celsius (°C), grados Fahrenheit (°F) y /o grados Kelvin (K).
El sensor de temperatura (39) se puede seleccionar entre sensores de temperatura tipo termopar, por resistencia (RTD), bimetálicos, por cambio de estado o cualquier otro sensor de temperatura conocido por una persona medianamente versada en la materia y que permita conocer la temperatura del usuario (21) o del ambiente. En la modalidad pretenda de la invención, y haciendo referencia a la FIG. 1, la unidad de procesamiento (5) puede conectarse a un transductor de ondas mecánicas (11) que puede configurarse para obtener un dato de ingesta de alimentos (17) del usuario (21) cuando se generan sonidos relacionados a la ingesta de alimentos del usuario (21).
Debe entenderse en la presente divulgación que el transductor de ondas mecánicas (11) puede ser un elemento con la capacidad de transformar vibraciones generadas por la presión acústica, ejercida sobre su cápsula por ondas sonoras, en energía eléctrica y que permita identificar y /o registrar sonidos. El transductor de ondas mecánicas puede ser seleccionado entre los grupos de Transductores electrostáticos o de condensador, Transductores dinámicos, Transductores magnéticos, Transductores de carbón, Transductores piezoeléctricos, y/o Transductores de cinta (Ribbon).
También, se entenderá en la presente divulgación que el dato de ingesta de alimentos (17) puede asociarse a sonidos que puede emitir el usuario (21) antes de iniciar y durante la ingesta de alimentos, por ejemplo, el sonido de una bolsa de snacks cuando el usuario (21) la abre, el sonido que emite el usuario (21) al masticar, el sonido de una lata de bebida que es abierta por el usuario (21) antes de ingerir la bebida, el sonido que emite el usuario (21) al momento de sorber la bebida, entre otros ejemplos.
Por otro lado, el transductor de ondas mecánicas (11) puede activar o desactivar el sensor de imagen (2) por medio de la unidad de procesamiento (5) con base en el dato de ingesta de alimentos (17) obtenido por el transductor de ondas mecánicas (11). Lo anterior implica que, por ejemplo, el sensor de imagen (2) podría activarse en el momento en que el transductor de ondas mecánicas (11) detecte sonidos asociados a la ingesta de comida por parte del usuario (21), o en otro ejemplo, el sensor de imagen (2) podría desactivarse debido a que el transductor de ondas mecánicas (11) no detecte o identifique sonidos asociados a la acción de comer por parte del usuario (21).
Lo anterior es ventajoso en la medida en que el dispositivo de monitoreo de alimentos (20) podría ser configurado en un modo de bajo consumo de energía eléctrica, y podría activarse solamente en los instantes en los que el usuario (21) ingiera alimentos, o desactivarse en caso de que no se requiera que el sensor de imagen (2) se encuentre operativo para realizar capturas de imágenes, lo cual permitiría un ahorro en el consumo de energía del dispositivo.
En una modalidad alterna de la presente invención, el dispositivo de monitoreo de alimentos (20) puede incluir un sensor de temperatura (34) de tipo infrarrojo para obtener información adicional de los alimentos y bebidas, lo que podría facilitar la clasificación de dichos alimentos y bebidas, por ejemplo, al proveer datos para la diferenciación entre alimentos que usualmente se sirven calientes de otros alimentos que usualmente se sirven fríos. Además, el sensor de temperatura (34) puede corresponder a una pluralidad de sensores de temperatura.
Haciendo referencia a la FIG. 3, el dispositivo de monitoreo de alimentos (20) puede comprender un soporte (1) que puede ser un elemento que en el cuál pueden disponerse, fijarse o montarse los demás elementos que comprenden el dispositivo de monitoreo de alimentos (20). El soporte (1) puede ser un elemento fijo o deslizable que, además, puede ubicarse en la parte inferior de un encapsulado base, donde este último puede servir para dar cobertura a los demás componentes del dispositivo de monitoreo de alimentos (20).
En una modalidad alternativa, el dispositivo de monitoreo de alimentos (20) puede incluir, además, un sensor de profundidad (32) conectado a la unidad de procesamiento (5) y configurado para generar un dato de profundidad (41). El sensor de profundidad (32) puede permitir tener puntos de referencia sobre la profundidad de la imagen (3) y sobre el estado abierto o cerrado del soporte (1). Además, el sensor de profundidad (32) pueden facilitar el procesamiento de las cantidades de alimento que ingiere el usuario (21) y ahorrar energía evitando la captura de imágenes cuando el soporte (1) se encuentra cerrado. También, el sensor de profundidad (32) puede corresponder a una pluralidad de sensores de profundidad.
En una modalidad, la pluralidad de sensores profundidad (32) puede tener sensores de profundidad configurados como emisores y/o receptores. También, el sensor de profundidad (32) puede estar configurado para mejorar la precisión de la cuantificación del alimento y las bebidas que ingiere el usuario (21). Además, el sensor de profundidad (32) pueden utilizar principios ópticos y /o acústicos para obtener la información.
El sensor de profundidad (32) puede ser seleccionado del grupo que comprende sensores infrarrojos, sensores de imagen, sensores de ondas mecánicas y /o sensores de ondas ultrasónicas.
También, el soporte (1) puede conectarse a un mecanismo de fijación (23) por medio de un codo (35) que puede ser fijo o removible, y que permita la ubicación del dispositivo de monitoreo de alimentos (20) en la vestimenta del usuario (21).
En una modalidad alterna, el mecanismo de fijación (23) puede comprender adicionalmente, un elemento magnético que interactúa con un material ferroso o con otro elemento magnético de polaridad opuesta contenido en el soporte (1), con el fin de mejorar la fijación del dispositivo de monitoreo de alimentos (20) a las prendas de vestir, como se puede observar en la FIG. 2. En esta modalidad el codo (35) puede ser removido para ubicar con mayor facilidad el dispositivo de monitoreo de alimentos (20) en prendas, y sin tener que realizar aperturas u orificios en dichas prendas.
En una modalidad alterna, el dispositivo de monitoreo de alimentos (20) de la presente invención puede incluir una cobertura intercambiable que se puede ubicar sobre el soporte (1) para que el usuario (21) pueda agregar un componente estético al dispositivo y así facilitar su uso en cualquier ocasión.
En una modalidad, el soporte (1) puede incluir un elemento adaptador por el que pueda pasar una cuerda, collar, cadena, o cualquier otro elemento que permita colgar el dispositivo de monitoreo de alimentos (20) del cuello del usuario (21) o ubicarlo en alguna extremidad corporal. Haciendo referencia a las FIG. 4 y FIG. 5, la presente divulgación también describe un método para el monitoreo de alimentos que comprende una etapa a) de enviar una orden (6) a un sensor de imagen (2) por medio de una unidad de procesamiento (5), donde el sensor de imagen (2) se activa con base a la orden (6). El método también comprende una etapa b) de capturar al menos una imagen (13) por medio del sensor de imagen (2) y enviar dicha imagen (13) a la unidad de procesamiento (5). Además, el método comprende una etapa c) de recibir en la unidad de procesamiento (5) un dato de tiempo (16) desde un reloj en tiempo real (4), donde el dato de tiempo (16) corresponde a la hora de captura en tiempo real de la imagen (13). También, el método comprende una etapa d) de ejecutar por medio de la unidad de procesamiento (5) un proceso de análisis de datos (22) que comprende una subetapa i) de almacenar la imagen (13) en una base de datos (26), donde la base de datos (26) se encuentra almacenada en un módulo de memoria (25). La etapa d) también comprende una subetapa ii) de generar un dato de alimento (27) aplicando un algoritmo de reconocimiento de objetos (8) que toma como entrada la imagen (13), el dato de tiempo (16) y una pluralidad de datos de alimentación (33) almacenada en el módulo de memoria (25), donde el algoritmo de reconocimiento de objetos (8) se basa en redes neuronales convolucionales. Además, la etapa d) comprende una subetapa iii) de generar un dato de factor ajuste (28) aplicando un proceso de análisis de probabilidad (30) que toma como entrada el dato de alimento (27), un perfil de usuario (29) almacenado en la base de datos (26) y el dato de tiempo (16). Adicionalmente, la etapa d) comprende una subetapa iv) de generar un reporte (7) al usuario (21) con base en el dato de alimento (27), el perfil de usuario (29) y el dato de factor de ajuste (28).
Haciendo referencia a la FIG. 5, el método de la presente divulgación puede comprender una etapa a) de enviar una orden (6) a un sensor de imagen (2) por medio de una unidad de procesamiento (5), donde el sensor de imagen (2) se activa con base a la orden (6).
Algunos ejemplos de lo anterior podrían ser un comando de activación enviado al sensor de imagen (2) en el momento en que la unidad de procesamiento (5) recibe un dato que le indique que el usuario (21) está realizando la ingesta de alimentos o sorbiendo una bebida. En la modalidad pretenda de la invención, la unidad de procesamiento (5) puede recibir un dato de posición (15) desde un sensor de posición (3) y la unidad de procesamiento (5) puede activar o desactivar el sensor de imagen (2) con base en el dato de posición (15).
En la modalidad preferida de la invención, la unidad de procesamiento (5) también puede recibir un dato de ingesta de alimentos (17) desde un transductor de ondas mecánicas (11) y la unidad de procesamiento (5) puede activar o desactivar el sensor de imagen (2) con base en el dato de ingesta de alimentos (17).
También, haciendo referencia a las FIG. 4 y FIG. 5, el método puede comprender una etapa b) de capturar al menos una imagen (13) por medio del sensor de imagen (2) y enviar dicha imagen (13) a la unidad de procesamiento (5).
Por ejemplo, el sensor de imagen (2) podría capturar una imagen, una pluralidad de imágenes o un video de los alimentos que el usuario (21) se encuentra ingiriendo, y enviar una o varias capturas a la unidad de procesamiento (5), para que dichas capturas sean procesadas y analizadas posteriormente.
Además, haciendo referencia a las FIG. 4 y FIG. 5, el método puede comprender una etapa c) de recibir en la unidad de procesamiento (5) un dato de tiempo (16) desde un reloj en tiempo real (4). El dato de tiempo (16) puede corresponder a la hora de captura en tiempo real de la imagen (13).
Ventajosamente, el dato de tiempo (16) puede permitir realizar un análisis más preciso de la imagen (13) en la medida en que el factor de ajuste (28) podría realizar un análisis de probabilidad (30) más preciso al conocer el momento del día en el que el alimento fue ingerido por el usuario (21). Es bien sabido que la probabilidad de consumir ciertos alimentos aumenta en diferentes momentos del día y de la semana. En la modalidad pretenda, en la etapa c) el dispositivo de momtoreo de alimentos (20) también puede recibir en la unidad de procesamiento (5) un dato de glucosa (14) desde un sensor de glucosa (9).
Ventajosamente, el dato de tiempo (16) permitiría conocer “en vivo” o en un instante de tiempo de alta precisión, el nivel de glucosa presente en la sangre del usuario (21), lo que podría utilizarse para alertar al usuario (21) de cambios en los niveles de glucosa en sangre.
En la modalidad preferida de la invención, en la etapa c) el dispositivo de monitoreo de alimentos (20) también puede recibir en la unidad de procesamiento (5) un dato de presión (18) desde un sensor de presión (10). El dato de presión (18) puede utilizarse para ajustar o calibrar el dato de glucosa (14).
En otra modalidad, en la etapa c) la unidad de procesamiento (5) puede recibir un dato de geolocalización (38) desde un módulo de posicionamiento (37). El dato de geolocalización (38) puede aportar información de la localización del dispositivo de monitoreo de alimentos (20) y del usuario (21).
En una modalidad, en la etapa c) la unidad de procesamiento (5) puede recibir un dato de profundidad (41) desde un sensor de profundidad (32), y el dato de profundidad (41) puede mejorar la precisión de la cuantificación de los alimentos y /o bebidas que ingiere el usuario (21) ya que permite calcular con mayor precisión la cantidad de alimento contenida o representada en la imagen (13).
También, haciendo referencia a las FIG. 4, el método puede comprender una etapa d) de ejecutar por medio de la unidad de procesamiento (5) un proceso de análisis de datos (22) que puede comprender una subetapa i) de almacenar la imagen (13) en una base de datos (26). La base de datos (26) puede encontrarse almacenada en un módulo de memoria (25) o en un servidor extemo. En cualquier otra modalidad de la invención, el dato de tiempo (16), el dato de glucosa (14), el dato de presión (18), el dato de geolocalización (38) y el dato de profundidad (41) también pueden ser almacenados en la base de datos (26) y usarse para mejorar el factor de ajuste (28) y el análisis de probabilidad (30).
Además, se entenderá en la presente divulgación que la base de datos (26) puede ser una recopilación organizada de información o datos estructurados y en la que se puedan almacenar datos de diferentes tipos, lenguajes o categorías, por ejemplo, tablas, archivos de intercambio de datos, imágenes, videos, archivos de audio, entre otros. La base de datos (26) puede escogerse entre Bases de datos relaciónales, Bases de datos orientadas a objetos, Bases de datos distribuidas, Almacenes de datos, Bases de datos NoSQL, Bases de datos orientadas a grafos, Bases de datos OLTP, Bases de datos de código abierto, Bases de datos en la nube, Bases de datos multimodelo, Bases de datos de documentos/JSON, Bases de datos de autogestión, Data Lakes y /o combinaciones de las anteriores.
Además, haciendo referencia a las LIG. 4, la etapa d) puede comprender una subetapa ii) de generar un dato de alimento (27) aplicando un algoritmo de reconocimiento de objetos (8) que toma como entrada la imagen (13), el dato de tiempo (16) y una pluralidad de datos de alimentación (33) almacenada en un módulo de memoria (25). El algoritmo de reconocimiento de objetos (8) se puede basar en redes neuronales convolucionales.
También, se entenderá en la presente divulgación que el dato de alimento (27) puede ser una representación simbólica, por ejemplo, numérica, alfabética, algorítmica o espacial.
Por otro lado, se entenderá en la presente divulgación que la pluralidad de datos de alimentación (33) puede ser información de diferentes tipos de alimentos y bebidas, que además puede incluir información nutricional, como por ejemplo calorías, nutrientes, vitaminas, porcentaje de consumo diario recomendado, entre otros.
Por otro lado, el algoritmo de reconocimiento de objetos (8) puede ser un conjunto ordenado de operaciones sistemáticas que permita realizar análisis y cálculos con el propósito de identificar objetos contenidos en la imagen (13). Un ejemplo de esto puede ser la identificación y etiquetado de una porción de fruta o de un vaso con café capturados en la imagen (13). El etiquetado de los objetos puede incluir además un valor estimado de porciones y calorías de alimento identificado en la imagen (13).
También, se entenderá en la presente divulgación que las redes neuronales convolucionales es un algoritmo de Deep Learning diseñado para trabajar con imágenes, tomando estas como entradas, que puede asignarle importancias a ciertos elementos en la imagen para así poder diferenciar unos de otros, detectar o categorizar objetos, clasificar escenas y /o realizar clasificación de imágenes en general.
Además, el algoritmo de reconocimiento de objetos (8) también puede utilizar técnicas de aprendizaje supervisado, aprendizaje no supervisado, aprendizaje por refuerzo, aprendizaje automático, machine learning y /o combinaciones de los anteriores.
En cualquier modalidad de la invención, en la subetapa ii) para generar el dato de alimento (27), el algoritmo de reconocimiento de objetos (8) también puede tomar como entrada el dato de posición (15), el dato de glucosa (14), el dato de presión (18), el dato de geolocalización (38), el dato de temperatura (40), el dato de tiempo (16) y /o el dato de profundidad (41).
Asimismo, haciendo referencia a las FIG. 4, la etapa d) puede comprender una subetapa iii) de generar un dato de factor de ajuste (28) aplicando un proceso de análisis de probabilidad (30) que toma como entrada el dato de alimento (27), un perfil de usuario (29) almacenado en la base de datos (26) y el dato de tiempo (16).
Se entenderá en la presente divulgación que un dato de factor de ajuste (28) puede ser un dato numérico, por ejemplo, expresado en unidades de porcentaje o unidades decimales.
También, se entenderá en la presente divulgación que el proceso de análisis de probabilidad (30) puede corresponder a un proceso de recopilación, clasificación, análisis e interpretación de datos. Además, el algoritmo de reconocimiento de objetos (8) puede generar una lista de probables etiquetas para un determinado objeto o alimento presente en la imagen (13). El análisis de probabilidad (30) y el factor de ajuste (28) pueden ser utilizados para priorizar la etiqueta más probable dentro de una lista de probables etiquetas, esto al tener información contextual del momento de la captura de la imagen (13). Es bien sabido que la geolocalización (38), la temperatura (40), el tiempo (16), la cantidad de alimento derivada del dato de profundidad (41), la cantidad de movimiento derivada del dato de posición (15), el impacto de los alimentos en el nivel de glucosa en sangre del usuario (21) a partir del dato de presión (18) y el dato de glucosa (14), preferencias y/o restricciones alimentarias obtenidas del perfil de usuario (29) pueden influenciar la selección y el consumo de alimentos del usuario (21).
Asimismo, se entenderá en la presente divulgación que el perfil de usuario (29) puede ser un conjunto de datos particulares que caracterizan al usuario (21). El perfil de usuario (29) puede incluir, por ejemplo, información relacionada a una dieta, hábitos nutricionales y objetivos nutricionales del usuario (21). En otro ejemplo, el perfil de usuario (29) puede incluir información del consumo de macronutrientes y porciones en platos, grupos de alimentos consumidos, cantidad de azúcares, cantidad de grasas saturadas, distribución horaria de los alimentos y diversidad de grupos de alimentos particulares del usuario (21).
Nuevamente haciendo referencia a las FIG. 4, la etapa d) puede comprender una subetapa iv) de generar un reporte (7) al usuario (21) con base en el dato de alimento (27), el perfil de usuario (29) y el dato de factor de ajuste (28).
En cualquier modalidad de la invención, en la subetapa iv) el reporte (7) también puede incluir información del dato de glucosa (14), el dato de presión (18), el dato de geolocalización (38) y/o el dato de temperatura (40).
Por otro lado, deberá entenderse en la presente divulgación que el dato de posición (15), el dato de tiempo (16), el dato de glucosa (14), el dato de ingesta de alimentos (17), el dato de alimento (27), el dato de geolocalización (38), el dato de temperatura (40), el dato de profundidad (41) y el dato de factor de ajuste (28) pueden almacenarse en el módulo de memoria (25) en forma de estructuras de datos como tablas, registros, bloques de información, bloques de índices, archivos CSV, archivos XLS, XLSX, hojas de cálculo o una base de datos. Adicionalmente, los datos anteriormente mencionados pueden ser almacenados en forma de matrices multidimensionales de n filas por m columnas, tensores, vectores, vectores asociativos, uniones, conjuntos, multiconjuntos, grafos, árboles, clases y /o cualquier otra estructura de datos similar o equivalente que pueda ser conocida por una persona medianamente versada en la materia.
EJEMPLOS
Ejemplo 1:
Haciendo referencia a la FIG. 5, puede utilizarse una modalidad del método de la presente divulgación, así como también una modalidad del dispositivo de monitoreo de alimentos (20) para obtener información de la ingesta de alimentos que realiza una persona de la tercera edad que corresponde al usuario (21).
En una primera etapa, cuando es la hora del almuerzo de la persona de la tercera edad, es decir, el usuario (21), la persona de la tercera edad inicia la ingesta de sus alimentos, en ese momento un micrófono del dispositivo de monitoreo de alimentos (20) se encuentra activo debido a que un acelerómetro de 3 ejes ha capturado un dato de posición (15) que luego de ser procesado en la unidad de procesamiento (5) indica que el dispositivo de monitoreo de alimentos (20) se encuentra ubicado en la posición correcta. El micrófono, que se encuentra activo, detecta sonidos relacionados a la acción de comer por parte de la persona de la tercera edad, en este ejemplo, el micrófono corresponde al transductor de ondas mecánicas (11) y el acelerómetro al sensor de posición (3).
La unidad de procesamiento (5) del dispositivo de monitoreo de alimentos (20) determina por medio del micrófono que la persona se encuentra comiendo, y envía un mensaje de activación a una cámara del dispositivo de monitoreo de alimentos (20). La cámara correspondería al sensor de imagen (2). Posteriormente a la activación de la cámara, esta última captura una sene de imágenes de la comida que se encuentra inginendo la persona de la tercera edad. Al momento que la cámara realiza cada captura de imagen, la unidad de procesamiento (5) obtiene la hora y fecha de captura de dicha imagen, tales datos son obtenidos por medio de un reloj RTC. La fecha y hora de captura de la imagen conesponden al dato de tiempo (16) y el reloj RTC conesponde al reloj en tiempo real (4).
Una vez que la unidad de procesamiento (5) recibe las imágenes capturadas por la cámara, la unidad de procesamiento (5) inicia un análisis de las imágenes para identificar los alimentos que fueron capturados en las imágenes, y almacena temporalmente dichas imágenes en una memoria o módulo de memoria (25). Para poder realizar la identificación de alimentos, la unidad de procesamiento (5) utiliza un algoritmo de reconocimiento de objetos (8) y dicho algoritmo utiliza las imágenes, la hora de captura de imágenes y cierta información almacenada en el módulo de memoria (25), que se asocia a datos de entrenamiento del algoritmo de reconocimiento de objetos (8). Los datos anteriormente mencionados permiten obtener una aproximación de cuáles son los alimentos que se encuentra consumiendo la persona de la tercera edad.
Para mejorar la aproximación en la identificación de los alimentos que ingiere la persona, se ejecuta un proceso de análisis de probabilidad (30), dicho proceso también es ejecutado por la unidad de procesamiento (5) y con ello se obtiene un factor de ajuste para cada alimento que es identificado en las imágenes, con lo cual se mejora la identificación de los alimentos. Debido a que la persona de la tercera edad previamente había indicado que su estilo de alimentación era vegetariano, debe considerarse esta información en el proceso de identificación de alimentos, así como también debe considerarse la hora de la ingesta de los alimentos al momento de realizar el proceso de análisis de probabilidad (30), la ubicación geográfica de la persona de la tercera edad, la temperatura ambiente y la época del año en la cual se captura la información. La información relacionada a la dieta de la persona de la tercera edad corresponde al perfil de usuario (29) y cuyo perfil puede estar almacenado en el módulo de memoria (25). Finalmente, la unidad de procesamiento (5) actualiza el diario nutncional digital de la persona de la tercera edad y realiza una valoración nutritonal a partir de información previamente almacenada en el módulo de memoria (25). Luego de que se ha realizado todo el análisis anterior, y particularmente en el presente ejemplo, se determina que la persona de la tercera edad se encuentra consumiendo alimentos que no son recomendados para lograr sus objetivos nutrí cionales, se genera un reporte (7) a la persona de la tercera edad y a su cuidador o profesional de la salud tratante que incluye el diario nutritional, la valoración nutritional y recomendaciones para cambiar su estilo de vida para bien.
Ejemplo 2:
Haciendo referencia a la FIG. 5, puede utilizarse una modalidad del método de la presente divulgación, así como también una modalidad del dispositivo de monitoreo de alimentos (20) para obtener información de la ingesta de alimentos que realiza un deportista que corresponde al usuario (21).
En una primera etapa, cuando el deportista, es decir, el usuario (21), finaliza su entrenamiento y decide tomar una ración de alimento para recuperarse, el dispositivo de monitoreo de alimentos (20) se encuentra activo debido a que un acelerómetro de 3 ejes ha capturado un dato de posición (15) que luego de ser procesado en la unidad de procesamiento (5) indica que el dispositivo de monitoreo de alimentos (20) se encuentra ubicado en la posición correcta.
La unidad de procesamiento (5) del dispositivo de monitoreo de alimentos (20) al detectar que no tiene un micrófono activo, envía un mensaje de activación a una cámara del dispositivo de monitoreo de alimentos (20) para que capture una serie de imágenes cada 3 minutos. La cámara correspondería al sensor de imagen (2).
Al momento que la cámara realiza cada captura de imagen, la unidad de procesamiento (5) obtiene la hora y fecha de captura de dicha imagen, tales datos son obtenidos por medio de un reloj RTC. La fecha y hora de captura de la imagen corresponden al dato de tiempo (16) y el reloj RTC corresponde al reloj en tiempo real (4). Una vez que la unidad de procesamiento (5) recibe las imágenes capturadas por la cámara, la unidad de procesamiento (5) inicia un análisis de las imágenes para identificar la presencia de alimentos en las imágenes capturadas, y almacena temporalmente dichas imágenes en una memoria o módulo de memoria (25). Para poder realizar la identificación de alimentos, la unidad de procesamiento (5) utiliza un algoritmo de reconocimiento de objetos (8) y dicho algoritmo utiliza las imágenes, la hora de captura de imágenes y cierta información almacenada en el módulo de memoria (25), que se asocia a datos de entrenamiento del algoritmo de reconocimiento de objetos (8). Los datos anteriormente mencionados permiten obtener una aproximación de cuáles son los alimentos que se encuentra consumiendo el deportista.
Para mejorar la aproximación en la identificación de los alimentos que ingiere la persona, se ejecuta un proceso de análisis de probabilidad (30), dicho proceso también es ejecutado por la unidad de procesamiento (5) y con ello se obtiene un factor de ajuste para cada alimento que es identificado en las imágenes, con lo cual se mejora la identificación de los alimentos. Debido a que el deportista previamente había indicado que su estilo de alimentación corresponde a un perfil de alto rendimiento que incluye el consumo de muchas proteínas, debe considerarse esta información en el proceso de identificación de alimentos, así como también debe considerarse la hora de la ingesta de los alimentos al momento de realizar el proceso de análisis de probabilidad (30), la ubicación geográfica del deportista, la temperatura ambiente y la época del año en la que se captura la información. La información relacionada a la dieta del deportista corresponde al perfil de usuario (29) y cuyo perfil puede estar almacenado en el módulo de memoria (25).
Finalmente, la unidad de procesamiento (5) actualiza el diario nutri onal digital del deportista y realiza una valoración nutritional a partir de información previamente almacenada en el módulo de memoria (25). Luego de que se ha realizado todo el análisis anterior, y particularmente en el presente ejemplo, se determina que el deportista se encuentra consumiendo alimentos que no son recomendados para lograr sus objetivos nutricionales de mejorar su rendimiento deportivo, se genera un reporte (7) al deportista, a su nutricionista y a su entrenador que incluye el diario nutricional, la valoración nutritonal y recomendaciones para mejorar su rendimiento deportivo.
Se debe entender que la presente invención no se halla limitada a las modalidades descritas e ilustradas, ni limitadas a dispositivos y métodos para la formación de encapsulados pues como será evidente para una persona versada en el arte, existen variaciones y modificaciones posibles que no se apartan del espíritu de la invención, el cual solo se encuentra definido por las siguientes reivindicaciones.

Claims

REIVINDICACIONES
1. Un dispositivo de monitoreo de alimentos (20) que ingiere un usuario (21), que comprende: un sensor de imagen (2) configurado para capturar al menos una imagen (13) de la ingesta de alimentos que realiza el usuario (21); un sensor de posición (3) configurado para obtener un dato de posición (15) del dispositivo de monitoreo de alimentos (20); un reloj en tiempo real (4) configurado para generar una base de tiempo real; una unidad de procesamiento (5) conectada al sensor de imagen (2), al sensor de posición (3) y al reloj en tiempo real (4), y donde el sensor de imagen (2) captura al menos la imagen (13) de los alimentos que ingiere el usuario (21) de acuerdo a una orden (6) de la unidad de procesamiento (5) y donde la unidad de procesamiento (5) genera un reporte (7) en el que se registra la ingesta de alimentos con base a la imagen (13) capturada por el sensor de imagen (2).
2. El dispositivo de la Reivindicación 1, donde la unidad de procesamiento (5) activa o desactiva el sensor de imagen (2) cuando hay un cambio en el dato de posición (15) obtenido por el sensor de posición (3), donde el dato de posición (15) se genera cada vez que el dispositivo de monitoreo de alimentos (20) cambia de orientación con respecto a una posición de referencia.
3. El dispositivo de la Reivindicación 1, donde el sensor de imagen (2) se selecciona del grupo conformado por sensores CCD, sensores CMOS, celdas fotoeléctricas, cámaras fotográficas, cámaras de video, sensores de imagen infrarrojos y /o combinaciones de los anteriores.
4. El dispositivo de la Reivindicación 1, donde el sensor de posición (3) se selecciona del grupo conformado por giroscopios, girocompases, acelerómetros, magnetómetros y combinaciones de los mismos.
5. El dispositivo de la Reivindicación 1, en donde la unidad de procesamiento (5) se conecta a un sensor de glucosa (9) configurado para obtener un dato de glucosa (14) que corresponde al nivel de glucosa del usuario (21).
6. El dispositivo de la Reivindicación 1, en donde la unidad de procesamiento (5) se conecta a un sensor de presión (10) configurado para obtener un dato de presión (18), donde dicho dato de presión (18) es un valor de referencia que ajusta el dato de glucosa (14).
7. El dispositivo de la Reivindicación 1, en donde la unidad de procesamiento (5) se conecta a un módulo de calefacción (12).
8. El dispositivo de la Reivindicación 1, en donde la unidad de procesamiento (5) se conecta a un transductor de ondas mecánicas (11) configurado para obtener un dato de ingesta de alimentos (17) del usuario (21) cuando se generan sonidos relacionados a la ingesta de alimentos del usuario (21).
9. El dispositivo de la Reivindicación 1, donde el transductor de ondas mecánicas (11) activa o desactiva el sensor de imagen (2) por medio de la unidad de procesamiento (5) con base en el dato de ingesta de alimentos (17) obtenido por el transductor de ondas mecánicas (11).
10. Un método ejecutado por un dispositivo de monitoreo de alimentos (20) que ingiere un usuario (21), que comprende las etapas de: a) enviar una orden (6) a un sensor de imagen (2) por medio de una unidad de procesamiento (5), donde el sensor de imagen (2) se activa con base a la orden (6); b) capturar al menos una imagen (13) por medio del sensor de imagen (2) y enviar dicha imagen (13) a la unidad de procesamiento (5); c) recibir en la unidad de procesamiento (5) un dato de tiempo (16) desde un reloj en tiempo real (4), donde el dato de tiempo (16) corresponde a la hora de captura en tiempo real de la imagen (13); d) ejecutar por medio de la unidad de procesamiento (5) un proceso de análisis de datos (22) que comprende las subetapas de: i) almacenar la imagen (13) en una base de datos (26), donde la base de datos (26) se encuentra almacenada en un módulo de memoria (25); ii) generar un dato de alimento (27) aplicando un algoritmo de reconocimiento de objetos (8) que toma como entrada la imagen (13), el dato de tiempo (16) y una pluralidad de datos de alimentación (33) almacenada en el módulo de memoria (25), donde el algoritmo de reconocimiento de objetos (8) se basa en redes neuronales convolucionales; iii) generar un dato de factor ajuste (28) aplicando un proceso de análisis de probabilidad (30) que toma como entrada el dato de alimento (27), un perfd de usuario (29) almacenado en la base de datos (26) y el dato de tiempo (16); y iv) generar un reporte (7) al usuario (21) con base en el dato de alimento (27), el perfil de usuario (29) y el dato de factor de ajuste (28).
PCT/IB2022/060805 2021-11-10 2022-11-09 Dispositivo de monitoreo nutricional WO2023084424A1 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CONC2021/0015189 2021-11-10
CONC2021/0015189A CO2021015189A1 (es) 2021-11-10 2021-11-10 Dispositivo y método de monitoreo nutricional

Publications (1)

Publication Number Publication Date
WO2023084424A1 true WO2023084424A1 (es) 2023-05-19

Family

ID=86325449

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2022/060805 WO2023084424A1 (es) 2021-11-10 2022-11-09 Dispositivo de monitoreo nutricional

Country Status (2)

Country Link
CO (1) CO2021015189A1 (es)
WO (1) WO2023084424A1 (es)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140172313A1 (en) * 2012-09-27 2014-06-19 Gary Rayner Health, lifestyle and fitness management system
WO2016071899A1 (en) * 2014-11-06 2016-05-12 Raz Carmi Device and method for monitoring food intake
US20160350514A1 (en) * 2013-12-06 2016-12-01 Samsung Electronics Co., Ltd. Method and system for capturing food consumption information of a user
US20200152312A1 (en) * 2012-06-14 2020-05-14 Medibotics Llc Systems for Nutritional Monitoring and Management
US10980477B2 (en) * 2017-07-13 2021-04-20 Samsung Electronics Co., Ltd. Electronic device and method for providing digestibility on eaten food

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200152312A1 (en) * 2012-06-14 2020-05-14 Medibotics Llc Systems for Nutritional Monitoring and Management
US20140172313A1 (en) * 2012-09-27 2014-06-19 Gary Rayner Health, lifestyle and fitness management system
US20160350514A1 (en) * 2013-12-06 2016-12-01 Samsung Electronics Co., Ltd. Method and system for capturing food consumption information of a user
WO2016071899A1 (en) * 2014-11-06 2016-05-12 Raz Carmi Device and method for monitoring food intake
US10980477B2 (en) * 2017-07-13 2021-04-20 Samsung Electronics Co., Ltd. Electronic device and method for providing digestibility on eaten food

Also Published As

Publication number Publication date
CO2021015189A1 (es) 2023-05-19

Similar Documents

Publication Publication Date Title
US11929167B2 (en) Method and apparatus for tracking of food intake and other behaviors and providing relevant feedback
Wan et al. Wearable IoT enabled real-time health monitoring system
US10838675B2 (en) Motion-activated display of messages on an activity monitoring device
US11728024B2 (en) Method and apparatus for tracking of food intake and other behaviors and providing relevant feedback
US20220117547A1 (en) Presenting Health Related Messages to Users of an Activity/Health Monitoring Platform
CN108475326B (zh) 用于提供与图像关联的服务的方法、存储介质和电子设备
US20230343432A1 (en) Intelligent monitoring, interactive, and wireless internet connected medication adherence, analytics, and database solution
EP3343399B1 (en) Device and method for processing metadata
CN104247383B (zh) 用于操作电子装置中的显示器的方法和设备
US20170270765A1 (en) Notifications on a user device based on activity detected by an activity monitoring device
KR102359359B1 (ko) 사용자 단말 장치 및 그 제어 방법
US9847012B2 (en) Meal-based medication reminder system
US20160078061A1 (en) Long-Term Data Storage Service for Wearable Device Data
CA3040972A1 (en) Sickness prediction application system
CN109256191A (zh) 用于提供所摄入食物的消化率信息的电子装置和方法
WO2023084424A1 (es) Dispositivo de monitoreo nutricional
CN104887189A (zh) 一种基于医嘱的体征监测提示反馈方法
US11768598B2 (en) Device having a display and control method for obtaining output layout of information on the display
Mohanty APPLICATION-SPECIFIC THINGS ARCHITECTURES FOR IOT-BASED

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22892237

Country of ref document: EP

Kind code of ref document: A1