CN110223272A - 身体成像 - Google Patents
身体成像 Download PDFInfo
- Publication number
- CN110223272A CN110223272A CN201910393173.7A CN201910393173A CN110223272A CN 110223272 A CN110223272 A CN 110223272A CN 201910393173 A CN201910393173 A CN 201910393173A CN 110223272 A CN110223272 A CN 110223272A
- Authority
- CN
- China
- Prior art keywords
- user
- image
- presentation
- bone
- program guide
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 34
- 238000012545 processing Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims description 95
- 210000000988 bone and bone Anatomy 0.000 claims description 78
- 230000000007 visual effect Effects 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 27
- 238000005259 measurement Methods 0.000 claims description 21
- 230000011218 segmentation Effects 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 20
- 238000010801 machine learning Methods 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 18
- 238000012986 modification Methods 0.000 claims description 18
- 230000004048 modification Effects 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 14
- 238000004458 analytical method Methods 0.000 claims description 12
- 238000012544 monitoring process Methods 0.000 claims description 12
- 238000007689 inspection Methods 0.000 claims description 11
- 230000037237 body shape Effects 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 8
- 230000001133 acceleration Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 230000010354 integration Effects 0.000 claims description 5
- 230000008450 motivation Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 34
- 238000004891 communication Methods 0.000 description 30
- 238000006467 substitution reaction Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 12
- 238000009547 dual-energy X-ray absorptiometry Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 230000003993 interaction Effects 0.000 description 7
- 206010033307 Overweight Diseases 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000036541 health Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000004584 weight gain Effects 0.000 description 5
- 235000019786 weight gain Nutrition 0.000 description 5
- 230000004580 weight loss Effects 0.000 description 5
- JBQRDRKWCBEQKP-UHFFFAOYSA-N 2-amino-5-iodo-6-phenyl-1h-pyrimidin-4-one Chemical compound N1C(N)=NC(=O)C(I)=C1C1=CC=CC=C1 JBQRDRKWCBEQKP-UHFFFAOYSA-N 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 210000000214 mouth Anatomy 0.000 description 4
- 208000008589 Obesity Diseases 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 235000020824 obesity Nutrition 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013479 data entry Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 206010012601 diabetes mellitus Diseases 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 230000008821 health effect Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 235000016709 nutrition Nutrition 0.000 description 2
- 230000035764 nutrition Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000000528 statistical test Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000005303 weighing Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 229910002056 binary alloy Inorganic materials 0.000 description 1
- 210000002805 bone matrix Anatomy 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 235000019577 caloric intake Nutrition 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000002224 dissection Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000007407 health benefit Effects 0.000 description 1
- 230000037219 healthy weight Effects 0.000 description 1
- 238000001093 holography Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000000491 multivariate analysis Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000010415 tropism Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1072—Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/744—Displaying an avatar, e.g. an animated cartoon character
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0062—Arrangements for scanning
- A61B5/0064—Body surface scanning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0075—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1073—Measuring volume, e.g. of limbs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1079—Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6888—Cabins
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6889—Rooms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6898—Portable consumer electronic devices, e.g. music players, telephones, tablet computers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/162—Segmentation; Edge detection involving graph-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/028—Microscale sensors, e.g. electromechanical sensors [MEMS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- General Engineering & Computer Science (AREA)
- Physiology (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Databases & Information Systems (AREA)
- Rheumatology (AREA)
- Physical Education & Sports Medicine (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Probability & Statistics with Applications (AREA)
Abstract
在一个方面,公开了用于身体成像的装置。在一种布置中,所述装置包括:控制器;存储用于控制所述控制器的电子程序指令的存储器;用于显示用户界面的显示器;和输入装置。在一种形式中,所述控制器在所述电子程序指令的控制下可操作以:经由所述输入装置接收输入,所述输入包括身体的第一表象;处理所述第一表象;基于所述第一表象的处理产生所述身体的第二表象;和通过所述显示器显示所述产生的第二表象。
Description
本申请是申请日为2015年12月4日、申请号为201580066271.X、发明名称为身体成像的专利申请的分案申请。
技术领域
本发明总体上涉及身体成像。
尽管将特别参照人体成像以便于实现包括个人健身目标的目的来描述本发明,将理解其也可以用于其他事物的身体和用于额外和/或替代目的。
背景技术
人类肥胖已被确定为全球流行病。根据世界卫生组织2008的出版物:全球疾病负担研究2013,The Lancet,分类为超重的人数从1980年的8.57亿人增加到2013年的21亿人,到2030年,预测有40亿人会超重。
这有经济成本。例如,在英国,估计2007年有42%的男性和32%的女性超重,估计经济成本为260亿美元,在美国,估计2010年有74%的男性和64%的女性超重,估计经济成本为1470亿美元,在澳大利亚,估计2012年有42%的男性和28%的女性超重,估计经济成本为530亿美元。[National Health and Medical Research Council(NHMRC),AustralianHeart Foundation;Centre for Disease Control(CDC);National Health andNutrition Examination Survey(NHANES);The Health and Social Care InformationCentre(HSCIC)]。
此外,已经报道:超过一半的澳大利亚人(55.7%)和美国人(51%)正尝试减肥;在健康体重范围的45%女性和23%男性认为他们是超重的;约91%女性对她们的身体不满意;且肥胖的增加主要在20-40岁发生。[Jeffery RW,Sherwood NE,Brelje K,et al.Mailand phone interventions for weight loss in a managed-care setting:Weigh-To-Beone-year outcomes.Int J Obes Related Metab Disord.2003;27(12):1584-1592;LindeJA,Jeffery RW,French SA,Pronk NP,Boyle RG.Self-weighing in weight gainprevention and weight loss trials.Ann Behav Med.2005;30(3):210-216;Butryn ML,Phelan S,Hill JO,Wing RR.Consistent self-monitoring of weight:a key componentof successful weight loss maintenance.Obesity.2007;15(12):3091-3096;TheTechnology Boom:A New Era in Obesity Management.Gilmore,Duhé,Frost,Redman.JDiabetes Sci Technol.2014 Feb 27;8(3):596-608]。
鉴于这些统计数据,毫不意外很多人有减肥、增重或维持/监测体重,和/或改善他们的身材大小或形状的个人健身目标。
研究反复表明,频繁的自我监测,例如称重和/或测量围度在实现减肥或增重以及其他健身目标方面起重要作用(如果不是关键作用)。
目前,监测体重的方法包括:
·使用称重秤(即用于确定物体的重量或质量的测量仪器)。这种技术具有廉价和快速的优点,但是不能指示体形变化。
·使用卷尺。虽然廉价,但这种技术容易出现用户错误,不切实际和耗时。
·使用双能X射线吸收测定法(DXA或DEXA)。该技术有助于精确测量身体组成,但是具有不提供体周/围度测量、昂贵并且耗时的缺点。此外,它可能有相关的健康影响。在这方面,虽然在技术中使用的辐射量通常非常小,低于标准胸部x射线的剂量的十分之一,且少于一天在自然辐射下的暴露,为了临床和商业用途,有建议因为健康影响,个人每年应只能扫描两次。
·使用三维(3D)身体扫描仪和映射器,例如以商标Image Twin TM和mPortTM提供的那些。虽然Image TwinTM系统允许创建身体的精确3D化身表象,它是昂贵的,且需要使用通常位于实验室的专门设备。mPortTM系统允许创建身体的精确3D化身表象,并提供围度测量。然而,它也是昂贵的,且需要在规定位置使用专门设备,并且仅提供重量变化的图形数据。
·使用虚拟减肥模拟器,如以商标Model My DietTM、Change in SecondsTM和Virtual Weight Loss Model LiteTM提供的模拟器。这些系统通常允许生成身体“之前”和“之后”的卡通化身表象。它们只能作为在计算机上运行的可执行文件,例如桌面,且只使用基本的人体测量数据提供基本评估。
·使用虚拟产品模拟器,如以OptitexTM商标所提供的模拟器。OptitexTM系统允许生成身体的单一卡通化身表象。它只能作为在计算机上运行的可执行文件提供,且只使用基本的人体测量数据提供基本评估。
·使用照片,例如以商标Good HousekeepingTM提供的照片。Good HousekeepingTM系统是基于照片的,但仅允许在二维(2D)空间中简单缩小和放大上传的照片,这是图像处理/加工软件(例如photoshop)中使用的基本类型的图像变形方法。
一项研究(在J Diabetes Sci Technol.2013 Jul 1;7(4):1057-65中发表。Usingavatars to model weight loss behaviors:participant attitudes and technologydevelopment)显示对基于化身的程序非常感兴趣,具有表示承诺的形成性工作。鉴于与体内曝光和实践相关的高成本,该项研究表明基于化身的技术用作建模减肥行为的工具的潜力。
针对以上背景开发了本发明。
发明简述
本发明的一个目的是克服,或至少改善一个或多个以上提及的现有技术的缺陷,或为消费者提供有用或经济的选择。
通过以下结合附图的描述,本发明的其它目的和优点将变得显而易见,其中通过说明和示例的方式公开了本发明的优选实施方案。
根据本发明的一个广泛的方面,提供用于身体成像的装置,所述装置包括:
控制器;
存储用于控制所述控制器的电子程序指令的存储器;
用于显示用户界面的显示器;和
输入装置;
其中所述控制器在所述电子程序指令的控制下可操作以:
经由所述输入装置接收输入,所述输入包括所述身体的分类和所述身体的第一表象(representation);
处理给予所述身体分类的所述第一表象;
基于所述第一表象的处理产生所述身体的第二表象;和
通过显示器显示所述产生的第二表象。
根据本发明的第一个广泛的方面,提供用于身体成像的装置,所述装置包括:
控制器;
存储用于控制所述控制器的电子程序指令的存储器;
用于显示用户界面的显示器;和
输入装置;
其中所述控制器在所述电子程序指令的控制下可操作以:
经由所述输入装置接收输入,所述输入包括所述身体的第一表象;
通过显示器显示所述第一表象;
产生一旦接收到输入就会出现在显示器上的用户特定的骨骼;
使用户能够将第一表象中的身体与用户特定的骨骼对齐;
当身体已经与用户特定的骨骼对齐时,通过分割身体的所述第一表象处理所述第一表象;
基于所述第一表象的处理产生所述身体的第二表象;和
通过显示器显示所述产生的第二表象。
在一个实施方案中,控制器在所述电子程序指令的控制下可操作以:通过分割身体的所述第一表象处理身体的所述第一表象以获得多个剪影(silhouettes),并基于所述剪影产生所述身体的第二表象,所述剪影以身体基本上真正的三维扫描的投影阴影的简单形式表示。
在一个实施方案中,剪影可以包括例如投影和人体运动基础。
在另一个实施方案中,所述控制器在所述电子程序指令的控制下可操作以:通过分割身体的所述第一表象处理身体的所述第一表象以获得多个剪影,所述剪影以身体基本上真正的三维扫描的投影阴影的简单形式表示;和基于所述剪影和使用智能机器学习技术离线学习的大量已知人类形状产生所述身体的所述第二表象。
有利地,控制器还在所述电子程序指令的控制下可操作以:
通过可听见的声音、话语或语音指导用户将身体的一部分与所显示的用户特定的骨骼对齐,其中电子程序指令可操作以通过包括从生成的骨骼和身体的一个或多个实时捕获图像提取的形状特征、姿势特征和时空特征的特性之间计算的误差来控制对齐过程。
优选地,控制器还在所述电子程序指令的控制下可操作以:
基于提交的用户身高信息、图像尺寸(以像素表示的图像高度和宽度),使用二进制图像的斑点分析、投影理论和相机模型,计算以下:
捕获传感器或相机的固有参数和外部参数的初始估计,其中包括每个图像中的相机位置和方位,定义为姿势P;和
代表身体骨骼的骨骼模型的关节运动学的初步估计,定义为JK,包括骨骼模型的每个关节的3D位置和3D方位。
在该实施方案中,控制器也在所述电子程序指令的控制下可操作以:
基于提交的用户身高和体重信息,或仅用户身高信息,预测初始平均化身,定义为Av,其一般随用户输入的身高、体重或其他身体测量(如果已知)而变化;和
将平均化身Av装入尺寸为N关节的参考骨骼,所述参考骨骼具有参考姿势的已知的骨骼模型JK,以及定义为W的骨重量/热矩阵。
优选地,矩阵W仅在人体形态的离线机器学习过程中离线计算一次,然后与待用于预测或产生之前没有学习过的其他化身或人体形态的参考骨骼模型JK一起保存,其中W用于限制、控制和建模关节、骨和真实的3D化身表面或包括人皮肤上发生的天然变形的3D拓扑之间的关系。表面或3D拓扑可以由其顶点V、边E和面F来唯一地建模和表示。
有利地,预测初始平均化身Av的过程遵循基于多变量的机器学习方法。优选地,基于多变量的机器学习方法包括使用独特和显著的3D特征的人造3D模型的离线学习,所述3D特征提取自不同年龄、种族和不同身体姿势的真实人类(男性和女性)的多次操纵和渲染的三维扫描。通常,基于多变量的机器学习方法进一步包括不同身体测量之间的各种统计学关系,其定义为具有L数量的不同测量的向量M=(m1,m2,…,mL),其中在使用中,给出一个或多个不同测量值可以预测一个或多个测量值,且给出一个或多个这些测量值可以预测平均化身Av。
优选地,为了使化身变形或简单地将化身动画化为新化身(定义为身体的Av1,如新的第一表象所示),将参考或平均化身数据(V、E、F、JK、W)和已知的或新的第一表象的用户关节运动学的估计(定义为JK1)反馈到定义为£的成本函数,该成本函数将Av优化并变形至Av1,其受到已知或从自然人体运动所了解的许多物理约束,其中在使用中,可以将新的动画化身Av1(为简单起见,假定它具有与平均化身Av相同的身体测量值)建模为参考或平均化身数据的非线性函数,即Av1=f(Av、W、JK、JK1)。通常,成本函数£的实施来自合并两个或多个加权能量最小化函数:
使用V、F和E的拉普拉斯平坦度矩阵的表面平滑度函数;和
使用V、F和E以确保对应关系限制在化身顶点与其骨骼结构之间的骨骼附着函数。
优选地,为产生真实身体的3D表象(3D化身),使用自适应非线性优化来匹配和比较Av1的一个或多个表象和一个或多个剪影或其表象。该过程将调整Av1数据的初始估计和包括M、JK的测量值,直到达到匹配。
在进一步的实施方案中,输入包括身体分类,且控制器在所述电子程序指令的控制下可操作以:基于身体分类,获得与身体分类对应的数据;通过比较第一表象和所得数据处理所述第一表象;和基于所述比较产生身体的第二表象。
在一个实施方案中,输入包括身体细节。细节可以包括与身体有关的数据和/或信息。
在本发明的实施方案中,可以从一个或多个来源通过一次或多次检索、接收、提取和识别来获得数据。在一个实施方案中,所得数据包括至少一种:模板;身体的先前表象,其中身体分类可包括身体识别;和所述身体和/或其他身体的一个或多个先前表象的整合、数据或关联。
在一个实施方案中,身体的第一表象包括身体分类。
在一个实施方案中,身体是人体或其一个或多个部分。在这种情况下,可以根据人体测量学将身体分类。在一个实施方案中,装置包括多个模板,各模板具有与其相关的模板数据,包括具有标准平均人体测量学的测量值的人体三维模型。这可以称为平均身体模型。标准平均人体测量学的测量值可以是一个或多个测量值,包括性别、大小(例如人衣服的大小)、体重、身高、年龄和种族群体的变化的测量值。
在一个实施方案中,身体是生物的身体或其一个或多个部分。
在一个实施方案中,身体是非生物的身体或其一个或多个部分。
输入装置可以包括至少一个传感器,其可以是传感系统或一组传感器的一部分。
在一个实施方案中,第一表象包括身体的视觉表象。在这种实施下,至少一种传感器可以包括可操作以捕获身体的视觉表象的成像装置。成像装置可以是数码相机。
一组传感器里的单个传感器可以包括:运动传感器;远红外传感器;深度传感器;三维成像传感器;惯性传感器;微机电(MEMS)传感器;成像装置;加速度传感器;方位传感器;方向传感器;和位置传感器。
在实施方案中,第一表象包括身体的一个或多个视觉表象。在该实施方案中,当提供时,一个或多个传感器可以包括可操作以捕获身体的一个或多个视觉表象的成像装置。此外,一个或多个传感器可以包括可操作以提供方位数据的方位传感器,所述方位数据用于捕获身体的一个或多个视觉表象期间以加快其与平面的对齐,增加精确度。
在一个实施方案中,身体的一个或多个视觉表象包括身体的至少一个正面和至少一个侧面影像。在本发明的实施方案中,所述影像可以包括:标准二维(2D)二进制的灰色或彩色图像;具有或不具有颜色和/或纹理的深度图像;具有或不具有颜色和/或纹理的完整的三维(3D)点云或身体的多个不完整的点云;和/或具有或不具有颜色和/或纹理的身体的三维(3D)网格。
在一个实施方案中,控制器进一步在所述电子程序指令的控制下可操作以:
分割至少一个前景,其包含身体的第一表象的一个或多个视觉表象;
将第一表象的一个或多个视觉表象的一个或多个分割的前景转化为相应的剪影;
用一个或多个分割的前景和它们相应的剪影来进行以下的一种或多种:(i)构建身体外形的3D视觉外壳、(ii)提取特征或(iii)提取关键点的测量值;和
使用一个或多个外壳、特征或关键点的测量值对所选模板的平均身体3D模型进行修改、装入(rig)或变形的一个或多个以产生作为第二表象的修改的受试者特定的3D模型图像。
在一个实施方案中,在具有或不具有颜色和/或纹理的深度图像、点云和网格的情况下,控制器在所述电子程序指令的控制下可操作以重构身体的三维受试者特定的形状。在一个实施方案中,控制器进一步在所述电子程序指令的控制下可操作以删除第一表象的一个或多个视觉表象。
显示器、用户界面和输入装置可以例如整合为触摸屏。或者,它们可以是离散的。
在一个实施方案中,输入包括由用户通过输入装置输入的用户指令。用户指令可以包括进行动作的命令,这种情况下,控制器在所述电子程序指令的控制下可操作以根据接收到的用户指令进行动作。
动作可以包括交互动作,且可以包括以下的一个或多个:选择产生的第二表象的区域或部分以获得其测量值细节。
可以从装置的存储器或从远离装置的存储器检索模板。
在一个实施方案中,一个或多个第一表象、模板和第二表象可以存储在一个或多个数据库中或一个或多个数据库间。
在实施方案中,电子程序指令包括软件。装置可以是移动通信装置,在这种情况下,它可以包括其上安装有软件的智能电话、笔记本/平板电脑/台式计算机、照相机或便携式媒体装置。软件可以作为可下载到装置的软件应用来提供。
优选地,由装置进行的操作自动出现而不需要人为干预。
根据本发明的第二广泛的方面,提供用于身体成像的方法,所述方法包括:
存储用于控制控制器的电子程序指令;和
通过所述电子程序指令控制所述控制器,以:
通过输入装置接收输入,所述输入包括身体的第一表象;
在用户显示器上显示第一表象;
产生一旦接收到输入就会出现在显示器上的用户特定的骨骼;
使用户能够将第一表象中的身体与用户特定的骨骼对齐;
当身体已经与用户特定的骨骼对齐时,通过分割身体的所述第一表象处理所述第一表象;
基于所述第一表象的处理产生所述身体的第二表象。
在一个实施方案中,方法可以进一步包括传送所生成的第二表象。传送可以包括经由显示器显示生成的第二表象。
在一个实施方案中,方法进一步包括经由电子程序指令控制控制器以:通过分割身体的所述第一表象处理所述第一表象以获得多个剪影并基于所述剪影产生所述身体的第二表象,所述剪影以身体基本上真正的三维扫描的投影阴影的简单形式表示。
优选地,使用户能够的步骤包括通过可听见的声音、话语或语音指导用户将身体的一部分与所显示的用户特定的骨骼对齐,其中电子程序指令可操作以通过从生成的骨骼和身体的一个或多个实时捕获图像提取的形状特征、姿势特征、时空特征之间计算的误差来控制对齐过程。
有利地,方法进一步包括经由电子程序指令控制控制器以:
基于提交的用户身高信息、图像尺寸(以像素表示的图像高度和宽度),使用二进制图像的斑点分析、投影理论和相机模型,计算以下:
捕获相机的固有参数和外部参数的初始估计,其中包括每个图像中的相机位置和方位,定义为姿势P;和
代表身体骨骼的骨骼模型的关节运动学的初步估计,定义为JK,包括骨骼模型的每个关节的3D位置和3D方位。
有利地,方法进一步包括经由电子程序指令控制控制器以:
基于提交的用户身高信息、图像尺寸(以像素表示的图像高度和宽度),使用二进制图像的斑点分析、投影理论和相机模型,计算以下:
捕获传感器或相机的固有参数和外部参数的初始估计,其中包括每个图像中的相机位置和方位,定义为姿势P;和
代表身体骨骼的骨骼模型的关节运动学的初步估计,定义为JK,包括骨骼模型的每个关节的3D位置和3D方位。
通常,方法进一步包括经由电子程序指令控制控制器以:
基于提交的用户身高和体重和性别信息,或仅用户身高和性别信息,预测初始平均化身,定义为Av,其一般随用户输入的身高、体重或其他身体测量(如果已知)而变化;和
将平均化身Av装入尺寸为N关节的参考骨骼,所述参考骨骼具有参考姿势的已知的骨骼模型JK,以及定义为W的骨重量/身高矩阵。优选地,矩阵W仅在预测过程的学习过程中离线计算一次,然后与待用于预测或产生其他化身的参考骨架模型JK一起保存,其中W用于限制、控制和建模关节、骨和真实的3D化身表面之间的关系,所述3D化身表面由其顶点V、边E和面F来表示。
通常,方法进一步包括经由电子程序指令控制控制器以:
基于提交的用户身高和体重信息,或仅用户身高信息,预测初始平均化身,定义为Av,其一般随用户输入的身高、体重或其他身体测量(如果已知)而变化;和
将平均化身Av装入尺寸为N关节的参考骨骼,所述参考骨骼具有参考姿势的已知的骨骼模型JK,以及定义为W的骨重量/热矩阵。优选地,矩阵W仅在人体形态的离线机器学习过程中离线计算一次,然后与待用于预测或产生之前没有学习过的其他化身或人形态的参考骨骼模型JK一起保存,其中W用于限制、控制和建模关节、骨和真实的3D化身表面或包括人皮肤上发生的天然变形的3D拓扑之间的关系。表面或3D拓扑可以由其顶点V、边E和面F来唯一地表示。
优选地,预测初始平均化身Av的过程遵循基于多变量的机器学习方法。通常,基于多变量的机器学习方法包括使用独特和显著的3D特征的人造3D模型的离线学习,所述3D特征提取自不同年龄和姿势的真实人类(男性和女性)的多次操纵和渲染的三维扫描。
有利地,基于多变量的机器学习方法进一步包括不同身体测量之间的各种统计学关系的机器智能学习,其定义为具有L数量的不同测量的向量M=(m1,m2,…,mL),其中在使用中,给出一个或多个不同测量值可以预测一个或多个测量值,且给出一个或多个这些测量值可以预测平均化身Av。
在该实施方案中,为了使化身变形或简单地将化身动画化为新化身(定义为身体的Av1,如新的第一表象所示),将参考或平均化身数据(V、E、F、JK、W)和已知的或新的第一表象的用户关节运动学的估计(定义为JK1)反馈到定义为的成本函数,该成本函数将Av优化并变形至Av1,其受到已知或从自然人体运动所了解的许多物理约束,其中在使用中,可以将新的动画化身Av1(为简单起见,假定它具有与平均化身Av相同的身体测量值)建模为参考或平均化身数据的非线性函数,即Av1=f(Av,W,JK,JK1)。通常,成本函数的实施来自合并两个或多个加权能量最小化函数:
使用V、F和E的例如拉普拉斯平坦度矩阵的表面平滑度函数;和
使用V、F和E以确保对应关系限制在化身顶点与其骨骼之间的骨骼附着函数。
在进一步的实施方案中,为产生真实身体的3D表象(3D化身),使用自适应非线性优化来匹配和比较Av1的一个或多个表象和一个或多个剪影或其表象。该过程将调整Av1数据的初始估计和包括M、JK的测量值,直到达到匹配。
在进一步的实施方案中,输入包括身体分类,且该方法进一步包括通过电子程序指令控制控制器以:
基于身体分类,获得与身体分类对应的数据;
通过比较第一表象和所得数据处理所述第一表象;和
基于所述比较产生身体的第二表象。
根据本发明的第三个广泛的方面,提供其上存储有指令的计算机可读存储介质,当由计算装置执行时,所述指令使得计算装置执行根据如上所述的本发明的第二广泛方面的方法。
根据本发明的第四个广泛的方面,提供被编程为执行根据如上所述的本发明的第二广泛方面的方法的计算装置。
根据本发明的第五个广泛的方面,提供包括能够由计算系统接收和解释的至少一个指令的数据信号,其中所述指令实现如上所述的根据本发明的第二广泛方面的方法。
根据本发明的第六个广泛的方面,提供一种用于身体成像的系统,包括如上所述的根据本发明的第一广泛方面的装置。
根据本发明的第七个广泛的方面,提供一种用于实现目的的方法,所述方法包括使用如上所述的根据本发明的第一广泛方面的装置来生成并经由显示器显示身体的一个或多个第二表象以提供用于实现该目的的动机。
在一个实施方案中,身体是人体,且目的包括人体的个人健身目标。
附图说明
为更全面理解本发明并将其用于实践,将参考附图描述优选实施方案,其中:
图1描绘了根据本发明的方面,使用系统的第一实施方案的方法的第一实施方案的用户完成动作的流程图;
图2描绘了根据本发明的一个方面的装置的实施方案的示意图;
图3描绘了图1的系统的简化系统图;
图4描绘了根据本发明的方面,使用系统的第二实施方案的方法的第二实施方案的用户完成动作的流程图;
图5描绘了在方法和系统的第二实施方案的使用期间标记图像中的很可能的用户身体的过程。
发明详述
以下具体实施方案并不限制本发明的范围。该详细说明旨在用于示例的目的。功能上等同的产品、组合物和方法在本文所述的发明范围内。与该观点一致,本领域技术人员将理解,除了具体描述的那些之外,本文所述的发明易于变化和修改。将理解本发明包括所有这些变化和修改。本发明还包括在说明书中(单独或总体)引用或指出的所有步骤、特征、组合物和化合物,以及任意两个或多个步骤或特征的任何和所有组合。
本文实施例将更完整地描述本发明的进一步的特征。然而,将理解该详细说明仅用于示例本发明,不应以任何方式理解为对之前所述的本发明的广泛描述的限制。
本文引用的所有出版物(包括专利、专利申请、期刊文章、实验室手册、书籍或其他文件)通过引用并入本文。不承认任何参考文献构成现有技术或是本发明涉及领域的工作人员的公知常识的一部分。
贯穿全文,除非另有要求,“包括(comprise)”或变形例如“包括(comprises)”或“包括(comprising)”将理解为暗指包含所述整数或整数组,但不排除任何其他整数或整数组。
本文使用的所选术语的其它定义可以在本发明的详细描述内找到并且贯穿始终适用。除非另有定义,本文使用的所有其它科学和技术术语具有与本发明所属领域的普通技术人员通常理解的相同的含义。
本文描述的发明可以包括一个或多个值的范围(例如尺寸、位移和场强等)。一系列值将理解为包括范围内的所有值,包括定义范围的值以及导致与定义范围边界的值紧邻的值有相同或基本相同的结果的与范围相邻的值。例如,本领域技术人员将理解,范围的上限或下限的10%变化可以是完全适当的并且包括在本发明中。更具体地,范围的上限或下限的变化将为5%,或者如本领域通常认可的,取较大者。
在本说明书中,使用诸如“约”和“近似”之类的相对语言。该语言旨在将至少10%的可变性纳入指定的数量或范围。该可变性可以是指定的特定数字的正10%或负10%。
在附图中,相同的特征引用相同的参考号。
在图1中,描绘了根据本发明的方面,在使用系统10的第一个实施方案中使用装置12成像身体的动作。
在所述的实施方案中,身体是希望实现目的的人16(系统10的用户)的身体14,所述目的包括减肥、增重或维持/监测体重,和/或改善他们的身材大小或形状的个人健身目标。因此,它尤其适用于:年龄为16-48岁的女性、新娘/新郎、运动员和健身者;怀孕前/后和用于医疗监测。如以下将进一步详细描述的,系统10可操作以提供人16的准确的个性化的受试者特定的图像,从而通过有效且准确地监测他们的身体14来促进并帮助实现他们的个人健身目标。提供的图像可以称为“化身”。
虽然本发明将特别参照成像人体来描述以促进和提供实现个人健身目标的动机,但是应当理解,本发明可以用于其他事物的身体,以及用于额外和/或替代的目的或目标。
应当理解,本发明不限于成像的身体或其被成像的目的,并且在替代实施方案中,本发明可以用于成像额外和/或替代物体的身体,用于额外和/或替代目的。根据实施,身体可以是生物体的身体或其一个或多个部分,或非生物的身体或其一个或多个部分。本发明的实施方案特别适用于成像其中在一个和另一个的身体之间存在变化的物体的身体,例如动物(包括家畜)和处于自然状态的食物。
装置12由作为用户的人16携带。
装置12包括通过适当的电路和连接可操作地耦合的多个组件、子系统和/或模块,以使得装置12能够执行本文所述的功能和操作。装置12包括接收、存储和执行合适的计算机指令所需的适当部件,所述指令例如用于成像身体的方法和根据本发明的实施方案的用于实现目的的方法。
具体地,如图2所示,装置12包括计算装置,在该实施例中所述计算装置包括控制器18和用于存储用于控制控制器18的电子程序指令以及信息和/或数据的存储器20;用于显示用户界面24的显示器22;和输入装置26;所有这些都容纳在容器或外壳28内。
如将进一步详细描述的,控制器18在电子程序指令的控制下可操作以:经由输入装置接收输入,该输入包括身体14的第一表象;处理第一表象;基于该处理生成身体14的第二表象;并通过显示器22显示生成的第二表象。
此外,在第一个实施方案中,输入还包括身体14的分类,且控制器18在电子程序指令的控制下可操作以:基于身体14的分类获得对应于身体分类的数据;通过比较第一表象和所得数据处理所述第一表象;并基于该比较产生身体14的第二表象。
在本发明的实施方案中,可以从一个或多个来源通过一次或多次检索、接收、提取和识别来获得数据。数据的一个或多个来源可以位于存储器20和/或远离装置12的其他地方。
在所述的实施方案中,获得的数据以基于身体14的分类检索的模板的形式提供,且人体测量学用于分类身体14。
提供多个模板,各模板具有与其相关的模板数据,包括具有对包括性别和种族群体变化的项目具有标准平均人体测量学的测量值的人体三维(3D)模型。模板是所有身体元素的高度和宽度的全尺寸的平均3D数字模型。在该实施方案中,该装置可操作以将这些子集作为可以显示或计算的数字测量值提取。如将进一步详细描述的,这些特定数据点用于与输入图像进行比较,并允许将模板修改为与图像尺寸数据相关。
在本发明的实施方案中,获得的数据可以包括身体的先前表象,在这种情况下,身体分类可以包括身体的识别。
在其他实施方案中,获得的数据可以包括所述身体和/或其他身体的一个或多个先前表象的整合、数据或关联。这样的数据可以通过操作装置12来产生和/或从一个或多个其他来源(例如一个或多个其他装置12或DEXA技术)获得。
控制器18包括处理器形式的处理装置。
存储器20包括只读存储器(ROM)和随机存取存储器(RAM)。
装置12能够接收可以保存在ROM或RAM中并且可以由处理器执行的指令。处理器可操作以在电子程序指令的控制下执行动作,如将在下面进一步详细描述的,包括处理/执行指令并通过装置12管理数据和信息的流动。
在实施方案中,通过单个软件应用(app)或模块(可以称为成像app)提供用于装置12的电子程序指令。在所述实施方案中,app以商标MYFIZIQTM销售,且可以从网页(或其他合适的电子设备平台)下载或保存或存储在装置12的存储器20上。
在优选的本发明的实施方案中,装置12是移动通信设备且包括具有Android、WEBOS、Windows或其他电话app平台的智能手机,例如由Apple Inc.以商标或其他供应商(如Nokia Corporation或Samsung Group)销售的智能手机。或者,装置10可以包括诸如个人、笔记本或平板计算机之类的其他计算装置,例如由Apple Inc.以商标或IPOD 或例如由其他供应商例如Hewlett-Packard Company或Dell Inc销售的那些,或其他合适的装置。
装置12还包括能够发出命令并且被布置为与app相互作用以使装置12执行本文所述的根据本发明的实施方案的各个步骤、功能和/或程序的操作系统。操作系统可以适合于装置12。例如,在装置12包括智能手机的情况下,操作系统可以是iOS。
如图3所示,装置12可操作以经由一个或多个通信链路30进行通信,该通信链路30可以不同地连接到一个或多个远程装置32,例如服务器、个人计算机、终端、无线或手持计算设备、陆线通信设备或移动通信设备诸如移动(手机)电话。多个通信链路30中的至少一个可以通过电信网络连接到外部计算网络。
在所述实施方案中,远程装置32包括由其他人所有和/或操作的其他装置12,以及由管理员所有和操作的计算系统34。
在实施方案中,管理员计算系统34具有服务器36的形式。服务器36可以用于执行应用和/或系统服务,例如用于成像身体的系统和方法以及用于实现根据本发明的实施方案的目的的方法。
在实施方案中,服务器36物理上位于中央管理的管理中心。在替代实施例中,它可以被保持在基于云的平台上。
与装置12类似,服务器36包括接收、存储和执行适当的电子程序指令所必需的合适组件。组件包括服务器处理器形式的处理装置、包括只读存储器(ROM)和随机存取存储器(RAM)的服务器存储器、一个或多个服务器输入/输出装置(例如盘驱动器)和相关联的服务器用户界面。远程通信装置32(包括装置12)被布置成经由一个或多个通信链路30与服务器36通信。
服务器32能够接收可以保存在ROM、RAM或盘驱动器中并且可以由服务器处理器执行的指令。服务器处理器可操作以在电子程序指令的控制下执行动作,如将在下面进一步详细描述的,包括处理/执行指令并通过计算系统34管理数据和信息的流动。
服务器36包括服务器操作系统,其能够发出命令以访问位于其存储装置上的多个数据库或资料库。在该实施方案中,提供两个这样的数据库或资料库,包括:系统10的注册用户(RU)之一,其可以被称为RU数据库38;以及上述模板之一,包括模板数据,其可以被称为模板数据库40。操作系统被布置为与数据库38和40以及一套或多套服务器软件的一个或多个计算机程序交互以使服务器36执行根据本文所述的发明的实施方案的各个步骤、功能和/或程序。
用于装置12和服务器36的计算组件的app、服务器软件组的计算机程序和其他电子指令或程序可以用本领域技术人员熟知的任何合适的语言来编写。例如,为了在包括智能手机的装置12上运行,成像app可以用Objective-C语言编写。在本发明的实施方案中,根据实现或实施方案的要求,电子程序指令可以作为独立应用,作为一组或多个应用、经由网络提供,或作为中间件添加。
在本发明的替代实施方案中,软件可以包括一个或多个模块,并且可以在硬件中实施。在这种情况下,例如,可以用本领域公知的以下技术中的任何一种或组合来实施模块:具有用于在数据信号上实施逻辑功能的逻辑门的离散逻辑电路、具有合适的组合逻辑门的应用专用集成电路(ASIC)、可编程门阵列(PGA)、现场可编程门阵列(FPGA)等。
相应的计算装置可以是任何合适类型的系统,包括:可编程逻辑控制器(PLC);数字信号处理器(DSP);微控制器;个人电脑、笔记本电脑或平板电脑,或专用服务器或联网服务器。
相应的处理器可以是与计算装置相关联的多个处理器中的任何定制或商业可用处理器、中央处理单元(CPU)、数据信号处理器(DSP)或辅助处理器。在本发明的实施方案中,处理装置可以是例如基于半导体的微处理器(以微芯片的形式)或大型处理器。
在本发明的实施方案中,相应的存储器可以包括易失性存储元件(例如随机存取存储器(RAM),诸如动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM))和非易失性存储器存储器元件(例如只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁带、光盘只读存储器(CD-ROM)等)中的任意一个或组合。相应的存储器可以组合电子、磁性、光学和/或其他类型的存储介质。此外,相应的存储器可以具有分布式结构,其中各组件彼此远离但可由处理装置访问。例如,ROM可以存储要由处理装置执行的各种指令、程序、软件或应用程序,以控制装置12的操作,并且RAM可以暂时存储操作的变量或结果。
使用软件应用来使用和运行计算机是本领域技术人员所熟知的,不需要在本文中进一步详细描述,除非与本发明相关。
此外,可以使用任何合适的通信协议来促进装置12的任何子系统或组件、服务器36的任何子系统或组件、以及装置12和服务器36和其它装置或系统(包括有线和无线)之间的连接和通信,如本领域技术人员所熟知的,不需要在本文中进一步详细描述,除非与本发明相关。
在本发明的上下文中,使用“存储”、“保持”和“保存”或类似单词的词语,应被理解为包括在存储装置、用于稍后检索的装置或介质中永久地和/或暂时地,并且瞬间或瞬时地保留或保持数据或信息,例如作为正在执行的处理操作的一部分。
此外,在本发明的上下文中,使用术语“系统”、“装置”和“机器”,应被理解为包括任何一组功能相关或相互作用的、相互关联的、相互依赖的或相关的组件或元件,所述组件或元件可以位于彼此附近、彼此分离、彼此集成或彼此离散。
此外,在本发明的实施方案中,词语“检测”应理解为包括接收或访问相关数据或信息。
在本发明的实施方案中,用于显示用户界面24和用户输入装置26的显示器22集成在触摸屏42中。在替代实施方案中,这些组件可以作为离散元件或物品提供。
触摸屏42可操作以感测或检测在装置12的显示区域内的触摸的存在和位置。触摸屏42感测的“触摸”作为命令或指令输入到装置12,并被传送到控制器18。应当理解,用户输入装置26不限于包括触摸屏,并且在本发明的替代实施方案中,可以使用用于接收输入、命令或指令并提供受控交互的任何合适的装置、系统或机器,例如,键区或键盘、指点装置或复合装置,以及包括语音激活,语音和/或思维控制,和/或全息/投影成像的系统。
还可以经由装置12的传感器系统或传感器组44的至少一个传感器接收输入。传感器组44内的各个传感器可操作以监测、感测和收集或测量与装置12、周围环境或与其相关联或耦合到其上的组件、系统或装置的一个或多个特性、属性和参数相关或有关的传感器数据和/或信息。例如,传感器组44可操作以感测和收集与装置12的状态和/或装置12周围环境的状态有关的传感器数据。在一个实施方案中,装置12的状态包括装置12的位置。在一个实施方案中,装置12的状态还包括装置12的速率和/或速度。传感器组44包括惯性传感器系统,其包括加速度传感器和方位传感器、方向传感器和位置传感器。本发明的替代实施方案可以包括额外和/或替代的传感器,包括运动传感器、红外传感器、深度传感器、三维成像传感器、惯性传感器和微机电(MEMS)传感器。
加速度传感器可操作以测量装置12的加速度并产生加速度数据。例如,加速度传感器可以是加速度计。方位传感器可操作以测量装置12的方位变化速率(即,角速率)并产生方位数据。例如,方位传感器可以是陀螺仪。方向传感器可操作以测定相对于地球磁极的方向并产生方向数据。例如,方向传感器可以是电子罗盘。位置传感器可操作以确定装置12的位置并产生位置数据。例如,位置传感器可以是全球定位系统(GPS)。这种传感器的使用和操作是本领域技术人员所熟知的,不需要在本文中进一步详细描述,除非与本发明相关。
第一表象可以包括身体14的一个或多个视觉表象。在所述实施方案中,第一表象包括身体14的一组视觉表象。因此,传感器组44包括数码相机形式的成像装置,其可操作以捕获包括视觉表象的图像。在该实施方案中,相机与装置12集成。成像装置可以包括便于获取静止和/或运动图像的任何合适的系统或装置。例如,在装置12包括智能手机的情况下,成像装置可以是iSightTM相机。相机的使用和操作是本领域技术人员所熟知的,不需要在本文中进一步详细描述,除非与本发明相关。
装置12包括有助于所描述的性能的可操作连接/耦合的组件,包括合适的计算机芯片(集成电路)、收发器/接收器天线以及用于所用感官技术的软件。
传感器组44中的一个或多个传感器可以与装置12集成,如其中包括智能手机的情况。或者,装置12可以与上述传感器组44中的一个或多个可操作地耦合。
在实施方案中,除了存储在模板数据库40上,至少一些模板细节存储或保存在存储器20上的数据库46或资料库中,且在app控制下可以通过控制器18访问。这些可以作为app的一部分安装。控制器18被布置为与数据库46交互以使装置12执行根据本文所述的本发明的实施方案中相应的步骤、功能和/或程序。
其他模板的细节例如被远程存储或保存在位于在一个或多个远程系统或装置32的相应存储器(例如服务器36的模板数据库40)上的一个或多个远程数据库模块中,并且可由装置12经由一个或多个通信链路30访问。控制器18被布置为便于用户与一个或多个远程数据库的交互,以使远程存储的内容可根据需要可用。
应当理解,数据库可以位于任何合适的存储装置上,包括固态驱动器、硬盘驱动器、光驱动器或磁带驱动器。数据库可以位于单个物理存储装置上,或者可以分布在多个存储装置或模块上。
数据库46耦合到控制器18并与其进行数据通信,以使得能够向数据库46读取信息和数据和从数据库46读取信息和数据,这是本领域技术人员所熟知的。可以使用任何合适的数据库结构,并且可以存在一个或多个数据库。在本发明的实施方案中,数据库46可以作为装置12的组件在本地提供(诸如在存储器20中),或远程提供,例如在远程服务器上,如电子程序指令以及任何其他待收集和/或呈现的数据或信息一样。
类似地,RU和模板数据库38和40两者都耦合到服务器36并且与其进行数据通信,以使数据能够向RU和模板数据库38和40读取和从RU和模板数据库38和40读取,如本领域技术人员所熟知的。可以使用任何合适的数据库结构。RU和模板数据库38和40中的任何一个或两个可以作为服务器36的组件在本地提供(诸如在存储装置中),或者远程提供,例如在远程服务器上,如服务器集合的软件一样。在一个实施方案中,可以以这种方式设置多个计算机以具有网络客户端-服务器应用。在所述的实施方案中,RU和模板数据库38和40中的每一个作为单个数据库结构的分区内部存储于服务器36的存储装置中。在本发明的替代实施方案中,可能存在或多或少的数据库。
一旦将app安装在装置12上,则控制器18可在app的控制下操作,以经由触摸屏42向装置12的用户16呈现一系列可导航的电子页面、屏幕和形式,允许输入或捕获信息和/或数据,包括通过传感器组44的传感器感测的数据和/或信息,例如通过相机捕获的图像,与装置12和系统10的操作有关的指令和命令。
在所述的实施方案中,服务器36的服务器软件组包括:网络服务器应用、注册和请求应用、图像处理应用、通信应用、发票/账单应用和付款处理应用。
如将进一步详细描述的,经由服务器软件组的相应应用,服务器36可操作以执行功能,包括:注册和共享用户数据;提取、转换数据和将数据与通过app接收的数据组合;并记录通过app界面的所有实时数据。
网络服务器应用可操作以经由专用网站(诸如网页或其他电子页面或屏幕)将与系统10相关的内容传送到系统10的现有或潜在用户。网站可通过具有因特网功能的移动通信装置的网络浏览器,例如笔记本电脑或智能电话(包括本实施例中的装置12)访问,所述移动通信装置可操作地连接以经由通信网络与系统10进行数据通信。在所述的实施方案中,数据通信的手段是通过互联网,然而,在本发明的其它实施方案中,可以采用其它方法,诸如直接连接。
内容可以包括与通过论坛或媒体的适当的一个或组合提供的健身目标、广告和促销或公共关系信息相关的一般信息,包括例如以商标YouTubeTM、FacebookTM和/或TwitterTM提供的服务。
可以访问的网页包括在用户首次使用系统10时完成的在线注册页面110以及请求页面112。网站应用可操作以使系统的潜在用户能够手动注册或将自己记录为用户,从而创建个人账户,并请求化身。这便于用户分别以包括用户注册和请求信息的电子注册和请求表的形式经由注册和请求页面110和112完成并向服务器36提交通信。
用户注册信息包括包含与用户及其身体相关的信息和/或数据的细节,包括:
1)用户身份和联系细节:便于识别用户和与用户进行通信的细节。这些细节可以包括用户的完整私人名称、当使用系统10时使用的用户名、私人住宅地址、用于转发通信时的物理和/或电子邮件地址、联系电话号码、认证信息(例如密码)以及任何其他唯一和/或相关的识别信息(如适用)。由系统10用该信息与用户通信,包括使用系统10与所创建的化身相关的通信以及账单。
2)用户身体细节:与用户身体有关的信息和/或数据。在所述的实施方案中,这包括身体的人体测量数据,包括性别、身高、体重、衣服尺寸(例如小、中、大、X大或XXL,仅举几例)、年龄和族群。在本发明的替代实施方案中,可以请求与用户身体相关和/或关联的额外的和/或替代细节。
3)账单和付款细节:便于从为用户使用系统10付费的债务人(人员)收费和接收付款的细节。账单细节可以包括用于转发通信的物理和/或电子邮件地址,包括例如用于处理和支付的结算通知。付款细节可以包括存储和用于购买与通过系统10执行的动作相关联的项目(例如创建实施方案中的化身)的财务账户的细节(诸如债务人的信用卡账户)。在本发明的实施例中,例如可以使用额外的和/或替代的支付处理平台,包括但不限于PayPal和比特币(BTC)服务。
请求信息包括第一表象。如前所述,在实施方案中,第一表象包括身体14的一组视觉表象。优选地,该组视觉表象内的视觉表象包括身体14的不同视图,并且它们用位于有对比度、基本上无杂波/噪声(即非繁忙)的背景前面的身体14捕获。具体地,在所述的实施方案中,作为非限制性实例,该组视觉表象包括身体14的两张照片,第一张照片是身体14的正视图,第二张照片是身体14的侧视图。为了便于捕获和上传这两张照片,用户16能够通过请求页面112访问图像捕捉屏幕114。图像捕获屏幕允许在上传之前拍摄和查看照片,并且可以包括用于引导用户通过该过程的一个或多个子屏幕。在所述的实施方案中,装置12可以在成像app的控制下通过控制器18操作,以使用数据,包括通过(计算装置12的方位的方位传感器的)内部陀螺仪产生的方位数据,以确保在垂直平面中拍摄图像以提高其精度。
在本发明的实施方案中,一组视觉表象(例如照片)可以包括一组图像,所述图像包括一个或多个:包括颜色、灰度或二进制(例如剪影)的标准二维(2D)图像;具有或不具有颜色和/或纹理的深度图像;MRI、DEXA(DXA)、X射线、CT扫描,具有或不具有颜色和/或纹理的身体的完整三维(3D)点云或多个不完全点云;和具有或不具有颜色和/或纹理的身体的三维(3D)网格。该组视觉表象可以包括使用成像(感测)装置捕获的任何图像的一个或组合,该成像(感测)装置能够感测并输出代表受试者的形状的任何形式的数据或特征(例如,在所述实施方案中的人的形状),达到能够重建受试者的物理三维(3D)表面或外壳的水平。
在本发明的实施方案中,可以提供归一化/模糊功能,其可操作以掩盖该组视觉表象中用户的面部和/或其他区别特征,以增强隐私。视觉表象可能会进一步受到隐私保护。
在本发明的另一个实施方案中,用户注册和请求信息可以包括替代的或额外的细节、信息和/或数据。
通过应用服务器软件组,包括网页服务器应用和注册应用收集的所有数据和信息分布于系统34内,以便如本文所述使用。
RU数据库38具有多个RU记录。每个RU记录包括与系统10的RU账户相关的一组RU信息,包括如上所述的注册和请求信息以及与RU相关联的其他信息,诸如为其创建的化身。
服务器36具有可操作以感测或检测包括用户注册和请求信息(通过专用网站或如本文所述的其它方式发送)的通信的接收的感测装置。在感测到这种信息的接收之后,服务器36在服务器软件组的相关应用(包括数据库管理模块或应用)的控制下经由其处理器可操作以生成、填充和管理RU数据库38中的记录(以及模板数据库40中的记录),并且根据所接收的数据和信息执行本文所述的动作。
潜在用户还可以通过电子邮件、传真或其它通信提供用户注册信息来注册或记录自己成为用户,这些通信可以通过诸如FacebookTM或TwitterTM的社交网络服务来进行,例如用于自动捕获和通过该组服务器软件的软件或数据输入操作者或管理员的其他雇员的动作来进入RU数据库38。
应当注意,在成功注册之后,RU可随后经由在线访问或“登录”页面116访问系统10,一旦用户已经输入适当的识别和安全授权(例如他们的用户名和相关密码),则提供对系统10的访问。
图像处理应用可操作以接收和处理所提交的用户身体细节和身体16的第一表象以生成第二表象。
在所述的实施方案中,当提交图像(无论是2D还是3D深度图像)时,使用(用户身体细节的)注册设置的默认值,用户可以根据需要通过具有照片屏幕117的表来更新(例如,因为其身体细节由于他们向其目标前进而随着时间变化)。这有利地减少了数据输入时间。
特别地,基于提交的性别、身高、体重、有或无尺寸,以及有或无种族群体信息,图像处理应用可操作以对身体14进行分类,并从多个模板确定和选择具有最接近的3D模型的模板。
一旦完成这个,图像处理应用可操作以:
从两张照片中分割前景(人体),并将第一表象转换成两个对应的剪影;
使用分割的前景及其对应的剪影来提取关键点的特征和测量和/或描述符和/或特征;
使用提取的特征和关键点测量值来修改所选模板的3D模型,以创建修改的受试者特定的3D模型图像(即第二表象);
将修改的3D模型图像关联到用户账户;和
删除/销毁第一表象的两张照片。
有利地,在实施方案中,生成的第二图像是受试者特定的(即,身体被成像),准确代表其期望的特征。
在本发明的实施方案中,图像处理应用可操作以:分割至少一个前景,其包含第一表象的身体的一个或多个视觉表象;将第一表象的一个或多个视觉表象的一个或多个分割的前景转换成相应的剪影;使用一个或多个分割的前景及其相应的剪影来构建身体的形状的外壳,和/或提取特征和/或提取关键点测量值;并且使用一个或多个外壳和/或特征和/或关键点测量值对所选模板的身体的3D模型(平均身体模型)进行修改、装入和变形中的一个或多个,以创建是第二表象的修改的受试者特定的3D模型图像。
在实施方案中,在任何具有或不具有颜色和/或纹理的深度图像、点云和网格的情况下,图像处理应用可操作以重构身体的三维的受试者特定的形状。
通信应用可操作以实现服务器36和与其通信的装置之间的通信。这种通信包括本文描述的通信,并且可以是包括电子邮件、弹出通知和SMS消息的任何合适类型,并且可以加密以增加安全性。
通过通信应用进行的通信可以包括对用户的状态通知,例如确认上传的图像已被删除的通知,并且指示正在使用剪影来创建用户的3D化身。
通过通信应用,修改的3D模型图像被传送到装置12(和适当的通知消息一起),其中它可在主图像屏幕118上显示。在该实施方案中生成的修改的3D模型图像是工作模型,其准确地反映用户的身体14的形状和测量值,并且用户可以经由用户界面24对其执行一个或多个交互。一个或多个交互可以包括选择模型的区域或部分以获得准确的围度细节。特别地,在所述的实施方案中,用户能够“点击”或以其他方式选择3D模型的一部分,并且(通过显示器22)查看与所选择部分相关的数值。还提供允许用户经由用户界面24旋转和缩放3D模型的功能。
在本发明的实施方案中,在用户提交请求信息和生成修改的3D模型图像并将其传送到装置12之间可能经过大约90秒。
在实施方案中,模型基于性别着色:女性为粉色,男性为蓝色。
用户能够通过执行其上提供的各个导航界面元件按钮来导航,包括从进入所生成的电子屏幕和页面和返回所生成的电子屏幕和页面。具体地,提供具有界面元件按钮的导航栏120,用户可以通过该导航栏控制系统10执行动作,包括基于他们的特定测量值和要求访问对其个人健身目标的支持。在所述的实施方案中,这种支持包括:访问用餐食谱,其消耗将有助于用户达到其个人健身目标;测量值;计划,包括可以针对用户量身定做的营养计划和训练方案;拍摄新图像(生成新的修改的3D模型图像);和退出系统10。
在本发明的实施方案中,装置12可操作以存储生成的修改的3D模型图像(作为第二表象),并且在用户下一次使用装置12生成其身体14的新图像时将其用作模板进行比较。即,在其初始使用装置12之后,每次用户使用装置12生成其身体14的新图像时,在其先前使用装置12期间生成的修改的3D模型图像被用于生成新的图像。因此,在这些实施方案中,基于所生成的身体14的第二表象来生成身体14的第三表象,基于所生成的身体14的第三表象来生成身体14的第四表象,以此类推。
在实施方案中,支持可以包括与一个或多个其他系统的集成,例如DEXA扫描集成。在这种情况下,可以经由用户界面24执行的一个或多个交互可以包括访问从DEXA扫描产生的数据和/或信息作为显示在3D模型顶部的叠加层,选择3D模型的一部分,以及(通过显示器22)查看与所选部分相关的DEXA扫描数据和/或信息。
发票/账单应用可操作以为每个注册用户生成发票,包括根据其对系统10的使用应付的金额。
付款处理应用可操作以接收每张发票的付款。
在本发明的实施方案中,由系统10执行的所述的额外和/或替代操作中的一个或多个自动发生,而不需要人为干预。
现在将参考图1中所示的流程图,参照使用中的系统10进一步描述本发明的实施方案的上述和其它特征和优点。
感兴趣的人通过如上所述的注册过程注册为系统10的用户,使他们被提供用户账户。
此后,(现在注册的)用户访问并使用如上所述的系统10以生成其身体的一个或多个修改的3D模型图像,并访问其他提供的支持以帮助他们实现其个人健身目标。
随着时间的推移,用户可以生成一系列其身体的修改的3D模型图像,显示其中的变化。通过这种频繁的自我监测,用户能够评估他们在个人健身目标方面的进展,因此更可能实现它。
附图的图4和图5描绘了根据本发明的方面,在使用系统210的第二实施方案期间执行的动作,该系统210用于使用装置212成像身体。与第一实施方案相同的附图标记表示第二实施方案中的系统210的类似或相同的特征。
如将进一步详细描述的,第二实施方案提供一种用于重构三维人体模型(化身)的生态有效的系统和方法。如将进一步详细描述的,所述系统和方法利用给定其身高和/或体重的受试者的一个或多个图像(例如,在人的情况下,但不失一般性)。
在第二实施方案中,在电子程序指令的控制下,装置212的控制器可操作以:通过分割身体14的第一表象来处理身体14的第一表象,以获得多个剪影并基于所述剪影生成所述身体的第二表象,所述剪影以身体14基本上真正的三维扫描的投影阴影的简单形式表示。
控制器还在电子程序指令的控制下可操作以:生成一旦接收到输入,就出现在装置212的显示器上的用户特定的骨骼;并且在分割第一表象的过程中,使得用户能够将第一表象中的身体14与用户特定的骨骼对齐。
特别地,在第二实施方案中,系统210在app的电子程序指令的控制下可操作,以执行以下顺序任务(1-6),以便生成或构建用户的3D化身:
任务1:自动分割每个图像中的用户,以获得他/她的以用户的真正3D扫描的投影阴影的简单形式显示的二进制图像(剪影,定义S)。在第二实施方案中,当遵循以下任何一个或两个时,实现分割:
a.一旦他们开始捕获其身体14的前视图的第一张照片,用户将他/她的身体与通过装置12的显示器22产生和显示的用户特定的骨骼对齐。该操作可伴随着视觉和/或通过装置212传送的听觉反馈以确保捕获最佳图像;和
b.用户确保他们的脸、手和脚在身体前视图的第一张照片中可见,而不被遮盖。根据第二实施方案,在其身体侧视图的第二张照片中,仅需要脸和一只或两只脚可见。
任务2:从分割的剪影中提取各种类型的特征,并将提取的特征融合在一起以形成表象(数据向量)。每个剪影一个表象。
任务3:根据提交的用户高度信息、图像大小(以像素表示的图像高度和宽度),并使用二进制图像的斑点分析、投影理论和相机模型;计算以下:
a.捕获相机的固有参数和外部参数的初始估计(可以称为姿势),其包括每个图像中的相机位置和方位;定义P。
b.代表用户骨骼的骨骼模型的关节运动学的初步估计,定义JK。这包括骨骼模型的每个关节的3D位置和3D方位。
任务4:基于提交的用户身高和体重信息,或仅用户身高信息,预测平均化身(定义Av),其随用户输入的身高、体重或更多身体测量值(如果已知)变化。Av也被装入到大小为N关节的参考骨骼上,并且具有参考姿势的已知JK和骨重/高度矩阵(定义W)。
在第二实施方案中,矩阵W仅在预测模块的离线过程中离线计算一次,然后与待用于预测或产生其他化身的参考骨骼模型JK一起保存于成像app。W的目的是限制、控制和建模关节、骨和由其顶点V、边E和面F表示的真实的3D化身表面之间的关系。换言之,为了使化身变形或简单地将化身动画化为提交至成像app的图像中的用户的新化身(定义Av1),将参考或平均化身数据(V、E、F、JK、W)和已知的或他/她提交的图像的用户关节运动学的估计(定义JK1)反馈到成本函数,该成本函数将Av优化并变形至Av1,其受到已知或从自然人体运动所了解的许多物理约束。约束可以包括例如骨盆关节可以具有的最大旋转或关节相对于另一关节3D位置和方位,关节的层次以及哪一个影响另一个的运动(仅举几例)。换言之,与平均化身具有相同身体测量值的新的动画化化身Av1是参考/平均数据的函数;即Av1=f(Av,W,JK,JK1)。在第二实施方案的技术中,获得合并两个加权能量最小化函数的函数:
a.使用V、F和E的拉普拉斯平坦度矩阵的表面平滑度函数;和
b.使用(V、F和E)以确保对应关系限制在化身顶点与其骨骼之间的骨骼附着函数。
初始化身Av的预测(例如,使用贝叶斯多变量)遵循复杂的基于多变量的机器学习方法。在第二实施方案中,这包括使用从不同年龄和姿势的真人(男性和女性)的超过20,000次操纵和渲染的三维扫描中提取的3D特征的人体形状的机器智能学习(离线完成)(因此本文使用术语生态有效的)。它还包括机器智能学习各种不同身体测量值之间的统计学关系(定义为向量M=(m1,m2,…,mL),其中L次不同测量)。作为实例,m1可以是胸围。给定一个或多个不同测量值,开发的技术可以预测一个或多个测量值,并且给定一个或多个这些测量值,将预测一个化身。学习过程涉及使用从每个真实3D扫描中提取的各种三维形状(表面)特征。
应当理解,在这方面人造智能和机器学习不受限制,并且在本发明的替代实施方案中,可以根据要被成像的身体或事物和要进行或分类的决定使用额外和/或替代的训练、测试和验证。
任务5:
给出:
a.用户的身高或身高和体重和性别,预测M中的剩余测量值,然后生成(预测)用户的初始平均化身Av。因此,Av本身是测量值M的函数,即Av=fa(m1,m2,…,mL)=fa(M),
b.投影矩阵P的初始估计,
c.Av的参考姿势关节运动学JK及其骨矩阵W,
d.第一表象的定义为S的分割的剪影,
问题:给出以上,找到用户的化身Av1及其定义为M1的精确测量值?
解决方案:
a-用M初始化M1,
b-由于用户具有与参考姿势不同的身体姿势,我们假设他/她的关节运动学是JK1,并且我们用参考离线姿势JK将其初始化,
c-用P初始化P1,其中P1将是准确的相机参数,
d-形成函数Av1=f(V、F、E、M1、JK1、W)。
然后使用自适应和迭代约束凸优化技术来最小化成本函数,所述成本函数比较或匹配用户剪影S、从用户剪影提取的表象或显著特征以及化身Av1的投影剪影(即S vs.Av1的剪影)。
使用投影Av1=P1(Av1),然后使用图像变形过程(包括例如平滑、边缘检测、侵蚀、扩张、孔填充、使用连接的分量分析去除分离的像素和小斑点)来评估Av1的剪影。所开发的成像技术的优化过程适应地并且自动地调整:(i)初始预测的测量值M以达到新的身体特定值M1,(ii)初始估计的投影矩阵P以达到新的实际投影P1,和(iii)最初估计的关节运动学JK以达到真实3D世界中身体的新的和真实的值JK1。所有这些都以单一的迭代和约束的方式进行,直到达到局部最小值,且用户的剪影(或其特征或表象)与化身的Av1投影剪影相匹配。约束包括例如人的臀部、腰部等的实际最大和最小值,JK中某个关节的位置和方位可具有的最大和最小值;或相机可具有的最大旋转角度和平移(偏移)。
与现有技术的系统不同,第二实施方案的系统和方法不需要基于离散主成分分析(PCA)的LOOKUP表来找到与用户化身或剪影相匹配的最接近的剪影或化身。开发的基于模型的多变量机器学习方法将每个学习的3D扫描表示为高维空间中的一个点(如Remainen,Grassmannian流形或Lie组)。在捕获的图像中不需要任何手动调节或参考对象。此外,整体优化过程是全自动的,并且能够生成准确的用户特定化身,自动估计每个图像中的用户姿势以及自动估计相机固有参数和外部参数。
任务6:为匹配5中的剪影,测试各种特征和表象,并且选择最佳特征和表象。例如,基于以下的特征:直角余弦变换DCT、角/边缘、定向梯度直方图(HOG)、加速鲁棒特征(SURF)、尺度不变特征变换(SIFT)和曲率特征等。
用于第二实施方案的系统10的电子程序指令包括多个软件模块,包括注册模块(前端app)、图像捕获模块、图像检查和预处理模块、前景(用户剪影)分割模块以及化身和剪影匹配模块。
注册模块(前端app)
第二实施方案的注册模块(前端app)与第一实施方案的网页应用操作相似,并且便于用户输入与其身体有关的信息和/或数据。在第二实施方案中,这可以包括用户的身高和体重,或仅其身高。还可以操作以从用户接收关于她/他是否希望将其数据贡献给系统10的测试阶段或学习阶段的指示,这可以确定例如接收到的图像等被模糊或加密的程度。
在第二实施方案中,用户数据通过SSL存储在云中,且私人数据被加密。
图像捕获模块
图像捕获模块可操作以向用户提供选项以向系统输入图像,包括经典选项和智能选项。
通过经典选项,用户使用他们自己的数码相机或捕获一个或多个图像或任何类型的图像(例如本文所述的那些),并且被引导以使用个人计算机、笔记本、ipad、平板电脑或者类似的装置上传图像。
通过智能选项(当使用智能手机、个人计算机、笔记本平板电脑或者类似装置时可适用),用户使用智能电话、连接到或内置于笔记本的相机、个人计算机或集成捕获装置(例如相机)并且能够运行程序、脚本、app或类似物的任何装置捕获他们的图像。
图像捕获模块可操作以提供视觉和听觉辅助,以指导用户捕获最佳图像,这取决于用户是由他自己/她自己捕获图像还是其他人在捕获图像。
在不失一般性的情况下,随后在拍摄过程中触发并启动诸如实时人跟踪器和/或人脸跟踪器的视觉辅助,以帮助第三人捕获最佳图像。
在这方面,图像捕获模块包括自适应的基于内核的跟踪器,其使用独特的关键点和独特的面部特征的融合以及颜色或灰度图像中的时空特征来学习如何检测和跟踪人脸。眼睛、鼻子、耳朵和嘴巴检测器和跟踪器是主要面部追踪器中也覆盖的间接子模式。开发的跟踪器使用确定性、单变量和多变量概率模型。
人类跟踪器遵循与面部跟踪器相同的技术,但具有本文所述的独特的人体形状和运动特征。
如上所述,图像捕获模块可操作以产生独特的受试者(用户)特定的人体骨骼,以引导用户捕获最佳图像。为此,使用涉及多变量数据分析的高级人工智能和机器学习技术来学习负责在给定受试者身高和体重或仅仅体重的情况下生成骨骼关节的三维位置的模型。在第二实施方案中,学习过程受到属于超过20,000个真实人受试者的3D扫描的地面真实(实际)解剖数据的约束,因此称为术语生态上有效。凸起优化和拟合过程、几何收缩也被开发到皮肤,将3D扫描到其曲线骨骼、解剖骨骼并获得它们中两个的每一个之间的对应关系。
应当理解,在这方面人造智能和机器学习不受限制,并且在本发明的替代实施方案中,可以学习额外和/或替代模型,并且根据要成像的身体或事物产生骨骼。学习过程的约束可以包括与根据本发明的实施相适应的或多或少的数据,以及与第二实施方案相比的额外和/或替代类型的数据。
在捕获过程中,由系统210实施的上述方法生成并显示(在装置212的触摸屏142上)包括多个骨和关节的实时屏幕人骨骼。然后通过可听见的声音/话语/语音(通过系统210的操作产生并通过装置212输出)来询问用户,以将他的身体部位如胸部、手臂、腿和头部与屏幕上人骨骼的骨对齐。图像捕获模块可操作以通过在特征和各种数据之间计算的误差来控制对齐过程,所述各种数据包括从生成的骨骼和用户的实时捕获图像中提取的形状外观和变化特征、姿势特征、时空(或光流特征,或其他运动数据向量,仅举几例)。在该模块中还利用来自装置212的传感器组的传感器的输出,例如由其陀螺仪捕获的三维取向陀螺仪角度,以进一步确保最佳的直线图像捕获。
然后将图像中的骨骼姿势和用户姿势之间的误差类别和类型反馈或输入到反馈模块,以指导用户拍摄最佳图像(图片)。
对齐过程和视觉和听觉反馈模块同时工作,直到实现用户图像和骨骼之间可接受的对齐,如附图的图4所示。
图像检查和预处理模块
图像检查和预处理模块可操作以彻底检查所捕获图像的影响重构精确的人类化身的一个或多个问题,并且优选地任何问题。这些问题可以包括但不限于:用户误差、由图像质量引起的误差、由内在和外在噪声引起的误差、异物、多个受试者的存在以及由相机镜头引起的失真。在第二实施方案中,这在两个水平中进行:
a.第一水平的检查是在app水平,其中(i)app可操作以检查目标受试者的存在(在第二实施方案中,包括人类用户作为受试者的实例)。对于该任务,已经开发了一种简化但有效的脸、以及人类检测器和跟踪器,其可操作以在检查的基础上检查和接受或拒绝图像。(ii)该app还使用装置212的内置陀螺仪数据来引导用户捕获最佳图像,并且可操作以根据一组预定姿势阈值接收或拒绝图像。(iii)该app还可操作以检查图像的细节,包括格式、大小(包括像素的尺寸和所需的存储空间),以确定是否满足规定的标准,以及它们是否可接受。如果接受,可操作app然后减小图像大小,同时将质量保持在大于或等于原始接受质量的99%。在任何这些步骤中,可以产生和呈现听觉和视觉反馈以引导用户(如上所述)。
b.第二水平的检查是在云中运行的高级图像预处理(AIPP)模块中发生的深入检查,其操作如下。
i.AIPP使用可变大小和方差的高斯内核来过滤捕获的图像,以最小化图像中的噪声,并为即将到来的过程分割准备图像。
ii.AIPP还基于使用像素颜色值或其强度以及它们的图像位置估计的概率和联合概率函数构建统计测试。然后修正照明和照明相关的变化或阴影。然后,统计测试将基于通过大型图像数据库的离线测试识别的预定义阈值决定是否接受或拒绝图像。
iii.AIPP检查并将拒绝具有多个脸部的图像、不规则或失真的图像、具有多个人/人完整/不完整的图像、具有任何具有干扰主要受试者(用户)的特征的外来受试者或背景的图像、用户身体不完全捕获的图像,除了用户已经表示他/她是截肢者并且提供了另外数据的情况或使用两个以上图像的情况(在两个图像的情况下,必须呈现用户正面的完全捕获)。为此目的/任务,使用机器学习方法,并由从图像大数据库(包括含有一个或多个人或没有人的视频)中提取的多种融合的多模态显著特征、描述符和关键点驱动。特征、描述符和关键点属于人体皮肤、面、鼻子、嘴巴、耳朵、手臂、上身、下身、腿、脚(仅举几例),也用于训练、测试和验证这个检查模块中的所述机器学习。
应当理解,在这方面人造智能和机器学习不受限制,并且在本发明的替代实施方案中,可以根据要被成像的身体或事物以及待进行的决定使用额外的和/或替代的训练、测试和验证。
前景(用户剪影)分割模块
从单个图像在前景-背景分割上进行的大多数现有技术工作假设已知或半已知的背景特征,例如在电视节目中使用的色度键屏幕。其他人则寻求用户手动将图像数字化,或在一个或多个图像中识别他们的身体。然而,属于用户或背景的图像或区别特征中的用户身体轮廓(如果已知,确定/输入或可以被估计),为分割身体形状的准确轮廓提供了强大的约束。
发明人已经开发了一种以全自动的方式使用的基于通过“图形切割”基础优化的迭代方法,以分割图像中的人的剪影。本发明的方法在多个方面扩展了标准图形切割中使用的原理,例如最大流最小切割定理、贝叶斯抛光(包括三维图)和概率颜色模型,最重要的是在第二实施方案中它是全自动的,并且当前景和背景颜色分布没有很好地分离时是强大的,因为发明人概率模型不仅包括像素强度,而且包括它们的位置及其与人类形状结构(图形)的相关性/连接(依从性)。第二实施方案的系统210可操作地执行的开发方法的步骤可以总结如下。
该方法需要以下输入的一些或全部,以便从图像中分割用户剪影。本发明自动识别它们。
i.图像中包含用户身体的边框或区域,或斑点。这被用于所谓的“硬”分割图形切割场景。
ii.图像中绝对是、很可能是、有可能/可能是用户身体的前景区或特征。
iii.图像中绝对不是、很可能不是、有可能/可能不是用户身体的背景区或特征。
换言之,为图像中的每个像素提供概率值,该概率值告诉它属于前景或背景的可能性。
由于用户被要求将他/她的身体与上述提及的屏幕上的骨骼对齐,因此:
iv.包含骨骼的边框(区域)严格定义上述(i)中所需要的那个。然而,为了满足不确定性误差,将第二实施方案中的5%的不确定因子加到区域位置,即增加5%。
v.沿着骨骼骨(重叠或共同注册)的图像像素绝对是或很可能是人体的一部分,并且满足上述(ii)。系统210可操作以通过用可变尺寸的内核扩大那些重叠的图像骨骼区域来进一步增强和扩展这些“确定的”身体部位图像区域。尺寸可以与身体部位成比例。例如,如附图的图2所示,沿着后骨的区域通过比手臂的尺寸更大的核扩大。
vi.边框外的像素很可能属于背景,且这满足上述(iii)。
vii.为未标记为前景或背景的边框内的像素提供相等的概率,直到通过另一种方法检查,如下所述。
该子模块可操作以进一步加强准确剪影的分割。还学习并开发了一种基于贝叶斯的皮肤颜色检测器,其用于识别图像中可能具有皮肤颜色的像素。这可操作以允许用户的脸、手和脚和其他不期望的皮肤样对象(在最坏的情况下,身体的其余部分被遮盖的情况下)的检测和分割(而不是识别)。然后,系统210可操作以使用连接的分量分析和拟合、曲率分析来分析这些分割的皮肤斑点并创建半骨骼链接。然后重构和分析邻接数据(矩阵)以去除不是人骨骼链接(骨骼样)的一部分的斑点。然后将剩下的斑点分类为很可能是用户身体的部分。
然后通过检测用户脸部使用学习的脸部检测器来进一步细化上述方法。一旦检测到脸部或脸部轮廓,则应用预定义的面罩来裁剪仅具有人肤色的脸部区域,这意味着检测并去除眼睛、眉毛和嘴巴。然后应用基于裁剪面罩的颜色直方图的背投影算法来识别图像中具有与面罩相同统计学的像素。在第二实施方案中,该子模块的输出包括具有用户特定肤色的斑点,其将进一步增加和精炼所述迭代图形切割方法所需的像素和区域的分类。
最后,像素的颜色、它们的位置和它们的分类被反馈到所提出的迭代图形切割以分割用户剪影。之后是系统210可操作以执行的多个图像处理和变形过程,诸如图像和边缘平滑、孔和丢失数据的填充以及去除小的分离斑点。
化身和剪影匹配模块
化身和剪影匹配模块可操作以根据如本文所述的任务4、5和6执行化身和剪影匹配过程。
总之,本发明的第二实施方案使用3D铰接模型(安装在骨骼上的人模型/化身)。使用前景分割(剪影)的图像匹配类型,受图像数据重叠的屏幕上的骨骼(on-screenskeleton)的限制。用皮肤、脸、鼻子、嘴巴和耳朵检测器和跟踪器来进一步改进/限制它。使用智能面罩来获得用户特有的肤色。然后使用反投影技术对用户独特的皮肤斑点进行分类,并拒绝不匹配或不符合与人体部位如何连接及其与彼此的相关性的确定的连通性分析的那些。还使用主要测地分析(PGA)和一般流形。在几何数据分析和统计形态分析中,主要测地分析是对适用于形状描述符和表象的流形的非欧几里德非线性设置的主分量分析的概括。
应当理解,本发明的所述实施方案提供一些优势。
本发明的实施方案的主要优势在于,它为用户提供作为其减肥/增重/重量维持努力的结果的事实数据,并且在这方面,本发明的实施方案可被视为一种教育工具起作用。随着来自用户的数据的收集,本发明的实施方案可以包括一种或多种可用于估计用户潜在健康益处的预测算法。在这方面,如本文所述,在本发明的实施方案中,检索的数据可以包括所述身体和/或其他身体的一个或多个先前表象的整合、数据或关联,并且数据可以通过操作装置12来产生和/或例如从一个或多个其他来源(例如一个或多个其他装置12或DEXA技术)获得。基于可以包括用户在一段时间内的热量摄取和移动的这种数据,通过一个或多个预测算法,装置12可操作以产生和显示一个或多个预测化身,其显示用户的身体14可能看起来怎么样(如果维持这种方案)。
本发明的实施方案的装置12可用于寻找、定位和建立与这种其他来源的通信。
本发明的实施方案提供通过有效和准确的监测来产生精确的个性化化身以促进减肥(和/或其他个人健身目标)。化身可以立即创建,也可以通过非侵入性程序创建。生成的化身和相关数据的存储允许进行时滞比较,从而精确监测身体变化。
本发明的实施方案可以用于提供反馈以促进进一步的健康变化。通过系统,可以生成一系列化身,其显示用户身体随时间的变化。化身系列创建了用户努力的历史案例研究。用户可以定量地查看结果(vs使用具有观察者偏差的照片)。
通过使用小范围的标准模板和剪影,作为处理要求,减少了由图像差引起的错误。这使得流程更快,成本更低,从而改进用户体验。
此外,分割的前景和剪影的特征允许用户提交的图像被存储而没有个人摄影图像数据。在所述的实施方案中,用户的摄影图像被销毁,从而为用户的隐私提供增强的保护。
本领域技术人员将理解,在不脱离本发明的精神和范围的情况下,对本文所述的发明的变化和修改将是显而易见的。对于本领域技术人员而言显而易见的变化和修改被认为落在本文所述的发明的广泛范围和范围内。
Claims (42)
1.一种用于身体成像的装置,所述装置包括:
控制器;
存储用于控制所述控制器的电子程序指令的存储器;
用于显示用户界面的显示器;和
输入装置;
其中所述控制器在所述电子程序指令的控制下可操作以:
提供视觉和/或听觉辅助,以指导用户经由所述输入装置捕获输入;
经由所述输入装置接收输入,所述输入包括捕获图像;
检查所述输入;
处理所述输入和/或所述经检查的输入;
在所述处理的基础上产生所述身体的表象;和
经由所述显示器显示所述产生的表象。
2.权利要求1所述的装置,其中所述捕获图像包括以下的一个或多个:图像;来自不同视图的图像;图像特征或图案;标记;或标志;或可见或可被检测、可被识别和可被提取的数据;可被检测、可被识别和可被估计,但不可见或无法可视化的特征和数据;深度数据;关键点;独特的身体特征或标志;时空特征。
3.权利要求1或2所述的装置,其中所述输入装置包括一个或多个传感器,且其中所述一个或多个传感器是一组传感器的部分,所述一组传感器包括以下的一个或多个:运动传感器;远红外传感器;无线传感器;深度传感器;三维成像传感器;惯性传感器;微机电(MEMS)传感器;成像装置;加速度传感器;方位传感器;方向传感器;位置传感器和可操作以产生所述身体的外壳的传感器。
4.权利要求3所述的装置,其中所述捕获图像包括所述身体的一个或多个视觉表象,其中所述一个或多个传感器包括可操作以捕获所述身体的一个或多个视觉表象的成像装置,并且其中所述一个或多个传感器包括可操作以提供方位数据的方位传感器,所述方位数据用于捕获所述身体的一个或多个视觉表象以促进其与平面的对齐,增加精确度。
5.权利要求4所述的装置,其中所述身体的一个或多个视觉表象包括至少一张身体的正视图的照片和至少一张身体的侧视图的照片。
6.权利要求5所述的装置,其中所述照片包括以下的至少一种:标准二维(2D)二进制的灰色或彩色图像;具有或不具有颜色和/或纹理的深度图像;具有或不具有颜色和/或纹理的完整的三维(3D)点云或身体的多个不完整的点云;和/或具有或不具有颜色和/或纹理的身体的三维(3D)网格。
7.前述权利要求中任一项所述的装置,其中提供视觉和听觉辅助包括经由可听见的声音/话语/语音指导用户根据对准过程对准身体的各部分,其中所述电子程序指令可操作以通过包括形状、姿势、运动和时空的特征之间计算的误差来控制对齐过程。
8.权利要求4-7中任一项所述的装置,其中所述控制器还在所述电子程序指令的控制下可操作以:
分割至少一个前景,其包含身体的捕获图像的身体的一个或多个视觉表象;
将所述捕获图像的一个或多个视觉表象的一个或多个分割的前景转化为相应的剪影;
使用一个或多个分割的前景和它们相应的剪影来构建身体形状的外壳或身体化身的外壳;和/或提取特征;和/或提取关键点的测量值;和/或描述符;和/或特征;和
使用一个或多个外壳、化身、和/或特征、和/或关键点的测量值、和/或描述符、和/或特征对身体的3D模型(平均身体模型)进行修改、装入和变形,以产生作为表象的修改的受试者特定的3D模型图像。
9.权利要求8所述的装置,其中在任何具有或不具有颜色和/或纹理的深度图像、点云和网格的情况下,所述控制器在所述电子程序指令的控制下可操作以重构身体的三维受试者特定的形状。
10.前述权利要求中任一项所述的装置,其中所述控制器还在所述电子程序指令的控制下可操作以:
通过分割所述捕获图像处理所述捕获图像以获得多个剪影,所述剪影以身体形状的基本上真正的三维扫描的投影阴影的简单形式表示;和
基于所述剪影和使用智能机器学习技术离线学习的大量已知人类形状产生所述身体的所述表象。
11.前述权利要求中任一项所述的装置,其中所述控制器还在所述电子程序指令的控制下可操作以:
基于提交的用户身高信息、图像尺寸(以像素表示的图像高度和宽度)、图像特征和/或关键点,使用二进制图像的斑点分析、投影理论和相机模型,计算以下:
捕获相机的固有参数和外部参数的初始估计,其中包括每个图像中的相机位置和方位,定义为姿势P;和
代表身体骨骼的骨骼模型的关节运动学的初步估计,定义为JK,包括骨骼模型的每个关节的3D位置和3D方位。
12.前述权利要求中任一项所述的装置,其中所述控制器还在所述电子程序指令的控制下可操作以:
基于提交的用户身高和体重信息,或仅用户身高信息,预测初始平均化身,定义为Av,其随用户输入的身高、体重或其他身体测量(如果已知)而变化;和
将平均化身Av装入尺寸为N关节的参考骨骼,所述参考骨骼具有参考姿势的已知的骨骼模型JK,以及定义为W的骨重量/身高矩阵。
13.权利要求12所述的装置,其中所述矩阵W仅在预测过程的学习过程中离线计算一次,然后与待用于预测或产生其他化身的参考骨骼模型JK一起保存,W的目的是限制、控制和建模关节、骨和由其顶点V、边E和面F表示的真实的3D化身表面之间的关系。
14.权利要求13所述的装置,其中所述预测初始平均化身Av的过程遵循基于复杂多变量的机器学习方法。
15.权利要求1-9中任一项所述的装置,其中所述输入包括将所述身体分类,且所述控制器还在所述电子程序指令的控制下可操作以:
基于所述身体的分类,获得与所述身体分类对应的数据;
通过比较所述捕获图像和获得的所述数据处理所述捕获图像;和基于所述比较产生身体的表象。
16.权利要求15所述的装置,其中获得的所述数据包括以下的至少一个:模板;身体的先前表象;和所述身体和/或其他身体的一个或多个先前表象的整合、数据或关联。
17.权利要求1所述的装置,其中所述身体是用户的身体,且所述捕获图像包括所述身体的一个或多个视觉表象,并且其中所述控制器还在所述电子程序指令的控制下可操作以:
使用户能够将捕获图像中的身体与所产生的用户特定的骨骼对齐,至少部分地通过(i)沿着所述身体的一个或多个实时捕获图像显示所述用户特定的骨骼和(ii)指导用户以使所显示的身体与所显示的用户特定的骨骼对齐的方式移动;
当所显示的身体已经与所显示的用户特定的骨骼对齐时,通过分割所述捕获图像的身体的一个或多个视觉表象,以获得多个剪影,所述剪影对应于身体形状的基本上真正的三维扫描的投影阴影;和
基于所述多个剪影和所述身体分类产生所述身体的所述表象。
18.前述权利要求中任一项所述的装置,其中所述身体是以下的至少一种:人体或其一个或多个部分;生物或其一个或多个部分;非生物或其一个或多个部分。
19.一种用于身体成像的方法,所述方法包括:
存储用于控制控制器的电子程序指令;和
经由所述电子程序指令控制所述控制器以:
提供视觉和/或听觉辅助,以指导用户经由所述输入装置捕获输入;经由所述输入装置接收输入,所述输入包括捕获图像;
检查所述输入;
处理所述输入和/或所述经检查的输入;
在所述处理的基础上产生所述身体的表象;和
经由所述显示器显示所述产生的表象。
20.权利要求19所述的方法,其中所述捕获图像包括以下的一个或多个:图像;来自不同视图的图像;图像特征或图案;标记;或标志;或可见或可被检测、可被识别和可被提取的数据;可被检测、可被识别和可被估计,但不可见或无法可视化的特征和数据;深度数据;关键点;独特的身体特征或标志;时空特征。
21.权利要求19或20所述的方法,其中提供视觉和听觉辅助包括经由可听见的声音/话语/语音指导用户根据对准过程对准身体的各部分,其中所述电子程序指令可操作以通过包括形状、姿势、运动和时空的特征之间计算的误差来控制对齐过程。
22.权利要求19-21中任一项所述的方法,还包括经由电子程序指令控制所述控制器,以:
分割至少一个前景,其包含身体的捕获图像的身体的一个或多个视觉表象;
将所述捕获图像的一个或多个视觉表象的一个或多个分割的前景转化为相应的剪影;
使用一个或多个分割的前景和它们相应的剪影来构建身体形状的外壳,和/或提取特征,和/或提取关键点的测量值,和/或描述符,和/或特征;和
使用一个或多个外壳、化身、和/或特征、和/或关键点的测量值、和/或描述符、和/或特征对所选模板的身体3D模型(平均身体模型)进行修改、装入和变形,以产生作为表象的修改的受试者特定的3D模型图像。
23.权利要求22所述的方法,其中在任何具有或不具有颜色和/或纹理的深度图像、点云和网格的情况下,经由所述电子程序指令控制所述控制器以重构身体的三维受试者特定的形状。
24.权利要求19-23中任一项所述的方法,还包括经由所述电子程序指令控制所述控制器,以:
通过分割所述捕获图像处理所述捕获图像以获得多个剪影,所述剪影以身体基本上真正的三维扫描的投影阴影的简单形式表示;和
基于所述剪影和使用智能机器学习技术离线学习的大量已知人类形状产生所述身体的所述表象。
25.权利要求19-24中任一项所述的方法,还包括经由所述电子程序指令控制所述控制器,以:
基于提交的用户身高信息、图像尺寸(以像素表示的图像高度和宽度)、图像特征和/或关键点,使用二进制图像的斑点分析、投影理论和相机模型,计算以下:
捕获相机的固有参数和外部参数的初始估计,其中包括每个图像中的相机位置和方位,定义为姿势P;和
代表身体骨骼的骨骼模型的关节运动学的初步估计,定义为JK,包括骨骼模型的每个关节的3D位置和3D方位。
26.权利要求19-25中任一项所述的方法,还包括经由所述电子程序指令控制所述控制器,以:
基于提交的用户身高和体重信息,或仅用户身高信息,预测初始平均化身,定义为Av,其随用户输入的身高、体重或其他身体测量(如果已知)而变化;和
将平均化身Av装入尺寸为N关节的参考骨骼,所述参考骨骼具有参考姿势的已知的骨骼模型JK,以及定义为W的骨重量/身高矩阵。
27.权利要求26所述的方法,其中所述矩阵W仅在预测过程的学习过程中离线计算一次,然后与待用于预测或产生其他化身的参考骨骼模型JK一起保存,W的目的是限制、控制和建模关节、骨和由其顶点V、边E和面F表示的真实的3D化身表面之间的关系。
28.权利要求27所述的方法,其中所述预测初始平均化身Av的过程遵循基于复杂多变量的机器学习方法。
29.权利要求19-21中任一项所述的方法,其中所述输入包括将所述身体分类,还包括经由所述电子程序指令控制所述控制器,以:
基于所述身体的分类,获得与所述身体分类对应的数据;
通过比较所述捕获图像和获得的所述数据处理所述捕获图像;和基于所述比较产生身体的表象。
30.权利要求29所述的方法,其中获得的所述数据包括以下的至少一个:模板;身体的先前表象;和所述身体和/或其他身体的一个或多个先前表象的整合、数据或关联。
31.权利要求19-21所述的方法,其中所述身体是用户的身体,且所述捕获图像包括所述身体的一个或多个视觉表象,还包括经由所述电子程序指令控制所述控制器,以:
使用户能够将捕获图像中的身体与所产生的用户特定的骨骼对齐,至少部分地通过(i)沿着所述身体的一个或多个实时捕获图像显示所述用户特定的骨骼和(ii)指导用户以使所显示的身体与所显示的用户特定的骨骼对齐的方式移动;
当所显示的身体已经与所显示的用户特定的骨骼对齐时,通过分割所述捕获图像的身体的一个或多个视觉表象,以获得多个剪影,所述剪影对应于身体形状的基本上真正的三维扫描的投影阴影;和
基于所述多个剪影和所述身体分类产生所述身体的所述表象。
32.权利要求19-31所述的方法,其中所述身体是以下的至少一种:人体或其一个或多个部分;生物或其一个或多个部分;非生物或其一个或多个部分。
33.一种其上存储有指令的计算机可读存储介质,当由计算装置执行时,所述指令使得计算装置执行根据权利要求19-32任一项所述的方法。
34.一种计算装置,其被编程为执行根据权利要求19-32中任一项所述的方法。
35.一种数据信号,其包括能够由计算系统接收和解释的至少一个指令,其中所述指令实施根据权利要求19-32中任一项所述的方法。
36.一种用于身体成像的系统,包括权利要求1-18中任一项所述的装置。
37.权利要求1-18中任一项所述的装置,用于经由显示器产生和显示身体的一个或多个表象,以提供用于实现该目的的动机。
38.权利要求37所述的装置,其中所述身体是人体,其中所述一个或多个表象包括所述人体的精确的个性化的受试者特定的图像,从而通过有效且准确地监测所述人体来促进和帮助实现个人健身目标。
39.权利要求1-18中任一项所述的装置,其中所述输入包括所述身体的分类。
40.权利要求1-18或39中任一项所述的装置,其中所述控制器还在所述电子程序指令的控制下可操作,以经由安全网络和/或服务器传送所生成的表象。
41.权利要求19-32中任一项所述的方法,其中所述输入包括所述身体的分类。
42.权利要求19-32或41中任一项所述的方法,其中所述控制器还在所述电子程序指令的控制下可操作,以经由安全网络和/或服务器传送所生成的表象。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AU2014904940 | 2014-12-05 | ||
AU2014904940A AU2014904940A0 (en) | 2014-12-05 | Imaging a Body | |
CN201580066271.XA CN106999107B (zh) | 2014-12-05 | 2015-12-04 | 身体成像 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580066271.XA Division CN106999107B (zh) | 2014-12-05 | 2015-12-04 | 身体成像 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110223272A true CN110223272A (zh) | 2019-09-10 |
Family
ID=56090732
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580066271.XA Active CN106999107B (zh) | 2014-12-05 | 2015-12-04 | 身体成像 |
CN201910393173.7A Pending CN110223272A (zh) | 2014-12-05 | 2015-12-04 | 身体成像 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580066271.XA Active CN106999107B (zh) | 2014-12-05 | 2015-12-04 | 身体成像 |
Country Status (13)
Country | Link |
---|---|
US (1) | US9949697B2 (zh) |
EP (1) | EP3226763B1 (zh) |
JP (3) | JP6434623B2 (zh) |
KR (4) | KR102394593B1 (zh) |
CN (2) | CN106999107B (zh) |
AU (1) | AU2015358289B2 (zh) |
CA (1) | CA2969762C (zh) |
DE (1) | DE15864375T1 (zh) |
ES (1) | ES2647340T1 (zh) |
MA (1) | MA41117A (zh) |
NZ (1) | NZ761690A (zh) |
SG (3) | SG10202001239PA (zh) |
WO (1) | WO2016086266A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115458128A (zh) * | 2022-11-10 | 2022-12-09 | 北方健康医疗大数据科技有限公司 | 一种基于关键点生成数字人体影像的方法、装置及设备 |
US11989892B2 (en) | 2018-08-10 | 2024-05-21 | Sony Corporation | Information processing apparatus and information processing method |
Families Citing this family (88)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI439960B (zh) | 2010-04-07 | 2014-06-01 | Apple Inc | 虛擬使用者編輯環境 |
MA41117A (fr) * | 2014-12-05 | 2017-10-10 | Myfiziq Ltd | Imagerie d'un corps |
US10521429B2 (en) * | 2015-06-09 | 2019-12-31 | Microsoft Technology Licensing, Llc. | Interactive graphical system for estimating body measurements |
US10665019B2 (en) * | 2016-03-24 | 2020-05-26 | Qualcomm Incorporated | Spatial relationships for integration of visual images of physical environment into virtual reality |
WO2017187641A1 (ja) * | 2016-04-28 | 2017-11-02 | 富士通株式会社 | 骨格推定装置、骨格推定方法および骨格推定プログラム |
DK179471B1 (en) | 2016-09-23 | 2018-11-26 | Apple Inc. | IMAGE DATA FOR ENHANCED USER INTERACTIONS |
KR101851303B1 (ko) | 2016-10-27 | 2018-04-23 | 주식회사 맥스트 | 3차원 공간 재구성 장치 및 방법 |
US20230107110A1 (en) * | 2017-04-10 | 2023-04-06 | Eys3D Microelectronics, Co. | Depth processing system and operational method thereof |
EP3387997B1 (en) * | 2017-04-13 | 2020-02-26 | Siemens Healthcare GmbH | Medical imaging device and method controlling one or more parameters of a medical imaging device |
KR102439054B1 (ko) | 2017-05-16 | 2022-09-02 | 애플 인크. | 이모지 레코딩 및 전송 |
US10311624B2 (en) * | 2017-06-23 | 2019-06-04 | Disney Enterprises, Inc. | Single shot capture to animated vr avatar |
JP1607361S (zh) * | 2017-06-23 | 2018-06-25 | ||
CN110832553B (zh) * | 2017-06-29 | 2024-05-14 | 索尼公司 | 图像处理装置和图像处理方法 |
CN111183456A (zh) * | 2017-10-03 | 2020-05-19 | 富士通株式会社 | 识别程序、识别方法以及识别装置 |
US10657709B2 (en) * | 2017-10-23 | 2020-05-19 | Fit3D, Inc. | Generation of body models and measurements |
WO2019089645A1 (en) | 2017-10-31 | 2019-05-09 | Swanson James Martin | Systems and methods to estimate human length |
US10460512B2 (en) * | 2017-11-07 | 2019-10-29 | Microsoft Technology Licensing, Llc | 3D skeletonization using truncated epipolar lines |
US20190163270A1 (en) * | 2017-11-27 | 2019-05-30 | Fitbit, Inc. | Methods and systems for fitness-monitoring device displaying biometric sensor data-based interactive applications |
US10706262B2 (en) * | 2018-01-08 | 2020-07-07 | 3DLOOK Inc. | Intelligent body measurement |
CN108171792A (zh) * | 2018-01-15 | 2018-06-15 | 深圳市云之梦科技有限公司 | 一种基于语义参数的人体三维模型恢复技术的方法及系统 |
US10321728B1 (en) | 2018-04-20 | 2019-06-18 | Bodygram, Inc. | Systems and methods for full body measurements extraction |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
DK180078B1 (en) | 2018-05-07 | 2020-03-31 | Apple Inc. | USER INTERFACE FOR AVATAR CREATION |
US12033296B2 (en) | 2018-05-07 | 2024-07-09 | Apple Inc. | Avatar creation user interface |
KR102030040B1 (ko) * | 2018-05-09 | 2019-10-08 | 한화정밀기계 주식회사 | 빈 피킹을 위한 빈 모델링 방법 및 그 장치 |
WO2020049358A2 (en) | 2018-09-06 | 2020-03-12 | Prohibition X Pte Ltd | Clothing having one or more printed areas disguising a shape or a size of a biological feature |
JP7437327B2 (ja) * | 2018-07-02 | 2024-02-22 | マジック リープ, インコーポレイテッド | 異種入力の補間のための方法およびシステム |
KR102668240B1 (ko) * | 2018-07-25 | 2024-05-22 | 삼성전자주식회사 | 사용자의 신체 상태를 추정하기 위한 방법 및 디바이스 |
US10810432B2 (en) | 2018-08-02 | 2020-10-20 | Motorola Solutions, Inc. | Methods and systems for differentiating one or more objects in a video |
US12080425B1 (en) * | 2020-01-28 | 2024-09-03 | C/Hca, Inc. | Event triggering utilizing segment assignments |
KR102044237B1 (ko) * | 2018-10-23 | 2019-11-13 | 연세대학교 산학협력단 | 2차원 음영 영상 기반 기계학습을 이용한 자동 3차원 랜드마크 검출 방법 및 장치 |
US10984609B2 (en) | 2018-11-21 | 2021-04-20 | Electronics And Telecommunications Research Institute | Apparatus and method for generating 3D avatar |
US11507781B2 (en) | 2018-12-17 | 2022-11-22 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
US11010896B2 (en) | 2018-12-17 | 2021-05-18 | Bodygram, Inc. | Methods and systems for generating 3D datasets to train deep learning networks for measurements estimation |
US10489683B1 (en) | 2018-12-17 | 2019-11-26 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
TWI715903B (zh) * | 2018-12-24 | 2021-01-11 | 財團法人工業技術研究院 | 動作追蹤系統及方法 |
AU2019412503A1 (en) * | 2018-12-24 | 2021-07-08 | Body Composition Technologies Pty Ltd | Analysing a body |
US11375922B2 (en) * | 2019-01-03 | 2022-07-05 | Lg Electronics Inc. | Body measurement device and method for controlling the same |
US20220078339A1 (en) * | 2019-01-03 | 2022-03-10 | Idiction Co., Ltd. | Method for obtaining picture for measuring body size and body size measurement method, server, and program using same |
US10909709B2 (en) | 2019-01-03 | 2021-02-02 | Lg Electronics Inc. | Body measurement device and method for controlling the same |
US11107261B2 (en) * | 2019-01-18 | 2021-08-31 | Apple Inc. | Virtual avatar animation based on facial feature movement |
GB2581167A (en) * | 2019-02-06 | 2020-08-12 | Arbroath Capital Uk Risk Man Consulting Limited | Video processing apparatus |
FR3093215B1 (fr) * | 2019-02-22 | 2021-08-27 | Fogale Nanotech | Procédé et dispositif de surveillance de l’environnement d’un robot |
USD918932S1 (en) * | 2019-03-12 | 2021-05-11 | Hologic, Inc. | Electronic display screen with graphical user interface with patient orientation element |
US10953334B2 (en) * | 2019-03-27 | 2021-03-23 | Electronic Arts Inc. | Virtual character generation from image or video data |
CN113994396A (zh) | 2019-04-01 | 2022-01-28 | 陈健 | 基于增强现实和/或姿势检测技术的用户引导系统 |
CN110148212B (zh) * | 2019-05-17 | 2023-01-31 | 北京市商汤科技开发有限公司 | 一种动作序列生成方法及装置、电子设备和存储介质 |
EP3770809A4 (en) | 2019-06-14 | 2022-03-09 | Korea University Research and Business Foundation | METHOD AND APPARATUS FOR ESTIMATING A USER'S POSE USING A VIRTUAL THREE-DIMENSIONAL SPACE MODEL |
KR102387797B1 (ko) * | 2019-06-14 | 2022-04-19 | 고려대학교 산학협력단 | 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치 |
US11903730B1 (en) * | 2019-09-25 | 2024-02-20 | Amazon Technologies, Inc. | Body fat measurements from a two-dimensional image |
JP7527773B2 (ja) * | 2019-11-18 | 2024-08-05 | キヤノン株式会社 | 放射線撮影システム、放射線撮影方法、画像処理装置およびプログラム |
USD997180S1 (en) * | 2019-11-26 | 2023-08-29 | Siemens Healthcare Gmbh | Display screen or portion thereof with a graphical user interface |
US11657513B2 (en) | 2019-11-29 | 2023-05-23 | Samsung Electronics Co., Ltd. | Method and system for generating a tri-map for image matting |
CN111008966A (zh) * | 2019-12-02 | 2020-04-14 | 深圳市繁维医疗科技有限公司 | 基于rgbd的单视角人体测量方法、装置以及计算机可读存储介质 |
CN111127495A (zh) * | 2019-12-04 | 2020-05-08 | 深圳市图郅创新科技有限公司 | 一种关于图像关键点检测的神经网络模型建立方法 |
CN111105348A (zh) * | 2019-12-25 | 2020-05-05 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、图像处理设备及存储介质 |
US12099997B1 (en) | 2020-01-31 | 2024-09-24 | Steven Mark Hoffberg | Tokenized fungible liabilities |
US11631288B2 (en) * | 2020-02-12 | 2023-04-18 | The Boeing Company | Maintenance prediction system for a vehicle |
TWI798655B (zh) * | 2020-03-09 | 2023-04-11 | 美商奈米創尼克影像公司 | 缺陷偵測系統 |
KR102160556B1 (ko) * | 2020-03-11 | 2020-09-28 | 이대권 | 신체 정보 제공 장치 및 방법 |
CN113397526B (zh) * | 2020-03-17 | 2024-09-13 | 苹果公司 | 人体高度估计 |
DK181103B1 (en) | 2020-05-11 | 2022-12-15 | Apple Inc | User interfaces related to time |
US11921998B2 (en) | 2020-05-11 | 2024-03-05 | Apple Inc. | Editing features of an avatar |
CN111724784A (zh) * | 2020-06-28 | 2020-09-29 | 北京小米松果电子有限公司 | 设备控制方法及装置 |
WO2022094670A1 (en) * | 2020-11-06 | 2022-05-12 | Evolt Ip Pty Ltd | Nutrition management system and method |
CN113040984B (zh) * | 2020-11-21 | 2022-01-14 | 陕西立博源科技有限公司 | 智能化腿部分区域构造系统及方法 |
JPWO2022138585A1 (zh) * | 2020-12-21 | 2022-06-30 | ||
CN114697539B (zh) * | 2020-12-31 | 2024-10-15 | 深圳市万普拉斯科技有限公司 | 拍照推荐方法、装置、电子设备以及存储介质 |
CN112802031B (zh) * | 2021-01-06 | 2023-05-05 | 浙江工商大学 | 一种基于三维人头跟踪的实时虚拟试发方法 |
US20220301682A1 (en) * | 2021-03-16 | 2022-09-22 | Adobe Inc. | Dynamically Adaptable Health Experience based on Data Triggers |
US12039732B2 (en) * | 2021-04-14 | 2024-07-16 | The Procter & Gamble Company | Digital imaging and learning systems and methods for analyzing pixel data of a scalp region of a users scalp to generate one or more user-specific scalp classifications |
WO2022240745A1 (en) * | 2021-05-11 | 2022-11-17 | Tam Technologies, Inc. | Methods and systems for representing a user |
US11776190B2 (en) | 2021-06-04 | 2023-10-03 | Apple Inc. | Techniques for managing an avatar on a lock screen |
US11854146B1 (en) | 2021-06-25 | 2023-12-26 | Amazon Technologies, Inc. | Three-dimensional body composition from two-dimensional images of a portion of a body |
US11887252B1 (en) | 2021-08-25 | 2024-01-30 | Amazon Technologies, Inc. | Body model composition update from two-dimensional face images |
US20230065288A1 (en) * | 2021-08-30 | 2023-03-02 | Apple Inc. | Electronic Devices with Body Composition Analysis Circuitry |
CN113887311B (zh) | 2021-09-03 | 2023-05-02 | 中山大学中山眼科中心 | 一种保护眼科患者隐私的方法、装置及存储介质 |
US11861860B2 (en) | 2021-09-29 | 2024-01-02 | Amazon Technologies, Inc. | Body dimensions from two-dimensional body images |
KR102587911B1 (ko) * | 2021-10-13 | 2023-10-12 | 호전실업 주식회사 | 가상 의류시스템의 활용을 위한 인체 이미지 획득 방법 및 이를 위한 애플리케이션 프로그램 |
CN114035683B (zh) * | 2021-11-08 | 2024-03-29 | 百度在线网络技术(北京)有限公司 | 用户捕捉方法、装置、设备、存储介质及计算机程序产品 |
KR102646272B1 (ko) * | 2021-11-18 | 2024-03-12 | 동국대학교 산학협력단 | 사용자 단말기 및 사용자의 신체 부위 별 체형 정보를 제공하는 방법 |
KR102652121B1 (ko) * | 2022-01-11 | 2024-03-29 | (주)헬스허브 | 가상공간과 현실공간이 공존하는 메타버스 환경에서의 개인식별 장치 및 그 방법 |
KR102532848B1 (ko) * | 2022-06-08 | 2023-05-17 | 아이디어링크 주식회사 | 바디 쉐입 기반의 아바타 생성 방법 및 장치 |
CN114821006B (zh) * | 2022-06-23 | 2022-09-20 | 盾钰(上海)互联网科技有限公司 | 交互式间接推理的孪生体态检测方法及系统 |
EP4303824A1 (en) * | 2022-07-06 | 2024-01-10 | Cyberhuman Limited | System and method for monitoring a body pose of a user |
US20240020901A1 (en) * | 2022-07-13 | 2024-01-18 | Fd Ip & Licensing Llc | Method and application for animating computer generated images |
WO2024069911A1 (ja) * | 2022-09-30 | 2024-04-04 | 三菱電機株式会社 | 姿態改善支援システム、処理装置、姿態改善支援方法、及び処理方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100111370A1 (en) * | 2008-08-15 | 2010-05-06 | Black Michael J | Method and apparatus for estimating body shape |
CN102413886A (zh) * | 2009-05-01 | 2012-04-11 | 微软公司 | 示出身体位置 |
CN102541256A (zh) * | 2010-10-28 | 2012-07-04 | 微软公司 | 具有视觉反馈的位置知晓姿势作为输入方法 |
CN103049852A (zh) * | 2012-12-19 | 2013-04-17 | 武汉世纪炎龙网络科技有限公司 | 虚拟试衣系统 |
US20130336550A1 (en) * | 2012-06-13 | 2013-12-19 | Microsoft Corporation | Monitoring physical body changes via image sensor |
US20140100464A1 (en) * | 2012-10-09 | 2014-04-10 | Bodies Done Right | Virtual avatar using biometric feedback |
CN104103090A (zh) * | 2013-04-03 | 2014-10-15 | 北京三星通信技术研究有限公司 | 图像处理方法、个性化人体显示方法及其图像处理系统 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3244798B2 (ja) | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
JP3896665B2 (ja) * | 1998-01-05 | 2007-03-22 | ソニー株式会社 | 脊椎動物若しくはこれを模倣したロボットに関する数値モデルの作成方法 |
JP2000251078A (ja) * | 1998-12-22 | 2000-09-14 | Atr Media Integration & Communications Res Lab | 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置 |
US6807290B2 (en) * | 2000-03-09 | 2004-10-19 | Microsoft Corporation | Rapid computer modeling of faces for animation |
JP3668168B2 (ja) | 2001-09-14 | 2005-07-06 | 株式会社東芝 | 動画像処理装置 |
GB0226787D0 (en) | 2002-11-18 | 2002-12-24 | Qinetiq Ltd | Measurement of mitotic activity |
GB0520829D0 (en) | 2005-10-13 | 2005-11-23 | Univ Cambridge Tech | Image processing methods and apparatus |
PL1993443T3 (pl) | 2006-02-27 | 2016-06-30 | Select Res Ltd | Wskaźnik stanu zdrowia |
DE602006014602D1 (de) | 2006-12-01 | 2010-07-08 | Panasonic Corp | Iterative Bewegungs-Segmentierung |
GB2452944B8 (en) | 2007-09-19 | 2016-09-14 | Toshiba Res Europ Ltd | An imaging system and method |
KR101589711B1 (ko) | 2007-10-12 | 2016-01-28 | 도요타 모터 유럽 | 비디오 데이터의 처리 방법 및 시스템 |
US20090124866A1 (en) * | 2007-11-09 | 2009-05-14 | The Quantum Group, Inc. | Intelligent personal health profile |
US8437549B2 (en) | 2008-03-14 | 2013-05-07 | Panasonic Corporation | Image processing method and image processing apparatus |
WO2010027015A1 (ja) * | 2008-09-05 | 2010-03-11 | 国立大学法人東京大学 | モーションキャプチャ装置 |
GB2464453B8 (en) | 2008-10-10 | 2016-09-14 | Toshiba Res Europ Ltd | An imaging system and method |
JP5404918B2 (ja) * | 2010-03-15 | 2014-02-05 | パナソニック株式会社 | 移動軌跡算出方法およびその装置、ならびに領域分割方法 |
EP2395456A1 (en) | 2010-06-12 | 2011-12-14 | Toyota Motor Europe NV/SA | Methods and systems for semantic label propagation |
GB2484133B (en) | 2010-09-30 | 2013-08-14 | Toshiba Res Europ Ltd | A video analysis method and system |
US9283429B2 (en) * | 2010-11-05 | 2016-03-15 | Nike, Inc. | Method and system for automated personal training |
US9223936B2 (en) * | 2010-11-24 | 2015-12-29 | Nike, Inc. | Fatigue indices and uses thereof |
GB2490872B (en) | 2011-05-09 | 2015-07-29 | Toshiba Res Europ Ltd | Methods and systems for capturing 3d surface geometry |
US11133096B2 (en) * | 2011-08-08 | 2021-09-28 | Smith & Nephew, Inc. | Method for non-invasive motion tracking to augment patient administered physical rehabilitation |
GB201209382D0 (en) * | 2012-05-25 | 2012-07-11 | Poikos Ltd | Body measurement |
US10037820B2 (en) * | 2012-05-29 | 2018-07-31 | Medical Avatar Llc | System and method for managing past, present, and future states of health using personalized 3-D anatomical models |
SG11201503974SA (en) * | 2012-11-22 | 2015-06-29 | Agency Science Tech & Res | Method, apparatus and system for virtual clothes modelling |
JP6173984B2 (ja) * | 2014-08-08 | 2017-08-02 | ソフトバンク株式会社 | 3dモデリング情報作成支援システム、3dモデリング情報作成支援方法、及び3dモデリング情報作成支援プログラム |
MA41117A (fr) * | 2014-12-05 | 2017-10-10 | Myfiziq Ltd | Imagerie d'un corps |
-
2015
- 2015-12-03 MA MA041117A patent/MA41117A/fr unknown
- 2015-12-04 JP JP2017527800A patent/JP6434623B2/ja active Active
- 2015-12-04 KR KR1020217011739A patent/KR102394593B1/ko active IP Right Grant
- 2015-12-04 SG SG10202001239PA patent/SG10202001239PA/en unknown
- 2015-12-04 ES ES15864375.9T patent/ES2647340T1/es active Pending
- 2015-12-04 DE DE15864375.9T patent/DE15864375T1/de active Pending
- 2015-12-04 SG SG11201703993RA patent/SG11201703993RA/en unknown
- 2015-12-04 SG SG10201806180VA patent/SG10201806180VA/en unknown
- 2015-12-04 CA CA2969762A patent/CA2969762C/en active Active
- 2015-12-04 KR KR1020187014315A patent/KR101980503B1/ko active IP Right Grant
- 2015-12-04 CN CN201580066271.XA patent/CN106999107B/zh active Active
- 2015-12-04 CN CN201910393173.7A patent/CN110223272A/zh active Pending
- 2015-12-04 AU AU2015358289A patent/AU2015358289B2/en active Active
- 2015-12-04 KR KR1020177018452A patent/KR101894686B1/ko active IP Right Grant
- 2015-12-04 WO PCT/AU2015/000736 patent/WO2016086266A1/en active Application Filing
- 2015-12-04 EP EP15864375.9A patent/EP3226763B1/en active Active
- 2015-12-04 NZ NZ761690A patent/NZ761690A/en unknown
- 2015-12-04 KR KR1020197001317A patent/KR102290040B1/ko active IP Right Grant
-
2017
- 2017-06-02 US US15/612,441 patent/US9949697B2/en active Active
-
2018
- 2018-08-06 JP JP2018147992A patent/JP6424293B1/ja active Active
- 2018-11-08 JP JP2018210699A patent/JP6559317B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100111370A1 (en) * | 2008-08-15 | 2010-05-06 | Black Michael J | Method and apparatus for estimating body shape |
CN102413886A (zh) * | 2009-05-01 | 2012-04-11 | 微软公司 | 示出身体位置 |
CN102541256A (zh) * | 2010-10-28 | 2012-07-04 | 微软公司 | 具有视觉反馈的位置知晓姿势作为输入方法 |
US20130336550A1 (en) * | 2012-06-13 | 2013-12-19 | Microsoft Corporation | Monitoring physical body changes via image sensor |
US20140100464A1 (en) * | 2012-10-09 | 2014-04-10 | Bodies Done Right | Virtual avatar using biometric feedback |
CN103049852A (zh) * | 2012-12-19 | 2013-04-17 | 武汉世纪炎龙网络科技有限公司 | 虚拟试衣系统 |
CN104103090A (zh) * | 2013-04-03 | 2014-10-15 | 北京三星通信技术研究有限公司 | 图像处理方法、个性化人体显示方法及其图像处理系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11989892B2 (en) | 2018-08-10 | 2024-05-21 | Sony Corporation | Information processing apparatus and information processing method |
CN115458128A (zh) * | 2022-11-10 | 2022-12-09 | 北方健康医疗大数据科技有限公司 | 一种基于关键点生成数字人体影像的方法、装置及设备 |
CN115458128B (zh) * | 2022-11-10 | 2023-03-24 | 北方健康医疗大数据科技有限公司 | 一种基于关键点生成数字人体影像的方法、装置及设备 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106999107B (zh) | 身体成像 | |
JP7075085B2 (ja) | 全身測定値抽出のためのシステムおよび方法 | |
Bhatnagar et al. | Combining implicit function learning and parametric models for 3d human reconstruction | |
CN110310285B (zh) | 一种精确的基于三维人体重建的烧伤面积计算方法 | |
JP2015015021A (ja) | 被写体の三次元表現を生成する方法およびシステム | |
Sengan et al. | Cost-effective and efficient 3D human model creation and re-identification application for human digital twins | |
Wang et al. | Dynamic human body reconstruction and motion tracking with low-cost depth cameras | |
Li et al. | Remodeling of mannequins based on automatic binding of mesh to anthropometric parameters | |
Wei et al. | The application of image analysis technology in the extraction of human body feature parameters | |
Lund et al. | AI-Driven Fashion: A New Era of Personalized Virtual Fitting and Styling | |
NZ761693B2 (en) | Imaging a Body | |
NZ731721B2 (en) | Imaging a body | |
US20240087266A1 (en) | Deforming real-world object using image warping | |
Cheng et al. | Dynamic human shape description and characterisation | |
JP2022521844A (ja) | 深層学習ネットワークを使用してユーザ写真から体重を測定するシステム及び方法 | |
WO2024058966A1 (en) | Deforming real-world object using image warping | |
Meng et al. | Detection of the Toe-off Feature of Planar Shoeprint Based on CNN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40012722 Country of ref document: HK |
|
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: South Perth, Australia Applicant after: Advanced human imaging Co.,Ltd. Address before: South Perth, Australia Applicant before: MyFiziq Ltd. |