CN114980810A - 用于检测人的运动过程和/或生命体征参数的系统 - Google Patents
用于检测人的运动过程和/或生命体征参数的系统 Download PDFInfo
- Publication number
- CN114980810A CN114980810A CN202080076764.2A CN202080076764A CN114980810A CN 114980810 A CN114980810 A CN 114980810A CN 202080076764 A CN202080076764 A CN 202080076764A CN 114980810 A CN114980810 A CN 114980810A
- Authority
- CN
- China
- Prior art keywords
- person
- service robot
- detection
- module
- patient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 483
- 238000000034 method Methods 0.000 claims abstract description 522
- 238000004458 analytical method Methods 0.000 claims description 281
- 238000001514 detection method Methods 0.000 claims description 236
- 238000000605 extraction Methods 0.000 claims description 80
- 238000011156 evaluation Methods 0.000 claims description 39
- 238000012544 monitoring process Methods 0.000 claims description 16
- 230000000977 initiatory effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 49
- 239000013598 vector Substances 0.000 description 146
- 238000012360 testing method Methods 0.000 description 116
- 230000008569 process Effects 0.000 description 110
- 210000003128 head Anatomy 0.000 description 101
- 210000000544 articulatio talocruralis Anatomy 0.000 description 94
- 210000003811 finger Anatomy 0.000 description 90
- 230000005236 sound signal Effects 0.000 description 79
- 210000000629 knee joint Anatomy 0.000 description 76
- 230000005021 gait Effects 0.000 description 74
- 230000008859 change Effects 0.000 description 66
- 230000036407 pain Effects 0.000 description 62
- 238000005259 measurement Methods 0.000 description 60
- 210000002683 foot Anatomy 0.000 description 51
- 230000000295 complement effect Effects 0.000 description 46
- 210000002414 leg Anatomy 0.000 description 46
- 230000029058 respiratory gaseous exchange Effects 0.000 description 44
- 210000004394 hip joint Anatomy 0.000 description 41
- 239000000126 substance Substances 0.000 description 41
- 238000007726 management method Methods 0.000 description 39
- 238000001228 spectrum Methods 0.000 description 38
- 210000000746 body region Anatomy 0.000 description 36
- 238000004422 calculation algorithm Methods 0.000 description 35
- 230000000875 corresponding effect Effects 0.000 description 34
- 230000000007 visual effect Effects 0.000 description 34
- 230000001133 acceleration Effects 0.000 description 32
- 238000012937 correction Methods 0.000 description 30
- 238000010801 machine learning Methods 0.000 description 28
- 230000003930 cognitive ability Effects 0.000 description 26
- 206010011224 Cough Diseases 0.000 description 25
- 238000013528 artificial neural network Methods 0.000 description 25
- 230000036544 posture Effects 0.000 description 25
- 230000036772 blood pressure Effects 0.000 description 24
- 230000006870 function Effects 0.000 description 22
- 210000004247 hand Anatomy 0.000 description 22
- 230000008451 emotion Effects 0.000 description 21
- 238000009826 distribution Methods 0.000 description 19
- 230000000694 effects Effects 0.000 description 19
- 230000011218 segmentation Effects 0.000 description 19
- 210000001364 upper extremity Anatomy 0.000 description 19
- 230000002980 postoperative effect Effects 0.000 description 18
- 206010012218 Delirium Diseases 0.000 description 17
- 230000001815 facial effect Effects 0.000 description 17
- 239000011159 matrix material Substances 0.000 description 17
- 210000000323 shoulder joint Anatomy 0.000 description 17
- 208000024827 Alzheimer disease Diseases 0.000 description 16
- 230000004438 eyesight Effects 0.000 description 16
- 210000001624 hip Anatomy 0.000 description 16
- 230000007246 mechanism Effects 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 15
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 15
- 210000002478 hand joint Anatomy 0.000 description 15
- 210000003127 knee Anatomy 0.000 description 15
- 210000002832 shoulder Anatomy 0.000 description 15
- 238000004891 communication Methods 0.000 description 14
- 201000010099 disease Diseases 0.000 description 14
- 210000000038 chest Anatomy 0.000 description 13
- 210000003414 extremity Anatomy 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 13
- 230000000630 rising effect Effects 0.000 description 13
- 206010039966 Senile dementia Diseases 0.000 description 12
- 239000013078 crystal Substances 0.000 description 12
- 230000035487 diastolic blood pressure Effects 0.000 description 12
- 210000001503 joint Anatomy 0.000 description 12
- 230000035488 systolic blood pressure Effects 0.000 description 12
- 102100027479 DNA-directed RNA polymerase I subunit RPA34 Human genes 0.000 description 11
- 101001068636 Homo sapiens Protein regulator of cytokinesis 1 Proteins 0.000 description 11
- 230000015572 biosynthetic process Effects 0.000 description 11
- 210000001061 forehead Anatomy 0.000 description 11
- 238000013439 planning Methods 0.000 description 11
- 230000002829 reductive effect Effects 0.000 description 11
- 238000003786 synthesis reaction Methods 0.000 description 11
- 239000003814 drug Substances 0.000 description 10
- 230000008921 facial expression Effects 0.000 description 10
- 230000001105 regulatory effect Effects 0.000 description 10
- 230000003595 spectral effect Effects 0.000 description 10
- 210000004243 sweat Anatomy 0.000 description 10
- 210000003813 thumb Anatomy 0.000 description 10
- 238000011282 treatment Methods 0.000 description 10
- 101100538885 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) TUP1 gene Proteins 0.000 description 9
- 230000036541 health Effects 0.000 description 9
- 230000003862 health status Effects 0.000 description 9
- 238000002604 ultrasonography Methods 0.000 description 9
- 102100021277 Beta-secretase 2 Human genes 0.000 description 8
- 101710150190 Beta-secretase 2 Proteins 0.000 description 8
- 238000005452 bending Methods 0.000 description 8
- 230000005792 cardiovascular activity Effects 0.000 description 8
- 230000001149 cognitive effect Effects 0.000 description 8
- 229940079593 drug Drugs 0.000 description 8
- 230000002526 effect on cardiovascular system Effects 0.000 description 8
- 230000036961 partial effect Effects 0.000 description 8
- 238000003672 processing method Methods 0.000 description 8
- 239000000523 sample Substances 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 102100033895 Ankyrin repeat and SOCS box protein 15 Human genes 0.000 description 7
- 101000925522 Homo sapiens Ankyrin repeat and SOCS box protein 15 Proteins 0.000 description 7
- 210000003423 ankle Anatomy 0.000 description 7
- 210000000617 arm Anatomy 0.000 description 7
- 230000017531 blood circulation Effects 0.000 description 7
- 208000010877 cognitive disease Diseases 0.000 description 7
- 238000003745 diagnosis Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000002996 emotional effect Effects 0.000 description 7
- 238000012074 hearing test Methods 0.000 description 7
- 238000002372 labelling Methods 0.000 description 7
- 239000003550 marker Substances 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 102100033897 Ankyrin repeat and SOCS box protein 1 Human genes 0.000 description 6
- 208000028698 Cognitive impairment Diseases 0.000 description 6
- 101000925496 Homo sapiens Ankyrin repeat and SOCS box protein 1 Proteins 0.000 description 6
- 238000013459 approach Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- DDRJAANPRJIHGJ-UHFFFAOYSA-N creatinine Chemical compound CN1CC(=O)NC1=N DDRJAANPRJIHGJ-UHFFFAOYSA-N 0.000 description 6
- 239000012636 effector Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000001914 filtration Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 230000037230 mobility Effects 0.000 description 6
- 230000036651 mood Effects 0.000 description 6
- 230000036387 respiratory rate Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 6
- 210000000689 upper leg Anatomy 0.000 description 6
- 230000002792 vascular Effects 0.000 description 6
- XSQUKJJJFZCRTK-UHFFFAOYSA-N Urea Chemical compound NC(N)=O XSQUKJJJFZCRTK-UHFFFAOYSA-N 0.000 description 5
- 239000008280 blood Substances 0.000 description 5
- 210000004369 blood Anatomy 0.000 description 5
- 238000007635 classification algorithm Methods 0.000 description 5
- 230000006735 deficit Effects 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 210000001145 finger joint Anatomy 0.000 description 5
- 210000000236 metacarpal bone Anatomy 0.000 description 5
- 230000010363 phase shift Effects 0.000 description 5
- 239000013589 supplement Substances 0.000 description 5
- 230000000153 supplemental effect Effects 0.000 description 5
- 238000001356 surgical procedure Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 206010002091 Anaesthesia Diseases 0.000 description 4
- 102100021618 Ankyrin repeat and SOCS box protein 6 Human genes 0.000 description 4
- 102100030718 Ankyrin repeat and SOCS box protein 9 Human genes 0.000 description 4
- 101000754305 Homo sapiens Ankyrin repeat and SOCS box protein 6 Proteins 0.000 description 4
- 101000703112 Homo sapiens Ankyrin repeat and SOCS box protein 9 Proteins 0.000 description 4
- 108010076504 Protein Sorting Signals Proteins 0.000 description 4
- 210000001015 abdomen Anatomy 0.000 description 4
- 230000037005 anaesthesia Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000003556 assay Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000001976 improved effect Effects 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 230000000737 periodic effect Effects 0.000 description 4
- 230000010287 polarization Effects 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 230000002265 prevention Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 101150014733 ASP5 gene Proteins 0.000 description 3
- 102100021626 Ankyrin repeat and SOCS box protein 2 Human genes 0.000 description 3
- 101100269366 Arabidopsis thaliana AGDP1 gene Proteins 0.000 description 3
- 208000006992 Color Vision Defects Diseases 0.000 description 3
- 229910000530 Gallium indium arsenide Inorganic materials 0.000 description 3
- 241000282412 Homo Species 0.000 description 3
- 101000754299 Homo sapiens Ankyrin repeat and SOCS box protein 2 Proteins 0.000 description 3
- OKKJLVBELUTLKV-UHFFFAOYSA-N Methanol Chemical compound OC OKKJLVBELUTLKV-UHFFFAOYSA-N 0.000 description 3
- 101100328158 Mus musculus Clmp gene Proteins 0.000 description 3
- 101100489854 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) AAT2 gene Proteins 0.000 description 3
- LEHOTFFKMJEONL-UHFFFAOYSA-N Uric Acid Chemical compound N1C(=O)NC(=O)C2=C1NC(=O)N2 LEHOTFFKMJEONL-UHFFFAOYSA-N 0.000 description 3
- TVWHNULVHGKJHS-UHFFFAOYSA-N Uric acid Natural products N1C(=O)NC(=O)C2NC(=O)NC21 TVWHNULVHGKJHS-UHFFFAOYSA-N 0.000 description 3
- KXNLCSXBJCPWGL-UHFFFAOYSA-N [Ga].[As].[In] Chemical compound [Ga].[As].[In] KXNLCSXBJCPWGL-UHFFFAOYSA-N 0.000 description 3
- 230000002411 adverse Effects 0.000 description 3
- 230000002567 autonomic effect Effects 0.000 description 3
- 230000035565 breathing frequency Effects 0.000 description 3
- 239000004202 carbamide Substances 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 3
- 201000007254 color blindness Diseases 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- RKTYLMNFRDHKIL-UHFFFAOYSA-N copper;5,10,15,20-tetraphenylporphyrin-22,24-diide Chemical compound [Cu+2].C1=CC(C(=C2C=CC([N-]2)=C(C=2C=CC=CC=2)C=2C=CC(N=2)=C(C=2C=CC=CC=2)C2=CC=C3[N-]2)C=2C=CC=CC=2)=NC1=C3C1=CC=CC=C1 RKTYLMNFRDHKIL-UHFFFAOYSA-N 0.000 description 3
- 229940109239 creatinine Drugs 0.000 description 3
- 230000006378 damage Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000010339 dilation Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000004399 eye closure Effects 0.000 description 3
- 208000002153 familial abdominal 3 aortic aneurysm Diseases 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 238000003702 image correction Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 229940056932 lead sulfide Drugs 0.000 description 3
- 229910052981 lead sulfide Inorganic materials 0.000 description 3
- 238000002483 medication Methods 0.000 description 3
- 238000012634 optical imaging Methods 0.000 description 3
- 230000008533 pain sensitivity Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 208000020016 psychiatric disease Diseases 0.000 description 3
- 230000000241 respiratory effect Effects 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 238000010206 sensitivity analysis Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000035900 sweating Effects 0.000 description 3
- 210000000115 thoracic cavity Anatomy 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 229940116269 uric acid Drugs 0.000 description 3
- KWTSXDURSIMDCE-QMMMGPOBSA-N (S)-amphetamine Chemical compound C[C@H](N)CC1=CC=CC=C1 KWTSXDURSIMDCE-QMMMGPOBSA-N 0.000 description 2
- 206010001497 Agitation Diseases 0.000 description 2
- 102100026294 Ankyrin repeat and SOCS box protein 11 Human genes 0.000 description 2
- 102100021623 Ankyrin repeat and SOCS box protein 7 Human genes 0.000 description 2
- 206010008531 Chills Diseases 0.000 description 2
- 206010010305 Confusional state Diseases 0.000 description 2
- 208000012661 Dyskinesia Diseases 0.000 description 2
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 2
- 102000001554 Hemoglobins Human genes 0.000 description 2
- 108010054147 Hemoglobins Proteins 0.000 description 2
- 101000785936 Homo sapiens Ankyrin repeat and SOCS box protein 11 Proteins 0.000 description 2
- 101000754271 Homo sapiens Ankyrin repeat and SOCS box protein 7 Proteins 0.000 description 2
- 101100459248 Mus musculus Mxra8 gene Proteins 0.000 description 2
- 241001620634 Roger Species 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 2
- WLDHEUZGFKACJH-UHFFFAOYSA-K amaranth Chemical compound [Na+].[Na+].[Na+].C12=CC=C(S([O-])(=O)=O)C=C2C=C(S([O-])(=O)=O)C(O)=C1N=NC1=CC=C(S([O-])(=O)=O)C2=CC=CC=C12 WLDHEUZGFKACJH-UHFFFAOYSA-K 0.000 description 2
- 229940025084 amphetamine Drugs 0.000 description 2
- 210000001367 artery Anatomy 0.000 description 2
- 101150016874 asp3 gene Proteins 0.000 description 2
- 230000037147 athletic performance Effects 0.000 description 2
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000009530 blood pressure measurement Methods 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- ZPUCINDJVBIVPJ-LJISPDSOSA-N cocaine Chemical compound O([C@H]1C[C@@H]2CC[C@@H](N2C)[C@H]1C(=O)OC)C(=O)C1=CC=CC=C1 ZPUCINDJVBIVPJ-LJISPDSOSA-N 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- CYQFCXCEBYINGO-IAGOWNOFSA-N delta1-THC Chemical compound C1=C(C)CC[C@H]2C(C)(C)OC3=CC(CCCCC)=CC(O)=C3[C@@H]21 CYQFCXCEBYINGO-IAGOWNOFSA-N 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000000416 exudates and transudate Anatomy 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 239000008103 glucose Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 238000009532 heart rate measurement Methods 0.000 description 2
- JYGXADMDTFJGBT-VWUMJDOOSA-N hydrocortisone Chemical compound O=C1CC[C@]2(C)[C@H]3[C@@H](O)C[C@](C)([C@@](CC4)(O)C(=O)CO)[C@@H]4[C@@H]3CCC2=C1 JYGXADMDTFJGBT-VWUMJDOOSA-N 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 208000015181 infectious disease Diseases 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- JVTAAEKCZFNVCJ-UHFFFAOYSA-N lactic acid Chemical compound CC(O)C(O)=O JVTAAEKCZFNVCJ-UHFFFAOYSA-N 0.000 description 2
- 230000008449 language Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 230000003923 mental ability Effects 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- BQJCRHHNABKAKU-KBQPJGBKSA-N morphine Chemical compound O([C@H]1[C@H](C=C[C@H]23)O)C4=C5[C@@]12CCN(C)[C@@H]3CC5=CC=C4O BQJCRHHNABKAKU-KBQPJGBKSA-N 0.000 description 2
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 description 2
- 230000000474 nursing effect Effects 0.000 description 2
- 239000001301 oxygen Substances 0.000 description 2
- 229910052760 oxygen Inorganic materials 0.000 description 2
- 238000006116 polymerization reaction Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000004611 spectroscopical analysis Methods 0.000 description 2
- 238000010183 spectrum analysis Methods 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 238000007920 subcutaneous administration Methods 0.000 description 2
- 238000010998 test method Methods 0.000 description 2
- 210000005010 torso Anatomy 0.000 description 2
- 238000002627 tracheal intubation Methods 0.000 description 2
- 229940045136 urea Drugs 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 102100026289 Ankyrin repeat and SOCS box protein 10 Human genes 0.000 description 1
- 102100026264 Ankyrin repeat and SOCS box protein 12 Human genes 0.000 description 1
- 102100033900 Ankyrin repeat and SOCS box protein 13 Human genes 0.000 description 1
- 102100033899 Ankyrin repeat and SOCS box protein 14 Human genes 0.000 description 1
- 102100033894 Ankyrin repeat and SOCS box protein 16 Human genes 0.000 description 1
- 102100033901 Ankyrin repeat and SOCS box protein 17 Human genes 0.000 description 1
- 102100033898 Ankyrin repeat and SOCS box protein 18 Human genes 0.000 description 1
- 102100021625 Ankyrin repeat and SOCS box protein 3 Human genes 0.000 description 1
- 102100021617 Ankyrin repeat and SOCS box protein 4 Human genes 0.000 description 1
- 102100021619 Ankyrin repeat and SOCS box protein 5 Human genes 0.000 description 1
- 102100030716 Ankyrin repeat and SOCS box protein 8 Human genes 0.000 description 1
- 101100270982 Arabidopsis thaliana ASE2 gene Proteins 0.000 description 1
- 101100270983 Arabidopsis thaliana ASE3 gene Proteins 0.000 description 1
- 102100021257 Beta-secretase 1 Human genes 0.000 description 1
- 101710150192 Beta-secretase 1 Proteins 0.000 description 1
- 101100002951 Caenorhabditis elegans asp-17 gene Proteins 0.000 description 1
- 101100436100 Caenorhabditis elegans asp-6 gene Proteins 0.000 description 1
- 101100285688 Caenorhabditis elegans hrg-7 gene Proteins 0.000 description 1
- 208000024172 Cardiovascular disease Diseases 0.000 description 1
- ZAMOUSCENKQFHK-UHFFFAOYSA-N Chlorine atom Chemical compound [Cl] ZAMOUSCENKQFHK-UHFFFAOYSA-N 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 241000167926 Entoprocta Species 0.000 description 1
- GVGLGOZIDCSQPN-PVHGPHFFSA-N Heroin Chemical compound O([C@H]1[C@H](C=C[C@H]23)OC(C)=O)C4=C5[C@@]12CCN(C)[C@@H]3CC5=CC=C4OC(C)=O GVGLGOZIDCSQPN-PVHGPHFFSA-N 0.000 description 1
- 101000785933 Homo sapiens Ankyrin repeat and SOCS box protein 10 Proteins 0.000 description 1
- 101000785952 Homo sapiens Ankyrin repeat and SOCS box protein 12 Proteins 0.000 description 1
- 101000925512 Homo sapiens Ankyrin repeat and SOCS box protein 13 Proteins 0.000 description 1
- 101000925508 Homo sapiens Ankyrin repeat and SOCS box protein 14 Proteins 0.000 description 1
- 101000925518 Homo sapiens Ankyrin repeat and SOCS box protein 16 Proteins 0.000 description 1
- 101000925486 Homo sapiens Ankyrin repeat and SOCS box protein 17 Proteins 0.000 description 1
- 101000925502 Homo sapiens Ankyrin repeat and SOCS box protein 18 Proteins 0.000 description 1
- 101000754296 Homo sapiens Ankyrin repeat and SOCS box protein 3 Proteins 0.000 description 1
- 101000754303 Homo sapiens Ankyrin repeat and SOCS box protein 4 Proteins 0.000 description 1
- 101000754309 Homo sapiens Ankyrin repeat and SOCS box protein 5 Proteins 0.000 description 1
- 101000703115 Homo sapiens Ankyrin repeat and SOCS box protein 8 Proteins 0.000 description 1
- 101000581940 Homo sapiens Napsin-A Proteins 0.000 description 1
- 206010020772 Hypertension Diseases 0.000 description 1
- DGAQECJNVWCQMB-PUAWFVPOSA-M Ilexoside XXIX Chemical compound C[C@@H]1CC[C@@]2(CC[C@@]3(C(=CC[C@H]4[C@]3(CC[C@@H]5[C@@]4(CC[C@@H](C5(C)C)OS(=O)(=O)[O-])C)C)[C@@H]2[C@]1(C)O)C)C(=O)O[C@H]6[C@@H]([C@H]([C@@H]([C@H](O6)CO)O)O)O.[Na+] DGAQECJNVWCQMB-PUAWFVPOSA-M 0.000 description 1
- BZLVMXJERCGZMT-UHFFFAOYSA-N Methyl tert-butyl ether Chemical compound COC(C)(C)C BZLVMXJERCGZMT-UHFFFAOYSA-N 0.000 description 1
- 102100027343 Napsin-A Human genes 0.000 description 1
- 238000001069 Raman spectroscopy Methods 0.000 description 1
- 206010038743 Restlessness Diseases 0.000 description 1
- 206010039897 Sedation Diseases 0.000 description 1
- CYQFCXCEBYINGO-UHFFFAOYSA-N THC Natural products C1=C(C)CCC2C(C)(C)OC3=CC(CCCCC)=CC(O)=C3C21 CYQFCXCEBYINGO-UHFFFAOYSA-N 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 230000004979 auditory behavior Effects 0.000 description 1
- WQZGKKKJIJFFOK-VFUOTHLCSA-N beta-D-glucose Chemical compound OC[C@H]1O[C@@H](O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-VFUOTHLCSA-N 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000037396 body weight Effects 0.000 description 1
- 230000008822 capillary blood flow Effects 0.000 description 1
- 210000003010 carpal bone Anatomy 0.000 description 1
- 239000000460 chlorine Substances 0.000 description 1
- 229910052801 chlorine Inorganic materials 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 229960003920 cocaine Drugs 0.000 description 1
- 230000006999 cognitive decline Effects 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 230000006998 cognitive state Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 229960002069 diamorphine Drugs 0.000 description 1
- IVKWXPBUMQZFCW-UHFFFAOYSA-L disodium;2-(2,4,5,7-tetraiodo-3-oxido-6-oxoxanthen-9-yl)benzoate;hydrate Chemical compound O.[Na+].[Na+].[O-]C(=O)C1=CC=CC=C1C1=C2C=C(I)C(=O)C(I)=C2OC2=C(I)C([O-])=C(I)C=C21 IVKWXPBUMQZFCW-UHFFFAOYSA-L 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 229960004242 dronabinol Drugs 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 208000005244 familial abdominal 2 aortic aneurysm Diseases 0.000 description 1
- 208000034199 familial abdominal 4 aortic aneurysm Diseases 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000002695 general anesthesia Methods 0.000 description 1
- 229960001031 glucose Drugs 0.000 description 1
- 230000010370 hearing loss Effects 0.000 description 1
- 231100000888 hearing loss Toxicity 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 230000001121 heart beat frequency Effects 0.000 description 1
- 229960000890 hydrocortisone Drugs 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 235000014655 lactic acid Nutrition 0.000 description 1
- 239000004310 lactic acid Substances 0.000 description 1
- 229960000448 lactic acid Drugs 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 230000036997 mental performance Effects 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 229960001252 methamphetamine Drugs 0.000 description 1
- MYWUZJCMWCOHBA-VIFPVBQESA-N methamphetamine Chemical compound CN[C@@H](C)CC1=CC=CC=C1 MYWUZJCMWCOHBA-VIFPVBQESA-N 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 229960005181 morphine Drugs 0.000 description 1
- 230000037023 motor activity Effects 0.000 description 1
- 230000007659 motor function Effects 0.000 description 1
- 201000006417 multiple sclerosis Diseases 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 229940127240 opiate Drugs 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000004279 orbit Anatomy 0.000 description 1
- 238000013450 outlier detection Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000006213 oxygenation reaction Methods 0.000 description 1
- 230000008058 pain sensation Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 238000011056 performance test Methods 0.000 description 1
- 238000013186 photoplethysmography Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000005086 pumping Methods 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000013102 re-test Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008844 regulatory mechanism Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000001202 rhombencephalon Anatomy 0.000 description 1
- 238000012502 risk assessment Methods 0.000 description 1
- 238000013341 scale-up Methods 0.000 description 1
- 230000028327 secretion Effects 0.000 description 1
- 230000036280 sedation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 239000011734 sodium Substances 0.000 description 1
- 229910052708 sodium Inorganic materials 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000003319 supportive effect Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- 210000002700 urine Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
- A61B5/1176—Recognition of faces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/32—Surgical robots operating autonomously
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
- A61B5/1117—Fall detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/112—Gait analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
- A61B5/1122—Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/70—Means for positioning the patient in relation to the detecting, measuring or recording means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/08—Elderly
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/07—Home care
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/002—Monitoring the patient using a local or closed circuit, e.g. in a room or building
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0075—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/0205—Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
- A61B5/02055—Simultaneously evaluating both cardiovascular condition and temperature
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4845—Toxicology, e.g. by detection of alcohol, drug or toxic products
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Mechanical Engineering (AREA)
- Psychiatry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Social Psychology (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Geometry (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及一种用于检测人的运动过程的系统和方法。该方法包括:通过非接触式传感器检测人在运动过程中的多个图像,其中所述多个图像描绘人的身体元素的运动;针对所述多个图像中的至少一些图像创建具有肢体位置的至少一个骨架模型,以及通过比较肢体位置在至少一个所创建的骨架模型中的变化来从人的身体元素的运动中计算出运动过程。同时,可以检测和分析关于人的生命体征参数和/或信号处理参数。
Description
已知专利申请的交叉引用
本专利申请要求以下德国专利申请的优先权:递交于2019年8月30日的DE102019123304.6;递交于2020年1月30日的DE 102020102315.4以及递交于2020年5月12日的DE 102020112853.3。上述德国专利申请的全部内容在此通过引用完全纳入本专利申请中。
技术领域
本发明涉及一种用于自动地执行老年病学测试的服务机器人。
本发明的背景
医疗健康体系一直饱受专业人员严重匮乏的困扰。这种人员匮乏导致用来治疗患者的时间越来越少。缺乏时间不仅导致患者和医务人员的不满,还导致疾病无法充分得到治疗,这不仅为患者带来痛苦,还减少了国民经济创造的价值。因为这些因素的原因,记录患者状况的必要性越来越高,从而从医学角度必要时也能够对可能归因为治疗不充分而造成的损害索赔请求进行辩护。这种记录义务在某些情况下可能有自我强化的作用。
在本文献中所述的服务机器人解决的问题在于,通过使用多个传感器由该服务机器人来自主地执行目前由医务人员进行的老年病学测试。这种服务机器人另外还能够准确记录完成的练习,由此使服务机器人的健康装置能够履行与此相关的记录义务和其他合规义务,而不必再为此还单独安排人手。另一项效果是使用服务机器人能够使测试的评估标准化,因为目前对患者的评估都依赖医务人员的经验,而该评估结果又因个人经验的原因而与其他医务人员不同。因此医务人员对同一练习进行的评估可能会得出不同的结果,而使用服务机器人则能够获取统一的评估结果。
除服务机器人比如能够获取Barthel指标、执行所谓的“定时起身和行走”测试和/或有不同的特征的简易心理测试的老年病学领域以外,服务机器人在另一方面被如此配置,使得服务机器人能够替代性和补充性地解决诊所中的其他任务。这些例如包括光谱仪检查,其能够分析人皮下或皮上的不同的物质。这些分析比如能够用于测定精神错乱探测评分。
在一个方面,服务机器人还被配置为执行精神错乱识别和/或精神错乱监控。这种背景下,服务机器人在一个方面能够根据对声学信号序列的识别来测定患者可能存在的注意力障碍。在一个替代的和/或补充的方面,服务机器人能够基于图像识别来评估认知能力,和/或通过运动机能的实施情况来表明认知能力,比如通过计算患者对服务机器人的主要视觉上的请求做出反应的手指的计数来表明认知能力。作为替代方案和/或补充方案,服务机器人能够确定患者的疼痛状态。这能够通过识别情绪、检测上肢运动和/或接人工呼吸和/或未接人工呼吸的患者的疼痛发声来实现。在一个方面,服务机器人能够测定患者的血压、其呼吸频率,并且除了初步诊断和/或治疗目的之外,将这些信息用于操控自身的硬件和软件组件。
除此以外,服务机器人可以被配置为比如在检测数据的范围内探测操纵尝试。服务机器人还能够检查用户是否在精神和/或身体方面受到可能影响待执行测试质量或其结果的不利影响。此外,在一个方面,服务机器人能够按环境影响因素来调整其信号处理质量,并且还调整信号输出。在此,这包括对输入和输出、用户对话等进行调整。
此外,使用服务机器人还显著减轻了医务人员的负担,因为他们不得不做些有时候耗时且单调但却对患者健康没有直接影响的工作,从而妨碍了这些人员实施直接改善患者健康的措施。
现有技术
本领域普通技术人员通晓健康或老年病领域不同种类的服务机器人。因此CN108422427描述了一种康复机器人,它能够送药片给患者服用。类似的是,CN206833244中描述的服务机器人能够在医院中分发材料。在医院领域,中国专利申请CN107518989和CN101862245涉及一种能够运送患者的服务机器人,其与轮椅类似。CN205950753描述了一种机器人,它通过传感机构识别患者,在医院中为患者提供导航。在CN203338133中描述了一种用来为护理人员提供支持的机器人,它能够在医院中陪同患者处理日常事务。相反,CN203527474涉及一种通过其机器人手臂为老人提供支持的机器人。
CN108073104涉及一种护理机器人,它能够护理受到传染的患者,手段包括为这些患者送药或者给药,为患者按摩,喂食,与患者沟通等。在此,护理机器人之所以能降低医务人员的感染危险是因为其减少了医务人员与患者接触的次数。CN107598943中描述了一种用于陪伴老人的机器人。这种机器人拥有几项监控功能,但其基本功能是地板清洁。
CN106671105涉及一种照顾老人的移动式服务机器人。这种服务机器人通过传感机构监控诸如体温之类的人体参数,还能够监控表情。该服务机器人还能够识别人是否跌倒并且能够通过网络相应地报警帮助。
类似的现有技术还包括CN104889994和CN204772554,其中医疗领域的服务机器人能够识别心跳频率,为患者提供氧气并且还包括语音识别和用于娱乐目的多媒体模块。CN105082149所描述的产品也能够检测血氧。CN105078445涉及一种记录尤其是老人心电图、测量血液中氧含量的服务机器人。类似地,CN105078450具备脑电图测量功能。
某些健康机器人专用于对患者进行练习或者测试。在CN108053889中相对简要地描述了一种基于已保存信息对患者进行练习的系统。CN108039193描述了一种在机器人中用于自动生成健康报告的系统。CN107544266中描述了借助机器人检测运动/适应性练习,记录和保存数据以对其进行分析并将该数据传输至外部系统。同时,该机器人能够通过不同传感器来监控药品的服用情况。
CN106709254描述了一种用于患者医学诊断的机器人,其同样以诊断为基础制定治疗方案。为此,机器人分析语音和图像信息,将其与存储器中保存的信息进行比对。为此,将使用一种神经网络。
CN106407715中描述了一种服务机器人,其使用语音处理和图像识别来执行患者的病史检查。除通过语音输入和输出装置询问以外,还能够在病史检查时通过触控板参考由机器人摄像头拍摄的舌头照片。
CN105078449描述了一种配备平板电脑和通信装置的服务机器人,通过它能够进行认知功能训练或者认知心理测试,以发现患者是否患有阿尔茨海默症。为此,平板电脑将记录患者与儿童之间按照特定过程进行的电话交谈,从谈话记录中判断患者是否患有阿尔茨海默症。
服务机器人在一个方面根据纸的折叠来分析手势。在现有技术中,本质上是识别手势本身。然而,挑战尤其在于识别和跟踪手指。比如US10268277以及US9372546或US9189068就描述了一种通用的手势识别系统。在US9690984中比如示出了借助机器学习算法以摄像头为基础通过骨架模型来识别手。这些方案基本上涉及空手。相反,US9423879涉及识别和跟踪手中的物体,并提出使用热传感器将双手和手指(通过排出的热)与其他物体(趋于更冷)区分开来。
在现有技术中,只发现了两份文献涉及识别纸或用户手中类似于纸的物体。因此US9117274描述了怎样使用深度摄像头来识别用户拿在手里的一张纸,而在下一步骤中,图像被投影到代表一个平整表面的这张纸上,用户能够与该图像互动。通过将其拐角与保存在存储器中并在空间上在空间内旋转的四边形进行比较,来识别纸。与此相反,US10242527描述了怎样通过自动识别手势监控(游艺场中的)游艺桌,这包括与纸具有一定类似程度的游艺币或扑克牌。但未描述怎样进行识别,而是只描述了出于什么目的而进行这类分析。此外,扑克牌的牌角做成圆形,而纸的拐角通常未做成圆形。
根据对人认知状态的分析,同样描述了在现有技术中对控制机器人有影响的多种方案。例如,US20170011258示出了怎样以人的情绪状态为基础操纵机器人,其中基本上通过人的面部表情分析这种状态,同样通过梯度直方图分析检测面部表情。通常情况下,能够通过以聚类评估为基础的分类方法,但也能够通过神经网络,来确定人的情绪状态。比如US2019012599总地描述了怎样使用多层卷积神经网络以所拍摄面部视频为基础来生成权重,所述多层卷积神经网络具有至少一个卷积层和至少一个隐藏层,其最后一层描述人的情绪,该多层卷积神经网络测定至少一层的输入变量的权重,计算至少一个feed-forward-Process(前馈过程)中的权重,并在反向传播的范围内进行更新。
在现有技术中,在检测人的精神状态方面存在不同的检查成果。比如US9619613使用一种通过震动工作的特殊仪器来分析人的精神状态。比如US9659150使用加速度传感器执行定时起身和行走测试。在US9307940中触发刺激,以通过输出定义长度的刺激序列并记录患者的反应,来测试其精神能力。US8475171比如利用虚拟现实技术为患者示出不同的图像并且通过患者对这些图像的识别来例如诊断阿尔茨海默症。US10111593比如使用运动分析识别精神错乱。相反,CN103956171尝试以患者的说话为基础得出简易心理测试评分的结论。
服务机器人被如此配置,从而通过其传感装置,比如通过摄像头,能够检测其他医学参数,其中包括以非接触方式测量血压。通过以摄像头为基础的分析来测定血压的这一最新技术通常正处于研究阶段。Zaunseder等人(2018年)描述了血液流动彩色分析方法的大致情况。Rouast等人(2018年)的评论文章也对此有所涉及。比如Karylyak等人(2013年)或Wang等人(2014年)具体从事以能够用信号数据为基础测定血压的分析算法检查,而McDuff等人(2014年)致力于检查测定心脏收缩和心脏舒张压力时间点,而Bai等人(2018年)则检查新信号滤波器的有效性。例如Parati等人(1995年)找到了根据检测到的测量值测定血压的常规方案。Liu等人(2018年)致力于彩色分析的具体实现手段,同样比较面部的各个子区域,Verkruysse等人(2008年)也提出了类似的方法,而Lee等人(2019年)描述了以面部运动为基础的具体实现手段。相反,Unakafov(2018年)比较了以能够自由支配数据项为基础的不同方法。比如Pasquadibisceglie等人(2018年)的方案已经进入实际应用阶段,它将彩色分析方法集成到一面镜子中。相反,Luo等人(2019年)为了记录彩色数据使用了一台智能手机。Wei等人(2018年)通过记录彩色数据的方案已经进入到具体落实阶段,它已具备临床检查的特征。Ghijssen等人(2018年)的方案则相反。他们通过激光器发射光穿过手指,在相反侧用传感器进行探测,其中出射的光具有斑点图案,由此一方面能够探测周期性脉管血液流动,另一方面如之前的方案所述,能够探测血管的周期性脉管膨胀。
参考文献来源:
Zaunseder等人,通过成像光度计分析心血管——回顾。生物医学工程生物技术2018;63(5):617–634,DOI:0.1515/bmt-2017-01。
Kurylyak等人,根据PPG信号估计血压,2013年IEEE国际仪器和测量技术会议(I2MTC)。DOI:10.1109/I2MTC.2013.6555424。
McDuff等人,使用数码相机远程探测光电收缩压和舒张压的峰值。IEEE生物医学工程交易,61卷,编号12,2014年12月12日,DOI:10.1109/TBME.2014.2340991。
Bai等人,使用摄像头进行实时稳健的非接触式心率监控,IEEEAccessVOLUME6,2018。DOI:10.1109/ACCESS.2018.2837086。
Pasquadibisceglie等人,个人保健系统的心血管参数的非接触式分析。2018AEIT国际年会。DOI:10.23919/AEIT.2018.8577458。
Wang等人,使用脉冲过境时间和心率的无袖带血压分析。2014年12届国际信号处理会议(ICSP)。DOI:10.1109/ICOSP.2014.7014980。
Luo等人,使用经皮光学成像技术的基于智能手机的血压测量。循环心血管成像。2019;12:e008857。DOI:10.1161/CIRCIMAGING.119.008857。
Wei等人,透皮光学成像通过心率差异性分析揭示基础压力:一种能够与心电图相媲美的新方法。心理学前沿9:98。DOI:10.3389/fpsyg.2018.00098。
Parati等人,血压和心率差异性的频谱分析在分析心血管调控方面的作用。高血压。1995;25:1276-1286。DOI:10.1161/01.HYP.25.6.1276。
Rouast等人,使用低成本的RGB面部视频进行远程心率测量:技术文献回顾。前沿电脑科学,2018,12(5):858-872。DOI:10.1007/s11704-016-6243-6。
Lee等人,使用无监督聚类对球形心电图头运动的基于视觉的心率测量。传感器2019,19,3263。DOI:10.3390/s19153263。
Liu等人,经皮光学成像显示面部心血管活动的不同时空模态。科学报告,(2018)8:10588。DOI:10.1038/s41598-018-28804-0。
Unakafov。使用成像光学体积描记术的脉搏率分析:通用框架和公开数据项的方法比较。生物医学物理工程快讯4(2018)045001。DOI:10.1088/2057-1976/aabd09。
Verkruysse等人,利用环境光进行远程胸透成像。2008年12月22日/16卷,编号26/光学快讯21434。DOI:10.1364/OE.16.021434。
Ghijssen等人,生物医学光学快讯,9卷,8期,3937-3952页(2018)。DOI:10.1364/BOE.9.003937。
Yamada等人2001(DOI:10.1109/6979.911083)
Roser和Mossmann(DOI:10.1109/IVS.2008.4621205)
US20150363651A1
McGunnicle2010(DOI:10.1364/JOSAA.27.001137)
Espy等人(2010)(DOI:10.1016/j.gaitpost.2010.06.013)
Senden等人(DOI:10.1016/j.gaitpost.2012.03.015)
VanSchooten等人(2015)(DOI:10.1093/gerona/glu225)
Kasser等人(2011)(DOI:10.1016/j.apmr.2011.06.004)
此外,服务机器人能够部分以接触皮肤的方式,部分以非接触方式,测定皮肤上或皮肤内的物质。在此,主要采用光谱仪方案。光谱仪或类似于光谱仪的方案比如参见US6172743、US6008889、US6088605、US5372135、US20190216322、US2017146455、US5533509、US5460177、US6069689、US6240306、US5222495、以及US8552359。
附图说明
各图示出了:
图1示出了服务机器人的示意结构;
图2示出了服务机器人的轮子的俯视图;
图3示出了服务机器人的管理系统;
图4示出了通过2D激光雷达识别座椅;
图5示出了通过2D激光雷达识别座椅上的人;
图6示出了让一个人运动以便自主坐下的方法;
图7示出了将人导航至满足特定标准的座椅;
图8示出了尤其通过激光雷达来识别门;
图9示出了识别对象前面的固定标记;
图10示出了从起身和行走测试所得的运动数据的打标签;
图11示出了识别重复的语音序列;
图12示出了检测和分析纸的折叠;
图13示出了由服务机器人分析写下的句子;
图14示出了识别由第三人对服务机器人进行的可能的操纵;
图15示出了由第三人进行操纵或协助;
图16示出了在考虑到用户障碍的情况下校准服务机器人;
图17示出了服务机器人向患者方向移动;
图18示出了通过门;
图19示出了由服务机器人测定手术患者的老年痴呆风险和术后监控的测试;
图20示出了由服务机器人为治疗建议准备数据;
图21a)示出了测定患者身上的测量区域;
图21b)示出了测量和分析光谱检查;
图22示出了输出和分析患者对音序的反应;
图23示出了出于诊断目的分析患者的图像识别;
图24示出了确保服务机器人显示器的充分的可见性;
图25示出了通过查看所显示的数字进行手势识别;
图26示出了显示两根手指和探测患者反应;
图27示出了由服务机器人来分析情绪;
图28示出了分析患者上肢的活动;
图29示出了检测患者的咳嗽;
图30示出了测定血压;
图31示出了自学习识别表面上的湿度;
图32示出了在探测表面上的湿度时的导航;
图33示出了分析跌倒事件;
图34示出了在练习/测试时监控生命体征参数;
图35示出了在跌倒风险方面分析人的步态进程;
图36示出了移动性测试的进程;
图37示出了测定坐姿平衡性;
图38示出了测定起身;
图39示出了测定起身尝试;
图40示出了测定站立平衡性;
图41示出了测定站立平衡性和脚之间的距离;
图42示出了测定站立平衡/冲击;
图43示出了行走开始分类;
图44示出了测定步伐位置;
图45示出了测定步高;
图46示出了测定步态对称性;
图47示出了测定步伐连续性;
图48示出了测定行程偏差;
图49示出了测定躯干稳定性;
图50示出了测定跨距;
图51示出了旋转测定;
图52示出了测定自主坐下;
图53示出了骨架模型分析时的信噪比的改善;
图54示出了在探测传感器运动时调整图像截取部分;
图55示出了导航以在侧面检测人;
图56示出了测定训练计划配置;
图57示出了架构视图;
图58示出了以音频信号为基础的操纵识别;
图59示出了与座椅上起身/自主坐下相结合的评分测定系统;
图60示出了用于同步人和服务机器人之间的运动的系统;
图61示出了用于检测和分析折叠练习的系统;
图62示出了用于识别操纵的系统;
图63示出了光谱仪系统;
图64示出了注意力分析系统;
图65示出了用于认知分析的系统;
图66示出了用于确定疼痛状态的系统;
图67示出了用于血压测定的系统;
图68示出了用于测量物质的系统;
图69示出了用于湿度评估的系统;
图70示出了用于跌倒探测的系统;
图71示出了用于检测生命体征参数的系统;
图72示出了用于测定跌倒风险评分的系统;
图73示出了用于测定人的平衡性的系统;
图74示出了用于测定脚位置的系统;
图75示出了用于分类旋转运动的系统;
图76示出了用于步态分类的系统;
图77示出了用于改变传感器的光学信号的系统;
图78示出了用于调整图像截取部分的系统;
图79用于实现侧面拍摄的系统;
图80示出了用于大量关节点的迭代分类器创建系统;
图81示出了分析表面上的湿度的进程;
图82示出了探测地面上的湿度时的路径规划;
图83示出了用于测定脚位置的方法;
图84示出了用于测定旋转运动的方法;以及
图85示出用于检测人沿一条线的运动过程的方法。
具体实施方式
用户这一术语是指使用服务机器人17的人,这个人这种情况下主要由服务机器人17通过所述的装置基本上以传感器的方式予以分析。在此,所述用户可以指上年纪的人,利用服务机器人17对所述上年纪的人进行老年病学测试,但比如在此辅助老年人的亲属或第三人也会与服务机器人17交互,或者为所述上年纪的人进行测试。
图1示出了移动式服务机器人17。服务机器人17具有用来扫描服务机器人17的周围环境的激光扫描仪(激光雷达)1。作为替代方案和/或补充方案,其他传感器在此同样是可行的,比如摄像头(2D和/或3D)185、超声波和/或雷达传感器194。
服务机器人17具有至少一个显示器2,其在一个方面是指触控板。在图1示出的方面,服务机器人17具有两个触控板。所述触控板还具有比如麦克风193和扬声器192,它们能够允许与服务机器人17进行声音通信。服务机器人17还具有至少一个用于非接触式三维检测患者的运动数据的传感器3。在非限制性的示例中,传感器是Microsoft Kinect仪器。作为替代方案,也可以使用Orbecc Astra 3D摄像头。这类3D摄像头具有一套用于识别深度的立体摄像头系统,它们能够分析患者的骨架模型并且通常也具有RGB摄像头来识别颜色。在一个替代的方面,能够采用传统的单色摄像头。在此,在3D摄像头中能够使用的技术是飞行时间传感器(ToF)或者Speckle传感器。
在离地比如5cm的距离中在服务机器人17外罩周围有压敏推杆4,它至少在服务机器人17可能的行驶方向所在的区域内。处理单元9与压敏推杆4连接并识别服务机器人17与某个物体的碰撞。发生碰撞时,立即停止驱动单元7。
服务机器人17在一个方面具有两个驱动轮6,它们相互定心并且平行布置(参见图2)。其周围比如在一条环形轨道上有两个或三个另外的支撑轮5。支撑轮5的这种布置能够通过反向操控驱动轮6将服务机器人17旋转就位。两个或三个支撑轮5的轴线对此如此支撑,从而确保所述轴线能够绕着垂直轴线360度旋转。在使用两个支撑轮5时,驱动轮的距离大于图2所示的距离,由此能够防止服务机器人17过于轻易倾翻。
服务机器人17另外还具有电源8,其用于为驱动单元和处理单元9、传感装置(激光扫描仪1、传感器3和推杆4)以及输入和输出单元2供电。电源8是一块电池或蓄电池。当然也能够考虑替代的能量源,诸如燃料电池,其中包括直接甲醇燃料电池或固体氧化物燃料电池。
处理单元9具有至少一个存储器10和至少一个接口188(诸如WLAN)以用于交换数据。在此,在一个可选的方面包括(未在图中示出)用于读出移动存储器(比如发射应答器/RFID标记)的装置。在另一个方面移动存储器也是可写入的。在一个方面,该接口或另一个接口188(诸如WLAN)允许与网络进行无线通信。服务机器人17具有本文后面部分中所描述的用来执行存储器10中所保存的分析的规则。作为替代方案和/或补充方案,这些规则也能够保存在云18的存储器中,服务机器人17通过至少一个接口188(诸如WLAN)访问云。在其他位置不必对此详细提及,但在本公开文本中将此内容包含在内。
传感器3识别人及其操作,并以人的运动为基础创建骨架模型。在此,传感器3在一个方面也能够识别行走辅助装置/下臂支架(UAGS)。此外,服务机器人17可选地具有一个或多个麦克风193,它们能够独立于触控板实施,以便记录人的语言并且在处理单元中对其进行分析。
图57示出了架构视图,但其隐藏了本文后面部分中所描述的应用。在软件层面上有具备服务机器人17的基本功能的不同模块。在导航模块101中比如包含不同模块。在此,包括2D或3D周围环境检测模块102,它以不同传感器数据为基础分析比如周围环境信息。路径规划模块103允许服务机器人17测定它所经过的自身路径。运动规划器104使用比如路径规划模块103的路径规划结果,并且在考虑或优化不同的成本函数的情况下计算出最佳的用于服务机器人的路段。除了路径规划的数据以外,来自避让障碍物、优选行驶方向等的数据,诸如受监控人的预期的运动方向这些数据也能够作为成本函数来起作用。运动动力学的各方面在此也扮演着重要角色,比如在转弯时速度自适应。自定位模块105使服务机器人17能够确定在地图上其自身的位置,比如通过测距数据,将2D/3D周围环境检测装置检测到的周围环境参数与地图模块107的地图中保存的周围环境参数等等进行比较。绘图模块106允许服务机器人17能够绘制其周围环境的地图。创建的地图比如将保存在地图模块107中,但它也可能包含其他不同于仅仅自身创建的地图。充电模块108用于自动充电。另外能够提供包含房间数据109的数据库,它比如包含应在哪个空间由人进行分析的信息等等。运动分析模块120比如包含运动过程提取模块121和运动过程评估模块122。它们分别包含用于进行运动分析的规则,将在本文后面部分对其进行详细描述。人识别模块110比如包含人身份识别模块111,它比如包含根据检测到的传感器数据确定它是人还是其他物体的规则。用于虚拟人跟踪的视觉上的人跟踪模块112基本上以作为输入变量的摄像头数据为基础,基于激光的人跟踪模块113相应地使用激光雷达1。人身份识别模块114比如在跟踪过程中断时能够将之后被检测的人按照是否属于之前跟踪的人进行分类。座椅识别模块115允许比如探测座椅。服务机器人17此外具有人-服务机器人互动模块130,其包括图形用户界面131、语音合成单元133和语音分析模块132。另外还有应用模块125,它可能包含大量应用,比如对人进行练习和测试的应用,下面将详细描述这些内容。
在硬件层面180上有里程计单元181、用于与RFID发射应答器通信的接口、摄像头185、操作元件186、接口188,比如WLAN、电源充电控制系统190、马达控制系统191、扬声器192、至少一个麦克风193、雷达和/或超声波传感器194、探测器195(将在其他位置对其详细进行描述),以及光谱仪196和例如投影装置920。已经对激光雷达1、显示器2和驱动装置7作过描述。
图3示出服务机器人17通过接口188与云18连接。治疗医生能够通过终端13使用计算机161访问设于云18中的患者管理模块160,该计算机又与存储器162连接。
医务人员能够在患者管理模块160中保存患者数据,或者在一个方面通过接口188(诸如WLAN)从其它系统导入这些患者数据。其他系统基本上包括通常在医院或诊所使用的医院管理系统(HIS)和/或患者数据管理系统。患者数据除包含姓名和患者房间号(如果可用的话)以外,还包括有关常规健康状态的信息。计算机161在患者管理模块160中为每个人生成一个ID,它与患者数据一起保存在存储器162中。医务人员能够定义有待执行的测试。管理系统通过云18与调控机构150连接,该调控机构由处理器151和存储器152组成。调控机构150提供用于执行和分析练习的规则,它们与服务机器人17的规则一致并且例如在调控机构中集中维护,并且之后分发给多台服务机器人178。
在调控机构150中保存有对象和运动的分类,但也保存有两者的组合,以便在测试层面上分析观察结果。例如,以骨架模型为基础保存有双腿、上肢、手臂、双手等的位置。此外,能够识别应在测试的范围内分析的对象。调控机构150最初能够以模板为基础由本领域普通技术人员创建,即规定各个肢体的边界值。对于边界值,也能够使用模糊算法。替代地,也能够通过医务人员将例如又基于人的图像而被转换成骨架模型的各张图像或图像序列打标签并且然后借助机器学习算法(包括神经网络)来规定映射边界值的分类。
在一个方面也存在具有导航计算机171和导航存储器172的基于云的导航模块170。
服务机器人17能够与云18中的云应用相关联。治疗医生能够为应执行测试的人分配移动式存储器单元,诸如标签。标签包含患者ID和/或分配给人或其自身ID的另一个标签ID。使用该标签或序列号和/或ID,能够在服务机器人17上识别人身份。也能够通过其他方式识别身份,比如通过在屏幕引导菜单中输入登记数据,但也能够通过生物统计学特征,诸如面部扫描或者移动设备上的软件识别,软件已包含输入或者读入到服务机器人17中的代码。服务机器人17现在通过接口188(诸如WLAN)从云18相应地下载由医务人员保存的测试,但不包括其个人相关数据——通过人ID进行指配。在完成测试之后,服务机器人17将测试数据加密之后加载到患者管理模块160中——通过人ID进行指派。患者管理模块160中才对数据进行解密(见下文)。医务人员之后能够分析数据,如通过下面的相应示例详细说明的那样。
在另一方面,医务人员能够将用于执行测试或其子组件的请求传输到存储介质上(比如RFID标签形式的发射应答器),人通过获取它以便在服务机器人17上识别身份,为此该服务机器人具有RFID接口183。在此,将从存储介质向服务机器人17传输数据,包括患者管理模块160规定的人ID。在完成测试之后,服务机器人17将数据重新传输至存储介质,由此医务人员在读取存储介质时能够向患者管理模块160中传输数据。在一个补充的和/或替代的方面,也能够通过无线或有线接口188(诸如WLAN)向患者管理模块160加密传输数据。
也能够通过存储介质(或发射应答器)组合上述方案或数据交换。
服务机器人具有由摄像头185、激光雷达1和雷达和/或超声波传感器194组成的传感装置,它不仅用于导航用途,还能够用于人检测和跟踪,因此这些传感器与相应的软件模块搭配,在硬件方面构成了人检测和跟踪单元4605,其中也能够使用其他传感装置,比如与惯性传感器5620搭配,该传感器位于需要待检测和/或跟踪的人身上。在人检测和人跟踪方面,首先能够使用人识别模块110,由此根据传感器数据能够识别出人,也能够有不同的子模块。这比如包括人身份识别模块111,它能够识别人的身份。在此,比如保存这个人的表征性特征。通过人身份识别模块114能够重新识别出人,比如在人跟踪中断之后,这能够借助视觉上的人跟踪模块112(比如分析摄像头185的数据)或基于激光的人跟踪模块113(比如分析激光雷达1的数据)实现。能够通过模态比较在人身份识别模块114中重新识别出人,其中比如由保存的人特征得出模态。运动分析模块120允许分析不同运动。首先在运动过程提取模块121中预处理检测到的运动,即提取在运动过程评估模块122中分类和评估的运动特征,例如以便识别特殊的运动。在检测和分析人的运动方面,在此能够在骨架创建模块5635中创建骨架模型,该骨架模型测定人关节处的关节点以及关节点之间的方向矢量。例如在基于骨架模型的特征提取模块5460中以关节点为基础进行特征提取。在本文中列举了多个特殊特征提取模块以及多个特征分类模块,比如能够将它们放到所述的特征提取模块上。在一个方面,这包括同样使用骨架创建模块5635的数据的行走特征提取模块5605,行走特征分类模块5610和步态进程分类模块5615。
在所使用的术语方面需要澄清:在一个方面例如提到的手关节点,其代表能够使用一只手的位置,例如当涉及到分析一个人对物体的抓握时,视分析结果而定,也能够包括指关节点,只要能够在检测距离内分析手指。下面提到的是人和用户。在此,能够相对宽泛地理解人,而用户通常是指在服务机器人17上识别出身份的人。但这些术语在许多位置上能够作为同义词使用,区别在识别操纵时尤为重要。
在阈值比较方面,该文档有时是指超过阈值,这在之后导致对一种情况的特定评估。此外,能够使用不同计算方法,它们能够部分导致相反地解释分析结果。一个示例是比较用于重新识别人的两个模态。如果为此计算例如相似系数,比如关联度,则高于某阈值的高关联度表示两个人是同一人。但如果各个值之间存在差异,则高差异值表示相反,即高度不相似性。但将这类替代的计算视为关联度初次计算的同义词。
使用机器学习方法比如使得确定例如用于运动过程的明确阈值变得多余,这有利于模态分析。换言之,代替来自骨架模型的关节点的专用距离的阈值比较,而是进行同时分析多个关节点的模态比较。如果在下面谈到阈值比较,尤其是在运动过程方面,则在使用机器学习算法时也能够找到一种模态比较方式。作为这类模态比较的基础,比如能够在时间进程内检测例如运动过程的身体姿势正确还是错误,并进行连续分析。以提取到的特征、诸如关节点为基础,能够创建分类器,之后将该分类器与其他检测到的、规定为正确或错误的身体姿势和由此推导出的关节点的走势进行比较。
获取Barthel指标
服务机器人17能够执行的测试之一是获取Barthel指标或者执行Barthel测试。通过该Barthel测试,以行为观察为基础,对基本自主能力或者护理需求(比如进食和饮水、个人卫生、灵活性和座椅/小便控制)进行估计。为此,服务机器人17被如此配置,从而通过通信装置能够向用户提出有关这些主题领域的问题。用户可能是指待评估的人。作为替代方案和/或补充方案,其他人或者亲属同样能够通过通信装置提出有关这些主题的问题。在此,通过服务机器人17的显示器2的菜单引导或者通过语音界面提出问题。作为安装在服务机器人17内的显示器2和/或麦克风193的替代方案或补充方案,也能够使用单独的、通过接口188(诸如WLAN)与服务机器人17连接的显示器2,诸如平板电脑,人能够将其拿在手里,或者放到桌子上,由此能够方便答复和完成练习。通过问题对话在有待对其进行评估的人和例如亲属之间进行区分。作为替代方案和/或补充方案,也能够按照不同的方案区分,比如在有关识别操纵的章节中将对其详细说明。
识别坐着应进行定时起身和行走测试的患者的座椅
通过服务机器人17执行的测试之一是所谓的“定时起身和行走”测试。在该测试中,待评估的人坐在扶椅中,起身,然后行走三米,以便返回再重新坐下。检测在此用掉的时间,以表格为基础将所述时间转换为评分。
服务机器人17使用激光扫描仪1扫描服务机器人17所在的空间,计算与墙的距离,并且在测绘的范围内通过绘图模块106创建一张虚拟地图,该虚拟地图反映了空间的轮廓,但同样在XY面中记录位于激光扫描仪1与墙之间的物体。创建的地图保存在地图模块107中。只要激光扫描仪1不再具备360°视线,则服务机器人17则会如此实施行进运动,从而使服务机器人17能够接近360°地扫描其周围环境。服务机器人17比如从空间的不同位置实施这一扫描,以识别比如隔开立放的障碍物。如果服务机器人17扫描过一次空间并创建了虚拟地图,则服务机器人17能够通过重新扫描一部分空间重新识别出空间。其他扫描越精确,就能够扫描越多的空间。在此,服务机器人17比如记录其经过的路程并且在此测量距离,由此服务机器人17能够确定其在空间内的位置。与此相补充,也能够通过分析轮子的旋转运动,与其周长相结合,来测量出经过的距离。如果使用摄像头185取代激光扫描仪来创建地图,则能够更方便地确定位置,因为不仅在XY面中能够识别出表征性的尺寸,在Z面中也能够识别出表征性的尺寸,由此能够在空间内相较于仅在二维图中进行识别更快速地识别出空间内的独特的尺寸。
通过绘图模块106绘制空间地图时也能够使用一个以上的传感器,比如激光雷达1与传感器3的组合使用,其中传感器3为RGB摄像头,它比如能够检测空间中的着色,并且为激光雷达1所记录的XY面中的每个点分配一个色值。对此,服务机器人17的处理单元如此执行图像处理,从而首先为XY面中的每个点分配Z轴线坐标,它用激光雷达的倾斜度及其相对于地面的高度表示。RGB摄像头又具有与激光雷达的已知相对位置,以及已知对准角度和已知拍摄角度,由此能够知道例如水平直线在图中有哪一距离,它们距离2m,离地50cm。通过这些参数能够为激光雷达1所测定的每个空间坐标分配RGB图片中的一个像素,由此也确定像素的色值。
通过激光雷达1能够确定预计座椅在空间中的位置。图4中描述了识别方法。座椅通常有最多四条腿,其中单腿椅为办公转椅,由于它能够绕着Z轴线旋转,因此这种办公转椅不太适合可能有残疾并且年龄较大的人。更为可能的是两腿或四腿椅,其中两腿椅通常是指所谓的悬臂椅。椅腿的突出之处在于,椅腿隔开地立放在XY面中,由此激光雷达1能够在步骤405中识别隔开立放的对象。另外在Z轴线恒定时,椅腿在XY面中还具有均匀的横截面积(步骤410)。在此,对象的直径(即潜在的椅腿)处于0.8cm至15cm,或者1cm至4cm之间,并且这在步骤415中确定。可能作为椅腿撑开的对象之间的在XY面中的距离典型地约为40cm,步骤420。四腿椅的椅腿主要以矩形的形式布置(步骤425)。这意味着,相同直径的两个对象指示出存在有两个椅腿的悬臂椅(步骤430)。如果座椅的前后腿彼此间具有相同的横截面积,则它可能属于四腿椅(步骤435)。
服务机器人17现在能够以这一特点(两个或四个隔开立放的对象,它们有大致对称的横截面,距离约为40cm,并且大致成矩形布置)为基础为这些对象分配“座椅”属性,并在通过激光雷达1和/或一个或多个另外的传感器创建的虚拟地图中在步骤440中确定座椅的这种位置,在这些位置很可能有一个或多个座椅。此外,在步骤445中为识别出的每个座椅分配一个空间朝向。座椅通常大致与墙平行,通常距墙有一定的距离,该距离在2cm至20cm之间,其中这一距离参照座椅背面。因此,为与墙平行的两条椅腿之间通常距墙40-70cm的线分配“座椅正面”属性,步骤450,正交的两个区域在步骤455中被标识为座椅的“背面”。作为补充方案和/或替代方案,也能够将四腿椅中的距靠近的墙进一步远离的那个面识别为正面。
还能够使用2D或3D摄像头185取代激光雷达1来识别座椅。在这种情况下,处理单元通过接口188(诸如WLAN)和API向云18中的网络服务发送图像,该网络服务设置用于对图像进行分类,或者处理单元采用保存在服务机器人17的存储器10上的图像分类算法,这一算法能够将在2D或3D摄像头185中创建的图像识别为座椅,其中也包括带有扶手的座椅。有大量算法能够进行这类分类和创建模型,之后能够在云18的网络服务中或者能够在服务机器人17的存储器10中在服务机器人17的2D或3D摄像头185上使用它们,其中这些算法也包括神经网络,比如卷积神经网络。
服务机器人17能够独立于座椅识别方式保存座椅位置,比如保存在自身的存储器10中,该存储器与服务机器人17的导航模块101集成在一起,步骤465。此外,服务机器人17检测空间470中的座椅数量,并按照顺时针顺序对座椅数量进行计数。作为对此的替代方案,也能够有其他顺序。座椅按照这一顺序获取一个编号,该编号被作为对象ID保存,步骤475。
服务机器人17以所述的处理方法为基础,能够绘制空间地图,包括所存在的座椅,即确定座椅在空间中的位置,包括其朝向。但在执行定时起身和行走测试时,需要有一个人坐在座椅之一上,其必要时也能够具有处于座椅附近的行走辅助装置。对于将服务机器人17如此配置,从而服务机器人17使用激光雷达1识别人身份时的情况,采用以下方法:通过图5中的前述方法在步骤505中识别座椅在空间内的位置和朝向。为了识别腿和可能的行走辅助装置,并区分XY方向上横截面中设计的对象,服务机器人17在步骤510绕着座椅所在的位置导航约至少20°,比如至少45°,理想情况下至少90°,步骤510,其中激光雷达1和/或一个或多个另外的传感器向座椅方向定向(步骤515)。在此,服务机器人17保持超过50cm的距离,比如超过80cm,步骤520。由此,便能够提高预测精度,以识别到服务机器人17的椅腿,并允许得出有人坐在座椅上的结论。
如果有人坐在座椅上,则在座椅附近可选地布置有两个另外的对象,步骤525,它们大致成圆形,步骤530,这些对象的直径稍小于4cm,比如小于3cm,步骤535。它们相互之间和/或与椅腿之间很可能有如下距离,这一距离明显不同于椅腿之间存在的约40cm的距离,步骤540。此外,这些距离很可能位于椅腿侧面,步骤545。考虑这些信息情况下,服务机器人17中的处理单元9能够将识别出的对象识别为行走辅助装置,步骤550。如果多数未探测到这些特征,则不会识别为行走辅助装置,步骤585。为此,比如能够使用NaiveBayes估计法。由于并非每个应完成测试的人都必须有行走辅助装置,因此步骤525-550是可选的和/或不是必需的,以便通过激光雷达1识别座椅上的人的身份。从空间上来看,座椅前腿周围可能有坐在座椅上的人的腿。
能够将一条或两条腿放在前椅腿的前方、之间或者前椅腿后方。由此,便形成一个略呈漏斗形的区域,它从座椅中心略呈辐射状向前延伸,直至达到超出两条椅腿连接线最多约50cm,步骤555。对由激光雷达1检测到的数据进行如下分析,从而确保在这一区域内识别到两个(步骤560)大致呈圆形至椭圆形的对象(步骤565),其直径为6-30cm,比如7-20cm,步骤570。双腿也能够放在前椅腿之间或者甚至椅腿后方。两条前椅腿之间的线上的对象越密集,对象的形状就越呈圆形形状,步骤575。如果在最大程度上满足了这些标准,保存在服务机器人17中的调控机构150会以激光雷达数据为基础识别坐在座椅上的人,步骤580。替代地,没有识别出座椅上的人,步骤590。
作为激光雷达1的替代方案,通过常规图像分类也能够识别人和行走辅助装置,如例如在前面已经稍微解释的那样。在此,服务机器人17同样会改善预测精度,其方法是服务机器人17从多个位置测定座椅的朝向,由此2D或3D摄像头185能够拍摄座椅,如上一节所述。也能够使用在现有技术中有充分描述的方法(SDK、比如KinectSDK、Astra OrbbecSDK、OpenPose、Tensorflow的PoseNet等)取代常规图像分类,以便通过2D或3D摄像头185基于识别骨架来识别人员。
服务机器人17根据图6还能够识别空间内人的身份,步骤605,为此能够采用不同的替代性和/或补充性方案:为此,一方面能够使用激光雷达1从不同角度识别两个直径至少5cm,比如至少7cm的横截面,它们并非精确圆形并且其静态距离至少为3cm,或者至少为5cm。作为补充方案或者替代方案,能够基于图像分类通过2D或3D摄像头185识别人的身份,其中比如能够使用前一节提到的SDK。如果在时间进程内在空间中的位置发生改变,则在一个方面有很高的可能性将其分类为人。服务机器人17另外还使用来自现有技术的算法,它们通过传感器(比如摄像头185)的SDK和/或第三方提供商的软件,能够创建人的骨架模型,并在一定时间内进行跟踪,步骤610,比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113进行跟踪。如果识别出一个未坐在座椅上的人,步骤615,则服务机器人17会请求该人坐到座椅上,这比如能够以声学和/或光学的方式进行,步骤620。在此,服务机器人17会跟踪这个人向座椅方向上的运动,步骤625。如果服务机器人17未检测到朝座椅方向的运动,步骤630,服务机器人17会改变其位置,步骤635。这一措施的背景是服务机器人17可能挡住了人的去路,或者必要时传感装置未正确检测到人。如果错误检测到存在一个人,则中断这一过程,替代地则继续(在图6中未示出)。服务机器人17在步骤640中重新请求这个人坐下。在此,服务机器人17重新跟踪运动,步骤645,比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113来重新跟踪运动。如果服务机器人17在步骤650中没有发现朝座椅方向的运动,则服务机器人17会重新请求这个人坐下,但请求的程度更高,比如通过发出增加的语音输出音量、替代的语音输出、视觉信号等,步骤655。再根据朝座椅方向的运动来跟踪人,步骤660。如果之后假设未发现朝座椅方向的人的运动,步骤665,则服务机器人17通过接口188(诸如WLAN)向计算机发送一条信息,计算机通过显示器2与医务人员互动,并且请求医务人员向服务机器人17移动,并且为该服务机器人17提供支持,步骤670。在一个替代的和/或补充的方面,服务机器人17能够检测人探测的程度,即服务机器人17使用内部规则来测定检测质量,比如与检测阈值的偏差,以此为基础来测定服务机器人17向人发出的请求次数。
由于在空间内有超过一个可能有人坐的座椅,而且并非每个座椅前面都有足够的空间能够经过必要的3m距离,因此服务机器人17具有一套校正机制。这套校正机制规定,服务机器人17从识别到的座椅量(步骤705)中识别出在其前方朝向座椅正面的垂直方向中有无障碍的自由面,其长度至少为3.5m,比如至少为4m,步骤710。如果在座椅前面有用于执行测试所需的相应的自由面,则将这一特征作为属性保存在服务机器人17的存储器10中,步骤715。在将用户导航至座椅时使用这些信息,或者通过这些信息确保座椅上有人坐着,该座椅适合通过座椅前面的充足空间执行测试。作为对此的补充方案和/或替代方案,也能够通过地面标记识别座椅,例如在下面的某些章节中识别这些地面标记。
为此,服务机器人17在请求(站着的)人坐下时,能够在步骤720中向站着的人指示出恰当的座椅。服务机器人17也能够请求该人重新起身,然后坐到另一个座椅上,步骤725。在一个方面,在步骤730中详细识别该座椅。为此,服务机器人17使用对象ID和定位座椅的顺序。此外,在服务机器人17的存储器10内存在例如有人坐在6号座椅中,但4和7号座椅符合条件来执行测试的信息,因为在它们前面有足够的空间。服务机器人17能够在发送给人的请求中实现,聚合人自己能够坐到服务机器人17左侧的座椅或两个位置上的,或者服务机器人17右侧的一个位置上的信息。在这种情况下,服务机器人17能够基于在被人和服务机器人17占据的空间中的朝向来如此校正这类信息,从而确保输出的信息与人的朝向或视角有关。在所述的示例中,它们是人右侧的两个位置或者左侧的一个位置。与此类似,服务机器人17也能够使用站立的人的坐标以及恰当的座椅的坐标,以便指引站立的人坐到该座椅上,或者以“请您坐到您斜左侧的座椅上”的方式进行指引,必要时指定距离。在一个补充的和/或替代的方面,在此也能够包含座椅的颜色信息,之前比如能够通过RGB摄像头获取它们。
如果座椅是空的并且服务机器人17未在空间内识别到人,但服务机器人17收到了使用座椅对人进行测试的指令,则服务机器人17比如会以距座椅超过一米的距离进行定位。在一个方面,服务机器人17具有经由其导航模块101的信息,其指示患者从哪个方向接近。这些信息一方面已经能够明确保存在系统中。
在一个附加或者替代的方面,服务机器人17能够识别门或通道。在门关着的情况下,墙内有至少1cm的错位,它与墙面垂直地朝向,步骤805,而在垂直方向上错位的距离超过77cm,比如超过97cm,但小于120cm,步骤810。作为对此的补充方案或者替代方案,它属于距离数cm的双错位,其中内部距离达到提到的约77cm,最好约为97cm。在这些信息的协助下,尤其能够通过激光雷达1识别出关着的门。在门开着的情况下,服务机器人17通过激光雷达1识别到在XY方向上在约77-97cm的长度(步骤815)和与边缘成1-178°的角度(步骤820)、在时间进程内有能够变角度(步骤825)下接近边缘之一的平面,和/或在识别到的开口后方有至少90cm的距离在地图中没有XY面的其它限制,步骤830,该地图由服务机器人17比如通过激光雷达1来绘制。
在2D或3D摄像头185的情况下,一方面又能够采用基于表征性门特征曲线学习的算法。另一方面也能够如此处理来自Z方向的信息并且必要时与来自XY方向的数据组合,如果在XY面中被识别为可能的门或通道的区域有1.95-2.25m的高度限制,则这些信息有助于以更大的机率识别出通道。作为对此的补充方案和/或替代方案,也能够包含涉及门把手的对象信息。
针对座椅未被占用的情况,服务机器人17通过其导航模块101基于门或通道的所测定的位置以及座椅的位置、例如通过测定欧几里何距离来创建座椅和门或不被障碍物挡住的通道之间的直接路径。服务机器人17定位在该路径以外,比如在空间上如此朝向,从而其传感器能够告知座椅和/或门/通道。
如果服务机器人17识别出进入空间的人,则服务机器人17将如上所述请求他坐到座椅上。
如果现在座椅上有人,服务机器人17将通过输出单元,比如扬声器192,作为替代方案和/或补充方案,也能够通过显示器2,请求人起身,直行三米,然后再重新返回到座椅上。
服务机器人17能够通过2D或3D摄像头185识别地面上的距离标记,为此使用常用的模态识别方法。服务机器人17第一步骤中先使用识别到的座椅的位置信息。为了确保它是距离标记并且例如不是正常的地板图案,服务机器人17首先通过其导航模块101测定空间中与座椅的正面大致垂直相距3m的位置。随后,将扫描大致位于该位置的地面区域,以识别这种标记。将扫描其他地面区域,以识别图案是唯一的还是重复的。如果它是唯一的,或者是保存在服务机器人17的存储器10中的(如果适用的话),则将该图案作为3m点标记使用。
固定地面标记的一个缺点是在空间中进行清洁工作时,坐在座椅上的人等能够不同程度地移动座椅。因此在一个补充的和/或替代的方面,服务机器人17配备有投影装置920,用于以3m的距离从座椅正面向垂直方向投影标记。再通过比如导航模块101来测定座椅和3m点的XY坐标,其中事先通过根据座椅位置由服务机器人17更新该导航模块101。为此,能够使用光源,比如激光器或LED,它们又能够通过透镜或具有类似功能的工具进行聚焦。该投影装置920能够向地面上投影一个面,投影成条柱,必要时含信号请求人应向那里移动的字符。投影装置920在一个方面(参见俯视图9a)至b))独立于服务机器人17可移动地布置,由此服务机器人17比如能够通过自身的旋转运动在正面始终向人910方向定位(如线940所示),而投影的标记915始终位于与座椅正面905垂直的相同位置上。在此,投影装置920的光源本身在一个方面可移动地布置,在另一方面反射镜,比如微形反射镜或微型结构的元件,确保对于光的这种控制,从而该光比如在服务机器人17运动、例如旋转运动时保持在相同位置上。由此,时间点a)和b)之间的角度在人910向标记915方向移动时变化,这包括线条925和935以及930和935之间的角度。在一个替代的和/或补充的方面,服务机器人17同样能够平行于人的行进方向移动。
在另一方面(图9c)至d)),光源能够投影到地面的一个面上,从服务机器人17的角度看,其宽度超过3m。由此,该投影装置920便覆盖了人应从座椅开始走过的路段。在此,投影装置920的中心轴线从摄像头185的中心轴线开始参照服务机器人17的Z旋转轴线,旋转10°至60°的角度,比如20-50°的角度,即朝向从服务机器人17开始人应移向的方向进行旋转。如果例如在座椅上有人,该座椅位于服务机器人17左侧,而3m点位于服务机器人17右侧,则投影标记(比如条柱)在3m点位置,从服务机器人17看去,其在投影面的右边缘。将服务机器人17向固定的3m点方向旋转之后,投影标记将移向投影面的左边缘。在此,比如能够采用投影装置920,它位于传统的(LCD)数据和视频投影机内,在其中在软件方面如此操控矩阵,确保投影面的不同区域有不同程度地被照亮。如果坐着人的座椅在服务机器人17右侧和3m点左侧,则相应地按照镜面相反方式进行朝向。图9c)中,人915坐在座椅905上。投影装置920能够照亮由虚线矩形构成的面。3m点标记915在右侧区域内。通过旋转服务机器人17,投影面顺时针与服务机器人17一起移动,在此将3m标记保持在固定的XY坐标上,这意味着,3m标记向投影面的左侧区域移动(图9d))。在此,所述的图示假定了固定投影方向920。在一个替代的和/或补充的方面,投影装置920可移动地布置(未详细示出效果)。
作为对此的替代方案,服务机器人17不旋转并且通过激光雷达1和/或2D或3D摄像头185检测超过人必须经过的完整路段(参见图9e),其中传感器检测到的最小区域至少为虚线。在另一方面,2D或3D摄像头185采用可调整布置方式,而投影装置920或光源采用刚性布置方式或者同样采用可调整布置方式(未单独示出)。
服务机器人17中的处理器以服务机器人17的导航模块101的坐标、投影装置920的倾斜度及其高度为基础计算投影面,由此能够事先测定座椅的、3m点的和服务机器人17的位置,以便投影到完成练习的人看来在最大程度上不失真的条柱,它与座椅正面大致平行。根据实施方案而定,标记的形状也能够不同。
如在现有技术中所充分描述的那样,借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113能够跟踪人。为此,服务机器人17同样检测上肢的姿势,以识别人何时开始站起。从这一时间点开始,同样检测这个人完成这项测试所需的时间。当人返回到座椅之后旋转再重新坐回到座椅时,计时结束。通过算法将旋转运动识别为模态,由此通过人的关节点能够生成骨架模型,手臂在旋转运动中能够与平面大致平行,这个平面与有待经过的路段一致。在一个方面,在时间进程中分析手臂的关节点,并且测定对称存在的关节点与连接起始位置和换向位置的直线超过160°的角度变化。
在一个替代的和/或补充的方面中,服务机器人17被如此配置,从而服务机器人17在走完一个路段时测定患者在此所经过的距离。由于起始位置和换向位置相距3m,走过的路段的在座椅到达起始位置时开始和结束的长度为6m,它同时也是结束位置,换向位置距离座椅3m。在此,服务机器人17不必检测地面上的标记。能够通过不同方式测定走过的路段距离,其中也包括累加步长。这可以基于踝关节或踝关节的距离,通过2D或3D摄像头185与在此使用的分析框架组合识别这些踝关节或踝关节,在三维空间内分配其点,通过服务机器人17例如以矢量的方式测定其距离。作为替代方案和/或补充方案,通过累加患者经过的坐标点之间的欧氏几何距离能够确定患者走过的路段,也能够根据患者和服务机器人17所在的周围环境地图来测定坐标点,其中能够根据参考位置来测定患者的坐标。在此,包括与识别出的空间界限的距离或者服务机器人17的位置,能够通过自定位(自定位模块105)确定所述位置。
在比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113跟踪患者期间,服务机器人17计算走过的距离,根据与患者必须走过的总距离设置这一走过的距离。服务机器人17能够通过输出装置,比如显示器2和/或语音合成单元133向患者反馈他还必须走多远,还需要走多少步,患者什么时候能够旋转等。
服务机器人17以检测到的时间为基础,基于调控机构150的保存在存储器10中的参考数据来传输评分。服务机器人17能够通过接口188(诸如WLAN)向云18中的患者管理模块160传输评分和/或检测到的时间。
如图10所示,在一个方面,服务机器人17能够利用其传感器3在步骤1005中检测运动,将这些运动在步骤1010记录为视频,在步骤1015进行保存,并且在步骤1030通过接口188(诸如WLAN)向云18中的云存储器进行传输,该云存储器位于调控机构150内。以加密方式进行数据传输。事先将待评估的面部特征打上马赛克,由此人能够保持匿名,步骤1025。在调控机构150内为打标签目的而提供了视频材料,以便借助自学算法继续改进调控机构150的参考数据。为此目的,能够通过终端1030访问所保存的数据,由此医务人员能够鉴定拍摄的视频并对其打标签,步骤1035。在此,打标签是指手动对人的身体姿势进行分类,比如人坐到座椅中,人站直,人向前或向后移动,人旋转等。针对这些由视频序列得出的事件,能够为时间点分配标签。在此,例如对运动的起点或端点做时间上的标记,并且同时将运动、诸如描述肢体部位例如在时间进程中的朝向的身体姿态之类的运动进行归类/分类。随后,将例如以这种方式打标签的数据保存到数据库中,库存数据同样保存在该数据库中,步骤1040。随后,调控机构150能够通过算法、诸如神经网络来自主改进分类规则。改进基本上以两种方式实现:a)检测之前尚未描述的情况,因为它们偶尔出现,以及b)提高事件数量。由此,这两种方式在所执行的分类的范围内能够进行更精确的权重估计,步骤1045。在此,对由患者身体姿势得出的矢量空间、其运动等进行相应的分配,由此能够更方便地估计待评估的人的姿势。在此,包括从座椅上起身、走路、旋转以及重新自己坐下。为了更好的分类,新权重保存1050在调控机构150中并且通过接口188(诸如WLAN)以升级方式向服务机器人17传输。
图59对用于检测和分析起身和自己坐到座椅上的运动的系统总结如下:该系统包括处理单元9、存储器10和至少一个用于非接触地检测人的运动的传感器,其中系统的存储器10中有座椅探测模块4540、输出装置(比如扬声器192)和/或用于传输指令的显示器2、用于测定用于所走过路段4510的持续时间的持续时间-路段模块和/或用于测定被检测的人在路段上的速度的速度-路段模块4515以及用于评估人在路段上的速度和/或用于走过路段所花时间的持续时间-路段评估模块4520。此外,该系统还可具有用于执行听力测试的听力测试单元4525、视力测试单元4530和/或精神能力测试单元4535。该系统可用是服务机器人17。在一个方面,该系统具有投影装置(920),例如以便投影显示旋转点的标记和/或起点。在一个方面,该系统具有人识别模块110、人身份识别模块111、跟踪模块(112、113)、运动分析模块120、骨架创建模块5635和/或基于骨架模型的特征提取模块5640。
简易心理测试
简易心理测试:会话练习
此外,如此配置服务机器人17,从而服务机器人17能够执行简易心理测试。简易心理测试的目标是识别认知限制,比如老年痴呆。在测试的范围内,通过服务机器人17的通信装置(语音输入和输出,显示器2)向患者提出问题,患者能够通过服务机器17的通信装置回答这些问题(比如以语音输入、以屏幕上有候选择的答案、以徒手输入,比如日期、居住地等形式)。针对这种执行,一方面能够使用服务机器人17的显示器2,另一方面也能够使用单独的、通过接口188(诸如WLAN)与服务机器人17连接的显示器2,诸如平板电脑,人能够将其拿在手里,或者放到桌子上,由此能够方便回答和完成练习。
所述服务机器人17被配置为使得服务机器人17能够与人通信,如在图11中所述的方法所揭示的那样。为此,在一个方面,服务机器人17能够如此在空间内对准,使服务机器人17的显示器2与轴线大致平行,该轴线延伸穿过用户的双肩、髋和/或膝并且延伸经过骨架模型,借助2D或3D摄像头185及其SDK识别到该轴线。由此,服务机器人17与用户对准,步骤1105。与用户交互的范围内,通过扬声器192播放保存在存储器10中的至少一个语音序列,并且能够通过显示器2和/或语音输出请求用户复述播放的语音序列,步骤1110。在作出所述请求后,服务机器人17通过麦克风193记录用户的声音信号,步骤1115,并且确切而言比如与所输出的复述的语音序列那样长地进行记录,步骤1120。与下面的步骤一样,这通过语音分析模块132实现。服务机器人17分析时间范围内信号的幅度,步骤1125。如果幅度下降至零或接近零(比如小于幅度最大值的90%)超过1秒,比如超过2秒,则结束记录,步骤1130。继续进行采样,其中通过幅度接近零超过1秒并且长度至少为用户应复述的和保存在服务机器人17内的语音序列的70%的相位来定义采样宽度,步骤1135。以这种方式能够确保检测并单独分析用户的多次语音尝试。服务机器人17在时域内或者频域内比较样本,并且在考虑到在音频技术领域常用的方法、尤其是交叉关联性的情况下,来计算相似性值,步骤1140。如果在此例如相似性值低于阈值,步骤1145,则在一个替代性或补充的方面,服务机器人17能够重新请求用户复述语音序列(连接1145=>1110)。如果相似性值超过特定的阈值,则服务机器人17会修改服务机器人17的存储器10内的数据库中的与用户有关的值,步骤1150。保存由用户发出、记录的语音信号,步骤1155,并且与修改后的来自数据库中的值一起通过接口188(诸如WLAN)传递给患者管理模块160,步骤1160。在一个补充的或替代的方面,只将由服务机器人17记录的语音序列及模态序列的最高的相似性值保存起来。系统此外计算复述尝试次数,并且如果尝试次数超过某一阈值,则中断记录相关的复述尝试,转至下个有待复述的语音序列。同样,还在数据库中备注用户的多次复述尝试或已失败的复述尝试。
简易心理测试:折叠练习
简易心理测试的练习包括取纸,纸的折叠和放下纸/让纸落下,如图12所示。为此目的,移动式服务机器人17具有可选的装置,该装置包含有待评估的人比如根据服务机器人17的请求在测试中能够拿取的纸。替代地,移动式服务机器人17也能够提醒待评估的人在执行测试的空间内有这类纸。为此,语音输出和/或显示器2的输出单元经过相应配置,步骤1205。
如此配置服务机器人17,从而能够通过呈3D摄像头,比如飞行时间摄像头(TOF)的实施方案的传感器3来识别、检测和跟踪用户的双手,即在第一步骤中识别双手,步骤1210,并且在第二步骤中在这个人在折叠纸时跟踪双手,步骤1215。也能够采用以各个2D摄像头为基础识别双手(步骤1210)、跟踪(手)运动(步骤1215)的方案来取代ToF摄像头,以识别相应的姿势或经折叠的纸,步骤1220。在此,权重比如来自于一个借助常规机器学习方法,比如回归法和/或神经网络、诸如借助卷积神经网络来分类的模型。为此,事先要拍摄大量折叠运动,打标签,并且从常规算法中学习。作为替代方案和/或补充方案,也能够通过2D摄像头以架构为基础创建骨架模型,比如将OpenPose或PoseNet与Tensorflow相结合来创建骨架模型。
在这一时间内比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113来检测运动。在此,在第一步骤中识别双手,步骤1210,根据整体拍摄对它们进行分段。在第二步骤中通过分段识别双手中的物体,步骤1220,比如通过能够允许模态识别的容错分段算法(比如RANSAC架构)。通过在现有技术中充分说明的跟踪方法检测时间进程中的运动,步骤1215。在此,开始时手中还没有纸。然后,用户拿起一张纸,将其折叠,然后再将纸移向负Z轴方向,即朝地板方向移动。在最后一次纸运动时,用户的一只手或双手不必介入。比如通过纸分类来测定纸,即事先通过拍摄纸并将图像打标签创建的摄像头185的二维或三维数据。纸这个术语涵盖了纸和在练习时有相等效应和/或类似尺寸以及可能与一张纸具有相同特征的材料。
服务机器人17在练习开始时请求用户拿起一张纸,步骤1205。为此,利用服务机器人17的扬声器192例如进行语音输出。作为补充方案或替代方案,也能够使用显示器2上的显示或者两种方式相结合。从请求时间点开始使用比如针对纸的对象识别。服务机器人17类似地请求用户比如在中间位置折叠纸,步骤1225。在此,服务机器人17会观察折叠过程,在折叠过程结束之后,服务机器人17会请求用户放下纸或使其落下。作为补充方案或者替代方案,也能够在之前请求进行同一练习之后直接发出有关折叠和/或放下或使其落下的信息。
在一个方面,使用3D摄像头,比如Kinect或Astra Orbbec。在识别手的各个元素,即手指和由此推导出的手指跟踪(步骤1230)时的挑战在于,摄像头185的视线可能被各根手指遮挡,进而无法直接进行估计。对于在手里没有物体时执行的姿势而言也是如此。在另一方面,如果用一只手或多只手进行纸的折叠,则视折叠过程类型而定,同样会遮挡一部分手指。能够根据手指运动(步骤1235)例如来由此识别折叠过程或将其分类为折叠过程,比如至少一根大拇指和同一只手的至少一根,最多多根手指在指尖高度上触碰,步骤1240,即比如检测和跟踪到例如至少两根手指。替代地,用一只手的一根或多根手指触碰另一只手的一根或多根手指,比如在指尖的区域内,步骤1245。在任何情况下,纸被至少一根手指接合,步骤1250。比如在这些手指之间有如在下一节中所述那样来识别的纸。
该系统和方法是对识别纸及其形状变化的替代方案和/或补充方案(步骤1252),其中该纸与至少一根手指接触,或者与其接合。在此,在一个方面,识别处于用户的一只或两只手中的一张纸的四个拐角,步骤1255。在此,在时间进程中单独跟踪每个拐角,步骤1260,并且测定拐角之间的距离,步骤1265。在此,例如通过以下方式识别成功的折叠:a)在三维空间中各两个拐角的距离降低了超过90%,比如降低了超过98%,步骤1270。作为替代方案和/或补充方案,也能够跟踪纸的两个对边之间的距离,并且如果距离小于所指定的值,则识别到折叠过程。作为对此的补充方案和/或替代方案,(b)根据其弯曲来跟踪纸的表面,步骤1275。为此,折叠模块分别测定两个拐角1277之间的中心,并监控(跟踪)纸例如在这一区域内的弯曲,步骤1279。在这种情况下,通过以下方式识别到成功的折叠,步骤1280:即,在时间进程中这一区域内的弯曲增加,步骤1282,而拐角附近的纸边/边缘略为平行,步骤1284(尤其是经折叠的拐角),并且纸边的距离大幅下降,步骤1285,比如下降至距离小于2mm,由此通常不再需要单独检测两个大约相同大小的纸部分,因为摄像头185的深度分辨率由于纸更薄而无法检测两张叠放的纸。作为对此的补充方案和/或替代方案,(c)在时间进程中也检测纸在三维空间内的面积,其中无法探测或者只能较差地探测纸的小于2mm的深度。通过时间进程中纸的面积下降超过40%,比如约50%来确定纸的折叠。例如也能够在不明确地分析和跟踪手指的情况下来实现这一方案。作为对此的替代方案和/或补充方案,(d)检测和分析相互平行的纸边缘的两端的距离,步骤1293,并且当纸两端相互间的距离小于20mm时,识别到折叠,步骤1294。通过两种或这三种检测变型方案中的组合,能够总体提高检测精度。如果这一练习成功结束,即折好纸,并且之后向地心方向移动,步骤1295,也替代地安放在一个平面上,步骤1297,将在数据库中备注这一点,步骤1299,尤其是在保存测试结果的数据库中备注这一点。
总之,图61示出了用于识别折叠练习的系统,比如服务机器人17:该系统包括处理单元9、存储器10和用于非接触地检测人的运动的传感器,比如2D和/或3D摄像头185、激光雷达1、雷达和/或超声波传感器194以及其存储器10中的多个模块。这包括纸探测模块4705、用于测定纸的折叠运动的折叠运动识别模块4710、用于创建人的骨架模型的骨架创建模块5635、用于探测纸的边缘和/或拐角的距离的纸距离拐角边缘模块4720、用于探测纸的形状变化的纸形状变化模块4725、用于探测纸的弯曲的纸弯曲模块4730、用于探测纸的尺寸的纸尺寸模块4740和/或用于探测纸边缘的朝向的纸边缘朝向模块4745。此外,存储器10包括用于探测至少一只手指尖的距离的指尖距离模块4750和用于探测纸的纸探测模块4705,比如该纸探测模块由用于探测纸的纸分段模块4755和/或用于纸分类的模块4760组成。此外,该系统还有输出装置,比如扬声器192和/或显示器2以用于传输指令,并且该系统还具有通向终端13的接口188。在一个方面,该系统具有人识别模块110、人身份识别模块111、跟踪模块(112、113)、运动分析模块120、骨架创建模块5635和/或基于骨架模型的特征提取模块5640。从进程开始检测、识别和跟踪一个人的至少一只手;检测、识别和跟踪一张纸,并且共同将检测到的纸的尺寸、形状和/或运动和手元素识别为折叠过程。在一个方面,还通过容错分段算法和比如纸分类和/或基于二维或三维模态(包括形状模态和/或运动模态)进行的折叠过程的分类来识别纸。
简易心理测试:句子练习
在测试的范围内,服务机器人17还能够请求用户自发地想出一个句子,在对其分析时拼写和语法是不相关的,但句子必须包含至少一个主语和一个谓语。为此,服务机器人17通过通信装置(显示器2;扬声器192)请求待评估的人自主想出一个自发的句子,步骤1305,并且用手指将该句子写到服务机器人17的触控板上,步骤1320。这能够通过显示器输出1310或语音输出1315进行。在第二方面,服务机器人17为此提供了一只笔或类似于笔的物体,步骤1320。在第三方面,准备人能够使用的笔和纸,以便写下句子,步骤1325,并且服务机器人17通过通信装置请求人将写好的纸放在服务机器人17的摄像头185前面,步骤1330,对其进行记录,并保存到服务机器人17的存储器10中。为此,传感装置(2D、3D摄像头185)跟踪用户运动1335,比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113来进行跟踪,利用纸的内部对象识别(参见前述方案)并且识别用户将纸放在服务机器人17的2D摄像头前面,步骤1340,并且服务机器人17识别该服务机器人17使用2D摄像头所拍摄(步骤1350)的纸(步骤1345)。
在下一个过程步骤中,对图像中包含的句子进行OCR处理,步骤1355。在此,服务机器人17的处理器使用已经创建好的相应的数据库,以便处理能够进行OCR处理的图像或文本。视具体的方面而定,能够在云中进行这类数据处理。在下一步骤中将使用自然语言解析器1360,以便确定在句子中存在主语和谓语。为此,在第一步骤中将检测到的句子分解成单个的单词(分词),步骤1365。随后,形成单词的基本形式(词干化和/或词法化),步骤1370。随后,进行POS标记(词性),通过它将单词分类为主语、谓语、宾语等,步骤1375。在此背景下,也能够使用基于神经网络的方案。为此,能够使用NLTK或SpaCy等工具包。在步骤1380中将结果保存到存储器中,并且在下个步骤1385中进行比较在用户给出的句子中是否出现了主语和谓语。在这种情况下,在数据库中保存成功完成了练习(步骤1390)。
简易心理测试:五边形练习
另一个测试元素包括绘制两个重叠的五边形。为此,在一个方面让待评估的人能够在显示器2上进行绘图,该显示器位于服务机器人17上。在第二方面,显示器2在服务机器人17和用户所在的空间以内能够自由移动,但通过接口188(诸如WLAN)与服务机器人17无线连接。在此,能够用手指或者借助适用于平板电脑的笔进行绘图。在第三方面,能够在一张纸上完成绘图,其中由服务机器人17通过通信装置请求绘图的人将画完的图画放到服务机器人17的摄像头185前面。摄像头185拍摄图片。就此而言,这些过程与图13中在1305至1350中所述的过程类似地进行,区别在于在此不涉及应写下的句子,而是涉及绘制五边形。
由计算机将检测到的图片与保存在数据库中的图片进行比较,其中使用调控机构150将图片的特征与分类后的图片的特征进行比较,基于概率进行指配。对于分类机制而言可以采用在现有技术中有过描述的和之前基于自动化的练习来创建的、基本上是使用神经网络方法来创建的方法。替代地,也能够使用不经练习创建的分类机制,其分类特征基于五边形的表征性的特征,以定义的规则(诸如角和线的数量)的形式来确定重叠五边形的特征。这比如考虑到经倒圆的边缘、不直的线条走向和不构成封闭五边形的线条。在这类分析的范围内,能够使用平滑方案来简化分类。如果在由服务机器人17记录到并保存在调控机构150中的比较模型或两个重叠的五边形的识别规则之间的相似性比较(比如关联度)中达到某一阈值,则在数据库中保存已成功完成了练习。
操纵识别
服务机器人17包括用来在完成练习时识别被第三人操纵的功能。为此,用来分析用户及其各项活动的传感装置能够检测在空间内是否有其他人,步骤1405。在此,将分析在测试期间是否有人(包括用户)在空间中如此定位,从而其可能对服务机器人17进行操纵,即其是否处于距服务机器人17的所谓“临界距离”内,步骤1410。操纵在一个方面也包括在服务机器人的显示器2上输入数据。在此,测定人距服务机器人17的距离,并且之后通过下面三种方式中的至少一种确定人是否足够靠近服务机器人17定位,以便能够在必要时进行输入(尤其是在显示器2上):a)假定总计的距离值,比如75cm。如果小于该值,则服务机器人17假定能够操作显示器2(步骤1415)。作为替代方案和/或补充方案,也能够探测人的手和/或手指距服务机器人17的距离,其中假定可能操纵的距离短于人本身所处的距离。b)通过骨架模型来测定人的臂长,步骤1420,尤其是通过测定肩关节点与手关节点或者与指关节点之间的距离。如果小于该距离,则服务机器人17会假定能够操作,步骤1425。c)通过由服务机器人17测定的人的尺寸(步骤1430)得出平均臂长,步骤1435(比如将其保存在存储器10中),并且一旦小于该距离,则假定能够操作/能够操纵,步骤1425。作为这三种方案的补充方案,服务机器人17能够计算人在空间内相对于显示器2的位置的定位(步骤1440)。如果肩膀、髋关节等的对准或者由此推导出的人的正面与显示器2大致为平行或者呈小于45°的角度,并且这个人已在显示器2的方向上对准,比如由人的初始的运动方向、手臂的、头的、膝的、脚的姿态以及面部特征等得出这一结果,由此能够提高与显示器的交互概率。取决于服务机器人17的传感装置的朝向,这套方案也能够针对服务机器人17的其他元件而非显示器2来实现,比如关闭按钮。在这种情况下不考虑与人有关的显示器2的屏幕,而是考虑与操作元件186的对称轴线正交、朝向服务机器人17中心朝向的虚拟屏幕。在可选的第二个步骤中,传感装置分析是否由用户或第三人进行了服务机器人17的输入或操纵,步骤1450。如在现有技术中一般性而言所描述的那样,为此服务机器人17基于表征性的特征(比如基于身高、肢体尺寸、行走特点、比如其衣物表面颜色和纹理等)来跟踪其周围环境中的人,比如借助虚拟人跟踪模块112和/或基于激光的人跟踪模块113来跟踪其周围环境中的人,步骤1445。通过服务机器人17处进行的识别来区分用户和第三人,其中假定识别的人为用户。这通过在显示器2上观察输入内容,借助服务机器人17的光学传感器实现。总之,在此能够通过测定人的正面和垂直位于服务机器人17的操作元件186上的轴线之间的分别投影到水平平面中的角度来测定人相对于服务机器人17的朝向,并且将测定的角度与阈值进行比较,其中低于阈值包括探测到增加的操纵概率。在一个方面,人能够在服务机器人17上登录并检测和保存人的身份特征,例如在这之后能够检测和跟踪人,检测人的身份特征,将检测到的身份特征与登录时保存的人的身份特征进行比较以及与阈值进行比较,其中在此将比较相似性,并且阈值暗含最小相似性。在此,如果该值低于阈值,将探测到增加的操纵概率,如果超过阈值,则将探测到更低的操纵概率。最后能够将测定的操纵概率相乘,以便测定操纵评分,例如在由机器人执行分析之时或者之后将其与被检测的人和分析结果一起保存起来。取决于比较方式,也能够进行其他交互,如开头所述。
图62示出了用于识别操纵的系统的一个方面。该系统或服务机器人包括处理单元9、存储器10和用于非接触地检测至少一个人的运动的传感器,比如2D和/或3D摄像头185、激光雷达1、雷达和/或超声波传感器194。系统包括其存储器10包含规则的模块。这比如包括通过至少一个在该系统的周围环境中探测到的人实现的操纵尝试探测模块4770、人身份识别模块111、用于测定至少人与服务机器人17的距离的人-机器人距离测定模块4775、用于测定至少一个人的尺寸、臂长和/或朝向的尺寸-臂长朝向模块4780,和/或用于比较是否是被系统识别出身份的人比如通过操作元件186在系统上进行输入的输入登记比较模块4785。此外,该系统比如还包括输出装置,比如用于传输指令的扬声器192、显示器2,和/或通向终端13的接口188。在一个方面,该系统具有人识别模块110、跟踪模块(112、113)、运动分析模块120、骨架创建模块5635、基于骨架模型的特征提取模块5640和/或运动规划器104。
为了排除第三人仅按照用户的指令进行输入,通过现有的麦克风193对人之间的口头交流进行分析(在图14中),步骤1455。为此,在服务机器人17的周围环境内通过至少一个集成的麦克风193记录语音信号,步骤1560。通过两种替代性或补充的方式比如同样在语音分析模块132中实现语音来源的识别。为此,一方面能够对唇部运动进行视觉分析,首先对这些唇部运动进行识别,步骤1565,然后进行跟踪,步骤1570,并且之后与由服务机器人17记录的语音信号进行时间同步,步骤1575。为了识别唇部的说话运动,采用了来自现有技术的图像识别和跟踪方法。由此,这使得服务机器人17能够识别登录的语音来自于谁,它们是否与应执行练习的用户一致,其中比如当服务机器人17识别到用户身份时,能够检测用户的语音。在相反情况下,可能存在操纵,步骤1580。这一方案的劣势是必要时仅仅难以检测甚至无法检测其身体姿势不朝向服务机器人17的第三人的唇部运动。回避这一问题的第二种方式包括安装在服务机器人17的不同位置上并且通过多条通道在时间进程和频率进程中记录的多只麦克风193的音调分析(步骤1480),其中服务机器人17的处理器进行运行时间分析,步骤1485,并且由信号出现的时间偏差计算这些信号来自哪个人,步骤1490。作为替代方案和/或补充方案,也能够使用麦克风193,其中在这种情况下能够通过变换服务机器人17的位置进行三角测量。为此,比如通过三角测量计算出的时间偏差,关联时间进程,确定在房间中的原点(这可以二维地或三维地进行)。然后,将该原点与通过在房间中定位通过2D或3D摄像头185或者激光雷达1测定的人的定位进行匹配,由此服务机器人17通过这种方式能够确定刚刚是哪个人讲话,步骤1495。如果涉及语音信号归属于其的第三人(而非用户),则可能存在操纵,步骤1498。之后在存储器中调整值,并且在一个方面在用户对话时生成请求或错误消息。
现在,其他人只能为用户提供输入协助,即不自己进行输入,而是仅讲话人、记录人等通过显示器2或麦克风193向服务机器人17中进行输入。为了检查是否能做到这一点,将对记录到的单词序列进行分析,确保能够通过之前章节中示出的至少一种方式将所述单词序列与各个人对应起来,步骤1505。图15示出了这种处理方法的基本点。作为对此的补充方案或者替代方案,能够在服务机器人17的周围环境中记录语音,步骤1510,并且根据不同的语音特征/语音特点尤其是在语音分析模块132内区分讲话人,步骤1515,这基本上包括语音序列(尤其是基频率)、不同语音强度和/或不同语音速度。该方法与图14所述的方法相结合,根据语音信号传播通过唇部跟踪或定位来使用人的语音信号,从而能够将识别到的语音信号与人对应起来,不必每次重新测定讲话人的唇部运动和/或空间位置,并且也不必在必要时与2D/3D人跟踪结果进行比较。将人与语音特点匹配之后,步骤1520,这允许记录语音并且同时根据用户进行跟踪,步骤1525。在内容上对相应予以记录并保存在服务机器人17的存储器10内的序列进行分析,即搜索“预测行为”,即检查这些文本分段或语音分段/语音模态在时间上是否依次多次出现,步骤1530并且来自于不同的人,步骤1535,这通过为模态及与人对应的语音特点,比如基频率进行打标签来实现(作为替代方案和/或补充方案,也能够使用图14中所述的方案)。文本分段、语音分段或语音模态比如指相同的单词和/或词序。在此,在评估这些序列以协助用户或者服务机器人17的操纵时,重要的是知道相关的序列由哪个人首次提到。如果由用户首次提到,步骤1565,则假定为未操纵,而是第三人的协助活动,步骤1570。如果序列首次来自第三人,则要假定为操纵,步骤1575。为此,在第一步骤中检查一语音分段是否首先由一个非用户的人来记录,然后再由用户重复这一语音分段。为此,将进行关联,尤其是在时间范围内,以便搜索相同的单词。在此,尤其会检查是否重复了超过一个依次单独出现的单词。作为对语音序列的关联分析的补充方案或替代方案,也能够通过自然语言处理进行词汇分析,步骤1545,其中会分析比如前几段中的单词,并且比较打标签的单词的序列,以分词、词义化和部分语音标记,比如通过spaCy或Python中的NLTK为基础比较打标签的单词。这一处理方法另外还能够检查“预测”是否并非由用户为由服务机器人17进行记录而在声音上重复,而是由用户直接向服务机器人17中进行相应输入。因为只有这些重复的语音分段/模态才有重要意义,同样在测试的范围内由服务机器人17检测并在内容上分析这些语音分段/模态,比如以针对用户的问题的表格的形式,步骤1540。为此,相应地同样通过自然语言处理(步骤1550),替代地通过所保存的语音信号来比较服务机器人17中的文本输入(“任意文本”)以及菜单引导的输入(选项),这些语音信号反映了菜单选项,步骤1555,进行分析,再将第三人语音记录与用户输入内容进行比较,步骤1560。如果在所述的这些用于操纵识别的方案中发现由第三人进行了用户的输入或记录,或者由第三人进行“预测”,则在服务机器人17的存储器10中备注已经发生了操纵,步骤1580。
总之,用于测定操纵概率的方法包括由非接触式的传感器在机器人的周围环境内检测和跟踪至少一个人,测定该人在机器人的周围环境内的位置,记录和分析音频信号,定位音频信号的来源,比较所测定的人位置和音频信号的来源位置,并且将位置差异与阈值进行比较,并且以位置差异与阈值的比较为基础测定机器人的操纵的概率。在此,通过至少一只麦克风和所测定的方向的三角测量,通过检测音频信号的方向的检测来定位音频信号的来源位置,比如也通过变换服务机器人17的位置或者通过第二只麦克风。定位音频信号的来源位置包括通过麦克风检测音频信号的方向,通过非接触式的传感器测定至少一个人的位置,音频信号的方向和所测定的人位置的三角测量。另外比如会分析面部,检测时间进程中的唇部运动,在时间上将检测到的音频信号(比如通过关联度分析)与检测到的唇部运动与阈值的关系进行比较,并且在超过阈值时将检测到的音频信号与被检测的人对应起来。该方法同样能够包含人在机器人上登录(以用户身份)及检测和保存人的身份特征(以用户身份),其中身份特征包括人音频信号的频率、强度和/或频谱,比如另外能够检测和跟踪人,检测人的身份特征,将检测到的身份特征与在人的登录的范围内保存在机器人上的人身份特征进行比较,以及与阈值进行比较(即具有最低相似性),登录人在操作元件(186)上的输入内容,并分类经登记的人(用户)是否在操作元件(186)上进行了输入。比如如果未登记的人在机器人的操作元件(186)上进行了输入,则能够测定到针对机器人的操纵的增加的概率。该方法另外比如还可以包括:测定检测到的音频信号或音频序列中的单词和/或词序,将测定的单词和/或词序与被检测的人对应起来,如果测定的词序的比较得出单词和/或词序差异超过阈值,即未达到最小关联度,则会测定到针对机器人的操纵的增加的概率。此外,该方法比如能够测定由人通过操作元件(186)输入的单词或词序,测定在检测到的音频信号中的单词和/或词序,将检测到的音频信号中测定的单词和/或词序与被检测的人对应起来,如果将通过操作元件(186)输入的词序与由检测到的音频信号所测定的词序进行比较时发现单词和/或词序最小相似性并且同时被检测的人身份特征与登录时检测到和保存的身份特征有最小相似性,则会测定到针对机器人的操纵的增加的概率。
图58示出了以音频信号为基础的用于操纵识别的系统的架构视图。这包括处理单元9、存储器10和用于非接触地检测在系统的周围环境中探测到的人的运动的传感器、至少一只麦克风193、用于测定人在空间中的位置的人位置测定模块4415、用于确定音频信号的空间来源的音频源位置测定模块4420、用于关联两个音频信号的模块4025、用于将音频信号与人关联的音频信号人模块4430和/或语音分析模块132。此外,还有用于比较是否是被系统识别出身份的人在系统上进行输入的输入登记比较模块4785。该系统另外还有用于比较音频序列(即比如复述单词的音序)与触觉输入字母序列的音频序列输入模块4435。另外还有输出装置,比如扬声器192和/或显示器2以用于传输指令。通过接口188(比如WLAN)能够与终端建立连接。用于非接触地检测人的运动的传感器是指2D和/或3D摄像头185、激光雷达1、雷达和/或超声波传感器194。该系统在一个方面具有人识别模块110、人身份识别模块111、跟踪模块(112、113)、运动分析模块120、骨架创建模块5635和/或基于骨架模型的特征提取模块5640。
检查用户的障碍
用户特别是指老人,他们除了经受可能存在应通过在本专利申请中所述处理方式来检查的认知障碍以外,也可能经受听力和视力障碍,这些障碍可能导致测试结果失真。为了改善测试结果的准确度,服务机器人17在一个方面被如此配置,从而服务机器人17在开始练习前能够给用户执行短期的听力测试,作为对此的补充方案或者替代方案,给用户执行短期的视力测试。基本上在图16中示出了在此进行的方法步骤。服务机器人17首先可选地通过屏幕输出和/或声音输出向用户请求可能出现可能的理解问题的这一问题情况,因此需要根据用户来校准服务机器人17。视力和/或听力测试属于这类校准的一种。然后,服务机器人17提示用户参与校准,步骤1605。
在短期的听力测试的范围内,当用户听到特定声音时,服务机器人17提示用户在显示器2的菜单中按下相应的按键。作为对此的补充方案或者替代方案,也能够为用户提供语音输入,如在现有技术中所描述的那样,比如又能够在语音分析模块132中通过自然语言处理方法对语音输入进行分析。随后,服务机器人17播放不同频率和不同音量的音序,但它们单个地基本上具有恒定的频率和音量,步骤1610,并在每次都“询问”用户是否听到了声音,这比如能够通过以下方式实现:服务机器人17向用户示出有输入选项的显示器2,通过该显示器用户能够说明他在多大程度上听到了声音,步骤1615。在一个方面,在此,声音在时间进程中音量更低和频率更高,步骤1620。但也能够考虑与此相关的不同顺序。检测用户的回答。随后,将测定一个评分,步骤1625,它说明在用户的哪个范围内能够听到声音。如果用户比如未达到听觉行为内的特定阈值,即服务机器人17通过其屏幕菜单引导或者语音菜单引导并经过相应分析的回答未达到预先定义的正面回答的边界值(比如只识别到七个声音中的三个),则能够由此测定相应的评分值。在一个方面,该评分保存在服务机器人17内的数据库中,步骤1630,比如与表征人的临床状态的用户信息一起保存。作为对此的补充方案或者替代方案,通过用户发出的比如相对于通过至少另外一个麦克风193记录到的周围环境噪声水平1635的回答音量,服务机器人17也能够确定用户是否需要较由服务机器人17输出的信号的增加的音量。在一个补充的和/或替代的方面,相应地调整服务机器人17的声音信号的输出音量,比如当通过其中所述方式中的至少一种方式确定用户听觉迟钝时,就提高音量。
在短期的视力测试的范围内,当用户能够识别特定字母或其他类型的符号时,服务机器人17提示用户在显示器2的菜单中按下相应的按键,步骤1650。作为对此的补充方案或者替代方案,也能够为用户提供语音输入,如在现有技术中所描述的那样,又能够通过自然语言处理方法对语音输入进行分析。随后,服务机器人17在显示器2上播放一系列的字符或图片,步骤1655。在此,用户在步骤1660中用信号表示,用户是否已经识别到字符或者用户识别到哪些字符。在此,在一个方面,在时间进程中的符号或图片变小(步骤1665)。但也可以考虑与此相关的不同顺序。作为对此的补充和/或互补,也可以用不同的颜色图案来识别用户可能存在的色盲。检测用户的回答。以评分的形式显示测试结果,步骤1670。如果比如用户未达到特定的视力阈值,或者发现色盲,即无法识别特定数量的对象/图案(诸如七个中的三个),这影响到了评分,则在一个方面能够将其保存在服务机器人17内的数据库中,步骤1675。在一个补充的和/或替代的方面,在向服务机器人17的显示器2上输出文本元素时相应地调整字母的大小,必要时同样调整菜单设计,以便能以更大的字母显示相应的菜单项,步骤1680。此外,在一个补充的方面,也能够调整显示器2的色彩,以便在存在色盲的情况下更好地识别显示器菜单。在一个补充的和/或替代的方面,服务机器人17能够改变与用户的距离,比如如果用户存在视力障碍,则更靠近用户,步骤1695。为此,将在导航模块101中临时修改一个参数值,该参数值定义用户和服务机器人17之间的常规距离,步骤1690。最终也能够在考虑用户的视力的情况下,按照环境条件来调整服务机器人17的显示器2的对比度和/或亮度,步骤1685。
通过适应环境影响因素来改善信号处理质量
在另一方面,不仅考虑视力和听力测试,还考虑用户的缺陷,服务机器人17能够按照环境来如此调整输入和输出单元,由此便能在不同亮度和/或噪声背景条件下操作。服务机器人17在显示器附近有一个市售的亮度传感器,以便测定有多少光落到显示器2上。同时,按照环境来调整显示器2的亮度值,即尤其上在有强烈的光入射时提高显示器2的亮度,并且在亮度值低时,降低显示器2的亮度。作为补充方案或者替代方案,服务机器人17能够通过一个或多个麦克风193测定背景中的噪音。在一个方面,这可能导致在噪音水平提高时服务机器人17的声音输出音量同样更大,并且在噪音水平低时则降低音量。在一个补充或替代的方面,至少另一个麦克风193记录背景噪音并且使用Noise Cancellation(即噪音消除)方法(输入信号围绕记录的背景噪音的相移),以便改善声音输入信号的信号质量,由此能够更好地处理语音,以便因此避免比如数据检测误差、由服务机器人17重新提出问题或提示等。
此外,服务机器人17作为改进测量结果精度的措施还会询问待评估的人是否有疼痛,其中同样会询问疼痛的强烈程度。为此,通过在其他位置处已经描述的通信装置实现服务机器人17与待评估的人之间的互动。这类信息保存在用户的数据库记录中。
作为用于改进测量结果的精度的另一项措施,服务机器人17从患者管理模块160获取患者什么时候进入医院的信息,测试在该医院中进行,并计算出截止目前的留院持续时间,以考虑因延长留院时间造成的认知能力下降。同时,在患者管理模块160中还会检测患者是否已经被诊断为一种疾病。在示出简易心理测试结果时同样考虑这一信息并且将其保存在用户的数据库记录中。
服务机器人17通过接口188(诸如WLAN)将保存的上述测试任务的结果传输至患者管理模块160,并且使它们可用于医务人员,其中同时也记录结果。
对患者的光谱测量
在一个方面,服务机器人17被如此配置,从而服务机器人17能够确定患者的皮肤上是否有特定的分泌物,在一个方面,这种分泌物指示出特定的疾病,能够借此方式对其进行诊断。由此,服务机器人17比如能够测定患者在床上是否出汗,必要时也确定该患者出汗有多严重。在此,比如能够使用光谱仪196,比如近红外光谱仪,在另一方面也能够使用Raman光谱仪。在图21中示出了测量分泌物的过程2100。在此,能够分别对不同身体部位进行测量。示例性地说明了对三个部位的处理方法:双手、前额以及躯干上的测量,尤其是床单。探测这些部位的汗液比如是另一测试的精神错乱探测评分的组成部分,以便证明患者存在精神错乱。
服务机器人17被如此配置,从而服务机器人17能够通过3D传感器,比如3D摄像头,记录床上的患者。为此,该传感器比如被定位在服务机器人17上,由此服务机器人17能够位于至少80cm的高度上,比如至少1.2m高度上,并且比如采用能够旋转和/或能够倾翻放置方式。
服务机器人17能够基于对象识别对床进行识别,步骤2105。为此,在一个方面,服务机器人17能够通过2D或3D传感器、比如激光雷达1来扫描空间,据此推理得知在该空间中有床。作为替代方案和/或补充方案,也能够通过保存在存储器10中的地图来测定尺寸,该地图比如包括空间的宽度和深度等房间信息。以这种方式方法分析空间尺寸,步骤2110。服务机器人17另外还能够测定所测量的对象的尺寸,步骤2115,比如与所实施的里程计单元181搭配进行三角测量(2120步骤),它能够测定服务机器人17的位置偏差。测定在空间内所测量的对象相对于房间信息的尺寸,步骤2122,为此不必求助里程计功能。基于保存在存储器10中的规则对所测定的尺寸,尤其是床的外形尺寸进行分类,由此测定该对象是否属于床,步骤2124。在一个方面,这包括床所占据的尺寸。在一个补充的和/或替代的方面,也能够基于明确地识别出床的表征性的特征对由激光雷达1和/或2D和/或3D摄像头185识别到的对象进行分类,步骤2125。在此,可以涉及床的轮子的设计方案和/或用于调节床高度的升降装置。但也能够使用通过基于机器学习和/或神经网络方法来学习典型的床特征来创建的分类规则。作为替代方案和/或补充方案,床也可配备传感装置和/或条形码,步骤2130,比如RFID或蓝牙发射器,它们能够对床进行识别。
在一个方面,通过将传感器定位在床上能够测定床在空间中的朝向,步骤2140,比如能够通过使用在床架上不同地反射的背向散射信号,并且通过运行时间和/或相差来测定床在空间中的朝向。条形码同样能够通过这种方式固定在服务机器人17上,该方式使得这种读取允许测定床的空间朝向。由服务机器人17读取保存在传感装置和/或条形码中的代码,并且将其与保存在服务机器人17的存储器10中并且分配给床的代码进行比较,由此服务机器人17能够确定所读取的传感器和/或条形码已经分配给一张床。作为替代方案和/或补充方案,尤其是在基于其尺寸来识别床时(步骤2124),床在空间中的朝向通过床尺寸来进行,在一个方面也能够通过比较与最近的墙的位置进行识别,步骤2135:也就是说,服务机器人17以先验信息为基础测定床的朝向,尤其是床头的朝向,其中先验信息是指床具有基本上为矩形的形状,其较短的侧边为床头或床尾。在此,将更短的边识别为床头,该床头比如更靠近空间的墙。在一个替代的方面,服务机器人17能够识别床上的人,尤其是其头和手臂,例如能够在骨架模型范围内对其进行分析。
随后,在可选的步骤2145中,服务机器人17测定服务机器人17在哪个位置相对更靠近患者的头。为此,服务机器人17在下一步骤中在床的一侧测定服务机器人17能够行走多远到达床头。如果到在床的一侧上的床头处的墙的距离小于1m,则服务机器人17沿这一床侧行进。如果距离超过1m,则服务机器人17在床的另一侧测定与墙的距离,并且随后尽可能向前行走至靠近床头的墙,即在服务机器人17能够尽可能远地行进至靠近床头处的墙的一侧。在一个替代的方面,服务机器人17如前所述首先检查两侧的深度,之后向朝向床头方向的一侧行进,服务机器人17在这一侧朝向靠近床头的墙的方向行驶的距离最远。
作为下一步骤,服务机器人17测定头的候选区域,步骤2150。为此,定位服务机器人17如此定位,从而指示其正面朝向预测的头位置的方向。这比如能够通过将服务机器人17旋转就位实现,其中服务机器人17具有相对于床的较长一侧测量的25°至90°的旋转角度。服务机器人17通过2D或3D传感器来检测床的表面,尤其是在到床头的区域内进行检测。作为替代方案和/或补充方案,服务机器人17计算出头通常所在的候选区域,并且这一候选区域位于距床较长侧至少25cm、距床头至少10cm、到床头的距离最大为60cm的区域内。
作为替代方案和/或补充方案,也能够保存宽度的间隔。如果与床较长侧(通过比较床侧和/或通过预定义的长度间隔来相对测定)的距离小于定义的阈值(比如20cm),说明床沿着墙伸展,并且服务机器人17沿床的纵向侧移动,直至有充足的空间。随后,服务机器人17使用已经描述过的用于测定头的候选区域的方法,服务机器人17替代地通过摄像头185扫描整个床,通过市售的架构对其图片进行分析,该架构能够实施头识别。
服务机器人17以头特征为基础能够测定前额,步骤2152。在一个方面,这通过定义一个通过以下面部特征限制的区域来实现:高于在发际线的两侧连接眼睛中心点的线约4cm,这能够通过患者皮肤的彩色对比度予以识别。作为替代方案和/或补充方案,在此也能够使用头形状,其中通过使头倒圆来限制前额面。在此,比如能够使用方向梯度直方图方案,它采用比如OpenCV或Scikit-image架构。在此,作为限制也能够使用角度,大腿的角度由头传感器的光束与位于光束射到头的表面上的位置处的垂直线形成。在识别出患者的前额之后,服务机器人17跟踪头的位置,步骤2172,比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113来跟踪头的位置。
如果服务机器人17识别患者前额或眼睛遇到问题,在一个方面,该服务机器人能够调换床侧,以确保患者的后脑不会转向它。作为替代方案和/或补充方案,服务机器人17能够通过其输出单元,比如显示器2和/或语音合成单元133请求患者移动头,步骤2154,比如看向该服务机器人。在发出这样的请求之后,重新尝试识别头或前额。
服务机器人17还能够使用其他分类算法来识别患者的双手。在此,一方面与识别患者头的方法相同(即大致在床较长侧的中心,与较短床边的平行深度约为30cm确定手的两个候选区域,步骤2157),作为替代方案和/或补充方案,能够使用RGB或RGB-D摄像头185的SDK中的算法,以创建患者(部分地分配的)骨架模型,其中在此尤其是识别手臂和双手,即其关节点,而关节点之间的连接能够显示为方向矢量。如果服务机器人17未识别到手臂或双手,服务机器人17能够通过其输出单元,比如显示器2和/或语音合成单元133请求患者移动双手或手臂,步骤2159,比如将它们从床单下面伸出。在发出这样的提示之后,重新尝试识别手臂或双手。与前额类似,服务机器人17还能够识别手表面,比如手背和/或手心。在此,为了改善定位,作为替代方案和/或补充方案,还能够考虑来自骨架模型的关节点,其中手部的重点区域在手关节和手指关节之间。作为替代方案和/或补充方案,能够通过图片分类识别手心,其中借助显示手心的图像来训练分类算法。
另一个重点身体区域是患者的上半身,通过一个候选区域事先将其定义为从头向下指向的区域,该区域在约1.5倍头高长度范围内延伸,一半头高从头下方开始,宽度约为2倍头宽。作为替代方案和/或补充方案,从患者头下方约10cm处开始,在约45cm的宽度和约50cm的高度内定义这一区域,也替代地大致定位在床中心,与床头的距离约为50cm。作为替代方案和/或补充方案,也能够通过三维形式进行分类。在此,在一个方面根据高度扫描床的宽度,并且在轴线与处于床的半部的区域的较长一侧平行的区域内,朝向床头朝向。沿着在该区域内产生的脊线选择位于头的候选区域下方的部分。通过这种方式能够测定上半身的候选区域,步骤2160。然后,扫描相对于通过服务机器人17的3D传感装置检测到的床垫的水平的突起,并且在在候选区内探测到突起的情况下,则将该区域识别为上半身,步骤2162。
为了使得服务机器人17能够检测到识别患者的目标区域:前额、手表面/手背和躯干的上部。能够通过传感装置,比如借助RGB-D摄像头185在空间中如此识别它们,由此能够相应地在三维坐标系中显示其表面。在此,比如也会进行跟踪,步骤2170,尤其是跟踪患者的头,步骤2172,并且在一个变型方案中,也能够跟踪手,步骤2174,并且可选地跟踪上半身,比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113来进行跟踪。在此,比如对由传感装置创建的图像进行分段,以通过分类来确定身体区域,使光谱仪(196)能够对准这些身体区域。相应的分类能够保存在存储器10中。服务机器人17比如在用于控制光谱仪的应用中也能够保存应在其上面进行测量的区域。
在测量前,服务机器人17在步骤2170中在定义的时间段内跟踪手或头的运动(也可选地跟踪上半身的运动)。如果在超过定义的阈值的持续时间内未发现运动(比如5秒),或者只发现了手/头未超过定义阈值(比如5mm)的运动,步骤2180,则测量和分析检测到的数据,步骤2185。
在使用光谱仪测量期间,在安全性检查2178的范围内通过RGB-D摄像头185持续地跟踪患者的头或者正在对其进行测量的手。如果发现了运动,比如头的旋转运动、超过定义阈值的低头或抬头运动,则立即中断测量。服务机器人17继续跟踪应在上面进行测量的区域,并且当头的运动小于定义的阈值时,再次开始重新的测量尝试。
服务机器人17另外比如还有一个用于进行物质分析的近红外光谱仪2186,它能够旋转和回转地安置并且能够与之相关地进行电子调节。服务机器人17能够通过这种安置方式来使得光谱仪196如此对准,让由光谱仪196测定的辐射的路径到达三维空间内的目标区域的坐标,并且也能够重新探测光谱仪196的经反射的辐射,步骤2187。尽管将带聚焦镜头的红外线二极管用作光源,但在一个方面能够使用红外激光器。
将会进行测量,即分析光谱仪196的信号,并且根据参数数据库进行分类2189,数据库中包含参考光谱,并且由此能够在质量或数量上2190测定在目标区域内或上有什么2188。作为替代方案和/或补充方案,也能够直接保存用于根据测得的光谱确定物质的分类规则,它们比如以关联度评估为基础工作。在此,在一个方面测定表征性信号,即基本上测定汗液的光谱分布,步骤2191,它们由水、钠和/或氯的单个光谱组成,并且比如出现在患者的皮肤上,比如前额或手上。根据躯干目标区域检测患者的床单有多湿,即在此根据床罩的材料来考虑用于分析信号所使用的分类。
通过扫描床单的不同的部分区域,借助通过参考数据库所进行的分类例如也估计作为汗液析出的水的量。
数据库在另一方面具有参考光谱,通过它们能够确定其它物质的浓度,包括不同的药品2192,如海洛因、鸦片制剂(诸如吗啡)、安非他明、甲基苯丙胺、可卡因(必要时包括苯丙胺)、9-四氢大麻酚(THC),或其它物质2193,如葡萄糖、乳酸、尿酸、尿素、肌酐、皮质醇等等。
服务机器人17具有另一个参考数据库,它以不同的物质的组合和/或其浓度为基础允许对测定的测量值进行分类,由此能够将不同的疾病与测得的光谱相关联,步骤2194。在此,浓度阈值或测得的物质量、物质量和/或浓度彼此间的比例以及它们的组合构成了这种分类的组成部分。一个示例是尿素、尿酸和肌酐的组合,其中尿酸的浓度大于0.02mmol/l、肌酐的浓度为0.04mmol/l(在温度更低时浓度会更高)、并且尿素浓度>15mmol/l(在低温条件下)或者>100mmol/l(在高温条件下)。服务机器人17在该分类中通过位于服务机器人17内的温度计考虑环境温度、季节或室外温度,并且在后一种情况下配备有接口188(诸如WLAN),由此通过云18能够测定其所在位置的室外温度,即服务机器人17为了改善分析能够检测其他数据,或者通过其它传感器2195和/或通过接口188(诸如WLAN)向其他数据库2196传输。
测量结果保存在位于服务机器人17内的数据库中,步骤2197和/或能够通过接口188(诸如WLAN)向云18中的服务器传输并保存在那里,步骤2198。随后,能够通过显示器2和/或语音输出测量结果,步骤2199,比如通过服务机器人17和/或医务人员在分析时能够访问的终端来进行输出。
在图63中对(比如服务机器人17的)光谱仪系统进行了总览式地示出:光谱仪系统包括处理单元9、存储器10和用于非接触地检测人的传感器(比如2D和/或3D摄像头185、激光雷达1、雷达和/或超声波传感器194)、光谱仪196和用于将光谱仪196与人的身体区域对准的光谱仪对准单元4805,它与翻转单元类似。此外,该系统还能够具有用于测量环境温度的温度计4850和/或通向终端13的接口188。在存储器10中有用于探测身体区域的身体区域探测模块4810、用于在身体区域上进行光谱测量之前和/或期间跟踪身体区域的身体区域跟踪模块4815、用于监控的光谱仪测量模块4820(包括中断和/或继续基于在上面进行测量的身体区域的运动的光谱测量)、视觉上的人跟踪模块112和/或基于激光的人跟踪模块113。系统访问参考光谱数据库4825和/或具有所保存的疾病图像和与之关联的用于比较所测得的光谱并测定所测得的物质的疾病图像数据库4830,它们位于云18和/或存储器10中。在存储器10或云18中另外还有用于测定流出的汗液的汗液模块4835、用于测定精神错乱探测评分的精神错乱探测评分测定模块4840和/或用于测定认知能力的认知能力评估模块4845。在一个方面,该系统具有人识别模块110、人身份识别模块111、跟踪模块(112、113)、和/或运动分析模块120。
以多项测试为基础识别精神错乱并进行监控
作为简易心理测试的替代方案,在临床诊断中还出现了一种目前已被医务人员所掌握的、用于精神错乱识别的测试法。精神错乱是一种至少暂时性精神错乱症。它尤其采用CAM-ICU这一术语,其中CAM代表“困惑评估方法”,ICU代表“Intense Care Unit”,即重症监护室。由医务人员进行的评估在此包括注意力障碍,这能够通过声音和/或视觉测试进行,但也能够进行需要有运动机能反应的无序思维测试。
基于对声学信号序列的识别,分析患者的注意力障碍
服务机器人17在一个方面被如此配置(参见图22),从而服务机器人17能够通过比如脉搏频率为0.3-3Hz,比如约一赫兹的扬声器192输出不同的声音信号的脉冲序列(比如音序),步骤2205。同时,服务机器人17能够检测至少一个触觉传感器4905的信号(步骤2210),并与输出的信号同步,步骤2220。此外,能够在存储器10中为每个声音信号分配一个值。输出声音信号和探测触觉传感器4905的信号之间有一定的时间上的延迟2215,即比如最大为一半脉冲长度、跟踪脉冲信号的相移。在此,将对至少一个触觉传感器4905的以可能的相移进行登录的信号进行分析,确定其是否在定义的且保存在存储器10中的声谱范围内出现,步骤2225,即比较在定义的音序之后是否出现探测到的信号。如果出现了这种情况,则存储器10中的计数器会增加一个整数值,步骤2230,或者替代地,不增加,步骤2235。随后,以这种方式对测定的计数器值进行分类,使得给测定的计数器值分配一个与计数器值对应的诊断,步骤2240。对准患者输出声音,以便例如检查其认知能力。值越大,患者的认知能力受到的不利影响越低。诊断结果保存在服务机器人17的存储器10中,步骤2245,可选地将所述诊断结果向云18内的基于云的云存储器中传输,并且可选地通过终端提供给医务人员。
触觉传感器4905是指一种压电、压阻、电容式或电阻式的传感器。但如Kappassov等人在2015(DOI:10.1016/j.robot.2015.07.015)所述,也能够使用其他类型的传感器。在一个方面,在服务机器人17的执行器4920上有触觉传感器4905,该服务机器人有至少一个关节并且能够如此定位,从而服务机器人17能够够到患者的手,即触觉传感器4905相对于手以小于比如保存在存储器中的阈值的距离进行定位。在一个方面,该传感器集成在机器人手臂中。在一个替代的或补充的方面,该传感器被安装在服务机器人17的表面上。为此,服务机器人17利用至少一个摄像头185来识别患者的身份,对其跟踪并测定其双手的位置,比如至少测定右手的位置。
应用示例:
服务机器人17在用于检测患者的注意力的测试中通过扬声器192输出相当于一个单词的字母串。每个字母间隔约一秒输出。服务机器人17请求患者在识别到特定字母时用其一只手实施按压运动。通过所述的触觉传感器4905分析这些按压运动,并对识别到特定的字母的频次进行计数。识别率越高,患者受到的不利影响越低。
如图64所示,注意力分析系统的组成如下:系统,比如服务机器人17,其包括处理单元9、存储器10、用于声音信号的输出单元(诸如扬声器192)、触觉传感器4905以及用于通过触觉传感器分析信号的触觉传感器分析单元4910和用于比较检测到的信号是否在定义的输出之后出现的触觉传感器输出比较模块4915。该系统同样能够包括执行器4920,比如机器人手臂以及摄像头185。触觉传感器4905比如定位在执行器4920上。在存储器10中有执行器定位单元4925,它通过执行器4925将触觉传感器4905定位在人的手附近,并通过人身份识别模块111和/或手识别模块4930以及认知能力评估模块4845来测定人的认知能力。该系统在一个方面具有人识别模块110、跟踪模块(112、113)、运动分析模块120、骨架创建模块5635和/或基于骨架模型的特征提取模块5640。
基于图像识别来分析患者的认知能力
在服务机器人17的一个替代的或补充的方面该服务机器人17被如此配置,从而能够由患者分析和分类对图像的识别,以便由此评估患者的认知能力,尤其是其注意力。图23示例性地示出了在此所使用的流程。在此,服务机器人17通过语音合成单元133向患者指示,服务机器人17应记住多张图片,步骤2305。在语音输出之后,服务机器人17的显示器上将显示一系列图片,步骤2310,比如分别间隔三秒显示五张图片。然后,通过语音合成单元133通知患者,服务机器人17希望通过其患者头的运动来用信号表示患者是否认识所显示的图片,即服务机器人17希望在步骤2315中进行与之相关的分类。在此,将摇头评估为拒绝,将点头评估为确认。分别间隔三秒在服务机器人17的屏幕上播放十张图片(步骤2320)。在此,与前五张图片序列相比,有五张图片是重复的,但每张图片只播放一次。在一个方面,能够与显示过的图片比较,通过随机发生器确定图片的顺序和/或区分新图片,步骤2325。服务机器人17保存显示的图片序列是否已经显示过,步骤2330,并且在显示期间(或者最多等待一秒)检测患者的头运动。为此,服务机器人17至少具有一个传感器,比如RGB-D摄像头185,它能够识别和跟踪患者的头,步骤2335,其中比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113进行分析。这包括转头和/或点头。在此,服务机器人17能够通过分类方法检测面部的特征点,其中包括眼睛、眼眶、嘴和/或鼻子。在现有技术中已知存在这方面的解决方案(比如DOI:10.1007/978-3-642-39402-7_16;10.1007/s11263-017-0988-8),它们使用方向梯度直方图。作为下一步骤对患者的头运动进行分类,以识别摇头和/或点头,步骤2340。为此,同样能够使用源自现有技术的架构。由此识别到的点头或摇头运动相应地与显示的图片进行同步,步骤2345。然后根据再次显示或首次显示给患者之后他或她是否已经正确识别出图片,来对所显示的图片序列进行编码,步骤2350。服务机器人17可选地将值的比较结果,比如与执行日期一起保存到数据库中,数据库比如同样保存显示的图片序列。在通过患者每正确识别到一次图片重复时,计数器都将累加一次,步骤2355。通过累加产生的评分是衡量患者是否经受认知障碍的标准。为此,对测定的评分进行分类,为其分配医学注释,步骤2360。评分及其医学注释保存在数据库中,步骤2365,必要时保存在云18内的云存储器中,步骤2370,并通过终端提供给医务人员以进行分析,步骤2375。
在一个可选的方面,服务机器人17能够在三维空间中测定患者的眼睛的位置2410以及显示器2的位置(步骤2405)。服务机器人17在一个方面使用这些数据检查眼睛与显示器2之间的视线连接是否存在障碍物。比如,在患者卧床时,防跌倒装置可能成为这样的障碍物。为此,服务机器人17首先计算视线所在的坐标,步骤2415,并且通过3D摄像头检查视线连接的坐标是否与探测到的障碍物关联,步骤2420。如果服务机器人17识别到障碍物,则重新定位显示器倾斜度,步骤2450,作为替代方案和/或补充方案,在XY面中重新定位服务机器人17,步骤2455。在一种替代的和/或补充的方面,服务机器人17被如此配置,从而服务机器人17能够在显示器2(比如显示器拐角)空间坐标的帮助下测定患者眼睛与显示器表面之间的角度(步骤2425),以便确保至少一个角度在一定间隔内,步骤2430,该间隔可能为设备所特有。通过这种方式能够确保例如显示器2的反射表面不会导致患者无法充分识别显示器2,因为显示器倾斜度会令患者识别到强烈的反射。为此,服务机器人17能够相应地调整显示器倾斜度2450和/或在空间中重新定位服务机器人17。作为替代方案和/或补充方案,还能够根据患者与显示器2之间的距离来调整显示器2上的字体大小和/或其他符号。为此,服务机器人17首先计算眼睛和显示器2之间的欧氏几何距离,将其与保存在服务机器人17的存储器10中的参考值进行比较,检查这一距离是否能够接受用于识别,且在一个补充的方面能够包含有关患者视力的数据,以便在必要时调整参考值。由此,服务机器人17便能够调整显示器2的显示尺寸(即显示的对象和符号的尺寸)和/或服务机器人17在空间内在XZ平面(即地面平面)中定位,从而确保有充足的用于识别显示器内容的距离。
根据服务机器人17在XZ平面中的重新定位、显示器2的倾斜度和/或显示器显示的尺寸调整,该服务机器人17能够通过扫描其周围环境和可能的扩展或替代的没有障碍物的视线范围,测定显示器2的倾斜可能性和/或显示器2的显示尺寸,这可能成为它在XZ平面中的位置、显示器倾斜度和/或显示尺寸,由此患者在其眼睛和显示器2之间不会发现障碍物,能够在空间上如此定位显示器2,从而确保其尽可能无反射和/或显示尺寸对于患者的视力而言是足够的。
在一个替代的和/或补充的方面,服务机器人17具有用于显示器倾斜度的操控装置和显示器2中的对话功能,或者被配置为语音界面。借助该对话功能,能够向患者反馈显示器显示对他来说在多大程度上充分能够识别。如果患者方面对效果不满意,服务机器人17能够改变显示器2的对准。在一个方面能够通过相对于患者进行重新定位服务机器人17来实现。这一方面能够通过旋转就位实现,另一方面也能够通过占据其他位置实现(比如通过服务机器人17覆盖地面的区域来定义)。在一个替代的和/或补充的方面,能够调整显示器2的倾斜度,其中能够水平和/或垂直对准翻转轴线。
在XZ平面中重新定位显示器2和/或服务机器人17之后,重新执行所描述的过程,以便检查患者是否能够练好地识别到显示器2。
机器人对一只手的手指的数量进行计数
服务机器人17在一个方面被如此配置,从而通过摄像头185、比如RGB-D摄像头185能够识别手指或对其进行跟踪,以便根据显示的数字来分析由手所显示的姿势,比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113。图25示出了这一过程。为此,将由3D深度摄像头生成的深度图像2505被转换为3D散点图,在其中为摄像头的每个像素分配一个空间坐标,步骤2510,由此能够通过第三方提供商、诸如NUITrack的摄像头SDK或软件来识别骨架,步骤2515。在此,相应地识别关节点,包括手关节以及指关节。
作为下一步骤进行关节选择2520,即仅为下述有待执行的计算继续处理必要的关节点。随后,将进行角度计算2525,比如计算第三和第二指节、第二和第一指节以及第一指节和掌骨之间的角度。(在此一般第三指节被称为有手指尖端的指节)。由于大拇指通常没有第二指节,因此它在这里是指第三和第一指节、第一指针和掌骨之间的角度,以及在一个方面指掌骨和腕骨之间的角度。在此,每个指节或每根掌骨被显示为分别从观察的关节点开始的方向矢量。作为下一步骤进行特征提取2530,其中比如共同分析每根手指的所述关节点的角度。在基于所确定的规则来实现的特征分类2535的范围内,比如将伸开的食指定义为第一和第二指节以及第二和第三指节之间的180°的角度。在特征分类的范围内能够定义如下阈值,该阈值可能与180°的条件稍有偏差,并且比如对于第三和第二指节间的角度为150°至180°,并且对于第一和第二指节间的角度为120°至180°,并且对于掌骨和第一指节之间的角度为90°至180°。对于大拇指而言,第三和第一指节间的角度为120°至180°,而第一指节和掌骨之间的角度为150°至180°。在姿势分类2540的范围内,对各根手指及其关节点角度进行结合观察。由此一方面能够基于手动定义的值2545来探测借助手指显示的值2,通过伸出大拇指和食指、食指和中指,或者它们和/或其他手指中两根的组合来探测这该值,而其它手指,尤其是在第二和第三指节之间所具有的角度小于120°,比如小于90°。如果未伸出大拇指而是伸出另外两根手指,则在此大拇指的第三和第一指节之间的角度小于120°,比如小于100°,比如最终最识别为2。掌骨之间的角度可选地小于145°,比如小于120°。
一方面能够通过预定义的规则,比如各个关节点的角度定义及其组合,或者也能够通过机器学习方案2550、诸如支持矢量模型来练习特征提取、特征分类和手势分类,在其中对特定角度组合相应打标签,即能够相互说明各个指节的角度的组合,由此比如示出两根手指,其相当于值2。
在患者认知能力测试的范围内,在一个方面首先触发服务机器人17的输出,通过语音合成单元133,借助扬声器192和/或通过文本和/或图片向服务机器人17的屏幕输出。该语音输出请求患者显示两根手指2605。在此,摄像头185识别患者的双手、其手指,并跟踪手指运动。在此,服务机器人17在手势分类的范围内对此进行分析,以便测定显示多少根手指2610。在此,在一个可选的方面,如在下面所描述的那样,考虑是否能将由患者显示的手指姿势与代码相关联2665。随后,服务机器人17保存一个值,这个值指示患者是否显示了两根手指2615,即评估所评估的手指姿势与以光和/或声音方式输出的数值的比较结果。
服务机器人17在一个替代的和/或补充的方面具有至少一个执行器4920,比如有至少一个关节的机器人手臂,它另外具有至少一只机器人手2620,所述至少一只机器人手具有至少两根能模仿人的手指,但至少有五根手指,其中一根从其布置上来看相当于大拇指,并且它们有与人手一样多的指节。在此,服务机器人17能够借助这些手指来显示数字,其中伸出的手指和手指姿势由指节的角度得出,之前已经根据使用摄像头185识别指节进行过分类。由此,服务机器人17也能够显示出值2,步骤2670,其方法是伸出例如机器人手上的大拇指和食指,即前三个指节之间的角度例如接近180°,而其他指节和指节与掌骨之间的角度小于120°。服务机器人17经过如此配置,使服务机器人17通过语音输出和/或显示器2能够如此同步机器人手的姿势调控,使机器人手显示出值2,同时通过显示器2和/或语音合成单元133请求患者显示与机器人手所显示出的手指一样多的手指,步骤2675。然后进行所述的手识别、手跟踪和姿势分类,以便识别患者的两根手指,步骤2610,以便在测定到患者显示了数字二时保存一个值,步骤2615。在此,在一个方面在服务机器人17通过其输出单元,比如扬声器192和/显示器2请求患者显示数值或者说通过机器人手向其显示了相应的数字之后,在比如3秒的时间窗口内分析由患者所显示的手势。
在该测试的范围内获取的认识允许评估患者在多大程度上受到无序思维的影响,进而给出一种依据识别和监控精神错乱的测试方法。
在一个可选的替代方案和/或补充方案的方面,服务机器人17被如此配置,从而能够基于文化和/或国籍差异利用手指来显示数字。作为替代方案和/或补充方案,服务机器人17在分析手势时考虑这些区别也能够方便识别所显示的数字。其结果是,比如德国的患者更可能用大拇指和食指来显示数字2,而美国人用食指和中指表示数字2。为做到这一实施方案,服务机器人17在存储器10中包含表示相同数字的不同手势的代码,步骤2650,并且它们与之相应地为各国所特有/受到文化条件限制。服务机器人17在其存储器10中保留的患者数据同样能够包含这些代码中的一种,步骤2652,它相应地指示出了患者的国家/文化背景。因此,在存储器10中保存了针对每个数字的多个姿势,尤其是手指的多种组合。作为下一步骤比较代码,以便测定患者优选采用的姿势,步骤2655。恰好也在考虑患者可能的认知障碍的情况下,能够提高患者用其熟悉的手和/或手指姿势来显示出数字的测试可信度。由此服务机器人17能够向患者显示出手势和/或手指姿势,比如数字2,它与患者的文化/国家背景相符,步骤2660,由执行器4920的机器人手实现这一点,步骤2670。作为替代方案和/或补充方案,这些涉及患者的相应编码的文化/国家背景的信息还能够用于更好地识别由患者显示的两根手指。在考虑到这样的代码的情况下进行该手指输出和/或识别是一种可选的实施方案。
服务机器人17还被如此配置,从而通过执行器4920使用至少一个关节在空间上如此对准机器人手,由此在步骤2638中能够由患者识别到机器人手。为此,服务机器人17检测患者的头及其在空间中的朝向,其方式为,服务机器人17使用在现有技术中已经完备的面部姿态识别方法2625,比如在OpenPose架构中包括这种方法。在此,在一个方面也能够比如以OpenCV或Scikit-image架构实现的梯度直方图方案。服务机器人17通过该架构测定头在空间中的朝向,并且为眼睛计算出一个视线范围。这尤其分别是指张角为45°的锥角,比如30°(从垂线测得)-下文中将其称为“良好的可识别性”,它与头的正面垂直对准。因此,服务机器人17具有锥角识别装置2630。在此,服务机器人17检测其在空间中的位置和执行器的位置4920,尤其是机器人手的位置,并测定该位置是否在锥角之内2632。如果该位置不在锥角之内,则服务机器人17计算执行器4920的关节需要哪些角度设置才能在锥角之内定位机器人手。在此,服务机器人17计算出空间内的三维区域,它与患者具有最小距离并且例如视患者的身体区域变化。在步骤2636中,将这类最小距离保存在服务机器人17的存储器10中。通过识别床上的患者的,比如其头和身体,则计算出机器人手允许在其中活动的“允许区域”,其中与患者头的距离较距离躯干或手臂的距离更大。在一个方面,距头的距离为50cm,与患者剩余身体部分距离30cm。服务机器人17在步骤2638中测定机器人手能够定位在服务机器人17允许区域的哪一部分,才能使机器人手在两个锥角之间。然后,服务机器人17在步骤2638中通过执行器4920如此对准机器人手,从而通过患者能够实现手的“良好的可识别性”。如果无法实现这类定位,服务机器人17会在步骤2640中请求患者通过输出单元,比如显示器2和/或语音合成单元133借助扬声器192请求患者看向该服务机器人17。然后,在步骤2642中再次检查,即执行步骤2630-2640。如果不改变所测定的锥角的对准,服务机器人17会取消测试步骤2644,并且在步骤2646中向医务人员传输信息,为此比如通过接口188(诸如WLAN)向服务器和/或移动终端发送信息。作为替代方案和/或补充方案,服务机器人17能够重新向患者请求和/或等待更长时间。如果以患者能够良好识别的方式对准机器人手,则能够在步骤2670中用一只手显示出两根手指,并按前面所述继续这一过程。在基于面部姿态识别考虑“允许的区域”来对准机器人手时,这属于一个可选的方面。
图65中示出了用于认知分析的系统。该系统、比如服务机器人17包括处理单元9、存储器10、在存储器中通过数值输出模块4940输出数值的输出单元、人检测和跟踪单元(4605),该人检测和跟踪单元带有摄像头(185)和人识别模块(110)。输出单元是指声音发生器、诸如扬声器192,显示器2和/或执行器4920、比如机器人手臂,在一个方面带有机器人手4950。系统在存储器10中具有用于探测人手势的手势探测模块4960、用于生成机器人手的手指姿势(4950)的手指姿势生成模块4955,其中手指姿势比如代表数值。系统另外还有用于评估被检测的人的认知能力的认知能力评估模块4845。系统在一个方面与患者管理模块160连接。系统具有在其它位置处已经有过描述的、用于测定被检测的人的认知能力的规则。该系统在一个方面具有人身份识别模块111、跟踪模块(112、113)、运动分析模块120、骨架创建模块5635和/或基于骨架模型的特征提取模块5640。
确定疼痛状态
服务机器人17在一个方面被如此配置,从而服务机器人17能够进行患者疼痛感测试,这由服务机器人17所进行的对于患者的行为观察来实现。在此,采用在医学上所创建的疼痛评估表的疼痛表现指标的处理方法。在精神错乱监控的范围内同样进行这类测试。在此,在第一步骤中将分析躺在床上的患者的面部表情。在本发明内容的其他位置(比如图21a)处示出了一些方案,比如服务机器人17在患者卧床时识别其面部,必要时对其进行跟踪,这包括与此相关联的服务机器人17的导航。在一个方面通过传感器检测床,并且通过模态比较来分析在此生成的图像,以便评估它是否是指一张床。在一个方面,在此也能够使用这些方案。
疼痛状态:识别情绪
服务机器人17在第一部分测试中分析患者通过其面部表情表达的情绪。为此,服务机器人17在一个方面能够访问面部分类数据库,在其中保存有面部候选区域内和多个面部候选区域的分类规则,它们以面部特征为基础能够得出有关患者的情绪状态的结论,在下面对此有详细描述。这种两阶段式方法与比如在US20170011258或US2019012599中作为单阶段式方法描述的现有技术存在偏差。在这种实施方案的范围内比如能够使用方向梯度直方图方案,它在比如OpenCV或Scikit-image架构内实施。在识别情绪时,基本上依靠检测表现患者紧张程度的、从放松到极度紧张的情绪,这些都表现在脸部变形上。
在该方法的范围内,首先在步骤2705中识别患者的头,比如通过OpenPose等架构。能够通过2D或3D摄像头185进行这类分析。在此,比如首先识别面部的候选区域2710,然后基于梯度直方图算法在至少一个候选区域中在步骤2715中进行用于分析情绪状态所需的特征提取,由此比如能够评估嘴或眉毛的运动。在步骤2720中,基于获取到的梯度直方图数据进行特征分类,这种特征分类采用现有的特征分类,通过成熟的聚类法,诸如K-Means、支持向量机和/或基于通过练习神经网络、比如带有反向传播的多层卷积神经网络来获取的权重借助为面部表情打标签来产生。在下一步骤,即步骤2725中,在多个候选区上对在候选区平面上进行过的分类进行分类,这同样通过基于机器学习的成熟的聚类法、诸如通过K-Means、支持向量机和/或已经提到过的卷积神经网络进行。在此,比如共同分析嘴和眉毛的运动。
在步骤2730中能够在不同的方面对识别算法进行滤波,即比如在步骤2735中校正服务机器人17通过接口188(诸如WLAN)从数据库获取的患者年龄,前提是直接在服务机器人17上分析情绪。作为替代方案和/或补充方案,也能够通过接口188(诸如WLAN)向云18传输摄像头185为识别情绪而创建的患者头图像,并在那里进行分析。在这种情况下,会将可能的年龄信息从云18中的云存储器传输至执行情绪识别的模块。另一个滤波器在一个方面,判断患者是否插着气管插管(步骤2740),它能够确保通过嘴为患者进行人工呼吸。比如在一个方面,通过使用相应的气管接人工呼吸患者的图片的训练数据来创建用于所述的情绪评估的分类算法。有关探测插管的详情参见下方,并且在一个方面也能够在本文所描述的处理方法的范围内使用。
在步骤2745中,在测定评分的范围内,在1-4的标度上评估情绪,为此将测定的情绪与保存在存储器10中以及分配有标度值的情绪进行比较。值“1”表示被分类为正常的面部表情,而紧张程度在标度上上升直至暗示着面部变形的最高值4。针对跨候选区域的分类存在如下一个矩阵图,该矩阵图针对不同面部表情显示出相应的评分。
在一个方面,在数小时或数天的流程内检测这些值,例如当患者处于放松的状态时在开始由服务机器人17进行一系列情绪测量时,这能够必要时简化对于患者的情绪状态的分析,这能够例如由医务人员比如通过终端和菜单配置保存到存储器10中,服务机器人17能够访问它们。这包括健康状况,比如患者在开始测量时没有疼痛的信息。由此能够在无疼痛和可能伴随有疼痛的状态下检测和分析面部表情和情绪,由此无疼痛状态的分类特征能够被考虑用于评估伴随有疼痛的状态并作为滤波器使用。通过对面部表情动态分类(步骤2750)提升了分类品质,因为能够基于多个时间点的面部差异观察实现分类。由此,例如也能够进行回顾分类,其中比如只将提取到的特征与表征检测时间的时间戳一起保存并重新分类。为实现这一点,将保存面部记录。总之,单个地和/或相关联地检测人、识别面部、在面部以内选择候选区域、提取候选区域的表面弯曲的特征,并对候选区域的表面弯曲进行分类,其中这种分类描述疼痛状态。
疼痛状态:检测上肢活动
测试的第二部分侧重于上肢的运动,比如上臂、下臂、手和手指。在此,服务机器人17在时间进程内跟踪服务机器人17如上所述识别到的运动,这或者通过2D摄像头和OpenPose等架构或者3D摄像头(必要时通过RGB-D摄像头185)实现,其中比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113进行分析。RGB-D摄像头185上的流程为将3D图像在步骤2805中转换为散点图,在步骤2810中为每个点分配一个空间坐标,通过摄像头架构或现有技术的其它软件工具在步骤2015中进行骨架模型识别,其中能够识别骨架的关节点。随后,在步骤2820中进行关节选择,即在此有目标地识别关节点,比如肩关节、肘关节、手关节和指关节。在步骤2825中计算这些关节点的角度,在这些关节点上例如通过方向矢量来定义角度,这些方向矢量取关节点作为原点。在步骤2830中,在特征提取的范围内,在时间进程内检测这些肢体的角度。然后,对肢体进行如此分类,从而将每个时间单位内的角度变化次数、速度,即例如角速度等作为衡量运动强度的尺度。在此,服务机器人17在步骤2835中在1至4的标度内对这些运动进行分类,并保存该值。值1相当于在跟踪时间内无运动。值2相当于手臂运动少和/或运动缓慢,3相当于手指有运动,4相当于手指运动强度大,它们例如通过每个时间单位内的手指运动数和/或其速度来定义并且它们与阈值有关。
疼痛状态:疼痛发声
测试的第三部分侧重于患者的疼痛发声,能够分两个原则上不同的流程进行,它们面向不同的场景并且表现为两种评估变型方案。第一个场景涉及接人工呼吸的患者,其中基于咳嗽来评估发声。第二个场景下,患者不接人工呼吸并且评估典型的疼痛声。在此,在图29中详细描述了这种处理方法。
疼痛状态:接人工呼吸患者的疼痛发声
第一变型方案中涉及接人工呼吸的患者。他们或者插有气管插管,这种气管插管通过在颈部中的开口来保证人工呼吸,或者插有气管插管,这种气管插管能够用嘴进行人工呼吸。借助图像识别算法,服务机器人17能够在步骤2901中识别接人工呼吸的患者。为此,作为2D或3D图像来记录患者头和颈部区域,这些区域在第一步骤中作为候选区域使用,其中如果使用气管插管,则将颈部作为候选区域,如果使用气管插管则将嘴部作为候选区域。例如与基于梯度直方图(HoG)的面部识别相结合在步骤2905中识别候选区域,并在步骤2910中识别由此推导出的候选区域,如嘴部和颈部。相应地分析两个区域。在此,以模型假设为基础,即这种插管典型地所具有的形状(步骤2915)。随后,通过可选的实时和容错分段算法2920分析由摄像头185拍摄的像素,以识别这类插管。由此,服务机器人17能够探测插管。
作为替代方案和/或补充方案,在步骤2902中能够进行基于数据库的识别,其中服务机器人17在步骤2925中通过接口188(诸如WLAN)从基于云的数据库查询有关患者呼吸的信息以及在步骤2927中查询云18中的患者信息,和/或这些信息与其他患者数据一起保存在服务机器人17的存储器10中(步骤2929)。
服务机器人17针对这两种人工呼吸的情况测定患者在多大程度上正常呼吸,或者甚至咳嗽2930。能够通过不同的方式来进行测定过程。一个场景下,服务机器人17在步骤2935中在此使用来自呼吸机和/或转接器的数据,该转接器位于插管和呼吸机之间。服务机器人17在一个方面在步骤2936中通过接口188(诸如WLAN)访问所使用的呼吸机,并且检测由呼吸机进行的呼吸循环的分析曲线,由压力和/或流量传感器检测这些分析曲线。在步骤2941中将记录的曲线走向与阈值进行比较,这些阈值对于不同的人工呼吸场景、比如压力或容积受控的人工呼吸而言是典型的,并且在咳嗽时在这些人工呼吸场景下出现这种阈值。作为替代方案和/或补充方案,在这些情况下比如也能够比如由医务人员打标签,以识别非典型的人工呼吸模态,比如咳嗽,这能够通过机器学习算法和/或神经网络在步骤2942中将其分类为咳嗽。作为替代方案和/或补充方案,能够分析关于时间的曲线走向(压力、容积、流量),并且识别时间进程中的异常,即通过机器学习方法和/或神经网络将在呼吸周期前后不再出现的偏差分类为咳嗽。在此,不仅能直接在步骤2942中比较周期前后的异常,还能够相应地探测多个周期的一条链,比如涉及多种咳嗽事件的咳嗽发作。在呼吸机甚至通过调整人工呼吸来支持咳嗽的情况下,通过服务机器人17也能够识别呼吸机的相应模态,作为替代识别由此推导出的人工呼吸曲线(关于时间的压力/流量),并且在步骤2944中对患者的人工呼吸进行相应分类时予以考虑。作为替代方案和/或补充方案,服务机器人17也能够从呼吸机获取正处于咳嗽支持模式或者触发咳嗽的信息,由此系统可能会探测到咳嗽事件。作为替代方案和/或补充方案,能够通过接口188(诸如WLAN)访问呼吸机的分析结果,也能够在步骤2937中访问转接器,该转接器能够在插管和呼吸机之间通过压力和/或流量传感器测量输送软管中的压力和/或流量,并且通过接口188向服务机器人17例如无线地传输信号,之后创建相应的人工呼吸情况的相应的分析结果,从而能够如上所述那样对其进行分析。
作为替代方案和/或补充方案,能够通过至少一个位于患者身体上的传感器进行探测,步骤2950。这一方面包括比如在胸腔、颈部或面颊区域使用的惯性传感器2952(比如带有磁力计)、应变传感器2954(比如安置在患者皮肤部位上的应变测量带)、接触式麦克风193(步骤2956)(它同样安置在患者皮肤上,在一个方面位于紧邻皮肤下方的骨头上,它们能够检测咳嗽声)、例如位于鼻子上或者鼻子内的热敏电阻2958,并且它们分别通过接口188(诸如WLAN)与服务机器人17无线地连接。在此,既与这些传感装置直接连接,也能够访问由传感装置生成并保存在存储器10中的数据,比如医院信息系统。在此,能够分析咳嗽信号方面的数据,或者在服务机器人17内进行分析。
Drugman等人,2013,“针对自动咳嗽探测的传感器相关性的客观检查,生物医学和健康信息学的IEEE杂志,17卷(3),2013年5月,699-707页(DOI:10.1109/JBHI.2013.2239303)已经表明,与前一章节使用的传感器相比,通过麦克风193探测咳嗽具有最好的效果,其中仅将未插管的患者纳入观察范围,虽然在这种情况下患者有气管插管或者气管插管能够用。基于此,在一个方面使用至少一个麦克风193(步骤2960),该麦克风位于患者和/或患者房间的其他位置上,并且直接(或者间接与存储器10中服务机器人17能够访问的数据文档连接(在一种变型方案中存档也已经包括在咳嗽信号方面经过分析的数据))与服务机器人17连接,比如所述至少一个麦克风193集成2962在服务机器人17中,在服务机器人17的存储器10中记录患者的周围环境中的噪音,并且之后将声音信号进行是否出现咳嗽的分类。在此,比如使用已经借助记录到的咳嗽噪音进行练习的机器学习和/或神经网络算法。
为了创建这样的分类,在一个方面能够训练一种系统,该系统具有至少一个用于处理音频数据的处理器和至少一个音频数据存储器,在音频数据存储器中保存有音频数据,所述音频数据在一个方面也能够作为光谱数据存在并相应地对其进行打标签。
在一个替代的和/或补充的方面,服务机器人17的3D传感器,比如3D摄像头,能够测定嘴部周围的运动,然而也包括胸腔和/或颈部的运动,即通过容错分段算法2976分析所述的候选区域2974。已经在其他位置描述过如何能够探测嘴部。根据胸部和腹部的探测结果比如通过肩关节点高于骨架模型的距离来测定候选区域2974,并且与该线条正交向双脚方向测定相同的距离,以识别床单下面的躯干的由胸腔和腹部组成的候选区域,所述胸腔和腹部两者在呼吸时会运动,从而能够分析它们。作为替代方案和/或补充方案,候选区域2974比如也能够通过从颏部向下延伸的两倍头高、约2.5倍头宽来测定。在这两种情况下,在此将头识别为初始步骤,并且由此用作参考2972,由此从那里能够识别候选区域。作为替代方案和/或补充方案,也能够将床的尺寸用作参考2972,以识别候选区域2974。作为替代方案和/或补充方案,也能够使用3D摄像头检测床单表面的突起情况,其中在一个方面进行梯度直方图评估,以分类为基础进行分析,通过一个系统对这种分类进行练习,该系统包含床的2D或3D图像作为输入参量,之后标识床上是否有患者,并且通过机器学习和/或神经网络领域的分类方法对它们进行分析,同时分析结果构成了尤其能够探测患者的上半身的分类。
在步骤2978中,在特征提取的范围内,在时间进程中分析由3D摄像头检测到的嘴部、面颊、颈部和上半身的运动。在此,根据Martinez等人2017年“真实条件下由深度摄像头在睡眠期间进行的呼吸速率监控”,2017年IEEE计算机视觉应用的冬季会议(WACV),2017年3月24-31日,(DOI:10.1109/WACV.2017.135)进行干扰降低2980,它以运动探测为基础,这些运动被布料或床单盖住,尤其是上半身/腹部。通过测定功率密度谱消除因所检测到的床单移动各个阶段产生并且加剧其自身呼吸运动检测难度的干扰,这有助于检测胸腔的运动。在此,比如在步骤2982中例如借助快速傅里叶变换(FFT)分别为时间进程中检测到的三维空间中的每个像素测定功率密度谱,之后在步骤2984中聚合所有像素的功率密度谱,并且在步骤2986中通过二次插值测定最大值,其中在步骤2988中最大值的位置说明了呼吸频率。随后,根据频率变化监控它们,这些频率变化在步骤2990中表现为咳嗽。随后,在步骤2990中测定检测到的肢体的频率2990。比如在此,在步骤2990中考虑使用梯度直方图计算。在步骤2992中基于通过咳嗽运动和非咳嗽运动记录生成的分类进行随后的特征分类,为此能够使用标准分类法和/或神经网络,如在本文其它位置所作的描述一样。如果通过上述方案未探测到咳嗽,则将该标准评估为1分。如果探测到咳嗽,则评估为2分。
对这一流程的总结说明如下:检测人,识别面部和颈部,按照描述用于进行人工呼吸的装置的模态来分析面部和颈部区域,在探测到描述用于进行人工呼吸的装置的模态时保存值,其中用于进行人工呼吸的装置描述一种疼痛状态。
疼痛状态:无人工呼吸患者的疼痛发声
如果服务机器人17通过所实施的图像识别未识别到患者身上有插管,和/或在带有患者信息的数据库中未保存关于人工呼吸的信息,则执行本测试的第三部分的另一变型方案,其中服务机器人17通过麦克风193分析患者发出的噪音。使用基于打标签的噪音数据已经训练的算法通过机器学习算法和/或神经网络算法对这些噪音进行分类,由此通过噪音能够识别有不同特点的疼痛发声。如果未发现疼痛发声,则将该标准评估为值1。如果在少于3秒的持续时间内检测到频率小于每分钟三次的疼痛发声,则将该标准评估为值2。将增加的频率或更长的持续时间评估为值3,同时检测在一个方面也能够通过与患者的对话来测定的口头疼痛发声,将该标准评估为值4。
将这三部分测试的评分最终相加。结果保存在数据库中,所述结果在一种变型方案中能够通过接口188(诸如WLAN)向云18中的服务器传输并且保存在那里。在两种变型方案中,医务人员能够访问分析结果,由此也能够详细观察测试结果(部分结果和整体结果),并通过终端在视觉上显示这些数据。在一个替代的和/或补充的方面,也能够相互独立执行各个测试部分。
总之,对以无人工呼吸患者的疼痛发声为基础测定疼痛状态的方法总结如下:记录声音信号,通过疼痛分类来分析声音信号,以便测定记录到的声音信号是否代表一种疼痛发声,通过疼痛程度分类来评估被分类为疼痛发声的声音信号,其中疼痛程度分类包括将标度值分配给记录到的声音信号,并且每个标度值代表一种疼痛状态。在一个方面,附加地执行以下步骤:确定声音信号的来源位置,确定测定人疼痛状态的位置,通过与阈值(即在位置值的最低相似性方面)进行比较调整所测定的位置,并且在与所测定的疼痛状态相比低于阈值时保存一个值。
在图66中对用于测定人的疼痛状态的系统总结如下:该系统或服务机器人17包括处理单元9、存储器10和用于非接触地检测人的传感器,比如2D和/或3D摄像头185、激光雷达1、雷达和/或超声波传感器194。视确定疼痛状态方式的配置而定,在其存储器10中可能有不同模块。在一个方面,系统具有人识别模块(110)、视觉上的人跟踪模块(112)、用于识别面部的面部识别模块5005、用于在面部中的候选区域中进行选择的面部候选区域模块5010、用于对表情的候选区域的表面弯曲进行分类的情绪分类模块5015和用于测定情绪标度值的情绪评估模块5020。比如系统具有用于识别床的床识别模块5025和/或用于探测人上肢、在时间进程中跟踪上肢并分析躯干与上臂、上臂与下臂和/或指关节与掌骨之间每个单位时间内角度变化强度、其速度和角度变化次数的上肢分析模块5035以及比如具有用于测定疼痛状态的标度值的疼痛状态计算模块5040。在一个方面,该系统包括用于记录声音信号的麦克风193,比如用于分析声音信号来源位置的音频源位置测定模块(4420)以及用于将音频信号与人对应起来的音频信号-人模块(4430)。系统比如能够具有用于对声音信号的强度和频率进行分类并测定代表疼痛发声的标度值的疼痛发声模块(5055)。在一个方面,该系统包括用于识别用于进行人工呼吸的装置的人工呼吸装置识别模块5065,即选择人工呼吸的候选区域,通过对象识别分析人工呼吸的候选区域以及用于识别插管、比如气管插管或气管插管的对象分类装置。此外,能够通过用于分析固定在人身上的传感器(比如惯性传感器、应变传感器、接触式麦克风和/或热敏电阻)的疼痛敏感度分析模块5085检测运动、气流和/或声音,和/或在疼痛表现方面对它们进行分类。在一个方面,该系统具有人身份识别模块111、运动分析模块120、骨架创建模块5635和/或基于骨架模型的特征提取模块5640。
测定血压和测定其他心血管参数
服务机器人17还配备有一个系统,它能够检测人体的重复活动,它们与每次心跳时从心脏向主血管输出的血液相关联。在此,将检测通过主血管运动产生并且例如在体内呈波形传播的和/或因皮肤中的动脉运动产生的运动的变化。后者更能够耐抗身体部位的光照波动和/或皮肤的不同色调。作为替代方案和/或补充方案,将例如在时间进程中检测皮肤中的血量或者血液流动的变化,所述血量或者血液流动与心跳相关联。图30示出了数据检测和分析的过程。
在步骤3005中识别身体区域和多个部分区域。比如,身体区域包括面部,其中比如通过摄像头185进行分析。该系统使用来自现有技术的算法、比如OpenCV、OpenPose或dlib架构来检测和跟踪面部(也替代地包括其它身体区域),其中比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113进行分析。在此,作为部分区域至少检测前额、面颊或下巴,比如共同检测多个身体区域,之后单独和/或分开根据下面说明的步骤对其进行分析。在此,比如能够选择候选区域,即面部的、与分析有关的部分区域,为此能够使用在现有技术中已知的分段方法(诸如RANSAC)。能够跟踪这些部分区域,也包括跟踪在时间进程中在步骤3010中通过所述的架构来跟踪的身体区域。
在可选的步骤3015中,将摄像头185尽可能与应跟踪的区域平行对准。为此,能够将面部的检测角度降至最小幅度,该检测角度由垂直于检测面部的摄像头的轴线和垂直于面部的矢状平面的轴线得出。在此,系统比如测定一个面部能够在其中延伸穿过并且基本上与面部的俯视图平行并例如与矢状平面相符的平面。基于例如梯度直方图(HoG),系统具有一种描述与该俯视图偏差的分类方法,进而能够检测面部在三维空间中的倾斜度。在一个方面,系统利用该处理方法评估看向系统的摄像头185的面部在多大程度上与摄像头镜头平行对准。如果出现偏差,系统在一个方面能够通过相应的机械装置,比如翻转单元5130,例如通过操控两个带有相互正交布置的翻转轴线来调整摄像头185在三维空间中的倾斜度,通过伺服电机来驱动所述翻转轴线。因此,翻转单元这一术语在本文中指至少有两根轴线的翻转单元,它一方面能够实现水平平面的倾斜位置,另一方面能够绕着垂直轴线旋转。作为替代方案和/或补充方案,如此操控服务机器人17的轮子,使服务机器人17向人的方向旋转,以便减少摄像头平面与面部平面的所测定的偏差。在一个替代的和/或补充的方面,这种偏差会触发服务机器人17的语音输出,为患者提出相应地对准其面部的指示。在此,比如保存有当在XY平面中发现偏差时请求在XY平面中进行对准的规则。例如,如此长时间地校准面部倾斜度和操控翻转机构、确定服务机器人17的朝向和/或根据患者进行语音输出,直至摄像头平面与面部平面之间的角度达到最小。作为替代方案和/或补充方案,摄像头185相对于矢状平面和必要时也相对于横向平面的检测角度能够得到最小化,这例如也包括机器人17的行驶移动性。
在一个可选的方面,系统在步骤3020中被配置用于照亮身体部分,比如面部。也就是说,在通过摄像头185拍摄期间用一只照亮患者的待拍摄的身体部位的灯来照射面部(或其他身体部分)。在此,使用至少一只灯,它比如位于摄像头185附近。这盏灯在理想情况下位于摄像头185下方和/或上方,即与摄像头185垂直放置。比如所发射的光会散射,以保证尽可能均匀地照亮有待拍摄的面。视面部位置及其尺寸而定,摄像头185的侧面布置要尽可能使鼻子能够产生阴影投影,这种阴影投影碰到位于鼻子侧面并且其记录能够提供超出平均水平的信噪比的面颊,这必要时可能造成分析质量变差。
所使用的摄像头185为分析提供了至少一个颜色通道,其中比如包括至少一个绿色信号通道,因为在此能够由血红蛋白特别良好地吸收所发射的光。摄像头185在另一方面也能够提供橙色和/或青绿色色调的颜色通道。每个通道的色深例如为至少8位,帧频为每秒30张图片。在一个方面,摄像头185可能是一种RGB-D摄像头185,除颜色识别以外,它还能够比如基于飞行时间传感装置或Speckle模式来提供深度识别,以便检测有规律的血管血液流动和有规律的血管膨胀。
在第一步骤3025中进行信号提取。为此,首先以被跟踪的区域的视频信号为基础选择输入信号,这或者能够是由心脏的泵送规律引起的运动和/或根据血液、尤其是血红蛋白的流动而产生的颜色变化,由此能够检测所述的有规律的血管血液流动和/或有规律的血管膨胀。
在第二步骤中根据原始数据在纳入已知信息情况下进行颜色通道分析,确定哪些特征由哪一颜色通道来映射,前提是这涉及到血液流动的检测。这尤其指在步骤3030中的通道权重。在此,尤其能够分析绿色颜色通道、绿色和红色颜色通道(比如为观察绿色和红色通道的差异)、绿色、蓝绿色和橙色等的组合。为了检测运动,能够作为对此的补充方案或者替代方案测定位置分辨率。也就是说,跟踪已检测的面部属性的垂直和/或水平运动,比如检测和分析面部位置及其在时间进程内的部分区域。这既包括头的运动,也包括各个面部部分。
随后进行的信号测定在第一个分步骤(预处理3035)比如使用至少一个滤波器。这可以包括趋势调整(比如通过缩放和/或标准化);平滑的平均值观测、高通滤波;带通滤波,必要时设计为自适应带通滤波;幅度选择滤波;Kalman滤波;和/或连续小波变换。作为替代方案和/或补充方案,也能够使用最小二次幂的线性多项式近似法。
随后,使用信号分离法3040,以便改善信噪特性并且减少观察到的特征维度的数量。在此,比如能够使用主分量分析或独立性分析,在一个方面也能够使用机器学习方法。
信号处理3045包括在傅里叶变换的范围内测定脉搏率和必要时其他参量(快速或离散的傅里叶变换,尤其是为测定最大的功率谱密度)、自回归模型(比如通过Burg法)、与探测最大值,比如识别波峰相关联使用带通滤波器、连续小波变换和/或机器学习模型,尤其是非监控学习。作为替代方案和/或补充方案,也能够使用离散的余弦变换。
在后处理3050的范围内,另外还能够使用不同的方法,以便补偿比如因头运动等产生的错误,为此又能够使用卡尔曼滤波器、(自适应)带通滤波器、离群值检测、平滑的平均值、贝叶斯融合和/或机器学习方法。
截止目前进行的处理步骤已经反映了一部分医学相关参数,比如脉搏率、脉搏率差异性、脉冲波传播时间、脉冲波形等。在步骤3055中继续计算医学相关参数,比如以在现有技术中有关描述的不同的方案为基础,由此能够测定心脏收缩和心脏舒张血压,为此能够使用线性或非线性预测法。
所提及的机器学习方法,比如卷积神经网络等神经网络,能够识别数据中隐藏的且部分未知的特征,并在分析时予以考虑,比如在所执行的聚类分析的范围内加以考虑。在此,比如以训练数据为基础生成分类或线性和非线性预测模型的权重,之后能够在生产运行的所述流程范围内使用它们。
在一个方面,将测定的脉搏率、脉搏率差异性值和必要时其他值在进行完后处理之后与保存在存储器10中的值在一个步骤中进行比较,以此为基础来测定脉搏率、脉搏率差异性或其他参量,尤其包括心脏收缩血压和心脏舒张血压。
根据待探测的参量在预处理和后处理的范围内进行滤波。在一个方面对于脉冲幅度能够使用带通滤波器,它覆盖的频谱为0-6赫兹,比如至少0.7-4.5Hz。在一个方面,也能够在这一频率范围内更小范围地进行脉冲信号采样,比如在0.1Hz的窗口范围内。随后,能够通过低通滤波器进行平滑化处理。比如能够通过的宽度范围为0.7至4Hz的带通滤波器来处理脉搏率、心率或脉搏频率或心脏频率。为了测定脉搏率差异,又能够使用窗口范围为0至0.4Hz的带通滤波器,在一个方面,以0.02Hz的间隔进行采样。能够通过比较检测到的至少两个区域的值获取脉冲波传播时间,其中能够在0.5至6Hz的带宽范围内进行分析,在一个方面,以0.1Hz的间隔进行采样。通过比较多个区域的值能够测定脉冲波传播时间。在约0-6Hz的频谱范围内由未采样的走势产生脉搏形状,比如通过曲线下方的面积、高度和/或宽度表现其特征。通过这些值的一阶导数得出脉冲能量。
由此比如能够通过脉冲波传播时间和脉搏率或心率以及之前的血压值通过线性模型测定血压,并且能够将其用于线性回归模型或神经网络。例如也通过测定脉冲曲线和延伸穿过最大值的垂线之间的差能够分析测得的脉冲的形状,由此取代之前的血压值。
如在图67中所示,用于测定血压的系统的图示如下:用于测定人心血管参数的系统在一个方面即服务机器人17,包括处理单元9、存储器10和摄像头185(比如2D和/或3D摄像头)以及此外包括用于探测身体区域的身体区域探测模块4810、身体区域跟踪模块4815、面部识别模块5005、面部候选区域模块5010和用于检测由心血管活动所产生的运动的心血管活动模块5110。摄像头185提供了至少一个8位绿色颜色通道。该系统另外还有灯5120,以在通过摄像头185记录期间照亮面部,该灯比如位于摄像头185的上方和/或下方。系统具有能够测定心脏收缩血压和心脏舒张血压5125的血压测定模块5125和/或一个翻转单元5130,以便最大幅度缩小摄像头185相对于矢状平面的检测角度。为此,该系统具有一些规则,以便例如将垂线放在被检测的人的双眼之间,从而将头分为两半。对面部进行分段,其中在各个分段上方放置梯度直方图。如果它们具有低于某一阈值的(镜面相反的)相似性,则将面部感知为垂直监控的状态。现在,能够通过翻转单元5130来如此操控摄像头185,从而在操控期间,通过梯度直方图来比较镜面相反的两半面部,并且如此定位摄像头,从而确保低于梯度直方图的阈值。在一个方面,该系统具有人识别模块110、人身份识别模块111、视觉上的人跟踪模块112、运动分析模块120、骨架创建模块5635、基于骨架模型的特征提取模块5640和/或运动规划器(104)。探测皮肤表面上或者下方的物质
在一个方面,服务机器人17同样配备有探测器195,该探测器比如位于服务机器人17的面向患者的一侧上。该探测器195在一个方面固定地集成在服务机器人17的表面内或表面上。在一个替代的和/或补充的方面,探测器195安装在执行器4920上,比如机器人手臂上,并且之后如示例性地针对将光谱仪196与患者皮肤对准所描述的那样,能够与由服务机器人17识别到的患者身体表面对准,并且在一个方面,以这种方式触碰患者的皮肤。作为替代方案和/或补充方案,服务机器人17还能够请求患者触碰探测器195,比如用手指进行触碰。在此,在一个方面,服务机器人17能够验证患者是否真的接触了探测器195。在一个方面,能够通过试测量进行验证,其中将检测到的值与保存在存储器10中的测量间隔进行比较,以便评估患者是否真的已将手指放到探测器195上。但在该方案中无法排除测量结果可能受到手指在传感器上的朝向的影响。因此在一个替代的和/或补充的方面,基于摄像头跟踪手指,其中例如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113进行分析。已经在本文献的其他位置中描述过这类跟踪。作为替代方案和/或补充方案,能够使用基于对话的方法,其中由服务机器人17询问患者,该服务机器人17是否正确放置了手指,这能够通过显示器2和/或语音输出的方式来进行。
探测器195的表面由晶体构成,比如有立方体晶格结构(比如金刚石结构)、六角形晶格结构或四边形晶格结构的晶体。晶体的折射率为1-4,比如1.3-1.4,2.2-2.4或者3.4-4.1。晶体的频谱宽度的间隔为100nm–
20000nm,比如间隔900nm–12000nm。探测器195的测量方法在此利用分析激光器5205基于物质的激光感应的激励而在晶体表面上发生的偏转,由患者皮肤上和/或内的另一个激光器5210激励这些物质。在此,通过另一个激光器5210激励过的面例如与探测器195在分析激光器5205在晶体表面上偏转的位置上接合。为进行分析会进行特征提取,其中特征包括另一个激光器5210的波长变化和由此造成的、由基于光电效应的传感器检测到的分析激光器5205的偏转。在此,能够使用在图30中示出的步骤,尤其是3025-3050,在其他位置中已对此有详细描述。随后,通过与保存在存储器10中的特征分类进行比较,将这些特征分类。在此,为例如特定波长和/或另一个激光器5210的波长变化以及基于此的分析激光器5205的偏转分配特定的物质及其浓度。随后,将保存所测定的分类并且通过显示器2输出和/或保存在患者管理模块160中。
在一个替代的和/或补充的实施方式中,使用基于摄像头的系统,它对准患者的皮肤表面并且能够执行测量。在此,在一个方面,系统固定安装在服务机器人17上,或者比如能够如此地三维对准,由此能够检测患者的皮肤表面,而患者不需要移动。在此,如针对探测情绪所描述的那样,服务机器人17比如探测应检测患者的皮肤表面的患者区域。
通过至少一个摄像头185照亮待检测的皮肤表面,为此在一个方面使用LED灯,它在550-1600nm范围内,比如至少在900-1200nm范围内形成光谱,因此它属于红外波段。在此,至少一个摄像头185的传感器是基于砷化镓铟或硫化铅的传感器,在一个方面为该传感器补充有基于硅的传感器,该基于硅的传感器必要时集成在另一个摄像头185中。在一个方面,能够用激光器取代LED灯。如此操控光源,从而光源的波长在时间进程内发生变化。在此,至少一个摄像头185检测通过光激励的皮肤上或皮肤内物质的发射。测量期间进行特征提取,它测定皮肤上和皮肤内的物质发射的相和频率,在一个方面同样考虑所发射的光的频率。在此,能够进行预处理和/或后处理,其中使用不同的滤波器,比如带通滤波器和/或低通滤波器。总之,在此也能够进行在图30中示出并且在其他位置处详细描述的步骤3025至3050。随后,基于特征提取来确定物质的浓度。
如在图68中所示,用于物质测量的系统的图示如下:用于测量人皮肤上和/或皮肤内的物质的系统在一个方面即服务机器人17包括带有分析激光器5205和另一个激光器5210的探测器195,其中分析激光器从进入介质5215起比如偏转一个晶体表面,并且另一个激光器5210通过波长的变化来激励物质,其中经激励的物质的区域在分析激光器5205偏转的位置上与介质5215(诸如晶体)接合,另外所述系统包括用于对另一个激光器5210的波长变化进行特征提取和特征分类的激光器变化模块5225以及用于对分析激光器的偏转进行分析的激光器偏转分析模块5220。系统比如具有用于非接触地检测人的传感器,用于分析人在时间进程中运动的运动分析模块(120)和/或用于自动识别手指在介质5215上的定位并在将手指放到介质上之后执行测量的手指定位识别模块5230。用于测量人皮肤上和/或皮肤内的物质的系统在一个方面包括例如服务机器人17、带有介质5215的探测器195,这种介质具有立方体、六角形或四边形晶格结构,折射率为1-4,并且频谱宽度间隔为100nm-20000nm。系统此外包括分析激光器5205和另一个激光器5210,其中分析激光器5205从晶体表面起比如偏转,并且另一个激光器5210通过波长的变化激励物质,其中经激励的物质区域在分析激光器5210偏转的位置上与介质5215接合。另外,系统可包括用于对另一个激光器5210的波长变化进行特征提取和特征分类的激光器变化模块5225以及用于对分析激光器5205的偏转进行分析的激光器偏转分析模块5220。通过基于光电效应5250的传感器对分析激光器进行分析。该系统另外还能够包含用于将数据传输到患者管理系统160的接口。探测器195能够定位在执行器4920上,并且系统具有包含规则的模块,以便能够将探测器195定位在人的皮肤上,比如通过平衡性执行器4920和应在上面定位执行器的位置,并如此操控执行器,使执行器4920与应在上面定位执行器4920的位置之间的距离降至至少接近零。此外,该系统具有用于非接触地检测人的传感器,比如2D和/或3D摄像头185、激光雷达1、雷达和/或超声波传感器194。在一个方面,系统具有身体区域探测模块4810和用于跟踪测量区域的身体区域跟踪模块4815。在一个方面,用于测量人皮肤上和/或皮肤内的物质的系统配备有摄像头185和能够水平和/或垂直对准摄像头185的翻转单元(5130),配备身体区域探测模块(4810)和用于在时间进程内识别人身份和跟踪人的身体区域跟踪模块(4815)(在一个方面与人身份识别模块111和跟踪模块112及113相同),并且配备有至少一个能够照亮人的待检测的皮肤的光源5270,其中系统具有使由至少一个光源发射的光的波长发生变化的波长变化单元5275以及用于分析检测到的信号的波长变化的波长变化分析单元5280。至少一个光源5270可以是激光器(在一个方面与激光器5205和/或5210相同)和/或多个有不同频谱的LED灯,能够对这些灯进行相应操控。所发射的光的波长能够为550nm至1600nm,比如900至1200nm。摄像头185比如能够具有一个砷化镓铟或硫化铅材质的光探测器。在一个方面,该系统具有另一个用于探测频谱为400-800nm的光的摄像头185。所述系统比如能够具有用于对检测到的数据进行特征提取和特征分类并将分类后的数据与物质分类进行比较的材料分类模块5295,即通过将分析过的特征与保存的特征进行比较,例如至少分析探测到的光。在一个方面,该系统具有人识别模块110、人身份识别模块111、跟踪模块(112、113)、运动分析模块120、骨架创建模块5635和/或基于骨架模型的特征提取模块5640。
湿度识别和机器人导航
在服务机器人17在其中进行移动的周围环境内可能出现,服务机器人17以及由服务机器人17跟踪的人在上面移动的地面变得潮湿的情况,这比如因清洁作业或液体洒出造成。根据被服务机器人17引导进行练习的人,这种潮湿的表面可能构成威胁,伴随着增加的跌倒危险。为了降低人受伤风险,服务机器人17在一个方面有相应的传感装置,以便识别地面的湿度。在现有技术中描述了在此使用的不同的传感器技术:
Yamada等人2001年“辨别道路状况以了解车辆驾驶环境”,IEEE 智能交通系统论文集,第2卷(1),2001年3月,26-31(DOI:10.1109/6979.911083)描述了一种通过入射光的极化来探测地面上的湿度的方法。在此,使用布儒斯特角(53.1°)作为倾角,以便在水平极化面中将反射设置为0,而垂直极化表现出较强的反射。在此,以测量所得的水平和垂直极化的强度关系为基础,确定经测量的表面上有多大程度的湿度。
相反,Roser和Mossmann,“单色图像上的天气情况分类”,2008年IEEE智能车辆系统研讨会,2008年6月2-6日(DOI:10.1109/IVS.2008.4621205)提出了一种方案,它没有极化滤波器并且以作为特征从图片中提取的对比度、亮度、清晰度、色调和饱和度等图片参数为基础。在此,通过在图像处理时建立的Koschmieder模型考虑亮度,其中亮度尤其与光的衰减和散射有关。又能够通过局部的亮度极值的差测定对比度,其中在此相互比较被观察区域中的最亮和最暗的像素。在清晰度方面,这套方案以图像处理时建立的Tenen度标准为基础。通过定义的像素组测定色调和饱和度。针对每个被检测的区域,为每个特征生成一个有10个区域的直方图,并且由此推导出一个矢量,它包含各个特征的结果。通过机器学习/人工智能方法对这些矢量进行分类,其中包括k-NN、神经网络、决策树或支持向量机。在此,首先提供在练习算法前事先加了标签的数据,其中在此所测定的分类允许对未来拍摄的地面图像进行如下评估,从而确定地面有多湿。
相反,申请号为2015/0363651A1的美国专利申请分析由摄像头拍摄的表面纹理,以检查其湿度,并在此比较在不同时间点拍摄的两个图像,进行特征提取。特征包括一个区域内的像素的空间接近性(即搜索重复出现的模态)、边缘检测及其空间朝向、图像之间灰度的相似性、既定的Laws纹理能量量度、自相关和功率密度模型,以及纹理分段(基于区域和基于边界,即位于有不同纹理的像素之间的边缘)。
相反,McGunnicle,2010“使用近红外照明来检测潮湿表面”,美国光学学会杂志A,第27卷(5),1137-1144(DOI:10.1364/JOSAA.27.001137)使用频谱约960nm的红外线二极管,并且通过RGB(CCD)摄像头来记录由这些二极管发射的光,以便相应地分析光谱。在此,McGunnicle描述到,潮湿的表面会发射表征性的频谱,由此能够探测表面上的潮度。
另一套方案是使用可见或不可见雷达波范围的光、尤其是超宽带宽雷达波,进行物质分析。能够在现有技术中所描述的那样来分析反射的信号(即分类),其中在测量表面上的湿度时能够识别到表征性的特征,由此能够探测到湿度的类型。
在任何情况下,传感器被如此布置在服务机器人17上,从而传感器至少能够检测服务机器人17前方或下方的表面,在一个方面也能够在侧面或向后指向。
在一个方面,在服务机器人17的存储器10中保存有用于测定湿度的算法,比如作为值保存在数据库中,由此允许根据频谱分析检测到的红外波段光谱,或者由服务机器人17发射并且被表面反射的雷达波。服务机器人17在一个替代或补充的方面具有一套自学系统3100(参见图31),以便区分湿地面和干地面。这套自学系统比如尤其能够为测定表面的纹理和/或反射的光学方法提供帮助。为此,服务机器人17驶过服务机器人17通常在其上方移过的表面3110,而这些表面处于干燥的状态下。在此,服务机器人17通过至少一个集成传感器记录表面,步骤3120,进行特征提取,步骤3130,比如根据Roger和Mossmann的方案或者根据申请号为2015/0363651A1的美国专利申请的教导。这优选在不同日间时间进行,以便考虑不同的光线条件(日光、人工照明和/或两者的组合)。通过在一个方面通过接口188(诸如WLAN)与服务机器人17连接的输入装置为所记录的测量值分配一个值,该值将记录的表面表征为干燥的(打标签3140)。在步骤3145中将该值与记录的测量值一起保存在存储器10中。在另一个步骤3150中,服务机器人17部分地重新驶过之前驶过的面,但其中之前驶过的面是潮湿的。为此,在一个方面中通过接口188(诸如WLAN)与服务机器人17连接的输入装置用于为记录的测量值分配一个值,该值将记录的表面表征为潮湿的(打标签3140)。顺序是首先驶过干表面还是湿表面(或者甚至调换这一顺序)对这一方法的有效性的影响并不大。随后,通过机器学习/人工智能方法对通过传感器记录的特征进行特征分类3160,如Roger和Mossmann所示。结果是在步骤3170中将表面探测为潮湿的或干燥的。在步骤3180中将特征分类的结果,即表面是潮湿的或干燥的,保存在服务机器人17的存储器中。
当服务机器人17在将来行驶时,服务机器人17能够访问保存的分类(比如针对雷达反射、红外红光谱吸收、光反射或通过摄像头记录纹理),并且通过所保存的这些分类借助其传感器检测到的测量值来分析经检测的表面是否是潮湿的。
图32示出了在探测表面3200上的湿度的情况下进行服务机器人17的导航。如果在一个人的陪同下3210导航服务机器人17,比如陪同患者练习,则服务机器人17会记录服务机器人17移过的地面的表面特征,步骤3120。进行特征提取3130、特征分类3160,进而随之进行湿度探测3170。为此,在一个方面,服务机器人17视所使用传感器或实现的分析算法而定,在可选的步骤中通过例如围绕服务机器人17的垂直轴线的旋转运动3220来检测湿度的或者说干燥区域3230的宽度。在一个方面,这一实施方案能够保存在运动规划器104中。视传感器类型和实施方案而定,能够使用翻转单元5130取代服务机器人17的旋转运动,或者传感器的检测角度足够宽,从而即使不移动也能够在行驶方向上检测表面。在此,比如在与行驶方向正交的情况下测定宽度。将干(替代地,湿)区域的宽度与保存在存储器的值进行比较3240。在一个可选的方面,测定潮湿区域宽度与服务机器人17在其中移动的空间宽度的关系。如果检测到的干燥区域的宽度小于保存在存储器中的宽度,服务机器人17不会移至湿的区域,而是停止和/或如运动规划器104中保存的那样在步骤3250中转向。在一个可选的方面,通过输出单元(显示器2、扬声器192、必要时也包括投影装置920/警示灯)进行输出,这种输出指示出被识别为潮湿的表面。服务机器人17在一个可选的方面在步骤3260中通过接口188(诸如WLAN)向服务器和/或终端发出一条消息。相反,如果被探测到的干燥区域宽于阈值,则服务机器人17会在步骤3270中被如在运动规划器104中保存的那样导航通过干燥区域。在此,服务机器人17与被探测为潮湿的表面保持保存在运动规划器104中保存的最小距离,步骤3280。服务机器人17在可选的方面能够通过输出单元(显示器2、扬声器192、必要时也包括投影装置920/警示灯)向陪同人员指示出潮湿的表面,步骤3290。
在一个方面,湿度的分类也包括潮湿度。由此,比如在本身被感知为干燥的表面上可能有一层极薄的湿气膜,但该湿气膜对物体在表面上可能会受到的摩擦几乎没有影响。
总之,对检测和评估表面上的湿度的方法总结如下:检测一个表面,比如地面,对用于探测表面上的湿度的表面特征进行分类,将检测到的表面分段为潮湿区域和非潮湿区域,测定检测到的区域宽度,通过与保存的至少一个值进行比较,以便评估检测到的区域宽度。
一个替代的流程如在图81中所示出的那样在下面总结如下:检测表面6005,对表面进行分类以探测潮湿6010,将表面分段为潮湿区域和非潮湿区域6015,将潮湿区域保存到地图6020中,测定有最小尺寸的面6025并基于它通过输出装置6030输出,传输消息6035和/或修改存储器10中的值(步骤6040)。作为替代方案和/或补充方案,能够修改路径规划和/或运动规划6045。图82同样示出了一部分流程。服务机器人17沿着最初规划的路径6072所述的通过通道6071(参见图82a)移动,其中在地面上有多个由服务机器人检测到的潮湿的分段6070。服务机器人17在路径规划模块103中规划新路径6073,它基于湿度被计算为障碍物。服务机器人17比较比如从保存在地图模块(107)中的地图得出的、被作为障碍物保存的、测定为潮湿的面区段之间的宽度6074,并且与被检测为潮湿的面区段保持安全距离并跟随新计算出的路径(参见图81c)。如在图81d)中可见的那样,被检测为潮湿的面区段的宽度能够确保服务机器人不会围绕着它进行导航,因为被分类为潮湿的区域与通道墙之间的宽度小于服务机器人17的宽度,因此服务机器人17在其前面停止。
如在图69中所示出的那样,用于湿度探测的系统的描述如下:它包括用于非接触地检测表面的传感器(比如摄像头185或雷达传感器194)、用于将检测到的表面分段的分段模块5705、用于在表面上的湿度方面对各分段进行分类的湿度测定模块5305和用于评估表面的经分类的分段的尺寸的湿度评估模块5310。此外,它还能够包括地图模块107,其中包含在系统的周围环境中的障碍物以及在湿度方面经过分类的分段。在一个方面,系统包括运动规划器104和/或路径规划模块103、比如输出单元(2或192)和保存在存储器10中的用于指示出被探测为潮湿的面的输出内容。该系统能够是指服务机器人17、比如陪同人员。
用于探测表面上的湿度的位置的系统(比如服务机器人17,其在一个方面即陪同人员)包括用于测定的单元(比如摄像头185)、用于将检测到并分段的表面在表面上的湿度方面进行分类的湿度测定模块5305、用于评估表面上的经分类的分段的尺寸的湿度评估模块5310。在此,例如对经分类的面如此进行分析,使湿度宽度与系统的运动方向略为垂直地得到评估,并在其宽度范围内测定干燥和/或潮湿的区域。系统比如能够具有包含规则的运动规划器104,以便在测定其宽度超过保存在存储器10中值的干燥的区域时能够运动通过这一区域。运动规划器104比如能够具有用于测定与潮湿区域的最小距离的规则,比如通过将被分类为潮湿的区域录入到地图中并将自身的位置与地图进行比较。系统具有输出单元(2或192)以及保存在存储器10中的用于指示出被探测的区域为潮湿的和/或发出警告的规则。运动规划器104比如能够具有指引系统的规则,当测定的潮湿区域的宽度超过某一阈值或者测定的干燥区域的宽度低于某一阈值时,能够中断其向规定的目标行进方向的运动,这与现有技术中移动式系统向障碍物运动的规则类似。此外,系统还有用于向服务器和/或终端13发送消息的单元。
跌倒的人的分类方法
服务机器人17在一个方面具有跌倒识别功能,即服务机器人17被如此配置,从而服务机器人17能够直接或间接探测人的跌倒。在图33中示出对于跌倒事件的分析过程3300。间接是指服务机器人17访问外部的传感装置,而直接是指通过自身的传感装置进行分析。
在一个方面,人配备有用于跌倒探测的传感器单元,即服务机器人17通过接口188(诸如WLAN)与外部的跌倒传感器连接,该外部的跌倒传感器位于待监控的人身上3310。该传感器单元包含至少控制单元、电源、可能包含存储器、接口188(诸如WLAN)和至少一个用于检测人的运动的惯性传感器3315、比如加速度传感器。在一个方面,在步骤3325中分析传感器单元中的惯性传感器的信号,在一个替代的方面在步骤3320中向服务机器人17传输信号,由此能够在服务机器人17中实现信号的分析3330。接下来,在步骤3335中对检测到的测量值进行分类,确认这个人是否跌倒。比如能够通过测量超过定义的阈值的加速度进行该分类。随后,在步骤3345中基于跌倒探测通过接口188(诸如WLAN)发出通知,即比如通知警报系统和/或触发警报等(比如警报音)。如果在传感器单元内对检测到的运动进行分类,则通过传感器单元(通过接口188(诸如WLAN))进行通知和/或发出警报。如果服务机器人17执行对于运动的分类,则会触发该通知和/或启动警报。
传感器单元在一个方面被如此设计,从而传感器单元为了探测跌倒的严重程度而探测人的运动,为此获取测量值并且直接在传感器单元内和/或通过服务机器人17在步骤3340中对测量值进行分类。这具体是指在这里将检测配备有加速度传感器的人在多大程度上继续运动。为此,能够分析传感器单元的加速度和/或朝向数据。为此,在传感器单元和/或服务机器人17的存储器中保存有如下规则,所述规则基于所测量的运动数据来触发不同的通知。比如当在探测到跌倒之后,传感器单元能够测定超过定义的阈值的运动信息,和/或对它们如此进行分类,从而让跌倒的人能够重新站起来,修改通知和/或警报,比如降低通知的优先级。相反,在出现跌倒事件之后,如果传感器单元未探测到跌倒的人的进一步的运动和/或位置变化,能够修改通知和/或警报,比如提高通知的优先级。在一个方面,只有在分析完人在跌倒之后的运动行为之后,即必要时在实际的跌倒数秒之后才会发出通知或警报,由此必要时能够减少与跌倒事件有关的通知。
在一个方面,服务机器人17配备有无线传感器单元,以便能够在步骤3350中测定人的跌倒事件。该传感器单元是指摄像头185或3D摄像头、雷达传感器和/或超声波传感器194,或者至少两种传感器的组合。在此,传感器单元比如用于识别人身份和/或在步骤3355中在时间进程中跟踪人,这比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113来实现。由此,服务机器人17能够配备Kinect或Astra Orbbec,即RGB-D摄像头185,它借助在现有技术中所描述的方法能够(比如通过摄像头SDFK、NUITrack、OpenPose等)在步骤3360中创建被探测人的骨架模型,在该骨架模型中身体关节被显示为关节点和连接关节点的肢体,比如作为方向矢量。在此,在特征提取3365的范围内测定方向矢量的不同朝向,比如关节点与被探测表面的距离,被探测到的人在该表面上运动。在特征分类3370的范围内,服务机器人17分析被探测人是站立、行走、坐下还是可能跌倒。在此,在一个方面能够固定地规定特征分类的规则,在一个替代的和/或补充的方面能够由服务机器人17自行学习这些规则。在学习时会拍摄跌倒的人的照片,同样会拍摄未跌倒的人的照片,对其进行分析,其中通过打标签来确定这些照片属于哪种情况。服务机器人17以此为基础通过机器学习/人工智能方法能够进行分类,由此在之后能够将人的将来的照片分类为跌倒或未跌倒。
在此,比如以在步骤3367中提取以下特征为基础进行跌倒探测,其中根据跌倒分析身体部分,即进行分类:离开地面的距离和距离变化,或者由距离或距离变化推导出的关节点朝一个方向的加速度(比如在定义的最短持时间段内),其垂直方向分量大于水平方向分量,其中垂直方向分量优选朝向地心方向。比如,如果探测到的髋关节点与地面的距离小于20cm,距离变化例如大于70cm至小于20cm,或者髋关节点的加速度同样朝向地面,这会被分类为跌倒事件,其中该加速度比如会低于定义的持续时间(比如2秒)。作为替代方案和/或补充方案,也能够在空间内定向至少一个方向矢量(作为两个关节点之间的连接),或者将空间内的方向矢量的变化分类为跌倒事件。尤其是在变换朝向之后(比如从基本上垂直的方向变换至基本上水平的方向),比如将基本上为水平的脊柱和/或腿的朝向算作跌倒事件也属于此,这可选地在定义的时间段内进行。在一个替代的和/或补充的方面,能够通过3D摄像头测定人的高度。如果人的高度低于定义的高度,则将其探测为跌倒事件。作为人的高度的替代方案和/或补充方案,也能够测定人在地面上所占的面积。为此,在一个方面通过被跟踪的人在地面上的垂直投影来测定面积。
在出现经分类的跌倒事件之后,服务机器人17会在步骤3345中触发通知和/或警报,比如通过接口188(诸如WLAN),通过扬声器192等作为声音警报发出。
针对服务机器人17通过雷达和/或超声波194探测人的情况,为此将主要检测人的外部尺寸,包括其高度。如果在此探测到高度下降,或者高度加速下降,则必要时与低于阈值的情况相结合将其分类为跌倒事件。作为替代方案和/或补充方案,服务机器人17也能够对人在地面上所占的面积进行分类(在示例中垂直投影)。
服务机器人17在一个方面在步骤3369中同样检测人的头的位置。根据地面和/或探测到的障碍物(的位置)来跟踪位置。也就是说,比如通过传感器单元(摄像头185、雷达和/或超声波传感器194)来检测所探测到的墙。作为替代方案和/或补充方案,也能够通过激光雷达1来测定墙的位置。服务机器人17将人的头的水平位置与墙和/或其他障碍物在空间中的(水平)位置进行比较。
在一个替代的和/或补充的方面,在此同样考虑垂直位置。由此比如摄像头185也能够分析被跟踪的头与物体(比如桌子)在三维空间中的距离。(二维、基本上水平对准的)激光雷达1例如会识别到桌腿,但不必识别人在跌倒的情况下其头可能触碰到的桌面在空间中的位置。相反,基于摄像头的分析允许对头和其它障碍物在空间中进行三维检测,并且测定其它障碍物与头之间的距离,在分类的范围内在步骤3374中对这些障碍物进行分析。如果服务机器人17探测到低于头和其他障碍物之一之间的距离值,则修改服务机器人17存储器中的值并且必要时触发单独的通知或单独的警报。
服务机器人17另外还会跟踪跌倒后的人,并且检测他在多大程度上重新站起或者尝试站起,即在步骤3340中进行跌倒后运动检测和分类。大程度是指比如与地面的距离、与地面相反垂直方向中的加速度、定向身体部分或肢体矢量、分析人的高度和/或(投影的)面积。在一个方面,同样分析关节点的位置变化的程度。随后,对人的移动或者甚至尝试起身程度进行分类。由此就将调整服务机器人17存储器中的值,在一个方面通过接口188(诸如WLAN)/警报来修改通知的程度。实际上这是指,视跌倒程度而定能够进行不同的警报和/或通知。也能够将通过人佩戴的传感器进行跌倒分类以及在服务机器人17之内通过摄像头185、雷达和/或超声波194进行传感器数据分析进行组合。总之,跌倒事件的评估流程如下:检测和跟踪人的运动,通过对于人的肢体和/或躯干的朝向进行特征提取和分类来探测跌倒事件,探测和分类跌倒后人的运动以及评估跌倒事件的严重程度。
在一个方面,服务机器人17还能够通过其传感装置在步骤3380中检测跌倒的人的生命体征参数。如在其它位置处所阐释的那样,为此例如能够使用集成的雷达传感器、比如超宽带宽雷达。在此,在一个方面能够通过雷达和/或基于摄像头的方法来探测未被衣物覆盖的人的身体部分,并在这些区域内例如通过雷达对人的脉搏进行测量。在对通知和/或警报进行分类时能够考虑这些信息,在一个方面能够随通知来传输生命体征参数、诸如脉搏。
在图70中详细示出了用于跌倒分类的系统。因此,用于探测人的跌倒的系统首先包括比如服务机器人17、存储器10、至少一个能够在时间进程中非接触地检测人的运动的传感器、人身份识别模块111和人跟踪模块112或113、用于从传感器数据中提取特征并将提取的特征分类为跌倒事件的跌倒探测模块5405、用于对跌倒事件的严重程度进行分类的跌倒事件评估模块5410。出于传输消息的目的,该系统另外还能够具有通向服务器和/或终端13的接口188。跌倒探测模块5405比如能够具有骨架创建模块5635,以用于创建人的骨架模型。跌倒探测模块5405能够包括用于测定来自骨架模型的关节点与地面的距离或距离变化的分类;关节点在垂直方向中的加速度;定向由连接至少两个关节点产生的方向矢量;方向矢量的朝向变化;例如通过人尺寸分析模块5655测定人的高度和/或高度变化,该人尺寸分析模块通过比如两个方向矢量的矢量差测定人的高度,这些方向矢量从一个共同原点延伸至至少一只脚和至少人的头;沿着垂直方向投影的人在地面上所占的面积,和/或人的头相对于看向地面和/或相对于看向探测到的障碍物的位置。系统另外还有用于检测人的生命体征参数的生命体征参数检测单元5415(比如摄像头185、激光雷达1、雷达和/或超声波传感器194)和用于分析被检测的人的生命体征参数的生命体征参数分析模块(5420)。该系统在一个方面具有人识别模块110、运动分析模块120和/或基于骨架模型的特征提取模块5640。
预防跌倒
服务机器人17在一个方面在执行测试和/或练习期间检测人的生命体征参数,如在图34中以步骤3400所示。为此,服务机器人17识别和跟踪人,比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113结合摄像头185或激光雷达1。为此,在步骤3355中进行人身份识别和人跟踪,对此能够使用人身份识别模块111。系统(可选地)位于人前方(步骤3420),并在步骤3430中(可选地)移动到这个人前面。在步骤3440中识别并跟踪需要执行练习和/或测试的人的身体区域,以便在步骤3450中通过在这一身体区域旁或上进行测量来检测生命体征参数。考虑将例如人的面部、手和胸部区域等作为身体区域。相应在本文的其他位置和/或现有技术中对探测这类身体区域的处理方法有过描述。测得的生命体征参数比如包括脉搏率、脉搏率差异性、心脏收缩和心脏舒张血压或者然而也包括人的呼吸(诸如呼吸频率)。在本文的其他位置处描述了怎样通过服务机器人17例如测定这些示例性提到的生命体征参数。但也能够使用其它方法来测定生命体征参数。使用至少一个传感器,比如摄像头185和/或雷达传感器(比如微波脉冲雷达、距离控制雷达、多普勒雷达、连续波雷达、超宽带雷达)和/或它们的组合搭配来检测生命体征参数,它们检测所提及的人的身体区域和生命体征参数,优选在时间进程内进行所述检测。
在一个方面,在此所使用的传感器测定人的皮肤和/或衣物上面和/或下方的运动。在一个替代的和/或补充的方面,相对于一个人朝向服务机器人17的运动来分析这个人的皮肤表面和/或衣物的运动,即以人的运动来校正检测到的身体区域信号,步骤3460。为此,服务机器人17除为了测定生命体征参数而被分析的身体区域以外,还检测至少另一个身体区域,并测定所述至少另一个身体区域距服务机器人17的距离。在此,将为了对经分析的身体区域的生命体征参数进行分析而进行的运动检测与为了测定经检测的人身体区域的相对运动而进行的运动检测互相同步。比如能够通过激光雷达1,比如通过摄像头185,比如RGB-D摄像头185、超声波和/或雷达传感器194为了测定相对运动而检测身体区域。
服务机器人17所进行的测量能够为连续的或非连续的测量,即例如间隔10秒。在步骤3470中将测量所得的生命体征参数保存在服务机器人17的存储器中,并且能够通过接口188(诸如WLAN)将其传输给其它系统。服务机器人17在步骤3480中将测定的生命体征参数与保存在存储器中的阈值进行比较。保存在存储器中的值能够固定地保存和/或从检测到的生命体征参数的过去值中动态得出,比如作为在一个时间间隔的范围内经分析的先前所记录的值的平均值来得出。如果在步骤3490中识别到检测到的生命体征参数超过或低于阈值,则服务机器人17比如会修改存储器中的值。这种修改至少可能触发以下事件之一:在步骤3492中将触发输出单元(显示器2、扬声器192、投影装置920等),即比如启动语音输出。由此服务机器人17在此在一个方面能够请求人降低其速度。在一个替代的和/或补充的方面,服务机器人17能够请求人坐下。与此相补充或独立地,服务机器人17能够操控所定义的位置,步骤3498。在此,可能涉及至少一个座位,在服务机器人17的地图中为该座位分配了坐标。随后,服务机器人17能够操控该座位。该座位可以是指一把座椅。服务机器人17能够通过其所实现的传感装置直接在其周围环境中识别座椅(如在本文的其它位置处所述),作为替代方案和/或补充方案,服务机器人17也能够将在地图模块107内其保存在服务机器人17的地图上。在探测生命体征参数的偏差时,服务机器人17能够在步骤3494中触发通知,即比如通过接口188(诸如WLAN)发送通知和/或触发警报。此外,所述服务机器人在一个方面能够在步骤3496中降低其速度。
一个应用示例中,服务机器人17陪同一个人一起做行走练习,比如通过下臂支架做行走练习。在此,服务机器人17移动到这个人前面,而这个人则跟随服务机器人17。服务机器人17在此通过至少一个传感器检测这个人,并且执行特征提取、特征分类以及步态进程分类,以便分析人的步态进程。在此,安装在服务机器人17上的摄像头185检测面部并且测定时间进程中的心脏收缩压和心脏舒张压,将其分别保存在服务机器人17内的血压存储器中。在一个时间进程中分析测定的血压的测量值并且可选地将其保存下来,并将其与保存在血压存储器中的值进行比较。作为替代方案和/或补充方案,将测量值与在定义的持续时间t之前测定的测量值进行比较,比如t=10秒。如果心脏收缩血压下降至少20mmHg和/或心脏舒张血压下降超过10mmHg,这比如预示着跌倒危险增加,则在服务机器人17的存储器中修改血压值。其结果是由服务机器人17进行语音输出,告诉这个人应该降低其行走速度。通过降低速度,降低人晕倒并在此跌倒时的受伤风险。服务机器人17降低其速度并且通过接口188(诸如WLAN)向服务器发送一条通知,服务器再向服务机器人17的周围环境中的人发出警报并且呼叫救援。服务机器人17可选地在其周围环境内,即在定义的相对于其位置的距离内,探测座椅。如果服务机器人17探测到一把座椅,服务机器人17会缓慢将这个人导航至该座椅,并且通过输出请求这个人自己坐下。
在类似的示例中,服务机器人17在完成行走练习时通过分析人的胸腔和/或腹部区域的运动来检测其在时间进程中的呼吸频率,这通过安装在服务机器人17上的超宽带宽雷达传感器实现。检测到的测量值同样保存在存储器中并与保存在存储器中的测量值进行比较。作为替代方案和/或补充方案,将测量值与在定义的持续时间t之前测定的测量值进行比较,比如t=10秒。如果呼吸频率的变化幅度超过一定的阈值,则执行前一节已经针对血压的测量值偏差描述过的步骤。
根据图71,用于检测生命体征参数的系统的描述如下:用于检测人的生命体征参数的系统、比如服务机器人17包括:处理单元9、存储器10、至少一个能够在时间进程中非接触地检测人的运动的传感器(诸如摄像头185、激光雷达1、超声波和/或雷达传感器194)、一个人身份识别模块111和一个用于检测和跟踪人的人跟踪模块(112、113)、一个生命体征参数分析模块5420。此外,该系统包括一个身体区域探测模块4810和用于跟踪生命体征参数的检测区域的身体区域跟踪模块4815以及用于在比如时间进程中非接触和/或基于接触地检测人的生命体征参数的生命体征参数检测单元5415。生命体征参数分析模块5420比如能够将检测到的生命体征参数与保存的至少一个阈值进行比较,并且基于比较结果通过接口188发出系统通知,通过输出单元(2或192)输出,修改系统的速度变化(比如降低速度)和/或启动对于系统的目标位置的操控。后者比如通过导航模块(110)实现,比如通过调整到座位、比如座椅的路径规划,该座椅例如位于系统的经定义的最小距离内。在生命体征参数分析模块5420中使用的阈值能够从之前检测到的生命体征参数来动态地测定,比如基于形成在定义的时间间隔内所检测的生命体征参数的平均值。生命体征参数分析模块5420还能够检测人的身体运动,并通过比较检测到的身体运动来分析检测到的生命体征参数。检测到的生命体征参数可以是指脉搏率、脉搏率差异性、心脏收缩压和心脏舒张压和/或呼吸频率。在一个方面,系统具有接口188,能够检测固定在人身上的生命体征参数传感器5425的数据,并在生命体征参数分析模块5420中对其进行分析。应用模块125具有用于执行至少一次练习的规则,比如在本文中作为示例保存的练习。在一个方面,能够通过经过检测到并经过分析的生命体征参数来测定跌倒风险,比如严重的跌倒风险,其中预计在仅数分钟的时间间隔内就会出现跌倒。该系统在一个方面具有人识别模块110、人身份识别模块111、跟踪模块(112、113)、运动分析模块120、骨架创建模块5635和/或基于骨架模型的特征提取模块5640。
识别人的增加的跌倒风险
年长的人通常有增加的跌倒危险。在现有技术中对一系列对跌倒风险有显著影响的因素进行了不同的检查。比如Espy等人(2010)年在“步速和步长对稳定性和跌倒风险的独立影响”,行走姿态,2010年7月,第32(3)卷,278-282页,(DOI:10.1016/j.gaitpost.2010.06.013)的实验性的论文中描述到,缓慢行走会导致增加的跌倒危险,但能够通过较短的步长来降低这种风险。Senden等人,“基于加速器的行走分析,滤波有跌倒风险的对象的额外客观方法,行走姿态,2012年6月,第36(2)卷,296-300页,(DOI:10.1016/j.gaitpost.2012.03.015)还通过加速度传感器描述到,长步伐和快速行走伴随着增加的跌倒危险(按照标准化的Tinetti测试来测定),它相当于身体垂直加速度的平方根。通过加速度传感器测定的在步态进程中更低的对称性预见到了之前出现的跌倒。VanSchooten等人(2015)“行走跌倒风险分析:日常生活行走的数量和质量预示老年人的跌倒,老年病学期刊:A系列,70(5)卷,2015年5月,608-615页(DOI:10.1093/gerona/glu225)同样使用了加速度传感器并且表明,行走方向中的双步伐/行走周期内增加的方差和向垂直方向行走时更低的幅度与增加的跌倒风险相关联。Kasser等人(2011),“平衡性、行走和力量的前瞻性分析以预测患有多发性硬化症的女性跌倒,物理医学和康复档案,92(11)卷,1840-1846页,2011年11月(2011年8月16日发布)(DOI:10.1016/j.apmr.2011.06.004)同样报告了步态进程中的不对称性的增加是跌倒风险的一个显著的预测指标。
在一个方面,服务机器人17被如此配置,从而该服务机器人17能够对人步态进程的跌倒风险进行分析,如在图35中所述。在一个(可选的)的方面,人能够通过输入单元、RFID发射应答器、条形码等登录服务机器人17,步骤3510。随后,服务机器人17通过其人身份识别模块执行人身份识别,并且随后跟踪人,步骤3355,比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113来跟踪人。针对跟踪使用如下传感器,该传感器能够非接触地检测人,所述传感器比如是摄像头185、超声波传感器和/或雷达传感器194。服务机器人17通过输出单元的输出3520来请求应评估其跌倒风险的人跟随服务机器人17。该服务机器人17(可选地)在步骤3420中位于人前面,(可选地)在步骤3525中移动到人前面,并且(可选地)在步骤3530中检测其速度。在一个方面,这通过在同步检测识别到身份的人的距离时,通过测定服务机器人17的速度来实现,由此能够测定人与服务机器人17的相对速度以及通过服务机器人17本身的速度来测定人的速度。通过服务机器人17的里程计单元181和/或通过跟踪保存在该服务机器人17地图中的障碍物和服务机器人与这些障碍物的相对运动,来测定所述服务机器人17自身的速度。
服务机器人17在步骤3365中执行特征提取,以便在步骤3360中从骨架模型中提取特征,诸如关节点的位置3541、将关节点相互连接的方向矢量3542、人的铅垂线等。作为替代方案和/或补充方案,也能够从固定在人至少一个肢体上的惯性传感器等提取特征,比如瞬时加速度3543、加速度的方向3544等。在特征提取3365之后进行特征分类3370,其中组合评估多个特征。这方面的一个示例是人的速度,它作为上述方法的替代方案和/或补充方案,能够作为特征从服务机器人17的检测到的数据中予以便测定,其中各个分类的特征比如能够是服务机器人17关于时间被检测的人的步长3551和/或双步伐3552,并且关于每个检测到的时间单位内的步长来测定速度,其中在一个方面分析多个步伐。在此,在一个方面在特征提取3365的范围内通过踝关节点在骨架模型中的位置来提取步长,其中在步骤3360中通过分析人的摄像头记录来创建骨架模型。在分析比如安装在脚部或骨头上的惯性传感器的数据时,将检测/提取这些时间点和时间点之间的时间,也就是这段时间里通过传感器开始其半径指向地面的圆周运动,也就是说,为此将分析加速度的方向矢量,步骤3544。在步骤3543中优选在矢状平面中测定或提取瞬时加速度,并且在步骤3543中关于瞬时加速度和所述时间点之间的持续时间来测定特征分类的范围内走过的路段,其之后在步骤3551中予以显示。在此,单独考虑它们分别是指在这种组合中分类的提取到的特征。在一个替代的和/或补充的方面,通过雷达传感器和/超声波传感器194检测踝关节。作为替代方案和/或补充方案,能够通过膝关节点的、从膝关节点与小腿平行朝向的方向矢量的以及在方向矢量穿过铅垂线的情况下膝关节点高于地面的高度的位置来测定膝关节点,其中方向矢量穿过铅垂线时膝关节点高于地面的高度说明从膝关节点观察踝关节点所处的距离。通过检测到的踝关节点之间的距离来测定所提及的双步伐3552,其中在一个方面逐渐加和单个步伐3551。
在一个替代的和/或补充的方面,服务机器人17分析每个双步伐的相应长度和/或双步伐内的单步伐的持续时间,并在步骤3553中建立长度与持续时间的相互关系。服务机器人17将检测到的超过一个双步伐的值相加,以便测定超过一个双步伐的平均值。服务机器人17在一个方面分析弯曲和/或伸展3554,即与大腿相对于铅垂线的角度。
然后,服务机器人17分析被检测的人的速度、步长和双步长以及步调。在一个替代的和/或补充的方面,在步骤3555中同样分析至少一只脚、比如两只脚的站立时长,并且例如分别关于多个步伐来分析所述站立时长。作为替代方案和/或补充方案,也能够在步骤3556中分析轨距,其中将分析踝关节之间的距离。此外,服务机器人17检测人的骨架模型中的其它关节点,诸如头、肩关节点、髋关节点等,并且比如三维地检测其在空间中的位置,并且分析时间进程中的参数。这种分析在一个方面包括这些参数离地的大小,然而也包括其在(既水平也垂直的)矢状平面中的运动。在一个方面,为此也分析骨架模型中的所提及的点中的至少一个点的加速度,步骤3557。
所述服务机器人17在步骤3570中保存检测到的值,通过经分类的特征在步骤3580中对步态进程进行分类,在步骤3585中将其与保存在该服务机器人17的(或者在通过接口188(诸如WLAN)可用的))存储器中的步态进程分类进行比较。为此,分析所提及的经分类的特征中的至少一个,优选(共同)分析多个,并且与存储器中的特征进行比较。服务机器人17以服务机器人17的比较为基础来测定一个评分,该评分反映在步骤3590中的跌倒风险,比如被检测的人在定义的持续时间内跌倒的概率。在一个方面,分类包含与人参数、比如人尺寸有关的用于经测定的速度、步调(每分钟的步数)和步长的值。如果平均尺寸下的人的步行速度约为1m/s,步调小于103步/分并且步长小于60cm,说明这个人例如有增加的跌倒危险。作为替代方案和/或补充方案,分析三维空间内检测到的加速度,并且通过离散傅里叶变换形成谐波。然后,由奇数谐波的幅度的累加之和形成与偶数谐波的幅度累加之和的比例。垂直加速度小于2.4的值、位于矢状平面内且值小于3的在行走方向上的加速度的值和在正面中小于1.8的侧面加速度的值指示出增加的跌倒风险。将在行走特征分类模块5610中分析相应的分析结果。在此,例如也将同时分析诸如加速度、步长、步调等多个参数。
总之,例如用于测定描述人的跌倒风险的评分的系统、诸如服务机器人17,如在图72中所示出的那样得以描述。用于测定描述人的跌倒风险的评分的系统包括一个处理单元9、一个存储器10和一个用于检测在时间进程(包括步态进程)中人的运动的传感器,诸如摄像头185、激光雷达1、超声波和/或雷达传感器194、运动过程提取模块121和运动过程评估模块122,在一个方面它被配置用于在跌倒风险测定模块5430内测定跌倒风险评分,比如通过分析水平和/或垂直平面中的加速度、步幅、速度和/或由此推导出的参量等。运动过程提取模块121能够是用于提取步态进程特征的行走特征提取模块5605、运动过程评估模块122、用于以提取到的特征(比如被检测的人的骨架模型的关节点、骨架模型的关节点之间的方向矢量、关节点的加速度或方向矢量、关节点在空间中相互间的位置和/或由方向矢量推导出的角度)为基础对步态进程进行特征分类的行走特征分类模块5610和一个用于步态进程分类(比如包括步长、双步伐的长度、步行速度、双步伐中的步长的关系、弯曲和/或伸展、站立时长、跨距和/或关节点相互间的分布(位置)和/或距离和/或关节点的加速度)的步态进程分类模块5615,其中分类比如包括将检测到的步态进程与存储器中保存的步态进程进行比较,以及测定跌倒风险评分。步态进程分类模块5615能够包括用于测定人的速度的人速度模块5625,其中通过人每个时间单位经过的步距来测定人相对于检测和分析单元的或系统的速度的速度,其中将里程计单元181、在地图中检测到的障碍物和/或与地图中检测到的障碍物的相对位置包括在内。此外,该系统还包括人身份识别模块111和人跟踪模块(112或113)和用于人在系统上登录的组件(比如2、186),其中例如保存人的视觉特征并且在人身份重新识别模块(114)的范围内加以使用。系统通过接口188能够获取惯性传感器5620的传感器数据,并且在运动过程提取模块121中分析这些传感器数据。传感器比如能够戴在人身上,比如下肢上,或者放在由人使用的行走辅助装置上,比如肩膀或下臂支架上,并检测行走辅助装置的运动。
系统在一个方面具有人识别模块110、运动分析模块120、骨架创建模块5635和/或基于骨架模型的特征提取模块5640。从流程开始示出了测定在一个方面描述隐藏性的(非严重性的)跌倒风险的跌倒风险评分的过程如下:检测一个人的步态进程(比如通过所提及的传感器非接触地检测人),提取检测到的步态进程的特征,对提取到的步态进程特征进行分类,将步态进程的经过分类的至少两个特征与保存在存储器中的一个步态进程分类进行比较并且测定跌倒风险评分。
由服务机器人实施的移动性测试(Tinetti测试)
服务机器人17在一个方面被如此配置,从而服务机器人17能够分析人在坐下、站立、行走时的不同身体位置和/或人的运动,如图36-52所示,以便整体查看人的移动性。一系列方法步骤体现为多个步骤,因此在图36中对它们进行示例性的总结。在此,在步骤3525中,服务机器人17在行走时在一个方面能够走到人前面,在一个替代的方面,走到人后面。如本文的其他位置处所述,为此人能够在步骤3510中登录服务机器人17,以及在步骤3355中进行人身份识别,并通过服务机器人17进行人跟踪,比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113与激光雷达1和/或摄像头185相结合来进行跟踪。在另一方面,服务机器人17在步骤3521中通过输出单元请求人执行特定的操作,比如起身、跑步等,其中能够通过显示器2、语音输出等进行输出。该步骤3521为可选的步骤,或者与相应的分析有关。在一个方面优选在时间进程中,分析为什么使用定义的时间间隔。为此,服务机器人17在一个方面使用来自骨架模型的信息,该骨架模型通过由至少一个3D传感器和/或摄像头185在步骤3360中创建人的照片并能够通过来自现有技术的SDK实现。在步骤3365中进行特征提取,它比如在步骤3541中包括关节点,并且在3542步骤中包括关节点之间的方向矢量。随后,在步骤3370中进行特征分类,它具体上尤其与分析任务有关。在步骤3370中(可选地)保存特征分类的结果并且进行关联分类,这又与任务有关,因此该方法步骤在步骤3700中在图36中被称为继续的分类。在此,在一个方面进行阈值比较。随后,为每项任务测定一个评分。能够(临时)保存检测到的数据,比如通过完整或部分地分析和/或分类生成的数据。
在一个方面在步骤3370中进行特征分类时,在步骤3365中同步分析多个来自特征分类的关节点,但不详细确定由关节点连接得出的角度。相反,能够在三维空间(以二维数据为基础估计三维空间的位置会有帮助)基于分类器确定位置,其中会记录身体姿势,所述身体姿势描述被标识为正确或不正确的姿势,并且之后测定分类器。替代地,规定描述正确流程的身体姿势,并针对时间进程中的位置和关节点的分布进行分析。在此,能够分别比如基于身体姿势的演示来分析关节点的分布并且以此为基础创建分类器,之后将该分布与检测到的、被规定为正确的其他身体姿势和由此推导出的关节点在空间中的分布进行比较,其中在之后会重新创建如下分类器,以所有现有的关节点分布数据为基础考虑所述分类器。为此,比如能够使用Python中的Dagger算法。以这种方式比如通过神经网络创建分类器,它能够识别正确的运动,之后同样识别未正确做完的运动。在此,经分析和分类的身体姿势包括(并非最终)在下面章节提到的坐姿平衡性、起身、尝试起身、不同情况下的站立平衡性、开始行走、步态对称性、步伐连续性、行程偏差、躯干稳定性、旋转360°、自主坐下或放下、使用下臂支架等。
坐姿平衡性
在分析的范围内,服务机器人17检测人,并且分析坐着的人在多大程度上靠在一侧、从座椅上滑下或稳定地或者说稳定地坐下。在此,将提取骨架模型的特征,比如膝、髋、肩、头的关节点等,并且使用各个关节点之间的方向矢量检测和分析人的身体部分/肢体的朝向。在一个方面(优选分别在身体的一半位置;和/或与脊柱平行)分析至少一个肩关节点和至少一个髋关节点之间的方向矢量,并在图37中分析其与垂线/铅垂线的偏差,步骤3601。
在另一方面分析人的朝向,即在这种情况下,在步骤3603中例如检测肩关节点、髋关节点等以及膝等之间的至少一个方向矢量。在此,优选检测一个以上的方向矢量。这一方向矢量比如能够用于在步骤3602中确定人的正面,它与该方向矢量平行地延伸。在另一方面检测髋在空间中的位置,并且在步骤3604中分析横向平面中时间进程内的偏差。此外,将测定这个人多大程度例如在其座椅上来回滑动。
在步骤3710中的坐姿平衡性分类的范围内,在步骤3711中分析至少一个肩关节点和至少一个髋关节点与正面中与垂线/铅垂线的偏差和/或方向矢量倾斜度。此外,在步骤3712中测定肩关节点在横向平面中的位置的变化(幅度、频率等)。在步骤3713中通过这两个步骤3711和3712比较阈值和/或与模态、诸如运动模态进行比较。如果测定的值中的至少一个值大于阈值(诸如1.3m),则在步骤3714中将测量结果分类为低的坐姿平衡性,否则在步骤3715中将其分类为高的坐姿平衡性。为此,在步骤3716中分别规定一个保存在坐姿值存储器中的评分。
起身
服务机器人17在一个方面分析人在多大程度上能够起身(也请参见图38)。在提取特征的范围内,服务机器人17在步骤3545中识别对象和/或障碍物,如在现有技术中所述。服务机器人17在此比如会提取所跟踪的手关节点附近的散点图并且对散点图进行分段,由此能够区分对象的手。优选实时进行分段(比如以30fps)。在一个方面,还能够将检测到的散点图与保存在存储器中的散点图进行比较,例如为其分配对象,以便在被以传感器的方式检测的对象及其象征意义之间建立关联,由此又能够将特定对象分类为相关性较其他对象更强,由此比如将有扶手的座椅或行走辅助装置相对于例如花瓶进行分类。
在特征分类的范围内在步骤3610中测定站立。为此,在步骤3611中测量头和地面之间的距离,比如以头关节点和至少一个踝关节点到的位置为基础。在步骤3614中将这些值必要时与在存储器中保存的值进行比较和/或与阈值和/或模态进行比较。如果测定的高度在此比如大于阈值(比如1.4m),则在步骤3616中将人分类为站立,否则在步骤3617中分类为坐下。作为对人身高的替代方案和/或补充方案,同样在步骤3612中分析至少一个踝关节点和至少一个膝关节点之间、至少一个膝关节点和至少一个髋关节点之间及至少一个髋关节点和至少一个肩关节点之间的方向矢量的朝向,其中在这三个方向矢量基本上相互平行时,诸如阈值比较3615和/或模态比较所表明的那样,其中比如以与平行线的偏差为基础计算阈值。作为替代方案和/或补充方案,接下来能够分析至少一个膝关节点和至少一个髋关节点之间的方向矢量的朝向,确定这一方向矢量在多大程度上基本上是垂直的。如果与平行线和/或垂直线的偏差被分类为低于阈值,则服务机器人17会在步骤3616中将这些特征检测为站立,否则在步骤3617中检测为坐下。
此外,在步骤3620中探测手是否使用辅助工具,其中辅助工具在此被宽泛地理解为行走辅助装置、座椅的扶手、墙等,即一个人在起身时能够用来帮助站起的所有工具。在步骤3621中测定至少一个手关节和提取到的对象中的至少一个对象之间的距离。如果至少一只手与一个或多个对象或者障碍物的距离低于某一阈值3622(比如8cm),则在步骤3623中将其分类为使用辅助工具,否则在步骤3624中将其分类为不使用辅助工具。在此,在一个方面,以距被观察人的身体、即距关节点和/或相互连接关节点的方向矢量的最小距离为前提。
在起身分类3720的范围内,服务机器人17能够按以下方式进行分类:如果人在定义的时间过后站立3721,或者由人输入3722,尤其是输入人无法(独立)起身,则在步骤3723中将这一情况分类为人需要帮助的情况。如果在步骤3724中在定义的时间内站立,并且人在步骤3623中使用辅助工具,则在步骤3725中将人分类为需要辅助工具才能起身的人3725。在此分类的第三种情况是人在步骤3624中不需要辅助工具,并且在定义的持续时间内在步骤3724中就能够实现站立,由此人在步骤3726中不需要辅助工具就能够起身。基于步骤3723、3725和3726来测定起身评分3727。
尝试起身
在过去的一种用于检测起身的变型方案中,作为替代方案和/或补充方案来测定起身尝试(图39)。因此,在特征分类的范围内,作为对图38中特征分类的补充,分析膝-髋方向矢量的水平位置,即服务机器人17在多大程度上与横向平面平行。
在起身尝试特征分类3730的范围内完成以下步骤:如果基于起身尝试特征分类信息3370未在定义的时间内在步骤3731中探测到站立,或者在步骤3732中由人进行输入(与步骤3731和3732相比),未在步骤3624中探测到辅助工具,则在步骤3733中将这个人分类为不提供帮助就无法起身。如果在步骤3624中未探测到辅助工具,并且局部最大值不等于全局最大值,并且局部最大值的数量大于1,则在步骤3735中会探测多次起身尝试。为此,在时间进程中分析定义站立的关节点的分布和/或以水平线(作为替代方案:垂线)为准分析在髋与膝之间的方向矢量的角度或角度变化,其中描述了横向平面上的水平线。如果在此比如2次探测到角度从约0°(横向平面)变为约30°(旋转方向的变化),但之后在其它方向出现变化(比如重新变为30°),并且之后才探测到角度变化>>30°,比如90°,将探测三次起身尝试(其中最后一次成功)。相反,如果在步骤3624中未探测到辅助工具,则站立3616,并将在步骤3736中的情况分类为这个人不需要辅助工具的情况。基于步骤3733、3735和3736总体上给出一个起身尝试评分3737。
站立平衡性
在一个替代的和/或补充的方面,服务机器人17分析人的站立平衡性,如图40所示。与之前的分析相补充,在特征分类3370中进行平衡性测定3630。为此,将分析时间进程中(比如5秒长)至少一个肩关节点、至少一个髋关节点或至少一个踝关节点在横向平面3631中的幅度、朝向和/或位置变化频率,并且在步骤3632中进行阈值比较和/或与模态、诸如运动模态进行比较。在此背景下,在一个方面根据踝关节点也能够分析步长和/或是否存在步伐。如果幅度、朝向和/或位置变化频率低于阈值3632(诸如10cm的侧面波动)和/或与模态不符,则假定稳定3635,否则假定不稳定3636。作为替代方案和/或补充方案,能够在时间进程中(比如5秒长)在步骤3633、3631中分析与铅垂线和/或矢状平面和/或正面的偏差(脚、膝或髋与至少一个位于上方的关节点)的至少一个方向矢量的幅度、朝向和/或频率。除至少一个肩关节点以外,位于上方的关节点还包括一个头关节。基于在步骤3634中的阈值比较,将低于阈值和/或模态的偏差称为稳定3635,否则称为不稳定3636。如果人站立3616但在此站不稳3636,则在步骤3740中将站立平衡性分类为站不稳的人3741。如果人站住3616、使用辅助工具3623并且处于稳定平衡性状态3635,则为这个人分配分类“使用辅助工具稳定站立”。如果人站住3616,不使用辅助工具3624,并且站稳3635,则假定不使用辅助工具3743能够站稳。基于该分类来给出一个站立平衡性评分3744。
双脚紧并时的站立平衡性
作为之前的站立平衡性分析的替代方案和/或补充方案(参见图41),优选在由服务机器人17输出3521之后,请求人双脚在站立时紧并,在特征分类3370的范围内测定脚距离3640。为此,将根据提取到的关节点3541的位置使用踝关节点和/或膝关节点,在一个方面同样使用髋关节点和膝关节点和/或膝和踝关节点之间的方向矢量3542的朝向。将以这些数据为基础测定踝关节点的距离3641,在一个方面在正面内进行测定。随后,通过阈值比较3642和/或模态比较来分类双脚较远3643还是靠近在一起(即距离3643较小),其中比如能够采用阈值12cm(从一个关节中心到另一个关节中心)。
在紧随其后的站立平衡性脚距离分类3745时将站立分为三个类:在第一类(站立不稳3746)中将人分组为站立3616和不稳定平衡性3636。在第二类中,分类为站着的人3616、站稳3635、使用辅助工具3623或脚距离宽3644。将站着的人3616分类为第三类,在此他处于稳定平衡性3635,不使用辅助工具3624且脚距离低3643。这一分类体现于站立平衡性-脚距离评分3749。
在一个方面必要时无法直接由提取骨架模型的SDK的数据获取踝关节点,而是替代地通过膝关节点来获取踝关节点。在此,能够通过从膝关节点与小腿平行朝向的方向矢量以及在方向矢量(在髋关节点和膝关节点之间或者在膝关节点和地面之间)穿过铅垂线时膝关节点高于地面的高度来测定膝关节点的位置,其中在方向矢量穿过铅垂线时膝关节点高于地面的高度说明从膝关节点观察踝关节点所处的距离。
站立平衡性和冲击
作为对之前所述站立平衡性分析的替代方案和/或补充方案,服务机器人17检测朝背部的至少一次冲击(参见图42)。在冲击检测3650的范围内,在步骤3651中分析髋向前的运动,即在矢状平面内进行分析。作为替代方案和/或补充方案,在步骤3652中分析服务机器人17上的输入或输出。在步骤3653中对髋的运动(比如加速度)进行阈值比较和/或进行模态比较。如果不超过阈值,或者未探测到模态,则在步骤3654中不会探测到冲击,否则会在步骤3655中探测到冲击。作为替代方案和/或补充方案,例如还能够在向服务机器人17中输入患者之后会发生冲击,和/或能够进行比如显示出冲击命令的输出,由此人会出现冲击,从而能够分析被检测的人的平衡性冲击后果。随后,通过站立平衡性-冲击分类3750分析冲击时的站立平衡性。在此区分至少两个分类:a)站立平衡性站稳/稳定3753,其特点是在冲击3655之后站立3616、平衡性稳定性3635、无辅助工具3624和脚距离低3643。b)人在躲避运动3752时站住,即执行躲避步伐,或者自己跌倒但站住。为此,人站住3616,使用辅助工具3623,不稳定3636(这通过躲避运动说明),有较低的脚距离3643,之前出现冲击3655。这一分类体现于站立平衡性-冲击评分3754。
站立平衡性和闭眼
作为对之前所述站立平衡性分析的替代方案和/或补充方案,在闭眼时检测和分析站立平衡性。为此,在一个方面服务机器人17能够检测面部、其眼睛,并且通过RGB摄像头检测到的颜色、彩色对比度的变化等来区分闭眼和睁眼。作为替代方案和/或补充方案,服务机器人17比如通过声音输出来提示人闭眼。分别在探测到闭眼和/或输出之后检测运动。在此,类似于图42来测定站立平衡性,只是在此不分析冲击,将结果分类为站稳或站不稳,其体现于站立平衡性-眼睛评分。
行走开始
作为前述分析的替代方案和/或补充方案,服务机器人17优选在进行包含行走请求的输出之后,检测被跟踪人的步态行为并且测定开始行走前的持续时间,如图43所示。在特征分类3370的范围内进行行走测定3660。在此,在一个方面分别在时间进程内测定肩关节点/髋关节点、踝关节点在横向平面中的位置变化和/或踝关节点的距离,步骤3661。在步骤3662中进行阈值比较和/或模态比较,并且在超过阈值(比如10cm)时,假定行走和/或行走尝试3666,否则不作此类假定3665。作为替代方案和/或补充方案,能够在矢状平面3663中分析关节点的曲线走向,其中能够考虑阈值和/或曲线比较3664或模态比较。以此为基础,将运动分类为行走和/或行走尝试3666或不行走3665。在一个方面,通过以下方式对行走尝试进行探测,即在矢状平面或横向平面中相对缓慢和/或非连续地进行运动,其中相对缓慢意味着低于阈值。在开始行走分类3755的范围内分析请求和行走运动3756之间的持续时间。如果这一行走运动比如高于某一阈值(比如2秒)和/或在步骤3666中探测不同的行走尝试,则将其在步骤3757中分类为延迟/不同的尝试。如果在低于阈值的一定间隔时间内做出该行走运动,则在步骤3758中将其分类为不延迟。用开始行走评分3759来评估结果。
步伐位置
作为对之前分析结果的替代方案和/或补充方案,服务机器人17分析人的步态运动(如前一节所述),在图44中同样有详细示出,以确定左腿和/或右腿的步长。
服务机器人17在特征分类3370的范围内检测踝关节点在时间进程内相互间的距离,其中在矢状平面中出现的最大值相当于步长3672。在此,服务机器人17交替估算踝关节点在矢状平面中相互间的位置。在一个方面,在之后进行的步伐位置分类3760中考虑脚长,为此在步骤3675中测定脚长。在一个方面,对人的身高或尺寸进行插值,其中在针对人的不同的尺寸的存储器中保存有不同的脚长,即为此能够在步骤3676中考虑存储器中的参考值。
在步伐位置分类3760的范围内继续对在此测定的值进行分类。为此,在一个方面,在步骤3761中设置基于脚长的步长。作为替代方案和/或补充方案,在经过站立阶段中评估相应的踝关节点在矢状平面内的位置,并且在步骤3762中比较踝关节点相对于彼此处于哪个位置3762,其中位置数据来自于步骤3661。
随后将评估相应被观察的腿放在另一条腿的脚前面3763还是不在其前面3764。如果在步骤3761中比较步长和脚长发现步长短于脚长,和/或如果观察的腿在行走方向中在矢状平面内的踝关节点位置并不处于在另一条腿的脚前面,如在经过站立阶段3762中踝关节点的位置所示,则将它放在另一条腿的脚前面。基于该分类给出步伐位置评分3765。在一个方面为每条腿单独进行这类分析。
在此,站立3616(并且也在其它(比如后续的)涉及行走的分析中)应被理解为人基本上处于直立位置,人在其中位于一个位置上(事实上站立)或者同样也能够行走。否则所述的方法可能检测到人的前进,它一般不被称为行走。
服务机器人17在一个方面在行走期间跟着人,或者移动到人前面3525,其中服务机器人17在一个方面其速度能够按人的速度进行调整3530,其中会将人的可能非连续的速度转换为服务机器人17的连续的速度,比如通过构成人的速度的平均值或者在时间间隔内控制服务机器人17的速度,通过时间间隔内人的速度对该速度进行调整。
步高
作为对之前分析的替代方案和/或补充方案,服务机器人17如图45所示检测人的步态运动并且对提取到的特征进行分类,以确定(高于地面的)脚高3680。为此,在一个方面在步骤3681中分析踝关节点和/或膝关节点在时间进程内的幅度大小和方向矢量并且例如在矢状平面内对其进行分析,其中如已经描述的那样根据膝关节点将它们用于推导踝关节点。作为替代方案和/或补充方案,在步骤3682中分析踝关节点和/或膝关节点的曲线走向和方向矢量。在此,尤其会分析代表步高的幅度的上升/下降,并且在步骤3683中与阈值和/或参考数据进行比较。在此,在一个方面,检测运动的正弦性质,它更可能意味着腿能够尽可能地抬离地面,其中相当于梯形运动的运动更可能代表打滑运动,其中脚未正确抬离地面。在步高分类3770的范围内通过阈值比较3771和/或模态比较分析检测到的步高。如果小于步高的阈值(比如1cm),或者发现与模态的不相似性,在步骤3372中会将脚分类为未完全抬离地面,否则在步骤3373中分类为完全抬离地面。在一个方面,根据分析过的曲线走向也能够直接由此推断出脚已抬起或者未抬起。将分类结果纳入步高评分3774。在一个方面为每条腿单独进行这类分析。
步态对称性
作为上述分析的替代方案和/或补充方案,服务机器人17在检测行走时,诸如在前面章节所述,分析步态进程的对称性(也请参见图46),这在步态对称性分类3775的范围内进行。步态对称性分类3775尤其使用来自步长测定3760的数据,即步长3762,并且在一个方面,在人站住3616或行走3666时对它们进行分析。在步态对称性分类的范围内分析与阈值3776和/或时间进程中的运动模态相比的步长关系。在此,在一个方面分析每个双步伐的步长的对称性,其中通过将左右腿(或者相反)的步伐加到一起得出双步伐。在一个方面能够作为单步长相互间的比,或者在另一方面能够作为单步长与双步长的比,来形成步长比。如果该比值低于阈值,或者与模态相比例如具有高的模态相似性,则将步态进程分类为对称3777,否则分类为不对称3778。比如1:1.1或更低的步长比(或者在单步伐中60:66cm或在双步伐中60:126cm)被分类为对称,更大的比值被分类为不对称。随后,将分类转换为步态对称评分3779。
步伐连续性
作为上述分析的替代方案和/或补充方案,服务机器人17在检测行走时,诸如在前面章节中所述,分析步伐连续性(参见图47)。在测定步长3670的范围内,在一个方面也能够测定踝关节点在站立阶段3673的位置。
在步伐连续性分类3780的范围内,在一个方面在站立3616或行走3666中根据曲线走向的对称性3781来分析关节点在矢状平面3663中的曲线走向。在此,将高对称性分类为连续的步态进程3784,否则将其分类为非连续的步态进程3785。作为替代方案和/或补充方案,在检测/提取双脚接触地面的点的同时分析步长3672,即在站立阶段3673测定踝关节点的位置。如果服务机器人17比如在左右脚(或者相反)接触地点的时间点探测到踝关节点的距离低于某一阈值(比如20cm),或者在模态比较中不具有在过程步骤“站立阶段中踝关节与阈值相比的距离”3782中测定的最低相似性,则同样将该步伐连续性分类为非连续的步态进程3785。比如当人始终将一只脚向前迈并且另一只脚向后拖,由此双脚在站立瞬间略为平行时,就属于这种情况。作为替代方案和/或补充方案,如果双腿在定义的时间阈值以外平行(在矢状平面中)3783,则通过服务机器人17也能够探测这类情况。随后,将分类转换为步伐连续性评分3786。
行程偏差
作为上述分析的替代方案和/或补充方案,服务机器人17在检测行走时,诸如在前面章节中所述,分析与一条直线的行走偏差,如图48所示,其中这条线能够是虚拟的,也能够是真实的。通过输出3521请求人沿着至少2m长、优选为3m长的直线移动。在此,在一个方面能够采用直线测定3690。在此,在一个方面在地面上探测一条直线的投影和/或标记,步骤3691,在一个替代的和/或补充的方面在步骤3692中检测至少一个标记和/或直线。在一个替代的和/或补充的方面,由服务机器人17在地面上投影标记和/或直线。如此进行这类投影的示例参见本文上方。该直线能够是虚拟的,或者例如由人与标记的直接连接组成,和/或由人的矢状平面与地面相切的直线组成,其中在开始分析时测定直线,和/或在输出3521请求经过该距离之后测定。
此外,测定距离3910,以检查这个人是否已经过了沿着直线的距离。在图48中未详细示出的方面,能够通过服务机器人17的输出指引人走更多步,以达到目标距离(比如3m),或者在达到目标距离时保持不动。能够通过不同的方式测定距离。在一个方面,服务机器人17检测该服务机器人17经过的距离3911,比如通过测距数据3912和/或通过位置数据3913,其中在后面一种情况下通过至少两个位置的差来测定距离。在此,在一个方面,还能够分析与识别到的障碍物和/或对象的距离。为了以这些数据为基础分析人所经过的距离,在步骤3914中分析人在时间进程中的距离,并且由此计算出经过的距离。作为替代方案和/或补充方案,能够在步骤3915中通过将在步骤3672中检测到的步长相加,来测定距离。
在一个替代方案和/或补充方案的方面,同样通过在步骤3916中通过分析人在空间中的位置来确定位置(也请参见下面的步骤3695),即尤其是通过分析在位置变化时发生变化的坐标之间的距离。
另外将在步骤3920中分析人的位置,其方法是分析头关节点例如在横向平面中的位置和/或肩关节点或髋关节点之间的方向矢量的中心和/或膝关节点之间的方向矢量的中心(比如投影到正面中)、踝关节点之间的方向矢量(比如投影到正面中)和/或至少两个同类的臂关节点之间的方向矢量(比如投影到正面中)。
在另一方面,随后分析人是否使用辅助工具,如在前面已经在步骤3620中所描述的那样。
服务机器人17测定身体中心与直线在时间进程中的距离3791和/或踝关节点与正面内的直线在时间进程中的距离3792。然后,进行偏差计算,包括阈值3793,或者模态比较,即针对所测定的距离来计算偏差的最大值、每个步伐的各项偏差的最小二次幂等,其中同样能够使用在现有技术中描述过的其它的用于进行距离分析的方案。
随后,按以下方式进行分类:如果人站着3616、行走3666,以及包括阈值3793的偏差计算中的直线偏差值超过某一阈值,或者在模态比较时出现最低模态相似性,则在步骤3793中将结果分类为显著偏差。如果人站着3616、行走3666,并且偏差计算中的直线偏差值、包括阈值3793和/或模态比较处于一定间隔时间内,其上限值为按照3793的分类阈值,则将结果分类为轻微偏差和/或使用辅助工具3794。此外,作为与直线偏差的替代方案和/或补充方案,在步骤3620中探测辅助工具使用情况。如果人站着3616、行走3666并且偏差计算中的直线偏差值、包括阈值3793低于某一阈值(或者在模态比较时未达到最低模态相似性)并且在步骤3620中未探测到使用辅助工具,则将结果分类为无偏差、不使用辅助工具3795。在后续步骤中基于该分类在步骤3796中计算行程偏差评分。
躯干稳定性
作为之前分析的替代方案和/或补充方案,服务机器人17在行走期间分析躯干稳定性,它与测定站立平衡性类似或者雷同,区别在于人也行走(参见图49)。在躯干稳定性-行走分类的范围内按以下方式分析不同方面的特征分类结果3370。
如果人站着3616、行走3666、使用辅助工具3623并且站不稳3636,则在步骤3951中将这个人分类为颤抖或使用辅助工具。如果人站着3616、行走3666并或者(作为测定平衡性的部分方面)向前倾斜(例如在步骤3633中通过方向矢量分析),或者臂关节点与身体有一定距离,这一距离高于阈值或者例如在模态比较时出现模态不相似性(比如在步骤3631中通过臂关节点在横向平面中的周期性运动分析),则人在步骤3952中会被分类为不颤抖但弯腰或平衡。如果人站着3616、行走3666、没有使用辅助工具3624并且站稳3635,则将人分类为躯干稳定3953。在后续步骤中基于该分类来计算行程偏差评分3954。
在测定平衡性3630的情况下,在一个方面同样能够探测基本上与正面平行的周期性或非周期性运动的幅度和/或频率,并且对其进行阈值比较和/或模态比较。
步幅
作为上述分析的替代方案和/或补充方案,服务机器人17在检测步态时,诸如在前面章节中所述,分析跨距/步幅(参见图50)。为此,在特征分类3370内分析跨距,步骤3695,诸如作为在时间进程中在正面内的踝关节点的距离测量来实现,步骤3696。在跨距分类3955的范围内通过跨距数据来执行阈值比较3956和/或模态比较。将同样考虑人是否站着3616和行走3666。如果跨距低于阈值(比如18cm),或者它在模态比较的范围内具有定义的最低不相似性,则将跨距分类为窄,步骤3958,否则分类为宽,步骤3957。将结果转换为跨距评分3959。在一个方面能够以髋关节点的宽度来校正跨距,其在髋关节点之间的方向矢量长度的长度范围内近似。
旋转360°
作为上述分析的替代方案和/或补充方案,服务机器人17在检测步态时,诸如在前面章节中所述,分析被检测的人的旋转运动(参见图51),优选为360°的旋转运动。在特征分类3370的范围内测定步长3930,但在该位置上不同于在步骤3670中的情况,因为不在矢状平面中分析距离,而是分析绝对距离,因为因人的旋转运动步伐位置也可能倾斜。此外,比如能够使用来自步骤3661的数据分析人是否以及在多大程度上旋转,即在步骤3925中进行旋转探测。在此,在一个方面,在步骤3926中分析肩关节点、髋关节点和/或膝关节点或臂关节点或者头之间的方向矢量在横向平面内的旋转。在此,将检测、相加旋转角度,并且随后分析相加后的值是否已经达到360°的值(在步骤3927中旋转角度相加直至阈值360°或者进行模态比较)。在一个方面,在输出之后在步骤3521中由服务机器人17执行这一操作。
如果旋转360°(作为步骤3925的结果)、在步骤3666中探测到行走运动、并且在步骤3616中站立,则对之前检测到的步长进行分析,其中在步骤3961中比较步伐之间的距离。在此,分析双步伐的对称性,步骤3962,即分析双步长、单步长相互间的关系和/或与双步伐相比的关系。作为替代方案和/或补充方案,也能够分析步频3963,尤其是根据其周期性,即曲线的上升和下降以及幅度对称性来进行分析。通过在步骤3964中进行阈值比较和/或模态比较,分析双步伐的周期性和/或对称性,其中高对称性会导致被分类为连续性的步伐,步骤3965,否则导致被分类为非连续性的步伐,步骤3966。将结果转换为旋转-步伐评分3967。
作为替代方案和/或补充方案,同样能够检测旋转-稳定性评分3970。为此,在步骤3630中在平衡性方面分析在步骤3925中探测到的旋转运动。结果,将这类平衡性稳定3635、人站着3616和行走3666的旋转运动分类为稳定的旋转运动3968。相反,将人站着3616和行走3666,但处于平衡性不稳定的运动在步骤3636中分类为不稳定的旋转运动3969。将结果转换为旋转-稳定性评分3970。
坐下
服务机器人17通过服务机器人17的至少一个输出装置根据输出3521检测人的自主坐下,并且在此至少部分地使用上述特征分类(参见图52)。在该过程中,服务机器人17在自主坐下分类3980中分析从站立3616到坐下3617的过渡,其中通过3981描述这一步骤。在此,尤其分析过渡速度,步骤3982。服务机器人17另外比如通过在自主坐下期间连续比较瞬时速度,和/或通过与保存在存储器中的值进行比较来测定过渡的连续性,步骤3983。基于3982和3983两个步骤进行阈值分析3984和/或模态比较。此外,将使用分类结果3620,其分析手是否使用辅助工具,为此也计入自主支撑次数。然后,按以下方式对结果进行分类。
如果自主坐下的速度超过某一阈值,步骤3984,则将自主坐下分类为不稳定的自主坐下,步骤3987。如果自主坐下的进程的不连续值超过某一阈值3984和/或使用辅助工具3623,则将运动分类为难以自主坐下3985。如果在步骤3624中探测到不使用辅助工具并且在步骤3984中自主坐下的速度低于某一阈值和/或在步骤3984中自主坐下的进程的不连续值低于阈值,则在步骤3986中将自主坐下分类为稳定。将这一分析的结果转换为自主坐下评分,步骤3988。
对人的运动的替代的分析
在一个替代的和/或补充的方面,服务机器人17对创建人的二维或三维的照片,并且将这些照片与保存在存储器中的人的同样反映身体姿势或运动的照片进行对比,并且之后对这些照片进行分类,从而确定,拍摄到的人例如在多大程度上靠向一侧、滑倒或安全或者稳定坐下;这个人在多大程度上站立并在此使用辅助工具,尝试站立,保持站立平衡性,走几步,具有步态对称性,呈现出躯干稳定性,旋转360°等。能够通过在现有技术中描述过的分类方法、比如机器学习/人工智能方法进行分类。服务机器人17基于这种比较将记录到的人的照片进行分类。如上所述,分别类似于各项练习来分配评分。
服务机器人17在一个方面通过接口188(诸如WLAN)向其它系统传输记录到的数据,之后在这些系统内分析这些数据,比如针对在服务机器人17内所进行的分析那样来进行。
下面根据多张附图来描述移动性分析的不同的方面。图73示出了用于测定人的平衡性的系统,其中系统能够是指服务机器人。用于测定人的平衡性的系统包括能够在时间进程内非接触地检测人的传感器、用于创建人的骨架模型的骨架创建模块5635、用于基于关节点和/或人的关节点之间的方向矢量提取特征的基于骨架模型的特征提取模块5640、用于根据幅度、朝向和/或位置变化频率分析关节点在横向平面内的位置变化并将检测到的值与保存在存储器10的阈值和/或模态进行比较的横向关节点分析模块5645。作为替代方案和/或补充方案,该用于测定人的平衡性的系统包括能够在时间进程内非接触地检测人的传感器,用于创建人的骨架模型的骨架创建模块5635,用于基于关节点和/或人的关节点之间的方向矢量提取特征的基于骨架模型的特征提取模块5640,用于测定方向矢量与人的铅垂线的偏差的铅垂线-关节点分析模块5650,其中作为脚、膝或髋的关节点与竖直站立的人的至少一个垂直地位于上方的关节点的连接来形成方向矢量。该系统比如包括用于测定人的铅垂线的方向矢量与保存在存储器10中阈值和/或模态的偏差的铅垂线-关节点分析模块5650,用于在跨距已经低于某一阈值时用于在正面内在时间进程中测定人的关于踝关节点的距离的跨距和/或步幅的跨距-步幅模块5675,用于分析人尺寸的人尺寸-分析模块5655,其中例如通过地面和/或至少一个踝关节点及至少一个头区域内的点之间的距离来测定尺寸,比如通过两个方向矢量的矢量相减来测定,这两个方向矢量从共同原点延伸至一只脚和至少人的头。共同原点比如是指传感器,比如3D摄像头,通过它检测深度信息。该系统包括一个用于测定人的检测到的至少一个手关节点和在人的周围环境中检测到的至少一个对象之间的距离的手距离分析模块5660,并且该手距离分析模块在低于距离阈值时修改存储器(10)中的值。该系统包括用于分析关节点在矢状平面内的分布和用于将测定的值与存储器10中保存的值进行比较的基于矢状平面的关节点分布分析模块5665。用于非接触地检测人的运动的传感器可以是指摄像头185、激光雷达1、超声波和/或雷达传感器194。该系统在一个方面具有人识别模块110、人身份识别模块111和/或运动分析模块120。
示例
示例1:精神错乱预防和精神错乱监控
服务机器人17能够用于在患者年龄较大并且通常需要进行全身麻醉才能进行手术时减少患者在医院内逗留的时间。在此,因麻醉而患上老年痴呆的风险大。在此,高风险患者包括事先已经经受认知障碍的人。现在,服务机器人17能够用于至少一次性,比如在时间进程内自动地监控患者的认知能力,以便为医务人员提供诊断,由此能够更好且更有目标地预防和治疗患者。
图17示出了服务机器人17对此自动向患者方向移动的流程。在医院管理系统(KIS)中保存有应对特定患者进行手术的患者数据,其中包括手术的类型和日期,步骤1705。通过接口188(诸如WLAN)访问医院管理系统(KIS)的患者管理系统能够从KIS获得患者所在位置的房间信息。与此相补充,能够在步骤1710中向患者管理模块160传输其他的信息,包括手术类型、日期、疾病相关的信息等。在一个方面,服务机器人17能够访问患者管理模块160,在步骤1715中获取房间信息,并且在步骤1720中使用保存在其导航模块101中的信息来校准房间信息,以便随后在步骤1725中向患者的房间的方向移动。在另一方面,在步骤1730中校准患者管理模块160和云170内的导航模块之间的信息,并且在步骤1735中将云170内的导航模块与服务机器人17的导航模块101同步。然后,服务机器人17向患者房间的方向移动,步骤1725。
如果服务机器人17在患者房门前面,步骤1805,则服务机器人17必须穿过房门,由此患者才能在服务机器人17上执行测试。服务机器人17另外还被如此配置,从而服务机器人17通过其传感装置能够识别门,如前面例如在图8中所述,步骤1810。如果门开着,服务机器人17会在步骤1815中直接导航进入患者房间。如果门关着1820,服务机器人17会使用集成的通信模块1825,该通信模块通过接口188(诸如WLAN)(步骤1835)与医院的呼叫系统连接,步骤1840。
服务机器人17以当前位置为基础发出一个信号,该信号能够允许医务人员得出所述服务机器人的位置的结论,并请求打开通往患者房间的门。为此,在一个方面,服务机器人17在其存储器中具有数据库,该数据库具有地点数据与房间号的对应关系1830,该数据库的包含房间数据109的一部分能够成为导航模块101的组成部分,该数据库比如能够通过接口与医院信息系统连接。但也能够在云18中提供该数据库。如果在步骤1845中由医院人员打开房门,服务机器人17会移入患者房间,以便在步骤1850中为患者执行测试。如果通往患者房间的门有电驱动装置7,则服务机器人17被如此配置,从而服务机器人17通过接口188(诸如WLAN)(步骤1835)能够直接访问门控制系统1855,而且该服务机器人能够在步骤1860中发送一个用于打开门的代码。
在一个替代或补充的方面,服务机器人17在门前通过其至少一个传感器3观察周围环境,步骤1865,并且如果服务机器人17识别到人,服务机器人17会在步骤1870中跟踪识别到的人,并且在一个方面在可选的步骤1875中预测识别到的人的运动,并且如果一个人朝向服务机器人的方向,步骤1880,则机器人会自动对准,使其显示器2朝向这个人的方向(步骤1890)。比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113进行跟踪。在一个替代或补充的方面,服务机器人17一直等到人与服务机器人17处于最小距离1885,然后服务机器人17再将显示器2朝人的方向对准,步骤1885。同时,服务机器人17以光学的和/或声学的方式用信号来表示其需要这个人在步骤1892中打开通往患者房间的门的愿望。作出响应的人在步骤1894中打开门。在此,服务机器人17如前面或图8所述,能够检测到门的打开过程,步骤1896。一旦已经打开门,服务机器人17就会导航进入患者房间,以便执行在步骤1850中的测试。如果在服务机器人17和患者之间没有门,比如重症监护室就部分属于这种情况,则取消这些步骤。
如在图19中所示,服务机器人17在步骤1905中执行测试,尤其是简易心理测试,由此在步骤1910中测定一个评分,该评分在简易心理测试中反映了患者的认知障碍程度。作为替代方案和/或补充方案,能够使用本文中所述的其它测试方法。通过接口188(诸如WLAN)(步骤1915)向患者管理模块1920传输这些数据,并且在那里供医务人员使用,他们能够通过显示器2访问这些数据(步骤1925)。必要时同样能够通过接口188(诸如WLAN)向KIS传输数据,步骤1930。
患者管理模块160能够从KIS获取有关患者的疾病史的其他数据,其中比如也包括患者服用过的药物。患者管理模块160基于这些信息测定一个风险值,该风险值说明了患者由于所计划的手术有多大可能性使老年痴呆症状继续发展下去,步骤1935。能够通过显示器2为医务人员提供这一风险值,和/或将其传输到KIS中。医务人员能够基于信息来采取恰当的预防措施,从而避免可能出现术后老年痴呆,或者至少降低这一概率。
服务机器人17或者患者管理模块160还被如此配置,从而服务机器人17在完成手术1955(信息来自于KIS),如上所述1950,能够自动重新移向患者,并且重新对其进行测试1960,尤其是进行老年病学测试、比如简易心理测试。如果术后简易心理测试评分与术前测试相比变差,并且该变差程度超过特定的阈值(患者比如较之前恶化了超过3%)(即之前测试评分>(上次测试评分*阈值商)1965,则在数天之后在步骤1970中重新执行这一程序,以便检测、分析和记录患者的康复进展。
示例2:基于经验值的术后老年痴呆预测
图20示出了怎样由服务机器人17针对治疗建议处理数据。调控机构150与云18中的患者管理模块160连接,它被如此配置,从而能够在步骤2025中以匿名形式向调控机构150传输患者信息。为此,患者管理模块160能够通过接口188(诸如WLAN)从医院信息系统2015获取其它相关数据,包括手术方式、麻醉方式、并发症、服用过的药物、精神错乱预防措施、用于缓解精神错乱或对其进行治疗的术后措施等,以及在步骤2020中通过服务机器人17执行过的练习的结果。后者作为替代方案和/或补充方案也能够来自患者管理模块160。在患者管理模块160中匿名化、加密分别作为时序存在的数据并且将其传输至调控机构150并在那里保存2030。
在下一步骤中,在步骤2035中,使用既定机器学习和神经网络方法,以便基于现有的术前信息,比如由服务机器人17执行过的简易心理测试的结果、特定于患者的数据,比如年龄、并发症、麻醉方式、手术方式、服用过的药物等,来预测患者预计会出现多么严重的术后精神错乱2040。精神错乱的决定性因素又是指:术后的一定时间范围内的认知障碍程度,服务机器人17通常在什么时候进行首次测试,由此在CAM-ICO测试的范围内获取到的参数,精神错乱探测评分,疼痛行为量表,重症监护点观察工具,里奇蒙躁动镇静量表,运动活动分析量表,具有不同特征和/或由服务机器人如上所述获取的数据(比如参见精神错乱识别一节),比如在示例11、12或17中获取到的数据等。另一项决定性因素是在规定时间内出现的精神错乱程度的改善,服务机器人17据此测定认知能力2045。另一项替代或补充的决定性因素是(重新)达到特定水平的认知能力所需的时间2050。能够以训练数据记录的形式来使用这些数据。
在补充的和/或替代的步骤中,通过既定的机器学习和/或神经网络方法来估计前一章所述决定性因素的干预效果。这类干预包括使用温和的麻醉、支持性措施,如提供护理人员,药物治疗等2055。
基于机器学习方法的估计来测定体重2060,由调控机构150将体重在步骤2065中传输至患者管理模块160,并用于为医务人员提供建议,比如在出现特定的由服务机器人17测定的测试结果之后在步骤2070中为相应的患者创建治疗计划。能够在术前、术后和/或在时间进程内由患者管理模块160为医务人员提供这些建议。更新这些建议可选地基于KIS中的输入内容(患者管理模块160能够访问这些输入内容),患者管理模块160中的输入内容以及简易心理测试的结果,伴随有例如汗液探测的精神错乱探测评分的测试,精神错乱分析法和例如与探测声音信号序列相结合的认知能力的分析,图片识别或手指识别和/或以分析情绪为基础的疼痛状态确定,上肢的运动,可能的咳嗽活动和/或服务机器人17与患者一起或者在患者身上(如前所述)完成或执行的声音疼痛发声。
总之事实表明,它属于一套能够预测术后老年痴呆或精神错乱的系统,该系统包括计算机、存储器和至少接口188(诸如WLAN),系统能够通过该接口与移动数据检测单元交换数据,该数据检测单元有至少一个摄像头185,在一个方面同样有光谱仪196。通过机器检测和分析数据的移动检测单元比如是指服务机器人17。同时,系统本身在一个方面也能够在服务机器人17中得到体现。
系统具有接口188(诸如WLAN),通过该接口获取有关人的健康状态、治疗、药品状态、精神错乱预防措施、术后精神错乱治疗的措施和/或移动数据检测单元,诸如服务机器人17执行过的测量分析的数据。在此,系统分析时间进程中分配给这个人的数据。在第一步骤中分析之前的数据,它们反应了患者的术前和术后发病过程和治疗过程。在此,会进行预测,即尤其是预测出现术后数据的概率,诸如术后老年痴呆的出现概率、其演变过程等,为此例如能够使用机器学习方法。预测同样考虑医学干预,比如引入特定的术前和术后治疗,并且预测其对人的术后病程的影响。基于带有历史数据的这种分析来测定并保存规则,即尤其是体重是(或者回归系数,如果使用回归模型)。在第二步骤中能够将基于通过接口188(诸如WLAN)获取的数据用于预测,其中所述数据也包括由移动数据检测单元所获取并且在一个方面已经处理的数据。这些数据基本上是指新检测到的患者数据,在获取时间点还不清楚未来的病程,或者尚未最终检测。能够在单独的系统中执行第二步骤,该系统包含所述系统的规则或权重。总之以经验值为基础来预测术后老年痴呆/精神错乱的流程如下:在时间进程中检测人,以时间进程中的人的检测结果为基础测定人的健康状态数据,获取人的术前数据,获取人的干预数据,通过计算术前数据和干预数据的权重估计来测定术前数据和干预数据对人的健康状态数据的影响,以及比如基于权重估计和新获取到的人的术前数据和干预数据来预测检测到人的健康状态。
示例3:探测患者身上的汗液
与探测和分析卧在床上的患者皮肤上的汗液不同,服务机器人17也能够在未卧床的患者身上进行这类分析。为此,服务机器人17基于经由现有技术的架构来进行的骨架识别,来识别患者的姿势或姿态。服务机器人17能够通过RGB拍摄患者表面,并且之后分析患者是否穿着衣物。为此,患者访问通过颜色识别皮肤的分类算法。在此,在一个方面,能够进行交叉验证,即将皮肤上应测量的目标区域通过颜色和/或纹理与面部进行比较,通过现有技术的架构能够对此进行识别,比如通过采用OpenCV或Scikit-image架构的梯度直方图的方案。在此,在一个方面,也能够使用如下滤波器,如果识别到的面部颜色较应在其上进行测量的皮肤部位上的颜色更暗,所述滤波器能够进行彩色校正。在测定比较值时考虑的面部区域为面颊或前额(已经在其它位置处描述过后一区域的识别)。在一个方面,这种校正因数也能够与季节有关。如果在此进行的比较发现高于定义的阈值的相似值,则将测量时检测到的部位识别为皮肤。同样能够使用替代的和/或补充的滤波器,这种滤波器能够排除皮肤非典型的色调(特定红色调、蓝色、绿色、黄色)等。
服务机器人17检测用于测量的皮肤目标区域,测定它是否是指皮肤,如果不是这种情况,则服务机器人17检测其它目标区域和/或请患者通过语音合成单元133露出相应的区域。为此,服务机器人17跟踪相应的区域,比如患者的手臂,并且比如在手臂移动的幅度低于某一阈值之后,会重新开始对该部位的分析,以识别在那里是否露出了皮肤,或者必要时也被衣物覆盖。如果服务机器人17探测到被覆盖的皮肤,则服务机器人17会实施已在其他位置处描述过的测量。
示例4:以心血管指标为基础触发表现元素
服务机器人17利用所述系统,通过记录和分析面部及在此所反映的面部表面和/或头的心血管活动和/或皮下毛细管血液流动来测定脉搏率或脉搏频率,由此服务机器人17计算出一个与该服务机器人交互的人的脉搏率或脉搏频率。使用测定的脉搏频率在服务机器人17具有表现元素的情况下,即人至少部分地模拟的元素,诸如展示风格化的头或其中一部分,比如风格化的眼睛、嘴等的元素,通过模拟频率与人无意识地交互。这种交互可能意味着比如按脉搏频率调整风格化的眼睛的眨眼。针对服务机器人17有风格化的和能够移动胸腔的情况,作为替代方案和/或补充方案,也能够按照脉搏频率调整其运动频率。在一个替代的和/或补充的方面,,如果人的脉搏频率超出平均水平,比如它同样指示出高度兴奋(替代地,所测定的其它参数指示出高度兴奋),服务机器人17通过选择比如风格化的眼睛、胸腔或其他小于在患者身上识别到的频率的运动频率,则要尝试使患者镇静。服务机器人17在此测定患者在时间进程中的脉搏频率,并且必要时一直降低其运动频率,直至患者同样显示出通常的脉搏频率。在此,检测到的脉搏频率和服务机器人17的运动频率之间的差异能够保持恒定。风格化例如是指,眼睛可能是用硬件来实现的眼睛,例如,带有压印圆圈的球体和半球体,能够通过机械方式覆盖球体上的压印圆圈。也能够在显示器显示眼睛,比如以圆圈等形式。能够通过一条线上方的笑脸来定义嘴,笑脸可能有不同的朝向和/或弯曲度。
作为替代方案和/或补充方案,服务机器人17能够通过摄像头185识别和也跟踪人的胸腔,这比如能够通过OpenPose、OpenCV等架构实现,比如借助视觉上的人跟踪模块112和/或基于激光的人跟踪模块113。摄像头185和两个人跟踪模块112和113,必要时也包括激光雷达1等其它传感器,这也被称为人检测和跟踪单元4605。服务机器人17通过该人检测和跟踪模块4605能够检测人在时间进程中的比如反映呼吸的运动。当患者大致位于服务机器人正面时,该检测既应包括水平方向,也应包括深度上的运动。比如能够通过窗口范围为0.005Hz至0.125Hz、至少0.05Hz至0.08Hz的带通滤波器以及因此更快速的傅里叶变换测定这些运动。由此能够测定呼吸频率,它能够取代脉搏频率来反映患者运动,并且必要时能够用来使患者镇静。
通过运动频率测定单元4606检测脉搏率或脉搏频率和/或呼吸或者呼吸频率,该运动频率测定单元比如由摄像头185和在本文的其他位置处中描述过的计算机实现的用于测定脉搏率或脉搏频率和/或呼吸或呼吸频率的方法组成,其中也能够考虑人的其他运动。具体能够通过脉冲-呼吸分析单元4615检测和分析脉冲和/或呼吸放入参数。尤其是能够通过运动信号检测和处理单元4620来检测和分析呼吸,该运动信号检测和处理单元能够将身体的背景信号与其衣物的背景信号区分开来。为此,在本文的其他位置处中描述了信号处理的详细情况。所述的风格化的面部或面部元素、头、躯干或胸腔也被称为风格化的表现元素4625。通过运动单元4607以特定的频率移动它们。视风格化的表现元素的类型而定,这能够通过不同方式进行。比如显示器上的眼睛运动单纯基于软件来实现,而物理表现元素,比如需要伺服电机来实现,所述伺服电机例如能够使眼睑或风格化的胸腔运动。在另一方面,系统还具有人识别模块110、人身份识别模块111、跟踪模块(112、113)、和/或运动分析模块120。在图60中示出了系统的组件的概览
通过以下方面ASBPS1至ASBPS19来表征人的运动与服务机器人17的同步:
ASBPS1.用于同步人和系统的运动的系统,该系统包括人检测和跟踪单元(4605)、用于测定人的运动的频率的运动频率测定单元(4606)和用于以一定频率使得系统的风格化的表现元素(4625)运动的运动单元(4607),该频率处于人的运动的经测定的频率周围的经定义的带宽范围内。
ASBPS2.根据ASBPS1所述的系统,此外包括用于测量人的脉搏频率和/或呼吸频率的脉冲-呼吸分析单元(4615)。
ASBPS3.根据ASBPS1所述的系统,还包括用于通过带通滤波器检测和分析被检测的人的运动并且之后通过快速傅里叶变换处理经过带通滤波的信号的运动信号检测和处理单元(4620)。
ASBPS4.根据ASBPS1所述的系统,其中风格化的表现元素(4625)通过硬件和/或软件实现。
ASBPS5.根据ASBPS4所述的系统,其中通过软件实现的风格化的表现元素(4625)包括在显示器2上显示至少一个风格化的面部或面部元素。
ASBPS6.根据ASBPS5所述的系统,其中通过硬件实现的风格化的表现元素(4625)包括至少一个风格化的面部、面部元素或躯干或者胸腔。
ASBPS7.根据ASBPS5所述的系统,其中风格化的表现元素(4625)的运动包括通过运动单元(4607)而引起的风格化的面部、面部元素、躯干或胸腔的运动。
ASBPS8.根据ASBPS4所述的系统,其中通过运动单元(4607)激励风格化的表现元素,以模拟呼吸运动。
ASBPS9.根据ASBPS1所述的系统,其中使用该系统使人镇静。
ASBPS10.通过电脑执行的用于同步人和系统的运动的方法,包括
·检测和跟踪人的运动;
·测定人的运动的频率;
·以一定频率移动系统的风格化的表现元素(4625),该频率处于人的经检测的运动的经测定的频率的经定义的带宽范围内。
ASBPS11.根据ASBPS10所述的通过计算机实现的方法,其中被检测的人的运动经过带通滤波和傅里叶变换。
ASBPS12.根据ASBPS10所述的通过计算机实现的方法,其中风格化的表现元素(4625)的运动包括风格化的面部、面部元素、躯干或胸腔的运动和/或模拟呼吸。
ASBPS13.根据ASBPS10所述的通过计算机实现的方法,其中由运动单元(4607)将风格化的表现元素(4625)的运动保持得比检测到的人的运动频率更低。
ASBPS14.根据ASBPS10所述的通过计算机实现的方法,其中由运动单元(4607)将风格化的表现元素(4625)和人在时间进程内的运动之间的频率差大致保持恒定。
ASBPS15.根据ASBPS10所述的通过计算机实现的方法,其中被检测的人的运动是指脉搏频率和/或呼吸频率。
ASBPS16.根据ASBPS10所述的通过计算机实现的方法,其中由运动单元(4607)将风格化的表现元素(4625)的运动设定为一个比被检测的人的运动的频率更低的频率。
ASBPS17.根据ASBPS10所述的通过计算机实现的方法,其中由运动单元(4607)如此控制风格化的表现元素(4625)的运动,从而其在时间进程中更加缓慢。
ASBPS18.根据ASBPS10所述的通过计算机实现的方法,其中由运动单元(4607)将风格化的表现元素(4625)和人之间的频率差在时间进程内大致保持恒定。
ASBPS19.根据ASBPS10所述的通过计算机实现的方法,其中由运动单元(4607)启动的频率带宽从人的所测定的频率以50%的间隔向下和/或向上移动,或者以小于15%的间隔向下和/或向上移动。
示例5:用于执行起身和行走测试的方法、装置和/或系统
在此,通过以下方面ASASS1至ASASS20来表征与测定和起身及坐到座椅上有关的评分:
ASASS1.通过计算机实现的用于检测和分析人走过的距离的方法,包括通过输出单元输出指令;
·在时间进程中关于距离检测和跟踪一个人,其中
·这个人在起始位置和转身位置之间走过3m长的距离,并且总计走过6m
长的路段,包括在起始位置处的座椅。
ASASS2.根据ASASS1所述的通过计算机实现的方法,其中测定人走过距离通过:
·创建骨架模型;
·提取关节点和/或骨架模型的关节点之间的方向矢量的特征;
·如果达到高于地面的最小值,则对关节点进行特征分类,以便测定在矢状平面内的踝关节点之间的距离,其中矢状平面内的踝关节点之间的距离表示步长;
此外包括将步长相加,以便测定人走过的路段。
ASASS3.根据ASASS1所述的通过计算机实现的方法,其中通过跟踪人在起始位置和转身位置之间的运动来测定人走过的路段。
ASASS4.根据ASASS1所述的通过计算机实现的方法,包括检测人的旋转运动并与模态进行比较。
ASASS5.根据ASASS4所述的通过计算机实现的方法,其中在转身位置检测人的旋转运动。
ASASS6.根据ASASS1所述的通过计算机实现的方法,其中检测人的旋转运动,并且旋转运动的位置定义转身位置。
ASASS7.根据ASASS46所述的通过计算机实现的方法,其中检测旋转运动通过:
·创建骨架模型;
·提取关节点和/或骨架模型的关节点之间的方向矢量的特征;
·对关节点进行特征分类,以便测定对称地存在的关节点围绕延伸穿过人的铅垂线的旋转,和/或
·对关节点进行特征分类,以便测定对称地存在的关节点与连接起始位置和转身位置的直线超过160°的角度变化。
ASASS8.根据ASASS1所述的通过计算机实现的方法,其中通过检测到的地面上的标记测定转身位置。
ASASS9.根据ASASS1所述的通过计算机实现的方法,此外包括测定人从座椅上起身和/或人自主地坐在座椅上。
ASASS10.根据ASASS9所述的通过计算机实现的方法,其中通过分析上半身在时间进程内的倾斜度来测定人从座椅上起身和/或人自主地坐在座椅上。
ASASS11.根据ASASS10所述的通过计算机实现的方法,其中在时间进程内通过以下方式分析上半身的倾斜度
·创建骨架模型;
·提取关节点和/或骨架模型的关节点之间的方向矢量的特征;
·对关节点进行特征分类,以便测定髋关节点和肩关节点和/或头关节点之间的方向矢量的朝向,并将朝向与阈值和/或模态进行比较,和/或
·对关节点进行特征分类,以便测定从膝关节点向髋关节点和/或踝关节点方向朝向的方向矢量之间的角度变化,并将角度变化与阈值和/或模态进行比较。
ASASS12.根据ASASS10所述的通过计算机实现的方法,其中通过分析人的身高和/或人与阈值和/或模态相比的高度变化,测定人从座椅上起身和/或人自主地坐在座椅上。
ASASS13.根据ASASS10所述的通过计算机实现的方法,其中通过检测、跟踪和分析人的头在时间进程内的运动以及识别到的头在矢状平面内的至少部分圆周运动,来测定人从座椅上起身和/或人自主地坐在座椅上。
ASASS14.根据ASASS1所述的通过计算机实现的方法,还包括检测和分析人从座椅上起身和/或人自主地坐在座椅上之间的时间,或者测定用于走过所述路段所需的时间。
ASAS15.根据ASASS14所述的通过计算机实现的方法,还包括创建用于所测定的时间的评分。
ASASS16.根据ASASS1所述的通过计算机实现的方法,还包括执行人的听力、视力和/或精神能力测试。
ASASS17.用于执行根据ASASS1-ASASS16所述的方法的装置。
ASASS18.一种系统,该系统包括计算机(9)、存储器(10)和至少用于非接触地检测人的运动的传感器,带有座椅探测模块(4540)、输出装置,比如扬声器(192)和/或用于传输指令的显示器(2)、用于测定走过路段所用的持续时间的持续时间-路段模块(4510)和/或用于测定被检测的人在路段上的速度的速度-路段模块(4515)以及用于评估用于走过所述路段的时间的持续时间-路段评估模块(4520)。
ASASS19.根据ASASS18所述的系统,还包括听力测试单元(4525)、视力测试单元(4530)和/或精神能力测试单元(4535)。
ASASS20.根据ASASS18所述的系统,还包括用于将转身位置投影到地面上的投影装置(920)。
示例6:用于分析简易心理测试纸折叠练习的方法、装置和系统
通过以下方面AMMTF1至AMMTF25来表征对于在分析折叠练习中的评分的测定:
AMMTF1.通过计算机实现的用于检测和分析折叠过程的方法,包括
·检测、识别和跟踪人的至少一只手;
·检测、识别和跟踪纸;
·共同将检测到的纸和手元素的尺寸、形状和/或运动分类为折叠过程。
AMMTF2.根据AMMTFG1所述的通过计算机实现的方法,包括纸在大致中心位置的折叠。
AMMTF3.根据AMMTFG1所述的通过计算机实现的方法,其中跟踪人的至少一只手包含创建人的至少一只手的骨架模型。
AMMTF4.根据AMMTFG1所述的通过计算机实现的方法,包括通过容错分段算法识别纸。
AMMTF5.根据AMMTFG4所述的通过计算机实现的方法,还包括基于与二维或三维模态比较来进行纸识别和/或折叠过程的分类。
AMMTF6.根据AMMTFG1所述的通过计算机实现的方法,其中折叠过程的分类包括触控至少一根大拇指和至少另一根手指的手指尖端或者指尖作为手部运动。
AMMTF7.根据AMMTFG1所述的通过计算机实现的方法,其中折叠过程的分类包括探测利用手的至少一个元素接合的纸的形状变化。
AMMTF8.根据AMMTFG1所述的通过计算机实现的方法,包括识别和跟踪纸的至少一个拐角和/或边缘。
AMMTF9.根据AMMTFG8所述的通过计算机实现的方法,还包括在时间进程内测定纸的至少两个拐角和/或边缘之间的距离。
AMMTF10.根据AMMTFG9所述的通过计算机实现的方法,还包括通过将测定的距离与阈值和/或模态进行比较,来对折叠过程进行分类,并且在测定的距离低于阈值和/或探测到最低模态相似性时探测折叠过程。
AMMTF11.根据AMMTFG1所述的通过计算机实现的方法,其中折叠过程的分类包括探测超过某一阈值和/或具有最低模态相似性的纸的弯曲。
AMMTF12.根据AMMTFG1所述的通过计算机实现的方法,其中折叠过程的分类包括减少至少两个纸边缘之间的距离。
AMMTF13.根据AMMTFG1所述的通过计算机实现的方法,其中折叠过程的分类包括大致平行对准纸边缘两端和/或纸边缘两端小于20mm的距离。
AMMTF14.根据AMMTFG1所述的通过计算机实现的方法,其中折叠过程的分类包括纸在时间进程中检测和跟踪到的超过40%的尺寸减小幅度。
AMMTF15.根据AMMTFG1所述的通过计算机实现的方法,还包括在显示器2上输出和/或有关纸的折叠和放下纸的语音输出或纸的折叠和让纸落下。
AMMTF16.根据AMMTFG15所述的通过计算机实现的方法,还包括在时间进程中检测纸和在探测到折叠过程并放下和/或让纸落下之后调整在存储器中的一个值。
AMMTF17.用于执行根据AMMTFG1-AMMTFG16所述的方法的装置。
AMMTF18.系统,该系统包括计算机(9)、存储器(10)和用于非接触地检测人的运动的传感器,在存储器(10)中包括用于探测纸的纸探测模块(4705)以及用于测定折叠运动测定模块(4710)。
AMMTF19.根据AMMTFG18所述的系统,其中系统具有用于创建人的骨架模型或者人的各个部分的骨架创建模块(5635)。
AMMTF20.根据AMMTFG18所述的系统,其中折叠运动测定模块(4710)有用于探测纸的边缘和/或拐角的距离的纸距离-拐角边缘模块(4720)、纸形状变化模块(4725)、纸弯曲模块(4730)、纸尺寸模块(4740)和/或纸边缘朝向模块(4745)。
AMMTF21.根据AMMTFG18所述的系统,还包括用于探测至少一只手的指尖距离的指尖距离模块(4750)。
AMMTF22.根据AMMTFG18所述的系统,其中纸探测模块(4705)包括纸分段模块(4755)和/或纸分类模块(4760)。
AMMTF23.根据AMMTFG18所述的系统,包括输出装置,比如用于传输指令的扬声器(192)和/或显示器(2)。
AMMTF24.根据AMMTFG18所述的系统,包括通向终端(13)的接口(188)。
AMMTF25.根据AMMTFG18所述的系统,其中用于非接触地检测人的运动的至少一个传感器是2D和/或3D摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)。
示例7:操纵识别
在此,通过以下方面AM1至AM18来表征识别操纵:
AM1.通过计算机实现的用于测定机器人处的操纵概率的方法,包括
·检测和跟踪机器人的周围环境中的至少一个人,并
·测定该人操纵机器人的概率。
AM2.根据AM1所述的通过计算机实现的方法,还包括
·测定机器人的周围环境中的至少一个人的位置,并
·测定至少一个人与机器人的距离。
AM3.根据AM2所述的通过计算机实现的方法,还包括在测定低于至少一个人与机器人的距离阈值时测定增加的操纵概率。
AM4.根据AM1所述的通过计算机实现的方法,包括创建被检测和被跟踪人的骨架模型以及提取和分类关节点。
AM5.根据AM4所述的通过计算机实现的方法,还包括测定人相对于机器人的朝向。
AM6.根据AM5所述的通过计算机实现的方法,还包括通过测定人的正面和垂直位于机器人的操作元件186上的轴线之间的分别投影到水平平面中的角度来测定人相对于机器人的朝向,并且将测定的角度与阈值进行比较,其中低于阈值包括探测到增加的操纵概率。
AM7.根据AM1所述的通过计算机实现的方法,还包括
·人在机器人上登录,以及
·检测和保存人的身份识别特征。
AM8.根据AM7所述的通过计算机实现的方法,还包括
·检测和跟踪人;
·检测人的身份识别特征;
·将检测到的身份识别特征与根据AM7保存的人的身份识别特征进行比较并与阈值进行比较;
·如果低于阈值,将探测到增加的操纵概率,并且如果超过阈值,则将探测到更低的操纵概率。
AM9.根据AM3、AM6和/或AM8所述的通过计算机实现的方法,包括乘以操纵概率,以便测定操纵评分。
AM10.根据AM9所述的通过计算机实现的方法,包括由机器人对人执行分析,并且将操纵评分与分析结果一起保存。
AM11.用于执行根据AM1-AM10所述的方法的装置。
AM12.系统,该系统包括计算机(9)、存储器(10)和用于非接触地检测至少一个人的运动的传感器,包括用于探测通过至少一个人进行操纵尝试的操纵尝试探测模块(4770)。
AM13.根据AM12所述的系统,还包括人身份识别模块(111)。
AM14.根据AM12所述的系统,还包括用于测定至少一个人与机器人的距离的人-机器人距离测定模块(4775)。
AM15.根据AM14所述的系统,其中人-机器人距离测定模块(4775)具有用于估计至少一个人的尺寸、臂长和/或其相对于机器人的朝向的尺寸-臂长朝向模块(4780)。
AM16.根据AM13所述的系统,还包括一个用于比较是否在系统上登记的人是否被系统检测到,或者通过操作元件(186)在系统上进行输入的输入登记比较模块(4785)。
AM18.根据AM12所述的系统,其中至少一个用于非接触地检测至少一个人的运动的传感器是2D和/或3D摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)。
示例8:识别操纵2
在此,通过以下方面AMM1至AMM17来表征识别操纵:
AMM1.通过计算机实现的用于测定机器人处的操纵概率的方法,包括
·通过非接触式的传感器检测和跟踪机器人的周围环境中的至少一个人;·测定机器人的周围环境中的人的位置;
·记录和分析音频信号;
·测定音频信号的来源位置;
·将测定的人位置和音频信号的来源位置进行比较,并且将位置差与阈值进行比较,并
·基于位置差与阈值的比较来测定机器人的操纵概率。
AMM2.根据AMM1所述的通过计算机实现的方法,其中通过至少一个麦克风和测定方向的三角测量通过检测音频信号的方向来测定音频信号的来源位置。
AMM3.根据AMM1所述的通过计算机实现的方法,其中测定音频信号的来源位置包括
·通过麦克风检测音频信号的方向;
·通过非接触式的传感器测定至少一个人的位置;
·音频信号的方向和人的经测定的位置的三角测量。
AMM4.根据AMM1所述的通过计算机实现的方法,还包括
·分析人的面部;
·检测在时间进程中的唇部运动;
·在时间上将检测到的音频信号与检测到的唇部运动与阈值的关系进行比较,并
·根据阈值将检测到的音频信号与被检测的人对应起来。
AMM5.根据AM1所述的通过计算机实现的方法,还包括
·人在机器人上登录,以及
·检测和保存人的身份识别特征,其中身份识别特征包括来自人的音频信号的频率、强度和/或频谱。
AMM6.根据AM5所述的通过计算机实现的方法,还包括
·检测和跟踪人;
·检测人的身份识别特征;
·将检测到的身份识别特征与根据AM5保存的人的身份识别特征进行比较并与阈值进行比较;
·在操作元件(186)处登记人的输入内容,并
·将登记的人是否在操作元件(186)处进行了输入对应起来。
AMM7.根据AM5所述的通过计算机实现的方法,还包括如果未登记的人在机器人的操作元件(186)上进行了输入,则能够测定增加的机器人操纵概率。
AMM8.根据AMM1所述的通过计算机实现的方法,还包括
·测定检测到的音频信号中的单词和/或词序;
·将测定的单词和/或词序与被检测的人对应起来;
·通过比较测定的单词和/或词序并评估与阈值的关系,测定机器人操纵的概率。
AMM9.根据AMM1所述的通过计算机实现的方法,包括
·测定由人通过操作元件(186)输入的单词或词序;
·测定检测到的音频信号中的单词和/或词序;
·将从检测到的音频信号中测定的单词和/或词序与被检测的人对应起来;
·检测人的身份识别特征;
·如果将通过操作元件(186)输入的词序与从检测到的音频信号测定的词序进行比较时发现高于阈值的一致性并且同时在比较被检测的人身份特征与登录时检测到和保存的身份特征时存在高于阈值的一致性,则会测定增加的机器人操纵概率。
AMM10.根据AMM1所述的通过计算机实现的方法,其中通过重新定位麦克风测定音频信号的来源位置,并且利用之后的三角测量检测两个麦克风位置的音频信号。
AMM11.根据AMM1所述的通过计算机实现的方法,包括通过乘以所测定的操纵概率来测定操纵评分。
AMM12.用于执行根据AMM1-AMM11所述的方法的装置。
AMM13.用于基于音频信号来分析操纵的系统,包括计算机(9)、存储器(10)、操作元件(186)、用于非接触地检测人的运动的传感器、操纵尝试探测模块(4770)、至少一只麦克风(193)、用于测定人的位置的人位置测定模块(4415)、用于确定音频信号的空间来源的音频源位置测定模块(4420)、用于比较两个音频信号的音频信号比较模块(4425)和用于将音频信号与人对应的音频信号人模块(4430)。
AMM14.根据AMM13所述的系统,包括语音分析模块(132)。
AMM15.根据AMM13所述的系统,包括输入登记比较模块(4785),它用于比较是否是被系统识别出身份的人在系统上进行了输入。
AMM16.根据AMM13所述的系统,其中用于非接触地检测人的运动的传感器是2D和/或3D摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)。
AMM17.根据AMM13所述的系统,包括用于比较音频序列的音频序列输入模块(4435),该音频序列带有按次序以触觉的形式输入的字母序列。
示例9:光谱测量法
在此,通过以下方面ASP1至ASP20来表征光谱测量法:
ASP1.通过计算机实现的对人的至少一个身体区域进行光谱分析的方法,包括
·检测、跟踪和生成人的图像;
·将生成的人图像分段成各个身体区域;
·通过分类确定身体区域;
·将光谱仪(196)与保存的身体区域对准。
ASP2.根据ASP1所述的通过计算机实现的方法,其中身体区域是指人的前额、手背和/或上半身。
ASP3.根据ASP1所述的通过计算机实现的方法,还包括
·测定特定身体区域在时间进程中的运动;
·将测定的身体区域的运动与阈值和/或模态进行比较;
·用光谱仪(196)根据阈值比较和/或模态比较在特定的身体区域上执行测量。
ASP4.根据ASP3所述的通过计算机实现的方法,还包括
·在测量期间监控身体区域的运动,并执行阈值比较和/或模态比较;
·根据阈值比较和/或模态比较来中断测量。
ASP5.根据ASP1所述的通过计算机实现的方法,包括
·通过与参考光谱进行比较对测量到的光谱进行分类,并
·基于分类在质量和/或数量上确定测量到的至少一种物质。
ASP6.根据ASP5所述的通过计算机实现的方法,包括
·将测定的物质在数量和/或质量上与保存的数据进行比较,并
·创建疾病图像的诊断。
ASP7.根据ASP1所述的通过计算机实现的方法,包括环境温度的分析。
ASP8.根据ASP5所述的通过计算机实现的方法,包括人的出汗的定量分析。
ASP9.根据ASP1所述的通过计算机实现的方法,包括测定精神错乱探测评分。
ASP10.根据ASP1所述的通过计算机实现的方法,包括测定人的认知能力。
ASP11.用于执行根据ASP1-ASP10所述的方法的装置。
ASP12.系统,该系统包括计算机(9)、存储器(10)和用于非接触地检测至少一个人的运动的传感器,还包括一台光谱仪(196)、视觉上的人跟踪模块(112)、用于探测身体区域的身体区域探测模块(4810)、用于将光谱仪(196)对准人的身体区域的光谱仪对准单元(4805),并通过访问具有参考光谱的参考光谱数据库(4825)为测定测量到的物质而比较测量到的光谱。
ASP13.根据ASP12所述的系统,包括用于监控光谱仪(196)的测量过程的光谱仪测量模块(4820)。
ASP14.根据ASP12所述的系统,其中视觉上的人跟踪模块(112)包括身体区域跟踪模块(4815)。
ASP15.根据ASP12所述的系统,包括访问保存有疾病图像的疾病图像数据库(4830)。
ASP16.根据ASP12所述的系统,包括用于定量地测定人的出汗的出汗模块(4835)。
ASP17.根据ASP12所述的系统,包括用于测定精神错乱探测评分的精神错乱探测评分测定模块(4840)。
ASP18.根据ASP12所述的系统,包括用于评估人的认知能力的认知能力评估模块(4845)。
ASP19.根据ASP12所述的系统,包括温度计(4850)。
ASP20.根据ASP12所述的系统,其中至少一个用于非接触地检测人的运动的传感器是2D和/或3D摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)。
示例10:注意力分析
在此,通过以下方面AAA1至AAA18来表征注意力分析:
AAA1.用于将触觉传感器(4905)的检测到的信号与输出的声音信号的序列进行比较的通过计算机实现的方法,包括
·输出脉冲的声音信号的序列;
·通过触觉传感器(4905)检测信号;
·将输出的声音信号序列与由触觉传感器(4905)检测到的信号进行比较。
AAA2.根据AAA1所述的通过计算机实现的方法,使用约0.3至3Hz的脉冲信号的脉搏频率。
AAA3.根据AAA1所述的通过计算机实现的方法,在输出的脉冲声音信号与由触觉传感器(4905)检测到的信号之间有延迟或相移。
AAA4.根据AAA3所述的通过计算机实现的方法,其中延迟或相移约为脉冲长度的一半。
AAA5.根据AAA3所述的通过计算机实现的方法,其中触觉传感器(4905)的检测到的信号跟踪脉冲音序。
AAA6.根据AAA1所述的通过计算机实现的方法,包括将值与每个输出的声音信号对应起来。
AAA7.根据AAA6所述的通过计算机实现的方法,还包括在达到定义的值之后探测到信号时调整一个值。
AAA8.根据AAA7所述的通过计算机实现的方法,其中调整所述值是指所述值的递增。
AAA9.根据AAA7所述的通过计算机实现的方法,还包括基于经调整的值来创建诊断。
AAA10.根据AAA9所述的通过计算机实现的方法,其中诊断是指估计认知能力。
AAA11.根据AAA1所述的通过计算机实现的方法,包括检测人和探测以及确定人的一只手的位置。
AAA12.根据AAA11所述的通过计算机实现的方法,包括在低于某一阈值的与手的距离内定位触觉传感器(4905)。
AAA13.用于执行根据AAA1-AAA12所述的方法的装置。
AAA14.系统,该系统包括计算机(9)、存储器(10)、声音信号输出单元(192)、触觉传感器(4905)以及用于分析触觉传感器(4905)的信号的触觉传感器分析单元(4910)和用于比较检测到的信号是否在输出声音信号之后出现的触觉传感器输出比较模块(4915)。
AAA15.根据AAA14所述的系统,包括执行器(4920),在执行器上定位有所述触觉传感器(4905)。
AAA16.根据AAA14所述的系统,包括用于在所定义的相对于手的距离内定位触觉传感器(4905)的执行器定位单元(4925)。
AAA17.根据AAA14所述的系统,包括摄像头(185)、人身份识别模块(111)和手识别模块(4930)。
AAA18.根据AAA14所述的系统,包括用于评估人的认知能力的认知能力评估模块(4845)。
示例11:认知分析
在此,通过以下方面AKA1至AKA16来表征认知分析:
AKA1.通过计算机实现的方法,该方法用于以视频信号为基础将人的所测定的手指姿势与以光和/或声学形式输出的数值进行比较,包括
·通过以光和/或声学形式输出数值;
·检测和跟踪人的手指;
·测定手指姿势;
·评估手指姿势,和
·将所评估的手指姿势与以光和/或声学形式输出的数值进行比较。
AKA2.根据AKA1所述的通过计算机实现的方法,其中手指姿势显示数值。
AKA3.根据AKA2所述的通过计算机实现的方法,其中数值能够显示多种手指姿势。
AKA4.根据AKA1所述的通过计算机实现的方法,其中数值的光输出是指通过执行器(4920)输出手指姿势。
AKA5.根据AKA1所述的通过计算机实现的方法,还包括检测和跟踪人的头以及测定人的视线范围。
AKA6.根据AKA5所述的通过计算机实现的方法,还包括在人的视线范围内定位执行器(4920)和/或显示器(2)。
AKA7.根据AKA1所述的通过计算机实现的方法,还包括将所评估的手指姿势与以光和/或声学形式输出的数值进行比较而实现的评估,来测定人的认知能力。
AKA8.用于执行根据AKA1-AKA7所述的方法的装置。
AKA9.系统,该系统包括计算机(9)、存储器(10)、输出单元和用于输出数值的数值输出模块(4940)、人检测和跟踪单元(4605),该人检测和跟踪单元具有摄像头(185)和人识别模块(110)。
AKA10.根据AKA9所述的系统,其中输出单元是声音发生器,比如扬声器(192)、显示器(2)或执行器(4920)。
AKA11.根据AKA10所述的系统,其中执行器(4920)是指机器人手臂。
AKA12.根据AKA10所述的系统,其中执行器(4920)具有一只机器人手(4950)。
AKA13.根据AKA9的系统,还包括探测人的手势的手势探测模块(4960)。
AKA14.根据AKA12所述的系统,其中系统包括用于生成机器人手(4950)的手指姿势的手指姿势生成模块(4955)。
AKA15.根据AKA9所述的系统,其中该系统与患者管理模块(160)连接。
AKA16.根据AKA9的系统,还包括用于评估被检测的人的认知能力的认知能力评估模块(4845)。
示例12:确定疼痛状态
在此,通过以下方面ASB1至ASB23来表征疼痛状态确定:
ASB1.通过计算机实现的用于测定人的疼痛状态的方法,包括
·检测人,
·识别人的面部,
·选择面部内的候选区域;
·提取候选区域的表面弯曲的特征;
·对候选区域的表面弯曲单独和/或综合进行分类,其中描述了疼痛状态的分类。
ASB2.根据ASB1所述的通过计算机实现的方法,其中单独和/或综合进行对于候选区域的表面弯曲的分类是指测定情绪。
ASB3.根据ASB2所述的通过计算机实现的方法,还包括为情绪分配标度值和通过标度盘评估情绪。
ASB4.根据ASB2所述的通过计算机实现的方法,还包括时间进程内的情绪分析。
ASB5.根据ASB1所述的通过计算机实现的方法,还包括
·检测一张床,并且创建床的图像;
·通过与模态进行比较对床的图像进行分类,以探测待检测的人。
ASB6.通过计算机实现的用于测定人的疼痛状态的方法,包括
·在时间进程内检测和跟踪人的上肢;
·分析躯干和上臂、上臂和下臂和/或指关节和掌骨之间的角度,其中角度分析描述了疼痛状态。
ASB7.根据ASB6所述的通过计算机实现的方法,还包括分析
·角度变化的强度;
·角度变化的速度,和/或
·每个时间单位内的角度变化的次数。
ASB8.根据ASB7所述的通过计算机实现的方法,还包括分配标度值,以分析角度变化。
ASB9.通过计算机实现的用于测定人的疼痛状态的方法,包括
·记录声音信号;
·通过疼痛分类分析声音信号,以便测定记录到的声音信号是否代表疼痛发声;
·通过疼痛程度分类来评估被分类为疼痛发声的声音信号,其中
·疼痛程度分类包括将标度值分配给记录到的声音信号,并且标度值代表一种疼痛状态。
ASB10.根据ASB9所述的通过计算机实现的方法,包括
·确定声音信号的来源位置;
·确定测定到人的疼痛状态的位置;
·通过与阈值进行比较来调整所测定的位置;
·参考测定的疼痛状态根据阈值比较来保存一个值。
ASB11.通过计算机实现的用于测定人的疼痛状态的方法,包括
·检测人,
·人的面部和颈部识别,
·根据模态来分析面部和颈部区域,所述模态描述用于进行人工呼吸的装置;
·在探测到描述用于进行人工呼吸的装置的模态时保存一个值,其中用于进行人工呼吸的装置描述一种疼痛状态。
ASB12.根据ASB1、ASB6、ASB9或ASB11所述的通过计算机实现的方法,其中并行或按照顺序执行所述方法中的至少两种方法。
ASB13.根据ASB1、ASB6、ASB9或ASB11所述的通过计算机实现的方法,还包括分析在精神错乱探测内测定的标度值或保存的值。
ASB14.用于执行根据ASB1-ASB13所述的方法的装置。
ASB15.用于测定人的疼痛状态的系统,包括计算机(9)、存储器(10)、用于非接触地检测人的传感器和疼痛状态计算模块(5040)。
ASB16.根据ASB15所述的系统,包括用于识别人的面部的面部识别模块(5005)、用于从面部中选择候选区域的面部候选区域模块(5010)、用于对面部表情的候选区域的表面弯曲进行分类的情绪分类模块(5015)和用于测定情绪标度值的情绪评估模块(5020)。
ASB17.根据ASB15所述的系统,包括用于识别床的床识别模块(5025)。
ASB18.根据ASB15所述的系统,包括人识别模块(110)、视觉上的人跟踪模块(112)、用于探测和跟踪人的上肢以及分析上肢的角度的上肢分析模块(5035)。
ASB19.根据ASB15所述的系统,包括用于记录声音信号的麦克风(193)、用于对声音信号的强度和频率进行分类并测定代表疼痛发声的标度值的疼痛发声模块(5055)。
ASB20.根据ASB19所述的系统,还包括用于分析声音信号的来源位置的音频源位置测定模块(4420)以及用于将音频信号与人对应起来的音频信号-人模块(4430)。
ASB21.根据ASB15所述的系统,包括用于识别用于进行人工呼吸的装置的人工呼吸装置识别模块(5065)。
ASB22.根据ASB15所述的系统,包括用于分析固定在人身上的传感器的疼痛敏感度分析模块(5085)。
ASB23.根据ASB15所述的系统,其中用于非接触地检测人的传感器是2D和/或3D摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)。
示例13:血压
在此,通过以下方面AB1至AB16来表征测定血压:
AB1.通过计算机实现的用于测定心血管参数的方法,包括
·检测和跟踪人的面部;
·选择面部内的候选区域;
·检测和分析面部的候选区域内的由心血管活动引起的活动。
AB2.根据AB1所述的通过计算机实现的方法,其中这些运动包括动脉中的血液流动活动。
AB3.根据AB1所述的通过计算机实现的方法,其中运动包括面部表面和/或头的运动。
AB4.根据AB1所述的通过计算机实现的方法,包括运动的二维和/或三维检测。
AB5.根据AB1所述的通过计算机实现的方法,包括单独和/或综合分析候选区域。
AB6.根据AB1所述的通过计算机实现的方法,还包括
·照亮面部,和
·在正面检测面部。
AB7.根据AB1所述的通过计算机实现的方法,其中分析运动包括对运动进行分类,以便测定心脏收缩压和心脏舒张压。
AB8.根据AB1所述的通过计算机实现的方法,还包括
·测定面部在空间中的朝向,
·将面部的检测角度降至最小幅度,该检测角度由垂直于用于检测面部的传感器的轴线和垂直于面部的矢状平面的轴线得出。
AB9.用于执行根据AB1-AB8所述的方法的装置。
AB10.用于测定人的心血管参数的系统,包括计算机(9)、存储器(10)和摄像头(185),还包括用于探测身体区域的身体区域探测模块(4810)、身体区域跟踪模块(4815)、用于检测由心血管活动引起的运动的心血管活动模块(5110)。
AB11.根据AB10所述的系统,还包括面部识别模块(5005)和面部候选区域模块(5010)。
AB12.根据AB10所述的系统,其中摄像头(185)至少提供了8位的绿色颜色通道。
AB13.根据AB10所述的系统,还包括在通过摄像头(185)进行记录期间用于照亮面部的灯(5120)。
AB14.根据AB13所述的系统,其中灯被定位在摄像头(185)的上方和/或下方。
AB15.根据AB10所述的系统,包括用于测定心脏收缩和心脏舒张血压的血压测定模块(5125)。
AB16.根据AB10所述的系统,还包括翻转单元(5130),以最小化摄像头(185)相对于矢状平面的检测角度,和/或运动规划器(104),以便相对于检测到的面部重新定位摄像头(185)。
示例14:物质测量
在此,通过以下方面AG1至AG20来表征测量皮下物质、诸如葡萄糖:
AG1.用于测量人的皮肤上和/或皮肤内的物质的系统,包括带有分析激光器(5205)和另一个激光器(5210)的探测器(195),其中分析激光器(5205)从进入介质(5215)起比如偏转晶体表面,并且另一个激光器(5210)通过波长的变化激励物质,其中经激励的物质区域在分析激光器(5205)偏转的位置上与介质(5215)接合,该系统还包括用于特征提取和对另一个激光器特征的波长变化进行特征分类的激光器变化模块(5225)以及用于对分析激光器的偏转进行分析的激光器偏转分析模块(5220)。
AG2.用于测量人的皮肤上和/或皮肤内的物质的系统包括带有介质(5215)的探测器(195),这种介质由具有立方体、六角形或四边形晶格结构,折射率为1-4,频谱宽度间隔为100nm-20000nm的晶体组成。
AG3.根据AG1和AG2所述的系统,还包括用于非接触地检测人的传感器,用于分析人的经检测的运动的运动分析模块(120)和用于自动地识别手指在介质(5215)上的定位和实现测量的开始的手指定位识别模块(5230)。AG4.根据AG1和AG2所述的系统,还包括分析激光器(5205)和另一个激光器(5210),其中分析激光器(5205)从晶体表面开始偏转,并且另一个激光器(5210)通过波长的变化来激励物质,其中经激励的物质区域在分析激光器(5210)偏转的位置上与介质(5215)接合。
AG5.根据AG1和AG2所述的系统,还包括用于对另一个激光器(5210)的波长变化进行特征提取和特征分类的激光器变化模块(5225)以及用于对分析激光器(5205)的偏转进行分析的激光器偏转分析模块(5220)。
AG6.根据AG1和AG2所述的系统,其中通过传感器基于光电效应(5250)对分析激光器(5205)进行分析。
AG7.根据AG1和AG2所述的系统,还包括用于将数据传输到患者管理系统(160)中的接口。
AG8.根据AG1和AG2所述的系统,其中探测器(195)被定位在执行器(4920)上。
AG9.根据AG1和AG2所述的系统,还包括用于非接触地检测人的传感器,诸如2D和/或3D摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)。
AG10.根据AG9所述的系统,还包括身体区域探测模块(4810)和用于跟踪测量区域的身体区域跟踪模块(4815)。
AG11.用于测量人的皮肤上和/或皮肤内的物质的系统,具有:摄像头(185)和能够对准摄像头(185)的翻转单元(5130),身体区域探测模块(4810)和身体区域跟踪模块(4815),至少一个能够照亮人的待检测的皮肤的光源(5270),使由至少一个光源发射的光的波长变化的波长变化单元(5275)以及用于分析检测到的信号的波长变化的波长变化分析单元(5280)。
AG12.根据AG11所述的系统,其中至少一个光源(5270)是激光器和/或多个有不同频谱的LED灯,能够对这些灯进行相应操控。
AG13.根据AG11所述的系统,其中发射的光的波长在550nm至1600nm之间。
AG14.根据AG11所述的系统,其中发射的光的波长在900nm至1200nm之间。
AG15.根据AG11所述的系统,其中摄像头(185)具有由砷化镓铟或硫化铅构成的光探测器。
AG16.根据AG11所述的系统,包括另一个用于探测频谱为400-800nm的光的摄像头(185)。
AG17.根据AG1、AG2和AG11所述的系统,其中系统通过材料分类模块(5295)提取特征并对检测到的光信号进行特征分类,并且比较保存在存储器中的物质数据中经分类的光信号。
AG18.通过计算机实现的用于测量人的皮肤上和/或皮肤内的物质的方法,包括
·将摄像头(185)与人的皮肤表面对准;
·在时间进程内检测和跟踪人的表面;
·使用光源(5270)照向人;
·改变由至少一个光源(5270)发射的光的波长;
·探测反射到皮肤表面和/或皮肤内的光;
·通过将经分析的特征与保存的特征进行比较,至少分析探测到的光。
AG19.根据AG18所述的通过计算机实现的方法,还包括测定位于皮肤表面上和/或皮肤内的物质的浓度。
AG20.用于执行根据AG19-AG20所述的方法的装置。
示例15:术后老年痴呆/精神错乱的基于经验值的预测
在此,通过以下方面AEPPD1至AEPPD8来表征术后老年痴呆和/或精神错乱的基于经验值的预测:
AEPPD1.通过计算机实现的用于预测术后老年痴呆/精神错乱的方法,包括·在时间进程中检测人;
·基于在时间进程中检测人来测定人的健康状态数据;
·获取人的术前数据;
·获取人的干预数据;
·通过计算术前数据和干预数据的参数的权重估计,测定术前数据和干预数据对人的健康状态数据的影响。
AEPPD2.根据AEPPD1所述的通过计算机实现的方法,还包括基于权重估计和人的新获取的术前数据和干预数据来预测经检测的人的健康状态。
AEPPD3.根据AEPPD2所述的通过计算机实现的方法,其中自动部分地检测人。
AEPPD4.根据AEPPD2所述的通过计算机实现的方法,其中通过服务机器人(17)检测人。
AEPPD5.根据AEPPD1所述的通过计算机实现的方法,其中使用机器学习方法来估计权重。
AEPPD6.根据AEPPD2所述的通过计算机实现的方法,其中健康状态预测为出现术后老年痴呆/精神错乱的预测。
AEPPD7.根据AEPPD1所述的通过计算机实现的方法,其中向服务机器人(17)传输权重估计。
AEPPD8.用于执行根据AEPPD1-AEPPD7所述的方法的装置。
示例16:探测表面上的湿度
在此,通过以下方面ADFO1至ADFO18来表征评估表面上的湿度:
ADFO1.通过计算机实现的用于评估表面上的湿度的位置的方法,包括
·检测表面;
·对表面特性进行分类,以探测被检测表面上的湿度;
·将检测到的表面分段为潮湿区域和非潮湿区域;
·测定被检测区域的宽度;
·通过与保存的至少一个值进行比较,来评估被检测区域的宽度。
ADFO2.根据ADFO1所述的通过计算机实现的方法,其中垂直于系统的运动方向测定宽度。
ADFO3.根据ADFO2所述的通过计算机实现的方法,包括在测定的宽度超过某一阈值时在一块被评估为干燥的区域内移动系统。
ADFO4.根据ADFO1所述的通过计算机实现的方法,包括通过输出单元输出,其中指向被评估为潮湿的面。
ADFO5.根据ADFO2所述的通过计算机实现的方法,包括当被评估为潮湿的区域的测定的宽度超过某一阈值和/或被评估为干燥的区域的宽度低于某一阈值时中断系统移动。
ADFO6.根据ADFO2所述的通过计算机实现的方法,包括在测定被评估为潮湿的区域的宽度超过某一阈值时,修改在存储器中的值和/或传输这一消息。
ADFO7.根据ADFO1所述的通过计算机实现的方法,包括在测定被评估为干燥的区域的宽度低于某一阈值时,修改在存储器中的值和/或传输这一消息。
ADFO8.通过计算机实现的用于评估表面上的湿度的位置的方法,包括
·检测表面;
·对表面特性进行分类,以探测表面上的湿度;
·将检测到的表面分段为潮湿区域和非潮湿区域;
·将潮湿的区域作为障碍物保存到地图中。
ADFO9.根据ADFO8所述的通过计算机实现的方法,其中地图包含各类障碍物。
ADFO10.根据ADFO8所述的通过计算机实现的方法,包括
·测定被分类为湿的表面,它显示出最小尺寸;
·通过输出单元进行输出,和/或
·传输消息,和/或
·修改在存储器(10)中的值。
ADFO11.根据ADFO1或ADFO8所述的通过计算机实现的方法,包括在探测其宽度超过某一阈值并被检测为潮湿的表面时修改路径规划。
ADFO12.用于执行根据ADFO1-ADFO11所述的方法的装置。
ADFO13.用于评估表面上的湿度的系统,包括用于非接触地检测表面的传感器、用于将被检测的表面进行分段的分段模块(5705)、用于在表面上的湿度方面对分段进行分类的湿度测定模块(5305)和用于评估表面的经分类的分段的尺寸的湿度评估模块(5310)。
ADFO14.根据ADFO13所述的系统,还包括地图模块(107),它包含在系统的周围环境中的障碍物以及在湿度方面经过分类的分段。
ADFO15.根据ADFO13所述的系统,还包括运动规划器(104)和/或路径规划模块(103)。
ADFO16.根据ADFO13所述的系统,还包括输出单元(2或192)以及保存在存储器(10)中的用于指示出被认定为潮湿的面的输出内容。
ADFO17.根据ADFO13所述的系统,其中用于非接触地检测表面的传感器是摄像头(185)或雷达传感器(194)。
ADFO18.根据ADFO13所述的系统,其中系统是指服务机器人(17)。示例17:用于探测跌倒的方法
在此,通过以下方面ASE1至ASE17来表征跌倒识别:
ASE1.通过计算机实现的用于探测人的跌倒的方法,包括
·检测和跟踪人的运动;
·通过特征提取和对于人的肢体和/或躯干的朝向和/或其高度进行分类来探测跌倒事件;
·探测和分类人在跌倒后的运动,以及
·评估跌倒事件的严重程度。
ASE2.根据ASE1所述的通过计算机实现的方法,还包括在评估完跌倒事件的严重程度之后通过接口(188)传输通知。
ASE3.根据ASE1所述的通过计算机实现的方法,还包括检测人的至少一个生命体征参数。
ASE4.根据ASE1所述的通过计算机实现的方法,其中特征提取包括分析人的骨架模型的关节点。
ASE5.根据ASE1所述的通过计算机实现的方法,其中通过测定骨架模型的提取到的关节点到地面的距离或距离变化来探测跌倒事件。
ASE6.根据ASE1所述的通过计算机实现的方法,其中通过测定骨架模型的关节点之间的方向矢量的朝向和/或朝向变化来探测跌倒事件。
ASE7.根据ASE1所述的通过计算机实现的方法,其中通过测定关节点在垂直方向上的加速度来探测跌倒事件。
ASE8.根据ASE1所述的通过计算机实现的方法,其中通过测定人的高度和/或高度变化来探测跌倒事件。
ASE9.根据ASE1所述的通过计算机实现的方法,其中通过测定在垂直方向上投影的人在地面上所占据的面积来探测跌倒事件。
ASE10.根据ASE1所述的通过计算机实现的方法,还包括测定人的头位置和/或在人的周围环境中的障碍物。
ASE11.根据ASE10所述的通过计算机实现的方法,其中分析人的头相对于看向地面和/或相对于探测到的障碍物的位置。
ASE12.用于执行根据ASE1-ASE11所述的方法的装置。
ASE13.用于探测人的跌倒的系统,包括存储器(10)、至少一个能够在时间进程中检测人的运动的传感器、人身份识别模块(111)和人跟踪模块(112或113)、用于从传感器数据中提取特征并将提取的特征分类为跌倒事件的跌倒探测模块(5405)、以及用于对跌倒事件的严重程度进行分类的跌倒事件评估模块(5410)。
ASE14.根据ASE13所述的系统,包括通向服务器和/或终端(13)以便传输消息的接口(188)。
ASE15.根据ASE13所述的系统,包括用于检测人的生命体征参数的生命体征参数检测单元(5415)和用于分析被检测的人生命体征参数的生命体征参数分析模块(5420)。
ASE16.根据ASE13所述的系统,其中跌倒探测模块(5405)有用于创建人的骨架模型的骨架创建模块(5635)。
ASE17.根据ASE13和ASE15所述的系统,其中用于检测人的运动的传感器和/或生命体征参数检测单元(5415)是指摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)和/或惯性传感器(5620)。
示例18:用于非接触地检测人的生命体征参数的方法
在此,通过以下方面ABEV1至ABEV20来表征非接触地检测生命体征参数:
ABEV1.通过计算机实现的用于检测人的生命体征参数的方法,包括
·检测和跟踪人;
·检测和跟踪人的身体区域,在上面或者通过它获取生命体征参数;
·检测生命体征参数,和
·将检测到的生命体征参数与保存的至少一个阈值进行比较,并
·在超过或低于阈值时触发事件。
ABEV2.根据ABEV1所述的通过计算机实现的方法,其中事件包括降低速度。
ABEV3.根据ABEV1所述的通过计算机实现的方法,其中事件包括操控一个目标位置。
ABEV4.根据ABEV3所述的通过计算机实现的方法,其中目标位置是指座位。
ABEV5.根据ABEV1所述的通过计算机实现的方法,其中根据之前检测到的生命体征参数动态测定至少一个阈值。
ABEV6.根据ABEV5所述的通过计算机实现的方法,其中动态测定的阈值基于在定义的时间间隔内形成在检测到的生命体征参数的平均值。
ABEV7.根据ABEV1所述的通过计算机实现的方法,其中非接触地检测生命体征参数。
ABEV8.根据ABEV1所述的通过计算机实现的方法,其中通过固定在人身上的生命体征参数传感器(5425)检测生命体征参数。
ABEV9.根据ABEV1所述的通过计算机实现的方法,还包括检测人的身体运动,并通过比较检测到的身体运动来分析检测到的生命体征参数。
ABEV10.根据ABEV1所述的通过计算机实现的方法,其中根据被检测的人的运动来检测生命体征参数。
ABEV11.根据ABEV1所述的通过计算机实现的方法,其中检测到的生命体征参数包括脉搏率、脉搏率差异性、心脏收缩和心脏舒张血压和/或呼吸频率。
ABEV12.根据ABEV1所述的通过计算机实现的方法,还包括从检测到的生命体征参数来测定跌倒风险。
ABEV13.根据ABEV12所述的通过计算机实现的方法,其中跌倒风险是指严重的跌倒风险。
ABEV14.根据ABEV1所述的通过计算机实现的方法,其中在执行测试期间检测生命体征参数和/或陪同人进行练习。
ABEV15.用于执行根据ABEV1-ABEV14所述的方法的装置。
ABEV15.用于检测人的生命体征参数的系统,包括计算机(9)、存储器(10)和至少一个用于非接触地检测人在时间进程中的运动的传感器以及生命体征参数分析模块(5420)。
ABEV17.根据ABEV15所述的系统,还包括身体区域探测模块(4810)和用于跟踪生命体征参数的检测区域的身体区域跟踪模块(4815)以及用于检测人的生命体征参数的生命体征参数检测单元(5415)。
ABEV17.根据ABEV15所述的系统,其中用于检测人的运动的传感器是摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)。
ABEV18.根据ABEV15所述的系统,其中生命体征参数分析模块(5420)通过接口(188)发出系统通知,通过输出单元(2或192)输出,改变系统的速度和/或启动对于系统的目标位置的操控。
ABEV20.根据ABEV15所述的系统,包括包含执行至少一次练习规则的应用模块(125)。
ABEV20.根据ABEV15所述的系统,包括接口(188)和固定在人身上的生命体征参数传感器(5425)。
示例19:用于测定描述人的跌倒风险的评分的方法
在此,通过以下方面AESS1至AESS25来表征测定跌倒风险评分:
AESS1.通过计算机实现的用于测定描述人的跌倒风险的评分的方法,包括·检测人的步态进程;
·提取检测到的步态进程的特征;
·对提取到的步态进程特征进行分类;
·将步态进程的经过分类的特征中的至少两个特征与保存在存储器中的步态进程分类进行比较,并
·测定跌倒风险评分。
AESS2.根据AESS1所述的通过计算机实现的方法,还包括测定人的速度。
AESS3.根据AESS2所述的通过计算机实现的方法,其中通过人在每个时间单位内走过的步伐的数量和步幅来测定人的速度。
AESS4.根据AESS2所述的通过计算机实现的方法,其中测定人相对于用于检测和分析人的步态进程的检测和分析单元的速度。
AESS5.根据AESS4所述的通过计算机实现的方法,其中在检测和分析单元中使用里程计单元(181)测定检测和分析单元的速度。
AESS6.根据AESS4所述的通过计算机实现的方法,其中通过使用在地图中检测到的障碍物测定检测和分析单元的速度。
AESS7.根据AESS2所述的通过计算机实现的方法,其中测定人相对于在地图中检测到的障碍物的位置的速度。
AESS8.根据AESS1所述的通过计算机实现的方法,其中在水平平面和/或垂直平面中共同分析人的速度、步长、步调和/或加速度。
AESS9.根据AESS1所述的通过计算机实现的方法,其中步态进程的提取到的特征是指被检测的人的骨架模型的关节点、骨架模型的关节点之间的方向矢量、关节点的加速度或方向矢量、关节点在空间中的相互间位置和/或由方向矢量推导得出的角度,并且步态进程的经分类的特征是指步长、双步伐的长度、步行速度、双步伐中步长的关系、弯曲和/或伸展、站立时长、跨距和/或关节点相互间的分布(位置)和/或关节点相互间的距离和/或关节点的加速度。
AESS10.根据AESS1所述的通过计算机实现的方法,还包括
·人在检测和分析单元上登录,该检测和分析单元检测和分析人的步态进程;
·通过光学传感器识别人的身份;
·保存人的身份识别特征,和
·在时间进程内跟踪人。
AESS11.根据AESS9所述的通过计算机实现的方法,包括经由如下参量来测定被检测的人的踝关节点的位置:
·对应的膝关节点或髋关节点的位置;
·从膝关节点与小腿平行朝向的方向矢量,以及
·在方向矢量穿过铅垂线时膝关节点和/或髋关节点高于地面的高度。
AESS12.根据AESS1所述的通过计算机实现的方法,其中提取步态进程的特征包括包含来自惯性传感器的数据。
AESS13.用于执行根据AESS1-AESS12所述的方法的装置。
AESS14.用于测定描述人的跌倒风险的评分的系统,包括计算机(9)、存储器(10)和用于检测人在时间进程内的运动的传感器、运动过程提取模块(121)和运动过程评估模块(122),它包含用于测定跌倒风险评分的跌倒风险测定模块(5430)。
AESS15.根据AESS14所述的系统,包括人身份识别模块(111)和人跟踪模块(112或113)和使人在系统上登录的组件(比如2、186)。
AESS16.根据AESS14所述的系统,其中系统通过接口(188)能够获取惯性传感器(5620)的传感器数据,并且在运动过程提取模块(121)中分析这些传感器数据。
AESS17.根据AESS14所述的系统,其中运动过程评估模块(122)包含用于测定人的速度的人速度模块(5625)。
AESS18.根据AESS14所述的系统,其中用于检测人在时间进程中的运动的传感器是摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)。
示例20:人的平衡性测定
在此,通过以下方面ABEP1至ABEP21来表征人的平衡性测定:
ABEP1.通过计算机实现的用于测定人的平衡性的方法,包括
·在时间进程内非接触地检测人;
·创建被检测的人的骨架模型;
·提取骨架模型的关节点和/或在关节点之间存在的方向矢量的特征;
·在横向平面内分析关节点的位置变化的幅度、朝向和/或频率。
ABEP2.根据ABEP1所述的通过计算机实现的方法,还包括
·将分析结果与阈值和/或模态进行比较,和
·以阈值偏差和/或模态偏差为基础测定平衡性。
ABEP3.通过计算机实现的用于测定人的平衡性的方法,包括
·在时间进程内非接触地检测人;
·创建被检测的人的骨架模型;
·提取骨架模型的关节点和/或在关节点之间存在的方向矢量的特征;
·测定如下方向矢量的偏差,其中作为脚、膝或髋的至少一个关节点与竖直站立人的至少一个垂直地位于上方的关节点从人的铅垂线所产生的连接来形成所述方向矢量。
ABEP4.根据ABEP3所述的通过计算机实现的方法,还包括
·将测定的偏差与阈值和/或模态进行比较,和
·以阈值偏差和/或模态偏差为基础测定平衡性。
ABEP5.根据ABEP1或ABEP2所述的通过计算机实现的方法,还包括在正面内在时间进程中关于踝关节的距离来测定所检测的人的跨距。
ABEP6.根据ABEP5所述的通过计算机实现的方法,其中当跨距已经低于阈值时,测定平衡性。
ABEP7.根据ABEP1或ABEP2所述的通过计算机实现的方法,还包括
·分析人尺寸通过以下方面来表征
ο形成在地面或一方面至少一个踝关节及另一方面在头区域内的至少一个关节点之间的差,或者
ο将从共同原点延伸至至少一只脚和至少一个人的头的两个方向矢量进行矢量相减,
·并根据人尺寸和/或距离推导出人是坐着还是站着。
ABEP8.根据ABEP1或ABEP2所述的通过计算机实现的方法,包括分析在至少一个膝关节点和至少一个髋关节点之间的至少一个方向矢量的朝向与铅垂线的偏差。
ABEP9.根据ABEP1或ABEP2所述的通过计算机实现的方法,包括
·检测人周围环境中的对象;
·检测人的位置和/或人的至少一个手关节点的位置;
·测定在至少一个手关节点和在人的周围环境中的至少一个对象之间的距离;
·在低于距离阈值时时修改在存储器(10)中的值。
ABEP10.根据ABEP1或ABEP2所述的通过计算机实现的方法,包括分析关节点在矢状平面内的分布和将分布情况与存储器(10)中保存的值进行比较。
ABEP11.根据ABEP1或ABEP2所述的通过计算机实现的方法,其中测定平衡性包括站着、坐着或行走的人。
ABEP12.用于执行根据ABEP1-ABEP11所述的方法的装置。
ABEP13.用于测定人的平衡性的系统,该系统具有能够在时间进程内非接触地检测人的传感器、用于创建人的骨架模型的骨架创建模块(5635)、用于基于关节点和/或人的关节点之间的方向矢量来提取特征的基于骨架模型的特征提取模块(5640)、用于根据幅度、朝向和/或位置变化频率来分析关节点在横向平面内的位置变化并将检测到的值与保存在存储器(10)的阈值和/或模态进行比较的横向关节点分析模块(5645)。
ABEP14.系统,该系统包括能够在时间进程内非接触地检测人的传感器,用于创建人的骨架模型的骨架创建模块(5635),用于基于关节点和/或人的关节点之间的方向矢量来提取特征的基于骨架模型的特征提取模块(5640),用于测定方向矢量与人铅垂线的偏差的铅垂线-关节点分析模块(5650),其中作为脚、膝或髋的至少一个关节点与竖直站立的人的至少一个垂直地位于上方的关节点连接来形成所述方向矢量。
ABEP15.根据ABEP13或ABEP14所述的系统,包括用于测定从人铅垂线的方向矢量与保存在存储器(10)中的阈值和/或模态的偏差的铅垂线关节点分析模块(5650)。
ABEP16.根据ABEP13或ABEP14所述的系统,包括用于在跨距已经低于某一阈值时,通过在正面内在时间进程中关于踝关节点的距离来测定人的跨距和/或步幅的跨距-步幅模块(5675)。
ABEP17.根据ABEP13或ABEP14所述的系统,包括用于分析人的高度的人高度分析模块(5655)。
ABEP18.根据ABEP17所述的系统,其中所述高度如下确定
·通过在地面或一方面至少一个踝关节及另一方面在头区域内的至少一个关节点之间的距离,或者
·通过将从共同原点延伸至至少一只脚和至少人的头的两个方向矢量进行矢量相减来测定。
ABEP19.根据ABEP13或ABEP14所述的系统,包括用于分析手关节点和在人的周围环境中的其他对象之间的距离的手距离分析模块(5660),还包括用于将测定的距离与保存在存储器中的距离阈值进行比较的规则。
ABEP20.根据ABEP13或ABEP14所述的系统,包括用于分析关节点在矢状平面内的分布和用于将测定的值与存储器(10中保存的值进行比较的基于矢状平面的关节点分布分析模块(5665)。
ABEP21.根据ABEP13或ABEP14所述的系统,其中用于非接触地检测人的运动的传感器是摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)。
示例21:测定踝关节的位置
以估计为基础测定踝关节能够取代访问来自骨架模型的值,其过程如下:比如当连接膝关节点和髋关节点的矢量在铅垂线以内时,测定膝关节点高于地面的高度。作为替代方案和/或补充方案,如果小腿和大腿大致在铅垂线以内,能够测定地面和髋关节点之间的距离。能够测定膝关节点和髋关节点之间的距离,将其从髋关节点与地面之间的距离中减去,以便据此获取膝关节点和地面之间的距离。另外能够测定从膝关节点与小腿平行朝向的方向矢量,这通过将小腿的散点图分段和/或分析二维空间中的模态并测定穿过散点图或模态的轴的中心定心的方向矢量的朝向来进行,比如通过RANSAC架构。在此,在一个方面,能够进行额外的贝叶斯估计,这种额外的贝叶斯估计的考虑大腿的角度,该角度例如作为一条腿的髋关节点与膝关节点和铅垂线的连接来形成,替代地作为一条腿的髋关节点与膝关节点和另一条大腿或躯干的朝向(例如沿脊柱的关节点)。在存储器10中又能够保存根据大腿的朝向来描述小腿的朝向的概率,这种概率通过散点图和/或模型代表,或者通过由此推导出的方向矢量来代表,并且例如基于基本原理来测定。通过膝关节点的位置和小腿的方向则能够测定踝关节点,其方法是之前测定的膝关节点高于地面的高度定义方向矢量的长度,该方向矢量位于膝关节点上,并且方向矢量的端点表示踝关节点。
图74中示出了用于测定被检测的人的踝关节点的位置的系统。在该系统或服务机器人17包括处理单元9、存储器10和至少一个用于检测人在时间进程内的运动的传感器,诸如惯性传感器5620、摄像头185、激光雷达1、雷达和/或超声波传感器194。此外,它比如包括用于创建人的骨架模型的骨架创建模块5635、用于基于关节点和/或人的关节点之间的方向矢量来提取特征的基于骨架模型的特征提取模块5640和用于踝关节点的特征分类的踝关节点分类模块5670,该踝关节点分类模块通过映射小腿的方向矢量的朝向来测定踝关节点的位置,这一方向矢量开始于对应的膝关节点的位置,并具有根据至少对应的膝关节点或髋关节点的离地高度形成的长度。在一个方面,系统包含用于测定人的跨距和/或步幅的跨距-步幅模块5675,和/或在下臂支架或肩膀支架触碰地面时用于测定至少一个踝关节点相对于至少一个下臂支架或肩膀支架的端点的位置的踝关节点-行走辅助装置位置模块(5677)。在一个方面,该系统具有人识别模块110和/或运动分析模块120。流程本身如图83a)所示:在时间进程中检测人(步骤6105),创建被检测的人的骨架模型的至少一部分(步骤6110),测定应测定其踝关节点的腿的膝关节点的位置(步骤6115),测定从膝骨架点与小腿平行朝向的方向矢量(步骤6120),测定在膝关节点穿过铅垂线时膝关节点高于地面的高度(步骤6125),通过形成所测定的膝关节点的方向矢量来测定踝关节点的位置,其中有待形成的方向矢量具有与所测定的方向矢量相同的朝向,其中有待形成的方向矢量具有与在膝关节点穿过铅垂线时膝关节高于地面的高度相同的长度(步骤6130)。作为替代方案和/或补充方案,根据图83b)的流程也能够设计如下:在时间进程中检测人(步骤6105),创建被检测的人的骨架模型的至少一部分(步骤6110),测定应测定其踝关节点的腿的膝关节点的位置(步骤6115),测定应测定其踝关节点的腿的髋关节点的位置(步骤6140),测定从膝关节点与小腿平行朝向的方向矢量(步骤6120),作为被减数测定髋关节点高于地面的高度(步骤6145),作为减数测定连接髋关节点和膝关节点的方向矢量的长度(步骤6150),形成被减数和减数的差(步骤6155),通过形成测定的膝关节点的方向矢量来测定踝关节点的位置(步骤6160),该方向矢量具有与测定的方向矢量相同的朝向并且从膝关节点开始与小腿平行朝向,其中有待形成的方向矢量具有与测定的差相同的长度。
在此,通过以下方面AEPF1至AEPF11来表征测定踝关节的位置:
AEPF1.通过计算机实现的用于测定被检测的人的骨架模型的踝关节点的位置的方法,包括
·在时间进程中检测人;
·创建被检测的人的骨架模型的至少一部分;
·测定应测定其踝关节点的腿的膝关节点的位置;
·测定从膝关节点与小腿平行定位朝向的方向矢量;
·在膝关节点穿过铅垂线时测定膝关节点高于地面的高度;
·通过形成所测定的膝关节点的方向矢量来测定踝关节点的位置,其中有待形成的方向矢量具有与所测定的方向矢量相同的朝向,其中有待形成的方向矢量具有与在膝关节点穿过铅垂线时膝关节点高于地面高度相同的长度。
AEPF2.通过计算机实现的用于测定被检测的人的骨架模型的踝关节点的位置的方法,包括
·在时间进程中检测人;
·创建被检测的人的骨架模型的至少一部分;
·测定应测定其踝关节点的腿的膝关节点的位置;
·测定应测定其踝关节点的腿的髋关节点的位置;
·测定从膝关节点与小腿平行定位朝向的方向矢量;
·作为被减数测定髋关节点高于地面的高度;
·作为减数测定连接髋关节点和膝关节点的方向矢量的长度;
·形成被减数和减数的差;
·通过形成所测定的膝关节点的方向矢量来测定踝关节点的位置,该方向矢量具有与所测定的方向矢量相同的朝向,并且从膝关节点开始与小腿平行朝向,其中有点形成的方向矢量具有与测定的差相同的长度。
AEPF3.根据AEPF1和AEPF2所述的通过计算机实现的方法,其中踝关节点的位置用于测定人的跨距和/或步幅。
AEPF4.根据AEPF1和AEFP2所述的通过计算机实现的方法,其中分析所测定的踝关节点相对于下臂支架的至少一个端点的位置。
AEPF5.根据AEPF1和AEFP2所述的通过计算机实现的方法,其中与脚长相比较分析踝关节点的位置,其中以人的身高估计和对应于高度的脚长为基础来测定脚长。
AEPF6.根据AEPF9所述的通过计算机实现的方法,其中
·将从共同原点延伸至至少一只脚和至少人的头的两个方向矢量相减,或者
·通过地面或一方面至少一个踝关节点及另一方面在头区域中的至少一个关节点之间的差,来测定人的高度
AEPF7.根据AEPF1和AEFP2所述的通过计算机实现的方法,其中测定从膝关节点与小腿平行朝向的方向矢量,这通过
·将小腿的散点图分段和/或分析二维空间中的模态,以及
·通过测定穿过散点图或模态的轴的中心定心的方向矢量的朝向,来进行。
AEPF8.用于执行根据AEPF1-AEPF7所述的方法的装置。
AEPF9.用于测定被检测的人的踝关节点的位置的系统,包括计算机(9)、存储器(10)和至少一个用于检测人在时间进程中的运动的传感器,该系统包括用于创建人的骨架模型的骨架创建模块(5635)、用于基于关节点和/或人的关节点之间的方向矢量来提取特征的基于骨架模型的特征提取模块(5640)和用于踝关节点的特征分类的踝关节点分类模块(5670),该踝关节点分类模块通过映射小腿的方向矢量的朝向来测定踝关节点的位置,这一方向矢量开始于对应的膝关节点的位置,并具有根据至少对应的膝关节点或髋关节点的离地高度形成的长度。
AEPF9.根据AEPF17所述的系统,包括用于测定人的跨距和/或步幅的跨距-步幅模块(5675)。
AEPF10.根据AEPF17所述的系统,在下臂支架或肩膀支架触碰地面时用于测定至少一个踝关节点相对于至少一个下臂支架或肩膀支架的端点的位置的踝关节点-行走辅助装置位置模块(5677)。
AEPF11.根据AEPF17所述的系统,其中用于检测人在时间进程中的运动的传感器是指惯性传感器(5620)、摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)。
示例22:对人的旋转运动进行分类
在图75中示出了用于对旋转运动进行分类的系统。用于对人的旋转运动进行分类的系统、比如服务机器人17包括处理单元9、存储器10和至少用于检测人在时间进程中的运动的传感器、用于基于关节点和/或人的关节点之间的方向矢量来提取特征的基于骨架模型的特征提取模块5640和用于对旋转运动进行特征分类的旋转运动特征分类模块5680,其中在一个方面通过在时间进程中两个关节点之间的至少一个投影到横向平面中的方向矢量的角度变化来测定旋转运动,该方向矢量分别将肩关节点、髋关节点、膝关节点、踝关节点、臂关节点和/或头的探测到的关节点相互连接起来。此外,旋转运动特征分类模块(5680)能够具有用于将检测到的角度和/或角度变化相加的角度分析模块(5682)。该系统在一个方面具有人识别模块110、运动分析模块120和/或骨架创建模块5635。
该系统另外比如包括用于测定踝关节点的绝对距离的踝关节点距离测定模块5685,用于分析人的尺寸的人尺寸分析模块5655,髋-膝朝向模块5690,它比如用于在与铅垂线偏差方面分析至少一个膝关节点和至少一个髋关节点之间的至少一个方向矢量的朝向,和/或横向关节点分析模块5645,它比如用于分析关节点在横向平面内的位置变化,它比如能够分析关节点在横向平面内的位置变化的幅度、朝向和/或频率,和/或测定如下方向矢量的偏差,该方向矢量作为脚、膝或髋的至少一个关节点与竖直站立人相对于人铅垂线的至少一个垂直地位于上方的关节点之间的连接来形成,并将其与保存在存储器10中的阈值进行比较。系统另外还有一个用于对旋转运动、人的尺寸、其平衡性和/或步长进行分类的旋转运动-尺寸-平衡性-步长分类模块5695。用于检测人在时间进程中的运动的传感器能够是指一个摄像头185、激光雷达1、超声波和/或雷达传感器194和/或至少一个惯性传感器5620。如图84所示,用于测定旋转运动的方法包含以下步骤:在时间进程内检测人6105,创建被检测的人的骨架模型6110,从骨架模型和/或人的关节点之间的方向矢量提取关节点的特征6170,特征提取包括测定方向矢量在时间进程内的旋转运动6175,在一个方面包括另外比如根据方向矢量的至少一个旋转运动测定旋转角度6180,累加角度和/或角度变化6185并将累加后的旋转角度的总和与阈值/或模态进行比较6190。
在此,通过以下方面AKDP1至AKDP22来表征分类人的旋转运动:
AKDP1.通过用于分类人的旋转运动的计算机实现的方法,包括
·在时间进程内检测人;
·创建被检测的人的骨架模型;;
·根据骨架模型和/或人的关节点之间的方向矢量提取关节点的特征;
·特征分类包括测定方向矢量在时间进程内的旋转运动。
AKDP2.根据AKDP1所述的通过计算机实现的方法,还包括
·根据方向矢量的至少一个旋转运动测定旋转角度;
·累加角度和/或角度变化,并
·将总和与阈值和/或模态进行比较。
AKDP3.根据AKDP1所述的通过计算机实现的方法,其中通过在时间进程中两个关节点之间的投影到横向平面中的至少一个方向矢量的角度变化来测定旋转运动。
AKDP4.根据AKDP1所述的通过计算机实现的方法,其中通过至少一个方向矢量的角度变化测定旋转运动,该方向矢量分别将肩关节点、髋关节点、膝关节点、踝关节点、臂关节点相互连接起来。
AKDP5.根据AKDP1所述的通过计算机实现的方法,还包括测定踝关节点的距离。
AKDP6.根据AKDP1所述的通过计算机实现的方法,还包括测定人的身高。
AKDP7.根据AKDP6所述的通过计算机实现的方法,
·其中人的身高通过地面或一方面至少一个踝关节及另一方面在头区域中的至少一个关节点之间的距离,和/或
·通过将从一个共同原点延伸至至少一只脚和至少人的头的两个方向矢量相减,来测定。
AKDP8.根据AKDP1所述的通过计算机实现的方法,包括分析至少一个膝关节点和至少一个髋关节点之间的至少一个方向矢量的朝向与铅垂线的偏差。
AKDP9.根据AKDP1所述的通过计算机实现的方法,其中分析人的平衡性。
AKDP10.根据AKDP9所述的通过计算机实现的方法,其中通过分析关节点在横向平面内的位置变化的幅度、朝向和/或频率并与保存在存储器(10)中的阈值和/或模态进行比较,来测定平衡性。
AKDP11.根据AKDP9所述的通过计算机实现的方法,其中以测定方向矢量与人铅垂线的偏差为基础来测定平衡性。
AKDP12.根据AKDP11所述的通过计算机实现的方法,其中作为踝关节点、膝关节点或髋关节点中的至少一个关节点与竖直站立人的至少一个垂直地位于上方的关节点的连接来形成方向矢量。
AKDP13.根据AKDP1所述的通过计算机实现的方法,其中旋转运动的分类包括人的身高、其平衡性和/或步长。
AKDP14.用于执行根据AKDP1-AKDP13所述的方法的装置。
AKDP15.用于对人的旋转运动进行分类的系统,包括计算机(9)、存储器(10)和至少一个用于检测人在时间进程中的运动的传感器,用于基于关节点和/或人的关节点之间的方向矢量和/或至少两个关节点之间的方向矢量来提取特征的基于骨架模型的特征提取模块(5640),以及用于旋转运动的特征分类的旋转运动特征分类模块(5680)。
AKDP16.根据AKDP15所述的系统,其中旋转运动特征分类模块(5680)能够具有例如用于将检测到的角度和/或角度变化累加的角度分析模块(5682)。
AKDP17.根据AKDP15所述的系统,还包括用于测定踝关节点的距离的踝关节点距离测定模块(5685)。
AKDP18.根据AKDP15所述的系统,还包括用于分析人的尺寸的人尺寸分析模块(5655)。
AKDP19.根据AKDP15所述的系统,还包括用于分析至少一个膝关节点和至少一个髋关节点之间的至少一个方向矢量的朝向与铅垂线的偏差的髋-膝朝向模块(5690)。
AKDP20.根据AKDP15所述的系统,包括用于分析关节点在横向平面内的位置变化的横向关节点分析模块(5645)。
AKDP21.根据AKDP15所述的系统,其中系统具有用于对旋转运动、人的尺寸、其平衡性和/或步长进行分类的旋转运动-尺寸-平衡性-步长分类模块(5695)。
AKDP22.根据AKDP15所述的系统,其中用于检测人在时间进程中的运动的传感器是摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)和/或至少一个惯性传感器(5620)。
示例23:对人的步态进行分类
在图76中示出了用于进行行走分类的系统的结构:用于对人的步态进行分类的系统、比如服务机器人17包括处理单元9、存储器10和至少一个能够在时间进程中检测人的传感器(比如摄像头185、激光雷达1、超声波和/或雷达传感器194或惯性传感器5620)、以及用于在时间进程中测定相对于一条直线观察的人位置的位置测定-线条模块5696。一方面比如能够通过至少用于检测人的传感器检测直线,另一方面比如能够通过分析人运动方向模块5698的运动方向测定直线,由此不需要在地面上作标记。用于在时间进程中测定相对于一条直线观察的人位置的位置测定-线条模块5696比如测定人与直线的距离,将所述距离作为投影到横向平面中的人的重心或者头的距离、作为通过创建骨架模型(比如通过骨架创建模块5635)测定的人的踝关节点与直线的距离,和/或作为朝直线走过的路段的最大值或平均值,并参考距离阈值予以确定。通过路段模块(5696)测定路段本身,比如通过确定人的步长并将这些步长相加,其中通过测定在矢状平面内两个踝关节点之间的距离;通过分析人在坐标系内的位置变化和测定在坐标系内两个点之间的距离,和/或通过分析由服务机器人17的里程计181测定的和反应服务机器人17的位置的里程计数据,来测定步长。也替代地通过导航功能测定步长,导航功能除涉及里程计以外,也能够通过将检测到的服务机器人17的周围环境与保存在地图中的环境进行比较,来测定位置。然后,通过测定人相对于服务机器人17的位置也能够测定人的位置,通过导航功能还能够测定机器人走过的路段。在一个方面,系统具有用于分析手关节点和人的周围环境中的其它对象之间的距离的手距离分析模块5660,以探测人是否被影响其行走的对象挡住。这能够通过调整存储器中的值进行备注。由此在之后能够基于与直线的偏差和手关节点与探测到的对象/障碍物的距离对人的步态进行分类。系统在方面具有一个用于将直线投影到地面上的投影装置197。该系统在方面具有人识别模块110、运动分析模块120、骨架创建模块5635和/或基于骨架模型的特征提取模块5640。
按照图85中示出的步骤示出这一流程:在时间进程中比如通过用于检测人的传感器检测人,步骤6105。在方面检测虚拟直线或地面上的直线6205,检测人在时间进程中相对于直线观察的位置6210,其中人基本上跟随直线,并分析定义的路段内人与直线的距离6230(在位置测定-线条模块5696中通过步骤6210和6230),之后测定人走过距离的路段6235(通过路段模块5696),并作为行走(进程)分类测定标度值6240。作为替代方案和/或补充方案,也能够在时间进程6105内检测人之后检测人在时间进程6215中的位置,测定由在时间进程中被检测的人位置得出的路径6220(在运动方向模块5698中比如通过骨架模型的踝关节点的控制点的插值计算),将路径和与人的路径大致平行地延伸的直线进行比较6225,并且分析在定义路段内人与直线的距离6230(在位置测定-线条模块5696中通过步骤6225和6230),之后测定人走过距离的路段6235,并作为行走(进程)分类测定标度值6240。替代的流程如下:检测一个人6105,检测人在时间进程内的位置6215,测定由在时间进程中被检测的人位置得出的路径6222(比如通过人的位置数据或骨架模型的踝关节点的控制点的插值计算),分析在定义路段内相对于路径的人位置6232,测定路段6235和测定标度值6240。能够通过插值的方式来区分步骤6220和6222,其中步骤6222基本上通过线性插值完成,而对于步骤6220除线性插值以外也考虑非线性插值方法。
在此,通过以下方面AKGP1至AGDP24来表征人行走的分类:
AGDP1.通过用于分类人行走的计算机实现的方法,包括
·检测人;
·检测虚拟直线或地面上的真实直线;
·检测人在时间进程中相对于直线观察的位置,其中人基本上跟随直线,并且
·分析在经定义的路段内人与直线的距离。
AGDP2.通过用于分类人行走的计算机实现的方法,包括
·检测人;
·检测人在时间进程中的位置;
·测定由在时间进程中被检测的人位置得出的路径;
·将路径与直线进行比较;
·分析经定义的路段内人与直线的位置。
AGDP3.通过用于分类人行走的计算机实现的方法,包括
·检测人;
·检测人在时间进程中的位置;
·测定由在时间进程中被检测的人位置得出的路径;
·分析经定义的路段内人相对于路径的位置。
AGDP4.根据AGDP1-3所述的通过计算机实现的方法,还包括以分析为基础测定标度值。
AGDP5.根据AGDP1-3所述的通过计算机实现的方法,其中由人的起始位置和人的运动得出直线。
AGDP6.根据AGDP1所述的通过计算机实现的方法,其中直线与地面接触。
AGDP7.根据AGDP1所述的通过计算机实现的方法,其中直线被投影到地面上。
AGDP8.根据AGDP1-3所述的通过计算机实现的方法,包括通过确定人的步长并将这些步长相加,来测定人沿直线走过的路段,其中通过测定在矢状平面内两个踝关节点之间的距离来测定步长。
AGDP9.根据AGDP1-3所述的通过计算机实现的方法,包括通过分析人在坐标系内的位置变化和测定坐标系内两个点之间的距离,来测定人沿直线走过的路段。
AGDP10.根据AGDP1-3所述的通过计算机实现的方法,包括通过分析里程计数据来测定人沿直线走过的路段。
AGDP11.根据AGDP1-3所述的通过计算机实现的方法,其中检测和分析人相对于系统观察的位置,并且在时间进程中通过导航功能测定人的位置。
AGDP12.根据AGDP1-3所述的通过计算机实现的方法,包括测定人与直线的距离作为投影到横向平面中的人的重心或头的距离。
AGDP13.根据AGDP1-3所述的通过计算机实现的方法,包括测定人与直线的距离作为通过创建骨架模型测定的人的踝关节点与直线的距离。
AGDP14.根据AGDP1-3所述的通过计算机实现的方法,其中测定人与直线的距离作为走过的路段上的最大值或平均值。
AGDP15.根据AGDP1-3所述的通过计算机实现的方法,包括测定人的至少一个手关节点与探测到的对象和/或障碍物的距离。
AGDP16.根据AGDP15所述的通过计算机实现的方法,其中基于与直线的偏差和手关节点与探测到的对象/障碍物的距离来对人的步态进行分类。
AGDP17.用于执行根据AGDP1-AGDP16所述的方法的装置。
AGDP18.用于对人的步态进行分类的系统,包括计算机(9)、存储器(10)和至少一个用于非接触地检测人在时间进程中的运动的传感器,以及用于测定人在时间进程中相对于直线观察的位置的位置测定-线条模块(5696)。
AGDP19.根据AGDP18所述的系统,其中用于在时间进程中检测人的至少一个传感器也探测地面的上的线条。
AGDP20.根据AGDP18所述的系统,包括用于将一条线投影到地面上的投影装置(197)。
AGDP21.根据AGDP18所述的系统,包括用于测定人走过的距离的路段模块(5697)。
AGDP22.根据AGDP18所述的系统,包括用于分析手关节点和人的周围环境中其它对象之间的距离的手距离分析模块(5660)。
AGDP23.根据AGDP18所述的系统,其中用于检测人的传感器是指摄像头(185)、激光雷达(1)、雷达和/或超声波传感器(194)和/或至少惯性传感器(5620)。
AGDP24.根据AGDP18所述的系统,包括用于测定人的运动方向的运动方向模块(5698)。
示例24:修改光学传感器的信号
在分析骨架模型的范围内检测人的运动时,在一个方面,衣物可能会造成检测到的运动不准确,因为人体的一部分运动,尤其是动能会被衣物吸收,并同样转换为不必与人的运动同步的运动。由此会降低运动的检测质量。因此如下所述,使用了校正计算,以降低衣物的运动对检测关节点的运动的影响,进而改善信噪比。
如在图53中所示,在步骤4010中比如通过服务机器人的摄像头185或者通过另一个固定式或移动式摄像头来检测人。以检测到的数据为基础创建骨架模型4015,比如通过摄像头SDK、OpenPose等。将图像的矩阵分段为重点区域/分段4020,即在一个方面分段为在其中探测到关节点的区域。在此,重点区域/分段比如包括在关节点周围延伸的大致成圆形的面(在2D观察中)。计算每个重点区域/分段的每像素的功率密度谱4025(比如通过快速傅里叶变换),并通过重点区域/分段的所有像素(图像矩阵元素)聚合4030。通过比如二次插值测定每个重点区域/分段的功率密度的最大值,步骤4035。将最大值转换到时域中4040,在那里为每个重点区域/分段显示出关节点的校正后的位置和/或运动。在下一步骤中能够提取关节点和/或关节点之间的方向矢量,步骤4045。
在图77中如下示出了比如在降低信噪比的情况下用于修改光学传感器的信号或者分析人的传感器数据的系统:系统包括处理单元9、存储器10、用于将图像矩阵分段为重点区域的图像矩阵分段模块5705和用于测定功率密度及处理功率密度的功率密度模块5710。在一个方面,系统还包括用于创建人的骨架模型的骨架创建模块5635,用于选择骨架模型的关节点的关节点选择模块5720(比如作为图像矩阵分段模块5705的组成部分)以及用于测定识别到的骨架点的新位置的骨架模型校正模块5715。在一个方面,系统另外有运动分析模块120和运动过程提取模块(121),包括行走特征提取模块5605以及其它的用于对提取到的运动特征进行分类的模块。该系统能够是指服务机器人(17)。该系统在一个方面具有人识别模块110和/或基于骨架模型的特征提取模块5640。
在此,通过以下方面AMSS1至AMSS18来表征修改光学传感器的信号:
AMSS1.通过计算机实现的用于检测人和/或对象的方法,包括
·作为图像矩阵来解析对象和/或人;
·将图像矩阵分段为重点区域;
·在重点区域内为图像矩阵的每个元素测定功率密度谱;
·在重点区域的所有元素的范围内聚合功率密度谱,并
·通过插值来测定功率密度的最大值。
AMSS2.根据AMSS1所述的通过计算机实现的方法,其中基于骨架模型对图像矩阵进行分段,并且这些分段包括关节点周围的区域。
AMSS3.通过计算机实现的用于修改骨架模型的关节点的位置的方法,包括·在时间进程内检测人;
·作为图像矩阵来解析这个人;
·将图像矩阵分段为重点区域;
·在重点区域内为图像矩阵的每个元素测定功率密度谱;
·在重点区域的所有元素的范围内聚合功率密度谱,并
·通过插值来测定功率密度的最大值。
AMSS4.通过计算机实现的在创建人的骨架模型时改善信噪比的方法,包括
·在时间进程内检测人;
·测定人的骨架模型;
·对骨架模型的元素进行分段,其中针对一个分段的每个像素测定功率密度谱;
·聚合每个分段的功率密度谱;
·测定功率密度的最大值;
·将最大值转换到时域中,并
·在与位置和/或时间进程有关的分类的范围内继续处理获取的值。
AMSS5.根据AMSS1、AMSS3或AMSS4所述的通过计算机实现的方法,其中通过快速傅里叶变换聚合功率密度谱。
AMSS6.根据AMSS1、AMSS3或AMSS4所述的通过计算机实现的方法,其中插值为二次插值。
AMSS7.根据AMSS1或AMSS3所述的通过计算机实现的方法,还包括将最大值转换到时域中。
AMSS8.根据AMSS4或AMSS7所述的通过计算机实现的方法,其中通过反向快速傅里叶变换将最大值转换到时域中。
AMSS9.根据AMSS1、AMSS3或AMSS4所述的通过计算机实现的方法,包括检测和分析人的运动参数和/或运动模态。
AMSS10.根据AMSS1、AMSS3或AMSS4所述的通过计算机实现的方法,其中人的运动参数和/或运动模态是指以位置和时间解析的方式来检测及评估的人的步态参数。
AMSS11.根据AMSS1、AMSS3或AMSS4所述的通过计算机实现的方法,还包括测定检测到人的骨架模型的新的关节点位置。
AMSS12.根据AMSS11所述的通过计算机实现的方法,其中所述新的关节点位置是指关节点的经校正的位置。
AMSS13.根据AMSS1、AMSS3或AMSS4所述的通过计算机实现的方法,其中人是指穿着衣物的人,或者说人的被检测到的区域是指穿着衣物的区域。
AMSS14.根据AMSS1和AMSS3所述的通过计算机实现的方法,其中重点区域为基于骨架模型创建的人的关节点。
AMSS15.用于执行根据AMSS1-AMSS14所述的方法的装置。
AMSS16.用于分析人的传感器数据的系统,包括计算机(9)、存储器(10)、用于将图像矩阵分段为重点区域的图像矩阵分段模块(5705)和用于测定功率密度及处理功率密度的功率密度模块(5710)。
AMSS17.根据AMSS16的系统,还包括用于创建人的骨架模型的骨架创建模块5635,用于选择骨架模型的关节点的关节点选择模块(5720)以及用于测定识别到的骨架点的新位置的骨架模型校正模块(5715)。
AMSS18.根据AMSS16的系统,该系统还包括具有运动过程提取模块(121)的运动分析模块(120),包括行走特征提取模块(5605)。
示例25:图像校正
在一个方面,服务机器人17具有一套图像校正机制(参见图54),它为在不平坦的面上导航而设计,其中服务机器人17具有传感器,能够检测物体和/或人4110。在一个方面,服务机器人17也能够在建筑物以外移动。在此,在一个方面,服务机器人17在其上方移过经过的表明不平坦并且导致“颠簸”,这种“颠簸”使得摄像头185的检测范围发生运动,由此可能导致由摄像头185被检测的人和/或物体至少暂时无法完全被检测到,而在平坦的地面上能够完全检测到它们。因此,服务机器人有传感器运动的探测装置4115。
在一个方面检测到因服务机器人17造成的颠簸。为此,在一个方面,能够使用用于检测传感器运动的惯性传感器4116,在一个替代的和/或补充的方面直接在图像中存在的非自然信号、对象、人、标记、骨架模型的关节点等及其与检测到的图像范围边缘的距离方面分析摄像头185的图像,其中在此能够跟踪图像的各个元素。服务机器人在此检测这些图像元素与图像边缘4117相比的变化速度,即如果这些非自然信号、对象、人、标记、骨架模型的关节点等的距离以低于某一阈值的速度变化,则将其分类为颠簸。作为替代方案和/或补充方案方案,分析其与图像边缘的距离。在检测需要为其创建骨架模型的人时,作为替代方案和/或补充方案,将探测是否完整测定了骨架模型。随后,放大图像截取部分4020,在一个方面它通过扩大传感器与物体和/或人的距离来实现4021。为此,作为替代方案和/或补充方案,使用缩放功能和/或扩大传感器的检测角度4022,比如通过扩大与检测到人的距离。外,能够确保物体和/人即使颠簸也仍在图像截取部分内,并且能够进行跟踪。在一个替代的和/或补充的方面进行骨架模型的运动的插值,如在之前的示例中所示(参见测定功率密度谱)。
在图78中示出了调整图像截取部分的系统:该系统被描述为用于通过传感器对人进行光学检测的系统,该系统包括处理单元9、存储器10和用于比如根据传感器的运动来放大图像截取部分的图像截取部分调整模块5740。该系统另外能够包括人跟踪模块(112或113)。为了测定是否需要以运动为基础调整图像截取部分,系统能够使用多个替代方案和/或补充方案模块:a)用于分析人在图像截取部分中的位置的变化速度的图像截取部分变化速度模块5745;b)用于分析人与图像的边缘的距离的图像截取部分距离模块5750;c)惯性传感器5620,和d)用于创建人的骨架模型的骨架创建模块5635以及用于测定图像截取部分中的关节点数量的关节点图像截取部分模块(5760),其变型方案用于测定运动。系统比如包括用于通过放大系统与被检测的人的距离来放大图像截取部分的图像截取部分放大单元5755。图像截取部分放大单元5755比如包括运动规划器104和马达控制系统192和/或缩放功能。传感器比如是指摄像头185或激光雷达1。系统比如能够包括用于提取步态进程特征的步态进程特征提取模块5605,用于对步态进程进行特征分类的行走特征分类模块5610和/或用于步态进程分类的步态进程分类模块5615。在一个方面,系统是指服务机器人17。在一个方面,系统有人识别模块110,运动分析模块120,骨架创建模块5635和/或基于骨架模型的特征提取模块5640。总之,流程如此进行,即系统检测和跟踪在图像截取部分中的人,探测至少一个运动并放大图像截取部分,比如通过放大与被检测的人的距离,通过降低速度和/或通过缩放功能来扩大检测角度,或者通过根据真实的图像截取部分使用镜头和/或基于软件在对图像截取部分进行分析的范围内,来放大图像截取部分,这作为图像截取部分起作用,其中在后一种情况下在软件中处理过的图像截取部分小于由传感器检测到的图像截取部分。
在此,通过以下方面ABK1至ABK23来表征图像校正:
ABK1.通过在检测对象时进行运动校正的计算机实现的方法,包括
·检测和跟踪图像截取部分中的人;
·探测至少一个运动;
·放大图像截取部分。
ABK2.根据ABK1所述的通过计算机实现的方法,其中对于至少一个运动的探测包括图像截取部分中的人和/或一部分人的位置的改变速度。
ABK3.根据ABK1所述的通过计算机实现的方法,其中探测至少一个运动包括分析图像截取部分中的人和/或一部分人与图像截取部分的边缘的距离。
ABK4.根据ABK1所述的通过计算机实现的方法,其中通过惯性传感器(5620)探测至少一个运动。
ABK5.根据ABK1所述的通过计算机实现的方法,还包括在检测人之后创建人的骨架模型以及根据位置和时间分析提取到的关节点。
ABK6.根据ABK5所述的通过计算机实现的方法,其中通过改变在骨架模型内探测到的位于图像截取部分中的关节点的数量,探测至少一个运动。
ABK7.根据ABK1所述的通过计算机实现的方法,其中放大图像截取部分包括放大与被被检测的人的距离。
ABK8.根据ABK7所述的通过计算机实现的方法,其中通过降低速度来放大图像截取部分。
ABK9.根据ABK1所述的通过计算机实现的方法,其中通过缩放功能来放大检测角度,进而放大图像截取部分。
ABK10.根据ABK1所述的通过计算机实现的方法,其中探测的运动受到地面的不平整性的影响。
ABK11.根据ABK1所述的通过计算机实现的方法,其中探测的运动受到传感器的运动的影响。
ABK12.用于执行根据ABK1-ABK11所述的方法的装置。
ABK13.用于在检测对象时校正运动的系统,具有计算机(9)、存储器(10)和用于在时间进程中检测对象和/或人的传感器以及用于调整包含对象和/或人的图像截取部分的图像截取部分调整模块(5740)。
ABK14.根据ABK13所述的系统,还包括人跟踪模块(112或113)。
ABK15.根据ABK13所述的系统,还包括用于分析人和/或对象在图像截取部分中的位置的变化速度的图像截取部分变化速度模块(5745)。
ABK16.根据ABK13所述的系统,还包括用于分析人和/或对象与图像截取部分的边缘的距离的图像截取部分距离模块(5750)。
ABK17.根据ABK13所述的系统,包括用于分析用来检测对象和/或人的传感器的运动的惯性传感器(5620)。
ABK18.根据ABK13所述的系统,包括用于创建人的骨架模型的骨架创建模块(5635)和比如用于测定图像截取部分中关节点的数量的关节点图像截取部分模块(5760)。
ABK19.根据ABK13所述的系统,包括用于通过放大系统与被检测的人和/对象的距离来放大图像截取部分的图像截取部分放大单元(5755)。
ABK20.根据ABK19所述的系统,其中图像截取部分放大单元(5755)包括运动规划器(104)和马达控制系统(192)。
ABK21.根据ABK19所述的系统,其中图像截取部分放大单元(5755)包括缩放功能。
ABK22.根据ABK13所述的系统,还包括用于提取步态进程特征的步态进程特征提取模块(5605),用于对步态进程进行特征分类的行走特征分类模块(5610)和/或用于步态进程分类的步态进程分类模块(5615)。ABK23.根据ABK13所述的系统,其中传感器为摄像头(185)或激光雷达(1)。
示例26:为了实现人的侧面拍摄而导航服务机器人
服务机器人17在时间进程内识别和跟踪人。在此,服务机器人17不仅与人走过的路径大致平行地跟踪人,而且以相对于该路径超过30°的角度,优选以超过45°的角度,在一个方面以约90°的角度进行跟踪。为此在服务机器人中保存有如图55所示的规则:服务机器人通过借助输出单元的输出4210指引人基本上笔直行走和/或走过特定的路径。服务机器人17比如预测人应走过的路径4215,比如通过路径规划模块103,在人的预测路径以外进行定位4220,必要时与预测的路径保持最小距离4223,并在定位时确保服务机器人17能够以相对于预测的路径的超过30°,优选超过45°,在一个方面约90°的角度跟踪人4225。作为路径预测的替代方案和/或补充方案,测定人的行进方向4216,朝行进方向定位在人前面4221,其中在一个方面与人保持最小距离4223(朝向行进方向和/或与行进方向垂直),并且在定位时确保用于检测人的至少一个传感器以相对于人的被跟踪的行进方向的超过30°,优选超过45°,在一个方面约90°的角度来检测人。比如对于刚性传感器,这意味着将服务机器人4226相对于该路径旋转超过30°,优选超过45°,在一个方面约90°和/或服务机器人以相对于该路径和/或人的行进方向的超过30°,优选超过45°,在一个方面以约90°的角度4227来对准至少一个必要时可活动的传感器。在一个方面,取代人的行进方向和/或路径,也能够将诸如墙、地面上的线条等的物体的障碍物作为对准角度的参考。在一个方面根据骨架模型分析和/或人的步态进程推导出定位角度。服务机器人17(或者至少一个检测人的传感器)在一个替代的和/或补充的方面基本上在该位置上旋转。对人进行跟踪4230。服务机器人在一个替代的和/或补充的方面在人旁边行驶定义的时间和/或定义的路段,并且在此基本上从侧面检测人。随后,服务机器人17重新向人的路径中导航4235,在一个方面导航到人前面,在一个替代的方面导航到人后面,由此能够重新与人的路径基本上平行进行跟踪。作为替代方案和/或补充方案,服务机器人17与人的行进方向平行定位4240,在人前面或后方,并且与人有大致相同的速度。作为替代方案和/或补充方案,服务机器人17也能够通过输出单元的输出4245指引人改变其路径。
在图79中总结示出了为了实现人的侧面拍摄而导航服务机器人的系统:用于以相对于人的行进方向的超过30°的角度定位检测和/或分析单元的系统(比如服务机器人17)包括处理单元9、存储器10和至少一个用于在时间进程中检测人的传感器,另外有人跟踪模块(112或113)和用于启动和监控定位的定位模块5570。该系统在一个方面具有输出单元,比如显示器2和/或扬声器192。该系统另外还有运动规划器104,该运动规划器比如用于创建由人走过的路径的预测,在人旁边移动检测和分析单元,与人保持恒定的距离,保持定义的角度和/或旋转检测和分析单元。系统在一个方面包括翻转单元5130,它在固定检测和分析单元的朝向时能够对准传感器,该系统另外比如包括摄像头185和/或激光雷达1。系统比如能够具有用于提取人的运动过程的特征的运动过程提取模块121和运动过程评估模块120,其中运动过程提取模块121比如是基于骨架模型的特征提取模块5640,并且运动过程评估模块122是用于对人的步态进程进行特征分类的行走特征分类模块5610,和/或能够包含用于对人的步态进程进行分类的步态进程分类模块5615。然而,运动过程提取模块121也能够涉及与在本文中描述过的运动过程不同的运动过程作为与行走有关的运动,即正好是运动过程评估模块122。该系统在一个方面具有人识别模块110、运动分析模块120和/或骨架创建模块5635。对这一流程总结如下:通过至少一个传感器检测和跟踪人,测定人的行进方向,并且重新定位检测和/或分析单元,其中重新定位检测和/或分析单元比如基本上能够实现在侧面检测人或在矢状平面中检测人。在一个方面,向人输出一项基本上笔直行走的指令。这一流程另外还包括基于人的行进方向预测人走过的路径,其中比如以一定的检测角度或者以与墙的检测角度相对于路径来重新定位检测和/或分析单元。一方面比如由传感器的中心定心的轴线和另一方面将墙、行进方向和/或预测出的路径分别投影到水平平面上,由此得出检测角度。在下一步骤中,能够持续地重新计算检测角度;并定位检测和/或分析单元,由此能够使检测角度保持大致恒定。另外,例如能够持续地计算检测和/或分析单元与人之间的距离并且定位检测和/或分析单元,由此能够保持检测和/或分析单元与人间的距离的最小值。作为补充方案,能够在定义的时间和/或路段之后重新定位检测和/或分析单元,由此检测角度在之后基本小于30°,之后也能够在定义的时间和/或路段之后重新定位检测和/或分析单元,由此检测角度在之后基本小于30°。作为补充方案,比如能够在检测和跟踪人期间输出有关人的运动方向的提示和/或检测和/或分析单元的提示,和/或在考虑人的行进方向的情况下分析运动过程。在分析运动过程的范围内,在一个方面检测行走辅助装置的地面控制点,将其与被检测的人的双脚的位置一起进行分析,为此比如能够使用已在其它位置处作过描述的踝关节点分类模块5670、踝关节点行走辅助装置位置模块5677和/或踝关节点距离测定模块5685。
在此,通过以下方面NSRSA1至NSRSA18来表征为了实现人的侧面拍摄而导航服务机器人:
NSRSA1.通过计算机实现的以相对于人的行进方向的超过30°的检测角度来定位检测和/或分析单元的方法,包括
·通过至少一个传感器检测和跟踪人,
·测定人的行进方向,和
·重新定位检测和/或分析单元。
NSRSA2.根据NSRSA1所述的通过计算机实现的方法,包括向人输出一项基本上笔直行走的指令。
NSRSA3.根据NSRSA1所述的通过计算机实现的方法,其中重新定位检测和/或分析单元基本上能够实现在侧面检测人或在矢状平面中检测人。NSRSA4.根据NSRSA1所述的通过计算机实现的方法,包括基于人的行进方向来预测人需要走过的路径。
NSRSA5.根据NSRSA4所述的通过计算机实现的方法,其中以检测角度相对于路径来重新定位检测和/或分析单元。
NSA6.根据NSRSA4所述的通过计算机实现的方法,其中以检测角度相对于对象来重新定位检测和/或分析单元。
NSRSA7.根据NSRSA4所述的通过计算机实现的方法,其中一方面比如由传感器的中心定心的轴线和另一方面将对象、行进方向和/或预测出的路径分别投影到水平平面上,来得出检测角度。
NSRSA8.根据NSRSA1所述的通过计算机实现的方法,还包括能够持续地重新计算检测角度;并定位检测和/或分析单元,由此能够使检测角度保持大致恒定。
NSRSA9.根据NSRSA1所述的通过计算机实现的方法,还包括
·持续地计算检测和/或分析单元与人之间的距离;并且
·定位检测和/或分析单元,由此能够保持检测和/或分析单元与人间的距离的最小值。
NSRSA10.根据NSRSA1所述的通过计算机实现的方法,还包括在定义的时间和/或路段过后重新定位检测和/或分析单元,由此检测角度在之后基本小于30°。
NSRSA11.根据NSRSA1所述的通过计算机实现的方法,还包括在定义的时间和/或路段过后重新定位检测和/或分析单元,由此检测角度在之后基本小于30°。
NSRSA12.根据NSRSA1所述的通过计算机实现的方法,还包括在检测和跟踪人期间输出有关人的运动方向的提示和/或检测和/或分析单元的提示。NSRSA13.根据NSRSA1所述的通过计算机实现的方法,还包括在考虑人的行进方向的情况下分析运动过程。
NSRSA14.用于执行根据NSRSA1-13所述的通过计算机实现的方法的装置。NSRSA15.用于以相对于人的行进方向的超过30°的角度来定位检测和/或分析单元的系统包括计算机(9)、存储器(10)和至少一个用于在时间进程中检测人的传感器,用于跟踪人的跟踪模块(112、113)和用于启动和监控定位的定位模块(5570)。
NSRSA16.根据NSRSA15所述的系统,还包括运动规划器(104),该运动规划器比如用于创建由人走过的路径的预测,在人旁边移动检测和分析单元,在检测和/或分析单元与人之间保持大致恒定的距离,保持定义的检测角度和/或旋转检测和/或分析单元。
NSRSA17.根据NSRSA15所述的系统,包括翻转单元(5130),它能够在固定检测和/或分析单元的朝向时对准传感器。
NSRS18.根据NSRSA15所述的系统,包括用于提取人的运动过程的特征的运动过程提取模块(121)和运动过程评估模块(122)。
示例27:预测运动过程
服务机器人17在一个方面与系统通信,其过程如下:在存储器10或者服务机器人17和/或通过接口188与服务机器人17连接的云18中保存练习计划和患者数据(步骤4305)。系统、比如服务机器人17,以练习计划为基础发出保存在存储器10中的指令(步骤4310),其中比如能够通过显示器2和/或扬声器192输出这些指令。另外在时间进程中比如借助基于视觉或基于激光的人跟踪模块112、113来检测人,诸如患者(步骤4315)。为此,使用2D和/或3D摄像头185,比如RGB-D摄像头。另外进行关节点提取4320,它来自于骨架模型。这比如能够通过Microsoft Kinect的SDK或Open Pose进行。
在一个可选的方面,不通过SDK测定足点,而是通过在步骤4325中所述的单独的估计。为此选择一种如示例21所示的方案。
在步骤4330中测定行走辅助装置,比如下臂支架或肩膀支架的地面放置位置。这通过分段算法,诸如RANSAC和模态比较实现,其中模型来自于2D和/或3D数据,并描述了行走辅助装置的形状。在此,分析二维或三维空间内的坐标。
之后借助机器学习,通过同时分析超过两个关节点和至少一个行走辅助装置的至少一个地面放置位置进行运动过程分类(步骤4335)。在此,按相互间的关系分析关节点和地面放置点。这包括至少一个踝关节点。在一个方面通过神经网络基于受监控的学习来创建在此所使用的分类器,其中对被检测的人的身体位置进行评估。在一个方面在创建分类器时能够使用滤波器,以减少分类所使用的信息。在下一步骤中,比如减少提取到的特征,比如缩小尺寸。在此,一方面能够处理最大值,另一方面能够处理提取到的特征的平均值。之后比如能够使用成本函数。比如能够使用PyTorch作为软件工具。
在一个方面,记录利用诸如下臂支架或肩膀支架的行走辅助装置进行的步态进程的身体姿势,其描述了具体的步态进程并且对于其在时间进程内检测至少两个关节点与下臂支架或肩膀支架的至少一个端点之间的位置和分布并相关联进行分析。在此,能够分别比如基于身体姿势的演示来分析关节点和/或下臂支架或肩膀支架的放置点的分布,并且以此为基础创建分类器,之后将其与检测到的、被规定为正确的其他身体姿势和由此推导出的关节点和下臂支架或肩膀支架的放置点在空间中的分布进行比较,其中在之后会重新创建分类器,该分类器基于所有现有的关节点和肩膀支架或下臂支架位置-分布数据。以这种方式改进至少一个分类器。为此,比如能够使用Python中的DAgger算法。以这种方式比如通过神经网络创建分类器,它能够识别正确的运动,之后同样识别未正确做完的运动。图80示出了这种方法,其中首先从标准身体姿势,比如步态进程出发,来提取特征3375。在下一步骤中,检测大量关节点3376和行走辅助装置,比如下臂支架或肩膀支架的地面放置点3377,并将它们相关联分类,由此能够生成分类器3378。能够通过大量身体姿势迭代地完成这一方法,这些姿势是标准的或者符合具体的流程。
在之后的步骤4440中以保存在存储器10中的规则为基础进行运动过程校正。由此能够通过扬声器192和/或显示器2关联输出。比如能够矩阵的形式保存数据,所述矩阵将识别到的运动模态组合与所属的校正输出关联。优先进行校正输出,由此在定义的时间窗口范围内只进行定义数量的校正输出,比如又取决于输出长度和/或系统的、诸如服务机器人的运动的最大数量。
在步骤4345中合并患者数据(大部分是不随时间变化的数据,比如年龄、体重、尺寸、手术类型、手术侧等),进行练习计划配置(不随时间变化的配置,比如第一天练习5min,第二天练习10min,需要走过的路段为50m等),进行输出的运动过程校正(比如上半身起身,以其它方式放置下臂支架)和/或对被检测的人进行时间进程中的经分类的运动过程(比如肢体间的角度、步长、跨距等),其目标是分析数据。为此,比如能够使用常用的数据库join命令,前提是在存储器10的数据库中保存有数据。比如能够对每次检测到的练习进行合并。将这些数据保存在存储器10中,它位于服务机器人17或者云18中。以检测到的数据为基础,基于练习计划配置、患者数据和/或运动过程校正来预测运动过程(步骤4350)。由此比如能够测定以特定类型患者的一种练习计划配置的哪些参数(年龄等)为基础以及使用哪些运动过程校正能够在患者身上实现满足特定要求的运动过程(比如特别平稳、特别接近正常行走图像等)。在一个方面能够对运动过程进行分类,比如分类为“正常的”运动过程,或受疾病条件限制的运动过程。通过机器学习算法预测运动过程。例如,这里能够使用结构方程模型,例如Python中的Semopy工具箱,或者基于Python的ScikitLearn的回归模型。在一个方面,在此也能够使用神经网络。以该分析为基础测定哪种练习计划配置和/或哪种运动过程校正会产生哪种结果。为此在创建预测的范围内测定哪些影响因素,比如练习计划配置、预测数据和运动过程校正的哪种组合会产生哪些运动过程。以此为基础调整练习计划配置和/或运动过程校正的分类(步骤4355),即传输会产生定义的运动过程的练习计划配置和/或运动过程校正。向一套用于以输出练习计划为基础来检测运动数据的系统进行传输,比如该系统是指服务机器人17、手机或固定或移动式电脑,比如平板电脑。该系统比如可能是服务机器人17或固定式系统。在一个方面,也能够向调控机构150进行传输,从它向超过一台额外设备分配规则。
对这一过程的总结如下:合并人数据,练习计划配置,运动过程校正以及在至少一个存储器(10)中对不同人进行经分类的运动过程;以练习配置、人数据和/或运动过程校正为基础预测运动过程;测定会导致出现定义的运动过程的练习计划配置和/或运动过程校正;向用于检测运动过程的系统传输练习计划配置和/或运动过程校正。另外:检测人,创建人的骨架模型,对一定运动过程内人的关节点进行关节点提取,对提取到的关节点进行运动过程分类,以便评估运动过程并测定运动过程校正。
在此,通过以下方面AEAG1至AEAG14来表征识别和分析行走参数:
AEAG1.通过计算机实现的用于预测运动过程的方法,包括
·合并人数据,练习计划配置,运动过程校正以及在至少一个存储器(10)中对不同的人在时间进程中进行经分类的运动过程;
·以练习配置、人数据和/或运动过程校正为基础预测运动过程;
·测定会导致出现定义的运动过程的练习计划配置和/或运动过程校正;
·向用于检测运动过程的系统传输练习计划配置和/或运动过程校正。
·AEAG2.根据AEAG1所述的通过计算机实现的方法,包括以练习计划为基础输出指令。
AEAG3.根据AEAG1所述的通过计算机实现的方法,包括检测人,创建人的骨架模型,对于一定运动过程内人的关节点进行关节点提取,对提取到的关节点进行运动过程分类以便评估运动过程并测定运动过程校正。
AEAG4.根据AEAG3所述的通过计算机实现的方法,另外通过测定所属的膝关节点与地面之间的距离为腿估计所属的踝关节点的位置,测定所属的小腿的朝向作为方向矢量,其长度由所属的膝关节点和地面之间的距离得出。
AEAG5.根据AEAG4所述的通过计算机实现的方法,其中当膝关节点和所属的髋关节点之间的方向矢量大致位于铅垂线时,测定膝关节点和地面之间的距离。
AEAG6.根据AEAG4所述的通过计算机实现的方法,其中通过髋关节点和地面之间的距离以及髋关节点和膝关节点之间的距离的差,测定膝关节点和地面间的距离。
AEAG7.根据AEAG3所述的通过计算机实现的方法,其中测定由被检测的人使用的行走辅助装置的地面放置位置。
AEAG8.根据AEAG3和AEAG7所述的通过计算机实现的方法,其中通过同时分析超过两个关节点和至少一个行走辅助装置的至少一个地面放置位置进行运动过程分类。
AEAG9.根据AEAG3所述的通过计算机实现的方法,其中运动过程校正包括通过扬声器(192)和/或显示器(2)进行输出。
AEAG10.根据AEAG8所述的通过计算机实现的方法,其中分析过的关节点至少是指踝关节点。
AEAG11.根据AEAG1所述的通过计算机实现的方法,其中系统是指服务机器人17。
AEAG12.用于执行根据AEAG1-AEAG11所述的方法的装置。
AEAG13.用于执行根据AEAG11所述的方法的装置,其中用于检测运动过程的系统是指服务机器人17。
AEAG14.用于执行根据AEAG11所述的方法的装置,其中用于检测运动过程的系统是指手机、平板电脑或固定式电脑。
附图标记列表
1 激光雷达
2 显示器
3 用于非接触地检测人的传感器
4 压敏推杆
5 支撑轮
6 驱动轮
7 驱动单元
8 电源
9 处理单元
10 存储器
17 服务机器人
13 终端
18 云
100 软件层面
101 导航模块
102 2D或3D周围环境检测模块
103 路径规划模块
104 运动规划器
105 自定位模块
106 绘图模块
107 地图模块
108 充电模块
110 人识别模块
111 人身份识别模块
112 视觉上的人跟踪模块
113 基于激光的人跟踪模块
114 人身份识别模块
115 座椅识别模块
120 运动分析模块
121 运动过程提取模块
122 运动过程评估模块
130 人-机器人互动模块
131 图形用户界面
132 语音分析模块
133 语音合成单元
150 调控机构
151 调控机构的计算机
152 调控机构的存储器
160 患者管理模块
161 患者管理模块的计算机
162 患者管理模块的存储器
170 云中的导航模块
171 导航计算机
172 导航存储器
180 硬件层面
181 里程计
183 RFID
185 摄像头
186 操作元件
188 接口
190 充电控制系统
191 马达控制系统
192 扬声器
193 麦克风
194 雷达和/或超声波传感器
195 探测器
196 光谱仪
197 投影装置
905 座椅
910 人
915 投影的标记
920 投影装置
925、930、935、940 不同的线条
4415 人位置测定模块
4420 音频源位置测定模块
4425 音频信号比较模块
4430 音频信号人模块
4435 音频序列输入模块
4510 持续时间-路段模块
4515 速度-路段模块
4520 持续时间-路段评估模块
4525 听力测试单元
4530 视力测试单元
4535 精神能力测试单元
4540 座椅探测模块
4605 人检测和跟踪单元
4606 运动频率测定单元
4607 运动单元
4615 脉冲-呼吸分析单元
4620 运动信号检测和处理单元
4625 风格化的表现元素
4705 纸探测模块
4710 折叠运动测定模块
4720 纸距离拐角-边缘模块
4725 纸形状变化模块
4730 纸弯曲模块
4740 纸尺寸模块
4745 纸边缘朝向模块
4750 指尖距离模块
4755 纸分段模块
4760 纸分类模块
4770 操纵尝试探测模块
4775 人-机器人距离测定模块
4780 尺寸-臂长朝向模块
4785 输入-登录比较模块
4805 光谱仪对准单元
4810 身体区域探测模块
4815 身体区域跟踪模块
4820 光谱仪测量模块
4825 参考光谱数据库
4830 疾病图像数据库
4835 出汗模块
4840 精神错乱探测评分测定模块
4845 认知能力评估模块
4850 温度计
4905 触觉传感器
4910 触觉传感器分析单元
4915 触觉传感器输出比较模块
4920 执行器
4925 执行器定位单元
4930 手识别模块
4940 数值输出模块
4950 机器人手
4955 用于输出机器人手的手指姿势的单元
4960 手势探测模块
5005 面部识别模块
5010 面部候选区域模块
5015 情绪分类模块
5020 情绪评估模块
5025 床识别模块
5035 上肢分析模块
5040 疼痛状态计算模块
5055 疼痛发声模块
5065 人工呼吸装置识别模块
5085 疼痛敏感度分析模块
5110 心血管活动模块
5120 灯
5125 血压测定模块
5130 翻转单元
5205 分析激光器
5210 另一个激光器
5215 介质
5220 激光器偏转分析模块
5225 激光器变化模块
5230 手指定位识别模块
5250 基于光电效应的传感器
5270 光源
5275 波长变化单元
5280 波长变化分析单元
5295 材料分类模块
5305 湿度测定模块
5310 湿度评估模块
5405 跌倒探测模块
5410 跌倒事件评估模块
5415 生命体征参数检测单元
5420 生命体征参数分析模块
5425 生命体征参数传感器
5430 跌倒风险测定模块
5605 行走特征提取模块
5610 行走特征分类模块
5615 步态进程分类模块
5620 惯性传感器
5625 人速度模块
5635 骨架创建模块
5640 基于骨架模型的特征提取模块
5645 横向关节点分析模块
5650 铅垂线-关节点分析模块
5655 人尺寸分析模块
5660 手距离分析模块
5665 基于矢状平面的关节点分布分析模块
5670 踝关节点分类模块
5675 跨距-步幅模块
5677 踝关节点行走辅助装置位置模块
5680 旋转运动特征分类模块
5682 角度分析模块
5685 踝关节点-距离测定模块
5690 髋-膝朝向模块
5695 旋转运动-尺寸-平衡性-步长分类模块
5696 位置测定-线条模块
5697 路段模块
5698 运动方向模块
5705 分段模块
5710 功率密度模块
5715 骨架模型校正模块
5720 关节点选择模块
5740 图像截取部分调整模块
5745 图像截取部分变化速度模块
5750 图像截取部分距离模块
5755 图像截取部分放大单元
5760 关节点图像截取部分模块
5570 定位模块
6070 检测到的地面上的潮湿
6071 行走
6072 最初测定的路径
6073 基于潮湿作为障碍物来新计算的路径
6074 测定两个潮湿的平面段之间的距离。
Claims (18)
1.一种用于以相对于人的行进方向超过30°的检测角度来定位检测和/或分析单元的计算机实现的方法,包括
·通过至少一个传感器来检测和跟踪所述人,
·测定所述人的行进方向;和
·重新定位所述检测和/或分析单元。
2.根据权利要求1所述的计算机实现的方法,包括:向所述人输出指令,使之基本笔直行走。
3.根据权利要求1所述的计算机实现的方法,其中,所述重新定位所述检测和/或分析单元使得能够基本上实现对人的侧面检测。
4.根据权利要求1所述的计算机实现的方法,包括:基于所述人的行进方向来预测有待由所述人走过的路径。
5.根据权利要求4所述的计算机实现的方法,其中,以所述检测角度相对于所述路径来重新定位所述检测和/或分析单元。
6.根据权利要求4所述的计算机实现的方法,其中,以相对于对象的检测角度来重新定位所述检测和/或分析单元。
7.根据权利要求4所述的计算机实现的方法,其中,通过一方面将所述传感器的中心定心的轴线和另一方面将对象、所述行进方向和/或预测出的路径投影到水平平面上来得出所述检测角度。
8.根据权利要求1所述的计算机实现的方法,还包括:
持续地重新计算所述检测角度;以及
定位所述检测和/或分析单元,由此使所述检测角度保持大致恒定。
9.根据权利要求1所述的计算机实现的方法,还包括:持续地计算所述检测和/或分析单元与所述人之间的距离;以及
定位所述检测和/或分析单元,由此保持所述检测和/或分析单元与所述人之间的距离的最小值。
10.根据权利要求1所述的计算机实现的方法,还包括:在定义的时间和/或路段之后重新定位所述检测和/或分析单元,从而使所述检测角度在之后基本小于30°。
11.根据权利要求1所述的计算机实现的方法,还包括:在定义的时间和/或路段之后重新定位所述检测和/或分析单元,从而使所述检测角度在之后基本小于30°。
12.根据权利要求1所述的计算机实现的方法,还包括:在检测和跟踪所述人期间,输出有关所述人的运动方向的提示和/或所述检测和/或分析单元的提示。
13.根据权利要求1所述的计算机实现的方法,还包括:在考虑所述人的行进方向的情况下分析运动过程。
14.一种装置,用来实施根据权利要求1至13所述的计算机实现的方法。
15.一种用于以相对于人的行进方向超过30°的角度来定位检测和/或分析单元的系统,包括计算机(9)、存储器(10)和用于在时间进程中检测人的至少一个传感器,用于跟踪人的跟踪模块(112、113)和用于启动和监控定位的定位模块(5570)。
16.根据权利要求15所述的系统,还包括运动规划器(104),用于创建对于所述人即将走过的路径的预测,在所述人旁边移动所述检测和/或分析单元,在所述检测和/或分析单元与所述人之间保持大致恒定的距离,采用定义的检测角度和/或旋转所述检测和/或分析单元。
17.根据权利要求15所述的系统,包括翻转单元(5130),该翻转单元使得能够在所述检测和/或分析单元的朝向固定的情况下对准所述传感器。
18.根据权利要求15所述的系统,包括运动过程提取模块(121),用于提取所述人的运动过程的特征,以及运动过程评估模块(122)。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019123304.6 | 2019-08-30 | ||
DE102019123304 | 2019-08-30 | ||
DE102020102315.4 | 2020-01-30 | ||
DE102020102315 | 2020-01-30 | ||
DE102020112853.3 | 2020-05-12 | ||
DE102020112853 | 2020-05-12 | ||
PCT/EP2020/074240 WO2021038109A1 (de) | 2019-08-30 | 2020-08-31 | System zur erfassung von bewegungsabläufen und/oder vitalparametern einer person |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114980810A true CN114980810A (zh) | 2022-08-30 |
Family
ID=72292546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080076764.2A Pending CN114980810A (zh) | 2019-08-30 | 2020-08-31 | 用于检测人的运动过程和/或生命体征参数的系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220331028A1 (zh) |
EP (1) | EP4003164A1 (zh) |
CN (1) | CN114980810A (zh) |
WO (1) | WO2021038109A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2795658C1 (ru) * | 2022-10-04 | 2023-05-05 | Автономная некоммерческая организация высшего образования "Университет Иннополис" | Устройство и способ для диагностики тазобедренных суставов |
CN118351595A (zh) * | 2024-04-28 | 2024-07-16 | 北京小米机器人技术有限公司 | 步态识别方法、装置、电子设备及存储介质 |
CN118398850A (zh) * | 2024-07-01 | 2024-07-26 | 同济大学 | 一种燃料电池闭环状态管理方法、装置、介质及产品 |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020180051A1 (en) * | 2019-03-07 | 2020-09-10 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
US11129032B2 (en) * | 2019-11-26 | 2021-09-21 | Motorola Mobility Llc | Optimal device position for wireless communication |
KR20210088371A (ko) * | 2020-01-06 | 2021-07-14 | 주식회사 비햅틱스 | 촉각자극 제공 시스템 |
US20210253135A1 (en) * | 2020-02-18 | 2021-08-19 | Toyota Motor North America, Inc. | Determining transport operation level for gesture control |
CA3170484A1 (en) * | 2020-03-06 | 2021-09-10 | Chad Edward Bouton | System and method for determining user intention from limb or body motion or trajectory to control neuromuscular stimulation or prosthetic device operation |
KR20210130325A (ko) * | 2020-04-21 | 2021-11-01 | 현대자동차주식회사 | 노이즈 제어 장치, 그를 가지는 차량 및 그 제어 방법 |
US11796637B1 (en) * | 2020-09-10 | 2023-10-24 | Amazon Technologies, Inc. | Fall detection on uneven surfaces using radar |
JP2022052345A (ja) * | 2020-09-23 | 2022-04-04 | キヤノンメディカルシステムズ株式会社 | 超音波診断装置、撮像方法、及び撮像プログラム |
WO2022086161A1 (ko) * | 2020-10-20 | 2022-04-28 | 삼성전자주식회사 | 로봇 및 그 제어 방법 |
EP4241236A4 (en) * | 2020-11-06 | 2024-05-08 | Hinge Health, Inc. | DERIVING MOVING INSIGHTS OF AN OBJECT VIA ARTIFICIAL VISION |
US20220222853A1 (en) * | 2020-12-22 | 2022-07-14 | Industrial Technology Research Institute | Method and device for calculating the distance between eyes and the eyes? target |
EP4043914A1 (de) * | 2021-02-15 | 2022-08-17 | Leica Geosystems AG | Six-dof-messhilfsmittel |
US11747463B2 (en) * | 2021-02-25 | 2023-09-05 | Cherish Health, Inc. | Technologies for tracking objects within defined areas |
CN112926514A (zh) * | 2021-03-26 | 2021-06-08 | 哈尔滨工业大学(威海) | 一种多目标检测及跟踪方法、系统、存储介质及应用 |
CN113456042A (zh) * | 2021-06-30 | 2021-10-01 | 浙江师范大学 | 一种基于3d cnn的无接触面部血压测量方法 |
WO2023004165A1 (en) * | 2021-07-22 | 2023-01-26 | Tan Kar Han | Autonomous mobile robot |
CN113743239A (zh) * | 2021-08-12 | 2021-12-03 | 青岛图灵科技有限公司 | 行人重识别方法、装置及电子设备 |
CN113925476A (zh) * | 2021-10-18 | 2022-01-14 | 谢俊 | 一种检测人体心率的智能系统及其检测方法 |
CN114147702B (zh) * | 2021-11-04 | 2024-07-19 | 合肥欣奕华智能机器股份有限公司 | 一种机器人及手指端的位置调整方法 |
CN114330384B (zh) * | 2021-11-24 | 2024-06-25 | 南京邮电大学 | 一种基于无源rfid相位信息的手臂运动轨迹追踪方法 |
DE102022110175A1 (de) * | 2022-04-27 | 2023-11-02 | Bearcover GmbH | Überwachungsvorrichtung und Verfahren zum Betrieb einer Überwachungsvorrichtung |
CN114898471B (zh) * | 2022-07-12 | 2022-09-30 | 华中科技大学 | 一种基于人体骨架特征的行为检测方法及存储介质 |
DE102022128862A1 (de) | 2022-10-31 | 2024-05-02 | tediro GmbH | Objektlokalisierung durch einen mobilen Roboter |
DE102023123138A1 (de) | 2022-10-31 | 2024-05-02 | tediro GmbH | Objektlokalisierung durch einen mobilen Roboter |
DE102022128864A1 (de) | 2022-10-31 | 2024-05-02 | tediro GmbH | Objektlokalisierung durch einen mobilen Roboter |
WO2024097300A1 (en) * | 2022-11-03 | 2024-05-10 | Tellus You Care, Inc. | Mapping a living area using lidar |
CN116935016B (zh) * | 2023-07-28 | 2024-03-08 | 上海济目科技有限公司 | 一种集成隧道施工现场风险识别与激光定位方法 |
CN116740846B (zh) * | 2023-08-02 | 2024-08-27 | 深圳零和壹物联科技有限公司 | 一种rfid智能顶装式门禁终端控制方法 |
CN117806356B (zh) * | 2024-02-28 | 2024-07-19 | 南京大学 | 一种基于物联网的飞艇数据传输管理系统及方法 |
CN118051841B (zh) * | 2024-04-12 | 2024-08-23 | 上海迎智正能健康科技有限公司 | 一种基于生理参数提取的情绪识别方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102781320A (zh) * | 2009-10-30 | 2012-11-14 | 医学运动有限公司 | 综合人体运动分析的系统和方法 |
CN107080540A (zh) * | 2016-02-12 | 2017-08-22 | 塔塔咨询服务公司 | 用于分析人的步态和姿势平衡的系统和方法 |
US20190077007A1 (en) * | 2017-09-14 | 2019-03-14 | Sony Interactive Entertainment Inc. | Robot as Personal Trainer |
Family Cites Families (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5222495A (en) | 1990-02-02 | 1993-06-29 | Angiomedics Ii, Inc. | Non-invasive blood analysis by near infrared absorption measurements using two closely spaced wavelengths |
AU2245092A (en) | 1991-12-31 | 1993-07-28 | Vivascan Corporation | Blood constituent determination based on differential spectral analysis |
US6172743B1 (en) | 1992-10-07 | 2001-01-09 | Chemtrix, Inc. | Technique for measuring a blood analyte by non-invasive spectrometry in living tissue |
US5460177A (en) | 1993-05-07 | 1995-10-24 | Diasense, Inc. | Method for non-invasive measurement of concentration of analytes in blood using continuous spectrum radiation |
US5533509A (en) | 1993-08-12 | 1996-07-09 | Kurashiki Boseki Kabushiki Kaisha | Method and apparatus for non-invasive measurement of blood sugar level |
US6240306B1 (en) | 1995-08-09 | 2001-05-29 | Rio Grande Medical Technologies, Inc. | Method and apparatus for non-invasive blood analyte measurement with fluid compartment equilibration |
AU2052997A (en) | 1996-02-23 | 1997-09-10 | Diasense, Inc. | Method and apparatus for non-invasive blood glucose sensing |
US6008889A (en) | 1997-04-16 | 1999-12-28 | Zeng; Haishan | Spectrometer system for diagnosis of skin disease |
US20080280276A1 (en) | 2007-05-09 | 2008-11-13 | Oregon Health & Science University And Oregon Research Institute | Virtual reality tools and techniques for measuring cognitive ability and cognitive impairment |
AU2010232841B2 (en) | 2009-04-01 | 2014-04-24 | St. Louis Medical Devices, Inc. | Optical spectroscopy device for non-invasive blood glucose detection and associated method of use |
GB0917600D0 (en) | 2009-10-07 | 2009-11-25 | Univ Edinburgh | Testing apparatus and method |
CN101862245A (zh) | 2010-05-28 | 2010-10-20 | 上海市古美高级中学 | 医院服务机器人 |
US20170011258A1 (en) | 2010-06-07 | 2017-01-12 | Affectiva, Inc. | Image analysis in support of robotic manipulation |
US10628741B2 (en) | 2010-06-07 | 2020-04-21 | Affectiva, Inc. | Multimodal machine learning for emotion metrics |
US9189068B2 (en) | 2011-03-14 | 2015-11-17 | Lg Electronics Inc. | Apparatus and a method for gesture recognition |
US9117274B2 (en) | 2011-08-01 | 2015-08-25 | Fuji Xerox Co., Ltd. | System and method for interactive markerless paper documents in 3D space with mobile cameras and projectors |
US8971572B1 (en) | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
WO2013050912A1 (en) | 2011-10-07 | 2013-04-11 | Koninklijke Philips Electronics N.V. | Monitoring system for monitoring a patient and detecting delirium of the patient |
US9171131B2 (en) | 2012-06-22 | 2015-10-27 | Integrated Deficit Examinations, LLC | Device and methods for mobile monitoring and assessment of clinical function through sensors and interactive patient responses |
US9659150B2 (en) | 2012-07-20 | 2017-05-23 | Care Innovations, Llc | Method for assessing cognitive function and predicting cognitive decline through quantitative assessment of the TUG test |
CN203338133U (zh) | 2012-11-12 | 2013-12-11 | 常熟理工学院 | 一种智能医疗服务机器人 |
CN105518576B (zh) | 2013-06-28 | 2019-04-16 | 陈家铭 | 根据手势的控制装置操作 |
CN203527474U (zh) | 2013-07-09 | 2014-04-09 | 常熟理工学院 | 一种助老服务机器人 |
CN103956171B (zh) | 2014-04-01 | 2017-06-13 | 中国科学院软件研究所 | 一种多通道简易精神状态检测系统 |
US9594964B2 (en) | 2014-06-12 | 2017-03-14 | GM Global Technology Operations LLC | Vision-based wet road surface detection using texture analysis |
DE102014108424B3 (de) | 2014-06-16 | 2015-06-11 | Johann Wolfgang Goethe-Universität | Nicht-invasive Stoffanalyse |
US10268277B2 (en) | 2014-09-30 | 2019-04-23 | Hewlett-Packard Development Company, L.P. | Gesture based manipulation of three-dimensional images |
WO2016058085A1 (en) | 2014-10-16 | 2016-04-21 | Arb Labs Inc. | Systems, methods and devices for monitoring game activities |
US9690984B2 (en) | 2015-04-14 | 2017-06-27 | Microsoft Technology Licensing, Llc | Two-dimensional infrared depth sensing |
CN104889994A (zh) | 2015-06-30 | 2015-09-09 | 广州绿松生物科技有限公司 | 智能健康服务机器人 |
CN204772554U (zh) | 2015-06-30 | 2015-11-18 | 广州绿松生物科技有限公司 | 智能健康服务机器人 |
CN105078445B (zh) | 2015-08-24 | 2018-11-02 | 华南理工大学 | 基于健康服务机器人的老年人健康服务系统 |
CN105078449B (zh) | 2015-08-24 | 2018-07-20 | 华南理工大学 | 基于健康服务机器人的老年痴呆症监护系统 |
CN105078450B (zh) | 2015-08-24 | 2018-02-27 | 华南理工大学 | 一种可实现脑电检测的健康服务机器人 |
CN105082149B (zh) | 2015-08-24 | 2017-10-20 | 华南理工大学 | 一种可实现血氧饱和度检测的健康服务机器人 |
CN205950753U (zh) | 2016-05-14 | 2017-02-15 | 深圳市华科安测信息技术有限公司 | 医院导诊服务机器人 |
CN107544266A (zh) | 2016-06-28 | 2018-01-05 | 广州零号软件科技有限公司 | 家庭健康服务机器人 |
CN106407715A (zh) | 2016-10-19 | 2017-02-15 | 上海派毅智能科技有限公司 | 一种智能服务机器人健康辨识系统及方法 |
CN108073104A (zh) | 2016-11-10 | 2018-05-25 | 贺州学院 | 基于stm32嵌入式多用途护理服务机器人 |
RU2649048C1 (ru) | 2016-11-25 | 2018-03-29 | Самсунг Электроникс Ко., Лтд. | Система компактного спектрометра, предназначенного для неинвазивного измерения спектров поглощения и пропускания образцов биологической ткани |
CN106709254B (zh) | 2016-12-29 | 2019-06-21 | 天津中科智能识别产业技术研究院有限公司 | 一种医疗诊断机器人系统 |
CN106671105A (zh) | 2017-01-17 | 2017-05-17 | 五邑大学 | 面向老人的智能陪护机器人 |
CN206833244U (zh) | 2017-04-21 | 2018-01-02 | 山东大学 | 一种基于云平台的医院服务机器人 |
CN107518989A (zh) | 2017-10-21 | 2017-12-29 | 长沙展朔轩兴信息科技有限公司 | 医院服务机器人 |
CN107598943A (zh) | 2017-10-30 | 2018-01-19 | 文杨 | 一种陪伴老人的机器人 |
CN108039193A (zh) | 2017-11-17 | 2018-05-15 | 哈尔滨工大服务机器人有限公司 | 一种自动生成体检报告的方法及装置 |
CN108053889A (zh) | 2017-12-20 | 2018-05-18 | 中国科学院合肥物质科学研究院 | 一种基于Agent技术的健康促进服务机器人 |
CN108422427A (zh) | 2018-03-21 | 2018-08-21 | 南通市巨久新材料科技有限公司 | 一种康复服务机器人 |
-
2020
- 2020-08-31 US US17/639,254 patent/US20220331028A1/en active Pending
- 2020-08-31 WO PCT/EP2020/074240 patent/WO2021038109A1/de unknown
- 2020-08-31 CN CN202080076764.2A patent/CN114980810A/zh active Pending
- 2020-08-31 EP EP20764658.9A patent/EP4003164A1/de active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102781320A (zh) * | 2009-10-30 | 2012-11-14 | 医学运动有限公司 | 综合人体运动分析的系统和方法 |
CN107080540A (zh) * | 2016-02-12 | 2017-08-22 | 塔塔咨询服务公司 | 用于分析人的步态和姿势平衡的系统和方法 |
US20190077007A1 (en) * | 2017-09-14 | 2019-03-14 | Sony Interactive Entertainment Inc. | Robot as Personal Trainer |
Non-Patent Citations (2)
Title |
---|
KOBILAROV M ET AL: "people tracking and following with mobile robot using an omnidirectional camera and a laser", 《2006 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION(ICRA):》, 15 May 2006 (2006-05-15) * |
SANJAY D ET AL: "Robotic system using fuzzy logic for person following", 《2015 INTERNATIONAL CONFERENCE ON ELECTRICAL, ELECTRONICS, SIGNALS, COMMUNICATION AND OPTIMIZATION(EESCO)》, 9 September 2015 (2015-09-09), pages 1 - 4 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2795658C1 (ru) * | 2022-10-04 | 2023-05-05 | Автономная некоммерческая организация высшего образования "Университет Иннополис" | Устройство и способ для диагностики тазобедренных суставов |
RU2801420C1 (ru) * | 2022-10-04 | 2023-08-08 | Автономная некоммерческая организация высшего образования "Университет Иннополис" | Система и способ диагностики тазобедренных суставов |
CN118351595A (zh) * | 2024-04-28 | 2024-07-16 | 北京小米机器人技术有限公司 | 步态识别方法、装置、电子设备及存储介质 |
CN118398850A (zh) * | 2024-07-01 | 2024-07-26 | 同济大学 | 一种燃料电池闭环状态管理方法、装置、介质及产品 |
CN118398850B (zh) * | 2024-07-01 | 2024-09-17 | 同济大学 | 一种燃料电池闭环状态管理方法、装置、介质及产品 |
Also Published As
Publication number | Publication date |
---|---|
EP4003164A1 (de) | 2022-06-01 |
US20220331028A1 (en) | 2022-10-20 |
WO2021038109A1 (de) | 2021-03-04 |
WO2021038109A9 (de) | 2021-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114980810A (zh) | 用于检测人的运动过程和/或生命体征参数的系统 | |
US11779213B2 (en) | Metaverse system | |
US20210186312A1 (en) | Systems and methods for semi-automated medical processes | |
US20210030275A1 (en) | System and method for remotely adjusting sound acquisition sensor parameters | |
US10642046B2 (en) | Augmented reality systems for time critical biomedical applications | |
US11659350B1 (en) | Metaverse dating | |
US11699529B2 (en) | Systems and methods for diagnosing a stroke condition | |
US8953837B2 (en) | System and method for performing an automatic and self-guided medical examination | |
US9412161B2 (en) | Systems and methods for medical use of motion imaging and capture | |
US8647268B2 (en) | Patient monitoring apparatus | |
US7502498B2 (en) | Patient monitoring apparatus | |
US11935656B2 (en) | Systems and methods for audio medical instrument patient measurements | |
CN104995638A (zh) | 在ems环境中用于三维交互监视的系统和方法 | |
Colantonio et al. | Computer vision for ambient assisted living: Monitoring systems for personalized healthcare and wellness that are robust in the real world and accepted by users, carers, and society | |
CN113490945A (zh) | 人动作过程采集系统 | |
CN116945156A (zh) | 一种基于计算机视觉技术的老年人智能陪护系统 | |
KR20210141197A (ko) | 원격 진료를 위한 증강현실 인터페이스 제공 방법, 장치, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체 | |
US20230013233A1 (en) | Image-based risk analysis of individuals in clinical settings | |
Sorrentino et al. | Feasibility Study on Eye Gazing in Socially Assistive Robotics: An Intensive Care Unit Scenario |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230417 Address after: Germanic city of La Applicant after: Tedro Co. Address before: Ilmenau, Germany Applicant before: Metra leibus new technologies and systems |