JP7034069B2 - 動物行動の自動分類 - Google Patents
動物行動の自動分類 Download PDFInfo
- Publication number
- JP7034069B2 JP7034069B2 JP2018519293A JP2018519293A JP7034069B2 JP 7034069 B2 JP7034069 B2 JP 7034069B2 JP 2018519293 A JP2018519293 A JP 2018519293A JP 2018519293 A JP2018519293 A JP 2018519293A JP 7034069 B2 JP7034069 B2 JP 7034069B2
- Authority
- JP
- Japan
- Prior art keywords
- module
- modules
- control system
- data
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 241001465754 Metazoa Species 0.000 title claims description 103
- 238000000034 method Methods 0.000 claims description 219
- 230000006399 behavior Effects 0.000 claims description 196
- 230000007704 transition Effects 0.000 claims description 108
- 238000004422 calculation algorithm Methods 0.000 claims description 79
- 230000008569 process Effects 0.000 claims description 71
- 230000014509 gene expression Effects 0.000 claims description 59
- 230000033001 locomotion Effects 0.000 claims description 55
- 238000012545 processing Methods 0.000 claims description 49
- 230000009471 action Effects 0.000 claims description 45
- 238000000513 principal component analysis Methods 0.000 claims description 44
- 230000008859 change Effects 0.000 claims description 42
- 239000003795 chemical substances by application Substances 0.000 claims description 35
- 238000005094 computer simulation Methods 0.000 claims description 23
- 239000013598 vector Substances 0.000 claims description 19
- 150000001875 compounds Chemical class 0.000 claims description 18
- 238000007781 pre-processing Methods 0.000 claims description 8
- 239000003205 fragrance Substances 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 3
- 239000012190 activator Substances 0.000 claims 1
- 230000003542 behavioural effect Effects 0.000 description 163
- 241000699666 Mus <mouse, genus> Species 0.000 description 129
- 241000699670 Mus sp. Species 0.000 description 74
- 238000012360 testing method Methods 0.000 description 64
- 238000009826 distribution Methods 0.000 description 56
- 238000003384 imaging method Methods 0.000 description 34
- 239000011159 matrix material Substances 0.000 description 32
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 27
- 235000019645 odor Nutrition 0.000 description 25
- 238000004458 analytical method Methods 0.000 description 22
- 238000002474 experimental method Methods 0.000 description 21
- 239000003814 drug Substances 0.000 description 19
- 229940079593 drug Drugs 0.000 description 19
- 238000005070 sampling Methods 0.000 description 19
- 238000012549 training Methods 0.000 description 19
- 201000010099 disease Diseases 0.000 description 14
- 238000003860 storage Methods 0.000 description 14
- 208000035475 disorder Diseases 0.000 description 13
- 238000004590 computer program Methods 0.000 description 12
- 230000008014 freezing Effects 0.000 description 10
- 238000007710 freezing Methods 0.000 description 10
- 230000001537 neural effect Effects 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 108090000765 processed proteins & peptides Proteins 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 230000005021 gait Effects 0.000 description 8
- 230000036544 posture Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 7
- 238000003556 assay Methods 0.000 description 6
- 238000010276 construction Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 230000001953 sensory effect Effects 0.000 description 6
- 230000003595 spectral effect Effects 0.000 description 6
- 241000282412 Homo Species 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 5
- 230000001427 coherent effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000021824 exploration behavior Effects 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 102000004196 processed proteins & peptides Human genes 0.000 description 5
- 108090000623 proteins and genes Proteins 0.000 description 5
- 230000000284 resting effect Effects 0.000 description 5
- 230000000638 stimulation Effects 0.000 description 5
- 238000012952 Resampling Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000002347 injection Methods 0.000 description 4
- 239000007924 injection Substances 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 108020004707 nucleic acids Proteins 0.000 description 4
- 102000039446 nucleic acids Human genes 0.000 description 4
- 150000007523 nucleic acids Chemical class 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 229920002683 Glycosaminoglycan Polymers 0.000 description 3
- 239000000427 antigen Substances 0.000 description 3
- 108091007433 antigens Proteins 0.000 description 3
- 102000036639 antigens Human genes 0.000 description 3
- 230000001054 cortical effect Effects 0.000 description 3
- 238000007877 drug screening Methods 0.000 description 3
- 239000012634 fragment Substances 0.000 description 3
- 150000004676 glycans Chemical class 0.000 description 3
- 230000001965 increasing effect Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 150000002632 lipids Chemical class 0.000 description 3
- 230000001404 mediated effect Effects 0.000 description 3
- 150000002772 monosaccharides Chemical class 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 210000000337 motor cortex Anatomy 0.000 description 3
- 210000000653 nervous system Anatomy 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 229920001184 polypeptide Polymers 0.000 description 3
- 229920001282 polysaccharide Polymers 0.000 description 3
- 239000005017 polysaccharide Substances 0.000 description 3
- 150000003384 small molecules Chemical class 0.000 description 3
- 239000000243 solution Substances 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- RHYWBMKYLKNBET-UHFFFAOYSA-N 2,4,4-trimethyl-5h-1,3-thiazole Chemical compound CC1=NC(C)(C)CS1 RHYWBMKYLKNBET-UHFFFAOYSA-N 0.000 description 2
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 2
- 241000700605 Viruses Species 0.000 description 2
- MCMNRKCIXSYSNV-UHFFFAOYSA-N Zirconium dioxide Chemical compound O=[Zr]=O MCMNRKCIXSYSNV-UHFFFAOYSA-N 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 239000000935 antidepressant agent Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000005311 autocorrelation function Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013499 data model Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000000763 evoking effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001415 gene therapy Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 208000015122 neurodegenerative disease Diseases 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000001691 photoregulatory effect Effects 0.000 description 2
- 230000010399 physical interaction Effects 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- 239000004810 polytetrafluoroethylene Substances 0.000 description 2
- 229920001343 polytetrafluoroethylene Polymers 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000005309 stochastic process Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000011179 visual inspection Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241001634120 Adeno-associated virus - 5 Species 0.000 description 1
- 206010001488 Aggression Diseases 0.000 description 1
- 208000024827 Alzheimer disease Diseases 0.000 description 1
- 241000269350 Anura Species 0.000 description 1
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 208000006096 Attention Deficit Disorder with Hyperactivity Diseases 0.000 description 1
- 208000036864 Attention deficit/hyperactivity disease Diseases 0.000 description 1
- 206010003805 Autism Diseases 0.000 description 1
- 208000020706 Autistic disease Diseases 0.000 description 1
- 241000271566 Aves Species 0.000 description 1
- 241000283690 Bos taurus Species 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000283707 Capra Species 0.000 description 1
- 241000700198 Cavia Species 0.000 description 1
- 241000938605 Crocodylia Species 0.000 description 1
- 241000252212 Danio rerio Species 0.000 description 1
- 241000255925 Diptera Species 0.000 description 1
- 201000010374 Down Syndrome Diseases 0.000 description 1
- 241000255601 Drosophila melanogaster Species 0.000 description 1
- 208000012661 Dyskinesia Diseases 0.000 description 1
- 241000283086 Equidae Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 206010017577 Gait disturbance Diseases 0.000 description 1
- 241000287828 Gallus gallus Species 0.000 description 1
- 208000023105 Huntington disease Diseases 0.000 description 1
- 208000015592 Involuntary movements Diseases 0.000 description 1
- 102000004310 Ion Channels Human genes 0.000 description 1
- PIWKPBJCKXDKJR-UHFFFAOYSA-N Isoflurane Chemical compound FC(F)OC(Cl)C(F)(F)F PIWKPBJCKXDKJR-UHFFFAOYSA-N 0.000 description 1
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 208000019510 Mendelson syndrome Diseases 0.000 description 1
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 208000018737 Parkinson disease Diseases 0.000 description 1
- 241001494479 Pecora Species 0.000 description 1
- 241000288906 Primates Species 0.000 description 1
- 241000700159 Rattus Species 0.000 description 1
- 208000032107 Rigor Mortis Diseases 0.000 description 1
- 241000282887 Suidae Species 0.000 description 1
- 241000255588 Tephritidae Species 0.000 description 1
- 206010044688 Trisomy 21 Diseases 0.000 description 1
- 108091093126 WHP Posttrascriptional Response Element Proteins 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000002745 absorbent Effects 0.000 description 1
- 239000002250 absorbent Substances 0.000 description 1
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 239000003522 acrylic cement Substances 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000016571 aggressive behavior Effects 0.000 description 1
- 208000012761 aggressive behavior Diseases 0.000 description 1
- 238000010171 animal model Methods 0.000 description 1
- 230000001430 anti-depressive effect Effects 0.000 description 1
- 229940005513 antidepressants Drugs 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 201000009807 aspiration pneumonia Diseases 0.000 description 1
- 201000009408 aspiration pneumonitis Diseases 0.000 description 1
- 208000015802 attention deficit-hyperactivity disease Diseases 0.000 description 1
- 239000005441 aurora Substances 0.000 description 1
- 238000013398 bayesian method Methods 0.000 description 1
- 238000009395 breeding Methods 0.000 description 1
- 230000001488 breeding effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 235000013330 chicken meat Nutrition 0.000 description 1
- 208000030251 communication disease Diseases 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 230000021615 conjugation Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000003246 corticosteroid Substances 0.000 description 1
- 229960001334 corticosteroids Drugs 0.000 description 1
- 238000012864 cross contamination Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000034994 death Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- SZXQTJUDPRGNJN-UHFFFAOYSA-N dipropylene glycol Chemical compound OCCCOCCCO SZXQTJUDPRGNJN-UHFFFAOYSA-N 0.000 description 1
- 235000012489 doughnuts Nutrition 0.000 description 1
- 238000007876 drug discovery Methods 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 238000005194 fractionation Methods 0.000 description 1
- 238000003209 gene knockout Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000021061 grooming behavior Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 244000000013 helminth Species 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 230000001976 improved effect Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 230000002458 infectious effect Effects 0.000 description 1
- 239000003112 inhibitor Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000005173 invertebrate brain Anatomy 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 229960002725 isoflurane Drugs 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 201000010901 lateral sclerosis Diseases 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000000520 microinjection Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004660 morphological change Effects 0.000 description 1
- 208000005264 motor neuron disease Diseases 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 230000017311 musculoskeletal movement, spinal reflex action Effects 0.000 description 1
- 230000007886 mutagenicity Effects 0.000 description 1
- 231100000299 mutagenicity Toxicity 0.000 description 1
- 230000003538 neomorphic effect Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000004770 neurodegeneration Effects 0.000 description 1
- 230000001123 neurodevelopmental effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 229940005483 opioid analgesics Drugs 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 239000002304 perfume Substances 0.000 description 1
- 230000030786 positive chemotaxis Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 244000062645 predators Species 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 230000000384 rearing effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000010539 reproductive behavior Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 150000004492 retinoid derivatives Chemical class 0.000 description 1
- 201000000980 schizophrenia Diseases 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 210000001044 sensory neuron Anatomy 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 210000000278 spinal cord Anatomy 0.000 description 1
- 230000009154 spontaneous behavior Effects 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 210000001977 striatum neuron Anatomy 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 231100000041 toxicology testing Toxicity 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
- 230000003827 upregulation Effects 0.000 description 1
- 230000003612 virological effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1123—Discriminating type of movement, e.g. walking or running
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
- G06V10/85—Markov-related models; Markov random fields
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/40—Animals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/42—Evaluating a particular growth phase or type of persons or animals for laboratory research
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Public Health (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Physiology (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Psychiatry (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
Description
本発明は、(1)国立衛生研究所(National Institutes of Health(NIH))長官によって授与されたNIH新イノベーター賞(New Innovator Award)受賞番号DP20D007109、および(2)NIH国立聴覚・伝達障害研究所(National Institute on Deafness and Other Communication Disorders(NIDCD))によって授与されたNIH研究プロジェクト助成プログラムNo.ROIDCOI1558の下での政府支援でなされたものである。連邦政府は本発明に一定の権利を有する。
本発明は、動物行動、人間行動または他の行動メトリックを識別および分類するためのシステムおよび方法に関する。
以下の説明は、本発明の理解において有用となりうる情報を含む。この説明は、本明細書で提供する情報のいずれかが先行技術であるかまたは本出願で特許請求される発明と関連することを認めるものでもないし、具体的または暗黙的に参照されている出版物が先行技術であることを認めるものでもない。
行動は、動物が特定の目標(食物や繁殖相手を見つけるなど)を達成することを可能にするように進化によって形作られてきたが、これらの行動が、経時的に、特に速い時間スケールでどのように構築されるかはまだ明らかではない。しかし、行動の構造を特徴付ける1つの強力な手法が動物行動学から生じており、その提起によれば、脳は、より単純な動作の定型化したモジュールを特定の順序で発現することによってコヒーレントな行動を形成する[10]。例えば、教師付き分類法および教師なし分類法の両方で、C.エレガンス(C. elegans)、およびキイロショウジョウバエ(D. melanogaster)の幼虫と成虫の両方によって探索中に発現された潜在的な行動モジュールが識別されている[11~16]。これらの実験は、これらの生物における行動に対して基礎構造を明らかにしており、これにより、無脊椎動物の脳が環境の変化に行動を適応させるのに使用される戦略が発見されている。C.エレガンスの場合、嗅覚手がかりへのナビゲーションは、行動モジュールを接続して経時的に系列にする遷移確率を調整する神経回路によって少なくとも部分的に媒介され、したがって、外観上は、新しい感覚駆動行動(正の走化性のような)が、核となる行動モジュールのセットの再配列を通して蠕虫の神経系によって生成されうる[17~19]。ハエ幼虫の感覚駆動行動についても同様の観察がなされている[11]。
これらの課題にもかかわらず、本発明者らは、動物のビデオ記録を処理することによって動物の行動モジュールを自動的に識別し分類するシステムおよび方法を発見した。本発明の原理によれば、モニタリング方法およびモニタリングシステムは、動物行動を分類することができるハードウェアおよびカスタムソフトウェアを使用する。動物行動状態の分類は、深度カメラを使用した3次元の動物姿勢の定量的測定によって決定される。一態様では、3次元深度カメラを使用して、領域と深度の両方の情報の有する、動物のビデオ画像のストリームが取得される。次いで、複数の画像の各々から背景画像(空の実験領域)が除去されて、明領域と暗領域とを有する処理画像が生成される。複数の処理画像における明領域の輪郭が見出され、輪郭内の領域と深度の両方の画像情報からのパラメータが抽出されて、複数の多次元データ点が形成され、各データ点は特定の時間における動物の姿勢を表す。次いで、姿勢データ点をクラスタ化して、点クラスタが動物行動を表すようにすることができる。
一例において、本発明者らは、マウスが円形オープンフィールドを自由に探索する際にマウスの体の形状がどのように変化するかを測定した。本発明者らは、深度センサを使用してマウスの3次元(「3D」)ポーズダイナミクスを捕捉し、次いで、マウスの画像をマウスの脊椎の推定軸に沿ってセンタリングし位置合わせすることによってマウスのポーズが経時的にどのように変化したかを定量化した。
類似したモジュールを識別するために、マウスの行動データにまず、主成分分析(PCA)または他の次元縮小アルゴリズムを施してもよく、最初の2つの主成分をプロットしてもよい。ポーズダイナミクスデータ内の各ブロックは、PCA空間を通る連続的な軌跡に対応する。例えば、脊椎が持ち上がっているマウスと関連付けられる個々のブロックは、PCA空間を通る特定の曲線に対応した。テンプレートマッチング法を使用して一致するモチーフについて行動データを走査することにより、異なる動物におけるこの曲線のいくつかのさらなる例が識別された。これは、これらのPCA軌跡の各々が、定型化した行動モジュールが再利用された個々のインスタンスを表しうることを示唆する。
1つのモデルは、各行動モジュールを、PCA空間を通る定型化した軌跡を捕捉するベクトル自己回帰(AR)過程として表した。加えて、そのモデルでは、異なるモジュール間の切り替えダイナミクスを隠れマルコフモデル(HMM)を使用して表した。併せてこのモデルを、本明細書では「AR-HMM」と呼ぶ。
[本発明1001]
対象の動きを表す3次元ビデオデータフレームを、モジュールを表す少なくとも1つのフレームセットと、モジュール間の遷移を表す少なくとも1つのフレームセットとに区分するために、計算モデルを使用して前記3次元ビデオデータフレームを処理する工程、および
動物行動のタイプを表すデータ識別子に参照付けられた前記モジュールを表す少なくとも1つのフレームセットをメモリに格納する工程
を含む、対象の動きを分析してモジュールに分離するための方法。
[本発明1002]
前記処理する工程は、前記ビデオデータにおいて前記対象を背景から分離する工程を含む、本発明1001の方法。
[本発明1003]
前記処理する工程は、前記ビデオデータのフレームセット上の、各フレームに共通の座標系に対する前記対象の特徴の向きを識別する工程をさらに含む、本発明1002の方法。
[本発明1004]
前記処理する工程は、位置合わせされたフレームのセットを出力するために、前記特徴が前記座標系に対して同じ方向に向けられるように前記フレームセットの少なくとも1つのサブセット内の前記対象の前記向きを修正する工程をさらに含む、本発明1003の方法。
[本発明1005]
前記処理する工程は、主成分空間を通る各位置合わせされたフレームについての前記対象のポーズを表すポーズダイナミクスデータを出力するために、主成分分析(PCA)を使用して前記位置合わせされたフレームを処理する工程をさらに含む、本発明1004の方法。
[本発明1006]
前記処理する工程は、前記ポーズダイナミクスデータを別々のモジュールセットに時間的にセグメント化するために、計算モデルを用いて前記位置合わせされたフレームを処理する工程をさらに含み、モジュールセット内の各サブ秒モジュールが類似したポーズダイナミクスを示す、本発明1005の方法。
[本発明1007]
前記3次元ビデオデータにおいて閾値を上回る頻度で発生する前記モジュールセットの各々の表現を表示する工程をさらに含む、本発明1006の方法。
[本発明1008]
前記計算モデルは、前記サブ秒モジュールを、PCA空間を通る定型化した軌跡を表すベクトル自己回帰過程としてモデル化することを含む、本発明1001の方法。
[本発明1009]
前記計算モデルは、隠れマルコフモデルを使用してサブ秒モジュール間の遷移期間をモデル化することを含む、本発明1001の方法。
[本発明1010]
前記3次元ビデオデータは、多次元ベクトル空間における一連の点を出力するためにまず処理され、各点は前記対象の3次元ポーズダイナミクスを表す、本発明1001の方法。
[本発明1011]
前記対象は動物試験における動物である、本発明1001~1010のいずれかの方法。
[本発明1012]
前記対象はヒトである、本発明1001~1010のいずれかの方法。
[本発明1013]
対象を背景から分離するために前記対象の動きを表す3次元ビデオデータを前処理する工程、
前記ビデオデータのフレームセット上の、各フレームに共通の座標系に対する前記対象の特徴の向きを識別する工程、
位置合わせされたフレームのセットを出力するために、前記特徴が前記座標系に対して同じ方向に向けられるように前記フレームセットの少なくとも1つのサブセット内の前記対象の前記向きを修正する工程、
主成分空間を通る各位置合わせされたフレームについての前記対象のポーズを表すポーズダイナミクスデータを出力するために、主成分分析を使用して前記位置合わせされたフレームを処理する工程、
前記ポーズダイナミクスデータを別々のサブ秒モジュールのセットに時間的にセグメント化するために、前記位置合わせされたフレームを処理する工程であって、モジュールセット内の各サブ秒モジュールが類似したポーズダイナミクスを示す、工程、および
前記3次元ビデオデータにおいて閾値を上回る頻度で発生する前記モジュールセットの各々の表現を表示する工程
を含む、対象の動きを分析してモジュールに分離するための方法。
[本発明1014]
前記位置合わせされたフレームを処理する工程は、モデルフリーアルゴリズムを用いて行われる、本発明1013の方法。
[本発明1015]
前記モデルフリーアルゴリズムは、オートコレログラムを計算することを含む、本発明1014の方法。
[本発明1016]
前記位置合わせされたフレームを処理する工程は、モデルベースアルゴリズムを用いて行われる、本発明1013の方法。
[本発明1017]
前記モデルベースアルゴリズムはAR-HMMアルゴリズムである、本発明1016の方法。
[本発明1018]
前記対象は動物試験における動物である、本発明1013~1017のいずれかの方法。
[本発明1019]
前記対象はヒトである、本発明1013~1017のいずれかの方法。
[本発明1020]
試験化合物が試験対象に投与された後の前記試験対象においてモジュールセットを含む試験行動表現を識別する工程、
前記試験行動表現を複数の基準行動表現と比較する工程であって、各基準行動表現が各薬物クラスを表す、工程、および
前記試験行動表現が分類器によってある薬物クラスを表す基準行動表現と一致すると識別された場合に、前記試験化合物は前記薬物クラスに属すると決定する工程
を含む、試験化合物を分類する方法。
[本発明1021]
前記試験行動表現は、
前記試験対象の動きを表す3次元ビデオデータを受け取る工程、
前記3次元データを少なくとも1つのモジュールセットと少なくとも1つのモジュール間遷移期間のセットとに区分するために、計算モデルを使用して前記3次元データを処理する工程、および
前記少なくとも1つのモジュールセットを動物行動のタイプを表すカテゴリに割り当てる工程
によって識別される、本発明1020の方法。
[本発明1022]
前記計算モデルは、前記サブ秒モジュールを、主成分分析(PCA)空間を通る定型化した軌跡を表すベクトル自己回帰過程としてモデル化することを含む、本発明1021の方法。
[本発明1023]
前記計算モデルは、隠れマルコフモデルを使用して前記遷移期間をモデル化することを含む、本発明1021の方法。
[本発明1024]
前記3次元ビデオデータは、多次元ベクトル空間における一連の点を出力するためにまず処理され、各点は前記試験対象の3Dポーズダイナミクスを表す、本発明1020~1023のいずれかの方法。
[本発明1025]
前記試験化合物は、小分子、抗体またはその抗原結合フラグメント、核酸、ポリペプチド、ペプチド、ペプチド模倣体、多糖、単糖、脂質、グリコサミノグリカン、およびそれらの組合せからなる群より選択される、本発明1020~1024のいずれかの方法。
[本発明1026]
前記試験対象は動物試験における動物である、本発明1020~1025のいずれかの方法。
[本発明1027]
対象への作用因子の投与前および投与後の前記対象の動きを表す3次元ビデオデータを受け取る工程、
前記対象を背景から分離するために前記3次元ビデオデータを前処理する工程、
前記ビデオデータのフレームセット上の、各フレームに共通の座標系に対する前記対象の特徴の向きを識別する工程、
位置合わせされたフレームのセットを出力するために、前記特徴が前記座標系に対して同じ方向に向けられるように前記フレームセットの少なくとも1つのサブセット内の前記対象の前記向きを修正する工程、
主成分空間を通る各位置合わせされたフレームについての前記対象のポーズを表すポーズダイナミクスデータを出力するために、主成分分析を使用して前記位置合わせされたフレームを処理する工程、
前記ポーズダイナミクスデータを別々のサブ秒モジュールのセットに時間的にセグメント化するために、計算モデルを用いて前記位置合わせされたフレームを処理する工程であって、サブ秒モジュールのセット内の各サブ秒モジュールが類似したポーズダイナミクスを示す、工程、
前記対象への前記作用因子の投与前の各サブ秒モジュールセット内のモジュール数を決定する工程、
前記対象への前記作用因子の投与後の各サブ秒モジュールセット内のモジュール数を決定する工程、
前記対象への前記作用因子の投与前と投与後の各サブ秒モジュールセット内のモジュール数を比較する工程、および
前記対象への前記作用因子の投与前と投与後の各モジュールセット内のモジュール数の発現頻度の変化の指示を出力する工程
を含む、対象の動きを分析してモジュールに分離するための方法。
[本発明1028]
各サブ秒モジュールセットは、行動モジュールを表す基準データとの比較に基づいて所定の行動モジュールに分類される、本発明1027の方法。
[本発明1029]
前記対象への前記作用因子の投与前と投与後の各モジュールセット内のモジュール数の発現頻度の前記変化は、公知のカテゴリの作用因子への曝露後のモジュールの発現頻度の変化を表す基準データと比較される、本発明1027または1028の方法。
[本発明1030]
公知のカテゴリの作用因子への曝露後の頻度の変化を表す基準データとの前記比較に基づいて、前記作用因子を複数の公知の作用因子カテゴリのうちの1つとして分類するさらなる工程を含む、本発明1029の方法。
[本発明1031]
前記作用因子は、薬学的に活性な化合物である、本発明1027~1030のいずれかの方法。
[本発明1032]
前記作用因子は、視覚刺激または聴覚刺激である、本発明1027~1030のいずれかの方法。
[本発明1033]
前記作用因子は匂い物質である、本発明1027~1030のいずれかの方法。
[本発明1034]
前記対象は動物試験における動物である、本発明1027~1033のいずれかの方法。
[本発明1035]
前記対象はヒトである、本発明1027~1033のいずれかの方法。
[本発明1036]
3次元ビデオカメラで対象の動きを記録し、前記3次元ビデオカメラから出力された3次元ビデオデータを解析して、異なる行動を表すフレームセットにするためのシステムであって、
対象の動きを表すビデオデータを出力するように構成された3次元ビデオカメラと、
格納された機械実行可能コードを含む機械可読媒体を含む、前記3次元ビデオカメラと通信するメモリと、
前記メモリに結合された1つまたは複数のプロセッサを含む制御システムであって、前記制御システムに、
前記対象を背景から分離するために、前記制御システムを使用して前記ビデオデータを前処理させ、
前記制御システムを使用して、前記ビデオデータのフレームセット上の、各フレームに共通の座標系に対する前記対象の特徴の向きを識別させ、
位置合わせされたフレームのセットを出力するために、前記制御システムを使用して、前記特徴が前記座標系に対して同じ方向に向けられるように前記フレームセットの少なくとも1つのサブセット内の前記対象の前記向きを修正させ、
前記制御システムを使用して、前記位置合わせされたフレームのセットの各フレームについてのポーズダイナミクスデータを出力するために、主成分分析を使用して前記位置合わせされたフレームのセットを処理させ、前記ポーズダイナミクスデータは主成分空間を通る各位置合わせされたフレームについての前記対象のポーズを表し、
前記位置合わせされたフレームのセットを別々のサブ秒モジュールのセットに時間的にセグメント化するために、前記制御システムを使用して、前記位置合わせされたフレームのセットを処理させ、各サブ秒モジュールセットは類似したポーズダイナミクスを有するサブ秒モジュールだけを含み、
サブ秒モジュールに参照付けられた前記位置合わせされたフレームのセット内の各フレームをデータベースに格納させる
ための前記機械実行可能コードを実行するように構成された、制御システムと
を含む、システム。
[本発明1037]
前記制御システムは、前記別々のサブ秒モジュールのセット内で閾値を上回って発生する前記サブ秒モジュールのセットのサブセットの表現をディスプレイに送るようにさらに構成されている、本発明1036のシステム。
[本発明1038]
前記制御システムは、閾値を上回って発生する前記サブ秒モジュールのセットの前記サブセットの各々の行動タグに関するユーザ入力を受け取る、本発明1036のシステム。
[本発明1039]
前記制御システムは、第2の対象の動きを表す前記3次元カメラから出力されたビデオデータに前記行動タグを自動的に適用するようにさらに構成されている、本発明1038のシステム。
いくつかの態様では、本発明の特定の態様を説明し、特許請求するために使用される、寸法、形状、相対位置などの特性は、用語「約」によって修飾されていると理解されるべきである。
本発明者らは、動物のビデオデータを処理することによって、動物の行動モジュールを自動的かつ客観的に識別および分類するためのシステムおよび方法を発見した。これらのシステムは、深度カメラを使用して3次元の動物姿勢または姿勢軌跡を定量的に測定し、処理し、分析することによって、動物行動状態を分類してもよい。これらのシステムおよび方法は、測定可能な動作単位を構成すべきものについての先験的な定義の必要性を排除し、したがって行動状態の分類は客観的になりかつ教師なし分類となる。
動物50(例えば、マウス)のビデオ画像を記録および追跡するのに様々な方法を利用してもよい。いくつかの態様では、記録されるビデオは3次元で記録されてもよい。この目的には様々な装置が利用可能であり、例えば本明細書で開示する実験ではMicrosoftのKinect for Windowsを利用した。他の態様では、以下のさらなる装置を利用してもよい:(1)立体視カメラ(深度画像を生成するように較正された2台以上の2次元カメラのグループを含みうる)、(2)ToF(time-of-flight)深度カメラ(例えば、CamCube、PrimeSense、Microsoft Kinect 2、構造化照明深度カメラ(例えば、Microsoft Kinect 1)、およびX線ビデオ。
ビデオレコーダ100および追跡システム110からのデータ出力は、深度フレームを処理し、それらを適切なフォーマット(例えば、バイナリフォーマットまたは他のフォーマット)で保存するコンピューティングデバイス113によって受信され処理されてもよい。いくつかの態様では、ビデオレコーダ100および追跡システム110からのデータは、ネットワーク120を通じてサーバ130に直接出力されてもよく、あるいは一時的にバッファされ、かつ/またはUSBや他の接続を通じて、さらなる処理のためにネットワーク120を通じて中央サーバ130に送信する前にデータを一時的に格納する関連付けられたコンピューティングデバイス113に送信されてもよい。他の態様では、データは、ネットワーク120を通じて送信せずに関連付けられたコンピュータ113によって処理されてもよい。
いくつかの態様では、ビデオデータの生画像がデータベースまたは他のメモリに保存および/または格納された後、様々な前処理を行って、さらなる処理のためにビデオデータ内の動物を分離し、動物の画像を共通軸に沿って配向してもよい。いくつかの態様では、頭部の向きを利用して画像を共通の方向に向けてもよい。他の態様では、推定される脊椎の方向を組み込んでもよい。
図2Aに、関心領域を分離し背景画像を差し引いて動物50のビデオデータを分離するためにシステムが行いうるプロセスを示す。まず、マウスが行動している実験アリーナを分離するために、システムは、最初に、さらなる分析のための関心領域(ROI)210を識別してもよい。他の態様では、関心領域210は、記録されたビデオデータの全視野10を含んでもよい。領域を分離するために、画像化されたアリーナの外側エッジに沿って手動でトレースしてもよい。ROI 210の外側の画素は、偽オブジェクト検出を防止するためにゼロに設定してもよい。他の態様では、システムは、様々な方法を使用してROI 210を自動的に定義してもよい。いくつかの態様では、システムは、インタラクティブな中央値フィルタを用いて生のイメージングデータをフィルタリングしてもよく、中央値フィルタは、例えばKinectにおいてセンサからの相関ノイズを除去するのに良く適している。
次いで、動物(例えば、マウス)の重心を、前処理された画像の質量中心として、または他の適切な方法によって識別してもよい270。次いで、動物の輪郭に楕円をフィッティングして285、動物の全体的な向きを検出してもよい。マウスを適切に配向する280ために、手動で配向したマウス抽出画像のセットで様々な機械学習アルゴリズムを訓練してもよい(例えば、ランダムフォレスト分類器)。画像が与えられると、向きアルゴリズムは次いで、マウスの頭部が正しい方向に向いているか否かを示す出力を返す。
図3に示すように、向き補正後の画像またはフレームは、いくつかの態様では、主成分分析時系列310またはデータ点を減らすための他の統計的方法へ出力される。いくつかの態様では、データは、本明細書で開示するAR-HMMアルゴリズムなどのモデルフィッティングアルゴリズム315を適用され、またはビデオデータ内に含まれる行動モジュール300を識別するために開示のようなモデルフリーアルゴリズム320を適用されてもよい。加えて、いくつかの態様では、PCA時系列は実行されない。
モデルフリーアルゴリズム320またはモデルフィッティング315アルゴリズムを含むいくつかの態様では、各画素で捕捉された情報は、多くの場合、高い相関性があるか(近傍画素)、または情報価値がない(マウスの身体を決して表すことがない画像境界上の画素)。冗長な次元を減らすと共にモデル化を計算的に扱いやすくするために、様々な技術を使用して各画像を次元縮小してもよい。例えば、5レベルのウェーブレット分解を行うことにより、画像を、各次元が単一の空間スケールの情報を捕捉しプールした表現に変換してもよい。この変換では、いくつかの次元は数ミリメートルのスケールで細かいエッジを明確にコードしうるが、一方で別の次元はセンチメートルの空間スケールで幅広い変化を符号化していた。
モデルフリーアルゴリズム320を有するいくつかの態様では、動物がある動きパターンから別の動きパターンに遷移する速度を反映する、動物の行動に自己相似性がある時間スケールを評価するために、自己相関分析を行ってもよい。センサ特有のノイズを除去するためにはある程度のデータ平滑化が必要であるため、信号のタイムラグのあるバージョン間の統計的相関としてオートコレログラムを計算すると、たとえ死後硬直でポーズをとらせた動物(例えばマウス)であっても、オートコレログラムの低下がもたらされる。したがって、マウスのポーズデータの全10次元間の相関距離を、問題の時系列信号のタイムラグのあるバージョン間の比較器として利用してもよく、死んでいる動物では値が約1.0の一様な自己相関関数が得られ、行動している動物(例えば、マウス)では低下した自己相関関数が得られる。このオートコレログラムが行動マウスにおいて低下する速度は、行動の基本的な時間スケールの尺度であり、指数関数的減衰曲線の時定数タウとして特徴付けてもよい。タウは、SciPy最適化パッケージを使用したLevenberg-Marquardtアルゴリズム(非線形最小二乗法)を使用して適合させることができる。
モジュールを識別するためにモデルを使用しない320いくつかの態様では、様々な方法を利用して遷移期間の変化点を識別してもよい。マウスの深度画像のランダム射影を経時的にプロットすると、各々が経時的な潜在的変化点である明確な線条が得られる。ランダム射影データにおいて見られるブロック構造間の潜在的境界を表すこれらの変化点の識別を自動化するために、フィルタ処理導関数アルゴリズム(filtered derivative algorithm)と呼ばれる簡単な変化点識別法を利用することができる。例えば、k=4フレームのラグでフレーム当たりの単位正規化ランダム射影の導関数を計算するアルゴリズムを使用してもよい。各時間点で、次元ごとに、アルゴリズムは、信号がある閾値h=0.15mmを超えたかどうかを判定してもよい。次いで、2進変化点インジケータ信号を、D=300ランダム射影次元の各々にわたって合計してもよく、次いで、得られた1D信号を、シグマ=0.43フレームのカーネル標準偏差を有するガウスフィルタで平滑化してもよい。次いで変化点を、この平滑化された1D時系列の極大値として識別してもよい。この手順は、パラメータk、hおよびシグマの特定の値に部分的に依存する。例えば、行動しているマウスで変化点の数を最大にするが、死んだマウスで変化点をもたらさない値を利用してもよい。
データがモデルなしで分析される320いくつかの態様では、特定のアルゴリズムを利用して類似したモジュールまたは繰り返されるモジュールを識別してもよい。したがって、繰り返しモジュールのセットを、動物行動のボキャブラリーまたはシラブルとして識別してもよい。したがって、(わずか数フレームを超える)任意の比較的長い行動スニペットが、(基礎となる行動モデルに依存せずに)「繰り返された」かどうかを判定するために、システムは、テンプレートマッチング手順を利用して、PCA空間を通る類似した軌跡を識別してもよい。類似の軌跡を識別するために、例えば、システムおよび方法は、いくつかのターゲットスニペット、すなわち「テンプレート」と、等しい長さの可能なすべてのスニペット(多くの場合、変化点分析によって識別されたおおよそのブロック境界によって定義される)との間のユークリッド距離を計算してもよい。統計に基づく他の方法を含めて、他の類似した方法を、モジュールを識別するために用いることもできる。
他の態様では、データモデル315を利用してビデオデータ内の行動モジュールを識別するシステムおよび方法を使用してもよい。例えば、データモデルは、複雑な動的過程をモデル化するのに使用されることの多い、生成的確率的モデル化の十分に確立されたパラダイムを実装してもよい。このクラスのモデルは、観察されたデータをモデル自体によって合成的に生成することができる過程を記述するという意味で生成的であり、その過程が確率分布からのサンプリングに関して数学的に定義されるため確率的である。加えて、解釈可能なモデルをデータに適合させることによって、モデルが措定する潜在変数構造がデータを生じさせたことを明らかにするようにデータを「解析」した(状態の数およびアイデンティティを記述するパラメータ、ならびに状態間の遷移を記述するパラメータを含む)。
いくつかの態様では、システムは、離散時間隠れマルコフモデル315(HMM)を利用して行動モジュールを識別してもよい。HMMは、順次の時系列データをモデル化するための確率過程の範囲を包含する。HMMモデルは、(例えば、イメージングデータのすべてのフレームの)各時点において、マウスは、ラベルを与えることができる離散状態(マルコフ状態)内にあると措定する。各マルコフ状態は、その状態内にある間に動物が行う短い3次元の動きモチーフを表す。観察されたマウスの3次元行動は、その動物が直近の過去に発現した特定の動きパターンに依存するように見えるので、理想的には各マルコフ状態はマウスの将来の行動をその直近の過去のポーズダイナミクスに基づいて予測することになる。したがって、各マルコフ状態は、動物の行動モードを識別する潜在的離散成分と、行動モードに基づいて動物の短い時間スケールの行動を予測するのに使用される観察系列のラグの数の両方で構成される。このモデル構造を、多くの場合、スイッチングベクトル自己回帰(SVAR)モデルまたは自己回帰HMM(AR-HMM)と呼ぶ。
式中、πは(i,j)要素が状態iから状態jに遷移する確率である遷移行列450である。いくつかの態様では、離散状態のダイナミクスは、ここでは経時的に変化しないとみなす、遷移行列によって十分にパラメータ化されうる。推論アルゴリズム(後述する)のタスクの1つは、離散状態系列およびそれらの配置を決定する遷移行列の確度の高い値を推測し、よって、再利用される行動モジュールの順序およびこれらのモジュールがどのように経時的に接続されるかを決定する遷移パターンを推測することである。
いくつかの態様では、システムは、行動モジュール間の関係の指示を提供するか、最も頻繁に使用される行動モジュールを記述するか、または行動モジュールの他の有用な分析を行う能力を提供してもよい。
またシステムは、各ノードi∈V={1,2,...,n}がシラブルiに対応し、各有向エッジ
がバイグラムに対応するグラフG=(V,E)上でn個のシラブルのシラブルバイグラム確率およびシラブル使用頻度を出力してもよい。グラフは、各ノードのサイズが対応するシラブルの使用頻度に比例し、各弧の幅および不透明度が、図の凡例に示されている最小および最大の範囲内の対応するバイグラムの確率に比例するように、円形ノードと有向弧のセットとして出力してもよい。再現可能な非(擬似)ランダムな方法で(図の全体的な回転まで)各グラフをレイアウトするために、システムは、スペクトルレイアウトアルゴリズムを使用してノードの位置を初期設定し、Fructherman-Reingold反復力指向レイアウトアルゴリズムを使用してノード位置を微調整してもよく、本発明者らは、NetworkXソフトウェアパッケージに実装されている両方のアルゴリズムを使用することができた。
いくつかの態様では、推論アルゴリズムをモデル315に適用して、パラメータを推定してもよい。例えば、近似ベイズ推定は、ギブスサンプリング、マルコフ連鎖モンテカルロ(MCMC)推論アルゴリズムを使用して行うことができる。MCMCパラダイムでは、推論アルゴリズムは、関心対象の事後分布からの近似サンプルを構築し、これらのサンプルは、平均値を計算するために、または事後モードへのプロキシとして使用される。アルゴリズムによって生成されたサンプルの系列は、事後確率の低い領域または悪い局所最適解の領域をエスケープして、事後確率の高い領域にある。メインAR-HMMモデルでは、関心対象の潜在変数は、ベクトル自己回帰パラメータ、隠れた離散状態系列、および遷移行列(例えば、任意の所与の行動モジュール内のポーズダイナミクスを定義する自己回帰パラメータ、モジュールの順序、および任意の所与のモジュールと任意の他のモジュールとの間の遷移確率)を含む。MCMC推論アルゴリズムを3Dイメージングデータに適用することにより、AR-HMMのこれら潜在変数のサンプルのセットが生成される。
粘着性HDP事前分布を、濃度パラメータα、γ>0および粘着性パラメータκ>0を有する遷移行列π上に配置した。
式中、δijは、i=jの場合は1であり、それ以外の場合は0であり、πiは、πの第i行を表す。ガンマ事前分布は、αとγとに配置され、α~Gamma(1,1/100)とγ~Gamma(1,1/100)とを設定する。
各状態i=1,2,...の自己回帰パラメータ
を、行列正規逆Wishart(Matrix Normal Inverse-Wishart)事前分布からサンプリングした。
または同等に、
式中、
は、クロネッカー積を表し、(A,b)はAにbを列として付加することによって形成された行列を表す。加えて、K0上のブロックARD事前分布を使用して、情報価値がないラグをゼロに縮小するよう促す。
上述したように、ギブスサンプリング推論アルゴリズムは、固定された遷移行列および自己回帰パラメータが与えられるとデータのモジュールへのセグメント化を更新する段階と、固定されたセグメント化が与えられると遷移行列および自己回帰パラメータを更新する段階の2つの主要な段階を交互に行った。数学的には、セグメント化を更新することにより、データy、自己回帰パラメータθ、および遷移行列πの各値を条件とするラベル系列xがサンプリングされた。すなわち、条件付き確率変数x|θ,π,yをサンプリングした。同様に、セグメント化が与えられた場合に遷移行列および自己回帰パラメータを更新することにより、それぞれ、π|xおよびθ|x,yがサンプリングされた。
式中、πkは遷移行列の第i行を表す。遷移行列のこの有限表現により、状態系列xをブロックとして再サンプリングすることが可能になり、大きなLでは、無限ディリクレ過程の任意に良好な近似を提供する。
動的パラメータπおよびθとデータyを与えられて状態ラベルxをサンプリングすることは、3Dビデオシーケンスをセグメント化し、各セグメントをその統計値を記述する行動モードに割り当てることに対応する。
である。
t=1,2,...,T-1およびk=1,2,...,Kでは、式中、BT(k)=1であり、yt+1:T=(yt+1,yt+2,...,yT)である。これらのメッセージを使用すると、第1の状態x1の条件付き分布は、すべての将来の状態x2:Tを無視すると、
であり、これは効率的にサンプリングすることができる。サンプリングされた値
が与えられると、第2の状態x2の条件付き分布は、
である。
状態系列xおよびデータ系列yを与えられて自己回帰パラメータθをサンプリングすることは、各モードに割り当てられた3Dビデオデータセグメントを記述するように各モードの動的パラメータを更新することに対応する。
式中、(Sn,vn,Mn,Kn)は、状態kに割り当てられたyの要素ならびにラグのある先行する観察値の関数である事後ハイパーパラメータである。
式中、
のように進む。
状態系列xを与えられて遷移パラメータπおよびβをサンプリングすることは、状態系列内で観察された遷移パターンを反映するように行動モジュール間の遷移の確率を更新することに対応する。βを更新することにより、冗長な行動モードがモデルから取り除かれるよう促され、各πijを更新することにより、状態iから状態jへの観察された遷移が適合される。
によってサンプリングされる。
式中、Bernoulli(p)は、確率pで値1を取り、そうでない場合に値0を取るベルヌーイ確率変数を表す。粘着性バイアスなしのHDP-HMMの更新は、これらの更新においてκ=0に設定することに対応することに留意されたい。
検定力を高めるために、オープンフィールド実験、匂い実験、および遺伝子操作実験のデータセットを一緒にモデル化した。光遺伝学実験と関連付けられた神経移植は、動物のプロファイルをわずかに変化させたので、これらのデータは別々にモデル化した。すべての実験において、各画像化マウスのフレームごとの最初の10の主成分を集めた。次いで、データを細分化し、3:1の訓練:試験の比率で「訓練」または「試験」のいずれかのラベルを割り当てた。「試験」とラベル付けされたマウスを訓練プロセスからホールドアウトし、それらを使用して測定ホールドアウト尤度によって汎化性能を試験した。この手法により、その構成が行動の異なる基礎構造を反映するアルゴリズムを直接比較することができた。
特に明記しない限り、すべての実験は6~8週齢のC57/BL6雄(Jackson Laboratories)で行った。rorβおよびrbp4系統由来のマウスを、参照C57/BL6マウスと全く同様に馴化させ試験した。マウスを4週齢で本発明者らのコロニーに移し、そこで2週間にわたって12時間明/12時間暗の反転サイクルでグループ飼育した。試験当日、マウスを遮光容器に入れて実験室に運び入れ、そこで試験前に30分間暗闇に馴化させた。
これらの可能性に対処するために、本発明者らはまず、AR-HMMを使用して、オープンフィールドにおけるマウスの探索行動のベースラインアーキテクチャを定義し、次いで、この行動テンプレートが外界の異なる操作によってどのように変更されたかを問うた。
マウスは同じ基礎的な行動状態、すなわち歩行運動探索を、円形と四角形の両方で発現するため、この場合の行動モジュールへの観察される変化は限局的であり、程度が限定されると予測されうる。したがって、本発明者らは、マウスが、他は一定の物理環境内で、新しい動機付けされた動作の発現を含む行動状態の全体的変化を駆動する感覚手がかりに曝露されたときに、行動の基礎構造がどのように変化するかを問うた。
上記のように、行動の細かい時間スケールの構造は、分単位の時間スケールにわたる動作に影響を及ぼす物理的または感覚的環境の変化に対して選択的に脆弱である。さらに、AR-HMMは、マウスによって発現された行動パターンを(本発明者らの画像化の限界内で)包括的にカプセル化するように見える。これらの所見は、AR-HMMは、サブ秒時間スケールのマウスの行動への系統的な窓を提供し、明確な行動表現型を定量化すると共に、ある範囲の空間時間的スケールにわたって行動に影響を及ぼす実験操作後に含まれる新しいまたは微妙な表現型を明らかにすることもできる可能性があることを示唆している。
最後に、本発明者らは、AR-HMMによって捕捉された行動構造が、行動の一過性のまたは不確実な変化への洞察を与えるかどうかを問おうとした。したがって、本発明者らは、運動回路における神経活動を短く誘発し、異なる強度の刺激が行動の瞬間ごとの構築にどのような影響を及ぼすかを問うた。本発明者らは、光開閉性イオンチャネルChannelrhodopsin-2を皮質線条体系ニューロンにおいて片側だけ発現させ41,42、運動皮質の光媒介活性化の前、その間およびその2秒後の行動反応を評価した(n=4匹のマウス、モデルは以前の実験とは分離して訓練した)。
本明細書の開示は、任意のタイプのハードウェアおよび/またはソフトウェアで実施してもよく、あらかじめプログラムされた汎用コンピューティングデバイスであってもよいことを最初に理解されたい。例えば、システムは、サーバ、パーソナルコンピュータ、ポータブルコンピュータ、シンクライアント、または任意の適切な1台もしくは複数の装置を使用して実装してもよい。本開示および/またはその構成要素は、電気ケーブル、光ファイバケーブルなどの任意の通信媒体上で、または無線方式で、任意の適切な通信プロトコルを使用して相互に接続された、単一の場所の単一の装置、または単一もしくは複数の場所の複数の装置としてもよい。
以上の説明および添付の特許請求の範囲は、本発明のいくつかの態様を開示しているが、本発明の他の代替態様を以下のさらなる態様において開示する。
態様1. 対象の動きを表す3次元ビデオデータフレームを、モジュールを表す少なくとも1つのフレームセットと、モジュール間の遷移を表す少なくとも1つのフレームセットとに区分するために、計算モデルを使用して前記3次元ビデオデータフレームを処理する工程、および
動物行動のタイプを表すデータ識別子に参照付けられた前記モジュールを表す少なくとも1つのフレームセットをメモリに格納する工程
を含む、対象の動きを分析してモジュールに分離するための方法。
態様2. 前記処理する工程は、前記ビデオデータにおいて前記対象を背景から分離する工程を含む、態様1の方法。
態様3. 前記処理する工程は、前記ビデオデータのフレームセット上の、各フレームに共通の座標系に対する前記対象の特徴の向きを識別する工程をさらに含む、態様2の方法。
態様4. 前記処理する工程は、位置合わせされたフレームのセットを出力するために、前記特徴が前記座標系に対して同じ方向に向けられるように前記フレームセットの少なくとも1つのサブセット内の前記対象の前記向きを修正する工程をさらに含む、態様3の方法。
態様5. 前記処理する工程は、主成分空間を通る各位置合わせされたフレームについての前記対象のポーズを表すポーズダイナミクスデータを出力するために、主成分分析(PCA)を使用して前記位置合わせされたフレームを処理する工程をさらに含む、態様4の方法。
態様6. 前記処理する工程は、前記ポーズダイナミクスデータを別々のモジュールセットに時間的にセグメント化するために、計算モデルを用いて前記位置合わせされたフレームを処理する工程をさらに含み、モジュールセット内の各サブ秒モジュールが類似したポーズダイナミクスを示す、態様5の方法。
態様7. 前記3次元ビデオデータにおいて閾値を上回る頻度で発生する前記モジュールセットの各々の表現を表示する工程をさらに含む、態様6の方法。
態様8. 前記計算モデルは、前記サブ秒モジュールを、PCA空間を通る定型化した軌跡を表すベクトル自己回帰過程としてモデル化することを含む、態様1の方法。
態様9. 前記計算モデルは、隠れマルコフモデルを使用してサブ秒モジュール間の遷移期間をモデル化することを含む、態様1の方法。
態様10. 前記3次元ビデオデータは、多次元ベクトル空間における一連の点を出力するためにまず処理され、各点は前記対象の3次元ポーズダイナミクスを表す、態様1の方法。
態様11. 前記対象は動物試験における動物である、請求項1~10のいずれか一項記載の方法。
態様12. 前記対象はヒトである、請求項1~10のいずれか一項記載の方法。
態様13. 対象を背景から分離するために前記対象の前記動きを表す3次元ビデオデータを前処理する工程、
前記ビデオデータのフレームセット上の、各フレームに共通の座標系に対する前記対象の特徴の向きを識別する工程、
位置合わせされたフレームのセットを出力するために、前記特徴が前記座標系に対して同じ方向に向けられるように前記フレームセットの少なくとも1つのサブセット内の前記対象の前記向きを修正する工程、
主成分空間を通る各位置合わせされたフレームについての前記対象のポーズを表すポーズダイナミクスデータを出力するために、主成分分析を使用して前記位置合わせされたフレームを処理する工程、
前記ポーズダイナミクスデータを別々のサブ秒モジュールのセットに時間的にセグメント化するために、前記位置合わせされたフレームを処理する工程であって、モジュールセット内の各サブ秒モジュールが類似したポーズダイナミクスを示す、工程、および
前記3次元ビデオデータにおいて閾値を上回る頻度で発生する前記モジュールセットの各々の表現を表示する工程
を含む、対象の動きを分析してモジュールに分離するための方法。
態様14. 前記位置合わせされたフレームを処理する工程は、モデルフリーアルゴリズムを用いて行われる、態様13の方法。
態様15. 前記モデルフリーアルゴリズムは、オートコレログラムを計算することを含む、態様14の方法。
態様16. 前記位置合わせされたフレームを処理する工程は、モデルベースアルゴリズムを用いて行われる、請求項13記載の方法。
態様17. 前記モデルベースアルゴリズムはAR-HMMアルゴリズムである、態様16の方法。
態様18. 前記対象は動物試験における動物である、請求項13~17のいずれか一項記載の方法。
態様19. 前記対象はヒトである、請求項13~17のいずれか一項記載の方法。
態様20. 前記試験化合物が試験対象に投与された後の前記試験対象においてモジュールセットを含む試験行動表現を識別する工程、
前記試験行動表現を複数の基準行動表現と比較する工程であって、各基準行動表現が各薬物クラスを表す、工程、および
前記試験行動表現が分類器によってある薬物クラスを表す基準行動表現と一致すると識別された場合に、前記試験化合物は前記薬物クラスに属すると決定する工程
を含む、試験化合物を分類する方法。
態様21. 前記試験行動表現は、
前記試験対象の動きを表す3次元ビデオデータを受け取る工程、
前記3次元データを少なくとも1つのモジュールセットと少なくとも1つのモジュール間遷移期間のセットとに区分するために、計算モデルを使用して前記3次元データを処理する工程、および
前記少なくとも1つのモジュールセットを動物行動のタイプを表すカテゴリに割り当てる工程
によって識別される、態様20の方法。
態様22. 前記計算モデルは、前記サブ秒モジュールを、主成分分析(PCA)空間を通る定型化した軌跡を表すベクトル自己回帰過程としてモデル化することを含む、態様21の方法。
態様23. 前記計算モデルは、隠れマルコフモデルを使用して前記遷移期間をモデル化することを含む、態様21の方法。
態様24. 前記3次元ビデオデータは、多次元ベクトル空間における一連の点を出力するためにまず処理され、各点は前記試験対象の3Dポーズダイナミクスを表す、請求項20~23のいずれか一項記載の方法。
態様25. 前記試験化合物は、小分子、抗体またはその抗原結合フラグメント、核酸、ポリペプチド、ペプチド、ペプチド模倣体、多糖、単糖、脂質、グリコサミノグリカン、およびそれらの組合せからなる群より選択される、請求項20~24のいずれか一項記載の方法。
態様26. 前記試験対象は動物試験における動物である、請求項20~25のいずれか一項記載の方法。
態様27. 対象への作用因子の投与前および投与後の前記対象の動きを表す3次元ビデオデータを受け取る工程、
前記対象を背景から分離するために前記3次元ビデオデータを前処理する工程、
前記ビデオデータのフレームセット上の、各フレームに共通の座標系に対する前記対象の特徴の向きを識別する工程、
位置合わせされたフレームのセットを出力するために、前記特徴が前記座標系に対して同じ方向に向けられるように前記フレームセットの少なくとも1つのサブセット内の前記対象の前記向きを修正する工程、
主成分空間を通る各位置合わせされたフレームについての前記対象のポーズを表すポーズダイナミクスデータを出力するために、主成分分析を使用して前記位置合わせされたフレームを処理する工程、
前記ポーズダイナミクスデータを別々のサブ秒モジュールのセットに時間的にセグメント化するために、計算モデルを用いて前記位置合わせされたフレームを処理する工程であって、サブ秒モジュールのセット内の各サブ秒モジュールが類似したポーズダイナミクスを示す、工程、
前記対象への前記作用因子の投与前の各サブ秒モジュールセット内のモジュール数を決定する工程、
前記対象への前記作用因子の投与後の各サブ秒モジュールセット内のモジュール数を決定する工程、
前記対象への前記作用因子の投与前と投与後の各サブ秒モジュールセット内のモジュール数を比較する工程、および
前記対象への前記作用因子の投与前と投与後の各モジュールセット内のモジュール数の発現頻度の変化の指示を出力する工程
を含む、対象の動きを分析してモジュールに分離するための方法。
態様28. 各サブ秒モジュールセットは、行動モジュールを表す基準データとの比較に基づいて所定の行動モジュールに分類される、態様27の方法。
態様29. 前記対象への前記作用因子の投与前と投与後の各モジュールセット内のモジュール数の発現頻度の前記変化は、公知のカテゴリの作用因子への曝露後のモジュールの発現頻度の変化を表す基準データと比較される、態様27または28の方法。
態様30. 公知のカテゴリの作用因子への曝露後の頻度の変化を表す基準データとの前記比較に基づいて、前記作用因子を複数の公知の作用因子カテゴリのうちの1つとして分類するさらなる工程を含む、態様29の方法。
態様31. 前記作用因子は、薬学的に活性な化合物である、請求項27~30のいずれか一項記載の方法。
態様32. 前記作用因子は、視覚刺激または聴覚刺激である、請求項27~30のいずれか一項記載の方法。
態様33. 前記作用因子は匂い物質である、請求項27~30のいずれか一項記載の方法。
態様34. 前記対象は動物試験における動物である、請求項27~33のいずれか一項記載の方法。
態様35. 前記対象はヒトである、請求項27~33のいずれか一項記載の方法。
態様36. 3次元ビデオカメラで対象の動きを記録し、前記3次元ビデオカメラから出力された3次元ビデオデータを解析して、異なる行動を表すフレームセットにするためのシステムであって、
対象の動きを表すビデオデータを出力するように構成された3次元ビデオカメラと、
格納された機械実行可能コードを含む機械可読媒体を含む、前記3次元ビデオカメラと通信するメモリと、
前記メモリに結合された1つまたは複数のプロセッサを含む制御システムであって、前記制御システムに、
前記対象を背景から分離するために、前記制御システムを使用して前記ビデオデータを前処理させ、
前記制御システムを使用して、前記ビデオデータのフレームセット上の、各フレームに共通の座標系に対する前記対象の特徴の向きを識別させ、
位置合わせされたフレームのセットを出力するために、前記制御システムを使用して、前記特徴が前記座標系に対して同じ方向に向けられるように前記フレームセットの少なくとも1つのサブセット内の前記対象の前記向きを修正させ、
前記制御システムを使用して、前記位置合わせされたフレームのセットの各フレームについてのポーズダイナミクスデータを出力するために、主成分分析を使用して前記位置合わせされたフレームのセットを処理させ、前記ポーズダイナミクスデータは主成分空間を通る各位置合わせされたフレームについての前記対象のポーズを表し、
前記位置合わせされたフレームのセットを別々のサブ秒モジュールのセットに時間的にセグメント化するために、前記制御システムを使用して、前記位置合わせされたフレームのセットを処理させ、各サブ秒モジュールセットは類似したポーズダイナミクスを有するサブ秒モジュールだけを含み、
サブ秒モジュールに参照付けられた前記位置合わせされたフレームのセット内の各フレームをデータベースに格納させる
ための前記機械実行可能コードを実行するように構成された、制御システムと
を含む、システム。
態様37. 前記制御システムは、前記別々のサブ秒モジュールのセット内で閾値を上回って発生する前記サブ秒モジュールのセットのサブセットの表現をディスプレイに送るようにさらに構成されている、態様36のシステム。
態様38. 前記制御システムは、閾値を上回って発生する前記サブ秒モジュールのセットの前記サブセットの各々の行動タグに関するユーザ入力を受け取る、態様36のシステム。
上述した様々な方法および技術は、本発明を実施するためのいくつかの方法を提供する。当然ながら、必ずしも記載したすべての目的または利点を本明細書に記載した任意の特定の態様に従って達成できるわけではないことを理解されたい。よって、例えば、本明細書で教示または示唆される他の目的または利点を必ずしも達成することなく、本明細書で教示される1つの利点または利点群を達成または最適化するように本方法を実施することもできることを当業者は理解するであろう。本明細書では様々な代替案が言及されている。ある態様は、ある特徴、別の特徴、または複数の特徴を特に含み、別の態様は、ある特徴、別の特徴、または複数の特徴を特に実行し、さらに別の態様は、ある有利な特徴、別の有利な特徴、または複数の有利な特徴を含めることによって特定の特徴を軽減することを理解されたい。
Claims (12)
- 対象の動きを表す3次元ビデオデータフレームを、モジュールを表す少なくとも1つのフレームセットと、モジュール間の遷移を表す少なくとも1つのフレームセットとに区分するために、計算モデルを使用して、前記3次元ビデオデータフレームを、1つまたは複数のプロセッサを含む制御システムにより処理する工程であって、前記モジュールは200~900ミリ秒を含む、工程、および
動物行動のタイプを表すデータ識別子に参照付けられた前記モジュールを表す少なくとも1つのフレームセットを、前記制御システムによりメモリに格納する工程
を含む、対象の動きを分析してモジュールに分離するための方法。 - 前記1つまたは複数のプロセッサを含む制御システムにより処理する工程は、
a. 前記3次元ビデオデータフレームにおいて前記対象を背景から、前記制御システムにより分離する工程、
b. 前記3次元ビデオデータフレームのフレームセット上の、各フレームに共通の座標系に対する前記対象の特徴の向きを、前記制御システムにより識別する工程、
c. 位置合わせされたフレームのセットを出力するために、前記特徴が前記座標系に対して同じ方向に向けられるように前記フレームセットの少なくとも1つのサブセット内の前記対象の前記向きを、前記制御システムにより修正する工程、
d. 主成分空間を通る各位置合わせされたフレームについての前記対象のポーズを表すポーズダイナミクスデータを出力するために、主成分分析(PCA)を使用して前記位置合わせされたフレームを、前記制御システムにより処理する工程、
e. 前記ポーズダイナミクスデータを別々のモジュールセットに時間的にセグメント化するために、前記計算モデルを用いて前記位置合わせされたフレームを、前記制御システムにより処理する工程であって、モジュールセット内の各モジュールが類似したポーズダイナミクスを示す、工程、または
f. 前記3次元ビデオデータフレームにおいて閾値を上回る頻度で発生する前記モジュールセットの各々の表現を、前記制御システムによりディスプレイに送る工程
のうちの少なくとも1つを含む、請求項1記載の方法。 - 前記計算モデルは、前記モジュールを、PCA空間を通る定型化した軌跡を表すベクトル自己回帰過程としてモデル化すること、または隠れマルコフモデルを使用してサブ秒モジュール間の遷移期間をモデル化することを含む、請求項1記載の方法。
- 前記3次元ビデオデータフレームは、多次元ベクトル空間における一連の点を出力するためにまず処理され、各点は前記対象の3次元ポーズダイナミクスを表す、請求項1記載の方法。
- 対象を背景から分離するために前記対象の動きを表す3次元ビデオデータを、1つまたは複数のプロセッサを含む制御システムにより前処理する工程、
前記3次元ビデオデータのフレームセット上の、各フレームに共通の座標系に対する前記対象の特徴の向きを、前記制御システムにより識別する工程、
位置合わせされたフレームのセットを出力するために、前記特徴が前記座標系に対して同じ方向に向けられるように前記フレームセットの少なくとも1つのサブセット内の前記対象の前記向きを、前記制御システムにより修正する工程、
主成分空間を通る各位置合わせされたフレームについての前記対象のポーズを表すポーズダイナミクスデータを出力するために、主成分分析を使用して前記位置合わせされたフレームを前記制御システムにより処理する工程、
前記ポーズダイナミクスデータを別々のサブ秒モジュールのセットに時間的にセグメント化するために、前記位置合わせされたフレームを前記制御システムにより処理する工程であって、サブ秒モジュールセット内の各サブ秒モジュールが類似したポーズダイナミクスを示し、前記サブ秒モジュールセット内の各サブ秒モジュールは200~900ミリ秒を含む、工程、および
前記3次元ビデオデータにおいて閾値を上回る頻度で発生する前記モジュールセットの各々の表現を、前記制御システムによりディスプレイに送る工程
を含む、対象の動きを分析してモジュールに分離するための方法。 - 前記位置合わせされたフレームを前記制御システムにより処理する工程は、
a. オートコレログラムを計算することを含むモデルフリーアルゴリズムを用いて行われるか、または
b. 任意でAR-HMMアルゴリズムである、モデルベースアルゴリズムを用いて行われる、
請求項5記載の方法。 - 対象への作用因子の投与前および投与後の前記対象の動きを表す3次元ビデオデータを、1つまたは複数のプロセッサを含む制御システムにより、カメラから受け取る工程、
前記対象を背景から分離するために前記3次元ビデオデータを、前記制御システムにより前処理する工程、
前記ビデオデータのフレームセット上の、各フレームに共通の座標系に対する前記対象の特徴の向きを、前記制御システムにより識別する工程、
位置合わせされたフレームのセットを出力するために、前記特徴が前記座標系に対して同じ方向に向けられるように前記フレームセットの少なくとも1つのサブセット内の前記対象の前記向きを、前記制御システムにより修正する工程、
主成分空間を通る各位置合わせされたフレームについての前記対象のポーズを表すポーズダイナミクスデータを出力するために、主成分分析を使用して前記位置合わせされたフレームを前記制御システムにより処理する工程、
前記ポーズダイナミクスデータを別々のサブ秒モジュールのセットに時間的にセグメント化するために、計算モデルを用いて前記位置合わせされたフレームを前記制御システムにより処理する工程であって、サブ秒モジュールのセット内の各サブ秒モジュールが類似したポーズダイナミクスを示し、前記サブ秒モジュールセット内の各サブ秒モジュールは200~900ミリ秒を含む、工程、
前記対象への前記作用因子の投与前の各サブ秒モジュールセット内のモジュール数を、前記制御システムにより決定する工程、
前記対象への前記作用因子の投与後の各サブ秒モジュールセット内のモジュール数を、前記制御システムにより決定する工程、
前記対象への前記作用因子の投与前と投与後の各サブ秒モジュールセット内のモジュール数を、前記制御システムにより比較する工程、および
前記対象への前記作用因子の投与前と投与後の各モジュールセット内のモジュール数の発現頻度の変化の指示を、前記制御システムにより出力する工程
を含む、対象の動きを分析してモジュールに分離するための方法。 - 各サブ秒モジュールセットは、行動モジュールを表す基準データとの比較に基づいて所定の行動モジュールに分類される、請求項7記載の方法。
- 前記対象への前記作用因子の投与前と投与後の各モジュールセット内のモジュール数の発現頻度の前記変化は、公知のカテゴリの作用因子への曝露後のモジュールの発現頻度の変化を表す基準データと比較され、前記比較されることに基づいて、前記作用因子を複数の公知の作用因子カテゴリのうちの1つとして分類する、請求項7または8記載の方法。
- 前記作用因子は、薬学的に活性な化合物、視覚刺激もしくは聴覚刺激、または匂い物質である、請求項7~9のいずれか一項記載の方法。
- 3次元ビデオカメラで対象の動きを記録し、前記3次元ビデオカメラから出力された3次元ビデオデータを解析して、異なる行動を表すフレームセットにするためのシステムであって、
対象の動きを表すビデオデータを出力するように構成された3次元ビデオカメラと、
格納された機械実行可能コードを含む機械可読媒体を含む、前記3次元ビデオカメラと通信するメモリと、
前記メモリに結合された1つまたは複数のプロセッサを含む制御システムであって、前記制御システムに、
前記対象を背景から分離するために、前記制御システムを使用して前記ビデオデータを前処理させ、
前記制御システムを使用して、前記ビデオデータのフレームセット上の、各フレームに共通の座標系に対する前記対象の特徴の向きを識別させ、
位置合わせされたフレームのセットを出力するために、前記制御システムを使用して、前記特徴が前記座標系に対して同じ方向に向けられるように前記フレームセットの少なくとも1つのサブセット内の前記対象の前記向きを修正させ、
前記制御システムを使用して、前記位置合わせされたフレームのセットの各フレームについてのポーズダイナミクスデータを出力するために、主成分分析を使用して前記位置合わせされたフレームのセットを処理させ、前記ポーズダイナミクスデータは主成分空間を通る各位置合わせされたフレームについての前記対象のポーズを表し、
前記位置合わせされたフレームのセットを別々のサブ秒モジュールのセットに時間的にセグメント化するために、前記制御システムを使用して、前記位置合わせされたフレームのセットを処理させ、各サブ秒モジュールセットは類似したポーズダイナミクスを有するサブ秒モジュールだけを含み、かつ200~900ミリ秒を含み、
サブ秒モジュールに参照付けられた前記位置合わせされたフレームのセット内の各フレームをデータベースに格納させる
ための前記機械実行可能コードを実行するように構成された、制御システムと
を含む、システム。 - 前記制御システムは、前記別々のサブ秒モジュールのセット内で閾値を上回って発生する前記サブ秒モジュールのセットのサブセットの表現をディスプレイに送るようにさらに構成されているか、または前記制御システムは、閾値を上回って発生する前記サブ秒モジュールのセットの前記サブセットの各々の行動タグに関するユーザ入力を受け取り、かつ前記制御システムは、第2の対象の動きを表す前記3次元ビデオカメラから出力されたビデオデータに前記行動タグを自動的に適用するようにさらに構成されている、請求項11記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022031186A JP2022088382A (ja) | 2015-10-14 | 2022-03-01 | 動物行動の自動分類 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562241627P | 2015-10-14 | 2015-10-14 | |
US62/241,627 | 2015-10-14 | ||
PCT/US2016/056471 WO2017066209A1 (en) | 2015-10-14 | 2016-10-11 | Automatically classifying animal behavior |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022031186A Division JP2022088382A (ja) | 2015-10-14 | 2022-03-01 | 動物行動の自動分類 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019505029A JP2019505029A (ja) | 2019-02-21 |
JP2019505029A5 JP2019505029A5 (ja) | 2019-10-31 |
JP7034069B2 true JP7034069B2 (ja) | 2022-03-11 |
Family
ID=58518533
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018519293A Active JP7034069B2 (ja) | 2015-10-14 | 2016-10-11 | 動物行動の自動分類 |
JP2022031186A Pending JP2022088382A (ja) | 2015-10-14 | 2022-03-01 | 動物行動の自動分類 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022031186A Pending JP2022088382A (ja) | 2015-10-14 | 2022-03-01 | 動物行動の自動分類 |
Country Status (8)
Country | Link |
---|---|
US (3) | US11020025B2 (ja) |
EP (2) | EP4250144A3 (ja) |
JP (2) | JP7034069B2 (ja) |
CN (1) | CN108471943B (ja) |
AU (2) | AU2016338856B2 (ja) |
CA (1) | CA3001063C (ja) |
IL (1) | IL258006B (ja) |
WO (1) | WO2017066209A1 (ja) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2873218C (en) | 2012-05-10 | 2022-06-07 | President And Fellows Of Harvard College | Automated system and method for collecting data and classifying animal behavior |
US10185330B2 (en) * | 2014-06-30 | 2019-01-22 | Fisher Controls International Llc | Methods and systems for adjusting travel sensor alignment on process control valves |
PL414188A1 (pl) * | 2015-09-30 | 2017-04-10 | Instytut Biologii Doświadczalnej Im. Marcelego Nenckiego Pan | Ekologicznie adekwatny system i metoda testowania spontanicznych zachowań społecznych u myszy hodowanych w grupie |
US11020025B2 (en) | 2015-10-14 | 2021-06-01 | President And Fellows Of Harvard College | Automatically classifying animal behavior |
KR101817583B1 (ko) * | 2015-11-30 | 2018-01-12 | 한국생산기술연구원 | 깊이 이미지를 이용한 행동 패턴 분석 시스템 및 방법 |
US10909691B2 (en) | 2016-03-18 | 2021-02-02 | President And Fellows Of Harvard College | Automatically classifying animal behavior |
WO2018090091A1 (en) * | 2016-11-21 | 2018-05-24 | Nano-X Pty Ltd | Three-dimensional tracking of a target in a body |
KR102190748B1 (ko) * | 2018-08-28 | 2020-12-14 | 한림대학교 산학협력단 | 실험동물 행동 판단방법, 장치 및 프로그램 |
KR102223999B1 (ko) * | 2019-08-12 | 2021-03-09 | 고려대학교 산학협력단 | 어류의 시력 등급화 방법 및 컴퓨터 판독 가능한 저장매체 |
WO2020091201A1 (ko) * | 2018-10-31 | 2020-05-07 | 고려대학교 산학협력단 | 어류의 시기능 평가 시스템 및 이를 이용한 안구 독성 약물 스크리닝 방법, 어류의 시력 등급화 방법 및 컴퓨터 판독 가능한 저장매체 |
US11699094B2 (en) * | 2018-10-31 | 2023-07-11 | Salesforce, Inc. | Automatic feature selection and model generation for linear models |
CN109621152A (zh) * | 2019-01-28 | 2019-04-16 | 邹珍友 | 一种用强场脉冲激光无介入性地干预动物认知意识活动与行为的方法 |
US20200383299A1 (en) * | 2019-06-06 | 2020-12-10 | Edgar Josue Bermudez Contreras | Systems and methods of homecage monitoring |
WO2021020063A1 (ja) * | 2019-08-01 | 2021-02-04 | 株式会社村田製作所 | 検出装置、検出方法およびプログラム |
WO2021092015A1 (en) * | 2019-11-07 | 2021-05-14 | Google Llc | Monitoring animal pose dynamics from monocular images |
KR20210058396A (ko) * | 2019-11-14 | 2021-05-24 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN111178172A (zh) * | 2019-12-13 | 2020-05-19 | 北京工业大学 | 实验鼠嗅探动作识别方法、模块及系统 |
CN111046805B (zh) * | 2019-12-15 | 2023-09-26 | 深圳市具安科技有限公司 | 动物平衡性分析方法、装置、计算机设备 |
CN111626093B (zh) * | 2020-03-27 | 2023-12-26 | 国网江西省电力有限公司电力科学研究院 | 一种基于鸣声功率谱密度的输电线路相关鸟种识别方法 |
US11263454B2 (en) * | 2020-05-25 | 2022-03-01 | Jingdong Digits Technology Holding Co., Ltd. | System and method for video-based pig counting in the crowd |
CN111666881B (zh) * | 2020-06-08 | 2023-04-28 | 成都大熊猫繁育研究基地 | 一种大熊猫踱步、吃竹子、发情行为跟踪分析方法 |
WO2022026886A1 (en) * | 2020-07-30 | 2022-02-03 | The Jackson Laboratory | Automated phenotyping of behavior |
CN112057079B (zh) * | 2020-08-07 | 2022-07-29 | 中国科学院深圳先进技术研究院 | 一种基于状态与图谱的行为量化方法和终端 |
CN111903607B (zh) * | 2020-08-11 | 2022-03-01 | 安徽正华生物仪器设备有限公司 | 基于深度学习啮齿动物悬尾实验的自动化分析系统和方法 |
US11763039B2 (en) * | 2020-12-28 | 2023-09-19 | Dell Products L.P. | Automatically determining storage system data breaches using machine learning techniques |
CN113159129A (zh) * | 2021-03-24 | 2021-07-23 | 国网上海市电力公司 | 一种电力用户的分类方法、装置、设备及存储介质 |
US20220335446A1 (en) * | 2021-04-14 | 2022-10-20 | Sunshine Energy Technology Co., Ltd. | Real Food Honesty Display System |
US11941860B2 (en) * | 2021-09-24 | 2024-03-26 | Zebra Tehcnologies Corporation | Computational load mitigation for image-based item recognition |
CN113962327A (zh) * | 2021-11-12 | 2022-01-21 | 上海冰鉴信息科技有限公司 | 数据分类方法、装置及电子设备 |
AU2022409850A1 (en) * | 2021-12-16 | 2024-07-18 | Pgi Drug Discovery Llc | Computer-based systems for acquiring and analyzing observational subject data |
US20230231976A1 (en) * | 2022-01-18 | 2023-07-20 | Douglas M. Bonham | System and Method for Exchanging Compressed Images Over LoRaWAN Gateways |
CN114707739B (zh) * | 2022-04-14 | 2024-09-20 | 华北电力大学 | 基于大数据的风光出力预测与市场风险管控方法和系统 |
CN115005160B (zh) * | 2022-06-21 | 2023-03-14 | 黑龙江八一农垦大学 | 一种评估不同声音刺激对蛋鸡行为、福利、认知和生理影响的方法 |
CN115812612A (zh) * | 2022-12-08 | 2023-03-21 | 华中农业大学 | 多目标小鼠全生育期高通量表型获取和分析系统及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002092101A1 (en) | 2001-05-15 | 2002-11-21 | Psychogenics Inc. | Systems and methods for monitoring behavior informatics |
JP2007328435A (ja) | 2006-06-06 | 2007-12-20 | Mitsubishi Electric Corp | 移動体行動分析装置 |
JP2012053716A (ja) | 2010-09-01 | 2012-03-15 | Research Institute For Diversity Ltd | 思考モデルの作成方法、思考モデルの作成装置及び思考モデルの作成プログラム |
US20150146939A1 (en) | 2012-05-10 | 2015-05-28 | President And Fellows Of Harvard College | System and method for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3270005B2 (ja) | 1998-03-20 | 2002-04-02 | 勝義 川崎 | 実験動物の行動観察の自動化方法 |
CA2372447A1 (en) * | 1999-02-19 | 2000-08-24 | Fox Chase Cancer Center | Methods of decomposing complex data |
US6678413B1 (en) | 2000-11-24 | 2004-01-13 | Yiqing Liang | System and method for object identification and behavior characterization using video analysis |
US20040030741A1 (en) * | 2001-04-02 | 2004-02-12 | Wolton Richard Ernest | Method and apparatus for search, visual navigation, analysis and retrieval of information from networks with remote notification and content delivery |
US6837184B2 (en) * | 2001-08-06 | 2005-01-04 | Psychogenics, Inc. | Programmable electronic maze for use in the assessment of animal behavior |
JP2003087771A (ja) | 2001-09-07 | 2003-03-20 | Oki Electric Ind Co Ltd | 監視システム及び方法 |
US20050163349A1 (en) | 2003-06-06 | 2005-07-28 | Daniela Brunner | System and method for assessing motor and locomotor deficits and recovery therefrom |
JP4598405B2 (ja) | 2004-01-06 | 2010-12-15 | 小原医科産業株式会社 | 小動物の行動診断方法 |
JP2005215927A (ja) | 2004-01-29 | 2005-08-11 | Mitsubishi Heavy Ind Ltd | 行動認識システム |
US7981058B2 (en) * | 2004-03-12 | 2011-07-19 | The Trustees Of Dartmouth College | Intelligent wearable monitor systems and methods |
WO2007008715A2 (en) * | 2005-07-07 | 2007-01-18 | Ingenious Targeting Laboratory, Inc. | System for 3d monitoring and analysis of motion behavior of targets |
US7725192B2 (en) * | 2005-10-12 | 2010-05-25 | The General Hospital Corporation | Methods of increasing learning rate |
US20090220425A1 (en) | 2006-01-19 | 2009-09-03 | Drexel University | Method to Quantitatively Measure Effect of Psychotropic Drugs on Sensory Discrimination |
WO2007136745A2 (en) * | 2006-05-19 | 2007-11-29 | University Of Hawaii | Motion tracking system for real time adaptive imaging and spectroscopy |
EP2195084A4 (en) * | 2007-09-26 | 2010-10-20 | Univ Duke | METHOD OF TREATING PARKINSON'S DISEASE AND OTHER MOVEMENT DISORDERS |
JP5712407B2 (ja) * | 2008-01-23 | 2015-05-07 | ザ・リージェンツ・オブ・ジ・ユニバーシティ・オブ・カリフォルニアThe Regents Of The University Of California | 行動監視及び較正用システム及び方法 |
US8577154B2 (en) | 2008-06-16 | 2013-11-05 | University Of Southern California | Automated single viewpoint human action recognition by matching linked sequences of key poses |
WO2010032247A2 (en) | 2008-09-17 | 2010-03-25 | Ramot At Tel-Aviv University Ltd. | System and method for analyzing exploratory behavior |
US8634635B2 (en) | 2008-10-30 | 2014-01-21 | Clever Sys, Inc. | System and method for stereo-view multiple animal behavior characterization |
WO2010113929A1 (ja) * | 2009-03-31 | 2010-10-07 | 日本電気株式会社 | 追尾対象判定装置、追尾対象判定方法、および追尾対象判定プログラム |
WO2010120684A2 (en) * | 2009-04-16 | 2010-10-21 | President And Fellows Of Harvard College | Method and apparatus for selecting clusterings to classify a predetermined data set |
US8878912B2 (en) | 2009-08-06 | 2014-11-04 | Qualcomm Incorporated | Encapsulating three-dimensional video data in accordance with transport protocols |
TWI411935B (zh) | 2009-12-25 | 2013-10-11 | Primax Electronics Ltd | 利用影像擷取裝置辨識使用者姿勢以產生控制訊號之系統以及方法 |
US8928672B2 (en) * | 2010-04-28 | 2015-01-06 | Mixamo, Inc. | Real-time automatic concatenation of 3D animation sequences |
US8905855B2 (en) | 2010-08-26 | 2014-12-09 | Blast Motion Inc. | System and method for utilizing motion capture data |
US8437506B2 (en) | 2010-09-07 | 2013-05-07 | Microsoft Corporation | System for fast, probabilistic skeletal tracking |
US10321892B2 (en) | 2010-09-27 | 2019-06-18 | Siemens Medical Solutions Usa, Inc. | Computerized characterization of cardiac motion in medical diagnostic ultrasound |
AU2012303701B2 (en) * | 2011-08-26 | 2014-02-27 | Symap Medical (Suzhou), Ltd | System and method for locating and identifying functional nerves innervating wall of arteries and catheters for same |
US9373040B2 (en) * | 2011-11-01 | 2016-06-21 | Google Inc. | Image matching using motion manifolds |
NZ708197A (en) * | 2012-12-02 | 2018-08-31 | Agricam Ab | Systems and methods for predicting the outcome of a state of a subject |
CN104424649B (zh) * | 2013-08-21 | 2017-09-26 | 株式会社理光 | 检测运动物体的方法和系统 |
WO2015030689A2 (en) | 2013-08-27 | 2015-03-05 | Altun Halis | A tool and method for robust, scale and orientation invariant object detection and classification |
JP6281164B2 (ja) * | 2013-12-25 | 2018-02-21 | 株式会社国際電気通信基礎技術研究所 | 遊び行動認識システム、遊び行動認識プログラム、遊び行動認識方法および遊び行動認識装置 |
US10518409B2 (en) * | 2014-09-02 | 2019-12-31 | Mark Oleynik | Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries |
CN104881651B (zh) * | 2015-05-29 | 2017-12-15 | 南京信息工程大学 | 一种基于随机投影和Fisher向量的人物行为识别方法 |
US11020025B2 (en) | 2015-10-14 | 2021-06-01 | President And Fellows Of Harvard College | Automatically classifying animal behavior |
-
2016
- 2016-10-11 US US15/767,544 patent/US11020025B2/en active Active
- 2016-10-11 CN CN201680073020.9A patent/CN108471943B/zh active Active
- 2016-10-11 WO PCT/US2016/056471 patent/WO2017066209A1/en active Application Filing
- 2016-10-11 EP EP23170460.2A patent/EP4250144A3/en active Pending
- 2016-10-11 CA CA3001063A patent/CA3001063C/en active Active
- 2016-10-11 JP JP2018519293A patent/JP7034069B2/ja active Active
- 2016-10-11 EP EP16856048.0A patent/EP3361935A4/en not_active Ceased
- 2016-10-11 AU AU2016338856A patent/AU2016338856B2/en active Active
-
2018
- 2018-03-11 IL IL258006A patent/IL258006B/en unknown
-
2021
- 2021-04-21 AU AU2021202422A patent/AU2021202422B2/en active Active
- 2021-04-27 US US17/241,863 patent/US11622702B2/en active Active
-
2022
- 2022-03-01 JP JP2022031186A patent/JP2022088382A/ja active Pending
-
2023
- 2023-03-08 US US18/180,677 patent/US11944429B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002092101A1 (en) | 2001-05-15 | 2002-11-21 | Psychogenics Inc. | Systems and methods for monitoring behavior informatics |
JP2007328435A (ja) | 2006-06-06 | 2007-12-20 | Mitsubishi Electric Corp | 移動体行動分析装置 |
JP2012053716A (ja) | 2010-09-01 | 2012-03-15 | Research Institute For Diversity Ltd | 思考モデルの作成方法、思考モデルの作成装置及び思考モデルの作成プログラム |
US20150146939A1 (en) | 2012-05-10 | 2015-05-28 | President And Fellows Of Harvard College | System and method for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals |
Also Published As
Publication number | Publication date |
---|---|
EP4250144A2 (en) | 2023-09-27 |
US20180279921A1 (en) | 2018-10-04 |
IL258006B (en) | 2021-09-30 |
EP3361935A1 (en) | 2018-08-22 |
WO2017066209A1 (en) | 2017-04-20 |
US11622702B2 (en) | 2023-04-11 |
CN108471943B (zh) | 2021-07-13 |
AU2021202422B2 (en) | 2022-07-14 |
JP2019505029A (ja) | 2019-02-21 |
CA3001063C (en) | 2023-09-19 |
EP3361935A4 (en) | 2019-08-28 |
AU2016338856A1 (en) | 2018-05-10 |
JP2022088382A (ja) | 2022-06-14 |
US20210369146A1 (en) | 2021-12-02 |
US11944429B2 (en) | 2024-04-02 |
IL258006A (en) | 2018-05-31 |
AU2016338856B2 (en) | 2021-01-28 |
CN108471943A (zh) | 2018-08-31 |
US11020025B2 (en) | 2021-06-01 |
US20230225636A1 (en) | 2023-07-20 |
AU2021202422A1 (en) | 2021-05-13 |
CA3001063A1 (en) | 2017-04-20 |
EP4250144A3 (en) | 2024-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7034069B2 (ja) | 動物行動の自動分類 | |
JP6964596B2 (ja) | 動物行動の自動分類方法 | |
Huang et al. | A virtual reality system to analyze neural activity and behavior in adult zebrafish | |
Vertechi et al. | Inference-based decisions in a hidden state foraging task: differential contributions of prefrontal cortical areas | |
Wiltschko et al. | Mapping sub-second structure in mouse behavior | |
Vanwalleghem et al. | Calcium imaging and the curse of negativity | |
Contreras et al. | Challenges of a small world analysis for the continuous monitoring of behavior in mice | |
Banerjee et al. | An assistive computer vision tool to automatically detect changes in fish behavior in response to ambient odor | |
Schröder et al. | Distinct synaptic transfer functions in same-type photoreceptors | |
Johnston et al. | Robust population single neuronal calcium signal extraction using SCOUT allows for longitudinal analysis of behavior-associated neural ensemble dynamics | |
KR20230058402A (ko) | 행동의 자동화된 표현 | |
Wiltschko | The Structure of Mouse Behavior | |
Korzus et al. | Prefrontal multistimulus integration within a dedicated disambiguation circuit guides interleaving contingency judgment learning | |
Luxem | Encoding the Structure of Animal Motion Dynamics using Variational Auto-Encoding | |
Lange | Quantifying Psychostimulant-induced Sensitization Effects on Dopamine and Acetylcholine Release across different Timescales | |
Mimura et al. | Unsupervised decomposition and description of nonhuman primate behavior | |
CN117715585A (zh) | 使用机器学习模型确定视觉衰弱指数 | |
Chen | Dissection of Complex Behavior and Whole-Brain Functional Mapping in Larval Zebrafish |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190920 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201005 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210305 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210825 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220301 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7034069 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |