JP2023120383A - 長期間の継続的な動物行動モニタリング - Google Patents
長期間の継続的な動物行動モニタリング Download PDFInfo
- Publication number
- JP2023120383A JP2023120383A JP2023102972A JP2023102972A JP2023120383A JP 2023120383 A JP2023120383 A JP 2023120383A JP 2023102972 A JP2023102972 A JP 2023102972A JP 2023102972 A JP2023102972 A JP 2023102972A JP 2023120383 A JP2023120383 A JP 2023120383A
- Authority
- JP
- Japan
- Prior art keywords
- animal
- video data
- light
- camera
- ellipse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241001465754 Metazoa Species 0.000 title claims abstract description 157
- 238000012544 monitoring process Methods 0.000 title abstract description 21
- 230000003542 behavioural effect Effects 0.000 title description 20
- 230000007774 longterm Effects 0.000 title description 13
- 238000000034 method Methods 0.000 claims abstract description 147
- 238000013528 artificial neural network Methods 0.000 claims abstract description 72
- 241000283984 Rodentia Species 0.000 claims abstract description 8
- 230000011218 segmentation Effects 0.000 claims description 72
- 238000005286 illumination Methods 0.000 claims description 34
- 238000004891 communication Methods 0.000 claims description 24
- 230000033001 locomotion Effects 0.000 claims description 17
- 238000013500 data storage Methods 0.000 claims description 16
- 229930040373 Paraformaldehyde Natural products 0.000 claims description 11
- 239000000463 material Substances 0.000 claims description 11
- 229920006324 polyoxymethylene Polymers 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 239000004800 polyvinyl chloride Substances 0.000 claims description 7
- -1 polyoxymethylene Polymers 0.000 claims description 5
- 241000699666 Mus <mouse, genus> Species 0.000 description 80
- 238000012549 training Methods 0.000 description 78
- 241000699670 Mus sp. Species 0.000 description 50
- 230000008569 process Effects 0.000 description 33
- 230000007613 environmental effect Effects 0.000 description 26
- 238000010200 validation analysis Methods 0.000 description 23
- 230000006399 behavior Effects 0.000 description 22
- 238000007906 compression Methods 0.000 description 22
- 230000006835 compression Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 18
- 238000012360 testing method Methods 0.000 description 17
- 238000004422 calculation algorithm Methods 0.000 description 13
- 238000002474 experimental method Methods 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 10
- 235000013305 food Nutrition 0.000 description 10
- 210000003128 head Anatomy 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000002372 labelling Methods 0.000 description 9
- 239000000523 sample Substances 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 239000003086 colorant Substances 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 239000000243 solution Substances 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 7
- 230000036544 posture Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 238000001994 activation Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 238000002604 ultrasonography Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000003556 assay Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000013480 data collection Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000005021 gait Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 229920003023 plastic Polymers 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 206010002091 Anaesthesia Diseases 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000032683 aging Effects 0.000 description 3
- 230000037005 anaesthesia Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000002060 circadian Effects 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000013144 data compression Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 210000001331 nose Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004033 plastic Substances 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000011410 subtraction method Methods 0.000 description 3
- 108010072151 Agouti Signaling Protein Proteins 0.000 description 2
- 102000006822 Agouti Signaling Protein Human genes 0.000 description 2
- 241000484025 Cuniculus Species 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000975 dye Substances 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000021824 exploration behavior Effects 0.000 description 2
- 239000006260 foam Substances 0.000 description 2
- 230000003370 grooming effect Effects 0.000 description 2
- 230000037308 hair color Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000027939 micturition Effects 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 239000004417 polycarbonate Substances 0.000 description 2
- 229920000515 polycarbonate Polymers 0.000 description 2
- 229920000915 polyvinyl chloride Polymers 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000007958 sleep Effects 0.000 description 2
- 230000035882 stress Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241001596209 Apiocera arena Species 0.000 description 1
- 241001504564 Boops boops Species 0.000 description 1
- 238000011746 C57BL/6J (JAX™ mouse strain) Methods 0.000 description 1
- 101100476202 Caenorhabditis elegans mog-2 gene Proteins 0.000 description 1
- 208000019888 Circadian rhythm sleep disease Diseases 0.000 description 1
- 229920004943 Delrin® Polymers 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000581650 Ivesia Species 0.000 description 1
- 208000001456 Jet Lag Syndrome Diseases 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000004323 axial length Effects 0.000 description 1
- 239000007844 bleaching agent Substances 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012669 compression test Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 208000016097 disease of metabolism Diseases 0.000 description 1
- 238000007876 drug discovery Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000000118 hair dye Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 208000033915 jet lag type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000011813 knockout mouse model Methods 0.000 description 1
- 238000011173 large scale experimental method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006742 locomotor activity Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 208000030159 metabolic disease Diseases 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 108700039855 mouse a Proteins 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000000926 neurological effect Effects 0.000 description 1
- 239000002547 new drug Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011580 nude mouse model Methods 0.000 description 1
- 235000015097 nutrients Nutrition 0.000 description 1
- 238000013116 obese mouse model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000135 prohibitive effect Effects 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 238000006862 quantum yield reaction Methods 0.000 description 1
- 230000000384 rearing effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000014616 translation Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 238000012559 user support system Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 239000012224 working solution Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K29/00—Other apparatus for animal husbandry
- A01K29/005—Monitoring or measuring activity, e.g. detecting heat or mating
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K1/00—Housing animals; Equipment therefor
- A01K1/02—Pigsties; Dog-kennels; Rabbit-hutches or the like
- A01K1/03—Housing for domestic or laboratory animals
- A01K1/031—Cages for laboratory animals; Cages for measuring metabolism of animals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Environmental Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Animal Husbandry (AREA)
- Data Mining & Analysis (AREA)
- Zoology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Clinical Laboratory Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Housing For Livestock And Birds (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Image Processing (AREA)
Abstract
Description
、取得されたビデオデータから分類される行動に誤差が導入される可能性がある。追跡を容易化するため、動物の毛色の変更等の技術が採用されているものの、動物の毛色の変更によって、動物の行動が変化する可能性もある。結果として、複雑かつ動的な環境または遺伝子学的に異種の動物で実行される既存のビデオ追跡手法には、高レベルのユーザ関与を必要とするため、ビデオ観察に関する上述の利点が失われてしまう。このため、大規模および/または長期間の動物モニタリング実験は、依然として実現不可能である。
[0018]一実施形態においては、動物追跡のシステムが提供される。このシステムは、動物の観察を表すビデオデータを維持するデータ記憶装置を備え得る。また、このシステムは、データ記憶装置からビデオデータを受信すること、およびニューラルネットワーク・アーキテクチャを実装することを行うように構成されたプロセッサを備え得る。ニューラルネットワーク・アーキテクチャは、ビデオデータから抽出された入力ビデオフレームを受信すること、ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、楕円記述はあらかじめ決められた楕円パラメータにより規定される、および少なくとも1匹の動物について、あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、を行うように構成され得る。
[0026]一実施形態においては、命令を格納した非一時的コンピュータプログラム製品が提供される。命令は、少なくとも1つのコンピューティングシステムの少なくとも1つのデータプロセッサにより実行されたときに、動物の観察を表すビデオデータを受信するステップと、ニューラルネットワーク・アーキテクチャを実行するステップと、を含む方法を実行し得る。ニューラルネットワーク・アーキテクチャは、ビデオデータから抽出された入力ビデオフレームを受信すること、入力ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、楕円記述はあらかじめ決められた楕円パラメータにより規定される、および少なくとも1匹の動物について、あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、を行うように構成され得る。
トマップを生成するように採用され得る。
[0034]一実施形態においては、システムが提供され、このシステムは、アリーナおよび取得システムを備え得る。アリーナは、フレームと、フレームに取り付けられ筐体と、を含み得る。筐体は、動物を収容するように寸法規定され、内部へのアクセスを許容するように構成されたドアを含み得る。取得システムは、カメラ、少なくとも二組の光源、コントローラ、およびデータ記憶装置を含み得る。各組の光源は、互いに異なる波長で、筐体に入射する光を放射するように構成され得る。カメラは、複数組の光源のうちの少なくとも1つにより照射されたときに、筐体の少なくとも一部のビデオデータを取得するように構成され得る。コントローラは、カメラおよび複数組の光源と電気的に連通し得る。コントローラは、カメラによるビデオデータの取得および複数組の光源による光の放射を制御するように動作する制御信号を生成すること、およびカメラにより取得されたビデオデータを受信すること、を行うように構成され得る。データ記憶装置は、コントローラと電気的に連通し、コントローラから受信されたビデオデータを格納するように構成され得る。
[0036]このシステムの別の実施形態においては、筐体の少なくとも一部が可視光波長に対して略不透明な材料で形成され得る。
[0038]このシステムの別の実施形態においては、筐体の少なくとも一部がポリ塩化ビニル(PVC)またはポリオキシメチレン(POM)のシートで形成され得る。
[0041]このシステムの別の実施形態において、カメラは、少なくとも480×480画素の解像度でビデオデータを取得するように構成され得る。
[0043]このシステムの別の実施形態において、カメラは、少なくとも29フレーム/秒(fps)のフレームレートでビデオデータを取得するように構成され得る。
[0045]このシステムの別の実施形態において、カメラは、赤外波長でビデオデータを取得するように構成され得る。
[0047]このシステムの別の実施形態において、コントローラは、分散ベースの背景減算を採用したフィルタを含むMPEG4コーデック用いて、カメラから受信されたビデオデータを圧縮するように構成され得る。
[0049]このシステムの別の実施形態において、コントローラは、明暗サイクルを模擬するスケジュールに従って筐体を照射するよう第1の光源に要求するように構成され得る。
[0055]この方法の別の実施形態においては、筐体の少なくとも一部が可視光波長に対して略不透明な材料で形成され得る。
[0057]この方法の別の実施形態においては、筐体の少なくとも一部がポリ塩化ビニル(PVC)またはポリオキシメチレン(POM)のシートで形成され得る。
[0060]この方法の別の実施形態において、カメラは、少なくとも480×480画素の
解像度でビデオデータを取得するように構成され得る。
[0062]この方法の別の実施形態において、カメラは、少なくとも29フレーム/秒(fps)のフレームレートでビデオデータを取得するように構成され得る。
[0064]この方法の別の実施形態において、カメラは、赤外波長でビデオデータを取得するように構成され得る。
[0066]この方法の別の実施形態において、コントローラは、分散ベースの背景減算を採用したフィルタを含むMPEG4コーデック用いて、カメラから受信されたビデオデータを圧縮するように構成され得る。
[0068]この方法の別の実施形態において、コントローラは、明暗サイクルを模擬するスケジュールに従って筐体を照射するよう第1の光源に要求するように構成され得る。
り決定された短軸予測の相対標準偏差のプロットである。
の主題の代表的な態様のみを示すことが意図されるため、本開示の範囲を制限するものと考えられるべきではない。
または複数匹の動物のビデオ捕捉および1匹または複数匹の動物の追跡によって行動モニタリングを容易化するシステムおよび対応する方法の例示的な実施形態が論じられる。ただし、開示の実施形態は、制限なく他の動物もモニタリングするように採用および/または構成され得る。
ク追跡器を実装するように構成された追跡システムを具備する動作環境100の例示的な一実施形態を示した模式図である。以下により詳しく論じられる通り、1匹または複数匹のマウスがアリーナ200に収容され得る。少なくとも1匹の動物(マウス等)のビデオデータが取得される。ビデオデータは、単独でも取得され得るし、オーディオおよび環境パラメータ(たとえば、温度、湿度、光強度)等、動物モニタリングに関する他のデータとの組み合わせでも取得され得る。カメラ、マイク、照明、他の環境センサー、データストレージ、およびデータ圧縮の制御等、このデータを取得するプロセスは、取得システム700により実行され得る。取得されたビデオデータは、このビデオデータに基づいて1匹または複数匹の動物を追跡する畳み込みニューラルネットワーク(CNN)を実行可能な追跡システムに入力され得る。
[00110]一実施形態においては、動物の動きを含むビデオデータを捕捉するシステムお
よび方法が提供される。以下に論じられる通り、ビデオデータは、あらかじめ決められた期間(たとえば、1分または複数分、1時間または複数時間、1日または複数日、1週間または複数週間、1カ月または複数カ月、1年または複数年等)にわたって継続的に取得
され得る。ビデオデータの特性としては、行動パターンの抽出のための後続の解析を容易化するのに十分なものが可能であり、解像度、フレームレート、およびビット深度のうちの1つまたは複数が挙げられるが、これらに限定されない。実用的なソリューションが提供されており、既存のビデオ捕捉システムよりも堅牢かつ高品質と見られる。本開示の実施形態は、マウスを視覚的にマーキングする複数の方法でテストされる。また、ビデオおよび超音波発声データの同期取得の実用例も提示される。
のためのビデオモニタリングシステムが展開され得る。展開としては、画像捕捉およびアリーナ設計、チャンバ設計の微調整、ビデオ取得ソフトウェアの開発、オーディオデータの取得、カメラ、チャンバ、およびソフトウェアの負荷テスト、ならびに展開段階のチャンバの生産の決定のうちの1つまたは複数が挙げられる。これらそれぞれについて、以下に詳しく説明される。先述の4~6週間の観察期間は、例示的な目的で与えられており、本開示の実施形態は、必要に応じてより長期間またはより短期間にも採用され得ることが了解され得る。
[00112]高品質な行動データの取得には、適正なアリーナ設計が重要となり得る。この
アリーナは、動物の「住居」であり、環境外乱からの分離、適正な概日照明、餌、水、寝床のうちの1つまたは複数を提供するように構成され得る。また、一般的にはストレスのない環境である。
もに、自然な行動を表せるのが望ましいはずである。
[00114]飼育の観点から、アリーナは、清掃、追加または削除、マウスの取り出し、餌
および水の追加および除去を容易化するのが望ましいはずである。
診断および治療の提供のほか、環境条件(たとえば、温度、湿度、光等)のモニタリングを容易化するのが望ましいはずである。
み、反射、および/または騒音公害なく、また、実質的に関心行動の表現を妨げることなく、高品質なビデオおよびオーディオの取得を容易化するのが望ましいはずである。
解または再組み立ての必要のない相対的に容易な保管を提供するのが望ましいはずである。
すように構成され得る。アリーナ200の例示的な一実施形態が図2に示される。アリーナ200は、筐体204が搭載されるフレーム202を具備し得る。筐体204は、内部へのアクセスを許容するように構成されたドア206を具備し得る。1つまたは複数のカメラ210および/または照明212が(たとえば、筐体204の上方で)フレーム202に隣接して取り付けられることも可能であるし、フレーム202に直接取り付けられることも可能である。
くとも二組の光源を含み得る。各組の光源は、他方の組と異なる波長で、筐体204に入射する光を放射するように構成された1つまたは複数の照明を含み得る。一例としては、
第1の組の光源が、1つまたは複数の可視波長(たとえば、およそ390nm~およそ700nm)で光を放射するように構成され、第2の組の光源が、1つまたは複数の赤外(IR)波長(たとえば、およそ700nm超~およそ1mm)で光を放射するように構成され得る。
電気的に連通し得る。ユーザインターフェース214としては、カメラ210により取得されたビデオデータを表示するように構成されたディスプレイが可能である。特定の実施形態において、ユーザインターフェース214としては、カメラ210および/または照明212の制御のための1つまたは複数のユーザインターフェースを表示するように構成されたタッチスクリーンディスプレイが可能である。
ターフェース214は、コントローラ216と電気的に連通し得る。コントローラ216は、カメラ210によるビデオデータの取得、照明212による光の放射、および/またはユーザインターフェース214による取得ビデオデータの表示を制御するように動作する制御信号を生成するように構成され得る。特定の実施形態において、ユーザインターフェースは、任意選択として省略され得る。
ーラ216は、カメラ210により取得されたビデオデータを受信し、当該取得ビデオデータをデータ記憶装置220に送信して格納するように構成され得る。カメラ210、照明212、ユーザインターフェース214、コントローラ216、およびデータ記憶装置220のうちの1つまたは複数の間の通信は、有線通信リンク、無線通信リンク、およびこれらの組み合わせを用いて実行され得る。
所望のバランスを実現する一方、所定期間(たとえば、およそ5カ月間)での完了を可能にするように構成されたオープンフィールド設計を有し得る。
[00124]特定の実施形態においては、筐体204(たとえば、筐体204の下部)を構
成する材料の少なくとも一部が可視光波長に対して実質的に不透明となり得る。このように、照明212以外の光源により放射される可視光のほか、筐体204内の動物が観察可能な視覚的刺激(たとえば、物体および/またはユーザの動き)が抑制および/または実質的に除去され得る。付加的な実施形態において、筐体204を構成する材料は、ビデオデータの取得を容易化するため、赤外波長に対して略無反射となり得る。筐体204の壁の厚さは、機械的支持を与えるのに適した範囲内(たとえば、およそ0.3175cm(1/8インチ)~およそ0.635cm(1/4インチ))で選択され得る。
キシメチレン(POM)で形成された発泡シートを用いて構築され得る。POMの一例は、Delrin(登録商標)(DuPont、Wilmington、DE、USA)である。このような発泡シートは、アリーナ200の長期間動物モニタリングに対して十分な多用途性および耐久性を与え得るため有益である。
で(たとえば、水平に)延びた1つまたは複数の棚部202bと、を含み得る。一例として、フレーム202としては、保管エリアへの移動用の固定車輪を備えた所定サイズの市販の棚システムが可能である。一実施形態において、所定サイズとしては、およそ61c
m(2フィート)×61cm(2フィート)×183cm(6フィート)(たとえば、Super Erecta Metroseal 3(商標)、InterMetro Industries Corporation、Wilkes-Barre、PA、USA)が可能である。ただし、他の実施形態においては、異なるサイズのアリーナが制限なく採用され得る。
[00127]ビデオ取得システムは、カメラ210、照明212、ユーザインターフェース
214、コントローラ216、およびデータ記憶装置220を具備し得る。ビデオ取得システムは、性能特性のあらかじめ決められたバランスを有するように採用され得る。性能特性としては、ビデオ取得のフレームレート、ビット深度、各フレームの解像度、および赤外領域内のスペクトル感度のほか、ビデオ圧縮および格納のうちの1つまたは複数が挙げられるが、これらに限定されない。以下に論じられる通り、これらのパラメータは、データの品質を最大化するとともに量を最小化するように最適化され得る。
およそ29fps、およびおよそ8ビット深度のうちの少なくとも1つを有するビデオデータを取得し得る。これらのビデオ取得パラメータを用いることにより、およそ33GB/時の無圧縮ビデオデータが生成され得る。一例として、カメラ210としては、Sentech USB2(Sensor Technologies America, Inc.、Carrollton、TX、USA)が可能である。図3A~図3Fは、可視光(図3A~図3C)および赤外(IR)光(図3D~図3F)を用いてビデオ取得システムの一実施形態から取得されたサンプルフレームを示している。
たはコントローラ216により圧縮され得る。
[00130]別の実施形態において、ビデオ取得システムは、取得ビデオデータの解像度を
約2倍(たとえば、およそ960×960画素)にするように構成され得る。以下に示されるように、Sentech USBよりも高い解像度を有する4つの別のカメラが調査された。
び量子効率の点で異なり得る。
[00132]ビデオ取得システムの実施形態は、モノクロ、およそ30fps、およびおよ
そ8ビット深度のビデオデータを収集するように構成され得る。シャノン-ナイキストの定理によれば、フレームレートは、関心イベントの頻度の少なくとも2倍とすべきである(たとえば、Shannon(1994)参照)。マウスの行動は、毛繕いの場合の数ヘルツから素早い動きの場合の20ヘルツまで変動し得る(たとえば、Deschenes
et al.(2012)、Kalueff et al.(2010)、Wiltschko et al.(2015)参照)。毛繕いは、最大およそ7Hzでの発生が観察されているため、ほとんどのマウスの行動を観察するには、マウスの動きの頻度よりも高いフレームレート(たとえば、およそ29fps)でビデオを記録するのが適切と考えられる。ただし、カメラは、IR領域では急速に感度を失い得る。このコントラストの損失は、IR光のレベルの増大により克服され得るが、IR光の強度を高くすると、環境温度が上昇する可能性がある。
[00133]上述の通り、照明212は、可視白色光および赤外光等、1つまたは複数の種
類の光を放射するように構成され得る。可視光が照射に採用され、明暗サイクルおよび調整可能な強度を提供するように(たとえば、コントローラ216によって)プログラムされ得る。照明サイクルを調節できることは、動物が野生で浴びる太陽からの光の模擬を可能にする。明暗期間の長さは、季節を模擬するように調整され、時差ぼけ(概日相前進および後退)実験を模擬するように照明シフトが実行され得る。また、特定の動物の不安を引き起こすのに高輝度照明が採用され、異なる探索行動を引き出すのに低輝度照明が採用され得る。このように、明暗の長さおよび光強度を時間的に制御できることは、適正な行動実験に不可欠である。
て、およそ50lux~およそ800luxの強度を有する可視光での筐体204の照射
を可視光源に要求するように構成され得る。選択される光強度は、観察対象の運動の種類に応じて変化し得る。一態様においては、マウスによる探索運動を促して観察するため、比較的に低い強度(たとえば、およそ200lux~およそ300lux)が採用され得る。
R領域において、カメラ210により略すべてのビデオデータが取得され得る。IRロングパスフィルタは、カメラ210に対する略すべての可視光入力を除去し得る。IR光は、昼夜を問わず筐体104の均一な照明を可能にするため有益である。
850nm光は、肉眼で見られる鮮明な赤の色相を示し、動物に対しては低輝度露光となり得る。ただし、このような薄明かりは、マウスに情緒の変動をもたらし得る。したがって、記録には940nm光が選択される。
、高利得のため粗く見える画像となって現れ得る。したがって、赤外照射のために筐体204の温度を実質的に上げることなく得られる最大光レベルを識別するため、異なるカメラを用いたさまざまな赤外照明レベルが評価された。特定の実施形態において、筐体204の温度は、およそ5℃以下(たとえば、およそ3℃以下)だけ上昇可能である。
。このカメラは、図4Aおよび図4Bに示されるように、表1に掲載の他のカメラと比較して、940nmで約3~4倍のスペクトル感度を有する。図4Aは、相対応答の観点での代表例としてSentechカメラのスペクトル感度を示しており、図4Bは、量子効率の観点でBaslerカメラのスペクトル感度を示している。量子効率は、センサーに衝突する光子に対して放射された電子の測度である。相対応答は、0~1のスケール上で表された量子効率である。図4Aおよび図4Bにおいては参考として、940nmの波長が垂直線としてさらに示される。
照明212と連通した別のデバイスにより制御され得る。特定の実施形態において、コントローラ216は、照明制御盤(Phenome Technologies、Skokie、IL)を具備し得る。制御盤は、対数的にスケーリングされ、RS485インターフェースを介して制御可能であり、夜明け/日暮れ事象を実行可能な1024レベルの照明を有する。以下により詳しく論じられる通り、可視光の制御は、コントローラ216により実行される制御ソフトウェアに組み込まれ得る。
[00140]上述の通り、任意選択として、ビデオデータ取得中に略すべての可視光がカメ
ラ210に達しないようにするため、IRロングパスフィルタが採用され得る。一例としては、物理的なIRロングパスフィルタがカメラ110とともに採用され得る。この構成は、アリーナ200の明暗相に関わらず、実質的に均一な照明を提供し得る。
プロファイルが図5に示される(たとえば、IRパスフィルタ092および093)。IR光を遮断するIRカットフィルタ486が比較として示される。RG-850(ガラス、Edmunds Optics)および43-949(プラスチック、レーザ硬化性、Edmunds Optics)用の付加的なプロファイルも好適と考えられる。
[00142]一実施形態において、カメラレンズとしては、0.847cm(1/3”)、
3.5-8mm、f1.4(CSマウント)が可能である。このレンズは、図3Aおよび図3Bに見られる画像を生成し得る。Cマウントレンズの類似レンズも採用され得る。
[00143]圧縮を無視すれば、カメラ210によって、およそ1MB/フレーム、およそ
30MB/秒、およそ108GB/時、およそ2.6TB/日というレートで生のビデオデータが生成され得る。格納方法を選択する場合は、多様な目的が考えられる。ビデオの状況に応じて、長期格納の前にビデオの特定要素を除去するのが有益な選択肢となり得る。また、長期格納を考える場合は、フィルタまたは(たとえば、コントローラ216による)他の形態の処理の適用が望ましいはずである。ただし、処理方法が後で変更される場合は、元のビデオデータすなわち生のビデオデータを保存するのが有益なソリューションとなり得る。ビデオ圧縮テストの一例が以下で説明される。
/画素でおよそ100分間に収集されたビデオデータに関して、複数の圧縮規格が評価された。生のビデオからテストされた2つの無損失フォーマットは、DiracおよびH264である。H264は、ファイルサイズがわずかに小さいものの、コード変換に要する時間がわずかに長い。Diracは、別のフォーマットへの後続のコード変換により広く支持され得る。
であり、ビットレートを良好に制御可能であることが知られている。ビットレートの設定には、2つの方法がある。第1は、符号化ビデオ全体を通して一定の固定ビットレートを設定する方法であり、第2は、元のビデオからの逸脱に基づいて可変ビットレートを設定する方法である。MPEG4符号化器を用いたffmpegにおいて、可変ビットレートの設定は、品質値(0~31(0は略無損失))の選択により容易に実現され得る。
異なる画像圧縮方法が比較される。元の画像は、図4Aに示される。その他3つの方法は、図4B~図4Dにおいて、元画像からの画素の差により示され、圧縮の影響のみを示している。すなわち、圧縮画像は、元画像とこれほども異なる。したがって、少差がより優れており、また、高圧縮比がより優れている。図4Bに示されるように、Q0フィルタを備えたMPEG4コーデックに従って実行される圧縮は、1/17の圧縮比を示す。図4Cに示されるように、Q5フィルタを備えたMPEG4コーデックに従って実行される圧縮は、1/237の圧縮比を示す。図4Dに示されるように、HQDN3Dフィルタを備えたMPEG4コーデックに従って実行される圧縮は、1/97の圧縮比を示す。
フィルタ(図4B)、Q0 HQDN3Dフィルタ(図4D))を使用する場合、画素の約0.01%が元画像から変化している(強度が最大4%増大または低下している)。これは、1フレーム当たりおよそ25画素を占める。これらの画素の大部分は、陰影の境界に位置付けられる。当然のことながら、この小さな画像の変化は、カメラ210自体に干渉するノイズの規模に従う。より高い品質値(たとえば、Q5(図4C))では、ビデオデータをより良好に圧縮するため、アーチファクトが導入され得る。これらは、圧縮中に注意が払われない場合に出現するブロックノイズを伴うアーチファクトに通じることが多い。
他の好適な無損失フォーマットが生成され得る。これらのうちの2つとして、FMFコーデック(フライムービー(fly movie)フォーマット)およびUFMFコーデック(マイクロフライムービー(micro fly movie)フォーマット)が挙げられる。これらのフォーマットの目的は、無関係な情報を最小限に抑えるとともに、追跡のための可読性を最適化することにある。これらのフォーマットは、無損失であり、固定された背景モデル上で機能するため、フィルタリングされていないセンサーノイズにより、実質的なデータ圧縮は一切不可能であった。この圧縮評価の結果が表2に示される。
はずである。背景ノイズは、すべてのカメラに内在しており、ダークノイズと言われることが多く、画像内の基準ノイズを表す。
等、多くの方法がある。ただし、これらの方法が実験に直接影響する場合は、実行可能な選択肢ではない。したがって、時空間情報を取り込んで小変動を除去するffmpegのHQDN3Dフィルタが採用され得る。
タのファイルサイズを大幅に低減させることが観察される(たとえば、元のビデオデータのファイルサイズと比較して約100倍小さい)。HQDN3Dフィルタを備えたMPE
G4コーデックによる圧縮の後、結果としての平均ビットレートとしては、圧縮ビデオにおいて、およそ0.34GB/時が可能である。さらに、実質的にすべての情報の損失は、センサーノイズからの生成物(マウスのいない状態で取得されたビデオ)の数桁未満であることが実験的に検証された。この種のノイズ除去は、圧縮性を大幅に向上させる。
ーラルネットワーク(CNN)による追跡の性能を大幅に向上させることが発見されている。理論上の制約を受けることなく、この性能向上は、HQDN3Dフィルタが分散ベースの背景減算法であるために実現されると考えられる。低分散では、前景の識別が容易であり、高品質の追跡をもたらされる。
[00153]マウスは、超音波領域での発声によって、社会的コミュニケーション、交配、
攻撃、および飼育を行い得る(たとえば、Grimsley et al.(2011)参照)。嗅覚および触覚の刺激と併せて、この発声は、マウスのコミュニケーションの最も顕著な形態のうちの1つとなり得る。マウスではテストされていないものの、人間の場合、声および発声の変化(加齢)は、思春期および老化等の遷移を規定し得る(たとえば、Decoster and Debruyne(1997)、Martins et al.(2014)、Mueller(1997)参照)。
つまたは複数のマイク222をさらに具備し得る。マイク222は、フレーム202に取り付けられ、筐体204に入れられた動物からオーディオデータを取得するように構成され得る。マイクアレイの形態でマイク222を使用することにより、同期データ収集が導かれ得る。このマイク222の構成は、発声しているマウスの特定を可能にする。一群のマウスの中で発声しているマウスをさらに決定できることは、近年、マイクアレイを用いて実証されている(たとえば、Heckman et al.(2017)、Neunuebel et al.(2015)参照)。
れ得る。音声を捕捉可能なアリーナの側面に4つのマイクが位置決めされ得る。ビデオデータと統合された場合に、最尤法を用いて、発声しているマウスが識別され得る(たとえば、Zhang et al.(2008)参照)。
[00156]一実施形態において、アリーナ200は、温度、湿度、および/または光強度
(たとえば、可視および/またはIR)等の1つまたは複数の環境パラメータを測定するように構成された1つまたは複数の環境センサー224をさらに具備し得る。特定の実施形態において、環境センサー224は、統合されて、2つ以上の環境パラメータを測定するように構成され得る(たとえば、Phenome Technologies、Skokie、IL参照)。環境センサー224は、コントローラ216と電気的に連通して、光レベルとともに日々の温度および湿度データを収集可能である。収集された環境データは、最低および最高温度のほか、照明状態を示すユーザインターフェースにおける表示のため、出力され得る(以下の制御ソフトウェアに関する記述参照)。
[00157]データ取得および光制御のため、コントローラ216によりソフトウェア制御
システムが実行され得る。ソフトウェア制御システムは、対応するタイムスタンプとともに、ビデオ、オーディオ/超音波、および環境データを独立して収集できるように構成され得る。このように、あらかじめ決められた任意の期間(たとえば、1秒または複数秒、
1分または複数分、1時間または複数時間、1日または複数日、1年または複数年等)にわたって中断なく、データが収集され得る。これは、取得ビデオ、オーディオ/超音波、および/または環境データの後々の編集または同期による解析または提示を可能とし得る。
[00158]オペレーティングシステムの選定は、さまざまなセンサーのドライバの可用性
により推進され得る。たとえば、Avisoft UltrasonicマイクドライバのみがWindowsオペレーティングシステムと互換性を有する。ただし、この選定は、以下に影響を及ぼす可能性がある。
ハードウェアの選択肢
[00159]特定の実施形態において、制御システムは、シングルボードコンピュータの形
態でコントローラ216により実装され得る。継続運用に対して高堅牢な軍用規格/産業用コンピュータ等、複数の選択肢が利用可能である。
[00160]外部クロックをシステムに導入することなく、システムクロックから、適切な
実時間クロック値を利用可能である。ポジックスシステムにおいては、clock_gettime(CLOCK_MONOTONIC、・・・)関数が秒およびナノ秒を返し得る。クロックの分解能は、clock_getres()関数で問い合わせ可能である。制御システムの実施形態のクロック分解能は、およそ33ミリ秒のフレーム期間よりも小さいことが望ましいはずである。一実施形態において、システムクロックは、Unixシステムである。
unt64()システム関数が開発されている。このタイマーの予想分解能は、およそ10~およそ16ミリ秒である。これは、clock_gettime()システムコールと同じ目的を果たし得るものの、値のラッピングを確認して考慮するのが有益となり得る。
セス可能である。以下のコードスニペットが評価され、サブミクロン秒の分解能が観察されている。
mach_timespec_t mts;
host_get_clock_service(mach_host_self(),SYSTEM_CLOCK,&cclock);
clock_get_time(cclock,&mts);
[00163]如何なるOSにおいても、時刻を返すシステムコールは、調整が周期的になさ
れると、後ろに移動する場合があり得る。一実施形態においては、単調増加するシステムクロックが採用され得る。GetTickCount64()、clock_gettime()、およびclock_get_time()はすべて、この基準を満たし得る。
[00164]カメラ供給業者のソフトウェアは、妥当なサイズへと自動的に分割された適切
なタイムスタンプの出力ファイルを保存するとは考えにくい。コントローラ116の実施形態では、中断なくビデオデータを収集し、カメラ110から各フレームを読み出して、単純な形態で収集ビデオデータを提供するのが望ましい。たとえば、コントローラ116は、タイムスタンプヘッダまたはフレーム間のタイムスタンプとともに、生のフォーマットで、1ファイル当たりおよそ10分間のビデオフレームをデータ記憶装置120に与えるように構成され得る。そして、各ファイルは、2GBを下回ることになる。
[00165]図7は、取得システム700の構成要素を示したブロック図である。特定の実
施形態において、取得システム700は、コントローラ216により実行され得る。各ブロックは、実行の別個のプロセスまたはスレッドを表す。
コントローラプロセス
[00166]制御プロセスは、他のプロセスまたはスレッドを開始および停止するように構
成され得る。また、制御プロセスは、取得システム700のユーザインターフェースを提供するように構成され得る。制御プロセスは、活動のログを保存するように構成され、また、取得中に発生するエラーを(たとえば、ログに)記録し得る。また、制御プロセスは、休止となったプロセスまたはスレッドを再開させるように構成され得る。
セスに対するユーザインターフェースとしては、コマンドラインインターフェースまたはグラフィカルインターフェースが可能である。グラフィカルインターフェースは、OSからの独立をもたらすQT等の移植可能なフレームワーク上に構築され得る。
[00168]ビデオ取得プロセスは、カメラ210と直接通信して、タイムスタンプされた
フレームをデータ記憶装置220に保存するように構成され得る。ビデオ取得プロセスは、高優先度で動作することにより、フレーム落ちの可能性を最小限に抑え得る。ビデオ取得プロセスは、フレーム間の処理を最小限に抑えることで、比較的単純に保たれ得る。また、ビデオ取得プロセスは、照明212により放射されるIR照射を制御することによって、最小限の有効シャッター速度で適正な露光を保証するように構成され得る。
[00169]別個のオーディオ取得プロセスは、適当なタイムスタンとともに超音波オーデ
ィオデータを取得するように構成され得る。一実施形態において、オーディオシステムは、筐体204とオーディオ連通して配置されたマイク222のアレイを具備し得る。特定の実施形態においては、マイク222のうちの1つまたは複数が筐体204内に位置決めされ得る。マイクアレイの各マイクは、およそ500kHzのサンプリング周波数、およそ16ビットのADC分解能、およそ10kHz~およそ20kHzの周波数範囲、および8次で210kHzのアンチエイリアシングフィルタといった性能のうちの1つまたは複数を有し得る。一例として、マイクアレイの各マイクは、Pettersson M500マイク(Pettersson Elektronik AB、Uppsala、Sweden)またはその機能的同等物を含み得る。上述の通り、マイク222により捕捉されたオーディオデータは、タイムスタンプされ、解析のためのコントローラ216への提供および/または格納のためのデータ記憶装置220への提供がなされ得る。
[00170]別個の環境データ取得プロセスは、温度、湿度、および光レベル等の環境デー
タを収集するように構成され得る。環境データは、低周波数(たとえば、およそ0.01Hz~0.1Hz)で収集され得る。環境データは、データ記憶装置220により、レコードごとにタイムスタンプを伴って(たとえば、1つまたは複数のCSVファイルとして)格納され得る。
[00171]照明制御プロセスは、マウスに昼夜サイクルを与えるため、照明212により
放射された可視光を制御するように構成され得る。一実施形態においては、上述の通り、カメラ210が実質的にすべての可視光を取り除いてIRのみに応答するように構成され、IRが生じないように可視光がフィルタリングされ得るため、このプロセスは、ビデオ捕捉に対する影響を回避可能である。
[00172]ビデオ編集プロセスは、取得ビデオデータをあらかじめ決められた圧縮であら
かじめ決められたフォーマットへと再パッケージングするように構成され得る。このプロセスは、フレーム落ちの機会を最小限に抑えるため、ビデオ取得から分離させておくことができる。ビデオ編集プロセスは、低優先度の背景タスクとしての動作あるいはデータ取得完了後の動作が可能である。
[00173]ウォッチドッグプロセスは、データ取得プロセスの健全性をモニタリングする
ように構成され得る。一例として、問題を(たとえば、ログに)記録し、必要に応じて再開をもたらし得る。また、ウォッチドッグプロセスは、監視している構成要素からの「鼓動」を聴くことができる。一般的に、鼓動としては、コントローラ216に送信され、システム700の構成要素が正常に動作していることを確認する信号が可能である。一例として、システム700の構成要素が機能を停止した場合は、コントローラ216によって、この構成要素から鼓動が送信されないことが検出され得る。この検出の後、コントローラ216は、イベントを記録し、警報を発することができる。このような警報としては、オーディオアラームおよび視覚的アラーム(たとえば、光、英数字表示等)が挙げられるが、これらに限定されない。このようなアラームの代替または追加として、コントローラ216は、再初期設定信号の送信または電源の切り替え等、構成要素の動作を再開しようとし得る。システム700の構成要素とコントローラ216との間の通信の方法は、OSの選定に応じて変化し得る。
[00174]特定の実施形態においては、追跡を容易化するため、マウスがマーキングされ
得る。ただし、以下により詳しく論じられる通り、マーキングが省略され、他の技術により追跡が容易化され得る。
が存在する。一実施形態においては、マウス自身に見えないようにすることで、マウスのコミュニケーションおよび行動への影響を最小限の抑える長期間(数週間)のマーキングがマウスに対して実行され得る。一例として、通常のマウスの視界範囲には見えない長期IR感応マーカが採用され得る。
ウスの毛にマーキングが施され得る。この手法では、マウスを数週間にわたって明確に識別可能であり、行動実験において成功裏に使用され得る(たとえば、Ohayon et
al.(2013)参照)。ただし、毛にマーキングを施すプロセスには、マウスへの麻酔を要するが、これは、本マウスモニタリングシステムには受け入れられないプロセス
である。麻酔が生理機能を変化させ、また、染毛剤自体が、マウスの行動を変化させることが多い刺激物となり得る。各DOマウスが一意であることから、これが色素/麻酔×遺伝子型効果となって、未知の変数を導入し得る。
され、最適化され得る。
[00178]別の実施形態においては、マーキングの一形態としてマウスの背中にパターン
を生成するため、剃毛が採用され得る。
[00179]開発段階においては、合計で2TB未満のデータが必要とされ得る。これらの
データには、さまざまなカメラおよび圧縮方法によるサンプルの生のビデオおよび圧縮ビデオを含み得る。したがって、統合USV・ビデオデータのほか、負荷テスト中の長期7~10日間ものビデオデータのデータ転送が実現され得る。ビデオのサイズは、選定された圧縮規格に従って低減され得る。サンプルのデータストレージ推定値が以下に与えられる。
テスト:
1つのアリーナ
最大5つのカメラ
ビデオの継続時間:それぞれ約1~2時間
合計約10GB(上限)
負荷テスト:
1つのアリーナ
1つのカメラ
ビデオの継続時間:14日
解像度:現行の2倍(960×960)
合計約2TB
生産:
120回の合計実行(12~16個のアリーナ、グループ実行当たり80匹の動物、交互の実験)
継続時間(各):7日
解像度:現行の2倍(960×960)
32.25TB
II.動物追跡
[00180]マウス等の動物のビデオ追跡は、高レベルのユーザ関与がなければ、複雑かつ
動的な環境においても、既存の動物モニタリングシステムにおける遺伝子学的に異種の動物に対しても実行し得ず、大規模な実験が実現不可能となる。後述の通り、既存のシステムおよび方法を用いることにより複数の環境において多数の異なるマウス系統を追跡しようとすれば、これらのシステムおよび方法が大規模な実験のデータセットに対して不適切であることが明らかとなる。
る毛色のマウスを含む例示的なデータセットが解析に用いられた。以下に概説されるJAX-IACUCの手順に従って、すべての動物がテストされた。マウスは、生後8~14週間にテストされた。データセットは、59系統の1857個のビデオを含み、合計1702時間であった。
研究所のInstitutional Animal Care and Use Committeeガイドラインによる認証手順に従って、8~14週間の成体マウスの行動
がテストされた。Kumar(2011)に記載の通り、オープンフィールド行動アッセイが実行された。要するに、集団飼育のマウスの重さが計量され、ビデオ記録の開始前30~45分間にわたって、テストルームに慣らされた。本明細書においては、最初の55分間の運動のデータが提示される。入手可能な場合は、各近交系統およびF1同質遺伝子系統から、8匹の雄および8匹の雌がテストされた。
アリーナ200)で複数の動物を追跡するのが望ましいはずである。ビデオ取得システムにより取得されたフルフレームおよびクロッピングされたビデオ画像の例が図8Aの1列目(フルフレーム)および2列目(クロップ)に示される。さまざまな遺伝子学的背景の各環境において、理想的な追跡フレームおよび実際の追跡フレームの例が示される(図8Aの3列目(理想的な追跡)および4列目(実際の追跡))。
びジャクソン研究所におけるKnockout Mouse Project(KOMP2)等、過酷な環境における行動のビデオ解析の実行が望ましかった(それぞれ、図8Aの5列目および6列目)。
ーナ200に収容された。マウスはアリーナ200に拘束され、照明212により放射された赤外光を用いることにより、昼夜条件において継続的な記録が実行された。寝床および餌入れはマウスにより移動され、昼夜サイクルを模擬するため、照明212により放射される可視光が各日の経過にわたって変更された。
ブレークシステムでは識別され得ない歩行の影響を検出する追加の解析様式として、ビデオベースの記録を実行するのが望ましかった。歩行解析においては、動物の動きが解析される。動物の歩行が異常な場合は、骨格、筋肉、および/または神経等の異常が導出され得る。KOMP2プロジェクトでは、赤外線が全面に照射された透明なポリカーボネートのボックスにマウスが入れられるビームブレークシステムを使用する。マトリクスの床もポリカーボネートであって、基礎となるベンチ面は暗灰色である。2つのテーブルの接続部に配置されたいくつかのボックスが接合を可能とし、天井の照明(たとえば、LED照明)がすべてのボックスに対して一意の高輝度をもたらし得る。
代のオープンソースな追跡ツールであるCtraxを用いて、このデータセットのビデオの追跡が試行された。Ctraxは、長軸および短軸、マウスの中心のxおよびy位置、および動物の方向という5つの測定基準に対して、フレームごとにマウスを抽象化する(Branson(2009))。また、MOG2背景減算モデルを利用するが、この場合、ソフトウェアは、背景減算に使用するビデオの背景の平均および分散の両者を推定する。Ctraxでは、予測前景の形状を用いて楕円に適合させる。
ェアであるLimeLightを用いて、このデータセットのビデオの追跡が試行された。LimeLightは、単一のキーフレーム背景モデルを使用して、セグメンテーションおよび検出を行う。マウスが検出されたら、LimeLightは、独自のアルゴリズムを用いることにより、重心に対してマウスを抽象化する。
。一例として、CtraxおよびLimeLightでは、マウスの毛色および環境の組
み合わせを扱うのが困難であった。一般的に、白色背景上の暗色マウス(たとえば、黒色、アグーチ)等、高コントラストを示す環境は、良好な追跡結果を生じている。ただし、白色背景上の明色マウス(たとえば、アルビノ、灰色、またはまだら模様のマウス)等、低コントラストの環境は、不十分な結果を生じている。白色オープンフィールドにおける黒色マウスは、高い前景-背景コントラストを実現するため、実際の追跡が理想と緊密に一致する。灰色マウスは、視覚的にアリーナの壁に類似するため、壁を背にすると鼻が取り除かれてしまう場合が多い。アルビノのマウスは、アリーナ自体の背景に類似するため、追跡中は見つからないことが多い。まだら模様のマウスは、毛色がパターン化されているため、真っ二つに割れる。ビデオごとにCtraxを最適化および微調節する試みがなされたものの、図8Aの3列目(理想的な追跡)と比較して4列目(実際の追跡)の実際の追跡結果に示されるように、かなりの数の不良追跡フレームが依然として観察された。不良追跡フレームを破棄すると、サンプリングが偏って生物学的解釈が歪められ得るため、望ましくない。
的ではなくなると大きくなることが観察された。さらに、エラーの分布は、ランダムではなかった。たとえば、図8の4列目(実際の追跡)に示されるように、マウスが隅部、壁近く、または餌入れの上にいる場合は追跡が極めて不正確である一方、中央にいる場合は追跡があまり不正確にならないことが分かった。24時間環境において餌入れをアリーナに配置すると、マウスがその上に登った場合に追跡の問題が生じる。また、KOMP2等の反射面を有するアリーナでも、追跡アルゴリズムにエラーが生じる。
の背景からの不十分なセグメンテーションに起因することが分かった。これには、マウスが前景から取り除かれる事例または不十分なコントラストのために背景が前景に含まれる事例を含んでいた。従来は、最適化されたビデオデータ収集に対して環境を変化させることにより、これらハードルの一部に対処がなされていた。たとえば、アルビノのマウスを追跡するため、オープンフィールドの背景色を黒色に変えて、コントラストを高くすることができる。ただし、このような環境変化は、本文脈において適さない。環境の色はマウスおよび人間の行動に影響を及ぼすため、このような操作は潜在的に、実験結果を混同させ得るからである(Valdez(1994)、Kulesskaya(2014))。また、24時間データ収集システムまたはKOMP2アリーナにおいては、このようなソリューションがまだら模様のマウスに対して機能しない可能性がある。
ルが追跡結果を改善し得るかを判定するテストが実行された。26個の異なるセグメンテーションアルゴリズム(Sobral(2013))がテストされ、図8Bに示されるように、これら従来のアルゴリズムがそれぞれ、特定の状況下では十分に機能し、他の場所では機能しなくなることが発見された。動物追跡のための他の利用可能なシステムおよび方法は、追跡のための背景減算手法に依拠する。26個の背景減算方法がすべて機能しなくなったことから、CtraxおよびLimeLightの結果がこれら他の技術を表すと考えられる。これらのセグメンテーションアルゴリズムは、不適正なセグメンテーションのために機能しなくなると考えられる。
るものの、既存ソリューションの代表例により、適正なマウスのセグメンテーションに関する基本的な問題を克服して高品質のマウス追跡を実現する試みは、成功に至っていない。マウスのセグメンテーションに関する基本的な問題への適当な対処を行い、環境の最適化に大略依拠して適正なセグメンテーションを実現するものはないため、潜在的な混同が生じる。
となり得る。たとえば、24時間設定によるデータの追跡において、マウスは、同じ姿勢で長時間にわたって眠っている場合、背景モデルの一部となって、追跡不可能となる。通常の監視では、経験豊富なユーザがビデオの1時間ごとに5分間の相互作用を行って、高品質の追跡結果を保証することになる。このレベルのユーザ相互作用は、小さくて制限された実験の場合は扱いやすいが、大規模かつ長期間の実験では、追跡性能を監視するのに長時間の関与が必要となる。
ータの解析に適した堅牢な次世代追跡器を構築する。以下に詳しく論じられる通り、複雑かつ動的な環境条件下で高い性能を実現し、毛色の遺伝的特徴を問わず、ユーザによる持続的な微調節を要しない人工ニューラルネットワークが採用される。
習する複数の処理レイヤを含む演算モデルである。これらの方法は、最先端の音声認識、視覚的物体認識、物体検出、ならびに創薬およびゲノミクス等のその他多くの領域を劇的に向上させてきた(LeCun(2015))。1つの利点において、好適なハイパーパラメータを伴う効率的なネットワークが開発されたら、適当なトレーニングデータを追加するだけで、ニューラルネットワークが容易に他のタスクへと拡張され得る。したがって、開示の実施形態は、マウス追跡のための高度に一般化可能なソリューションを提供する。
ニューラルネットワーク・アーキテクチャ
[00197]視覚的追跡の問題を解決する3つの主要なネットワーク・アーキテクチャが開
発された。一実施形態においては、図8Cに示されるように、セグメンテーションマスクに基づいて、物体追跡がマウスの楕円記述の形態を取り得る(Branson(2005)参照)。代替実施形態においては、楕円以外の形状が採用され得る。
動物の位置を記述し得る。一態様において、変数のうちの1つとしては、取得ビデオフレーム中のマウスの画素位置(たとえば、平均中心位置)を表すあらかじめ決められた座標系(たとえば、直交座標系のxおよびy)における位置を規定する座標が可能である。すなわち、平面内の一意の画素位置である。任意選択的に、必要に応じて、座標の決定を補助するため、ビデオフレーム中のランドマーク(たとえば、筐体204の隅部)が検出され得る。別の態様において、変数には、マウスの長軸の長さおよび短軸の長さ、ならびに長軸のベクトル角の正弦および余弦をさらに含み得る。この角度は、長軸の方向に対して規定され得る。長軸は、ビデオフレームの座標系において、動物の頭部の先端(たとえば、鼻)辺りから動物の身体の端部(たとえば、動物の尾部が身体から延びる点辺り)まで延伸し得る。本明細書においては明瞭化のため、ニューラルネットワークの入力としてクロッピングされたフレームが示される一方、実際の入力は、マーキングされていないフルフレームである。
る例示的なシステムおよび方法が以下に詳しく論じられる。必要に応じて、開示の実施形態により他のパラメータが利用および決定され得ることが了解され得る。
メンテーション・ネットワークである。図9に示されるように、このネットワークは、所与の入力フレームから前景-背景セグメント化画像を予測するとともに、出力をセグメンテーションマスクとして、マウスが存在するか否かを画素の観点で予測可能である。
ば、480×480に対して5×5)へと抽象化するように構成された特徴エンコーダを具備する。多くのパラメータが学習のため、ニューラルネットワークに割り当てられる。学習は、教師ありトレーニングにより実行され得るが、この場合、ニューラルネットワークには例が提示され、パラメータの調節によって正しい予測を生じる。最終モデルの定義およびトレーニングハイパーパラメータがすべて、以下の表3に記載される。
状へと戻すように構成された特徴デコーダが後続する。すなわち、ニューラルネットワークにおいて学習されたパラメータは、特徴符号化演算を逆転する。
する。完全接続レイヤは、所与のレイヤの各数字に異なるパラメータ(たとえば、学習可能なパラメータ)が乗じられ、その合計によって新たなレイヤに単一の値を生じるニューラルネットワークレイヤを表し得る。この特徴デコーダは、前景-背景セグメント化画像を生成するようにトレーニングされ得る。
が続く2D畳み込みレイヤおよび2D最大プーリングレイヤを利用する。別途詳細については、Goodfellow(2016)に見られる。
。使用されるカーネルは、2D畳み込みレイヤの場合は5×5、最大プーリングレイヤの場合は2×2の形状である。入力ビデオは、480×480×1(たとえば、モノクロ)の形状であり、これらのレイヤを6回繰り返した後、結果としての形状は、15×15×128(たとえば、128色)である。
得る。繰り返しレイヤは、繰り返し構造のレイヤを表す。ニューラルネットワークは、レイヤごとに異なるパラメータを学習し、各レイヤがスタックされる。6個の繰り返しレイヤを上述したが、繰り返しレイヤの採用数は、これより多くすることも少なくすることも可能である。
異なるカーネル3×3およびストライド3の2D最大プールが適用される。15×15の空間形状は、係数3の使用によって、さらに縮小され得る。通常の最大プールはカーネル2×2、ストライド2であるが、各2×2グリッドは、最大値を選択するとともに1つの値を生成する。これらの設定は、3×3グリッドにおいて最大値を選択する。
ネックが生成される。特徴ボトルネックは符号化特徴セットを表し、実際の行列値は、これらすべての行列演算により出力される。学習アルゴリズムは、符号化特徴セットが十分に作用するようにトレーニングされるタスクに対して最も有意となるように符号化特徴セットを最適化する。この特徴ボトルネックはその後、セグメンテーションデコーダおよび角度予測器の両者に受け渡される。
エンコーダを逆転するとともに、合計ジャンクション(summation junction)によって、プレダウンサンプリング活性化を繰り越す。このデコーダは、ReLu活性化を利用しないことに留意するものとする。プレダウンサンプリング活性化および合計ジャンクションは、スキップ接続(skip connection)とも称され得る。エンコーダレイヤと同じ形状に対して復号化が整合するレイヤにおける特徴以降、ネットワークは、より良くなる符号化とエンコーダ状態時の状態保持とのいずれかを選定可能である。
途畳み込みの適用によって、深度が2つのモノクロ画像(背景予測および前景予測)になる。最終的な出力は、480×480×2(2色)である。第1の色は、背景を表すように指定される。第2の色は、前景を表すように指定される。各画素に応じて、2つのうちの大きい方を、ネットワークは入力画素と考える。以下に論じられる通り、softmax演算は、合計が1になる累積確率となるように、これらの色を再スケーリングする。
るグループへの分類またはbinminの形態である。softmaxに関する別途情報については、Goodfellow(2016)に見られる。
みレイヤにバッチ正規化およびReLu活性化を適用することによって実現される(カーネルサイズ5×5、特徴深度128および64)。ここから、1つの完全接続レイヤが平坦化され、マウスの頭部が向く四分円を予測するように作用する4ニューロンの形状を生成するために用いられる。バッチ正規化、ReLu活性化、および平坦化の別途詳細については、Goodfellow(2016)に見られる。
180°)の選択のみが必要となる。すなわち、楕円が予測されているため、長軸は1つしか存在しない。長軸の一端は、マウスの頭部の方向である。マウスは、頭部-尾部軸に沿ってより長いと仮定される。このため、一方向が+180°(頭部)であり、他方向が-180°(尾部)である。エンコーダ-デコーダ・ニューラルネットワーク・アーキテクチャが選択可能な4つの考え得る方向は、極座標グリッド上で45~135°、135~225°、225~315°、および315~45°である。
とりわけ、上述の通り、角度予測は、長軸のベクトル角の正弦および余弦の予測であり、atan2関数を採用する。atan2関数は(180°で)不連続であり、選択された境界がこれらの不連続を回避する。
2009)に記載の通り、追跡のために楕円フィッティングアルゴリズムが適用され得る。Bransonは、これらの計算に加重サンプル平均および分散を使用するが、セグメンテーション・ニューラルネットワークは、改善を表す状況に対して不変を維持する。背景減算アルゴリズムにより生成されたセグメンテーションマスクに対しては、投射される陰影がエラーを付加する場合がある。ニューラルネットワークは、これらの問題を一切含まないように学習する。また、加重および非加重サンプル平均および分散の使用間には、大きな差が観察されない。加重および非加重手法により予測される楕円フィッティングパラメータは、開示のニューラルネットワークの実施形態によって予測されるマスクを用いることにより、大きくは異ならない。
を表すように計算される。
図10に示されるように、ビニング分類ネットワーク・アーキテクチャの構造は、各楕円フィッティングパラメータの最確値のヒートマップを予測可能である。
化する特徴エンコーダで開始となる。回帰予測器の大部分が境界ボックス(たとえば、正方形または長方形)によってソリューションを実現するのに対して、楕円では、1つの付加的なパラメータである角度を追加するのみである。角度が360°および0°で等値になる繰り返し数であることから、角度パラメータは、その正弦および余弦成分に変換される。これにより、ネットワークから回帰した合計6つのパラメータが生じる。このネットワークの最初の半分は、問題を解くことと関連する一組の特徴を符号化する。
ことによって平坦化される。そして、平坦化された符号化特徴は、(たとえば、特徴のベクトルを完全接続レイヤに入力することにより)出力形状が所望の出力解像度によって決定される付加的な完全接続レイヤに接続される。たとえば、マウスのX座標位置の場合は、480×480画素の画像の各x列に1ビンずつ、480個のビンが存在する。
れる。所望の各出力パラメータは、符号化特徴に接続された一組の独立したトレーニング可能な完全接続レイヤとして実現され得る。
2 200、Inception V3、Inception V4、VGG、およびAlexnet等の多種多様な予備構築特徴検出器がテストされた。特徴検出器は、入力画像に対して動作する畳み込みを表す。これらの予備構築特徴検出器のほか、多様なカスタムネットワークも調査された。この調査により、Resnet V2 200が最も良く機能することが観察された。
して、回帰ネットワークは、入力ビデオフレームを取得し、Resnet200 CNNによって特徴を抽出し、楕円フィッティング用の6つのパラメータを直接予測する。各値(楕円フィッティング用の6つ)は連続しており、無限の範囲を有し得る。ネットワークは、適当な値の範囲を学習する必要がある。このように、入力画像から直接、追跡楕円を記述する楕円の数値が予測される。すなわち、パラメータを直接予測する代わりに、回帰ネットワークはそうではなく、考え得るビニング値の選択肢から最確値を選択する。
ンコーダ-デコーダ・ニューラルネットワーク・アーキテクチャは、各画素がマウスであるか否かの確率を出力する。ビニング分類ニューラルネットワーク・アーキテクチャは、マウスの位置を表すビンを出力する。各パラメータのクラスは予め決定されており、ネットワーク(エンコーダ-デコーダまたはビニング)は、各クラスの確率を出力しさえすればよい。
る特徴エンコーダで開始となる。上記アーキテクチャとは対照的に、回帰ニューラルネットワーク・トレーニングは、平均平方エラー損失関数とは異なり、交差エントロピー損失関数に依拠する。
がテストされた。最も良く機能するネットワークは、2つの2D畳み込みレイヤの後、2D最大プーリングレイヤで構造化されたものであった。使用されるカーネルは、2D畳み込みレイヤの場合は3×3、2D最大プーリングレイヤの場合は2×2の形状である。最初に用いられるフィルタ深度は16であって、2D最大プールレイヤごとに2倍される。この2つの畳み込み+最大プールシーケンスは、5回繰り返されて、15×15×256の形状を生じる。
形状は、予測の所望の分解能および範囲によって決定される。一例として、これらの符号化特徴はその後、平坦化され、完全接続レイヤに接続されて、出力形状6を生じたが、これは、楕円への適合を予測するようにネットワークが要求された値の数である。テストを目的として、中心位置のみが観察され、広範な全体画像(0~480)でトレーニングされた。角度予測等の付加的な出力は、付加的な出力ベクトルとして容易に追加され得る。多様な現代の特徴エンコーダがテストされたが、このネットワークに対して本明細書に論じられるデータは、このアーキテクチャに対して最も良く機能する結果を実現した200レイヤのResnet V2に由来する(He(2016))。
[00227]ネットワーク・アーキテクチャをテストするため、後述の通り、OpenCV
ベースのラベリングインターフェースを用いて、複数の系統および環境にまたがる16,234個のトレーニング画像および568個の別個の検証画像から成るトレーニングデータセットが生成された。このラベリングインターフェースは、前景および背景の高速ラベリングのほか、楕円フィッティングを可能にするものであり、トレーニングデータを直ちに生成して、転移学習により任意のネットワークを新たな実験条件に適応させるのに用いられ得る。
ンおよび輪郭(contour)ベースの楕円フィッティングを生成するため、OpenCVライブラリが採用された。このソフトウェアを用いることによって、ユーザは、図12Aに示されるように、左クリックにより前景(たとえば、マウス(F))として点をマークし、右クリックにより背景(B)として他の点をラベリングする。キーストロークにより分水嶺アルゴリズムが実行され、図12Bに示されるように、セグメンテーションおよび楕円を予測する。ユーザは、予測されたセグメンテーションおよび楕円を編集する必要がある場合、さらにエリアをラベリングして、分水嶺を再び動作させるだけでよい。
かじめ決められたエラー許容範囲内に予測が含まれる場合、ユーザは、楕円の方向を選択する。ユーザは、4つの基本方向(上、下、左、右)のうちの1つを選択することによって、選択を行う。楕円フィッティングアルゴリズムによって正確な角度が選択されることから、ユーザは、方向の±90°を識別しさえすればよい。方向が選択されたら、すべての関連するデータが保存され、ユーザには、ラベリングする新たなフレームが提示される。
データを識別することである。データをラベリングする間に、長軸の端部がマウスの鼻に略接触した状態で、楕円の中心がマウスの胴体となるように楕円フィッティングが最適化された。尾部は、より優れた楕円フィッティングを提供するため、セグメンテーションマスクから除去されることが多かった。
グセットが生成された。各データセットには、基準フレーム(入力)、セグメンテーションマスク、および楕円フィッティングを含む。トレーニングセットはそれぞれ、異なる環境でマウスを追跡するように生成されたものである。
プンフィールドであった。最初の16,000フレームは、24個の同一セットアップのうちの1つから取得された65個の別個のビデオによりラベリングされた。ネットワークの第1のトレーニングの後、ネットワークは、ラベル付きデータに含まれていない特殊状況下において、十分に機能していないことが観察された。アリーナにおける中間跳躍、変則的な姿勢、および排尿の事例は通常、不成功として観察された。これらの不成功は、性能をさらに一般化して向上させるため、識別され、正しくラベリングされ、ラベル付きトレーニングセットに組み込まれた。
なる照明条件(日中の可視照射および夜間の赤外照射)の下にある標準的なオープンフィールドであった。このデータセットにおいては、4日間で6つのセットアップにまたがって、合計2,192フレームがラベル付けされた。注釈付きフレームのうちの916個が夜間照射から取得され、注釈付きフレームのうちの1,276個が日中照射から取得されたものである。
M4オープンフィールドケージを用いることにより生成された。このデータセットは、1083個のラベル付きフレームを含んでいた。これらのラベルはすべて、異なるビデオ(ビデオごとに1フレームをラベリング)および8つの異なるセットアップにまたがってサンプリングされたものである。
a)トレーニングデータセットの拡張
[00235]このトレーニングデータセットは、反射を適用することによって、トレーニン
グ中に8倍に拡張され、コントラスト、輝度、回転の小さなランダム変化の適用により、入力データのわずかな変動に対してネットワークを堅牢化させた。この拡張は、ニューラルネットワークによるトレーニングデータセットの記憶を阻止するために実行される。データセットが記憶されると、データセットに含まれない例(検証)に対して十分に機能しなくなる。別途詳細については、Krizhevsky(2012)に見られる。
のトレーニングの重要な一側面となっている(Krizhevsky(2012))。良好な正則化性能を実現するため、一握りのトレーニングセット拡張が利用される。データが鳥瞰図に由来することから、同等のトレーニングセットサイズにおいて即座に8倍増やすには、水平、垂直、および斜め反射を適用するのが容易である。また、実行時には、フレーム全体にわずかな回転および平行移動が適用される。回転拡張値は、均一な分布からサンプリングされる。最後に、ノイズ、輝度、およびコントラスト拡張についても、フレームに適用され得る。これらの拡張に用いられるランダム値は、通常の分布から選択される。
[00237]トレーニングの学習レートおよびバッチサイズは、ネットワークトレーニング
ごとに独立して選択された。Resnet V2 200等の大規模ネットワークは、480×480の入力サイズにおいてバッチサイズのメモリ制約に陥り得るが、グリッド探
索手法を用いて、良好な学習レートおよびバッチサイズが実験的に識別された。これらのネットワークのトレーニング用に選択されたハイパーパラメータは、上の表3に示される。
[00238]Tensorflow v1.0において、モデルの構築、トレーニング、お
よびテストが行われた。提示されたトレーニングベンチマークは、NVIDIA(登録商標)Tesla(登録商標)P100 GPUアーキテクチャ上で実行された。
た。ネットワークの第1のトレーニングの後、ネットワークは、トレーニングデータにおいて過小評価された特殊状況下において、十分に機能していないことが観察された。アリーナにおける中間跳躍、変則的な姿勢、および排尿の事例は通常、不成功として観察された。これらの困難なフレームは、性能をさらに向上させるため、識別され、トレーニングデータセットに組み込まれた。最終モデルの定義の完全記述およびトレーニングハイパーパラメータがすべて、上の表3に記載される。
ットがそれぞれ、図13A~図13Eに示される。全体として、トレーニングおよび検証損失曲線は、3つの全ネットワークが1~2画素の平均エラーの性能となるようにトレーニングされていることを示す。予想外にも、ビニング分類ネットワークは、不安定な損失曲線を表しており、検証時のオーバフィッティングおよび不十分な一般化を示している(図13B、図13E)。回帰アーキテクチャは、1.2画素の検証エラーへと収束したが、これは、検証よりも優れたトレーニング性能を示している(図13A、図13B、図13D)。ただし、最良の結果を与える特徴抽出器であるResnet V2 200は、200レイヤおよび6270万パラメータを超える大規模な深層ネットワークであり、1フレーム当たりの処理時間が実質的に長くなる(33.6ms)。他の予備構築汎用ネットワーク(Zoph(2017))は、短い演算時間と引き換えに、同様以下の性能しか実現できない。このように、回帰ネットワークは、正確ながら演算コストの高いソリューションである。
ダ・セグメンテーション・アーキテクチャは、0.9画素の検証エラーへと収束した。セグメンテーション・アーキテクチャが十分に機能するのみならず、5~6ms/フレームの平均処理時間でGPU演算の演算効率が良い。ビデオデータは、サーバレベルのGPUであるNvidia(登録商標)Tesla(登録商標)P100上において最大200fps(実時間の6倍)で処理可能であり、民生レベルのGPUであるNvidia(登録商標)Titan Xp上において125fps(実時間の4.2倍)で処理可能であった。この高い処理速度は、構造の深度が18レイヤに過ぎず、パラメータが1060万個に過ぎないためと考えられる。
の良好なネットワーク性能に対して必要なラベル付きトレーニングデータの相対スケールを識別するため、トレーニングセットサイズのベンチマークも行われた。このベンチマークは、トレーニングセットの部分集合(たとえば、10,000、5,000、2,500、1,000、および500)のシャッフルおよびランダムサンプリングによってテストされた。サブサンプリングされた各トレーニングセットは、トレーニングされるとともに同一の検証セットと比較された。このベンチマークの結果が図14A~図14Hに示される。
、トレーニングセットサイズは、トレーニングセットのエラー率に関して性能変化を何ら示さない(図14A)。驚くべきことに、検証性能が2,500個超のトレーニングサンプルで同じ値に収束する一方、エラーは、1,000個未満のトレーニングサンプルで増加している(図14B)。さらに図示されるように、2,500個超のトレーニングサンプルでは、検証精度がトレーニング精度より優れる(図14C~図14F)一方、1,000個でトレーニング精度と一致してからは、弱い一般化の兆候を示し始めている(図14G)。発散および増大する検証エラー率により示されるように、トレーニングサンプルを500個しか使わないのは明らかに過学習である(図14H)。これは、トレーニングセットがもはや、ネットワークが十分に一般化し得るのに十分な大きさではないことを示唆する。このため、良好な結果が得られるのは、2,500個のラベル付き画像のみでトレーニングされたネットワークからであり、当該ラベリングインターフェースでの生成には約3時間を要する。したがって、トレーニングサンプルの厳密な数が結局は視覚的問題の困難さに依拠することになる一方、推奨開始点のトレーニングサンプル数は、2,500個前後となる。
、可視光下の場合は図15Aおよび図15Bに示され、赤外光下の場合は図15Cおよび図15Dに示される。図示のように、個々のマウスの空間的範囲は、画素単位で色分けされている。
タを所与として、エンコーダ-デコーダ・セグメンテーション・アーキテクチャは、他の手法との比較のため、ビデオ全体のマウスの位置の予測用に選択されたものである。
るとともに、追跡の品質を視覚的に評価することによって、ニューラルネットワークベースの追跡の品質が評価された。また、ニューラルネットワークベースの追跡は、独立した追跡様式であるKOMP2ビームブレークシステムとも比較された(図8A、6列目)。
a)オープンフィールドアリーナ
[00247]アリーナ200の一実施形態がオープンフィールドアリーナとして採用された
。オープンフィールドアリーナは、52cm×52cmである。床は白色のPVCプラスチックであり、壁は灰色のPVCプラスチックである。清掃保守に役立つように、白色2.54cmの面がすべての内側縁部に追加された。LED照明リング(モデルF&V R300)によって照射が与えられる。照明リングは、各アリーナに600luxの光を生じるように校正された。
[00248]オープンフィールドアリーナは、数日間のテスト用に拡張された。照明212
は、標準的な12:12LDサイクルに設定された天井LED照明の形態である。αドライが寝床としてアリーナに配置された。餌および水を提供するため、単一のDiet Gel 76A餌入れがアリーナに配置された。この栄養源はモニタリングされ、無くなった場合に交換された。各マトリクスは、日中は250luxで照射され、夜間はおよそ500lux未満で照射された。夜間のビデオ記録のため、照明212は、IR LED(940nm)照明を含むものとした。
[00249]カスタムアリーナのほか、開示のシステムおよび方法の実施形態は、市販のシ
ステムに対してもベンチマークが行われた。透明なプラスチック壁を用いることにより、Opto-M4オープンフィールドケージが構成される。このため、結果としての反射により、視覚的追跡は非常に困難である。ケージは、42cm×42cmである。このアリーナの照明は、100~200luxのLED照射によって行われるものとした。
[00250]すべてのビデオデータは、図2および図7に関して論じられたビデオ取得シス
テムの一実施形態により取得された。ビデオデータは、Sentechカメラ(モデルSTC-MB33USB)およびコンピュータレンズ(モデルT3Z2910CS-IR)の形態のカメラ210を用いて、640×480画素の解像度、8ビットのモノクロ深度、およびおよそ29fps(たとえば、およそ29.9fps)で取得された。露光時間および利得は、190/255の目標輝度を用いてデジタル的に制御された。絞りは、目標輝度の実現のために低いアナログ利得が用いられるように、最も広くなるように調整された。これにより、基準ノイズの増幅が抑えられる。ファイルは、「生ビデオ」コーデックおよび「pal8」画素フォーマットを用いてローカルのハードドライブに仮保存された。アッセイは、約2時間にわたって動作し、約50GBの生ビデオファイルを生成した。480×480画素クロップのノイズ除去フィルタを適用するとともに、約600MBの圧縮ビデオサイズを生成するMPEG4コーデック(品質は最大に設定)を用いて圧縮を行うため、ffmpegソフトウェアが夜通し使用された。
にカメラ210が取り付けられた。ズームおよびフォーカスは、8画素/cmのズームを実現するように手動で設定された。この解像度は、アリーナ境界上の未使用画素を最小限に抑えるとともに、1匹のマウス当たり約800画素のエリアを生成する。KOMPアリーナはわずかに小さいものの、同じ8画素/cmの目標ズームが利用された。
ることにより、KOMP2データセットから2002個のビデオ(合計700時間)が追跡され、その結果が図8に示される。これらのデータは、20分のオープンフィールドアッセイでテストされた232本のノックアウトラインをC57BL/6NJ背景に含んでいた。透明マトリクスのために各KOMP2アリーナがわずかに異なる背景を有することから、追跡性能は、8つのテストチャンバそれぞれ(平均してn=250(図16))およびすべての組み合わせボックスに対して比較された。KOMP2が使用した8つの全テストチャンバにわたって、2つの手法間では、オープンフィールド内の総移動距離間に非常に高い相関が観察された(R=96.9%)。この傾向(赤色矢印)から、2匹の動物が高い不一致で観察された。ビデオの観察結果は、両方の動物に存在する変則的な姿勢を示しており、一歩がよたよた歩行、他方が猫背の姿勢であった。よたよた歩行および猫背の歩行は、異常なビームブレークとなって、ビームブレークシステムからの異常に高い総移動距離測度を生じると考えられる。本例は、動物の姿勢の影響を受けないニューラルネットワークの利点のうちの1つを強調している。
いても、さまざまなテスト環境からの広範なビデオおよび図8Aに関して上述した毛色全体にわたって、Ctraxと比較された。Ctraxとの比較は、多くの理由が動機となっている。一側面において、Ctraxは、多くの追跡設定の微調節を可能にする従来最良の追跡器のうちの1つと考えられる。また、Ctraxはオープンソースであり、ユーザサポートを提供する。BGSライブラリによる結果(図8B)を所与として、他の追跡器には、同様以下の性能が予想される。トレーニングされたセグメンテーション・ニューラルネットワークおよびCtraxの両者にて、1グループ当たり12匹の動物が追跡された。Ctraxの設定は、後述の通り、72個のビデオごとに微調節された。
n(2009))。このソフトウェアの作者は、良好な追跡を保証するためアリーナが特定の基準下でセットアップされるように強く推奨している。本明細書において論じられるテストのほとんど(たとえば、白色背景上のアルビノマウス)で、Ctraxが十分に機能するように設計されていない環境が採用される。それにも関わらず、パラメータが十分に調節されることで、良好な性能が依然として実現可能である。操作のための多くの設定により、Ctraxは、良好な追跡性能を実現するために時間コストが容易に高くなり得る。開示の環境においてマウスを追跡するためのCtraxのセットアップ手順は、以下の通りである。
減算に基づくため、堅牢な背景モデルを有することが機能上必須である。マウスが移動する場合はモデルが最適に機能する。背景モデルを生成するため、マウスが明らかに移動しているビデオの部分が探索され、当該部分からフレームがサンプリングされる。これにより、背景モデルにマウスが含まれなくなる。この手法は、24時間データに対するCtraxの追跡性能をかなり改善する。マウスはあまり移動しないため、通常は、背景モデルに組み込まれるためである。
.9~255.0の背景輝度正規化法が用いられる。マウスを分離するために適用される閾値は、予備ビデオに基づいて調節される。露光および毛色のわずかな変化が性能に影響を及ぼすためである。これらの閾値を調節するため、一組の良好な開始値が適用されるとともに、大略良好な性能を保証するためにビデオが精査される。特定の実施形態においては、壁を背にするマウスの事例に対して、すべてのビデオが確認され得る。これらが通常、陰影のために追跡が最も難しいフレームだからである。また、環境の希薄な変化を除去するほか、楕円フィッティング用にマウスの尾部を除去するため、形態学的フィルタリングが適用され得る。開口半径として4、閉塞半径として5が採用された。
能な種々追跡パラメータが手動で調整される。時間を考慮して、これらのパラメータは、他のすべての追跡マウスに使用される際およびその後に十分調節された。ビデオの機能が目に見えて不十分な場合は、性能を向上させるため、一般設定が微調整された。形状パラメータについては、個々の黒色マウスのビデオから、2つの標準偏差に基づく範囲が決定された。特定のマウスがセグメンテーションステップで十分に機能しなくなることが予想されたため、最小値がさらに下げられた。これにより、Ctraxは依然として、マウス全体のセグメント化が不可能であるにも関わらず、マウスの良好な位置を見出すことができる。この手法は、すべてのセットアップが同じズーム8を有し、テストされるマウスが大略同じ形状であることから、十分に機能する。実験セットアップでは、アリーナのマウスを1匹しか追跡しないため、動き設定は非常に緩やかである。観察パラメータの下、大規模な検出を取り除く「最小面積無視(Min Area Ignore)」が主として利用される。ここでは、2,500より大きな検出が取り除かれる。後知恵タブの下では、500フレーム長よりも短い検出を除去するため、「固定不要検出(Fix Spurious Detections)」設定が用いられる。
て眠る24時間装置からのビデオは、手動で比較から省略された。Ctraxとニューラルネットワークとの間の総移動距離の累積相対エラーが計算され、(図17A)に示される。ビデオの毎分に、ニューラルネットワークおよびCtraxの両者からの移動距離予測が比較される。この測定基準は、各マウスの重心追跡の精度を測定する。黒色、灰色、
およびまだら模様のマウスの追跡は、4%未満のエラーを示していた。ただし、有意に高レベルのエラーがアルビノ(14%)、24時間アリーナ(27%(橙色))、およびKOMP2(10%(青色))には見られた(図17A)。このため、ニューラルネットワーク追跡器がなければ、アルビノ追跡、KOMP2、または24時間のデータは適切に追跡され得なかった。
い場合は、楕円フィッティングがマウスの姿勢を正しく表さないことも観察された。これらの場合は、重心追跡が可能であったとしても、楕円フィッティング自体が高変動であった。
ソフトウェアは、行動の分類にこれらの特徴を利用する。楕円追跡における分散は、短軸の相対標準偏差によって量子化され、図17Bに示される。この測定基準は、すべての実験用マウスにわたって最小分散を示す。個々のマウスの幅は、追跡が正確な場合の行動アッセイにおいて表される広範な姿勢を通じて変わらず類似するためである。総移動距離のエラー累積相対エラーが小さくても(図17B)、灰色およびまだら模様のマウスでは、高い追跡分散が観察された(図17A)。予想通り、アルビノおよびKOMP2の追跡の場合は、短軸に関して、高い相対標準偏差が観察される。このため、重心追跡および楕円フィッティングの分散の両者について、ニューラルネットワーク追跡器が従来の追跡器よりも優れていることが分かる。
度追跡器として構築したため、その性能が2つの大きな行動データセットによってさらにテストされた。種々すべての色、まだら模様、ヌード、および肥満のマウスを含む58系統のマウスにわたって、1845匹のマウスでオープンフィールドのビデオデータが生成された(1691時間)。このデータセットには、47の近交マウス系統および11のF1同質遺伝子マウス系統を含んでおり、Bogue(2018)のMouse Phenome Databaseに従って生成された最も大きなオープンフィールドデータセットである。
し、ボックスは平均±標準偏差を示す。ユーザ調節を行っていない単一のトレーニング済みネットワークを用いて、すべてのマウスが高精度に追跡された。過半数の系統のマウスは、追跡の忠実度が視覚的に確認され、優れた性能が観察された。観察された運動表現型は、マウスのオープンフィールド行動の公開済みデータセットと一致する。
/Jマウスについて収集された24時間ビデオデータを追跡するため、同じニューラルネットワークが採用された(図8Aの5列目)。これらのマウスは、数日間にわたって寝床、餌および水入れとともに収容され、その間、餌の位置を変え、照明は12:12の明暗条件とした。可視光源および赤外光源を用いてビデオデータが記録された。これらの条件下で同じネットワークを用いて、すべての動物の運動が追跡され、明暗条件下で非常に優れた性能が観察された。
び暗条件を表す。予想通り、暗期に高レベルの自発運動を伴う運動リズム(曲線)が観察された。
野における積年の課題であった(Egnor(2016))。現在最先端のシステムでは、動物セグメンテーションの基本的な問題に対処しておらず、正確な追跡のため、前景と背景との視覚的コントラストに多くを依拠している。その結果、ユーザは、最適な結果を実現するために環境を制限する必要がある。
ルネットワークベースの追跡器および対応する使用方法が記載される。トレーニング可能なニューラルネットワークの使用によって、追跡における基本的な問題(前景および背景のセグメンテーション)は対処される。3つの異なるアーキテクチャのテストから、エンコーダ-デコーダ・セグメンテーション・ネットワークが高レベルの精度を実現し、高速(実時間の6倍超)で機能することが分かった。
要する)、特定の環境について新たなネットワークをトレーニング可能なラベリングインターフェースがさらに提供される。
ョンと比較され、複雑な環境においてこれらよりも非常に優れていることが分かった。背景減算手法を利用する任意の市販システムについても、同様の結果が予想される。実際、26個の異なる背景減算方法をテストした場合は、それぞれが特定の状況下で不成功になることが観察された。ただし、1つのニューラルネットワーク・アーキテクチャだけ、微調節の必要性もユーザ入力の必要性もなく、複数の環境下ですべての毛色のマウスに対して機能し得る。この機械学習手法は、最小限のユーザ入力によって、動的な環境条件下での長期追跡を可能とするため、行動研究のための次世代の追跡アーキテクチャの基礎を構成する。
ル電子回路、集積回路、特殊設計の特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはこれらの組み合わせにて実現され得る。これらの種々態様または特徴には、専用または汎用で、ストレージシステム、少なくとも1つの入力装置、および少なくとも1つの出力装置に対するデータおよび命令の受信ならびにデータおよび命令の送信を行うように結合され得る少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステム上で実行および/または解釈可能な1つまたは複数のコンピュータプログラムにおける実装を含み得る。プログラム可能なシステムまたはコンピュータシステムとしては、クライアントおよびサーバが挙げられる。クライアントおよびサーバは一般的に、互いに遠隔であって、通常は、通信ネットワークを通じて相互作用する。クライアントおよびサーバの関係は、各コンピュータ上で動作し、クライアント-サーバ関係を互いに有するコンピュータプログラムによって生じる。
ン、コンポーネント、またはコードとも称され得るコンピュータプログラムには、プログラム可能なプロセッサの機械命令を含み、高水準手続き型言語、オブジェクト指向プログラミング言語、関数型プログラミング言語、論理型プログラミング言語、および/またはアセンブリ/機械語にて実装され得る。本明細書において、用語「機械可読媒体(machine-readable medium)」は、たとえばプログラム可能なプロセッサに機械命令および/またはデータを提供するのに用いられる磁気ディスク、光ディスク、メモリ、およびプログラム可能論理素子(PLD)等(機械命令を機械可読信号として受信する機械可読媒体を含む)、任意のコンピュータプログラム製品、装置、および/またはデバイスを表す。用語「機械可読信号(machine-readable sig
nal)」は、プログラム可能なプロセッサに機械命令および/またはデータを提供するのに用いられる任意の信号を表す。機械可読媒体は、たとえば非過渡的固体メモリ、磁気ハードドライブ、または任意同等の記憶媒体等のように、上記のような機械命令を持続的に格納し得る。この代替または追加として、機械可読媒体は、たとえばプロセッサキャッシュまたは1つもしくは複数の物理的プロセッサコアと関連付けられた他のランダムアクセスメモリ等のように、上記のような機械命令を持続的に格納し得る。
線管(CRT)、液晶ディスプレイ(LCD)、もしくは発光ダイオード(LED)モニタ等の表示装置ならびにユーザが入力をコンピュータに与え得るキーボードおよびポインティングデバイス(たとえば、マウス、トラックボール等)を有するコンピュータ上において、本明細書に記載の主題の1つまたは複数の態様または特徴が実装され得る。ユーザとの相互作用を可能にする他の種類のデバイスも同様に使用され得る。たとえば、視覚的フィードバック、聴覚的フィードバック、または触覚的フィードバック等、ユーザに与えられるフィードバックとしては、任意の形態の感覚的フィードバックが可能であり、また、ユーザからの入力は、任意の形態で受け付けられ、音響、発話、または触覚入力が挙げられるが、これらに限定されない。他の考え得る入力装置としては、タッチスクリーンまたは単点もしくは多点抵抗性もしくは容量性トラックパッド等の他のタッチセンサー式デバイス、音声認識ハードウェアおよびソフトウェア、光学スキャナ、光学ポインタ、デジタル画像捕捉装置および関連する解釈ソフトウェア等が挙げられるが、これらに限定されない。
録特許または同等物、特許出願公開、および非特許文献または他の原資料)は、各参考文献が本願の開示内容と少なくとも部分的に矛盾しない範囲において、参照により個々に組み込まれているかのように、そのすべての内容が参照により本明細書に組み込まれる。たとえば、一部が矛盾する参考文献は、その一部矛盾する部分を除いて、参照により組み込まれる。
のすべての個別要素ならびに当該群に可能なすべての組み合わせおよび副組み合わせが開示内容に個々に含まれることが意図される。
その(the)」は、文脈上の別段の明確な指示のない限り、複数の意味を含む。このため、たとえば「細胞(a cell)」という表現には、当業者が既知の複数の当該細胞およびその同等物を含み、その他の場合も同様である。また、用語「1つの(a)」(または、「1つの(an)」)、「1つまたは複数(one or more)」、および「少なくとも1つ(at least one)」は、本明細書において区別なく使用され得る。
(including)」、「有する(having)」、「含む(containing)」、および「~を特徴とする(characterized by)」と同義であり、それぞれ区別なく使用され得る。これらの用語はそれぞれ、さらに包括的またはオープンエンドであり、列挙されていない付加的な要素も方法ステップも除外しない。
特許請求の要素において指定されない如何なる要素、ステップ、または成分をも除外する。
sentially of)」は、特許請求の範囲の基本的かつ新規な特性に実質的な影響を及ぼさない要素もステップも除外しない。本明細書において如何なる場合にも、用語「備える(comprising)」、「本質的に~から成る(consisting essentially of)」、および「~から成る(consisting of)」はいずれも、その他2つの用語のいずれかにより置き換え得る。
れていない1つまたは複数の要素、1つまたは複数の限定が一切ない状態で好適に実現され得る。
aims XX-YY)」(XXおよびYYは、請求項番号を表す)は、代替形態の多項従属請求項を提供するように意図され、いくつかの実施形態においては、表現「as in any one of claims XX-YY」と区別なく使用され得る。
科学用語は、開示の実施形態が属する技術分野の当業者が通常理解するのと同じ意味を有する。
等の範囲が与えられている場合はいつでも、すべての中間範囲および副範囲のほか、与えられた範囲に含まれるすべての個別値が本開示に含まれることが意図される。本明細書において、範囲は具体的に、当該範囲の終点値として提供される値を含む。たとえば、1~100という範囲は具体的に、1および100という終点値を含む。本明細書の記述に含まれる如何なる副範囲も、範囲または副範囲内の個々の値も、特許請求の範囲からは除外され得ることが了解される。
east one of)」または「~のうちの1つまたは複数(one or more of)」等の表現は、要素または特徴の接続リストを後ろに伴って現れ得る。また、用語「および/または(and/or)」は、2つ以上の要素または特徴のリストとして現れ得る。使用文脈上の別段の暗示的または明示的な矛盾のない限り、このような表現は、リストの要素もしくは特徴のいずれかを個々に意味すること、または、列挙要素もしくは特徴のいずれかとその他の列挙要素もしくは特徴のいずれかとの組み合わせを意味することが意図される。たとえば、表現「AおよびBのうちの少なくとも1つ(at least one of A and B)」、「AおよびBのうちの1つまたは複数(one or more of A and B)」、および「Aおよび/またはB(A and/or B)」はそれぞれ、「A単独、B単独、またはAおよびBの組み合わせ」を意味することが意図される。3つ以上の項目を含むリストに対しても、同様の解釈が意図される。たとえば、表現「A、B、およびCのうちの少なくとも1つ(at least
one of A,B,and C)」、「A、B、およびCのうちの1つまたは複数(one or more of A,B,and C)」、および「A、B、および/またはC(A,B,and/or C)」はそれぞれ、「A単独、B単独、C単独、AおよびBの組み合わせ、AおよびCの組み合わせ、BおよびCの組み合わせ、またはA、B、およびCの組み合わせ」を意味することが意図される。また、上記および特許請求の範囲において、用語「~に基づく(based on)」の使用は、列挙されていな特徴または要素も許容され得るように、「少なくとも部分的に~に基づく(based at least in part on)」を意味することが意図される。
何ら限定的なものではなく、また、このような用語および表現の使用には、図示および記載の特徴またはその一部の如何なる同等物の除外の意図もなく、一方、特許請求の実施形態の範囲内で種々改良が可能であるものと認識される。このため、本願には、好適な実施形態、例示的な実施形態、および任意選択的な特徴の記述を含み得るものの、本明細書に開示の概念の改良および変形が当業者により講じられ得ることが了解されるものとする。このような改良および変形は、添付の特許請求の範囲により規定される通り、開示の実施形態の範囲内と考えられる。本明細書に記載の具体的な実施形態は、本開示の有用な実施形態の例であり、当業者には当然のことながら、本明細書に記載のデバイス、デバイス構成要素、および方法ステップの多くの変形を用いて実行され得る。当業者には明らかなこととして、方法および本方法に有用なデバイスには、多くの任意選択的な構成、処理要素、およびステップを含み得る。
の具体的形態にて具現化され得る。したがって、上記実施形態は、あらゆる点において、本明細書に記載の主題を制限するものではなく、例示と考えられるべきである。
[00285]以下に掲載される参考文献はそれぞれ、そのすべての内容が参照により本明細
書に組み込まれる。
Claims (62)
- 動物追跡の方法であって、
プロセッサにより、動物の観察を表すビデオデータを受信するステップと、
前記プロセッサにより、
前記ビデオデータから抽出された入力ビデオフレームを受信すること、
前記入力ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、前記楕円記述はあらかじめ決められた楕円パラメータにより規定される、および
前記少なくとも1匹の動物について、前記あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、
を行うように構成されたニューラルネットワーク・アーキテクチャを実行するステップと、
を含む、方法。 - 前記楕円パラメータが、平面内の前記動物の位置、前記動物の長軸の長さおよび短軸の長さ、ならびに前記動物の頭部が向いている角度であって、前記長軸の方向に対して規定される角度、を表す座標である、請求項1に記載の方法。
- 前記ニューラルネットワーク・アーキテクチャが、
入力ビデオフレームから、前景-背景セグメント化画像を予測すること、
画素の観点で、前記セグメント化画像に基づいて、動物が前記入力ビデオフレーム中に存在するかを予測すること、
前記画素の観点での予測に基づいて、セグメンテーションマスクを出力すること、および
前記動物が存在すると予測された前記セグメンテーションマスクの部分を楕円に適合させて、前記あらかじめ決められた楕円パラメータを特徴付ける値を決定すること、
を行うように構成されたエンコーダ-デコーダ・セグメンテーション・ネットワークである、請求項1に記載の方法。 - 前記エンコーダ-デコーダ・セグメンテーション・ネットワークが、
前記入力ビデオフレームを一組の小さな空間解像度の特徴へと抽象化するように構成された特徴エンコーダと、
前記一組の特徴を前記入力ビデオフレームと同じ形状へと変換し、前記前景-背景セグメント化画像を出力するように構成された特徴デコーダと、
前記動物の頭部が向いている角度を予測するように構成された角度予測器と、
を備えた、請求項3に記載の方法。 - 前記ニューラルネットワーク・アーキテクチャが、前記楕円記述の各楕円パラメータの最確値のヒートマップを予測するように構成されたビニング分類ネットワークを備えた、請求項1に記載の方法。
- 前記ビニング分類ネットワークが、前記入力ビデオフレームを小さな空間解像度へと抽象化するように構成された特徴エンコーダを備え、前記抽象化が、前記ヒートマップを生成させるために利用される、請求項5に記載の方法。
- 前記ニューラルネットワーク・アーキテクチャが、入力ビデオフレームから特徴を抽出し、前記楕円パラメータそれぞれを特徴付ける値を直接予測するように構成された回帰ネットワークを備えた、請求項1に記載の方法。
- 前記動物が、齧歯動物である、請求項1に記載の方法。
- 動物追跡のシステムであって、
動物の観察を表すビデオデータを維持するデータ記憶装置と、
前記データ記憶装置からビデオデータを受信すること、およびニューラルネットワーク・アーキテクチャを実装することを行うように構成されたプロセッサとを備え、前記ニューラルネットワーク・アーキテクチャが、
前記ビデオデータから抽出された入力ビデオフレームを受信すること、
前記ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、前記楕円記述はあらかじめ決められた楕円パラメータにより規定される、および
前記少なくとも1匹の動物について、前記あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、
を行うように構成された、システム。 - 前記楕円パラメータが、平面内の前記動物の位置、前記動物の長軸の長さおよび短軸の長さ、ならびに前記動物の頭部が向いている角度であって、前記長軸の方向に対して規定される角度、を表す座標である、請求項9に記載のシステム。
- 前記ニューラルネットワーク・アーキテクチャが、
入力ビデオフレームから、前景-背景セグメント化画像を予測すること、
画素の観点で、前記セグメント化画像に基づいて、動物が前記入力ビデオフレーム中に存在するかを予測すること、
前記画素の観点での予測に基づいて、セグメンテーションマスクを出力すること、および
前記動物が存在すると予測された前記セグメンテーションマスクの部分を楕円に適合させて、前記あらかじめ決められた楕円パラメータを特徴付ける値を決定すること、
を行うように構成されたエンコーダ-デコーダ・セグメンテーション・ネットワークである、請求項9に記載のシステム。 - 前記エンコーダ-デコーダ・セグメンテーション・ネットワークが、
前記入力ビデオフレームを一組の小さな空間解像度の特徴へと抽象化するように構成された特徴エンコーダと、
前記一組の特徴を前記入力ビデオフレームと同じ形状へと変換し、前記前景-背景セグメント化画像を出力するように構成された特徴デコーダと、
前記動物の頭部が向いている角度を予測するように構成された角度予測器と、
を備えた、請求項11に記載のシステム。 - 前記ニューラルネットワーク・アーキテクチャが、前記楕円記述の各楕円パラメータの最確値のヒートマップを予測するように構成されたビニング分類ネットワークを備えた、請求項9に記載のシステム。
- 前記ビニング分類ネットワークが、前記入力ビデオフレームを小さな空間解像度へと抽象化するように構成された特徴エンコーダを備え、前記抽象化が、前記ヒートマップを生成させるために利用される、請求項13に記載のシステム。
- 前記ニューラルネットワーク・アーキテクチャが、入力ビデオフレームから特徴を抽出し、前記楕円パラメータそれぞれを特徴付ける値を直接予測するように構成された回帰ネットワークを備えた、請求項9に記載のシステム。
- 前記動物が、齧歯動物である、請求項9に記載のシステム。
- 命令を格納した非一時的コンピュータプログラム製品であって、前記命令は、少なくとも1つのコンピューティングシステムの少なくとも1つのデータプロセッサにより実行されたときに、
動物の観察を表すビデオデータを受信するステップと、
ニューラルネットワーク・アーキテクチャを実行するステップと、
を含む方法を実行し、前記ニューラルネットワーク・アーキテクチャは、
前記ビデオデータから抽出された入力ビデオフレームを受信すること、
前記入力ビデオフレームに基づいて、少なくとも1匹の動物の楕円記述を生成すること、前記楕円記述があらかじめ決められた楕円パラメータにより規定される、および
前記少なくとも1匹の動物について、前記あらかじめ決められた楕円パラメータを特徴付ける値を含むデータを提供すること、
を行うように構成された、非一時的コンピュータプログラム製品。 - 前記楕円パラメータが、平面内の前記動物の位置、前記動物の長軸の長さおよび短軸の長さ、ならびに前記動物の頭部が向いている角度であって、前記長軸の方向に対して規定される角度、を表す座標である、請求項17に記載のコンピュータプログラム製品。
- 前記ニューラルネットワーク・アーキテクチャが、
入力ビデオフレームから、前景-背景セグメント化画像を予測すること、
画素の観点で、前記セグメント化画像に基づいて、動物が前記入力ビデオフレーム中に存在するかを予測すること、
前記画素の観点での予測に基づいて、セグメンテーションマスクを出力すること、および
前記動物が存在すると予測された前記セグメンテーションマスクの部分を楕円に適合させて、前記あらかじめ決められた楕円パラメータを特徴付ける値を決定すること、
を行うように構成されたエンコーダ-デコーダ・セグメンテーション・ネットワークである、請求項17に記載のコンピュータプログラム製品。 - 前記エンコーダ-デコーダ・セグメンテーション・ネットワークが、
前記入力ビデオフレームを一組の小さな空間解像度の特徴へと抽象化するように構成された特徴エンコーダと、
前記一組の特徴を前記入力ビデオフレームと同じ形状へと変換し、前記前景-背景セグメント化画像を出力するように構成された特徴デコーダと、
前記動物の頭部が向いている角度を予測するように構成された角度予測器と、
を備えた、請求項19に記載のコンピュータプログラム製品。 - 前記ニューラルネットワーク・アーキテクチャが、前記楕円記述の各楕円パラメータの最確値のヒートマップを予測するように構成されたビニング分類ネットワークを備えた、請求項17に記載の方法。
- 前記ビニング分類ネットワークが、前記入力ビデオフレームを小さな空間解像度へと抽象化するように構成された特徴エンコーダを備え、前記抽象化が、前記ヒートマップを生成させるために利用される、請求項21に記載の方法。
- 前記ニューラルネットワーク・アーキテクチャが、入力ビデオフレームから特徴を抽出し、前記楕円パラメータそれぞれを特徴付ける値を直接予測するように構成された回帰ネットワークを備えた、請求項17に記載の方法。
- 前記動物が、齧歯動物である、請求項17に記載の方法。
- 以下を備えたシステム:
アリーナであって、
フレーム、
前記フレームに取り付けられ、動物を収容するように寸法規定された筐体、前記筐体は、筐体の内部へのアクセスを許容するように構成されたドアを含む、
を含むアリーナ;および
取得システムであって、
カメラ;
少なくとも二組の光源であって、各組の光源は、互いに異なる波長で、前記筐体に入射する光を放射するように構成され、
前記カメラが、前記複数組の光源のうちの少なくとも1つにより照射されたときに、前記筐体の少なくとも一部のビデオデータを取得するように構成された、少なくとも二組の光源;
前記カメラおよび前記複数組の光源と電気的に連通し、
前記カメラによるビデオデータの取得および前記複数組の光源による光の放射を制御するように動作する制御信号を生成すること、および
前記カメラにより取得されたビデオデータを受信すること、
を行うように構成されたコントローラ;および
前記コントローラと電気的に連通したデータ記憶装置であって、前記コントローラから受信されたビデオデータを格納するように構成されたデータ記憶装置
を含む取得システム。 - 前記筐体の少なくとも一部が、可視光に対して略不透明である、請求項25に記載のシステム。
- 前記筐体の少なくとも一部が、可視光波長に対して略不透明な材料で形成された、請求項25に記載のシステム。
- 前記筐体の少なくとも一部が、赤外光波長に対して略無反射の材料で形成された、請求項25に記載のシステム。
- 前記筐体の少なくとも一部が、ポリ塩化ビニル(PVC)またはポリオキシメチレン(POM)のシートで形成された、請求項25に記載のシステム。
- 第1の組の光源が、1つまたは複数の可視光波長で光を放射するように構成された1つまたは複数の第1の照明を含み、第2の組の光源が、1つまたは複数の赤外(IR)光波長で光を放射するように構成された1つまたは複数の第2の照明を含む、請求項25に記載のシステム。
- 赤外光の波長が、約940nmである、請求項30に記載のシステム。
- 前記カメラが、少なくとも480×480画素の解像度でビデオデータを取得するように構成された、請求項25に記載のシステム。
- 前記カメラが、マウスの動きの頻度よりも高いフレームレートでビデオデータを取得するように構成された、請求項25に記載のシステム。
- 前記カメラが、少なくとも29フレーム/秒(fps)のフレームレートでビデオデータを取得するように構成された、請求項25に記載のシステム。
- 前記カメラが、少なくとも8ビット深度を有するビデオデータを取得するように構成された、請求項25に記載のシステム。
- 前記カメラが、赤外波長でビデオデータを取得するように構成された、請求項25に記載のシステム。
- 前記コントローラが、前記カメラから受信されたビデオデータを圧縮するように構成された、請求項25に記載のシステム。
- 前記コントローラが、分散ベースの背景減算を採用したフィルタを含むMPEG4コーデック用いて、前記カメラから受信されたビデオデータを圧縮するように構成された、請求項37に記載のシステム。
- 前記MPEGコーデックのフィルタが、Q0 HQDN3Dである、請求項38に記載のシステム。
- 前記コントローラが、明暗サイクルを模擬するスケジュールに従って前記筐体を照射するよう前記第1の光源に要求するように構成された、請求項30に記載のシステム。
- 前記コントローラが、前記明暗サイクルの明部において、およそ50lux~およそ800luxの強度を有する可視光で前記筐体を照射するよう前記第1の光源に要求するように構成された、請求項30に記載のシステム。
- 前記コントローラが、赤外照射による前記筐体の温度上昇が5℃未満となるように、赤外光で前記筐体を照射するよう前記第2の光源に要求するように構成された、請求項30に記載のシステム。
- 前記コントローラが、対数的にスケーリングされた1024レベルの照明に従って前記筐体を照射するよう前記第1の光源に要求するように構成された、請求項30に記載のシステム。
- 少なくとも一組の光源により、動物を収容するように構成された筐体を照射するステップであって、各組の光源が、互いに異なる波長の光を放射するように構成された、ステップと、
カメラにより、前記複数組の光源のうちの少なくとも1つにより照射された前記筐体の少なくとも一部のビデオデータを取得するステップと、
前記カメラおよび前記複数組の光源と電気的に連通したコントローラにより、前記カメラによるビデオデータの取得および前記複数組の光源による光の放射を制御するように動作する制御信号を生成するステップと、
前記コントローラにより、前記カメラにより取得されたビデオデータを受信するステップと、
を含む方法。 - 前記筐体の少なくとも一部が、可視光に対して略不透明である、請求項44に記載の方法。
- 前記筐体の少なくとも一部が、可視光波長に対して略不透明な材料で形成された、請求項44に記載の方法。
- 前記筐体の少なくとも一部が、赤外光波長に対して略無反射の材料で形成された、請求
項44に記載の方法。 - 前記筐体の少なくとも一部が、ポリ塩化ビニル(PVC)またはポリオキシメチレン(POM)のシートで形成された、請求項44に記載の方法。
- 第1の組の光源が、1つまたは複数の可視光波長で光を放射するように構成された1つまたは複数の第1の照明を含み、第2の組の光源が、1つまたは複数の赤外(IR)光波長で光を放射するように構成された1つまたは複数の第2の照明を含む、請求項44に記載の方法。
- 赤外光の波長が、約940nmである、請求項49に記載の方法。
- 前記カメラが、少なくとも480×480画素の解像度でビデオデータを取得するように構成された、請求項44に記載の方法。
- 前記カメラが、マウスの動きの頻度よりも高いフレームレートでビデオデータを取得するように構成された、請求項44に記載の方法。
- 前記カメラが、少なくとも29フレーム/秒(fps)のフレームレートでビデオデータを取得するように構成された、請求項44に記載の方法。
- 前記カメラが、少なくとも8ビット深度を有するビデオデータを取得するように構成された、請求項44に記載の方法。
- 前記カメラが、赤外波長でビデオデータを取得するように構成された、請求項44に記載の方法。
- 前記コントローラが、前記カメラから受信されたビデオデータを圧縮するように構成された、請求項44に記載の方法。
- 前記コントローラが、分散ベースの背景減算を採用したフィルタを含むMPEG4コーデック用いて、前記カメラから受信されたビデオデータを圧縮するように構成された、請求項56に記載の方法。
- 前記MPEGコーデックのフィルタが、Q0 HQDN3Dである、請求項57に記載の方法。
- 前記コントローラが、明暗サイクルを模擬するスケジュールに従って前記筐体を照射するよう前記第1の光源に要求するように構成された、請求項49に記載の方法。
- 前記コントローラが、前記明暗サイクルの明部において、およそ50lux~およそ800luxの強度を有する可視光で前記筐体を照射するよう前記第1の光源に要求するように構成された、請求項49に記載の方法。
- 前記コントローラが、赤外照射による前記筐体の温度上昇が5℃未満となるように、赤外光で前記筐体を照射するよう前記第2の光源に要求するように構成された、請求項49に記載の方法。
- 前記コントローラが、対数的にスケーリングされた1024レベルの照明に従って前記筐体を照射するよう前記第1の光源に要求するように構成された、請求項49に記載の方
法。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762542180P | 2017-08-07 | 2017-08-07 | |
US62/542,180 | 2017-08-07 | ||
US201862661610P | 2018-04-23 | 2018-04-23 | |
US62/661,610 | 2018-04-23 | ||
PCT/US2018/045676 WO2019032622A1 (en) | 2017-08-07 | 2018-08-07 | BEHAVIORAL ANIMAL BEHAVIORAL SURVEILLANCE CONTINUES |
JP2020507071A JP7303793B2 (ja) | 2017-08-07 | 2018-08-07 | 長期間の継続的な動物行動モニタリング |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020507071A Division JP7303793B2 (ja) | 2017-08-07 | 2018-08-07 | 長期間の継続的な動物行動モニタリング |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023120383A true JP2023120383A (ja) | 2023-08-29 |
JP2023120383A5 JP2023120383A5 (ja) | 2023-09-29 |
Family
ID=65271742
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020507071A Active JP7303793B2 (ja) | 2017-08-07 | 2018-08-07 | 長期間の継続的な動物行動モニタリング |
JP2023102972A Pending JP2023120383A (ja) | 2017-08-07 | 2023-06-23 | 長期間の継続的な動物行動モニタリング |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020507071A Active JP7303793B2 (ja) | 2017-08-07 | 2018-08-07 | 長期間の継続的な動物行動モニタリング |
Country Status (7)
Country | Link |
---|---|
US (3) | US11330804B2 (ja) |
EP (1) | EP3664601A4 (ja) |
JP (2) | JP7303793B2 (ja) |
KR (2) | KR20240135869A (ja) |
CN (2) | CN116918718A (ja) |
CA (1) | CA3071850A1 (ja) |
WO (1) | WO2019032622A1 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11373452B2 (en) * | 2018-08-07 | 2022-06-28 | Georgetown University | Multidimensional analysis of gait in rodent |
WO2020072918A1 (en) * | 2018-10-05 | 2020-04-09 | The Trustees Of Princeton University | Automated system to measure multi-animal body part dynamics |
CN109993076A (zh) * | 2019-03-18 | 2019-07-09 | 华南理工大学 | 一种基于深度学习的白鼠行为分类方法 |
EP3941191A4 (en) * | 2019-03-20 | 2023-04-19 | The UAB Research Foundation | DETECTION AND INTEGRATION OF ENVIRONMENTAL CONDITIONS DATA IN ANIMAL RESEARCH |
US20200383299A1 (en) * | 2019-06-06 | 2020-12-10 | Edgar Josue Bermudez Contreras | Systems and methods of homecage monitoring |
US20220343621A1 (en) * | 2019-09-09 | 2022-10-27 | The Johns Hopkins University | Tracking system for identification of subjects |
US11321927B1 (en) * | 2019-09-23 | 2022-05-03 | Apple Inc. | Temporal segmentation |
US11222198B2 (en) * | 2019-11-21 | 2022-01-11 | International Business Machines Corporation | Video analysis system for optimizing an activity protocol |
CN111539365B (zh) * | 2020-04-29 | 2022-08-23 | 兰州大学 | 一种动物行为分析方法、装置及电子设备 |
CN111727905A (zh) * | 2020-06-22 | 2020-10-02 | 安徽正华生物仪器设备有限公司 | 基于深度学习的大小鼠旷场实验自动化分析系统和方法 |
CN112237156B (zh) * | 2020-10-23 | 2022-07-22 | 宁波大学 | 一种小动物自主社交行为测试装置及实验方法 |
US11803988B2 (en) * | 2021-03-15 | 2023-10-31 | Tencent America LLC | Method and apparatus for adaptive image compression with flexible hyperprior model by meta learning |
CN113095268B (zh) * | 2021-04-22 | 2023-11-21 | 中德(珠海)人工智能研究院有限公司 | 一种基于视频流的机器人步态学习方法、系统及存储介质 |
US12050261B2 (en) * | 2021-05-12 | 2024-07-30 | California State University Fresno Foundation | System and method for human and animal detection in low visibility |
US11941080B2 (en) | 2021-05-20 | 2024-03-26 | Retrocausal, Inc. | System and method for learning human activities from video demonstrations using video augmentation |
CN113255514B (zh) * | 2021-05-24 | 2023-04-07 | 西安理工大学 | 基于局部场景感知图卷积网络的行为识别方法 |
US11582464B2 (en) * | 2021-06-23 | 2023-02-14 | Microsoft Technology Licensing, Llc | Using morphological operations to process frame masks in video content |
CN113496214A (zh) * | 2021-07-05 | 2021-10-12 | 西湖大学 | 一种基于行为特征的动物身份离线追踪方法 |
CN113744352B (zh) * | 2021-09-14 | 2022-07-29 | 北京观海科技发展有限责任公司 | 视觉空间标定方法、设备及存储介质 |
CN114286013B (zh) * | 2021-12-20 | 2024-07-02 | 苏州中科行智智能科技有限公司 | 一种结构光相机的自适应控制方法 |
CN114532242B (zh) * | 2022-02-16 | 2023-02-28 | 深圳市元疆科技有限公司 | 一种小型动物行为研究实验箱 |
CN114586689A (zh) * | 2022-03-17 | 2022-06-07 | 贵州医科大学 | 智能裸鼠培养笼 |
CN114916452A (zh) * | 2022-05-26 | 2022-08-19 | 浙江理工大学 | Ivc环境参数对spf级实验动物热舒适影响测试装置 |
CN115024244B (zh) * | 2022-06-17 | 2023-02-24 | 曲阜师范大学 | 一种基于红外旷场和Python分析的黑线仓鼠睡眠-觉醒检测系统、方法与应用 |
KR102603396B1 (ko) | 2022-08-12 | 2023-11-20 | 주식회사 아이트 | 인공지능을 이용한 영상 감시 기반 개체 인식 및 행동패턴 분석 방법 및 시스템 |
CN115238873B (zh) * | 2022-09-22 | 2023-04-07 | 深圳市友杰智新科技有限公司 | 神经网络模型部署方法、装置、计算机设备 |
CN116091963B (zh) * | 2022-12-22 | 2024-05-17 | 广州奥咨达医疗器械技术股份有限公司 | 临床试验机构质量评估方法、装置、电子设备及存储介质 |
KR102646871B1 (ko) * | 2023-01-31 | 2024-03-13 | 한국축산데이터 주식회사 | 축사 감시 카메라를 이용한 환경 변화 탐지 장치 및 방법 |
CN117912116B (zh) * | 2024-01-24 | 2024-07-02 | 北京林业大学 | 一种真实场景下野生动物姿态估计方法 |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5792597A (en) * | 1991-02-28 | 1998-08-11 | Fuji Photo Film Co., Ltd. | Image forming method |
US5903454A (en) * | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
JP3270005B2 (ja) * | 1998-03-20 | 2002-04-02 | 勝義 川崎 | 実験動物の行動観察の自動化方法 |
EP1395664A4 (en) * | 2001-05-15 | 2004-11-03 | Psychogenics Inc | SYSTEMS AND METHODS FOR INFORMATICS OF BEHAVIOR MONITORING |
US6644244B2 (en) * | 2001-12-05 | 2003-11-11 | University Of Florida | Apparatus and methods for testing pain sensitivity |
US8100552B2 (en) * | 2002-07-12 | 2012-01-24 | Yechezkal Evan Spero | Multiple light-source illuminating system |
SE530339C2 (sv) * | 2006-07-13 | 2008-05-06 | Delaval Holding Ab | En apparat och förfarande för att igenkänna och bestämma en position |
AU2008222933A1 (en) | 2007-03-02 | 2008-09-12 | Organic Motion | System and method for tracking three dimensional objects |
US8411935B2 (en) | 2007-07-11 | 2013-04-02 | Behavioral Recognition Systems, Inc. | Semantic representation module of a machine-learning engine in a video analysis system |
CN201097536Y (zh) | 2007-12-10 | 2008-08-13 | 东北农业大学 | 小鼠行为不间断观察监控系统 |
CN101910716A (zh) * | 2008-01-17 | 2010-12-08 | 皇家飞利浦电子股份有限公司 | 照明装置 |
EP2235602A4 (en) | 2008-01-23 | 2018-03-28 | The Regents of The University of California | Systems and methods for behavioral monitoring and calibration |
CN100583128C (zh) * | 2008-06-12 | 2010-01-20 | 浙江大学 | 基于自然视频的实时智能监控方法 |
EP2321819A4 (en) | 2008-09-08 | 2014-03-12 | Ned M Ahdoot | DIGITAL VIDEO FILTER AND IMAGE PROCESSING |
WO2010057170A1 (en) | 2008-11-17 | 2010-05-20 | Cernium Corporation | Analytics-modulated coding of surveillance video |
FR2948738A1 (fr) * | 2009-07-31 | 2011-02-04 | Guerletub | Systeme d'accrochage entre un premier element tubulaire s'etendant verticalement et au moins un deuxieme element tubulaire ou structurel s'etendant perpendiculairement au premier |
KR101683291B1 (ko) * | 2010-05-14 | 2016-12-06 | 엘지전자 주식회사 | 디스플레이 장치 및 그의 제어 방법 |
WO2012143854A1 (en) * | 2011-04-18 | 2012-10-26 | Université De Genève | In vivo bioluminescence monitoring apparatus |
CN102521563A (zh) * | 2011-11-19 | 2012-06-27 | 江苏大学 | 基于椭圆拟合的猪行走姿态识别方法 |
US9235990B2 (en) | 2011-11-25 | 2016-01-12 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device |
US9055733B2 (en) | 2012-04-25 | 2015-06-16 | II Johnny Jones | Animal tracking system |
EP4198926A1 (en) * | 2012-05-10 | 2023-06-21 | President And Fellows Of Harvard College | Method and apparatus for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals |
GB201305725D0 (en) * | 2013-03-28 | 2013-05-15 | Univ Leuven Kath | Automated monitoring of animal nutriment ingestion |
AU2014302060B2 (en) * | 2013-06-28 | 2017-08-31 | The United States Of America, As Represented By The Secretary, Department Of Health And Human Services | Systems and methods of video monitoring for vivarium cages |
US9195903B2 (en) * | 2014-04-29 | 2015-11-24 | International Business Machines Corporation | Extracting salient features from video using a neurosynaptic system |
EP2957861A1 (en) * | 2014-06-17 | 2015-12-23 | Expert Ymaging, SL | Device and method for automated parameters calculation of an object |
US10055850B2 (en) | 2014-09-19 | 2018-08-21 | Brain Corporation | Salient features tracking apparatus and methods using visual initialization |
US20160178228A1 (en) * | 2014-12-19 | 2016-06-23 | Zan Compute Inc. | Smart air duct cover |
US11080587B2 (en) | 2015-02-06 | 2021-08-03 | Deepmind Technologies Limited | Recurrent neural networks for data item generation |
US10176435B1 (en) * | 2015-08-01 | 2019-01-08 | Shyam Sundar Sarkar | Method and apparatus for combining techniques of calculus, statistics and data normalization in machine learning for analyzing large volumes of data |
WO2017175025A2 (en) * | 2015-12-01 | 2017-10-12 | Yakov Shambik | Detecting visual information corresponding to an animal |
US20170206426A1 (en) * | 2016-01-15 | 2017-07-20 | Ford Global Technologies, Llc | Pedestrian Detection With Saliency Maps |
WO2017147442A1 (en) * | 2016-02-25 | 2017-08-31 | VitalMetric, LLC | Environmental control for enclosures based on touch-less monitoring of animals |
US10810491B1 (en) * | 2016-03-18 | 2020-10-20 | Amazon Technologies, Inc. | Real-time visualization of machine learning models |
JP6964596B2 (ja) * | 2016-03-18 | 2021-11-10 | プレジデント・アンド・フェロウズ・オブ・ハーバード・カレッジ | 動物行動の自動分類方法 |
US10398316B1 (en) * | 2016-09-30 | 2019-09-03 | Vium, Inc. | Method and apparatus for determining physiological characteristics of experimental animals based upon infrared and visible light images |
CN108064745A (zh) * | 2016-11-17 | 2018-05-25 | 南京国雅信息科技有限公司 | 动物嚎叫监测系统以及基于机器学习的嚎叫状态识别方法 |
CN108065938A (zh) * | 2016-11-17 | 2018-05-25 | 南京国雅信息科技有限公司 | 动物活动监测系统以及基于神经网络的活动状态识别方法 |
CN106845411B (zh) * | 2017-01-19 | 2020-06-30 | 清华大学 | 一种基于深度学习和概率图模型的视频描述生成方法 |
WO2018208319A1 (en) * | 2017-05-12 | 2018-11-15 | Children's Medical Center Corporation | Devices and methods for analyzing animal behavior |
CN109871911A (zh) * | 2017-12-04 | 2019-06-11 | 昊翔电能运动科技(昆山)有限公司 | 无人机监测动物健康的方法和监测动物健康的无人机 |
-
2018
- 2018-08-07 US US16/636,392 patent/US11330804B2/en active Active
- 2018-08-07 CA CA3071850A patent/CA3071850A1/en active Pending
- 2018-08-07 CN CN202311060612.5A patent/CN116918718A/zh active Pending
- 2018-08-07 WO PCT/US2018/045676 patent/WO2019032622A1/en unknown
- 2018-08-07 KR KR1020247029094A patent/KR20240135869A/ko active Application Filing
- 2018-08-07 CN CN201880064637.3A patent/CN111225558B/zh active Active
- 2018-08-07 KR KR1020207006943A patent/KR102702448B1/ko active IP Right Grant
- 2018-08-07 JP JP2020507071A patent/JP7303793B2/ja active Active
- 2018-08-07 EP EP18843419.5A patent/EP3664601A4/en active Pending
-
2022
- 2022-04-07 US US17/715,832 patent/US11798167B2/en active Active
-
2023
- 2023-06-23 JP JP2023102972A patent/JP2023120383A/ja active Pending
- 2023-09-07 US US18/463,277 patent/US20230419498A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3664601A1 (en) | 2020-06-17 |
US20200337272A1 (en) | 2020-10-29 |
WO2019032622A9 (en) | 2019-04-04 |
KR20240135869A (ko) | 2024-09-12 |
KR20200038509A (ko) | 2020-04-13 |
US20230419498A1 (en) | 2023-12-28 |
KR102702448B1 (ko) | 2024-09-04 |
WO2019032622A1 (en) | 2019-02-14 |
US20220248642A1 (en) | 2022-08-11 |
CA3071850A1 (en) | 2019-02-14 |
JP7303793B2 (ja) | 2023-07-05 |
US11330804B2 (en) | 2022-05-17 |
US11798167B2 (en) | 2023-10-24 |
CN111225558A (zh) | 2020-06-02 |
CN111225558B (zh) | 2023-08-11 |
CN116918718A (zh) | 2023-10-24 |
EP3664601A4 (en) | 2021-04-28 |
JP2020530626A (ja) | 2020-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7303793B2 (ja) | 長期間の継続的な動物行動モニタリング | |
Segalin et al. | The Mouse Action Recognition System (MARS) software pipeline for automated analysis of social behaviors in mice | |
Singh et al. | Low-cost solution for rodent home-cage behaviour monitoring | |
Geuther et al. | Robust mouse tracking in complex environments using neural networks | |
Zhang et al. | Automatic individual pig detection and tracking in pig farms | |
Weissbrod et al. | Automated long-term tracking and social behavioural phenotyping of animal colonies within a semi-natural environment | |
Swierczek et al. | High-throughput behavioral analysis in C. elegans | |
De Chaumont et al. | Computerized video analysis of social interactions in mice | |
Wario et al. | Automatic detection and decoding of honey bee waggle dances | |
Luxem et al. | Open-source tools for behavioral video analysis: Setup, methods, and best practices | |
CN113610077A (zh) | 一种利用人工智能图像识别技术对溶出行为进行监控分析的系统方法及设备 | |
Grover et al. | O fly, where art thou? | |
Ebbesen et al. | Automatic tracking of mouse social posture dynamics by 3D videography, deep learning and GPU-accelerated robust optimization | |
Ha et al. | TensorMoG: A tensor-driven gaussian mixture model with dynamic scene adaptation for background modelling | |
Chen et al. | A review of posture detection methods for pigs using deep learning | |
Yang et al. | An innovative segment anything model for precision poultry monitoring | |
Sehara et al. | Fast, flexible closed-loop feedback: tracking movement in “real-millisecond-time” | |
Kim et al. | AVATAR: ai vision analysis for three-dimensional action in real-time | |
Bhavani | Automated Attendance System and Voice Assistance using Face Recognition | |
Han et al. | Social Behavior Atlas: A computational framework for tracking and mapping 3D close interactions of free-moving animals | |
Sun et al. | Real-Time Recognition and Detection of Bactrocera minax (Diptera: Trypetidae) Grooming Behavior Using Body Region Localization and Improved C3D Network | |
Li et al. | Research on Tracking and Identification of Typical Protective Behavior of Cows Based on DeepLabCut | |
Wei et al. | Social Behavior Atlas: A few-shot learning framework for multi-animal 3D social pose estimation, identification, and behavior embedding | |
Yang et al. | BARN: Behavior-Aware Relation Network for multi-label behavior detection in socially housed macaques | |
Shao et al. | Research on Dynamic Pig Counting Method Based on Improved YOLOv7 Combined with DeepSORT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230721 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230721 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240529 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240822 |