JP2019532532A - プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 - Google Patents
プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2019532532A JP2019532532A JP2019504817A JP2019504817A JP2019532532A JP 2019532532 A JP2019532532 A JP 2019532532A JP 2019504817 A JP2019504817 A JP 2019504817A JP 2019504817 A JP2019504817 A JP 2019504817A JP 2019532532 A JP2019532532 A JP 2019532532A
- Authority
- JP
- Japan
- Prior art keywords
- person
- features
- data
- sensor
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000036651 mood Effects 0.000 title claims abstract description 33
- 238000010192 crystallographic characterization Methods 0.000 claims abstract description 11
- 210000003128 Head Anatomy 0.000 claims description 132
- 230000011218 segmentation Effects 0.000 claims description 109
- 238000000034 method Methods 0.000 claims description 95
- 238000005259 measurement Methods 0.000 claims description 91
- 230000001537 neural Effects 0.000 claims description 82
- 230000003068 static Effects 0.000 claims description 70
- 230000015654 memory Effects 0.000 claims description 57
- 241000282414 Homo sapiens Species 0.000 claims description 53
- 230000000875 corresponding Effects 0.000 claims description 52
- 239000000203 mixture Substances 0.000 claims description 52
- 238000010801 machine learning Methods 0.000 claims description 49
- 230000000694 effects Effects 0.000 claims description 44
- 238000003909 pattern recognition Methods 0.000 claims description 39
- 238000007637 random forest analysis Methods 0.000 claims description 36
- 210000002414 Leg Anatomy 0.000 claims description 34
- 230000006399 behavior Effects 0.000 claims description 33
- 210000001331 Nose Anatomy 0.000 claims description 25
- 230000000007 visual effect Effects 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000010194 physical measurement Methods 0.000 claims description 16
- 238000007781 pre-processing Methods 0.000 claims description 16
- 210000000689 upper leg Anatomy 0.000 claims description 16
- 210000003414 Extremities Anatomy 0.000 claims description 15
- 230000001131 transforming Effects 0.000 claims description 15
- 210000001847 Jaw Anatomy 0.000 claims description 14
- 238000004458 analytical method Methods 0.000 claims description 13
- 230000001815 facial Effects 0.000 claims description 13
- 210000000613 Ear Canal Anatomy 0.000 claims description 12
- 210000004709 Eyebrows Anatomy 0.000 claims description 12
- 210000001747 Pupil Anatomy 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 12
- 238000003064 k means clustering Methods 0.000 claims description 12
- 210000001699 lower leg Anatomy 0.000 claims description 12
- 230000001936 parietal Effects 0.000 claims description 12
- 230000036760 body temperature Effects 0.000 claims description 9
- 210000004209 Hair Anatomy 0.000 claims description 8
- 239000011521 glass Substances 0.000 claims description 8
- 210000000624 Ear Auricle Anatomy 0.000 claims description 6
- 210000000323 Shoulder Joint Anatomy 0.000 claims description 6
- 208000000875 Spinal Curvature Diseases 0.000 claims description 6
- 238000000844 transformation Methods 0.000 claims description 5
- 241000253999 Phasmatodea Species 0.000 claims description 4
- 230000004931 aggregating Effects 0.000 claims description 4
- 238000001228 spectrum Methods 0.000 claims description 4
- 208000006440 Open Bite Diseases 0.000 claims description 3
- 238000004140 cleaning Methods 0.000 claims description 3
- 230000003750 conditioning Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 25
- 230000003340 mental Effects 0.000 abstract description 15
- 241000209134 Arundinaria Species 0.000 abstract description 5
- 201000006417 multiple sclerosis Diseases 0.000 abstract description 5
- 206010061818 Disease progression Diseases 0.000 abstract 1
- 238000003860 storage Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 210000002683 Foot Anatomy 0.000 description 12
- 210000002356 Skeleton Anatomy 0.000 description 12
- 210000003739 Neck Anatomy 0.000 description 8
- 210000002832 Shoulder Anatomy 0.000 description 7
- 201000010099 disease Diseases 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 210000001503 Joints Anatomy 0.000 description 6
- 230000004438 eyesight Effects 0.000 description 6
- 230000002596 correlated Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000000670 limiting Effects 0.000 description 4
- 210000000474 Heel Anatomy 0.000 description 3
- 210000003491 Skin Anatomy 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000001413 cellular Effects 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 230000005670 electromagnetic radiation Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000004301 light adaptation Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical Effects 0.000 description 3
- 210000001624 Hip Anatomy 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 241001463913 Pinna Species 0.000 description 2
- 230000000202 analgesic Effects 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 2
- 230000003935 attention Effects 0.000 description 2
- 230000037237 body shape Effects 0.000 description 2
- 239000000969 carrier Substances 0.000 description 2
- 210000000038 chest Anatomy 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 230000001419 dependent Effects 0.000 description 2
- 230000000994 depressed Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000036545 exercise Effects 0.000 description 2
- 230000003862 health status Effects 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001953 sensory Effects 0.000 description 2
- 230000001360 synchronised Effects 0.000 description 2
- 229940035676 ANALGESICS Drugs 0.000 description 1
- 210000000617 Arm Anatomy 0.000 description 1
- 210000004556 Brain Anatomy 0.000 description 1
- 206010053643 Neurodegenerative disease Diseases 0.000 description 1
- 229930002945 all-trans-retinaldehyde Natural products 0.000 description 1
- 230000002547 anomalous Effects 0.000 description 1
- 239000000730 antalgic agent Substances 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 239000000090 biomarker Substances 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001186 cumulative Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000004059 degradation Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000001647 drug administration Methods 0.000 description 1
- 229940079593 drugs Drugs 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000005281 excited state Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000003278 mimic Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006011 modification reaction Methods 0.000 description 1
- 230000036961 partial Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000000644 propagated Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000002829 reduced Effects 0.000 description 1
- 230000036159 relative stability Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000717 retained Effects 0.000 description 1
- 230000002207 retinal Effects 0.000 description 1
- 235000020945 retinal Nutrition 0.000 description 1
- 239000011604 retinal Substances 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 231100000486 side effect Toxicity 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 230000035943 smell Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001502 supplementation Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000001755 vocal Effects 0.000 description 1
- 230000004584 weight gain Effects 0.000 description 1
- 235000019786 weight gain Nutrition 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2800/00—Detection or diagnosis of diseases
- G01N2800/30—Psychoses; Psychiatry
- G01N2800/304—Mood disorders, e.g. bipolar, depression
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2800/00—Detection or diagnosis of diseases
- G01N2800/52—Predicting or monitoring the response to treatment, e.g. for selection of therapy based on assay results in personalised medicine; Prognosis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Abstract
Description
本願は、2016年8月2日に出願された米国仮特許出願第62/370,083号および2016年12月22日に出願された米国仮特許出願第62/438,229号に対する優先権およびそれらの利益を主張するものであり、これらの内容の全体は、参照により本明細書中に援用される。
ある実施形態では、人物のうちの少なくとも1人は、「その他」として識別される。
ある実施形態では、人物のうちの少なくとも1人は、「その他」として識別される。
本願では、別様に文脈から明白でない限り、(i)用語「a」は、「少なくとも1つ」を意味するように理解され得、(ii)用語「または」は、「および/または」を意味するように理解され得、(iii)用語「〜を備える」および「〜を含む」は、それだけで、または1つ以上の付加的構成要素またはステップとともに提示されるかを問わず、箇条書きの構成要素またはステップを包含するように理解され得、(iv)用語「約」および「ほぼ」は、当業者によって理解されるであろうような標準的変形例を可能にするように理解され得る。
発明を実施するための形態
データ取得および事前処理
人物セグメント化
特徴抽出および計算
人物識別
人物登録
特徴と精神的知覚および/または意図との間の関係
事前定義された関係の使用
学習された関係の使用
特徴を関係と相関させること
結論を判定すること
瞬間的距離が、計算される。本実施例では、図9Bに列挙されるように、3つの事前判定された関係950が、本実施形態に公知である。特徴940および事前判定された関係950から、本実施形態は、人物が食事をしているという結論960を供給することが可能である。
現実世界の設定
ネットワークおよびコンピューティング実装
(項目1)
センサデータから1人以上の着目人物の表現を識別する方法であって、上記センサデータは、その中に人物を伴う周辺環境の表現を含有しており、上記方法は、
(a)コンピューティングデバイスのプロセッサによって、1つ以上のフレームからセンサデータを受信するステップであって、上記センサデータは、人物の表現と、上記周辺環境の表現とを備え、上記人物の表現は、上記1人以上の着目人物の表現を備える、ステップと、
(b)上記プロセッサによって、上記センサデータ内の人物の各表現が、上記センサデータの個別のセグメント化と関連付けられるように、上記センサデータを上記センサデータ内の上記人物のそれぞれの固有の表現にセグメント化し、それによって、上記センサデータ内の上記周辺環境の表現から上記人物のそれぞれの表現を区別するステップと、
(c)上記プロセッサによって、上記センサデータの各セグメント化から1つ以上の身体部分を分離するステップと、
(d)上記プロセッサによって、上記センサデータのセグメント化毎に、上記センサデータの上記個別のセグメント化の1つ以上の分離された身体部分に基づいて、上記人物の個別の表現と関連付けられる1つ以上の特徴毎の測度を判定するステップと、
(e)上記プロセッサによって、上記センサデータのセグメント化毎に、上記人物の個別の表現と関連付けられる1つ以上の特徴の判定された測度の組み合わせが、上記1人以上の着目人物のうちの1人のボディプリントに対応するかどうかを判定し、それによって、上記センサデータの個別のセグメント化を着目人物として識別するステップと、
(f)上記プロセッサによって、上記データのセグメント化が上記対応する着目人物の識別と関連付けられるように、上記1人以上の着目人物のうちの1人のボディプリントに対応する上記人物の個別の表現と関連付けられるデータのセグメント化を記憶するステップと、
を含む、方法。
(項目2)
上記プロセッサによって、上記センサデータを上記センサデータ内の上記人物のそれぞれの固有の表現にセグメント化するステップは、機械学習および/またはパターン認識技法を実施するステップを含む、項目1に記載の方法。
(項目3)
上記プロセッサによって、上記センサデータの各セグメント化から上記1つ以上の身体部分を分離するステップは、機械学習および/またはパターン認識技法を実施するステップを含む、項目1または2に記載の方法。
(項目4)
上記1人以上の着目人物はそれぞれ、識別のために登録される、項目1−3に記載の方法。
(項目5)
上記個別のセグメント化を識別するステップは、分類子の出力に基づく、項目1−4に記載の方法。
(項目6)
上記個別のセグメント化を識別するステップは、ルールまたはカテゴリまたはヒューリスティックに基づく、上記項目のうちのいずれか1項に記載の方法。
(項目7)
上記1人以上の着目人物毎に、上記プロセッサによって、メモリデバイス内に、識別およびボディプリントを記憶するステップを含み、各ボディプリントは、上記1人以上の着目人物内の個別の着目人物に対してともに特有であるそれらの特徴毎の測度の範囲と組み合わせられる特徴のセットを備え、各識別は、ボディプリントと関連付けられる、上記項目のうちのいずれか1項に記載の方法。
(項目8)
上記プロセッサによって、上記個別の1つ以上の特徴の判定された測度および各ボディプリントの特徴のセットの対応するサブセットからの測度を比較し、上記個別の1つ以上の特徴の判定された測度が、上記ボディプリントの特徴の対応するサブセットに関する測度の範囲内であるかどうかを判定するステップを含む、項目7に記載の方法。
(項目9)
1人以下の人物、2人以下の人物、3人以下の人物、4人以下の人物、5人以下の人物、6人以下の人物、10人以下の人物、25人以下の人物、50人以下の人物、100人以下の人物が、識別のために登録される、上記項目のうちのいずれか1項に記載の方法。
(項目10)
顔特徴が、上記センサデータから省略される、上記項目のうちのいずれか1項に記載の方法。
(項目11)
全ての視覚データが、上記センサデータから省略される、上記項目のうちのいずれか1項に記載の方法。
(項目12)
上記人物のうちの少なくとも1人は、「他人」として識別される、上記項目のうちのいずれか1項に記載の方法。
(項目13)
1つ以上の身体部分を分離するステップは、上記プロセッサによって、上記データセットの特質、上記センサのタイプ、上記人物に対して利用可能な非閉塞データの量、上記センサデータのセグメント化内の身体部分の表現の可用性、着目人物に関するボディプリントの可用性、および計算のために利用可能な特徴のライブラリから成る群から選択される少なくとも1つの性質に基づいて、センサデータの各セグメント化内のどの身体部分を分離するかを判定するステップを含む、上記項目のうちのいずれか1項に記載の方法。
(項目14)
上記1つ以上の身体部分は、フレーム内の人物毎に異なり得る、上記項目のうちのいずれか1項に記載の方法。
(項目15)
上記1つ以上の測度は、面積、体積、円周、閉曲線、非閉曲線、長さ、空間的場所、角度、画像、形態/形状、強度、フィルタ処理された出力、数値的重みのセット、数学的スケーリング、数学的変換、数学的畳み込み、一般化された数学的演算、または前述のいずれかの変化率から成る群から選択される1つ以上の要素を備える、上記項目のうちのいずれか1項に記載の方法。
(項目16)
人物毎に、測度がフレーム内の人物毎に判定されるべきである1つ以上の候補特徴のセットからサブセットを選択するステップを含む、上記項目のうちのいずれか1項に記載の方法。
(項目17)
上記1つ以上の特徴のうちの少なくとも1つは、任意の所与のフレームまたは一連のフレームにおいて利用不可能または算出不可能である、上記項目のうちのいずれか1項に記載の方法。
(項目18)
上記1つ以上の特徴はそれぞれ、1つ以上のフレームに基づいて計算される、上記項目のうちのいずれか1項に記載の方法。
(項目19)
上記1つ以上のフレームは、複数の連続または非連続フレームを備える、項目18に記載の方法。
(項目20)
上記1つ以上の特徴は、1つ以上の静的特徴を備える、上記項目のうちのいずれか1項に記載の方法。
(項目21)
上記1つ以上の静的特徴は、人物の身長、肩から肩までの幅、上腕、下腕、上脚、下脚、手、足、頭部、首、または胴の長さまたは幅、胴表面積、胴体積、頭部の長さ、胴の長さ、肢円周のうちの任意の2つの間の比率、頭部または鼻の体積、頭部または眼窩の円周、頭部輪郭、口、または顎の幅、頭部の上部または背部または顎の湾曲度、および眉間、鼻梁、鼻の先端、人中、下顎点、眼の瞳孔、耳の外耳道、耳介、頭頂、地面のうちの任意の2つの間の距離、身体部分の画像、身体部分の形態/形状、固有画像、固有顔、スケール不変特徴変換、配向勾配のヒストグラム、ピクセルマスク、ピクセルカウント、ボクセル体積、重心、凸多面体、3Dメッシュ、色、反射、テクスチャ、パターン、畳み込みから成る群から選択される1つ以上の要素を備える、項目20に記載の方法。
(項目22)
上記1つ以上の静的特徴は、Convolutional Neural Networkを含むニューラルネットワークの重みおよび/または出力、Convolutional Neural Networkを含む、異なる時点におけるニューラルネットワークの重みおよび/または出力、Random Forestの重みおよび/または出力、Support Vector Machineの重みおよび/または出力、単純なベイズマシンの重みおよび/または出力、K平均クラスタリングを含むクラスタリング、教師あり学習、教師なし学習から成る群から選択される1つ以上の要素を備える、項目20に記載の方法。
(項目23)
各特徴は、単一の身体部分の属性の測定値、または異なる身体部分の属性の測定値間の関係、または1つ以上の身体部分の属性の測定値と環境の測定値との間の関係に基づいて計算される、上記項目のうちのいずれか1項に記載の方法。
(項目24)
上記単一の身体部分の属性は、人物の身長、上腕、下腕、上脚、下脚、手、足、頭部、首、または胴の長さまたは幅、頭部または鼻の体積、頭部または眼窩の円周、頭部輪郭、口、または顎の幅、頭部の上部または背部または顎の湾曲度から成る群から選択される1つ以上の要素を備える、項目23に記載の方法。
(項目25)
上記異なる身体部分の属性の測定値間の関係は、胴表面積、胴体積、頭部の長さ、胴の長さ、肢円周のうちの任意の2つの間の比率、眉間、鼻梁、鼻の先端、人中、下顎点、眼の瞳孔、耳の外耳道、耳介、頭頂、地面のうちの任意の2つの間の距離を備える、項目23または24に記載の方法。
(項目26)
上記1つ以上の特徴は、1つ以上の動的特徴を備える、上記項目のうちのいずれか1項に記載の方法。
(項目27)
上記1つ以上の動的特徴は、身体の方向転換の速度、歩行速度、大股で歩く間の2つの脚の間の最大距離、大股で歩く間の肩関節における回転の最大角度、右脚と左脚との間の歩幅長さの差異、車椅子の存在または不在、杖等の補助デバイスの存在または不在、衣類の色または反射の存在または不在、靴の高さ、地面に対する身体の傾斜または振りの角度、胴と脚との間の屈曲の角度、脊柱湾曲度、体温、局所的家具または壁への近接またはそれからの距離、身体のセンサからの距離、胴に対する頭部の配向、センサに対する頭部の配向、センサに対する注視の角度、眼鏡の存在または不在、帽子またはヘルメットの存在または不在、および髪の量から成る群から選択される1つ以上の要素を備える、項目26に記載の方法。
(項目28)
上記1つ以上の動的特徴は、Convolutional Neural Networkを含むニューラルネットワークの重みおよび/または出力、Convolutional Neural Networkを含む、異なる時点におけるニューラルネットワークの重みおよび/または出力、Random Forestの重みおよび/または出力、Support Vector Machineの重みおよび/または出力、単純なベイズマシンの重みおよび/または出力、K平均クラスタリングを含むクラスタリング、教師あり学習、教師なし学習から成る群から選択される1つ以上の要素を備える、項目26に記載の方法。
(項目29)
上記1つ以上の動的特徴はそれぞれ、1)−3)、すなわち、1)時間、空間、または他の着目測定単位にわたる単一の身体部分の属性の変動、2)時間、空間、または他の着目測定単位にわたる異なる身体部分の特徴間の関係の変動、および3)時間、空間、または他の着目測定単位にわたる上記人物の異なる身体区画に対する環境またはその関係の変動のうちの少なくとも1つに基づいて計算される、項目26−28のうちのいずれか1項に記載の方法。
(項目30)
上記識別は、ルールイン識別である、上記項目のうちのいずれか1項に記載の方法。
(項目31)
上記識別は、「その他」識別としても公知なルールアウトである、上記項目のうちのいずれか1項に記載の方法。
(項目32)
上記1つ以上の特徴は、別の人物を識別するために使用される上記1つ以上の特徴とは異なる上記センサデータ内のフレームまたはフレームのセットから捕捉される、上記項目のうちのいずれか1項に記載の方法。
(項目33)
人物毎に、上記識別は、特徴のセットに基づいて、かつそれらの特徴毎の測度の範囲に基づいて判定され、その組み合わせられたものは、特定の人物に対して高度に特有である、上記項目のうちのいずれか1項に記載の方法。
(項目34)
人物毎に、上記識別は、少なくとも部分的に、その識別を実施するために使用される上記1つ以上の特徴の忠実度および/または予測力に基づいて判定される、上記項目のうちのいずれか1項に記載の方法。
(項目35)
上記1つ以上の特徴は、利用可能なシーン、上記センサ、上記センサデータ、既知のボディプリントの上記ライブラリ、および既知かつ算出可能な特徴の上記ライブラリから成る群から選択される少なくとも1つの要素に基づいて、経時的に変動する、上記項目のうちのいずれか1項に記載の方法。
(項目36)
上記1つ以上の特徴および/またはボディプリントは、機械学習および/またはパターン認識技法によって自動的に計算される、上記項目のうちのいずれか1項に記載の方法。
(項目37)
上記1つ以上の特徴および/またはボディプリントは、手動タグ付け等の外部エージェントによって事前または事後情報として提供される、上記項目のうちのいずれか1項に記載の方法。
(項目38)
上記1つ以上の特徴および/またはボディプリントは、経時的に更新または修正されることができる、上記項目のうちのいずれか1項に記載の方法。
(項目39)
センサによって、センサデータを取得するステップを含み、上記センサデータは、複数のフレームを備え、各フレームは、ピクセルの2次元空間マップとして表され、各ピクセルの強度値は、上記センサからの投影距離に対応する、上記項目のうちのいずれか1項に記載の方法。
(項目40)
上記プロセッサによって、上記1つ以上の特徴に優先順位を付けるステップを含み、上記優先順位を付けるステップは、異なるセンサ、異なる時間、異なるボディプリント、および異なる空間的場所から成る群から選択される少なくとも1つの要素を横断して特徴を集約するステップを含む、上記項目のうちのいずれか1項に記載の方法。
(項目41)
上記1つ以上の特徴は、同一のシーン内の人物毎に異なる、項目40に記載の方法。
(項目42)
上記1つ以上の特徴は、同一の人物に関してであってもフレーム毎に異なる割当を有する、項目40または41に記載の方法。
(項目43)
上記センサデータは、飛行時間光検出および測距のうちの少なくとも1つによって、または、上記シーン上に少なくとも1つのエネルギーパターンを投影し、上記パターンの変形を測定することによって取得されるデータを備える、上記項目のうちのいずれか1項に記載の方法。
(項目44)
上記センサデータは、光または音声を使用して取得されるデータを備える、上記項目のうちのいずれか1項に記載の方法。
(項目45)
上記センサデータは、未加工センサデータ、未加工センサデータから導出される値、および軌跡データから成る群から選択される少なくとも1つのデータタイプを備える、上記項目のうちのいずれか1項に記載の方法。
(項目46)
上記1つ以上のフレームはそれぞれ、特定の瞬間に先行して、またはその時点のいずれかで取得されたデータを備える1つ以上のデータストリームから成る「スナップショット」に対応する、上記項目のうちのいずれか1項に記載の方法。
(項目47)
上記1つ以上のフレームは、複数の時点において単一のセンサによって取得された複数のフレーム、または同一または異なる時点において複数のセンサによって取得された複数のフレームのうちの少なくとも1つを備える、上記項目のうちのいずれか1項に記載の方法。
(項目48)
上記プロセッサによって、識別された人物毎に信頼性スコアを判定するステップを含む、上記項目のうちのいずれか1項に記載の方法。
(項目49)
上記プロセッサによって、人物と関連付けられる上記センサデータのサブセットを破棄するステップを含む、上記項目のうちのいずれか1項に記載の方法。
(項目50)
上記識別は、未知の識別を備える、上記項目のうちのいずれか1項に記載の方法。
(項目51)
上記プロセッサによって、上記1つ以上の特徴を調節し、全ての特徴が時間的かつ/または空間的に並置されることを確実にするステップを含む、上記項目のうちのいずれか1項に記載の方法。
(項目52)
上記1つ以上の特徴のうちの少なくとも1つは、上記センサにおける、または計算方法論におけるタイミング遅延またはバイアスを調節するために、オフセット補正される、待ち時間補正される、または空間的に並置される、上記項目のうちのいずれか1項に記載の方法。
(項目53)
特徴の上記忠実度は、上記シーンの組成、利用されているセンサのタイプ、および取得されているデータのタイプから成る群から選択される少なくとも1つの要素に依存する、項目34に記載の方法。
(項目54)
上記識別するステップは、上記人物が自然に動き回っている間に実施される、上記項目のうちのいずれか1項に記載の方法。
(項目55)
上記識別するステップは、リアルタイムで、またはほぼリアルタイムで実施される、項目54に記載の方法。
(項目56)
上記識別するステップは、遅延後に、または同じく、データ取得が起こった時間とは実質的に異なる時間に実施される、上記項目のうちのいずれか1項に記載の方法。
(項目57)
上記識別するステップは、遡及的に実施される、上記項目のうちのいずれか1項に記載の方法。
(項目58)
上記人物は、上記センサから、0.1メートルを上回る、0.5メートルを上回る、1メートルを上回る、2メートルを上回る、5メートルを上回る距離に位置する、上記項目のうちのいずれか1項に記載の方法。
(項目59)
センサデータから1人以上の着目人物の表現を識別するためのシステムであって、上記センサデータは、その中に人物を伴う周辺環境の表現を含有しており、上記システムは、
プロセッサと、
メモリであって、上記メモリは、その上に命令を記憶しており、上記命令は、上記プロセッサによって実行されると、上記プロセッサに、
センサデータ内の人物の各表現が、上記センサデータの個別のセグメント化と関連付けられるように、1つ以上のフレームからの上記センサデータを上記センサデータ内の上記人物のそれぞれの固有の表現にセグメント化し、それによって、上記センサデータ内の上記周辺環境の表現から上記人物のそれぞれの表現を区別することであって、上記センサデータは、人物の表現と、上記周辺環境の表現とを備え、上記人物の表現は、上記1人以上の着目人物の表現を備える、ことと、
上記センサデータの各セグメント化から1つ以上の身体部分を分離することと、
上記センサデータのセグメント化毎に、上記センサデータの上記個別のセグメント化の1つ以上の分離された身体部分に基づいて、上記人物の個別の表現と関連付けられる1つ以上の特徴毎の測度を判定することと、
上記センサデータのセグメント化毎に、上記人物の個別の表現と関連付けられる1つ以上の特徴の判定された測度の組み合わせが、上記1人以上の着目人物のうちの1人のボディプリントに対応するかどうかを判定し、それによって、上記センサデータの個別のセグメント化を着目人物として識別することと、
上記データのセグメント化が上記対応する着目人物の識別と関連付けられるように、上記1人以上の着目人物のうちの1人のボディプリントに対応する上記人物の個別の表現と関連付けられるデータのセグメント化を記憶することと
を行わせる、メモリと、
を備える、システム。
(項目60)
上記命令は、上記プロセッサによって実行されると、上記プロセッサに、機械学習および/またはパターン認識技法を実施させ、上記センサデータを上記センサデータ内の上記人物のそれぞれの固有の表現にセグメント化させる、項目59に記載のシステム。
(項目61)
上記命令は、上記プロセッサによって実行されると、上記プロセッサに、機械学習および/またはパターン認識技法を実施させ、上記センサデータの各セグメント化から上記1つ以上の身体部分を分離させる、項目59または60に記載のシステム。
(項目62)
上記1人以上の着目人物はそれぞれ、識別のために登録される、項目59−61に記載のシステム。
(項目63)
上記個別のセグメント化を識別するステップは、分類子の出力に基づく、項目59−62に記載のシステム。
(項目64)
上記個別のセグメント化を識別するステップは、ルールまたはカテゴリまたはヒューリスティックに基づく、項目59−63のうちのいずれか1項に記載のシステム。
(項目65)
上記命令は、上記プロセッサによって実行されると、上記プロセッサに、上記1人以上の着目人物毎に、メモリデバイス内に、識別およびボディプリントを記憶させ、各ボディプリントは、上記1人以上の着目人物内の個別の着目人物に対してともに特有であるそれらの特徴毎の測度の範囲と組み合わせられる特徴のセットを備え、各識別は、ボディプリントと関連付けられる、項目59−64のうちのいずれか1項に記載のシステム。
(項目66)
上記命令は、上記プロセッサによって実行されると、上記プロセッサに、上記個別の1つ以上の特徴の判定された測度および各ボディプリントの特徴のセットの対応するサブセットからの測度を比較させ、上記個別の1つ以上の特徴の判定された測度が、上記ボディプリントの特徴の対応するサブセットに関する測度の範囲内であるかどうかを判定させる、項目65に記載のシステム。
(項目67)
1人以下の人物、2人以下の人物、3人以下の人物、4人以下の人物、5人以下の人物、6人以下の人物、10人以下の人物、25人以下の人物、50人以下の人物、100人以下の人物が、識別のために登録される、項目59−66のうちのいずれか1項に記載のシステム。
(項目68)
顔特徴が、上記センサデータから省略される、項目59−67のうちのいずれか1項に記載のシステム。
(項目69)
全ての視覚データが、上記センサデータから省略される、項目59−68のうちのいずれか1項に記載のシステム。
(項目70)
上記人物のうちの少なくとも1人は、「他人」として識別される、項目59−69のうちのいずれか1項に記載のシステム。
(項目71)
上記命令は、上記プロセッサによって実行されると、上記プロセッサに、上記データセットの特質、上記センサのタイプ、上記人物に対して利用可能な非閉塞データの量、上記センサデータのセグメント化内の身体部分の表現の可用性、着目人物に関するボディプリントの可用性、および計算のために利用可能な特徴のライブラリから成る群から選択される少なくとも1つの性質に基づいて、センサデータの各セグメント化内のどの身体部分を分離するかを判定させる、項目59−70のうちのいずれか1項に記載のシステム。
(項目72)
分離される上記1つ以上の身体部分は、フレーム内の人物毎に異なり得る、項目59−71のうちのいずれか1項に記載のシステム。
(項目73)
上記1つ以上の特徴の上記1つ以上の測度はそれぞれ、面積、体積、円周、閉曲線、非閉曲線、長さ、空間的場所、角度、画像、形態/形状、強度、フィルタ処理された出力、数値的重みのセット、数学的スケーリング、数学的変換、数学的畳み込み、一般化された数学的演算、または前述のいずれかの変化率から成る群から選択される1つ以上の要素を備える、項目59−72のうちのいずれか1項に記載のシステム。
(項目74)
上記命令は、上記プロセッサによって実行されると、上記プロセッサに、人物毎に、どの特徴がフレーム内の人物毎に計算され得、計算されるべきかを判定させる、項目59−73のうちのいずれか1項に記載のシステム。
(項目75)
上記1つ以上の特徴のうちの少なくとも1つは、任意の所与のフレームまたは一連のフレームにおいて利用不可能または算出不可能である、項目59−74のうちのいずれか1項に記載のシステム。
(項目76)
上記1つ以上の特徴はそれぞれ、1つ以上のフレームに基づいて計算される、項目59−75のうちのいずれか1項に記載のシステム。
(項目77)
上記1つ以上のフレームは、複数の連続または非連続フレームを備える、項目76に記載のシステム。
(項目78)
上記1つ以上の特徴は、1つ以上の静的特徴を備える、項目59−77のうちのいずれか1項に記載のシステム。
(項目79)
上記1つ以上の静的特徴は、人物の身長、肩から肩までの幅、上腕、下腕、上脚、下脚、手、足、頭部、首、または胴の長さまたは幅、胴表面積、胴体積、頭部の長さ、胴の長さ、肢円周のうちの任意の2つの間の比率、頭部または鼻の体積、頭部または眼窩の円周、頭部輪郭、口、または顎の幅、頭部の上部または背部または顎の湾曲度、および眉間、鼻梁、鼻の先端、人中、下顎点、眼の瞳孔、耳の外耳道、耳介、頭頂、地面のうちの任意の2つの間の距離、身体部分の画像、身体部分の形態/形状、固有画像、固有顔、スケール不変特徴変換、配向勾配のヒストグラム、ピクセルマスク、ピクセルカウント、ボクセル体積、重心、凸多面体、3Dメッシュ、色、反射、テクスチャ、パターン、畳み込みから成る群から選択される1つ以上の要素を備える、項目78に記載のシステム。
(項目80)
上記1つ以上の静的特徴は、Convolutional Neural Networkを含むニューラルネットワークの重みおよび/または出力、Convolutional Neural Networkを含む、異なる時点におけるニューラルネットワークの重みおよび/または出力、Random Forestの重みおよび/または出力、Support Vector Machineの重みおよび/または出力、単純なベイズマシンの重みおよび/または出力、K平均クラスタリングを含むクラスタリング、教師あり学習、教師なし学習から成る群から選択される1つ以上の要素を備える、項目78に記載のシステム。
(項目81)
上記1つ以上の特徴はそれぞれ、単一の身体部分の属性の測定値、または異なる身体部分の属性の測定値間の関係、または1つ以上の身体部分の属性の測定値と環境の測定値との間の関係に基づいて計算される、項目59−80のうちのいずれか1項に記載のシステム。
(項目82)
上記単一の身体部分の属性は、人物の身長、上腕、下腕、上脚、下脚、手、足、頭部、首、または胴の長さまたは幅、頭部または鼻の体積、頭部または眼窩の円周、頭部輪郭、口、または顎の幅、頭部の上部または背部または顎の湾曲度から成る群から選択される1つ以上の要素を備える、項目81に記載のシステム。
(項目83)
上記異なる身体部分の属性の測定値間の関係は、胴表面積、胴体積、頭部の長さ、胴の長さ、肢円周のうちの任意の2つの間の比率、眉間、鼻梁、鼻の先端、人中、下顎点、眼の瞳孔、耳の外耳道、耳介、頭頂、地面のうちの任意の2つの間の距離を備える、項目81または82に記載のシステム。
(項目84)
上記1つ以上の特徴は、1つ以上の動的特徴を備える、項目59−83のうちのいずれか1項に記載のシステム。
(項目85)
上記1つ以上の動的特徴は、身体の方向転換の速度、歩行速度、大股で歩く間の2つの脚の間の最大距離、大股で歩く間の肩関節における回転の最大角度、右脚と左脚との間の歩幅長さの差異、車椅子の存在または不在、杖等の補助デバイスの存在または不在、衣類の色または反射の存在または不在、靴の高さ、地面に対する身体の傾斜または振りの角度、胴と脚との間の屈曲の角度、脊柱湾曲度、体温、局所的家具または壁への近接またはそれからの距離、身体のセンサからの距離、胴に対する頭部の配向、センサに対する頭部の配向、センサに対する注視の角度、眼鏡の存在または不在、帽子またはヘルメットの存在または不在、および髪の量から成る群から選択される1つ以上の要素を備える、項目84に記載のシステム。
(項目86)
上記1つ以上の動的特徴は、Convolutional Neural Networkを含むニューラルネットワークの重みおよび/または出力、Convolutional Neural Networkを含む、異なる時点におけるニューラルネットワークの重みおよび/または出力、Random Forestの重みおよび/または出力、Support Vector Machineの重みおよび/または出力、単純なベイズマシンの重みおよび/または出力、K平均クラスタリングを含むクラスタリング、教師あり学習、教師なし学習から成る群から選択される1つ以上の要素を備える、項目84に記載のシステム。
(項目87)
上記1つ以上の動的特徴はそれぞれ、1)−3)、すなわち、1)時間、空間、または他の着目測定単位にわたる単一の身体部分の属性の変動、2)時間、空間、または他の着目測定単位にわたる異なる身体部分の特徴間の関係の変動、および3)時間、空間、または他の着目測定単位にわたる上記人物の異なる身体区画に対する環境またはその関係の変動のうちの少なくとも1つに基づいて計算される、項目84−86のうちのいずれか1項に記載のシステム。
(項目88)
上記識別は、ルールイン識別である、項目59−87のうちのいずれか1項に記載のシステム。
(項目89)
上記識別は、「その他」識別としても公知なルールアウトである、項目59−88のうちのいずれか1項に記載のシステム。
(項目90)
上記1つ以上の特徴は、別の人物を識別するために使用される上記1つ以上の特徴とは異なる上記センサデータ内のフレームまたはフレームのセットから捕捉される、項目59−89のうちのいずれか1項に記載のシステム。
(項目91)
人物毎に、上記識別は、特徴のセットに基づいて、かつそれらの特徴毎の測度の範囲に基づいて判定され、その組み合わせられたものは、特定の人物に対して高度に特有である、項目59−90のうちのいずれか1項に記載のシステム。
(項目92)
上記識別は、少なくとも部分的に、その識別を実施するために使用される上記1つ以上の特徴の忠実度および/または予測力に基づいて判定される、項目59−91のうちのいずれか1項に記載のシステム。
(項目93)
上記1つ以上の特徴は、利用可能なシーン、上記センサ、上記センサデータ、既知のボディプリントの上記ライブラリ、および既知かつ算出可能な特徴の上記ライブラリから成る群から選択される少なくとも1つの要素に基づいて、経時的に変動する、項目59−92のうちのいずれか1項に記載のシステム。
(項目94)
上記1つ以上の特徴および/またはボディプリントは、機械学習またはパターン認識技法によって自動的に計算される、項目59−93のうちのいずれか1項に記載のシステム。
(項目95)
上記1つ以上の特徴および/またはボディプリントは、手動タグ付け等の外部エージェントによって事前または事後情報として提供される、項目59−94のうちのいずれか1項に記載のシステム。
(項目96)
上記1つ以上の特徴および/またはボディプリントは、経時的に更新または修正されることができる、項目59−95のうちのいずれか1項に記載のシステム。
(項目97)
上記センサデータは、センサによって取得され、上記センサデータは、複数のフレームを備え、各フレームは、ピクセルの2次元空間マップとして表され、各ピクセルの強度値は、上記センサからの投影距離に対応する、項目59−96のうちのいずれか1項に記載のシステム。
(項目98)
上記命令は、上記プロセッサによって実行されると、上記プロセッサに、上記1つ以上の特徴に優先順位を付けさせ、それによって、異なるセンサ、異なる時間、異なるボディプリント、および異なる空間的場所から成る群から選択される少なくとも1つの要素を横断して特徴を集約させる、項目59−97のうちのいずれか1項に記載のシステム。
(項目99)
上記1つ以上の特徴は、同一のシーン内の人物毎に異なる、項目98に記載のシステム。
(項目100)
上記1つ以上の特徴は、同一の人物に関してであってもフレーム毎に異なる割当を有する、項目98または99に記載のシステム。
(項目101)
上記センサデータは、飛行時間光検出および測距のうちの少なくとも1つによって、または、上記シーン上に少なくとも1つのエネルギーパターンを投影し、上記パターンの変形を測定することによって取得されるデータを備える、項目59−100のうちのいずれか1項に記載のシステム。
(項目102)
上記センサデータは、光または音声を使用して取得されるデータを備える、項目59−101のうちのいずれか1項に記載のシステム。
(項目103)
上記センサデータは、未加工センサデータ、未加工センサデータから導出される値、または軌跡データから成る群から選択される少なくとも1つのデータタイプを備える、項目59−102のうちのいずれか1項に記載のシステム。
(項目104)
上記1つ以上のフレームはそれぞれ、特定の瞬間に先行して、またはその時点のいずれかで取得されたデータを備える1つ以上のデータストリームから成る「スナップショット」に対応する、項目59−103のうちのいずれか1項に記載のシステム。
(項目105)
上記1つ以上のフレームは、複数の時点において単一のセンサによって取得された複数のフレーム、または同一または異なる時点において複数のセンサによって取得された複数のフレームのうちの少なくとも1つを備える、項目59−104のうちのいずれか1項に記載のシステム。
(項目106)
上記命令は、上記プロセッサによって実行されると、上記プロセッサに、識別された人物毎に信頼性スコアを判定させる、項目59−105のうちのいずれか1項に記載のシステム。
(項目107)
上記命令は、上記プロセッサによって実行されると、上記プロセッサに、人物と関連付けられる上記センサデータのサブセットを破棄させる、項目59−106のうちのいずれか1項に記載のシステム。
(項目108)
上記識別は、未知の識別を備える、項目59−107のうちのいずれか1項に記載のシステム。
(項目109)
上記命令は、上記プロセッサによって実行されると、上記プロセッサに、上記1つ以上の特徴を調節させ、全ての特徴が時間的かつ/または空間的に並置されることを確実にさせる、項目59−108のうちのいずれか1項に記載のシステム。
(項目110)
上記1つ以上の特徴のうちの少なくとも1つは、上記センサにおける、または計算方法論におけるタイミング遅延またはバイアスを調節するために、オフセット補正される、待ち時間補正される、または空間的に並置される、項目59−109のうちのいずれか1項に記載のシステム。
(項目111)
特徴の上記忠実度は、上記シーンの組成、利用されているセンサのタイプ、および取得されているデータのタイプから成る群から選択される少なくとも1つの要素に依存する、項目92に記載のシステム。
(項目112)
上記個別のセグメント化を識別するステップは、上記人物が自然に動き回っている間に実施される、項目59−111のうちのいずれか1項に記載のシステム。
(項目113)
上記個別のセグメント化を識別するステップは、リアルタイムで、またはほぼリアルタイムで実施される、項目112に記載のシステム。
(項目114)
上記個別のセグメント化を識別するステップは、遅延後に、または同じく、データ取得が起こった時間とは実質的に異なる時間に実施される、項目59−113のうちのいずれか1項に記載のシステム。
(項目115)
上記個別のセグメント化を識別するステップは、遡及的に実施される、項目59−114のうちのいずれか1項に記載のシステム。
(項目116)
上記人物は、上記センサから、0.1メートルを上回る、0.5メートルを上回る、1メートルを上回る、2メートルを上回る、5メートルを上回る距離に位置する、項目59−115のうちのいずれか1項に記載のシステム。
(項目117)
少なくとも部分的に、奥行きデータに基づいて、センサ場内の事前登録された人間個人の離散セットのうちの1つのリアルタイムまたはほぼリアルタイムの識別の方法であって、上記方法は、
コンピューティングデバイスのプロセッサによって、少なくとも部分的に、上記1つ以上のセンサによって取得された奥行きデータに基づいて、上記センサ場内で検出された人間に特徴的な複数の特徴のそれぞれを定量化するステップと、
上記プロセッサによって、上記センサ場内で検出された人間に関する定量化された複数の特徴に基づいて、1つ以上のボディプリントを定量化するステップと、
上記プロセッサによって、リアルタイムまたはほぼリアルタイムで、少なくとも部分的に、上記1つ以上のボディプリントに基づいて、事前登録された人間個人のセット間から上記センサ場内で検出された人間を肯定的に識別するステップと、
を含む、方法。
(項目118)
少なくとも部分的に、上記1つ以上のボディプリントに基づいて、上記肯定的に識別された個人が従事する活動を判定するステップを含む、項目117に記載の方法。
(項目119)
上記人間を肯定的に識別するステップは、奥行きデータに対して排他的に実施される、項目117または118に記載の方法。
(項目120)
上記奥行きデータは、1つ以上のセンサによって取得される1つ以上の奥行きマップを備える、項目117−119に記載の方法。
(項目121)
上記奥行きデータは、視覚画像を備えていない、項目117−120に記載の方法。
(項目122)
上記人間を肯定的に識別するステップは、写真静止またはビデオ画像の使用を伴わずに遂行され、それによって、上記個人の個人的プライバシーを保護する、項目117−121のうちのいずれか1項に記載の方法。
(項目123)
上記複数の特徴は、少なくとも1つの静的特徴および/または少なくとも1つの動的特徴を備える、項目117−122のうちのいずれか1項に記載の方法。
(項目124)
上記事前登録された人間個人のセットは、100人以下の、50人以下の、25人以下の、10人以下の、6人以下の、5人以下の、4人以下の、3人以下の、2人以下の、または1人以下の人間個人を備える、項目117−123のうちのいずれか1項に記載の方法。
(項目125)
上記人間は、少なくとも80%、少なくとも90%、少なくとも95%、または少なくとも99%の信頼性とともに肯定的に識別される、項目117−124のうちのいずれか1項に記載の方法。
(項目126)
上記プロセッサによって、上記センサ場内で検出された上記肯定的に識別された人間の名前を表示し、随意に、上記肯定的に識別された個人が従事する上記判定された活動のグラフィカルインジケーションを表示するステップを含む、項目117−125のうちのいずれか1項に記載の方法。
(項目127)
人物の身体的測定値を介して上記人物の痛み、疲労、気分、および意図のうちの少なくとも1つを識別および/または定量化する方法であって、上記方法は、
コンピューティングデバイスのプロセッサによって、センサによって取得されるセンサデータを備えるデータセットを受信するステップと、
上記プロセッサによって、上記データセットに基づいて、上記人物の移動、活動、および挙動から成る群から選択される少なくとも1つの要素を特性評価するステップであって、上記特性評価するステップは、
上記データセット内に表される1人以上の人物を、相互に、かつ上記データセット内に表される環境物体からセグメント化するステップと、
上記1人以上のセグメント化された人物のうちの少なくとも1人の少なくとも1つの特徴を計算するステップと、
上記少なくとも1つの特徴をある関係と相関させることに基づいて、結論を判定するステップと、
を含む、ステップと、
上記プロセッサによって、上記結論を出力するステップと、
を含む、方法。
(項目128)
上記データセット内に表される1人以上の人物をセグメント化するステップは、機械学習および/またはパターン認識技法を実施するステップを含む、項目127に記載の方法。
(項目129)
上記関係は、学習された関係である、項目127または128に記載の方法。
(項目130)
上記少なくとも1つの特徴は、直接測定値である身体的測定値を備える、項目127−129のうちのいずれか1項に記載の方法。
(項目131)
上記少なくとも1つの特徴は、間接的測定値である身体的測定値を備える、項目127−130のうちのいずれか1項に記載の方法。
(項目132)
上記結論は、不完全な測定値に基づく、項目127−131のうちのいずれか1項に記載の方法。
(項目133)
上記少なくとも1つの特徴は、非連続、非隣接、不完全、一貫性のない、非逐次のうちの少なくとも1つである上記データセット内の測定値に基づく、項目127−132のうちのいずれか1項に記載の方法。
(項目134)
上記結論は、いくつかの異なるタイプおよび組み合わせの特徴の統合に基づく、項目127−133のうちのいずれか1項に記載の方法。
(項目135)
上記データセット内のセンサデータは、センサから直接取得される、および/または付加的処理を受けている、項目127−134のうちのいずれか1項に記載の方法。
(項目136)
上記データセットは、1つ以上のフレームを備える、項目127に記載の方法。
(項目137)
上記1つ以上のフレームの各フレームは、特定の瞬間に先行して、またはその時点のいずれかで取得されたデータを備える1つ以上のデータストリームのスナップショットに対応する、項目136に記載の方法。
(項目138)
上記1つ以上のフレームは、複数の時点において単一のセンサによって捕捉される、および/または複数のセンサによって捕捉される、項目136に記載の方法。
(項目139)
上記データセットは、略リアルタイムで取得される、バッチモードで取得される、またはデータベース内に以前に記憶されたデータから取得される、項目127−138のうちのいずれか1項に記載の方法。
(項目140)
非プライベートであると判定されたデータのタイプを破棄するステップを含む、項目127−139のうちのいずれか1項に記載の方法。
(項目141)
上記プロセッサによって、後続分析のために上記データセットを事前処理するステップを含み、上記事前処理するステップは、上記データセットをフィルタ処理するステップ、条件付けするステップ、クリーニングするステップ、および正規化するステップから成る群から選択される1つ以上のステップを含む、項目127−140のうちのいずれか1項に記載の方法。
(項目142)
上記プロセッサによって、後続分析のために上記データセットを事前処理するステップを含み、上記事前処理するステップは、上記データセットからの未加工データまたは計算された特徴に対して実施される、項目127−141のうちのいずれか1項に記載の方法。
(項目143)
上記セグメント化するステップは、上記セグメント化された人物の識別に関するいずれの情報も伴わずに実施される、項目127−142のうちのいずれか1項に記載の方法。
(項目144)
セグメント化した後、計算された特徴を具体的個人と関連付けるために、上記1人以上のセグメント化された人物毎に標識を判定するステップを含む、項目127−143のうちのいずれか1項に記載の方法。
(項目145)
上記少なくとも1つの特徴は、肢長さ、足サイズ、頭部形状、身長、身体割合、身体体積、音声周波数スペクトル、声量、歩幅長さ、視野内の場所、および腕を上げる速度から成る群から選択される少なくとも1つの要素を備える、項目127−144のうちのいずれか1項に記載の方法。
(項目146)
上記プロセッサによって、機械学習および/またはパターン認識技法を使用して、上記少なくとも1つの特徴を自動的に計算するステップを含む、項目127−145のうちのいずれか1項に記載の方法。
(項目147)
上記少なくとも1つの特徴を計算するステップは、上記具体的特徴の可用性および上記出力される結論に関する関連度のうちの少なくとも1つに基づいて、中断される、項目127−146のうちのいずれか1項に記載の方法。
(項目148)
上記プロセッサによって、上記データセットに基づいて、移動、活動、または挙動の所望の特性を判定するステップは、セグメント化する前に、上記プロセッサによって、後続分析のために上記データセットを事前処理するステップを含む、項目127−147のうちのいずれか1項に記載の方法。
(項目149)
上記関係は、事前判定される、項目127−148のうちのいずれか1項に記載の方法。
(項目150)
上記学習された関係は、グラウンドトゥルースに基づく、項目128に記載の方法。
(項目151)
人物の身体的測定値を介して上記人物の痛み、疲労、気分、および意図のうちの少なくとも1つを識別および/または定量化するためのシステムであって、上記システムは、
上記人物に対応するデータを取得するための、センサと、
プロセッサと、
メモリであって、上記メモリは、その上に記憶される命令を有しており、上記命令は、上記プロセッサによって実行されると、上記プロセッサに、
センサによって取得されるセンサデータを備えるデータセットを受信することと、
上記データセットに基づいて、
上記データセット内に表される1人以上の人物を、相互に、かつ上記データセット内に表される環境物体からセグメント化するステップと、
上記1人以上のセグメント化された人物のうちの少なくとも1人の少なくとも1つの特徴を計算するステップと、
上記少なくとも1つの特徴をある関係と相関させることに基づいて、上記人物の結論を判定するステップと、
によって、上記人物の移動、活動、および挙動のうちの少なくとも1つを特性評価させることと、
上記結論を出力することと
を行わせる、メモリと、
を備える、システム。
(項目152)
上記データセット内に表される1人以上の人物をセグメント化するステップは、機械学習および/またはパターン認識技法を実施するステップを含む、項目151に記載のシステム。
(項目153)
上記センサデータを取得するために、赤外線飛行時間センサをさらに備える、項目59−116のうちのいずれか1項に記載のシステム。
(項目154)
ディスプレイと、上記プロセッサおよびメモリのための筐体とをさらに備える、項目59−116または153のうちのいずれか1項に記載のシステム。
Claims (154)
- センサデータから1人以上の着目人物の表現を識別する方法であって、前記センサデータは、その中に人物を伴う周辺環境の表現を含有しており、前記方法は、
(a)コンピューティングデバイスのプロセッサによって、1つ以上のフレームからセンサデータを受信するステップであって、前記センサデータは、人物の表現と、前記周辺環境の表現とを備え、前記人物の表現は、前記1人以上の着目人物の表現を備える、ステップと、
(b)前記プロセッサによって、前記センサデータ内の人物の各表現が、前記センサデータの個別のセグメント化と関連付けられるように、前記センサデータを前記センサデータ内の前記人物のそれぞれの固有の表現にセグメント化し、それによって、前記センサデータ内の前記周辺環境の表現から前記人物のそれぞれの表現を区別するステップと、
(c)前記プロセッサによって、前記センサデータの各セグメント化から1つ以上の身体部分を分離するステップと、
(d)前記プロセッサによって、前記センサデータのセグメント化毎に、前記センサデータの前記個別のセグメント化の1つ以上の分離された身体部分に基づいて、前記人物の個別の表現と関連付けられる1つ以上の特徴毎の測度を判定するステップと、
(e)前記プロセッサによって、前記センサデータのセグメント化毎に、前記人物の個別の表現と関連付けられる1つ以上の特徴の判定された測度の組み合わせが、前記1人以上の着目人物のうちの1人のボディプリントに対応するかどうかを判定し、それによって、前記センサデータの個別のセグメント化を着目人物として識別するステップと、
(f)前記プロセッサによって、前記データのセグメント化が前記対応する着目人物の識別と関連付けられるように、前記1人以上の着目人物のうちの1人のボディプリントに対応する前記人物の個別の表現と関連付けられるデータのセグメント化を記憶するステップと、
を含む、方法。 - 前記プロセッサによって、前記センサデータを前記センサデータ内の前記人物のそれぞれの固有の表現にセグメント化するステップは、機械学習および/またはパターン認識技法を実施するステップを含む、請求項1に記載の方法。
- 前記プロセッサによって、前記センサデータの各セグメント化から前記1つ以上の身体部分を分離するステップは、機械学習および/またはパターン認識技法を実施するステップを含む、請求項1または2に記載の方法。
- 前記1人以上の着目人物はそれぞれ、識別のために登録される、請求項1−3のいずれか1項に記載の方法。
- 前記個別のセグメント化を識別するステップは、分類子の出力に基づく、請求項1−4のいずれか1項に記載の方法。
- 前記個別のセグメント化を識別するステップは、ルールまたはカテゴリまたはヒューリスティックに基づく、前記請求項のうちのいずれか1項に記載の方法。
- 前記1人以上の着目人物毎に、前記プロセッサによって、メモリデバイス内に、識別およびボディプリントを記憶するステップを含み、各ボディプリントは、前記1人以上の着目人物内の個別の着目人物に対してともに特有であるそれらの特徴毎の測度の範囲と組み合わせられる特徴のセットを備え、各識別は、ボディプリントと関連付けられる、前記請求項のうちのいずれか1項に記載の方法。
- 前記プロセッサによって、前記個別の1つ以上の特徴の判定された測度および各ボディプリントの特徴のセットの対応するサブセットからの測度を比較し、前記個別の1つ以上の特徴の判定された測度が、前記ボディプリントの特徴の対応するサブセットに関する測度の範囲内であるかどうかを判定するステップを含む、請求項7に記載の方法。
- 1人以下の人物、2人以下の人物、3人以下の人物、4人以下の人物、5人以下の人物、6人以下の人物、10人以下の人物、25人以下の人物、50人以下の人物、100人以下の人物が、識別のために登録される、前記請求項のうちのいずれか1項に記載の方法。
- 顔特徴が、前記センサデータから省略される、前記請求項のうちのいずれか1項に記載の方法。
- 全ての視覚データが、前記センサデータから省略される、前記請求項のうちのいずれか1項に記載の方法。
- 前記人物のうちの少なくとも1人は、「他人」として識別される、前記請求項のうちのいずれか1項に記載の方法。
- 1つ以上の身体部分を分離するステップは、前記プロセッサによって、前記データセットの特質、前記センサのタイプ、前記人物に対して利用可能な非閉塞データの量、前記センサデータのセグメント化内の身体部分の表現の可用性、着目人物に関するボディプリントの可用性、および計算のために利用可能な特徴のライブラリから成る群から選択される少なくとも1つの性質に基づいて、センサデータの各セグメント化内のどの身体部分を分離するかを判定するステップを含む、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の身体部分は、フレーム内の人物毎に異なり得る、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の測度は、面積、体積、円周、閉曲線、非閉曲線、長さ、空間的場所、角度、画像、形態/形状、強度、フィルタ処理された出力、数値的重みのセット、数学的スケーリング、数学的変換、数学的畳み込み、一般化された数学的演算、または前述のいずれかの変化率から成る群から選択される1つ以上の要素を備える、前記請求項のうちのいずれか1項に記載の方法。
- 人物毎に、測度がフレーム内の人物毎に判定されるべきである1つ以上の候補特徴のセットからサブセットを選択するステップを含む、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の特徴のうちの少なくとも1つは、任意の所与のフレームまたは一連のフレームにおいて利用不可能または算出不可能である、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の特徴はそれぞれ、1つ以上のフレームに基づいて計算される、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上のフレームは、複数の連続または非連続フレームを備える、請求項18に記載の方法。
- 前記1つ以上の特徴は、1つ以上の静的特徴を備える、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の静的特徴は、人物の身長、肩から肩までの幅、上腕、下腕、上脚、下脚、手、足、頭部、首、または胴の長さまたは幅、胴表面積、胴体積、頭部の長さ、胴の長さ、肢円周のうちの任意の2つの間の比率、頭部または鼻の体積、頭部または眼窩の円周、頭部輪郭、口、または顎の幅、頭部の上部または背部または顎の湾曲度、および眉間、鼻梁、鼻の先端、人中、下顎点、眼の瞳孔、耳の外耳道、耳介、頭頂、地面のうちの任意の2つの間の距離、身体部分の画像、身体部分の形態/形状、固有画像、固有顔、スケール不変特徴変換、配向勾配のヒストグラム、ピクセルマスク、ピクセルカウント、ボクセル体積、重心、凸多面体、3Dメッシュ、色、反射、テクスチャ、パターン、畳み込みから成る群から選択される1つ以上の要素を備える、請求項20に記載の方法。
- 前記1つ以上の静的特徴は、Convolutional Neural Networkを含むニューラルネットワークの重みおよび/または出力、Convolutional Neural Networkを含む、異なる時点におけるニューラルネットワークの重みおよび/または出力、Random Forestの重みおよび/または出力、Support Vector Machineの重みおよび/または出力、単純なベイズマシンの重みおよび/または出力、K平均クラスタリングを含むクラスタリング、教師あり学習、教師なし学習から成る群から選択される1つ以上の要素を備える、請求項20に記載の方法。
- 各特徴は、単一の身体部分の属性の測定値、または異なる身体部分の属性の測定値間の関係、または1つ以上の身体部分の属性の測定値と環境の測定値との間の関係に基づいて計算される、前記請求項のうちのいずれか1項に記載の方法。
- 前記単一の身体部分の属性は、人物の身長、上腕、下腕、上脚、下脚、手、足、頭部、首、または胴の長さまたは幅、頭部または鼻の体積、頭部または眼窩の円周、頭部輪郭、口、または顎の幅、頭部の上部または背部または顎の湾曲度から成る群から選択される1つ以上の要素を備える、請求項23に記載の方法。
- 前記異なる身体部分の属性の測定値間の関係は、胴表面積、胴体積、頭部の長さ、胴の長さ、肢円周のうちの任意の2つの間の比率、眉間、鼻梁、鼻の先端、人中、下顎点、眼の瞳孔、耳の外耳道、耳介、頭頂、地面のうちの任意の2つの間の距離を備える、請求項23または24に記載の方法。
- 前記1つ以上の特徴は、1つ以上の動的特徴を備える、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の動的特徴は、身体の方向転換の速度、歩行速度、大股で歩く間の2つの脚の間の最大距離、大股で歩く間の肩関節における回転の最大角度、右脚と左脚との間の歩幅長さの差異、車椅子の存在または不在、杖等の補助デバイスの存在または不在、衣類の色または反射の存在または不在、靴の高さ、地面に対する身体の傾斜または振りの角度、胴と脚との間の屈曲の角度、脊柱湾曲度、体温、局所的家具または壁への近接またはそれからの距離、身体のセンサからの距離、胴に対する頭部の配向、センサに対する頭部の配向、センサに対する注視の角度、眼鏡の存在または不在、帽子またはヘルメットの存在または不在、および髪の量から成る群から選択される1つ以上の要素を備える、請求項26に記載の方法。
- 前記1つ以上の動的特徴は、Convolutional Neural Networkを含むニューラルネットワークの重みおよび/または出力、Convolutional Neural Networkを含む、異なる時点におけるニューラルネットワークの重みおよび/または出力、Random Forestの重みおよび/または出力、Support Vector Machineの重みおよび/または出力、単純なベイズマシンの重みおよび/または出力、K平均クラスタリングを含むクラスタリング、教師あり学習、教師なし学習から成る群から選択される1つ以上の要素を備える、請求項26に記載の方法。
- 前記1つ以上の動的特徴はそれぞれ、1)−3)、すなわち、1)時間、空間、または他の着目測定単位にわたる単一の身体部分の属性の変動、2)時間、空間、または他の着目測定単位にわたる異なる身体部分の特徴間の関係の変動、および3)時間、空間、または他の着目測定単位にわたる前記人物の異なる身体区画に対する環境またはその関係の変動のうちの少なくとも1つに基づいて計算される、請求項26−28のうちのいずれか1項に記載の方法。
- 前記識別は、ルールイン識別である、前記請求項のうちのいずれか1項に記載の方法。
- 前記識別は、「その他」識別としても公知なルールアウトである、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の特徴は、別の人物を識別するために使用される前記1つ以上の特徴とは異なる前記センサデータ内のフレームまたはフレームのセットから捕捉される、前記請求項のうちのいずれか1項に記載の方法。
- 人物毎に、前記識別は、特徴のセットに基づいて、かつそれらの特徴毎の測度の範囲に基づいて判定され、その組み合わせられたものは、特定の人物に対して高度に特有である、前記請求項のうちのいずれか1項に記載の方法。
- 人物毎に、前記識別は、少なくとも部分的に、その識別を実施するために使用される前記1つ以上の特徴の忠実度および/または予測力に基づいて判定される、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の特徴は、利用可能なシーン、前記センサ、前記センサデータ、既知のボディプリントの前記ライブラリ、および既知かつ算出可能な特徴の前記ライブラリから成る群から選択される少なくとも1つの要素に基づいて、経時的に変動する、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の特徴および/またはボディプリントは、機械学習および/またはパターン認識技法によって自動的に計算される、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の特徴および/またはボディプリントは、手動タグ付け等の外部エージェントによって事前または事後情報として提供される、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の特徴および/またはボディプリントは、経時的に更新または修正されることができる、前記請求項のうちのいずれか1項に記載の方法。
- センサによって、センサデータを取得するステップを含み、前記センサデータは、複数のフレームを備え、各フレームは、ピクセルの2次元空間マップとして表され、各ピクセルの強度値は、前記センサからの投影距離に対応する、前記請求項のうちのいずれか1項に記載の方法。
- 前記プロセッサによって、前記1つ以上の特徴に優先順位を付けるステップを含み、前記優先順位を付けるステップは、異なるセンサ、異なる時間、異なるボディプリント、および異なる空間的場所から成る群から選択される少なくとも1つの要素を横断して特徴を集約するステップを含む、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の特徴は、同一のシーン内の人物毎に異なる、請求項40に記載の方法。
- 前記1つ以上の特徴は、同一の人物に関してであってもフレーム毎に異なる割当を有する、請求項40または41に記載の方法。
- 前記センサデータは、飛行時間光検出および測距のうちの少なくとも1つによって、または、前記シーン上に少なくとも1つのエネルギーパターンを投影し、前記パターンの変形を測定することによって取得されるデータを備える、前記請求項のうちのいずれか1項に記載の方法。
- 前記センサデータは、光または音声を使用して取得されるデータを備える、前記請求項のうちのいずれか1項に記載の方法。
- 前記センサデータは、未加工センサデータ、未加工センサデータから導出される値、および軌跡データから成る群から選択される少なくとも1つのデータタイプを備える、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上のフレームはそれぞれ、特定の瞬間に先行して、またはその時点のいずれかで取得されたデータを備える1つ以上のデータストリームから成る「スナップショット」に対応する、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上のフレームは、複数の時点において単一のセンサによって取得された複数のフレーム、または同一または異なる時点において複数のセンサによって取得された複数のフレームのうちの少なくとも1つを備える、前記請求項のうちのいずれか1項に記載の方法。
- 前記プロセッサによって、識別された人物毎に信頼性スコアを判定するステップを含む、前記請求項のうちのいずれか1項に記載の方法。
- 前記プロセッサによって、人物と関連付けられる前記センサデータのサブセットを破棄するステップを含む、前記請求項のうちのいずれか1項に記載の方法。
- 前記識別は、未知の識別を備える、前記請求項のうちのいずれか1項に記載の方法。
- 前記プロセッサによって、前記1つ以上の特徴を調節し、全ての特徴が時間的かつ/または空間的に並置されることを確実にするステップを含む、前記請求項のうちのいずれか1項に記載の方法。
- 前記1つ以上の特徴のうちの少なくとも1つは、前記センサにおける、または計算方法論におけるタイミング遅延またはバイアスを調節するために、オフセット補正される、待ち時間補正される、または空間的に並置される、前記請求項のうちのいずれか1項に記載の方法。
- 特徴の前記忠実度は、前記シーンの組成、利用されているセンサのタイプ、および取得されているデータのタイプから成る群から選択される少なくとも1つの要素に依存する、請求項34に記載の方法。
- 前記識別するステップは、前記人物が自然に動き回っている間に実施される、前記請求項のうちのいずれか1項に記載の方法。
- 前記識別するステップは、リアルタイムで、またはほぼリアルタイムで実施される、請求項54に記載の方法。
- 前記識別するステップは、遅延後に、または同じく、データ取得が起こった時間とは実質的に異なる時間に実施される、前記請求項のうちのいずれか1項に記載の方法。
- 前記識別するステップは、遡及的に実施される、前記請求項のうちのいずれか1項に記載の方法。
- 前記人物は、前記センサから、0.1メートルを上回る、0.5メートルを上回る、1メートルを上回る、2メートルを上回る、5メートルを上回る距離に位置する、前記請求項のうちのいずれか1項に記載の方法。
- センサデータから1人以上の着目人物の表現を識別するためのシステムであって、前記センサデータは、その中に人物を伴う周辺環境の表現を含有しており、前記システムは、
プロセッサと、
メモリであって、前記メモリは、その上に命令を記憶しており、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
センサデータ内の人物の各表現が、前記センサデータの個別のセグメント化と関連付けられるように、1つ以上のフレームからの前記センサデータを前記センサデータ内の前記人物のそれぞれの固有の表現にセグメント化し、それによって、前記センサデータ内の前記周辺環境の表現から前記人物のそれぞれの表現を区別することであって、前記センサデータは、人物の表現と、前記周辺環境の表現とを備え、前記人物の表現は、前記1人以上の着目人物の表現を備える、ことと、
前記センサデータの各セグメント化から1つ以上の身体部分を分離することと、
前記センサデータのセグメント化毎に、前記センサデータの前記個別のセグメント化の1つ以上の分離された身体部分に基づいて、前記人物の個別の表現と関連付けられる1つ以上の特徴毎の測度を判定することと、
前記センサデータのセグメント化毎に、前記人物の個別の表現と関連付けられる1つ以上の特徴の判定された測度の組み合わせが、前記1人以上の着目人物のうちの1人のボディプリントに対応するかどうかを判定し、それによって、前記センサデータの個別のセグメント化を着目人物として識別することと、
前記データのセグメント化が前記対応する着目人物の識別と関連付けられるように、前記1人以上の着目人物のうちの1人のボディプリントに対応する前記人物の個別の表現と関連付けられるデータのセグメント化を記憶することと
を行わせる、メモリと、
を備える、システム。 - 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、機械学習および/またはパターン認識技法を実施させ、前記センサデータを前記センサデータ内の前記人物のそれぞれの固有の表現にセグメント化させる、請求項59に記載のシステム。
- 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、機械学習および/またはパターン認識技法を実施させ、前記センサデータの各セグメント化から前記1つ以上の身体部分を分離させる、請求項59または60に記載のシステム。
- 前記1人以上の着目人物はそれぞれ、識別のために登録される、請求項59−61のいずれか1項に記載のシステム。
- 前記個別のセグメント化を識別するステップは、分類子の出力に基づく、請求項59−62のいずれか1項に記載のシステム。
- 前記個別のセグメント化を識別するステップは、ルールまたはカテゴリまたはヒューリスティックに基づく、請求項59−63のうちのいずれか1項に記載のシステム。
- 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、前記1人以上の着目人物毎に、メモリデバイス内に、識別およびボディプリントを記憶させ、各ボディプリントは、前記1人以上の着目人物内の個別の着目人物に対してともに特有であるそれらの特徴毎の測度の範囲と組み合わせられる特徴のセットを備え、各識別は、ボディプリントと関連付けられる、請求項59−64のうちのいずれか1項に記載のシステム。
- 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、前記個別の1つ以上の特徴の判定された測度および各ボディプリントの特徴のセットの対応するサブセットからの測度を比較させ、前記個別の1つ以上の特徴の判定された測度が、前記ボディプリントの特徴の対応するサブセットに関する測度の範囲内であるかどうかを判定させる、請求項65に記載のシステム。
- 1人以下の人物、2人以下の人物、3人以下の人物、4人以下の人物、5人以下の人物、6人以下の人物、10人以下の人物、25人以下の人物、50人以下の人物、100人以下の人物が、識別のために登録される、請求項59−66のうちのいずれか1項に記載のシステム。
- 顔特徴が、前記センサデータから省略される、請求項59−67のうちのいずれか1項に記載のシステム。
- 全ての視覚データが、前記センサデータから省略される、請求項59−68のうちのいずれか1項に記載のシステム。
- 前記人物のうちの少なくとも1人は、「他人」として識別される、請求項59−69のうちのいずれか1項に記載のシステム。
- 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、前記データセットの特質、前記センサのタイプ、前記人物に対して利用可能な非閉塞データの量、前記センサデータのセグメント化内の身体部分の表現の可用性、着目人物に関するボディプリントの可用性、および計算のために利用可能な特徴のライブラリから成る群から選択される少なくとも1つの性質に基づいて、センサデータの各セグメント化内のどの身体部分を分離するかを判定させる、請求項59−70のうちのいずれか1項に記載のシステム。
- 分離される前記1つ以上の身体部分は、フレーム内の人物毎に異なり得る、請求項59−71のうちのいずれか1項に記載のシステム。
- 前記1つ以上の特徴の前記1つ以上の測度はそれぞれ、面積、体積、円周、閉曲線、非閉曲線、長さ、空間的場所、角度、画像、形態/形状、強度、フィルタ処理された出力、数値的重みのセット、数学的スケーリング、数学的変換、数学的畳み込み、一般化された数学的演算、または前述のいずれかの変化率から成る群から選択される1つ以上の要素を備える、請求項59−72のうちのいずれか1項に記載のシステム。
- 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、人物毎に、どの特徴がフレーム内の人物毎に計算され得、計算されるべきかを判定させる、請求項59−73のうちのいずれか1項に記載のシステム。
- 前記1つ以上の特徴のうちの少なくとも1つは、任意の所与のフレームまたは一連のフレームにおいて利用不可能または算出不可能である、請求項59−74のうちのいずれか1項に記載のシステム。
- 前記1つ以上の特徴はそれぞれ、1つ以上のフレームに基づいて計算される、請求項59−75のうちのいずれか1項に記載のシステム。
- 前記1つ以上のフレームは、複数の連続または非連続フレームを備える、請求項76に記載のシステム。
- 前記1つ以上の特徴は、1つ以上の静的特徴を備える、請求項59−77のうちのいずれか1項に記載のシステム。
- 前記1つ以上の静的特徴は、人物の身長、肩から肩までの幅、上腕、下腕、上脚、下脚、手、足、頭部、首、または胴の長さまたは幅、胴表面積、胴体積、頭部の長さ、胴の長さ、肢円周のうちの任意の2つの間の比率、頭部または鼻の体積、頭部または眼窩の円周、頭部輪郭、口、または顎の幅、頭部の上部または背部または顎の湾曲度、および眉間、鼻梁、鼻の先端、人中、下顎点、眼の瞳孔、耳の外耳道、耳介、頭頂、地面のうちの任意の2つの間の距離、身体部分の画像、身体部分の形態/形状、固有画像、固有顔、スケール不変特徴変換、配向勾配のヒストグラム、ピクセルマスク、ピクセルカウント、ボクセル体積、重心、凸多面体、3Dメッシュ、色、反射、テクスチャ、パターン、畳み込みから成る群から選択される1つ以上の要素を備える、請求項78に記載のシステム。
- 前記1つ以上の静的特徴は、Convolutional Neural Networkを含むニューラルネットワークの重みおよび/または出力、Convolutional Neural Networkを含む、異なる時点におけるニューラルネットワークの重みおよび/または出力、Random Forestの重みおよび/または出力、Support Vector Machineの重みおよび/または出力、単純なベイズマシンの重みおよび/または出力、K平均クラスタリングを含むクラスタリング、教師あり学習、教師なし学習から成る群から選択される1つ以上の要素を備える、請求項78に記載のシステム。
- 前記1つ以上の特徴はそれぞれ、単一の身体部分の属性の測定値、または異なる身体部分の属性の測定値間の関係、または1つ以上の身体部分の属性の測定値と環境の測定値との間の関係に基づいて計算される、請求項59−80のうちのいずれか1項に記載のシステム。
- 前記単一の身体部分の属性は、人物の身長、上腕、下腕、上脚、下脚、手、足、頭部、首、または胴の長さまたは幅、頭部または鼻の体積、頭部または眼窩の円周、頭部輪郭、口、または顎の幅、頭部の上部または背部または顎の湾曲度から成る群から選択される1つ以上の要素を備える、請求項81に記載のシステム。
- 前記異なる身体部分の属性の測定値間の関係は、胴表面積、胴体積、頭部の長さ、胴の長さ、肢円周のうちの任意の2つの間の比率、眉間、鼻梁、鼻の先端、人中、下顎点、眼の瞳孔、耳の外耳道、耳介、頭頂、地面のうちの任意の2つの間の距離を備える、請求項81または82に記載のシステム。
- 前記1つ以上の特徴は、1つ以上の動的特徴を備える、請求項59−83のうちのいずれか1項に記載のシステム。
- 前記1つ以上の動的特徴は、身体の方向転換の速度、歩行速度、大股で歩く間の2つの脚の間の最大距離、大股で歩く間の肩関節における回転の最大角度、右脚と左脚との間の歩幅長さの差異、車椅子の存在または不在、杖等の補助デバイスの存在または不在、衣類の色または反射の存在または不在、靴の高さ、地面に対する身体の傾斜または振りの角度、胴と脚との間の屈曲の角度、脊柱湾曲度、体温、局所的家具または壁への近接またはそれからの距離、身体のセンサからの距離、胴に対する頭部の配向、センサに対する頭部の配向、センサに対する注視の角度、眼鏡の存在または不在、帽子またはヘルメットの存在または不在、および髪の量から成る群から選択される1つ以上の要素を備える、請求項84に記載のシステム。
- 前記1つ以上の動的特徴は、Convolutional Neural Networkを含むニューラルネットワークの重みおよび/または出力、Convolutional Neural Networkを含む、異なる時点におけるニューラルネットワークの重みおよび/または出力、Random Forestの重みおよび/または出力、Support Vector Machineの重みおよび/または出力、単純なベイズマシンの重みおよび/または出力、K平均クラスタリングを含むクラスタリング、教師あり学習、教師なし学習から成る群から選択される1つ以上の要素を備える、請求項84に記載のシステム。
- 前記1つ以上の動的特徴はそれぞれ、1)−3)、すなわち、1)時間、空間、または他の着目測定単位にわたる単一の身体部分の属性の変動、2)時間、空間、または他の着目測定単位にわたる異なる身体部分の特徴間の関係の変動、および3)時間、空間、または他の着目測定単位にわたる前記人物の異なる身体区画に対する環境またはその関係の変動のうちの少なくとも1つに基づいて計算される、請求項84−86のうちのいずれか1項に記載のシステム。
- 前記識別は、ルールイン識別である、請求項59−87のうちのいずれか1項に記載のシステム。
- 前記識別は、「その他」識別としても公知なルールアウトである、請求項59−88のうちのいずれか1項に記載のシステム。
- 前記1つ以上の特徴は、別の人物を識別するために使用される前記1つ以上の特徴とは異なる前記センサデータ内のフレームまたはフレームのセットから捕捉される、請求項59−89のうちのいずれか1項に記載のシステム。
- 人物毎に、前記識別は、特徴のセットに基づいて、かつそれらの特徴毎の測度の範囲に基づいて判定され、その組み合わせられたものは、特定の人物に対して高度に特有である、請求項59−90のうちのいずれか1項に記載のシステム。
- 前記識別は、少なくとも部分的に、その識別を実施するために使用される前記1つ以上の特徴の忠実度および/または予測力に基づいて判定される、請求項59−91のうちのいずれか1項に記載のシステム。
- 前記1つ以上の特徴は、利用可能なシーン、前記センサ、前記センサデータ、既知のボディプリントの前記ライブラリ、および既知かつ算出可能な特徴の前記ライブラリから成る群から選択される少なくとも1つの要素に基づいて、経時的に変動する、請求項59−92のうちのいずれか1項に記載のシステム。
- 前記1つ以上の特徴および/またはボディプリントは、機械学習またはパターン認識技法によって自動的に計算される、請求項59−93のうちのいずれか1項に記載のシステム。
- 前記1つ以上の特徴および/またはボディプリントは、手動タグ付け等の外部エージェントによって事前または事後情報として提供される、請求項59−94のうちのいずれか1項に記載のシステム。
- 前記1つ以上の特徴および/またはボディプリントは、経時的に更新または修正されることができる、請求項59−95のうちのいずれか1項に記載のシステム。
- 前記センサデータは、センサによって取得され、前記センサデータは、複数のフレームを備え、各フレームは、ピクセルの2次元空間マップとして表され、各ピクセルの強度値は、前記センサからの投影距離に対応する、請求項59−96のうちのいずれか1項に記載のシステム。
- 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、前記1つ以上の特徴に優先順位を付けさせ、それによって、異なるセンサ、異なる時間、異なるボディプリント、および異なる空間的場所から成る群から選択される少なくとも1つの要素を横断して特徴を集約させる、請求項59−97のうちのいずれか1項に記載のシステム。
- 前記1つ以上の特徴は、同一のシーン内の人物毎に異なる、請求項98に記載のシステム。
- 前記1つ以上の特徴は、同一の人物に関してであってもフレーム毎に異なる割当を有する、請求項98または99に記載のシステム。
- 前記センサデータは、飛行時間光検出および測距のうちの少なくとも1つによって、または、前記シーン上に少なくとも1つのエネルギーパターンを投影し、前記パターンの変形を測定することによって取得されるデータを備える、請求項59−100のうちのいずれか1項に記載のシステム。
- 前記センサデータは、光または音声を使用して取得されるデータを備える、請求項59−101のうちのいずれか1項に記載のシステム。
- 前記センサデータは、未加工センサデータ、未加工センサデータから導出される値、または軌跡データから成る群から選択される少なくとも1つのデータタイプを備える、請求項59−102のうちのいずれか1項に記載のシステム。
- 前記1つ以上のフレームはそれぞれ、特定の瞬間に先行して、またはその時点のいずれかで取得されたデータを備える1つ以上のデータストリームから成る「スナップショット」に対応する、請求項59−103のうちのいずれか1項に記載のシステム。
- 前記1つ以上のフレームは、複数の時点において単一のセンサによって取得された複数のフレーム、または同一または異なる時点において複数のセンサによって取得された複数のフレームのうちの少なくとも1つを備える、請求項59−104のうちのいずれか1項に記載のシステム。
- 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、識別された人物毎に信頼性スコアを判定させる、請求項59−105のうちのいずれか1項に記載のシステム。
- 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、人物と関連付けられる前記センサデータのサブセットを破棄させる、請求項59−106のうちのいずれか1項に記載のシステム。
- 前記識別は、未知の識別を備える、請求項59−107のうちのいずれか1項に記載のシステム。
- 前記命令は、前記プロセッサによって実行されると、前記プロセッサに、前記1つ以上の特徴を調節させ、全ての特徴が時間的かつ/または空間的に並置されることを確実にさせる、請求項59−108のうちのいずれか1項に記載のシステム。
- 前記1つ以上の特徴のうちの少なくとも1つは、前記センサにおける、または計算方法論におけるタイミング遅延またはバイアスを調節するために、オフセット補正される、待ち時間補正される、または空間的に並置される、請求項59−109のうちのいずれか1項に記載のシステム。
- 特徴の前記忠実度は、前記シーンの組成、利用されているセンサのタイプ、および取得されているデータのタイプから成る群から選択される少なくとも1つの要素に依存する、請求項92に記載のシステム。
- 前記個別のセグメント化を識別するステップは、前記人物が自然に動き回っている間に実施される、請求項59−111のうちのいずれか1項に記載のシステム。
- 前記個別のセグメント化を識別するステップは、リアルタイムで、またはほぼリアルタイムで実施される、請求項112に記載のシステム。
- 前記個別のセグメント化を識別するステップは、遅延後に、または同じく、データ取得が起こった時間とは実質的に異なる時間に実施される、請求項59−113のうちのいずれか1項に記載のシステム。
- 前記個別のセグメント化を識別するステップは、遡及的に実施される、請求項59−114のうちのいずれか1項に記載のシステム。
- 前記人物は、前記センサから、0.1メートルを上回る、0.5メートルを上回る、1メートルを上回る、2メートルを上回る、5メートルを上回る距離に位置する、請求項59−115のうちのいずれか1項に記載のシステム。
- 少なくとも部分的に、奥行きデータに基づいて、センサ場内の事前登録された人間個人の離散セットのうちの1つのリアルタイムまたはほぼリアルタイムの識別の方法であって、前記方法は、
コンピューティングデバイスのプロセッサによって、少なくとも部分的に、前記1つ以上のセンサによって取得された奥行きデータに基づいて、前記センサ場内で検出された人間に特徴的な複数の特徴のそれぞれを定量化するステップと、
前記プロセッサによって、前記センサ場内で検出された人間に関する定量化された複数の特徴に基づいて、1つ以上のボディプリントを定量化するステップと、
前記プロセッサによって、リアルタイムまたはほぼリアルタイムで、少なくとも部分的に、前記1つ以上のボディプリントに基づいて、事前登録された人間個人のセット間から前記センサ場内で検出された人間を肯定的に識別するステップと、
を含む、方法。 - 少なくとも部分的に、前記1つ以上のボディプリントに基づいて、前記肯定的に識別された個人が従事する活動を判定するステップを含む、請求項117に記載の方法。
- 前記人間を肯定的に識別するステップは、奥行きデータに対して排他的に実施される、請求項117または118に記載の方法。
- 前記奥行きデータは、1つ以上のセンサによって取得される1つ以上の奥行きマップを備える、請求項117−119のいずれか1項に記載の方法。
- 前記奥行きデータは、視覚画像を備えていない、請求項117−120のいずれか1項に記載の方法。
- 前記人間を肯定的に識別するステップは、写真静止またはビデオ画像の使用を伴わずに遂行され、それによって、前記個人の個人的プライバシーを保護する、請求項117−121のうちのいずれか1項に記載の方法。
- 前記複数の特徴は、少なくとも1つの静的特徴および/または少なくとも1つの動的特徴を備える、請求項117−122のうちのいずれか1項に記載の方法。
- 前記事前登録された人間個人のセットは、100人以下の、50人以下の、25人以下の、10人以下の、6人以下の、5人以下の、4人以下の、3人以下の、2人以下の、または1人以下の人間個人を備える、請求項117−123のうちのいずれか1項に記載の方法。
- 前記人間は、少なくとも80%、少なくとも90%、少なくとも95%、または少なくとも99%の信頼性とともに肯定的に識別される、請求項117−124のうちのいずれか1項に記載の方法。
- 前記プロセッサによって、前記センサ場内で検出された前記肯定的に識別された人間の名前を表示し、随意に、前記肯定的に識別された個人が従事する前記判定された活動のグラフィカルインジケーションを表示するステップを含む、請求項117−125のうちのいずれか1項に記載の方法。
- 人物の身体的測定値を介して前記人物の痛み、疲労、気分、および意図のうちの少なくとも1つを識別および/または定量化する方法であって、前記方法は、
コンピューティングデバイスのプロセッサによって、センサによって取得されるセンサデータを備えるデータセットを受信するステップと、
前記プロセッサによって、前記データセットに基づいて、前記人物の移動、活動、および挙動から成る群から選択される少なくとも1つの要素を特性評価するステップであって、前記特性評価するステップは、
前記データセット内に表される1人以上の人物を、相互に、かつ前記データセット内に表される環境物体からセグメント化するステップと、
前記1人以上のセグメント化された人物のうちの少なくとも1人の少なくとも1つの特徴を計算するステップと、
前記少なくとも1つの特徴をある関係と相関させることに基づいて、結論を判定するステップと、
を含む、ステップと、
前記プロセッサによって、前記結論を出力するステップと、
を含む、方法。 - 前記データセット内に表される1人以上の人物をセグメント化するステップは、機械学習および/またはパターン認識技法を実施するステップを含む、請求項127に記載の方法。
- 前記関係は、学習された関係である、請求項127または128に記載の方法。
- 前記少なくとも1つの特徴は、直接測定値である身体的測定値を備える、請求項127−129のうちのいずれか1項に記載の方法。
- 前記少なくとも1つの特徴は、間接的測定値である身体的測定値を備える、請求項127−130のうちのいずれか1項に記載の方法。
- 前記結論は、不完全な測定値に基づく、請求項127−131のうちのいずれか1項に記載の方法。
- 前記少なくとも1つの特徴は、非連続、非隣接、不完全、一貫性のない、非逐次のうちの少なくとも1つである前記データセット内の測定値に基づく、請求項127−132のうちのいずれか1項に記載の方法。
- 前記結論は、いくつかの異なるタイプおよび組み合わせの特徴の統合に基づく、請求項127−133のうちのいずれか1項に記載の方法。
- 前記データセット内のセンサデータは、センサから直接取得される、および/または付加的処理を受けている、請求項127−134のうちのいずれか1項に記載の方法。
- 前記データセットは、1つ以上のフレームを備える、請求項127に記載の方法。
- 前記1つ以上のフレームの各フレームは、特定の瞬間に先行して、またはその時点のいずれかで取得されたデータを備える1つ以上のデータストリームのスナップショットに対応する、請求項136に記載の方法。
- 前記1つ以上のフレームは、複数の時点において単一のセンサによって捕捉される、および/または複数のセンサによって捕捉される、請求項136に記載の方法。
- 前記データセットは、略リアルタイムで取得される、バッチモードで取得される、またはデータベース内に以前に記憶されたデータから取得される、請求項127−138のうちのいずれか1項に記載の方法。
- 非プライベートであると判定されたデータのタイプを破棄するステップを含む、請求項127−139のうちのいずれか1項に記載の方法。
- 前記プロセッサによって、後続分析のために前記データセットを事前処理するステップを含み、前記事前処理するステップは、前記データセットをフィルタ処理するステップ、条件付けするステップ、クリーニングするステップ、および正規化するステップから成る群から選択される1つ以上のステップを含む、請求項127−140のうちのいずれか1項に記載の方法。
- 前記プロセッサによって、後続分析のために前記データセットを事前処理するステップを含み、前記事前処理するステップは、前記データセットからの未加工データまたは計算された特徴に対して実施される、請求項127−141のうちのいずれか1項に記載の方法。
- 前記セグメント化するステップは、前記セグメント化された人物の識別に関するいずれの情報も伴わずに実施される、請求項127−142のうちのいずれか1項に記載の方法。
- セグメント化した後、計算された特徴を具体的個人と関連付けるために、前記1人以上のセグメント化された人物毎に標識を判定するステップを含む、請求項127−143のうちのいずれか1項に記載の方法。
- 前記少なくとも1つの特徴は、肢長さ、足サイズ、頭部形状、身長、身体割合、身体体積、音声周波数スペクトル、声量、歩幅長さ、視野内の場所、および腕を上げる速度から成る群から選択される少なくとも1つの要素を備える、請求項127−144のうちのいずれか1項に記載の方法。
- 前記プロセッサによって、機械学習および/またはパターン認識技法を使用して、前記少なくとも1つの特徴を自動的に計算するステップを含む、請求項127−145のうちのいずれか1項に記載の方法。
- 前記少なくとも1つの特徴を計算するステップは、前記具体的特徴の可用性および前記出力される結論に関する関連度のうちの少なくとも1つに基づいて、中断される、請求項127−146のうちのいずれか1項に記載の方法。
- 前記プロセッサによって、前記データセットに基づいて、移動、活動、または挙動の所望の特性を判定するステップは、セグメント化する前に、前記プロセッサによって、後続分析のために前記データセットを事前処理するステップを含む、請求項127−147のうちのいずれか1項に記載の方法。
- 前記関係は、事前判定される、請求項127−148のうちのいずれか1項に記載の方法。
- 前記学習された関係は、グラウンドトゥルースに基づく、請求項128に記載の方法。
- 人物の身体的測定値を介して前記人物の痛み、疲労、気分、および意図のうちの少なくとも1つを識別および/または定量化するためのシステムであって、前記システムは、
前記人物に対応するデータを取得するための、センサと、
プロセッサと、
メモリであって、前記メモリは、その上に記憶される命令を有しており、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
センサによって取得されるセンサデータを備えるデータセットを受信することと、
前記データセットに基づいて、
前記データセット内に表される1人以上の人物を、相互に、かつ前記データセット内に表される環境物体からセグメント化するステップと、
前記1人以上のセグメント化された人物のうちの少なくとも1人の少なくとも1つの特徴を計算するステップと、
前記少なくとも1つの特徴をある関係と相関させることに基づいて、前記人物の結論を判定するステップと、
によって、前記人物の移動、活動、および挙動のうちの少なくとも1つを特性評価させることと、
前記結論を出力することと
を行わせる、メモリと、
を備える、システム。 - 前記データセット内に表される1人以上の人物をセグメント化するステップは、機械学習および/またはパターン認識技法を実施するステップを含む、請求項151に記載のシステム。
- 前記センサデータを取得するために、赤外線飛行時間センサをさらに備える、請求項59−116のうちのいずれか1項に記載のシステム。
- ディスプレイと、前記プロセッサおよびメモリのための筐体とをさらに備える、請求項59−116または153のうちのいずれか1項に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662370083P | 2016-08-02 | 2016-08-02 | |
US62/370,083 | 2016-08-02 | ||
US201662438229P | 2016-12-22 | 2016-12-22 | |
US62/438,229 | 2016-12-22 | ||
PCT/US2017/044936 WO2018026838A1 (en) | 2016-08-02 | 2017-08-01 | Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021215383A Division JP2022058471A (ja) | 2016-08-02 | 2021-12-29 | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019532532A true JP2019532532A (ja) | 2019-11-07 |
JP2019532532A5 JP2019532532A5 (ja) | 2020-09-10 |
JP7083809B2 JP7083809B2 (ja) | 2022-06-13 |
Family
ID=61069497
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019504817A Active JP7083809B2 (ja) | 2016-08-02 | 2017-08-01 | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 |
JP2021215383A Pending JP2022058471A (ja) | 2016-08-02 | 2021-12-29 | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021215383A Pending JP2022058471A (ja) | 2016-08-02 | 2021-12-29 | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11017901B2 (ja) |
EP (1) | EP3494428A4 (ja) |
JP (2) | JP7083809B2 (ja) |
CN (2) | CN113903455A (ja) |
WO (1) | WO2018026838A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022542199A (ja) * | 2020-06-30 | 2022-09-30 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | キーポイントの検出方法、装置、電子機器および記憶媒体 |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10489661B1 (en) * | 2016-03-08 | 2019-11-26 | Ocuvera LLC | Medical environment monitoring system |
US11017901B2 (en) | 2016-08-02 | 2021-05-25 | Atlas5D, Inc. | Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy |
CN107865473B (zh) * | 2016-09-26 | 2019-10-25 | 华硕电脑股份有限公司 | 人体特征测距装置及其测距方法 |
US10679046B1 (en) * | 2016-11-29 | 2020-06-09 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Machine learning systems and methods of estimating body shape from images |
EP3566078A1 (en) * | 2017-01-03 | 2019-11-13 | Innoviz Technologies Ltd. | Lidar systems and methods for detection and classification of objects |
TWI604332B (zh) * | 2017-03-24 | 2017-11-01 | 緯創資通股份有限公司 | 遠距離的身份辨識方法及其系統與電腦可讀取記錄媒體 |
US10832817B2 (en) * | 2017-04-10 | 2020-11-10 | International Business Machines Corporation | Cognitive passive health monitoring |
SG11201908010YA (en) * | 2017-04-28 | 2019-09-27 | Hitachi Int Electric Inc | Image monitoring system |
US10943088B2 (en) * | 2017-06-14 | 2021-03-09 | Target Brands, Inc. | Volumetric modeling to identify image areas for pattern recognition |
US20190272466A1 (en) * | 2018-03-02 | 2019-09-05 | University Of Southern California | Expert-driven, technology-facilitated intervention system for improving interpersonal relationships |
KR102481883B1 (ko) * | 2017-09-27 | 2022-12-27 | 삼성전자주식회사 | 위험 상황을 감지하는 방법 및 장치 |
WO2019090274A1 (en) * | 2017-11-03 | 2019-05-09 | Drishti Technologies, Inc. | Workspace actor selection systems and methods |
US10460512B2 (en) * | 2017-11-07 | 2019-10-29 | Microsoft Technology Licensing, Llc | 3D skeletonization using truncated epipolar lines |
DE102017126553A1 (de) * | 2017-11-13 | 2019-05-16 | Iris-Gmbh Infrared & Intelligent Sensors | Erfassungssystem |
US10778412B2 (en) | 2017-12-28 | 2020-09-15 | Intel Corporation | Multi-domain convolutional neural network |
US20190034716A1 (en) * | 2017-12-28 | 2019-01-31 | Intel Corporation | Privacy-preserving demographics identification |
US20200026943A1 (en) * | 2018-07-17 | 2020-01-23 | Vidit, LLC | System and method for identification and prioritization of one or more attributes in an image |
US11588902B2 (en) | 2018-07-24 | 2023-02-21 | Newton Howard | Intelligent reasoning framework for user intent extraction |
CN110942479A (zh) * | 2018-09-25 | 2020-03-31 | Oppo广东移动通信有限公司 | 虚拟对象控制方法、存储介质及电子设备 |
EP3881125A4 (en) * | 2018-11-15 | 2022-08-31 | Magic Leap, Inc. | SYSTEMS AND METHODS FOR PERFORMING SELF-IMPROVING VISUAL ODOMETRY |
US11443291B2 (en) | 2018-12-05 | 2022-09-13 | AiFi Inc. | Tracking product items in an automated-checkout store |
US11393213B2 (en) * | 2018-12-05 | 2022-07-19 | AiFi Inc. | Tracking persons in an automated-checkout store |
US11373160B2 (en) | 2018-12-05 | 2022-06-28 | AiFi Inc. | Monitoring shopping activities using weight data in a store |
CN111291746A (zh) * | 2018-12-06 | 2020-06-16 | 宏达国际电子股份有限公司 | 影像处理系统及影像处理方法 |
CN109870250A (zh) * | 2019-01-27 | 2019-06-11 | 武汉星巡智能科技有限公司 | 区域异常体温监测方法、装置及计算机可读存储介质 |
EP3953901A4 (en) * | 2019-04-12 | 2023-01-04 | Univ Iowa Res Found | SYSTEM AND METHOD FOR PREDICTING, PREVENTING AND MITIGATING WORKPLACE INJURY |
TWI704499B (zh) | 2019-07-25 | 2020-09-11 | 和碩聯合科技股份有限公司 | 關節點偵測方法及裝置 |
US20220285015A1 (en) * | 2019-08-06 | 2022-09-08 | University Of Miami | Artificial intelligence for evaluating patient distress using facial emotion recognition |
CN114375177A (zh) * | 2019-09-01 | 2022-04-19 | Lg电子株式会社 | 身体测量装置及其控制方法 |
CN110717461A (zh) * | 2019-10-12 | 2020-01-21 | 广东电网有限责任公司 | 一种疲劳状态识别方法、装置和设备 |
WO2021179230A1 (zh) * | 2020-03-12 | 2021-09-16 | 南方科技大学 | 一种脊柱侧弯检测模型的生成方法和计算机设备 |
CN111507231A (zh) * | 2020-04-10 | 2020-08-07 | 三一重工股份有限公司 | 工序步骤正确性自动化检测方法和系统 |
IT202000013279A1 (it) * | 2020-06-04 | 2021-12-04 | Grottini Lab S R L | Sistema di re-identificazione di una o più persone in un ambiente pubblico e/o privato |
CN111938670B (zh) * | 2020-06-30 | 2022-07-05 | 齐鲁工业大学 | 基于人体骨架运动学特征信息的抑郁症识别方法及系统 |
CN112422637B (zh) * | 2020-07-07 | 2022-10-14 | 德能森智能科技(成都)有限公司 | 一种基于隐私管理的家居管理系统及疫情管理系统 |
WO2022056013A1 (en) * | 2020-09-08 | 2022-03-17 | Kang Zhang | Artificial intelligence for detecting a medical condition using facial images |
CN112331337B (zh) * | 2021-01-04 | 2021-04-16 | 中国科学院自动化研究所 | 自动抑郁检测方法、装置、设备 |
US20220300969A1 (en) * | 2021-03-16 | 2022-09-22 | Toshiba Global Commerce Solutions Holdings Corporation | Dynamically-tunable interventions for user transactions |
CN112818967B (zh) * | 2021-04-16 | 2021-07-09 | 杭州魔点科技有限公司 | 基于人脸识别和头肩重识别的儿童身份识别方法 |
US11586524B1 (en) * | 2021-04-16 | 2023-02-21 | Vignet Incorporated | Assisting researchers to identify opportunities for new sub-studies in digital health research and decentralized clinical trials |
US11281553B1 (en) | 2021-04-16 | 2022-03-22 | Vignet Incorporated | Digital systems for enrolling participants in health research and decentralized clinical trials |
US11475757B1 (en) * | 2021-05-18 | 2022-10-18 | Stmicroelectronics S.R.L. | Context-aware system and method for IR sensing |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012115570A (ja) * | 2010-12-02 | 2012-06-21 | Panasonic Corp | 通過者識別装置 |
JP2015061577A (ja) * | 2013-01-18 | 2015-04-02 | 株式会社東芝 | 動作情報処理装置 |
Family Cites Families (80)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS56115904A (en) | 1980-02-19 | 1981-09-11 | Unitika Ltd | Automatic measuring method for size of human body and device therefor |
US7415126B2 (en) | 1992-05-05 | 2008-08-19 | Automotive Technologies International Inc. | Occupant sensing system |
US5815411A (en) | 1993-09-10 | 1998-09-29 | Criticom Corporation | Electro-optic vision system which exploits position and attitude |
GB2351426A (en) | 1999-06-24 | 2000-12-27 | Stephen James Crampton | Method and apparatus for the generation of computer graphic representations of individuals |
US7584122B2 (en) | 2001-03-08 | 2009-09-01 | Saint Laurie Ltd. | System and method for fitting clothing |
US7440590B1 (en) | 2002-05-21 | 2008-10-21 | University Of Kentucky Research Foundation | System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns |
US7174033B2 (en) | 2002-05-22 | 2007-02-06 | A4Vision | Methods and systems for detecting and recognizing an object based on 3D image data |
US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
US7831087B2 (en) | 2003-10-31 | 2010-11-09 | Hewlett-Packard Development Company, L.P. | Method for visual-based recognition of an object |
JP2005242759A (ja) * | 2004-02-27 | 2005-09-08 | National Institute Of Information & Communication Technology | 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
WO2006013765A1 (ja) | 2004-08-03 | 2006-02-09 | Matsushita Electric Industrial Co., Ltd. | 人物判定装置及び人物検索追跡装置 |
JP4319628B2 (ja) * | 2005-01-07 | 2009-08-26 | 株式会社国際電気通信基礎技術研究所 | 対象物姿勢推定装置 |
JP4622702B2 (ja) * | 2005-05-27 | 2011-02-02 | 株式会社日立製作所 | 映像監視装置 |
JP2007226726A (ja) * | 2006-02-27 | 2007-09-06 | Toyota Motor Corp | 熱画像処理装置 |
US20070229850A1 (en) | 2006-04-04 | 2007-10-04 | Boxternal Logics, Llc | System and method for three-dimensional image capture |
US9696808B2 (en) | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
EP2584494A3 (en) | 2006-08-03 | 2015-02-11 | Alterface S.A. | Method and device for identifying and extracting images of multiple users, and for recognizing user gestures |
JP2008046691A (ja) * | 2006-08-10 | 2008-02-28 | Fuji Xerox Co Ltd | 顔画像処理装置及びコンピュータのプログラム |
GB0616293D0 (en) | 2006-08-16 | 2006-09-27 | Imp Innovations Ltd | Method of image processing |
US8269834B2 (en) | 2007-01-12 | 2012-09-18 | International Business Machines Corporation | Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream |
US9402558B2 (en) * | 2007-04-05 | 2016-08-02 | New York University | System and method for pain detection and computation of a pain quantification index |
US8811692B2 (en) | 2007-04-17 | 2014-08-19 | Francine J. Prokoski | System and method for using three dimensional infrared imaging for libraries of standardized medical imagery |
JP2009166783A (ja) * | 2008-01-18 | 2009-07-30 | Toyota Motor Corp | 症状推定装置 |
WO2009111886A1 (en) | 2008-03-14 | 2009-09-17 | Stresscam Operations & Systems Ltd. | Assessment of medical conditions by determining mobility |
US8456517B2 (en) | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
AU2009281762A1 (en) | 2008-08-15 | 2010-02-18 | Brown University | Method and apparatus for estimating body shape |
JP5322712B2 (ja) * | 2009-03-12 | 2013-10-23 | 広輔 宮▲崎▼ | 施設の利用情報の案内方法、情報配信サーバ、画像送信装置、そのためのコンピュータプログラム及びその記録媒体 |
US8611604B2 (en) | 2009-06-03 | 2013-12-17 | Chubu University Educational Foundation | Object detection device |
US8565479B2 (en) | 2009-08-13 | 2013-10-22 | Primesense Ltd. | Extraction of skeletons from 3D maps |
US8659658B2 (en) | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
US8994790B2 (en) | 2010-02-25 | 2015-03-31 | The Board Of Trustees Of The Leland Stanford Junior University | Motion capture with low input data constraints |
US8611670B2 (en) | 2010-02-25 | 2013-12-17 | The Board Of Trustees Of The Leland Stanford Junior University | Intelligent part identification for use with scene characterization or motion capture |
US8787663B2 (en) | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
US8982182B2 (en) | 2010-03-01 | 2015-03-17 | Apple Inc. | Non-uniform spatial resource allocation for depth mapping |
US8751049B2 (en) | 2010-05-24 | 2014-06-10 | Massachusetts Institute Of Technology | Kinetic input/output |
US8633942B2 (en) | 2010-06-07 | 2014-01-21 | Microsoft Corporation | View generation using interpolated values |
US10702216B2 (en) | 2010-06-08 | 2020-07-07 | Styku, LLC | Method and system for body scanning and display of biometric data |
JP5685837B2 (ja) | 2010-06-15 | 2015-03-18 | ソニー株式会社 | ジェスチャ認識装置、ジェスチャ認識方法およびプログラム |
US8639020B1 (en) | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
US8792722B2 (en) | 2010-08-02 | 2014-07-29 | Sony Corporation | Hand gesture detection |
JP5730518B2 (ja) * | 2010-08-27 | 2015-06-10 | 株式会社日立国際電気 | 特定人物検知システムおよび特定人物検知方法 |
US20130163879A1 (en) | 2010-08-30 | 2013-06-27 | Bk-Imaging Ltd. | Method and system for extracting three-dimensional information |
US8613666B2 (en) | 2010-08-31 | 2013-12-24 | Microsoft Corporation | User selection and navigation based on looped motions |
JP2012098771A (ja) | 2010-10-29 | 2012-05-24 | Sony Corp | 画像処理装置および方法、並びに、プログラム |
WO2012075298A2 (en) | 2010-12-01 | 2012-06-07 | Cornell University | Body shape analysis method and system |
JP5617581B2 (ja) | 2010-12-08 | 2014-11-05 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体 |
US8448056B2 (en) | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
US9501919B2 (en) | 2011-03-11 | 2016-11-22 | Elisabeth Laett | Method and system for monitoring the activity of a subject within spatial temporal and/or behavioral parameters |
US8605992B2 (en) | 2011-04-08 | 2013-12-10 | Microsoft Corporation | Image completion using scene geometry |
US8406470B2 (en) | 2011-04-19 | 2013-03-26 | Mitsubishi Electric Research Laboratories, Inc. | Object detection in depth images |
CN102819725A (zh) | 2011-06-07 | 2012-12-12 | 鸿富锦精密工业(深圳)有限公司 | 疲劳状态检测系统及方法 |
US10007330B2 (en) | 2011-06-21 | 2018-06-26 | Microsoft Technology Licensing, Llc | Region of interest segmentation |
US9615746B2 (en) | 2011-07-05 | 2017-04-11 | Saudi Arabian Oil Company | Floor mat system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees |
US9033238B2 (en) | 2011-08-30 | 2015-05-19 | Digimarc Corporation | Methods and arrangements for sensing identification information from objects |
US9037354B2 (en) | 2011-09-09 | 2015-05-19 | Thales Avionics, Inc. | Controlling vehicle entertainment systems responsive to sensed passenger gestures |
US9520072B2 (en) | 2011-09-21 | 2016-12-13 | University Of South Florida | Systems and methods for projecting images onto an object |
US9817017B2 (en) | 2011-10-17 | 2017-11-14 | Atlas5D, Inc. | Method and apparatus for monitoring individuals while protecting their privacy |
WO2013058985A1 (en) | 2011-10-17 | 2013-04-25 | Kimmel Zebadiah M | Method and apparatus for detecting deterioration of health status |
WO2013058978A1 (en) | 2011-10-17 | 2013-04-25 | Kimmel Zebadiah M | Method and apparatus for sizing and fitting an individual for apparel, accessories, or prosthetics |
US8902607B1 (en) | 2011-11-03 | 2014-12-02 | Veex Inc. | Modular electronic testing apparatus and methods |
JP2013164834A (ja) | 2012-01-13 | 2013-08-22 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US8902198B1 (en) | 2012-01-27 | 2014-12-02 | Amazon Technologies, Inc. | Feature tracking for device input |
FR2988504B1 (fr) | 2012-03-23 | 2014-05-09 | Commissariat Energie Atomique | Procede de determination d'un plan du sol a partir d'une image de profondeur |
JP2013205983A (ja) | 2012-03-27 | 2013-10-07 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
US9594500B2 (en) | 2012-06-27 | 2017-03-14 | sigmund lindsay clements | Touch Free hygienic display control panel for a smart toilet |
JP6334925B2 (ja) | 2013-01-18 | 2018-05-30 | キヤノンメディカルシステムズ株式会社 | 動作情報処理装置及び方法 |
US9251701B2 (en) | 2013-02-14 | 2016-02-02 | Microsoft Technology Licensing, Llc | Control device with passive reflector |
US9098738B2 (en) | 2013-02-26 | 2015-08-04 | Elwha Llc | System and method for contamination monitoring |
US9393695B2 (en) | 2013-02-27 | 2016-07-19 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with person and object discrimination |
US20140258942A1 (en) * | 2013-03-05 | 2014-09-11 | Intel Corporation | Interaction of multiple perceptual sensing inputs |
US9710761B2 (en) * | 2013-03-15 | 2017-07-18 | Nordic Technology Group, Inc. | Method and apparatus for detection and prediction of events based on changes in behavior |
US20140298379A1 (en) | 2013-03-15 | 2014-10-02 | Yume, Inc. | 3D Mobile and Connected TV Ad Trafficking System |
KR102057947B1 (ko) | 2013-04-01 | 2019-12-20 | 삼성전자주식회사 | 사용자 인증을 수행하는 디스플레이 장치 및 그 사용자 인증 방법 |
JP2015095164A (ja) * | 2013-11-13 | 2015-05-18 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
US9600993B2 (en) | 2014-01-27 | 2017-03-21 | Atlas5D, Inc. | Method and system for behavior detection |
JP6206773B2 (ja) * | 2014-10-22 | 2017-10-04 | 株式会社ワロップ放送局 | 番組連動広告システム及び番組連動広告サーバ |
US20160266607A1 (en) | 2015-03-11 | 2016-09-15 | Atlas5D, Inc. | System for integrating commercial off-the-shelf devices to produce a modular interaction platform |
US10013756B2 (en) | 2015-03-13 | 2018-07-03 | Atlas5D, Inc. | Methods and systems for measuring use of an assistive device for ambulation |
US11017901B2 (en) | 2016-08-02 | 2021-05-25 | Atlas5D, Inc. | Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy |
-
2017
- 2017-08-01 US US15/666,514 patent/US11017901B2/en active Active
- 2017-08-01 JP JP2019504817A patent/JP7083809B2/ja active Active
- 2017-08-01 EP EP17837554.9A patent/EP3494428A4/en active Pending
- 2017-08-01 CN CN202111174966.3A patent/CN113903455A/zh active Pending
- 2017-08-01 WO PCT/US2017/044936 patent/WO2018026838A1/en unknown
- 2017-08-01 CN CN201780045662.2A patent/CN109477951B/zh active Active
-
2021
- 2021-02-25 US US17/185,883 patent/US20210183516A1/en active Pending
- 2021-12-29 JP JP2021215383A patent/JP2022058471A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012115570A (ja) * | 2010-12-02 | 2012-06-21 | Panasonic Corp | 通過者識別装置 |
JP2015061577A (ja) * | 2013-01-18 | 2015-04-02 | 株式会社東芝 | 動作情報処理装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022542199A (ja) * | 2020-06-30 | 2022-09-30 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | キーポイントの検出方法、装置、電子機器および記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
US11017901B2 (en) | 2021-05-25 |
JP2022058471A (ja) | 2022-04-12 |
WO2018026838A1 (en) | 2018-02-08 |
CN113903455A (zh) | 2022-01-07 |
US20210183516A1 (en) | 2021-06-17 |
EP3494428A4 (en) | 2020-04-08 |
US20180039745A1 (en) | 2018-02-08 |
CN109477951B (zh) | 2021-10-22 |
CN109477951A (zh) | 2019-03-15 |
JP7083809B2 (ja) | 2022-06-13 |
EP3494428A1 (en) | 2019-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7083809B2 (ja) | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 | |
US20200205697A1 (en) | Video-based fall risk assessment system | |
US10080513B2 (en) | Activity analysis, fall detection and risk assessment systems and methods | |
Ramzan et al. | A survey on state-of-the-art drowsiness detection techniques | |
CN109475294B (zh) | 用于治疗精神障碍的移动和可穿戴视频捕捉和反馈平台 | |
JP7229174B2 (ja) | 人識別システム及び方法 | |
US10159411B2 (en) | Detecting irregular physiological responses during exposure to sensitive data | |
US10154810B2 (en) | Security system that detects atypical behavior | |
Eskofier et al. | Marker-based classification of young–elderly gait pattern differences via direct PCA feature extraction and SVMs | |
JP2007006427A (ja) | 映像監視装置 | |
JP2020533701A (ja) | 対象者の識別のためのカメラ及び画像校正 | |
US9968264B2 (en) | Detecting physiological responses based on thermal asymmetry of the face | |
Nie et al. | SPIDERS+: A light-weight, wireless, and low-cost glasses-based wearable platform for emotion sensing and bio-signal acquisition | |
US10085685B2 (en) | Selecting triggers of an allergic reaction based on nasal temperatures | |
Alvarez et al. | Multimodal monitoring of Parkinson's and Alzheimer's patients using the ICT4LIFE platform | |
CA2878374C (en) | Kinetic-based tool for biometric identification, verification, validation and profiling | |
US10045726B2 (en) | Selecting a stressor based on thermal measurements of the face | |
US10299717B2 (en) | Detecting stress based on thermal measurements of the face | |
Kao et al. | Validation of automated mobility assessment using a single 3d sensor | |
Bačić et al. | Towards Real-Time Drowsiness Detection for Elderly Care | |
JP7185805B2 (ja) | 転倒リスク評価システム | |
US10136852B2 (en) | Detecting an allergic reaction from nasal temperatures | |
JP2022052910A (ja) | 体調評価システム、サーバ、プログラムおよび体調評価サービス提供方法 | |
JP2021033359A (ja) | 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200803 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200803 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211229 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220527 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220601 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7083809 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |