JP7107932B2 - 患者識別システムおよび方法 - Google Patents
患者識別システムおよび方法 Download PDFInfo
- Publication number
- JP7107932B2 JP7107932B2 JP2019528481A JP2019528481A JP7107932B2 JP 7107932 B2 JP7107932 B2 JP 7107932B2 JP 2019528481 A JP2019528481 A JP 2019528481A JP 2019528481 A JP2019528481 A JP 2019528481A JP 7107932 B2 JP7107932 B2 JP 7107932B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- patient
- digital images
- area
- detected face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 70
- 238000010801 machine learning Methods 0.000 claims description 35
- 230000001815 facial effect Effects 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 13
- 238000004458 analytical method Methods 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 6
- 238000011524 similarity measure Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 description 38
- 238000001514 detection method Methods 0.000 description 20
- 230000006866 deterioration Effects 0.000 description 12
- 210000000887 face Anatomy 0.000 description 12
- 230000009471 action Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 239000000463 material Substances 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 3
- 230000002542 deteriorative effect Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 238000002079 electron magnetic resonance spectroscopy Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000002068 genetic effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000036387 respiratory rate Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 108091005515 EGF module-containing mucin-like hormone receptors Proteins 0.000 description 1
- 206010017367 Frequent bowel movements Diseases 0.000 description 1
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 1
- 241000543540 Guillardia theta Species 0.000 description 1
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003467 diminishing effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005713 exacerbation Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 239000008103 glucose Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002483 medication Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 231100000862 numbness Toxicity 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012502 risk assessment Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/50—Maintenance of biometric data or enrolment thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/179—Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C2209/00—Indexing scheme relating to groups G07C9/00 - G07C9/38
- G07C2209/02—Access control comprising means for the enrolment of users
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/30—Individual registration on entry or exit not involving the use of a pass
- G07C9/32—Individual registration on entry or exit not involving the use of a pass in combination with an identity check
- G07C9/37—Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
いくつかの態様を記載しておく。
〔態様1〕
一つまたは複数のプロセッサによって実装される方法であって、当該方法は:
少なくとも第一の被写体を捕捉する複数の受け入れデジタル画像を取得するステップと;
前記複数の受け入れデジタル画像から、前記第一の被写体の顔の複数の異なるビューを描く受け入れデジタル画像の部分集合を選択するステップと;
選択された受け入れデジタル画像の部分集合に基づいて、第一の被写体参照テンプレートを生成するステップであって、それらの第一の被写体参照テンプレートは、前記第一の被写体に関連する情報と関連付けて被写体データベースに記憶され、前記被写体データベースは、複数の被写体に関連した被写体参照テンプレートを記憶する、ステップと;
エリア内で識別すべき第二の被写体を選択するステップと;
前記被写体参照データベースから前記第二の被写体に関連した第二の被写体参照テンプレートを取得するステップと;
前記エリアを描写する一つまたは複数のデジタル画像を取得するステップと;
前記エリアにおける一または複数の被写体の顔を描いている、前記一つまたは複数のデジタル画像の一つまたは複数の部分を、一つまたは複数の検出された顔画像として検出するステップと;
検出された一つまたは複数の検出された顔の画像のうち所与の検出された顔画像を、前記第二の被写体参照テンプレートと比較するステップと;
前記比較に基づいて、前記エリアを捕捉する前記一つまたは複数のデジタル画像において前記第二の被写体を識別するステップとを含む、
方法。
〔態様2〕
前記エリアは待合室を含み、前記受け入れ画像は、登録またはトリアージ・エリアを捕捉するよう構成された第一のカメラを使って取得され、前記待合室を描写する前記デジタル画像は、待前記合室を捕捉するよう構成された第二のカメラを使って取得される、態様1記載の方法。
〔態様3〕
前記比較することは、前記所与の検出された顔画像を、トレーニングされた機械学習モデルを通じて入力として適用して、前記所与の検出された顔画像と前記第二の被写体との間の類似性の指標を示す出力を生成することを含み、前記機械学習モデルは、少なくとも部分的には前記第二の被写体参照テンプレートに基づいてトレーニングされる、態様1記載の方法。
〔態様4〕
前記トレーニングされた機械学習モデルは、線形判別分析モデルを含む、態様3記載の方法。
〔態様5〕
新たな被写体が前記被写体データベースに追加されるまたは既存の被写体が前記被写体データベースから除去されることに応答して、前記機械学習モデルを再トレーニングすることをさらに含む、態様4記載の方法。
〔態様6〕
前記トレーニングされた機械学習モデルは、前記複数の被写体に関連する被写体参照テンプレートに基づいてトレーニングされる、態様3記載の方法。
〔態様7〕
前記部分集合の受け入れデジタル画像の一つまたは複数が、一つまたは複数の他の受け入れデジタル画像と十分に異なっていることに基づいて選択される、態様3記載の方法。
〔態様8〕
各検出された顔画像が顔の正面ビューを描くよう、前記一つまたは複数の顔画像を正規化することをさらに含む、態様1記載の方法。
〔態様9〕
前記正規化が、幾何学的な歪めを含む、態様8記載の方法。
〔態様10〕
一つまたは複数のプロセッサと、該一つまたは複数のプロセッサに動作可能に結合されたメモリとを有するシステムであって、前記メモリは命令を記憶しており、前記命令は、一つまたは複数のプロセッサによる該命令の実行に応答して、前記一つまたは複数のプロセッサに:
少なくとも第一の被写体を捕捉する複数の受け入れデジタル画像を取得するステップと;
前記複数の受け入れデジタル画像から、前記第一の被写体の顔の複数の異なるビューを描く受け入れデジタル画像の部分集合を選択するステップと;
選択された受け入れデジタル画像の部分集合に基づいて、第一の被写体参照テンプレートを生成するステップであって、それらの第一の被写体参照テンプレートは、前記第一の被写体に関連する情報と関連付けて被写体データベースに記憶され、前記被写体データベースは、複数の被写体に関連した被写体参照テンプレートを記憶する、ステップと;
エリア内で識別すべき第二の被写体を選択するステップと;
前記被写体参照データベースから前記第二の被写体に関連した第二の被写体参照テンプレートを取得するステップと;
前記エリアを描写する一つまたは複数のデジタル画像を取得するステップと;
前記エリアにおける一または複数の被写体の顔を描いている、前記一つまたは複数のデジタル画像の一つまたは複数の部分を、一つまたは複数の検出された顔画像として検出するステップと;
検出された一つまたは複数の検出された顔の画像のうち所与の検出された顔画像を、前記第二の被写体参照テンプレートと比較するステップと;
前記比較に基づいて、前記エリアを捕捉する前記一つまたは複数のデジタル画像において前記第二の被写体を識別するステップとを実行させるものである、
システム。
〔態様11〕
前記エリアは待合室を含み、前記受け入れ画像は、登録またはトリアージ・エリアを捕捉するよう構成された第一のカメラを使って取得され、前記待合室を描写する前記デジタル画像は、待前記合室を捕捉するよう構成された第二のカメラを使って取得される、態様10記載のシステム。
〔態様12〕
前記所与の検出された顔画像を、トレーニングされた機械学習モデルを通じて入力として適用して、前記所与の検出された顔画像と前記第二の被写体との間の類似性の指標を示す出力を生成するための命令をさらに含み、前記機械学習モデルは、少なくとも部分的には前記第二の被写体参照テンプレートに基づいてトレーニングされる、態様10記載のシステム。
〔態様13〕
前記トレーニングされた機械学習モデルは、線形判別分析モデルを含む、態様12記載のシステム。
〔態様14〕
新たな被写体が前記被写体データベースに追加されるまたは既存の被写体が前記被写体データベースから除去されることに応答して、前記機械学習モデルを再トレーニングするための命令をさらに、態様13記載のシステム。
〔態様15〕
前記トレーニングされた機械学習モデルは、前記複数の被写体に関連する被写体参照テンプレートに基づいてトレーニングされる、態様12記載のシステム。
〔態様16〕
前記部分集合の受け入れデジタル画像の一つまたは複数が、一つまたは複数の他の受け入れデジタル画像と十分に異なっていることに基づいて選択される、態様10記載のシステム。
〔態様17〕
各検出された顔画像が顔の正面ビューを描くよう、前記一つまたは複数の顔画像を正規化することをさらに含む、態様10記載のシステム。
〔態様18〕
前記正規化が、幾何学的な歪めを含む、態様17記載のシステム。
〔態様19〕
命令を有する少なくとも一つの非一時的な機械可読媒体であって、前記命令は、一つまたは複数のプロセッサによる該命令の実行に応答して、前記一つまたは複数のプロセッサに以下の動作、すなわち:
少なくとも第一の被写体を捕捉する複数の受け入れデジタル画像を取得するステップと;
前記複数の受け入れデジタル画像から、前記第一の被写体の顔の複数の異なるビューを描く受け入れデジタル画像の部分集合を選択するステップと;
選択された受け入れデジタル画像の部分集合に基づいて、第一の被写体参照テンプレートを生成するステップであって、それらの第一の被写体参照テンプレートは、前記第一の被写体に関連する情報と関連付けて被写体データベースに記憶され、前記被写体データベースは、複数の被写体に関連した被写体参照テンプレートを記憶する、ステップと;
エリア内で識別すべき第二の被写体を選択するステップと;
前記被写体参照データベースから前記第二の被写体に関連した第二の被写体参照テンプレートを取得するステップと;
前記エリアを描写する一つまたは複数のデジタル画像を取得するステップと;
前記エリアにおける一または複数の被写体の顔を描いている、前記一つまたは複数のデジタル画像の一つまたは複数の部分を、一つまたは複数の検出された顔画像として検出するステップと;
検出された一つまたは複数の検出された顔の画像のうち所与の検出された顔画像を、前記第二の被写体参照テンプレートと比較するステップと;
前記比較に基づいて、前記エリアを捕捉する前記一つまたは複数のデジタル画像において前記第二の被写体を識別するステップとを実行させるものである、
少なくとも一つの非一時的なコンピュータ可読媒体。
〔態様20〕
前記エリアは待合室を含み、前記受け入れ画像は、登録またはトリアージ・エリアを捕捉するよう構成された第一のカメラを使って取得され、前記待合室を描写する前記デジタル画像は、待前記合室を捕捉するよう構成された第二のカメラを使って取得される、態様19記載の少なくとも一つの非一時的なコンピュータ可読媒体。
Claims (12)
- 一つまたは複数のプロセッサによって実装される方法であって、当該方法は:
少なくとも第一の被写体を捕捉する複数の受け入れデジタル画像を取得するステップと;
前記複数の受け入れデジタル画像から、前記第一の被写体の顔の複数の異なるビューを描く受け入れデジタル画像の部分集合を選択するステップと;
選択された受け入れデジタル画像の部分集合に基づいて、第一の被写体参照テンプレートを生成するステップであって、それらの第一の被写体参照テンプレートは、前記第一の被写体に関連する情報と関連付けて被写体データベースに記憶され、前記被写体データベースは、複数の被写体に関連した被写体参照テンプレートを記憶する、ステップと;
エリア内で識別すべき第二の被写体を選択するステップと;
前記被写体データベースから前記第二の被写体に関連した第二の被写体参照テンプレートを取得するステップと;
前記エリアを描写する一つまたは複数のデジタル画像を取得するステップと;
前記エリアにおける一または複数の被写体の顔を描いている、前記一つまたは複数のデジタル画像の一つまたは複数の部分を、一つまたは複数の検出された顔画像として検出するステップと;
検出された一つまたは複数の検出された顔の画像のうち所与の検出された顔画像を、前記第二の被写体参照テンプレートと比較するステップと;
前記比較に基づいて、前記エリアを捕捉する前記一つまたは複数のデジタル画像において前記第二の被写体を識別するステップとを含み、
前記エリアは待合室を含み、前記受け入れ画像は、登録またはトリアージ・エリアを捕捉するよう構成された第一のカメラを使って取得され、前記待合室を描写する前記デジタル画像は、前記待合室を捕捉するよう構成された第二のカメラを使って取得される、
方法。 - 前記比較することは、前記所与の検出された顔画像を、トレーニングされた機械学習モデルを通じて入力として適用して、前記所与の検出された顔画像と前記第二の被写体との間の類似性の指標を示す出力を生成することを含み、前記機械学習モデルは、少なくとも部分的には前記第二の被写体参照テンプレートに基づいてトレーニングされる、請求項1記載の方法。
- 前記トレーニングされた機械学習モデルは、線形判別分析モデルを含む、請求項2記載の方法。
- 新たな被写体が前記被写体データベースに追加されるまたは既存の被写体が前記被写体データベースから除去されることに応答して、前記機械学習モデルを再トレーニングすることをさらに含む、請求項3記載の方法。
- 前記トレーニングされた機械学習モデルは、前記複数の被写体に関連する被写体参照テンプレートに基づいてトレーニングされる、請求項2記載の方法。
- 前記部分集合の受け入れデジタル画像の一つまたは複数が、一つまたは複数の他の受け入れデジタル画像と十分に異なっていることに基づいて選択される、請求項2記載の方法。
- 各検出された顔画像が顔の正面ビューを描くよう、前記一つまたは複数の顔画像を正規化することをさらに含む、請求項1記載の方法。
- 前記正規化が、幾何学的な歪めを含む、請求項7記載の方法。
- 一つまたは複数のプロセッサと、該一つまたは複数のプロセッサに動作可能に結合されたメモリとを有するシステムであって、前記メモリは命令を記憶しており、前記命令は、一つまたは複数のプロセッサによる該命令の実行に応答して、前記一つまたは複数のプロセッサに:
少なくとも第一の被写体を捕捉する複数の受け入れデジタル画像を取得するステップと;
前記複数の受け入れデジタル画像から、前記第一の被写体の顔の複数の異なるビューを描く受け入れデジタル画像の部分集合を選択するステップと;
選択された受け入れデジタル画像の部分集合に基づいて、第一の被写体参照テンプレートを生成するステップであって、それらの第一の被写体参照テンプレートは、前記第一の被写体に関連する情報と関連付けて被写体データベースに記憶され、前記被写体データベースは、複数の被写体に関連した被写体参照テンプレートを記憶する、ステップと;
エリア内で識別すべき第二の被写体を選択するステップと;
前記被写体データベースから前記第二の被写体に関連した第二の被写体参照テンプレートを取得するステップと;
前記エリアを描写する一つまたは複数のデジタル画像を取得するステップと;
前記エリアにおける一または複数の被写体の顔を描いている、前記一つまたは複数のデジタル画像の一つまたは複数の部分を、一つまたは複数の検出された顔画像として検出するステップと;
検出された一つまたは複数の検出された顔の画像のうち所与の検出された顔画像を、前記第二の被写体参照テンプレートと比較するステップと;
前記比較に基づいて、前記エリアを捕捉する前記一つまたは複数のデジタル画像において前記第二の被写体を識別するステップとを実行させるものであり、
前記エリアは待合室を含み、前記受け入れ画像は、登録またはトリアージ・エリアを捕捉するよう構成された第一のカメラを使って取得され、前記待合室を描写する前記デジタル画像は、前記待合室を捕捉するよう構成された第二のカメラを使って取得される、
システム。 - 前記所与の検出された顔画像を、トレーニングされた機械学習モデルを通じて入力として適用して、前記所与の検出された顔画像と前記第二の被写体との間の類似性の指標を示す出力を生成するための命令をさらに含み、前記機械学習モデルは、少なくとも部分的には前記第二の被写体参照テンプレートに基づいてトレーニングされる、請求項9記載のシステム。
- 前記トレーニングされた機械学習モデルは、線形判別分析モデルを含む、請求項10記載のシステム。
- 命令を有する少なくとも一つの非一時的な機械可読媒体であって、前記命令は、一つまたは複数のプロセッサによる該命令の実行に応答して、前記一つまたは複数のプロセッサに以下の動作、すなわち:
少なくとも第一の被写体を捕捉する複数の受け入れデジタル画像を取得するステップと;
前記複数の受け入れデジタル画像から、前記第一の被写体の顔の複数の異なるビューを描く受け入れデジタル画像の部分集合を選択するステップと;
選択された受け入れデジタル画像の部分集合に基づいて、第一の被写体参照テンプレートを生成するステップであって、それらの第一の被写体参照テンプレートは、前記第一の被写体に関連する情報と関連付けて被写体データベースに記憶され、前記被写体データベースは、複数の被写体に関連した被写体参照テンプレートを記憶する、ステップと;
エリア内で識別すべき第二の被写体を選択するステップと;
前記被写体データベースから前記第二の被写体に関連した第二の被写体参照テンプレートを取得するステップと;
前記エリアを描写する一つまたは複数のデジタル画像を取得するステップと;
前記エリアにおける一または複数の被写体の顔を描いている、前記一つまたは複数のデジタル画像の一つまたは複数の部分を、一つまたは複数の検出された顔画像として検出するステップと;
検出された一つまたは複数の検出された顔の画像のうち所与の検出された顔画像を、前記第二の被写体参照テンプレートと比較するステップと;
前記比較に基づいて、前記エリアを捕捉する前記一つまたは複数のデジタル画像において前記第二の被写体を識別するステップとを実行させるものであり、
前記エリアは待合室を含み、前記受け入れ画像は、登録またはトリアージ・エリアを捕捉するよう構成された第一のカメラを使って取得され、前記待合室を描写する前記デジタル画像は、前記待合室を捕捉するよう構成された第二のカメラを使って取得される、
少なくとも一つの非一時的なコンピュータ可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662427833P | 2016-11-30 | 2016-11-30 | |
US62/427,833 | 2016-11-30 | ||
US201762517306P | 2017-06-09 | 2017-06-09 | |
US62/517,306 | 2017-06-09 | ||
PCT/EP2017/079988 WO2018099773A1 (en) | 2016-11-30 | 2017-11-22 | Patient identification systems and methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020502642A JP2020502642A (ja) | 2020-01-23 |
JP7107932B2 true JP7107932B2 (ja) | 2022-07-27 |
Family
ID=60661898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019528481A Active JP7107932B2 (ja) | 2016-11-30 | 2017-11-22 | 患者識別システムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10997397B2 (ja) |
EP (1) | EP3549059A1 (ja) |
JP (1) | JP7107932B2 (ja) |
CN (1) | CN110050276B (ja) |
WO (1) | WO2018099773A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018116560A1 (ja) * | 2016-12-21 | 2018-06-28 | パナソニックIpマネジメント株式会社 | 照合装置及び照合方法 |
JP7199426B2 (ja) | 2017-09-13 | 2023-01-05 | コーニンクレッカ フィリップス エヌ ヴェ | 対象者の識別のためのカメラ及び画像校正 |
JP2020533702A (ja) | 2017-09-13 | 2020-11-19 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 対象者識別システム及び方法 |
CN109858354B (zh) * | 2018-12-27 | 2022-01-25 | 厦门市美亚柏科信息股份有限公司 | 一种人脸身份库、轨迹表建立和人脸轨迹查询方法和系统 |
CN110765846B (zh) * | 2019-09-05 | 2022-09-30 | 北京旷视科技有限公司 | 抓拍机推图测试方法及装置 |
US11475997B2 (en) * | 2020-02-21 | 2022-10-18 | Shanghai United Imaging Intelligence Co., Ltd. | Systems and methods for automated healthcare services |
US11501875B1 (en) * | 2022-01-11 | 2022-11-15 | inFormed Consent LLC | Informed patient consent through video tracking |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011109275A (ja) | 2009-11-13 | 2011-06-02 | Victor Co Of Japan Ltd | 映像処理装置および映像処理方法 |
JP2013186495A (ja) | 2012-03-05 | 2013-09-19 | Glory Ltd | 販売管理システム、販売管理装置及び販売管理方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8995715B2 (en) | 2010-10-26 | 2015-03-31 | Fotonation Limited | Face or other object detection including template matching |
US7715597B2 (en) | 2004-12-29 | 2010-05-11 | Fotonation Ireland Limited | Method and component for image recognition |
WO2008059422A1 (en) * | 2006-11-14 | 2008-05-22 | Koninklijke Philips Electronics N.V. | Method and apparatus for identifying an object captured by a digital image |
JP2009025874A (ja) * | 2007-07-17 | 2009-02-05 | Nec Corp | 顔画像登録装置、顔識別装置、顔画像登録方法、顔識別方法、顔画像登録プログラム |
US8379917B2 (en) | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
JP2011095948A (ja) * | 2009-10-29 | 2011-05-12 | Toshiba Corp | 受診者確認装置及び受診カード作成装置 |
US10687706B2 (en) | 2011-08-01 | 2020-06-23 | Koninklijke Philips N.V. | Device and method for obtaining and processing measurement readings including at least a component representative of a physical phenomenon in a living being |
EP2741661B1 (en) | 2011-09-02 | 2016-05-04 | Koninklijke Philips N.V. | Camera for generating a biometrical signal of a living being |
KR20130118512A (ko) | 2012-04-20 | 2013-10-30 | 경희대학교 산학협력단 | 얼굴 인식을 통한 환자 상태 모니터링 시스템 및 이를 이용한 환자 상태 모니터링 서비스 제공 방법 |
RU2653799C2 (ru) | 2012-11-23 | 2018-05-14 | Конинклейке Филипс Н.В. | Устройство и способ для извлечения физиологической информации |
EP2767232A1 (en) | 2013-02-15 | 2014-08-20 | Koninklijke Philips N.V. | System and method for determining a vital sign of a subject |
RU2697291C2 (ru) * | 2013-03-06 | 2019-08-13 | Конинклейке Филипс Н.В. | Система и способ определения информации об основных показателях состояния организма |
US9125606B2 (en) | 2013-03-13 | 2015-09-08 | Koninklijke Philips N.V. | Device and method for determining the blood oxygen saturation of a subject |
JP6427973B2 (ja) * | 2014-06-12 | 2018-11-28 | オムロン株式会社 | 画像認識装置及び画像認識装置への特徴量データ登録方法 |
JP6544900B2 (ja) * | 2014-09-17 | 2019-07-17 | キヤノン株式会社 | オブジェクト識別装置、オブジェクト識別方法及びプログラム |
US20170004507A1 (en) | 2015-07-02 | 2017-01-05 | Google Inc. | Identifying consumers in a transaction via facial recognition |
CN106372566A (zh) | 2015-07-23 | 2017-02-01 | 深圳市飞思未来云媒体科技有限公司 | 一种基于数字标牌紧急疏散系统及方法 |
US10631743B2 (en) * | 2016-05-23 | 2020-04-28 | The Staywell Company, Llc | Virtual reality guided meditation with biofeedback |
-
2017
- 2017-11-22 EP EP17812258.6A patent/EP3549059A1/en active Pending
- 2017-11-22 US US16/463,484 patent/US10997397B2/en active Active
- 2017-11-22 CN CN201780074269.6A patent/CN110050276B/zh active Active
- 2017-11-22 JP JP2019528481A patent/JP7107932B2/ja active Active
- 2017-11-22 WO PCT/EP2017/079988 patent/WO2018099773A1/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011109275A (ja) | 2009-11-13 | 2011-06-02 | Victor Co Of Japan Ltd | 映像処理装置および映像処理方法 |
JP2013186495A (ja) | 2012-03-05 | 2013-09-19 | Glory Ltd | 販売管理システム、販売管理装置及び販売管理方法 |
Non-Patent Citations (1)
Title |
---|
岩井儀雄, 外3名,"画像処理による顔検出と顔認識",情報処理学会研究報告,日本,社団法人情報処理学会,2005年05月13日,第2005巻, 第38号,p.343-368 |
Also Published As
Publication number | Publication date |
---|---|
EP3549059A1 (en) | 2019-10-09 |
CN110050276A (zh) | 2019-07-23 |
CN110050276B (zh) | 2023-09-29 |
WO2018099773A1 (en) | 2018-06-07 |
US20190362137A1 (en) | 2019-11-28 |
US10997397B2 (en) | 2021-05-04 |
JP2020502642A (ja) | 2020-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10832035B2 (en) | Subject identification systems and methods | |
CN111344715B (zh) | 对象识别系统和方法 | |
JP7199426B2 (ja) | 対象者の識別のためのカメラ及び画像校正 | |
JP7107932B2 (ja) | 患者識別システムおよび方法 | |
US20220036055A1 (en) | Person identification systems and methods | |
US11694809B2 (en) | Patient monitoring systems and methods | |
JP7197475B2 (ja) | 患者モニタリング・システムおよび方法 | |
JP7299923B2 (ja) | 個人識別システムおよび方法 | |
US20190267136A1 (en) | Queue for patient monitoring |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190603 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7107932 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |