JP2023126261A - サーマルイメージングシステムを構成するためのユーザーインタフェース - Google Patents
サーマルイメージングシステムを構成するためのユーザーインタフェース Download PDFInfo
- Publication number
- JP2023126261A JP2023126261A JP2023102452A JP2023102452A JP2023126261A JP 2023126261 A JP2023126261 A JP 2023126261A JP 2023102452 A JP2023102452 A JP 2023102452A JP 2023102452 A JP2023102452 A JP 2023102452A JP 2023126261 A JP2023126261 A JP 2023126261A
- Authority
- JP
- Japan
- Prior art keywords
- thermal imaging
- user
- mobile device
- thermal
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001931 thermography Methods 0.000 title claims abstract description 232
- 238000000034 method Methods 0.000 claims abstract description 71
- 230000000007 visual effect Effects 0.000 claims description 19
- 230000004044 response Effects 0.000 claims description 17
- 238000003860 storage Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 claims description 2
- 230000001052 transient effect Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 83
- 238000012545 processing Methods 0.000 description 40
- 230000008569 process Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 23
- 230000015654 memory Effects 0.000 description 21
- 238000012795 verification Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 13
- 238000012544 monitoring process Methods 0.000 description 9
- 238000012790 confirmation Methods 0.000 description 7
- 230000001976 improved effect Effects 0.000 description 7
- 238000010200 validation analysis Methods 0.000 description 7
- 241000282412 Homo Species 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000036760 body temperature Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 231100001261 hazardous Toxicity 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 239000002390 adhesive tape Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000009529 body temperature measurement Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000004134 energy conservation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000012419 revalidation Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/945—User interactive design; Environments; Toolboxes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0407—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0407—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
- G08B21/043—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0438—Sensor means for detecting
- G08B21/0469—Presence detectors to detect unsafe condition, e.g. infrared sensor, microphone
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0438—Sensor means for detecting
- G08B21/0476—Cameras to detect unsafe condition, e.g. video cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
- H04N23/23—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from thermal infrared radiation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Gerontology & Geriatric Medicine (AREA)
- Software Systems (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychology (AREA)
- Psychiatry (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Toxicology (AREA)
- Alarm Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Radiation Pyrometers (AREA)
- Emergency Alarm Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】サーマルイメージングシステムに関し、所定のタイプのイベントを検出する。【解決手段】システムは、視野内の景色の熱画像を取り込むための操作が可能である、少なくとも1つのサーマルイメージングデバイスと、サーマルイメージングデバイスからの熱画像を受け取り、熱画像にコンピュータビジョン技術を適用して熱画像に取り込まれたイベントを検出し、検出されたイベントに基づいて通知を生成するように構成されたサーバと、を備える。サーバは、景色内にあるモバイルデバイスにインストールされたモバイルアプリケーションを通じて、モバイルデバイスのユーザーが景色についての入力を生成するように誘導するように構成され、サーバは、さらに、入力に基づき、サーマルイメージングデバイスによって取り込まれた熱画像からのイベントの検出に使用されるパラメータを調整するように構成されている。【選択図】図1
Description
関連出願
本願は、2018年7月23日に出願され、「User Interfaces to Configure a Thermal Imaging System」と題する米国特許出願第16/042,045号明細書の出願日の利益を主張し、該出願の開示全体は、参照により本明細書に援用される。
本願は、2018年7月23日に出願され、「User Interfaces to Configure a Thermal Imaging System」と題する米国特許出願第16/042,045号明細書の出願日の利益を主張し、該出願の開示全体は、参照により本明細書に援用される。
本願は、2017年5月26日に出願された米国特許出願第15/607,345号明細書、ならびにともに2017年10月30日に出願された米国特許出願第15/797,693号明細書及び第15/797,999号明細書に関係し、該出願の開示全体は、参照により本明細書に援用される。
本明細書に開示する少なくともいくつかの実施形態は、一般的にサーマルイメージングシステムに関し、より詳細には、所定のタイプのイベントを検出するためにサーマルイメージングシステムを構成するためのユーザーインタフェースに関するが、これに限定されるものではない。
サーマルイメージングは、典型的な屋内環境の温度に比較される上昇した人間の体温の高いコントラストにより、人物検出に使用できる。低解像度のサーマルイメージングは、典型的な部屋領域内で確実に人物を検出するために使用できる。人間の目に可視の光を使用する従来のビデオ監視と比較した低解像度のサーマルイメージングの優位点には、人間-背景の良好なコントラストだけではなく、プライバシーへの不侵入も含まれる。サーマルイメージングの解像度が、人物を表現するために少数のピクセルが使用されるように低い場合、人物の熱画像は、人物の周りの細かい特徴がないブロブとして表示される。したがって、熱画像は個人を明確に識別するために使用することができない。そのような技術は、プライバシーに踏み込まずに、高齢者及び患者を監視して、転倒などの特定の状況に応えて介護を提供するために使用できる。
例えば、「Apparatus and Method for Electromagnetic Radiation Sensing」と題する特許文献1は、赤外線(IR)放射に基づいたサーマルイメージングのための装置を開示する。そのような装置は、人物検出、火災検知、ガス検知、温度測定、環境モニタリング、エネルギー節約、行動分析、監視、情報収集のために、及びヒューマンマシンインタフェースのために使用できる。そのような装置及び/または他の類似する装置は、本願に開示する発明の実施形態で使用できる。特許文献1の開示全体は、参照により本明細書に援用される。
本明細書に開示する少なくともいくつかの実施形態は、一般的にサーマルイメージングシステムに関し、より詳細には、所定のタイプのイベントを検出するためにサーマルイメージングシステムを構成するためのユーザーインタフェースに関する。
実施形態は、類似した参照が類似した要素を示す添付図面の図において制限としてではなく、例として示される。
以下の説明及び図面は例示であり、限定的と解釈されるべきではない。完全な理解を提供するために、多数の具体的な詳細が説明される。しかしながら、特定の例では、説明を分かりにくくすることを回避するために、周知のまたは従来の詳細は説明されない。本開示の一実施形態(one embodiment)または一実施形態(an embodiment)に対する参照は、必ずしも同じ実施形態に対する参照ではなく、そのような参照は少なくとも1つを意味する。
2017年5月26日に出願された米国特許出願第15/607,345号、ならびにともに2017年10月30日に出願された米国特許出願第15/797,693号及び15/797,999号は、サーマルイメージングデバイスを使用し、監視されている場所の見取り図またはレイアウトを決定するための技術を開示する。そのような場所の例は、高齢者または患者用の部屋である。そのような技術は、本願で説明するサーマルイメージングシステムで使用できる。これらの出願の開示全体は、参照により本明細書に援用される。
一般的に、場所の見取り図またはレイアウトは熱画像からイベントを検出及び/または解釈する上でのサーマルイメージングシステムの機能を構成するために使用できる。そのような情報は、環境のモデルとして、及びサーマルイメージングデバイスによって監視される景色の地理的特徴及び要因を理解するために使用できる。環境モデルは、イベントを分類し、通知の配信を制御するために、監視場所の熱画像とともに使用できる。典型的な部屋環境背景の熱画像は、環境モデルの決定のための詳細を欠き、見分けがつかないほどに一様に見える場合がある。見取り図は、イベントの検出及び分類を容易にするために熱画像を拡大させる。本明細書で説明するユーザーインタフェースによって、イベントを検出及び/または解釈する際にサーマルイメージングシステムが使用する見取り図及び/または他の画像処理パラメータの決定及び/または改善の、ユーザーインタフェースに提示される命令に従って生成されたユーザーフィードバック及び/または熱入力の使用が可能になる。
図1は、一実施形態に係るサーマルイメージングシステムを示す。
図1のサーマルイメージングシステムは、サーバ(115)と、サーマルイメージングによって環境(107)を監視するサーマルイメージングデバイス(101)とを含む。
サーマルイメージングデバイス(101)は、通常、部屋などの環境(107)の固定された場所に取り付けられる。
サーマルイメージングデバイス(101)は、通常、部屋などの環境(107)の固定された場所に取り付けられる。
図1のサーマルイメージングシステム(TIS)は、ユーザー(103)のモバイルデバイス(105)をさらに含み、環境(107)で検出したイベントの通知を提示する、及び/または通知に対するユーザーフィードバックを受け取るように、図1のサーマルイメージングシステムを構成するためのグラフィックユーザーインタフェースを提供する。
サーマルイメージングデバイス(101)及びモバイルデバイス(105)は、コンピュータ通信ネットワーク(113)を介してサーバ(115)に接続できる。サーバ(115)は、サーマルイメージングデバイス(101)によって取り込まれた熱画像を処理し、熱画像に基づいてサービスを提供する。
例えば、サーマルイメージングデバイス(101)は、無線アクセスポイント(111)及びコンピュータネットワーク(113)(例えば、ローカルエリアネットワーク及び/またはインターネット)を介してサーバ(115)に熱画像を通信することができる。
スマートフォン、タブレットコンピュータ、ラップトップコンピュータ、またはパーソナルメディアプレーヤなどのモバイルデバイス(105)は、サーマルイメージングシステムの較正、セットアップ、及び/またはアプリケーション使用のために、サーマルイメージングデバイス(101)及び/またはサーバ(115)と通信するために、その中にモバイルアプリケーションがインストールされている。
スマートフォン、タブレットコンピュータ、ラップトップコンピュータ、またはパーソナルメディアプレーヤなどのモバイルデバイス(105)は、サーマルイメージングシステムの較正、セットアップ、及び/またはアプリケーション使用のために、サーマルイメージングデバイス(101)及び/またはサーバ(115)と通信するために、その中にモバイルアプリケーションがインストールされている。
いくつかの例では、サーマルイメージングデバイス(101)は、無線接続または有線接続を介して熱画像をモバイルデバイス(105)に通信し、モバイルデバイス(105)はホストデバイスとして機能して、追加の処理のために熱画像をサーバ(115)にさらに通信する。環境(107)の中または近くのモバイルデバイス(105)または別のデバイスなどのホストデバイスは、追加の処理のために及び/またはイベントの検出/分類のためにサーバ(115)に処理結果を提供する前に熱画像を前処理できる。
サーバ(115)及び/またはサーマルイメージングデバイス(101)は、イベントの検出/分類の表示及び/または検証のためにモバイルデバイス(105)に熱画像を提供できる。
サーバ(115)は、アクセス制御を容易にし、ユーザー(103)の環境(107)に特有の方法でサーマルイメージング処理をカスタマイズするユーザーアカウント(121)を維持できる。
例えば、ユーザーアカウント(121)は、環境(107)に取り付けられたサーマルイメージングデバイス(101)のデバイス識別子(123)を有する場合がある。さらに、ユーザーアカウント(121)は、環境(107)の2次元または3次元の見取り図(125)を有する場合がある。見取り図(125)は、環境内の領域の属性を指定する場所の特徴を識別する。場所の属性は、環境(107)で検出したイベントを分類するためにサーバ(115)によって使用され得る。
例えば、画像処理プロセッサ(129)は、床での人物の転倒、ベッド内の人物、検出領域外の人物、座っている人物、危険なホットスポット、複数の人の存在、移動する人物、所定の領域内の人物、喫煙検知、火災検知、危険なホットスポットに近い人間、水漏れ、他の人間と人間の対話、他の物体との人間の相互作用、物体検出の普通ではない熱パターンなどのイベントを検出するために見取り図(125)を使用できる。
例えば、画像処理プロセッサ(129)は、背景の熱画像とは異なる温度分布を有する熱画像の中のブロブ(例えば、ピクセルのセット)を識別し、人物またはホットスポットの熱画像としてブロブを分類することができる。人物の熱画像が検出されると、画像処理プロセッサ(129)は、人物の姿勢(例えば、立っている、横になっている、座っている、歩いている)をさらに分類できる。サーバ(115)は、環境の見取り図(125)の中の場所の特徴を考慮して、ならびに人物の姿勢及び/または人物の熱画像の形状を考慮して、人物の熱画像から人物の活動をさらに解釈/推論することができる。環境の場所の特徴(例えば、通路、活動領域、ベッド、椅子、ドア、窓)に対する環境(107)内の人物の場所は、2次元または3次元の見取り図(125)への熱画像の視線の投影に基づいて決定できる。熱画像内の人物の場所は、人物と関連するイベントを解釈及び/または分類するために使用できる。
本明細書に説明する本開示の一態様は、モバイルデバイス(105)上に提供されるユーザーインタフェースを含む。ユーザーインタフェースは、サーマルイメージングシステムの特定の特徴セットの人間の検証及び認証を容易にし、特徴セットは、環境(107)に特有の所定のタイプのイベントを検出するように構成されている。ユーザーインタフェースは、イベントのクラスの検出を試験し、確証するために、ユーザー(103)とサーマルイメージングシステムとの間の対話を自動的に誘導するようにプログラムされる。人間の検証及び認証によって、サーマルイメージングシステムの構成は改善され、イベントの分類及び/または通知の精度は向上する。
さらに、ユーザーインタフェースは、ユーザーにフィードバックまたは命令を与え、追加の構成動作を実行して、特徴セットから生成された結果の精度を高める及び/または確証するように、ユーザーを誘導することができる。
モバイルデバイス(105)に設けられたユーザーインタフェースを使用し、技術的熟練のない人物も、環境の熱状態を生成するためにサーマルイメージングシステムと対話することができ、サーマルイメージングシステムに熱状態を分析させ、熱状態について通知を生成させることができる。人は、次いでさらにモバイルデバイス(105)を使用して、通知で識別されているとして状態の真正性を確証することができる。ユーザーインタフェースは、簡略かつ論理的なプロセスを通してユーザーを誘導する。一方、システムは、そのような介入に自動的に注釈を付け、それをメモリに記憶して、ユーザーアカウント(121)のデバイス識別子(123)によって表されるサーマルイメージングデバイス(101)からの熱画像を処理するための画像処理パラメータ(127)を改善する。改善された画像処理パラメータは、サーマルイメージングデバイス(101)が生成した後続の熱画像を処理する際に改善した結果を生成するために、サーバ(115)が使用できる。
ユーザーインタフェースは、サーマルイメージングシステムのサービスを使用し、イメージングパラメータ(127)の継続的な改善のために使用できる。サーバ(115)が環境で検出したイベントの通知を生成するとき、モバイルデバイス(105)上のユーザーインタフェースは、通知を提示し、通知の精度を評価するユーザーフィードバックを受け取ることができる。ユーザーフィードバックを使用して、イメージングパラメータを調整し、ユーザーアカウント(121)での追加のイベントの分類及び通知を改善し、偽アラームを減少させることができる。
例えば、サーマルイメージングデバイス(101)が、赤外線検知ピクセルのアレイを使用し、環境(107)の熱画像を取り込んだ後、サーバ(115)(またはモバイルデバイス(105)または別のホストデバイス、またはサーマルイメージングデバイス(101))は、熱画像のコンテンツを分析するためにコンピュータビジョン技術を使用できる。一般的に、熱画像から熱オブジェクトのコンテンツを抽出するために、分野で既知の任意のコンピュータビジョン技術を使用することができる。熱オブジェクトは、一般に環境の熱背景とは異なる温度を有する。熱オブジェクトの例は、人、ペット、ストーブ、テレビなどを含む場合がある。例えば、熱背景から閾値の上または下の特定の温度の物体を抽出するためには簡略な閾値セグメンテーションを使用できる。
人間は、通常、背景よりも高い体温を有する。したがって、セグメンテーションは、背景から人間の熱画像を抽出するために適用できる。ブロブの向き、ブロブの形状、ブロブ隣接ピクセルに関するブロブ分析は、人間の形状、姿勢、及び/または活動についての情報を抽出するために実行できる。例えば、ブロブの割合は人間の姿勢を知る上での手掛かりになり得る。
一部の物体は人間のような温度を有する場合があるが、通常、静的である。したがって、ブロブの移動及びブロブの形状変化(空間的なブロブの変化)の時間分析は、TV、PCモニタ、家電などの静的な「ホットスポット」を除外するために実行できる。
例えば、人工ニューラルネットワークは、サーマルイメージングデバイス(101)によって取り込まれた熱画像から抽出された熱ブロブを分類するように訓練できる。
図1のサーマルイメージングシステムは、メッセージング機能を有する場合がある。メッセージトリガ(109)は、サーマルイメージングデバイス(101)からの熱画像から識別/検出/分類された所定のタイプのイベントに応えて通知を送信するようにプログラムできる。例えば、人物の転倒などの所定のタイプのイベントの検出によってトリガされた通知は、ショートメッセージサービス(SMS)、eメール、プッシュ通知、アプリケーションプログラミングインタフェース(API)などを使用し、アカウント(121)のユーザーに送信できる。いくつかの例では、通知は、音、サイレン、光などの形の物理的なアラームをトリガできる。
例えば、危険なホットスポットまたは火災脅威のアラームに相当する熱イベントの検出に応えて、ユーザーアカウント(121)で識別されたアドレス及び/またはデバイスにアラーム通知を送信できる。例えば、危険なホットスポットまたは火災脅威のアラームのイベントは、閾値(例えば、摂氏200度)を超えた温度を有する熱ブロブの識別によってトリガされるようにプログラムすることができる。
検出技術は、サーバ(115)の画像処理プロセッサ(129)で、またはモバイルデバイス(105)などのホストデバイスで、またはサーマルイメージングデバイス(101)で実装できる。
サーバ(115)は、画像処理プロセッサ(129)を使用し、人間がサーマルイメージングデバイス(101)の視界内の環境(107)に進入すると、サーマルイメージングデバイス(101)によって取り込まれる熱画像の中の人間(103)を検出できる。
例えば、環境(107)は、高齢者及び/または患者向けのサービスを伴う部屋である場合がある。
例えば、環境(107)は、高齢者及び/または患者向けのサービスを伴う部屋である場合がある。
サーバ(115)は、検出した人間(103)についての空間的な及び時間的な情報を使用して、人間の活動データを提供できる。そのようなデータは、休んでいる人間、活発な人間、見えない人間、または転倒する人間を含む場合がある。
例えば、人間の転倒の検出を実行するために、人間(103)を表す熱画像のブロブを人間の典型的な温度範囲に基づいて抽出できる。サーバ(115)は、人間(103)が立っていると見なされるかどうかを判断するためにブロブの向き及び/または形状を分析できる。例えば、人間のブロブの高さ対幅のアスペクト比が閾値よりも高い場合、人間(103)は立っていると見なすことができる。例えば、ブロブの水平拡張が係数分、ブロブの高さよりも大きいとき、サーバ(115)は、人間のブロブが横たわっている人間を有する閾値可能性よりも高い可能性を有する領域内にある場合、見取り図(125)に従って、人間の動き/行動を横になっていると分類することができる。そのような領域の例は、人が休んでいる場合があるベッド、人が横たわるまたは転倒する場合がある活動領域、廊下などを含む。サーバ(115)は、人間(103)の動き/活動を分類するために人間のブロブの形状の時間的変化をさらに使用できる。
例えば、人間のブロブが、活動領域または廊下で横になっている人間(103)を表すという判断によって、サーバ(115)は、人間転倒のイベントが検出されたと判断できる。サーバ(115)は、人間が、閾値よりも長い期間転倒位置にいると判断される場合、アラーム及び/または通知をトリガするように構成できる。例えば、通知は、看護師に処置を講じるように促すために看護師のタブレットコンピュータに送信できる。通知は、看護師が、必要な場合、支援を提供し得るように環境(107)(例えば、特定の部屋)を識別できる。
サーマルイメージングデバイス(101)が低い解像度を有する場合、熱監視は非侵入型であり、環境(107)の占有者のプライバシーを保護する。しかしながら、低解像度監視によって活動及び/または物体の検出の精度が下がる場合がある。サーマルイメージングがほとんどピクセルを有さないとき、画像処理プロセッサ(129)が機能するために有する詳細及び情報はより少ない。例えば、人間の頭部が単一のピクセルとして表示され、いかなる顔の詳細を検出することも不可能にし、したがって活動または特徴のパターンを正確に検出することを困難にする場合がある。しかしながら、同時に、そのような低解像度イメージングは人間の識別に十分な情報を提供しないため、プライバシーを改善する。人間が一定の確率で検出または認識できる場合、単に人物検出は可能である。
例えば、転倒検出の基準は、人間の熱いブロブの水平向きを含む場合がある。しかしながら、人間の水平位置は、転倒として解釈できるであろうが、ベッド内に、またはソファの上に横たわっている人物でもあるであろう。限られた解像度は、精度に対して制限を有するが、プライバシーの理由からは望ましい。
サーマルイメージングデバイス(101)が低解像度を有すると、モバイルデバイス(105)はユーザーインタフェースを使用して情報を取得し、人間に関係するイベントを検出する上でのサーマルイメージングシステムの精度を高めるように構成できる。
図2~図21は、一実施形態に従ってサーマルイメージングシステムを構成するためのユーザーインタフェースの例を示す。ユーザーインタフェースは、図36~図40の方法に関連して以下に説明される。
図36は、環境(107)で図1のサーマルイメージングシステムのサーマルイメージングデバイス(101)をセットアップするための方法を示す。
ブロック131で、サーバ(115)は、ユーザーアカウント(121)を作成または登録する。例えば、サーマルイメージングシステムの設置者またはユーザーは、ユーザーアカウント(121)を使用して、サーマルイメージングデバイス(101)のデバイス識別子(123)を登録する、モバイルデバイス(105)上でモバイルアプリケーションを実行してサーマルイメージングデバイスを介して提供されるサービスにアクセスするなど、サーマルイメージングシステムと対話することができる。そして、任意選択で、モバイルアプリケーションを使用して、サーマルイメージングデバイス(101)によって監視された環境(107)の見取り図(125)を生成するための情報を提供する、及び/またはユーザーアカウント(121)の熱画像を処理する上でのイベント検出精度を構成し、改善するための画像処理パラメータ(127)を提供する。
ブロック133で、サーバ(115)は、サーマルイメージングデバイス(101)をユーザーアカウント(121)にリンクするためにデバイス識別子(123)を記憶する。例えば、サーマルイメージングデバイス(101)が物理的に入手され、例えば箱から出された後、ユーザー(103)はモバイルアプリケーションを使用してサーマルイメージングデバイス(101)をユーザーアカウント(121)にリンクできる。例えば、モバイルデバイス(105)は、カメラとインターネット接続とを有するスマートフォンである場合があり、スマートフォンで実行中のモバイルアプリケーションはそのカメラを使用して、サーマルイメージングデバイス(101)のデバイス識別子(123)を有するバーコードを取り込むまたは走査して、サーバ(115)にサーマルイメージングデバイス(101)をユーザーアカウント(121)にリンクさせることができる。代わりに、モバイルデバイス(105)は、サーマルイメージングデバイス(101)をユーザーアカウント(121)にリンクするために、(例えば、ユニバーサルシリアルバス(USB)ケーブルを使用し)ケーブル及び/またはコネクタを介してサーマルイメージングデバイス(101)に物理的に接続することができ、サーマルイメージングデバイス(101)とユーザーアカウント(121)との間でリンクを確立するための通信は、モバイルデバイス(105)/サーマルイメージングデバイス(101)とサーバ(115)との間で無線及び/または有線接続を介して行うことができる。モバイルデバイス(105)によって提供されるユーザーインタフェースを介して、サーマルイメージングデバイス(101)は、モバイルデバイス(105)から追加の支援なしにサーバ(115)と通信するように構成される。このようにして、サーマルイメージングデバイス(101)とサーバ(115)との間の通信接続の構成後、モバイルデバイス(105)は、サーマルイメージングデバイス(101)から物理的に切断できる。サーマルイメージングデバイス(101)の追加の構成は、無線接続または有線接続を介して実行できる。例えば、図2に示すようなユーザーインタフェースは、ユーザーに、サーマルイメージングデバイス(101)の識別コードを取り込んで、サーマルイメージングデバイス(101)をユーザーアカウント(121)にリンクするように促すことができる。代わりに、ユーザー(103)は、サーマルイメージングデバイス(101)のシリアルナンバーを入力することによってサーマルイメージングデバイス(101)をユーザーアカウント(121)にリンクするために、サーバ(115)のウェブサイトを使用できる。
ブロック135で、サーバ(115)は、サーマルイメージングデバイス(101)によって監視される環境(107)の住所及び/またはその住所でのサーマルイメージングデバイス(101)の監視領域の特定の場所を識別する部屋番号または説明など、サーマルイメージングデバイス(101)を場所にリンクするためのデータを記憶する。例えば、図3に示すユーザーインタフェースは、ユーザーに場所を識別するように促すことができる。
サーマルイメージングデバイス(101)と場所との間の関連付けは、いつでも指定及び/または修正することができる。しかしながら、例えば図2に示すようなユーザーインタフェースを使用してプロセスを通じてユーザーを誘導すると、設置手順を非常にユーザーフレンドリかつ簡略にすることができる。
同じ場所を監視するために、2つ以上のサーマルイメージングデバイスを割り当てることができる。例えば、リビングルームは広い場合があり、いくつかのサーマルイメージングデバイス(例えば、4つ)が必要とされる場合がある。例えば、部屋のそれぞれの隅には、そこにサーマルイメージングデバイスを設置してもよい。
ブロック137で、サーマルイメージングシステムは、ユーザーにサーマルイメージングデバイス(101)の電源を投入し、サーマルイメージングデバイス(101)からサーバ(115)へのデータ送信を構成し、サーマルイメージングデバイス(101)を設置するように命令できる。例えば、データ送信は、インターネットに接続される無線ローカルエリアネットワーク(例えば、WiFi)を介して、またはサーバへの有線接続(例えば、イーサネット)を介して実行されるように構成できる。例えば、サーマルイメージングデバイス(101)の設置は、単にサーマルイメージングデバイス(101)に事前に設置された接着テープの裏当てを取り除き、環境の1つ以上の表面にサーマルイメージングデバイス(101)を取り付けることによって実行できる。例えば、2017年5月26日に出願された、米国特許出願第15/607,345号明細書に開示された設置及び較正の技術を使用できる。特許出願の開示の全体は、参照によって本明細書に援用される。設置137は、環境(107)を監視するために使用されるサーマルイメージングデバイス(例えば、101)に対して繰り返すことができる。任意選択で、ブロック137での操作は、ブロック135及び/またはブロック133の操作(複数可)の前に処理できる。例えば、サーマルイメージングデバイスの電源投入は、サーマルイメージングデバイスのユーザーアカウント(121)へのリンク及び/またはサーマルイメージングデバイスの場所へのリンクの前に実行できる。一般的に、サーマルイメージングデバイス(101)を電源投入する操作、そのデータ送信を構成する操作、サーマルイメージングデバイスをユーザーアカウントにリンクする操作、及びサーマルイメージングデバイスを場所にリンクする操作は、任意の順序で実行できる。
任意選択で、ブロック139で、サーマルイメージングデバイス(例えば、101)は、景色及び/または部屋に基づいてグループ化できる。デバイスのグループ化は、ユーザー(103)が連続ステップで時間を節約できるように、ブロック141でのシステム初期化の前に行うことができる。
ブロック141で、サーマルイメージングシステムは、新規に設置したサーマルイメージングデバイス(例えば、101)の初期化を実行する。このようにして、サーバ(115)はセットアップされ、構成のために読み込まれる。図4に示すユーザーインタフェースは、初期化の成功をユーザー(103)に知らせ、構成プロセスを通してユーザー(103)を誘導するために使用できる。
ブロック143で、構成プロセスは、任意選択で、所定のイベント検出サービスを有する特徴の選択を含む場合がある。
ブロック145で、構成プロセスは、任意選択で、イベント検出の選択した特徴を試験し、微調整するための較正操作及び検証操作を含む場合がある。
いくつかの例では、特定の特徴は事前に選択することができ、ユーザー(103)は、ユーザーのニーズに基づいて一連の特徴から選ぶ、及び/または選択を調整するためのユーザーインタフェースを提供される。特徴選択(143)は、検証(145)後に行うことができる。ただし、検証は、特徴が既知であるとより効果的である場合がある。
例えば、図4に示すユーザーインタフェースは、初期化の成功を認めた後、図5に示すユーザーインタフェースがリストから特徴を選択するようにユーザー(103)を誘導指導する。いくつかの特徴は特定の予約申し込み計画に含められる場合がある。一方、他の特徴はアドオンサービスである場合があり、それに対してユーザー(103)は別途請求される場合がある。いくつかの特徴は無料である場合がある。一方、いくつかの特徴は有料で提供され、それらに付属した取引条件を有する場合がある。
物理的な設置は、サーマルイメージングデバイス(例えば、101)の解像度、向き、または位置に対するいかなる制限もなく、任意のタイプのサーマルイメージングデバイス(例えば、101)を含む場合がある。任意選択で、サーマルイメージングデバイス(例えば、101)は、サーマルイメージング用の画像センサに加えて他のセンサを含む場合がある。
室内の熱平衡のため、多くの部屋の品目は、類似した温度及び放射率を有し、環境(107)の熱画像で低いコントラストでまたはコントラストなく表示される場合がある。類似した温度によって、品目は、部屋の背景から熱バンドで実質的に区別がつかなくなる。
したがって、環境の熱画像は、部屋のレイアウト及び物体についての十分な情報なしには一様に見える場合がある。したがって、熱画像は、環境(107)の場所の特徴を識別する見取り図(125)を決定するために使用することはできない。場所の特徴は、環境での人間の活動を解釈し、イベント検出を容易にするために使用できる環境(107)の領域の部分の属性を提供する。
したがって、環境の熱画像は、部屋のレイアウト及び物体についての十分な情報なしには一様に見える場合がある。したがって、熱画像は、環境(107)の場所の特徴を識別する見取り図(125)を決定するために使用することはできない。場所の特徴は、環境での人間の活動を解釈し、イベント検出を容易にするために使用できる環境(107)の領域の部分の属性を提供する。
2017年5月26日に出願された米国特許出願第15/607,345号明細書は、景色の地理的情報を取得して見取り図(125)を決定し、熱画像の中で識別された物体/被写体の次元の決定のための基準を計算するためのいくつかの技術を開示する。
図37は、一実施形態に従って場所を監視するための景色モデルを確立するための方法を示す。
ブロック151で、モバイルデバイス(105)で実行中のモバイルアプリケーションは、図6及び図7に示すように参考写真を取り込む際にユーザーを誘導する。
図6及び図7は、見取り図(125)の生成のために環境(107)の写真を取り込むようにユーザーを誘導するためにモバイルデバイス(105)で実行中のモバイルアプリケーションを使用するためのユーザーインタフェースを示す。ユーザーは、ユーザーインタフェースを介して、環境(107)の1つ以上の参考写真を撮影するように命令のセットによって誘導される。
例えば、命令は、ユーザーに、ユーザー(103)及びユーザーアカウント(121)と関連付けられたカメラ(例えば、スマートフォンなどのモバイルデバイス(105)のカメラ)をサーマルイメージングデバイス(101)と同じ方向に向け、そのような向きから参考写真を撮影するように依頼することができる。例えば、サーマルイメージングデバイス(101)が部屋の端または隅に取り付けられる場合、ユーザーは、隅にまたは端の近くに立って、サーマルイメージングデバイス(101)の見る向きと実質的に一致する向きで写真を撮影するように命令される。
例えば、モバイルデバイス(105)上に提供されるユーザーインタフェースは、ユーザーに、図6に示すように、(例えば、モバイルデバイス(105)の)カメラを特定の領域の方に向けるように命令できる。そのような領域の例は、部屋の壁である。サーバ(115)またはモバイルデバイス(105)で実行中のモバイルアプリケーションは、壁などの領域の境界線を検出するためにコンピュータビジョン分析を実行できる。例えば、図7に示すようなユーザーインタフェースのライブビューは、ユーザーがそのような特定の領域をより容易に見つけるためにカメラのライブビューに重ね合わされるレイアウト表示(301)及びレイアウト注釈(例えば、左壁)を提供する。特定の領域が環境にない場合、ユーザーインタフェースは、ユーザーに、次の領域(例えば、左壁が見えない場合、右壁)の参考写真を取り込むように命令できる。
例えば、ユーザーインタフェースは、ユーザー(103)に、サーマルイメージングデバイス(101)の向きに類似した向きから環境のパノラマ写真を撮影するように命令できる。パノラマ写真は、領域のある部分から別の部分にカメラをパンすることによって取得できる。さらに、ユーザーインタフェースは、ユーザーに、ベッドまたはTVまたはドアなど、関心のある領域にカメラを向けるように命令できる。
ブロック153で、モバイルデバイス(105)は参考写真をサーバ(115)に送信する。
ブロック155で、サーバ(115)及び/またはモバイルデバイス(105)で実行中のモバイルアプリケーションは、参考写真の特徴、コンテンツ、領域、及び地形を分析できる。
ブロック157で、サーバ(115)及び/またはモバイルアプリケーションは、参考写真から特徴、コンテンツ、領域、及び地形を抽出して、見取り図(125)などの景色モデルを確立できる。
ブロック159で、サーバ(115)は、サーマルイメージングモジュール(101)と関連して景色モデルを記憶する。
例えば、参考写真は、ベッド、窓、ドア、ライト、電化製品、家具など、場所の特徴(例えば、所定のタイプの領域)を識別するために分析できる。そのような特徴は、通常、目に見え、人間の目に可視の光バンドで、及びモバイルデバイス(105)のカメラによって取り込まれた写真の中で識別可能である。いくつかの照明状態では、明るく、高い彩度の場所の特徴は、他の特徴よりもより容易に識別できる。場所の特徴は、イベントの検出、識別、及び/または分類に使用できる属性を有する環境の異なる部分に注釈を付ける見取り図(125)を生成するために3次元空間モデルに外挿できる。
いくつかの例では、モバイルアプリケーションによって提供されるユーザーインタフェースは、拡張現実(AR)定規及び測定ツールを含む場合がある。このようにして、いくつかの幾何学的な特徴は、自動的に、またはユーザー(103)によって提供される入力を用いて、のどちらかで視覚的な写真から抽出できる。
代わりに、ユーザーは、空白または特徴を有する事前に設定された3次元モデル空間を構成し、モバイルアプリケーションを使用し、環境(107)の3次元モデルを構築するオプションを有する場合がある。
モバイルアプリケーションのユーザーインタフェースを使用し、生成された視覚的な基準は、ユーザーによる写真撮影の場所と実際のモジュールの配置との間の距離及び向きが未知であるため、精度が制限される場合がある。さらに、コンピュータビジョン及び拡張現実(AR)ツールは、その検出精度に対して限界を有する場合がある。しかしながら、視覚的な基準は、環境(107)の見取り図(125)の場所の特徴の貴重な最初の近似を提供することができる。プロセスは、視覚的な基準を使用し、構築されたモデルの精度を高めるために繰り返すことができる。したがって、サーマルイメージングデバイス(101)は、人間の目に可視の光の中で画像を取り込むための視覚カメラを必要としない。
サーマルイメージングデバイス(101)にカメラを含めることによって、プライバシーに対する懸念が高まる場合がある。視覚参照は、性質の異なるツール(例えば、環境(107)の通常の操作/監視の間サーマルイメージングデバイス(101)の一部ではないモバイルデバイス(105))を使用し、実行される。視覚参照の実行は、設置/構成プロセスに制限される。したがって、プライバシーに対する懸念を低減または排除することができる。視覚参照は、ユーザー(103)からの多くの努力を必要としない。視覚参照はユーザーフレンドリとなり、少ししか時間をとらないように設計されており、モバイルデバイス(105)のカメラが使用されるので費用効果が高く、これはすでに利用可能である。視覚参照のタスクを実行するために追加のカメラは必要とされない。部屋のレイアウトが時間と共に変化したとしても(例えば、ベッドまたは家具、またはサーマルイメージングデバイス(101)を移動する)、視覚参照は繰り返すことができる。レイアウト変更のそのような例では、モバイルデバイス(105)上に提供されるユーザーインタフェースは、システムの画像処理が従前に構成された基準と相互に関連しないときなどに、ユーザーに、視覚基準を再度取り込むように促す場合がある。
サーマルイメージングデバイス(101)にカメラを含めることによって、プライバシーに対する懸念が高まる場合がある。視覚参照は、性質の異なるツール(例えば、環境(107)の通常の操作/監視の間サーマルイメージングデバイス(101)の一部ではないモバイルデバイス(105))を使用し、実行される。視覚参照の実行は、設置/構成プロセスに制限される。したがって、プライバシーに対する懸念を低減または排除することができる。視覚参照は、ユーザー(103)からの多くの努力を必要としない。視覚参照はユーザーフレンドリとなり、少ししか時間をとらないように設計されており、モバイルデバイス(105)のカメラが使用されるので費用効果が高く、これはすでに利用可能である。視覚参照のタスクを実行するために追加のカメラは必要とされない。部屋のレイアウトが時間と共に変化したとしても(例えば、ベッドまたは家具、またはサーマルイメージングデバイス(101)を移動する)、視覚参照は繰り返すことができる。レイアウト変更のそのような例では、モバイルデバイス(105)上に提供されるユーザーインタフェースは、システムの画像処理が従前に構成された基準と相互に関連しないときなどに、ユーザーに、視覚基準を再度取り込むように促す場合がある。
例えば、サーバ(115)及び/または画像処理プロセッサ(129)は、(例えば、図6及び図7に示すように)参考写真を取り込み、場所の特徴を識別し、視覚的な画像処理技術及びAR測定ツールなどのツールを使用し(写真の永続記憶を用いてまたは用いずに)見取り図(125)を構築するために写真を解析し、場所の特徴、コンテンツ、領域、及び地形を抽出し、環境の3次元モデルを生成し、サーマルイメージングデバイス(101)の識別子(123)と関連する場所情報を有する見取り図(125)としてモデルを記憶するようにユーザー(103)を誘導するように構成できる。
サーバ(115)は、イベントを分類するために見取り図(125)を使用できる。例えば、人間(103)が水平位置にいる旨の判断に応えて、サーバ(115)は、熱画像の中で検出された人間(103)がベッドの領域に位置するとき、「ベッド内の人間」としてイベントを分類し、検出された人物(103)が廊下または活動領域に位置するとき、「人間転倒」としてイベントを分類することができる。
いくつかの例では、複数の部屋の見取り図(例えば、125)は同様に見える場合がある。例えば、高齢者介護施設は、多くの部屋に同じ見取り図を有する場合がある。したがって、見取り図(125)を参照またはコピーするだけで、ある部屋の見取り図(125)を他の部屋のために使用することができる。いくつかの例では、事前に構築された見取り図は、環境(107)のための見取り図(125)を構築するための開始点としての選択のために提示できる。見取り図設定は、サーマルイメージングシステム(TIS)の初期化プロセスでは任意選択である場合がある。
図38は、一実施形態に従って場所を監視するためのイベント検出モデル及びパラメータを確証するための方法を示す。
参照パラメータ及び較正パラメータを確立した後、サーバ(115)は、サーマルイメージングデバイス(101)からの熱画像に基づいてインベントを分類する際に使用可能である。31の方法は、サーマルイメージングシステムの検出機能を試験及び/または確証するために使用できる。検証は、任意選択で、または較正及び構成プロセスの一部として行うことができる。
コンピュータビジョン技術の一般的な問題は、100%の精度を提供または保証することができない点である。部分的な隠蔽、景色の変化、または予期せぬ特徴などのいくつかの小さい未知の要因によって、コンピュータビジョンが混乱し、偽の結果が提供される場合がある。
このような欠点を克服するために、モバイルデバイス(105)で実行中のモバイルアプリケーションは、サーマルイメージングシステムによって検出される特定のイベントの人間の検証/確証を容易にするためのユーザーインタフェースを提供できる。確証は、システムが、システムによって検出されるべきであるイベントを検出できるかどうか、システムによって検出されたと報告されたイベントが環境(107)の中に実際に存在するかどうか(例えば、誤検出)、及び/またはシステムによって検出されたイベントが正しく分類されるかどうかを検証するために使用できる。ユーザーインタフェースによって、ユーザー(103)が、サーマルイメージングシステムの検出結果に注釈を付けるためのフィードバックをサーマルイメージングシステムに提供することを可能にし、その結果、システムの精度を高めることができる。サーマルイメージングシステムの精度を高めるためのそのような方法は、非常に貴重である場合がある。経時的に及びいくつかのフィードバックループを介して、システムは改良し、きわめて正確な結果を提供することができる。
ブロック161で、図38の方法は検証プロセスを開始する。
ブロック163で、モバイルアプリケーションは、ユーザーにある場所での位置を入力するように命令する。そのような場所は、見取り図(125)を使用し、識別できる。一般的に、見取り図決定のために操作を実行することは任意選択である。例えば、「ベッド内検出」を実行するために、パノラマ写真が、「ベッド内検出」のサービスの前に見取り図決定のために取得される場合もあれば、取得されない場合もある。
ブロック165で、サーマルイメージングシステムは、熱画像を処理して、ユーザーが場所(165)の位置にいることと一致するイベントを検出する。
ブロック167で、モバイルアプリケーションは、サーマルイメージングシステムがイベントを検出したかどうかを判断する。
ブロック169で、モバイルアプリケーションは、サーマルイメージングシステムがイベントを検出できるとき、モバイルアプリケーションに対するユーザー入力に基づいて検出の確認を提供する。
ブロック169で、サーマルイメージングシステムが、ユーザーが場所(165)の位置にいることと一致するイベントを検出できないとき、モバイルアプリケーションは、ユーザーに、システムをさらに構成する命令を与える。
例えば、図8は、検証プロセスを開始するためのユーザーインタフェースを示す。各検出特徴は1つずつ検証される場合もあれば、スキップする場合も、または後の時点で検証される場合もある。例えば、ベッド内の特徴検出の場合、図9に示すように、被写体はベッドに横になっているように命令される。被写体は、ユーザー(103)または他の誰かである場合がある。
サーマルイメージングシステムがベッド内の人間のイベントを検出できる場合、図9に示すユーザーインタフェースは、メッセージ「ベッド内検出」を使用し、検出を報告し、ユーザーが、図10の「検証」ボタンを選択することによって確認を提供できるようにする。メッセージ「ベッド内検出」は、(例えば、カラースキーム、フォント、及び/または動画によって)強調表示できる。例えば、検出は、人間の体温の範囲内の温度を有する熱画像のブロブを検出することに基づいて、及びブロブが水平向きにある旨、及び任意選択でブロブが見取り図(125)によって識別されたベッド領域内にある旨の判断に基づいて実行できる。
任意選択でまたは組み合わせて、検出の成功を示すために音響信号または通知を再生できる。検出が正確かつ真である場合、ユーザーインタフェースは、ユーザーに、図10に示す「検証」ボタンをクリックするなど、フィードバックを提供するように促す。
人間の検証がサーマルイメージングシステムで受け取られると、サーバ(115)は、検証した検出特徴(例えば、ベッド内の人間)と関連する画像処理パラメータ(127)として熱画像から抽出された人間のブロブの位置及び/または他の特性を記憶できる。したがって、後続の検出が画像処理パラメータと一致すると、正確な検出の可能性は改善される。
図22は、注釈が付けられたベッド領域(305)の中の人間の被写体のブロブ(303)を有する低解像度熱画像の例を示す。被写体は、デフォルトの背景減算によって強調表示される場合がある。背景は、図22の画像では黒く見え、一方、ブロブ(303)によって表される被写体は、背景に対してグレイスケール及びコントラストを有する。被写体の位置は、そのブロブのサイズ、形状、及び向きに基づいて決定できる。この例では、被写体の向きは水平であり、サーマルイメージングシステムは、被写体がベッド内におり、横になっていると判断する。人間の被写体を表すブロブ(303)の向き及びサイズから、サーバ(115)は、ベッド領域(305)の周囲を推定でき、これは、見取り図(125)を拡大させるために使用でき、及び/または画像処理パラメータ(127)の一部として記憶できる。
いくつかの例では、検出結果メッセージ(例えば、「ベッド内検出」)は、正確または真ではない場合がある。例えば、被写体がベッドに近づく、またはベッドに近いソファに座った場合、それに応じて、サーマルイメージングシステムは、被写体がベッド内にいると誤って結論付け、このようにして検出結果の偽表示を提供する場合がある。そのような状況では、図10に示すユーザーインタフェースによって、ユーザーは、「ベッド非占有」を選択して、サーマルイメージングシステムを補正するためのフィードバックを提供できる。フィードバックは、ベッド内の人間の検出と関連するパラメータを上書きする場合がある。例えば、サーバ(115)は、見取り図(125)の中で、人間のブロブによって占有された領域を「ベッドではない」としてマークすることができ、そのため、人間のブロブが領域で再び検出されると、サーバ(115)は領域内の人間の存在をベッド内の人間として分類しない。
他の例では、図11のユーザーインタフェースを介して命令されるように、被写体がベッド内にいるが、サーマルイメージングシステムが、熱画像がベッド内の人間を示していると判断することができないとき、図12のユーザーインタフェースは、一定期間後に提示されてシステムがイベントを検出できなかったことを示すことができる。ユーザーがボタン「ベッド内にいますが、アラーム表示は表示されませんでした」を選択すると、図13に示すユーザーインタフェースが提示されて、ユーザーに、人間の被写体は現在ベッド内にいるのか、それとも人間の被写体は現在ベッド内にいないのかを指定するように促すことができる。サーバ(115)は、図13のユーザーインタフェースでユーザーによってなされた選択を、見取り図(125)及び/または画像処理パラメータ(127)を調整して検出計算を改善するために使用することができる。
例えば、ユーザーが、ボタン「ベッド内の被写体」をクリックすることによって被写体がベッド内にいると確認する場合、人間のブロブの形状、人間のブロブのタイプ、人間のブロブの向き、及び場所のパラメータは、コンピュータビジョンの計算を調整して、水平位置にいる人間を表すブロブ、及び/または見取り図が、ブロブの場所がベッド領域であることを示すために調整できる旨の結論に到達できる。したがって、ブロブのこの特定の形状、場所、向き、サイズ、及び温度プロファイルは、ベッド内の人間の確実な識別のために関連付けられるものとする。
サーマルイメージングデバイス(101)の向き及びおそらく撮像歪みのため、横になっている被写体を示すブロブは、立っている被写体を示すブロブに類似した割合を有する場合がある。図11~図13のユーザーインタフェースを使用する、上記に示す検証プロセスによって、サーマルイメージングシステムは、検出パラメータを微調整して正確な結果を生成することができる。
例えば、ユーザーが図13のボタン「ベッド内の被写体」を選択すると、サーバ(115)は、ブロブ(303)によって占有された領域のためとサーマルイメージングデバイス(101)の向き分類のためのサイズ、形状、比率の閾値を調整またはカスタマイズすることができ、システムが、人間の被写体が横になっている旨の結論に達することを可能にし、したがってベッド内の人間の決定を容易にすることを可能にすることができる。
図22~図24は、異なる位置にあるベッド上の人間の被写体を示す。モバイルアプリケーションは、サーマルイメージングシステムに、異なる位置を用いてベッド内の人間を検出する際にサーマルイメージングシステムの機能を改善するために使用できるパラメータを提供するために、ユーザーに、ベッドで異なる位置をとるように命令することができる。
ユーザーインタフェースのセットは、図14~図16に示すように、さまざまな状況を対象にする検証イベントを使用することによってサーマルイメージングシステムの検出機能を改良するようにユーザーを誘導することができる。
図14~図16のユーザーインタフェースは、ベッド内の人間の検出の確証/改良のために、ユーザー(103)に一回または複数回、位置を変更するように命令する。ユーザーは、図22~図24に示されるようにベッド内で位置を変更できる。ベッド内の人間を示すとしてユーザー(103)によって識別される図22~図24に示す画像から、サーバ(115)は、ベッドの周囲、及びベッド内の人間を表すブロブ特性の推定値の異なるセットを収集する。このようにして、サーバは、関連する位置を「ベッド内/横になっている」としてマーキングできるだけではなく、ベッド内の被写体の異なる横になる位置から推定されたベッド周囲を結合することから、より正確にベッド周囲の場所を精緻化できる。被写体は、サーマルイメージングシステムを訓練するための技術的熟練または技術的知識を有することを要求されない。単に被写体にベッド内の位置を変更するように依頼するだけで、サーマルイメージングシステムは、イベントの検出及び/または分類のためのパラメータを改良するための入力のセットを取得できる。したがって、ユーザーインタフェースは、サーマルイメージングシステムの性能を改善する上で非常にユーザーフレンドリかつ効果的である。
人間の検証時、ユーザーインタフェースは、図17に示すように、ベッドを出るように、及び、ベッドに被写体、すなわち人間を戻すことを検証し直すように、被写体に命令できる。修正された/カスタマイズされた見取り図(125)及び改善された画像処理パラメータ(127)により、サーマルイメージングシステムは、再検証プロセス中に、図9に示すように、イベントを正しく検出し、検出結果メッセージ「ベッド内検出」を示すことができる。
図14~図16に示す改良プロセスは、デフォルト設定値を使用し、なされた検出結果に大きなオフセットがある場合(例えば、ベッド内で横になっているが、立っていると識別された人間)、または第2の検証実行が成功しない(例えば、ユーザーが、人間の被写体が実際にはベッド内にいることを明示的に確認しても、ベッド内が検出されない)場合に特に役立つ。改良プロセスによって、サーマルイメージングシステムは、より高い精度を獲得できる。
図18~図19は、ユーザー(103)に、一連の活動を実行して熱入力を生成し、サーマルイメージングシステムのイベント検出機能を改良するように命令するためのユーザーインタフェースのセットを示す。
図18のユーザーインタフェースは、ユーザーにベッドの周りを歩くように命令する。
ベッドの周りを歩く一連の活動の結果として、サーマルイメージングシステムは、図25~図28に示すような熱画像のセットを取り込む。熱画像は、ベッドの周りを歩く人間を示すので、サーバ(115)は、熱画像の中に取り込まれたユーザーの移動するブロブからベッドの周囲を推測できる。
ベッドの周りを歩く一連の活動の結果として、サーマルイメージングシステムは、図25~図28に示すような熱画像のセットを取り込む。熱画像は、ベッドの周りを歩く人間を示すので、サーバ(115)は、熱画像の中に取り込まれたユーザーの移動するブロブからベッドの周囲を推測できる。
一般的には、システムは、ユーザーに、自分自身を特定の場所の特徴の近傍に位置決めして、ベッド、またはソファまたはテーブル、または家具などの場所の特徴に注釈を付けるように命令できる。
ベッドの場合、ユーザーは、サーマルイメージングシステムがベッドの周囲を推定できるようにするために、ベッドの周りを歩くように命令される場合がある。さらに、ベッドの周りを歩くユーザーのブロブは、立っている/垂直の位置のユーザーを表す。立っている/垂直位置のユーザーのブロブの特性と、横になっている/水平位置のユーザーのブロブの特性とを比較すると、サーバ(115)は、ブロブの向き(例えば、立っている/垂直、または横になっている/水平)を分類するためにパラメータを導出/改良できるようになる。
例えば、ベッドの周りを歩き回っているユーザーの熱画像から、サーバ(115)は、ブロブの場所をマーキングし、記憶し、ブロブの隠蔽を識別することができる。隠蔽は、ユーザーの隠蔽部分の視線とサーマルイメージングデバイス(101)との間のベッドの部分と関連付けられる場合がある。さらに、ベッドの近くまたは周りを歩いているユーザーについて取得されたフレームごとに、ブロブパラメータを画像処理パラメータ(127)として記憶することができ、パラメータは、人間がベッドの近くにまたは隣に立っているのか、それともベッド内で横になっているのかの判断する際に参照される場合がある。
例えば、図18のユーザーインタフェースは、ユーザー(103)がベッドの周りを歩くのを終了するまで、メッセージ「・・・を検出中」を示す場合がある。自動的に、サーバ(115)は、人間をたどって、熱画像の中の人間のブロブの隣に周囲/地理的場所マーカーを描画する。人間の最初の動きで、サーバ(115)は、始線を人間の左側とすべきか、それとも右側とすべきかを判断できる。人間がベッドの周囲を歩くと、サーバ(115)は場所をマーキングする。いったんユーザー(103)が周縁の周りを歩くまたは周縁の周りを部分的に歩く(例えば、ベッドが壁に接している場合、ベッドの1つの辺だけ、2つの辺、または3つの辺に沿って歩くことができる)のを終了すると、サーバ(115)は、歩行の完了を検出し、図19のユーザーインタフェースに示す承認メッセージを提供することができる。任意選択で、モバイルアプリケーションは、ユーザー(103)がベッドの周りを歩いている間、図25~図28に示すような熱画像を示すことができる。
いくつかの例では、ベッドに沿って歩く辺が1つしかない場合、ユーザーは、リンク「歩行を終了」を選択することによってプロセスを停止できる。部分的な周縁は、閉鎖または推定手順(例えば、ポリラインを閉じる)を通してサーバ(115)によって自動的に閉じることができる。
一般的に、熱処理画像の検出特徴の検証の流れは、検証プロセスを開始することと、検証が成功したかどうかを確認することと、検証が成功した場合、パラメータに(例えば、デフォルトパラメータを正しいとして)注釈を付け、検証/確認メッセージをユーザーに提供することと、検証が成功しなかった場合、人間のユーザー(103)が手作業でイベント/特徴に注釈を付ける人間の対話を促すこと、または特徴の精度を改良するために熱入力を提供することとを含む場合がある。検証の流れは、検証が成功するまで繰り返すことができる。
例えば、ユーザーは、「室外検出」のために部屋から歩いて出るように命令される場合がある。そのようなイベントでは、人間のブロブは、サーマルイメージングデバイス(101)の熱画像によって取り込まれた景色の中から消える。現実には人間が部屋の外部にいるが、人間が部屋の内部で検出される場合、それは、デフォルトの画像処理パラメータがサーバ(115)に、静的なホットスポットを人間のブロブとして誤って識別させた結果としてあり得る場合がある。例えば、カウチまたはベッドに座っていることからの人間の熱の残留物(「熱の陰影」)によって、サーマルイメージングシステムは、人間がカウチまたはベッドの上にいると間違って結論付ける場合がある。そのような状況では、モバイルデバイス(103)に提供されるユーザーインタフェースは、ユーザー(103)に、自分が部屋(例えば、環境(107))の外におり、室内には誰もいないことを確認するように命令できる。ユーザーの確認によって、サーバ(115)は、室内の熱いブロブを「人間以外」または「静的」とマーキングして人間と静的な熱いブロブとをよりうまく区別できるようにする。さらに、「熱の陰影」の場合、サーバ(115)は、人間のブロブから「分離する」熱ブロブの場所を記憶し、身体の熱が物体に移される場合があるゾーンのこれらの場所をマーキングし、これらのヒートシグネチャを、たとえそれらが限られた時間量の間、人間の形状、サイズ、向き、及びヒートシグネチャを有する場合があったとしても、人間以外として示すことができる。さらに、ユーザーが室内に誰もいないことを確認しながらも、サーバ(115)によって「人間以外のホットスポット」が人間として識別されるなど、サーバ(115)によって検出された未定義の状態が依然としてある場合には、サーバ(115)は、上述の第2の改良手順のように、ユーザーがサーマルイメージングデバイス(101)によって検出され、次いでサーバ(115)が特定の場所及び状況を入口/または出口とマーキングできるまで、ユーザーが入口/出口ドアまで歩き、おそらく部屋/景色の中に歩いて入るために、さらにユーザーに指示することができる。
例えば、ユーザーは、「転倒検出」特徴を検証するために床の上に横になるように命令される場合がある。そのような特徴は、高齢者の介護には非常に役立つ場合がある。モバイルデバイス(105)上のユーザーインタフェースは、床の上に横になっている人物に関する検出ステータスを示すことができ、検出が示されない場合、次いでユーザーは、対話を通して検証するように命令されるであろう。転倒検出は、ベッド内検出または室外検出よりもより複雑である場合がある。すなわち、a)サーマルイメージングデバイス(101)の視界内で転倒が発生する場合がある膨大な量の位置及び場所がある、b)転倒が室内の物体によって部分的にまたは完全に隠蔽され、転倒の検出を困難にする場合がある、及びc)転倒が、サーマルイメージングデバイス(101)の視線及び視野がない領域で発生するため、検出不可能である場合、である。したがって、転倒検出は、サーマルイメージングシステムによって提供される他の検出機能の同じレベルの精度を達成するにはより困難である場合がある。他方、ユーザーに、考えられるすべての転倒の状況、位置、及び場所をシミュレーションするように命令することは、ユーザーフレンドリではないであろう。したがって、結果が識別されない場合(メタステート、例えば転倒と直立との間の未知の状態)にも、サーマルイメージングシステムは、その操作の開始のためにそのデフォルト設定値を使用してよく、これによって誤検出を提供し、転倒を示すことができる。誤検出は、転倒検出のアラームまたは通知であり、転倒は、サーマルイメージングシステムによって識別されるが、実際には、転倒ではなかった可能性がある。
例えば、ユーザーは、図29に示すユーザーインタフェースを使用し、関心のある特定の領域またはゾーンに移動するように命令される場合がある。図30に示すユーザーインタフェースは、ユーザーが関心のある特定の領域またはゾーンに入ると、ユーザーがアクティブにできる「承認」ボタンを含む。「承認」ボタンがアクティブにされると、サーマルイメージングデバイス(101)は、(例えば、図33に示され、サーマルイメージングデバイス(101)によって取り込まれた)環境(107)の熱画像(313)内のユーザーの画像(307)のブロブを識別し、ユーザーの画像(307)を使用してゾーンの推定されたサイズ及び場所を生成する。例えば、図31に示すユーザーインタフェースは、ゾーン(例えば、ベッド、活動領域、廊下、食事エリア)のサイズ、場所、及び/または形状を識別するプロセスを開始する。図34に示すようなユーザーの画像(307)の境界(309)は、ゾーンの境界の初期推定値として使用できる。推定は、ユーザーが推定を調整できるようにするために、図35に示すようにユーザーインタフェースに提示できる。例えば、ユーザーは指(311)を使用して、環境(107)の熱画像(313)を示すタッチスクリーン上で推定された境界にタッチし、選択し、サーマルイメージングシステムに推定された境界の場所及びサイズを調整させる。例えば、推定された境界(309)は、その場所を調整するために画像(313)の上をドラッグされる場合がある。例えば、推定された境界(309)は、そのサイズを拡大または縮小するためにスケールを変更される場合がある。いくつかの例では、指(311)は、タッチスクリーンに提示されたユーザーの画像(307)の周りに形状(309)を描画して、ゾーンの境界を指定し得る。代わりに、または組み合わせて、ユーザーは、図31のユーザーインタフェースが移される間にゾーンの中で動き回ることによって、環境(107)の熱画像の中でゾーンを描くためのペイントブラシツールとして自分の画像(307)を使用し得、ペイントブラシツールを使用し、描かれた画像(313)の中の領域は、ゾーンの形状及び場所を識別する。図33のユーザーインタフェースは、環境(107)の熱画像(313)で提示されるようにゾーンの境界(309)の場所、形状、及び/またはサイズに対するユーザーの承諾を確認するためにアクティブにできる「承認」ボタンを有する。
場所の特徴を識別するためのユーザー注釈は、サーマルイメージングデバイス(101)によって取り込まれた環境(107)の熱画像(313)から抽出されたユーザーの熱画像(307)だけではなく、他の物体の熱画像にも基づいて生成できる。図1のサーマルイメージングシステムは、環境(107)の背景温度とは異なる温度を有する熱い及び/または冷たい物体を識別及び/または抽出できる。そのような物体の例は、モデム、コンピュータ、テレビ(TV)、冷蔵庫、ストーブ、及び電化製品を含む。サーマルイメージングデバイス(101)は、環境(107)の熱画像(313)内の物体の熱画像のブロブを識別することができ、ユーザーに物体に注釈を付けるまたは分類するように要求する。例えば、ユーザーインタフェースは、環境(107)の熱画像から抽出した熱画像ブロブを強調表示し、ユーザーが物体の特徴付け/識別を選択できるようにするプルダウンメニューを提示してよい。熱画像ブロブが、物体(例えば、モデム)のタイプの所定の異なるヒートシグネチャに一致すると、図1のサーマルイメージングシステムは、ユーザーの確認をもってまたはユーザーの確認なしに自動的に物体に注釈を付けることができる。
いくつかの物体は、環境(107)の全体的な背景温度とは異なる放射率または温度の窓、ドア、シンク、及び物体などのコールドスポットまたはホットスポットである。
いくつかの物体は、環境(107)の全体的な背景温度とは異なる放射率または温度の窓、ドア、シンク、及び物体などのコールドスポットまたはホットスポットである。
日光照射によって環境(107)にホットスポットが生じる場合がある。このホットスポットは、それが非常にゆっくりと移動する場合があり、低解像度熱画像で人間のような形状を有する可能性があるため、人間として解釈されるであろう。任意選択で、日光照射により生じるこのホットスポットは、ユーザーによって注釈を付けられる場合がある。代わりにまたは組み合わせて、図1のサーマルイメージングシステムは、環境(107)の地理的地域の気象データを使用して、ホットスポットが日光照射の結果であるかどうかを判断できる。例えば、部屋の向き及びサーマルイメージングデバイス(101)の場所に比べた太陽のホットスポットの移動経路は、計算した経路とホットスポットの観察された場所/経路との一致があるかどうかを判断するために計算できる。一致の程度は、ホットスポットが日光照射の結果であるかどうかを判断するために使用できる。セットアップ中のモバイルデバイス(105)のコンパスセンサは、北の方向に対する景色の相対的な向きを識別し、このようにして日光照射により生成されたホットスポットの識別を容易にするために使用できる。
気象データは、空調装置(AC)または加熱器が環境(107)でおそらく操作され、したがって環境(107)の熱画像(313)の中で見られているかどうかを判断するために使用できる。例えば、外気温が、通常加熱器の使用につながる範囲内にある間に加熱器が図1のサーマルイメージングシステムで検出される場合、運転中の加熱器の存在は何ら異常ではないと判断できる。それに対して、外気温が暑く(例えば、摂氏100度)、加熱器が室内で運転中であり、室内の背景温度を上昇させる場合、図1のサーマルイメージングシステムは、ユーザー(103)及び/またはユーザーアカウント(121)に指定された他の受取人に通知または警告を送信する場合がある。気象データは、環境(107)の背景温度が、正常な生活に適した標準的な範囲内にあるかどうかを判断する上で役立つ場合がある。警告または通知は、環境(107)の背景温度が範囲外になると生成される場合がある。
サーマルイメージングデバイス(101)は、任意選択で、飛行時間型センサ、マイク、ライダーなどの他のセンサを含む場合がある。例えば、サーマルイメージングデバイス(101)のマイク及びスピーカは、偽アラームを解決する及び/またはユーザー注釈を生成する際に人間の管理者(またはコンピュータ化された管理者)と、環境(107)の中の人物との間の連絡を容易にするために使用できる。例えば、環境(107)が高齢者/患者の介護のために監視されるとき、サーマルイメージングデバイス(101)によって取り込まれた熱画像は、転倒など、考えられる異常な状況/緊急事態を検出するために分析できる。看護師は、通信を開始する、及び/または患者/居住者からフィードバックを入手するために状況を通知される場合がある。サーマルイメージングデバイス(101)への通信リンクを使用し、看護師は、モバイルデバイスで実行中のモバイルアプリケーションを操作して、音声を使用し、人物をチェックし、関与し、彼らが大丈夫であるかどうかを彼らに尋ねることができる。人物が「私は大丈夫です」と返答すると、類似した後続の検出のために後続の応答を調整するために、状況に注釈を付ける、及び/または状況を使用することができる。いくつかの例では、コンピュータ制御アテンダントが、音声変換シンセサイザを通して類似した音声通信を開始できる。人物(患者/居住者)からの音声応答は、応答を判断するために音声認識技術を使用し、自動的に分析できる。いくつかの例では、環境において人物からの音声応答を処理する、及び/または偽アラームを取り消す、偽アラームに注釈を付ける、支援のために看護師及び/または別の登録された人物を呼ぶなどの応答を策定するために、人工知能システムをサーバ(115)に実装できる。看護師が、転倒検出アラームが出るたびに部屋まで走って行く必要がないと、貴重な時間を節約することができる。いくつかの例では、音声インタフェースを、サーバ(115)に接続された別個のデバイスを使用し、実装できる。例えば、別個のデバイスは、環境(107)の中の人物から音声入力を受け取り、人物に音声応答を提供するモバイルデバイス(105)、スマートスピーカ、スマートテレビ、スマートホームハブ/コントローラなどである場合がある。
モバイルデバイス(105)は、ユーザー(103)が転倒検出通知に注釈を付けることを可能にするユーザーインタフェースを提供できる。例えば、サーバ(115)が転倒を識別し、通知を生成し、ユーザー(103)が実際には転倒がないと判断する場合、通知は誤検出であり、モバイルデバイス(105)のユーザーインタフェースは、ユーザー(103)が、通知を誤検出として評価するフィードバックを提供できるようにし、これによってサーバ(115)は、イベント(及び/または偽通知を生じさせる熱ブロブのパラメータ)に注釈を付ける。
図39は、一実施形態に従って検出したイベントの通知に対するユーザーフィードバックに基づいて図1のサーマルイメージングシステムを構成するための方法を示す。
ブロック181で、サーマルイメージングシステムは、環境(107)を監視するために取り付けられたサーマルイメージングデバイス(101)によって取り込まれた熱画像を処理してイベントを検出する。
ブロック183で、サーマルイメージングシステムのサーバ(115)は、モバイルデバイス(105)への通知を通してユーザー(103)にイベントを伝達する。図20に示すユーザーインタフェースは、通知を提示し、ユーザー(103)が、イベントの通知及び/または検出の精度についてフィードバックを提供できるようにする。
例えば、サーバ(115)が、立っているなど、既知の非転倒位置として分類できない形状、場所、サイズを有する人間のブロブを抽出すると、サーバ(115)はイベントを「人間転倒」として分類し、ユーザーアカウント(121)に登録されたモバイルデバイス(105)に対し「転倒検出」通知メッセージを生成することができる。
代わりにまたは組み合わせて、通知は、別のデバイス(例えば、サイレン、スピーカなど)へまたは別の構成されたユーザーへ送信できる。
モバイルデバイス(105)のモバイルアプリケーションは、通知に対する精度フィードバックに関するユーザー入力を受け取るために、図20に示すユーザーインタフェースを提供できる。代わりにまたは組み合わせて、サーバ(115)のウェブサイトは、ユーザーフィードバックを受け取るためのユーザーインタフェースを提供するために使用できる。
ブロック185で、サーバ(115)は、通知によって報告されたイベントの確認に関してユーザー(103)から入力を受け取る。
ブロック187で、サーバ(115)は、入力が、イベントの発生を確認するのか、それとも通知を誤検出として識別するのかを判断する。
ブロック189で、ユーザー入力が、通知によって報告されたようにイベントの発生を確認する場合、サーバ(115)は検出の有効性に注釈を付けるデータを記憶し、その後、ブロック191で、サーバ(115)は、イベントが後続の熱画像から再検出されると、ユーザー(103)に通知を送信できる。
ブロック193で、ユーザー入力が、通知を誤検出として識別する場合、サーバ(115)は検出の無効性に注釈を付けるデータを記憶し、その後、ブロック195で、サーバ(115)は、イベントが後続の熱画像から再検出されると、ユーザー(103)に対する通知を抑制できる。
例えば、図20のユーザーインタフェースは、通知を認めるために選択できるボタン「ミュート」、及びサーバ(115)に、警報/通知が「誤検出」であることを示すために選択できるボタン「これは本当の転倒ではありませんでした」を有する。
例えば、ユーザーが「これは本当の転倒ではありませんでした」を選択したのに応えて、通知をトリガする人間のブロブと関連する形状、特徴、場所、及び/または他のパラメータは、転倒と関連しないとして識別される場合があり、そのため同じまたは類似した形状、特徴、場所、及び/または他のパラメータを有する人間のブロブの将来の検出は、「転倒ではない」と分類される場合がある。
例えば、ユーザーが、ボタン「これは本当の転倒ではありませんでした」を選択せずにボタン「ミュート」を選択したことに応えて、サーバ(115)は、通知をトリガする人間のブロブと関連する形状、特徴、場所、及び/または他のパラメータに「本当の転倒」と関連するとして注釈を付けることができる。
注釈を付けられたパラメータは、サーマルイメージングデバイス(101)から熱画像で検出されたイベントを分類する上でサーバ(115)の精度を高めることができる。
サーバ(115)は、注釈が付けられたイベント通知と関連するパラメータを進捗させることによってイベント分類の精度を高めることができる。
例えば、特定の形状のブロブが「本物の転倒」としてマーキングされる場合、そのパラメータのわずかな異常/変形/偏差も将来の参照のために転倒としてマーキングすることができる。
いくつかの例では、サーバ(115)は転倒位置の人間のブロブを検出し、その後、人間のブロブが移動を開始する(例えば、ドアから歩いて出ていく)と判断する。そのような状況は、一般的に、緊急事態につながる高齢者または患者の転倒には相当しない。したがって、サーバ(115)は、そのような人間のブロブの姿勢が将来発生した場合、サーバ(115)が通知/アラームの送信を遅らせ、転倒が緊急事態であるかどうかを判断するため人間のブロブの次の動きを待機することができるように通知方針を調整できる。
また、転倒検出は、景色の特定の場所及び領域を考慮に入れることによって改善することもできる。例えば、ベッドの隣での転倒は部屋の中央においてよりもより可能性が高い場合がある。したがって、ベッドの検出は、ベッドの近傍での転倒を識別するために役立つ場合がある。
いくつかの実施態様では、人間のブロブが物体によって部分的に隠蔽されるようになると、サーバ(115)は、ブロブで表されている人間に確定的な状態をデフォルトで割り当てることができない。そのような状況では、サーバ(115)は、人間のブロブをメタ状態または未知の状態にあるとして識別できる。控えめな通知方針を実装するためには、サーバ(115)は、ユーザーが、図20に示すユーザーインタフェースを使用し、検出に注釈を付けることを可能にする転倒表示を送信できる。ユーザーフィードバックは、サーバ(115)がブロブによって表される人間の状態を分類すること、及び見取り図125(例えば、隠蔽の改良または隠蔽を生じさせる新しい物体)を改善することを支援する。
いくつかの実施態様では、人間のブロブは複数の状態にあると分類することができる。
控えめな通知方針を実装するためには、サーバ(115)は、例えば転倒表示を送信でき、これにより、ユーザーは、図20に示すユーザーインタフェースを使用し、検出に注釈を付けることが可能となる。ユーザーフィードバックは、サーバ(115)がブロブによって表される人間の状態を分類するのを支援する。さらに、サーマルイメージングシステムは、未知の状態を改善するのに役立てるためにユーザーに通知を送信できる。
控えめな通知方針を実装するためには、サーバ(115)は、例えば転倒表示を送信でき、これにより、ユーザーは、図20に示すユーザーインタフェースを使用し、検出に注釈を付けることが可能となる。ユーザーフィードバックは、サーバ(115)がブロブによって表される人間の状態を分類するのを支援する。さらに、サーマルイメージングシステムは、未知の状態を改善するのに役立てるためにユーザーに通知を送信できる。
いくつかの実施態様では、被写体が部分的に隠蔽される誤検出が識別されると、ユーザーインタフェースは、隠蔽についての情報を加えるオプションを提供する。図21に示すユーザーインタフェースは、例えば、メッセージ「本物の転倒ではありません(誤検出)。フィードバックをありがとうございます。場所のレイアウトは変化しましたか(例えば、ベッドが新しい場所に移動された)?」を提供できる。図21のボタン「はい」及びボタン「いいえ」は、レイアウトが変更されているかどうかを示すために、ユーザーにより、使用することができる。
いくつかの例では、サーバ(115)からのメッセージは、「被写体は(部分的に)隠蔽されていたため、警告が出されます。隠蔽の対象についての情報を提供してくれますか。」と述べる場合がある。ユーザーインタフェースは、次いで、ユーザー(103)が「はい」または「いいえ」のどちらかの1つを選ぶことができるように構成される。
ユーザーが場所のレイアウトが環境においてなされたことを示す場合、例えばドロップダウンリストが、レイアウト変更に関与する品目を識別するためにソファ、ベッド、キャビネット、椅子、テーブルなどの典型的な品目とともに提示される場合があり、ユーザー(103)は、品目がデフォルトリストで見つけられない場合、レイアウトのために品目を手作業で指定するオプションを有する。ユーザーインタフェースは、場所及びサイズについての情報(例えば、ベッドの左の、幅約1メートル、高さ2メートルのキャビネット)を受け取ることができる。そのような情報は、見取り図(125)に記憶され、イベント検出計算/分類(例えば、隠蔽処理)で使用することができる。さらに、ユーザーは、音声コマンドを介してモバイルデバイス(105)に情報を入力し得、モバイルデバイス(105)で実行中のモバイルアプリケーションは、関連する情報を取得及び抽出するために音声認識を使用できる。ユーザーは、例えば、「ベッドは前の位置から2メートル動かされ、新しい引き出しがベッドの左に加えられました」と言い、それに応えて、モバイルアプリケーションは情報を抽出し、パラメータ(127)の中でそれに注釈を付ける。
一般的に、上述のフィードバック機構は、サーマルイメージングシステムの任意の検出/通知機能と共に使用できる。例えば、サーマルイメージングシステムは、危険なホットスポット検出機能を実装できる。ホットスポットがサーマルイメージングシステムによって検出されると、サーバ(115)は、「危険なホットスポット検出」通知/アラームを生成できる。モバイルデバイス(105)に実装されたユーザーインタフェースは、検出したホットスポットが「良い」のか、それとも「悪い」のかに関してユーザーフィードバックを受け取ることができる。ストーブ、ホットプレート、電子レンジなどの「良い」ホットスポット物体は、環境における日々の生活で発生する場合がある。「ホットスポット」物体の温度は、人間の安全温度範囲を超える場合がある(例えば、摂氏50度を超える温度は火傷を引き起こす場合がある)。「悪い」ホットスポットは、実在の「脅威」である場合があり、それを排除するためにはユーザーの行動が必要とされるであろう。
ユーザー(103)がホットスポットを「良い」と分類すると、その全く同じまたは類似したパラメータ(形状、サイズ、場所、温度プロファイル)を有するホットスポットの再発は、非危険と分類される場合があり、したがってサーバ(115)は再発に応えて「危険なホットスポット検出」通知/アラームを抑制できる。
ユーザー(103)がホットスポットを「悪い」と分類すると、ホットスポットの再発及び/または類似した発生は、危険として分類され、したがって「危険なホットスポット検出」通知/アラームをトリガする場合がある。
ある場合では、環境(107)の中のベッドが移動され、これは、患者及び/または高齢者を受け入れる施設で発生する場合がある。以前に検証された異なる位置にあるベッドで横になっている居住者が、転倒検出アラームをトリガする場合があるであろう。ユーザー(103)(例えば、看護師)は、次いで誤検出を識別するために(例えば、図20及び図21のユーザーインタフェースを使用し)フィードバックを提供し、見取り図(125)を調整し、このようにしてさらなる誤検出通知を防ぐための情報を提供するであろう。
特徴及びイベントに関する人間の注釈は、サーバ(115)に記憶できる。サーバ(115)は高度な計算技術を適用して、その検出機能及び/または分類機能を改善できる。
例えば、人間の注釈は所望の分類結果を識別し、したがって教師付き機械学習技術は、イベント分類を実行するように人工ニューラルネットワーク(ANN)を訓練するために適用できる。例えば、異なるユーザーアカウントからの注釈は、ユーザーアカウントのセットのためにイベント分類のための一般的なANNモデルを訓練するために統合できる。一般的なANNモデルは、ユーザーアカウント(121)のためのデフォルトモデルとして使用することができ、特定のユーザーアカウント(121)の注釈は、環境(107)のためにカスタイズされたANNモデルを生成するようにさらにANNモデルを訓練するために使用できる。さらに、サーバに関する新しいファームウェア更新は、より訓練され、より正確なANNモデルで実装できる。
例えば、人間の注釈は所望の分類結果を識別し、したがって教師付き機械学習技術は、イベント分類を実行するように人工ニューラルネットワーク(ANN)を訓練するために適用できる。例えば、異なるユーザーアカウントからの注釈は、ユーザーアカウントのセットのためにイベント分類のための一般的なANNモデルを訓練するために統合できる。一般的なANNモデルは、ユーザーアカウント(121)のためのデフォルトモデルとして使用することができ、特定のユーザーアカウント(121)の注釈は、環境(107)のためにカスタイズされたANNモデルを生成するようにさらにANNモデルを訓練するために使用できる。さらに、サーバに関する新しいファームウェア更新は、より訓練され、より正確なANNモデルで実装できる。
本開示は、上述した方法と、方法を実行するように構成されたコンピューティング装置と、コンピューティング装置での実行時に、コンピューティング装置に方法を実行させる命令を記憶するコンピュータ記憶媒体とを含む。
図1で、モバイルデバイス(105)、サーバ(115)、及びサーマルイメージングデバイス(101)のそれぞれは、少なくとも部分的に、より多くのまたはより少ない構成要素を有する1つ以上のデータ処理システムの形で実装できる。
図40は、一実施形態に係るサーマルイメージングシステムの少なくとも一部分を含むデータ処理システムを示す。
図40は、本願の実施形態のいくつかの構成要素を実装するために使用できるデータ処理システムを示す。図40はコンピュータシステムの多様な構成要素を示すが、任意の特定のアーキテクチャまたは構成要素を相互接続する方法を表すことは意図されていない。
また、図40に示す構成要素よりも少ないまたは多い構成要素を有する他のシステムを使用することもできる。
また、図40に示す構成要素よりも少ないまたは多い構成要素を有する他のシステムを使用することもできる。
図40では、データ処理システム(200)は、マイクロプロセッサ(複数可)(203)及びメモリ(211)を相互接続する相互接続(201)(例えば、バス及びシステムコアロジック)を含む。マイクロプロセッサ(203)は、図40の例ではキャッシュメモリ(209)に結合される。
図40で、相互接続(201)は、マイクロプロセッサ(複数可)(203)及びメモリ(211)を互いに相互接続し、入出力(I/O)コントローラ(複数可)(207)を介してそれらをI/Oデバイス(複数可)(205)に相互接続する。I/Oデバイス(205)は、ディスプレイデバイス及び/または周辺機器(マウス、キーボード、モデム、ネットワークインタフェース、プリンタ、スキャナ、ビデオカメラ、及び当該技術で既知の他のデバイスなど)を含んでよい。データ処理システムがサーバシステムであるとき、プリンタ、スキャナ、マウス、及び/またはキーボードなどのI/Oデバイス(205)のいくつかは、任意選択である。
図40で、メモリ(211)は、サーマルイメージングシステム(TIS)アプリケーション(213)を記憶する。例えば、TISアプリケーション(213)は、モバイルデバイス(105)に実装されたモバイルアプリケーションである場合がある。例えば、TISアプリケーション(213)は、サーバ(115)の画像処理プロセッサ(129)を実装する命令のセットである場合がある。いくつかの例では、TISアプリケーションの機能は、少なくとも部分的に特定用途向け集積回路(ASIC)またはフィールドプログラマブルゲートアレイ(FPGA)など論理回路を介して実装される。
相互接続(201)は、多様なブリッジ、コントローラ、及び/またはアダプタを通して互いに接続された1つ以上のバスを含む。例えば、I/Oコントローラ(207)は、USB周辺機器を制御するためのUSB(ユニバーサルシリアルバス)アダプタ、及び/またはIEEE-1394周辺機器を制御するためのIEEE-1394バスアダプタを含む。
メモリ(211)は、ROM(読み取り専用メモリ)、揮発性RAM(ランダムアクセスメモリ)、及びハードドライブ、フラッシュメモリなど不揮発性メモリのうちの1つ以上を含む。
揮発性RAMは、通常、メモリ内のデータをリフレッシュする、または維持するために継続的に電力を必要とするダイナミックRAM(DRAM)として実装される。不揮発性メモリは、通常、システムから電力が取り除かれた後もデータを維持する磁気ハードドライブ、磁気光ドライブ、光ドライブ(例えば、DVD RAM)、または他のタイプのメモリシステムである。また、不揮発性メモリは、ランダムアクセスメモリであってもよい。
不揮発性メモリは、データ処理システムの中の構成要素の残りに直接的に結合されたローカルデバイスである場合がある。また、モデムまたはイーサネットインタフェースなどネットワークインタフェースを通してデータ処理システムに結合されたネットワークストレージデバイスなど、システムから離れている不揮発性メモリも使用できる。
本明細書では、いくつかの機能及び操作は、説明を簡略化にするためにソフトウェアコードによって実行される、またはソフトウェアコードによって引き起こされるものとして説明される。しかしながら、そのような表現は、機能が、マイクロプロセッサなどのプロセッサによるコード/命令の実行から生じることを指定するためにも使用される。
代わりにまたは組み合わせて、ここで説明するような機能及び操作は、ソフトウェア命令を用いてまたは用いずに、特定用途向け集積回路(ASIC)またはフィールドプログラマブルゲートアレイ(FPGA)など、特殊目的回路を使用し、実装できる。実施態様は、ソフトウェア命令なしで配線接続された回路を使用し、またはソフトウェア命令と組み合わせて実装できる。したがって、技術は、ハードウェア回路及び/またはソフトウェアのいずれかの特定の組み合わせにも、データ処理システムによって実行される命令のいずれの特定のソースにも限定されない。
一実施形態は、完全に機能するコンピュータ及びコンピュータシステムで実装できるが、多様な実施形態は、様々な形式のコンピューティング製品として流通させることができ、実際に流通を達成するために使用される特定のタイプの機械またはコンピュータ可読媒体に関わりなく、適用することができる。
開示される少なくともいくつかの態様は、少なくとも部分的にソフトウェアの中で具現できる。つまり、技術は、コンピュータシステムまたは他のデータ処理システムにおいて、マイクロプロセッサなどのそのプロセッサがROM、揮発性RAM、不揮発性メモリ、キャッシュ、またはリモートストレージデバイスなどのメモリに含まれる命令のシーケンスを実行することに応えて実施され得る。
実施形態を実装するために実行されたルーチンは、オペレーティングシステムまたは特定のアプリケーション、構成要素、プログラム、オブジェクト、モジュール、または「コンピュータプログラム」と呼ばれる命令のシーケンスの一部として実装され得る。コンピュータプログラムは、典型的には、コンピュータ内の様々なメモリおよび記憶装置に様々なタイミングで設定され、コンピュータ内の1つ以上のプロセッサによって読み込まれ、実行されると、コンピュータに、多様な態様を含む要素を実行するために必要な操作を実行させる1つ以上の命令を含む。
機械可読媒体は、データ処理システムによって実行されると、システムに多様な方法を実行させるソフトウェア及びデータを記憶するために使用できる。実行可能なソフトウェア及びデータは、例えばROM、揮発性RAM、不揮発性メモリ、及び/またはキャッシュを含む多様な場所に記憶され得る。このソフトウェア及び/またはデータの部分は、これらのストレージデバイスのいずれか1つに記憶されてよい。さらに、データ及び命令は、集中型サーバまたはピアツーピアネットワークから取得できる。データ及び命令の異なる部分は、異なるときに、及び異なる通信セッションで、または同じ通信セッションで異なる集中型サーバ及び/またはピアツーピアネットワークから取得できる。データ及び命令は、アプリケーションの実行前に、全体として取得できる。代わりに、データ及び命令の部分は、実行のために必要とされるときに、ジャストインタイムで動的に取得できる。
したがって、データ及び命令が、特定の時間のインスタンスに全体として機械可読媒体上にあることは必要とされない。
したがって、データ及び命令が、特定の時間のインスタンスに全体として機械可読媒体上にあることは必要とされない。
コンピュータ可読媒体の例は、とりわけ揮発性及び不揮発性メモリデバイス、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、フラッシュメモリデバイス、フロッピーディスク及び他のリムーバブルディスク、磁気ディスク記憶媒体、光学式記憶媒体(例えば、読み取り専用コンパクトディスク(CD-ROM)、デジタル多用途ディスク(DVD)など)の記録可能タイプ及び記録不可タイプの媒体を含むが、これに限定されるものではない。コンピュータ可読媒体は、命令を記憶してよい。
また、命令は、搬送波、赤外線信号、デジタル信号など、電気的、光学的、音響的、または他の形式の伝搬信号のためのデジタル通信リンク及びアナログ通信リンクで具現され得る。しかしながら、搬送波、赤外線信号、デジタル信号などの伝搬信号は、有形の機械可読媒体ではなく、命令を記憶するように構成されていない。
一般的に、機械可読媒体は、機械(例えば、コンピュータ、ネットワークデバイス、パーソナルデジタルアシスタント、製造ツール、1つ以上のプロセッサのセットを有する任意のデバイスなど)によってアクセス可能な形式で情報を提供する(つまり、記憶及び/または送信する)任意の機構を含む。
多様な実施形態では、配線接続された回路は、技術を実装するためにソフトウェア命令と組み合わせて使用され得る。したがって、技術は、ハードウェア回路及び/またはソフトウェアのいずれかの特定の組み合わせにも、データ処理システムによって実行される命令のいずれの特定のソースにも限定されない。
説明及び図面は例示であり、限定的と解釈されるべきではない。本開示は、当業者が技術を作り、使用することを可能にするために本発明の特徴を例示する。本明細書に説明するような多様な特徴は、プライバシー、セキュリティ、許可、承諾、権限付与他に関係するすべての現在の及び将来の規則及び法令に準拠して使用されるべきである。完全な理解を提供するために、多数の具体的な詳細が説明される。しかしながら、特定の例では、説明を分かりにくくすることを回避するために周知のまたは従来の詳細は説明されていない。本開示の一実施基体(one embodiment)または一実施形態(an embodiment)に対する参照は、必ずしも同じ実施形態に対する参照ではなく、そのような参照は少なくとも1つを意味する。
本明細書の見出しの使用は単に参照を容易にするために提供されているにすぎず、本開示または以下の特許請求の範囲を限定すると決して解釈されないものとする。
「一実施形態(one embodiment)」または「一実施形態(an embodiment)」への参照は、その実施形態に関連して説明される特定の機能、構造、または特性が、本開示の少なくとも1つの実施形態に含まれることを意味する。明細書中の多様な場所における句「一実施形態では」の表示は、必ずしもすべて、同じ実施形態を参照しているわけではなく、必ずしもすべて、他の実施形態の互いに相いれない別個のまたは代替の実施形態を参照しているわけではない。さらに、他によってではなく、一実施形態によって示され得る多様な特徴が説明される。同様に、他の実施形態ではないが、一実施形態の要件であってよい多様な要件が説明される。明示的な説明及び/または見かけの非交換性によって除外されない限り、本説明に説明される多様な特徴のいかなる組み合わせもここに含まれる。説明から明らかであるように、他の特徴に対する特定の特徴の依存性が、選択された特徴を実施態様から除外するオプションを制限し得、説明から明らかであるように、他の特徴との特定の特徴の非交換性が、実施態様に選択された特徴をともに含めるオプションを制限し得る場合を除き、例えば、「一実施形態では」または「いくつかの実施形態では」と関連して上述した特徴は、すべて任意選択で一実施態様に含めることができる。
上述の明細書では、本開示は、その特定の例示的な実施形態に関して説明されてきた。
以下の特許請求の範囲に記載される本開示のより広範の趣旨及び範囲から逸脱することなく、様々な修正が本明細書に加えられ得ることは明らかである。したがって、明細書及び図面は、制限的な意味ではなくて例示的な意味で考慮される。
以下の特許請求の範囲に記載される本開示のより広範の趣旨及び範囲から逸脱することなく、様々な修正が本明細書に加えられ得ることは明らかである。したがって、明細書及び図面は、制限的な意味ではなくて例示的な意味で考慮される。
Claims (20)
- 視野内の景色の熱画像を取り込むための操作が可能である、少なくとも1つのサーマルイメージングデバイスと、
前記サーマルイメージングデバイスからの前記熱画像を受け取り、前記熱画像に前記コンピュータビジョン技術を適用して前記熱画像に取り込まれたイベントを検出し、検出された前記イベントに基づいて通知を生成するように構成されたサーバと、を備え、
前記サーバは、前記景色内にあるモバイルデバイスにインストールされたモバイルアプリケーションを通じて、前記モバイルデバイスのユーザーが前記景色についての入力を生成するように誘導するように構成され、
前記サーバは、さらに、前記入力に基づき、前記サーマルイメージングデバイスによって取り込まれた前記熱画像からのイベントの検出に使用されるパラメータを調整するように構成されている、システム。 - 前記入力は、前記景色内の環境で前記モバイルデバイスにより取り込まれた少なくとも1つの視覚的な写真を含み、
前記サーバは、前記少なくとも1つの視覚的な写真から前記環境の幾何学的な特徴を含むパラメータを決定するように構成されている、請求項1に記載のシステム。 - 前記幾何学的な特徴は、前記環境の見取り図を含む、請求項2に記載のシステム。
- 前記サーバは、前記サーマルイメージングデバイスにより取り込まれた熱画像からの最初のイベントを検出し、前記モバイルアプリケーション経由で前記ユーザーに提示するため、前記モバイルデバイスへ前記最初のイベントの最初の通知を提供することによって前記ユーザーが前記入力を提供するように誘導し、前記ユーザーから前記最初の通知の注釈を受け取るように構成されている、請求項1に記載のデバイス。
- 前記通知を生成するための前記コンピュータビジョン技術の適用は、前記入力に基づいて調整された前記パラメータを使用するように構成されている、請求項4に記載のシステム。
- 前記サーバは、前記注釈に基づいて教師付き機械学習技術を使用し、人工ニューラルネットワークを訓練するように構成される、請求項5に記載のシステム。
- カメラと、
リモートサーバと通信するモバイルアプリケーションで構成され、前記リモートサーバが、サーマルイメージングデバイスによって取り込まれた景色の熱画像を受け取り、前記熱画像で取り込まれたイベントを検出するため前記熱画像にコンピュータビジョン技術を適用し、検出された前記イベントの通知を生成するように構成された、グラフィックユーザーインターフェイスと、を備え、
前記グラフィックユーザーインターフェイスは、前記モバイルデバイスが前記景色にある間に、前記モバイルデバイスのユーザーが前記景色についての入力を生成するように誘導するように構成され、
前記リモートサーバは、さらに、前記入力に基づいて、前記サーマルイメージングデバイスによって取り込まれた前記熱画像からのイベントの検出に使用されるパラメータを調整するように構成されている、モバイルデバイス。 - 前記入力は、前記モバイルデバイスが前記景色内の環境にある間に前記カメラにより取り込まれた少なくとも1つの視覚的な写真を含み、
前記リモートサーバは、前記少なくとも1つの視覚的な写真から前記景色内の前記環境の幾何学的な特徴を含むパラメータを決定するように構成されている、請求項7に記載のモバイルデバイス。 - 前記幾何学的な特徴は、前記環境の見取り図を含み、前記リモートサーバは前記見取り図に関連する前記イベントを検出するように構成されている請求項8に記載のモバイルデバイス。
- 前記グラフィックユーザーインターフェイスは、前記リモートサーバに応答して前記入力を提供するように前記ユーザーを誘導するように構成され、
前記リモートサーバは、サーマルイメージングデバイスにより取り込まれた前記熱画像から最初のイベントを検出し、前記モバイルアプリケーション経由で前記ユーザーに提示するため、前記モバイルデバイスへ前記最初のイベントの最初の通知を提供するものであり、
前記入力は最初の通知についての前記ユーザーからの注釈を含む、請求項7に記載のモバイルデバイス。 - 前記通知を生成するための前記コンピュータビジョン技術の適用は、前記入力に基づいて調整された前記パラメータを使用するように構成されている、請求項10に記載のモバイルデバイス。
- 前記パラメータは、前記熱画像から抽出されたブロブの特性を含み、
前記ブロブは、前記景色の中の人間、ホットスポット、またはコールドスポットを表す、請求項7に記載のモバイルデバイス。 - 前記入力は、前記景色内でベッドに横たわっている前記ユーザーを含み、前記サーマルイメージングデバイスにベッドに横たわっている人間の熱画像を撮影させる、請求項7に記載のモバイルデバイス。
- 前記入力は、前記グラフィックユーザーインターフェイスで識別された場所の特徴の周りを歩くこと、物体に触れること、前記景色に進入及び退出すること、識別されたゾーンに移動すること、または前記ゾーンを動き回ることを含む、請求項7に記載のモバイルデバイス。
- モバイルデバイスによる実行時に、前記モバイルデバイスにグラフィックユーザーインターフェイスを提示させる命令を記録する、非一過性コンピュータ記憶媒体であり、
前記グラフィックインターフェイスは、リモートサーバによって制御されて、前記モバイルデバイスがサーマルイメージングデバイスの視野の景色内にあるときに前記モバイルデバイスのユーザーが前記景色についての入力を生成するよう誘導するように構成されており、
前記リモートサーバは、前記熱画像により取り込まれた前記景色の熱画像を受け取り、前記熱画像に前記コンピュータビジョン技術を適用して取り込まれたイベントを検出し、検出された前記イベントの通知を生成するように構成され、
前記リモートサーバは、さらに、前記入力に基づいて、前記サーマルイメージングデバイスによって取り込まれた前記熱画像からのイベントの検出に使用されるパラメータを調整するように構成されている、非一過性コンピュータ記憶媒体。 - 前記入力は、前記モバイルデバイスが前記景色内にあるとき、前記モバイルデバイスのカメラにより取り込まれた少なくとも1つの視覚的な写真を含み、
前記サーバは、前記少なくとも1つの視覚的な写真から前記景色の幾何学的な特徴を含むパラメータを決定するように構成されている、請求項15に記載の非一過性コンピュータ記憶媒体。 - 前記幾何学的な特徴は、前記景色内の前記環境の見取り図を含み、前記リモートサーバは前記見取り図に関連する前記イベントを検出するように構成されている、請求項16に記載の非一過性コンピュータ記憶媒体。
- 前記グラフィックユーザーインターフェイスは、前記リモートサーバに応答して前記入力を提供するように前記ユーザーを誘導するように構成され、
前記リモートサーバは、サーマルイメージングデバイスにより取り込まれた前記熱画像から最初のイベントを検出し、前記グラフィックユーザーインターフェイス経由で前記ユーザーに提示するため、前記モバイルデバイスへ前記最初のイベントの最初の通知を提供するものであり、
前記入力は最初の通知についてのユーザーからの注釈を含む、請求項15に記載の非一過性コンピュータ記憶媒体。 - 前記通知を生成するための前記コンピュータビジョン技術の適用は、前記入力に基づいて調整された前記パラメータを使用するように構成されている、請求項18に記載の非一過性コンピュータ記憶媒体。
- 前記パラメータは、前記熱画像から抽出されたブロブの特性を含み、
前記ブロブは、前記景色の中の人間、ホットスポット、またはコールドスポットを表す、請求項15に記載の非一過性コンピュータ記憶媒体。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/042,045 US10225492B1 (en) | 2018-07-23 | 2018-07-23 | User interfaces to configure a thermal imaging system |
US16/042,045 | 2018-07-23 | ||
PCT/US2019/020261 WO2020023081A1 (en) | 2018-07-23 | 2019-03-01 | User interfaces to configure a thermal imaging system |
JP2021503918A JP7303288B2 (ja) | 2018-07-23 | 2019-03-01 | サーマルイメージングシステムを構成するためのユーザーインタフェース |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021503918A Division JP7303288B2 (ja) | 2018-07-23 | 2019-03-01 | サーマルイメージングシステムを構成するためのユーザーインタフェース |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023126261A true JP2023126261A (ja) | 2023-09-07 |
Family
ID=65495800
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021503918A Active JP7303288B2 (ja) | 2018-07-23 | 2019-03-01 | サーマルイメージングシステムを構成するためのユーザーインタフェース |
JP2023102452A Pending JP2023126261A (ja) | 2018-07-23 | 2023-06-22 | サーマルイメージングシステムを構成するためのユーザーインタフェース |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021503918A Active JP7303288B2 (ja) | 2018-07-23 | 2019-03-01 | サーマルイメージングシステムを構成するためのユーザーインタフェース |
Country Status (5)
Country | Link |
---|---|
US (4) | US10225492B1 (ja) |
EP (1) | EP3827581A4 (ja) |
JP (2) | JP7303288B2 (ja) |
CN (1) | CN112640427A (ja) |
WO (1) | WO2020023081A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9982906B2 (en) * | 2014-10-23 | 2018-05-29 | Vivint, Inc. | Real-time temperature management |
US10225492B1 (en) | 2018-07-23 | 2019-03-05 | Mp High Tech Solutions Pty Ltd. | User interfaces to configure a thermal imaging system |
US10832437B2 (en) * | 2018-09-05 | 2020-11-10 | Rakuten, Inc. | Method and apparatus for assigning image location and direction to a floorplan diagram based on artificial intelligence |
TWI725392B (zh) * | 2019-03-12 | 2021-04-21 | 緯創資通股份有限公司 | 監控系統及其監控方法 |
US11346938B2 (en) | 2019-03-15 | 2022-05-31 | Msa Technology, Llc | Safety device for providing output to an individual associated with a hazardous environment |
FR3097999B1 (fr) * | 2019-06-27 | 2021-09-17 | Domalys | Dispositif et procédé de détection de présence, notamment d’une chute de personne |
US11080990B2 (en) | 2019-08-05 | 2021-08-03 | Factory Mutual Insurance Company | Portable 360-degree video-based fire and smoke detector and wireless alerting system |
US11106842B2 (en) | 2019-09-06 | 2021-08-31 | Beamup Ltd. | Structural design systems and methods for floor plan simulation and modeling in mass customization of equipment |
US11310096B2 (en) * | 2019-09-23 | 2022-04-19 | Rohde & Schwarz Gmbh & Co. Kg | Notification system and method of monitoring a multi-component system |
US11823458B2 (en) * | 2020-06-18 | 2023-11-21 | Embedtek, LLC | Object detection and tracking system |
CN113915740B (zh) * | 2020-07-08 | 2023-12-22 | 海信空调有限公司 | 一种空调器和控制方法 |
US20230260134A1 (en) * | 2020-07-09 | 2023-08-17 | Darvis Inc. | Systems and methods for monitoring subjects |
US20230008729A1 (en) * | 2021-07-11 | 2023-01-12 | Wanshih Electronic Co., Ltd. | Millimeter wave radar apparatus determining fall posture |
US11606247B1 (en) * | 2022-01-21 | 2023-03-14 | Dell Products L.P. | Method and system for managing computer vision alerts using mobile agents in a computer vision environment |
Family Cites Families (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3003941A (en) | 1958-11-12 | 1961-10-10 | Allis Chalmers Mfg Co | Nuclear reactor |
US5718372A (en) * | 1997-03-17 | 1998-02-17 | Tishler; Carl | Temperature controller |
JP2007060370A (ja) | 2005-08-25 | 2007-03-08 | Sumitomo Electric Ind Ltd | 携帯型通信端末、避難路表示システムおよび危険報知装置 |
US7693679B1 (en) | 2007-02-08 | 2010-04-06 | Fluke Corporation | System and method for configuring a thermal imaging instrument |
US8003941B1 (en) | 2007-03-01 | 2011-08-23 | Fluke Corporation | System and method for providing a remote user interface for a thermal imager |
US9959471B2 (en) * | 2008-05-06 | 2018-05-01 | Careview Communications, Inc. | Patient video monitoring systems and methods for thermal detection of liquids |
US8138882B2 (en) * | 2009-02-05 | 2012-03-20 | International Business Machines Corporation | Securing premises using surfaced-based computing technology |
US9293017B2 (en) | 2009-02-26 | 2016-03-22 | Tko Enterprises, Inc. | Image processing sensor systems |
US9740921B2 (en) * | 2009-02-26 | 2017-08-22 | Tko Enterprises, Inc. | Image processing sensor systems |
US9277878B2 (en) | 2009-02-26 | 2016-03-08 | Tko Enterprises, Inc. | Image processing sensor systems |
US9948872B2 (en) * | 2009-03-02 | 2018-04-17 | Flir Systems, Inc. | Monitor and control systems and methods for occupant safety and energy efficiency of structures |
DE102009015537B4 (de) | 2009-04-01 | 2016-04-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Warnsystem und Verfahren zum Erkennen einer Notsituation |
GB2480805B (en) * | 2010-05-27 | 2013-09-18 | Infrared Integrated Syst Ltd | Identifying changes in behaviour of a Plurality of human subjects |
US20120053423A1 (en) * | 2010-08-24 | 2012-03-01 | Christopher Kenalty | Smart mattress |
US20120072032A1 (en) * | 2010-09-22 | 2012-03-22 | Powell Kevin J | Methods and systems for environmental system control |
WO2012115878A1 (en) * | 2011-02-22 | 2012-08-30 | Flir Systems, Inc. | Infrared sensor systems and methods |
HU229826B1 (hu) * | 2011-03-23 | 2014-09-29 | Matyas Gutai | Hõenergetikai rendszer épületek vagy épületrészek belsõ terének fûtéséhez és/vagy hõegyensúlyának fenntartásához |
CA3177719A1 (en) * | 2011-04-04 | 2012-10-04 | Alarm.Com Incorporated | Fall detection and reporting technology |
EP2565857B1 (de) * | 2011-09-01 | 2017-05-31 | Siemens Schweiz AG | Verfahren und System zur Bewertung der Sicherheitslage in einem Gebäude mit Aufenthaltsbereichen mit Zugangsberechtigung |
CN102572094B (zh) | 2011-09-20 | 2015-11-25 | 广州飒特红外股份有限公司 | 利用手机控制红外热像仪的系统及方法 |
US9408561B2 (en) * | 2012-04-27 | 2016-08-09 | The Curators Of The University Of Missouri | Activity analysis, fall detection and risk assessment systems and methods |
US9489635B1 (en) * | 2012-11-01 | 2016-11-08 | Google Inc. | Methods and systems for vehicle perception feedback to classify data representative of types of objects and to request feedback regarding such classifications |
WO2014208575A1 (ja) | 2013-06-28 | 2014-12-31 | 日本電気株式会社 | 映像監視システム、映像処理装置、映像処理方法および映像処理プログラム |
US9141851B2 (en) | 2013-06-28 | 2015-09-22 | Qualcomm Incorporated | Deformable expression detector |
CN104346622A (zh) * | 2013-07-31 | 2015-02-11 | 富士通株式会社 | 卷积神经网络分类器及其分类方法和训练方法 |
CN110274355B (zh) * | 2014-03-03 | 2022-01-11 | 松下电器(美国)知识产权公司 | 传感方法、传感系统及包含它们的空调设备 |
US9940810B2 (en) * | 2014-11-19 | 2018-04-10 | Stryker Corporation | Person support apparatuses with patient mobility monitoring |
US20160224839A1 (en) * | 2015-02-04 | 2016-08-04 | Caduceus Wireless, Inc. | System to determine events in a space |
EP3284071A1 (en) * | 2015-04-22 | 2018-02-21 | Scott Health & Safety Ltd. | Thermal imaging system |
US10706706B2 (en) * | 2016-01-27 | 2020-07-07 | Caduceus Wireless, Inc. | System to determine events in a space |
WO2017142736A1 (en) | 2016-02-19 | 2017-08-24 | Carrier Corporation | Cloud based active commissioning system for video analytics |
US10489661B1 (en) * | 2016-03-08 | 2019-11-26 | Ocuvera LLC | Medical environment monitoring system |
US10507346B2 (en) * | 2016-04-15 | 2019-12-17 | Lion Group, Inc. | Imaging system for fire fighting training |
CA3030850C (en) * | 2016-06-28 | 2023-12-05 | Foresite Healthcare, Llc | Systems and methods for use in detecting falls utilizing thermal sensing |
US10515158B2 (en) * | 2016-07-26 | 2019-12-24 | Mitek Holdings, Inc. | Managing a group of geometric objects correlated to a set of spatial zones associated with an architectural layout |
US10817626B2 (en) * | 2016-07-26 | 2020-10-27 | Mitek Holdings, Inc. | Design-model management |
US10685148B2 (en) * | 2016-07-26 | 2020-06-16 | Mitek Holdings, Inc. | Design-model management using an architectural criterion |
US10582095B2 (en) * | 2016-10-14 | 2020-03-03 | MP High Tech Solutions Pty Ltd | Imaging apparatuses and enclosures |
CN206312334U (zh) | 2016-12-06 | 2017-07-07 | 广东顺德鲁棒智能技术有限公司 | 一种老人跌倒检测装置 |
CN110268443A (zh) * | 2017-02-16 | 2019-09-20 | 昕诺飞控股有限公司 | 使用热成像的单帧对象跟踪 |
CN110300997B (zh) * | 2017-02-16 | 2022-04-08 | 松下知识产权经营株式会社 | 异常情况通知系统及异常情况通知方法 |
US10395124B2 (en) * | 2017-03-31 | 2019-08-27 | Osram Sylvania Inc. | Thermal image occupant detection |
US10055961B1 (en) * | 2017-07-10 | 2018-08-21 | Careview Communications, Inc. | Surveillance system and method for predicting patient falls using motion feature patterns |
WO2019135709A1 (en) * | 2018-01-04 | 2019-07-11 | Smartclean Technologies, Pte. Ltd. | System and method for non-contact wetness detection using thermal sensing |
WO2019209887A1 (en) * | 2018-04-23 | 2019-10-31 | The Regents Of The University Of Colorado, A Body Corporate | Mobile and augmented reality based depth and thermal fusion scan |
WO2019231861A1 (en) * | 2018-05-28 | 2019-12-05 | Greenwave Systems PTE Ltd. | Area monitoring and communication |
US10847009B1 (en) * | 2018-07-11 | 2020-11-24 | Alarm.Com Incorporated | Property control and configuration based on thermal imaging |
US10225492B1 (en) | 2018-07-23 | 2019-03-05 | Mp High Tech Solutions Pty Ltd. | User interfaces to configure a thermal imaging system |
MX2021002150A (es) * | 2018-08-24 | 2021-07-16 | Lutron Tech Co Llc | Dispositivo de conteo de ocupantes. |
HK1252299A2 (zh) * | 2018-10-30 | 2019-05-24 | Logistics And Supply Chain Multitech R&D Centre Ltd | 用於檢測非活動對象的系統和方法 |
US20200203010A1 (en) * | 2018-12-19 | 2020-06-25 | Stryker Corporation | System for managing patient support apparatuses and clinical rounds |
US20210158030A1 (en) * | 2019-11-27 | 2021-05-27 | Alarm.Com Incorporated | Accessibility features for monitoring systems |
US11856491B2 (en) * | 2020-05-15 | 2023-12-26 | Alarm.Com Incorporated | Property communication and access control |
CN112394864B (zh) | 2020-07-22 | 2022-04-01 | 招联消费金融有限公司 | 信息采集方法、装置、计算机设备和存储介质 |
US11763591B2 (en) * | 2020-08-20 | 2023-09-19 | The Nielsen Company (Us), Llc | Methods and apparatus to determine an audience composition based on voice recognition, thermal imaging, and facial recognition |
-
2018
- 2018-07-23 US US16/042,045 patent/US10225492B1/en active Active
-
2019
- 2019-03-01 WO PCT/US2019/020261 patent/WO2020023081A1/en unknown
- 2019-03-01 US US16/290,367 patent/US10701290B2/en active Active
- 2019-03-01 EP EP19840915.3A patent/EP3827581A4/en active Pending
- 2019-03-01 JP JP2021503918A patent/JP7303288B2/ja active Active
- 2019-03-01 CN CN201980057823.9A patent/CN112640427A/zh active Pending
-
2020
- 2020-06-12 US US16/900,741 patent/US11657605B2/en active Active
-
2023
- 2023-05-02 US US18/311,195 patent/US11941874B2/en active Active
- 2023-06-22 JP JP2023102452A patent/JP2023126261A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US11941874B2 (en) | 2024-03-26 |
EP3827581A1 (en) | 2021-06-02 |
JP7303288B2 (ja) | 2023-07-04 |
US20200029029A1 (en) | 2020-01-23 |
US10225492B1 (en) | 2019-03-05 |
US20200314358A1 (en) | 2020-10-01 |
WO2020023081A1 (en) | 2020-01-30 |
US20230267728A1 (en) | 2023-08-24 |
JP2021532478A (ja) | 2021-11-25 |
US10701290B2 (en) | 2020-06-30 |
US11657605B2 (en) | 2023-05-23 |
EP3827581A4 (en) | 2022-07-20 |
CN112640427A (zh) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7303288B2 (ja) | サーマルイメージングシステムを構成するためのユーザーインタフェース | |
US10839608B2 (en) | Smart-home device placement and installation using augmented-reality visualizations | |
US11120559B2 (en) | Computer vision based monitoring system and method | |
US11399157B2 (en) | Augmenting and sharing data from audio/video recording and communication devices | |
US10621733B2 (en) | Enhanced visualization of breathing or heartbeat of an infant or other monitored subject | |
WO2017166469A1 (zh) | 一种基于智能电视机的安防方法、装置 | |
US9704361B1 (en) | Projecting content within an environment | |
US20190205655A1 (en) | Infant monitoring system with video-based temperature baselining and elevated temperature detection | |
JP2022017301A (ja) | サーマルイメージングシステムにおける位置判断の装置および方法 | |
CN105308657A (zh) | 安全和/或监测设备及系统 | |
JP6780641B2 (ja) | 画像解析装置、画像解析方法、及び、画像解析プログラム | |
EP3398029B1 (en) | Intelligent smart room control system | |
WO2018201121A1 (en) | Computer vision based monitoring system and method | |
US20200097706A1 (en) | Smart vision sensor system and method | |
JPWO2020008726A1 (ja) | 対象物体検出プログラム、および対象物体検出装置 | |
JP7067672B2 (ja) | 画像処理システム、画像処理プログラム、および画像処理方法 | |
US11127267B2 (en) | Smart fire detection system | |
WO2018187451A1 (en) | Augmenting and sharing data from audio/video recording and communication devices | |
JPWO2017029841A1 (ja) | 画像解析装置、画像解析方法、及び、画像解析プログラム | |
JP2021033379A (ja) | 画像処理システム、画像処理プログラム、および画像処理方法 | |
CN111902849A (zh) | 在图像上叠加传感器及其检测区域的虚拟表示 | |
US11671563B2 (en) | Systems and methods for telepresence rooms | |
JP7199614B1 (ja) | 人検知装置、人検知システム、人検知方法、及び人検知プログラム | |
Poland et al. | Spatial-frequency data acquisition using rotational invariant pattern matching in smart environments | |
KR20220152866A (ko) | 로봇 장치, 그 제어 방법, 및 프로그램이 기록된 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240521 |