JP2023548886A - カメラを制御するための装置及び方法 - Google Patents

カメラを制御するための装置及び方法 Download PDF

Info

Publication number
JP2023548886A
JP2023548886A JP2023527682A JP2023527682A JP2023548886A JP 2023548886 A JP2023548886 A JP 2023548886A JP 2023527682 A JP2023527682 A JP 2023527682A JP 2023527682 A JP2023527682 A JP 2023527682A JP 2023548886 A JP2023548886 A JP 2023548886A
Authority
JP
Japan
Prior art keywords
area
camera
person
control signal
monitoring mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023527682A
Other languages
English (en)
Inventor
デル ハイデ エッサー マルヤン ファン
フェイ ジョー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2023548886A publication Critical patent/JP2023548886A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0046Arrangements of imaging apparatus in a room, e.g. room provided with shielding or for improved access to apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow

Abstract

カメラを制御するための装置及び方法が提供される。装置は、カメラからビデオデータを取得するように構成される入力ユニット、取得されたビデオデータから、特定の人物がカメラによって監視される第1の領域に一人でいるかどうかを決定するように構成される画像処理ユニット、画像処理ユニットによる特定の人物がカメラによって監視される第1の領域に一人でいるかどうかの決定に基づいて、第1の監視モード又は第2の監視モードで動作するようにカメラを制御するための制御信号を生成するように構成された制御ユニット、及びカメラに制御信号を出力するように構成される出力ユニットを有する。

Description

本発明は、カメラを制御するための装置及び方法に関し、特に、例えば病院又は療養施設の病室にいる患者を監視するためのカメラを制御するための装置及び方法に関する。本発明はさらに、対応するシステムに関する。
病院の様々な病棟において、遠隔及び自動監視のためにカメラ技術が使用されることが多くなっている。このカメラは、目立たないセンサであり、特定の測定の状況に関する多くの情報を提供する。集中治療室(ICU)において、カメラは、付加価値をもたらすことができ、せん妄の監視、睡眠の監視、褥瘡管理、転倒管理、バイタルサインの監視として応用に使用されることができる。
これらの応用にとって、微妙な動きを含む様々な態様がロバストに検出される必要がある。例えば、せん妄の患者は、例えば、シーツをいじるような典型的な手の動きを示す。これらの小さな動きを検出することを可能にするために、動いている対象を上手く視野に入れておくことが重要である。
例えば、RGB(色)、赤外線又は深度カメラのような様々なカメラのモダリティがあり、これらは全て、ICUでの使用に対し利点及び欠点を持つ。ICUの環境は、スタッフ及び訪問者の多くの活動に加え、動的な光の条件、ベッドの位置等の動的な環境である。深度カメラは、例えば、点滅するモニターランプ、投影(casting shadows)、夜間の暗状態に影響されるような、光の変化に対し鈍感であるという利点を持つ。
殆どの深度カメラは、固定焦点距離を持つが、調整可能な焦点距離(ズーム)及び機械的な動き(パン、回転/チルト)に対応するカメラ台が既に存在する。それにより、PTZ(Pan-Tilt-Zoom)機能を備える3Dの深度カメラが可能となる。PTZカメラは、微妙な動きに正確にズームインする機会を与え、例えば、せん妄のスコアのような特定の測定の検出能及び出力を高める。
米国特許出願公開第2020/0267321号明細書は、場面(シーン)の画像を取り込む方法を開示している。関心のある1つ以上の事象を有する前記場面を取り込んでいるビデオのフレーム内にある複数の対象の現在の位置が決定される。これら関心のある事象の少なくとも1つに対し、関心のある事象に関連付けられた前記複数の対象の各々に対する時間及び位置が、前記複数の対象の現在の位置に基づいて予測される。前記フレームにおける複数のフレームサブセットの各々に対し、フレームサブセットのスコアが決定され、複数のフレームサブセットの各々は、前記関心のある事象に対する予測される時間及びの予測される位置に基づく前記複数の対象の1つ以上を含む。決定された複数のフレームサブセットの1つは、この決定されたフレームサブセットのスコアに基づいて選択される。関心のある事象の画像は、カメラを用いて、選択されたフレームサブセットのカメラの方向設定に基づいて取り込まれ、取り込まれる画像は、選択されたフレームサブセットを有する。
本発明の目的は、上記カメラを、カメラによって人を、例えばICUにいる患者を監視するために適用し、前記カメラを制御して追加の機能を提供するためのオプションをさらに利用することである。
本発明の第1の態様において、カメラを制御するための装置が示され、この装置は、
前記カメラからビデオデータを取得するように構成される入力ユニット、
取得されたビデオデータから、前記カメラによって監視される第1の領域に特定の人物が一人でいるかどうかを決定するように構成される画像処理ユニット、
前記画像処理ユニットによる前記カメラによって監視される第1の領域に前記特定の人物が一人でいるかどうかの前記決定に基づいて、第1の監視モード又は第2の監視モードで動作するように前記カメラを制御するための制御信号を生成するように構成される制御ユニット、及び
前記カメラに前記制御信号を出力するように構成される出力ユニット
を有し、前記制御信号は、前記第1の領域に前記特定の人物が一人でいない場合、前記第1の領域又は第3の領域が監視される第1の監視モードで動作するように前記カメラを制御し、及び前記第1の領域に前記特定の人物が一人でいる場合、第2の領域が監視される第2の監視モードで動作するようにカメラを制御するように構成され、前記第2の領域は、前記第1の領域よりも小さく、前記特定の人物を実質的に含み、及び前記第3の領域は、前記第2の領域よりも大きいが、前記第1の領域よりも小さく、前記第1の領域にいる、前記特定の人物以外の1人以上の人物を含んでいる。
本発明のさらなる態様において、領域を監視するためのシステムが示され、このシステムは、
制御信号に従って第1の監視モード及び第2の監視モードで動作するように構成されるカメラ、及び
制御信号を生成し、前記カメラに前記制御信号を出力するための本明細書に開示される装置
を有する。
本発明のさらなる態様において、対応する方法、コンピュータ上で実行されるとき、本明細書に開示される方法のステップを前記コンピュータに行わせるためのプログラムコード手段を有するコンピュータプログラム、及びプロセッサにより実行されるとき、本明細書に開示される方法を行わせるコンピュータプログラムを記憶している非一時的なコンピュータ可読の記録媒体が提供される。
本発明の好ましい実施形態は、従属請求項に定義される。請求される方法、システム、コンピュータプログラム及び媒体は、特に従属請求項に定義され、本明細書に開示されるように、請求されるシステムと同様の及び/又は同一の好ましい実施形態を持つことが理解される。
本発明は、例えば、ICUルームのようなある領域を監視するためのカメラを利用し、前記カメラによって取得されたビデオデータの評価に基づいて、少なくとも2つの異なる監視モードの1つで動作するように前記カメラを制御するという考えに基づいている。ある監視モードからの切り替えは、カメラの設定の1つ以上を調整する、例えば、視野角、焦点領域、ズーム比等を変更することを含む。
これにより、最も一般的な場合において、前記監視モードは、特定の人物、例えば、主に監視される患者が、第1の領域、例えば、(場面又は部屋監視モードとも呼ばれる)第1の監視モードで視察される部屋にいるかどうかに基づいて切り替えられる。特定の人物が第1の領域に一人でいる(すなわち、その部屋に別の人物がいない)場合、前記カメラは、(患者監視モードとも呼ばれる)第2の監視モードに切り替えられ、このモードにおいて、例えば、カメラが特定の人物(すなわち、ベッドに横たわっている又は椅子に座っている患者)ズームインするように、前記特定の人物だけが監視される。他方、1人以上の別の人物が前記第1の領域にいる場合、前記カメラは、前記第1の監視モードに切り替えられ(又は第1の監視モードのままでいて)、このモードにおいて、完全な第1の領域又は第3の領域(例えば、前記別の人物の幾人又は全員がいる領域)の何れかが監視される。従って、本発明の実施形態において、部屋で現在起こっている活動に最も適するように、1つ以上のカメラ設定が調整される。
現実的なシナリオにおいて、本発明は、誤った又は不要な警報を防ぐのに有用である。例えば、患者がベッドから落ちる危険性があるかどうかを検出するため、又は1つ以上のバイタルサイン(例えば、心拍数、呼吸数、酸素飽和度(SpO)等)を検出するためにカメラが使用され、故に、このカメラが患者及びベッドに焦点が当てられる場合、それらは、患者がベッドから落ちる恐れがあるように、患者がベッドの縁に動く場合、又は特定のバイタルサインが危機的な状況を示す場合、(例えば、中央監視スクリーン及び/又は介護者のモバイル装置に)警報が発せられる状況である。しかしながら、別の人物(例えば、看護師又は介護者)も同様にその部屋にいることが分かっている場合、その情報は、前記患者に加えて1人以上の別の人物が検出されるとすぐに、カメラが第1の監視モードに切り替えられる場合に取得することができ、既に別の人物がその部屋にいて、患者の危機的な状況を直接認識し、適切な処置を取ることができるので、そのような警報は不要となり、抑えることができる。
部屋に別の人物がいることを検出する別のシナリオは、カメラがせん妄又はてんかん性発作を検出するのに使用される場合であっても理にかなっている。さらに、前記カメラは、患者の小さな動きが検出されるモードに切り替えられ、せん妄又はてんかん性発作の動き検出及び認識の能力並びに信頼性を高めることができる。
別の実施形態において、ベッド内の動きに焦点を当てることが行われてもよい。ベッドに横たわっている間の患者の動きは、例えば、ベッドのシーツをいじるような、せん妄を検出するための重要な手掛かりを提供する。動きを検出することによって、患者の小さな動きを取り込むことができ、より詳細にするために、カメラがズームインされることができる。これは、より良好な視覚化のために行われるだけでなく、これらの微妙な動きをさらに分析するために使用されるアルゴリズムにとってより良好な(高解像度の)入力も提供する。微妙な動きからせん妄を検出するために、例えば、米国特許出願公開第2014/235969号明細書に記載されるような方法が使用されてもよい。
一実施形態において、画像処理ユニットは、取得されるビデオデータから、第1の領域における活動を検出し、それら活動が1人以上の人物の動きを表しているかどうかを決定することによって、特定の人物が第1の領域に一人でいるかどうかを決定するように構成される。そのような実施形態は、容易に実施することができ、信頼できる結果を提供する。
特定の実施形態において、前記画像処理ユニットは、第1の領域において1人以上の別の人物が検出される場合、別の人物の1人以上が、第2の領域にいる或いは第2の領域と重なっている、又は第2の領域に隣接しているかどうかを決定するようにさらに構成される。さらに、制御ユニットは、別の人物の1人以上が、第2の領域にいる或いは第2の領域と重なっている、又は第2の領域に隣接している場合、第1の監視モードで動作し、特定の人物及び前記別の人物の1人以上を実質的に含む第3の領域を監視するようにカメラを制御するための制御信号を生成するように構成される。従って、特定の人物の近くに1人以上の人物がいる場合、例えば、患者の近くに1人以上の介護者又は親族がいる場合、患者に何が起きているのかをより良く理解するために、患者だけでなく、その患者に隣接する人物も監視されるように、その患者の周りの領域が監視される。
制御ユニットは、別の人物の誰もが第2の領域にいない或いは第2の領域と重なっていない、又は第2の領域に隣接していない場合、第2の監視モードで動作する又は第1の監視モードで動作し、第1の領域を監視するようにカメラを制御するための制御信号を生成するようにさらに構成される。故に、病室を監視する例において、誰も患者に隣接していない場合、前記カメラは、患者にズームするか、又は部屋全体を監視するかの何れかを行う。
別の実施形態において、画像処理ユニットは、取得されるビデオデータにおいて、特定の家具、特にベッド又は椅子(例えば、病院の病室にある患者のベッド又は休憩室にあるリラックチェア)を検出し、前記特定の人物が前記家具の上に又は家具にいるかどうかを決定し、特定の人物が上にいる又はいる前記特定の家具を実質的に含む領域を第2の領域として定義するように構成される。例えば、特定の家具が検出され、前記ビデオデータの深度情報に基づいて、前記特定の人物が前記家具の上又は家具にいるかどうかが決定されてもよい。深度情報は、例えば、3D又は深度カメラから取得される。
画像処理ユニットは、地面(ground plane)が水平方向に配されるようにカメラの視野角を補正することによって、取得されたビデオデータを補正し、特定の人物が第1の領域に一人でいるかどうかを決定するために前記補正されたビデオデータを使用するように構成される。このような補正を用いると、ビデオデータにおいて検出される人物及び物の距離を決定する、並びに空間的な関係を検出することがより容易になる。さらに、これは、例えば患者のベッドのような特定の家具を検出するのに役立つ。
ビデオデータの補正を計算するのではなく、別の実施形態において、制御ユニットは、地面が水平方向に配されるように、カメラを回転させるように制御するための制御信号を生成するように構成される。
別の実施形態において、画像処理ユニットは、第2の監視モードで、特定の人物の顔の表情の表情分析、特定の人物がベッドから出た、ベッドに入った又はベッドから落ちる危険性があるかどうかを検出するための離床検出、特定の人物の特定の動きを検出するための動き検出、特定の人物の1つ以上のバイタルサインを検出するためのバイタルサイン検出、及び1人以上の別の人物が特定の人物に近づいている又は離れていくかどうかを検出するためのアプローチ検出の1つ以上を行うように構成される。従って、本発明の装置及び方法のユーザ要件、一般的必要性又は応用に応じて、代替的に又は組み合わせて使用される様々なオプションが存在する。
提案されるシステムのカメラは、制御信号の制御下でパン、チルト及び/又はズームをするように構成されてもよい。例えば、3Dのパンチルトズーム(PTZ)カメラが使用されてもよい。このカメラは、部屋(例えば、天井又は壁)に固定して取り付けられる、又は部屋に(例えば、可動スタンド又は三脚を用いて)移動可能に配されるように構成される。
有利には、前記システムは、第1の領域又はさらに大きな領域を常に監視するように構成される魚眼カメラをさらに有してもよい。従って、異なる領域を監視するように制御される上述したカメラに加えて、第1の領域(例えば、特定のビューからの病室)又はさらに大きな領域(例えば、より広いビュー、故に病室のより大きな領域)の監視がこのようにして常に可能である。
本発明のこれら及び他の態様は、以下に記載される実施形態から明らかになり、これを参照して説明される。
図1は、本発明によるシステム及び装置の概略図を示す。 図2は、本発明が適用される現実的なシナリオの状況を示す。 図3は、本発明が適用される現実的なシナリオの状況を示す。 図4は、本発明が適用される現実的なシナリオの状況を示す。 図5は、本発明による監視方法の例示的な実施形態のフローチャートを示す。 図6Aは、患者のベッドより上にある天井に取り付けられたカメラのカメラビューを示す。 図6Bは、図6Aに示されるカメラビューと同じ斜視図からの深度ビューを示す。 図7Aは、患者ベッドの縁を向くカメラビューを示す。 図7Bは、視野角を補正した後の補正されたビューを示す。 図8Aは、識別された患者領域の画像を示す。 図8Bは、患者領域及びこの患者領域に隣接する人物の画像を示す。 図8Cは、患者領域に隣接する人物のみの画像を示す。
図1は、本発明によるシステム1及び装置20の概略図を示す。このシステムは、少なくとも、制御信号に従って第1の監視モード及び第2の監視モードで動作することができるカメラ10、並びに制御信号を生成し、前記カメラに前記制御信号を出力するための装置20を有する。この目的のために、装置20は、カメラ10により取得されたビデオデータを取得し(例えば、受信し又は取り込み)、それらデータを評価する。
装置20は、前記カメラからビデオデータを取得するための入力ユニット21を有する。入力ユニット21は、前記カメラとの有線又は無線接続を介して、例えばWLAN又はLAN接続を介して、前記ビデオデータを受信するためのデータインターフェースでもよい。
装置20は、取得されるビデオデータから、特定の人物、例えば患者が、カメラ10によって監視される第1の領域に一人でいるかどうかを決定するための画像処理ユニット22、例えばプロセッサ又はコンピュータをさらに有する。
装置20は、画像処理ユニット22による決定に基づいて、第1の監視モード又は第2の監視モードで動作するようにカメラ10を制御するための制御信号を生成するための制御ユニット23、例えばコントローラ、プロセッサ又はコンピュータ(例えば、画像処理ユニット22を実装する同じプロセッサ又はコンピュータ)をさらに有する。
装置20は、前記カメラに前記制御信号を出力するための出力ユニット24をさらに有する。出力ユニット24は、前記カメラとの有線又は無線接続を介して、例えばWLAN又はLAN接続を介して、前記制御信号を送信するためのデータインターフェースでもよい。
装置20は、ハードウェア及び/又はソフトウェアに実装されてもよい。例えば、装置20は、適切にプログラムされたコンピュータ又はプロセッサとして実装されてもよい。応用に応じて、装置20は、例えばコンピュータ、ワークステーション又はモバイルユーザデバイス、例えばスマートフォン、ラップトップ、タブレット、スマートウォッチでもよい。例えば、病院又は療養施設における応用において、装置20は、介護者が患者を常に監視する、又は例えば前記監視モードが変わる場合、新しい監視情報を得ることができるように、介護者のスマートフォンに実装されてもよい。別の応用において、装置20は、多くの病室が中央管理される中央監視室内のコンピュータに実装されることができる。
システム1は、カメラ10によって取得されたビデオを表示するためのディスプレイ30、例えばコンピュータのモニタ又はモバイルユーザデバイスのディスプレイをさらに有することができる。さらに、カメラ10が異なる監視モード間で切り替わったとしても、前記第1の領域又はさらに大きな領域を常に監視するための魚眼カメラ40が設けられてもよい。
図2~図4は、本発明が利用される現実的なシナリオの様々な状況を示す。このシナリオにおいて、患者2は、病院の病室4にある患者のベッド3に横たわっている。カメラ10、例えば3DのPTZカメラは、壁(又は天井)に取り付けられ、パン、チルト及び回転することができる。病室4の上隅に、任意選択の魚眼カメラ40が取り付けられる。装置20及びディスプレイ30は、別の部屋、例えば中央監視室に配されてもよい。
装置20により生成される制御信号は、第1の監視モード又は第2の監視モードで動作するようにカメラ10を制御する。特定の人物が第1の領域に一人でいない場合、第1の監視モードで、第1の領域11又は第3の領域13が監視される。特定の人物が第1の領域に一人でいる場合、第2の監視モードで、第2の領域12が監視される。これは、図2~図4に例示される状況を参照して説明される。
図2に示される状況において、患者2が病室4(例えば、ICUルーム)に一人でいるので、カメラ10は第2の監視モードで動作するように制御される。この場合、第2の領域12が監視され、この領域は、実質的に患者2自身の領域であり、患者2又は患者2の一部(例えば、患者の顔又は上半身)を実質的に含む。
図3に示される状況において、患者2は病室4に一人ではなく、病室4に別の人物5、例えば、介護者、医者又は訪問者がいるので、カメラ10は、第1の監視モードで動作するように制御される。この状況において、別の人物5は、ドア6の領域にいる。従って、カメラ10の最大視野である第1の領域11が監視される。図3に示されるシナリオにおいて、第1の領域11は、カメラ10によって見ることができる範囲では、ほぼ完全な病室4である。
図4に示される状況において、患者2は病室4に一人ではなく、病室4に別の人物7、例えば介護者、医者又は訪問者がいるので、カメラ10は、第1の監視モードで動作するように再び制御される。この状況において、別の人物7は、ベッド3の領域にいる。従って、患者2及び別の人物7を含むようにベッド3の周囲の領域である第3の領域13が監視される。
故に、図2~図4に示されるように、第2の領域12は、第1の領域11よりも小さく、特定の人物2を実質的に含む、及び第3の領域13は、第2の領域12よりも大きいが、第1の領域11よりも小さく、第1の領域11にいる、特定の人物2以外の1人以上の人物5、7を含む。
従って、本発明によれば、3DのPTZカメラの1つ以上の設定(例えば、焦点領域及び/又はズームレベル)は、病室における現在の活動及びシーン分析に基づいて自動的に適応され、最適な監視結果を達成する。
第1の監視モード(患者監視モードとも呼ばれる)において、複数のオプションが存在する。本発明による監視方法の例示的な実施形態のフローチャートが図5に示される。この例示的な実施形態は、図2~図4に示される同様のシナリオを参照して説明される。
第1のステップS10において、カメラは、地面が平坦であるように回転する。シーン分割アルゴリズムを用いたベッドのセグメント化が行われてもよく、ベッドの領域に焦点が合うように画像のズームが調整される。
第2のステップS11において、ビデオデータから取得される深度プロファイルに基づいて、患者がベッドにいるかどうかが検出される。患者がベッドにいない場合、ベッドの深度プロファイルは、(略)フラットである。例示的な実施において、ベッド領域における深度値の分布(ヒストグラム)がチェックされる。患者がベッドにいない場合、患者が椅子に座っているかどうかをチェックするために、前記カメラは、第2の(部屋)監視モードに切り替えられる。
第3のステップS12において、患者が椅子にいるかどうかが検出される。これは、ベッドの領域に近い周囲領域における深度プロファイルをチェックすることによって行われる。椅子は、通常、前記シーン分割アルゴリズムによるセグメント化されたブロブ(blob)に対応する。患者がいる椅子を見つけられない場合、前記カメラは第2の(部屋)監視モードに切り替わる。
患者がベッド又は椅子にいる場合、さらなる監視のための様々なオプションがある。さらなる詳細を取り込むために、動き推定が行われる。前記カメラは、特に手の領域に対して、僅かな微妙な動きがある領域にズームインする(ステップS14)。ズームインした領域において、1分間動きが検出されない場合、前記カメラはズームアウトして、完全なベッド領域を視野に入れる(ステップS13)。
ズームインした領域の優先順位付けが行われてもよい。画像において2つ以上の領域に部分的に微妙な動きがある動きが検出される場合、微妙な動きがある領域の優先順位に基づいてズームインする、及び最も高い優先度を持つ領域にズームインすることが決定されてもよい。典型的なせん妄の行動は、主に手の動きによって現れる。従って、手の動きを最適に検出するためにズームインすることが有利である。(例えば、OpenPose検出器に基づく)人物姿勢検出器が、異なる身体部位、例えば、頭部、腕部、手及び脚部を位置特定するのに使用されてもよい。
患者の顔領域に焦点を合わせることが行われる(ステップS15)。これは、例えば、可能性のあるせん妄、疼痛及び/又はストレスのような患者の状態に関する重要な手がかりを提供する顔の表情の分析を可能にする。
別のオプションとして、前記カメラが自動的に第2の(部屋)監視モードに切り替えられるように、ベッドから出る又はベッドに入ることが検出される(ステップS16)。
別のオプションとして、別の人物が検出されてもよい(ステップS17)。例えば、前記患者に加えて、別の人物が部屋に入ってくる、特にカメラの視野内に入っているときが検出される。患者が監視領域に一人でいない場合、前記カメラは、第2の監視モードに切り替えられ、測定の状況に関して学習する。別の人物の位置に応じて、部屋全体(第1の領域)ではなく、シーンのより小さい領域(第3の領域)に焦点が合うように調整されることができる。
第2の監視モードにおいて、患者がベッドにも椅子にもいない場合、活動(動き)レベルの測定が行われる(ステップS18)。そのレベルに基づいて、前記カメラのビューは、ズーム及び/又はシフトされ、最も激しい活動又は相互作用に焦点を合わせる。
一実施形態において、天井に取り付けられ、下方を向いている、標準的な3DのPTZカメラが使用される。(例えば部屋の床面のような地面に対する)前記カメラの傾斜角を推定するために、事前の較正ステップが行われ、前記カメラは次いで、前記地面がカメラのビューにおいて平坦となるように、機械的に回転される。別の実施形態において、前記地面が水平方向に配されるように、ビデオデータの補正がコンピュータ的に行われる。図6Aは、患者のベッドの上の天井に取り付けられたカメラによるカメラのビューを示す。図6Bは、この斜視図からの深度図を示す。
別の実施形態において、さらなる分析の便宜上、前記地面がX-Y平面上で常に水平であるように、カメラの視野角を補正することができる。図7Aは、図6Bに示される深度データの点群表現を示す。この点群表現は、側面画像及び/又は関連する上面画像から一般に構成されることができる。(視野角が患者のベッドの端部に向いていて、2人の人物がベッドの隣に立っている図7A(Original view)に示されるような)オリジナルの3D点群から、最も離れた点(farthest point)より上の0.5メートル(又は、事前に設定される、或いは特定のビューに対し推定される他の如何なる適正な値)までが、殆ど地面ピクセルを構成すると仮定される。これらの選択されたピクセルは、例えば、RANSAC(RANdom Sample Consensus)と呼ばれる技術のような、ロバストな方法で3Dの地面に合わせるために使用される。RANSACベースの推定は、外れ値を処理するその能力のため、非常にロバストな解決策を表す。推定された平面パラメータに基づいて、(図7B(Corrected view after camera rotation)に示されるように)地面がX-Y平面上にあるように前記カメラが回転される。新しい点群のZ値は、地面より上のシーンオブジェクトの本当の高さを反映する。RANSACアルゴリズムの代わりに他の方法が、そのような補正を達成するために代わりに適用され得ることに留意されたい。
部屋において何を監視するかを決定するために、別の人物が部屋にいる、又は患者が一人で部屋にいるかどうかが決定される。一実施形態において、これは以下のように行われる。
第1のステップにおいて、例えば図8Aに示されるように、ROI(関心領域)検出アルゴリズムを適用して、患者領域の輪郭を描く。これは、例えば、国際特許出願第2020/127014号明細書に記載される方法を用いて行うことができる。(本明細書では第2の領域と呼ばれる)患者領域の深度プロファイルから、患者がベッドにいるか又はいないかが分かる。ベッドにいる場合、患者が部屋に一人でいるかどうかを決定するために、以下のステップが実行される。
ビデオデータから、例えば、フレーム差分、H3DRS又はオプティカルフローに基づいて動きマップが生成される。(患者領域の外側にある)検出された動き領域が患者領域に隣接していない場合、別の人物が部屋にいるが、彼らは患者と身体的に相互干渉していないと仮定することができる。
(例えば、図8B及び8Cに示されるように)動き領域が患者領域と交わっている場合、これらの動き部分の関連する実際の深度値がさらにチェックされる。上記に基づいて、患者領域と別の人物(例えば、看護師、医師、訪問者等)との間に相互干渉があるかどうかを導出することができる。次いで、前記カメラは、患者及び患者領域と相互干渉している前記別の人物が視野内に入るようにズームアウトするように制御される、すなわち、前記カメラは、患者領域よりも大きい第3の領域を監視するように制御される。
前記動きが患者領域の外側にある場合、前記カメラは、患者監視モード(第2の監視モード)に切り替わり、患者領域にズームインするように制御されることができる。
ベッド領域に患者が検出されない場合、可能性のある椅子の存在を位置特定するために、このベッド領域を囲む検出された他の接続される部分(例えば、ブロブ)がさらにチェックされる。これは、ブロブの形状及び深度プロファイルによって再度確認することができる。患者が椅子にいる場合、患者がベッドにいる状況について上述したのと同じロジックに従うことができる。
ビデオデータから活動又は動きを検出するために、例えば、(現在のビデオフレームと、基準フレーム或いは先行するビデオフレームとの間の差を決定する)背景差分法(background subtraction)を使用するアルゴリズム、又はオプティカルフロー(optical flow)に基づくモデルを使用するアルゴリズムのような多くの異なるアルゴリズムが一般に知られている。活動が人の動きを表しているかどうかを決定するために、例えば、活動を示す画像領域のテクスチャ、形状、動きパターン等を評価するアルゴリズムのような既知のアルゴリズムも同様に適用することができる。様々なアルゴリズムは、例えば、”Paul, M., Haque, S.M.E. & Chakraborty, S. Human detection in surveillance videos and its applications - a review. EURASIP J. Adv. Singan Process. 2013, 176 (2013)”に記載されている。異なる人物がいるかどうかを区別することは、例えば、活動がある領域が明確に分離されているかどうかを検出することによって達成されることができる。
患者が一人で部屋にいる場合、リアルタイムで監視するための以下の分析的特徴又はモードの1つ以上が適用される。これらは手動で選択される、又は自動的に検出される事象によって作動することができる。
一実施形態において、ベッド全体の監視(full-bed monitoring)が行われてもよい。この動作において、視野の大部分(例えば、80%)をベッド領域が占めるようにカメラのズームレベルが調整される。一例が図8Aに示される。この動作はデフォルトの動作として使用されることができる。
別の実施形態において、ベッド内の動きに焦点を当てる(in-bed motion focusing)ことが行われてもよい。ベッドに横たわっている間の患者の動きは、例えば、ベッドのシーツをいじるような、せん妄を検出するための重要な手掛かりを提供する。動きを検出することによって、患者の小さな動きが取り込まれ、より詳細にするために、カメラがズームインされる。これは、より良好な視覚化のために行われるだけでなく、これらの微妙な動きをさらに分析するために使用されるアルゴリズムにとってより良好な(高解像度の)入力も提供する。微妙な動きからせん妄を検出するために、例えば、米国特許出願公開第2014/235969号明細書に記載されるような方法が使用されてもよい。
別の実施形態において、顔の表情分析が行われてもよい。顔の表情は、ICUにいる患者にとって、重要なコミュニケーションの合図の1つである。この動作のために、例えば、”Weon SH., Joo SI., Choi HI. (2014) Using Depth Information for Real-Time Face Detection. In: Stephanidis C. (eds) HCI International 2014 - Posters' Extended Abstracts.HCI 2014, Communications in Computer and Information Science, vol 434, Springer”に記載されるような自動顔検出アルゴリズムが使用され、顔の領域を見つけることができる。前記PTZカメラがこの領域にズームインすることができる。これら画像は、目視検査のために使用される、又は自動表情分析アルゴリズムに供給されることができる。この動作は、手動で選択される、又は上述したのと同様の方法で顔の動きによって作動することができる。
別の実施形態において、ベッドに入る/ベッドから出ることの検出が行われてもよい。ベッドの境界は、ベッドに入る/ベッドから出ることの如何なる事象も検出するために常に監視される。これは、例えば、外側から内側へ又は内側から外側への何れかのベッドの境界を越える動き方向をチェックすることによって達成される。ベッドに入る/ベッドから出る事象が検出される場合、前記カメラは、部屋全体を監視するためのズームレベルに制御される。ベッドに入る/ベッドから出ることを検出するために、例えば、米国特許出願公開第2019/228866明細書又は米国特許出願公開第2019/192052明細書に記載される方法が使用されてもよい。
別の実施形態において、別の人物(例えば、看護師又は訪問者)の入場/退場の検出が行われてもよい。患者に続いて別の人が画像に入ってくるときが検出されてもよい。これが分かると、前記カメラは、それに応じて、ズーム動作を調整することができる。
部屋にある全ての活動を連続的に概観するために、前記カメラは、例えば、魚眼カメラと組み合わされてもよく、その結果、部屋における全ての活動が記録されることができる。そのような追加のカメラの画像は、動きの多発地点(hot spot)に対し分析される。追加のカメラは、前記分析のためにこの情報を提供し、患者監視モードから部屋監視モード(第1の監視モード)に戻るために使用される。
単一のPTZカメラに対し、デジタルズームは、部屋全体を連続的に監視するために、元の最大解像度の画像を使用する一方、関心領域に焦点を合わせるために使用される。
本発明は、カメラベースによるICUルームを監視する機能を提供するが、カメラの監視を使用する一般病棟、高齢者病棟及び他の医療施設にも使用されることができる。さらに、本発明は、ICUにいる患者の動きを自動的に特徴付けることも可能にする。本発明によって提供されるさらなるオプションは、せん妄の検出、バイタルサインの監視、褥瘡管理及び転倒管理を含む。
本発明は、図面及び上述した説明において詳細に図示及び説明されたが、そのような図示及び説明は、説明的又は例示的であり、限定的ではないと考えられるべきである、つまり、本発明は、開示された実施形態に限定されるものではない。開示された実施形態に対する他の変形は、図面、本開示及び添付の特許請求の範囲を検討することにより、請求される発明を実施する際に当業者によって理解及び実施されることができる。
請求項において、“有する”という言葉は、他の要素又はステップを排除するものではなく、複数あることを述べていなくても、それが複数あることを排除するものではない。単一の要素又は他のユニットが、請求項に列挙される幾つかの項目の機能を果たすことができる。特定の手段が相互に異なる従属請求項に記載されているという単なる事実は、これらの手段の組み合わせが有利に使用されることができないことを示すものではない。
コンピュータプログラムは、適切な非一時的媒体、例えば、他のハードウェアと一緒に又はその一部として提供される光記憶媒体又はソリッドステート媒体に記憶/配布されてもよいが、他の形式で、例えばインターネット又は他の有線もしくは無線通信システムを介して配布されてもよい。
請求項における如何なる参照符号も、その範囲を限定するものとして解釈されるべきではない。

Claims (15)

  1. カメラを制御するための装置であって、前記装置は、
    前記カメラからビデオデータを取得するように構成される入力ユニット、
    前記取得されるビデオデータから、特定の人物が前記カメラによって監視される第1の領域に一人でいるかどうかを決定するように構成される画像処理ユニット、
    前記画像処理ユニットによる前記特定の人物が前記カメラによって監視される第1の領域に一人でいるかどうかの前記決定に基づいて、第1の監視モード又は第2の監視モードで動作するように前記カメラを制御するための制御信号を生成するように構成される制御ユニット、及び
    前記カメラに前記制御信号を出力するように構成される出力ユニット
    を有し、前記制御信号は、前記特定の人物が前記第1の領域に一人でいない場合、前記第1の領域又は第3の領域が監視される第1の監視モードで動作する、及び前記特定の人物が前記第1の領域に一人でいる場合、第2の領域が監視される第2の監視モードで動作するように前記カメラを制御するように構成され、前記第2の領域は、前記第1の領域よりも小さく、前記特定の人物を実質的に含む、及び前記第3の領域は、前記第2の領域よりも大きいが、前記第1の領域よりも小さく、前記第1の領域にいる前記特定の人物以外の1人以上の人物を含む、装置。
  2. 前記画像処理ユニットは、前記取得されるビデオデータから、前記第1の領域における活動を検出し、前記活動が1人以上の人物の動きを表すかどうかを決定することによって、前記特定の人物が前記第1の領域に一人でいるかどうかを決定するように構成される、請求項1に記載の装置。
  3. 前記画像処理ユニットは、1人以上の別の人物が前記第1の領域において検出される場合、前記別の人物の1人以上が前記第2の領域にいる或いは前記第2の領域と重なっている、又は前記第2の領域に隣接しているかどうかを決定するように構成される、並びに
    前記制御ユニットは、前記別の人物の1人以上が前記第2の領域にいる或いは前記第2の領域と重なっている、又は前記第2の領域に隣接している場合、前記第1の監視モードで動作し、前記特定の人物及び前記別の人物の1人以上を実質的に含む前記第3の領域を監視するように前記カメラを制御するための制御信号を生成するように構成される、請求項2に記載の装置。
  4. 前記制御ユニットは、前記別の人物の誰もが前記第2の領域にいない或いは前記第2の領域と重なっていない、又は前記第2の領域に隣接していない場合、前記第2の監視モードで動作又は前記第1の監視モードで動作し、前記第1の領域を監視するように前記カメラを制御するための制御信号を生成するように構成される、請求項3記載の装置
  5. 前記画像処理ユニットは、前記取得されるビデオデータにおいて、特定の家具、特にベッド又は椅子を検出し、前記特定の人物が前記家具の上又は前記家具にいるかどうかを決定し、前記特定の人物が上に又はいる前記特定の家具を実質的に含む領域を第2の領域と定義するように構成される、請求項1乃至4の何れか一項に記載の装置。
  6. 前記画像処理ユニットは、前記特定の家具を検出し、前記ビデオデータの深度情報に基づいて、前記特定の人物が前記家具の上に又は前記家具にいるかどうかを決定するように構成される、請求項5に記載の装置。
  7. 前記画像処理ユニットは、地面が水平方向に配されるように前記カメラの視野角を補正することによって、取得されるビデオデータを補正し、特定の人物が前記第1の領域に一人でいるかどうかを決定するために、前記補正されたビデオデータを使用するように構成される、請求項1乃至6の何れか一項に記載の装置。
  8. 前記制御ユニットは、地面が水平方向に配されるように前記カメラを回転させるように制御するための制御信号を生成するように構成される、請求項1乃至7の何れか一項に記載の装置。
  9. 前記画像処理ユニットは、前記第2の監視モードにおいて、前記特定の人物の顔の表情の表情分析、前記特定の人物がベッドに入る若しくはベッドから出る、又はベッドから落ちる危険性があるかどうかを検出するための離床検出、前記特定の人物の特定の動きを検出するための動き検出、前記特定の人物の1つ以上のバイタルサインを検出するためのバイタルサイン検出、及び1人以上の別の人物が前記特定の人物に近づいている又は離れていくかどうかを検出するためのアプローチ検出の1つ以上を行うように構成される、請求項1乃至8の何れか一項に記載の装置。
  10. 領域を監視するためのシステムであって、
    制御信号に従って第1の監視モード及び第2の監視モードで動作するように構成されるカメラ、並びに
    制御信号を生成し、前記カメラに前記制御信号を出力するための請求項1乃至9の何れか一項に記載の装置
    を有する、システム。
  11. 前記カメラは、前記制御信号の制御下でパン、チルト及び/又はズームをするように構成される、特に3Dのパンチルトズーム(PTZ)カメラである、請求項10に記載のシステム。
  12. 前記カメラは、部屋に固定して取り付けられる、又は部屋に移動可能に配されるように構成される、請求項10又は11に記載のシステム。
  13. 前記第1の領域又はさらに大きな領域を常に監視するように構成される魚眼カメラをさらに有する、請求項10、11又は12に記載のシステム。
  14. カメラを制御するための方法であって、前記方法は、
    前記カメラからビデオデータを取得するステップ、
    前記取得されるビデオデータから、特定の人物が前記カメラによって監視される第1の領域に一人でいるかどうかを決定するステップ、
    前記特定の人物が前記カメラによって監視される前記第1の領域に一人でいるかどうかの前記決定に基づいて、第1の監視モード又は第2の監視モードで動作するように前記カメラを制御するための制御信号を生成するステップ、
    前記カメラに前記制御信号を出力するステップ
    を有し、前記制御信号は、前記特定の人物が前記第1の領域に一人でいない場合、前記第1の領域又は第3の領域が監視される第1の監視モードで動作する、又は前記特定の人物が前記第1の領域に一人でいる場合、第2の領域が監視される第2の監視モードで動作するようにカメラを制御し、前記第2の領域は、前記第1の領域より小さく、前記特定の人物を実質的に含む、及び前記第3の領域は、前記第2の領域より大きいが、前記第1の領域より小さく、前記第1の領域にいる前記特定の人物以外の1人以上の人物を含む、方法。
  15. コンピュータ上で実行されるとき、前記コンピュータに請求項14に記載の方法のステップを実行させるためのプログラムコード手段を有するコンピュータプログラム。
JP2023527682A 2020-11-18 2021-11-10 カメラを制御するための装置及び方法 Pending JP2023548886A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20208465.3A EP4002365A1 (en) 2020-11-18 2020-11-18 Device and method for controlling a camera
EP20208465.3 2020-11-18
PCT/EP2021/081177 WO2022106269A1 (en) 2020-11-18 2021-11-10 Device and method for controlling a camera

Publications (1)

Publication Number Publication Date
JP2023548886A true JP2023548886A (ja) 2023-11-21

Family

ID=73476046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023527682A Pending JP2023548886A (ja) 2020-11-18 2021-11-10 カメラを制御するための装置及び方法

Country Status (5)

Country Link
US (1) US20230412919A1 (ja)
EP (2) EP4002365A1 (ja)
JP (1) JP2023548886A (ja)
CN (1) CN116457882A (ja)
WO (1) WO2022106269A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023035448A (ja) * 2021-09-01 2023-03-13 パナソニックIpマネジメント株式会社 監視装置、監視システムおよび監視方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8237771B2 (en) * 2009-03-26 2012-08-07 Eastman Kodak Company Automated videography based communications
CN103930027B (zh) 2011-10-07 2016-03-02 皇家飞利浦有限公司 用于监测患者并检测该患者的谵妄的监测系统
JP2019535052A (ja) 2016-08-24 2019-12-05 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ベッド転落を予測及び防止する患者監視のためのデバイス、システム、及び方法
EP3504651B1 (en) 2016-08-24 2020-04-29 Koninklijke Philips N.V. Device, system and method for patient monitoring to predict and prevent bed falls
EP3535761A1 (en) * 2016-11-03 2019-09-11 Koninklijke Philips N.V. Automatic pan-tilt-zoom adjustment to improve vital sign acquisition
DE102017006529A1 (de) * 2017-07-11 2019-01-17 Drägerwerk AG & Co. KGaA Verfahren, Vorrichtung und Computerprogramm zur Erfassung von optischen Bilddaten einer Patientenumgebung und zur Erkennung einer Patientenüberprüfung
EP3671530A1 (en) 2018-12-17 2020-06-24 Koninklijke Philips N.V. Device, system and method for object recognition
AU2019201192A1 (en) * 2019-02-20 2020-09-03 Canon Kabushiki Kaisha Method, system and apparatus for capturing an image

Also Published As

Publication number Publication date
EP4248442A1 (en) 2023-09-27
WO2022106269A1 (en) 2022-05-27
EP4002365A1 (en) 2022-05-25
US20230412919A1 (en) 2023-12-21
CN116457882A (zh) 2023-07-18

Similar Documents

Publication Publication Date Title
JP6115335B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6137425B2 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP5715132B2 (ja) 画像解析に関する方法及びシステム
RU2676147C2 (ru) Непрерывное автоматическое наблюдение за движениями пациента
JP6588978B2 (ja) 人の向き及び/又は位置の自動検出のための装置、システム、及び方法
US20190313948A1 (en) Monitoring assistance system, control method thereof, and program
US10321856B2 (en) Bed exit monitoring system
Kittipanya-Ngam et al. Computer vision applications for patients monitoring system
JP2023548886A (ja) カメラを制御するための装置及び方法
JP2018533240A (ja) 占有検出
JP6729510B2 (ja) 見守り支援システム及びその制御方法
US20180322334A1 (en) Person Monitoring Device And Method, And Person Monitoring System
JP2020077388A (ja) 運動解析装置
JP6645503B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
WO2020241057A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2019021002A (ja) 見守り支援システム及びその制御方法
JP2018114015A (ja) 生体情報検出装置、生体情報検出方法及び生体情報検出システム
EP4176809A1 (en) Device, system and method for monitoring a subject
CN111723629B (zh) 姿态监控方法及其计算装置与系统
JP6729512B2 (ja) 見守り支援システム及びその制御方法
JPH10272108A (ja) 医療支援装置
Doi et al. Real-time video surveillance system using omni-directional image sensor and controllable camera
JP2022126071A (ja) 画像処理方法
JP2022126069A (ja) 画像処理方法
JP2022126070A (ja) 画像処理方法