JP2013248387A - 呼吸速度推定のためのビデオプロセッシング - Google Patents

呼吸速度推定のためのビデオプロセッシング Download PDF

Info

Publication number
JP2013248387A
JP2013248387A JP2013099600A JP2013099600A JP2013248387A JP 2013248387 A JP2013248387 A JP 2013248387A JP 2013099600 A JP2013099600 A JP 2013099600A JP 2013099600 A JP2013099600 A JP 2013099600A JP 2013248387 A JP2013248387 A JP 2013248387A
Authority
JP
Japan
Prior art keywords
video
video camera
subject
image
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013099600A
Other languages
English (en)
Other versions
JP2013248387A5 (ja
JP5980720B2 (ja
Inventor
Lalit Keshav Mestha
ラリット・ケシャブ・メスタ
Edgar A Bernal
エドガー・エイ・バナール
Beilei Xu
ベイレイ・シュウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/486,637 external-priority patent/US9226691B2/en
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of JP2013248387A publication Critical patent/JP2013248387A/ja
Publication of JP2013248387A5 publication Critical patent/JP2013248387A5/ja
Application granted granted Critical
Publication of JP5980720B2 publication Critical patent/JP5980720B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • A61B5/1135Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing by monitoring thoracic expansion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • G06F2218/10Feature extraction by analysing the shape of a waveform, e.g. extracting parameters relating to peaks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30076Plethysmography
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】皮膚の露出部位から反射する光電式体積脈波記録信号をトラッキングする。皮膚の露出部位がない場合、ビデオカメラはこれらの信号を登録することができない。皮膚以外の部位の2次元(2D)ビデオの録画はモーションに関わる情報を含むが、モーションに基づく呼吸信号だけを単離させる試みは依然として効を奏していない。これらの欠点を克服するための方法を提供する。
【解決手段】対象被験者の身体の標的部位のビデオが受信される。ビデオ画像のコマは標的部位の3D時系列データを推定するために処理される。被験者の呼吸速度は3D時系列データから推定される。測定値は様々な照射条件下で取得することができる。集中治療装置や自宅でのモニタリングに有用な非接触で患者の呼吸機能のモニタリングを行い、呼吸速度の変化による生理学上の状態の突然の悪化を検出することを支援する。非接触型の呼吸機能の研究や解析に有効なツールを備えている。
【選択図】図4

Description

本発明は、呼吸機能がモニタリングされている患者の胸部の少なくとも部分的なビューを含むビデオでキャプチャされた構造化されたイルミネーションパターンの反射歪みを解析することによって呼吸速度を推定するためのシステムおよび方法に関する。
呼吸事象をモニタリングすることは致命的ともなり得る状態の早期発見に臨床的にもきわめて重要なことである。現在の技術では、人が常時着用しなければならない接触型センサを必要とする。このような必要条件は患者が不快感、依存性、尊厳の損失を感じることにつながり、さらには、モニタリング装置の着用拒否を含むさまざまな理由によって結果的にモニタリングの失敗に至ることもある。また、高齢者や乳幼児に至っては長時間のモニタリングによる悪影響を受けやすい傾向にある。したがって、患者に負担を掛けない非接触型の撮像ベースの呼吸機能モニタリング方法に対する要望は高まる一方である。
従来の方法は、被験者の対象となる部位のビデオ画像をキャプチャし心臓や呼吸機能に対する生理学上の測定値を取得するためにビデオプロセッシングを行ってきた。これらのシステムは、皮膚の露出部位から反射するフォトプレチスモグラフィ(光電式体積脈波記録)信号をトラッキングする。反射した信号は、脈動する血液量に関連する成分を識別して分離させるように処理される。皮膚の露出部位がない場合、ビデオカメラはこれらの信号を登録することができない。皮膚以外の部位の2次元(2D)ビデオの録画はモーションに関わる情報を含むが、モーションに基づく呼吸信号だけを単離させる従来の試みは依然として効を奏していない。本発明はこれらの欠点を克服するために提供されている。
本発明は対象被験者の胸部のビューを含むビデオにおいてキャプチャされた対象被験者の呼吸速度を推定するためのシステムおよび方法に関する。一実施形態において対象被験者の身体の標的部位のビデオを受信する。本明細書中により詳細に開示されているように、被験者の胸部部位のモーションがビデオに記録される。ビデオ画像コマは連続的な時系列信号を得るために処理される。その後、この信号は被験者の呼吸速度が単離される周波数情報を取得するために処理される。有利には、測定値は、患者に負担を掛けない様々な照射条件の設定下で得ることができる。本発明の教示は、呼吸速度の変化による生理学上の状態の突然の悪化の検出を助けるために特に集中治療室や自宅において有用な呼吸機能のモニタリングの非接触型のアプローチを提供する。本明細書中に開示されているシステムおよび方法は、接触しない呼吸機能の解析に有効なツールを提供する。
図1は、成人男性の前後それぞれを示す正面図と背面図である。 図2は、最大吸気と最大呼気を伴って7回の呼吸をする健常者の肺活量計の出力を示す図である。 図3は、構造化された光源によって照射された例示的なシーンと本発明の教示による呼吸速度推定のための被験者の胸部領域のビデオをアクティブに取得するビデオカメラとを示す図である。 図4は、三角測量に関して表されている撮像センサ、構造化された光プロジェクタ、オブジェクトの表面ポイントの互いの幾何学的関係を示す図である。 図5は、3つの投影パターンを有する位相シフトと1つの例示的なフリンジ画像とを示す図である。 図6は、本発明の例示的な一実施形態による位相アンラッピング処理を示す図である。 図7は、本発明の一実施形態によるパターン化された光源プロジェクタによって放たれた反射光を検知するために画像センサを使用するシステムを示す図である。 図8は、男性被験者からの測定値から得られた60秒間の正規化されたゼロ平均値体積測定の時系列サンプル信号とトレンド除去された時系列信号を示す図である。 図9Aは、トレンド除去前の呼吸信号のパワースペクトル密度曲線を示す図である。 図9Bは、トレンド除去後(λ=80)の呼吸信号のパワースペクトル密度曲線を示す図である。 図10は、本発明の1つの例示的な実施形態による、呼吸機能がモニタリングされている対象被験者の呼吸速度を判断する方法を示す流れ図である。 図11は、図10の流れ図に関して説明したように本発明の方法の様々な態様を実施するための1つの例示的なビデオプロセッシングシステムを示すブロック図である。
「対象被験者」とは、本発明の教示に基づいてこの被験者の呼吸速度を判断され得るように呼吸機能をモニタリングされている被験者をいう。図1は成人の前(正面図)101および後ろ(背面図)102を示す図である。標的部位103は被験者の前の胸部を概略的に示している。標的部位104は被験者の後ろの胸部を概略的に示している。本明細書で使用されているように、標的部位はまた、呼吸機能を行う被験者の身体の部位の任意のビューをさす。本明細書中の用語「人間」、「人」、または「患者」の使用によって添付クレームの範囲を人間の対象被験者のみに限定するものとして見なされるべきではないことを理解されたい。本発明の教示はやはり呼吸機能を持っている他の対象被験者にも等しく適用されるものである。このような更なる被験者としては、例えば、哺乳類、鳥類、魚類、爬虫類が挙げられる。
「呼吸機能」は肺に空気を吸い込み(吸息)、ガスを交換し、肺から空気を吐き出し(呼息)、その後の呼気後休止を含む多段プロセスである。空気の吸入は胸腔内にある肺を空気で満たして肺体積を拡大させる。空気の吸入は、横隔膜筋によって始動され、肋間筋によって補助される。通常の条件下では横隔膜は空気吸入の主要な駆動子である。横隔膜が収縮すると、胸郭が広がり、腹部の内容物が下方へ移動する。これによって胸部の体積が大きくなり胸部内側に負圧(大気圧に対して)が生じる。ガス交換は呼吸器系の主要機能である。ガスの分子が外部環境と肺回路内の血液循環系との間で交換される。この交換は、血液のみならず組織の酸素化し、体内から二酸化炭素や他の代謝性廃棄物を除去することを容易にする。ガス交換はまた身体の酸塩基平衡を維持するのを助ける。ガス交換の細胞メカニズムは圧力差の単純な現象によって行われる。外気圧が低い時は、空気は肺から周囲へ流れ出る。肺内部の空気圧が低い時にはこの反対のことが起こる。呼息は、吸息による膨張に反発して胸内圧力と外の大気圧力が平衡になるまで空気を無理に押し出すような肺組織の自然の弾性による受動的プロセスである。ろうそくを吹き消すときのような強制的な呼息の間、腹筋と内部肋間筋とを含む呼息筋は肺から空気を押し出すことを補助する腹圧と胸圧を生成する。深呼吸するときのような強制的な吸息の間、外肋間筋と付帯筋肉は胸腔を膨張させてより多くの空気を肺に取り込むのを補助する。積極的な吸息の間(毎分35回の呼吸を超える速度)、または呼吸不全に近い場合に於いて、胸鎖乳突筋、広頸筋、首の斜角筋だけでなく、胸筋および呼吸の広背筋などの付帯筋肉が呼吸を補助するために必要とされる。肺と大気との圧力間の平衡化があれば、呼息後休止が発生する。呼息後休止の継続時間は、身体活動量が増えるにつれて短くなり、身体エネルギの使用がきわめて高ければ、ゼロになる場合もある。被験者が安静時にあるとき、呼息後休止の継続時間は比較的長い。被験者の呼吸周期は、吸息の開始と呼息後休止の終わりとの間の時間間隔である。呼息後休止の後はすぐに次の周期がスタートする。
「呼吸速度」は被験者がある一定の時間以内に行う呼吸(吸息と呼息)の数(一般に毎分当たりの呼吸数)をいう。呼吸速度は、被験者の安静時に測定される場合が多く、単に被験者が一分当たりに行う呼吸気の数を判断することを含む。安静時の成人は、その人の心血管系および呼吸器系の全体的な状態にもよるが、毎分12〜20回の呼吸気を行う。平均的成人の全肺気量は、空気の約6.0Lであるから、肺は、一回の呼吸気の間に吸息と呼息の後で比較的少量の体積を移動させる。肺線維症、気胸、乳児呼吸窮迫症候群などの拘束性肺疾患は肺体積を小さくするが、喘息、気管支炎、肺気腫などの閉塞性肺疾患は空気の流れを遮断する。図2は、最大吸息と最大呼息を伴う、7回の呼吸気を行う健常者の肺活量計の出力を示している。
「リモートセンシング環境」は接触せずに被験者からデータを取得する被験者の動きを拘束しない非侵襲的な手段であり、即ち、検知デバイスは検知されている被験者に物理的接触をしない。検知デバイスは被験者から任意の距離だけ離間されて配設することができる。例えば、1インチ未満接近して配設されてもよいし、遠隔医療の場合は数マイルも遠くに離間されて配設されてもよい。本明細書の教示によれば、安静時の心臓病患者が平穏にしていられるこのようなリモートセンシング環境において所望される用途を見つけるに至った。
「ビデオ」とは、一般的に理解されているように、ビデオカメラの1シーンを使用して経時的にキャプチャされた時系列の画像コマである。例えば、3チャンネルのカラービデオカメラを使用してキャプチャされた完全実装された2D画像は、アレイ内の各ピクセルがこれらのチャンネルの各々からピクセルに対する収集されたカラー値を有しているピクセルの2Dアレイである。例えば、単一チャンネルのビデオカメラを使用してキャプチャされた完全実装の2D画像はアレイ内の各ピクセルが対象となる所望の波長帯域で測定されたそのピクセルロケーションの強度値を有しているピクセルの2Dアレイである。ビデオはまた、オーディオ(音声)、時間基準信号などの他の成分を含むこともある。ビデオデータの大きさはビデオシーケンスが長さに比例して大きくなる。ビデオはまた、皮膚の表面の湾曲による非均一な照射を補償し、身体や表面の動きによるモーション誘発のブレや撮像ブレや低速のイルミナント(発光体)の変化を補償するために、処理または前処理される。ビデオ内のモーションは、例えば、ビデオベースの2D画像や3次元(3D)表面の安定化技術を用いて補償することができる。
「ビデオを受信すること」は広い意味で解釈されるように意図されており、ビデオカメラで検索し、受信し、キャプチャし、さもなければ、本発明の方法に基づいて呼吸気胸郭体積推定を処理するためにビデオを取得することを意味する。ビデオはビデオカメラシステムのメモリまたは内部記憶装置から受信するかまたはネットワークを介してリモートデバイスから得ることができる。ビデオはまた、CDROMやDVDなどの媒体から検索することもできる。ビデオは、前処理や後処理のためのこのようなビデオを利用できるようにしたウェブサイトからダウンロードして受信することができる。ビデオはまたハンドヘルド携帯デバイスとして広い範囲で入手可能なアプリケーションを用いて検索することができ、ユーザの携帯電話やiPadなどの他のハンドヘルドコンピューティングデバイス上でも処理することができる。
「ビデオカメラ」はビデオをキャプチャするためのデバイスをさす。ビデオカメラは、可視波長域において感応しやすいビデオカメラであってもよいし、近赤外(NIR)、短波長赤外赤(SWIR)、中波長赤外(MWIR)、および長波超赤外(LWIR)などの赤外波長範囲において感応しやすい赤外線ビデオカメラであってもよい。ビデオカメラは、可視および赤外波長の両方でビデオをキャプチャするハイブリッドデバイスを含むことができる。
「構造化されたイルミネーション光源」は知られている空間的特性を有するパターン化された格子または窓を通して光源を投影する光源である。パターンは既知の空間特性を有する擬似ランダムパターンである。シーン内のオブジェクトの正確な3D表面のプロファイル(外形)は構造化された光の原則と三角測量ベースの画像の再構築技術を用いて計算することができる。
ここで、図3を参照されたい。図3は、図1の対象被験者の胸部の標的部位303がキャプチャされている単一の2D画像コマ300を示している。ビデオカメラ310は、構造化されたイルミネーション光源311によって放たれた標的部位から反射されたエネルギをキャプチャする。ビデオカメラ310は、ビデオが処理のために受信されるコンピュータワークステーションなどのリモートデバイスと双方向通信を実施するために通信エレメント313を有しているのが示されている。コントローラ314および315が示されており、アーチファクトを削減するために、構造化されたイルミネーション光源311および312の各々の操作を実施する。他のパラメータとは対照的に、操作は呼吸速度を抽出するためのビデオをキャプチャするためだけに必要とされる。本出願において、ハイブリッドビデオキャプチャは、呼吸速度を推定するために構造化されたイルミネーションによって第1の2D画像をキャプチャし、次に、心拍数を推定するための非構造化されたイルミネーションによって第2の2D画像をキャプチャするために使用することができる。このようなシステムは他の重要な生理学的パラメータを抽出するために非構造化されたイルミネーション光源を必要とするシステムと協働するときに想定されるシステムであることが理解されよう。ビデオキャプチャシステムはビデオ解析モジュールを更に含む。本発明の一実施形態において、ビデオ解析モジュールは、本発明の教示による高級速度の推定のためのコマベースでビデオ画像を解析するためにマシン可読プログラム命令を実行することが可能な少なくとも1つのプロセッサを搭載したASIC(特定用途向け集積回路)などのハードウェアデバイスを含む。このようなモジュールはまた、全体的または部分的に単独でまたは1つ以上のハードウェアリソースと協働して動作するソフトウェアアプリケーションを含むことができる。ソフトウェアアプリケーションは、異なるハードウェアプラットフォーム上のプロセッサによって実行されるかまたは仮想環境においてエミュレートされる。ビデオ解析モジュールのアスペクトは市販されているソフトウェアを活用することができる。
「深さマップ」は、画像のその部位内の表面から反射された構造化された光パターンの歪みの量の解析に基づいた深さの値を含むマップである。一旦、深さマップが作成されると、体積を計算することができる。図4において、構造化されたイルミネーション光源403はオブジェクト405へ正弦波格子404を投射し、射突している正弦波格子の反射はこれらがオブジェクトから反射する時にカメラシステム402によってキャプチャされる。正弦波格子は歪みのない投影されたパターンの既知の空間特性を有している。図示したように、カメラシステム402は、キャプチャされたビデオが処理のために連絡されるワークステーション(図示せず)などのリモートデバイスと双方向通信を行うための通信エレメント406を有している。シーン(場面)が3Dで表面変形されない平坦な表面でありかつカメラセンサと略平行に配向されている場合、取得した画像に示されているパターンは投影された構造化された光パターンのパターンに類似している。しかしながら、表面が平坦でなく、カメラセンサと平行配向されておらず、なおかつ、3Dオブジェクト405を含む場合、オブジェクトの形状は投影された構造化された光パターンを歪曲させる。このような光の歪みはカメラ402によって検出することができる。カメラ402と構造化されたイルミネーション光源403と3Dオブジェクト405の表面上のポイントPの互いの幾何学的関係は、以下のように、三角測量として表すことができる。
正確な3D画像の再構築は、オブジェクトの表面上の異なるロケーションにおける位相を測定しかつこれらの位相からの深さ情報を計算する位相シフトまたは位相変調技術に基づいて行うことができる。図5は、オブジェクト表面に投影された総称して参照番号501が付された三つの投影されたパターンを有する位相シフトと、例示的なフリンジ画像502と、を示している。位相シフトを介した画像の再構築は、三つの投影されたフリンジ変調パターンのピクセル(x、y)ごとの強度が以下の関係式、
によって記述されているよく知られている方法である:
式中、I(x,y),I(x,y)およびI(x,y)は三つのフリンジパターンの強度であり、I(x,y)はDC成分(背景)で、Imod(x,y)は変調信号の振幅、φ(x,y)は位相であり、θは一定の位相シフト角である。位相アンラッピングは、絶対位相にラッピングされた位相を変換するプロセスである。位相情報φ(x,y)は、次の三つのフリンジパターンの強度から検索(すなわち、アンラッピング)することができる。
2πにおけるアークタンジェント関数の不連続値はφ’(x,y)値(図6参照)の倍数を加算または減算することによって取り除くことができる。
式中、kは投影期間を表す整数である。アンラッピング方法は相対的なアンラッピングを提供するにすぎず、絶対位相を解くわけではないことに注目されたい。3D(x,y,z)座標は測定された位相φ(x,y)と基準面からの位相値との差に基づいて算出することができる。
図7のシステムを参照されたい。図7は、ビデオカメラ702を利用して、パターン化されたイルミネーション光源プロジェクタ705によって投影され(704において)放たれた反射光がオブジェクト706のポイントP、即ち、被験者の胸部部位におけるロケーション、から反射されていることを検知する。深さの値は以下の式によって付与される幾何学によって計算される。
この式は、
と、解くことができる。
ストライプ索引付けはまた、ストライプが観察される順序が三角測量ベースの3D表面イメージングシステムに存在する固有の視差によっておよび3Dの表面特徴の閉塞によって取得画像から欠落しているストライプを有する可能性によってストライプが投影される順序とは必ずしも同じ順序である必要がないため、3D表面の再構築を達成するために使用することができる。ピクセルの集合は画像を形成する。投影パターンのストライプ索引付けのためのカラーの使用は単色パターンを用いた位相シフトまたは複数のストライプ技術が直面している曖昧さの問題を緩和するのに役立つ。このタイプのシステムは、各パターンが特有のカラー値を処理することで複数のパターンを単一カラー投影画像へ符号化することが可能にする。各カラーは、復号化エラー率を下げるためにセット内の任意の他のカラーから最大距離にあるカラーセットを選択することができる。カラーの最大数は取得された画像内で発生するクロストークを最小限に抑えられるカラー間の距離に限定される。呼吸が短時間停止した場合におけるように、ターゲットとなる3Dオブジェクトが動いておらず、アプリケーションの取得時間が厳しい制約を課されていない場合には(シーケンシャルな)複数の撮影技術を使用することができ、より確実で精度のよい結果がもたらされることが理解されよう。一方、ターゲットが動いていれば、単一撮影技術は特定の時間において3Dオブジェクトのスナップショットの3D表面画像を取得するために使用される。単一撮影技術は、連続的に変化する構造化された光パターンを用いた技術、一次元(1D)の符号化スキームを用いた技術(ストリップ索引付け)、二次元(2D)の符号化スキーム(格子索引付け)を用いた技術へ分類することができる。各技術は特定のアプリケーションによって利点もあれば欠点もある。いくつかの技術を組み合わせてもよい。
また、イルミネーション光源は、操作できる、具体的には、ビデオカメラによるビデオのキャプチャ中に空間的および/またはスペクトル状に変化させることができることを理解されたい。イルミネーション光源は、異なる角度からそのシーン内のいくつかの部位へ光源光が投影されるように、例えば、そのイルミネーション光源を移動させることによって空間的に変化させることができる。イルミネーション光源は、スケジュールまたは所望される周期に応じて、例えば、光源光の投影をトグルオン/オフすることによって時間的に変化させることができる。イルミネーション光源は、例えば、電磁放射の波長帯域を変更することによってスペクトル状に変化させることができ、これによって、イルミネーション光源はシステム内の他のイルミネーション光源および/またはビデオカメラに干渉しない。デバイスコントローラは、イルミネーション光源が投影する光源光の強度を変化させるように構成することができる。
デバイス依存型の深さの示度(単位:バイト)をデバイス非依存型の周知のメトリックへ変換するために較正を実行する必要がある。デバイスの空間座標(ピクセルからミリリットルまたはメートルまたはインチへ)の較正は従来のRGBカメラが較正される方法にほぼ類似した方法で実行することができる。深さの出力の較正はステレオ写真(イルミネーションと撮像モジュール)の幾何学的構成の知識を必要とする。空間座標と3D画像センサからの深さ示度は(ミリリットルまたはメートルまたはインチなどの)デバイス非依存型の単位に変換することができる。しかしながら、このことが、胸郭体積の変化と肺容積の変化は胸郭と肺の弾性差によって互いに一致しないかもしれないということもあり、推定される体積が測定されている体積に一致することを保証するものではない。よって、更なる較正が望まれる。推定値と実際の体積との互い線形関係を仮定した場合、比例定数は、測定が必要とされる範囲にわたって異なる呼吸レベルについて行われる臨床検査を通して推定することができる。実際の体積は肺活量計を用いて測定することができる。肺活量計の測定値と3Dイメージングシステムを用いて得られた測定値の回帰直線の傾斜は較正定数を提供する。
呼吸速度が推定される前に、好ましくは、被験者の身体に対応する深さマップの部位が画像内でセグメント化される。これは複数の方法にて達成することができる。例えば、カメラから寝台の表面までの距離が分かっているので、被験者の身体のロケーションは寝台表面によって囲まれかつ寝台自体よりもカメラに接近して配置されているピクセルを検出することによって抽出することができる。もう1つの方法は、局所化を実行しその後に同様の深さ情報を有するピクセルを含むようにターゲット部分を領域成長させることである。これは最終的にバイナリマスクを生成する。胸郭の局所化は、身体のセグメント化のステージから得られるこのバイナリマスク上のモルフォロジー演算の賢明なアプリケーションによって実行することができる。例えば、適切なサイズの構造化エレメントを有するマスクのモルフォロジカルな開口部は、胸部に対しての相対的なサイズが付与された場合に四肢や頭部に対応するピクセルを取り除くことによって行う。別の方法としては、マスクにモルフォロジカルなスケルトンを適用して得られたスケルトンの分岐ポイントを判断することである。これらの分岐点は、大体が首や肩に配置されていることから、被験者の胸部部位のロケーションを表示する。
3D時系列データの推定
時系列データは、受信したビデオの各画像コマを処理することによって推定される。画像コマを処理することには、歪みが画像内に特徴付けられるようにキャプチャされた空間歪みの空間属性を歪み無しの投影パターンの知られている空間属性と比較することが含まれる。深さマップは、標的部位の表面上の様々なロケーションで特徴付けられた歪みから計算される。3D体積は、関連する深さマップから、画像ごとに推定される。その後、処理された画像コマから得られた推定される3D体積は共に結合されて推定される3D時系列データを生成する。本発明の方法の次のステージにおいて周波数解析を実行するために、得られた時系列データの正規化と平均値減算が行われる。正規化はデータの最大値によって信号を分割することによって達成される。図8は、男性被験者を測定して得られた60秒期間の正規化されたゼロ平均値体積の時系列信号のサンプルを示している。
呼吸速度は従来のFFT(高速フーリエ変換)(すなわち、スペクトル解析)方法を用いて正規化されたゼロ平均値の時系列信号から抽出されるので、長期間の連続的なモニタリングを行うために信号が定常化していることが重要である。時系列信号の低速変化トレンドは非定常信号成分につながり、その後、呼吸周波数の周りの大きなサブバンド(小帯域)につながる。また、この特定の場合においては、トレンド除去が低速で変化するモーション誘導型の周波数成分を除去することができる。1つの方法は、低周波数成分を除去することにより、時変性の高域通過FIR(遠赤外線)フィルタのように動作する円滑なアプローチを使用する。トレンド除去されたほぼ定常化した呼吸信号Rstatは、以下の式によって得ることができる。
式中、Roriginalは正規化されたゼロ除去された時系列信号、Iは識別メトリック、λはトレンド除去アルゴリズムの周波数応答を調整するために使用されるパラメータ、Tはマトリックス変換オペレーション、およびDは以下の形式を有する2階微分マトリックスを表している。
originalがNサイズの信号である場合、IはN×Nサイズの識別マトリックスである。パラメータλは、低周波数成分から有用な情報を失うことがないようにサンプルデータで臨床/家庭/作業環境別に患者に実験することで先験的に設定される。
次に、図9A〜図9Bを参照されたい。これらの図はトレンド除去された呼吸の時系列信号のスペクトルを解析するために高速フーリエ変換(FFTベースの)ノンパラメトリックな手法の使用について示している。FFTに代えて、自己回帰(AR)時系列モデリングなどのノンパラメトリックな手法を使用することもできる。図9Aはトレンド除去前の呼吸信号に対するパワースペクトル密度曲線を示している。図9Bはトレンド除去後(λ=80)の呼吸信号のパワースペクトル密度曲線を示している。呼吸速度は、スペクトル標識が最大となるロケーションを判断することによって推定された。この解析に基づいて、毎分10サイクルの記録はオリジナルの時系列信号における吸息および呼息サイクルの数に匹敵する1分間隔において観察された。
次に図10の流れ図を参照されたい。図10は本発明の例示的な実施形態による呼吸機能がモニタリングされている対象被験者の呼吸速度を判断するための方法を示している。流れの手順は、ステップ1000で開始後、ステップ1002へ進む。
ステップ1002において呼吸機能がモニタリングされている対象被験者の標的部位のビデオを受信する。ビデオは、ビデオカメラと構造化された照射のパターンを投影するように構成されているイルミネータとを用いてキャプチャされた。ビデオカメラは構造化された照射の波長において電磁放射に感応し易いように構成されている。キャプチャされたビデオの各画像は構造化された照射が標的部位から反射することによって放たれる放射のサンプリングを含む。空間歪みは投影されたパターンがその表面から反射することで生じる。対象被験者の例示的な標的部位は図1に示されている。
ステップ1004において標的部位に対して推定される3D時系列データを取得するためにビデオ画像を処理する。
ステップ1006において3D時系列データから被験者に対する呼吸速度を推定する。
ステップ1008においてディスプレイデバイスへ呼吸速度を伝える。この実施形態では更なる処理は停止する。別の実施形態では、被験者の呼吸速度が許容可能なパラメータ範囲外であることを示すアラームが開始される。アラームを開始することは、例えば、光を活性化し、可聴ノイズを作るか、あるいは、アクションを実行するかまたは通知を行うデバイスを作動させる信号を生成することである。生成されているアラーム信号の種類は、本発明の教示が実施される特定の実施形態によって異なる。この別の実施形態では、一旦警報信号が作動すると、更なる処理は停止する。別の実施形態では、被験者の呼吸速度が連続的にモニタリングされるように処理が繰り返される。本発明のシステムは他の健康モニタリング機器と協働するかまたは一体化して使用され、開始されたアラーム信号は他のデバイスに所望の機能を実行させることができる。
図10の流れ図は例示目的に提供されていることを理解されたい。流れ図のいずれかに図示されているオペレーションステップの1つ以上が異なる順序で実行されてもよい。その他のオペレーションは、例えば、追加、変更、拡張、縮小、統合、またはそれらのステップと結合されてもよい。このような変形は、添付の特許請求の範囲に含まれることを前提とする。流れ図の全てまたは一部はマシン実行可能な命令と協働してハードウェアで部分的または全体的に実施される。
次に図11を参照されたい。図11は図10の流れ図に関して説明したように本発明の方法の様々な態様を実施するための1つの例示的なビデオプロセッシングシステムを示すブロック図である。
図11は、ワークステーション1100は、例えば、図3のビデオカメラ310から検出された構造化されたイルミネーションパターンを受信するために、あるいは、ネットワーク1101を介してさまざまなデバイスとコンピュータワークステーション1100の間で通信を実施するために、通信エレメント1102と情報をやりとりするように配置されている。コンピュータ1100は情報のディスプレイをイネーブルとするためのディスプレイデバイス1103と、ユーザの入力や選択を実施するためのキーボード1105と、を含む。本発明のシステムのオペレータは、プロセッシングまたはプリプロセッシングするためにビデオの画像を識別しそうでなければ選択しかつシステムの実施のために必要とされるユーザ入力を提供するために、ワークステーションのグラフィカル・ユーザ・インターフェースを使用する。受信されたビデオは、ネットワーク1101を介してリモートデバイスから検索することができる。ビデオの様々な部分は、ワークステーション1100と通信するメモリまたは記憶装置(図示せず)に格納されるかまたはリモートストレージや更なるプロセッシングのためにデバイス1102などの通信を介してネットワーク1101上でリモートデバイスに伝達される。ワークステーション1100および通信装置1102は本発明の教示に基づいてビデオをプロセッシングするためのビデオプロセッシングユニット1106と通信する。
図示されているように、ビデオプロセッシングユニット1106は、バッファ1107を含む。このようなバッファは、例えば、画像コマ内の1つ以上の標的部位、ビデオのサイズ、時間/日付情報などの受信した画像についての情報をキューイングするために使用される。バッファは、本発明の教示に基づいて画像のプロセッシングを容易にするためにデータ、数式、他の表現を格納するように構成される。ビデオプリプロセッサ1108は、皮膚の表面の湾曲による非均一な照射を補償し、身体や表面の動きによるモーション誘発のブレや撮像ブレや低速のイルミナントの変化を補償するために所望や必要に応じて、任意のプリプロセッシングを行う。ビデオプリプロセッサ1108はデータの次元性を削減しかつビデオ信号へ独立した成分解析(ICA)を行うようにプログラミングされる。光歪み判断子1009は受信した反射構造化光パターンの歪み量を判断する。空間歪みプロセッサ1110は判断された歪み量を受信し、判断された空間歪みの空間属性を歪み無しの統制パターンの知られている空間属性と比較することで、この歪みが各画像コマにおいて特徴付けられる。空間歪みは記憶装置1111に送信される。深さマッププロセッサ1112は、記憶装置1111からの空間の歪みの判断された量を検索し、この歪みをビデオのコマごとにピクセル×ピクセルベースで深さ値へ変換する。その後、深さマップは標的部位の表面上の異なるロケーションで特徴付けられた歪みから生成されて記憶装置1111に格納される。3D体積推定子1113は深さマップから3D体積を一コマ単位で推定する。時系列信号生成子1114は得られた推定3D体積を検索しこれらを結合して推定3D時系列データを得る。呼吸速度推定子モジュール1115は、本明細書中に開示されているように、3D時系列データから、被験者の呼吸速度を推定する。被験者の呼吸速度は送信エレメント1116へ伝達され、送信エレメント1116がまた、呼吸速度を、例えば、患者の医師または看護師や呼吸療法士に送信する。このような通信にはオリジナルのビデオの一部またはすべておよび/または得られた3D時系列データの一部または全てが含まれている。その後、送信された信号の一部または全部はワークステーション1100に伝達され、目視による再検討のためにグラフィカルディスプレイデバイス1103にディスプレイされる。別の実施形態において、患者の呼吸速度はこの患者に対して設定されていた1つ以上のパラメータと比較され、被験者の呼吸速度が許容限界外または範囲外であると判断された時点で通知信号が生成される。通知信号は、被験者が喚起したいユーザや専門家へ表示するためにしるしとして可聴音を含む。このような通知は缶入り音声メッセージや、例えば、ベルの音や警報音の形式をとる。伝達された通知メッセージは、ハンドヘルド携帯デバイスに直接伝達することができるテキスト、音声、および/またはビデオメッセージである。このような通知は、例えば、点滅するカラーライトなどの視覚的な通知を提供する可視光を起動させることを含むかまたはこれを付加的に含む。このような実施形態は添付の特許請求の範囲に含まれるように意図されている。
図11のさまざまなモジュールおよびプロセッシングユニットはモニタ1103と情報をやり取りしてユーザの選択のためのその上へ情報を提示する。図11のモジュールおよび/またはプロセッシングユニットのいずれかは場合によっては図示されている経路を介して記憶装置1111と情報をやり取りし、データ、パラメータ値、関数、ページ、記録、およびそれらの様々な機能を実行するために必要とされるマシン可読/実行可能プログラム命令を格納/検索する。ビデオプロセッシングシステム1106のモジュールやプロセッシングユニットの各々もまた、図示していない経路を介してワークステーション1100と情報をやり取りし、更に、ネットワーク1101上で1つ以上のリモートデバイスとも情報をやり取りする。モジュールのいずれかに対する機能性の一部または全てがワークステーション内のコンポーネントによって全体的または部分的に実行されることを理解されたい。また、ワークステーションがディスプレイデバイス1103にディスプレイされた情報を入力、選択、または変更するために様々な数値、テキスト、スクロールバー、ユーザ選択可能なオプション付きのプルダウンメニューなどをディスプレイするように構成されているオペレーティングシステムおよび他の専用ソフトウェアを有していることも理解されたい。
本発明の実施形態の様々なモジュールは1つ以上のコンポーネントを指定し、これがまた、所望の機能を実行するように設計されているソフトウェアおよび/またはハードウェアを含む。複数のモジュールはまとまって1つの機能を実行する。各モジュールはマシン可読プログラム命令を実施することが可能な専用プロセッサを有している。モジュールは、ASIC、電子回路、または特殊用途のプロセッサなどの単体のハードウェアを含む。複数のモジュールは、単一の特殊用途のコンピュータシステムまたは並列配設された複数の特殊用途のコンピュータシステムのいずれかによって実施される。モジュール間の接続は物理的および論理的接続を含む。モジュールは1つ以上のソフトウェア/ハードウェアモジュールを更に含み、これらのモジュールはオペレーティングシステム、ドライバ、デバイスコントローラ、およびその一部またはすべてがネットワークを介して連結される他の装置を更に含む。また、本発明の方法の1つ以上の態様は専用コンピュータシステム上で実施され、また、タスクがネットワークを介して互いにリンクされるリモートデバイスによって実行される分散型コンピューティング環境で実用化されると考えられる。
上記に説明した実施形態に対して、本発明の精神および範囲から逸脱しない限りにおいて、様々な変更を加えることができる。

Claims (10)

  1. 接触せずにリモートセンシング環境において呼吸機能がモニタリングされている対象被験者の呼吸速度を推定する方法であって、
    呼吸機能がモニタリングされている対象被験者の身体の標的部位のビデオを受信するステップと、
    前記ビデオの画像を処理してビデオシーンの3D深さ情報を再構築し前記標的部位の前記3D深さ情報から3D時系列データを推定するステップと、
    前記3D時系列データから前記被験者の呼吸速度を推定するステップと、
    を含む、方法。
  2. 前記ビデオは、ビデオカメラと構造化されたイルミネーションのパターンを投影するように構成されているイルミネータとを使用して、キャプチャされ、前記ビデオカメラが前記構造化されたイルミネーションの波長の電磁放射に感応しやすく、前記キャプチャされたビデオの各画像が前記構造化されたイルミネーションが前記標的部位の表面から反射することによって放たれた放射のサンプリングを含み、空間歪みが前記投影されたパターンが前記表面から反射することによって引き起こされる、請求項1に記載の方法。
  3. 前記3D時系列データを推定するステップが、
    前記ビデオの画像ごとに、
    前記空間歪みの空間属性を既知の空間属性を歪み無しの投影されたパターンの既知の空間属性と比較することで前記歪みを前記画像内で特徴付けることができる、比較することと
    前記標的部位の前記表面上の異なるロケーションで前記特徴付けられた歪みから深さマップを算定することと、
    前記深さマップから3D体積を推定することと、
    前記得られた3D体積を連結して前記推定された3D時系列データを取得することと、
    を含む請求項2に記載の方法。
  4. 前記ビデオカメラは可視波長域が感応しやすいビデオカメラと赤外波長域が感応しやすい赤外線ビデオカメラのいずれか1つを含む、請求項2に記載の方法。
  5. PUHDタイプIとPUHDタイプIIのいずれかが発生したときの前記呼吸速度の増分的変化をモニタリングすることを更に含む、請求項1に記載の方法。
  6. 接触せずにリモートセンシング環境において呼吸機能がモニタリングされている対象被験者の呼吸速度を推定するシステムであって、
    構造化されたイルミネーションのパターンを投影するように構成されているイルミネータと、
    呼吸機能がモニタリングされている対象被験者の標的部位のビデオをキャプチャするためのビデオカメラであって、前記ビデオカメラが前記構造化されたイルミネーションの波長における少なくとも前記電磁放射に感応しやすい、ビデオカメラと、
    前記ビデオカメラおよびディスプレイデバイスと情報のやりとりをするプロセッサであって、前記プロセッサが前記ビデオカメラによってキャプチャされたビデオを受信するステップであって、前記ビデオの各画像が前記構造化されたイルミネーションが前記標的部位の表面から反射することにより放たれる放射のサンプリングを含み、空間歪みが前記投影されたパターンが前記表面から反射することによって引き起こされるステップと、前記ビデオを処理して前記標的部位に対して3D時系列データを推定するステップと、前記3D時系列データから呼吸速度を推定するステップと、前記推定された呼吸速度を前記ディスプレイデバイスへ伝達するステップと、を実行するためのマシン可読プログラム命令を実施する、プロセッサと、
    を含むシステム。
  7. 前記ビデオは、ビデオカメラと構造化されたイルミネーションのパターンを投影するように構成されているイルミネータとを使用して、キャプチャされ、前記ビデオカメラが前記構造化されたイルミネーションの波長の電磁放射に感応しやすく、前記キャプチャされたビデオの各画像が前記構造化されたイルミネーションが前記標的部位の表面から反射することにより放たれた放射のサンプリングを含み、空間歪みが前記投影されたパターンが前記表面から反射することによって引き起こされる、請求項6に記載のシステム。
  8. 前記3D時系列データを推定するステップが、
    前記ビデオの画像ごとに、
    前記空間歪みの空間属性を既知の空間属性を歪みのない投影されたパターンの既知の空間属性と比較することで前記歪みを前記画像内で特徴付ける、比較することと、
    前記標的部位の前記表面上の異なるロケーションで前記特徴付けられた歪みから深さマップを算定することと、
    前記深さマップから3D体積を推定することと、
    前記得られた3D体積を連結して前記推定された3D時系列データを取得することと、
    を含む請求項6に記載のシステム。
  9. 前記ビデオカメラは可視波長域が感応しやすいビデオカメラと赤外波長域が感応しやすい赤外線ビデオカメラのいずれか1つを含む、請求項6に記載のシステム。
  10. PUHDタイプIとPUHDタイプIIのいずれかが発生したときの前記呼吸速度の増分的変化をモニタリングすることを更に含む、請求項6に記載のシステム。
JP2013099600A 2012-06-01 2013-05-09 呼吸速度推定のためのビデオプロセッシング Expired - Fee Related JP5980720B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US13/486,637 2012-06-01
US13/486,637 US9226691B2 (en) 2012-06-01 2012-06-01 Processing a video for tidal chest volume estimation
US13/529,648 US9301710B2 (en) 2012-06-01 2012-06-21 Processing a video for respiration rate estimation
US13/529,648 2012-06-21

Publications (3)

Publication Number Publication Date
JP2013248387A true JP2013248387A (ja) 2013-12-12
JP2013248387A5 JP2013248387A5 (ja) 2016-06-23
JP5980720B2 JP5980720B2 (ja) 2016-08-31

Family

ID=49579658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013099600A Expired - Fee Related JP5980720B2 (ja) 2012-06-01 2013-05-09 呼吸速度推定のためのビデオプロセッシング

Country Status (4)

Country Link
US (1) US9301710B2 (ja)
JP (1) JP5980720B2 (ja)
CN (1) CN103445782B (ja)
DE (1) DE102013208588A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016076009A1 (ja) * 2014-11-10 2016-05-19 シャープ株式会社 被験体の呼吸に起因する生体活動の計測システム、および画像処理装置
WO2016104538A1 (ja) * 2014-12-24 2016-06-30 旭化成株式会社 呼吸状態推定装置、携帯機器、装着型デバイス、プログラム、媒体、呼吸状態推定方法及び呼吸状態推定器
JP2016531658A (ja) * 2013-07-22 2016-10-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 監視システム及び監視方法
KR101755094B1 (ko) * 2015-04-23 2017-07-06 순천향대학교 산학협력단 깊이 카메라를 이용한 수면 중 호흡률 모니터링 장치
JP2018500059A (ja) * 2014-12-01 2018-01-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 皮膚検出に関するデバイス及び方法
JP2018534025A (ja) * 2015-10-06 2018-11-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 生体のバイタルサイン関連情報を取得するデバイス、システム及び方法
CN110613427A (zh) * 2014-12-02 2019-12-27 博医来股份公司 从热图像确定呼吸信号
JP2020027657A (ja) * 2018-08-09 2020-02-20 センサーズ・アンリミテッド・インコーポレーテッド デジタル航空交通管制センターのための識別システム及び航空交通対象識別方法
JP2020507383A (ja) * 2017-02-02 2020-03-12 エルビット・システムズ・リミテッド 医療用拡大高解像度撮像及び追跡法
WO2020226182A1 (ja) * 2019-05-09 2020-11-12 帝人ファーマ株式会社 呼吸状態検出装置、呼吸状態検出方法および呼吸状態検出プログラム

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9155475B2 (en) * 2012-06-26 2015-10-13 Xerox Corporation Enabling hybrid video capture of a scene illuminated with unstructured and structured illumination sources
US9141868B2 (en) 2012-06-26 2015-09-22 Xerox Corporation Contemporaneously reconstructing images captured of a scene illuminated with unstructured and structured illumination sources
CN104853677B (zh) * 2012-12-12 2017-11-24 柯尼卡美能达株式会社 图像处理装置以及图像处理方法
US8903149B1 (en) * 2013-01-18 2014-12-02 Anritsu Company System and method of communicating information about an object concealed by a scanned surface
WO2015030611A1 (en) * 2013-09-02 2015-03-05 Interag Method and apparatus for determining respiratory characteristics of an animal
US10201293B2 (en) 2013-09-11 2019-02-12 Xerox Corporation Non-contact monitoring of spatio-temporal respiratory mechanics via depth sensing
US20150094606A1 (en) 2013-10-02 2015-04-02 Xerox Corporation Breathing pattern identification for respiratory function assessment
US11297284B2 (en) 2014-04-08 2022-04-05 Udisense Inc. Monitoring camera and mount
EP3151728A1 (en) * 2014-06-06 2017-04-12 Koninklijke Philips N.V. Device, system and method for detecting apnoea of a subject
CN104000598B (zh) * 2014-06-13 2015-11-18 安徽工业大学 一种基于最大内切圆的猪呼吸急促运动建模方法及系统
WO2015197447A1 (en) * 2014-06-26 2015-12-30 Koninklijke Philips N.V. Non-invasive monitoring of pulmonary conditions
US9693710B2 (en) 2014-10-21 2017-07-04 Xerox Corporation System and method for determining respiration rate from a video
US20160189172A1 (en) * 2014-12-30 2016-06-30 Ebay Inc. Sentiment analysis
US10194835B2 (en) 2015-04-01 2019-02-05 Medical Research Infrastructure And Health Services Fund Of The Tel Aviv Medical Center Method of monitoring volumetric change of a lung
US20170055878A1 (en) * 2015-06-10 2017-03-02 University Of Connecticut Method and system for respiratory monitoring
US9697599B2 (en) * 2015-06-17 2017-07-04 Xerox Corporation Determining a respiratory pattern from a video of a subject
US10220172B2 (en) * 2015-11-25 2019-03-05 Resmed Limited Methods and systems for providing interface components for respiratory therapy
GB201601143D0 (en) 2016-01-21 2016-03-09 Oxehealth Ltd Method and apparatus for health and safety monitoring of a subject in a room
GB201601140D0 (en) 2016-01-21 2016-03-09 Oxehealth Ltd Method and apparatus for estimating heart rate
GB201601217D0 (en) 2016-01-22 2016-03-09 Oxehealth Ltd Signal processing method and apparatus
CA2958003C (en) 2016-02-19 2022-04-05 Paul Stanley Addison System and methods for video-based monitoring of vital signs
US10335045B2 (en) 2016-06-24 2019-07-02 Universita Degli Studi Di Trento Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions
US11412943B2 (en) 2016-07-16 2022-08-16 Olesya Chornoguz Methods and systems for obtaining physiologic information
US10925496B2 (en) 2016-07-16 2021-02-23 Alexander Misharin Methods and systems for obtaining physiologic information
CN109640819B (zh) * 2016-08-23 2022-04-08 皇家飞利浦有限公司 用于检测对象的哮喘发作或哮喘的设备、系统和方法
GB201615899D0 (en) 2016-09-19 2016-11-02 Oxehealth Ltd Method and apparatus for image processing
EP3525660B1 (en) 2016-10-11 2023-12-20 Koninklijke Philips N.V. Detection and measurement of breathing using an optical camera and projected shadows
US10885349B2 (en) 2016-11-08 2021-01-05 Oxehealth Limited Method and apparatus for image processing
EP3378387B1 (en) 2017-03-21 2024-05-01 Tata Consultancy Services Limited Heart rate estimation from face videos using quality based fusion
GB201706449D0 (en) 2017-04-24 2017-06-07 Oxehealth Ltd Improvements in or realting to in vehicle monitoring
WO2019094893A1 (en) 2017-11-13 2019-05-16 Covidien Lp Systems and methods for video-based monitoring of a patient
TWI668665B (zh) * 2017-11-15 2019-08-11 合盈光電科技股份有限公司 Health care monitoring system
CN111372516A (zh) * 2017-11-22 2020-07-03 乌迪森斯公司 呼吸监控器
AU2018400475B2 (en) 2018-01-08 2024-03-07 Covidien Lp Systems and methods for video-based non-contact tidal volume monitoring
GB201803508D0 (en) 2018-03-05 2018-04-18 Oxehealth Ltd Method and apparatus for monitoring of a human or animal subject
EP3806727A1 (en) 2018-06-15 2021-04-21 Covidien LP Systems and methods for video-based patient monitoring during surgery
CN112584753A (zh) 2018-08-09 2021-03-30 柯惠有限合伙公司 基于视频的患者监测系统以及用于检测和监测呼吸的相关方法
US11617520B2 (en) 2018-12-14 2023-04-04 Covidien Lp Depth sensing visualization modes for non-contact monitoring
GB201900034D0 (en) 2019-01-02 2019-02-13 Oxehealth Ltd Method and apparatus for monitoring of a human or animal subject
GB201900032D0 (en) 2019-01-02 2019-02-13 Oxehealth Ltd Method and apparatus for monitoring of a human or animal subject
GB201900033D0 (en) 2019-01-02 2019-02-13 Oxehealth Ltd Mrthod and apparatus for monitoring of a human or animal subject
US11315275B2 (en) 2019-01-28 2022-04-26 Covidien Lp Edge handling methods for associated depth sensing camera devices, systems, and methods
WO2020168094A1 (en) * 2019-02-15 2020-08-20 Nikon Corporation Simultaneous depth profile and spectral measurement
EP3965561A1 (en) * 2019-05-10 2022-03-16 Lely Patent N.V. Ruminant animal monitoring system
US11484208B2 (en) 2020-01-31 2022-11-01 Covidien Lp Attached sensor activation of additionally-streamed physiological parameters from non-contact monitoring systems and associated devices, systems, and methods
CN111772633B (zh) * 2020-07-16 2023-06-23 韩锋 一种遥感呼吸功能监护装置及方法
CN112232256B (zh) * 2020-10-26 2024-02-02 南京读动信息科技有限公司 一种无接触式运动及体测数据采集系统
CN114943732A (zh) * 2022-07-01 2022-08-26 上海商汤临港智能科技有限公司 一种心率检测方法、装置、设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175582A (ja) * 2000-12-07 2002-06-21 Keio Gijuku 監視装置
JP2005003367A (ja) * 2003-06-09 2005-01-06 Sumitomo Osaka Cement Co Ltd 三次元形状測定装置
JP2007501668A (ja) * 2003-08-13 2007-02-01 モサネン−シャムス、アイデン 肺評価デバイス
JP2009225932A (ja) * 2008-03-21 2009-10-08 Shinmeikai Miyakojima Hoshasenka Clinic 呼吸換気量インジケータ及び呼吸換気変位量の測定方法
JP2012511707A (ja) * 2008-12-11 2012-05-24 ニューマケアー リミテッド 対象物をモニタリングする方法及び装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2623388A1 (fr) 1987-11-23 1989-05-26 Bertin & Cie Procede et dispositif de surveillance de la respiration d'un individu
US5800360A (en) 1992-02-11 1998-09-01 Spectrum Medical Technologies, Inc. Apparatus and method for respiratory monitoring
WO2001082785A2 (en) * 2000-05-03 2001-11-08 Flock Stephen T An optical monitor for sudden infant death syndrome
US6920236B2 (en) 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
US7050157B2 (en) 2001-11-08 2006-05-23 Optiscan Biomedical Corp. Reagent-less whole-blood glucose meter
US6958809B2 (en) 2001-11-08 2005-10-25 Optiscan Biomedical Corporation Reagent-less whole-blood glucose meter
US6989891B2 (en) 2001-11-08 2006-01-24 Optiscan Biomedical Corporation Device and method for in vitro determination of analyte concentrations within body fluids
US7061593B2 (en) 2001-11-08 2006-06-13 Optiscan Biomedical Corp. Device and method for in vitro determination of analyte concentrations within body fluids
US20070279629A1 (en) 2004-01-07 2007-12-06 Jacob Grun Method and apparatus for identifying a substance using a spectral library database
US7570979B2 (en) 2004-03-30 2009-08-04 Philip George Cooper Methods and apparatus for patient monitoring
US7760354B2 (en) 2005-01-07 2010-07-20 The United States Of America As Represented By The Secretary Of The Navy Spectroscopic method and apparatus for identification of a substance using a tunable light source
US7729750B2 (en) 2005-01-20 2010-06-01 The Regents Of The University Of California Method and apparatus for high resolution spatially modulated fluorescence imaging and tomography
WO2007053576A2 (en) * 2005-10-31 2007-05-10 Christopher Hyde Heart rate based bioassessment method and apparatus
US7899764B2 (en) 2007-02-16 2011-03-01 Siemens Aktiengesellschaft Medical ontologies for machine learning and decision support
US8384997B2 (en) 2008-01-21 2013-02-26 Primesense Ltd Optical pattern projection
US20100152600A1 (en) 2008-04-03 2010-06-17 Kai Sensors, Inc. Non-contact physiologic motion sensors and methods for use
US8606344B2 (en) 2008-04-30 2013-12-10 Board Of Regents, The University Of Texas System Integrated patient bed system
WO2009142758A1 (en) 2008-05-23 2009-11-26 Spectral Image, Inc. Systems and methods for hyperspectral medical imaging
US7896498B2 (en) 2009-03-30 2011-03-01 Ottawa Hospital Research Institute Apparatus and method for optical measurements

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175582A (ja) * 2000-12-07 2002-06-21 Keio Gijuku 監視装置
JP2005003367A (ja) * 2003-06-09 2005-01-06 Sumitomo Osaka Cement Co Ltd 三次元形状測定装置
JP2007501668A (ja) * 2003-08-13 2007-02-01 モサネン−シャムス、アイデン 肺評価デバイス
JP2009225932A (ja) * 2008-03-21 2009-10-08 Shinmeikai Miyakojima Hoshasenka Clinic 呼吸換気量インジケータ及び呼吸換気変位量の測定方法
JP2012511707A (ja) * 2008-12-11 2012-05-24 ニューマケアー リミテッド 対象物をモニタリングする方法及び装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016531658A (ja) * 2013-07-22 2016-10-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 監視システム及び監視方法
JPWO2016076009A1 (ja) * 2014-11-10 2017-08-17 シャープライフサイエンス株式会社 被験体の呼吸に起因する生体活動の計測システム、および画像処理装置
WO2016076009A1 (ja) * 2014-11-10 2016-05-19 シャープ株式会社 被験体の呼吸に起因する生体活動の計測システム、および画像処理装置
JP2018500059A (ja) * 2014-12-01 2018-01-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 皮膚検出に関するデバイス及び方法
CN110613427A (zh) * 2014-12-02 2019-12-27 博医来股份公司 从热图像确定呼吸信号
CN110613427B (zh) * 2014-12-02 2022-06-21 博医来股份公司 从热图像确定呼吸信号
WO2016104538A1 (ja) * 2014-12-24 2016-06-30 旭化成株式会社 呼吸状態推定装置、携帯機器、装着型デバイス、プログラム、媒体、呼吸状態推定方法及び呼吸状態推定器
JPWO2016104538A1 (ja) * 2014-12-24 2017-11-02 旭化成株式会社 呼吸状態推定装置、携帯機器、装着型デバイス、プログラム、媒体、呼吸状態推定方法及び呼吸状態推定器
KR101755094B1 (ko) * 2015-04-23 2017-07-06 순천향대학교 산학협력단 깊이 카메라를 이용한 수면 중 호흡률 모니터링 장치
JP2018534025A (ja) * 2015-10-06 2018-11-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 生体のバイタルサイン関連情報を取得するデバイス、システム及び方法
JP7280188B2 (ja) 2017-02-02 2023-05-23 エルビット・システムズ・リミテッド 医療用拡大高解像度撮像方法及び撮像システム
JP2020507383A (ja) * 2017-02-02 2020-03-12 エルビット・システムズ・リミテッド 医療用拡大高解像度撮像及び追跡法
US11823374B2 (en) 2017-02-02 2023-11-21 Elbit Systems Ltd. Magnified high resolution imaging and tracking for medical use
JP2020027657A (ja) * 2018-08-09 2020-02-20 センサーズ・アンリミテッド・インコーポレーテッド デジタル航空交通管制センターのための識別システム及び航空交通対象識別方法
JP7406938B2 (ja) 2018-08-09 2023-12-28 センサーズ・アンリミテッド・インコーポレーテッド デジタル航空交通管制センターのための識別システム及び航空交通対象識別方法
WO2020226182A1 (ja) * 2019-05-09 2020-11-12 帝人ファーマ株式会社 呼吸状態検出装置、呼吸状態検出方法および呼吸状態検出プログラム
JP7101880B2 (ja) 2019-05-09 2022-07-15 帝人ファーマ株式会社 呼吸状態検出装置、呼吸状態検出方法および呼吸状態検出プログラム
JPWO2020226182A1 (ja) * 2019-05-09 2021-11-25 帝人ファーマ株式会社 呼吸状態検出装置、呼吸状態検出方法および呼吸状態検出プログラム

Also Published As

Publication number Publication date
CN103445782A (zh) 2013-12-18
US20130324875A1 (en) 2013-12-05
JP5980720B2 (ja) 2016-08-31
US9301710B2 (en) 2016-04-05
DE102013208588A1 (de) 2013-12-05
CN103445782B (zh) 2017-04-26

Similar Documents

Publication Publication Date Title
JP5980720B2 (ja) 呼吸速度推定のためのビデオプロセッシング
US8971985B2 (en) Minute ventilation estimation based on depth maps
US9226691B2 (en) Processing a video for tidal chest volume estimation
JP6371837B2 (ja) 被験者のバイタルサインを取得するデバイスと方法
Reyes et al. Tidal volume and instantaneous respiration rate estimation using a volumetric surrogate signal acquired via a smartphone camera
EP3229676B1 (en) Method and apparatus for physiological monitoring
US10506952B2 (en) Motion monitor
US10219739B2 (en) Breathing pattern identification for respiratory function assessment
Tasli et al. Remote PPG based vital sign measurement using adaptive facial regions
US8792969B2 (en) Respiratory function estimation from a 2D monocular video
CN108135487A (zh) 用于获得对象的生命体征信息的设备、系统和方法
Yu et al. Noncontact respiratory measurement of volume change using depth camera
JP6371410B2 (ja) 呼吸状態推定装置、携帯機器、装着型デバイス、プログラム、媒体及び呼吸状態推定方法
Chatterjee et al. Real-time respiration rate measurement from thoracoabdominal movement with a consumer grade camera
JP2019097757A5 (ja)
Bernal et al. Non contact monitoring of respiratory function via depth sensing
Chen et al. Modulation model of the photoplethysmography signal for vital sign extraction
US20130324874A1 (en) Minute ventilation estimation based on chest volume
Loblaw et al. Remote respiratory sensing with an infrared camera using the Kinect (TM) infrared projector
Nahiyan et al. Contactless monitoring for healthcare applications
Marques Measurement of imperceptible breathing movements from Kinect Skeleton Data
Bhavani et al. VitaSi: A Real-Time Contactless Vital Signs Estimation System
ERDEM Group Members
TW201223504A (en) Medical analysis method and apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160509

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160509

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160727

R150 Certificate of patent or registration of utility model

Ref document number: 5980720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees