JP2009183560A - 無呼吸検知システム - Google Patents

無呼吸検知システム Download PDF

Info

Publication number
JP2009183560A
JP2009183560A JP2008028175A JP2008028175A JP2009183560A JP 2009183560 A JP2009183560 A JP 2009183560A JP 2008028175 A JP2008028175 A JP 2008028175A JP 2008028175 A JP2008028175 A JP 2008028175A JP 2009183560 A JP2009183560 A JP 2009183560A
Authority
JP
Japan
Prior art keywords
subject
camera device
posture
far
infrared camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008028175A
Other languages
English (en)
Inventor
Hidetoshi Sakamoto
英俊 坂本
Yoshifumi Obuchi
慶史 大渕
Ippei Torigoe
一平 鳥越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kumamoto Technology and Industry Foundation
Original Assignee
Kumamoto Technology and Industry Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kumamoto Technology and Industry Foundation filed Critical Kumamoto Technology and Industry Foundation
Priority to JP2008028175A priority Critical patent/JP2009183560A/ja
Publication of JP2009183560A publication Critical patent/JP2009183560A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】新生児や無呼吸症候群に罹災した患者の就寝時における無呼吸状況を自動的に検知できる無呼吸検知システムに関する。
【解決手段】呼吸情報検出するための遠赤外線カメラ装置と、被験者姿勢検出のためのCCDカメラ装置と、CCDカメラ装置により姿勢を検出する姿勢検出手段と、姿勢検出手段により検出した姿勢データにより遠赤外線カメラ装置を連動させるカメラ追従手段と、遠赤外線カメラ装置で鼻腔と口元の体表面温度を測定し呼吸の有無を検知する呼吸情報検知手段とよりなる無呼吸検知システム。
【選択図】図1

Description

本発明は、新生児や無呼吸症候群に罹災した患者の就寝時における無呼吸状況を自動的に検知できる無呼吸検知システムに関する。
従来、新生児の突然死の予測をし、或いは新生児の呼吸状況を監視するためには、就寝状態或いはベッドでの仰臥状態での呼吸の有無を検知することが必要である。
呼吸の有無を検知する方法としては種々の方法が考えられるが、たとえば、腹部にベルトを装着して横隔膜の振動を検知して呼吸の有無を知る方法や、更に検知しやすい方法としては実際の呼吸状態を検知すべく新生児の鼻腔や口元における呼気、吸気の流れを検知する方法等が知られている。
かかる方法を実行する手段としては、横隔膜の振動を検知するために腹部にベルトやバンドを装着したり、また、呼吸による空気の流れを検知するために鼻腔や口元の近傍にセンサを貼着するものである。
しかし、これらの手段においては、横隔膜が動いていても必ずしも呼吸をしていない場合があるため正確に呼吸の有無の検知ができないという欠点があり、また、鼻腔や口元の近傍にセンサを貼着する手段では直接に人体にセンサを接触させる拘束性の高いものであるため通電センサにより皮膚に低温火傷を生起したり、新生児の姿勢の変化によってデータが変動し正確な検知が行えないという不都合があった。
そこで、非接触型の生体情報センサを利用して赤外線や超音波を照射してこれらの照射による反射光量や反射波の変化から被験者の身体的な動作、たとえば呼吸の有無を検知する方法があるが、人体に赤外線や超音波を長時間にわたって照射することによる人体への影響を無視できない。
かかる欠点を克服すべく特許文献1に開示された技術がある。
この特許文献1に記載の技術においては、非接触・非拘束で被験者から生体情報を取得する生体情報センサとして赤外線ビデオカメラを使用し、サーモグラフィック機能により鼻腔領域の体表面温度を測定し温度の変化を解析することにより呼吸の有無を検知しようとするものである。すなわち、呼気のときは体内で温められた空気が鼻腔から出ていくので鼻腔付近の体表面温度が上がり、吸気のときは温度の低い空気が鼻腔から体内に入っていくので鼻腔付近の体表面温度はさがる。かかる温度の変化を利用して鼻腔からの呼吸状況を把握しようとするものである。
このように非接触・非拘束で鼻腔からの呼吸情報を検知する技術が特許文献1に開示されている。
特開2006−115865号公報
しかし、この非接触・非拘束型の赤外線ビデオカメラにより鼻腔領域を測定し体表面温度の変化計測により呼吸の状況を検知する技術は、本件発明の目的のように、ベッドに寝かせている新生児の呼吸の有無や呼吸状況を検知する技術に応用する場合は次のような問題があった。すなわち、ベッド上で新生児の姿勢が変化した場合に正確に鼻腔領域を赤外線カメラで捉えることができず呼吸による体表面温度の変化を正確に検知することができないという欠点があった。
更には、この従来の技術においては、呼吸という生体情報が鼻腔領域からのみの測定によるため呼吸動作の重要な生体器官である口元領域の体表面温度測定が行われず、従って、総合的な視点からの正確な呼吸の有無、呼気・吸気の流れ、及びそれに伴う体表面温度変化などの総合的な呼吸情報が検知できないという欠点があった。
本発明においては上記課題を解決するために以下の手段を講じた。
請求項1に記載の発明は、ベッドに仰臥する被験者の近傍に第1保持機構を介して配置した被験者姿勢検出のためのカメラ装置と、同じく被験者の近傍に第2保持機構を介して配置した呼吸情報検出のための遠赤外線カメラ装置と、カメラ装置により取得した被験者の画像データにより被験者の姿勢を検出する姿勢検出手段と、姿勢検出手段により検出した被験者の姿勢データにより遠赤外線カメラ装置を連動して遠赤外線カメラ装置が被験者の鼻腔と口元を可及的に正面から撮影可能とするカメラ追従手段と、遠赤外線カメラ装置で測定した体表面温度の変化により呼吸の有無や呼吸状況を検知する呼吸情報検知手段とよりなる無呼吸検知システムを提供する。
請求項2に記載の発明は、第1保持機構と第2保持機構は、被験者のベッド上方に跨持された移動自在の門型の枠体に装着したことを特徴とする。
請求項3に記載の発明は、第1保持機構と第2保持機構は、被験者のベッドの側方に配置した支持アームに装着したことを特徴とする。
請求項4に記載の発明は、第2保持機構は、カメラ装置の姿勢検出手段からのデータに追従して遠赤外線カメラ装置を上下回動、左右回動及び左右直線移動が可能に構成したことを特徴とする。
請求項5に記載の発明は、第2保持機構は、遠赤外線カメラ装置が鼻腔を撮影するとき被験者の顔面のやや斜め下方より撮影するように遠赤外線カメラ装置の位置を変位すべく構成したことを特徴とする。
請求項1の発明によれば、被験者の顔の姿勢がベッド上で変化した場合でも、遠赤外線カメラ装置は、カメラ装置の姿勢検出手段から出力された姿勢データに追従して最適の位置に変位することができるため、呼吸時に空気が流通する鼻腔や口元近傍を正対状態で撮影して必要な領域の体表面温度を正確に測定しうる効果があり、このように呼吸の有無や呼吸の状況を正確に検知することができるため、従来のサーモグラフィックによる鼻腔のみの体表面温度で呼吸を検知する技術と比較して、必要な領域、すなわち、鼻腔と口元領域の体表面温度を正確に測定して常時監視が可能となり、無呼吸の症状を的確に把握することができる効果があり、更には無接触、無拘束、無侵襲の遠赤外線カメラ装置による体表面温度測定であるため被験者の身体に過大な負荷をかけることなく被験者の顔の姿勢の変化に正確に対応することができ、鼻腔や口元など必要な領域の体表面温度を正確に検知することができる効果がある。
請求項2の発明によれば、遠赤外線カメラ装置とカメラ装置がベッド上方に跨持された門型の枠体に第1及び第2保持機構を介して装着されることになるため、被験者の就寝の支障とならず、また、カメラ装置の測定領域を顔面の特定領域に限定しやすく、従って、被験者の正確な姿勢データを取得しやすく、更にはそれに追従して、遠赤外線カメラ装置も被験者の測定領域を指向するように的確に動作することができることになり、正確な鼻腔や口元領域の体表面温度を測定して正確な呼吸の有無や状況を検知することができる効果がある。
請求項3の発明によれば、支持アームに第1及び第2保持機構を介して遠赤外線カメラ装置とカメラ装置が装着されるため、ベッド側方の必要な箇所に支持アームを配置して最も的確に測定領域の撮影ができるようになり、従って、簡便な構造により各カメラ装置の必要な機能を十分に果たし必要な体表面温度の測定を行うことができる効果がある。
請求項4の発明によれば、遠赤外線カメラ装置は、カメラ装置による姿勢検出手段からのデータに追従して上下回動、左右回動及び左右直線移動が可能に構成したので、被験者の姿勢の変化に十分に対応しながら鼻腔や口元の測定領域に正対状態で各カメラ装置を指向させて必要な体表面領域温度の検知を的確に行うことができる効果がある。
請求項5の発明によれば、遠赤外線カメラ装置が被験者の顔面のやや斜め下方より撮影できるように構成したため、鼻腔と正対した位置から体表面温度を測定することができることになり、より正確に呼吸の有無や呼吸の状況を検知することができる効果がある。
この発明は、ベッドに仰臥する被験者の近傍に第1保持機構を介して配置した被験者姿勢検出のためのカメラ装置と、同じく被験者の近傍に第2保持機構を介して配置した呼吸情報検出のための遠赤外線カメラ装置と、カメラ装置により取得した被験者の画像データにより被験者の姿勢を検出する姿勢検出手段と、姿勢検出手段により検出した被験者の姿勢データにより遠赤外線カメラ装置を連動して遠赤外線カメラ装置が被験者の鼻腔と口元を可及的に正面から撮影可能とするカメラ追従手段と、遠赤外線カメラ装置で測定した体表面温度の変化により呼吸の有無や呼吸状況を検知する呼吸情報検知手段とより構成しており、しかも、第1保持機構と第2保持機構は、移動自在で被験者のベッド上方に跨持された門型の枠体としており、また、第2保持機構は、カメラ装置の姿勢検出手段からのデータに追従して遠赤外線カメラ装置を上下回動、左右回動及び左右直線移動が可能に構成しており、また、第2保持機構は、遠赤外線カメラ装置が鼻腔を撮影するとき被験者の顔面のやや斜め下方より撮影するように遠赤外線カメラ装置の位置を変位すべく構成している。
従って、被験者、特に新生児の姿勢が不用意に変化した場合でも遠赤外線カメラ装置がカメラ装置の映像に追従して正確に鼻腔や口元の周辺の体表面温度を正対状態で検出することができ、呼吸の有無や呼吸の状況を正確に検知することができることになり、新生児の突然死症候群や成人の睡眠時無呼吸症候群などを常時監視することが可能となり、また、かかる症状をいち早く発見することができるものである。
以下に、本発明に好適な実施形態について図面に基づいて説明する。
[1.本発明の無呼吸検知システムを実施するための構造について]
まず、本発明の無呼吸検知システムを実施するための構造の概略について説明する。図1は、本発明の無呼吸検知システムの概略構成を説明するための図、図2は、本発明の無呼吸検知システムが備えたCCDカメラ装置を拡大した斜視図、図3は、本発明の無呼吸検知システムが備えた遠赤外線カメラ装置を拡大した斜視図である。
図1において、2は、被験者Pが仰臥するベッドであり、ベッド2の側方から上方にかけ跨持する状態に門型の枠体10が配設されている。
枠体10は、門型に形成されて脚柱11下端にはキャスター12を設けてベッド2に沿って前後移動可能に構成している。
枠体10の最上段に横架した上段フレーム13の中央には上下回動及び左右回動を行うための第1保持機構14を介してカメラ装置としてのCCDカメラ装置15が設けられている。なお、カメラ装置としては、上記CCDカメラ装置15の他に、CMOSカメラ装置を用いてもよい。
第1保持機構14は、図1及び図2に示すように、左右回転自在の回転盤20と、回転盤20に垂設した左右ブラケット21とよりなり、左右ブラケット21にはCCDカメラ装置15の左右側面を上下回動自在に枢着している。22は、枢軸を示す。なお、第1保持機構14には、左右回動及び上下回動を行うためのアクチュエータ(図示しない)が内蔵されている。
従って、CCDカメラ装置15をアクチュエータにより左右回動及び上下回動に駆動調整することによりCCDカメラ装置15の指向方向がベッド2上の被験者Pの全身方向、特に顔面方向となるようにする。
また、上段フレーム13の下方には、中段フレーム16が横架されており、該中段フレーム16には遠赤外線カメラ装置17が上下回動、左右回動及び左右直線移動可能に装着されている。
すなわち、中段フレーム16の下面には、回転軸18が横架され、該回転軸18は遠赤外線カメラ装置17を保持する第2保持機構19に組み込んだねじ部30と螺合し、中段フレーム16の端部にはステッピングモータ31を配設し回転軸18の端部と連動連結し、該モータ31による回転軸18の回転によりねじ部30を介して第2保持機構19を左右直線移動させ、最終的に遠赤外線カメラ装置17を左右直線移動させる。
第2保持機構19は、図1及び図3に示すように、回転軸18に螺合するねじ部30を内蔵した基台40と、基台40下面に縦軸41を介して左右回転自在に垂設した逆L字状の支持体42と、支持体42の垂直部42a内側に横軸43を介して連結した逆L字条の連結板44とよりなり、連結板44の横板44aには縦軸45を介して遠赤外線カメラ装置17の上端部を連結しており、従って、遠赤外線カメラ装置17は基台40に支持体42と連結板44とを介して左右回動及び上下回動自在に保持されていることになる。なお、第2保持機構19には、左右回動及び上下回動を行うためのアクチュエータ(図示しない)が内蔵されている。なお、以下では、ステッピングモータ31と第2保持機構19とを併せて第2保持機構19と指称することがあるものとする。
また、門型の枠体10の近傍には、CCDカメラ装置15用の第1パーソナルコンピュータ50と、遠赤外線カメラ装置17用の第2パーソナルコンピュータ70とが配設されており、これらの各パーソナルコンピュータ50、70は各カメラ装置15、17に接続されており、後述で詳細に説明するように、各カメラ装置15、17からの映像データを処理して体表面温度を測定し被験者Pの呼吸の有無や呼吸の状況を検知し出力することができるように構成している。
すなわち、CCDカメラ装置15用の第1パーソナルコンピュータ50には、画像処理プログラム51と姿勢判断プログラム52とモータ制御プログラム53等のソフトウエア(図4参照)が内蔵されており、遠赤外線カメラ装置17用の第2パーソナルコンピュータ70には、画像処理プログラム71と温度計測プログラム72とモータ制御プログラム73と室温計測プログラム74等のソフトウエア(図4参照)が内蔵されており、各パーソナルコンピュータ50、70の間はネットワーク80で接続されている。
また、各カメラ装置15、17とは別に被験者Pが入居している部屋の室温を測定する室温計81(図4参照)が枠体10の所定の場所に装置されており、室温計81は遠赤外線カメラ装置17用の第2パーソナルコンピュータ70に接続されて遠赤外線カメラ装置17で測定した体表面温度が室温データと比較演算されて鼻腔や口元での正確な体表面温度を検知することができるように構成されている。
[2.本発明の無呼吸検知システムにおける内部構成について]
次に、本発明の無呼吸検知システム1における内部構成について図4を参照して具体的に説明する。図4は、本発明の無呼吸検知システム1における内部構成に関する説明図である。
図4に示すように、CCDカメラ装置15用の第1パーソナルコンピュータ50には、姿勢検出手段54が内蔵されており、姿勢検出手段54は、画像処理プログラム51と姿勢判断プログラム52とモータ制御プログラム53等のソフトウエアにより構成されており、遠赤外線カメラ装置17用の第2パーソナルコンピュータ70には、カメラ追従手段75及び呼吸情報検知手段76が内蔵されており、カメラ追従手段75は、モータ制御プログラム73より構成され、呼吸情報検知手段76は、画像処理プログラム71と温度計測プログラム72と室温計測プログラム74等のソフトウエアにより構成されており、各パーソナルコンピュータ50、70の間はネットワーク80で接続されている。
まず、姿勢検出手段54により検出した姿勢に関する画像データ、すなわち、CCDカメラ装置15によって取得(撮影)した被験者Pの姿勢に関する画像データはキャプチャーカード55を介してCCDカメラ装置15用の第1パーソナルコンピュータ50に入力される。
CCDカメラ装置15用の第1パーソナルコンピュータ50においては、姿勢検出手段54としての画像処理プログラム51により被験者Pの画像を認識するとともに、姿勢検出手段54としての姿勢判断プログラム52によりその認識した画像データにより被験者Pの姿勢がいかなる状態かを判断し、これらの判断処理を繰返しながら必要とする鼻腔や口元領域を正確にCCDカメラ装置15で撮影できるようにモータ制御プログラム53から出力して第1保持機構14の各種アクチュエータに駆動指令を送信し、CCDカメラ装置15を左右回動或いは上下回動させ撮影領域、すなわち、鼻腔と口元領域がいかなる姿勢になっているかの映像認識を行う。
そして、かかる映像認識データたる姿勢データは遠赤外線カメラ装置17用の第2パーソナルコンピュータ70にネットワーク80を介して送信される。
他方、遠赤外線カメラ装置17によって認識された映像信号は、呼吸情報検知手段76によりキャップカード77を介して遠赤外線カメラ装置17の画像処理プログラム71に送信処理され、かつ、温度計測プログラム72により鼻腔や口元領域の体表面温度を算出し、室温計81からの室温データと温度計測プログラム72から算出した体表面温度とを比較演算して鼻腔や口元領域の適切な体表面温度の変化を認識する。
この際に、被験者Pの顔の姿勢が変化した場合には、姿勢変化がCCDカメラ装置15により認識されて姿勢データがネットワーク80を介し遠赤外線カメラ装置17用の第2パーソナルコンピュータ70に入力され、カメラ追従手段75によりモータ制御プログラム73から第2保持機構19を操作するためのアクチュエータに指令が送信されて遠赤外線カメラ装置17がCCDカメラ装置15で認識した姿勢に追従して鼻腔や口元領域に正対する位置に変位するように駆動される。
特に、第2保持機構19は、遠赤外線カメラ装置17が鼻腔を撮影するとき、被験者Pの顔面のやや斜め下方より撮影するように、遠赤外線カメラ装置17の位置を変位駆動する。
このようにして、遠赤外線カメラ装置17のカメラ追従手段75によって鼻腔や口元領域の体表面温度情報を正確に測定し、これをもとにして呼吸情報検知手段76により呼吸の有無や呼吸の状況を検知することができるようにしている。
なお、以下では、上記姿勢検出手段54、カメラ追従手段75、及び呼吸情報検知手段76として、CPU、CPUの実行する各種プログラム等を記憶したROM、作業領域用の一時記憶手段として利用されるRAMなどの各種メモリを備えた制御部にその機能を担わせた例を具体的に説明する。
[3.本発明の無呼吸検知システム1における動作について]
以上のように構成された無呼吸検知システム1において、被験者Pの就寝時における無呼吸状況を自動的に検知する処理について、CCDカメラ装置15用の第1パーソナルコンピュータ50の制御部における処理、遠赤外線カメラ装置17用の第2パーソナルコンピュータ70の制御部における処理の順に、図面を参照して具体的に説明する。なお、本実施形態では、被験者Pの口元領域における無呼吸の状況を検知する場合について説明する。
(CCDカメラ装置用の第1パーソナルコンピュータの制御部における処理)
まず、CCDカメラ装置15用の第1パーソナルコンピュータ50の制御部(以下、制御部Aと指称する。)における処理について図5〜図9を参照して具体的に説明する。図5は、制御部Aのメイン処理フローチャート、図6は、制御部Aの顔認識処理フローチャート、図7は、制御部Aの肌色抽出処理フローチャート、図8は、制御部Aの口元領域追従処理フローチャート、図9は、制御部Aの姿勢検出処理フローチャートを示す図である。
図5に示すように、メイン処理を開始すると、制御部Aは、CPUによりRAMの作業領域の確保等の処理設定動作を実行し、ROMに記憶した各種プログラム、すなわち、画像処理プログラム51、姿勢判断プログラム52、及びモータ制御プログラム53を読み出して、制御部Aとしての機能を動作状態とする初期化動作を行った後、被験者Pの顔認識に関する処理を要求するフラグである顔認識フラグがRAMに設定されているか否かを判定する(ステップS10)。なお、顔認識フラグは、第1パーソナルコンピュータ50の操作画面上で顔追従開始ボタン(図示せず)をクリックすることにより、RAMに設定される。
顔認識フラグがRAMに設定されていると判定すると(ステップS10:Yes)、制御部Aは、顔認識処理を実行し(ステップS11)、処理をステップS12へ移行する。ステップS11の顔認識処理は、CCDカメラ装置15により取得した被験者Pの画像データから被験者Pの頭部領域を特定するための処理であり、後述で詳説する。
ステップS12において、制御部Aは、肌色抽出処理を実行し(ステップS12)、処理をステップS12aへ移行する。この肌色抽出処理は、ステップS11の顔認識処理により抽出した頭部領域から肌色の領域を抽出して、その抽出した肌色の領域を被験者Pの顔領域として特定するための処理であり、後述で詳説する。なお、ステップS11の顔認識処理、及びステップS12の肌色抽出処理は、制御部Aが画像処理プログラム51を実行することによって姿勢検出手段54として機能して行われる処理である。
ステップS12aにおいて、制御部Aは、CCDカメラ装置15の動作処理を実行する。すなわち、制御部Aは、モータ制御プログラム53を実行することによって姿勢検出手段54として機能し、ステップS11で特定した被験者Pの頭部領域が第1パーソナルコンピュータ50のディスプレイに表示される画像の略中央位置となるように、第1保持機構14の各種アクチュエータに駆動指令を送信し、CCDカメラ装置15を左右回動又は上下回動させる。被験者Pの顔領域が第1パーソナルコンピュータ50のディスプレイに表示される画像の略中央位置になると、制御部Aは、第1保持機構14の各種アクチュエータの駆動を停止すると共に、その停止時におけるCCDカメラ装置15の角度情報を第2パーソナルコンピュータ70へネットワーク80を介して送信する。
一方、ステップS10において顔認識フラグがRAMに設定されていないと判定したとき(ステップS10:No)、又はステップS12aの処理が終了したとき、制御部Aは、被験者Pの口元領域の追従、及び顔の姿勢検出に関する処理を要求するフラグである口元追従フラグがRAMに設定されているか否かを判定する(ステップS13)。なお、口元追従フラグは、第1パーソナルコンピュータ50の操作画面上で口元設定ボタン(図示せず)をクリックすることにより、RAMに設定される。
口元追従フラグがRAMに設定されていると判定すると(ステップS13:Yes)、制御部Aは、口元領域追従処理を実行し(ステップS14)、処理をステップS15へ移行する。ステップS14の口元領域追従処理は、CCDカメラ装置15により撮影した画像中で被験者Pの口元領域を追従して撮影するための処理であり、後述で詳説する。
ステップS15において、制御部Aは、姿勢検出処理を実行する(ステップS15)。この姿勢検出処理は、制御部Aが姿勢判断プログラム52を実行することによって姿勢検出手段54として機能して行われる処理であり、後述で詳説するように、ステップS12の肌色抽出処理により抽出した被験者Pの顔領域と、ステップS14においてCCDカメラ装置15により撮影(取得)した被験者Pの口元領域における重心位置との位置関係から、被験者Pの顔の姿勢を検出する。被験者Pの顔の姿勢を検出した結果は、第2パーソナルコンピュータ70へネットワーク80を介して送信される。なお、以下では、第1パーソナルコンピュータ50から第2パーソナルコンピュータ70へネットワーク80を介して送信されるデータを被験者Pの姿勢データと呼ぶことがあるものとし、少なくとも、この被験者Pの姿勢データには、被験者Pの顔の姿勢を検出した結果、及びCCDカメラ装置15の角度情報が含まれる。
ステップS13において口元追従フラグがRAMに設定されていないと判定したとき(ステップS13:No)、又はステップS15の処理が終了したとき、制御部Aは、CCDカメラ装置15により撮影した画像や、この画像を画像処理した画像を第1パーソナルコンピュータ50のディスプレイに表示して(ステップS16)、処理をステップS10へ戻す。なお、これら一連の処理により、第1パーソナルコンピュータ50のディスプレイに表示される画像の表示態様については後述する。
次に、制御部Aがメイン処理のステップS11で行う顔認識処理について、図6を参照して説明する。
図6に示すように、顔認識処理を開始すると、制御部Aは、パターンマッチング処理を実行する(ステップS20)。このステップS20のパターンマッチング処理では、CCDカメラ装置15により取得した画像データに対して、ROMに予め保存された頭部画像のテンプレートとのマッチングを順次行う。なお、頭部画像のテンプレートとしては、被験者Pの頭部をCCDカメラ装置15により予め撮影し、撮影した画像データをROMに予め保存しておくとよい。
次に、制御部Aは、頭部画像のテンプレートと順次マッチングする複数の領域のうち最大領域を頭部領域として抽出し(ステップS21)、その後、抽出した頭部領域を明示するための枠である頭部領域枠を、CCDカメラ装置15により撮影した画像データに重畳した画像を第1パーソナルコンピュータ50のディスプレイに表示して(ステップS22)、顔認識処理を終了する。
この顔認識処理により、CCDカメラ装置15により撮影した画像データから被験者Pの頭部領域を確実に抽出することができる。
次に、制御部Aがメイン処理のステップS12で行う肌色抽出処理について、図7を参照して説明する。
図7に示すように、肌色抽出処理を開始すると、制御部Aは、YCC変換処理を実行する(ステップS31)。ステップS31のYCC変換処理は、顔認識処理で取得された頭部領域のRGBカラー表現を、輝度成分(Y)と色差成分(Cr,Cb)とで表現するYCCカラー表現へ変換する処理である。このYCC変換処理により、顔認識処理で取得された頭部領域から顔面の皮膚色に対応する肌色の領域だけを明確に区別することができる。
なお、YCC変換処理の変換式としては、以下に示す変換式を採用することができる。
Y=0.299×R+0.587×G+0.114×B
Cr=(R−Y)×0.713+Δ
Cb=(B−Y)×0.564+Δ
ここで、Δは、8ビット画像の場合で128の値を採用した。
次に、制御部Aは、YCC変換処理後の頭部領域における色差成分(Cr,Cb)に対して所定の閾値を設定して二値化した後(ステップS32)、ノイズの除去を行い(ステップS33)、肌色の領域の輪郭を抽出し(ステップS34)、その輪郭で包囲された領域のうち最大の領域を被験者Pの顔領域として抽出する(ステップS35)。
その後、制御部Aは、抽出した顔領域を明示するための枠である顔領域枠を、CCDカメラ装置15により撮影した画像に重畳した画像を第1パーソナルコンピュータ50のディスプレイに表示し(ステップS36)、肌色抽出処理を終了する。
この肌色抽出処理により、顔認識処理により取得された頭部領域から、肌色の領域を抽出して、その抽出した肌色の領域を被験者Pの顔領域として特定することができる。
次に、制御部Aがメイン処理のステップS14で行う口元領域追従処理について、図8を参照して説明する。
図8に示すように、口元領域追従処理を開始すると、制御部Aは、まず、CCDカメラ装置15により撮影した画像データをグレースケール変換する(ステップS40)。
次に、制御部Aは、初期化フラグがRAMに設定されているか否かを判定する(ステップS41)。なお、初期化フラグは、メイン処理(図5参照)における初期化動作を行った際にRAMに設定され、第1パーソナルコンピュータ50の操作画面上で口元設定ボタン(図示せず)をクリックすることにより、解除されるフラグである。
初期化フラグがRAMに設定されていると判定すると(ステップS41:Yes)、制御部Aは、追従対象点マーキング処理を実行する(ステップS42)。このステップS42の処理では、被験者Pの口元領域を設定するための口領域設定枠が第1パーソナルコンピュータ50の操作画面上に表示され、この操作画面上で口領域設定枠を移動して被験者Pの口元に合せた後、口元設定ボタンをクリックすることにより、口領域設定枠内の任意の点がCCDカメラ装置15により追跡して撮影するための追跡対象点としてマーキングされる。
なお、上記ステップS42の処理では、被験者の口元領域における体表面温度を検知するために、口領域設定枠を被験者Pの口元に合せる場合について説明したが、被験者の鼻腔領域における体表面温度を検知するためには、口領域設定枠を被験者Pの鼻腔に合せるようにするとよい。この場合、口元設定ボタンをクリックすることにより、口領域設定枠内の任意の点が追跡対象点としてマーキングされる。
一方、初期化フラグがRAMに設定されていないと判定すると(ステップS41:No)、制御部Aは、追従対象点追従処理を実行する(ステップS43)。このステップS43の処理では、RAM上に記憶された追従対象点から、次のフレーム画像における追従対象点の移動方向や速度を算出することにより、追跡対象点の追従を行う。この追跡対象点の移動方向や速度の算出には、動画像における運動物体の見かけの速度場を推定する際に一般に用いられるオプティカルフロー推定法を採用している。なお、オプティカルフロー推定法は、公知の方法であるためここでは説明を省略する。
ステップS42の処理が終了したとき、又はステップS43の処理が終了したとき、制御部Aは、ステップS42の処理でマーキングされた追跡対象点、又はステップS43の処理で追従された追跡対象点をそれぞれRAM上に記憶する(ステップS44)。
次に、制御部Aは、RAM上に記憶された追跡対象点の位置に、被験者Pの口元領域を明示するための枠である口元領域枠を生成し、この口元領域枠をCCDカメラ装置15により撮影した画像データに重畳して第1パーソナルコンピュータ50のディスプレイに表示し(ステップS45)、口元領域追従処理を終了する。
この口元領域追従処理により、前回の追跡対象点の位置から、現在の追跡対象点の位置を追従することによって、被験者Pの顔が動いても、CCDカメラ装置15により口元領域を確実に追従して撮影することができる。
次に、制御部Aがメイン処理のステップS15で行う姿勢検出処理について、図9を参照して説明する。
図9に示すように、姿勢検出処理を開始すると、制御部Aは、口元領域追従処理により追従した口元領域の重心位置を算出する(ステップS50)。
次に、制御部Aは、口元領域の重心位置と顔領域との位置関係から被験者Pの顔の姿勢を検出する(ステップS51)。すなわち、ステップS51の処理で、制御部Aは、ステップS50により算出した口元領域の重心位置が、ステップS12の肌色抽出処理により抽出した被験者Pの顔領域の中央、右側、左側のいずれの位置にあるかを判断することにより、被験者Pの顔の姿勢を検出する。
ここで、被験者Pの顔の姿勢を検出する方法について更に詳しく説明する。図10は、第1パーソナルコンピュータ50のディスプレイ上に、被験者Pの顔領域枠90や口元領域枠91等が表示された態様を示している。図10に示すように、顔領域枠90の左上端点Tの座標を(Px,Py)、顔領域枠90の幅、及び高さをそれぞれW、及びH、口元領域の重心Gの位置を(Gx,Gy)とすると、口元領域の重心Gの位置(Gx,Gy)の顔領域枠90に対するX方向、及びY方向のそれぞれの割合(Rx,Ry)は、以下のように定義される。なお、口元領域の重心Gの位置(Gx,Gy)の顔領域枠90に対するX方向、及びY方向のそれぞれの割合を、被験者Pの口元位置情報と指称する。
Rx=((Gx−Px)/W)
Ry=((Gx−Py)/H)
例えば、X方向の口元位置情報Rxが0〜0.3である場合には、口元領域の重心位置が、被験者Pの顔領域の左側位置にあると判断され、被験者Pの顔の姿勢が右向きであると検出される。また、X方向の口元位置情報Rxが0.3〜0.7である場合には、口元領域の重心位置が、被験者Pの顔領域の中央位置にあると判断され、被験者Pの顔の姿勢が正面向きであると検出される。また、X方向の口元位置情報Rxが0.7〜1である場合には、口元領域の重心位置が、被験者Pの顔領域の右側位置にあると判断され、被験者Pの顔の姿勢が左向きであると検出される。このようにして、被験者Pの顔の姿勢が検出される。
次に、制御部Aは、ステップS51の処理で検出された被験者Pの顔の姿勢を姿勢データとしてRAM上に記憶し(ステップS52)、姿勢検出処理を終了する。姿勢検出処理で検出された姿勢データは、上記した口元位置情報と共に、遠赤外線カメラ装置17用の第2パーソナルコンピュータ70にネットワーク80を介して送信される。
(遠赤外線カメラ装置用の第2パーソナルコンピュータの制御部における処理)
次に、遠赤外線カメラ装置17用の第2パーソナルコンピュータ70の制御部(以下、制御部Bと指称する。)における処理について図11〜図15を参照して具体的に説明する。図11は、制御部Bのメイン処理フローチャート、図12は、制御部Bの頭部二値化処理フローチャート、図13は、制御部Bの頭部検出処理フローチャート、図14は、制御部Bの顔領域検出処理フローチャート、図15は、制御部Bの呼吸検出処理フローチャート、図16は、制御部Bの体温検出処理フローチャートを示す図である。
図11に示すように、メイン処理を開始すると、制御部Bは、CPUによりRAMの作業領域の確保等の処理設定動作を実行し、ROMに記憶した各プログラム、すなわち、画像処理プログラム71、温度計測プログラム72、モータ制御プログラム73、及び室温計測プログラム74を読み出して、制御部Bとしての機能を動作状態とする初期化動作を行った後、遠赤外線カメラ装置17の動作処理を実行する(ステップS60a)。この遠赤外線カメラ装置17の動作処理は、制御部Bがモータ制御プログラム73を実行することによってカメラ追従手段75として機能して行われる処理である。
このステップS60aでは、制御部Bは、第1パーソナルコンピュータ50から送信されるCCDカメラ装置15の角度情報をネットワーク80を介して受信し、第2保持機構19の各種アクチュエータ及びステッピングモータ31に駆動指令を送信し、CCDカメラ装置15の角度情報に基づいて、遠赤外線カメラ装置17が被験者Pの顔の正面に正対する方向となるように、遠赤外線カメラ装置17を上下回動、左右回動、及び左右直線移動させる。遠赤外線カメラ装置17が被験者Pの顔の正面に正対する方向になると、制御部Bは、第2保持機構19の各種アクチュエータ及びステッピングモータ31の駆動を停止する。
このようにして、CCDカメラ装置15用の第1パーソナルコンピュータ50から送信されるCCDカメラ装置15の角度情報により遠赤外線カメラ装置17を連動して遠赤外線カメラ装置17が被験者Pの鼻腔と口元とを可及的に正面から撮影することができるようにしている。
次に、制御部Bは、頭部二値化処理を実行する(ステップS60)。この頭部二値化処理は、遠赤外線カメラ装置17により取得した被験者Pの画像データを二値化する処理であり、後述で詳説する。
次に、制御部Bは、頭部検出処理を実行する(ステップS61)。この頭部検出処理は、頭部二値化処理により二値化した被験者Pの画像データから被験者Pの頭部領域を検出するための処理であり、後述で詳説する。
次に、制御部Bは、顔領域検出処理を実行する(ステップS62)。この顔領域検出処理は、頭部検出処理により検出した被験者Pの頭部領域の中から被験者Pの顔領域を検出するための処理であり、後述で詳説する。また、この顔領域検出処理では、CCDカメラ装置15用の第1パーソナルコンピュータ50から口元位置情報が送信された場合に、被験者Pの顔領域から口元領域が抽出される。
次に、制御部Bは、呼吸情報検知手段76として、呼吸検出処理を実行する(ステップS63)。この呼吸検出処理は、制御部Bが画像処理プログラム71、及び温度計測プログラム72を実行することによって呼吸情報検知手段76として機能して行われる処理であり、後述で詳説するように、顔領域検出処理で抽出された被験者Pの口元領域における呼吸の有無や呼吸の状況を検出する。
次に、制御部Bは、体温検出処理を実行する(ステップS64)。この体温検出処理は、制御部Bが室温計測プログラム74を実行することによって呼吸情報検知手段76として機能して行われる処理であり、後述で詳説するように、被験者Pの体温を検出する。
次に、制御部Bは、呼吸検出処理により検出した呼吸の有無や呼吸の状況、及び体温検出処理により検出した体温等を遠赤外線カメラ装置17により撮影した画像に重畳して第2パーソナルコンピュータ70のディスプレイに表示して(ステップS65)、処理をステップS60aへ戻す。なお、これら一連の処理により、第2パーソナルコンピュータ70のディスプレイに表示される画像の表示態様については後述する。
次に、制御部Bがメイン処理のステップS60で行う頭部二値化処理について、図12を参照して説明する。
図12に示すように、頭部二値化処理を開始すると、制御部Bは、遠赤外線カメラ装置17により撮影した画像中からノイズを除去した後(ステップS70)、ノイズを除去した画像に対して所定の閾値を設定して二値化し(ステップS71)、頭部二値化処理を終了する。
次に、制御部Bがメイン処理のステップS61で行う頭部検出処理について、図13を参照して説明する。
図13に示すように、頭部検出処理を開始すると、制御部Bは、頭部二値化処理により二値化した二値画像に含まれる複数の領域の全てに対して、その輪郭を抽出し(ステップS80)、抽出した輪郭で囲まれる複数の領域から最大の領域を被験者Pの頭部領域として抽出する(ステップS81)。
次に、制御部Bは、ステップS81で抽出した被験者Pの頭部領域に対して、ダイナミックレンジの補正を行う(ステップS82)。ここで、ダイナミックレンジとは、画像中の輝度の最大値と最小値との幅であり、この幅を広げることによって、画像のコントラストを上げることができ、後述の呼吸検出処理により呼吸を検知し易くすることができる。
次に、制御部Bは、ステップS81で抽出した被験者Pの頭部領域から、頭部の重心位置、及び頭部の傾き角度を算出する(ステップS83)。
その後、制御部Bは、被験者Pの頭部領域を明示するための枠である頭部領域枠を、遠赤外線カメラ装置17により撮影した画像データに重畳して第2パーソナルコンピュータ70のディスプレイに表示し(ステップS84)、頭部検出処理を終了する。
次に、制御部Bがメイン処理のステップS62で行う顔領域検出処理について、図14を参照して説明する。
図14に示すように、顔領域検出処理を開始すると、制御部Bは、頭部検出処理で抽出した被験者Pの頭部領域に対して、所定の閾値を設定して二値化する(ステップS90)。
次に、制御部Bは、二値化した二値画像に含まれる複数の領域の全てに対して、その輪郭を抽出し(ステップS91)、輪郭で囲まれる複数の領域から最大の領域を被験者Pの顔領域として抽出する(ステップS92)。
次に、制御部Bは、抽出した顔領域を明示するための枠である顔領域枠を、遠赤外線カメラ装置17により撮影した画像データに重畳した画像を第2パーソナルコンピュータ70のディスプレイに表示する(ステップS93)。
次に、制御部Bは、CCDカメラ装置15用の第1パーソナルコンピュータ50から送信された被験者Pの口元位置情報を受信し、この受信した被験者Pの口元位置情報と、ステップS92で抽出された被験者Pの顔領域とに基づいて、被験者Pの口元領域を算出する(ステップS94)。すなわち、ステップS94の処理では、被験者Pの顔領域枠の幅、及び高さにX方向、及びY方向の口元位置情報をそれぞれ乗算することにより、口元領域の重心位置が算出され、この口元領域の重心位置から、被験者Pの口元領域が算出される。したがって、被験者Pの顔の姿勢が変化して、CCDカメラ装置15側から送信される口元位置情報が変化した場合であっても、この口元位置情報の変化に応じて、遠赤外線カメラ装置17側において算出される被験者Pの口元領域も同様に変化することになり、CCDカメラ装置15側において抽出した被験者Pの口元領域と、遠赤外線カメラ装置17側において抽出した被験者Pの口元領域とを整合させることができる。これにより、被験者Pの呼吸の有無や呼吸の状況を確実に検知することができる。
その後、制御部Bは、被験者Pの口元領域を明示するための枠である口元領域枠を生成し、この口元領域枠を遠赤外線カメラ装置17により撮影した画像データに重畳した画像を第2パーソナルコンピュータ70のディスプレイに表示して(ステップS95)、顔領域検出処理を終了する。
この顔領域検出処理により、CCDカメラ装置15側から送信される口元位置情報を利用して、遠赤外線カメラ装置17により撮影した画像から被験者Pの口元領域を特定することができる。
次に、制御部Bがメイン処理のステップS63で行う呼吸検出処理について、図15を参照して説明する。
この呼吸検出処理では、被験者Pの呼吸時に、被験者Pの口元領域の体表面温度が変化することを利用して、被験者Pの呼吸の有無や呼吸の状況を検出するようにしている。すなわち、被験者Pが呼吸をすると、呼気のときには、体内で温められた空気が鼻腔から出て行くので、被験者Pの口元領域の体表面温度は被験者Pの体温とほぼ同程度まで上がり、吸気のときには、温度の低い空気が鼻腔から体内に入っていくので、被験者Pの口元領域の体表面温度は被験者Pの体温よりも下がる。このような口元領域の体表面温度の変化を検出することで、呼吸の有無や呼吸の状況を検出することができる。
図15に示すように、呼吸検出処理を開始すると、制御部Bは、顔領域検出処理により抽出した被験者Pの口元領域に対して、所定の閾値を設定して、この口元領域を二値化する(ステップS100)。ここで、所定の閾値としては、被験者Pの頭部領域における平均体表面温度に基づいて算出された閾値を採用しており、被験者Pの体調変化により被験者Pの頭部領域における平均体表面温度が変化しても、被験者Pの頭部領域を確実に二値化できるようにしている。
次に、制御部Bは、二値化した口元領域の二値画像に含まれる複数の領域の全てに対して、その輪郭を抽出し(ステップS101)、輪郭で囲まれる複数の領域から最大の領域を、被験者Pの呼吸を検出した領域(以下、呼吸検出領域)として抽出する(ステップS102)。このステップS102の処理では、吸気により、被験者Pの口元領域の体表面温度がステップS100において設定した所定の閾値よりも下がる部分が、呼吸検出領域として抽出される。一方、被験者Pが呼吸をしていない場合には、被験者Pの口元領域の体表面温度がステップS100において設定した所定の閾値よりも下がる部分がないので、呼吸検出領域が抽出されない。
次に、呼吸検出領域が検出されると、制御部Bは、呼吸が有ると判断し、呼吸検出を報知する枠である呼吸検出枠を、遠赤外線カメラ装置17により撮影した画像データに重畳して第2パーソナルコンピュータ70のディスプレイに表示し(ステップS103)、呼吸数をカウントして(ステップS104)、呼吸検出処理を終了する。一方、呼吸検出領域が検出されなければ、制御部Bは、呼吸が無いと判断し、呼吸検出枠の表示や呼吸数のカウントを行うことなく、呼吸検出処理を終了する。
次に、制御部Bがメイン処理のステップS64で行う体温検出処理について、図16を参照して説明する。
図16に示すように、体温検出処理を開始すると、制御部Bは、遠赤外線カメラ装置17により撮影した画像中で、最も輝度値の高い画素を抽出し(ステップS110)、その抽出した画素に対して、温度校正を行いつつ被験者Pの体温を算出する(ステップS111)。
温度校正を行い算出される被験者Pの体温Tは、抽出した輝度値をY、温度校正値をA=11.7、B=−283とすると、以下の式で定義される。
T=(Y−B)/A+Tc
ここで、Tcは、温度補正パラメータであり、表面温度Ts=−3(℃)、サンプル室温Tt=23(℃)、現在の室温Trとすると、温度補正パラメータTcは、以下の式で定義される。なお、現在の室温Trは、室温計81により計測された温度である。
Tc=Ts−Tt+Tr
次に、制御部Bは、算出した被験者Pの体温を第2パーソナルコンピュータ70のディスプレイに表示し(ステップS112)、体温検出処理を終了する。
(第1パーソナルコンピュータ、及び第2パーソナルコンピュータのディスプレイにそれぞれ表示される画像の表示態様)
次に、本実施形態の無呼吸検知システム1において、被験者Pの就寝時において無呼吸状況を自動的に検知する際に、第1パーソナルコンピュータ50、及び第2パーソナルコンピュータのディスプレイにそれぞれ表示される画像の表示態様について説明する。図17は、被験者Pの顔の姿勢を検出した結果をCCDカメラ装置15により撮影した画像に重畳した表示画像を示している。
図17(a)は、被験者Pの顔の姿勢が正面向きである場合に被験者Pの顔の姿勢を検出した結果表示画面を示している。図17(a)では、CCDカメラ装置15により撮影した画像から被験者Pの頭部領域が抽出されると共に、CCDカメラ装置15が左右回動又は上下回動された結果、被験者Pの頭部領域枠95が結果表示画面の略中央位置に表示されている。図17(a)に示すように、頭部領域枠95内のうち肌色の領域には、顔領域枠96が描画され、この顔領域枠96に対して口元領域枠97が中央位置にあることから、被験者Pの顔の姿勢が正面向きである旨を示す「CENTER」が結果表示画面の左上に表示される。
図17(a)に示す状態から、寝返りなどにより被験者Pが右を向くと、CCDカメラ装置15により撮影した画像から被験者Pの頭部領域枠95が再度抽出されると共に、CCDカメラ装置15が再度左右回動又は上下回動され、その結果、図17(b)に示すように、被験者Pの頭部領域枠95が結果表示画面の略中央位置に表示される。そして、図17(b)に示すように、頭部領域枠95から顔領域枠96が抽出され、この顔領域枠96に対して口元領域枠97が左側位置に移動していることから、被験者Pの顔の姿勢が右向きである旨を示す「RIGHT」が結果表示画面の左上に表示される。
図17(b)に示す状態から、寝返りなどにより被験者Pが左を向くと、CCDカメラ装置15により撮影した画像から被験者Pの頭部領域枠95が再度抽出されると共に、CCDカメラ装置15が再度左右回動又は上下回動され、その結果、図17(c)に示すように、被験者Pの頭部領域枠95が結果表示画面の略中央位置に表示される。そして、図17(c)に示すように、頭部領域枠95から顔領域枠96が抽出され、この顔領域枠96に対して口元領域枠97が右側位置に移動していることから、被験者Pの顔の姿勢が左向きである旨を示す「LEFT」が結果表示画面の右上に表示される。
ところで、CCDカメラ装置15用の第1パーソナルコンピュータ50のディスプレイに、図17に示すような結果表示画面が表示されている間、被験者Pの顔の姿勢データ、及び口元位置情報が、第1パーソナルコンピュータ50からネットワーク80を介して遠赤外線カメラ装置17用の第2パーソナルコンピュータ70へ送信される。そして、被験者Pの顔の姿勢データ、特に、CCDカメラ装置15の角度情報に基づいて、遠赤外線カメラ装置17の指向方向が被験者Pの顔の正面に正対する方向となるように、遠赤外線カメラ装置17が上下回動、左右回動、及び左右直線移動される。その結果、被験者Pの顔面のやや斜め下方より撮影できるように遠赤外線カメラ装置17の位置が変位する。
このように変位した遠赤外線カメラ装置17によって、被験者Pの顔面を撮影した結果表示画面を図18に示す。図18は、被験者Pの顔の正面に正対する方向から遠赤外線カメラ装置17により被験者Pの呼吸を検出した結果を遠赤外線カメラ装置17により撮影した画像に重畳した結果表示画像を第2パーソナルコンピュータ70のディスプレイに表示した場合を示している。
図18では、第1パーソナルコンピュータ50から送信された口元位置情報に基づいて算出された口元領域を明示するための口元領域枠102が、顔領域枠101内に描画されている。被験者Pが呼吸をすると、図18に示すように、口元領域枠102内に呼吸検出枠103が表示され、同時に、被験者Pの呼吸の状況104が表示される。なお、被験者Pの呼吸の状況104としては、所定時間毎の呼吸回数や呼吸のタイムチャート等が表示される。
このように、被験者の顔の姿勢が図17(a)〜(c)に示すように変化した場合であっても、その変化のたびに、CCDカメラ装置15側から送信される被験者Pの顔の姿勢データに追従して遠赤外線カメラ装置17を最適位置に変位すると共に、CCDカメラ装置15側から送信される口元位置情報に基づいて、被験者Pの口元領域を算出するようにしているため、呼吸時に空気が流通する口元近傍を正対状態で撮影してその体表面温度を正確に測定することができる。
以上説明してきたように、本実施形態の無呼吸検知システム1では、被験者Pの顔の姿勢がベッド2上で変化した場合であっても、遠赤外線カメラ装置17を、CCDカメラ装置15用の第1パーソナルコンピュータ50から出力された姿勢データに追従して最適の位置に変位することができるため、呼吸時に空気が流通する鼻腔や口元近傍、すなわち、鼻腔領域や口元領域を正対状態で撮影して必要な領域の体表面温度を正確に測定し得る。
したがって、被験者Pの呼吸の有無や呼吸の状況を正確に検知することができるため、従来のサーモグラフィックによる鼻腔のみの体表面温度で呼吸を検知する技術と比較して、必要な領域、すなわち、鼻腔と口元領域の体表面温度を正確に測定して常時監視が可能となり、無呼吸の症状を的確に把握することができる。
また、無接触、無拘束、無侵襲の遠赤外線カメラ装置17による体表面温度測定であるため、被験者Pの進退に過大な負荷をかけることなく被験者Pの顔の姿勢の変化に正確に対応することができ、鼻腔や口元など必要な領域の体表面温度を正確に検知することができる。
(他の実施形態)
上記実施形態では、第1保持機構14と第2保持機構19は、門型の枠体10に装着したが、枠体10に代えて、被験者Pのベッド2の側方に配置した支持アーム(図示せず)を設け、この支持アームに第1保持機構14及び第2保持機構19を装着してもよい。この構成によっても、上記実施形態と同様の効果を得ることができる。
以上本発明の好ましい実施の形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
例えば、第2保持機構19で遠赤外線カメラ装置17を保持する構成としたが、遠赤外線カメラ装置17に隣接して、マイクロフォン等の音センサを設け、この音センサ及び遠赤外線カメラ装置17を第2保持機構19で保持する構成としてもよい。この構成では、音センサの指向方向を、遠赤外線カメラ装置17と同一の指向方向、すなわち、ベッド2上の被験者Pの顔面方向となるように設ける。これにより、音センサで被験者Pの呼吸音のデータを取得することができ、取得した呼吸音のデータからいびきの有無やその周期などを検知することができる。
本発明の無呼吸検知システムの概略構成を説明するための図である。 本発明の無呼吸検知システムが備えたCCDカメラ装置を拡大した斜視図である。 本発明の無呼吸検知システムが備えた赤外線カメラ装置を拡大した斜視図である。 本発明の無呼吸検知システムにおける内部構成に関する説明図である。 CCDカメラ装置用の第1パーソナルコンピュータの制御部のメイン処理フローチャートである。 CCDカメラ装置用の第1パーソナルコンピュータの制御部の顔認識処理フローチャートである。 CCDカメラ装置用の第1パーソナルコンピュータの制御部の肌色抽出処理フローチャートである。 CCDカメラ装置用の第1パーソナルコンピュータの制御部の口元領域追従処理フローチャートである。 CCDカメラ装置用の第1パーソナルコンピュータの制御部の姿勢検出処理フローチャートである。 第1パーソナルコンピュータのディスプレイ上に、被験者の顔領域枠や口元領域枠等が表示された態様を示す図である。 遠赤外線カメラ装置用の第2パーソナルコンピュータの制御部のメイン処理フローチャートである。 遠赤外線カメラ装置用の第2パーソナルコンピュータの制御部の頭部二値化処理フローチャートである。 遠赤外線カメラ装置用の第2パーソナルコンピュータの制御部の頭部検出処理フローチャートである。 遠赤外線カメラ装置用の第2パーソナルコンピュータの制御部の顔領域検出処理フローチャートである。 遠赤外線カメラ装置用の第2パーソナルコンピュータの制御部の呼吸検出処理フローチャートである。 遠赤外線カメラ装置用の第2パーソナルコンピュータの制御部の体温検出処理フローチャートである。 被験者の顔の姿勢を検出した結果をCCDカメラ装置により撮影した画像に重畳した表示画像を示している。 被験者の呼吸を検出した結果を遠赤外線カメラ装置により撮影した画像に重畳した結果表示画像を示している。
符号の説明
1 無呼吸検知システム
10 枠体
14 第1保持機構
15 CCDカメラ装置
17 遠赤外線カメラ装置
19 第2保持機構
54 姿勢検出手段
75 カメラ追従手段
76 呼吸情報検知手段

Claims (5)

  1. ベッドに仰臥する被験者の近傍に第1保持機構を介して配置した被験者姿勢検出のためのカメラ装置と、
    同じく被験者の近傍に第2保持機構を介して配置した呼吸情報検出のための遠赤外線カメラ装置と、
    カメラ装置により取得した被験者の画像データにより被験者の姿勢を検出する姿勢検出手段と、
    姿勢検出手段により検出した被験者の姿勢データにより遠赤外線カメラ装置を連動して遠赤外線カメラ装置が被験者の鼻腔と口元を可及的に正面から撮影可能とするカメラ追従手段と、
    遠赤外線カメラ装置で測定した体表面温度の変化により呼吸の有無や呼吸状況を検知する呼吸情報検知手段とよりなる無呼吸検知システム。
  2. 第1保持機構と第2保持機構は、移動自在で被験者のベッド上方に跨持された門型の枠体に装着したことを特徴とする請求項1に記載の無呼吸検知システム。
  3. 第1保持機構と第2保持機構は、被験者のベッドの側方に配置した支持アームに装着したことを特徴とする請求項1に記載の無呼吸検知システム。
  4. 第2保持機構は、カメラ装置の姿勢検出手段からの姿勢データに追従して遠赤外線カメラ装置を上下回動、左右回動及び左右直線移動が可能に構成したことを特徴とする請求項1又は請求項2又は請求項3に記載の無呼吸検知システム。
  5. 第2保持機構は、遠赤外線カメラ装置が鼻腔を撮影するとき被験者の顔面のやや斜め下方より撮影するように遠赤外線カメラ装置の位置を変位駆動すべく構成したことを特徴とする請求項1に記載の無呼吸検知システム。
JP2008028175A 2008-02-07 2008-02-07 無呼吸検知システム Pending JP2009183560A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008028175A JP2009183560A (ja) 2008-02-07 2008-02-07 無呼吸検知システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008028175A JP2009183560A (ja) 2008-02-07 2008-02-07 無呼吸検知システム

Publications (1)

Publication Number Publication Date
JP2009183560A true JP2009183560A (ja) 2009-08-20

Family

ID=41067475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008028175A Pending JP2009183560A (ja) 2008-02-07 2008-02-07 無呼吸検知システム

Country Status (1)

Country Link
JP (1) JP2009183560A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010194005A (ja) * 2009-02-24 2010-09-09 Seikei Gakuen 呼吸計測方法及び呼吸計測装置
CN102908124A (zh) * 2012-10-13 2013-02-06 吴士明 具有广角红外热像镜头的红外检测系统
KR101242755B1 (ko) * 2012-06-28 2013-03-12 주식회사 엘에스엘시스템즈 열화상 카메라를 이용한 신생아 모니터링 시스템
JP2013518663A (ja) * 2010-02-04 2013-05-23 ザ・ボーイング・カンパニー 非接触型生体検出システム及び方法
CN103315716A (zh) * 2013-06-27 2013-09-25 葛晓松 红外立体热成像扫描系统
KR101334908B1 (ko) * 2011-02-18 2013-12-05 이기훈 유아용 침대
US20150141762A1 (en) * 2011-05-30 2015-05-21 Koninklijke Philips N.V. Apparatus and method for the detection of the body position while sleeping
JP2015202120A (ja) * 2014-04-10 2015-11-16 キヤノン株式会社 解析装置、解析方法及びプログラム
WO2016038784A1 (ja) * 2014-09-11 2016-03-17 株式会社デンソー ドライバ状態判定装置
CN106037681A (zh) * 2016-06-30 2016-10-26 宁德师范学院 一种提高生活质量的床
JP2017530815A (ja) * 2014-10-13 2017-10-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 被験者のバイタルサイン情報を検出するデバイス及び方法
JP2019083019A (ja) * 2018-11-28 2019-05-30 株式会社デンソー ドライバ状態判定装置
CN112641516A (zh) * 2020-12-07 2021-04-13 付天龙 一种病人诊断用远程医疗体检装置、远程医疗体验方法
KR20210054372A (ko) * 2019-11-05 2021-05-13 전남대학교산학협력단 횡시야 확장형 체열 촬영 장치
KR20210054371A (ko) * 2019-11-05 2021-05-13 전남대학교산학협력단 복수의 열화상 카메라를 이용한 안면 체열 촬영장치
WO2021225382A1 (ko) * 2020-05-06 2021-11-11 서울대학교산학협력단 호흡상태 검사 장치 및 방법, 수면 장애 제어 장치 및 방법
US11467034B2 (en) 2020-06-30 2022-10-11 Ilooda Co., Ltd. Temperature measuring device for tracked subject target region

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010194005A (ja) * 2009-02-24 2010-09-09 Seikei Gakuen 呼吸計測方法及び呼吸計測装置
JP2013518663A (ja) * 2010-02-04 2013-05-23 ザ・ボーイング・カンパニー 非接触型生体検出システム及び方法
KR101334908B1 (ko) * 2011-02-18 2013-12-05 이기훈 유아용 침대
US10159429B2 (en) * 2011-05-30 2018-12-25 Koninklijke Philips N.V. Apparatus and method for the detection of the body position while sleeping
US20150141762A1 (en) * 2011-05-30 2015-05-21 Koninklijke Philips N.V. Apparatus and method for the detection of the body position while sleeping
KR101242755B1 (ko) * 2012-06-28 2013-03-12 주식회사 엘에스엘시스템즈 열화상 카메라를 이용한 신생아 모니터링 시스템
CN102908124B (zh) * 2012-10-13 2014-09-24 吴士明 具有广角红外热像镜头的红外检测系统
CN102908124A (zh) * 2012-10-13 2013-02-06 吴士明 具有广角红外热像镜头的红外检测系统
CN103315716A (zh) * 2013-06-27 2013-09-25 葛晓松 红外立体热成像扫描系统
JP2015202120A (ja) * 2014-04-10 2015-11-16 キヤノン株式会社 解析装置、解析方法及びプログラム
WO2016038784A1 (ja) * 2014-09-11 2016-03-17 株式会社デンソー ドライバ状態判定装置
JP2016057944A (ja) * 2014-09-11 2016-04-21 株式会社デンソー ドライバ状態判定装置
US10165971B2 (en) 2014-09-11 2019-01-01 Denso Corporation Driver state determination apparatus
JP2017530815A (ja) * 2014-10-13 2017-10-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 被験者のバイタルサイン情報を検出するデバイス及び方法
CN106037681A (zh) * 2016-06-30 2016-10-26 宁德师范学院 一种提高生活质量的床
JP2019083019A (ja) * 2018-11-28 2019-05-30 株式会社デンソー ドライバ状態判定装置
KR20210054372A (ko) * 2019-11-05 2021-05-13 전남대학교산학협력단 횡시야 확장형 체열 촬영 장치
KR20210054371A (ko) * 2019-11-05 2021-05-13 전남대학교산학협력단 복수의 열화상 카메라를 이용한 안면 체열 촬영장치
KR102321623B1 (ko) * 2019-11-05 2021-11-03 전남대학교산학협력단 횡시야 확장형 체열 촬영 장치
KR102321618B1 (ko) * 2019-11-05 2021-11-03 전남대학교산학협력단 복수의 열화상 카메라를 이용한 안면 체열 촬영장치
WO2021225382A1 (ko) * 2020-05-06 2021-11-11 서울대학교산학협력단 호흡상태 검사 장치 및 방법, 수면 장애 제어 장치 및 방법
US11467034B2 (en) 2020-06-30 2022-10-11 Ilooda Co., Ltd. Temperature measuring device for tracked subject target region
CN112641516A (zh) * 2020-12-07 2021-04-13 付天龙 一种病人诊断用远程医疗体检装置、远程医疗体验方法
CN112641516B (zh) * 2020-12-07 2023-08-08 海南小鹏健康互联网医院股份有限公司 一种病人诊断用远程医疗体检装置、远程医疗体验方法

Similar Documents

Publication Publication Date Title
JP2009183560A (ja) 無呼吸検知システム
EP2907106B1 (en) System for accessing data of a face of a subject
US7545279B2 (en) Condition-analyzing device
US11096623B2 (en) Systems and methods for evaluation of scoliosis and kyphosis
KR101070389B1 (ko) 환자 상태 모니터링 시스템
EP2747651B1 (en) Device and method for monitoring movement and orientation of the device
WO2016151966A1 (ja) 乳幼児監視装置、乳幼児監視方法、及び、乳幼児監視プログラム
EP2663230B1 (en) Improved detection of breathing in the bedroom
JP7143692B2 (ja) 体動検出装置及び放射線撮影システム
JP7416299B2 (ja) 放射線撮影システム
KR20170099773A (ko) 신체 능력의 측정 및 증진을 위한 스마트 기기
JP2009005845A (ja) 肌診断装置およびシワ測定方法
JP7090327B2 (ja) 情報処理装置、情報処理方法、プログラム
KR101089567B1 (ko) X―선 마이크로 단층촬영스캐너의 호흡 게이트 신호 발생 방법
KR101398193B1 (ko) 캘리브레이션 장치 및 방법
TW202023478A (zh) 脊椎側彎量測系統與方法
KR200457337Y1 (ko) 적외선 체열 진단 기기
TWI395576B (zh) 測量頭顱轉動角度和傾斜角度之偵測模組
US20200293788A1 (en) Monitoring system and monitoring method thereof
KR102508304B1 (ko) 길이조정 및 회전 가능형 3차원 인체 형상 스캐닝 시스템 및 이를 이용한 인체 형상 스캐닝 방법
JP5540393B1 (ja) 鼻息検査装置
US20230000584A1 (en) Systems and methods for aiding non-contact detector placement in non-contact patient monitoring systems
KR20220088254A (ko) 호흡 패턴 모니터링 장치 및 방법
CN116510275A (zh) 坐位体前屈检测系统和方法
TWM615176U (zh) 衰弱症測試裝置