JP3939224B2 - Area monitoring device - Google Patents

Area monitoring device Download PDF

Info

Publication number
JP3939224B2
JP3939224B2 JP2002255394A JP2002255394A JP3939224B2 JP 3939224 B2 JP3939224 B2 JP 3939224B2 JP 2002255394 A JP2002255394 A JP 2002255394A JP 2002255394 A JP2002255394 A JP 2002255394A JP 3939224 B2 JP3939224 B2 JP 3939224B2
Authority
JP
Japan
Prior art keywords
area
height
movement
person
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002255394A
Other languages
Japanese (ja)
Other versions
JP2004096457A (en
Inventor
一弘 味村
安弘 竹村
圭 加藤
利治 武居
朋史 西浦
真人 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Osaka Cement Co Ltd
Original Assignee
Sumitomo Osaka Cement Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Osaka Cement Co Ltd filed Critical Sumitomo Osaka Cement Co Ltd
Priority to JP2002255394A priority Critical patent/JP3939224B2/en
Publication of JP2004096457A publication Critical patent/JP2004096457A/en
Application granted granted Critical
Publication of JP3939224B2 publication Critical patent/JP3939224B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、領域監視装置に関し、特に対象領域内から外に出ようとする動きを監視できる領域監視装置に関するものである。
【0002】
【従来の技術】
介護施設、例えば老人ホーム等では、入所者が夜中にベッドから出ようとして落下し、足の骨を折る等の事故が発生している。また病院でも、例えば手術後に患者が麻酔から覚めたとき、その痛みからベッド上で激しく動いて落下する場合もある。さらに、幼児がベッドから落下する場合もある。このような事故に対して逸早く対応するために、従来から、荷重センサまたは圧力センサにより検出した圧力分布の時間推移に基づき、ベッド上の人物の状態を監視する装置が提案されている。
【0003】
【発明が解決しようとする課題】
しかしながら以上のような従来の装置によれば、例えば人物がベッド上から居なくなった(離床した)ことは検出できるが、ベッド上からの落下、あるいは落下しそうな動きを検出することが難しかった。言い換えれば、落下を予測することが難しかった。さらに、測定される信号が微小であることから、安定した信号を取得し検出するためには、高性能な信号増幅器や何らかの信号処理が必要であり、システムとして複雑かつ大掛かりなものになっていた。
【0004】
そこで本発明は、対象物が対象領域の外へ出ようとする動きを検出できるだけでなく、単純な領域監視装置を提供することを目的としている。
【0005】
【課題を解決するための手段】
上記目的を達成するために、請求項1に係る発明による領域監視装置1は、例えば図1、図2に示すように、対象領域内の3次元情報を取得する3次元センサ10と;前記取得した3次元情報に基づいて、前記対象領域内の対象物2の高さの変化を検出する高さ変化検出手段22と;前記対象領域内の前記高さの変化があった領域を検出することにより、対象物2の位置を検出する位置検出手段23と;対象物2が前記対象領域の外へ出ようとする動きを監視する動き監視手段24とを備え;動き監視手段24は、位置検出手段23によって検出された対象物2の位置が前記対象領域内の特定の領域に存在し、かつ、高さ変化検出手段22によって検出された対象物2の高さの変化が所定量以上であるときに、対象物2が前記対象領域の外へ出ようとする動きと判断するように構成され;さらに動き監視手段24は、対象物2の移動を検出できるように構成され、対象物2の位置が前記特定の領域にあり、その位置に至る直前の対象物2の移動速度が所定の閾値を超えているときに、前記対象領域の外へ出ようとする動きを検出するように構成される。
【0006】
また、上記領域監視装置1は、前記対象領域と周辺との境界に設けられた、前記対象領域よりも一段高い境界区画部材を備えるとよい。このように構成すると、例えば対象物2が不用意に対象領域の外へ出てしまうことを防ぐことができるだけでなく、対象物2が対象領域の外に出る際に、高さ変化が大きくなる。
【0007】
このように構成すると、3次元センサ10と、高さ変化検出手段22と、位置検出手段23とを備えているので、対象物2の位置を検出できるので、単純な領域監視装置とすることができる。さらに、動き監視手段24を備え、動き監視手段24は、位置検出手段23によって検出された対象物2の位置が前記対象領域内の特定の領域に存在し、かつ高さ変化検出手段22によって検出された対象物2の高さの変化が所定量以上であるときに、対象物2が前記対象領域の外へ出ようとする動きと判断するように構成されるので、例えば対象物が柵を乗り越えようとする動きと判断することで、対象物が対象領域の外へ出ようとする動きを検出できるだけでなく、単純な領域監視装置を提供することができる。
【0008】
また請求項2に記載のように、請求項1に記載の領域監視装置1では、動き監視手段24は、対象物2の高さの変化が所定量以上であって、さらに前記所定量以上の高さの変化の領域が所定の面積以上であるときに前記対象領域の外へ出ようとする動きを検出するように構成することが好ましい。
【0009】
このように構成すると、例えば、対象物の位置が特定の領域であるときに、対象物2の高さの変化が所定量以上ある領域がごく一部であっても、対象領域の外へ出ようとする動きを検出してしまうことを防ぐことが出来るので、前記動きの監視の信頼性が増す。
【0010】
また、上述のように、上記領域監視装置1では、動き監視手段24は、対象物2の移動を検出できるように構成され;対象物2の位置が前記特定の領域にあり、その位置に至る直前の対象物2の移動速度が所定の閾値を超えているときに、前記対象領域の外へ出ようとする動きを検出するように構成される
【0011】
このように構成すると、例えば、対象物2が、急に特定の領域に入り、そのまま対象領域の外へ出ようとする場合であっても、逸早く対象領域の外へ出ようとする動きを検出することができる。
【0012】
また請求項に記載のように、請求項1又は請求項2に記載の領域監視装置1では、位置検出手段23は、前記検出された高さ変化に基づいて、対象物2の存在する存在領域を判定し、前記判定された存在領域を含む領域であって、前記存在領域を所定の範囲だけ拡大した領域を算出し、前記拡大された領域を優先して、対象物2の位置の検出を行なうように構成するとよい。
【0013】
このように構成すると、例えば、対象物2の存在する可能性が高い領域から対象2の位置の検出を行なうので、対象物2の位置の検出に要する時間を短縮でき、処理の高速化が図れる。
【0014】
また請求項に記載のように、請求項1乃至請求項のいずれか1項に記載の領域監視装置1では、例えば図7に示すように、3次元センサ101は、前記対象領域に、輝線又は、複数の輝点を投影する投影手段110と;前記投影により形成されたパターンを撮像する撮像手段111と;前記撮像されたパターン像と参照像とに基づいて三角法により前記対象物の高さを演算する高さ演算部118とを備える。
【0015】
このように構成すると、3次元センサ101は、投影手段110により前記対象領域に投影された輝線又は、複数の輝点により形成されたパターンを、撮像手段111により撮像し、高さ演算部118により、前記撮像されたパターン像と参照像とに基づいて三角法により前記対象物の高さを演算するので、単純でありながら正確に対象物の高さを測定できる。また、パターンを輝線とした場合には、例えば、輝線方向の連続的な高さを測定できる。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。なお、各図において互いに同一あるいは相当する部材には同一符号を付し、重複した説明は省略する。
【0017】
図1は、本発明による実施の形態である領域監視装置としての落下予測装置1の模式的外観図である。落下予測装置1は、対象領域内の3次元情報を取得する3次元センサ10と、演算装置20とを含んで構成される。また落下予測装置1は、対象領域を監視するように構成されている。本実施の形態では、対象物は、人物2である。また本実施の形態では、対象領域は、周辺より高さのある対象領域であり、典型的にはベッド3上である。また、3次元センサ10は、対象領域内に複数の測定点を有しており、各測定点での高さを測定できるものである。また本実施の形態では、3次元情報は、ベッド3上の複数存在する測定点の座標と、各点で測定された高さである。言い換えれば、3次元情報は、ベッド3上での高さ分布である。また、3次元情報から対象領域を検出するようにしてもよい。この場合には、まず対象領域を含む領域の3次元情報を取得し、この3次元情報に基づいて、周辺より高さのある対象領域即ちベッド3上を検出するように構成する。ベッド3の上面は、周辺より高いので、3次元情報から容易に検出できる。このようにすることで、落下予測装置1を設置する際の環境設定作業が単純になり、設置が容易になる。また、対象領域の検出は、3次元情報に基づいて、後述の柵6を検出することにより、検出してもよい。
【0018】
図中ベッド3上に、人物2が横たわって存在している。また、人物2の上には、さらに寝具4がかけられており、人物2の一部と、ベッド3の一部とを覆っている。この場合には、3次元センサ10は、寝具4の上面の高さ分布を取得している。また寝具4を使用しない場合には、3次元センサ10は、人物2そのものの高さ分布を取得する。また、ベッド3には、対象領域と周辺との境界に設けられた、対象領域よりも一段高い境界区画部材としての柵6が備えられている。柵6は、例えば人物2が転がり落ちることを防ぐための落下予防手段でもある。柵6は、ベッド3の両側面3aに取り付けられている。柵6は、人物2が例えば寝返りにより転がり落ちない程度の高さ例えばベッド3上面から20〜50cm程度の高さを有したものである。さらにベッド3は、両端部に、ベッド3の上面より高く形成された端板3bが形成されている。
【0019】
また、ベッド3の上部には、3次元センサ10が配置されている。3次元センサ10については後で詳述する。3次元センサ10と演算装置20とは電気的に接続されている。なお、図示では、3次元センサ10と演算装置20とは別体として示してあるが、一体に構成してもよい。このようにすると、落下予測装置1を小型化することができる。
【0020】
図2のブロック図を参照して、落下予測装置1の構成例について説明する。3次元センサ10は、演算装置20に接続されており、取得した3次元情報を演算装置20に出力するように構成されている。また演算装置20は、3次元情報を3次元センサ10から時系列的に取得するように構成するとよい。演算装置20は、例えばパソコンやマイコン等のコンピュータである。また、演算装置20は落下予測装置1を制御する制御部21を有している。
【0021】
制御部21には、記憶部31が接続されている。記憶部31は、3次元センサ10より時系列的に取得した3次元情報を記憶するようにするとよい。また記憶部31には算出された情報等のデータが記憶できる。さらに、記憶部31は、図3で後述する特定の領域を予め登録する特定領域登録部32を有している。
【0022】
また制御部21には、落下予測装置1を操作するための情報を入力する入力装置35、落下予測装置1で処理された結果を出力する出力装置36が接続されている。入力装置35は例えばタッチパネル、キーボードあるいはマウスであり、出力装置36は例えばディスプレイやプリンタである。本図では、入力装置35、出力装置36は演算装置20に外付けするものとして図示されているが、内蔵されていてもよい。また、入力装置35は、例えば対象領域内の監視(落下予測)の開始や解除を行なえるスイッチ、出力装置36は、例えば動作インジケータとしてのLEDとしてもよい。このようにすると、落下予測装置1を単純に構成できる。特に、3次元センサ10と演算装置20とを一体に構成する場合には、このように構成することが好ましい。このようにすることで、落下予測装置1を、より単純で小型なものとすることができる。
【0023】
制御部21内には、3次元センサ10より取得した3次元情報に基づいて、対象領域内の高さの変化を検出する高さ変化検出手段としての高さ変化検出部22と、高さ変化検出部22により検出された高さの変化に基づいて、人物2の位置を検出する位置検出手段としての位置検出部23と、人物2が対象領域の外へ出ようとする動きを監視する動き監視手段としての落下予測部24とが備えられている。位置検出部23により検出する人物2の位置は、例えば人物2の存在する領域の位置であり、人物2の存在領域の位置は、典型的には人物2の存在領域の重心位置である。
【0024】
高さ変化検出部22による高さの変化の検出は、3次元センサ10から取得した3次元情報と、記憶部31に時系列的に保存された3次元情報との差分を算出することにより対象領域内の各測定点での高さの変化を検出する。言い換えれば、取得した最新の3次元情報と、過去に取得した3次元情報との差分を取ることにより対象領域内の各測定点での高さの変化を検出する。過去に取得した3次元情報は、典型的には最新の3次元情報より1つ前(過去)に取得した3次元情報である。なお、この場合、3次元情報は、3次元センサ10から一定時間間隔で取得するようにする。3次元情報の取得間隔は、例えば0.1〜3秒程度、好ましくは0.1〜0.5秒程度とするとよい。また、より短い時間で3次元情報を取得し、平均化またはフィルタリングの処理を行なうことで、例えばランダムノイズの影響を低減できるので有効である。また、取得間隔は、比較的長めな時間、例えば5〜20秒程度としてもよい。この場合には、例えば人物2の起き上がりの動きを検出しやすくなる。
【0025】
また、3次元センサ10から取得した3次元情報又は高さ変化は、過去一定回数取得した、または過去一定期間内に取得した値の移動平均値、または期間平均値としてもよい。このようにすることで、ランダムノイズや窓から差し込む日光のちらつきなどによる突発的なノイズが軽減でき、ピーク位置の誤判定やゼロクロス位置(符号が反転する交点)の誤判断を軽減することができる。
【0026】
また、位置検出部23は、高さ変化検出部22により検出された高さ変化に基づいて、人物2の存在する存在領域を判定し、前記判定された存在領域の重心位置を人物2の位置とするように構成するとよい。このようにすることで、人物2の位置を、面積のある領域ではなく、点で検出することができるので、人物2の僅かな動きを比較的敏感に検出することができる。
【0027】
存在領域の判定は、例えば、任意の測定点の高さ変化に注目し、高さ変化が閾値以上であれば、この注目点から所定の範囲にある点で、高さ変化が閾値以上であり、変化の方向が注目位置と同じである測定点の数を計数し、そしてその数が所定の値以上であれば、この範囲を存在領域と見なすようにする。
【0028】
さらに、位置検出部23は、判定された存在領域を含む領域であって、存在領域を所定の範囲だけ拡大した領域を算出し、その拡大された領域を優先して、人物2の位置の検出を行なうように構成してもよい。本実施の形態では、3次元センサ10による3次元情報の取得間隔は、人物2の動きと比較して十分短時間に設定されているので、人物2がこの取得間隔の間に大きく移動することはなく、次に人物2の位置を検出する際にも、人物2がほぼ同じ位置あるいは隣接した領域に存在すると考えられる。このため、存在領域を所定の範囲だけ拡大した領域を優先して人物2の位置の検出を行なう方法が有効である。このようにすることで、人物2が存在する可能性が高い領域を優先して、人物2の位置を検出するので、人物2の探索時間が短縮でき、処理の高速化が図れる。
【0029】
ここで、落下予測部24について説明する。落下予測部24は、前述の通り、人物2が対象領域の外へ出ようとする動きを監視するものである。ここでは、人物2が対象領域の外へ出ようとする動きを監視するとは、例えば、人物2のベッド3上からの落下の予測や、ベッド3上から落下したことを検出することである。さらに、落下予測部24は、位置検出部23により検出された人物2の位置が、対象領域内の特定の領域であるときであって、人物2の高さの変化が所定量以上であるときに対象領域の外へ出ようとする動きを検出するように構成されている。言い換えれば、人物2の落下を予測するように構成される。以下、対象領域の外へ出ようとする動きを検出することを、落下を予測するという。またここで、特定の領域とは、典型的には、対象領域即ちベッド上の周縁部とその近傍の領域である(以下、これらを区別しないときには単にベッド3上の周縁部という)。落下予測部24は、人物2の落下を予測したときには、警報信号を出力するように構成される。警報信号は、典型的には後述の警報装置38へ出力される。
【0030】
図3に、特定領域の例を示す。また、特定領域は、(a)のように、ベッド3上の周縁部全体に設定することが好ましいが、(b)に示すように、ベッド3上周縁部の特に落下が発生しやすい箇所、例えばベッド3上の両側面側のみとしてもよい。このようにすると、落下が発生しやすい箇所のみを特定領域とすることができるので、効率の良い落下予測ができる。
【0031】
本実施の形態では、人物2がベッド3から落下するような場合には、柵6があるため、寝返り等によりそのまま落下(転落)することはなく、例えば柵6や端板3bを乗り越えて落下するか、起き上がって柵6の無い部分から落下する。即ち落下する前には、ベッド3の周縁部で必ず寝返り等の小さな体動よりも大きな高さ変化が検出されることになる。このため、落下の予測の基準を、人物2の位置が特定領域即ちベッド3上の周縁部であり、さらに高さ変化が所定量、典型的には一定以上としている。ここで、一定以上の高さ変化とは、例えば人物2が起き上がるときに検出される高さ変化以上の高さ変化であり、例えば300〜700mm程度に相当する高さ変化以上の高さ変化である。
【0032】
落下予測部24は、人物2が対象領域内から落下を検出するように構成される。落下予測部24は、落下を予測した後に、対象領域内で高さ変化が検出されなくなったときには、人物2が対象領域内からの落下を検出する。即ち、人物2がベッド3上から落下したことを検出するように構成される。落下予測部24は、人物2の落下を検出したときには、警報信号を出力するように構成される。警報信号は、典型的には後述の警報装置38へ出力される。
【0033】
また、落下予測部24は、人物2の高さの変化が一定以上であって、さらに前記一定以上の高さの変化の領域が所定の面積以上であるときに人物2の落下を予測するように構成するとよい。前述したように、人物2がベッド3上から落下しそうな場合には、必ず周縁部で寝返り等の小さな体動よりも大きな高さ変化が検出されることになる。さらに、この大きな高さ変化は、人物2が起き上がるような動きをしていれば、例えば人物2の頭部、胴部の断面積程度の面積以上で検出されることになる。このため、落下の予測を、さらに一定以上の高さ変化の領域が所定の面積以上であるときとしている。所定の面積は、典型的には、標準的な人物2の頭部の断面積程度である。このようにすることで、落下に至らないような小さな領域での動き、例えば就寝中の人物2がベッド3の周縁部の位置に存在するときに、腕だけを挙げたような動きだけでも落下を予測してしまう(警報が発せられる)ことを防ぐことが出来るので、落下予測の信頼性が増す。
【0034】
また、落下予測部24は、人物2の移動を検出できるように構成するとよい。なお、移動の検出は、移動の有無の検出の他、移動の方向、速度、距離の検出を含むものとする。さらに、落下予測部24は、人物2の位置が特定の領域にあり、その位置に至る直前の人物2の移動速度が所定の閾値を超えているときに人物2の落下を予測するように構成するとよい。人物2が、急に特定領域に入り、そのまま落下するケースがある。このような場合には、逸早く落下を予測する必要がある。このため落下予測部24は、人物2が、所定の閾値を超えている移動速度で、特定の領域に入ったときに、人物2の落下を予測するように構成している。所定の閾値は、例えば2〜5km/h程度とするとよい。
【0035】
さらに、制御部21内には、高さ変化検出部22により検出した高さの変化に基づいて、人物2の状態を検出する状態検出部25が備えられている。人物2の状態とは、例えば正常な呼吸をしている、異常な呼吸をしており危険である、体動例えば寝返りを打っている等といった状態である。さらに、状態検出部25は、高さ変化検出部22により検出した高さの変化に基づいて、人物2の呼吸を検出するように構成される。
【0036】
状態検出部25による呼吸の検出は、高さ変化検出部22により検出した高さ変化の周期的変化の振幅と周期(周波数)の両方又はいずれか一方に所定の上限下限の閾値を設定し、この閾値と比較して呼吸か否かを判定し、呼吸を検出する。周期の上限下限の閾値は、例えば人物の呼吸の周期を含む範囲、例えば、下限を毎分5サイクル、上限を毎分60サイクルに設定するとよい。ところで、大人の呼吸数は、毎分5〜30回程度の範囲にあるが、幼児の場合にはさらに呼吸数が多くなる傾向がある。また同様に、振幅の上限下限の閾値は、例えば人物の呼吸の振幅を含む範囲、例えば、下限を1mm、上限を20mm程度の高さ変化に相当する値に設定するとよい。これにより、検出された人物2の呼吸は、波形パターンを形成する。
図4は、呼吸の波形パターンの例を示した図である。
【0037】
また状態検出部25は、人物2の呼吸が一定時間検出された後に、人物2がベッド3上の存在の有無の検出、即ち人物2の在床を検出するように構成してもよい。また落下予測装置1は、人物2の在床を検出したことを条件に、人物2の落下の予測を開始するようにしてもよい。一定時間は、呼吸を安定して検出できる時間であり、例えば30〜120秒、より好ましくは、30〜90秒である。
【0038】
さらに、状態検出部25による人物2の状態の検出は、以下のようなことを考慮して、検出するようにするとよい。例えば、短時間に呼吸パターンの持つ周期が乱れた場合又は、呼吸パターンの持つ周期が急激に変化した場合には、例えば、自然気胸、気管支喘息などの肺疾患、うっ血性心不全などの心疾患、または、脳出血などの脳血管疾患であると推測できる。また、呼吸パターンの消失が続いた場合には、人物2の呼吸が停止したと推測できる。そして、短時間に呼吸パターンではなく人物2の体動が頻出した場合には、人物2が何らかの理由で苦しんで暴れているような状況が推測できる。
【0039】
また、人物2の体動の検出は、高さ変化から呼吸のみを検出した場合に比べて、遥かに大きく変動するので、容易に検出することができる。このため、状態検出部25は、位置検出部23より検出した人物2の位置により、人物2が、例えば寝返り等その場で動いているのか、ベッドから起き上がる等の大きい動きをしているのかを検出することもできる。また、人物2が痙攣のような周期的で小さい動きをした場合でも、その波形パターンから異常を検出することができる。このような場合には、さらに痙攣している状態の波形パターンを記憶部31に保存しておくことで、そのパターンと比較することで人物2の痙攣している状態と検出することもできる。
【0040】
図5を参照して、正常及び異常な呼吸パターンの例を説明する。正常な呼吸パターンは、図5(a)に示したような、周期的なパターンである。ただし、大人の場合には、1分間の呼吸数として正常な範囲は、10〜20回程度である。異常な呼吸パターンは、例えば、チェーン−ストークス(Cheyne−Stokes)呼吸、中枢性過換気、失調性呼吸、カスマウル(Kussmul)の大呼吸など、生理学的に体内に障害が発生している場合に生じると考えられている呼吸パターンである。
【0041】
図5(b)に、Cheyne−Stokes呼吸の呼吸パターンを、図5(c)に中枢性過換気の呼吸パターンを、図5(d)に失調性呼吸の呼吸パターンをそれぞれ示す。
さらに図6に、上記の異常な呼吸パターンが発生した場合の、病名または疾患箇所について示す。
【0042】
状態検出部25は、それぞれの呼吸パターンの呼吸の周波数、出現回数、深浅が異なることを利用して、人物2の呼吸パターンが上記のいずれの呼吸パターンに属するかを判別し、人物2の状態を検出するようにするとよい。また以上のような呼吸パターンを、記憶部31に保存しておくとよい。このようにすることで、これらのパターンと比較することで人物2の呼吸が正常であるか否かの検出が容易に行なえる。
【0043】
さらに状態検出部25は、人物2の呼吸が、生理学的に体内に障害が発生している場合に生じると考えられている呼吸パターンに属すると判定した場合に、人物2が異常な呼吸をしており危険な状態にあることを検出する。生理学的に体内に障害が発生している場合に生じると考えられている呼吸パターンとは、例えば図5で説明した呼吸パターンである。このように検出された人物2の状態は、例えば、制御部21により出力装置36や警報装置38に出力される。また出力される内容は、検出された人物2の呼吸数(周期)や動きの頻度、異常な呼吸パターンの名称やその呼吸の原因となると考えられる病名、疾患器官、疾患箇所などである。
【0044】
さらに、演算装置20は、警報を発する警報装置38を備える。警報装置38は、警報信号を入力することで、警報を発するように構成される。警報装置38は、例えば落下予測部24により人物2の落下が予測されたときや、落下が検出されたとき、あるいは状態検出部25により人物2が危険な状態にあることを検出したとき、落下予測装置1に故障等の異常が発生したときに警報を発するように構成するとよい。また、警報装置38は、入力した警報信号に応じて、異なる種類の警報を発するように構成される。具体的には、例えば、入力した警報信号の種類毎に異なる警報を設定する。これにより、装置の使用者(管理者)が、発せられた警報により、例えば人物2の落下が予測されたことを認知できる。このようにすることで、異常に対して迅速に対応できるので、信頼性を高めることができる。また、演算装置20は、警報装置38が作動した場合に、インターフェイス37を介して、警報の発生を外部に通報するように構成するとよい。本図では、警報装置38は、外付けとして図示してあるが内蔵としてもよい。
【0045】
また演算装置20は、外部と通信するためのインターフェイス37が備えられている。インターフェイス37は、例えば警報装置38により警報が発せられた場合に外部に通報することができるように構成されている。通報は、例えば音声、文字、記号、室内照明を含む光の強弱又は、振動などによるものである。またインターフェイス37は、一般電話回線、ISDN回線、PHS回線、または、携帯電話回線などの通信回線に対して接続する機能を備えている。即ち、例えば落下予測装置1が個人宅に設置されている場合には、上記通信回線を利用することで、離れた場所例えば病院等の医療施設に通報できる。このようにすることで、例えば落下予測装置1が設置された場所から離れた場所であっても、上記通信回線を利用することで、警報が発せられたこと容易に通報できるので、有効である。また制御部21は、音声出力機能を備えるようにし、インターフェイス37を介して、第三者に例えば警報や人物2の状態を音声で通報するようにしてもよい。
【0046】
ここで3次元センサ10について説明する。3次元センサ10は、典型的には非接触で対象領域内の3次元情報を取得できるものである。以下、本実施の形態で、3次元センサとして用いるFGセンサについて説明する。
【0047】
図7の概念的斜視図を参照して、本実施の形態の落下予測装置1に適した3次元センサ10として用いるFG(ファイバーグレーティング)センサ101について説明する。FGセンサ101は、対象領域内に存在する対象物(人物2)の3次元情報を取得できるものである。即ち、対象物の高さの分布を測定できるように構成されたものである。ここでは、説明のために、対象領域内を平面102、対象物を物体103として説明する。
【0048】
FGセンサ101は、対象領域に、複数の輝点を投影する投影手段としての輝点投影装置110と、輝点投影装置110の投影により形成されたパターン110aを撮像する撮像手段としての撮像装置111とを備えている。パターン110aは、典型的には正方格子状に配列された複数の輝点である。また、輝点の形状は楕円形を含む略円形である。
【0049】
図中物体103が、平面102上に載置されている。またXY軸を平面102内に置くように、直交座標系XYZがとられており、物体103はXY座標系の第1象限に置かれている。一方、図中Z軸上で平面102の上方には、輝点投影装置110と、撮像装置111とが配置されている。撮像装置111は、輝点投影装置110によりパターン110aが投影された物体103を撮像する。
【0050】
撮像装置111は、結像レンズ111aと、撮像素子115とを有している。撮像素子115は、典型的にはCCDカメラである。撮像装置111の結像レンズ111aは、典型的にはその光軸がZ軸に一致するように配置されている。そして、結像レンズ111aは、平面102あるいは物体103上のパターン110aの像を、撮像素子115の結像面115’(イメージプレーン)に結像する。結像面115’は、典型的にはZ軸に直交する面である。さらに、結像面115’内にxy直交座標系をとり、Z軸が、xy座標系の原点を通るようにする。平面2から結像レンズ111aと等距離で、結像レンズ111aからY軸の負の方向に距離d(基線長d)だけ離れたところに、輝点投影装置110が配置されている。物体103と平面102には、輝点投影装置110により複数の輝点110bが形成するパターン110aが投影される。また、y軸方向は、図9で後述する高さの演算に用いる三角法の基線方向でもある。
【0051】
撮像素子115は、典型的にはCCD撮像素子である。また、CCDの他にCMOS構造の素子が最近盛んに発表されており、それらも当然使用可能である。特にこれらの中には、素子自体にフレーム間差算や二値化の機能を備えたものがあり、これらの素子の使用は好適である。
【0052】
また、撮像素子115には、制御装置114が接続されている。言い換えれば、撮像装置111は制御装置114に接続されている。制御装置114は、FGセンサ101全体を制御するものである。また、制御装置114は、典型的には撮像装置111と別体に設置されるが、一体に構成してもよい。このようにすると、装置の小型化が図れる。制御装置114は典型的にはパソコン等のコンピュータである。また制御装置114内には、撮像装置111により撮像されたパターンの像を取得する画像処理装置117が組み込まれている。
【0053】
さらに制御装置114内には、撮像装置111により撮像されたパターン像と参照像とに基づいて三角法により対象物としての物体103の高さを演算する高さ演算部118が組み込まれている。ここで、参照像とパターン像は、例えば撮像装置111により撮像された像であるが、参照像とパターン像のそれぞれの撮像素子115(又は結像面115’)上での位置の情報も含む概念である。即ち、参照像とパターン像は、輝点投影装置110の投影により形成されたパターン110aの像である。ここでは、参照像は、物体103が平面102に存在しないときのパターン110aの像であり、パターン像は、物体103が平面102に存在しているときのパターン10aの像である。即ち、参照像は、パターン110aの各輝点110bの基準位置を示す像である。また、参照像は、画像処理装置117に予め保存しておくとよい。ここでは、参照像は、例えば、いわゆる像としてではなく、各輝点110bの位置に関する、座標等の位置の情報の形で保存するようにするとよい。このようにすると、後述するパターン像と参照像に基づいて輝点の移動量を検出する際に、例えば輝点の座標や方向を比較するだけで済むので処理が単純になる。
【0054】
撮像装置111は、後述の光束発生部105(図10参照)により発生されるレーザ光束L1の波長の周辺部以外の波長の光を減光するフィルタ111bを備えるとよい。フィルタ111bは、典型的には干渉フィルタ等の光学フィルタであり、結像レンズ111aの光軸上に配置するとよい。このようにすると、撮像装置111は、撮像素子115に受光する光のうち、輝点投影装置110より投影されたパターン110aの光の強度が相対的にあがるので、外乱光による影響を軽減できる。また、光束発生部105により発生されるレーザ光束L1は、典型的には赤外光レーザの光束である。また、レーザ光L1は、継続的に照射してもよいし、断続的に照射してもよい。断続的に照射する場合には、撮像装置111による撮像を、照射のタイミングに同期させて行なうようにする。
【0055】
また、FGセンサ101は、撮像装置111によりパターン110aを撮像する際に、外乱光と区別するために、変調を行なうように構成するとよい。変調は、例えば光束発生部105によるレーザ光束L1の発光(照射)停止を周期的に繰り返し行なうような動作である。この場合、レーザ光束L1の発光停止は、例えば光源を発光停止してもよいし、遮光板やスリットを回転させることにより、発光停止をするようにしてもよい。この場合、この変調に同期した受光信号を取り出すことにより、外乱光の影響を著しく低減することができる。さらに変調は、上述に加え、外乱光の強さにより、レーザ光束L1の出力も変化させるようにしてもよい。また、画像処理装置117は、レーザ光束L1を照射している時の受光信号からレーザ光束L1を照射していない時の受光信号を差し引いた信号を生成するようにしてもよい。これにより、外乱光の影響を低減することができる。さらに、FGセンサ101は、信頼性を確保するために、変調動作を複数回行ない、その平均の出力信号を取得データ即ちパターン像とするように構成してもよい。
【0056】
ここで、図7を参照して、FGセンサ101の作用を説明する。まず、物体103の高さの計測の概念について説明する。輝点投影装置110により平面102に投影されたパターン110aは、物体103が存在する部分では、物体103に遮られ平面102には到達しない。ここで物体103が存在していれば、平面102上の点102aに投射されるべき輝点110bは、物体103上の点103aに投射される。輝点110bが点102aから点103aに移動したことにより、また結像レンズ111aと輝点投影装置110とが距離d(基線長d)だけ離れているところから、結像面115’上では、点102a’(x,y)に結像すべきところが点103a’(x,y+δ)に結像する。即ち、物体103が存在しない時点と物体103が存在する時点とは、輝点110bの像がy軸方向に距離δだけ移動することになる。
【0057】
これは、例えば図8に示すように、撮像素子115の結像面115’に結像した輝点110bの像は、高さのある物体103により、δだけy軸方向に移動することになる。
【0058】
FGセンサ101は、このδを計測することにより、物体103上の点103aの位置が三次元的に特定できる。即ち、点103aの高さがわかる。このように、ある点が、物体103が存在しなければ結像面115’上に結像すべき点と、結像面115’上の実際の結像位置との差を計測することにより、物体103の高さの分布、言い換えれば三次元形状が計測できる。あるいは物体103の三次元座標が計測できる。また、輝点110bの対応関係が不明にならない程度に、パターン110aのピッチ、即ち輝点110bのピッチを細かくすれば、物体103の高さの分布はそれだけ詳細に計測できることになる。
【0059】
ここで、高さ演算部118による高さの演算について説明する。高さ演算部118は、パターン像と参照像を読出し、輝点110bの像の移動量δを計測する。移動量δの計測は、まずパターン像と参照像の差画像を作成する。そして、この差画像から対応する輝点の像の位置の移動量δを計測する。移動量δは、例えば、輝点110bの像の位置が移動した画素数(何画素移動したか)を計数することで求められる。なお、上記は、差画像を作成する場合で説明したが、参照像を各輝点110bの位置の情報の形で保存しておき、パターン像の各輝点110bの位置の情報と、参照像の輝点110bの位置の情報とを比較することで、移動量δを計測してもよい。このようにすると、差画像を生成しないで済むので処理を単純化できる。高さ演算部118は、移動量δに基づいて三角法により物体3の高さを演算する。図9を参照して、三角法による物体103の高さを算出について説明する。
【0060】
図9は、撮像装置111、輝点投影装置110、物体103、平面102との関係をX軸方向(図7参照)に見た側面図である。ここでは、物体103の高さがZ1である場合で説明する。輝点投影装置110の中心(パターン光源の中心)と結像レンズ111aの中心とは、平面102に平行に距離dだけ離して配置されており、結像レンズ111aから結像面115’(撮像素子115)までの距離はl(エル)(結像レンズ111aの焦点とほぼ等しい)、結像レンズ111aから平面102までの距離はh、物体103の点103aの平面102からの高さはZ1である。物体103が平面102上に置かれた結果、結像面115’上の点102a’はδだけ離れた点103a’に移動したとする。
【0061】
図中結像レンズ111aの中心と点103aとを結ぶ線が平面102と交差する点を102a”とすれば、点102aと点102a”との距離Dは、三角形103a’−102a’−111aと三角形102a”−102a−111aとに注目すれば、D=δ・h/lであり、三角形111a−110−103aと三角形102a”−102a−103aに注目すれば、D=(d・Z1)/(h−Z1)である。この両式からZ1を求めると次式のようになる。
Z1=(h・δ)/(d・l+h・δ) ………(1)
以上のように、物体103の高さを算出することができる。
【0062】
さらに、高さ演算部118により演算された物体103の高さは、過去一定回数演算された、または過去一定期間内に演算された高さの移動平均値、または期間平均値としてもよい。このようにすることで、ランダムノイズや窓から差し込む日光のちらつきなどによる突発的なノイズが軽減でき、演算した物体103の高さの信頼性が向上する。
【0063】
以上のように、FGセンサ101は、対象領域に、輝点投影装置110の投影により形成されたパターン110aを撮像装置111で撮像し、この撮像されたパターン像と参照像とに基づいて三角法により対象物の高さを高さ演算部118で演算するので、対象物の高さを計測できる。また、FGセンサ101は、対象物の高さを対象領域内の複数の点で計測できるので、対象物の高さの分布を計測することができる。また、この高さの分布を、例えば一定時間間隔で計測することで、高さ分布の時間変化を計測することもできる。
【0064】
さらに、図10の模式的斜視図を参照して、FGセンサ101に適した輝点投影装置110について説明する。輝点投影装置110は、可干渉性の光束を発生する光束発生手段としての光束発生部105と、ファイバーグレーティング120(以下、単にグレーティング120という)とを備えている。可干渉性の光束は、典型的には赤外光レーザである。光束発生部105は、平行光束を発生するように構成されている。光束発生部105は、典型的には不図示のコリメータレンズを含んで構成される半導体レーザ装置であり、発生される平行光束は、レーザ光束L1である。そしてレーザ光束L1は、断面が略円形状の光束である。ここで平行光束とは、実質的に平行であればよく、平行に近い光束も含む。
【0065】
またここでは、グレーティング120は、平面102に平行に(Z軸に直角に)配置される場合で説明する。グレーティング120に、レーザ光L1を、Z軸方向に入射させる。するとレーザ光L1は、個々の光ファイバー121により、そのレンズ効果を持つ面内で集光したのち、発散波となって広がって行き、干渉して、投影面である平面102にパターン110aが投影される。なお、グレーティング120を平面102に平行に配置するとは、例えば、グレーティング120を構成するFG素子122の各光ファイバー121の軸線を含む平面と、平面102とが平行になるように配置することである。
【0066】
グレーティング120は、2つのFG素子122を含んで構成される。本実施の形態では、各FG素子122の平面は、互いに平行である。以下、各FG素子122の平面を素子平面という。また、本実施の形態では、2つのFG素子122の光ファイバー121の軸線は、互いにほぼ直交している。
【0067】
FG素子122は、例えば、直径が数10ミクロン、長さ10mm程度の光ファイバー121を数10〜数100本程度、平行にシート状に並べて構成したものである。また、2つのFG素子122は、接触して配置してもよいし、それぞれの素子平面の法線方向に距離を空けて配置してもよい。この場合には、2つのFG素子122の互いの距離は、パターン110aの投影に差支えない程度とする。レーザ光束L1は、典型的には、グレーティング110の素子平面に対して垂直に入射させる。
【0068】
以上のように、輝点投影装置110は、2つのFG素子122を含んで構成されたグレーティング120が光学系となるので、複雑な光学系を必要とすることなく、光学筐体を小型化できる。さらに輝点投影装置110は、グレーティング120を用いることで、単純な構成で、複数の輝点110bをパターン110aとして平面102に投影できる。
【0069】
また、以上では、パターンを複数の輝点として説明したが、複数の輝線としてもよい。即ち光切断法を用いて対象物の高さを測定するようにしてもよい。この場合には、輝点投影装置110の代わりに、対象領域に、輝線を投影する投影手段としての輝線投影装置210を備えるようにする。輝線投影装置210により投影する輝線の数は、典型的には複数であるが、1本であってもよい。以下、輝線は複数の場合で説明する。以下、FGセンサ101に光切断法を用いた場合のものをFGセンサ101’として説明する。
【0070】
図11の模式的概念図を参照して、FGセンサ101’について説明する。輝線投影装置210は、平面102に、輝線210bを平行に複数本投影する。撮像装置111は、輝線投影装置210によりパターン210aが投影された物体103及び平面102を撮像する。輝線210bは、等間隔に複数本投影される。複数本の輝線210bは、パターン210aを形成する。また、輝線210bの方向と三角法の基線方向は、ほぼ垂直である。即ち、輝線210bの方向は、y軸に垂直である。またここでは、輝線は複数本としているが、1本であってもよい。この場合には、FGセンサ101’をさらに単純に構成できる。
【0071】
ここで、光切断法を用いた物体103の高さ計測の概念について説明する。輝線投影装置210により平面102に投影されたパターン210aは、物体103が存在する部分では、物体103に遮られ平面102には到達しない。ここで物体103が存在しなければ、平面102上の点102aに投射されるべき輝線は、物体103上の点103aに投射される。輝線が点102aから点103aに移動したことにより、また結像レンズ111aと輝線投影装置210とが距離d(基線長d)だけ離れているところから、結像面115’上では、点102a’(x,y)に結像すべきところが点103a’(x,y+δ)に結像する。即ち、物体103が存在しない時点と物体103が存在する時点とは、輝点がy軸方向に距離δだけ移動することになる。
【0072】
これは、例えば図12に示すように、撮像素子115の結像面115’に結像した輝線210bの像は、高さのある物体103により、δだけy軸方向に移動することになる。FGセンサ101と同様に、このδを計測することにより、物体103上の点103aの位置が三次元的に特定できる。即ち、点103aの高さがわかる。また、輝線210bの対応関係が不明にならない程度に、パターン210aのピッチ、即ち輝線210bのピッチを細かくすれば、物体103の高さの分布はそれだけ詳細に計測できることになる。また、高さ演算部118による高さの算出は、図9の説明と同様である。
【0073】
以上のように、FGセンサ101’は、パターンを複数本の輝線とし、輝線の移動を計測することで、パターンを輝点とした場合に比べて、輝線の任意の点の移動を計測でき、輝線方向の連続的形状が認識できる。言い換えれば、図中X軸方向の計測の分解能を向上することができる。
【0074】
図13の模式的斜視図を参照して、FGセンサ101’に適した輝線投影装置210について説明する。輝線投影装置210は、図10で前述した光束発生部105と、ファイバーグレーティング220(以下、単にグレーティング220という)とを備えている。
【0075】
ここでは、グレーティング220は、平面102に平行に(Z軸に直角に)配置される場合で説明する。グレーティング220に、レーザ光L1を、Z軸方向に入射させる。するとレーザ光L1は、個々の光ファイバーにより、そのレンズ効果を持つ面内で集光したのち、発散波となって広がって行き、干渉して、投影面である平面102にパターン210aが投影される。なお、グレーティング220を平面102に平行に配置するとは、図14で後述するように、例えば、グレーティング220を構成する第1FG素子222の各光ファイバー221の軸線を含む平面と、平面102とが平行になるように配置することである。
【0076】
図14の模式図を参照して、グレーティング220について説明する。(a)は斜視図、(b)は正面図である。グレーティング220は、複数の光ファイバー221を各光ファイバー221の軸線を第1の方向v1に向けて平行に且つ平面状に並べた第1のファイバーグレーティング素子222(以下第1FG素子222という)と、複数の光ファイバー221を各光ファイバー221の軸線を第1の方向v1と異なる第2の方向v2に向けて平行に且つ平面状に並べた第2のファイバーグレーティング素子223(以下第2FG素子223という)と、複数の光ファイバー221を各光ファイバー221の軸線を第1の方向v1、第2の方向v2と異なる第3の方向v3に向けて平行に且つ平面状に並べた第3のファイバーグレーティング素子224(以下第3FG素子224という)とを含んで構成される。本実施の形態では、各FG素子222、223、224の平面は、互いに平行である。ここでは、各FG素子を識別するために、第1FG素子、第2FG素子、第3FG素子と呼ぶ。本実施の形態では、第1FG素子、第2FG素子、第3FG素子の順序で重ね合わせてある。しかしなから他の順序、例えば、第1FG素子、第3FG素子、第2FG素子の順に重ね合わせてもよい。以下、各FG素子222、223、224の平面を素子平面という。
【0077】
第1FG素子222、第2FG素子223、第3FG素子224は、前述したFG素子122と同様なものである。また図示では、各FG素子222、223、224は、接触して配置している場合を示しているが、それぞれ、素子平面の法線方向に距離を空けて配置してもよい。この場合には、各FG素子222、223、224の互いの距離は、パターン210aの投影に差支えない程度とする。
【0078】
第1FG素子222と第2FG素子223と第3FG素子224は、重ね合わせてグレーティング220を構成する。なお、ここでの重ね合わせは、各FG素子222、223、224の各素子平面がほぼ平行になるように重ね合わされている。言い換えれば、本実施の形態では、グレーティング220は、第1FG素子222、第2FG素子223、第3FG素子224の順に、各々の素子平面が平行になるように重ね合わされている。また、グレーティング220は、光束発生部105により発生されるレーザ光束L1を透過させるように構成されている。ここでは、レーザ光束L1は、第1FG素子222、第2FG素子223、第3FG素子224の順に透過させる。レーザ光束L1は、典型的には、グレーティング220(第1FG素子222)の素子平面に対して垂直に入射させる。
【0079】
さらに、図14(b)に示すように、本実施の形態では、第1の方向v1と第2の方向v2がほぼ直交している。また、第3FG素子224は、第3の方向v3が、第1の方向v1から所定の角度θだけ素子平面と平行な面内で回転させて重ね合わされている。所定の角度θについては、図15を参照して後述する。
【0080】
ここで、図15を参照して、所定の角度θについて説明する。まず所定の角度θを与えることによる、輝点の変化について説明する。(a)では、(b)に示すように、所定の角度θがθ1の場合で説明する。なお(a)は、(b)の図中奥側から手前にレーザ光束L1を透過させた場合に投影されるパターン210a’の一部を示した図である。図示では、参考として、θ1は、10°程度で示してある。まず、所定の角度θが0°であったときに投影されるパターン210a’の一部である輝点251、252、253、254、255に注目する。そして、第3FG素子224に所定の角度θ1を与えると、上記各輝点は、各輝点の生成方向である直線251aに対して、それぞれ角度θ1をなす直線251a’方向に回折して新たな輝点を投影する。さらに説明するならば、輝点251に注目すると、輝点251は、直線251a’方向に、回折して新たな輝点251’を投影する。
【0081】
これにより、所定の角度θによって輝点の回折方向が変わるので、θによっては、例えば平行であり、等間隔に配列された複数の輝線列(以下単に複数の輝線という)や、密な輝点アレイを投影することができる。言い換えれば、第3FG素子224に所定の角度θを調整することで、複数の輝線を容易に投影することができる。
【0082】
図16の模式図を参照して、所定の角度θを調整して、パターンを複数の輝線とする場合の例について説明する。輝線は、複数の輝点が直線的に集合することで形成される。また、FG素子は、低次から高次の回折光に渡って回折効率が一定に近く、また輝線は、複数の輝点が集合することで形成されているので、輝線の中央部の明るさが、中央部から輝線の端部方向にいっても変化しにくい。即ち、輝度が均一な輝線を投影できる。複数の輝線にする場合には、所定の角度θは、0.1〜10°、好ましくは1〜8°、最も好ましくは5°程度とするとよい。また、θ=85°の場合にも、同様な複数の輝線となる。但し、この場合には、投影されるパターンは、(b)を90°回転させたパターンとなる。
【0083】
以上のように、輝線投影装置210は、レーザ光束L1を第1FG素子222と、第2FG素子223と、第3FG素子224を透過させることで、複数の輝線のパターン210aを投影できるので、単純に構成できる。また、輝線投影装置210は、重ね合わせた第1FG素子222と、第2FG素子223と、第3FG素子224とを含んで構成されたグレーティング220が光学系となるので、複雑な光学系を必要とすることなく、光学筐体を小型化できる。さらに、このように構成されているので、複数の輝線をパターン210aとして平面102に投影できる。さらに、輝線を、輝点の集合により形成するので、輝度が均一な複数の輝線を投影できる。このため、本実施の形態のように輝線の移動を測定する場合に優位性がある。
【0084】
なお、輝線投影装置は、上述した輝線投影装置210の場合で説明したがこれに限られない、例えばシリンドリカルレンズや、スリット等を用いて、パターン210aとして複数の輝線を投影するように構成してもよい。
【0085】
図17に、輝線投影装置の別の例として、輝線投影装置310を示す。輝線投影装置310は、光学ガラスで形成された光学素子311を有している。また光学素子311は、光束の入射側に断面が略三角形の凸311a部が形成され、さらに凸部311aの光束の入射側先端部には、円筒面311bが形成される。光学素子311は、典型的にはUS4826299に開示されているパウエルレンズである。このような光学素子311の円筒面311bに、光束発生部105’により、この円筒面311bの曲率半径より小さい径のレーザ光束L1’を入射させることで、対象領域に輝線を投影できる。さらに、光学素子311の対象領域側に、回折素子、例えば前述したFG素子を配置することで、複数の輝線を投影することができる。輝線投影装置310は、このような光学素子311を用いることで、輝度が均一な複数の輝線を投影することができる。
【0086】
また、図18の模式図に示すように、FGセンサ101’は、対象領域を、輝線を対象物の動きに比べて十分に高速で、図中y軸方向に走査し、輝線が対象領域の異なる位置に投影されたパターン像を複数撮像するようにしてもよい。この場合には、輝線発生手段を、投影した輝線を対象領域の特定方向に走査できる輝線投影装置210’とする。また、この場合には、このように撮像された複数のパターン像の組み合わせにより、前述のパターン210a(図11参照)の像であるパターン像としてもよい。言い換えれば、(b)に示すように、異なる位置に投影された輝線のパターン像を組合わせることで、前述の複数の輝線即ちパターン210aが投影された対象領域のパターン像と同じパターン像を生成してもよい。さらに説明すれば、例えば図示のように、時間t1、t2、t3、t4に取得したパターン像を組合わせて、複数の輝線が投影された対象領域のパターン像を生成することである。即ち、対象領域内を輝線が走査している間に、パターン像を取得した回数が、組み合わされたパターン像上の輝線の像の本数となる。なお、走査する輝線は、典型的には1本である。
【0087】
ここで、図19の模式的外観図を参照して、FGセンサ101の設置例について説明する。輝点投影装置110と、撮像装置111は、ベッド3の上方に配置されている。図示では、人物2のおよそ頭部上方に輝点投影装置110が、ベッド3のおよそ中央部上方に撮像装置111が配置されている。輝点投影装置110は、ベッド3上にパターン110aを投影している。また、撮像装置111の画角は、ベッド3全体を撮像できるように設定されいる。また制御装置114は、図2で説明した制御部21内に組み込むとよい。このようにすることで、落下予測装置1の構成を単純化できる。
【0088】
また、輝点投影装置110は、典型的には、その光軸(レーザ光束の投射方向)を、図示のように対象領域の垂直方向に対して傾けて設置する。このようにすることで、容易に広範囲にパターン110aを投影できる。また、例えば撮像装置111と輝点投影装置110との距離を離して設置することが容易に行なえる。また、撮像装置111は、対象領域の垂直方向に対し、光軸をおよそ平行方向に向けて設置する。なおここでは、上記のように、輝点投影装置110は、その光軸を対象領域の垂直方向に対して傾けて設置するが、前記垂直方向に対して、およそ平行方向に設置してもよい。言い換えれば、その光軸を、およそ撮像装置111の光軸と平行方向に向けて設置してもよい。
【0089】
さらに、撮像装置111と輝点投影装置110とは、撮像装置111と輝点投影装置110を結ぶ軸(基線方向)と、ベッド3の中心線がおよそ平行になるように設置する。また、撮像装置111と輝点投影装置110とは、ある程度距離を離して設置するとよい。このようにすることで、図7で前述した距離d(基線長d)が長くなるので、変化を敏感に検出できるようになる。撮像装置111と輝点投影装置110とは、例えばスタンドに取り付けて設置するとよい。このようにすることで、FGセンサ101(特に撮像装置111と輝点投影装置110)の設置が容易になり、例えば、病院等で必要なときに必要な場所に設置できるので、簡便である。また、撮像装置111と輝点投影装置110とは、天井に取り付けてもよい。このようにすると、撮像装置111と輝点投影装置110とをより確実に固定することが容易に行なえる。なお、ここでは、FGセンサ101ついて説明したが、FGセンサ101’についても同様に設置してよい。
【0090】
以上のような、FGセンサ101を3次元センサ10として用いることで、対象領域内の3次元情報を正確に取得できる。また、3次元センサ10は、上述したFGセンサ101に限らず、対象領域の3次元情報を取得できるものなら何でもよく、例えば、モアレを用いたセンサ、ステレオカメラを用いたセンサ、複数の距離センサを用いたセンサであってもよい。
【0091】
モアレを用いたセンサは、例えば、2つのスリットを用いて形成したモアレ縞を撮像することにより、3次元情報を取得できる。モアレを用いることで、縞方向の高さ分布を連続的に測定できるので、高精度な3次元情報を取得できる。モアレとは、2つの規則的な強度分布を重ねたとき、両者の空間周波数の差によって生じる粗い縞模様である。2つの強度分布の和によって生じる和のモアレと、積によって生じる積のモアレとがあり、前者は2つの規則的分布を二重露光した写真で実現でき、後者はそれぞれの規則的分布を記録した透明画を重ねて見ればよい。また、モアレ縞の位相の情報を利用することで、高精度に人物2の動きを検出することもできる。
【0092】
また、ステレオカメラを用いたセンサは、例えば2つのCCDカメラにより、ステレオ画像を取得し、このステレオ画像上の対応点を探索することで、対象領域の高さ分布を三角法により測定できる。即ち、対象領域の3次元情報を取得できる。二次元画像に基づいて、3次元情報を取得するので高精度である。
【0093】
さらに、複数の距離センサを用いたセンサは、必要な測定点に対応して複数の距離センサを設置、対象領域の複数の測定点の距離を測定することで、3次元情報を取得することができる。距離センサを用いることで、外乱光の影響が少なく正確に3次元情報を取得できる。また、画像処理の必要がないので、単純な構成とすることができる。使用する距離センサは、基本的には何でもよく、例えば、赤外線センサのような三角法を用いたタイプであってもよいし、超音波センサであってもよく、タイムツウフライト(Time―to―flight)のタイプ(光が出射して帰ってくる時間を測定し、距離を測定するもの)であってもよい。
【0094】
以上のように本実施の形態の落下予測装置1は、人物2のベッド3上からの落下を的確に予測できるので、例えば幼児や老人がベッド3上から転落しそうなことを逸早く知ることができ、落下による事故を未然に防ぐことができる。また、人物2が落下してしまったことも検出できるので、落下してしまった場合でも迅速な対応が可能になる。また、落下予測装置1は、人物2の呼吸を検出することができるので、高齢者や病人が危機的状況に陥った場合に、迅速な救急対応の実現が可能になる。
【0095】
以上では、対象領域は、ベッド3上即ち周辺より高さのある場合で説明したが、周辺と同じ高さであってもよい。言い換えれば、例えば床面に置いた柵内を対象領域としてもよい。このような場合には、領域監視装置は、柵を乗り越えようとする動きを検出できるので、例えば柵で囲まれた場所にいる乳幼児を監視することにも利用できる。また、領域監視装置は、例えば動物が柵を乗り越えて逃げ出そうする動きも検出することが可能であるので、例えば動物園でも利用することができる。さらに、以上では、ベッド即ち周辺より高さのある対象領域に柵が備えられている場合で説明したが、柵を備えなくてもよい。例えば通常の場合、人物がベッドから落下する前には、ベッドの周縁部で起き上がり等の大きな高さ変化が検出されるので、人物の落下を予測できる。即ち対象物が対象領域の外に出ようとする動きを検出できる。
【0096】
【発明の効果】
以上のように、本発明によれば、対象領域内の3次元情報を取得する3次元センサと、前記取得した3次元情報に基づいて、前記対象領域内の高さの変化を検出する高さ変化検出手段と、前記検出された高さの変化に基づいて、対象物の位置を検出する位置検出手段と、前記対象物が前記対象領域の外へ出ようとする動きを監視する動き監視手段とを備え、前記動き監視手段は、前記検出された対象物の位置が、前記対象領域内の特定の領域であるときであって、前記対象物の高さの変化が所定量以上であるときに前記対象領域の外へ出ようとする動きを検出するように構成されるので、対象物が対象領域の外へ出ようとする動きを検出できるだけでなく、単純な領域監視装置を提供できる。
【図面の簡単な説明】
【図1】本発明の実施の形態である落下予測装置の模式的外観図である。
【図2】本発明の実施の形態である落下予測装置の構成を示すブロック図である。
【図3】図1の場合でのベッド上の特定の領域を説明する模式的平面図である。
【図4】本発明の実施の形態で用いる、呼吸の波形パターンについて示した概要図である。
【図5】図4の場合での、正常及び異常な呼吸の波形パターンについて示した概要図である。
【図6】図5の場合の、異常な呼吸の波形パターンに対応する病名または疾患箇所の表を示した図である。
【図7】本発明の実施の形態であるFGセンサの概念的斜視図である。
【図8】図7の場合での結像面に結像したパターンの像を説明する模式図である。
【図9】図7の場合での対象物の高さの演算について説明する線図である。
【図10】図7の場合での輝点投影装置を説明する模式的斜視図である。
【図11】本発明の実施の形態である光切断法を用いたFGセンサの概念的斜視図である。
【図12】図11の場合のパターンの像を説明する線図である。
【図13】図11の場合での輝線投影装置を説明する模式的斜視図である。
【図14】図13の場合でのグレーティングについて説明する、(a)斜視図、(b)正面図である。
【図15】図14のグレーティングにより投影されるパターンについて説明する、(a)パターンの模式図、(b)グレーティングの正面図である。
【図16】図14のグレーティングにより投影されるパターンを示す模式的平面図である。
【図17】図11の場合での輝線投影装置の別の形態を示す模式的斜視図である。
【図18】図11の場合での輝線投影装置のさらに別の形態を示す図であり、(a)FGセンサの模式的斜視図、(b)パターン像の組み合わせについて説明する模式図である。
【図19】本発明の実施の形態であるFGセンサを設置する場合の例を示す模式的外観図である。
【符号の説明】
1 落下予測装置
2 人物
3 ベッド
4 寝具
6 柵
10 3次元センサ
20 演算装置
21 制御部
22 高さ変化検出部
23 位置検出部
24 落下予測部
25 状態検出部
31 記憶部
38 警報装置
101 FGセンサ
101’ FGセンサ(光切断法を用いたもの)
102 平面
103 物体
105 光束発生部
110 輝点投影装置
110a パターン
110b 輝点
111 撮像装置
114 制御装置
115 撮像素子
117 画像処理装置
118 高さ演算部
120 グレーティング
121 光ファイバー
122 FG素子
210 輝線投影装置
210a パターン
210b 輝線
220 グレーティング
221 光ファイバー
222 第1FG素子
223 第2FG素子
224 第3FG素子
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an area monitoring apparatus, and more particularly to an area monitoring apparatus that can monitor a movement that is about to go out of a target area.
[0002]
[Prior art]
In nursing homes such as nursing homes, residents have fallen out of bed in the middle of the night, causing accidents such as breaking their leg bones. Also in hospitals, for example, when a patient wakes up from anesthesia after surgery, the pain may move violently on the bed and fall. In addition, an infant may fall from the bed. In order to respond quickly to such an accident, conventionally, an apparatus for monitoring the state of a person on a bed based on a time transition of a pressure distribution detected by a load sensor or a pressure sensor has been proposed.
[0003]
[Problems to be solved by the invention]
However, according to the conventional apparatus as described above, for example, it can be detected that a person is no longer on the bed (leaves the bed), but it is difficult to detect a fall from the bed or a movement that is likely to fall. In other words, it was difficult to predict the fall. Furthermore, since the signal to be measured is very small, a high-performance signal amplifier or some kind of signal processing is necessary to acquire and detect a stable signal, which has become a complicated and large-scale system. .
[0004]
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a simple area monitoring apparatus as well as to detect a movement of an object going outside a target area.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a region monitoring apparatus 1 according to the invention according to claim 1 includes a three-dimensional sensor 10 that acquires three-dimensional information in a target region, for example, as shown in FIGS. 1 and 2; Height change detection means 22 for detecting a change in the height of the object 2 in the target area based on the three-dimensional information, and detecting a region in the target area where the height has changed. The position detecting means 23 for detecting the position of the object 2 and the movement monitoring means 24 for monitoring the movement of the object 2 to go out of the target area are provided. The position of the object 2 detected by the means 23 exists in a specific area within the object area, and the change in the height of the object 2 detected by the height change detection means 22 is a predetermined amount or more. Sometimes the object 2 is out of the target area Configured to determine the movement of the cornerstone The movement monitoring means 24 is configured to detect the movement of the object 2, the position of the object 2 is in the specific area, and the movement speed of the object 2 immediately before reaching the position is a predetermined threshold value; Configured to detect a movement to go out of the target area when The
[0006]
Moreover, the said area | region monitoring apparatus 1 is good to provide the boundary division member provided in the boundary of the said target area and the periphery one step higher than the said target area. If comprised in this way, not only can the target object 2 inadvertently go out of a target area, for example, but a height change will become large when the target object 2 goes out of a target area. .
[0007]
If comprised in this way, since it has the three-dimensional sensor 10, the height change detection means 22, and the position detection means 23, since the position of the target object 2 can be detected, it can be set as a simple area | region monitoring apparatus. it can. Furthermore, it comprises a movement monitoring means 24, and the movement monitoring means 24 is By position detection means 23 The position of the detected object 2 Before Specific area within the target area Exist and , Detected by height change detection means 22 When the change in the height of the object 2 is a predetermined amount or more , Object 2 is Movement to go out of the target area Judgment For example, the object moves over the fence Judgment By doing so, it is possible not only to detect the movement of the object going out of the target area, but also to provide a simple area monitoring device.
[0008]
In addition, as described in claim 2, in the region monitoring device 1 described in claim 1, the motion monitoring unit 24 is configured such that the change in the height of the object 2 is equal to or greater than a predetermined amount, and more than the predetermined amount. It is preferable that the apparatus is configured to detect a movement to go out of the target area when the height change area is a predetermined area or more.
[0009]
With this configuration, for example, when the position of the target object is a specific area, even if only a part of the area in which the height change of the target object 2 is greater than or equal to a predetermined amount is included, the object 2 goes out of the target area. Since it is possible to prevent the movement to be detected, the reliability of the movement monitoring is increased.
[0010]
Also As mentioned above, above In the area monitoring device 1, the motion monitoring means 24 is configured to detect the movement of the object 2; the position of the object 2 is in the specific area, and the movement speed of the object 2 immediately before reaching the position Configured to detect a movement to go out of the target area when the threshold exceeds a predetermined threshold Be done .
[0011]
With this configuration, for example, even when the object 2 suddenly enters a specific area and tries to go out of the target area as it is, the movement of going out of the target area quickly is detected. can do.
[0012]
And claims 3 As claimed in claim 1. Or claim 2 In the area monitoring apparatus 1 described in the above, the position detecting unit 23 determines an existing area where the object 2 exists based on the detected height change, and includes the determined existing area. It is preferable that a region obtained by enlarging the existence region by a predetermined range is calculated, and the position of the object 2 is detected with priority on the enlarged region.
[0013]
With this configuration, for example, since the position of the object 2 is detected from an area where the object 2 is likely to exist, the time required to detect the position of the object 2 can be shortened, and the processing speed can be increased. .
[0014]
And claims 4 Claims 1 to 3 In the region monitoring apparatus 1 according to any one of the above, for example, as shown in FIG. 7, the three-dimensional sensor 101 includes a projection unit 110 that projects a bright line or a plurality of bright points onto the target region; An imaging means 111 for imaging the pattern formed by the above-mentioned method; and a height calculation unit 118 for calculating the height of the object by trigonometry based on the captured pattern image and reference image.
[0015]
With this configuration, the three-dimensional sensor 101 captures the bright line projected on the target area by the projection unit 110 or a pattern formed by a plurality of bright spots by the imaging unit 111 and the height calculation unit 118. Since the height of the object is calculated by trigonometry based on the captured pattern image and the reference image, the height of the object can be measured accurately even though it is simple. When the pattern is a bright line, for example, the continuous height in the bright line direction can be measured.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected to the mutually same or equivalent member, and the overlapping description is abbreviate | omitted.
[0017]
FIG. 1 is a schematic external view of a fall prediction device 1 as an area monitoring device according to an embodiment of the present invention. The fall prediction device 1 includes a three-dimensional sensor 10 that acquires three-dimensional information in a target area, and an arithmetic device 20. Moreover, the fall prediction apparatus 1 is configured to monitor the target area. In the present embodiment, the object is the person 2. Further, in the present embodiment, the target area is a target area having a height higher than the periphery, and is typically on the bed 3. The three-dimensional sensor 10 has a plurality of measurement points in the target region, and can measure the height at each measurement point. In the present embodiment, the three-dimensional information is the coordinates of a plurality of measurement points on the bed 3 and the height measured at each point. In other words, the three-dimensional information is a height distribution on the bed 3. Further, the target area may be detected from the three-dimensional information. In this case, first, three-dimensional information of the area including the target area is acquired, and based on this three-dimensional information, the target area having a height higher than the periphery, that is, the bed 3 is detected. Since the upper surface of the bed 3 is higher than the periphery, it can be easily detected from the three-dimensional information. By doing in this way, the environment setting operation | work at the time of installing the fall prediction apparatus 1 becomes simple, and installation becomes easy. Moreover, you may detect the detection of a target area | region by detecting the below-mentioned fence 6 based on three-dimensional information.
[0018]
A person 2 lies on the bed 3 in the figure. In addition, a bedding 4 is hung on the person 2 and covers a part of the person 2 and a part of the bed 3. In this case, the three-dimensional sensor 10 acquires the height distribution of the upper surface of the bedding 4. When the bedding 4 is not used, the three-dimensional sensor 10 acquires the height distribution of the person 2 itself. In addition, the bed 3 is provided with a fence 6 provided as a boundary partition member that is provided at the boundary between the target area and the periphery and is one step higher than the target area. The fence 6 is also a fall prevention means for preventing, for example, the person 2 from rolling down. The fence 6 is attached to both side surfaces 3 a of the bed 3. The fence 6 has a height that prevents the person 2 from rolling down due to, for example, turning over, for example, a height of about 20 to 50 cm from the upper surface of the bed 3. Further, the bed 3 is formed with end plates 3b formed at both ends higher than the upper surface of the bed 3.
[0019]
A three-dimensional sensor 10 is disposed on the upper portion of the bed 3. The three-dimensional sensor 10 will be described in detail later. The three-dimensional sensor 10 and the arithmetic device 20 are electrically connected. In the drawing, the three-dimensional sensor 10 and the arithmetic unit 20 are shown as separate bodies, but may be configured integrally. If it does in this way, the fall prediction apparatus 1 can be reduced in size.
[0020]
With reference to the block diagram of FIG. 2, the structural example of the fall prediction apparatus 1 is demonstrated. The three-dimensional sensor 10 is connected to the arithmetic device 20 and is configured to output the acquired three-dimensional information to the arithmetic device 20. The arithmetic unit 20 may be configured to acquire three-dimensional information from the three-dimensional sensor 10 in time series. The computing device 20 is a computer such as a personal computer or a microcomputer. Further, the arithmetic unit 20 has a control unit 21 that controls the drop prediction device 1.
[0021]
A storage unit 31 is connected to the control unit 21. The storage unit 31 may store the three-dimensional information acquired from the three-dimensional sensor 10 in time series. The storage unit 31 can store data such as calculated information. Furthermore, the storage unit 31 includes a specific area registration unit 32 that registers in advance a specific area, which will be described later with reference to FIG.
[0022]
The control unit 21 is connected to an input device 35 for inputting information for operating the fall prediction device 1 and an output device 36 for outputting a result processed by the fall prediction device 1. The input device 35 is, for example, a touch panel, a keyboard, or a mouse, and the output device 36 is, for example, a display or a printer. Although the input device 35 and the output device 36 are illustrated as being externally attached to the arithmetic device 20 in this figure, they may be built in. Further, the input device 35 may be, for example, a switch that can start or cancel monitoring (fall prediction) in the target area, and the output device 36 may be, for example, an LED as an operation indicator. If it does in this way, the fall prediction apparatus 1 can be comprised simply. In particular, when the three-dimensional sensor 10 and the arithmetic unit 20 are configured integrally, it is preferable to configure in this way. By doing in this way, the fall prediction apparatus 1 can be made simpler and small.
[0023]
In the control unit 21, a height change detection unit 22 as a height change detection unit that detects a change in height in the target region based on the three-dimensional information acquired from the three-dimensional sensor 10, and a height change Based on the change in height detected by the detection unit 22, a position detection unit 23 serving as a position detection unit that detects the position of the person 2, and a movement for monitoring the movement of the person 2 going out of the target area A drop prediction unit 24 as monitoring means is provided. The position of the person 2 detected by the position detection unit 23 is, for example, the position of the area where the person 2 is present, and the position of the person 2 is typically the barycentric position of the area where the person 2 is present.
[0024]
Detection of a change in height by the height change detection unit 22 is performed by calculating a difference between the three-dimensional information acquired from the three-dimensional sensor 10 and the three-dimensional information stored in the storage unit 31 in time series. Detect changes in height at each measurement point in the region. In other words, a change in height at each measurement point in the target region is detected by taking a difference between the latest three-dimensional information acquired and the three-dimensional information acquired in the past. The three-dimensional information acquired in the past is typically three-dimensional information acquired immediately before (the past) the latest three-dimensional information. In this case, the three-dimensional information is acquired from the three-dimensional sensor 10 at regular time intervals. The acquisition interval of the three-dimensional information is, for example, about 0.1 to 3 seconds, preferably about 0.1 to 0.5 seconds. Further, it is effective to acquire the three-dimensional information in a shorter time and perform the averaging or filtering process, for example, because the influence of random noise can be reduced. The acquisition interval may be a relatively long time, for example, about 5 to 20 seconds. In this case, for example, it becomes easy to detect the rising motion of the person 2.
[0025]
The three-dimensional information or height change acquired from the three-dimensional sensor 10 may be a moving average value or a period average value of values acquired a certain number of times in the past or acquired within a certain period in the past. By doing so, random noise and sudden noise caused by sunlight flickering through the window can be reduced, and erroneous determination of peak positions and zero cross positions (intersections where signs are reversed) can be reduced. .
[0026]
Further, the position detection unit 23 determines the presence region where the person 2 exists based on the height change detected by the height change detection unit 22, and determines the position of the center of gravity of the determined presence region as the position of the person 2. It is good to comprise. In this way, the position of the person 2 can be detected not by a region having an area but by a point, so that a slight movement of the person 2 can be detected relatively sensitively.
[0027]
The determination of the existence area is, for example, paying attention to the height change of an arbitrary measurement point. The number of measurement points whose direction of change is the same as the target position is counted, and if the number is equal to or greater than a predetermined value, this range is regarded as an existing region.
[0028]
Further, the position detection unit 23 calculates an area that includes the determined existence area and is an enlargement of the existence area by a predetermined range, and detects the position of the person 2 with priority on the enlarged area. You may comprise so that it may perform. In the present embodiment, the acquisition interval of the three-dimensional information by the three-dimensional sensor 10 is set to a sufficiently short time compared to the movement of the person 2, so that the person 2 moves greatly during the acquisition interval. However, the next time the position of the person 2 is detected, it is considered that the person 2 exists at substantially the same position or in an adjacent region. Therefore, a method for detecting the position of the person 2 with priority given to an area obtained by enlarging the existing area by a predetermined range is effective. In this way, since the position of the person 2 is detected with priority given to the region where the person 2 is likely to exist, the search time for the person 2 can be shortened, and the processing speed can be increased.
[0029]
Here, the fall prediction unit 24 will be described. As described above, the fall prediction unit 24 monitors the movement of the person 2 about to go out of the target area. Here, monitoring the movement of the person 2 trying to go out of the target area means, for example, predicting the fall of the person 2 from the bed 3 or detecting the fall of the person 2 from the bed 3. Furthermore, the fall predicting unit 24 is when the position of the person 2 detected by the position detecting unit 23 is a specific area in the target area, and when the change in the height of the person 2 is a predetermined amount or more. It is configured to detect a movement to go out of the target area. In other words, it is configured to predict the fall of the person 2. Hereinafter, detecting the movement to go out of the target area is referred to as predicting a fall. Here, the specific area is typically a target area, that is, a bed. 3 The upper peripheral portion and the region in the vicinity thereof (hereinafter simply referred to as the peripheral portion on the bed 3 when these are not distinguished). The fall prediction unit 24 is configured to output an alarm signal when the fall of the person 2 is predicted. The alarm signal is typically output to an alarm device 38 described later.
[0030]
FIG. 3 shows an example of the specific area. Moreover, although it is preferable to set a specific area | region as the whole peripheral part on the bed 3 like (a), as shown in (b), the location where the fall of the upper peripheral part on the bed 3 is easy to generate | occur | produce, For example, only the both side surfaces on the bed 3 may be used. In this way, only a portion where the drop is likely to occur can be set as the specific region, so that an efficient drop prediction can be performed.
[0031]
In the present embodiment, when the person 2 falls from the bed 3, the fence 6 is provided, so that the person 2 does not fall (falls) as it is turned over. Or get up and fall from the part without the fence 6. That is, before falling, a height change greater than a small body movement such as turning over is always detected at the peripheral edge of the bed 3. For this reason, the position of the person 2 is the specific region, that is, the peripheral edge on the bed 3, and the height change is a predetermined amount, typically a certain level or more. Here, the height change above a certain level is, for example, a height change above the height change detected when the person 2 gets up, for example, a height change above the height change corresponding to about 300 to 700 mm. is there.
[0032]
The fall prediction unit 24 is configured such that the person 2 detects a fall from within the target area. The fall prediction unit 24 detects the fall from the target area when the height change is not detected in the target area after predicting the fall. That is, it is configured to detect that the person 2 has fallen from the bed 3. The fall prediction unit 24 is configured to output an alarm signal when the fall of the person 2 is detected. The alarm signal is typically output to an alarm device 38 described later.
[0033]
Further, the fall predicting unit 24 predicts the fall of the person 2 when the change in the height of the person 2 is equal to or greater than a certain level and the area of the change in height greater than the certain level is equal to or greater than a predetermined area. It is good to configure. As described above, when the person 2 is likely to fall from the bed 3, a height change larger than a small body movement such as turning over at the periphery is surely detected. Furthermore, if the person 2 moves up to rise, this large change in height is detected, for example, in an area equal to or larger than the cross-sectional area of the head and torso of the person 2. For this reason, the drop is predicted when the region of a certain height change or more is a predetermined area or more. The predetermined area is typically about the cross-sectional area of the head of a standard person 2. By doing so, the movement in a small area that does not cause the fall, for example, when the sleeping person 2 is present at the position of the peripheral part of the bed 3, the movement with only the arms raised is dropped. Can be prevented (alarm is issued), so that the reliability of fall prediction is increased.
[0034]
In addition, the fall prediction unit 24 may be configured to detect the movement of the person 2. The detection of movement includes detection of the direction, speed, and distance of movement in addition to detection of presence / absence of movement. Further, the fall predicting unit 24 is configured to predict the fall of the person 2 when the position of the person 2 is in a specific area and the moving speed of the person 2 immediately before reaching the position exceeds a predetermined threshold value. Good. There is a case where the person 2 suddenly enters a specific area and falls as it is. In such a case, it is necessary to predict the fall quickly. For this reason, the fall prediction unit 24 is configured to predict the fall of the person 2 when the person 2 enters a specific area at a moving speed exceeding a predetermined threshold. The predetermined threshold is preferably about 2 to 5 km / h, for example.
[0035]
Furthermore, a state detection unit 25 that detects the state of the person 2 based on the change in height detected by the height change detection unit 22 is provided in the control unit 21. The state of the person 2 is, for example, a state of normal breathing, abnormal breathing and danger, body movement, for example, turning over. Further, the state detection unit 25 is configured to detect the respiration of the person 2 based on the change in height detected by the height change detection unit 22.
[0036]
The detection of respiration by the state detection unit 25 sets a predetermined upper and lower limit threshold for both or either of the amplitude and period (frequency) of the periodic change of the height change detected by the height change detection unit 22, It is compared with this threshold value to determine whether or not it is breathing, and breathing is detected. The upper and lower limit threshold values of the cycle may be set in a range including a person's breathing cycle, for example, a lower limit of 5 cycles per minute and an upper limit of 60 cycles per minute. By the way, although the respiratory rate of an adult exists in the range of about 5-30 times per minute, in the case of an infant, there exists a tendency for the respiratory rate to increase further. Similarly, the upper and lower limit thresholds of the amplitude may be set to a range including, for example, a person's breathing amplitude, for example, a value corresponding to a height change of about 1 mm for the lower limit and about 20 mm for the upper limit. Thereby, the detected respiration of the person 2 forms a waveform pattern.
FIG. 4 is a diagram showing an example of a respiratory waveform pattern.
[0037]
The state detection unit 25 may be configured to detect whether or not the person 2 is present on the bed 3 after the respiration of the person 2 is detected for a certain period of time, that is, to detect the presence of the person 2. The fall prediction device 1 may start the fall prediction of the person 2 on the condition that the person 2 is detected. The certain time is a time during which respiration can be detected stably, for example, 30 to 120 seconds, and more preferably 30 to 90 seconds.
[0038]
Further, the state detection unit 25 may detect the state of the person 2 in consideration of the following. For example, when the period of the respiratory pattern is disturbed in a short time, or when the period of the respiratory pattern changes suddenly, for example, spontaneous pneumothorax, lung diseases such as bronchial asthma, heart diseases such as congestive heart failure, Or it can be estimated that it is cerebrovascular disease, such as cerebral hemorrhage. Moreover, when the disappearance of the breathing pattern continues, it can be estimated that the breathing of the person 2 has stopped. And when a person's 2 body movement appears frequently instead of a breathing pattern in a short time, the situation where the person 2 suffers for some reason and is rampant can be estimated.
[0039]
In addition, the detection of the body movement of the person 2 can be easily detected because it fluctuates much more than when only respiration is detected from the height change. For this reason, the state detection unit 25 determines whether the person 2 is moving on the spot such as turning over or is moving up, such as getting up from the bed, depending on the position of the person 2 detected by the position detection unit 23. It can also be detected. Further, even when the person 2 makes periodic and small movements such as convulsions, an abnormality can be detected from the waveform pattern. In such a case, the waveform pattern in a state of further convulsions can be stored in the storage unit 31 and compared with the pattern to detect that the person 2 is convulsed.
[0040]
An example of normal and abnormal breathing patterns will be described with reference to FIG. The normal breathing pattern is a periodic pattern as shown in FIG. However, in the case of an adult, the normal range for the respiratory rate per minute is about 10 to 20 times. Abnormal breathing patterns occur, for example, when there is a physiological disorder in the body, such as Cheyne-Stokes breathing, central hyperventilation, ataxic breathing, or Kussmul's breathing. It is a breathing pattern that is considered.
[0041]
FIG. 5B shows a respiratory pattern of Cheyne-Stokes breathing, FIG. 5C shows a respiratory pattern of central hyperventilation, and FIG. 5D shows a respiratory pattern of ataxic breathing.
Further, FIG. 6 shows a disease name or a disease location when the above abnormal breathing pattern occurs.
[0042]
The state detection unit 25 determines whether the breathing pattern of the person 2 belongs to the breathing pattern of the person 2 by using the difference in the breathing frequency, the number of appearances, and the depth of each breathing pattern. Should be detected. The breathing pattern as described above may be stored in the storage unit 31. By doing in this way, by comparing with these patterns, it can be easily detected whether or not the breathing of the person 2 is normal.
[0043]
Furthermore, the state detection unit 25 indicates that the breathing of the person 2 is physiologically impaired in the body. Case When it is determined that the person 2 belongs to a breathing pattern that is considered to occur, the person 2 detects that the person 2 is breathing abnormally and is in a dangerous state. Physiologically damaged in the body Case The breathing pattern that is considered to occur in FIG. 5 is, for example, the breathing pattern described in FIG. The state of the person 2 detected in this way is output to the output device 36 and the alarm device 38 by the control unit 21, for example. The output contents include the detected respiratory rate (cycle) of the person 2 and the frequency of movement, the name of an abnormal breathing pattern, a disease name that is considered to cause the breathing, a diseased organ, a diseased part, and the like.
[0044]
Furthermore, the arithmetic unit 20 includes an alarm device 38 that issues an alarm. The alarm device 38 is configured to issue an alarm by inputting an alarm signal. The alarm device 38 falls when, for example, the fall prediction unit 24 predicts the fall of the person 2, when the fall is detected, or when the state detection unit 25 detects that the person 2 is in a dangerous state. It may be configured to issue an alarm when an abnormality such as a failure occurs in the prediction device 1. Further, the alarm device 38 is configured to issue different types of alarms according to the input alarm signal. Specifically, for example, a different alarm is set for each type of input alarm signal. Thereby, the user (administrator) of the apparatus can recognize that the fall of the person 2, for example, is predicted by the issued alarm. By doing so, it is possible to respond quickly to an abnormality, and thus reliability can be improved. In addition, the arithmetic unit 20 may be configured to notify the occurrence of an alarm to the outside via the interface 37 when the alarm device 38 is activated. In this figure, the alarm device 38 is illustrated as being externally attached, but may be provided internally.
[0045]
The arithmetic unit 20 is provided with an interface 37 for communicating with the outside. The interface 37 is configured to notify the outside when an alarm is issued by the alarm device 38, for example. The notification is based on, for example, the intensity of light including voice, characters, symbols, and indoor lighting, or vibration. The interface 37 has a function of connecting to a communication line such as a general telephone line, an ISDN line, a PHS line, or a mobile phone line. That is, for example, when the fall prediction device 1 is installed in a private house, it is possible to report to a medical facility such as a hospital by using the communication line. By doing so, for example, even if the place where the fall prediction device 1 is installed is far away, it is effective because it is possible to easily report that an alarm has been issued by using the communication line. . Further, the control unit 21 may be provided with a voice output function, and may report, for example, a warning or the state of the person 2 to the third party via the interface 37 by voice.
[0046]
Here, the three-dimensional sensor 10 will be described. The three-dimensional sensor 10 can typically acquire three-dimensional information in the target area in a non-contact manner. Hereinafter, an FG sensor used as a three-dimensional sensor in the present embodiment will be described.
[0047]
With reference to the conceptual perspective view of FIG. 7, the FG (fiber grating) sensor 101 used as the three-dimensional sensor 10 suitable for the fall prediction apparatus 1 of this Embodiment is demonstrated. The FG sensor 101 can acquire three-dimensional information of an object (person 2) existing in the target area. That is, the height distribution of the object can be measured. Here, for the sake of description, the target area will be described as the plane 102 and the target object as the object 103.
[0048]
The FG sensor 101 includes a bright spot projection device 110 as a projection unit that projects a plurality of bright spots on a target area, and an imaging device 111 as an imaging unit that captures a pattern 110a formed by the projection of the bright spot projection device 110. And. The pattern 110a is typically a plurality of bright spots arranged in a square lattice pattern. The bright spot has a substantially circular shape including an ellipse.
[0049]
In the figure, an object 103 is placed on the plane 102. Further, the orthogonal coordinate system XYZ is taken so that the XY axis is placed in the plane 102, and the object 103 is placed in the first quadrant of the XY coordinate system. On the other hand, a bright spot projector 110 and an imaging device 111 are arranged above the plane 102 on the Z axis in the drawing. The imaging device 111 images the object 103 on which the pattern 110 a is projected by the bright spot projection device 110.
[0050]
The imaging device 111 includes an imaging lens 111a and an imaging element 115. The image sensor 115 is typically a CCD camera. The imaging lens 111a of the imaging device 111 is typically arranged so that its optical axis coincides with the Z axis. The imaging lens 111a forms an image of the pattern 110a on the plane 102 or the object 103 on the imaging plane 115 ′ (image plane) of the image sensor 115. The imaging plane 115 ′ is typically a plane orthogonal to the Z axis. Further, an xy orthogonal coordinate system is taken in the imaging plane 115 ′ so that the Z axis passes through the origin of the xy coordinate system. The bright spot projection device 110 is arranged at an equal distance from the plane 2 with the imaging lens 111a and away from the imaging lens 111a by a distance d (base line length d) in the negative direction of the Y axis. A pattern 110 a formed by a plurality of bright spots 110 b is projected onto the object 103 and the plane 102 by the bright spot projector 110. Further, the y-axis direction is also the baseline direction of the trigonometric method used for calculating the height described later in FIG.
[0051]
The image sensor 115 is typically a CCD image sensor. In addition to the CCD, a CMOS structure element has recently been actively published and can be used as a matter of course. In particular, some of the elements themselves have inter-frame difference calculation and binarization functions, and it is preferable to use these elements.
[0052]
A control device 114 is connected to the image sensor 115. In other words, the imaging device 111 is connected to the control device 114. The control device 114 controls the entire FG sensor 101. The control device 114 is typically installed separately from the imaging device 111, but may be configured integrally. In this way, the apparatus can be miniaturized. The control device 114 is typically a computer such as a personal computer. In addition, an image processing device 117 that acquires an image of a pattern imaged by the imaging device 111 is incorporated in the control device 114.
[0053]
Further, a height calculation unit 118 that calculates the height of the object 103 as an object by trigonometry based on the pattern image and the reference image captured by the imaging device 111 is incorporated in the control device 114. Here, the reference image and the pattern image are images picked up by, for example, the image pickup device 111, and include information on the positions of the reference image and the pattern image on the image pickup device 115 (or the imaging plane 115 ′). It is a concept. That is, the reference image and the pattern image are images of the pattern 110 a formed by the projection of the bright spot projector 110. Here, the reference image is an image of the pattern 110a when the object 103 does not exist on the plane 102, and the pattern image is an image of the pattern 10a when the object 103 exists on the plane 102. That is, the reference image is an image indicating the standard position of each bright spot 110b of the pattern 110a. The reference image may be stored in the image processing apparatus 117 in advance. Here, for example, the reference image may be stored not in the form of a so-called image but in the form of position information such as coordinates regarding the position of each bright spot 110b. In this way, when detecting the movement amount of the bright spot based on a pattern image and a reference image, which will be described later, for example, it is only necessary to compare the coordinates and direction of the bright spot, so the processing becomes simple.
[0054]
The imaging device 111 may include a filter 111b that attenuates light having a wavelength other than the peripheral portion of the wavelength of the laser light beam L1 generated by the light beam generation unit 105 (see FIG. 10) described later. The filter 111b is typically an optical filter such as an interference filter, and may be disposed on the optical axis of the imaging lens 111a. In this way, the imaging device 111 can reduce the influence of disturbance light because the light intensity of the pattern 110a projected from the bright spot projection device 110 among the light received by the imaging device 115 is relatively increased. The laser beam L1 generated by the beam generator 105 is typically an infrared laser beam. Further, the laser beam L1 may be irradiated continuously or intermittently. When irradiating intermittently, imaging by the imaging device 111 is performed in synchronization with the timing of irradiation.
[0055]
Further, the FG sensor 101 may be configured to perform modulation in order to distinguish it from disturbance light when the imaging device 111 captures the pattern 110a. The modulation is, for example, an operation in which light emission (irradiation) stop of the laser beam L1 by the beam generation unit 105 is periodically repeated. In this case, the light emission of the laser beam L1 may be stopped, for example, by stopping the light emission of the light source or by rotating the light shielding plate or the slit. In this case, the influence of disturbance light can be remarkably reduced by taking out a light reception signal synchronized with this modulation. Further, in addition to the above-mentioned modulation, the output of the laser beam L1 may be changed depending on the intensity of disturbance light. The image processing apparatus 117 may generate a signal obtained by subtracting the light reception signal when the laser light beam L1 is not irradiated from the light reception signal when the laser light beam L1 is irradiated. Thereby, the influence of disturbance light can be reduced. Further, the FG sensor 101 may be configured to perform a modulation operation a plurality of times and obtain an average output signal as acquired data, that is, a pattern image, in order to ensure reliability.
[0056]
Here, the operation of the FG sensor 101 will be described with reference to FIG. First, the concept of measuring the height of the object 103 will be described. The pattern 110 a projected onto the plane 102 by the bright spot projection device 110 is blocked by the object 103 and does not reach the plane 102 in a portion where the object 103 exists. Here, if the object 103 exists, the bright spot 110 b to be projected onto the point 102 a on the plane 102 is projected onto the point 103 a on the object 103. Since the bright spot 110b has moved from the point 102a to the point 103a and the imaging lens 111a and the bright spot projector 110 are separated by a distance d (base length d), on the imaging plane 115 ′, The point to be imaged at the point 102a ′ (x, y) is imaged at the point 103a ′ (x, y + δ). That is, when the object 103 does not exist and when the object 103 exists, the image of the bright spot 110b moves by a distance δ in the y-axis direction.
[0057]
For example, as shown in FIG. 8, the image of the bright spot 110b imaged on the imaging surface 115 ′ of the image sensor 115 is moved in the y-axis direction by δ by the object 103 having a height. .
[0058]
The FG sensor 101 can specify the position of the point 103a on the object 103 three-dimensionally by measuring this δ. That is, the height of the point 103a is known. In this way, by measuring the difference between a point that should be imaged on the imaging plane 115 ′ if the object 103 is not present and the actual imaging position on the imaging plane 115 ′, The height distribution of the object 103, in other words, a three-dimensional shape can be measured. Alternatively, the three-dimensional coordinates of the object 103 can be measured. Further, if the pitch of the pattern 110a, that is, the pitch of the bright spot 110b is made fine enough that the correspondence between the bright spots 110b is not unknown, the height distribution of the object 103 can be measured in detail.
[0059]
Here, the height calculation by the height calculation unit 118 will be described. The height calculation unit 118 reads the pattern image and the reference image, and measures the movement amount δ of the image of the bright spot 110b. To measure the movement amount δ, first, a difference image between a pattern image and a reference image is created. Then, the movement amount δ of the position of the corresponding bright spot image is measured from the difference image. The amount of movement δ can be obtained by, for example, counting the number of pixels (the number of pixels moved) where the position of the image of the bright spot 110b has moved. In the above description, the difference image is created. However, the reference image is stored in the form of the position information of each bright spot 110b, and the position information of each bright spot 110b of the pattern image and the reference image are stored. The amount of movement δ may be measured by comparing the position information of the bright spot 110b. In this way, the process can be simplified because it is not necessary to generate a difference image. The height calculator 118 calculates the height of the object 3 by trigonometry based on the movement amount δ. The calculation of the height of the object 103 by trigonometry will be described with reference to FIG.
[0060]
FIG. 9 is a side view of the relationship between the imaging device 111, the bright spot projection device 110, the object 103, and the plane 102 in the X-axis direction (see FIG. 7). Here, the case where the height of the object 103 is Z1 will be described. The center of the bright spot projector 110 (the center of the pattern light source) and the center of the imaging lens 111a are arranged in parallel to the plane 102 and separated by a distance d, and the imaging surface 115 ′ (imaging) is separated from the imaging lens 111a. The distance to the element 115) is l (equivalent to the focal point of the imaging lens 111a), the distance from the imaging lens 111a to the plane 102 is h, and the height of the point 103a of the object 103 from the plane 102 is Z1. It is. As a result of placing the object 103 on the plane 102, it is assumed that the point 102a ′ on the imaging plane 115 ′ has moved to the point 103a ′ separated by δ.
[0061]
If the point where the line connecting the center of the imaging lens 111a and the point 103a intersects the plane 102 in the figure is 102a ″, the distance D between the point 102a and the point 102a ″ is the triangle 103a′-102a′-111a. If attention is paid to the triangle 102a ″ −102a−111a, D = δ · h / l, and if attention is paid to the triangle 111a−110−103a and the triangle 102a ″ −102a−103a, D = (d · Z1) / (H-Z1). When Z1 is obtained from both equations, the following equation is obtained.
Z1 = (h 2 .Delta.) / (D.l + h.delta) (1)
As described above, the height of the object 103 can be calculated.
[0062]
Furthermore, the height of the object 103 calculated by the height calculation unit 118 may be a moving average value or a period average value of a height calculated a certain number of times in the past or calculated within a certain period in the past. In this way, random noise and sudden noise caused by sunlight flickering from a window can be reduced, and the reliability of the calculated height of the object 103 is improved.
[0063]
As described above, the FG sensor 101 captures the pattern 110a formed by the projection of the bright spot projection device 110 in the target region by the imaging device 111, and triangulation based on the captured pattern image and the reference image. Thus, the height of the object is calculated by the height calculation unit 118, so that the height of the object can be measured. Further, since the FG sensor 101 can measure the height of the target at a plurality of points in the target area, it can measure the distribution of the height of the target. Further, by measuring the height distribution at, for example, a constant time interval, it is possible to measure the temporal change of the height distribution.
[0064]
Further, a bright spot projector 110 suitable for the FG sensor 101 will be described with reference to a schematic perspective view of FIG. The bright spot projection device 110 includes a light beam generation unit 105 as a light beam generation unit that generates a coherent light beam, and a fiber grating 120 (hereinafter simply referred to as a grating 120). The coherent beam is typically an infrared laser. The light beam generation unit 105 is configured to generate a parallel light beam. The light flux generation unit 105 is typically a semiconductor laser device including a collimator lens (not shown), and the generated parallel light flux is a laser light flux L1. The laser light beam L1 is a light beam having a substantially circular cross section. Here, the parallel light flux only needs to be substantially parallel, and includes a nearly parallel light flux.
[0065]
Here, the description will be given of the case where the grating 120 is arranged in parallel to the plane 102 (perpendicular to the Z axis). Laser light L1 is incident on the grating 120 in the Z-axis direction. Then, the laser beam L1 is condensed in a plane having the lens effect by each optical fiber 121, and then spreads as a diverging wave, interferes, and the pattern 110a is projected onto the plane 102 which is a projection plane. The Note that the arrangement of the grating 120 in parallel with the plane 102 means, for example, that the plane including the axis of each optical fiber 121 of the FG element 122 constituting the grating 120 and the plane 102 are parallel.
[0066]
The grating 120 includes two FG elements 122. In the present embodiment, the planes of the FG elements 122 are parallel to each other. Hereinafter, the plane of each FG element 122 is referred to as an element plane. In the present embodiment, the axes of the optical fibers 121 of the two FG elements 122 are substantially orthogonal to each other.
[0067]
The FG element 122 is configured by arranging, for example, several tens to several hundreds of optical fibers 121 having a diameter of several tens of microns and a length of about 10 mm in parallel in a sheet shape. Further, the two FG elements 122 may be arranged in contact with each other, or may be arranged at a distance from each other in the normal direction of the element plane. In this case, the distance between the two FG elements 122 is set so as not to interfere with the projection of the pattern 110a. The laser beam L1 is typically incident perpendicular to the element plane of the grating 110.
[0068]
As described above, since the grating 120 including the two FG elements 122 serves as an optical system, the bright spot projector 110 can reduce the size of the optical housing without requiring a complicated optical system. . Further, by using the grating 120, the bright spot projector 110 can project a plurality of bright spots 110b on the plane 102 as a pattern 110a with a simple configuration.
[0069]
In the above description, the pattern is described as a plurality of bright spots, but may be a plurality of bright lines. That is, the height of the object may be measured using a light cutting method. In this case, instead of the bright spot projection device 110, a bright line projection device 210 as a projection means for projecting bright lines is provided in the target area. The number of bright lines projected by the bright line projector 210 is typically plural, but may be one. Hereinafter, a case where there are a plurality of bright lines will be described. Hereinafter, the case where the optical cutting method is used for the FG sensor 101 will be described as the FG sensor 101 ′.
[0070]
The FG sensor 101 ′ will be described with reference to the schematic conceptual diagram of FIG. The bright line projection device 210 projects a plurality of bright lines 210b on the plane 102 in parallel. The imaging device 111 images the object 103 and the plane 102 on which the pattern 210 a is projected by the bright line projection device 210. A plurality of bright lines 210b are projected at equal intervals. The plurality of bright lines 210b forms a pattern 210a. Further, the direction of the bright line 210b and the base line direction of the trigonometric method are substantially perpendicular. That is, the direction of the bright line 210b is perpendicular to the y axis. In addition, although there are a plurality of bright lines here, there may be one. In this case, the FG sensor 101 ′ can be configured more simply.
[0071]
Here, the concept of measuring the height of the object 103 using the light cutting method will be described. The pattern 210 a projected onto the plane 102 by the bright line projection device 210 is blocked by the object 103 and does not reach the plane 102 in a portion where the object 103 exists. If the object 103 does not exist here, the bright line to be projected to the point 102 a on the plane 102 is projected to the point 103 a on the object 103. Since the bright line has moved from the point 102a to the point 103a and the imaging lens 111a and the bright line projection device 210 are separated from each other by a distance d (base line length d), the point 102a ′ is formed on the imaging plane 115 ′. An image to be imaged at (x, y) is imaged at a point 103a ′ (x, y + δ). That is, the bright point moves by a distance δ in the y-axis direction between the time when the object 103 does not exist and the time when the object 103 exists.
[0072]
For example, as shown in FIG. 12, the image of the bright line 210 b formed on the imaging plane 115 ′ of the image sensor 115 moves in the y-axis direction by δ by the object 103 having a height. Similar to the FG sensor 101, by measuring this δ, the position of the point 103a on the object 103 can be specified three-dimensionally. That is, the height of the point 103a is known. Further, if the pitch of the pattern 210a, that is, the pitch of the bright line 210b is made fine enough that the correspondence relationship of the bright line 210b is not unknown, the height distribution of the object 103 can be measured in detail. Further, the calculation of the height by the height calculation unit 118 is the same as the description of FIG.
[0073]
As described above, the FG sensor 101 ′ can measure the movement of an arbitrary point of the bright line as compared to the case where the pattern is a bright spot by measuring the movement of the bright line by setting the pattern as a plurality of bright lines, The continuous shape in the bright line direction can be recognized. In other words, the measurement resolution in the X-axis direction in the drawing can be improved.
[0074]
With reference to the schematic perspective view of FIG. 13, a bright line projection apparatus 210 suitable for the FG sensor 101 ′ will be described. The bright line projection apparatus 210 includes the light beam generation unit 105 described above with reference to FIG. 10 and a fiber grating 220 (hereinafter simply referred to as the grating 220).
[0075]
Here, the case where the grating 220 is arranged parallel to the plane 102 (perpendicular to the Z axis) will be described. Laser light L1 is incident on the grating 220 in the Z-axis direction. Then, the laser light L1 is collected in a plane having the lens effect by each optical fiber, then spreads as a diverging wave, interferes, and the pattern 210a is projected onto the plane 102 which is the projection plane. . Note that the arrangement of the grating 220 parallel to the plane 102 means, for example, that the plane including the axis of each optical fiber 221 of the first FG element 222 constituting the grating 220 and the plane 102 are parallel, as will be described later with reference to FIG. It is arranged so that it becomes.
[0076]
The grating 220 will be described with reference to the schematic diagram of FIG. (A) is a perspective view, (b) is a front view. The grating 220 includes a plurality of optical fibers 221, a first fiber grating element 222 (hereinafter referred to as a first FG element 222) in which the axes of the optical fibers 221 are arranged in parallel and in a plane toward the first direction v1, and a plurality of optical fibers 221. A second fiber grating element 223 (hereinafter referred to as a second FG element 223) in which the optical fibers 221 are arranged in parallel and in a plane with the axis of each optical fiber 221 in a second direction v2 different from the first direction v1; A third fiber grating element 224 (hereinafter referred to as a third FG) in which the optical fibers 221 are arranged in parallel and in a plane in the third direction v3 different from the first direction v1 and the second direction v2 with the axes of the optical fibers 221 being arranged in parallel. Element 224). In the present embodiment, the planes of the FG elements 222, 223, and 224 are parallel to each other. Here, in order to identify each FG element, it calls a 1st FG element, a 2nd FG element, and a 3rd FG element. In the present embodiment, the first FG element, the second FG element, and the third FG element are overlaid in this order. However, other orders, for example, the first FG element, the third FG element, and the second FG element may be overlapped in this order. Hereinafter, the plane of each FG element 222, 223, 224 is referred to as an element plane.
[0077]
The first FG element 222, the second FG element 223, and the third FG element 224 are similar to the FG element 122 described above. In the figure, the FG elements 222, 223, and 224 are arranged in contact with each other, but may be arranged with a distance in the normal direction of the element plane. In this case, the distance between the FG elements 222, 223, and 224 is set so as not to interfere with the projection of the pattern 210a.
[0078]
The first FG element 222, the second FG element 223, and the third FG element 224 are overlapped to constitute the grating 220. Note that the superposition is performed so that the element planes of the FG elements 222, 223, and 224 are substantially parallel to each other. In other words, in the present embodiment, the grating 220 is superposed in the order of the first FG element 222, the second FG element 223, and the third FG element 224 so that the respective element planes are parallel. The grating 220 is configured to transmit the laser light beam L1 generated by the light beam generation unit 105. Here, the laser beam L1 is transmitted through the first FG element 222, the second FG element 223, and the third FG element 224 in this order. The laser beam L1 is typically incident perpendicular to the element plane of the grating 220 (first FG element 222).
[0079]
Furthermore, as shown in FIG. 14B, in the present embodiment, the first direction v1 and the second direction v2 are substantially orthogonal. Further, the third FG element 224 is overlapped by rotating the third direction v3 in a plane parallel to the element plane by a predetermined angle θ from the first direction v1. The predetermined angle θ will be described later with reference to FIG.
[0080]
Here, the predetermined angle θ will be described with reference to FIG. First, a description will be given of a change in the bright spot by giving a predetermined angle θ. In (a), as shown in (b), the case where the predetermined angle θ is θ1 will be described. (A) is a diagram showing a part of a pattern 210a ′ projected when the laser beam L1 is transmitted from the back side to the front side in the drawing of (b). In the drawing, for reference, θ1 is shown at about 10 °. First, attention is paid to the bright spots 251, 252, 253, 254, and 255 that are part of the pattern 210 a ′ projected when the predetermined angle θ is 0 °. When the predetermined angle θ1 is given to the third FG element 224, each of the bright spots is diffracted in the direction of the straight line 251a ′ forming the angle θ1 with respect to the straight line 251a that is the generation direction of each bright spot. Project bright spots. Further, if attention is paid to the bright spot 251, the bright spot 251 diffracts in the direction of the straight line 251 a ′ to project a new bright spot 251 ′.
[0081]
As a result, the diffraction direction of the bright spot changes depending on the predetermined angle θ. Depending on θ, for example, a plurality of bright line rows (hereinafter simply referred to as a plurality of bright lines) that are parallel and arranged at equal intervals, or a dense bright spot The array can be projected. In other words, by adjusting the predetermined angle θ to the third FG element 224, a plurality of bright lines can be easily projected.
[0082]
With reference to the schematic diagram of FIG. 16, an example in which a predetermined angle θ is adjusted to make a pattern a plurality of bright lines will be described. A bright line is formed by a plurality of bright spots gathering linearly. In addition, since the FG element has a diffraction efficiency that is nearly constant over low-order to high-order diffracted light, and the bright line is formed by a collection of a plurality of bright spots, the brightness of the central part of the bright line is high. However, even if it goes from the center to the edge of the bright line, it hardly changes. That is, bright lines with uniform brightness can be projected. In the case of a plurality of bright lines, the predetermined angle θ is 0.1 to 10 °, preferably 1 to 8 °, and most preferably about 5 °. Further, when θ = 85 °, a plurality of similar bright lines are obtained. However, in this case, the projected pattern is a pattern obtained by rotating (b) by 90 °.
[0083]
As described above, the bright line projection device 210 can project a plurality of bright line patterns 210a by transmitting the laser light beam L1 through the first FG element 222, the second FG element 223, and the third FG element 224. Can be configured. In addition, the bright line projection apparatus 210 requires a complicated optical system because the grating 220 including the first FG element 222, the second FG element 223, and the third FG element 224 that are superimposed is an optical system. The optical housing can be reduced in size without doing so. Furthermore, since it is configured in this way, a plurality of bright lines can be projected onto the plane 102 as a pattern 210a. Furthermore, since the bright lines are formed by a set of bright spots, a plurality of bright lines with uniform brightness can be projected. For this reason, there is an advantage in measuring the movement of the bright line as in the present embodiment.
[0084]
The bright line projection apparatus has been described in the case of the bright line projection apparatus 210 described above, but is not limited thereto. For example, the bright line projection apparatus is configured to project a plurality of bright lines as the pattern 210a using a cylindrical lens, a slit, or the like. Also good.
[0085]
FIG. 17 shows a bright line projector 310 as another example of the bright line projector. The bright line projector 310 has an optical element 311 formed of optical glass. The optical element 311 has a convex 311a portion having a substantially triangular cross section on the incident side of the light beam, and a cylindrical surface 311b formed at the front end portion of the convex portion 311a on the incident side of the light beam. The optical element 311 is typically a Powell lens disclosed in US Pat. No. 4,826,299. A luminous flux can be projected onto the target region by causing the laser beam L1 ′ having a diameter smaller than the radius of curvature of the cylindrical surface 311b to be incident on the cylindrical surface 311b of the optical element 311. Furthermore, a plurality of bright lines can be projected by disposing a diffraction element, for example, the above-described FG element on the target region side of the optical element 311. The bright line projection apparatus 310 can project a plurality of bright lines with uniform brightness by using such an optical element 311.
[0086]
Further, as shown in the schematic diagram of FIG. 18, the FG sensor 101 ′ scans the target area in the y-axis direction in the drawing at a sufficiently high speed compared to the movement of the target object. A plurality of pattern images projected at different positions may be captured. In this case, the bright line generating means is a bright line projector 210 ′ capable of scanning the projected bright line in a specific direction of the target area. In this case, a pattern image that is an image of the above-described pattern 210a (see FIG. 11) may be obtained by combining a plurality of pattern images thus captured. In other words, as shown in (b), by combining the bright line pattern images projected at different positions, the same pattern image as the pattern image of the target area onto which the plurality of bright lines, that is, the pattern 210a is projected, is generated. May be. More specifically, as shown in the figure, for example, pattern images acquired at times t1, t2, t3, and t4 are combined to generate a pattern image of a target region on which a plurality of bright lines are projected. That is, the number of times that the pattern image is acquired while the bright line is scanning in the target area is the number of bright line images on the combined pattern image. Note that the number of bright lines to be scanned is typically one.
[0087]
Here, an installation example of the FG sensor 101 will be described with reference to a schematic external view of FIG. The bright spot projection device 110 and the imaging device 111 are arranged above the bed 3. In the figure, the bright spot projection device 110 is disposed approximately above the head of the person 2, and the imaging device 111 is disposed approximately above the center of the bed 3. The bright spot projector 110 projects a pattern 110a on the bed 3. The angle of view of the imaging device 111 is set so that the entire bed 3 can be imaged. The control device 114 may be incorporated in the control unit 21 described with reference to FIG. By doing in this way, the structure of the fall prediction apparatus 1 can be simplified.
[0088]
In addition, the bright spot projector 110 is typically installed with its optical axis (projection direction of the laser beam) tilted with respect to the vertical direction of the target area as shown in the figure. In this way, the pattern 110a can be easily projected over a wide range. Further, for example, it is possible to easily install the imaging device 111 and the bright spot projection device 110 at a distance. In addition, the imaging device 111 is installed with the optical axis approximately parallel to the vertical direction of the target region. Here, as described above, the bright spot projector 110 is installed with its optical axis inclined with respect to the vertical direction of the target area, but may be installed in a direction substantially parallel to the vertical direction. . In other words, the optical axis may be installed in a direction approximately parallel to the optical axis of the imaging device 111.
[0089]
Furthermore, the imaging device 111 and the bright spot projection device 110 are installed so that the axis (baseline direction) connecting the imaging device 111 and the bright spot projection device 110 and the center line of the bed 3 are approximately parallel. Further, the imaging device 111 and the bright spot projection device 110 may be installed with a certain distance. By doing so, the distance d (baseline length d) described above with reference to FIG. 7 is increased, so that changes can be detected sensitively. The imaging device 111 and the bright spot projection device 110 may be installed by being attached to a stand, for example. This facilitates the installation of the FG sensor 101 (particularly, the imaging device 111 and the bright spot projection device 110). For example, the FG sensor 101 can be installed at a necessary place when necessary in a hospital or the like. The imaging device 111 and the bright spot projection device 110 may be attached to the ceiling. In this way, it is possible to easily fix the imaging device 111 and the bright spot projection device 110 more reliably. Although the FG sensor 101 has been described here, the FG sensor 101 ′ may be installed in the same manner.
[0090]
By using the FG sensor 101 as the three-dimensional sensor 10 as described above, the three-dimensional information in the target region can be accurately acquired. The three-dimensional sensor 10 is not limited to the FG sensor 101 described above, and may be anything that can acquire three-dimensional information of the target region. For example, a sensor using a moire, a sensor using a stereo camera, and a plurality of distance sensors A sensor using may be used.
[0091]
A sensor using moire can acquire three-dimensional information by, for example, imaging a moire fringe formed using two slits. By using moire, the height distribution in the fringe direction can be measured continuously, so that highly accurate three-dimensional information can be acquired. Moire is a rough striped pattern generated by the difference in spatial frequency between two regular intensity distributions. There is a moire of the sum caused by the sum of two intensity distributions and a moire of the product caused by the product. The former can be realized by a double-exposed photograph of the two regular distributions, and the latter records each regular distribution. Just look at the transparent images. Further, by using the information on the phase of the moire fringes, the movement of the person 2 can be detected with high accuracy.
[0092]
In addition, a sensor using a stereo camera acquires a stereo image by, for example, two CCD cameras, and searches for corresponding points on the stereo image. region Can be measured by trigonometry. That is, the three-dimensional information of the target area can be acquired. Since three-dimensional information is acquired based on a two-dimensional image, it is highly accurate.
[0093]
Furthermore, a sensor using a plurality of distance sensors can acquire three-dimensional information by installing a plurality of distance sensors corresponding to necessary measurement points and measuring the distances of the plurality of measurement points in the target region. it can. By using the distance sensor, three-dimensional information can be accurately acquired with little influence of ambient light. Further, since there is no need for image processing, a simple configuration can be achieved. The distance sensor to be used may basically be anything. For example, a trigonometric type such as an infrared sensor or an ultrasonic sensor may be used. (flight) type (measuring the distance by measuring the time when light is emitted and returning).
[0094]
As described above, the fall prediction device 1 according to the present embodiment can accurately predict the fall of the person 2 from the bed 3, so that, for example, it is possible to quickly know that an infant or an elderly person is likely to fall from the bed 3. Accidents caused by falling can be prevented. Further, since it is possible to detect that the person 2 has fallen, it is possible to respond quickly even if the person 2 has fallen. Moreover, since the fall prediction apparatus 1 can detect the respiration of the person 2, when an elderly person or a sick person falls into a critical situation, it becomes possible to realize a quick emergency response.
[0095]
In the above description, the target area is described as being on the bed 3, that is, having a height higher than the periphery, but may be the same height as the periphery. In other words, for example, the inside of a fence placed on the floor may be set as the target area. In such a case, since the area monitoring device can detect a movement to get over the fence, it can be used to monitor an infant in a place surrounded by the fence, for example. The area monitoring device can also detect, for example, a movement of an animal over a fence to escape, so that it can be used in a zoo, for example. Furthermore, in the above description, the case where the fence is provided in the target area having a height higher than the bed, that is, the surrounding area is described, but the fence may not be provided. For example, in a normal case, before the person falls from the bed, a large change in height such as getting up at the peripheral edge of the bed is detected, so that the fall of the person can be predicted. In other words, it is possible to detect a movement of the object going out of the target area.
[0096]
【The invention's effect】
As described above, according to the present invention, a three-dimensional sensor that acquires three-dimensional information in a target area and a height that detects a change in height in the target area based on the acquired three-dimensional information. Change detection means, position detection means for detecting the position of the object based on the detected height change, and motion monitoring means for monitoring the movement of the object to go out of the target area And when the detected position of the target object is a specific area within the target area, and the change in the height of the target object is equal to or greater than a predetermined amount. In addition, since it is configured to detect the movement of going out of the target area, it is possible not only to detect the movement of the target going out of the target area, but also to provide a simple area monitoring device.
[Brief description of the drawings]
FIG. 1 is a schematic external view of a fall prediction apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of a fall prediction apparatus according to an embodiment of the present invention.
FIG. 3 is a schematic plan view for explaining a specific area on the bed in the case of FIG. 1;
FIG. 4 is a schematic diagram showing a respiratory waveform pattern used in the embodiment of the present invention.
FIG. 5 is a schematic diagram showing waveform patterns of normal and abnormal breathing in the case of FIG. 4;
6 is a diagram showing a table of disease names or disease locations corresponding to abnormal respiration waveform patterns in the case of FIG. 5;
FIG. 7 is a conceptual perspective view of an FG sensor according to an embodiment of the present invention.
8 is a schematic diagram for explaining an image of a pattern formed on an image forming surface in the case of FIG. 7; FIG.
FIG. 9 is a diagram for explaining calculation of the height of an object in the case of FIG.
10 is a schematic perspective view for explaining the bright spot projector in the case of FIG. 7. FIG.
FIG. 11 is a conceptual perspective view of an FG sensor using an optical cutting method according to an embodiment of the present invention.
12 is a diagram illustrating an image of a pattern in the case of FIG.
13 is a schematic perspective view for explaining the bright line projection apparatus in the case of FIG. 11. FIG.
14A is a perspective view, and FIG. 14B is a front view for explaining a grating in the case of FIG.
15A is a schematic diagram of a pattern, and FIG. 15B is a front view of the grating for explaining a pattern projected by the grating of FIG. 14; FIG.
16 is a schematic plan view showing a pattern projected by the grating of FIG.
FIG. 17 is a schematic perspective view showing another embodiment of the bright line projection apparatus in the case of FIG. 11;
18 is a diagram showing still another form of the bright line projector in the case of FIG. 11, (a) a schematic perspective view of an FG sensor, and (b) a schematic diagram for explaining a combination of pattern images.
FIG. 19 is a schematic external view showing an example in which an FG sensor according to an embodiment of the present invention is installed.
[Explanation of symbols]
1 Fall prediction device
2 people
3 beds
4 Bedding
6 fence
10 3D sensor
20 arithmetic unit
21 Control unit
22 Height change detector
23 Position detector
24 Fall prediction unit
25 State detector
31 Memory unit
38 Alarm system
101 FG sensor
101 'FG sensor (using optical cutting method)
102 plane
103 objects
105 Light flux generator
110 Bright spot projector
110a pattern
110b Bright spot
111 Imaging device
114 Control device
115 Image sensor
117 Image processing apparatus
118 Height calculator
120 grating
121 optical fiber
122 FG element
210 Bright line projector
210a pattern
210b Bright line
220 grating
221 optical fiber
222 1st FG element
223 second FG element
224 3rd FG element

Claims (4)

対象領域内の3次元情報を取得する3次元センサと;
前記取得した3次元情報に基づいて、前記対象領域内の対象物の高さの変化を検出する高さ変化検出手段と;
前記対象領域内の前記高さの変化があった領域を検出することにより、前記対象物の位置を検出する位置検出手段と;
前記対象物が前記対象領域の外へ出ようとする動きを監視する動き監視手段とを備え;
前記動き監視手段は、前記位置検出手段によって検出された前記対象物の位置が前記対象領域内の特定の領域に存在し、かつ、前記高さ変化検出手段によって検出された前記対象物の高さの変化が所定量以上であるときに、前記対象物が前記対象領域の外へ出ようとする動きと判断するように構成され
さらに前記動き監視手段は、前記対象物の移動を検出できるように構成され、前記対象物の位置が前記特定の領域にあり、その位置に至る直前の前記対象物の移動速度が所定の閾値を超えているときに、前記対象領域の外へ出ようとする動きを検出するように構成された;
領域監視装置。
A three-dimensional sensor for acquiring three-dimensional information in the target area;
Height change detection means for detecting a change in the height of the object in the target area based on the acquired three-dimensional information;
Position detecting means for detecting the position of the object by detecting an area in the object area where the height has changed;
Movement monitoring means for monitoring movement of the object going out of the target area;
The motion monitoring means includes a position of the object detected by the position detecting means in a specific area within the target area, and a height of the object detected by the height change detecting means. The object is determined to be a movement to go out of the target area when the change is equal to or greater than a predetermined amount ;
Further, the movement monitoring means is configured to detect the movement of the object, the position of the object is in the specific area, and the moving speed of the object immediately before reaching the position has a predetermined threshold value. Configured to detect a movement to go out of the target area when exceeded;
Area monitoring device.
前記動き監視手段は、前記対象物の高さの変化が所定量以上であって、さらに前記所定量以上の高さの変化の領域が所定の面積以上であるときに前記対象領域の外へ出ようとする動きを検出するように構成された;
請求項1に記載の領域監視装置。
The movement monitoring means goes out of the target area when the change in the height of the object is a predetermined amount or more and the area of the height change of the predetermined amount or more is a predetermined area or more. Configured to detect movement to be attempted;
The region monitoring apparatus according to claim 1.
前記位置検出手段は、前記検出された高さ変化に基づいて、前記対象物の存在する存在領域を判定し、前記判定された存在領域を含む領域であって、前記存在領域を所定の範囲だけ拡大した領域を算出し、前記拡大された領域を優先して、前記対象物の位置の検出を行なうように構成された;
請求項1又は請求項2に記載の領域監視装置。
The position detecting means determines an existing area where the object exists based on the detected height change, and includes an area including the determined existing area, and the existing area is limited to a predetermined range. An enlarged area is calculated, and the position of the object is detected in preference to the enlarged area;
The area monitoring apparatus according to claim 1 or 2 .
前記3次元センサは、前記対象領域に、輝線又は、複数の輝点を投影する投影手段と;
前記投影により形成されたパターンを撮像する撮像手段と;
前記撮像されたパターン像と参照像とに基づいて三角法により前記対象物の高さを演算する高さ演算部とを備える;
請求項1乃至請求項のいずれか1項に記載の領域監視装置。
The three-dimensional sensor includes a projection unit that projects a bright line or a plurality of bright spots on the target region;
Imaging means for imaging a pattern formed by the projection;
A height calculator that calculates the height of the object by trigonometry based on the captured pattern image and reference image;
Area monitoring device according to any one of claims 1 to 3.
JP2002255394A 2002-08-30 2002-08-30 Area monitoring device Expired - Lifetime JP3939224B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002255394A JP3939224B2 (en) 2002-08-30 2002-08-30 Area monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002255394A JP3939224B2 (en) 2002-08-30 2002-08-30 Area monitoring device

Publications (2)

Publication Number Publication Date
JP2004096457A JP2004096457A (en) 2004-03-25
JP3939224B2 true JP3939224B2 (en) 2007-07-04

Family

ID=32060925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002255394A Expired - Lifetime JP3939224B2 (en) 2002-08-30 2002-08-30 Area monitoring device

Country Status (1)

Country Link
JP (1) JP3939224B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3782815B2 (en) * 2004-02-04 2006-06-07 住友大阪セメント株式会社 Respiratory analyzer
JP4492697B2 (en) * 2007-12-28 2010-06-30 カシオ計算機株式会社 Imaging apparatus and program
JP2009230335A (en) * 2008-03-21 2009-10-08 Aisin Seiki Co Ltd Bed fall detection system and bed device
DE102009001565A1 (en) 2009-03-16 2010-09-23 Robert Bosch Gmbh Condition detection device for attachment to a living being
JP5648840B2 (en) * 2009-09-17 2015-01-07 清水建設株式会社 On-bed and indoor watch system
MY159281A (en) * 2010-03-01 2016-12-30 Mimos Berhad A method tracking and analyzing movement
JP5682204B2 (en) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 Safety nursing system and method for controlling safety nursing system
JP5682203B2 (en) 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 Safety nursing system and method for controlling safety nursing system
JP6171415B2 (en) * 2013-03-06 2017-08-02 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program
DE102013017264A1 (en) * 2013-10-17 2015-04-23 Dräger Medical GmbH Method for monitoring a patient within a medical monitoring area
JP6150207B2 (en) * 2014-01-13 2017-06-21 知能技術株式会社 Monitoring system
JP6417670B2 (en) 2014-02-21 2018-11-07 オムロン株式会社 Monitoring device, monitoring system, monitoring method, monitoring program, and computer-readable recording medium recording the monitoring program
US10859676B2 (en) * 2016-09-30 2020-12-08 Magic Leap, Inc. Projector with spatial light modulation
JP6534729B1 (en) * 2017-12-28 2019-06-26 ミネベアミツミ株式会社 In-floor condition monitoring system and bed provided with the same
JP7447467B2 (en) 2019-12-18 2024-03-12 三菱電機株式会社 air conditioner
CN116958909B (en) * 2023-09-20 2023-12-22 山东通广电子股份有限公司 Video monitoring system and monitoring method based on gridding management and control

Also Published As

Publication number Publication date
JP2004096457A (en) 2004-03-25

Similar Documents

Publication Publication Date Title
JP3939224B2 (en) Area monitoring device
JP4058286B2 (en) Monitoring device
US7123758B2 (en) Method and system for monitoring breathing activity of a subject
TWI425431B (en) Surveillance system and program
AU2004245814B2 (en) Condition-analyzing device
US7428468B2 (en) Monitoring apparatus
JP4703049B2 (en) Monitoring device
JP3922694B2 (en) Monitoring device
KR20110105789A (en) Method and apparatus for monitoring an object
JP4576416B2 (en) Monitoring device
JP3979238B2 (en) In-space monitoring device
JP4422580B2 (en) Motion detection device
JP4189229B2 (en) Motion detection device
JP2005253608A (en) Condition analysis apparatus
JP2003225210A (en) Monitoring device
JP2004093376A (en) Height measuring apparatus and monitoring apparatus
JP2004037274A (en) Height measuring apparatus and monitoring device
JP4230287B2 (en) Motion detection device
JP3977172B2 (en) Pattern light projector and measuring device
JP4790148B2 (en) Monitoring system
JP2986403B2 (en) Patient monitoring device in hospital room
JP4372643B2 (en) Motion detection device
JP2005245974A (en) State analyzing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070109

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070327

R150 Certificate of patent or registration of utility model

Ref document number: 3939224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100406

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120406

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140406

Year of fee payment: 7

S201 Request for registration of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314201

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S303 Written request for registration of pledge or change of pledge

Free format text: JAPANESE INTERMEDIATE CODE: R316303

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term