JP4668684B2 - Monitoring device and software program - Google Patents

Monitoring device and software program Download PDF

Info

Publication number
JP4668684B2
JP4668684B2 JP2005148790A JP2005148790A JP4668684B2 JP 4668684 B2 JP4668684 B2 JP 4668684B2 JP 2005148790 A JP2005148790 A JP 2005148790A JP 2005148790 A JP2005148790 A JP 2005148790A JP 4668684 B2 JP4668684 B2 JP 4668684B2
Authority
JP
Japan
Prior art keywords
information
wall surface
alarm
movement
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005148790A
Other languages
Japanese (ja)
Other versions
JP2006325164A (en
Inventor
賢司 清田
安弘 竹村
真人 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Osaka Cement Co Ltd
Keio University
Original Assignee
Sumitomo Osaka Cement Co Ltd
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Osaka Cement Co Ltd, Keio University filed Critical Sumitomo Osaka Cement Co Ltd
Priority to JP2005148790A priority Critical patent/JP4668684B2/en
Publication of JP2006325164A publication Critical patent/JP2006325164A/en
Application granted granted Critical
Publication of JP4668684B2 publication Critical patent/JP4668684B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視装置及びソフトウエアプログラムに関し、特に装置を運用しながら、誤った判断をした際に、同じ誤りを繰り返さずに徐々に監視の条件に適応することのできる監視装置及びソフトウエアプログラムに関するものである。   The present invention relates to a monitoring device and a software program, and more particularly to a monitoring device and a software program capable of gradually adapting to monitoring conditions without repeating the same error when making an erroneous determination while operating the device. It is about.

空間内、例えばトイレや浴室、ベッド等での対象物、例えば人物の動きを検出する動き検出装置として、従来から、動き検出センサが提案されている。代表的な例としては、トイレ等の室内に二次元の格子状パターンに分割されたスポット(輝点)を投影し、投影されたスポットを撮像した画像の各スポットの座標の変化から、前記室内での人物の位置・姿勢状態を監視する装置があった(例えば、特許文献1参照。)。
特開2005−005912号公報 (第3−11頁、第1−12図)
2. Description of the Related Art Conventionally, a motion detection sensor has been proposed as a motion detection device that detects a motion of an object such as a person in a space such as a toilet, a bathroom, or a bed. As a typical example, a spot (bright spot) divided into a two-dimensional grid pattern is projected into a room such as a toilet, and the change in the coordinates of each spot of an image obtained by imaging the projected spot results in the indoor There is an apparatus for monitoring the position / posture state of a person at (see, for example, Patent Document 1).
JP-A-2005-005912 (Page 3-11, Figure 1-12)

しかしながら以上のような従来の装置によれば、例えば、危険な状態であると判別されるべき姿勢について、予め想定されていないような姿勢を取った場合に、誤った判断をする可能性や、監視する空間ごとに危険な姿勢は異なってくる場合があった。このような種々の監視の条件について、予め全ての姿勢を網羅することは不可能であった。   However, according to the conventional apparatus as described above, for example, when a posture that is not assumed in advance is taken with respect to a posture that should be determined to be in a dangerous state, Dangerous postures may vary depending on the space being monitored. Regarding such various monitoring conditions, it was impossible to cover all postures in advance.

そこで本発明は、装置を運用しながら、誤った判断をした際に、同じ誤りを繰り返さずに徐々に監視の条件に適応することのできる監視装置及びソフトウエアプログラムを提供することを目的としている。   Therefore, an object of the present invention is to provide a monitoring device and a software program that can gradually adapt to the monitoring conditions without repeating the same error when making an erroneous determination while operating the device. .

上記目的を達成するために、請求項1に係る発明による監視装置は、例えば図5又は図17に示すように、監視領域3に存在する対象物2を監視する監視装置において;対象物2の形状又は動きに関する情報を得る測定手段14と;測定手段14により得られた対象物2の形状又は動きに関する情報をニューラルネットワークの入力層Sに入力することで出力層Rから得られる出力に基づいて、対象物2の状態を判定する判定手段23と;判定手段23が対象物2が危険な状態であると判定した際に、警報を発する警報手段41と;警報を解除する警報解除手段42とを備え;判定手段23は、警報解除手段42によって警報が解除された際に、入力層Sと出力層Rとを関連付ける重み係数Wを変更する追加学習を行うように構成される。 In order to achieve the above object, a monitoring device according to a first aspect of the present invention is a monitoring device for monitoring an object 2 existing in a monitoring area 3 as shown in FIG. 5 or FIG. Measuring means 14 for obtaining information relating to the shape or movement; and based on the output obtained from the output layer R by inputting information relating to the shape or movement of the object 2 obtained by the measuring means 14 to the input layer S of the neural network. Determining means 23 for determining the state of the object 2; alarm means 41 for issuing an alarm when the determining means 23 determines that the object 2 is in a dangerous state; and an alarm releasing means 42 for releasing the alarm; comprising a; determination means 23, when the alarm by alarm release means 42 is released, configured to perform additional learning for changing the weighting factor W i to associate the input layer S and the output layer R.

このように構成すると、測定手段は、対象物の形状又は動きに関する情報を取得し、判定手段は、当該取得した情報をニューラルネットワークの入力層に入力することで出力層から得られる出力に基づいて、対象物の状態を判定する。さらに、警報手段は、判定手段により対象物が危険な状態であると判定された際に、警報を発する。さらに、判定手段は、警報が警報解除手段によって解除された際に、入力層と出力層とを関連付ける重み係数を変更する追加学習を行うので、装置を運用しながら、誤った判断をした際に、同じ誤りを繰り返さずに徐々に監視の条件に適応することのできる監視装置を提供することができる。   With this configuration, the measurement unit acquires information on the shape or movement of the object, and the determination unit inputs the acquired information to the input layer of the neural network based on the output obtained from the output layer. Determine the state of the object. Further, the alarm means issues an alarm when the determination means determines that the object is in a dangerous state. Furthermore, the determination means performs additional learning to change the weighting coefficient that associates the input layer with the output layer when the alarm is canceled by the alarm cancellation means, so when an erroneous determination is made while operating the device Thus, it is possible to provide a monitoring apparatus that can gradually adapt to the monitoring conditions without repeating the same error.

た、請求項1に記載の監視装置では、例えば図5又は図17に示すように、判定手段23によって判定される対象物2の状態は、対象物2が危険な状態と安全な状態とを含み、判定手段23は、予め設定される測定手段14により得られた対象物2の形状又は動きに関する第1の情報であって、該情報に基づいては対象物2が安全な状態と判定しない第1の情報と、解除された警報が発せられる直前の一定期間の測定手段14により得られた対象物2の形状又は動きに関する第2の情報であって、該情報に基づいて対象物2が危険な状態と判定した第2の情報とを用いて、重み係数Wを変更する追加学習を行うように構成される Also, the monitoring device according to claim 1, for example, as shown in FIG. 5 or FIG. 17, the state of the object 2 to be determined by the determining means 23, a safe condition object 2 and unsafe conditions The determination means 23 is first information regarding the shape or movement of the object 2 obtained by the measurement means 14 set in advance, and the object 2 is determined to be in a safe state based on the information. First information that is not performed, and second information relating to the shape or movement of the object 2 obtained by the measuring means 14 for a certain period immediately before the released alarm is issued, and based on the information, the object 2 by using the second information is determined to hazardous conditions, it is configured to perform additional learning for changing the weighting factor W i.

このように構成すると、判定手段は、予め設定される対象物の形状又は動きに関する第1の情報であって、該情報に基づいては対象物が安全な状態と判定しない第1の情報と、解除された警報が発せられる直前の一定期間の対象物の形状又は動きに関する第2の情報であって、該情報に基づいて対象物が危険な状態と判定した第2の情報とを用いて、重み係数を変更する追加学習を行うので、例えば、誤って危険な状態であると判定してしまった情報を安全な状態であると判定するように修正することができる。さらに、絶対に安全な状態であると判別してはいけない情報まで、安全な状態であると判別してしまうようなことを防止することができる。したがって、より正確な状態の判定を行うことができる。   If comprised in this way, a judgment means is the 1st information about the shape or movement of a preset object, and based on this information, the 1st information which does not judge a target as a safe state, Using the second information related to the shape or movement of the object for a certain period immediately before the released alarm is issued, and based on the second information that the object is determined to be in a dangerous state based on the information, Since additional learning for changing the weighting factor is performed, for example, information that has been erroneously determined to be in a dangerous state can be corrected to be determined to be in a safe state. Furthermore, it is possible to prevent the information that should not be determined to be absolutely safe from being determined to be safe. Therefore, a more accurate state determination can be performed.

また請求項に記載のように、請求項1に記載の監視装置では、例えば図5又は図17に示すように、判定手段23が対象物の状態を判定した際に、当該判定の直前の一定期間の測定手段14により得られた対象物2の形状又は動きに関する情報を一時的に記憶し、警報手段41が警報を発する際には、記憶した情報を保持し続ける記憶手段31を備えるように構成してもよい。 Further, as described in claim 2 , in the monitoring device described in claim 1, when the determination unit 23 determines the state of the object, for example, as shown in FIG. Information regarding the shape or movement of the object 2 obtained by the measuring means 14 for a certain period is temporarily stored, and when the warning means 41 issues a warning, the storage means 31 is maintained so as to keep the stored information. You may comprise.

このように構成すると、記憶手段は、判定手段が対象物の状態を判定した際に、当該判定の直前の一定期間の測定手段により得られた対象物の形状又は動きに関する情報を一時的に記憶する。さらに、警報手段が警報を発する際には、記憶した情報を保持し続けるので、保持し続けた情報を第2の情報として用いることができる。   With this configuration, when the determination unit determines the state of the object, the storage unit temporarily stores information on the shape or movement of the object obtained by the measurement unit for a certain period immediately before the determination. To do. Furthermore, since the stored information is continuously held when the warning means issues a warning, the information that has been held can be used as the second information.

また請求項に記載のように、請求項1又は請求項に記載の監視装置では、例えば図5又は図17に示すように、監視領域3にパターンを形成するパターン光を投影する投影装置11と;パターン光が投影された、対象物の存在する監視領域を撮像する撮像装置12とを備え;測定手段14は、撮像された像上のパターンの移動を測定するように構成され、対象物2の形状又は動きに関する情報は、測定されたパターンの移動に関する情報であるように構成してもよい。 Further, as described in claim 3 , in the monitoring device according to claim 1 or 2 , the projection device that projects pattern light for forming a pattern on the monitoring region 3, as shown in FIG. 5 or FIG. 17, for example. 11; and an imaging device 12 that images the monitoring area on which the target object is projected, on which the pattern light is projected; and the measuring means 14 is configured to measure the movement of the pattern on the captured image, and You may comprise so that the information regarding the shape or movement of the thing 2 may be the information regarding the movement of the measured pattern.

このように構成すると、投影装置は、監視領域にパターンを形成するパターン光を投影し、撮像装置は、パターン光が投影された、対象物の存在する監視領域を撮像する。測定手段は、撮像された像上のパターンの移動を測定するので、該測定されたパターンの移動に基づいて、対象物に投影されたパターン光の三次元位置を算出することができ、さらに、該三次元位置に基づいて対象物の形状又は動きに関する情報として測定されたパターンの移動に関する情報を算出することができる。したがって、より正確な対象物の形状又は動きに関する情報を取得することができる。   With this configuration, the projection device projects pattern light that forms a pattern on the monitoring region, and the imaging device images the monitoring region on which the object exists, on which the pattern light is projected. Since the measurement means measures the movement of the pattern on the imaged image, the three-dimensional position of the pattern light projected onto the object can be calculated based on the movement of the measured pattern, Based on the three-dimensional position, information on the movement of the pattern measured as information on the shape or movement of the object can be calculated. Therefore, it is possible to obtain more accurate information on the shape or movement of the object.

上記目的を達成するために、請求項に係る発明によるソフトウエアプログラムは、例えば図5又は図18に示すように、コンピュータにインストールして、該コンピュータを監視装置として作動させるソフトウエアプログラムであって;監視領域3に存在する対象物2を監視する処理において;対象物2の形状又は動きに関する情報を得る処理(S114)と;得られた対象物2の形状又は動きに関する情報をニューラルネットワークの入力層S(例えば、図17参照)に入力することで出力層R(例えば、図17参照)から得られる出力に基づいて、対象物2の状態を判定する処理(S116)と;判定する処理(S116)で対象物2が危険な状態であると判定した際に、警報を発する処理(S124)と;警報を解除する処理(S126)と;警報を解除する処理(S126)によって警報が解除された際に、入力層Sと出力層Rとを関連付ける重み係数Wを変更する追加学習を行う処理(S132)とを実行するようにコンピュータを制御し、判定される対象物2の状態は、対象物2が危険な状態と安全な状態とを含み、追加学習を行う処理(S132)は、予め設定される情報を得る処理(S114)により得られた対象物2の形状又は動きに関する第1の情報であって、該情報に基づいては対象物2が安全な状態と判定しない第1の情報と、解除された警報が発せられる直前の一定期間の情報を得る処理(S114)により得られた対象物2の形状又は動きに関する第2の情報であって、該情報に基づいて対象物2が危険な状態と判定した第2の情報とを用いて、重み係数W を変更するように構成される。 In order to achieve the above object, a software program according to a fourth aspect of the present invention is a software program that is installed in a computer and operates as a monitoring device, for example, as shown in FIG. 5 or FIG. In the process of monitoring the object 2 existing in the monitoring area 3; the process of obtaining information on the shape or movement of the object 2 (S114); and the information on the shape or movement of the obtained object 2 in the neural network Processing for determining the state of the object 2 based on the output obtained from the output layer R (for example, see FIG. 17) by inputting to the input layer S (for example, see FIG. 17) (S116); When it is determined in (S116) that the object 2 is in a dangerous state, a process for issuing an alarm (S124); a process for canceling the alarm (S1) 6); when the alarm is canceled by the processing (S126) for releasing an alarm, and a process for performing additional learning for changing the weighting factor W i to associate the input layer S and the output layer R (S132) The state of the object 2 determined by controlling the computer as described above includes a state in which the object 2 is dangerous and a safe state, and the process of performing additional learning (S132) is a process of obtaining preset information. The first information regarding the shape or movement of the object 2 obtained in (S114), the first information that the object 2 is not determined to be in a safe state based on the information, and the released alarm The second information related to the shape or movement of the object 2 obtained by the process (S114) for obtaining information for a certain period immediately before being emitted, and the object 2 is determined to be in a dangerous state based on the information. With the information of 2 Configured to change only coefficient W i.

このように構成すると、対象物の形状又は動きに関する情報を取得し、当該取得した情報をニューラルネットワークの入力層に入力することで出力層から得られる出力に基づいて、対象物の状態を判定する。さらに、判定する処理により対象物が危険な状態であると判定された際に、警報を発する。さらに、警報が解除された際に、入力層と出力層とを関連付ける重み係数を変更する追加学習を行うので、装置を運用しながら、誤った判断をした際に、同じ誤りを繰り返さずに徐々に監視の条件に適応することのできるソフトウエアプログラムを提供することができる。   If comprised in this way, the information regarding the shape or movement of a target object will be acquired, and the state of a target object will be judged based on the output obtained from an output layer by inputting the acquired information into the input layer of a neural network . Furthermore, an alarm is issued when it is determined that the object is in a dangerous state by the determination process. In addition, when the alarm is released, additional learning is performed to change the weighting coefficient that associates the input layer with the output layer, so that when making an incorrect decision while operating the device, the same error is gradually repeated without repeating. It is possible to provide a software program that can adapt to the monitoring conditions.

以上のように本発明によれば、監視領域に存在する対象物を監視する監視装置において、対象物の形状又は動きに関する情報を得る測定手段と、測定手段により得られた対象物の形状又は動きに関する情報をニューラルネットワークの入力層に入力することで出力層から得られる出力に基づいて、対象物の状態を判定する判定手段と、判定手段が対象物が危険な状態であると判定した際に、警報を発する警報手段と、警報を解除する警報解除手段とを備え、判定手段は、警報解除手段によって警報が解除された際に、入力層と出力層とを関連付ける重み係数を変更する追加学習を行うように構成されるので、装置を運用しながら、誤った判断をした際に、同じ誤りを繰り返さずに徐々に監視の条件に適応することのできる監視装置を提供することができる。   As described above, according to the present invention, in the monitoring device that monitors the object existing in the monitoring region, the measurement unit that obtains information on the shape or movement of the object, and the shape or movement of the object obtained by the measurement unit When the determination means determines that the object is in a dangerous state based on the output obtained from the output layer by inputting information on the input layer of the neural network And an alarm means for issuing an alarm and an alarm canceling means for canceling the alarm, and when the alarm is canceled by the alarm canceling means, the determination means performs additional learning for changing a weighting coefficient for associating the input layer with the output layer. Therefore, when an erroneous determination is made while operating the apparatus, a monitoring apparatus capable of gradually adapting to the monitoring conditions without repeating the same error is provided. Door can be.

以下、本発明の実施の形態について、図面を参照して説明する。なお、各図において互いに同一あるいは相当する部材には同一符号を付し、重複した説明は省略する。また、本実施の形態で用いられる主な数式には、数式(1)から数式(24)までがある。これらの数式については、順次説明していく。また、図19に、数式(1)から数式(24)についてまとめた図を示す。以下の説明では、適宜図19を参照する。   Embodiments of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected to the mutually same or equivalent member, and the overlapping description is abbreviate | omitted. Further, the main mathematical formulas used in the present embodiment include the mathematical formulas (1) to (24). These mathematical expressions will be described sequentially. FIG. 19 is a diagram summarizing the formulas (1) to (24). In the following description, FIG. 19 will be referred to as appropriate.

図1は、本発明の実施の形態に係る監視装置としての室内監視装置1の模式的斜視図である。室内監視装置1は、第1の平面と前記第1の平面と異なる第2の平面で画成される監視領域に存在する対象物を監視するように構成されている。本実施の形態では監視領域はトイレ3であり、室内監視装置1は、典型的には、対象物の位置を測定して対象物を監視するように構成されている。また、第1の平面と第2の平面とは典型的には交差し、さらに典型的には直交する。さらにここでは、第1の平面が床面4に平行な面であり、第2の平面が壁面としての正面壁面5aに平行な面、及び側面壁面5c、側面壁面5dに平行な面である。トイレ3は、床面4に平行な面と正面壁面5aに平行な面、及び側面壁面5c、側面壁面5dに平行な面とで画成される空間である。なお床面4に平行な面は床面4と一致してもよい。また正面壁面5aに平行な面も正面壁面5aと一致してもよい。同様に、側面壁面5c、側面壁面5dに平行な面も側面壁面5c、側面壁面5dと一致してもよい。即ち床面4に平行な面は床面4であってもよいし、正面壁面5aに平行な面は正面壁面5aであってもよい。本実施の形態では、第1の平面は床面4であり、第2の平面は正面壁面5aである。さらに、側面壁面5c、側面壁面5dに平行な面は側面壁面5c、側面壁面5dであってもよい。本実施の形態では、第1の平面は床面4であり、第2の平面は正面壁面5a、側面壁面5c、側面壁面5dである。またここで平行とは、およそ平行であることを含む概念である。さらに、この平行な面は、実際の平面だけでなく仮想的な平面を含むものとする。また、前記空間は、典型的にはさらに床面4に対向する天井6と正面壁面5aに対向する裏面壁面5b、及び側面壁面5c、側面壁面5dを有する閉空間である。前記閉空間はトイレ3を形成している。また、対象物は、典型的には、トイレ3でその姿勢を変化させるものである。本実施の形態では、対象物は人物2の場合で説明する。   FIG. 1 is a schematic perspective view of an indoor monitoring apparatus 1 as a monitoring apparatus according to an embodiment of the present invention. The indoor monitoring apparatus 1 is configured to monitor an object existing in a monitoring area defined by a first plane and a second plane different from the first plane. In the present embodiment, the monitoring area is the toilet 3, and the indoor monitoring device 1 is typically configured to monitor the object by measuring the position of the object. In addition, the first plane and the second plane typically intersect, and more typically are orthogonal. Further, here, the first plane is a plane parallel to the floor surface 4, and the second plane is a plane parallel to the front wall surface 5a as a wall surface, and a plane parallel to the side wall surface 5c and the side wall surface 5d. The toilet 3 is a space defined by a surface parallel to the floor surface 4, a surface parallel to the front wall surface 5a, and a surface parallel to the side wall surface 5c and the side wall surface 5d. A plane parallel to the floor surface 4 may coincide with the floor surface 4. A surface parallel to the front wall surface 5a may also coincide with the front wall surface 5a. Similarly, surfaces parallel to the side wall surface 5c and the side wall surface 5d may also coincide with the side wall surface 5c and the side wall surface 5d. That is, the surface parallel to the floor surface 4 may be the floor surface 4, and the surface parallel to the front wall surface 5a may be the front wall surface 5a. In the present embodiment, the first plane is the floor surface 4 and the second plane is the front wall surface 5a. Furthermore, the surface parallel to the side wall surface 5c and the side wall surface 5d may be the side wall surface 5c and the side wall surface 5d. In the present embodiment, the first plane is the floor surface 4, and the second plane is the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d. Here, “parallel” is a concept including being approximately parallel. Further, the parallel plane includes not only an actual plane but also a virtual plane. The space is a closed space typically having a ceiling 6 facing the floor 4 and a back wall 5b facing the front wall 5a, a side wall 5c, and a side wall 5d. The closed space forms a toilet 3. In addition, the object typically changes its posture in the toilet 3. In the present embodiment, the case where the object is the person 2 will be described.

ここで、本実施の形態で用いるトイレ3について説明する。トイレ3は、床面4と、床面4に直交する(典型的には鉛直に配置される)ように形成された平面が周囲に4面形成されている。平面は、正面壁面5aと(図中手前)、正面壁面5aに対向する裏面壁面5bと(図中奥)、正面壁面5aに直交し、互いに対向する第2の平面としての2つの側面壁面5c(図中右)、5d(図中左)がある。さらに上記各壁面の上部には、床面4とおよそ平行に配置された天井6が形成されている。さらに床面4には、便器7が載置されている。便器7は、床面4の裏面壁面5b近傍に載置されている。さらに、正面壁面5aには、不図示の扉が形成されており、人物2は、この扉により正面壁面5aからトイレ3内に進入、またはトイレ3内から退室できる。なお、本実施の形態では、第1の平面としての床面4に対して、本発明の第2の平面の関係にある平面としては、正面壁面5a、側面壁面5c、側面壁面5dの3面があるが、いずれか1面しかない場合の実施の形態もあり得る。また、本実施の形態では、後述する投影装置11の設置角度等の関係から、裏面壁面5bは、投影装置11によってパターン光が投影される第2の平面ではないが、設置角度等に応じて、裏面壁面5bもパターン光が投影される第2の平面となることがある。   Here, the toilet 3 used in the present embodiment will be described. The toilet 3 has a floor surface 4 and four planes formed so as to be orthogonal to the floor surface 4 (typically arranged vertically). The plane is a front wall surface 5a (front side in the drawing), a back wall surface 5b facing the front wall surface 5a (back in the drawing), and two side wall surfaces 5c as second planes orthogonal to the front wall surface 5a and facing each other. (Right in the figure) and 5d (left in the figure). Furthermore, a ceiling 6 disposed approximately in parallel with the floor surface 4 is formed at the top of each wall surface. Further, a toilet 7 is placed on the floor surface 4. The toilet bowl 7 is placed near the back wall surface 5b of the floor surface 4. Further, a door (not shown) is formed on the front wall surface 5a, and the person 2 can enter the toilet 3 from the front wall surface 5a or leave the toilet 3 by using this door. In the present embodiment, with respect to the floor surface 4 as the first plane, the three planes of the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d are the planes in the relationship of the second plane of the present invention. However, there may be an embodiment in which there is only one side. In the present embodiment, the back wall surface 5b is not the second plane on which the pattern light is projected by the projection device 11 because of the relationship such as the installation angle of the projection device 11 to be described later. The back wall surface 5b may also be a second plane on which pattern light is projected.

室内監視装置1は、監視領域であるトイレ3の第1の平面としての床面4と前記第2の平面としての正面壁面5a、側面壁面5c、側面壁面5dにパターンを形成するパターン光を投影する投影装置11と、前記パターン光が投影された、対象物としての人物2の存在するトイレ3を撮像する撮像装置12とを備えている。また室内監視装置1は、演算装置20を備えている。演算装置20は、室内監視装置1全体を制御するものである。投影装置11と撮像装置12は、床面4と正面壁面5aに対向する位置に配置される。さらに言えば、投影装置11と撮像装置12は、天井6と裏面壁面5bの近傍に配置される。本実施の形態では、投影装置11と撮像装置12は、裏面壁面5bのおよそ上部に配置される。また、トイレ3に人物2が存在するときには、パターンは人物2にも投影される。さらに本実施の形態では、投影されるパターンは、図4で後述する略正方格子状に配列された複数の輝点11bで形成される。   The indoor monitoring device 1 projects pattern light that forms a pattern on the floor surface 4 as the first plane of the toilet 3 that is the monitoring area and the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d as the second plane. And an imaging device 12 that images the toilet 3 on which the person 2 as an object is projected, on which the pattern light is projected. In addition, the indoor monitoring device 1 includes a calculation device 20. The arithmetic device 20 controls the entire indoor monitoring device 1. The projection device 11 and the imaging device 12 are disposed at positions facing the floor surface 4 and the front wall surface 5a. Furthermore, the projection device 11 and the imaging device 12 are arranged in the vicinity of the ceiling 6 and the back wall surface 5b. In the present embodiment, the projection device 11 and the imaging device 12 are arranged approximately on the back wall surface 5b. When the person 2 exists in the toilet 3, the pattern is also projected on the person 2. Furthermore, in the present embodiment, the projected pattern is formed by a plurality of bright spots 11b arranged in a substantially square lattice shape, which will be described later with reference to FIG.

さらに、室内監視装置1は、対象物としての人物2の形状又は動きに関する情報を得る測定装置14を備えている。測定装置14は、典型的には後述するように、撮像装置12により撮像された像上のパターンの移動を測定するように構成され、ここでは、人物2の形状又は動きに関する情報は、前記測定されたパターンの移動に関する情報である。投影装置11と撮像装置12は、測定装置14に電気的に接続され、測定装置14に制御されている。なお、本実施の形態では、測定装置14は、演算装置20と一体に構成されている。   Furthermore, the indoor monitoring device 1 includes a measuring device 14 that obtains information on the shape or movement of the person 2 as an object. As will be described later, the measurement device 14 is typically configured to measure movement of a pattern on an image captured by the imaging device 12, where information on the shape or movement of the person 2 is the measurement This is information regarding the movement of the pattern. The projection device 11 and the imaging device 12 are electrically connected to the measurement device 14 and controlled by the measurement device 14. In the present embodiment, the measurement device 14 is configured integrally with the arithmetic device 20.

まず、投影装置11と撮像装置12の設置について説明する。前述のように、投影装置11と撮像装置12は、裏面壁面5bの上方に配置されている。撮像装置12は、投影装置11から間隔dをもって配置されている。なお、投影装置11と撮像装置12の距離(前記間隔d)を基線長という。基線長は、三角測量法の基線方向の投影装置11と撮像装置12の間隔である。基線方向は、本実施の形態では、およそ床面4且つ正面壁面5aに平行な方向である。   First, installation of the projection device 11 and the imaging device 12 will be described. As described above, the projection device 11 and the imaging device 12 are disposed above the back wall surface 5b. The imaging device 12 is disposed at a distance d from the projection device 11. Note that the distance (the distance d) between the projection device 11 and the imaging device 12 is referred to as a baseline length. The baseline length is the distance between the projection device 11 and the imaging device 12 in the baseline direction of the triangulation method. In the present embodiment, the base line direction is a direction approximately parallel to the floor surface 4 and the front wall surface 5a.

投影装置11と撮像装置12は、それぞれその光軸を、床面4の垂直方向に対して、傾けて設置する。すなわち、図示では、投影装置11と撮像装置12の床面4に対する設置角度として、床面4の垂直方向に対して角度θで傾けた場合を示している。また、さらに、投影装置11と撮像装置12のそれぞれの光軸を、互いに略平行方向に向けて設置している。本実施の形態では、θ≒30°であるが、室内(トイレ3)の縦横比によって適宜定めるが、15〜60°とするとよい。また、本実施の形態では、投影装置11は、光軸が床面4と交差するように配設されている。   The projection device 11 and the imaging device 12 are installed with their optical axes inclined with respect to the vertical direction of the floor surface 4. That is, in the figure, the installation angle with respect to the floor surface 4 of the projection device 11 and the imaging device 12 is illustrated as being inclined at an angle θ with respect to the vertical direction of the floor surface 4. Further, the respective optical axes of the projection device 11 and the imaging device 12 are installed in directions substantially parallel to each other. In the present embodiment, θ≈30 °, but is appropriately determined according to the aspect ratio of the room (toilet 3), but may be 15 to 60 °. In the present embodiment, the projection device 11 is disposed so that the optical axis intersects the floor surface 4.

なお、本実施の形態では、投影装置11と撮像装置12は、筐体18内に収納されて設置されている。このようにすることで、例えばトイレ3を利用する人物2に撮像装置(CCDカメラ)の設置を意識させずに済む。また、筐体18により投影装置11や撮像装置12を保護することができる。   In the present embodiment, the projection device 11 and the imaging device 12 are housed and installed in the housing 18. In this way, for example, the person 2 who uses the toilet 3 does not need to be aware of the installation of the imaging device (CCD camera). In addition, the projection device 11 and the imaging device 12 can be protected by the housing 18.

なお、室内監視装置1は、測定装置14により撮像装置12により撮像された像上のパターンの移動を測定するように構成されているものである。例えば図2に示すように、投影装置11と撮像装置12を天井6のおよそ中央部に、それぞれその光軸を、床面4の垂直方向に向けて配置した場合には、対象物(ここでは人物2)の高さ又は高さ方向の動きが大きくなればなるほど、パターンを形成する輝点の移動量も大きくなる。このため、図6で後述する概念によると、輝点の移動量が大きいと、比較すべき輝点が隣の輝点の基準位置を飛び越してしまう現象が起こることがある。この場合、隣の輝点から移動したと判断され、測定される輝点の移動量は小さいことになってしまう。即ち、正確に輝点の移動量を測定できない。さらに言えば、人物2までの距離を正確に測定出来なくなる場合がある。図2の場合のように、例えばこの現象が人物2の頭部で発生してしまうと、頭部の高さが正確に測定できない。いわば頭部が死角となってしまう。ひいては人物2の存在が正確に測定できなくなってしまう。また、パターン(輝点)の移動量を測定する際の測定範囲と分解能が相反してしまうので、例えば、この飛び越えが発生しないように測定範囲を広げると、十分な分解能が得られなくなる。なお、ここで言う死角とは、例えばパターンの移動を正確に測定できない領域のことである。ひいては撮像装置12の画角内で上記の輝点の飛び越えを発生してしまう領域のことをいう。   The indoor monitoring device 1 is configured to measure the movement of the pattern on the image captured by the imaging device 12 by the measuring device 14. For example, as shown in FIG. 2, when the projection device 11 and the imaging device 12 are arranged at approximately the center of the ceiling 6 and their optical axes are oriented in the vertical direction of the floor surface 4, the object (here, The greater the movement of the person 2) in the height or height direction, the greater the amount of movement of the bright spots forming the pattern. For this reason, according to the concept described later with reference to FIG. 6, if the amount of movement of the bright spot is large, a phenomenon may occur in which the bright spot to be compared jumps over the reference position of the adjacent bright spot. In this case, it is determined that the light has moved from the adjacent bright spot, and the amount of movement of the bright spot to be measured is small. That is, the movement amount of the bright spot cannot be measured accurately. Furthermore, the distance to the person 2 may not be measured accurately. For example, if this phenomenon occurs in the head of the person 2 as in the case of FIG. 2, the height of the head cannot be measured accurately. In other words, the head becomes a blind spot. As a result, the presence of the person 2 cannot be measured accurately. Further, since the measurement range and the resolution at the time of measuring the movement amount of the pattern (bright spot) are contradictory, for example, if the measurement range is widened so that this jump does not occur, sufficient resolution cannot be obtained. The blind spot referred to here is, for example, a region where the movement of the pattern cannot be measured accurately. As a result, it refers to a region where the above bright spot jump occurs within the angle of view of the imaging device 12.

このため、室内監視装置1は、投影装置11と撮像装置12を図1で前述したように設置することで、輝点の飛び越えの影響を大幅に低減することができる。例えば、図3に示す場合を説明する。この実施の形態では、第1の平面としての床面4と第2の平面としての正面壁面5a、側面壁面5c(図1参照)、側面壁面5d(図1参照)に基準となるパターンが投影されている。投影装置11と撮像装置12は、便器7の上方に設置されており、例えば、投影装置11と撮像装置12から正面壁面5aまでの距離は、床面4までの距離より小さい。したがって、投影装置11と撮像装置12から正面壁面5aに向かう方向では輝点の飛び越えが発生する領域が小さくなる。すなわち死角は便器7の上方の小さい部分となり、便器7上ではしゃがんだり、便器7に腰掛ける人物2が死角に入る可能性が低くなる。言い換えれば、人物2が立っている場合では、輝点の飛び越えが発生する範囲の外で、輝点が人物2の体に投影されるので、正確な測定が行なえる((a)の状態)。また、人物2が便器7に座っている場合にも、輝点の飛び越えが発生する範囲の外に人物2が存在することになるので、正確な測定が行なえる((b)の状態)。このように、室内監視装置1は、投影装置11と撮像装置12を図1で前述したように設置することで、後述の人物2の状態の判定を安定且つ正確に行なうことができるようになる。   For this reason, the indoor monitoring device 1 can significantly reduce the influence of the bright spot jumping by installing the projection device 11 and the imaging device 12 as described above with reference to FIG. For example, the case shown in FIG. 3 will be described. In this embodiment, a reference pattern is projected onto the floor surface 4 as the first plane and the front wall surface 5a, the side wall surface 5c (see FIG. 1), and the side wall surface 5d (see FIG. 1) as the second plane. Has been. The projection device 11 and the imaging device 12 are installed above the toilet bowl 7. For example, the distance from the projection device 11 and the imaging device 12 to the front wall surface 5a is smaller than the distance to the floor surface 4. Therefore, in the direction from the projection device 11 and the imaging device 12 toward the front wall surface 5a, the region where the bright spot jumps is small. That is, the blind spot becomes a small portion above the toilet bowl 7, and it is less likely that the person 2 squatting on the toilet bowl 7 or sitting on the toilet bowl 7 enters the blind spot. In other words, when the person 2 is standing, the bright spot is projected onto the body of the person 2 outside the range where the bright spot jumps over, so that accurate measurement can be performed (state (a)). . Further, even when the person 2 is sitting on the toilet bowl 7, the person 2 exists outside the range where the bright spot jump occurs, so that accurate measurement can be performed (state (b)). As described above, the indoor monitoring device 1 can determine the state of the person 2 described later stably and accurately by installing the projection device 11 and the imaging device 12 as described above with reference to FIG. .

なお、投影装置11と撮像装置12をこのように設置することで、天井6の中央部に設置する場合(図2参照)と比較して、例えばトイレ3の中央に人物2が立った場合に人物2に投影されるパターン(輝点の数)が飛躍的に多くなり、取得できる情報量が増大する。   In addition, when the projection device 11 and the imaging device 12 are installed in this way, for example, when the person 2 stands at the center of the toilet 3 as compared with the case where the projection device 11 and the imaging device 12 are installed at the center of the ceiling 6 (see FIG. 2). The pattern (number of bright spots) projected on the person 2 increases dramatically, and the amount of information that can be acquired increases.

図4の模式的斜視図を参照して、室内監視装置1に適した投影装置11について説明する。なおここでは、説明のために、監視領域に含まれる撮像装置12に正対する平面を平面102とし、後述のレーザ光束L1を平面102に対して垂直に投射する場合で説明する。なお、正対するとは、例えば真直ぐ対することである。投影装置11は、可干渉性の光束を発生する光束発生手段としての光束発生部105と、ファイバーグレーティング120(以下、単にグレーティング120という)とを備えている。光束発生部105により投射される可干渉性の光束は、典型的には近赤外光レーザである。光束発生部105は、平行光束を発生するように構成されている。光束発生部105は、典型的には不図示のコリメータレンズを含んで構成される半導体レーザ装置であり、発生される平行光束は、レーザ光束L1である。そしてレーザ光束L1は、断面が略円形状の光束である。なお、この略円形状は、略楕円形状を含む概念である。ここで平行光束とは、実質的に平行であればよく、平行に近い光束も含む。   With reference to the schematic perspective view of FIG. 4, the projection apparatus 11 suitable for the indoor monitoring apparatus 1 is demonstrated. Here, for the sake of explanation, a case will be described in which the plane that faces the imaging device 12 included in the monitoring area is the plane 102, and a laser beam L1 described later is projected perpendicularly to the plane 102. Note that to face directly means to face straight, for example. The projection apparatus 11 includes a light beam generation unit 105 serving as a light beam generation unit that generates a coherent light beam, and a fiber grating 120 (hereinafter simply referred to as a grating 120). The coherent light beam projected by the light beam generation unit 105 is typically a near infrared laser. The light beam generation unit 105 is configured to generate a parallel light beam. The light flux generation unit 105 is typically a semiconductor laser device including a collimator lens (not shown), and the generated parallel light flux is a laser light flux L1. The laser light beam L1 is a light beam having a substantially circular cross section. In addition, this substantially circular shape is a concept including a substantially elliptical shape. Here, the parallel light flux only needs to be substantially parallel, and includes a nearly parallel light flux.

またここでは、グレーティング120は、平面102に平行に(Z軸に直角に)配置される。グレーティング120に、レーザ光束L1を、Z軸方向に入射させる。するとレーザ光束L1は、個々の光ファイバー121により、そのレンズ効果を持つ面内で集光したのち、発散波となって広がって行き、干渉して、投影面である平面102に複数の輝点アレイであるパターン11aが投影される。なお、グレーティング120を平面102に平行に配置するとは、例えば、グレーティング120を構成するFG素子122の各光ファイバー121の軸線を含む平面と、平面102とが平行になるように配置することである。   Further, here, the grating 120 is disposed in parallel to the plane 102 (perpendicular to the Z axis). A laser beam L1 is incident on the grating 120 in the Z-axis direction. Then, the laser beam L1 is collected in a plane having the lens effect by each optical fiber 121, and then spreads as a divergent wave, interferes, and interferes with a plurality of bright spot arrays on the plane 102 as a projection plane. A pattern 11a is projected. Note that the arrangement of the grating 120 in parallel with the plane 102 means, for example, that the plane including the axis of each optical fiber 121 of the FG element 122 constituting the grating 120 and the plane 102 are parallel.

また、グレーティング120は、2つのFG素子122を含んで構成される。本実施の形態では、各FG素子122の平面は、互いに平行である。以下、各FG素子122の平面を素子平面という。また、本実施の形態では、2つのFG素子122の光ファイバー121の軸線は、互いにほぼ直交している。   The grating 120 includes two FG elements 122. In the present embodiment, the planes of the FG elements 122 are parallel to each other. Hereinafter, the plane of each FG element 122 is referred to as an element plane. In the present embodiment, the axes of the optical fibers 121 of the two FG elements 122 are substantially orthogonal to each other.

FG素子122は、例えば、直径が数10ミクロン、長さ10mm程度の光ファイバー121を数10〜数100本程度、平行にシート状に並べて構成したものである。また、2つのFG素子122は、接触して配置してもよいし、それぞれの素子平面の法線方向に距離を空けて配置してもよい。この場合には、2つのFG素子122の互いの距離は、パターン11aの投影に差支えない程度とする。レーザ光束L1は、典型的には、グレーティング120の素子平面に対して垂直に入射させる。   The FG element 122 is configured by arranging, for example, several tens to several hundreds of optical fibers 121 having a diameter of several tens of microns and a length of about 10 mm in parallel in a sheet shape. Further, the two FG elements 122 may be arranged in contact with each other, or may be arranged at a distance from each other in the normal direction of the element plane. In this case, the distance between the two FG elements 122 is set so as not to interfere with the projection of the pattern 11a. The laser beam L1 is typically incident perpendicular to the element plane of the grating 120.

このように、投影装置11は、2つのFG素子122を含んで構成されたグレーティング120が光学系となるので、複雑な光学系を必要とすることなく、光学筐体を小型化できる。さらに投影装置11は、グレーティング120を用いることで、単純な構成で、複数のパターン光としての輝点11bをパターン11aとして監視領域に投影できる。なお、パターン11aは、典型的には正方格子状に配列された複数の輝点11bである。また、パターン11aは、FG素子122に入射した光束の光軸が平面102に垂直な場合、光軸付近では正方格子状に配列された複数の輝点11bとなるが、光軸から離れるにしたがって、格子の間隔に若干のズレを生じる。また、輝点の形状は楕円形を含む略円形である。   Thus, since the grating 120 configured to include the two FG elements 122 serves as an optical system, the optical housing can be downsized without requiring a complicated optical system. Furthermore, by using the grating 120, the projection device 11 can project the bright spots 11b as a plurality of pattern lights as a pattern 11a onto the monitoring area with a simple configuration. The pattern 11a is typically a plurality of bright spots 11b arranged in a square lattice pattern. Further, when the optical axis of the light beam incident on the FG element 122 is perpendicular to the plane 102, the pattern 11a becomes a plurality of bright spots 11b arranged in a square lattice pattern near the optical axis, but as the distance from the optical axis increases. A slight deviation occurs in the lattice spacing. The bright spot has a substantially circular shape including an ellipse.

図1に戻って説明する。撮像装置12は、典型的にはCCDカメラである。撮像装置12は、結像光学系13a(図6参照)と撮像素子15(図6参照)を有するものである。撮像素子15は、典型的にはCCD撮像素子である。また、撮像素子15として、CCDの他にCMOS構造の素子が最近盛んに発表されており、それらも当然使用可能である。特にこれらの中には、素子自体にフレーム間差算や二値化の機能を備えたものがあり、これらの素子の使用は好適である。   Returning to FIG. The imaging device 12 is typically a CCD camera. The imaging device 12 includes an imaging optical system 13a (see FIG. 6) and an imaging element 15 (see FIG. 6). The image sensor 15 is typically a CCD image sensor. In addition to the CCD, an element having a CMOS structure has recently been actively announced as the image pickup element 15, and these can naturally be used. In particular, some of the elements themselves have inter-frame difference calculation and binarization functions, and it is preferable to use these elements.

撮像装置12は、前述の光束発生部105(図4参照)により発生されるレーザ光束L1の波長の周辺部以外の波長の光を減光するフィルタ13b(図6参照)を備えるとよい。フィルタ13bは、典型的には干渉フィルタ等の光学フィルタであり、結像光学系13aの光軸上に配置するとよい。このようにすると、撮像装置12は、撮像素子15に受光する光のうち、投影装置11より投影されたパターン11aの光の強度が相対的にあがるので、外乱光による影響を軽減できる。また、光束発生部105により発生されるレーザ光束L1は、典型的には赤外光レーザの光束である。また、レーザ光束L1は、継続的に照射してもよいし、断続的に照射してもよい。断続的に照射する場合には、撮像装置12による撮像を、照射のタイミングに同期させて行うようにする。   The imaging device 12 may include a filter 13b (see FIG. 6) that attenuates light having a wavelength other than the peripheral portion of the wavelength of the laser light beam L1 generated by the light beam generation unit 105 (see FIG. 4). The filter 13b is typically an optical filter such as an interference filter, and may be disposed on the optical axis of the imaging optical system 13a. In this way, the imaging device 12 can reduce the influence of disturbance light because the light intensity of the pattern 11a projected from the projection device 11 out of the light received by the imaging device 15 is relatively increased. The laser beam L1 generated by the beam generator 105 is typically an infrared laser beam. Further, the laser beam L1 may be irradiated continuously or intermittently. When irradiating intermittently, imaging by the imaging device 12 is performed in synchronization with the timing of irradiation.

図5は、本発明の実施の形態に係る室内監視装置1の構成例を示すブロック図である。本図を参照して、室内監視装置1の構成例について説明する。前述のように、演算装置20は、測定装置14と一体に構成されている。さらにここでは、測定装置14は、後述の制御部21に一体に構成される。そして投影装置11と、撮像装置12は、測定装置14に電気的に接続されており、制御されている。本実施の形態では、演算装置20は、投影装置11と、撮像装置12に対し遠隔的に配置されている。具体的には、例えば、トイレ3とは別の部屋に設置される。また演算装置20は、典型的にはパソコン等のコンピュータである。なお本実施の形態では、演算装置20は、投影装置11と撮像装置12と別に設置する場合で説明するが、投影装置11と撮像装置12のどちらか一方又は両方と一体に設置してもよく、例えば投影装置11と撮像装置12が収納された筐体18内に収納して設置してもよい。   FIG. 5 is a block diagram showing a configuration example of the indoor monitoring apparatus 1 according to the embodiment of the present invention. With reference to this figure, the structural example of the indoor monitoring apparatus 1 is demonstrated. As described above, the arithmetic device 20 is configured integrally with the measuring device 14. Further, here, the measuring device 14 is configured integrally with a control unit 21 described later. The projection device 11 and the imaging device 12 are electrically connected to the measurement device 14 and controlled. In the present embodiment, the arithmetic device 20 is remotely arranged with respect to the projection device 11 and the imaging device 12. Specifically, for example, it is installed in a room different from the toilet 3. The arithmetic device 20 is typically a computer such as a personal computer. In the present embodiment, the calculation device 20 is described as being installed separately from the projection device 11 and the imaging device 12, but may be installed integrally with either or both of the projection device 11 and the imaging device 12. For example, the projector 11 and the imaging device 12 may be housed and installed in the housing 18 in which the projector 11 and the imaging device 12 are housed.

演算装置20は、上述したように、室内監視装置1を制御する制御部21を有している。さらに制御部21には、記憶手段としての記憶部31が接続されている。記憶部31は、撮像装置12から取得した像を時系列的に記憶するようにするとよい。また記憶部31には算出された情報等のデータが記憶できる。なお、記憶部31は、像そのものではなく、像中の輝点(重心)位置(人物不在の時の基準位置と、各時点のデータとしての輝点位置)か、輝点位置から計算した空間内の3次元位置を記憶するように構成してもよい。この場合、像そのものを記憶するよりもメモリが節約できて好適である。   As described above, the arithmetic device 20 includes the control unit 21 that controls the indoor monitoring device 1. Further, a storage unit 31 as a storage unit is connected to the control unit 21. The storage unit 31 may store the images acquired from the imaging device 12 in time series. The storage unit 31 can store data such as calculated information. Note that the storage unit 31 is not an image itself, but a bright spot (centroid) position in the image (a reference position when no person is present and a bright spot position as data at each time point) or a space calculated from the bright spot position. You may comprise so that the three-dimensional position of inside may be memorize | stored. In this case, the memory can be saved rather than storing the image itself.

制御部21は、前述した前記対象物の形状又は動きに関する情報としての測定されたパターンの移動に関する情報を得る測定装置14と、測定装置14により得られた前記対象物の形状又は動きに関する情報としての測定されたパターンの移動に関する情報をニューラルネットワークの入力層S(図17参照)に入力することで出力層R(図17参照)から得られる出力に基づいて、人物2の状態を判定する判定手段としての状態判定部23とを備える。なお、ここで、状態判定部23は、言い換えれば、測定装置14により測定されたパターンの移動に基づいて、人物2の状態を判定する手段である。また、本実施の形態では、状態判定部23は、測定装置14により得られた前記対象物の形状又は動きに関する情報としての測定されたパターンの移動に関する情報をブロック化して、ニューラルネットワークの入力層S(図17参照)に入力するように構成されている。   The control unit 21 obtains information related to the movement of the measured pattern as information related to the shape or movement of the object, and information related to the shape or movement of the object obtained by the measurement apparatus 14. Determination of determining the state of the person 2 based on the output obtained from the output layer R (see FIG. 17) by inputting information on the measured movement of the pattern to the input layer S (see FIG. 17) of the neural network And a state determination unit 23 as means. Here, in other words, the state determination unit 23 is means for determining the state of the person 2 based on the movement of the pattern measured by the measurement device 14. Further, in the present embodiment, the state determination unit 23 blocks information relating to movement of the measured pattern as information relating to the shape or movement of the object obtained by the measuring device 14, and inputs the input layer of the neural network. S (see FIG. 17) is input.

さらに、制御部21は、状態判定部23が人物2が危険な状態であると判定した際に、警報を発する警報手段としての警報装置41に警報信号を送信する警報信号部28を含んで構成される。また、制御部21には、警報信号部28を介して警報装置41によって発せられる警報を解除するための警報解除手段としての警報解除ボタン42と、状態判定部23が人物2が危険な状態ではないと判定している際に、何らかの事情により人物2の意思で警報装置41に警報を発せさせるための緊急通報ボタン43とが接続されている。状態判定部23は、警報解除ボタン42によって警報が解除された際に、ニューラルネットワークの入力層S(図17参照)と出力層R(図17参照)とを関連付ける重み係数としての各結合の重みWを変更する追加学習を行うように構成される。 Furthermore, the control unit 21 includes an alarm signal unit 28 that transmits an alarm signal to an alarm device 41 as an alarm unit that issues an alarm when the state determination unit 23 determines that the person 2 is in a dangerous state. Is done. In addition, the control unit 21 includes an alarm release button 42 as an alarm release unit for releasing an alarm issued by the alarm device 41 via the alarm signal unit 28, and a state determination unit 23 in a state where the person 2 is in danger. When it is determined that there is not, an emergency call button 43 for causing the alarm device 41 to issue an alarm with the intention of the person 2 for some reason is connected. When the alarm is canceled by the alarm cancel button 42, the state determination unit 23 weights each connection as a weighting coefficient that associates the input layer S (see FIG. 17) and the output layer R (see FIG. 17) of the neural network. configured to perform the additional learning to change the W i.

さらに、上述した記憶部31は、本実施の形態では、状態判定部23が人物2の状態を判定した際に、当該判定の直前の一定期間の測定装置14により得られた測定されたパターンの移動に関する情報、あるいは、対象物の位置又は移動に関する情報を一時的に記憶し、警報装置41が警報を発する際には、一時的に記憶した情報を保持し続けるように構成される。   Furthermore, in the present embodiment, when the state determination unit 23 determines the state of the person 2, the storage unit 31 described above has a measured pattern obtained by the measurement device 14 for a certain period immediately before the determination. Information regarding movement, or information regarding the position or movement of an object is temporarily stored, and when the alarm device 41 issues an alarm, the information stored temporarily is kept.

さらに、制御部21は、パターン光11bの投影範囲に比較して十分に広いものと仮想した仮想平面8(図9参照)に投光され、投影装置11と撮像装置12との光学配置に基づいて算出される仮想のパターン光の位置と、実際に撮像されるパターン光の位置とを比較して、測定装置14が撮像装置12により撮像された像上のパターンの移動を測定する際の正面壁面5a(図1参照)、側面壁面5c(図1参照)、側面壁面5d(図1参照)上での基準の位置を算出する基準位置算出手段としての基準位置算出部24とを含んで構成されている。     Further, the control unit 21 projects light on a virtual plane 8 (see FIG. 9) that is assumed to be sufficiently wide compared to the projection range of the pattern light 11b, and is based on the optical arrangement of the projection device 11 and the imaging device 12. The position at which the measurement device 14 measures the movement of the pattern on the image captured by the imaging device 12 by comparing the position of the virtual pattern light calculated in this way with the position of the pattern light actually captured. And a reference position calculation unit 24 as reference position calculation means for calculating a reference position on the wall surface 5a (see FIG. 1), the side wall surface 5c (see FIG. 1), and the side wall surface 5d (see FIG. 1). Has been.

また、制御部21は、投影装置11と撮像装置12との光学配置に基づいて算出される、床面4(図1参照)上での投影装置11の光軸上のパターン光11bが撮像されるべき位置と、床面4(図1参照)上に実際に投影され、撮像装置12によって撮像されたパターン光11bであって、床面4(図1参照)上での前記投影装置11の光軸上のパターン光11bが撮像されるべき位置に最も近いパターン光11bの位置に基づいて、投影装置11の光軸の傾きを補正する光軸角補正手段としての光軸角度補正部25と、床面4上の実際のパターンに関してハフ変換を実行して第1の角度ピークを算出し、前記仮想平面8(図9参照)上の一定範囲の仮想のパターン光によって形成される仮想のパターンに関してハフ変換を実行して、投影装置11を投影装置11の光軸周りに一定角度回転させる毎に第2の角度ピークを算出し、第1の角度ピークと第2の角度ピークとが略一致した際の、光軸周りの回転角を、投影装置11の実際の回転角として設定する回転角算出手段としての回転角算出部26を含んで構成される。さらに、制御部21は、各基準の位置の正面壁面5a(図1参照)、側面壁面5c(図1参照)、側面壁面5d(図1参照)に垂直な方向の位置に関する頻度ヒストグラムに応じて正面壁面5a(図1参照)、側面壁面5c(図1参照)、側面壁面5d(図1参照)の位置を特定する第2の平面特定手段としての壁面特定部27を含んで構成される。   The control unit 21 captures the pattern light 11b on the optical axis of the projection device 11 on the floor surface 4 (see FIG. 1), which is calculated based on the optical arrangement of the projection device 11 and the imaging device 12. The pattern light 11b that is actually projected on the floor surface 4 (see FIG. 1) and picked up by the image pickup device 12, and is the position of the projection device 11 on the floor surface 4 (see FIG. 1). An optical axis angle correcting unit 25 as optical axis angle correcting means for correcting the inclination of the optical axis of the projection device 11 based on the position of the pattern light 11b closest to the position where the pattern light 11b on the optical axis is to be imaged; A virtual pattern formed by performing a Hough transform on an actual pattern on the floor surface 4 to calculate a first angle peak and forming a certain range of virtual pattern light on the virtual plane 8 (see FIG. 9). Perform a Hough transform on the projection The second angle peak is calculated every time the projector 11 is rotated by a certain angle around the optical axis of the projection device 11, and the rotation angle around the optical axis when the first angle peak and the second angle peak substantially coincide with each other. Is configured to include a rotation angle calculation unit 26 as a rotation angle calculation unit that sets the actual rotation angle of the projection device 11. Furthermore, the control unit 21 responds to the frequency histogram regarding the position in the direction perpendicular to the front wall surface 5a (see FIG. 1), the side wall surface 5c (see FIG. 1), and the side wall surface 5d (see FIG. 1) at each reference position. It includes a wall surface specifying unit 27 as second plane specifying means for specifying the positions of the front wall surface 5a (see FIG. 1), the side wall surface 5c (see FIG. 1), and the side wall surface 5d (see FIG. 1).

制御部21には、状態判定部23の判定結果を出力する情報出力手段としてのディスプレイ40と、室内監視装置1を操作するための情報を入力する入力装置35が接続されている。ディスプレイ40は典型的にはLCDである。入力装置35は例えばタッチパネル、キーボードあるいはマウスである。本図では、入力装置35は、演算装置20に外付けするものとして図示されているが、内蔵されていてもよい
以下、上記各構成について詳細に説明する。
Connected to the control unit 21 are a display 40 as information output means for outputting the determination result of the state determination unit 23 and an input device 35 for inputting information for operating the room monitoring device 1. The display 40 is typically an LCD. The input device 35 is, for example, a touch panel, a keyboard, or a mouse. In this figure, the input device 35 is illustrated as being externally attached to the arithmetic device 20, but may be built in. Hereinafter, each of the above-described configurations will be described in detail.

まず測定装置14について説明する。測定装置14は、撮像装置12で撮像された像上のパターンの移動を測定するものである。測定装置14は、撮像装置12で撮像した像を取得できるように構成されている。なお、測定装置14は、撮像装置12で撮像した像を例えばデータとして、さらに典型的にはデジタルデータとして取得する。さらに測定装置14は、撮像装置12により撮像された像上の各輝点の移動を測定するように構成されている。なおここでは、投影された輝点も撮像された像上の輝点の像も、便宜上単に輝点という。またここでは、輝点の移動を測定するとは、輝点の移動の量(以下移動量という)を測定することをいう。さらに、測定される輝点の移動量は、輝点の移動方向を含む概念である。即ち、測定される輝点の移動量には、移動した方向の情報も含まれるものとする。さらにここでは、測定装置14は、測定したパターンの移動に基づいて、人物2に投影されたパターンを形成する各輝点の三次元座標を算出するように構成される。   First, the measuring device 14 will be described. The measuring device 14 measures the movement of the pattern on the image picked up by the image pickup device 12. The measuring device 14 is configured to acquire an image captured by the imaging device 12. Note that the measurement device 14 acquires an image captured by the imaging device 12 as data, for example, more typically as digital data. Further, the measuring device 14 is configured to measure the movement of each bright spot on the image picked up by the image pickup device 12. Here, the projected bright spot and the image of the bright spot on the captured image are simply referred to as bright spot for convenience. Here, measuring the movement of the bright spot means measuring the amount of movement of the bright spot (hereinafter referred to as the movement amount). Further, the measured moving amount of the bright spot is a concept including the moving direction of the bright spot. That is, it is assumed that the moving amount of the bright spot to be measured includes information on the moving direction. Further, here, the measuring device 14 is configured to calculate the three-dimensional coordinates of each bright spot forming the pattern projected on the person 2 based on the movement of the measured pattern.

さらに、測定装置14は、トイレ3に人物2が存在しないときに床面4(図1参照)と正面壁面5a(図1参照)、側面壁面5c(図1参照)、側面壁面5d(図1参照)に投影されたパターン光としての輝点を基準として、パターンを形成する各輝点の移動を測定するように構成されている。   Furthermore, when the person 2 does not exist in the toilet 3, the measuring device 14 has a floor surface 4 (see FIG. 1), a front wall surface 5a (see FIG. 1), a side wall surface 5c (see FIG. 1), and a side wall surface 5d (FIG. 1). The movement of each bright spot forming the pattern is measured with reference to the bright spot as the pattern light projected on the reference).

さらに、測定装置14は、測定されたパターンの移動に基づいて、投影装置11と撮像装置12の各位置及び設置角度と、床面4と正面壁面5a、側面壁面5c、側面壁面5dの各位置とに応じた人物2に投影されたパターン光の三次元位置としての三次元座標を算出するように構成されている。   Furthermore, the measuring device 14 determines each position and installation angle of the projection device 11 and the imaging device 12 and each position of the floor surface 4, the front wall surface 5 a, the side wall surface 5 c, and the side wall surface 5 d based on the movement of the measured pattern. The three-dimensional coordinates as the three-dimensional position of the pattern light projected on the person 2 according to the above are calculated.

ここで、測定装置14による輝点(パターン)の移動の測定について詳述する。測定装置14は、撮像装置12からそれぞれ取得した異なる2時点の像に基づいて、輝点の移動を測定するように構成されている。異なる2時点は、任意の時点(現在)と、トイレ3に人物2が存在しないときの時点とする。以下、任意の時点(現在)で取得した像を取得像、トイレ3に人物2が存在しない時点に取得した像を基準像として説明する。すなわち、輝点(パターン)の移動は、基準像を基準として測定される。なお、基準像は、記憶部31内に保存される。   Here, the measurement of the movement of the bright spot (pattern) by the measuring device 14 will be described in detail. The measuring device 14 is configured to measure the movement of the bright spot based on two different time points acquired from the imaging device 12. Two different time points are an arbitrary time point (current) and a time point when the person 2 does not exist in the toilet 3. Hereinafter, an image acquired at an arbitrary time (current) will be described as an acquired image, and an image acquired when no person 2 is present in the toilet 3 will be described as a reference image. That is, the movement of the bright spot (pattern) is measured with reference to the reference image. The reference image is stored in the storage unit 31.

なお、取得像の取得間隔は、例えば装置の処理速度や、上述のように検出したい移動の内容により適宜決めるとよいが、例えば0.1〜3秒、好ましくは0.1〜0.5秒程度とするとよい。ここでは0.1〜0.25秒とする。また、より短い時間間隔で像を取得し、平均化またはフィルタリングの処理を行うことで、例えばランダムノイズの影響を低減できるので有効である。   The acquisition interval of acquired images may be appropriately determined depending on, for example, the processing speed of the apparatus and the content of movement to be detected as described above, but is, for example, 0.1 to 3 seconds, preferably 0.1 to 0.5 seconds. It is good to have a degree. Here, it is set to 0.1 to 0.25 seconds. In addition, it is effective to acquire images at shorter time intervals and perform averaging or filtering to reduce the influence of random noise, for example.

ここで、取得像と基準像は、例えば撮像装置12により撮像された像であるが、それぞれの像上での、輝点の位置情報も含む概念である。即ち、取得像と基準像は、各々の時点で、投影装置11の投影により形成されたパターン11a(図6参照)の像である。なお、本実施の形態では、基準像は、例えば、いわゆる像としてではなく、各輝点の位置に関する、座標等の位置情報の形で、記憶部31に保存される。このようにすると、後述する輝点の移動量を測定する際に、例えば輝点の座標や方向を比較するだけで済むので処理が単純になる。さらに、ここでは、輝点の位置は、輝点の重心位置とする。このようにすることで、僅かな輝点の移動も測定することができる。   Here, the acquired image and the reference image are images picked up by the image pickup device 12, for example, and are concepts including the position information of the bright spot on each image. That is, the acquired image and the reference image are images of the pattern 11a (see FIG. 6) formed by the projection of the projection device 11 at each time point. In the present embodiment, the reference image is stored in the storage unit 31 in the form of positional information such as coordinates regarding the position of each bright spot, for example, not as a so-called image. In this way, when measuring the movement amount of the bright spot, which will be described later, for example, it is only necessary to compare the coordinates and direction of the bright spot, so the processing becomes simple. Further, here, the position of the bright spot is the barycentric position of the bright spot. By doing in this way, the movement of a slight bright spot can also be measured.

また、輝点の移動量は、記憶部31に保存された基準像上の各輝点の位置情報と、取得像上の各輝点の位置情報とを比較することで、輝点の移動量を測定する。なお、それぞれの移動量は、例えば、輝点の位置が移動した画素数(何画素移動したか)を計数することで求められる。このようにすると、後述のように、差分像を生成しないで済むので処理を単純化できる。   Further, the movement amount of the bright spot is obtained by comparing the position information of each bright spot on the reference image stored in the storage unit 31 with the position information of each bright spot on the acquired image. Measure. Each amount of movement can be obtained, for example, by counting the number of pixels to which the position of the bright spot has moved (how many pixels have moved). In this way, as will be described later, it is not necessary to generate a difference image, so that the processing can be simplified.

なお上記では、輝点の位置情報を比較する場合で説明したが、基準像と取得像との差分像を作成してもよい。この場合、この差分像から対応する輝点の位置に基づいて、輝点の移動量を測定する。このようにすると、移動した輝点のみが差分像上に残るので、処理量を減らすことができる。   In the above description, the position information of the bright spots is compared. However, a difference image between the reference image and the acquired image may be created. In this case, the movement amount of the bright spot is measured based on the position of the corresponding bright spot from the difference image. In this way, since only the moved bright spot remains on the difference image, the processing amount can be reduced.

さらに、測定装置14により測定された輝点の移動量は、過去一定回数測定された、または過去一定期間内に測定された輝点の移動量の移動平均値、または期間平均値としてもよい。このようにすることで、ランダムノイズや窓から差し込む日光のちらつきなどによる突発的なノイズが軽減でき、測定した輝点の移動量の信頼性が向上する。   Furthermore, the moving amount of the bright spot measured by the measuring device 14 may be a moving average value or a period average value of the moving amount of the bright spot that has been measured a certain number of times in the past or measured within the past fixed period. By doing so, it is possible to reduce random noise and sudden noise caused by sunlight flickering through a window, and the reliability of the measured moving amount of bright spots is improved.

なお、投影装置11と撮像装置12とは、ある程度距離を離して設置するとよい。このようにすることで、距離d(基線長d、図13参照)が長くなるので、輝点の移動を敏感に検出できるようになる(検出感度がよくなる)。なお、基線長は長く取ることが好ましいが、短くてもよい。但しこの場合には、小さな動きを検出しにくくなるが、輝点の重心位置を検出するようにすれば、小さな動きの検出も可能である。基線長を短く取ると図2、図3を参照して説明した死角領域が小さくなる。   The projection device 11 and the imaging device 12 may be installed with a certain distance. By doing so, the distance d (base line length d, see FIG. 13) becomes longer, so that the movement of the bright spot can be detected sensitively (detection sensitivity is improved). The base line length is preferably long, but may be short. However, in this case, it is difficult to detect a small movement, but if a barycentric position of a bright spot is detected, a small movement can be detected. When the base line length is shortened, the blind spot area described with reference to FIGS. 2 and 3 becomes small.

測定装置14は、以上のような、輝点の移動の測定を、パターン11a(図6参照)を形成する各輝点11b(図6参照)毎に行うように構成される。即ち複数の輝点11bの位置が複数の測定点となる。   The measuring device 14 is configured to measure the movement of the bright spot as described above for each bright spot 11b (see FIG. 6) forming the pattern 11a (see FIG. 6). That is, the positions of the plurality of bright spots 11b become a plurality of measurement points.

図6は、本発明の実施の形態での輝点の移動の概念について説明する概念的斜視図である。ここで、本図を参照して、輝点の移動の概念について説明する。ここでは、解りやすく、対象領域を平面102、対象物を物体103として説明する。さらにここでは、説明のために、前述の基準像と取得像を用いる場合で説明する。なお基準像は、物体103が平面102に存在しないときのパターン11aの像であり、取得像は、物体103が平面102に存在しているときのパターン11aとして説明する。   FIG. 6 is a conceptual perspective view for explaining the concept of bright spot movement in the embodiment of the present invention. Here, the concept of bright spot movement will be described with reference to FIG. Here, it is easy to understand, and the target area will be described as the plane 102 and the target object as the object 103. Further, here, for the sake of explanation, the case where the above-described reference image and acquired image are used will be described. Note that the reference image is an image of the pattern 11 a when the object 103 is not present on the plane 102, and the acquired image is described as the pattern 11 a when the object 103 is present on the plane 102.

図中物体103が、平面102上に載置されている。またXY軸を平面102内に置くように、直交座標系XYZがとられており、物体103はXY座標系の第1象限に置かれている。一方、図中Z軸上で平面102の上方には、投影装置11と、撮像装置12とが配置されている。撮像装置12は、投影装置11によりパターン11aが投影された平面102を撮像する。即ち平面102上に載置された物体103を撮像する。   In the figure, an object 103 is placed on the plane 102. Further, the orthogonal coordinate system XYZ is taken so that the XY axis is placed in the plane 102, and the object 103 is placed in the first quadrant of the XY coordinate system. On the other hand, a projection device 11 and an imaging device 12 are arranged above the plane 102 on the Z axis in the drawing. The imaging device 12 images the plane 102 on which the pattern 11 a is projected by the projection device 11. In other words, the object 103 placed on the plane 102 is imaged.

撮像装置12の結像光学系としての結像レンズ13aは、ここでは、その光軸がZ軸に一致するように配置されている。なおここでは、座標系XYZの原点を結像レンズ13aの位置とする。そして、結像レンズ13aは、平面102あるいは物体103上のパターン11aの像を、撮像装置12の撮像素子15の結像面15’(イメージプレーン)に結像する。結像面15’は、結像レンズ13aから距離はl(エル)(結像レンズ13aの焦点とほぼ等しい)の位置に配置されている。結像面15’は、典型的にはZ軸に直交する面である。さらに、結像面15’内に直交座標系uvをとり、Z軸が、uv座標系の原点(0,0,l)を通るようにする。平面102から結像レンズ13aと等距離で、結像レンズ13aからY軸の負の方向に距離d(基線長d)だけ離れたところに、投影装置11が配置されている。即ち、投影装置11の配置された座標は(0,−d,0)である。物体103と平面102には、投影装置11により複数の輝点11bが形成するパターン11aが投影される。なお、v軸方向は、三角測量法の基線方向でもある。   Here, the imaging lens 13a as the imaging optical system of the imaging device 12 is disposed so that its optical axis coincides with the Z-axis. Here, the origin of the coordinate system XYZ is the position of the imaging lens 13a. The imaging lens 13 a forms an image of the pattern 11 a on the plane 102 or the object 103 on the imaging surface 15 ′ (image plane) of the imaging device 15 of the imaging device 12. The imaging plane 15 'is disposed at a position of 1 (el) from the imaging lens 13a (substantially equal to the focal point of the imaging lens 13a). The image plane 15 'is typically a plane orthogonal to the Z axis. Further, an orthogonal coordinate system uv is taken in the image plane 15 'so that the Z axis passes through the origin (0, 0, l) of the uv coordinate system. The projection device 11 is disposed at a distance equidistant from the imaging lens 13a from the plane 102 and a distance d (base line length d) from the imaging lens 13a in the negative direction of the Y axis. That is, the coordinates at which the projection device 11 is arranged are (0, −d, 0). A pattern 11 a formed by a plurality of bright spots 11 b is projected onto the object 103 and the plane 102 by the projection device 11. The v-axis direction is also the baseline direction of the triangulation method.

投影装置11により平面102に投影されたパターン11aは、物体103が存在する部分では、物体103に遮られ平面102には到達しない。ここで物体103が存在していれば、平面102上の点102aに投射されるべき輝点11bは、物体103上の点103aに投射される。輝点11bが点102aから点103aに移動したことにより、また結像レンズ13aと投影装置11とが距離d(基線長d)だけ離れているところから、結像面15’上では、点102a’(u,v)に結像すべきところが点103a’(u,v+δ)に結像する。即ち、物体103が存在しない時点と物体103が存在する時点とは、輝点11bの像がv軸方向にδだけ移動することになる。   The pattern 11 a projected onto the plane 102 by the projection device 11 is blocked by the object 103 and does not reach the plane 102 in a portion where the object 103 exists. Here, if the object 103 exists, the bright spot 11 b to be projected onto the point 102 a on the plane 102 is projected onto the point 103 a on the object 103. Since the bright spot 11b has moved from the point 102a to the point 103a and the imaging lens 13a and the projection device 11 are separated from each other by a distance d (baseline length d), the point 102a is formed on the imaging plane 15 ′. An image to be imaged at '(u, v) is imaged at a point 103a' (u, v + δ). That is, when the object 103 does not exist and when the object 103 exists, the image of the bright spot 11b moves by δ in the v-axis direction.

これは、例えば図7に示すように、撮像素子15の結像面15’に結像した輝点は、高さのある物体103により、δだけv軸方向に移動することになる。   For example, as shown in FIG. 7, the bright spot imaged on the imaging surface 15 ′ of the image sensor 15 moves in the v-axis direction by δ by the object 103 having a height.

このように、この輝点の移動量δを測定することにより、物体103上の点103aの位置が三次元的に特定できる。即ち、例えば点103aの三次元座標がわかる。このように、ある点が、物体103が存在しなければ結像面15’上に結像すべき点と、結像面15’上の実際の結像位置との差を測定することにより、物体103の三次元座標が測定できる。あるいは、結像レンズ13aから物体103上の各点までの距離が測定できる。また、輝点11bの対応関係が不明にならない程度に、パターン11aのピッチ、即ち輝点11bのピッチを細かくすれば、物体103の三次元座標はそれだけ詳細に測定できることになる。   Thus, by measuring the movement amount δ of the bright spot, the position of the point 103a on the object 103 can be specified three-dimensionally. That is, for example, the three-dimensional coordinates of the point 103a are known. In this way, by measuring the difference between a point that should be imaged on the imaging plane 15 ′ if the object 103 is not present and the actual imaging position on the imaging plane 15 ′, The three-dimensional coordinates of the object 103 can be measured. Alternatively, the distance from the imaging lens 13a to each point on the object 103 can be measured. Further, if the pitch of the pattern 11a, that is, the pitch of the bright spot 11b is made so fine that the correspondence relationship of the bright spot 11b is not unknown, the three-dimensional coordinates of the object 103 can be measured in detail.

なお本実施の形態では、横640×縦480ピクセルの画像を取得した場合には、輝点の位置(重心位置)から、縦50ピクセル、横1ピクセルの範囲内に輝点が存在するときに移動量δを測定するようにしている。移動量δが1ピクセル以上であれば、その輝点が移動したものと判断するようにして処理するデータ量を減らすようにしてもよい。   In this embodiment, when an image of 640 × 480 pixels is acquired, when a luminescent spot exists within the range of 50 pixels vertically and 1 pixel horizontally from the position of the bright spot (center of gravity position). The movement amount δ is measured. If the movement amount δ is 1 pixel or more, the amount of data to be processed may be reduced by determining that the bright spot has moved.

さらに、図6に戻って三次元座標の算出について説明する。三次元座標(X,Y,Z)は、結像レンズ13aから平面102までの距離をhとすると、図19に示す数式(1)、(2)、(3)で算出できる。
以上のようにして、移動量δを算出することで、人物2に投影された輝点の三次元座標を算出でき、対象物の三次元形状情報を得ることができる。
Further, returning to FIG. 6, the calculation of the three-dimensional coordinates will be described. The three-dimensional coordinates (X, Y, Z) can be calculated by equations (1), (2), and (3) shown in FIG. 19 where h is the distance from the imaging lens 13a to the plane 102.
By calculating the movement amount δ as described above, the three-dimensional coordinates of the bright spot projected on the person 2 can be calculated, and the three-dimensional shape information of the object can be obtained.

ここで、トイレ3での基準像のパターンを形成する各輝点の三次元座標の算出について説明する。前述のようにここでは、基準像は、トイレ3に人物2が存在しないとき(以下空室時という)の各輝点の位置に関する座標を含む位置情報である。   Here, calculation of the three-dimensional coordinates of each bright spot forming the pattern of the reference image in the toilet 3 will be described. As described above, here, the reference image is position information including coordinates relating to the position of each bright spot when the person 2 does not exist in the toilet 3 (hereinafter referred to as “vacant”).

図8は、本発明の実施の形態でのトイレ3の床面4、正面壁面5a、側面壁面5c、側面壁面5dの境界とトイレ3に人物2が存在しない時に撮像装置12により撮像された像の一例を示す模式的平面図である。ここで、投影装置11、撮像装置12は、実際には上述したように、設置角度として光軸を床面4の垂直方向に対して角度θだけ傾けて設置される(図1参照)。したがって、投影装置11(図1参照)から投影されるパターン11aは、図6で述べたような単純な平面(例えば、図6に示す平面102)に投影されるわけではなく、幾つかの平面、すなわち、本図で示すように、床面4、正面壁面5a、側面壁面5c、側面壁面5dが組み合わさった平面に投影される。輝点(パターン)の移動は、上述したように基準像を基準として測定されることから、各平面上での基準像の位置を算出する必要がある。   FIG. 8 shows an image captured by the imaging device 12 when the person 2 is not present on the boundary between the floor surface 4, the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d of the toilet 3 and the toilet wall 3 according to the embodiment of the present invention. It is a schematic plan view which shows an example. Here, the projection device 11 and the imaging device 12 are actually installed with the optical axis inclined at an angle θ with respect to the vertical direction of the floor surface 4 as the installation angle (see FIG. 1). Therefore, the pattern 11a projected from the projection device 11 (see FIG. 1) is not projected onto a simple plane (for example, the plane 102 shown in FIG. 6) as described in FIG. That is, as shown in this figure, the projection is projected onto a plane in which the floor surface 4, the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d are combined. Since the movement of the bright spot (pattern) is measured with reference to the reference image as described above, it is necessary to calculate the position of the reference image on each plane.

そこで、基準位置算出部24は、実際のパターン光11bの投影範囲に比較して十分に広いものと仮想した仮想平面8(図9参照)に投光され、投影装置11と撮像装置12との光学配置に基づいて算出される仮想のパターン光11bの位置と、実際に撮像されるパターン光11bの位置とを比較して、測定装置14が撮像装置12により撮像された像上のパターンの移動を測定する際の正面壁面5a(図1参照)、側面壁面5c(図1参照)、側面壁面5d(図1参照)上での基準の位置、すなわち、基準像を算出するように構成される。   Therefore, the reference position calculation unit 24 projects light on a virtual plane 8 (see FIG. 9) that is assumed to be sufficiently wide compared to the projection range of the actual pattern light 11b, and the projection device 11 and the imaging device 12 The position of the virtual pattern light 11b calculated based on the optical arrangement is compared with the position of the pattern light 11b that is actually picked up, and the pattern on the image picked up by the measuring device 12 by the measuring device 14 is moved. Is configured to calculate a reference position on the front wall surface 5a (see FIG. 1), the side wall surface 5c (see FIG. 1), and the side wall surface 5d (see FIG. 1), that is, a reference image. .

図9は、本発明の実施の形態に係る投影装置11によって投影されるパターン11aの一例を示す図であり、(a)は、トイレ3に投影される場合の模式的斜視図、(b)は、仮想平面8に投影される場合の模式的斜視図である。なお、(a)では、トイレ3室内の様子を見やすくするため、天井6、正面壁面5a、側面壁面5dを想像線により図示してある。   FIG. 9 is a diagram illustrating an example of a pattern 11a projected by the projection device 11 according to the embodiment of the present invention. FIG. 9A is a schematic perspective view when projected onto the toilet 3, FIG. FIG. 4 is a schematic perspective view when projected onto a virtual plane 8. In (a), the ceiling 6, the front wall surface 5a, and the side wall surface 5d are illustrated by imaginary lines in order to make it easy to see the inside of the toilet 3 room.

ここで、パターン光11bの投影範囲に比較して十分に広いものと仮想した仮想平面8とは、例えば、図6で述べたような平面102のように、投影装置11から投影されたパターン11aが、当該仮想平面8と交差するような他の平面に遮られたりせずに投影される理想的な平面である。ここでは、仮想平面は、以下で説明する基準位置算出部24による基準像の位置の算出が可能な程度に広い平面であればよい。   Here, the virtual plane 8 that is assumed to be sufficiently wide compared to the projection range of the pattern light 11b is, for example, a pattern 11a projected from the projection device 11 like the plane 102 described in FIG. Is an ideal plane that is projected without being blocked by another plane that intersects the virtual plane 8. Here, the virtual plane may be a plane that is wide enough to calculate the position of the reference image by the reference position calculation unit 24 described below.

仮想平面8は、図9(b)に示すように、本実施の形態では、床面4と略平行な平面であり、投影装置11からの距離が、床面4と投影装置11との距離と略等しい位置にある平面である。また、ここでの投影装置11と撮像装置12は、トイレ3室内に設置される場合と同様に、それぞれその光軸を、床面4の垂直方向に対して角度θだけ傾けて設置されるものとして仮想する。言い換えれば、本実施の形態では、仮想平面8は、トイレ3において正面壁面5a、側面壁面5c、側面壁面5d、便器7等が取り払われた状態の床面4であって、十分広い面積に拡張された床面4を想定すればよい。仮想平面8に投光される仮想のパターン11aを形成する仮想のパターン光としての輝点11bの結像面15’(図6参照)上での位置は、投影装置11と撮像装置12との光学配置に基づいて算出することができる。   As shown in FIG. 9B, the virtual plane 8 is a plane substantially parallel to the floor surface 4 in the present embodiment, and the distance from the projection device 11 is the distance between the floor surface 4 and the projection device 11. It is a plane at a position substantially equal to. Further, the projection device 11 and the imaging device 12 are installed with their optical axes inclined by an angle θ with respect to the vertical direction of the floor surface 4 as in the case of installing in the toilet 3 room. As virtual. In other words, in the present embodiment, the virtual plane 8 is the floor surface 4 in a state where the front wall surface 5a, the side wall surface 5c, the side wall surface 5d, the toilet bowl 7 and the like are removed from the toilet 3, and is expanded to a sufficiently wide area. What is necessary is just to assume the floor 4 made. The position on the imaging surface 15 ′ (see FIG. 6) of the bright spot 11b as the virtual pattern light that forms the virtual pattern 11a projected on the virtual plane 8 is the position between the projection device 11 and the imaging device 12. It can be calculated based on the optical arrangement.

ここで、投影装置11と撮像装置12との光学配置は、少なくとも投影装置11又は撮像装置12に関する床面4に対する設置高さ、ここでは、結像レンズ13a(図6参照)から床面4までの設置高さh、及び上述した設置角度としての光軸の角度θに基づいて定められる。さらに、当該光学配置は、典型的には、設置高さh、光軸角度θに加えて、設計上予め決められる数値、すなわち、基線長dや、撮像装置12の結像面15’(図6参照)と結像レンズ13a(図6参照)との距離l(≒結像レンズ焦点距離、図6参照)、投影装置11のレーザ波長λ、ファイバー径r、r、レーザ光がFG素子122(図4参照)を通過する際の出力角度φ、φ等の種々の値によって定まる。したがって、投影装置11と撮像装置12との光学配置に基づいて算出するとは、典型的には、光学配置を決定づけるこれらの種々の数値に基づいて算出することをいう。投影装置11と撮像装置12との光学配置に基づいて算出するというときには、これらの光学配置を決定づける種々の数値の全てを用いて算出する場合だけでなく、該種々の数値のうち少なくとも設置高さh、光軸角度θを含むいくつかの数値を用いて算出する場合を含む。すなわち、光学配置を決定づける数値のうち少なくとも設置高さh、光軸角度θを用いて算出すれば、投影装置11と撮像装置12との光学配置に基づいて算出したということができる。 Here, the optical arrangement of the projection device 11 and the imaging device 12 is at least the installation height relative to the floor surface 4 with respect to the projection device 11 or the imaging device 12, here, from the imaging lens 13a (see FIG. 6) to the floor surface 4. Is determined based on the installation height h and the optical axis angle θ as the installation angle described above. Further, the optical arrangement typically includes a numerical value predetermined in design in addition to the installation height h and the optical axis angle θ, that is, the base line length d and the imaging plane 15 ′ of the imaging device 12 (see FIG. 6) and the imaging lens 13a (see FIG. 6), the distance l (≈imaging lens focal length, see FIG. 6), the laser wavelength λ of the projection device 11, the fiber diameters r 1 and r 2 , and the laser beam is FG It is determined by various values such as output angles φ X and φ Y when passing through the element 122 (see FIG. 4). Therefore, calculating based on the optical arrangement of the projection device 11 and the imaging device 12 typically means calculating based on these various numerical values that determine the optical arrangement. When calculating based on the optical arrangement of the projection device 11 and the imaging device 12, not only the calculation using all the various numerical values that determine the optical arrangement, but also at least the installation height of the various numerical values. This includes the case where calculation is performed using several numerical values including h and the optical axis angle θ. That is, it can be said that the calculation is based on the optical arrangement of the projection device 11 and the imaging device 12 by calculating at least the installation height h and the optical axis angle θ among the numerical values that determine the optical arrangement.

ここでは、FG素子122(図4参照)から出力される輝点11bの投影角度は、FG素子122(図4参照)のファイバー径r、rとレーザ波長λに依存する。レーザ光がFG素子122を通過すると、回折光として輝点11bが広がるので、基準位置算出部24は、レーザ光がFG素子122(図4参照)を通過する際の出力角度φ、φを図19に示す数式(4)、(5)で近似して算出することができる。ここで、n、mは正数であり、輝点11bのインデックスである。 Here, the projection angle of the bright spot 11b output from the FG element 122 (see FIG. 4) depends on the fiber diameters r 1 and r 2 of the FG element 122 (see FIG. 4) and the laser wavelength λ. When the laser light passes through the FG element 122, the bright spot 11b spreads as diffracted light, so that the reference position calculation unit 24 outputs the output angles φ X and φ Y when the laser light passes through the FG element 122 (see FIG. 4). Can be approximated and calculated by Equations (4) and (5) shown in FIG. Here, n and m are positive numbers and are indices of the bright spot 11b.

さらに、基準位置算出部24は、設置高さh、光軸角度θから図19に示す数式(6)、(7)を用いて、輝点11bのインデックスm、nに対応した仮想の輝点11bの三次元座標に応じた結像面15’(図6参照)上での位置座標uideal,m,n、videal,m,nを算出することができる。基準位置算出部24は、以上のようにして算出した仮想の輝点11b群の結像面15’上での位置座標を基準として、図9(a)に示すように、実際に床面4、正面壁面5a、側面壁面5c、側面壁面5に投光される輝点11bの実際に撮像される輝点11bの結像面15’(図6参照)上での位置座標ureal,m,n、real,m,nから空室時の各輝点11bの仮想の移動量δを算出する。基準位置算出部24は、算出した各移動量δと数式(1)、(2)、(3)(図19参照)から、空室時でのトイレ3の形状に則した、各輝点11bの床面4、正面壁面5a、側面壁面5c、側面壁面5d上での移動量の測定のための基準の三次元座標を算出する。 Further, the reference position calculation unit 24 uses the formulas (6) and (7) shown in FIG. 19 based on the installation height h and the optical axis angle θ to create virtual luminescent spots corresponding to the indices m and n of the luminescent spot 11b. The position coordinates u ideal, m, n , v ideal, m, n on the imaging plane 15 ′ (see FIG. 6) according to the three-dimensional coordinates of 11b can be calculated. The reference position calculation unit 24 actually uses the position coordinates on the image plane 15 ′ of the virtual bright spot 11b group calculated as described above as a reference, as shown in FIG. , Position coordinates u real, m, b on the imaging surface 15 ′ (see FIG. 6) of the bright spot 11b actually picked up by the front wall surface 5a, the side wall surface 5c, and the bright spot 11b projected on the side wall surface 5. The virtual movement amount δ of each bright spot 11b at the time of vacancy is calculated from n, v real, m, n . The reference position calculation unit 24 calculates each bright spot 11b according to the shape of the toilet 3 when the room is empty from each calculated movement amount δ and the mathematical expressions (1), (2), (3) (see FIG. 19). The reference three-dimensional coordinates for measuring the amount of movement on the floor surface 4, the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d are calculated.

ところで、撮像装置12の光軸と投影装置11の光軸が平行であることが理想であるが、実際にはある程度誤差が生じる。実際の光軸や輝点群は、実際にはこの傾きの影響を受ける。そこで、光軸角度補正部25(図5参照)は、投影装置11と撮像装置12との光学配置に基づいて算出される床面4(図1参照)上での投影装置11の光軸上のパターン光としての輝点11b(図6参照)が撮像されるべき位置uideal,0,0、videal,0,0と、床面4(図1参照)上に実際に投影され、撮像装置12によって撮像されたパターン光としての輝点11bであって、位置uideal,0,0、videal,0,0に最も近い輝点11bの位置に基づいて、投影装置11の光軸の傾きを補正するように構成される。 By the way, it is ideal that the optical axis of the imaging device 12 and the optical axis of the projection device 11 are parallel, but in reality, some error occurs. The actual optical axis and bright spot group are actually affected by this inclination. Therefore, the optical axis angle correction unit 25 (see FIG. 5) is on the optical axis of the projection device 11 on the floor surface 4 (see FIG. 1) calculated based on the optical arrangement of the projection device 11 and the imaging device 12. The bright spot 11b (see FIG. 6) as the pattern light is projected onto the floor surface 4 (see FIG. 1) and the positions u ideal, 0,0 and v ideal, 0,0 to be imaged. Based on the position of the bright spot 11b as the pattern light imaged by the apparatus 12 and closest to the position u ideal, 0,0 , v ideal, 0,0 , the optical axis of the projection apparatus 11 It is configured to correct the tilt.

傾きのない理想の状態における投影装置11のレーザ光軸の結像面15’(図6参照)上での位置座標uideal,光軸、videal,光軸は、設置高さh、光軸角度θ、基線長dに基づいて図19に示す数式(8)、(9)となる。したがって、投影装置11と撮像装置12との光学配置に基づいて算出される床面4(図1参照)上での投影装置11の光軸上の輝点11b(図6参照)が撮像されるべき位置の、結像面15’(図6参照)上での座標uideal,0,0、videal,0,0も、同様に、図19に示す数式(8)、(9)であらわすことができる。実際に取得した輝点群の中で、位置座標uideal,0,0、videal,0,0に近い輝点11bの結像面15’(図6参照)上の位置座標をureal、vrealと仮定する。そのときの撮像装置12の光軸とレーザ光軸の傾きGap、Gapは、図19に示す数式(10)、(11)と表される。 Positional coordinates u ideal, optical axis , v ideal, and optical axis on the imaging plane 15 ′ (see FIG. 6) of the laser optical axis of the projection apparatus 11 in an ideal state with no inclination are the installation height h and the optical axis. Based on the angle θ and the base line length d, equations (8) and (9) shown in FIG. 19 are obtained. Therefore, the bright spot 11b (see FIG. 6) on the optical axis of the projection device 11 on the floor surface 4 (see FIG. 1) calculated based on the optical arrangement of the projection device 11 and the imaging device 12 is imaged. The coordinates u ideal, 0,0 and v ideal, 0,0 on the imaging plane 15 ′ (see FIG. 6) of the power position are similarly expressed by the equations (8) and (9) shown in FIG. be able to. Among the actually acquired bright spot groups, the position coordinates on the imaging plane 15 ′ (see FIG. 6) of the bright spot 11b close to the position coordinates u ideal, 0,0 , v ideal, 0,0 are represented by u real , Assume v real . The inclinations Gap u and Gap v of the optical axis of the imaging device 12 and the laser optical axis at that time are expressed by equations (10) and (11) shown in FIG.

上述した数式(4)、(5)(図19参照)で算出される出力角度φ、φにレーザ光軸の傾きGap、Gapを補正すると、光軸補正後の出力角度φ’、φ’は、図19に示す数式(12)、(13)で算出することができる。光軸角度補正部25(図5参照)は、以上のようにして、光学配置に基づいて算出される床面4(図1参照)上での投影装置11の光軸上の輝点11b(図6参照)が撮像されるべき位置に応じた結像面15’(図6参照)上での位置座標uideal,0,0、videal,0,0と、床面4上に実際に投影され、床面4上での光軸の位置に最も近い輝点11b(図6参照)の位置に応じた結像面15’(図6参照)上での位置座標ureal、vrealに基づいて、投影装置11と撮像装置12の設置角度、すなわち、予め定められている光学配置としての光軸角度θに対する実際の投影装置11の光軸角度のずれを算出して、投影装置11の光軸の傾きを補正することができる。言い換えれば、投影装置11の光軸と撮像装置12の光軸との平行からのずれの補正量を算出して、投影装置11の光軸の傾きを補正することができる。 When the inclinations Gap u and Gap v of the laser optical axis are corrected to the output angles φ X and φ Y calculated by the above formulas (4) and (5) (see FIG. 19), the output angle φ ′ after the optical axis correction is performed. X 1 and φ ′ Y can be calculated by Equations (12) and (13) shown in FIG. The optical axis angle correction unit 25 (see FIG. 5), as described above, the bright spot 11b (on the optical axis of the projection device 11 on the floor surface 4 (see FIG. 1)) calculated based on the optical arrangement. (See FIG. 6), the position coordinates u ideal, 0,0 , v ideal, 0,0 on the imaging plane 15 ′ (see FIG. 6) according to the position to be imaged, and actually on the floor surface 4 The position coordinates u real and v real on the imaging plane 15 ′ (see FIG. 6) according to the position of the bright spot 11b (see FIG. 6) that is projected and closest to the position of the optical axis on the floor surface 4 Based on the installation angle of the projection device 11 and the imaging device 12, that is, the deviation of the optical axis angle of the actual projection device 11 with respect to the optical axis angle θ as a predetermined optical arrangement is calculated. The inclination of the optical axis can be corrected. In other words, it is possible to correct the inclination of the optical axis of the projection device 11 by calculating a correction amount of deviation from the parallel between the optical axis of the projection device 11 and the optical axis of the imaging device 12.

基準位置算出部24は、光軸角度補正部25によって算出された出力角度φ’、φ’を用いて、上述した数式(6)、(7)(図19参照)に出力角度φ=φ’、φ=φ’を代入する。これにより、基準位置算出部24は、光軸角度補正部25によって補正された光軸の傾きに応じて、光軸補正後の仮想の輝点11bの結像面15’(図6参照)上での位置座標u’ideal,m,n、v’ideal,m,nを算出し、上述したように、当該位置座標u’ideal,m,n、v’ideal,m,nと実際の位置座標ureal,m,n、real,m,nから、各輝点11bの床面4、正面壁面5a、側面壁面5c、側面壁面5d上での移動量の測定のための基準の三次元座標を算出することができる。 Reference position calculating section 24, the optical axis angle correcting unit 25 outputs the angle φ 'X, φ' which is calculated by using the Y, above-mentioned equation (6), (7) the output angle (see FIG. 19) phi X = Φ ′ X , φ Y = φ ′ Y is substituted. Thereby, the reference position calculation unit 24 is on the image plane 15 ′ (see FIG. 6) of the virtual bright spot 11b after the optical axis correction according to the inclination of the optical axis corrected by the optical axis angle correction unit 25. Calculate the position coordinates u ′ ideal, m, n , v ′ ideal, m, n at, and as described above, the position coordinates u ′ ideal, m, n , v ′ ideal, m, n and the actual position Three-dimensional reference for measuring the amount of movement of each bright spot 11b on the floor surface 4, front wall surface 5a, side wall surface 5c, and side wall surface 5d from the coordinates u real, m, n, v real, m, n Coordinates can be calculated.

ここで再び図8を参照する。測定装置14(図5参照)が測定できる輝点移動量δは、上述したような飛び越えが発生しない範囲、すなわち、隣接する輝点までの距離に制限される。そこで、本実施の形態では、この検出範囲を広くするため、投影装置11のFG素子122(図4参照)を基線方向(v軸方向)に対して光軸周りに回転させて使用する。FG素子122を回転させて使用することで、本図に示すように、正方格子状のパターン11aは、基線方向に対して傾きを有することになる。本実施の形態のように、基線方向に対する投影装置11の光軸周りの回転量をFG素子122の回転角αとすると、この回転角αを算出して、当該回転角αに応じて各輝点11bの床面4、正面壁面5a、側面壁面5c、側面壁面5d上での移動量の測定のための基準の三次元座標を算出すれば、より正確な、基準の三次元座標とすることができる。従って、より正確な人物2の状態の判別をすることができる。なお、基線方向に対する投影装置11の光軸周りの回転量、すなわち、FG素子122の回転角αは、基線方向に対する正方格子状のパターン11aの回転角ということもできる。また、ここで、投影装置11を光軸周りに回転させて使用するという場合、要するに、正方格子状のパターン11aが基線方向に対して傾きを有するように回転させて使用すればよく、必ずしも、投影装置11の全体を回転させて使用しなくともよい。   Reference is again made to FIG. The bright spot movement amount δ that can be measured by the measuring device 14 (see FIG. 5) is limited to a range in which the above jump does not occur, that is, a distance to an adjacent bright spot. Therefore, in this embodiment, in order to widen this detection range, the FG element 122 (see FIG. 4) of the projection apparatus 11 is used by rotating around the optical axis with respect to the baseline direction (v-axis direction). By rotating and using the FG element 122, the square lattice pattern 11a has an inclination with respect to the base line direction as shown in FIG. As in the present embodiment, when the rotation amount around the optical axis of the projection device 11 with respect to the baseline direction is the rotation angle α of the FG element 122, the rotation angle α is calculated and each brightness corresponding to the rotation angle α is calculated. If the reference three-dimensional coordinates for measuring the amount of movement of the point 11b on the floor surface 4, the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d are calculated, the reference three-dimensional coordinates are more accurate. Can do. Therefore, the state of the person 2 can be more accurately determined. The rotation amount around the optical axis of the projection device 11 with respect to the base line direction, that is, the rotation angle α of the FG element 122 can also be referred to as the rotation angle of the square lattice pattern 11a with respect to the base line direction. In addition, here, when the projection device 11 is used while being rotated around the optical axis, in short, it may be used by rotating the square lattice pattern 11a so as to have an inclination with respect to the baseline direction. It is not necessary to rotate the entire projection apparatus 11 for use.

そこで、回転角算出部26は、床面4上の実際のパターン11aに関してハフ変換(Hough変換)を実行して第1の角度ピークを算出し、前記仮想平面8(図9参照)上の一定範囲の仮想のパターン光11bによって形成される仮想のパターン11aに関してハフ変換を実行して、投影装置11のFG素子122を投影装置11の光軸周りに一定角度回転させる毎に、すなわち、ここでは0°から180°まで0.1°刻みで仮定したときの各回転角α毎に第2の角度ピークを算出し、第1の角度ピークと第2の角度ピークとが略一致した際の、光軸周りの回転角αを、投影装置11の実際の回転角αとして設定するように構成される。   Therefore, the rotation angle calculation unit 26 performs a Hough transform (Hough transform) on the actual pattern 11a on the floor surface 4 to calculate a first angle peak, and is constant on the virtual plane 8 (see FIG. 9). Every time the FG element 122 of the projection device 11 is rotated by a certain angle around the optical axis of the projection device 11 by performing the Hough transform on the virtual pattern 11a formed by the virtual pattern light 11b in the range, here, When the second angle peak is calculated for each rotation angle α when assumed from 0 ° to 180 ° in increments of 0.1 °, the first angle peak and the second angle peak substantially coincide with each other. The rotation angle α around the optical axis is set as the actual rotation angle α of the projection device 11.

ここで、仮想平面8(図9参照)上の一定範囲の領域の仮想のパターン11aの三次元座標に応じた結像面15’(図6参照)上での各位置座標は、仮想平面8(図9参照)と同じ平面上に位置する床面4上のパターン11aの三次元座標に応じた結像面15’(図6参照)上での各位置座標とのみ一致しているはずである。したがって、ここでは、仮想平面8(図9参照)上の一定範囲の領域として、図8に示す取得画像のうち、破線で示す床面4を含む床面領域を仮定する。回転角算出部26は、床面4上の実際のパターン11aに関してハフ変換(Hough変換)を実行して第1の角度ピークを算出する。さらに、回転角算出部26は、仮想平面8(図9参照)上の床面領域の仮想のパターン11aに関してハフ変換を実行して第2の角度ピークを算出する。   Here, each position coordinate on the imaging plane 15 ′ (see FIG. 6) according to the three-dimensional coordinates of the virtual pattern 11a in a certain range of region on the virtual plane 8 (see FIG. 9) is the virtual plane 8 It should match only the position coordinates on the imaging plane 15 ′ (see FIG. 6) corresponding to the three-dimensional coordinates of the pattern 11a on the floor surface 4 located on the same plane as (see FIG. 9). is there. Therefore, here, a floor surface region including the floor surface 4 indicated by a broken line in the acquired image illustrated in FIG. 8 is assumed as a certain range of the region on the virtual plane 8 (see FIG. 9). The rotation angle calculation unit 26 performs a Hough transform (Hough transform) on the actual pattern 11a on the floor surface 4 to calculate a first angle peak. Further, the rotation angle calculation unit 26 calculates the second angle peak by performing Hough transform on the virtual pattern 11a of the floor area on the virtual plane 8 (see FIG. 9).

図10は、本発明の実施の形態に係るハフ変換の概念について説明する図である。ここで、本図を参照してハフ変換について説明する。線図形の解析を行うようなデジタル画像処理において、直線的な線分を見つけ出すことは重要な作業である。係る線分を見つけ出す方法のうち数学的な計算論理をベースとした線分検出方法の一例としてハフ変換がある。ハフ変換は、P.V.C.Houghによって考案された手法であり、直線の検出や円の検出に用いられる。この手法は、多数決原理に基づいており、本実施の形態のように、点(ここでは輝点11b)が線状(ここでは正方格子状)に顕著に分布している場合に有効である。また、複数の直線を同時に検出できる利点もある。   FIG. 10 is a diagram for explaining the concept of the Hough transform according to the embodiment of the present invention. Here, the Hough transform will be described with reference to FIG. In digital image processing such as analysis of line figures, finding a straight line segment is an important task. Among the methods for finding such a line segment, there is a Hough transform as an example of a line segment detection method based on mathematical calculation logic. The Hough transform is based on P.I. V. C. This is a method devised by Hough, and is used to detect straight lines and circles. This method is based on the majority rule, and is effective when the points (here, the bright spots 11b) are remarkably distributed in a linear shape (here, a square lattice shape) as in the present embodiment. There is also an advantage that a plurality of straight lines can be detected simultaneously.

以下、本図を参照してハフ変換の一般的な概略を説明する。一般的に直線の式は、図10に示す数式(a)で表すことができる。ここで、数式(a)中、a、bは定数である。この直線上に任意のM個の点、{(x,y)、(x,y)、・・・、(x,y)}を選んだとすると、図10に示す数式(b)が成り立つ。ここで、数式(b)中i=1、2、・・・、Mである。 Hereinafter, a general outline of the Hough transform will be described with reference to FIG. In general, a straight line expression can be expressed by a mathematical expression (a) shown in FIG. Here, in Formula (a), a 0 and b 0 are constants. If arbitrary M points {(x 1 , y 1 ), (x 2 , y 2 ),..., (X M , y M )} are selected on this straight line, the mathematical formula ( b) holds. Here, i = 1, 2,..., M in the formula (b).

ここでa、bを変数とみなして(a,b)平面を考えると、x−y座標系のある1点(x,y)が与えられたとき、 そこを通るすべての直線を表す式は、図10に示す数式(c)となる。 Here, considering a 0 and b 0 as variables and considering the (a, b) plane, when a certain point (x i , y i ) in the xy coordinate system is given, all straight lines passing there The formula representing the formula is the formula (c) shown in FIG.

数式(c)で示す直線は、点(x,y)ごとに異なるが、 上記のように点(x,y)が、数式(a)で示す直線上の点であるとすれば、すべて点(a、b)を通るはずである。上記と同じことを極座標系で考えると、x−y座標系のある1点(x,y)が与えられたとき、それを通るすべての直線群は、図10に示す数式(d)で表すことができる。 Straight line shown by Equation (c), the point (x i, y i) is different for each, by the points as described above (x i, y i) is, as a point on the straight line shown by Equation (a) All should pass through the points (a 0 , b 0 ). Considering the same thing as the above in the polar coordinate system, when a certain point (x i , y i ) in the xy coordinate system is given, all straight line groups passing through the point are expressed by the formula (d) shown in FIG. Can be expressed as

ここで、図10のグラフに示すように、ρは原点から直線への垂線の長さ、θαは当該垂線とx軸との角度である。この場合、ρ、θαの値をρ、θα0に固定すれば、(x,y)
平面上での1本の直線を特定したことになる。
Here, as shown in the graph of FIG. 10, ρ is the length of the perpendicular line from the origin to θ, and θα is the angle between the perpendicular line and the x axis. In this case, [rho, value [rho 0 of theta alpha, be fixed to the θ α0, (x, y)
One straight line on the plane is specified.

したがって、ρ=xcosθα0+ysinθα0上の任意のM個の点、{(x,y)、(x,y)、・・・、(x,y)}に対応する(θα,ρ)平面上の曲線は、全て(θα0、ρ)で交わる。θαは、−πからπまで有限の範囲を細かく分割すればよく、また、ρもある程度の大きさまで取ればよいので、ハフ変換による直線検出は、(θα,ρ)平面上で実行されるのが一般的である。すなわち、候補点(x,y)の集合が与えられたとき、全ての曲線が最も多く交差する点(θα0、ρ)を見つければ、数式(a)で表す直線を抽出することができる。 Therefore, it corresponds to arbitrary M points on ρ 0 = x cos θ α0 + ysin θ α0 , {(x 1 , y 1 ), (x 2 , y 2 ),..., (X M , y M )}. The curves on the (θ α , ρ) plane all intersect at (θ α0 , ρ 0 ). Since θ α only needs to be subdivided into a finite range from −π to π, and ρ needs only to have a certain size, straight line detection by the Hough transform is performed on the (θ α , ρ) plane. It is common. That is, when a set of candidate points (x i , y i ) is given, if a point (θ α0 , ρ 0 ) where all the curves intersect most frequently is found, a straight line represented by the formula (a) is extracted. Can do.

例えば、いま点A:(−2,0)、点B:(0,2)、点C:(4,6)の3点が与えられたとき、それぞれに対して、点A:ρ=−2cosθα0、点B:ρ=2sinθα0、点C:ρ=4cosθα0+6sinθα0が成り立つ。ここで、当該3つの式に関してθα0、ρについて解くと、θα0=135°、ρ=√2となる。よってこの3点から抽出される直線はy=x+2となる。 For example, when three points of point A: (−2, 0), point B: (0, 2), point C: (4, 6) are given, point A: ρ 0 = −2 cos θ α0 , point B: ρ 0 = 2 sin θ α0 , point C: ρ 0 = 4 cos θ α0 +6 sin θ α0 . Here, when θ α0 and ρ 0 are solved for the three equations, θ α0 = 135 ° and ρ 0 = √2. Therefore, the straight line extracted from these three points is y = x + 2.

なお、ハフ変換による直線の検出には、例えば、1線が実線でも、破線でも、 一部かすれていても抽出できる、2線の太さにばらつきがあってもよい、3画素ごとに独立な写像のため並列処理による高速化が可能、4線が画像中に何本あっても一括処理できる、等の利点がある。   In addition, for detection of straight lines by Hough transform, for example, one line can be extracted even if it is a solid line, a broken line, or partly blurred, the thickness of the two lines may vary, and it is independent for every three pixels. There are advantages such as high speed by parallel processing for mapping, and batch processing of any number of 4 lines in the image.

回転角算出部26は、床面4上の床面領域の実際のパターン11aに関してハフ変換を実行して、第1の角度ピークとして、実際の輝点11b群から抽出される直線の支配的な角度θreal,α0を算出する。さらに、回転角算出部26は、仮想平面8(図9参照)上の床面領域の仮想のパターン11aに関してハフ変換を実行して、第2の角度ピークとして、仮想平面8(図9参照)上の床面領域の仮想の輝点11b群から抽出される直線の支配的な角度θideal,α0を算出する。 The rotation angle calculation unit 26 performs Hough transform on the actual pattern 11a of the floor area on the floor 4, and controls the straight line extracted from the actual bright spot 11b group as the first angle peak. The angles θ real and α0 are calculated. Further, the rotation angle calculation unit 26 performs Hough transform on the virtual pattern 11a of the floor area on the virtual plane 8 (see FIG. 9), and uses the virtual plane 8 (see FIG. 9) as the second angle peak. A dominant angle θ ideal, α0 of a straight line extracted from the virtual bright spot 11b group in the upper floor area is calculated.

ここで、回転角算出部26は、角度θideal,α0を算出する際には、まず、回転角αを、0°から180°まで0.1°刻みで仮定したときの各回転角αについての仮想のパターン11aの位置座標を算出する。具体的には、回転角算出部26は、上述した数式(12)、(13)(図19参照)で算出される光軸補正後の出力角度φ’、φ’に、回転角αを導入することで得られる回転角補正後の出力角度φ’’、φ’’を、図19に示す数式(14)、(15)に基づいて各回転角毎に算出する。回転角算出部26は、出力角度φ’’、φ’’を用いて、上述した数式(6)、(7)(図19参照)に出力角度φ=φ’’、φ=φ’’を代入する。これにより、0°から180°まで0.1°刻みに仮定される各回転角αに応じて、仮想の輝点11bの結像面15’(図6参照)上での各位置座標u’’ideal,m,n、v’’ideal,m,nを算出する。回転角算出部26は、床面領域の仮想の輝点11bにより形成される仮想のパターン11aに関して、0°から180°まで0.1°刻みで仮定したときの各回転角αごとにハフ変換を実行して、角度θideal,α0を算出する。 Here, when the rotation angle calculation unit 26 calculates the angle θ ideal, α0 , first, for each rotation angle α when the rotation angle α is assumed in increments of 0.1 ° from 0 ° to 180 °. The position coordinates of the virtual pattern 11a are calculated. Specifically, the rotation angle calculation unit 26 adds the rotation angle α to the output angles φ ′ X and φ ′ Y after optical axis correction calculated by the above-described mathematical expressions (12) and (13) (see FIG. 19). output angle after the rotation angle correction obtained by introducing φ '' X, φ 'a' Y, equation shown in FIG. 19 (14), is calculated for each rotation angle based on (15). The rotation angle calculation unit 26 uses the output angles φ ″ X , φ ″ Y and outputs the output angles φ X = φ ″ X , φ Y to the above-described formulas (6) and (7) (see FIG. 19). = Φ '' Y is substituted. Thereby, each position coordinate u ′ on the imaging plane 15 ′ (see FIG. 6) of the virtual bright spot 11b according to each rotation angle α assumed in increments of 0.1 ° from 0 ° to 180 °. ' ideal, m, n , v''Calculate ideal, m, n . The rotation angle calculation unit 26 performs the Hough transform for each rotation angle α when the hypothetical pattern 11a formed by the virtual bright spot 11b in the floor area is assumed in increments of 0.1 ° from 0 ° to 180 °. To calculate the angle θ ideal, α0 .

回転角算出部26は、角度θreal,α0と各回転角毎の角度θideal,α0とを比較して、角度θreal,α0と角度θideal,α0とが、略一致した際の回転角αを、実際のFG素子122の回転角αとして設定する。なお、ここで、角度θreal,α0と角度θideal,α0とが略一致した際の回転角αは、角度θreal,α0と角度θideal,α0とが完全に一致した際の回転角αだけでなく、角度θreal,α0と角度θideal,α0とが最も近い際の回転角αとしてもよい。この場合、当該最も近い場合の回転角を、実際のFG素子122の回転角αとする。ここでは、回転角αを0°から180°まで0.1°刻みに仮定しているので、角度θreal,α0と角度θideal,α0とが最も近い際の回転角を実際の回転角αとしてもほとんど誤差はない。 The rotation angle calculation unit 26 compares the angles θ real and α0 with the angles θ ideal and α0 for each rotation angle , and the rotation angle when the angles θ real and α0 substantially match the angles θ ideal and α0. α is set as the actual rotation angle α of the FG element 122. Here, the angle theta real, .alpha.0 the angle theta ideal, the α rotation angle at where the .alpha.0 was substantially matches the angle theta real, .alpha.0 the angle theta ideal, rotation angle at where the .alpha.0 exactly matches α In addition to the angle θ real, α0 and the angle θ ideal, α0 may be the rotation angle α. In this case, the rotation angle in the closest case is set as the actual rotation angle α of the FG element 122. Here, since the rotation angle α is assumed to be in increments of 0.1 ° from 0 ° to 180 °, the rotation angle when the angle θ real, α0 and the angle θ ideal, α0 are closest is the actual rotation angle α. There is almost no error.

基準位置算出部24は、回転角算出部26によって設定された実際のFG素子122の回転角αに応じた回転角補正後の出力角度φ’’、φ’’を用いて、上述した数式(6)、(7)(図19参照)に出力角度φ=φ’’、φ=φ’’を代入する。これにより、基準位置算出部24は、回転角算出部26によって設定された実際のFG素子122の回転角αに応じて、回転角補正後の仮想の輝点11bの結像面15’(図6参照)上での位置座標u’’ideal,m,n、v’’ideal,m,nを算出し、上述したように、当該位置座標u’’ideal,m,n、v’’ideal,m,nと実際の位置座標ureal,m,n、real,m,nから、各輝点11bの床面4、正面壁面5a、側面壁面5c、側面壁面5d上での移動量の測定のための基準の三次元座標を算出することができる。言い換えれば、基準位置算出部24は、回転角算出部26によって設定された実際のFG素子122の回転角αにおける仮想の輝点11bの位置と、実際に撮像されたパターン光輝点11bの位置に基づいて、各輝点11bの床面4、正面壁面5a、側面壁面5c、側面壁面5d上での移動量の測定のための基準の三次元座標を算出しているということができる。 The reference position calculation unit 24 uses the output angles φ ″ X and φ ″ Y after the rotation angle correction according to the rotation angle α of the actual FG element 122 set by the rotation angle calculation unit 26 as described above. The output angles φ X = φ ″ X , φ Y = φ ″ Y are substituted into Equations (6) and (7) (see FIG. 19). As a result, the reference position calculation unit 24 determines the image plane 15 ′ of the virtual bright spot 11b after correction of the rotation angle according to the actual rotation angle α of the FG element 122 set by the rotation angle calculation unit 26 (FIG. 6) and calculate the position coordinates u ″ ideal, m, n , v ″ ideal, m, n above, and as described above, the position coordinates u ″ ideal, m, n , v ″ ideal , M, n and the actual position coordinates u real, m, n, v real, m, n , the amount of movement of each bright spot 11b on the floor 4, front wall 5a, side wall 5c, and side wall 5d. A reference three-dimensional coordinate for measurement can be calculated. In other words, the reference position calculation unit 24 sets the position of the virtual bright spot 11b at the actual rotation angle α of the FG element 122 set by the rotation angle calculation unit 26 and the position of the pattern bright spot 11b actually captured. Based on this, it can be said that the reference three-dimensional coordinates for measuring the amount of movement of each bright spot 11b on the floor surface 4, front wall surface 5a, side wall surface 5c, and side wall surface 5d are calculated.

なお、基準位置算出部24は、すべての回転角についての出力角度φ’’、φ’’の算出、位置座標u’’ideal,m,n、v’’ideal,m,nの算出、角度θideal,α0の算出をそれぞれ一括で行い、その後、各角度θideal,α0とθreal,α0を比較して実際の回転角αを設定してもよいし、各回転角毎に出力角度φ’’、φ’’、位置座標u’’ideal,m,n、v’’ideal,m,n、角度θideal,α0を算出し、その都度比較を行って回転角αを設定してもよい。各回転角毎にその都度比較を行って回転角αを設定する場合には、適切な回転角αが見つかった場合に、以降の処理を省略することで計算量を軽減することができる。また、基準位置算出部24は、実際の回転角αに応じた各仮想の輝点11bの位置座標u’’ideal,m,n、v’’ideal,m,nを算出する際に、回転角算出部26が実際の回転角αを設定する際に算出した各位置座標u’’ideal,m,n、v’’ideal,m,nを読み出すことで、位置座標u’’ideal,m,n、v’’ideal を算出したものとしても良い。この場合、回転角算出部26が算出した各位置座標u’’ideal,m,n、v’’ideal,m,nを記憶部31(図5参照)に記憶しておくことで、計算量を少なくすることができる。 The reference position calculation unit 24 calculates output angles φ ″ X and φ ″ Y for all rotation angles, and calculates position coordinates u ″ ideal, m, n , and v ″ ideal, m, n . The angles θ ideal and α0 can be calculated together, and then the angles θ ideal and α0 can be compared with θ real and α0 to set the actual rotation angle α or output for each rotation angle. Calculate the angle φ ″ X , φ ″ Y , position coordinates u ″ ideal, m, n , v ″ ideal, m, n , angle θ ideal, α0 and compare each time to calculate the rotation angle α It may be set. When the rotation angle α is set by comparing each rotation angle, the calculation amount can be reduced by omitting the subsequent processing when an appropriate rotation angle α is found. Further, the reference position calculation unit 24 performs rotation when calculating the position coordinates u ″ ideal, m, n , v ″ ideal, m, n of each virtual bright spot 11b according to the actual rotation angle α. By reading out each position coordinate u ″ ideal, m, n , v ″ ideal, m, n calculated when the angle calculation unit 26 sets the actual rotation angle α, the position coordinate u ″ ideal, m , N , v ″ ideal may be calculated. In this case, by storing each position coordinate u ″ ideal, m, n , v ″ ideal, m, n calculated by the rotation angle calculation unit 26 in the storage unit 31 (see FIG. 5), the calculation amount Can be reduced.

上述したように、基準位置算出部24によって算出される光軸補正、回転角補正後の仮想の輝点11b群の結像面15’(図6参照)上での位置座標u’’ideal,m,n、v’’ideal,m,nと実際の位置座標ureal,m,n、real,m,nから、各輝点11bの仮想の移動量δを算出し、数式(1)、(2)、(3)(図19参照)に代入することで、空室時の各壁面上での輝点11b群の三次元位置、すなわち、床面4、正面壁面5a、側面壁面5c、側面壁面5d上での各輝点11bの移動量の測定のための基準となる三次元座標を算出することができる。さらに言えば、床面4、正面壁面5a、側面壁面5c、側面壁面5d上での各輝点11bの移動量の測定のための基準となる三次元座標に基づいて、トイレ3を画成する壁面の位置を特定することができる。 As described above, the position coordinates u ″ ideal on the imaging plane 15 ′ (see FIG. 6) of the virtual bright spot 11b group after the optical axis correction and the rotation angle correction calculated by the reference position calculation unit 24 , The virtual movement amount δ of each bright spot 11b is calculated from m, n , v ″ ideal, m, n and the actual position coordinates u real, m, n, v real, m, n , and Expression (1) , (2), (3) (see FIG. 19), the three-dimensional position of the bright spot 11b group on each wall surface at the time of vacant space, that is, the floor surface 4, the front wall surface 5a, and the side wall surface 5c. The three-dimensional coordinates serving as a reference for measuring the movement amount of each bright spot 11b on the side wall surface 5d can be calculated. More specifically, the toilet 3 is defined based on the three-dimensional coordinates serving as a reference for measuring the amount of movement of each bright spot 11b on the floor surface 4, the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d. The position of the wall surface can be specified.

ただし、理想的には、壁面上の輝点は、ここでトイレの形状がきれいに表れるはずだが、実際には、ノイズや補正しきれないパラメータの影響により、きれいにトイレの形状が表れない場合がある。   However, ideally, the bright spot on the wall should show the shape of the toilet neatly, but in reality, the shape of the toilet may not appear neatly due to the influence of noise and parameters that cannot be corrected. .

図11は、本発明の実施の形態に係る光軸補正、回転角補正後の仮想の輝点11b群に基づいて算出した床面4、正面壁面5a、側面壁面5c、側面壁面5d上での移動量測定の基準位置となる三次元座標をプロットした投影図である。(a)は、正面壁面5a側から裏面壁面5b方向を見た図、(b)は、側面壁面5c側から側面壁面5d方向を見た図である。   FIG. 11 is a diagram of the floor surface 4, the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d calculated based on the virtual bright spot 11b group after the optical axis correction and the rotation angle correction according to the embodiment of the present invention. It is the projection figure which plotted the three-dimensional coordinate used as the reference position of movement amount measurement. (A) is the figure which looked at the back wall surface 5b direction from the front wall surface 5a side, (b) is the figure which looked at the side wall surface 5d direction from the side wall surface 5c side.

壁面特定部27は、各基準の位置の正面壁面5a、側面壁面5c、側面壁面5dに垂直な方向の位置に関する頻度ヒストグラムに応じて正面壁面5a、側面壁面5c、側面壁面5dの位置を特定するように構成される。すなわち、本図中下段に示す各平面上の輝点11bの位置の頻度ヒストグラムをとることにより、その頻度の最も大きいところに壁面位置を求めることができる。   The wall surface specifying unit 27 specifies the positions of the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d according to the frequency histogram regarding the positions in the direction perpendicular to the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d at each reference position. Configured as follows. That is, by taking a frequency histogram of the position of the bright spot 11b on each plane shown in the lower part of the figure, the wall surface position can be obtained at the place where the frequency is the highest.

ここで、投影装置11、撮像装置12が取り付けられている裏面壁面5bと、設置高さhの基準となっている床面4の位置は既に特定されている。頻度ヒストグラムのピークを取る位置に壁面があるものと推定できることから、図11(a)下段の頻度ヒストグラムより、側面壁面5c、側面壁面5dの位置を特定することができ、両壁面の相対的な位置関係からトイレ3の幅W(図9(a)も参照)を特定することができる。同様に、図11(b)下段の頻度ヒストグラムより、正面壁面5aの値を特定することができ、正面壁面5aと裏面壁面5bとの相対的な位置関係からトイレ3の奥行きD(図9(a)も参照)を特定することができる。   Here, the positions of the rear wall surface 5b to which the projection device 11 and the imaging device 12 are attached and the floor surface 4 serving as a reference for the installation height h have already been specified. Since it can be estimated that there is a wall surface at the position where the peak of the frequency histogram is taken, the positions of the side wall surface 5c and the side wall surface 5d can be specified from the frequency histogram in the lower part of FIG. The width W of the toilet 3 (see also FIG. 9A) can be specified from the positional relationship. Similarly, the value of the front wall surface 5a can be identified from the frequency histogram in the lower part of FIG. 11B, and the depth D of the toilet 3 (FIG. 9 (FIG. 9) from the relative positional relationship between the front wall surface 5a and the back wall surface 5b. see also a)).

本図中、例えば図11(a)の投影図中に、特定された側面壁面5dよりも外側にプロットされている輝点11bが存在しているが、当該輝点11bは、上述したようにノイズや補正しきれないパラメータの影響による誤差と見ることができる。そこで、本実施の形態では、当該誤差を軽減してより正確な移動量δの測定を行うため、基準位置算出部24は、特定された正面壁面5a、側面壁面5c、側面壁面5dの位置に基づいて補正された移動量測定の基準位置となる三次元座標を算出するように構成される。   In this figure, for example, in the projection view of FIG. 11A, there is a bright spot 11b plotted outside the specified side wall surface 5d, but the bright spot 11b is as described above. This can be regarded as an error due to the influence of noise or parameters that cannot be corrected. Therefore, in the present embodiment, in order to reduce the error and measure the movement amount δ more accurately, the reference position calculation unit 24 is positioned at the specified positions of the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d. A three-dimensional coordinate serving as a reference position for movement amount measurement corrected based on the three-dimensional coordinate is calculated.

図12は、本発明の実施の形態に係るトイレ3のX軸(図6参照)を通る断面の模式的線図である。なお、本図は、側面壁面5c方向を見るように図示し、便器7や撮像装置12の結像レンズ13a、結像面15’以外の構成等、以下の説明に応じて省略できるものは適宜省略して図示してある。   FIG. 12 is a schematic diagram of a cross section passing through the X-axis (see FIG. 6) of the toilet 3 according to the embodiment of the present invention. In addition, this figure is shown so that it may look at the side wall surface 5c direction, and what can be abbreviate | omitted according to the following description, such as structures other than the imaging lens 13a of the toilet bowl 7 and the imaging device 12, and imaging plane 15 ', is suitably used. The illustration is omitted.

ここで、特定された正面壁面5a、側面壁面5c、側面壁面5dの位置に基づいて、各面上での基準となる各輝点11bの三次元座標を算出するには、各輝点11bと結像レンズ13aの中心を結ぶ直線の方程式を求める必要がある。輝点は、結像レンズ13aを通して、結像面15’に結像する。言い換えれば、床面4、正面壁面5a、側面壁面5c、側面壁面5dに投影された輝点は、結像面15’に結像した輝点と結像レンズ13aの中心点を結んだ直線の延長線上にある。したがって、結像面15’上の輝点の位置(Δu,Δv)、結像レンズ13aから結像面15’までの結像レンズ焦点距離lを用いて、結像レンズ13aと輝点を結ぶ直線の方程式が、図19に示す数式(16)と求められる。   Here, in order to calculate the three-dimensional coordinates of each bright spot 11b serving as a reference on each surface based on the specified positions of the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d, It is necessary to obtain a linear equation connecting the centers of the imaging lens 13a. The bright spot forms an image on the imaging surface 15 'through the imaging lens 13a. In other words, the bright spot projected on the floor surface 4, the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d is a straight line connecting the bright spot imaged on the imaging plane 15 'and the central point of the imaging lens 13a. It is on the extension line. Accordingly, the bright spot position (Δu, Δv) on the imaging plane 15 ′ and the focal length l of the imaging lens from the imaging lens 13a to the imaging plane 15 ′ are used to connect the bright spot to the imaging lens 13a. A linear equation is obtained as Equation (16) shown in FIG.

数式(16)から、Z=(l/Δu)・X、Y=(Δv/Δu)・Xを導きだし、これを平面方程式の一般的な形aX+bY+cZ=dに代入すると、その平面上の各輝点の三次元座標のうちのX座標が、図19に示す数式(17)で求められる。同様に、数式(16)から、Z=(l/Δv)・Y、X=(Δu/Δv)・Yを導きだし、aX+bY+cZ=dに代入すると、その平面上の各輝点の三次元座標のうちのY座標が、図19に示す数式(18)で求められる。さらに、数式(16)から、X=(Δu/l)・Z、Y=(Δv/l)・Zを導きだし、aX+bY+cZ=dに代入すると、その平面上の各輝点の三次元座標のうちのZ座標が、図19に示す数式(19)で求められる。   From Equation (16), Z = (l / Δu) · X, Y = (Δv / Δu) · X is derived, and when this is substituted into the general form aX + bY + cZ = d of the plane equation, The X coordinate of the three-dimensional coordinates of the bright spot is obtained by Expression (17) shown in FIG. Similarly, when Z = (l / Δv) · Y and X = (Δu / Δv) · Y are derived from Equation (16) and substituted into aX + bY + cZ = d, the three-dimensional coordinates of each bright spot on the plane Y coordinate is obtained by the mathematical formula (18) shown in FIG. Furthermore, when X = (Δu / l) · Z and Y = (Δv / l) · Z are derived from Equation (16) and substituted into aX + bY + cZ = d, the three-dimensional coordinates of each bright spot on the plane are calculated. Among them, the Z coordinate is obtained by Expression (19) shown in FIG.

トイレ3には、床面4、正面壁面5a、側面壁面5c、5d、便器7の上面の5個の平面が存在すると仮定する。ここで、トイレ3の奥行D、幅W、投影装置11、撮像装置12の設置高さh、光軸角度θ、便器7の高さHseatを入力しておく(図9(a)も参照)。なお、投影装置11、撮像装置12の設置高さhの代わりに、トイレ高さHを用いてもよいが、投影装置11は、床面4の方向に輝点11bを投影しているので、投影装置11よりも上方の壁面は、実質的に輝点11bの移動の測定には関係しない。よって、ここでは設置高さhを用いることとしている。 It is assumed that the toilet 3 has five planes including a floor surface 4, a front wall surface 5a, side wall surfaces 5c and 5d, and an upper surface of the toilet bowl 7. Here, the depth D of the toilet 3, the width W, the installation height h of the projection device 11 and the imaging device 12, the optical axis angle θ, and the height H seat of the toilet 7 are input (see also FIG. 9A). ). In addition, although the toilet height H may be used instead of the installation height h of the projection device 11 and the imaging device 12, since the projection device 11 projects the bright spot 11b in the direction of the floor surface 4, The wall surface above the projection device 11 is not substantially related to the measurement of the movement of the bright spot 11b. Therefore, the installation height h is used here.

図19に示す数式(20)、(21)、(22)、(23)、(24)に、床面4、正面壁面5a、側面壁面5c、5d、便器7の上面の5個の平面の面方程式を示す。ここで、それぞれが、上述した面の方程式aX+bY+cZ=dに相当するものと考え、数式(17)、(18)、(19)のa、b、c、dに、数式(20)、(21)、(22)、(23)、(24)の対応する値を代入すれば、床面4、正面壁面5a、側面壁面5c、5d、便器7の上面上の輝点11bの三次元座標が、結像面15’上の輝点の位置(Δu,Δv)から求まる。なお、ここで、Δu,Δvは、上述した結像面15’上での実際の輝点の位置座標ureal,m,n、real,m,nに相当する。 19 are the five planes of the floor surface 4, the front wall surface 5a, the side wall surfaces 5c and 5d, and the upper surface of the toilet bowl 7. In the equations (20), (21), (22), (23), and (24) shown in FIG. The surface equation is shown. Here, it is considered that each corresponds to the above-described surface equation aX + bY + cZ = d, and the equations (20), (21) are added to a, b, c, d in the equations (17), (18), (19). ), (22), (23), and the corresponding values of (24) are substituted, the three-dimensional coordinates of the bright surface 11b on the floor surface 4, the front wall surface 5a, the side wall surfaces 5c, 5d, and the upper surface of the toilet 7 are obtained. , From the position (Δu, Δv) of the bright spot on the image plane 15 ′. Here, Δu and Δv correspond to the position coordinates u real, m, n, v real, m, n of the actual bright spot on the image plane 15 ′ described above.

例えば、床面4上の輝点11bの場合は、a=0、b=−sinθ、c=cosθ、d=hを、数式(17)、(18)、(19)に代入することで、床面4の上面上の輝点11bの三次元座標が算出される。上述したように、すでに各輝点11bの概ねの位置は、各仮想の輝点11bとの比較で求められているので、各輝点11bがいずれの面上にあるかは判っているものとすると、各輝点11bに対応する面方程式としての数式(20)、(21)、(22)、(23)、(24)と、数式(17)、(18)、(19)とを用いて、各輝点11bの床面4、正面壁面5a、側面壁面5c、側面壁面5d上での移動量の測定のための基準の輝点の三次元座標を算出することができる。   For example, in the case of the bright spot 11b on the floor surface 4, by substituting a = 0, b = −sin θ, c = cos θ, and d = h into equations (17), (18), and (19), The three-dimensional coordinates of the bright spot 11b on the upper surface of the floor surface 4 are calculated. As described above, since the approximate position of each bright spot 11b has already been obtained by comparison with each virtual bright spot 11b, it is understood that on which surface each bright spot 11b is located. Then, mathematical expressions (20), (21), (22), (23), (24) and mathematical expressions (17), (18), (19) are used as surface equations corresponding to each bright spot 11b. Thus, the three-dimensional coordinates of the reference bright spot for measuring the amount of movement of each bright spot 11b on the floor 4, front wall 5a, side wall 5c, and side wall 5d can be calculated.

以上のようにして、基準位置算出部24は、壁面特定部27によって特定された正面壁面5a、側面壁面5c、側面壁面5dの位置に基づいて補正された移動量測定の基準位置となる輝点の三次元座標を算出することで、ノイズや補正しきれないパラメータの影響による誤差を軽減することができる。   As described above, the reference position calculation unit 24 is a bright spot that serves as a reference position for movement amount correction based on the positions of the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d specified by the wall surface specification unit 27. By calculating the three-dimensional coordinates, it is possible to reduce errors due to the influence of noise and parameters that cannot be corrected.

なお、対象物(ここでは人物2)が存在するときの測定装置14による三次元座標の算出は、以下のように行なう。まず、撮像装置12に正対した平面に基準となる輝点が含まれるものとして、数式(1)から数式(3)に従って、当該輝点の基準位置からの移動量δにより、図6に示す座標系での輝点の位置(三次元座標)を求める。次にこの位置を、撮像装置12の結像レンズ13a(図6参照)の主面の位置と光軸の方向θ(図1参照)とから、監視領域(ここではトイレ3)の位置に座標変換する。   Note that the calculation of the three-dimensional coordinates by the measuring device 14 when the object (here, the person 2) is present is performed as follows. First, assuming that the reference bright spot is included in the plane directly facing the imaging device 12, the amount of movement δ from the reference position of the bright spot is shown in FIG. 6 according to Formula (1) to Formula (3). The position (three-dimensional coordinate) of the bright spot in the coordinate system is obtained. Next, this position is coordinated to the position of the monitoring region (here, toilet 3) from the position of the main surface of the imaging lens 13a (see FIG. 6) of the imaging device 12 and the direction θ of the optical axis (see FIG. 1). Convert.

状態判定部23(図5参照)は、上述したように、測定装置14により測定されたパターンの移動に基づいて、人物2の状態を判定するように構成される。具体的には、状態判定部23は、測定装置14により得られた人物2の形状又は動きに関する情報、ここでは、パターン11aの移動に関する情報としての形状情報をブロック化して、ニューラルネットワークの入力層に入力することで出力層から得られる出力に基づいて、人物2の状態を判定するように構成されている。なお、状態判定部23により判定する人物2の状態は、典型的には、危険な状態と安全な状態の2種類を含む。危険な状態は、例えば、人物2が倒れている状態等の人物2の身体に異常が起こったと推測できる状態である。
以下、状態判定部23による人物2の姿勢の判定について説明する。
As described above, the state determination unit 23 (see FIG. 5) is configured to determine the state of the person 2 based on the movement of the pattern measured by the measurement device 14. Specifically, the state determination unit 23 blocks information on the shape or movement of the person 2 obtained by the measuring device 14, in this case, shape information as information on movement of the pattern 11a, and blocks the input layer of the neural network. The state of the person 2 is determined based on the output obtained from the output layer. The state of the person 2 determined by the state determination unit 23 typically includes two types, a dangerous state and a safe state. The dangerous state is a state where it can be inferred that an abnormality has occurred in the body of the person 2 such as a state where the person 2 has fallen.
Hereinafter, the determination of the posture of the person 2 by the state determination unit 23 will be described.

図13は、本発明の実施の形態に用いる形状情報と、形状情報をブロック化した情報の一例を示す模式図である。本図中、上段に形状情報、下段にブロック化した情報を図示する。なお、本図(a)は、人物2が立っている姿勢を示す模式図、(b)は、人物2が便器7の上面に座っている姿勢を示す模式図、(c)は、人物2が倒れている姿勢を示す模式図である。また、本図では、形状情報、形状情報をブロック化した情報を、判りやすくするため、これらの情報を床面4、便器7の位置、形状を表示した画像に重ね合わせ、側面壁面5d側から見た画像として示している。   FIG. 13 is a schematic diagram illustrating an example of shape information used in the embodiment of the present invention and information obtained by blocking the shape information. In the figure, the shape information is shown in the upper part, and the block information is shown in the lower part. In addition, this figure (a) is a schematic diagram which shows the attitude | position which the person 2 stands, (b) is a schematic diagram which shows the attitude | position in which the person 2 is sitting on the upper surface of the toilet bowl 7, (c) is the person 2 It is a schematic diagram which shows the attitude | position which has fallen. Moreover, in this figure, in order to make it easy to understand the shape information and the information obtained by blocking the shape information, these pieces of information are superimposed on an image displaying the position and shape of the floor surface 4 and the toilet bowl 7 and are viewed from the side wall surface 5d side. Shown as a seen image.

ここで、上述した測定装置14は、算出された人物2に投影された各輝点の三次元座標に基づいて、人物2の形状情報を生成するように構成されている。形状情報とは、人物2の形状を示す情報であり、ここでは、測定装置14で算出された人物2に投影された各輝点の三次元座標を、移動した全輝点について、トイレ3室内の三次元空間にプロットした情報である。   Here, the measurement device 14 described above is configured to generate shape information of the person 2 based on the calculated three-dimensional coordinates of each bright spot projected onto the person 2. The shape information is information indicating the shape of the person 2. Here, the three-dimensional coordinates of each bright spot projected on the person 2 calculated by the measuring device 14 are used for all the bright spots that have been moved in the toilet 3 room. Information plotted in the three-dimensional space.

状態判定部23は、さらに、測定装置14が生成した形状情報をブロック化するように構成されている。さらに言えば、状態判定部23は、形状情報を、投影される輝点の間隔よりも広い領域のブロック毎の情報に変換する。具体例としては、トイレ3内の空間を所定の間隔に区切った領域をブロックとして、そのブロック内にある形状情報をまとめた情報量の少ないデータに変換する。所定の間隔は、例えばトイレ3内で15cm程度に相当する間隔である。ここでは、ブロックは、トイレ3の空間を15cmの立方体のメッシュ状に分割して、幅方向に6個×高さ方向に14個×奥行方向に12個、計1008個にブロック化した。ブロック毎の情報は例えば2進数データで示すとよい。この場合には、例えばブロック内に形状情報(輝点)があれば1、全く無ければ0、といったように変換するとよい。   The state determination unit 23 is further configured to block the shape information generated by the measurement device 14. Furthermore, the state determination unit 23 converts the shape information into information for each block in a region wider than the projected bright spot interval. As a specific example, an area obtained by dividing the space in the toilet 3 at a predetermined interval is used as a block, and the shape information in the block is converted into data with a small amount of information. The predetermined interval is an interval corresponding to about 15 cm in the toilet 3, for example. Here, the space of the toilet 3 was divided into 15 cm cubic meshes, and the blocks were divided into 6 blocks in the width direction × 14 blocks in the height direction × 12 blocks in the depth direction, for a total of 1008 blocks. The information for each block may be indicated by binary data, for example. In this case, for example, it may be converted to 1 if there is shape information (bright spot) in the block and 0 if there is no shape information.

さらに、状態判定部23は、前記ブロック化した情報をニューラルネットワークに入力することで、人物2の状態の判定結果を得るように構成されている。本実施の形態では、ニューラルネットワークに入力することで得られる人物2の状態の判定結果は、「危険な状態」、「安全な状態」の2つの状態である。ニューラルネットワークは、典型的にはフィードフォワード型ニューラルネットワークである。
図14のブロック図に、状態判定部23による人物2の状態の判定の概念を示す。
Further, the state determination unit 23 is configured to obtain the determination result of the state of the person 2 by inputting the block information to the neural network. In the present embodiment, the determination result of the state of the person 2 obtained by inputting to the neural network is two states of “dangerous state” and “safe state”. The neural network is typically a feedforward neural network.
The block diagram of FIG. 14 shows the concept of determination of the state of the person 2 by the state determination unit 23.

ここでニューラルネットワークについて説明する。ニューラルネットワークモデルは、人間の脳での情報処理メカニズムをヒントに考案された情報処理モデルである。本実施の形態では、ニューラルネットワークのモデルの1つであるフィードフォワード型ネットワークにおいてバックプロパゲーションアルゴリズム(誤差逆伝播アルゴリズム)を用いている場合で説明する。   Here, the neural network will be described. The neural network model is an information processing model devised based on the information processing mechanism in the human brain. In the present embodiment, a case will be described where a back-propagation algorithm (error back propagation algorithm) is used in a feed-forward network that is one of neural network models.

バックプロパゲーションアルゴリズムについて説明する。図15に示すように、ニューラルネットワークモデルは、ユニットと呼ばれる多入力、1出力素子がシナプス結合と呼ばれる、一方向だけに信号が伝わり、ある重みを持った結合で結ばれている。また、ユニットはそれらの重みと入力値を掛けた値の総和を入力とし、応答関数f(x)による変形の後、出力される。この出力が各ユニットの状態となる。今回は応答関数f(x)には、準線形の飽和型の特性をもたせるため、シグモイド関数を用いた。   The backpropagation algorithm will be described. As shown in FIG. 15, the neural network model has a multi-input called unit and one-output element called synaptic connection, a signal is transmitted only in one direction, and connected by a connection having a certain weight. Further, the unit receives the sum of values obtained by multiplying those weights by the input value, and outputs the result after transformation by the response function f (x). This output becomes the state of each unit. In this case, a sigmoid function is used for the response function f (x) in order to have a quasi-linear saturation type characteristic.

また、図16に示すように、図15のユニットが、入力層、中間層、出力層からなる階層構造で結ばれたネットワークを多層パーセプトロンと言う。そして、このネットワークから出されたデータを正解である教師信号と比較して、その誤差を極小化させるように、入力層、中間層、出力層を相互に関連づける重み係数としての各結合の重みWを変更、更新することにより、ネットワークに学習させる方法をバックプロパゲ−ションアルゴリズムという。バックプロパゲ−ションアルゴリズムは、各入力に対する出力と、理想の出力(教師信号)の誤差を用いて、ユニット間の重みWを更新(学習)していくものである。また、バックプロパゲ−ションアルゴリズムは、複雑な入出力関係を学習することが可能な方法であると言われている。 Also, as shown in FIG. 16, a network in which the units of FIG. 15 are connected in a hierarchical structure including an input layer, an intermediate layer, and an output layer is called a multilayer perceptron. Then, the weight W of each connection as a weighting coefficient that correlates the input layer, the intermediate layer, and the output layer is compared so that the data output from this network is compared with the correct teacher signal and the error is minimized. A method of making the network learn by changing and updating i is called a back-propagation algorithm. Bakkupuropage - Deployment algorithm output for each input, using the error of the ideal output (teaching signal), but to continue to update the weights W i between the units (learning). The backpropagation algorithm is said to be a method capable of learning complicated input / output relationships.

図17に示すように、状態判定部23は、以上ようなニューラルネットワークを用いて人物2の状態を判定する。なおここでは、学習済みのニューラルネットワークのデータにより、人物2の状態の判定を行う場合を示している。またニューラルネットワークへの入力は、図13で前述したブロック化した情報である。さらに、各ブロックの出力が各入力層Sの出力に相当する。すなわち、ここでは、入力層Sの数は、ブロックの数と等しい1008個である。また、中間層Aの数は、例えば、2〜5個程度、ここでは3個である。出力層Rは安全ノード、危険ノードの2個とした。   As shown in FIG. 17, the state determination unit 23 determines the state of the person 2 using the above neural network. In this example, the state of the person 2 is determined based on learned neural network data. The input to the neural network is the block information described above with reference to FIG. Further, the output of each block corresponds to the output of each input layer S. That is, here, the number of input layers S is 1008, which is equal to the number of blocks. Further, the number of intermediate layers A is, for example, about 2 to 5, and three here. There are two output layers R, a safety node and a dangerous node.

状態判定部23は、安全ノードの出力が危険ノードの出力よりも高い値を示したときは、トイレ3内の人物2は安全な状態であると判定し、逆に危険ノードの出力が安全ノードの出力よりも高い値を示したときは、危険な状態であると判定する。例えば、本図では、安全な状態の一例として、図13(a)に示した人物2が「立っている」場合の情報が入力されると、出力層Rの中で、安全ノードの方が危険ノードよりも高い値を持ち、入力データが「安全な状態」であることがわかる。   When the output of the safety node indicates a higher value than the output of the dangerous node, the state determination unit 23 determines that the person 2 in the toilet 3 is in a safe state, and conversely, the output of the dangerous node is the safety node. When a value higher than the output of is shown, it is determined that the state is dangerous. For example, in this figure, as an example of the safe state, when information when the person 2 shown in FIG. 13A is “standing” is input, the safety node in the output layer R It has a higher value than the dangerous node, and it can be seen that the input data is in a “safe state”.

なお、ここでは、まず最初に、ニューラルネットワークの学習段階として、模擬トイレを用いて、被験者に実際にトイレを利用する姿勢と、転倒時の姿勢の演技を行い、その中から、安全な状態2500シーンの形状情報と、危険な状態2500シーンの形状情報とを抽出し、学習セットとする。そして、教師信号として、安全な状態の形状情報については、安全ノードに1、危険ノードに0を、逆に危険な状態の形状情報については、安全ノードに0、危険ノードに1を与え、バックプロパゲ−ションアルゴリズムにて各結合の重みWを設定する。なお、1シーンは、1つの取得像に応じた画像データであり、したがって、例えば、2500シーンの形状情報を取得するという場合には、2500個の取得像に応じた画像データを取得するということである。 Here, first, as a learning stage of the neural network, using a simulated toilet, the subject performs the posture of actually using the toilet and the posture at the time of the fall, and the safe state 2500 is then selected. The shape information of the scene and the shape information of the dangerous state 2500 scene are extracted as a learning set. As the teacher signal, the safe state shape information is given to the safety node as 1 and the dangerous node as 0, and the dangerous state shape information as 0 as the safety node and 1 to the dangerous node. -Set a weight W i for each connection with the algorithm. One scene is image data corresponding to one acquired image. Therefore, for example, when acquiring shape information of 2500 scenes, it means acquiring image data corresponding to 2500 acquired images. It is.

ここで、再び図5を参照する。状態判定部23は、上述のように、学習させたデータにより、トイレ3室内の人物2の安否の判定を行う。状態判定部23は、人物2が危険な状態であると判定し、当該危険な状態が、例えば3秒から60秒、好ましくは5秒から15秒、ここでは、5秒以上続いた場合に、上述した警報信号部28に危険信号を送信する。警報信号部28は、危険信号を受信すると、当該警報信号部28に接続され、トイレ3内に設置されている警報装置41に警報信号を送信する。警報装置41は、例えば、音声や警報音等を発生させるスピーカによって構成されており、警報信号を受信すると、音声や警報音等を発生させ、トイレ3内の人物2に警報を発する。なお、警報装置41は、スピーカでなくても警報を発せられるものであればなんでもよく、例えば、文字情報等によって警報を発するモニタなどでもよい。   Here, FIG. 5 will be referred to again. As described above, the state determination unit 23 determines the safety of the person 2 in the toilet 3 based on the learned data. The state determination unit 23 determines that the person 2 is in a dangerous state, and when the dangerous state continues, for example, from 3 seconds to 60 seconds, preferably from 5 seconds to 15 seconds, in this case, 5 seconds or more, A danger signal is transmitted to the alarm signal unit 28 described above. When the warning signal unit 28 receives the danger signal, the warning signal unit 28 is connected to the warning signal unit 28 and transmits the warning signal to the warning device 41 installed in the toilet 3. For example, the alarm device 41 is configured by a speaker that generates sound, alarm sound, and the like. When an alarm signal is received, the alarm device 41 generates sound, alarm sound, and the like, and issues an alarm to the person 2 in the toilet 3. The alarm device 41 may be anything that can issue an alarm without being a speaker. For example, a monitor that issues an alarm using character information or the like may be used.

さらに、警報信号部28には、トイレ3内に設置される警報解除ボタン42と緊急通報ボタン43とが接続されている。警報解除ボタン42は、例えば、警報装置41によって警報が発せられた際に、実際には人物2が安全な状態であった場合、すなわち、状態判定部23による危険な状態の判定が誤っていた場合に、人物2が当該警報解除ボタン42を押すことで、警報解除信号を警報信号部28に送信するように構成される。警報信号部28は、警報解除信号を受信すると警報を解除する。   Furthermore, an alarm release button 42 and an emergency call button 43 installed in the toilet 3 are connected to the alarm signal unit 28. For example, when the alarm is issued by the alarm device 41, the alarm release button 42 is actually in a safe state when the person 2 is in a safe state, that is, the dangerous state is determined by the state determination unit 23. In this case, when the person 2 presses the alarm release button 42, the alarm release signal is transmitted to the alarm signal unit 28. The alarm signal unit 28 cancels the alarm when receiving the alarm cancel signal.

警報信号部28は、例えば3秒から30秒、好ましくは5秒から10秒、ここでは、7秒間警報が解除されなかった場合には、通報信号を通報装置(不図示)に送信し、例えば、別室に待機している医師や看護士等に対して人物2が危険な状態であることを通報する。緊急通報ボタン43は、状態判定部23による状態の判定には関係なく、人物2が当該緊急通報ボタン43を押すことで、緊急通報信号を警報信号部28に送信するように構成される。警報信号部28は、緊急通報信号を受信すると、同様に通報信号を通報装置(不図示)に送信する。   The alarm signal unit 28 transmits a notification signal to a notification device (not shown), for example, when the alarm is not canceled, for example, 3 seconds to 30 seconds, preferably 5 seconds to 10 seconds. The person 2 is in a dangerous state with a doctor or nurse waiting in a separate room. The emergency call button 43 is configured to transmit an emergency call signal to the alarm signal unit 28 when the person 2 presses the emergency call button 43 regardless of the state determination by the state determination unit 23. When receiving the emergency notification signal, the alarm signal unit 28 similarly transmits the notification signal to a notification device (not shown).

状態判定部23は、さらに、警報解除ボタン42によって前記警報が解除された際に、入力層S(図17参照)と出力層R(図17参照)とを関連付ける結合の重みWiを変更、更新する追加学習を行うように構成される。これらの結合の重みWiは、上述のように、初期では予め多くの一般的と考えられる学習パターンにより学習して決定された数値が記憶されている。ただし、実際に使用する上では、使用者の特性や使用環境により、事前の学習では当てはまらなかった状態が発生することが考えられ、それに合わせた追加の学習が実使用上必要である。具体的には、状態判定部23は、予め設定される測定装置14により得られた人物2の形状又は動きに関する第1の情報であって、該情報に基づいては人物2が安全な状態と判定しない第1の情報としての第1の形状情報と、警報解除ボタン42によって解除された警報が発せられる直前の一定期間の測定装置14により得られた人物2の形状又は動きに関する第2の情報であって、該情報に基づいて人物2が危険な状態と判定した第2の情報としての第2の形状情報を用いて、前記結合の重みWを変更する追加学習を行うように構成される。 The state determination unit 23 further changes and updates the connection weight Wi for associating the input layer S (see FIG. 17) and the output layer R (see FIG. 17) when the alarm is released by the alarm release button 42. Configured to perform additional learning. As described above, numerical values determined by learning in advance using many common learning patterns are stored in advance as the weights Wi of these connections. However, in actual use, depending on the characteristics and usage environment of the user, it is possible that a state that did not apply in advance learning may occur, and additional learning according to it is necessary for actual use. Specifically, the state determination unit 23 is first information on the shape or movement of the person 2 obtained by the measurement device 14 set in advance, and based on the information, the person 2 is in a safe state. First shape information as first information that is not determined, and second information related to the shape or movement of the person 2 obtained by the measurement device 14 for a certain period immediately before the alarm released by the alarm release button 42 is issued. The second shape information as the second information that the person 2 determines to be in a dangerous state based on the information is used to perform additional learning for changing the weight W i of the combination. The

ここで、第1の形状情報は、例えば、完全に床に倒れているような状態など、どのような監視の条件であっても危険な状態であると判定される形状情報である。第2の形状情報は、言い換えれば、人物2が危険の状態であると判定したが、実際には、安全の状態であった場合の情報、すなわち、誤って危険な状態であると判定してしまった形状情報である。状態判定部23は、警報がトイレ3の利用者である人物2により解除されたら、その姿勢は安全な状態であったものとして追加学習を行う。   Here, the first shape information is shape information that is determined to be a dangerous state under any monitoring condition, for example, a state in which the user is completely lying on the floor. In other words, the second shape information is determined that the person 2 is in a dangerous state, but in reality, it is determined that the person 2 is in a safe state, that is, erroneously determined to be in a dangerous state. It is the shape information. When the warning is canceled by the person 2 who is the user of the toilet 3, the state determination unit 23 performs additional learning on the assumption that the posture is in a safe state.

状態判定部23は、ニューラルネットワークの出力により、人物2が危険な状態であると判定した場合、上述したようにまずトイレ3内部に対して警告を行う。ニューラルネットワークの出力が常に正しいとは限らないため、その判定が間違っていた場合に誤警報が起こる場合がある。人物2のある姿勢が、実は安全な状態であるにもかかわらず、ニューラルネットワークの出力によって危険な状態と判断する場合、同じ監視領域内で同一の人物2が再び同じ姿勢をとる可能性は非常に高い。この場合、再び誤った判定、誤警報が起こってしまう。頻繁に誤報を起こしてしまうことは、危険を察知するシステムとして好ましくなく、またユーザの使用意欲を失わせてしまう。   When the state determination unit 23 determines that the person 2 is in a dangerous state based on the output of the neural network, the state determination unit 23 first warns the toilet 3 as described above. Since the output of the neural network is not always correct, a false alarm may occur if the determination is wrong. Even if a certain posture of the person 2 is actually in a safe state, if it is judged as a dangerous state by the output of the neural network, it is very possible that the same person 2 takes the same posture again in the same monitoring area Very expensive. In this case, erroneous determination and false alarm occur again. Frequent false alarms are not desirable as a system for detecting danger, and the user's willingness to use is lost.

そこで、本実施の形態では、状態判定部23は、第1の形状情報と第2の形状情報とを用いて、前記結合の重みWを変更する追加学習を行う。ここで、第1の形状情報と第2の形状情報の2種類の形状情報を用いるのは、誤って危険な状態であると判定してしまった第2の形状情報のみを用いて、追加学習を行うと、本来、危険な状態と判断すべき形状情報にまで影響を与えてしまう可能性があるためである。つまり、絶対に安全な状態であると判別してはいけない形状情報まで、安全な状態であると判別してしまうことを防止するために、誤って危険な状態であると判定してしまった第2の形状情報に、どのような監視の条件であっても危険な状態であると判定される第1の形状情報を加えた追加学習データを用いて追加学習を行う。 Therefore, in this embodiment, the state determination unit 23, using the first shape information and the second shape information, and additional learning for changing the weight W i of the coupling. Here, the two types of shape information, the first shape information and the second shape information, are used for additional learning using only the second shape information that has been erroneously determined to be a dangerous state. This is because there is a possibility that the shape information that should originally be determined to be a dangerous state may be affected. In other words, in order to prevent the shape information that should never be determined as being in a safe state from being determined as being in a safe state, it is erroneously determined as a dangerous state. Additional learning is performed using additional learning data obtained by adding the first shape information that is determined to be in a dangerous state to any shape under the monitoring information.

なお、警報解除ボタン42によって前記警報が解除された際に、誤って危険な状態であると判定してしまった第2の形状情報を、初期のニューラルネットワークの学習段階に用いた安全な状態2500シーンの形状情報、危険な状態2500シーンの形状情報に加えて、すべてのデータで再学習することが理想の学習であることは間違いない。しかし、この方法では、一般的には、最初の学習で用いる形状情報が非常に多く、さらに、新たに追加した第2の形状情報とともに再学習させると、非常に膨大な学習時間がかかる。また、警報解除ボタン42によって前記警報が解除された際に、その都度、膨大な時間をかけて再学習をしなければならず、また、追加する第2の形状情報もその都度に増え続けることになる。本実施の形態のように、第2の形状情報に、第1の形状情報を加えた追加学習データを用いて追加学習を行うことで、例えば、上記のような、再学習と比較して少ない保持データで高速に、各結合の重みWiを更新できる。また、学習用のデータが増え続けてしまうようなこともない。   When the alarm is canceled by the alarm cancel button 42, the second shape information that has been erroneously determined to be a dangerous state is used in the initial neural network learning stage 2500. In addition to the shape information of the scene and the shape information of the dangerous state 2500 scene, there is no doubt that relearning with all data is the ideal learning. However, in this method, generally, there is a great deal of shape information used in the initial learning, and if it is re-learned together with the newly added second shape information, it takes a very long learning time. In addition, each time the alarm is canceled by the alarm cancellation button 42, it is necessary to re-learn over an enormous amount of time, and the second shape information to be added continues to increase each time. become. As in the present embodiment, by performing additional learning using additional learning data obtained by adding the first shape information to the second shape information, for example, the amount is smaller than the relearning as described above. The weight Wi of each connection can be updated at high speed with the retained data. In addition, there is no case where the learning data continues to increase.

具体的には、まず、初期のニューラルネットワークの学習段階で用いた危険な状態2500シーンの形状情報の中から、どのような使用状態おいても危険な状態であると推定できる姿勢についての形状情報を、例えば、30シーンから500シーン、好ましくは、50シーンから200シーン、ここでは、100シーン選び出し、それを記憶部31に記憶する。一般的な学習用データを取得したトイレ(監視領域)に対して実際に使用されるトイレ(監視領域)では、物が置いてあったり形状が異なる場合があることから、他のトイレ(監視領域)で実際に危険な状態であるとは限らない。よって、トイレ(監視領域)の使用状況や使用者の特徴等に関わりなく危険の状態であると判別できる姿勢の形状情報を、人の目視で選び出しておく。この選び出した形状情報を、第1の形状情報とする。   Specifically, first, shape information about a posture that can be estimated to be a dangerous state in any use state from the shape information of the dangerous state 2500 scene used in the learning stage of the initial neural network. For example, 30 scenes to 500 scenes, preferably 50 scenes to 200 scenes, here, 100 scenes are selected and stored in the storage unit 31. In the toilet (monitoring area) actually used for the toilet (monitoring area) from which general learning data has been acquired, objects may be placed or the shape may be different. ) Is not always a dangerous situation. Accordingly, the shape information of the posture that can be determined to be a dangerous state regardless of the use situation of the toilet (monitoring area), the user's characteristics, and the like is selected by human eyes. The selected shape information is set as first shape information.

第2の形状情報は、本実施の形態では、状態判定部23が人物2の状態を判定した際に、上述した記憶部31に一時的に記憶される当該判定の直前の一定期間のパターンの移動に関する形状情報で、警報装置41が警報を発する際に、記憶部31にそのまま保持し続けられた情報を用いる。ここで、当該判定の直前の一定期間の形状情報は、例えば、判定前3秒から30秒における10シーンから100シーン、好ましくは、20シーンから60シーン、ここでは、40シーンの形状情報とする。   In the present embodiment, the second shape information is a pattern of a certain period immediately before the determination that is temporarily stored in the storage unit 31 when the state determination unit 23 determines the state of the person 2. As the shape information related to movement, when the alarm device 41 issues an alarm, information that is kept in the storage unit 31 as it is is used. Here, the shape information of a certain period immediately before the determination is, for example, the shape information of 10 scenes to 100 scenes, preferably 20 scenes to 60 scenes, in this case, 40 scenes in 3 to 30 seconds before the determination. .

すなわち、記憶部31に一時的に記憶される形状情報は、状態判定部23による人物2の状態の判定にともなって、随時更新されていく。記憶部31は、警報装置41が警報を発した際に、その直前の40シーンの形状情報を、放棄せずにそのまま保持し続ける。ここで、上述したように、警報装置41は、危険な状態が一定期間、ここでは、5秒以上続いたときに警報を発するので、警報装置41が警報を発した直前の一定期間は危険な状態の判定になっていることになる。その後、警報解除ボタン42によって前記警報が解除された場合には、ここで記憶部31に保持し続けた形状情報が、実際は安全な状態であるにもかかわらず、誤って危険な状態であると判定してしまった第2の形状情報であることになる。   That is, the shape information temporarily stored in the storage unit 31 is updated at any time as the state determination unit 23 determines the state of the person 2. When the warning device 41 issues a warning, the storage unit 31 continues to hold the shape information of the immediately preceding 40 scenes without giving up. Here, as described above, the alarm device 41 issues an alarm when a dangerous state continues for a certain period of time, in this case, 5 seconds or more. Therefore, the alarm device 41 is dangerous for a certain period immediately before the alarm device 41 issues an alarm. It will be the judgment of the state. Thereafter, when the alarm is canceled by the alarm cancel button 42, the shape information kept in the storage unit 31 here is erroneously dangerous although it is actually in a safe state. This is the second shape information that has been determined.

なお、記憶部31が一定期間の形状情報を放棄せずにそのまま保持し続ける際は、一時的な記憶の更新を中断することで、保持し続けてもよいし、記憶部31に第2の形状情報を記憶するための領域を形成しておき、当該領域に当該形状情報を記憶させておいてもよい。要するに、放棄されずに、追加学習の際に呼び出せればよい。   When the storage unit 31 continues to hold the shape information for a certain period without giving up, the storage unit 31 may continue to hold the information by interrupting the temporary storage update, or the storage unit 31 may store the second shape information. An area for storing the shape information may be formed, and the shape information may be stored in the area. In short, it can be called during additional learning without being abandoned.

状態判定部23は、追加学習のための教師信号として、どのような監視の条件であっても危険な状態であると判定される100シーンの第1の形状情報については、安全ノードに0、危険ノードに1を、誤って危険な状態であると判定してしまった40シーンの第2の形状情報ついては、安全ノードに1、危険ノードに0を与え、バックプロパゲ−ションアルゴリズムにてこれまでの各結合の重みWを出発点にして更新する。 As the teacher signal for additional learning, the state determination unit 23 sets the safety node to 0 for the first shape information of 100 scenes determined to be in a dangerous state under any monitoring condition. With regard to the second shape information of 40 scenes that have been erroneously determined to be in a dangerous state, 1 is assigned to the dangerous node, 1 is assigned to the safety node, 0 is assigned to the dangerous node, and the back propagation algorithm is used so far. Update with each connection weight W i as a starting point.

図18は、本発明の実施の形態に係る室内監視装置1による処理工程の概略を示すフロー図である。本図を参照して室内監視装置1による床面4と床面4とは異なる正面壁面5a、側面壁面5c、側面壁面5dで画成されるトイレ3に存在する人物2の位置を測定する方法、ここでは位置を測定して、人物2の状態を監視する方法について説明する。なお、室内監視装置1の構成については適宜図5又は図9を参照する。なお、室内監視装置1の構成の説明と重複する説明はできる限り省略するものとする。   FIG. 18 is a flowchart showing an outline of processing steps by the room monitoring apparatus 1 according to the embodiment of the present invention. A method for measuring the position of a person 2 existing in a toilet 3 defined by a floor wall 4, a side wall surface 5 c, and a side wall surface 5 d different from the floor surface 4 by the indoor monitoring apparatus 1 with reference to this figure Here, a method for measuring the position and monitoring the state of the person 2 will be described. For the configuration of the room monitoring apparatus 1, refer to FIG. In addition, the description which overlaps with description of the structure of the indoor monitoring apparatus 1 shall be abbreviate | omitted as much as possible.

まず、投影工程として、トイレ3の床面4、正面壁面5a、側面壁面5c、側面壁面5dに対して、投影装置11によるパターン11aを形成するパターン光(輝点)11bの投影を開始し(S100)、撮像工程として、パターン光(輝点)11bが投影されたトイレ3の撮像装置12による撮像を開始する(S102)。投影装置11によるパターン光(輝点)11bの投影は、監視が終了するまで継続される。撮像装置12による撮像も、同様に、監視が終了するまで0.1〜0.25秒程度の取得間隔で継続される。また、ここでは、トイレ3は空室の状態、すなわち、人物2が存在しない状態であり、後述する第2の基準位置算出工程(S112)までは、当該空室の状態で各工程は実行される。言い換えれば、第2の基準位置算出工程(S112)までの各処理は、室内監視装置1の自動設定のための処理と言うことができる。   First, as a projection process, projection of pattern light (bright spot) 11b forming the pattern 11a by the projection device 11 is started on the floor surface 4, front wall surface 5a, side wall surface 5c, and side wall surface 5d of the toilet 3 ( S100) As an imaging process, imaging by the imaging device 12 of the toilet 3 on which the pattern light (bright spot) 11b is projected is started (S102). The projection of the pattern light (bright spot) 11b by the projection device 11 is continued until the monitoring is completed. Similarly, the imaging by the imaging device 12 is continued at an acquisition interval of about 0.1 to 0.25 seconds until the monitoring is completed. Further, here, the toilet 3 is in a vacant state, that is, a state in which the person 2 does not exist, and each step is executed in the vacant state until the second reference position calculation step (S112) described later. The In other words, each process up to the second reference position calculation step (S112) can be said to be a process for automatic setting of the room monitoring apparatus 1.

次に、光軸角度補正工程として、光軸角度補正部25によって、投影装置11と撮像装置12との光学配置に基づいて算出される、床面4上での投影装置11の光軸上のパターン光11bが撮像されるべき位置と、床面4上に実際に投影され、撮像装置12によって撮像されたパターン光11bであって、床面4上での投影装置11の光軸上のパターン光11bが撮像されるべき位置に最も近いパターン光11bの位置に基づいて、投影装置11の光軸の傾きを補正する(S104)。   Next, as the optical axis angle correction step, the optical axis angle correction unit 25 calculates the optical axis of the projection apparatus 11 on the floor 4 calculated based on the optical arrangement of the projection apparatus 11 and the imaging apparatus 12. The position where the pattern light 11b is to be imaged and the pattern light 11b actually projected on the floor surface 4 and imaged by the imaging device 12, and the pattern on the optical axis of the projection device 11 on the floor surface 4 The inclination of the optical axis of the projection device 11 is corrected based on the position of the pattern light 11b closest to the position where the light 11b is to be imaged (S104).

さらに、回転角算出工程として、回転角算出部26によって、床面4上の床面領域の実際のパターン11aに関してハフ変換を実行して、第1の角度ピークとして、床面4上の実際の輝点11b群から抽出される直線の支配的な角度θreal,α0を算出する。さらに、仮想平面8上の床面領域の仮想のパターン11aに関してハフ変換を実行して、投影装置11のFG素子122を投影装置11の光軸周りに0°から180°まで0.1°刻みで仮定したときの各回転角α毎に、第2の角度ピークとして、仮想平面8上の床面領域の仮想の輝点11b群から抽出される直線の支配的な角度θideal,α0を算出する。角度θreal,α0と各回転角α毎の角度θideal,α0とが略一致した際の、光軸周りの回転角αを、投影装置11の実際の回転角αとして設定する(S106)。 Further, as the rotation angle calculation step, the rotation angle calculation unit 26 performs the Hough transform on the actual pattern 11a of the floor surface area on the floor surface 4 to obtain the actual angle on the floor surface 4 as the first angle peak. The dominant angles θ real and α0 of the straight lines extracted from the bright spot 11b group are calculated. Further, the Hough transform is performed on the virtual pattern 11a in the floor area on the virtual plane 8, and the FG element 122 of the projection apparatus 11 is incremented by 0.1 ° from 0 ° to 180 ° around the optical axis of the projection apparatus 11. As a second angle peak, the dominant angle θ ideal, α0 of the straight line extracted from the virtual bright spot 11b group in the floor area on the virtual plane 8 is calculated for each rotation angle α when To do. The rotation angle α around the optical axis when the angle θ real, α0 and the angle θ ideal , α0 for each rotation angle α substantially coincide with each other is set as the actual rotation angle α of the projection device 11 (S106).

次に、第1の基準位置算出工程として、基準位置算出部24によって、パターン光11bの投影範囲に比較して十分に広いものと仮想した仮想平面8(図9参照)に投光され、投影装置11と撮像装置12との光学配置に基づいて算出される光軸補正、回転角補正後の仮想のパターン光(輝点)11bの位置を算出する。さらに、光軸補正、回転角補正後の仮想のパターン光(輝点)11bの位置と実際に撮像されるパターン光11bの位置とを比較して、測定装置14が撮像装置12により撮像された像上のパターンの移動を測定する際の正面壁面5a(図1参照)、側面壁面5c(図1参照)、側面壁面5d(図1参照)上での基準の位置を算出する。すなわち、基準像を算出し、各輝点11bの床面4、正面壁面5a、側面壁面5c、側面壁面5d上での移動量の測定のための基準の三次元座標を算出する(S108)。   Next, as a first reference position calculation step, the reference position calculation unit 24 projects and projects on a virtual plane 8 (see FIG. 9) that is assumed to be sufficiently wider than the projection range of the pattern light 11b. The position of the virtual pattern light (bright spot) 11b after the optical axis correction and the rotation angle correction calculated based on the optical arrangement of the device 11 and the imaging device 12 is calculated. Further, the position of the virtual pattern light (bright spot) 11b after optical axis correction and rotation angle correction is compared with the position of the pattern light 11b that is actually imaged, and the measuring device 14 is imaged by the imaging device 12. A reference position on the front wall surface 5a (see FIG. 1), the side wall surface 5c (see FIG. 1), and the side wall surface 5d (see FIG. 1) when measuring the movement of the pattern on the image is calculated. That is, a reference image is calculated, and reference three-dimensional coordinates for measuring the amount of movement of each bright spot 11b on the floor 4, front wall 5a, side wall 5c, and side wall 5d are calculated (S108).

次に、壁面特定工程として、壁面特定部27によって、各基準の位置の正面壁面5a、側面壁面5c、側面壁面5dに垂直な方向の位置に関する頻度ヒストグラム(図11参照)に応じて正面壁面5a、側面壁面5c、側面壁面5dの位置を特定する。すなわち、各平面上の輝点11bの位置の頻度ヒストグラムをとることにより、その頻度の最も大きいところに壁面位置を求める(S110)。   Next, as the wall surface specifying step, the front wall surface 5a is determined by the wall surface specifying unit 27 according to the frequency histogram (see FIG. 11) regarding the positions in the direction perpendicular to the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d. The positions of the side wall surface 5c and the side wall surface 5d are specified. That is, by taking a frequency histogram of the position of the bright spot 11b on each plane, the wall surface position is obtained at the place with the highest frequency (S110).

続いて、第2の基準位置算出工程として、基準位置算出部24によって、特定された正面壁面5a、側面壁面5c、側面壁面5dの位置に基づいて補正された移動量測定の基準位置となる三次元座標を算出する(S112)。以上で室内監視装置1の自動設定のための処理は終了する。以降の処理は、トイレ3内に人物2が存在する状態で実行される。   Subsequently, as a second reference position calculation step, the reference position calculation unit 24 serves as a reference position for movement amount measurement corrected based on the specified positions of the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d. The original coordinates are calculated (S112). Thus, the process for automatically setting the room monitoring device 1 is completed. Subsequent processing is executed in a state where the person 2 is present in the toilet 3.

次に、測定工程として、以上のようにして算出した、トイレ3が空室時の各輝点11bの床面4、正面壁面5a、側面壁面5c、側面壁面5d上でのパターン光(輝点)11bの三次元座標を基準として、測定装置14によって、撮像装置12で実際に撮像された像上の各パターン光(輝点)11bの移動量δを測定する。さらに、測定した当該移動量に基づいて人物2に投影された各パターン光(輝点)11bの三次元座標を算出し、人物2の形状又は動きに関する情報としての形状情報(図13参照)を生成する(S114)。   Next, as a measurement process, the pattern light (bright spot) calculated on the floor surface 4, front wall surface 5a, side wall surface 5c, and side wall surface 5d of each bright spot 11b when the toilet 3 is empty is calculated as described above. ) The moving amount δ of each pattern light (bright spot) 11b on the image actually picked up by the image pickup device 12 is measured by the measuring device 14 using the three-dimensional coordinates of 11b as a reference. Furthermore, the three-dimensional coordinates of each pattern light (bright spot) 11b projected on the person 2 is calculated based on the measured movement amount, and shape information (see FIG. 13) as information on the shape or movement of the person 2 is calculated. Generate (S114).

さらに、状態判定工程として、状態判定部23によって、測定装置14が生成した形状情報をブロック化し(図13参照)、ニューラルネットワークの入力層S(図17参照)に入力することで出力層R(図17参照)から得られる出力に基づいて、人物2の状態を判定する(S116)。また、ここで、記憶部31は、当該判定の直前の40シーンの形状情報を一時的に記憶しておく。   Further, as the state determination step, the state determination unit 23 blocks the shape information generated by the measurement device 14 (see FIG. 13) and inputs it into the input layer S (see FIG. 17) of the neural network, thereby outputting the output layer R ( The state of the person 2 is determined based on the output obtained from (see FIG. 17) (S116). Here, the storage unit 31 temporarily stores the shape information of the 40 scenes immediately before the determination.

状態判定部23は、出力層Rの安全ノードの出力が危険ノードの出力よりも高い値を示したときは、トイレ3内の人物2は安全な状態であると判定し(S118;NO)、S120に移行して、さらに監視を継続する場合(S120;YES)は、測定工程(S114)に戻って、以降の各処理を繰り返し実行する。監視を継続しない場合(S120;NO)には、監視を終了する。   When the output of the safety node in the output layer R shows a higher value than the output of the dangerous node, the state determination unit 23 determines that the person 2 in the toilet 3 is in a safe state (S118; NO) When the process proceeds to S120 and monitoring is further continued (S120; YES), the process returns to the measurement step (S114) and the subsequent processes are repeated. If the monitoring is not continued (S120; NO), the monitoring is terminated.

出力層Rの危険ノードの出力が安全ノードの出力よりも高い値を示したときは、危険な状態であると判定し(S118;YES)、危険な状態が5秒以上継続したか否かを判定する(S122)。5秒以上継続していない場合(S122;NO)は、測定工程(S114)に戻って、以降の各処理を繰り返し実行する。5秒以上継続した場合(S122;YES)は、状態判定部23は、警報信号部28に危険信号を送信し、次段の警報発報工程(S124)に移行する。 When the output of the dangerous node in the output layer R shows a higher value than the output of the safety node, it is determined that the state is dangerous (S118; YES), and whether or not the dangerous state has continued for 5 seconds or more. Determination is made (S122). If it has not continued for more than 5 seconds (S122; NO), the process returns to the measurement step (S114) and the subsequent processes are repeated. When it continues for 5 seconds or more (S122; YES), the state determination unit 23 transmits a danger signal to the alarm signal unit 28, and proceeds to the next alarm generation step (S124).

警報発報工程では、危険信号を受信した警報信号部28によって、警報装置41に警報信号が送信され、当該警報装置41によってトイレ3内の人物2に対して警報が発せられる(S124)。このとき、状態判定工程(S116)で、記憶部31に、一時的に記憶しておいた40シーンの形状情報を放棄せずに、後述する追加学習工程(S132)で用いるための第2の形状情報として保持し続ける。   In the alarm issuing step, an alarm signal is transmitted to the alarm device 41 by the alarm signal unit 28 that has received the danger signal, and an alarm is issued by the alarm device 41 to the person 2 in the toilet 3 (S124). At this time, in the state determination step (S116), the shape information of the 40 scenes temporarily stored in the storage unit 31 is not abandoned, but is used in the second learning step (S132) to be described later. Continue to hold as shape information.

続いて、警報信号部28によって、人物2が当該警報解除ボタン42を押すことで、警報が解除されたか否かを判断し(S126)、警報が解除されたと判断した場合(S126;YES)は、追加学習工程(S132)に移行する。   Subsequently, the alarm signal unit 28 determines whether or not the alarm has been canceled by the person 2 pressing the alarm cancel button 42 (S126). If it is determined that the alarm has been canceled (S126; YES) Then, the process proceeds to the additional learning step (S132).

警報が解除されていないと判断した場合(S126;NO)は、警報信号部28によって、警報が解除されない期間が、7秒間以上継続したか否かを判断し(S128)、7秒間以上継続していない場合に(S128;NO)は、S126に戻って、以降の各処理を繰り返し実行する。   When it is determined that the alarm is not released (S126; NO), the alarm signal unit 28 determines whether or not the period during which the alarm is not released continues for 7 seconds or more (S128), and continues for 7 seconds or more. If not (S128; NO), the process returns to S126 and the subsequent processes are repeated.

7秒間以上継続した場合に(S128;YES)は、通報工程として、警報信号部28によって、通報装置(不図示)に通報信号を送信し、例えば、別室に待機している医師や看護士等に対して人物2が危険な状態であることを通報し(S130)、監視を終了する。   When it continues for 7 seconds or more (S128; YES), as a notification process, the alarm signal unit 28 transmits a notification signal to a notification device (not shown), for example, a doctor or a nurse waiting in a separate room, etc. Is notified that person 2 is in a dangerous state (S130), and the monitoring is terminated.

S132の追加学習工程では、状態判定部23によって、予め記憶部31に記憶されているどのような監視の条件であっても危険な状態であると判定される100シーンの第1の形状情報と、警報発報工程(S124)で放棄せずに記憶部31に記憶し続けていた誤って危険な状態であると判定してしまった40シーンの第2の形状情報とを用いて、ニューラルネットワークの追加学習を行う。状態判定部23は、追加学習のための教師信号として、第1の形状情報については、安全ノードに0、危険ノードに1を、第2の形状情報ついては、安全ノードに1、危険ノードに0を与え、バックプロパゲ−ションアルゴリズムにて各結合の重みWを更新する。 In the additional learning step of S132, the first shape information of 100 scenes determined by the state determination unit 23 to be in a dangerous state under any monitoring condition stored in the storage unit 31 in advance Then, the neural network is used by using the second shape information of the 40 scenes that have been erroneously determined to be in a dangerous state that has been stored in the storage unit 31 without being abandoned in the alarm issuing step (S124). Perform additional learning. As a teacher signal for additional learning, the state determination unit 23 sets 0 for the safety node, 1 for the dangerous node, 1 for the safety node, and 0 for the safety node for the second shape information. And the weight W i of each connection is updated by the backpropagation algorithm.

追加学習工程(S132)が実行されると、続いてS120に移行して、さらに監視を継続する場合(S120;YES)は、測定工程(S114)に戻って、以降の各処理を繰り返し実行する。監視を継続しない場合(S120;NO)には、監視を終了する。   When the additional learning process (S132) is executed, the process subsequently proceeds to S120, and when monitoring is continued (S120; YES), the process returns to the measurement process (S114) and the subsequent processes are repeatedly executed. . If the monitoring is not continued (S120; NO), the monitoring is terminated.

なお、ここで、演算装置20の各部での各処理、上述の方法は、コンピュータにインストールして、該コンピュータを室内監視装置として作動させ、各処理を実行するようにコンピュータを制御するソフトウエアプログラムとして実現することが可能であり、係るソフトウエアプログラムを記録する記録媒体としても実現可能である。ソフトウエアプログラムはコンピュータ内蔵のプログラム部(不図示)に記録されて使用されても良く、外付けの記憶装置やCD−ROMに記録され、プログラム部(不図示)に読み出されて使用されても良く、またインターネットからプログラム部(不図示)にダウンロードされて使用されても良い。   Here, each process in each part of the arithmetic unit 20 and the above-described method are installed in a computer, operate the computer as an indoor monitoring apparatus, and control the computer so as to execute each process. And can also be realized as a recording medium for recording the software program. The software program may be recorded and used in a program unit (not shown) built in the computer, recorded in an external storage device or CD-ROM, and read and used by the program unit (not shown). Alternatively, it may be downloaded from the Internet to a program unit (not shown) and used.

以上で説明した本発明の実施の形態に係る室内監視装置1又はソフトウエアプログラムによれば、状態判定部23は、警報解除ボタン42によって前記警報が解除された際に、入力層S(図17参照)と出力層R(図17参照)とを関連付ける結合の重みWiを更新する追加学習を行うように構成される。したがって、例えば、危険な状態であると判別されるべき姿勢について、予め想定されていないような姿勢を取った際に、誤った判断をしてしまった場合や、監視する空間ごとに危険な状態の姿勢は異なってくる場合等の種々の監視の条件に対して、装置を運用しながら、誤った判断をした際に、同じ誤りを繰り返さずに、徐々に監視の条件に適応して、誤報の少ない正確な判断をすることができる監視装置及びソフトウエアプログラムを提供することができる。 According to the indoor monitoring device 1 or the software program according to the embodiment of the present invention described above, the state determination unit 23 can detect the input layer S (FIG. 17) when the alarm is released by the alarm release button 42. (See FIG. 17) and the output layer R (see FIG. 17). Therefore, for example, when a posture that is not supposed to be assumed in advance is taken with respect to a posture that should be determined to be a dangerous state, or a dangerous state for each monitored space When making misjudgment while operating the device for various monitoring conditions such as when the attitude of the person is different, the error is not gradually repeated without adapting to the same error. It is possible to provide a monitoring device and a software program that can make an accurate determination with less.

また、言い換えれば、装置の設置の際に、設置する監視の空間に対応させて、細かな設定をする必要がないため、必ずしも専門的な知識を有するものが設置する必要がなく、すなわち、容易に室内監視装置1を設置することができる。さらに、追加学習では、第2の形状情報に、第1の形状情報を加えた追加学習データを用いて追加学習を行うことで、例えば、上述したように、再学習と比較して少ない保持データで高速に、各結合の重みWiを更新できる。また、学習用のデータが増え続けてしまうようなこともない。   In other words, since it is not necessary to make detailed settings corresponding to the monitoring space to be installed when installing the device, it is not always necessary to install a device having specialized knowledge, that is, easy The indoor monitoring device 1 can be installed in the room. Further, in additional learning, additional learning is performed using additional learning data obtained by adding the first shape information to the second shape information. For example, as described above, less retained data compared to relearning. Thus, the weight Wi of each connection can be updated at high speed. In addition, there is no case where the learning data continues to increase.

また、状態判定部23は、予め設定される測定装置14により得られた人物2の形状又は動きに関する第1の情報であって、該情報に基づいては人物2が安全な状態と判定しない第1の形状情報と、誤って危険な状態であると判定してしまった第2の形状情報を用いて、前記結合の重みWを変更する追加学習を行うように構成される。これにより、追加学習後の状態の判定で、追加学習前に誤って危険な状態であると判定してしまった形状情報を安全な状態であると判定するだけでなく、絶対に安全な状態であると判別してはいけない形状情報まで、安全な状態であると判別してしまうようなことを防止することができる。 The state determination unit 23 is first information regarding the shape or movement of the person 2 obtained by the measuring device 14 set in advance, and the person 2 does not determine that the person 2 is in a safe state based on the information. Using the shape information of 1 and the second shape information that has been erroneously determined to be a dangerous state, additional learning is performed to change the weight W i of the connection. As a result, in the determination of the state after additional learning, not only the shape information that has been erroneously determined to be a dangerous state before additional learning is determined to be a safe state, but also in an absolutely safe state. It is possible to prevent the shape information that should not be determined to be present from being determined as being in a safe state.

また、以上で説明した本発明の実施の形態に係る室内監視装置1又はソフトウエアプログラムによれば、基準位置算出部24は、パターン光11bの投影範囲に比較して十分に広いものと仮想した仮想平面8に投光され、投影装置11と撮像装置12との光学配置に基づいて算出される仮想のパターン光の位置と、実際に撮像されるパターン光11bの位置とを比較して、測定装置14が撮像装置12により撮像された像上のパターンの移動を測定する際の床面4、正面壁面5a、側面壁面5c、側面壁面5d上での各輝点11bの基準の位置を算出するように構成される。したがって、例えば、監視する空間の形状や広さ、空間内に設置されているもの、便座の位置、大きさや形状等の種々の条件にあわせて、装置の設置の度に基本的な初期設定を手動で行う必要がなく、装置の設置作業を簡略化することのできる室内監視装置1又はソフトウエアプログラムを提供することができる。   In addition, according to the indoor monitoring device 1 or the software program according to the embodiment of the present invention described above, the reference position calculation unit 24 is assumed to be sufficiently wide compared to the projection range of the pattern light 11b. Measurement is performed by comparing the position of the virtual pattern light projected on the virtual plane 8 and calculated based on the optical arrangement of the projection device 11 and the imaging device 12 with the position of the pattern light 11b that is actually imaged. The reference position of each bright spot 11b on the floor surface 4, the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d when the device 14 measures the movement of the pattern on the image captured by the imaging device 12 is calculated. Configured as follows. Therefore, for example, in accordance with various conditions such as the shape and size of the space to be monitored, what is installed in the space, the position of the toilet seat, size and shape, etc. It is possible to provide the indoor monitoring apparatus 1 or the software program that does not need to be performed manually and can simplify the installation work of the apparatus.

さらに、光軸角度補正部25は、投影装置11と撮像装置12との光学配置に基づいて算出される、床面4上での投影装置11の光軸上のパターン光11bが撮像されるべき位置と、床面4上に実際に投影され、撮像装置12によって撮像されたパターン光11bであって、床面4上での投影装置11の光軸上のパターン光11bが撮像されるべき位置に最も近いパターン光11bの位置に基づいて、投影装置11の光軸の傾きを補正するように構成される。したがって、撮像装置12の光軸と投影装置11の光軸との傾きの誤差を補正することができ、基準位置算出部24は、補正された投影装置11の光軸の傾きに応じた光軸角度補正後の仮想のパターン光(輝点)11bに基づいて、パターンの移動を測定する際の床面4、正面壁面5a、側面壁面5c、側面壁面5d上での各輝点11bの基準の位置を算出することで、当該傾きの影響を排除することができる。したがって、移動の測定をより正確に行うことができ、結果的に、状態判定部23による人物2の状態の判定もより正確に行うことができる。   Furthermore, the optical axis angle correction unit 25 should image pattern light 11b on the optical axis of the projection device 11 on the floor surface 4 calculated based on the optical arrangement of the projection device 11 and the imaging device 12. Position and pattern light 11b that is actually projected on the floor surface 4 and imaged by the imaging device 12, and the pattern light 11b on the optical axis of the projection device 11 on the floor surface 4 is to be imaged Is configured to correct the inclination of the optical axis of the projection device 11 based on the position of the pattern light 11b closest to the. Therefore, an error in tilt between the optical axis of the imaging device 12 and the optical axis of the projection device 11 can be corrected, and the reference position calculation unit 24 can correct the optical axis corresponding to the corrected tilt of the optical axis of the projection device 11. Based on the virtual pattern light (bright spot) 11b after the angle correction, the reference of each bright spot 11b on the floor surface 4, the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d when measuring the movement of the pattern. By calculating the position, the influence of the tilt can be eliminated. Therefore, movement can be measured more accurately, and as a result, the state determination unit 23 can also determine the state of the person 2 more accurately.

また、回転角算出部26は、床面4上の実際のパターン11aに関してハフ変換を実行して第1の角度ピークを算出し、前記仮想平面8上の一定範囲の仮想のパターン光11bによって形成される仮想のパターン11aに関してハフ変換を実行して、投影装置11のFG素子122を投影装置11の光軸周りに一定角度回転させる毎に第2の角度ピークを算出する。回転角算出部26は、第1の角度ピークと第2の角度ピークとが略一致した際の、光軸周りの回転角αを、投影装置11の実際の回転角αとして設定することができる。したがって、基準位置算出部24は、設定された回転角αに応じた回転角補正後の仮想のパターン光(輝点)11bに基づいて、パターンの移動を測定する際の床面4、正面壁面5a、側面壁面5c、側面壁面5d上での各輝点11bの基準の位置を算出することで、当該回転角αの影響を排除することができる。したがって、測定装置14(図5参照)による輝点移動量δの測定において、上述したような飛び越えが発生しない範囲、すなわち、検出範囲を広くとるために、投影装置11のFG素子122(図4参照)を基線方向(v軸方向)に対して回転させて使用しても、移動の測定を正確に行うことができる。結果的に、状態判定部23による人物2の状態の判定もより正確に行うことができる。   Further, the rotation angle calculation unit 26 calculates the first angle peak by executing the Hough transform on the actual pattern 11a on the floor surface 4, and is formed by the virtual pattern light 11b in a certain range on the virtual plane 8. A Hough transform is performed on the virtual pattern 11a, and a second angle peak is calculated each time the FG element 122 of the projection apparatus 11 is rotated by a certain angle around the optical axis of the projection apparatus 11. The rotation angle calculation unit 26 can set the rotation angle α around the optical axis when the first angle peak and the second angle peak substantially coincide with each other as the actual rotation angle α of the projection device 11. . Therefore, the reference position calculation unit 24 measures the movement of the pattern on the floor surface 4 and the front wall surface based on the virtual pattern light (bright spot) 11b after the rotation angle correction corresponding to the set rotation angle α. By calculating the reference position of each bright spot 11b on 5a, the side wall surface 5c, and the side wall surface 5d, the influence of the rotation angle α can be eliminated. Therefore, in the measurement of the bright spot movement amount δ by the measurement device 14 (see FIG. 5), the FG element 122 (FIG. 4) of the projection device 11 is used in order to increase the range where the above-mentioned jump does not occur, that is, the detection range. The movement can be accurately measured even if the reference is rotated with respect to the base line direction (v-axis direction). As a result, the state determination unit 23 can also determine the state of the person 2 more accurately.

さらに、壁面特定部27は、以上のようにして算出されたパターン光(輝点)11bの各基準の位置の正面壁面5a、側面壁面5c、側面壁面5dに垂直な方向の位置に関する頻度ヒストグラム(図11参照)に応じて正面壁面5a、側面壁面5c、側面壁面5dの位置を特定する。基準位置算出部24は、壁面特定部27によって特定された正面壁面5a、側面壁面5c、側面壁面5dの位置に基づいて、補正されたパターンの移動を測定する際の床面4、正面壁面5a、側面壁面5c、側面壁面5d上での各輝点11bの基準の位置を算出する。これにより、基準の位置の算出におけるノイズや補正しきれないパラメータの影響による誤差を軽減することができる。   Further, the wall surface specifying unit 27 calculates a frequency histogram (position histograms) regarding the positions in the direction perpendicular to the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d of each reference position of the pattern light (bright spot) 11b calculated as described above. The positions of the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d are specified according to FIG. Based on the positions of the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d specified by the wall surface specifying unit 27, the reference position calculation unit 24 measures the floor surface 4 and the front wall surface 5a when measuring the movement of the corrected pattern. The reference position of each bright spot 11b on the side wall surface 5c and the side wall surface 5d is calculated. As a result, it is possible to reduce errors due to the influence of noise and uncorrectable parameters in the calculation of the reference position.

また、以上のように、本実施の形態の室内監視装置1は、トイレ3の床面4と正面壁面5a、側面壁面5c、側面壁面5d上にパターンを形成するパターン光を投影する投影装置11と、前記パターン光が投影された、対象物としての人物2の存在するトイレ3を撮像する撮像装置12と、トイレ3に人物2が存在しないときに床面4と正面壁面5a、側面壁面5c、側面壁面5dに投影されたパターン光を基準として、撮像された像上のパターンの移動を測定し、該測定されたパターンの移動に基づいて、人物2に投影されたパターン光の三次元位置を算出する測定装置14を備える。   As described above, the indoor monitoring device 1 according to the present embodiment projects the pattern light that forms the pattern on the floor surface 4 and the front wall surface 5a, the side wall surface 5c, and the side wall surface 5d of the toilet 3. And the imaging device 12 that images the toilet 3 on which the person 2 as an object is projected, on which the pattern light is projected, and the floor surface 4, the front wall surface 5a, and the side wall surface 5c when the person 2 is not present on the toilet 3. The movement of the pattern on the captured image is measured with reference to the pattern light projected on the side wall surface 5d, and the three-dimensional position of the pattern light projected on the person 2 based on the measured movement of the pattern A measuring device 14 for calculating

このように構成されていることで、例えばトイレ3に人物2が存在することにより、人物2にパターンが投影されることで、撮像装置12により撮像された像上でパターンが移動し、さらにこの移動量を測定することで、人物2の形状を測定できる。これにより、トイレ3に存在する人物2をより正確に監視できる。   With this configuration, for example, when the person 2 is present in the toilet 3, the pattern is projected onto the person 2, so that the pattern moves on the image captured by the imaging device 12. The shape of the person 2 can be measured by measuring the movement amount. Thereby, the person 2 existing in the toilet 3 can be monitored more accurately.

さらに、投影装置11と撮像装置12は、床面4と正面壁面5aに対向する位置に配置されるので、例えば必要な測定範囲と分解能を容易に確保できる。さらに言えばパターンを形成する輝点の移動量を測定する際に発生する輝点の飛び越えの影響を大幅に低減できる。しかも、トイレ3の人物2に多くの輝点が当り、多くの位置情報(三次元座標)を得ることができる。   Furthermore, since the projection device 11 and the imaging device 12 are disposed at positions facing the floor surface 4 and the front wall surface 5a, for example, a necessary measurement range and resolution can be easily ensured. Furthermore, the influence of the bright spot jumping that occurs when measuring the movement amount of the bright spot forming the pattern can be greatly reduced. In addition, many bright spots hit the person 2 in the toilet 3, and a lot of position information (three-dimensional coordinates) can be obtained.

また、室内監視装置1は、測定装置14により測定されたパターンの移動に基づいて、人物2の状態を判定する状態判定部23を備え、状態判定部23は、測定装置14により測定されたパターンの移動に関する情報としての形状情報をブロック化して、ニューラルネットワークに入力することで、判定結果を得るように構成されている。   The indoor monitoring device 1 also includes a state determination unit 23 that determines the state of the person 2 based on the movement of the pattern measured by the measurement device 14, and the state determination unit 23 includes the pattern measured by the measurement device 14. It is configured to obtain a determination result by making shape information as information relating to movement of the block into blocks and inputting them into a neural network.

このように構成することで、例えば状態判定部23は、測定装置14で算出された人物2に投影された各輝点の三次元座標に基づいた人物2の形状情報を、さらにブロック化するので、ニューラルネットワークに入力する情報量を少なくできる。即ち処理が容易になる。また、人物2の状態の判定結果をニューラルネットワークに入力することで得るので、人物2の状態に対して判定を行う系の応答を最適化し、トイレ3に存在する人物2をより正確に監視できる。   With this configuration, for example, the state determination unit 23 further blocks the shape information of the person 2 based on the three-dimensional coordinates of each bright spot projected on the person 2 calculated by the measurement device 14. The amount of information input to the neural network can be reduced. That is, processing becomes easy. Moreover, since the determination result of the state of the person 2 is obtained by inputting the result into the neural network, the response of the system for determining the state of the person 2 can be optimized, and the person 2 existing in the toilet 3 can be monitored more accurately. .

また、室内監視装置は、トイレ3に人物2が進入し、人物2がどのような状態にあるか、また退出したかといった一連の動きを単純な装置で追従することができる。このように室内監視装置1は、例えば、人物2の状態を判断して、人物2が倒れたとかどうかといった監視を非常に容易に行なうことができる。さらに簡易な装置で高速処理が可能である。   Further, the indoor monitoring device can follow a series of movements such as whether the person 2 enters the toilet 3, what state the person 2 is in, and whether the person 2 has exited with a simple device. As described above, the indoor monitoring apparatus 1 can very easily monitor, for example, whether or not the person 2 has fallen by judging the state of the person 2. Furthermore, high-speed processing is possible with a simple device.

なお、本発明の実施の形態である室内監視装置1又はソフトウエアプログラムは、上述した実施の形態に限定されず、特許請求の範囲に記載された範囲で種々の変更が可能である。以上の説明では、監視装置として室内監視装置1である場合で説明したが、これに限られない。なお、監視は測定を含む概念であり、例えば本実施の形態の室内監視装置1は、対象物の位置分布を測定することもできる。また、状態判定部23がブロック化してニューラルネットワークに入力する情報は、測定装置14によって測定されたパターンの移動に関する情報であるものとして説明したが、これに限らず、対象物の形状又は動きに関する情報であれば何でもよい。   In addition, the indoor monitoring apparatus 1 or software program which is embodiment of this invention is not limited to embodiment mentioned above, A various change is possible in the range described in the claim. In the above description, the indoor monitoring device 1 has been described as the monitoring device, but is not limited thereto. Note that monitoring is a concept that includes measurement. For example, the indoor monitoring device 1 of the present embodiment can also measure the position distribution of an object. Further, the information that the state determination unit 23 blocks and inputs to the neural network has been described as information related to the movement of the pattern measured by the measurement device 14, but is not limited thereto, and is related to the shape or movement of the object. Any information is acceptable.

また、以上の説明では、基準位置算出部24は、光軸角度補正、回転角補正後の仮想のパターン光(輝点)11bに基づいて、パターンの移動を測定する際の床面4、正面壁面5a、側面壁面5c、側面壁面5d上での各輝点11bの基準の位置を算出し、さらに、床面4、正面壁面5a、側面壁面5c、側面壁面5d上での各輝点11bの位置を特定し、当該特定された位置に基づいて、補正された当該基準の位置を算出するものとして説明した。しかしながら、光軸角度補正、回転角補正、壁面位置特定後の補正の3つの補正を、必ず行う必要はなく、例えば、3つの補正のうちの2つを組み合わせてもよい。ただし、上記3つの補正を行った方が、基準位置の算出をより正確に行うことができることはいうまでもない。   In the above description, the reference position calculation unit 24 measures the movement of the pattern based on the virtual pattern light (bright spot) 11b after the optical axis angle correction and the rotation angle correction. The reference position of each bright spot 11b on the wall surface 5a, the side wall face 5c, and the side wall face 5d is calculated, and further, the bright spot 11b on the floor surface 4, the front wall face 5a, the side wall face 5c, and the side wall face 5d is calculated. It has been described that the position is specified, and the corrected reference position is calculated based on the specified position. However, the three corrections of the optical axis angle correction, the rotation angle correction, and the correction after specifying the wall surface position are not necessarily performed. For example, two of the three corrections may be combined. However, it goes without saying that the reference position can be calculated more accurately by performing the above three corrections.

また、以上の説明では、第1の平面は床面4であるものとして説明したが、例えば、投影装置11、撮像装置12の光軸が正面壁面5aと交差するように配設されている場合には、正面壁面5aを第1の平面、床面4、側面壁面5c、側面壁面5dを第2の平面としてもよい。この場合、光学配置として結像レンズ13aから床面4までの設置高さhの代わりに、結像レンズ13aから正面壁面5aまでの水平方向の距離が分かっていればよい。また、この場合、仮想平面8は、正面壁面5aを含むようなパターン光11bの投影範囲に比較して十分に広い平面を仮想すればよい。   In the above description, the first plane has been described as the floor surface 4. However, for example, when the optical axes of the projection device 11 and the imaging device 12 are arranged so as to intersect the front wall surface 5a. Alternatively, the front wall surface 5a may be a first plane, the floor surface 4, the side wall surface 5c, and the side wall surface 5d may be a second plane. In this case, it is only necessary to know the horizontal distance from the imaging lens 13a to the front wall surface 5a instead of the installation height h from the imaging lens 13a to the floor surface 4 as an optical arrangement. In this case, the virtual plane 8 may be a virtual plane that is sufficiently wide as compared to the projection range of the pattern light 11b including the front wall surface 5a.

また、光軸角度補正部25(図5参照)は、投影装置11と撮像装置12の設置角度、すなわち、予め定められている光学配置としての光軸角度θに対する実際の投影装置11の光軸角度のずれを算出して、投影装置11の光軸の傾きを補正するものとして説明したが、予め定められている光学配置としての光軸角度θに対する実際の撮像装置12の光軸角度のずれを算出して、撮像装置12の光軸の傾きを補正してもよいし、投影装置11、撮像装置12両方の光軸の傾きを補正してもよい。ただし、本実施の形態のように、撮像装置12の光軸角度のずれを補正しなくとも、設置高さh等は、撮像装置12の光軸角度が若干ずれている程度であれば、大きな誤差にはならないので、特に問題はない。   Further, the optical axis angle correction unit 25 (see FIG. 5) is configured so that the installation angle of the projection apparatus 11 and the imaging apparatus 12, that is, the optical axis of the actual projection apparatus 11 with respect to the optical axis angle θ as a predetermined optical arrangement Although it has been described that the angle deviation is calculated and the inclination of the optical axis of the projection apparatus 11 is corrected, the actual deviation of the optical axis angle of the imaging apparatus 12 with respect to the optical axis angle θ as a predetermined optical arrangement is described. May be calculated to correct the tilt of the optical axis of the imaging device 12, or the tilt of the optical axis of both the projection device 11 and the imaging device 12 may be corrected. However, the installation height h or the like is large as long as the optical axis angle of the imaging device 12 is slightly shifted without correcting the optical axis angle shift of the imaging device 12 as in the present embodiment. Since there is no error, there is no particular problem.

なお、以上の説明では、状態判定部23は、測定装置14により得られた前記対象物の形状又は動きに関する情報としての測定されたパターンの移動に関する情報をブロック化して、ニューラルネットワークの入力層S(図17参照)に入力するものとして説明したが、必ずブロック化しなければならないわけではない。例えば、壁以外で検出した輝点群の重心位置や慣性主軸の方向などをニューラルネットの入力パラメータとすることができる。また、測定装置14により得られた前記対象物の動きに関する情報を用いて入力する際も、必ずしもブロック化する必要はない。   In the above description, the state determination unit 23 blocks the information about the movement of the measured pattern as the information about the shape or movement of the object obtained by the measuring device 14 and blocks the input layer S of the neural network. Although described as an input to (see FIG. 17), it does not necessarily have to be blocked. For example, the barycentric position of the bright spot group detected outside the wall, the direction of the principal axis of inertia, and the like can be used as the input parameters of the neural network. Moreover, when inputting using the information regarding the movement of the object obtained by the measuring device 14, it is not always necessary to make a block.

また、以上の説明では入力装置35、ディスプレイ40を備えるものとして説明したが、これらの代わりにより単純な構成として、装置の操作上、リセットや装置の起動・終了を行うスイッチ類と、その状況を表示する何らかのインジケータを備える構成としても良い。   In the above description, the input device 35 and the display 40 have been described. However, instead of these, the switches that perform reset and start / stop of the device, and the status thereof, are operated as a simpler configuration. It is good also as a structure provided with the some indicator to display.

なお、ニューラルネットについては、各層のノード数を識別対象の特性に応じて吟味する必要がある。入力層S数は、人物2の状態の判定にどの程度の空間分解能が必要かで決まっており、以上の説明では、ブロックの数と等しく1008個とした。出力層Rの数は識別したいカテゴリ数で決まっている。以上の説明では、安全ノード、危険ノードの2個とした。中間層Aの数は、判定が可能な範囲でできるだけ少ないことが望ましく、これが多すぎると、未学習の入力パターンに対する判定が正しく得られないケースが多くなる、すなわち、汎化能力が低くなる場合がある。以上の説明では、3個とした。   As for the neural network, it is necessary to examine the number of nodes in each layer according to the characteristics of the identification target. The number of input layers S is determined by how much spatial resolution is required for determining the state of the person 2, and in the above description, the number of input layers S is 1008, which is equal to the number of blocks. The number of output layers R is determined by the number of categories to be identified. In the above description, the safety node and the dangerous node are assumed to be two. It is desirable that the number of intermediate layers A be as small as possible within the range that can be determined. If this is too large, there are many cases where the determination for an unlearned input pattern cannot be obtained correctly, that is, the generalization ability is low. There is. In the above description, the number is three.

出力層Rの数は、安全ノード、危険ノードの2個としたが、例えば、人物2が立っている状態、座っている状態、倒れている状態の様に、人物2の姿勢に関してカテゴリ分けして、その姿勢から安全、危険を判定するように構成しても良い。   Although the number of output layers R is two, a safety node and a dangerous node, for example, the posture of the person 2 is classified into categories such as a standing state, a sitting state, and a falling state. Thus, safety and danger may be determined from the posture.

また、以上で用いた階層型のニューラルネットの代わりに、自己組織化マップ型のニューラルネットを用いることができる場合がある。これは、階層型とは異なり、基本的には入力層Sと出力層Rのみ構造で、入力パターンに対して、出力層Rで最も高い出力を得たノードとその周囲のノードが更に高い出力を得られるように結合を強めていく、教師無し学習を行うニューラルネットである。多くの学習パターンを提示している内に、自然に、類似した入力パターンに対して、出力層の近い位置のノードが発火するようになる。したがって、出力層Rのノード位置を安全、危険の判定に対応させることで、判定機能を持たせることができる。ここでも、同じ考え方で,追加学習のパターンを提示することにより、追加学習を行うことができる。   In some cases, a self-organizing map type neural network may be used instead of the hierarchical type neural network used above. Unlike the hierarchical type, this is basically a structure of only the input layer S and the output layer R, and the node that has obtained the highest output in the output layer R and the surrounding nodes have a higher output than the input pattern. It is a neural network that performs unsupervised learning that strengthens the connection so that it can be obtained. While many learning patterns are presented, a node near the output layer is ignited naturally for a similar input pattern. Therefore, the determination function can be provided by making the node position of the output layer R correspond to the determination of safety and danger. Again, additional learning can be performed by presenting additional learning patterns in the same way.

本発明の実施の形態に係る室内監視装置の概略を示す模式的外観図である。It is a typical external view showing the outline of the indoor monitoring device concerning an embodiment of the invention. 本発明の実施の形態に係る投影装置と撮像装置を天井の中央部に配置した場合を説明する模式的側面図である。It is a typical side view explaining the case where the projector and imaging device which concern on embodiment of this invention are arrange | positioned in the center part of the ceiling. 本発明の実施の形態に係る投影装置と撮像装置を床面と正面壁面に対向する位置に配置した場合を説明する模式的側面図である。It is a typical side view explaining the case where the projection apparatus and imaging device which concern on embodiment of this invention are arrange | positioned in the position facing a floor surface and a front wall surface. 本発明の実施の形態に係る投影装置を説明する模式的斜視図である。It is a typical perspective view explaining the projection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る室内監視装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the indoor monitoring apparatus which concerns on embodiment of this invention. 本発明の実施の形態での輝点の移動の概念について説明する概念的斜視図である。It is a conceptual perspective view explaining the concept of the movement of the bright spot in the embodiment of the present invention. 図6の場合での結像面に結像した輝点について説明する模式図である。It is a schematic diagram explaining the bright spot imaged on the imaging surface in the case of FIG. 本発明の実施の形態でのトイレの床面、正面壁面、側面壁面、側面壁面の境界とトイレに人物が存在しない時に撮像装置により撮像された像の一例を示す模式的平面図である。It is a schematic plan view which shows an example of the image imaged with the imaging device when the person does not exist in the boundary of the floor surface of a toilet, a front wall surface, a side wall surface, a side wall surface, and a toilet in embodiment of this invention. 本発明の実施の形態に係る投影装置によって投影されるパターンの一例を示す図でありIt is a figure which shows an example of the pattern projected by the projection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係るハフ変換の概念について説明する図である。It is a figure explaining the concept of Hough transformation concerning an embodiment of the invention. 本発明の実施の形態に係る光軸補正、回転角補正後の仮想の輝点群に基づいて算出した床面、正面壁面、側面壁面、側面壁面上での移動量測定の基準位置となる三次元座標をプロットした投影図である。Tertiary serving as a reference position for measuring the amount of movement on the floor, front wall, side wall, and side wall calculated based on the virtual bright spot group after optical axis correction and rotation angle correction according to the embodiment of the present invention It is the projection figure which plotted the original coordinate. 本発明の実施の形態に係るトイレのX軸(図6参照)を通る断面の模式的線図である。It is a schematic diagram of the cross section which passes along the X-axis (refer FIG. 6) of the toilet which concerns on embodiment of this invention. 本発明の実施の形態に用いる形状情報と、形状情報をブロック化した情報の一例を示す模式図である。It is a schematic diagram which shows an example of the shape information used for embodiment of this invention, and the information which blocked the shape information. 本発明の実施の形態で用いる、状態判定部による人物の状態の判定の概念を示すブロック図である。It is a block diagram which shows the concept of the determination of a person's state by the state determination part used by embodiment of this invention. 本発明の実施の形態で用いる、ニューラルネットワークのユニットについて説明するブロック図である。It is a block diagram explaining the unit of a neural network used by embodiment of this invention. 本発明の実施の形態で用いる、バックプロパゲ−ションアルゴリズムについて説明するブロック図である。It is a block diagram explaining the back propagation algorithm used by embodiment of this invention. 本発明の実施の形態で用いる、状態判定部によるニューラルネットワークを用いた人物の状態の判定の概念を示すブロック図である。It is a block diagram which shows the concept of the determination of a person's state using the neural network by a state determination part used by embodiment of this invention. 本発明の実施の形態に係る室内監視装置による処理工程の概略を示すフロー図である。It is a flowchart which shows the outline of the process process by the indoor monitoring apparatus which concerns on embodiment of this invention. 本実施の形態で用いられる主な数式についてまとめた図である。It is the figure put together about the main numerical formulas used by this Embodiment.

符号の説明Explanation of symbols

1 室内監視装置
2 人物
3 トイレ
4 床面
5a 正面壁面
5b 裏面壁面
5c 側面壁面
5d 側面壁面
6 天井
7 便器
8 仮想平面
11a パターン
11b パターン光(輝点)
11 投影装置
12 撮像装置
13a 結像レンズ
14 測定装置
15’ 結像面
15 撮像素子
18 筐体
20 演算装置
21 制御部
23 状態判定部
24 基準位置算出部
25 光軸角度補正部
26 回転角算出部
27 壁面特定部
28 警報信号部
31 記憶部
35 入力装置
40 ディスプレイ
41 警報装置
42 警報解除ボタン
43 緊急通報ボタン
102 平面
103 物体
105 光束発生部
120 グレーティング
121 光ファイバー
122 FG素子
R 出力層
S 入力層
A 中間層
結合の重み
DESCRIPTION OF SYMBOLS 1 Indoor monitoring apparatus 2 Person 3 Toilet 4 Floor surface 5a Front wall surface 5b Back wall surface 5c Side wall surface 5d Side wall surface 6 Ceiling 7 Toilet bowl 8 Virtual plane 11a Pattern 11b Pattern light (bright spot)
DESCRIPTION OF SYMBOLS 11 Projector 12 Imaging device 13a Imaging lens 14 Measuring device 15 'Imaging surface 15 Imaging element 18 Case 20 Arithmetic device 21 Control unit 23 State determination unit 24 Reference position calculation unit 25 Optical axis angle correction unit 26 Rotation angle calculation unit 27 Wall surface identification unit 28 Alarm signal unit 31 Storage unit 35 Input device 40 Display 41 Alarm device 42 Alarm release button 43 Emergency call button 102 Plane 103 Object 105 Light flux generation unit 120 Grating 121 Optical fiber 122 FG element R Output layer S Input layer A Intermediate Layer Wi connection weights

Claims (4)

監視領域に存在する対象物を監視する監視装置において;
前記対象物の形状又は動きに関する情報を得る測定手段と;
前記測定手段により得られた前記対象物の形状又は動きに関する情報をニューラルネットワークの入力層に入力することで出力層から得られる出力に基づいて、前記対象物の状態を判定する判定手段と;
前記判定手段が前記対象物が危険な状態であると判定した際に、警報を発する警報手段と;
前記警報を解除する警報解除手段とを備え;
前記判定手段は、前記警報解除手段によって前記警報が解除された際に、前記入力層と前記出力層とを関連付ける重み係数を変更する追加学習を行
前記判定手段によって判定される前記対象物の状態は、前記対象物が危険な状態と安全な状態とを含み、
前記判定手段は、予め設定される前記測定手段により得られた前記対象物の形状又は動きに関する第1の情報であって、該情報に基づいては前記対象物が安全な状態と判定しない第1の情報と、前記解除された警報が発せられる直前の一定期間の前記測定手段により得られた前記対象物の形状又は動きに関する第2の情報であって、該情報に基づいて前記対象物が危険な状態と判定した第2の情報とを用いて、前記重み係数を変更する追加学習を行う、
監視装置。
In a monitoring device for monitoring an object present in a monitoring area;
Measuring means for obtaining information on the shape or movement of the object;
Determining means for determining the state of the object based on an output obtained from an output layer by inputting information on the shape or movement of the object obtained by the measuring means to an input layer of a neural network;
Alarm means for issuing an alarm when the determination means determines that the object is in a dangerous state;
Alarm release means for releasing the alarm;
The determination unit, when the alarm is canceled by the alarm cancellation section, have rows additional learning for changing the weighting coefficient relating and said output layer and the input layer,
The state of the object determined by the determining means includes a dangerous state and a safe state of the object,
The determination means is first information relating to the shape or movement of the object obtained by the measurement means set in advance, and the first means that the object is not determined to be in a safe state based on the information. And the second information regarding the shape or movement of the object obtained by the measuring means for a certain period immediately before the released alarm is issued, and the object is dangerous based on the information. Performing additional learning to change the weighting coefficient using the second information determined to be in an unsatisfactory state,
Monitoring device.
前記判定手段が前記対象物の状態を判定した際に、当該判定の直前の一定期間の前記測定手段により得られた前記対象物の形状又は動きに関する情報を一時的に記憶し、前記警報手段が警報を発する際には、前記記憶した情報を保持し続ける記憶手段を備える;
請求項1に記載の監視装置。
When the determination means determines the state of the object, it temporarily stores information on the shape or movement of the object obtained by the measurement means for a certain period immediately before the determination, and the warning means A storage means for continuing to hold the stored information when issuing an alarm;
The monitoring device according to claim 1 .
前記監視領域にパターンを形成するパターン光を投影する投影装置と;
前記パターン光が投影された、前記対象物の存在する監視領域を撮像する撮像装置とを備え;
前記測定手段は、前記撮像された像上のパターンの移動を測定するように構成され、
前記対象物の形状又は動きに関する情報は、前記測定されたパターンの移動に関する情報である、
請求項1又は請求項に記載の監視装置。
A projection device that projects pattern light that forms a pattern on the monitoring area;
An imaging device that images the monitoring area where the object is present, onto which the pattern light is projected;
The measuring means is configured to measure movement of a pattern on the imaged image;
Information on the shape or movement of the object is information on movement of the measured pattern,
The monitoring apparatus according to claim 1 or 2 .
コンピュータにインストールして、該コンピュータを監視装置として作動させるソフトウエアプログラムであって;
監視領域に存在する対象物を監視する処理において;
前記対象物の形状又は動きに関する情報を得る処理と;
前記得られた前記対象物の形状又は動きに関する情報をニューラルネットワークの入力層に入力することで出力層から得られる出力に基づいて、前記対象物の状態を判定する処理と;
前記判定する処理で前記対象物が危険な状態であると判定した際に、警報を発する処理と;
前記警報を解除する処理と;
前記警報を解除する処理によって前記警報が解除された際に、前記入力層と前記出力層とを関連付ける重み係数を変更する追加学習を行う処理とを実行するように前記コンピュータを制御し、
前記判定される前記対象物の状態は、前記対象物が危険な状態と安全な状態とを含み、
前記追加学習を行う処理は、予め設定される前記情報を得る処理により得られた前記対象物の形状又は動きに関する第1の情報であって、該情報に基づいては前記対象物が安全な状態と判定しない第1の情報と、前記解除された警報が発せられる直前の一定期間の前記情報を得る処理により得られた前記対象物の形状又は動きに関する第2の情報であって、該情報に基づいて前記対象物が危険な状態と判定した第2の情報とを用いて、前記重み係数を変更する;
ソフトウエアプログラム。
A software program installed on a computer and operating the computer as a monitoring device;
In the process of monitoring objects present in the monitoring area;
Processing to obtain information on the shape or movement of the object;
A process of determining the state of the object based on an output obtained from an output layer by inputting information on the shape or movement of the object obtained to the input layer of a neural network;
A process for issuing an alarm when it is determined in the determination process that the object is in a dangerous state;
Processing to release the alarm;
When the alarm is canceled by the process of canceling the alarm, the computer is controlled to execute a process of performing additional learning to change a weighting coefficient that associates the input layer and the output layer ,
The state of the object to be determined includes a dangerous state and a safe state of the object,
The process of performing the additional learning is first information on the shape or movement of the object obtained by the process of obtaining the information set in advance, and the object is in a safe state based on the information First information that is not determined to be, and second information related to the shape or movement of the object obtained by the process of obtaining the information for a certain period immediately before the released alarm is issued, Changing the weighting factor using the second information based on which the object is determined to be dangerous based on ;
Software program.
JP2005148790A 2005-05-20 2005-05-20 Monitoring device and software program Active JP4668684B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005148790A JP4668684B2 (en) 2005-05-20 2005-05-20 Monitoring device and software program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005148790A JP4668684B2 (en) 2005-05-20 2005-05-20 Monitoring device and software program

Publications (2)

Publication Number Publication Date
JP2006325164A JP2006325164A (en) 2006-11-30
JP4668684B2 true JP4668684B2 (en) 2011-04-13

Family

ID=37544463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005148790A Active JP4668684B2 (en) 2005-05-20 2005-05-20 Monitoring device and software program

Country Status (1)

Country Link
JP (1) JP4668684B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9011352B2 (en) 2008-08-28 2015-04-21 Koninklijke Philips N.V. Fall detection and/or prevention systems
WO2019216732A1 (en) * 2018-05-11 2019-11-14 삼성전자주식회사 Electronic device and control method therefor

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006057605A1 (en) * 2006-11-24 2008-06-05 Pilz Gmbh & Co. Kg Method and device for monitoring a three-dimensional space area
KR100973586B1 (en) * 2008-07-23 2010-08-02 한국철도기술연구원 Monitoring system in railway station for determining dangerous situation using neural network and method thereof
CN103313040B (en) * 2013-06-05 2016-12-28 艾默生网络能源有限公司 A kind of monitoring system and alarm interlock method
JP5877530B1 (en) * 2014-09-03 2016-03-08 三菱電機株式会社 Notification system and notification method
JP7108395B2 (en) * 2017-11-27 2022-07-28 ホーチキ株式会社 behavior monitoring system
JP6918689B2 (en) * 2017-11-30 2021-08-11 株式会社富士通アドバンストエンジニアリング Behavior identification program, behavior identification method and behavior identification device
CN108419053B (en) * 2018-03-28 2018-12-21 嵊州市雾非雾机械设备商行 image spot analysis system
JP7161920B2 (en) * 2018-11-09 2022-10-27 セコム株式会社 store equipment
JP6884819B2 (en) * 2019-06-26 2021-06-09 株式会社 日立産業制御ソリューションズ Safety management equipment, safety management methods and safety management programs
KR102439548B1 (en) * 2020-02-07 2022-09-20 한전케이디엔주식회사 Power plant monitoring system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028086A (en) * 1999-07-14 2001-01-30 Keiogijuku Indoor monitor system
JP2005005912A (en) * 2003-06-10 2005-01-06 Sumitomo Osaka Cement Co Ltd Monitoring device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH056433A (en) * 1991-06-27 1993-01-14 Mitsubishi Electric Corp Supervisory unit

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028086A (en) * 1999-07-14 2001-01-30 Keiogijuku Indoor monitor system
JP2005005912A (en) * 2003-06-10 2005-01-06 Sumitomo Osaka Cement Co Ltd Monitoring device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9011352B2 (en) 2008-08-28 2015-04-21 Koninklijke Philips N.V. Fall detection and/or prevention systems
WO2019216732A1 (en) * 2018-05-11 2019-11-14 삼성전자주식회사 Electronic device and control method therefor
KR20190134911A (en) * 2018-05-11 2019-12-05 삼성전자주식회사 Electronic device and method for controlling the electronic device thereof
CN112106121A (en) * 2018-05-11 2020-12-18 三星电子株式会社 Electronic device and control method thereof
US11270565B2 (en) 2018-05-11 2022-03-08 Samsung Electronics Co., Ltd. Electronic device and control method therefor
KR102449905B1 (en) * 2018-05-11 2022-10-04 삼성전자주식회사 Electronic device and method for controlling the electronic device thereof

Also Published As

Publication number Publication date
JP2006325164A (en) 2006-11-30

Similar Documents

Publication Publication Date Title
JP4668684B2 (en) Monitoring device and software program
JP4738888B2 (en) Three-dimensional position measuring device and software program
JP7082715B2 (en) Detection of machining errors in laser machining systems using deep convolutional neural networks
JP3704706B2 (en) 3D monitoring device
JP6080969B2 (en) Method and apparatus for determining the posture of an object
EP3156763B1 (en) Shape measurement device
CN108958097B (en) The monitoring arrangement that the area of space that segmentation monitor area obtains is monitored
US20080306708A1 (en) System and method for orientation and location calibration for image sensors
WO2011060385A1 (en) Method for tracking an object through an environment across multiple cameras
JP2021535389A (en) Depth sensing computer vision system
WO2004109228A1 (en) Three-dimensional shape-measuring device
EP2820629A1 (en) Passive infrared sensor system for position detection
KR20200121756A (en) Initialization Diagnosis Method and System of a Mobile Robot
JP3939224B2 (en) Area monitoring device
JP4514230B2 (en) Component suction posture discrimination method and component suction posture discrimination system
JP3677444B2 (en) 3D shape measuring device
JP3816404B2 (en) Monitoring system
JP2011093514A (en) Safety device for platform door
JP2003066079A (en) Measuring device of electromagnetic disturbance wave
JP2005005912A (en) Monitoring device
JP2008225801A (en) Suspicious person detection system and method
US8041533B2 (en) IC device-in-pocket detection with angular mounted lasers and a camera
JPH1127704A (en) Self-diagnosis method for mobile object identification sensor and its system
JP4790148B2 (en) Monitoring system
US11047672B2 (en) System for optically dimensioning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4668684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S201 Request for registration of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314201

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S303 Written request for registration of pledge or change of pledge

Free format text: JAPANESE INTERMEDIATE CODE: R316303

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250