JP2020154718A - Action detection system, interface device, and robot - Google Patents
Action detection system, interface device, and robot Download PDFInfo
- Publication number
- JP2020154718A JP2020154718A JP2019052566A JP2019052566A JP2020154718A JP 2020154718 A JP2020154718 A JP 2020154718A JP 2019052566 A JP2019052566 A JP 2019052566A JP 2019052566 A JP2019052566 A JP 2019052566A JP 2020154718 A JP2020154718 A JP 2020154718A
- Authority
- JP
- Japan
- Prior art keywords
- information
- sensor
- robot
- control unit
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 222
- 230000009471 action Effects 0.000 title abstract description 59
- 238000004891 communication Methods 0.000 claims abstract description 67
- 230000005856 abnormality Effects 0.000 claims description 36
- 230000002159 abnormal effect Effects 0.000 claims description 15
- 238000003745 diagnosis Methods 0.000 claims description 4
- 230000006399 behavior Effects 0.000 description 67
- 238000009434 installation Methods 0.000 description 52
- 238000000034 method Methods 0.000 description 46
- 230000008569 process Effects 0.000 description 45
- 238000012545 processing Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 8
- 241001465754 Metazoa Species 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000009418 renovation Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/04—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Alarm Systems (AREA)
- Telephonic Communication Services (AREA)
- Emergency Alarm Devices (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、行動検知システム、インタフェース装置及びロボットに関する。 The present invention relates to a behavior detection system, an interface device and a robot.
コンピュータが人又は物の位置を知るために、実物の空間を模擬した電子的な地図情報を使用する場合が多い。そして、自走するロボットが地図情報を作成する技術が普及している。特許文献1のロボットは、自身の移動経路に沿って地図情報を作成する際、領域の特性を取得する。領域の特性とは、例えば、上部に位置する障害物と床面との距離、床材質、ホコリ汚染度を測定する。特許文献2の地図生成装置は、ある地点で取得した周辺の幾何学形状と、別の地点で取得した周辺の幾何学形状とを合成して地図情報を作成する。特許文献2の地図生成装置は、当該合成に際して、2点間の距離、2点に跨って検知される壁面の平行移動量等を使用する。
Computers often use electronic map information that simulates real space in order to know the position of a person or object. And the technology that a self-propelled robot creates map information is widespread. The robot of
特に室内においては、ロボットのような移動機器とは別に、人又は物を検知するセンサが配置されていることが多い。そして、センサ及びロボットが共存することを前提に、地図情報の作成、人又は物の検知、人又は物に対する働きかけ等をセンサとロボットとで分担することが必要な場合もある。例えば、室内にいる高齢者を見守る又は援助する場合、特にその必要性は増す。特許文献1は、ロボット以外のセンサについても、人等に対する見守り又は働きかけについても言及していない。特許文献2もまた、ロボット以外のセンサについても、人等に対する見守り又は働きかけについても言及していない。
そこで、本発明は、センサが配置されている環境で、ロボットが的確に人等に対して働きかけることを目的とする。
Especially in a room, a sensor for detecting a person or an object is often arranged separately from a mobile device such as a robot. Then, on the premise that the sensor and the robot coexist, it may be necessary for the sensor and the robot to share the creation of map information, the detection of a person or an object, the action on the person or an object, and the like. For example, the need for it is especially increased when watching or assisting the elderly in the room.
Therefore, an object of the present invention is to allow a robot to accurately work on a person or the like in an environment in which a sensor is arranged.
行動検知システムは、情報を検知する第1センサ、および情報を送信する第1通信手段を備え、室内のいずれかに設けられた複数のセンサ装置と、情報を検知する第2センサ、情報を送受信する第2通信手段、および室内を移動可能な移動手段を備えたロボットと、情報を送受信する第3通信手段を備え、複数のセンサ装置が備える第1センサの検知情報、およびロボットが備える第2センサの検知情報に基づいて、移動体の行動を検知するサーバと、ユーザが複数のセンサ装置が設けられている位置を画面上で入力するのを受け付けるインタフェース装置と、を備えることを特徴とする。
その他の手段については、発明を実施するための形態のなかで説明する。
The behavior detection system includes a first sensor for detecting information and a first communication means for transmitting information, and a plurality of sensor devices provided in any of the rooms, a second sensor for detecting information, and information transmission / reception. The detection information of the first sensor provided with the second communication means and the robot provided with the moving means movable in the room, the third communication means for transmitting and receiving information, and the plurality of sensor devices, and the second communication means provided with the robot. It is characterized by including a server that detects the behavior of a moving object based on the detection information of the sensor, and an interface device that accepts the user to input the position where a plurality of sensor devices are provided on the screen. ..
Other means will be described in the form for carrying out the invention.
本発明によれば、センサが配置されている環境で、ロボットが的確に人等に対して働きかけることができる。 According to the present invention, a robot can accurately work on a person or the like in an environment in which a sensor is arranged.
《第1の実施形態》
第1の実施形態の行動検知システムSを、図1〜図18を用いて、以下に説明する。
図1は、行動検知システムSの構成を示す概略図である。
<< First Embodiment >>
The behavior detection system S of the first embodiment will be described below with reference to FIGS. 1 to 18.
FIG. 1 is a schematic view showing the configuration of the behavior detection system S.
図1に示すように、行動検知システムSは、複数のセンサ装置1と、移動ロボット2と、給電装置3と、行動検知サーバ4とを含んで構成される。
センサ装置1は、室内に設けられて情報をセンシングし、通信部14によって情報を外部に送信するものである。移動ロボット2は、検知部22と機構部23などを有し、室内を移動することができるロボットである。移動ロボット2は、例えば掃除機能を有するロボットであるが、これに限られず、愛玩用のロボットや警備用のロボットであってもよく、限定されない。
As shown in FIG. 1, the behavior detection system S includes a plurality of
The
給電装置3は、この移動ロボット2に電力を供給するものである。行動検知サーバ4の制御部41は、複数のセンサ装置1、および移動ロボット2と通信する通信部44を有している。これら接続したセンサ装置1や移動ロボット2の検知情報に基づいて、人や動物や他のロボット装置などの移動体の行動および/または状態を検知する。
The
複数のセンサ装置1は、制御部11と、検知部12(第1センサ)と、記憶部13と、通信部14(第1通信手段)と、電源部15とを備え、図2に示す居室9内に複数設置される。
電源部15は、このセンサ装置1を起動して各部に電力を供給する。通信部14は、無線または有線の通信モジュールであり、センサ装置1の検知情報およびセンサ装置1の固有ID(IDentifier)を行動検知サーバ4へ送信する。記憶部13は、例えばROM(Read Only Memory)やフラッシュメモリであり、センサ装置1の固有IDなどを記憶する。検知部12は、室内の情報を検知する第1センサとして機能する。検知部12は、例えば赤外線や超音波などで人などを検知する人感センサであり、人や移動ロボットなどの移動体を検知可能である。制御部11は、検知部12の動作を制御する。
The plurality of
The
移動ロボット2は、電源部25と、機構部23(移動手段)と、検知部22(第2センサ)と、制御部21、記憶部24、通信部27(第2通信手段)、操作部26を備える。移動ロボット2は、電源部25に二次電池(不図示)を備え、この二次電池を給電装置3で充電することによって動作する。
The
電源部25は、移動ロボット2を起動させると共に、この移動ロボット2の各部に電力を供給する。機構部23は、室内を移動するためのものであり、例えばモータと車輪で構成される。機構部23は、居室9の内部を移動可能な移動手段として機能する。
The
検知部22は、室内の情報を検知する第2センサとして機能する。検知部22は、移動ロボット2の位置を検知したり、人や動物などの移動体の行動を検知するためのセンサ群である。制御部21は、例えばCPU(Central Processing Unit)であり、検知部22の検知情報を分析し、この分析した情報に基づいて移動ロボット2の動作を制御する。記憶部24は、例えばRAM(Random Access Memory)やフラッシュメモリであり、制御部21が分析した情報を記憶する。通信部27は、例えばWi-Fi(登録商標)の通信モジュールであり、制御部21と行動検知サーバ4との間で情報を送受信する。操作部26は、利用者が移動ロボット2を操作するためのスイッチやボタン等である。
The
給電装置3は、移動ロボット2に電力を供給するものである。また、給電装置3は、検知部31と通信部32を備える。検知部31は、移動ロボット2の位置を検知するセンサである。通信部32は、例えばWi-Fi(登録商標)の通信モジュールであり、制御部21と行動検知サーバ4との間で情報を送受信する。
The
なお、移動ロボット2の検知部22は、赤外線、超音波、レーザ、加速度、カメラ、音声認識等のセンサ群と、機構部23の動作を検知するセンサ群を含んで構成されている。検知部22は、自身が移動した空間の幾何情報を検知するための位置センサを含む検知手段である。これによって、室内を移動することができる。制御部21は、機構部23の動作情報とセンサ群の検知情報を用いて自己位置を認識することができる。その結果、移動ロボット2の制御部21は、検知部22によって居室9の幾何情報を分析し、分析した幾何形状の情報(住空間地図)を記憶部24に記憶させる。これによって、制御部21は、移動ロボット2自身の位置を認識することができる。通信部27によって目的地情報(幾何情報)を受信すれば、移動ロボット2は、目的地へ移動することができる。
The
また、移動ロボット2の制御部21は、通信部27を介して行動検知サーバ4に自己位置の空間情報(GI)を発信できる。更に、移動ロボット2の制御部21は、検知部22により人や動物などの移動体の行動を、画像および音声で認識する認知手段も備えている。このため、移動ロボット2の制御部21は、検知した移動体の状態の情報を、通信部27を介して行動検知サーバ4に発信できる。状態の情報を受信した行動検知サーバ4の制御部41は、外部通信部45を介して外部に、この状態の情報を発信できる。
Further, the
行動検知サーバ4は、制御部41と、記憶部42と、タイマ43と、通信部44(第3通信手段)と、外部通信部45とを含んで構成されている。通信部44は、例えばWi-Fi(登録商標)の通信モジュールであり、センサ装置1および移動ロボット2から発信された情報を受信し、移動ロボット2へ情報を発信する。通信部44は、室内に設けられた複数のセンサ装置1や移動ロボット2と通信可能な第3通信手段として機能する。
The
外部通信部45は、例えばネットワークインタフェースカード(NIC)であり、センサ装置1および移動ロボット2で構築されるネットワーク以外の外部ネットワークとの間で情報を送受信する。制御部41は、センサ装置1、移動ロボット2、および外部通信部45から受信した情報を分析し、この分析結果に基づいて移動ロボット2の制御を行う。制御部41は、複数のセンサ装置1が検知したセンサ情報(第1検知情報)、および移動ロボット2の検知部22が検知した情報(第2検知情報)に基づいて、移動体の行動を検知する制御手段として機能する。
The
記憶部42は、外部通信部45からの入力情報や制御部41の制御情報を記憶する。記憶部42は、複数のセンサ装置1を設置した位置を示すセンサ位置情報、および移動ロボット2が移動した空間の幾何情報と複数のセンサ装置1が設けられている位置の情報との対応関係を記憶する記憶手段である。制御部41は、各センサ装置1が設けられている位置を、移動ロボット2が位置センサによって検知した空間の座標系で表現された位置情報として記憶部42に記憶する。タイマ43は、イベントの発生時刻を認識する。
なお、行動検知サーバ4の各機能は、移動ロボット2やセンサ装置1に組み込まれていてもよい。
The
Each function of the
図2は、第1の実施形態の行動検知システムSが設置された居室9を示す図である。
居室9は、家庭などの室内であるが、その他、会社の事務室や倉庫などであってもよく、限定されない。居室9には、7個のセンサ装置1−1〜1−7と、給電装置3とが設置されており、移動ロボット2が太線矢印の経路で巡回している。太線矢印の経路上には、各イベント時刻Et1〜Et8における移動ロボット2や人の位置が示されている。
FIG. 2 is a diagram showing a
The
居室9のうちリビングには、センサ装置1−7,1−1,1−2が設置され、センサ装置1−7の近傍には給電装置3が設置されている。更に台所にはセンサ装置1−3が設置され、その奧の食堂にはセンサ装置1−4が設置されている。階段を下りた廊下には、センサ装置1−5が設置され、玄関にはセンサ装置1−6が設置されている。なお、各センサ装置1−1〜1−7を特に区別しないときには、単にセンサ装置1と記載する。
Sensor devices 1-7, 1-1, 1-2 are installed in the living room of the
センサ装置1−7には、固有IDとしてNS7が付与されている。センサ装置1−7の検知範囲である特徴空間NR7は、破線で示されているように、居間の左側である。
センサ装置1−1には、固有IDとしてNS1が付与されている。センサ装置1−1の検知範囲である特徴空間NR1は、破線で示されているように、居間の右側である。
NS7 is assigned to the sensor device 1-7 as a unique ID. The feature space NR7, which is the detection range of the sensor device 1-7, is on the left side of the living room as shown by the broken line.
NS1 is assigned to the sensor device 1-1 as a unique ID. The feature space NR1, which is the detection range of the sensor device 1-1, is on the right side of the living room as shown by the broken line.
センサ装置1−2には、固有IDとしてNS2が付与されている。センサ装置1−2の検知範囲である特徴空間NR2は、破線で示されているように、居間の右側である。
センサ装置1−3には、固有IDとしてNS3が付与されている。センサ装置1−3の検知範囲である特徴空間NR3は、破線で示されているように、台所である。
NS2 is assigned to the sensor device 1-2 as a unique ID. The feature space NR2, which is the detection range of the sensor device 1-2, is on the right side of the living room as shown by the broken line.
NS3 is assigned to the sensor devices 1-3 as a unique ID. The feature space NR3, which is the detection range of the sensor devices 1-3, is the kitchen as shown by the broken line.
センサ装置1−4には、固有IDとしてNS4が付与されている。センサ装置1−4の検知範囲である特徴空間NR4は、破線で示されているように、食堂である。
センサ装置1−5には、固有IDとしてNS5が付与されている。センサ装置1−5の検知範囲である特徴空間NR5は、破線で示されているように、廊下である。
センサ装置1−6には、固有IDとしてNS6が付与されている。センサ装置1−6の検知範囲である特徴空間NR6は、破線で示されているように、玄関である。
NS4 is assigned as a unique ID to the sensor devices 1-4. The feature space NR4, which is the detection range of the sensor devices 1-4, is a dining room as shown by the broken line.
NS5 is assigned to the sensor device 1-5 as a unique ID. The feature space NR5, which is the detection range of the sensor device 1-5, is a corridor as shown by the broken line.
NS6 is assigned to the sensor devices 1-6 as a unique ID. The feature space NR6, which is the detection range of the sensor device 1-6, is the entrance as shown by the broken line.
以上により、居室9内に設置した複数のセンサ装置1−1〜1−7は、各センサ装置1の検知情報(SD)に、このセンサ装置1の固有ID(NS)を付与した情報を行動検知サーバ4へ発信することができる。
As described above, the plurality of sensor devices 1-1 to 1-7 installed in the
図3は、センサ設置情報(SI)の一例を示す図である。
行動検知サーバ4には、記憶部42が設けられている。記憶部42には、居室9の特徴空間毎の個別ID(NR1〜NR7)と、設置されているセンサ装置1の固有ID(NS)との関係を示すセンサ設置情報(SI)が予め記憶されている。
このセンサ設置情報(SI)には、検知領域情報(RS)と関連する幾何情報(GI)を追加して記憶させることができる。更に、行動検知サーバ4の制御部41は、タイマ43が設けられているため、センサ装置1のデータ(NSi,SDi)を受信した際の時刻をイベント発生時刻(Et)として、追加して記憶させることができる。
FIG. 3 is a diagram showing an example of sensor installation information (SI).
The
Geometric information (GI) related to the detection area information (RS) can be added and stored in the sensor installation information (SI). Further, since the
図4は、イベント情報(EI)の一例を示す図である。
図4に示すイベント情報(EI)は、人の行動の検知に関わるデータとして記憶・保持させることができる。イベント情報(EI)は、センサ固有ID(NS)毎のデータとして管理される。イベント情報(EI)は、居室9の特徴空間毎のID(NRj)と各センサ装置1のデータ(SD)、イベント発生時刻(Et)を記憶・保持させることによって構成される。なお、図3に示す通り、特徴空間(NR)とセンサID(NS)とは一対一で対応していなくてもよい。
FIG. 4 is a diagram showing an example of event information (EI).
The event information (EI) shown in FIG. 4 can be stored and retained as data related to the detection of human behavior. The event information (EI) is managed as data for each sensor unique ID (NS). The event information (EI) is configured by storing and holding the ID (NRj) for each feature space of the
センサ設置情報(SI)への空間情報(GI)の追加に関しては、図7および図8のフローチャートに基づいて説明する。図5は、センサ設置情報生成時のセンサ装置1と移動ロボット2の動作の概略を示したものである。図6は、各センサ(NSi)の時系列毎の検知情報を図示したものである。図5と図6に示すように、行動検知サーバ4が外部通信部45を介して、センサ設置情報作成モードを受信すると、行動検知サーバ4の制御部41はセンサ設置情報フラグSfをセットする。行動検知サーバ4の制御部41は、センサ設置情報フラグSfがセットされると、移動ロボット2へ起動信号を送信し、移動ロボット2が起動した後、センサ装置1と移動ロボット2の応答を受信する状態で待機する。
The addition of spatial information (GI) to the sensor installation information (SI) will be described with reference to the flowcharts of FIGS. 7 and 8. FIG. 5 shows an outline of the operations of the
図5に示すように移動ロボット2の動作に伴い、順次、センサ装置1−7(NS7)、センサ装置1−1(NS1)、…、センサ装置1−6(NS6)、センサ装置1−7(NS7)が反応する。
As shown in FIG. 5, as the
図6に示すように、行動検知サーバ4の制御部41は、各センサ装置1の反応に従って、センサ検知データ(NSi,SDi)を受信する。制御部41は、センサ検知データ(NSi,SDi)の受信時に、タイマ43からイベント発生時刻(Et)を取得して、移動ロボット2に対して自己の位置を送信するようにリクエストする。
As shown in FIG. 6, the
移動ロボット2は、給電装置3に対する位置を検知する検知部22が設けられており、図5に示す座標系で自身の位置を認識できる。このリクエストを受けた移動ロボット2の制御部21は、検知部22によって給電装置3を原点とした座標(X,Y)と移動ロボット2と給電装置3との間の絶対距離Rとを測定する。その後、制御部21は、測定した座標(X,Y)と絶対距離Rとを行動検知サーバ4に応答する。
The
図7に示すように、行動検知サーバ4の制御部41は、受信したセンサ検知データ(NSi,SDi)から、このデータを検知したセンサ装置1の固有IDを特定する。制御部41は、センサ設置情報(SI)内のセンサ固有IDに該当するセンサ装置1の検知領域座標情報を読み込む。検知領域座標情報は、絶対距離Rの最小値Rminおよび最大値Rmax、座標Xの最小値Xminおよび最大値Xmax、座標Yの最小値Yminおよび最大値Ymaxを含んでいる。
As shown in FIG. 7, the
制御部41は、読み込んだ検知領域情報と、移動ロボット2から受信した座標データ(GI(R,X,Y))とを比較する(S10)。制御部41は、以下の式(1)と式(2)が成立するか否かを判定して、反応範囲を確定させる(S11)。制御部41は、検知領域情報(Rmax,Rmin,Xmin,Xmax,Ymax,Ymin)を更新して、センサ設置情報(SI)へ幾何情報を付与する(S12)。
以上のように、センサ装置1の検知情報と座標情報を関連付けすることによって、各センサ装置1の検知領域と移動ロボット2が生成する住空間地図(LS)の空間座標とを関連付けすることができる。
As described above, by associating the detection information of the
図8は、センサ設置情報(GI)モードの処理を示すフローチャートである。
センサ設置情報モードでは、以下のように処理される。行動検知サーバ4の制御部41は、センサ設置モードを受信した後、センサ設置情報フラグSfをセットする(S40)。
ステップS41において、行動検知サーバ4の制御部41は、移動ロボット2が給電状態であるか否かを判定する。行動検知サーバ4の制御部41は、移動ロボット2が給電状態と判定したならば(Yes)、ステップS43の処理に進み、移動ロボット2が起動中と判定したならば(No)、ステップS42の処理に進む。
ステップS42において、行動検知サーバ4の制御部41は、移動ロボット2に給電位置へ移動するように指令して、ステップS41の処理に戻る。これにより制御部41は、移動ロボット2が給電状態になるまで待機する。
FIG. 8 is a flowchart showing the processing of the sensor installation information (GI) mode.
In the sensor installation information mode, the processing is as follows. After receiving the sensor installation mode, the
In step S41, the
In step S42, the
ステップS43において、行動検知サーバ4の制御部41は、タイマ43によってイベント発生時刻(Et)を取得し、各センサ装置1よりセンサ検知データ(NSi,SDi)を取得する。制御部41は、取得したセンサデータを(Et,NSi,SDi)として保持し、ステップS44の処理に進む。
ステップS44において、行動検知サーバ4の制御部41は、移動ロボット2に空間情報をリクエストして、移動ロボット2から空間情報(GI(R,X,Y))を取得し、ステップS45の処理に進む。
In step S43, the
In step S44, the
ステップS45において、行動検知サーバ4の制御部41は、検知対象となっているセンサID(NSi)のセンサ設置情報を呼出し、ステップS451の処理に進む。
ステップS451において、行動検知サーバ4の制御部41は、検知領域情報(RS)を読み込んだ後、ステップS46の処理に進む。この検知領域情報(RS)は、(Rmax,Rmin,Xmin,Xmax,Ymax,Ymin)の情報を含んでいる。
In step S45, the
In step S451, the
ステップS46において、行動検知サーバ4の制御部41は、検知領域情報(RS)に検知値が入力・記憶されているか否かを判定する。制御部41は、検知領域情報(RS)が存在しない場合(No)、ステップS48の処理に進む。制御部41は、検知領域情報(RS)に検知値を記憶している場合(Yes)、ステップS47の処理に進む。
In step S46, the
ステップS47おいて、行動検知サーバ4の制御部41は、検知領域情報(RS)と空間情報(GI,(R,X,Y))を比較する。制御部41は、移動ロボット2の位置情報(GI,(R,X,Y))が検知領域情報(RS)の範囲内、つまり過去の幾何情報範囲内であるか確認する。過去の幾何情報範囲内ではない場合(No)、行動検知サーバ4の制御部41は、ステップS48の処理に進む。過去の幾何情報範囲内である場合、行動検知サーバ4の制御部41は、ステップS50の処理に進む。
In step S47, the
ステップS48において、行動検知サーバ4の制御部41は、記憶している検知領域情報(RS)を、移動ロボット2からの空間情報(GI(R,X,Y))に置き換えてデータを更新し、ステップS49の処理に進む。
ステップS49において、行動検知サーバ4の制御部41は、探索エリア面積を積算して算出し、ステップS50の処理に進む。
In step S48, the
In step S49, the
ステップS50において、行動検知サーバ4の制御部41は、探索エリアの積算値が、探索空間の全面積と合致するかを評価する。探索エリアの積算値が探索空間の全面積と合致した場合(Yes)、行動検知サーバ4の制御部41はステップS51の処理に進む。探索エリアの積算地が探索空間の全面積と合致しない場合(No)、行動検知サーバ4の制御部41は、ステップS41の処理に戻る。
ステップS51において、行動検知サーバ4の制御部41は、センサ設置情報フラグSfをクリアして、センサ設置情報モードを終了する。
In step S50, the
In step S51, the
上述したセンサ設置情報(SI)を用いることによって、行動検知サーバ4の制御部41は、移動ロボット2に対するセンサ装置1の反応と人や動物などの移動体の行動に対するセンサ装置1の反応を分離して検知する。よって制御部41は、移動体の行動に対するセンサ装置1の検知情報をイベント情報(EI)として記憶させることができる。以下、センサ装置1が検知した情報を移動体の行動とそれ以外のデータに分離する手順を図11および図13、図14のフローチャートに基づいて説明する。
By using the sensor installation information (SI) described above, the
図9は、移動ロボット2と人とが同時に行動している際のセンサ装置1の反応の概略を示したものである。
居室9には、7個のセンサ装置1−1〜1−7と、給電装置3とが設置されており、移動ロボット2が太線矢印の経路で巡回している。太線矢印の経路上には、各イベント時刻Et1〜Et8における位置が示されている。図9に示す移動ロボット2の経路は、図2に示した経路とは異なっている。これは、センサ設置情報モードが完了して、イベント情報モードに遷移したためである。
FIG. 9 shows an outline of the reaction of the
In the
図10は、検知したセンサ(NSi)の時系列毎の検知情報を図示したものである。
図10に示すように、移動ロボット2が移動する毎に、各センサ装置1が各イベント時刻に反応する。つまり、イベント時刻Et1において、センサ装置1−7(NS7)が反応する。イベント時刻Et2において、センサ装置1−1(NS1)が反応する。イベント時刻Et3において、センサ装置1−2(NS2)が反応する。イベント時刻Et4において、センサ装置1−3(NS3)が反応する。イベント時刻Et5において、センサ装置1−4(NS4)が反応する。イベント時刻Et6において、センサ装置1−5(NS5)が反応する。イベント時刻Et7において、センサ装置1−6(NS6)が反応する。イベント時刻Et8において、センサ装置1−7(NS7)が反応する。
FIG. 10 illustrates the detection information of the detected sensor (NSi) for each time series.
As shown in FIG. 10, each
同様に、人が行動した際に、イベント時刻Et3においてセンサ装置1−5(NS5)が反応する。イベント時刻Et4においてセンサ装置1−6(NS6)が反応する。 Similarly, when a person acts, the sensor device 1-5 (NS5) reacts at the event time Et3. The sensor device 1-6 (NS6) reacts at the event time Et4.
図11に示すように、行動検知サーバ4の制御部41は、センサ装置1−i(NSi)の検知情報を受信する毎に、移動ロボット2の自己位置の空間情報(GI(R,X,Y))を受信する。その後、制御部41は、センサ設置情報(SI)に記憶している検知領域(RS)と空間情報(GI(R,X,Y))とを比較する(S20)。これにより、制御部41は、移動ロボット2の動作によって反応したデータとそれ以外のデータを選別したイベント情報(EI)を生成し(S21)、イベント情報(EI)として記憶部42に記憶する(S22)。
As shown in FIG. 11, each time the
図12は、イベント情報(EI)のみを抽出したグラフである。
図12に示すように、イベント時刻Et3においてセンサ装置1−5(NS5)が反応している。イベント時刻Et4においてセンサ装置1−6(NS6)が反応している。これは、移動ロボット2を検知した情報を除外した検知情報であり、人や動物などを検知したことを示す情報である。このようにして、制御部41は、人や動物などの移動体の行動を検知することができる。
FIG. 12 is a graph in which only event information (EI) is extracted.
As shown in FIG. 12, the sensor device 1-5 (NS5) is reacting at the event time Et3. The sensor device 1-6 (NS6) is reacting at the event time Et4. This is detection information excluding the information that detects the
以上のイベント情報モードは、以下の図13と図14において処理される。
図13は、イベント情報(EI)モードのうち移動ロボット2が起動していないときの処理を示すフローチャートである。
The above event information modes are processed in FIGS. 13 and 14 below.
FIG. 13 is a flowchart showing processing when the
イベント情報(EI)モードにおいて、行動検知サーバ4の制御部41は、ステップS60において、センサ装置1よりセンサ検知情報を受信(NSi,Et,SD)し、ステップS61の処理に進む。
ステップS61において、行動検知サーバ4の制御部41は移動ロボット2へ起動の有無を確認する。移動ロボット2が起動していないときは(No)、ステップS62の処理に進む。移動ロボット2が起動しているときは(Yes)、図14に示すステップS70に進む。
In the event information (EI) mode, the
In step S61, the
ステップS62において、行動検知サーバ4の制御部41は、センサ設置情報モードであるか否かを判断する。センサ設置情報フラグSfがセットされている場合、制御部41は、センサ設置情報モードであると判断し、ステップS60の処理に戻る。センサ設置情報フラグSfがクリアされている場合、制御部41はステップS63の処理に進む。
In step S62, the
ステップS63において、行動検知サーバ4の制御部41は、対象のセンサ(NSi)の過去の記憶データをイベント情報(EI)に要求し、ステップS631の処理に進む。
ステップS631において、行動検知サーバ4の制御部41は、対象のセンサ(NSi)の過去の記憶データをイベント情報(EI)から読み出し、ステップS64の処理に進む。
ステップS64において、行動検知サーバ4の制御部41は、過去の記憶データから比較データを算出し、ステップS65の処理に進む。制御部41は、例えば受信した検知情報(NSi,Et,SD)に対して平均化を行うことで、比較データを算出する。
In step S63, the
In step S631, the
In step S64, the
ステップS65において、行動検知サーバ4の制御部41は、検知情報(NSi,Et,SD)と比較データ(CD)を比較する。その差が閾値ε1を超える場合(Yes)、制御部41は、日常と異なる行動を検知したと判断し、ステップS67に進む。制御部41は、ステップS67において、モードを異常モードに変更し、異常モードフラグEMfを1に設定する。
その差が閾値ε1以下の場合(Yes)、行動検知サーバ4の制御部41は、通常状態であると判断し、検知情報をイベント情報(EI)へ追加する(S66)。その後、制御部41は、ステップS60の処理に戻る。
In step S65, the
When the difference is equal to or less than the threshold value ε 1 (Yes), the
図14は、イベント情報(EI)モードのうち移動ロボット2が起動しているときの処理を示すフローチャートである。
ステップS70において、行動検知サーバ4の制御部41は、異常モードフラグEMfがセットされているか否かによって、異常処理モードか否かを確認する。制御部41は、異常処理モードであると判断した場合(Yes)、図17の異常モードに遷移する。制御部41は、異常処理モードでないと判断した場合(No)、ステップS71の処理に進む。
FIG. 14 is a flowchart showing processing when the
In step S70, the
ステップS71において、行動検知サーバ4の制御部41は、センサ設置情報モードであるか否かを判断する。センサ設置情報フラグSfがセットされている場合(Yes)、制御部41は、センサ設置情報モードであると判断し、ステップS60の処理に戻る。センサ設置情報フラグSfがクリアされている場合(No)、制御部41はステップS72の処理に進む。
In step S71, the
ステップS72において、行動検知サーバ4の制御部41は、移動ロボット2へ自己位置情報GI(R,X,Y)をリクエストする。制御部41は、移動ロボット2から自己位置情報GI(R,X,Y)を取得すると、ステップS73の処理に進む。
In step S72, the
ステップS73において、行動検知サーバ4の制御部41は、移動ロボット2の自己位置情報GI(R,X,Y)とセンサ設置情報(SI)から、移動ロボット2によって反応しているセンサ装置1の検知情報を判別する。制御部41は、移動ロボット2によって反応しているセンサ装置1以外の他のセンサ装置1の検知情報を、人や動物などの移動体の行動検知情報(MI)であると判別し、ステップS74の処理に進む。
In step S73, the
ステップS74において、行動検知サーバ4の制御部41は、行動検知情報(MI)と比較するデータをイベント情報(EI)にリクエストする。
ステップS741において、制御部41は、リクエストしたデータを取得し、ステップS75の処理に進む。
In step S74, the
In step S741, the
ステップS75において、行動検知サーバ4の制御部41は、イベント情報(EI)から得たデータから比較データ(CD)を算出し、ステップS76の処理に進む。
ステップS76において、行動検知サーバ4の制御部41は、行動検知情報(MI)と比較データ(CD)を比較する。比較した結果が閾値ε2を超える場合(Yes)、行動検知サーバ4の制御部41は、異常常態であると判断して、ステップS78の処理に進み、処理状態を異常モードにし、異常モードフラグEMfを1に設定する。制御部41は、閾値ε2以下の場合(No)、ステップS77の処理に進む。
In step S75, the
In step S76, the
ステップS77において、行動検知サーバ4の制御部41は、行動検知情報(MI)をイベント情報(EI)へ追記し、ステップS60の処理に戻る。
異常モードに処理を移した行動検知サーバ4の制御部41は、図15から図17および図18を用いて以下のような処理を行う。
In step S77, the
The
図15は、日常行動(イベント情報(EI))には、Et3−Et4間でNS5(センサ装置1−5)の反応がある場合に、Et4−Et5間でNS6(センサ装置1−6)の反応が無いような異常常態時の処理の流れを示している。 FIG. 15 shows that when there is a reaction of NS5 (sensor device 1-5) between Et3-Et4 in daily activities (event information (EI)), NS6 (sensor device 1-6) between Et4-Et5. It shows the flow of processing in an abnormal normal state where there is no reaction.
図16は、検知したセンサ(NSi)の時系列毎の検知情報を図示したものである。
図16に示すように、Et4−Et5間でセンサ検知反応が無い場合、行動検知サーバ4の制御部41は、イベント情報(EI)と検知情報(NSi,SD)を比較する。イベント情報(EI)と検知情報(NSi,SD)の差が閾値を越えた場合、制御部41は、異常行動であると判断し、移動ロボット2へ異常行動が発見された(NSi)へ向かうように、センサ設置情報(SI(R,X,Y))を通信する。イベント情報(EI)と検知情報(NSi,SD)が一致する場合、行動検知サーバ4の制御部41は、検知モードを続行する。
FIG. 16 illustrates the detection information of the detected sensor (NSi) for each time series.
As shown in FIG. 16, when there is no sensor detection reaction between Et4-Et5, the
以上の異常診断モードは、図17において以下のように処理される。
行動検知サーバ4の制御部41は、ステップS80において、移動ロボット2の自己位置(GI(R,X,Y))をリクエストし、移動ロボット2の現在位置を取得し、ステップS81の処理に進む。
ステップS81において、行動検知サーバ4の制御部41は、異常モードフラグに応じて多重分岐する。異常モードフラグEMfが1の場合、行動検知サーバ4の制御部41は、ステップS82の処理に進む。異常モードフラグEMfが2の場合、行動検知サーバ4の制御部41は、ステップS85の処理に進む。異常モードフラグEMfが3の場合、行動検知サーバ4の制御部41は、ステップS87の処理に進む。
The above abnormality diagnosis mode is processed as follows in FIG.
In step S80, the
In step S81, the
ステップS82において、行動検知サーバ4の制御部41は、移動ロボット2に対して異常状態診断モードであることを送信し、目標座標GIo(NSi,R,X,Y)および通過予測センサ(PS)を送信する(S83)。更に制御部41は、異常モードフラグEMfを2に設定して(S84)、イベント情報モードに遷移する。
In step S82, the
ステップS85において、行動検知サーバ4の制御部41は、移動ロボット2の自己位置(GI)と目標座標(GIo)を比較することによって、移動ロボット2が異常探索エリアに存在するか否かを判断する。自己位置(GI)と目標座標(GIo)との差が閾値ε3未満の場合(No)、制御部41は、移動ロボット2が異常探索エリアに移動したと判断し、異常モードフラグEMfを3に変更して(S86)、イベント情報モードに遷移する。自己位置(GI)と目標座標(GIo)との差が閾値ε3以上である場合(Yes)、制御部41は、移動ロボット2が異常探索エリアに到達していないと判断し、イベント情報モードに遷移する。
In step S85, the
ステップS87において、行動検知サーバ4の制御部41は、異常探索モードであると判断し、異常の有無を確認する。異常の有無の確認は、移動ロボット2の検知部22に設けられた画像センサや音声センサによる画像および音声を用いて、異常を検知しても良い。ステップS87において異常を検知した場合(Yes)、制御部41は、ステップS88の処理に進んで異常レポートを作成し、行動検知サーバ4に設けられた外部通信部45によって、外部のサービスへ異常を連絡し(S88)、イベント情報モードに遷移する。
In step S87, the
ステップS87において異常を検知しない場合(No)、制御部41は、ステップS89の処理に進んで探索リポートを作成し、行動検知サーバ4に設けられた外部通信部45によって、外部のサービスへ探索リポートを送信する。探索リポートを送信後、行動検知サーバ4の制御部41は、ステップS90の処理に進み、異常診断モードをリセットして(S90)、イベント情報モードに遷移する。
If no abnormality is detected in step S87 (No), the
本発明の行動検知システムSは、居室9内に設けた複数のセンサ装置1と、居室9内を移動する移動手段を有した移動ロボット2とを連携させている。これにより、行動検知システムSは、センサ装置1の誤動作によって発生する誤情報の発信を防止しつつ、利用者のプライバシーを確保可能である。
The behavior detection system S of the present invention links a plurality of
《第2の実施形態》
図18は、第2の実施形態における行動検知システムの構成を示す概略図である。第2の実施形態では、複数のセンサ装置1の代わりに複数の家電機器8を居室に設置し、センサ装置の検知情報の代わりに家電機器の操作情報や検知情報を検知することで、人の行動を検知するものである。これら複数の家電機器8は、第1の実施形態におけるセンサ装置1の機能に加えて、家電機器としての各種機能を備えている。
<< Second Embodiment >>
FIG. 18 is a schematic view showing the configuration of the behavior detection system according to the second embodiment. In the second embodiment, a plurality of
図18に示すように、行動検知システムSは、複数の家電機器8と、移動ロボット2と、給電装置3と、行動検知サーバ4とを含んで構成される。
家電機器8は、居室内に設置されて各種機能を実現するものであり、例えばテレビや照明やエアコンなどである。家電機器8は、通信部14によって、自身が操作された際の操作情報を外部に送信するものである。
As shown in FIG. 18, the behavior detection system S includes a plurality of
The
複数の家電機器8は、制御部81と、検知部82と、記憶部83と、通信部84と、電源部85と、無線タグ86を備える。電源部85は、この家電機器8を起動し、家電機器8の各部に電力を供給する。通信部84は、無線または有線の通信モジュールであり、家電機器8に対する操作情報および家電機器8の固有IDを行動検知サーバ4へ送信する。記憶部83は、例えばROMやフラッシュメモリであり、家電機器8の固有IDを記憶する。
The plurality of home
《第3の実施形態》
第1の実施形態及び第2の実施形態は、センサ装置1の位置が固定されていることを前提としていた。しかしながら、室内の増改築、部屋の使途の見直し等に起因して、センサ装置1の個数、位置及びそれらが監視する空間が変化することが多い。このような変化があった場合でも、第1(第2)の実施形態の行動検知システムは、ロボット2を稼働させることによって、変更後のセンサ装置1の位置及び個数を反映したセンサ設置情報(SI)及びイベント情報(EI)を作成できる。すると、第1(第2)の実施形態の行動検知システムは、センサ装置1の位置とロボット2が移動した空間の幾何情報の対応関係も作成できることになる。
<< Third Embodiment >>
The first embodiment and the second embodiment are based on the premise that the position of the
しかしながら、ユーザがセンサ設置情報(SI)の一部の初期値を手動で入力し、さらにセンサ装置1の位置、個数等を変えた後、その変更内容をセンサ設置情報(SI)に再度手動で入力することも可能である。ユーザによっては、多少手間をかけても当該入力を機動的に行った方が、その後の行動検知システムの動作(異常発生時の現場への的確な到着等)に安心感を持てると考える場合もある。そこで、第3の実施形態の行動検知システムは、センサ装置1、ロボット2及び行動検知サーバ4に加えてインタフェース装置6を備える。当該構成の追加に伴い、センサ設置情報(SI)の構成の一部が第1(第2)の実施形態に比して、変更される(詳細後記)。
However, after the user manually inputs a part of the initial values of the sensor installation information (SI) and further changes the position, number, etc. of the
図19は、第3の実施形態における行動検知システムの構成を示す概略図である。行動検知システムSは、インタフェース装置6を備える。インタフェース装置6は、例えば携帯式のコンピュータであり、室内等においてユーザによって操作される。インタフェース装置6は、制御部61、ディスプレイ等の表示部62、キーボード、マウス、タッチパネル等の入力部63、記憶部66、行動検知サーバ4等と通信するための通信部65、及び、電源部64を有する。記憶部66は、センサ設置情報(SI)等を記憶する。電源部64は、外部電源5から受電した電力を制御部61等に供給する。
FIG. 19 is a schematic view showing the configuration of the behavior detection system according to the third embodiment. The behavior detection system S includes an
図20は、インタフェース装置6の表示部62が表示するインタフェース画面71の一例である。インタフェース画面71は、住空間地図(LS)を欄72に表示し、センサ設置情報(SI)を欄73に表示する。ここで表示されている住空間地図(LS)は、図2において説明した居室9を示す図と、以下の点で異なっている。
・住空間地図(LS)は、全体的に格子線(破線)で覆われている。
・住空間地図(LS)は、リビングにはセンサ装置NS1及びNS2が設置されており、図2におけるセンサ装置NS2は、未だ配置されていない状態を示している。
FIG. 20 is an example of the
-The living space map (LS) is entirely covered with grid lines (broken lines).
-The living space map (LS) shows that the sensor devices NS1 and NS2 are installed in the living room, and the sensor devices NS2 in FIG. 2 are not yet arranged.
ここで表示されているセンサ設置情報(SI)は、図3において説明したセンサ設置情報(SI)と、以下の点で異なっている。
・図20のセンサ設置情報(SI)は、図3のセンサ設置情報(SI)のイベント発生時刻(Et)の欄に代わって、センサ種類(Type)、センサID(ID)、及び、検知範囲(Area)の各欄を有している。
The sensor installation information (SI) displayed here is different from the sensor installation information (SI) described in FIG. 3 in the following points.
The sensor installation information (SI) in FIG. 20 is replaced with the event occurrence time (Et) column of the sensor installation information (SI) in FIG. 3, and the sensor type (Type), sensor ID (ID), and detection range. It has each column of (Area).
センサ種類とは、センサ装置1の検知部12の種類(赤外線式、超音波式等)である。
検知範囲とは、1つのセンサ装置が確実に人等を検知し得る空間の大きさであり、ここでは、床面上の面積である。“Spot”は、面積が定義されないケース(玄関の錠前等)であることを示す。
The sensor type is a type (infrared type, ultrasonic type, etc.) of the
The detection range is the size of a space in which one sensor device can reliably detect a person or the like, and here, it is an area on the floor surface. “Spot” indicates a case where the area is not defined (such as a lock at the entrance).
いま、ユーザは、以下のことを考えている。
・リビングの右側部分に、新たなセンサ装置NS2を追加する必要がある。
・そのセンサ装置NS2のセンサ種類は、“Oc”である。
・そのセンサ装置NS2の検知範囲は、住空間地図(LS)の格子の数で約16個分である。
・そのセンサ装置NS2の検知範囲を、今後は“NR2”として管理したい。
Now, the user is thinking about the following.
-It is necessary to add a new sensor device NS2 to the right side of the living room.
-The sensor type of the sensor device NS2 is "Oc".
-The detection range of the sensor device NS2 is about 16 grids of the living space map (LS).
-I would like to manage the detection range of the sensor device NS2 as "NR2" in the future.
このとき、ユーザは、マウス等の入力部63で16個分の格子を指定し、その指定した領域中に、“NR2”を示すアイコン及び“NS2”を示すアイコンを置く。“NS2”を示すアイコンには、そのセンサ装置のセンサID及びセンサ種類が紐付いている。すると、インタフェース装置の制御部61は、センサ設置情報(SI)の新たなレコード74を作成し、インタフェース画面71の欄73に表示する。
At this time, the user designates 16 grids by the
当該処理は、センサ装置を追加する場合の例であるが、行動検知システムSの使用開始時のように、複数のセンサ装置についての入力を一度に行う場合もある(センサ初期情報入力)。ただし、初期入力の段階では、住空間地図(LS)は未だ存在しないので、ユーザは、アイコン等を使用するのではなく、センサ設置情報(SI)に対して直接、文字列等を入力することになる。このような処理の発生に伴い、第1の実施形態におけるセンサ設置情報モードのフローチャート(図8)が一部変更される。 This process is an example of adding a sensor device, but there is also a case where input for a plurality of sensor devices is performed at once, such as when the behavior detection system S starts to be used (sensor initial information input). However, at the initial input stage, the living space map (LS) does not yet exist, so the user should directly input the character string etc. to the sensor installation information (SI) instead of using the icon etc. become. Along with the occurrence of such processing, the flowchart (FIG. 8) of the sensor installation information mode in the first embodiment is partially changed.
図21は、センサ設置情報モードの処理を示すフローチャートである。図21においては、図8に対してステップS40bが追加され、図8のステップS43、S44及びS45が、それぞれステップS43b、S44b及びS45bに置き換えられている。以降では、ステップS40b、S43b、S44b及びS45bを説明する。 FIG. 21 is a flowchart showing the processing of the sensor installation information mode. In FIG. 21, step S40b is added to FIG. 8, and steps S43, S44 and S45 of FIG. 8 are replaced with steps S43b, S44b and S45b, respectively. Hereinafter, steps S40b, S43b, S44b and S45b will be described.
ステップS40bにおいて、インタフェース装置6の制御部61は、センサ初期情報(NS,Type,ID,Area)の入力を受け付ける。具体的には、制御部61は、表示部62にインタフェース画面71の欄73を表示し、ユーザがNS、ID、Type、Area及びNRの各欄に入力部63を介してデータを入力するのを受け付ける。ユーザは、全てのセンサ装置1のついて当該入力操作を繰り返す。制御部61は、全てのセンサ装置1についてのレコードをセンサ設置情報(SI)として記憶部66に記憶する。
In step S40b, the
ステップS43bにおいて、インタフェース装置6の制御部61は、移動ロボットへ空間情報をリクエストする。具体的には、制御部61は、移動ロボット2に対して空間情報(GI(R,X,Y))をリクエストする。
In step S43b, the
ステップS44bにおいて、インタフェース装置6の制御部61は、移動ロボットから空間情報を取得し、ユーザがセンサ装置の位置の変更を入力するのを受け付ける。具体的には、第1に、制御部61は、移動ロボット2から空間情報(GI(R,X,Y))を取得する。
第2に、制御部61は、ステップS44bの“第1”において取得した空間情報を使用して、インタフェース画面71の欄73に住空間地図(LS)を表示し、ユーザに対してセンサ位置の変更入力を促す。すると、ユーザは前記したように、欄72に表示されている住空間地図(LS)上で、変化があったセンサ装置についての入力操作を行う。
In step S44b, the
Secondly, the
ステップS45bにおいて、インタフェース装置6の制御部61は、各NSについて検知領域を定義する。具体的には、制御部61は、ステップS44bの“第2”において入力されたデータに対応するレコードをインタフェース画面71の欄74に表示する。制御部61は、変更後のレコードを、センサ設置情報(SI)の一部として記憶部66に記憶する。
In step S45b, the
(人及びロボットの動き)
図22は、人の動きを説明する図である。いま、リビング1、トイレ5及び浴室8が廊下2、廊下3、廊下4、廊下6及び廊下7によって結ばれている住空間地図81を想定する。これらは、センサ装置NSi(i=1、2、・・・、7)に対応している。なお、ここでの番号(1、2、・・・)は、専ら図22における説明目的のものであり、図1における同じ番号とは直接の関係を有さない。センサ装置NSiが、ある1日の人の動きを検知した結果が、チャート82である。チャート82の横軸は時間であり、縦軸は、各センサ装置の個別ID(NSi)である。あるセンサ装置が人を検知すると、その時間帯においてそのセンサ装置の“チャート線(太い実線)”が凸状に変化する。
(Movement of humans and robots)
FIG. 22 is a diagram illustrating the movement of a person. Now, assume a
センサ装置1がこのような検知を多くの回数繰り返すと、人の通常時の動きがチャート82上に“パタン”として現れる。例えば、パタン1は、人がリビング1からトイレ5に移動し、その後リビング1に戻る場合のチャート線の組合せである。パタン1は、1日のうち例えば5、6回周期的に現れる。NS1、NS2、NS3、NS4及びNS5のそれぞれの凸部の時間幅は、毎回ほぼ同じである。
When the
パタン2は、人がリビング1から浴室8に移動し、その後リビング1に戻る場合のチャート線の組合せである。パタン2は、1日のうち例えば夜間に1回周期的に現れる。NS1、NS2、NS3、NS4、NS6、NS7及びNS8のそれぞれの凸部の時間幅は、毎回ほぼ同じである。
図23は、異常発生時の人及びロボットの動きを説明する図である。パタン1bに注目すると、廊下3(NS3)において、チャート線の凸部の時間幅が、図22の時間幅に比して有意に長くなっている。行動検知サーバ4の制御部41は、時点t1において異常を検知し、ロボット2に対し目標座標GIoを送信する。すると、ロボット2は、人が転倒している可能性の高い位置(廊下3)に移動する。
FIG. 23 is a diagram illustrating the movements of a person and a robot when an abnormality occurs. Focusing on the pattern 1b, in the corridor 3 (NS3), the time width of the convex portion of the chart line is significantly longer than the time width of FIG. 22. The
パタン1cに注目すると、廊下4(NS4)において、通常の時間幅の凸部が出現した直後、どのNSiにおいても凸部が出現していない。行動検知サーバ4の制御部41は、時点t2において異常を検知し、ロボット2に対し目標座標GIoを送信する。すると、ロボット2は、人が誘拐されている可能性の高い位置(廊下4)に移動する。
Focusing on the pattern 1c, immediately after the convex portion having a normal time width appears in the corridor 4 (NS4), the convex portion does not appear in any NSi. The
パタン1cに注目すると、浴室8(NS8)において、チャート線の凸部の時間幅が、図22の時間幅に比して有意に長くなっている。行動検知サーバ4の制御部41は、時点t3において異常を検知し、ロボット2に対し目標座標GIoを送信する。すると、ロボット2は、人が卒倒している可能性の高い位置(浴室8)に移動する。
Focusing on the pattern 1c, in the bathroom 8 (NS8), the time width of the convex portion of the chart line is significantly longer than the time width of FIG. 22. The
(変形例)
本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば上記した実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
(Modification example)
The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. It is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is also possible to add / delete / replace a part of the configuration of each embodiment with another configuration.
上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路などのハードウェアで実現してもよい。上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈して実行することにより、ソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリ、ハードディスク、SSD(Solid State Drive)などの記録装置、または、フラッシュメモリカード、DVD(Digital Versatile Disk)などの記録媒体に置くことができる。 Each of the above configurations, functions, processing units, processing means, and the like may be partially or wholly realized by hardware such as an integrated circuit. Each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, hard disk, recording device such as SSD (Solid State Drive), or recording medium such as flash memory card or DVD (Digital Versatile Disk). it can.
各実施形態において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には、殆ど全ての構成が相互に接続されていると考えてもよい。
本発明の変形例として、例えば、次の(a)〜(e)のようなものがある。
In each embodiment, the control lines and information lines indicate what is considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.
Examples of modifications of the present invention include the following (a) to (e).
(a) 行動検知サーバ4を設けず、移動ロボット2がイベント情報モードの処理や異常モードの処理を実行してもよい。
(b) 行動検知サーバ4を設けず、各センサ装置1が自律的にイベント情報モードの処理や異常モードの処理を実行してもよい。
(c) 行動検知サーバ4の通信部44と外部通信部45とは、共通であってもよい。
(d) 第1の実施形態の移動ロボット2は無線タグを備え、センサ装置1によってこの無線タグを検知するようにしてもよい。これにより、センサ装置1が確実に移動ロボット2を検知できるようになる。
(e) センサ設置情報モードが終了した後であっても、センサ位置の変更を検知した際には、記憶部に記憶されたセンサ位置情報を修正してもよい。
(A) The
(B) The
(C) The
(D) The
(E) Even after the sensor installation information mode is finished, when a change in the sensor position is detected, the sensor position information stored in the storage unit may be corrected.
S 行動検知システム
1,1−1〜1−7 センサ装置
11 制御部
12 検知部 (第1センサ)
13 記憶部
14 通信部 (第1通信手段)
15 電源部
2 移動ロボット
21 制御部
22 検知部 (第2センサ)
23 機構部
24 記憶部
25 電源部
26 操作部
27 通信部 (第2通信手段)
3 給電装置
31 検知部
32 通信部
4 行動検知サーバ
41 制御部
42 記憶部
43 タイマ
44 通信部 (第3通信手段)
45 外部通信部 (外部通信手段)
5 外部電源
6 インタフェース装置
61 制御部
62 表示部
63 入力部
64 電源部
65 通信部
66 制御部
8,8−1〜8−7 家電機器 (センサ装置)
81 制御部
82 検知部 (第1センサ)
83 記憶部
84 通信部 (第1通信手段)
85 電源部
9 居室
S
13
15
23
3
45 External communication unit (external communication means)
5
81
83
85
Claims (9)
情報を検知する第2センサ、情報を送受信する第2通信手段、および前記室内を移動可能な移動手段を備えたロボットと、
情報を送受信する第3通信手段を備え、前記複数のセンサ装置が備える前記第1センサの検知情報、および前記ロボットが備える前記第2センサの検知情報に基づいて、移動体の行動を検知するサーバと、
ユーザが前記複数のセンサ装置が設けられている位置を画面上で入力するのを受け付けるインタフェース装置と、
を備えることを特徴とする行動検知システム。 A plurality of sensor devices provided in any of the rooms, including a first sensor for detecting information and a first communication means for transmitting information,
A robot equipped with a second sensor for detecting information, a second communication means for transmitting and receiving information, and a moving means capable of moving in the room.
A server provided with a third communication means for transmitting and receiving information, and detecting the behavior of a moving body based on the detection information of the first sensor included in the plurality of sensor devices and the detection information of the second sensor included in the robot. When,
An interface device that accepts the user to input the position where the plurality of sensor devices are provided on the screen, and
A behavior detection system characterized by being equipped with.
前記室内の地図情報を記憶した記憶手段を備え、
前記第1センサの検知情報、および前記第2センサの検知情報に基づいて、移動体の行動を検知し、異常状態と診断した場合、前記地図情報における異常を検知した座標に自身を移動させて、当該異常を診断すること、
を特徴とする請求項1に記載の行動検知システム。 The robot
A storage means for storing the map information in the room is provided.
When the behavior of a moving body is detected based on the detection information of the first sensor and the detection information of the second sensor and a diagnosis of an abnormal state is made, the body is moved to the coordinates where the abnormality is detected in the map information. , Diagnosing the abnormality,
The behavior detection system according to claim 1.
家電機器であり、
前記ロボットは、
前記家電機器の操作情報を受信すること、
を特徴とする請求項2に記載の行動検知システム。 The plurality of sensor devices
It is a home appliance
The robot
Receiving operation information of the home appliances,
2. The behavior detection system according to claim 2.
自身が移動した空間の幾何情報を検知するための位置センサを備え、
前記ロボットの記憶手段は、
前記複数のセンサ装置が設けられている位置を記憶しているとともに、自身が移動した空間の幾何情報と前記複数のセンサ装置が設けられている位置との対応関係を前記地図情報として記憶していること、
を特徴とする請求項3に記載の行動検知システム。 The robot
Equipped with a position sensor to detect the geometric information of the space in which it has moved,
The storage means of the robot is
The position where the plurality of sensor devices are provided is stored, and the correspondence relationship between the geometric information of the space in which the sensor device is provided and the position where the plurality of sensor devices are provided is stored as the map information. Being,
The behavior detection system according to claim 3.
複数のセンサ装置が設けられている位置を、自身が前記位置センサによって検知した空間の座標系で表現された位置情報として記憶していること、
を特徴とする請求項4に記載の行動検知システム。 The storage means of the robot is
The position where a plurality of sensor devices are provided is stored as position information expressed by the coordinate system of the space detected by the position sensor.
4. The behavior detection system according to claim 4.
前記第2センサによって情報を検知すると、検知した前記情報を前記記憶手段に保持し、現在の情報と前記記憶手段に保持された過去の情報とを比較することで、異常状態を診断すること、
を特徴とする請求項5に記載の行動検知システム。 The robot
When the information is detected by the second sensor, the detected information is held in the storage means, and the current information is compared with the past information held in the storage means to diagnose the abnormal state.
The behavior detection system according to claim 5.
異常の詳細を診断するセンサと、
外部と通信する外部通信手段とを備え、
異常を確定した場合、前記外部通信手段により、確定した異常情報を外部へ送信すること、
を特徴とする請求項6に記載の行動検知システム。 The robot
A sensor that diagnoses the details of the abnormality and
Equipped with an external communication means to communicate with the outside
When an abnormality is confirmed, the confirmed abnormality information is transmitted to the outside by the external communication means.
The behavior detection system according to claim 6.
情報を検知する第2センサ、情報を送受信する第2通信手段、および前記室内を移動可能な移動手段を備えたロボットと、
情報を送受信する第3通信手段を備え、前記複数のセンサ装置が備える前記第1センサの検知情報、および前記ロボットが備える前記第2センサの検知情報に基づいて、移動体の行動を検知するサーバと、通信可能に接続されており、
ユーザが前記複数のセンサ装置が設けられている位置を画面上で入力するのを受け付けること、
を特徴とするインタフェース装置。 A plurality of sensor devices provided in any of the rooms, including a first sensor for detecting information and a first communication means for transmitting information,
A robot equipped with a second sensor for detecting information, a second communication means for transmitting and receiving information, and a moving means capable of moving in the room.
A server provided with a third communication means for transmitting and receiving information, and detecting the behavior of a moving body based on the detection information of the first sensor included in the plurality of sensor devices and the detection information of the second sensor included in the robot. Is connected so that it can communicate with
Accepting the user to input the position where the plurality of sensor devices are provided on the screen,
An interface device characterized by.
情報を検知する第2センサ、情報を送受信する第2通信手段、および前記室内を移動可能な移動手段を備えたロボットであって、
前記ロボットは、
情報を送受信する第3通信手段を備え、前記複数のセンサ装置が備える前記第1センサの検知情報、および前記ロボットが備える前記第2センサの検知情報に基づいて、移動体の行動を検知するサーバと、
ユーザが前記複数のセンサ装置が設けられている位置を画面上で入力するのを受け付けるインタフェース装置とも通信可能に接続されていること、
を特徴とするロボット。 It is equipped with a first sensor for detecting information and a first communication means for transmitting information, and is communicably connected to a plurality of sensor devices provided in any of the rooms.
A robot equipped with a second sensor for detecting information, a second communication means for transmitting and receiving information, and a moving means capable of moving in the room.
The robot
A server provided with a third communication means for transmitting and receiving information, and detecting the behavior of a moving body based on the detection information of the first sensor included in the plurality of sensor devices and the detection information of the second sensor included in the robot. When,
It is also communicably connected to an interface device that accepts the user to input the positions where the plurality of sensor devices are provided on the screen.
A robot featuring.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019052566A JP7228427B2 (en) | 2019-03-20 | 2019-03-20 | Action detection system and robot |
SG11202109381T SG11202109381TA (en) | 2019-03-20 | 2020-01-31 | Behavior detection system, interface device, and robot |
CN202080005875.4A CN112955843A (en) | 2019-03-20 | 2020-01-31 | Action detection system, interface device and robot |
PCT/JP2020/003761 WO2020189052A1 (en) | 2019-03-20 | 2020-01-31 | Activity detection system, interface device, and robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019052566A JP7228427B2 (en) | 2019-03-20 | 2019-03-20 | Action detection system and robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020154718A true JP2020154718A (en) | 2020-09-24 |
JP7228427B2 JP7228427B2 (en) | 2023-02-24 |
Family
ID=72519269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019052566A Active JP7228427B2 (en) | 2019-03-20 | 2019-03-20 | Action detection system and robot |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7228427B2 (en) |
CN (1) | CN112955843A (en) |
SG (1) | SG11202109381TA (en) |
WO (1) | WO2020189052A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230151265A (en) * | 2022-04-25 | 2023-11-01 | 재단법인대구경북과학기술원 | Optimal control sensor position calculation device and method for calculating optimum control sensor position using the same |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01149114A (en) * | 1987-12-07 | 1989-06-12 | Hitachi Ltd | Running control method for free-running robot |
JPH11283152A (en) * | 1998-03-27 | 1999-10-15 | Sharp Corp | Remote control system |
JP2002092761A (en) * | 2000-09-12 | 2002-03-29 | Toshiba Tec Corp | Movement monitoring system |
JP2010231659A (en) * | 2009-03-27 | 2010-10-14 | Sogo Keibi Hosho Co Ltd | System, terminal, method, and program for inspecting security |
JP2016218659A (en) * | 2015-05-19 | 2016-12-22 | 住友電気工業株式会社 | Sensor management device, sensor management method, and sensor management program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006092356A (en) * | 2004-09-24 | 2006-04-06 | Sanyo Electric Co Ltd | Presumption system, presumption apparatus and sensing apparatus |
US9046414B2 (en) * | 2012-09-21 | 2015-06-02 | Google Inc. | Selectable lens button for a hazard detector and method therefor |
JP5958459B2 (en) * | 2013-12-26 | 2016-08-02 | トヨタ自動車株式会社 | State determination system, state determination method, and mobile robot |
-
2019
- 2019-03-20 JP JP2019052566A patent/JP7228427B2/en active Active
-
2020
- 2020-01-31 WO PCT/JP2020/003761 patent/WO2020189052A1/en active Application Filing
- 2020-01-31 SG SG11202109381T patent/SG11202109381TA/en unknown
- 2020-01-31 CN CN202080005875.4A patent/CN112955843A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01149114A (en) * | 1987-12-07 | 1989-06-12 | Hitachi Ltd | Running control method for free-running robot |
JPH11283152A (en) * | 1998-03-27 | 1999-10-15 | Sharp Corp | Remote control system |
JP2002092761A (en) * | 2000-09-12 | 2002-03-29 | Toshiba Tec Corp | Movement monitoring system |
JP2010231659A (en) * | 2009-03-27 | 2010-10-14 | Sogo Keibi Hosho Co Ltd | System, terminal, method, and program for inspecting security |
JP2016218659A (en) * | 2015-05-19 | 2016-12-22 | 住友電気工業株式会社 | Sensor management device, sensor management method, and sensor management program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230151265A (en) * | 2022-04-25 | 2023-11-01 | 재단법인대구경북과학기술원 | Optimal control sensor position calculation device and method for calculating optimum control sensor position using the same |
KR102677452B1 (en) | 2022-04-25 | 2024-06-24 | 재단법인대구경북과학기술원 | Optimal control sensor position calculation device and method for calculating optimum control sensor position using the same |
Also Published As
Publication number | Publication date |
---|---|
WO2020189052A1 (en) | 2020-09-24 |
JP7228427B2 (en) | 2023-02-24 |
SG11202109381TA (en) | 2021-10-28 |
CN112955843A (en) | 2021-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10383497B2 (en) | Robot and controlling method thereof | |
CN107636548B (en) | Robot and control method thereof | |
US11468668B2 (en) | Drone pre-surveillance | |
JP6551455B2 (en) | Gait analysis support robot | |
US11798390B2 (en) | Automated robot alert system | |
US20110231018A1 (en) | Control apparatus, control method and program | |
CN106092091B (en) | E-machine equipment | |
US20200171667A1 (en) | Vision-based robot control system | |
KR20140043430A (en) | Method and system for observation | |
US10715941B2 (en) | Mobile and autonomous audio sensing and analytics system and method | |
TW201737854A (en) | Automatic cleaning system and operation method thereof | |
KR20110018211A (en) | Robot cleaner and control system including the same | |
WO2020189052A1 (en) | Activity detection system, interface device, and robot | |
TWI742379B (en) | Robot, motion detection server and motion detection system | |
KR101584600B1 (en) | Interactive environment complex sensor IoT system | |
CN104050241A (en) | Remote-operating accepting system, remote operating system and program | |
US20240005648A1 (en) | Selective knowledge distillation | |
US20230252874A1 (en) | Shadow-based fall detection | |
KR20200049189A (en) | Home device | |
JP6123962B1 (en) | Central processing unit and method of monitored person monitoring system, and monitored person monitoring system | |
KR20200076158A (en) | Electronic device and method for collaborating another electronic device | |
JP5258113B2 (en) | Location information detection system | |
JP2016082515A (en) | Server, electric apparatus control method, control program, apparatus control system, electric apparatus, and history management system | |
JP2022143603A (en) | Watching system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221110 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230119 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230119 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230127 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7228427 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |