JP2020154718A - Action detection system, interface device, and robot - Google Patents

Action detection system, interface device, and robot Download PDF

Info

Publication number
JP2020154718A
JP2020154718A JP2019052566A JP2019052566A JP2020154718A JP 2020154718 A JP2020154718 A JP 2020154718A JP 2019052566 A JP2019052566 A JP 2019052566A JP 2019052566 A JP2019052566 A JP 2019052566A JP 2020154718 A JP2020154718 A JP 2020154718A
Authority
JP
Japan
Prior art keywords
information
sensor
robot
control unit
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019052566A
Other languages
Japanese (ja)
Other versions
JP7228427B2 (en
Inventor
小谷 正直
Masanao Kotani
正直 小谷
大平 昭義
Akiyoshi Ohira
昭義 大平
浩平 京谷
Kohei Kyotani
浩平 京谷
健太郎 佐野
Kentaro Sano
健太郎 佐野
梓 網野
Azusa Amino
梓 網野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019052566A priority Critical patent/JP7228427B2/en
Priority to SG11202109381T priority patent/SG11202109381TA/en
Priority to CN202080005875.4A priority patent/CN112955843A/en
Priority to PCT/JP2020/003761 priority patent/WO2020189052A1/en
Publication of JP2020154718A publication Critical patent/JP2020154718A/en
Application granted granted Critical
Publication of JP7228427B2 publication Critical patent/JP7228427B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Alarm Systems (AREA)
  • Telephonic Communication Services (AREA)
  • Emergency Alarm Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

To provide a robot capable of properly contacting a human being in an environment where sensors are arranged.SOLUTION: An action detection system S includes: plural sensor devices each of which includes a first sensor that detects information and first communication means that transmits information, and is located anywhere within a room; a robot that includes a second sensor which detects information, second communication means which transmits and receives information, and moving means capable of moving within the room; a server that includes third communication means which transmits and receives information, and detects an action of a moving entity on the basis of pieces of detection information of the first sensors included in the plural sensor devices, and detection information of the second sensor included in the robot; and an interface device that accepts the entry of positions, where the plural sensor devices are located, made in a screen image by a user.SELECTED DRAWING: Figure 19

Description

本発明は、行動検知システム、インタフェース装置及びロボットに関する。 The present invention relates to a behavior detection system, an interface device and a robot.

コンピュータが人又は物の位置を知るために、実物の空間を模擬した電子的な地図情報を使用する場合が多い。そして、自走するロボットが地図情報を作成する技術が普及している。特許文献1のロボットは、自身の移動経路に沿って地図情報を作成する際、領域の特性を取得する。領域の特性とは、例えば、上部に位置する障害物と床面との距離、床材質、ホコリ汚染度を測定する。特許文献2の地図生成装置は、ある地点で取得した周辺の幾何学形状と、別の地点で取得した周辺の幾何学形状とを合成して地図情報を作成する。特許文献2の地図生成装置は、当該合成に際して、2点間の距離、2点に跨って検知される壁面の平行移動量等を使用する。 Computers often use electronic map information that simulates real space in order to know the position of a person or object. And the technology that a self-propelled robot creates map information is widespread. The robot of Patent Document 1 acquires the characteristics of the area when creating map information along its own movement path. The characteristics of the area include, for example, measuring the distance between an obstacle located at the upper part and the floor surface, the floor material, and the degree of dust contamination. The map generator of Patent Document 2 creates map information by synthesizing the geometric shape of the periphery acquired at a certain point and the geometric shape of the periphery acquired at another point. The map generator of Patent Document 2 uses the distance between two points, the amount of parallel movement of the wall surface detected across the two points, and the like in the synthesis.

特開2007−323652号公報JP-A-2007-323652 特開2010−54315号公報Japanese Unexamined Patent Publication No. 2010-54315

特に室内においては、ロボットのような移動機器とは別に、人又は物を検知するセンサが配置されていることが多い。そして、センサ及びロボットが共存することを前提に、地図情報の作成、人又は物の検知、人又は物に対する働きかけ等をセンサとロボットとで分担することが必要な場合もある。例えば、室内にいる高齢者を見守る又は援助する場合、特にその必要性は増す。特許文献1は、ロボット以外のセンサについても、人等に対する見守り又は働きかけについても言及していない。特許文献2もまた、ロボット以外のセンサについても、人等に対する見守り又は働きかけについても言及していない。
そこで、本発明は、センサが配置されている環境で、ロボットが的確に人等に対して働きかけることを目的とする。
Especially in a room, a sensor for detecting a person or an object is often arranged separately from a mobile device such as a robot. Then, on the premise that the sensor and the robot coexist, it may be necessary for the sensor and the robot to share the creation of map information, the detection of a person or an object, the action on the person or an object, and the like. For example, the need for it is especially increased when watching or assisting the elderly in the room. Patent Document 1 does not refer to sensors other than robots, nor to watching over or working on humans and the like. Patent Document 2 also does not refer to sensors other than robots, nor to watch over or work on humans or the like.
Therefore, an object of the present invention is to allow a robot to accurately work on a person or the like in an environment in which a sensor is arranged.

行動検知システムは、情報を検知する第1センサ、および情報を送信する第1通信手段を備え、室内のいずれかに設けられた複数のセンサ装置と、情報を検知する第2センサ、情報を送受信する第2通信手段、および室内を移動可能な移動手段を備えたロボットと、情報を送受信する第3通信手段を備え、複数のセンサ装置が備える第1センサの検知情報、およびロボットが備える第2センサの検知情報に基づいて、移動体の行動を検知するサーバと、ユーザが複数のセンサ装置が設けられている位置を画面上で入力するのを受け付けるインタフェース装置と、を備えることを特徴とする。
その他の手段については、発明を実施するための形態のなかで説明する。
The behavior detection system includes a first sensor for detecting information and a first communication means for transmitting information, and a plurality of sensor devices provided in any of the rooms, a second sensor for detecting information, and information transmission / reception. The detection information of the first sensor provided with the second communication means and the robot provided with the moving means movable in the room, the third communication means for transmitting and receiving information, and the plurality of sensor devices, and the second communication means provided with the robot. It is characterized by including a server that detects the behavior of a moving object based on the detection information of the sensor, and an interface device that accepts the user to input the position where a plurality of sensor devices are provided on the screen. ..
Other means will be described in the form for carrying out the invention.

本発明によれば、センサが配置されている環境で、ロボットが的確に人等に対して働きかけることができる。 According to the present invention, a robot can accurately work on a person or the like in an environment in which a sensor is arranged.

第1の実施形態における行動検知システムの構成を示す概略図である。It is the schematic which shows the structure of the action detection system in 1st Embodiment. 第1の実施形態の行動検知システムが設置された居室を示す図である。It is a figure which shows the living room where the behavior detection system of 1st Embodiment is installed. センサ設置情報(SI)の一例を示す図である。It is a figure which shows an example of the sensor installation information (SI). イベント情報(EI)の一例を示す図である。It is a figure which shows an example of event information (EI). センサ設置情報(SI)モード時における居室を示す図である。It is a figure which shows the living room in the sensor installation information (SI) mode. センサ情報(GI)を示すグラフである。It is a graph which shows the sensor information (GI). センサ情報作成モードの処理を示すフローチャートである。It is a flowchart which shows the processing of the sensor information creation mode. 第1の実施形態におけるセンサ設置情報モードの処理を示すフローチャートである。It is a flowchart which shows the processing of the sensor installation information mode in 1st Embodiment. イベント情報モードにおける居室を示す図である。It is a figure which shows the living room in the event information mode. イベント情報モードにおけるセンサ情報(GI)を示すグラフである。It is a graph which shows the sensor information (GI) in the event information mode. イベント情報モードの処理を示すフローチャートである。It is a flowchart which shows the processing of the event information mode. イベント情報のみを抽出したグラフである。It is a graph which extracted only event information. イベント情報モードのうち移動ロボットが起動していないときの処理を示すフローチャートである。It is a flowchart which shows the process when the mobile robot is not activated in the event information mode. イベント情報モードのうち移動ロボットが起動しているときの処理を示すフローチャートである。It is a flowchart which shows the process when a mobile robot is activated in an event information mode. 異常検知時における居室を示す図である。It is a figure which shows the living room at the time of abnormality detection. イベント情報の欠落を抽出したグラフである。It is a graph which extracted the lack of event information. 異常検知モードの処理を示すフローチャートである。It is a flowchart which shows the processing of an abnormality detection mode. 第2の実施形態における行動検知システムの構成を示す概略図である。It is the schematic which shows the structure of the behavior detection system in 2nd Embodiment. 第3の実施形態における行動検知システムの構成を示す概略図である。It is the schematic which shows the structure of the action detection system in 3rd Embodiment. インタフェース画面の一例である。This is an example of the interface screen. 第3の実施形態におけるセンサ設置情報モードの処理を示すフローチャートである。It is a flowchart which shows the processing of the sensor installation information mode in 3rd Embodiment. 人の動きを説明する図である。It is a figure explaining the movement of a person. 異常発生時の人及びロボットの動きを説明する図である。It is a figure explaining the movement of a person and a robot at the time of an abnormality occurrence.

《第1の実施形態》
第1の実施形態の行動検知システムSを、図1〜図18を用いて、以下に説明する。
図1は、行動検知システムSの構成を示す概略図である。
<< First Embodiment >>
The behavior detection system S of the first embodiment will be described below with reference to FIGS. 1 to 18.
FIG. 1 is a schematic view showing the configuration of the behavior detection system S.

図1に示すように、行動検知システムSは、複数のセンサ装置1と、移動ロボット2と、給電装置3と、行動検知サーバ4とを含んで構成される。
センサ装置1は、室内に設けられて情報をセンシングし、通信部14によって情報を外部に送信するものである。移動ロボット2は、検知部22と機構部23などを有し、室内を移動することができるロボットである。移動ロボット2は、例えば掃除機能を有するロボットであるが、これに限られず、愛玩用のロボットや警備用のロボットであってもよく、限定されない。
As shown in FIG. 1, the behavior detection system S includes a plurality of sensor devices 1, a mobile robot 2, a power feeding device 3, and a behavior detection server 4.
The sensor device 1 is provided in the room to sense information, and the communication unit 14 transmits the information to the outside. The mobile robot 2 is a robot that has a detection unit 22, a mechanism unit 23, and the like, and can move in the room. The mobile robot 2 is, for example, a robot having a cleaning function, but is not limited to this, and may be a pet robot or a security robot, and is not limited thereto.

給電装置3は、この移動ロボット2に電力を供給するものである。行動検知サーバ4の制御部41は、複数のセンサ装置1、および移動ロボット2と通信する通信部44を有している。これら接続したセンサ装置1や移動ロボット2の検知情報に基づいて、人や動物や他のロボット装置などの移動体の行動および/または状態を検知する。 The power feeding device 3 supplies electric power to the mobile robot 2. The control unit 41 of the action detection server 4 has a plurality of sensor devices 1 and a communication unit 44 that communicates with the mobile robot 2. Based on the detection information of the connected sensor device 1 and the mobile robot 2, the behavior and / or state of a moving body such as a person, an animal, or another robot device is detected.

複数のセンサ装置1は、制御部11と、検知部12(第1センサ)と、記憶部13と、通信部14(第1通信手段)と、電源部15とを備え、図2に示す居室9内に複数設置される。
電源部15は、このセンサ装置1を起動して各部に電力を供給する。通信部14は、無線または有線の通信モジュールであり、センサ装置1の検知情報およびセンサ装置1の固有ID(IDentifier)を行動検知サーバ4へ送信する。記憶部13は、例えばROM(Read Only Memory)やフラッシュメモリであり、センサ装置1の固有IDなどを記憶する。検知部12は、室内の情報を検知する第1センサとして機能する。検知部12は、例えば赤外線や超音波などで人などを検知する人感センサであり、人や移動ロボットなどの移動体を検知可能である。制御部11は、検知部12の動作を制御する。
The plurality of sensor devices 1 include a control unit 11, a detection unit 12 (first sensor), a storage unit 13, a communication unit 14 (first communication means), and a power supply unit 15, and include a living room shown in FIG. Multiple installations are made in 9.
The power supply unit 15 activates the sensor device 1 to supply electric power to each unit. The communication unit 14 is a wireless or wired communication module, and transmits the detection information of the sensor device 1 and the unique ID (IDentifier) of the sensor device 1 to the behavior detection server 4. The storage unit 13 is, for example, a ROM (Read Only Memory) or a flash memory, and stores a unique ID of the sensor device 1 and the like. The detection unit 12 functions as a first sensor for detecting information in the room. The detection unit 12 is a motion sensor that detects a person or the like by, for example, infrared rays or ultrasonic waves, and can detect a moving object such as a person or a moving robot. The control unit 11 controls the operation of the detection unit 12.

移動ロボット2は、電源部25と、機構部23(移動手段)と、検知部22(第2センサ)と、制御部21、記憶部24、通信部27(第2通信手段)、操作部26を備える。移動ロボット2は、電源部25に二次電池(不図示)を備え、この二次電池を給電装置3で充電することによって動作する。 The mobile robot 2 includes a power supply unit 25, a mechanism unit 23 (moving means), a detection unit 22 (second sensor), a control unit 21, a storage unit 24, a communication unit 27 (second communication means), and an operation unit 26. To be equipped with. The mobile robot 2 is provided with a secondary battery (not shown) in the power supply unit 25, and operates by charging the secondary battery with the power supply device 3.

電源部25は、移動ロボット2を起動させると共に、この移動ロボット2の各部に電力を供給する。機構部23は、室内を移動するためのものであり、例えばモータと車輪で構成される。機構部23は、居室9の内部を移動可能な移動手段として機能する。 The power supply unit 25 activates the mobile robot 2 and supplies electric power to each unit of the mobile robot 2. The mechanism unit 23 is for moving in the room, and is composed of, for example, a motor and wheels. The mechanism unit 23 functions as a moving means that can move inside the living room 9.

検知部22は、室内の情報を検知する第2センサとして機能する。検知部22は、移動ロボット2の位置を検知したり、人や動物などの移動体の行動を検知するためのセンサ群である。制御部21は、例えばCPU(Central Processing Unit)であり、検知部22の検知情報を分析し、この分析した情報に基づいて移動ロボット2の動作を制御する。記憶部24は、例えばRAM(Random Access Memory)やフラッシュメモリであり、制御部21が分析した情報を記憶する。通信部27は、例えばWi-Fi(登録商標)の通信モジュールであり、制御部21と行動検知サーバ4との間で情報を送受信する。操作部26は、利用者が移動ロボット2を操作するためのスイッチやボタン等である。 The detection unit 22 functions as a second sensor that detects information in the room. The detection unit 22 is a group of sensors for detecting the position of the mobile robot 2 and the behavior of a moving body such as a person or an animal. The control unit 21 is, for example, a CPU (Central Processing Unit), analyzes the detection information of the detection unit 22, and controls the operation of the mobile robot 2 based on the analyzed information. The storage unit 24 is, for example, a RAM (Random Access Memory) or a flash memory, and stores information analyzed by the control unit 21. The communication unit 27 is, for example, a Wi-Fi (registered trademark) communication module, and transmits / receives information between the control unit 21 and the action detection server 4. The operation unit 26 is a switch, a button, or the like for the user to operate the mobile robot 2.

給電装置3は、移動ロボット2に電力を供給するものである。また、給電装置3は、検知部31と通信部32を備える。検知部31は、移動ロボット2の位置を検知するセンサである。通信部32は、例えばWi-Fi(登録商標)の通信モジュールであり、制御部21と行動検知サーバ4との間で情報を送受信する。 The power feeding device 3 supplies electric power to the mobile robot 2. Further, the power feeding device 3 includes a detection unit 31 and a communication unit 32. The detection unit 31 is a sensor that detects the position of the mobile robot 2. The communication unit 32 is, for example, a Wi-Fi (registered trademark) communication module, and transmits / receives information between the control unit 21 and the action detection server 4.

なお、移動ロボット2の検知部22は、赤外線、超音波、レーザ、加速度、カメラ、音声認識等のセンサ群と、機構部23の動作を検知するセンサ群を含んで構成されている。検知部22は、自身が移動した空間の幾何情報を検知するための位置センサを含む検知手段である。これによって、室内を移動することができる。制御部21は、機構部23の動作情報とセンサ群の検知情報を用いて自己位置を認識することができる。その結果、移動ロボット2の制御部21は、検知部22によって居室9の幾何情報を分析し、分析した幾何形状の情報(住空間地図)を記憶部24に記憶させる。これによって、制御部21は、移動ロボット2自身の位置を認識することができる。通信部27によって目的地情報(幾何情報)を受信すれば、移動ロボット2は、目的地へ移動することができる。 The detection unit 22 of the mobile robot 2 includes a group of sensors for infrared rays, ultrasonic waves, lasers, accelerations, cameras, voice recognition, etc., and a group of sensors for detecting the operation of the mechanism unit 23. The detection unit 22 is a detection means including a position sensor for detecting geometric information of the space in which the detection unit 22 has moved. This makes it possible to move around the room. The control unit 21 can recognize its own position by using the operation information of the mechanism unit 23 and the detection information of the sensor group. As a result, the control unit 21 of the mobile robot 2 analyzes the geometric information of the living room 9 by the detection unit 22, and stores the analyzed geometric shape information (living space map) in the storage unit 24. As a result, the control unit 21 can recognize the position of the mobile robot 2 itself. If the destination information (geometric information) is received by the communication unit 27, the mobile robot 2 can move to the destination.

また、移動ロボット2の制御部21は、通信部27を介して行動検知サーバ4に自己位置の空間情報(GI)を発信できる。更に、移動ロボット2の制御部21は、検知部22により人や動物などの移動体の行動を、画像および音声で認識する認知手段も備えている。このため、移動ロボット2の制御部21は、検知した移動体の状態の情報を、通信部27を介して行動検知サーバ4に発信できる。状態の情報を受信した行動検知サーバ4の制御部41は、外部通信部45を介して外部に、この状態の情報を発信できる。 Further, the control unit 21 of the mobile robot 2 can transmit the spatial information (GI) of its own position to the action detection server 4 via the communication unit 27. Further, the control unit 21 of the mobile robot 2 also includes a cognitive means for recognizing the behavior of a moving body such as a person or an animal by the detection unit 22 with images and sounds. Therefore, the control unit 21 of the mobile robot 2 can transmit the detected state information of the moving body to the action detection server 4 via the communication unit 27. The control unit 41 of the action detection server 4 that has received the state information can transmit the information of this state to the outside via the external communication unit 45.

行動検知サーバ4は、制御部41と、記憶部42と、タイマ43と、通信部44(第3通信手段)と、外部通信部45とを含んで構成されている。通信部44は、例えばWi-Fi(登録商標)の通信モジュールであり、センサ装置1および移動ロボット2から発信された情報を受信し、移動ロボット2へ情報を発信する。通信部44は、室内に設けられた複数のセンサ装置1や移動ロボット2と通信可能な第3通信手段として機能する。 The action detection server 4 includes a control unit 41, a storage unit 42, a timer 43, a communication unit 44 (third communication means), and an external communication unit 45. The communication unit 44 is, for example, a Wi-Fi (registered trademark) communication module, receives information transmitted from the sensor device 1 and the mobile robot 2, and transmits the information to the mobile robot 2. The communication unit 44 functions as a third communication means capable of communicating with a plurality of sensor devices 1 and mobile robots 2 provided in the room.

外部通信部45は、例えばネットワークインタフェースカード(NIC)であり、センサ装置1および移動ロボット2で構築されるネットワーク以外の外部ネットワークとの間で情報を送受信する。制御部41は、センサ装置1、移動ロボット2、および外部通信部45から受信した情報を分析し、この分析結果に基づいて移動ロボット2の制御を行う。制御部41は、複数のセンサ装置1が検知したセンサ情報(第1検知情報)、および移動ロボット2の検知部22が検知した情報(第2検知情報)に基づいて、移動体の行動を検知する制御手段として機能する。 The external communication unit 45 is, for example, a network interface card (NIC), and transmits / receives information to / from an external network other than the network constructed by the sensor device 1 and the mobile robot 2. The control unit 41 analyzes the information received from the sensor device 1, the mobile robot 2, and the external communication unit 45, and controls the mobile robot 2 based on the analysis result. The control unit 41 detects the behavior of the moving body based on the sensor information (first detection information) detected by the plurality of sensor devices 1 and the information detected by the detection unit 22 of the mobile robot 2 (second detection information). It functions as a control means.

記憶部42は、外部通信部45からの入力情報や制御部41の制御情報を記憶する。記憶部42は、複数のセンサ装置1を設置した位置を示すセンサ位置情報、および移動ロボット2が移動した空間の幾何情報と複数のセンサ装置1が設けられている位置の情報との対応関係を記憶する記憶手段である。制御部41は、各センサ装置1が設けられている位置を、移動ロボット2が位置センサによって検知した空間の座標系で表現された位置情報として記憶部42に記憶する。タイマ43は、イベントの発生時刻を認識する。
なお、行動検知サーバ4の各機能は、移動ロボット2やセンサ装置1に組み込まれていてもよい。
The storage unit 42 stores the input information from the external communication unit 45 and the control information of the control unit 41. The storage unit 42 provides a correspondence relationship between the sensor position information indicating the position where the plurality of sensor devices 1 are installed, the geometric information of the space where the mobile robot 2 has moved, and the information of the position where the plurality of sensor devices 1 are provided. It is a memory means to memorize. The control unit 41 stores the position where each sensor device 1 is provided in the storage unit 42 as position information expressed in the coordinate system of the space detected by the mobile robot 2 by the position sensor. The timer 43 recognizes the time when the event occurs.
Each function of the action detection server 4 may be incorporated in the mobile robot 2 or the sensor device 1.

図2は、第1の実施形態の行動検知システムSが設置された居室9を示す図である。
居室9は、家庭などの室内であるが、その他、会社の事務室や倉庫などであってもよく、限定されない。居室9には、7個のセンサ装置1−1〜1−7と、給電装置3とが設置されており、移動ロボット2が太線矢印の経路で巡回している。太線矢印の経路上には、各イベント時刻Et1〜Et8における移動ロボット2や人の位置が示されている。
FIG. 2 is a diagram showing a living room 9 in which the behavior detection system S of the first embodiment is installed.
The living room 9 is a room such as a home, but may be an office or a warehouse of a company, and is not limited thereto. In the living room 9, seven sensor devices 1-1 to 1-7 and a power feeding device 3 are installed, and the mobile robot 2 patrols along the path indicated by the thick arrow. The positions of the mobile robot 2 and the person at each event time Et1 to Et8 are shown on the path of the thick line arrow.

居室9のうちリビングには、センサ装置1−7,1−1,1−2が設置され、センサ装置1−7の近傍には給電装置3が設置されている。更に台所にはセンサ装置1−3が設置され、その奧の食堂にはセンサ装置1−4が設置されている。階段を下りた廊下には、センサ装置1−5が設置され、玄関にはセンサ装置1−6が設置されている。なお、各センサ装置1−1〜1−7を特に区別しないときには、単にセンサ装置1と記載する。 Sensor devices 1-7, 1-1, 1-2 are installed in the living room of the living room 9, and a power feeding device 3 is installed in the vicinity of the sensor device 1-7. Furthermore, sensor devices 1-3 are installed in the kitchen, and sensor devices 1-4 are installed in the dining room of the kitchen. Sensor devices 1-5 are installed in the corridor down the stairs, and sensor devices 1-6 are installed at the entrance. When each sensor device 1-1 to 1-7 is not particularly distinguished, it is simply referred to as sensor device 1.

センサ装置1−7には、固有IDとしてNS7が付与されている。センサ装置1−7の検知範囲である特徴空間NR7は、破線で示されているように、居間の左側である。
センサ装置1−1には、固有IDとしてNS1が付与されている。センサ装置1−1の検知範囲である特徴空間NR1は、破線で示されているように、居間の右側である。
NS7 is assigned to the sensor device 1-7 as a unique ID. The feature space NR7, which is the detection range of the sensor device 1-7, is on the left side of the living room as shown by the broken line.
NS1 is assigned to the sensor device 1-1 as a unique ID. The feature space NR1, which is the detection range of the sensor device 1-1, is on the right side of the living room as shown by the broken line.

センサ装置1−2には、固有IDとしてNS2が付与されている。センサ装置1−2の検知範囲である特徴空間NR2は、破線で示されているように、居間の右側である。
センサ装置1−3には、固有IDとしてNS3が付与されている。センサ装置1−3の検知範囲である特徴空間NR3は、破線で示されているように、台所である。
NS2 is assigned to the sensor device 1-2 as a unique ID. The feature space NR2, which is the detection range of the sensor device 1-2, is on the right side of the living room as shown by the broken line.
NS3 is assigned to the sensor devices 1-3 as a unique ID. The feature space NR3, which is the detection range of the sensor devices 1-3, is the kitchen as shown by the broken line.

センサ装置1−4には、固有IDとしてNS4が付与されている。センサ装置1−4の検知範囲である特徴空間NR4は、破線で示されているように、食堂である。
センサ装置1−5には、固有IDとしてNS5が付与されている。センサ装置1−5の検知範囲である特徴空間NR5は、破線で示されているように、廊下である。
センサ装置1−6には、固有IDとしてNS6が付与されている。センサ装置1−6の検知範囲である特徴空間NR6は、破線で示されているように、玄関である。
NS4 is assigned as a unique ID to the sensor devices 1-4. The feature space NR4, which is the detection range of the sensor devices 1-4, is a dining room as shown by the broken line.
NS5 is assigned to the sensor device 1-5 as a unique ID. The feature space NR5, which is the detection range of the sensor device 1-5, is a corridor as shown by the broken line.
NS6 is assigned to the sensor devices 1-6 as a unique ID. The feature space NR6, which is the detection range of the sensor device 1-6, is the entrance as shown by the broken line.

以上により、居室9内に設置した複数のセンサ装置1−1〜1−7は、各センサ装置1の検知情報(SD)に、このセンサ装置1の固有ID(NS)を付与した情報を行動検知サーバ4へ発信することができる。 As described above, the plurality of sensor devices 1-1 to 1-7 installed in the living room 9 act on the information obtained by adding the unique ID (NS) of the sensor device 1 to the detection information (SD) of each sensor device 1. It is possible to make a call to the detection server 4.

図3は、センサ設置情報(SI)の一例を示す図である。
行動検知サーバ4には、記憶部42が設けられている。記憶部42には、居室9の特徴空間毎の個別ID(NR1〜NR7)と、設置されているセンサ装置1の固有ID(NS)との関係を示すセンサ設置情報(SI)が予め記憶されている。
このセンサ設置情報(SI)には、検知領域情報(RS)と関連する幾何情報(GI)を追加して記憶させることができる。更に、行動検知サーバ4の制御部41は、タイマ43が設けられているため、センサ装置1のデータ(NSi,SDi)を受信した際の時刻をイベント発生時刻(Et)として、追加して記憶させることができる。
FIG. 3 is a diagram showing an example of sensor installation information (SI).
The behavior detection server 4 is provided with a storage unit 42. In the storage unit 42, sensor installation information (SI) indicating the relationship between the individual IDs (NR1 to NR7) for each feature space of the living room 9 and the unique ID (NS) of the installed sensor device 1 is stored in advance. ing.
Geometric information (GI) related to the detection area information (RS) can be added and stored in the sensor installation information (SI). Further, since the control unit 41 of the action detection server 4 is provided with the timer 43, the time when the data (NSi, SDi) of the sensor device 1 is received is additionally stored as the event occurrence time (Et). Can be made to.

図4は、イベント情報(EI)の一例を示す図である。
図4に示すイベント情報(EI)は、人の行動の検知に関わるデータとして記憶・保持させることができる。イベント情報(EI)は、センサ固有ID(NS)毎のデータとして管理される。イベント情報(EI)は、居室9の特徴空間毎のID(NRj)と各センサ装置1のデータ(SD)、イベント発生時刻(Et)を記憶・保持させることによって構成される。なお、図3に示す通り、特徴空間(NR)とセンサID(NS)とは一対一で対応していなくてもよい。
FIG. 4 is a diagram showing an example of event information (EI).
The event information (EI) shown in FIG. 4 can be stored and retained as data related to the detection of human behavior. The event information (EI) is managed as data for each sensor unique ID (NS). The event information (EI) is configured by storing and holding the ID (NRj) for each feature space of the living room 9, the data (SD) of each sensor device 1, and the event occurrence time (Et). As shown in FIG. 3, the feature space (NR) and the sensor ID (NS) do not have to have a one-to-one correspondence.

センサ設置情報(SI)への空間情報(GI)の追加に関しては、図7および図8のフローチャートに基づいて説明する。図5は、センサ設置情報生成時のセンサ装置1と移動ロボット2の動作の概略を示したものである。図6は、各センサ(NSi)の時系列毎の検知情報を図示したものである。図5と図6に示すように、行動検知サーバ4が外部通信部45を介して、センサ設置情報作成モードを受信すると、行動検知サーバ4の制御部41はセンサ設置情報フラグSfをセットする。行動検知サーバ4の制御部41は、センサ設置情報フラグSfがセットされると、移動ロボット2へ起動信号を送信し、移動ロボット2が起動した後、センサ装置1と移動ロボット2の応答を受信する状態で待機する。 The addition of spatial information (GI) to the sensor installation information (SI) will be described with reference to the flowcharts of FIGS. 7 and 8. FIG. 5 shows an outline of the operations of the sensor device 1 and the mobile robot 2 when generating sensor installation information. FIG. 6 illustrates the detection information of each sensor (NSi) for each time series. As shown in FIGS. 5 and 6, when the behavior detection server 4 receives the sensor installation information creation mode via the external communication unit 45, the control unit 41 of the behavior detection server 4 sets the sensor installation information flag Sf. When the sensor installation information flag Sf is set, the control unit 41 of the action detection server 4 transmits an activation signal to the mobile robot 2, and after the mobile robot 2 is activated, receives the responses of the sensor device 1 and the mobile robot 2. Wait in the state of doing.

図5に示すように移動ロボット2の動作に伴い、順次、センサ装置1−7(NS7)、センサ装置1−1(NS1)、…、センサ装置1−6(NS6)、センサ装置1−7(NS7)が反応する。 As shown in FIG. 5, as the mobile robot 2 operates, the sensor device 1-7 (NS7), the sensor device 1-1 (NS1), ..., The sensor device 1-6 (NS6), and the sensor device 1-7 are sequentially generated. (NS7) reacts.

図6に示すように、行動検知サーバ4の制御部41は、各センサ装置1の反応に従って、センサ検知データ(NSi,SDi)を受信する。制御部41は、センサ検知データ(NSi,SDi)の受信時に、タイマ43からイベント発生時刻(Et)を取得して、移動ロボット2に対して自己の位置を送信するようにリクエストする。 As shown in FIG. 6, the control unit 41 of the behavior detection server 4 receives the sensor detection data (NSi, SDi) according to the reaction of each sensor device 1. When the sensor detection data (NSi, SDi) is received, the control unit 41 acquires the event occurrence time (Et) from the timer 43 and requests the mobile robot 2 to transmit its own position.

移動ロボット2は、給電装置3に対する位置を検知する検知部22が設けられており、図5に示す座標系で自身の位置を認識できる。このリクエストを受けた移動ロボット2の制御部21は、検知部22によって給電装置3を原点とした座標(X,Y)と移動ロボット2と給電装置3との間の絶対距離Rとを測定する。その後、制御部21は、測定した座標(X,Y)と絶対距離Rとを行動検知サーバ4に応答する。 The mobile robot 2 is provided with a detection unit 22 that detects the position with respect to the power feeding device 3, and can recognize its own position in the coordinate system shown in FIG. Upon receiving this request, the control unit 21 of the mobile robot 2 measures the coordinates (X, Y) with the power supply device 3 as the origin and the absolute distance R between the mobile robot 2 and the power supply device 3 by the detection unit 22. .. After that, the control unit 21 responds to the action detection server 4 with the measured coordinates (X, Y) and the absolute distance R.

図7に示すように、行動検知サーバ4の制御部41は、受信したセンサ検知データ(NSi,SDi)から、このデータを検知したセンサ装置1の固有IDを特定する。制御部41は、センサ設置情報(SI)内のセンサ固有IDに該当するセンサ装置1の検知領域座標情報を読み込む。検知領域座標情報は、絶対距離Rの最小値Rminおよび最大値Rmax、座標Xの最小値Xminおよび最大値Xmax、座標Yの最小値Yminおよび最大値Ymaxを含んでいる。 As shown in FIG. 7, the control unit 41 of the behavior detection server 4 identifies the unique ID of the sensor device 1 that has detected this data from the received sensor detection data (NSi, SDi). The control unit 41 reads the detection area coordinate information of the sensor device 1 corresponding to the sensor unique ID in the sensor installation information (SI). The detection area coordinate information includes the minimum value Rmin and the maximum value Rmax of the absolute distance R, the minimum value Xmin and the maximum value Xmax of the coordinate X, and the minimum value Ymin and the maximum value Ymax of the coordinate Y.

制御部41は、読み込んだ検知領域情報と、移動ロボット2から受信した座標データ(GI(R,X,Y))とを比較する(S10)。制御部41は、以下の式(1)と式(2)が成立するか否かを判定して、反応範囲を確定させる(S11)。制御部41は、検知領域情報(Rmax,Rmin,Xmin,Xmax,Ymax,Ymin)を更新して、センサ設置情報(SI)へ幾何情報を付与する(S12)。

Figure 2020154718
The control unit 41 compares the read detection area information with the coordinate data (GI (R, X, Y)) received from the mobile robot 2 (S10). The control unit 41 determines whether or not the following equations (1) and (2) are satisfied, and determines the reaction range (S11). The control unit 41 updates the detection area information (Rmax, Rmin, Xmin, Xmax, Ymax, Ymin) and adds geometric information to the sensor installation information (SI) (S12).
Figure 2020154718

Figure 2020154718
Figure 2020154718

以上のように、センサ装置1の検知情報と座標情報を関連付けすることによって、各センサ装置1の検知領域と移動ロボット2が生成する住空間地図(LS)の空間座標とを関連付けすることができる。 As described above, by associating the detection information of the sensor device 1 with the coordinate information, it is possible to associate the detection area of each sensor device 1 with the spatial coordinates of the living space map (LS) generated by the mobile robot 2. ..

図8は、センサ設置情報(GI)モードの処理を示すフローチャートである。
センサ設置情報モードでは、以下のように処理される。行動検知サーバ4の制御部41は、センサ設置モードを受信した後、センサ設置情報フラグSfをセットする(S40)。
ステップS41において、行動検知サーバ4の制御部41は、移動ロボット2が給電状態であるか否かを判定する。行動検知サーバ4の制御部41は、移動ロボット2が給電状態と判定したならば(Yes)、ステップS43の処理に進み、移動ロボット2が起動中と判定したならば(No)、ステップS42の処理に進む。
ステップS42において、行動検知サーバ4の制御部41は、移動ロボット2に給電位置へ移動するように指令して、ステップS41の処理に戻る。これにより制御部41は、移動ロボット2が給電状態になるまで待機する。
FIG. 8 is a flowchart showing the processing of the sensor installation information (GI) mode.
In the sensor installation information mode, the processing is as follows. After receiving the sensor installation mode, the control unit 41 of the action detection server 4 sets the sensor installation information flag Sf (S40).
In step S41, the control unit 41 of the action detection server 4 determines whether or not the mobile robot 2 is in the power supply state. If the control unit 41 of the action detection server 4 determines that the mobile robot 2 is in the power supply state (Yes), the process proceeds to the process of step S43, and if it determines that the mobile robot 2 is starting (No), the control unit 41 of the action detection server 4 proceeds to step S42. Proceed to processing.
In step S42, the control unit 41 of the action detection server 4 commands the mobile robot 2 to move to the power feeding position, and returns to the process of step S41. As a result, the control unit 41 waits until the mobile robot 2 is in the power supply state.

ステップS43において、行動検知サーバ4の制御部41は、タイマ43によってイベント発生時刻(Et)を取得し、各センサ装置1よりセンサ検知データ(NSi,SDi)を取得する。制御部41は、取得したセンサデータを(Et,NSi,SDi)として保持し、ステップS44の処理に進む。
ステップS44において、行動検知サーバ4の制御部41は、移動ロボット2に空間情報をリクエストして、移動ロボット2から空間情報(GI(R,X,Y))を取得し、ステップS45の処理に進む。
In step S43, the control unit 41 of the action detection server 4 acquires the event occurrence time (Et) by the timer 43, and acquires the sensor detection data (NSi, SDi) from each sensor device 1. The control unit 41 holds the acquired sensor data as (Et, NSi, SDi) and proceeds to the process of step S44.
In step S44, the control unit 41 of the action detection server 4 requests spatial information from the mobile robot 2, acquires spatial information (GI (R, X, Y)) from the mobile robot 2, and performs the process of step S45. move on.

ステップS45において、行動検知サーバ4の制御部41は、検知対象となっているセンサID(NSi)のセンサ設置情報を呼出し、ステップS451の処理に進む。
ステップS451において、行動検知サーバ4の制御部41は、検知領域情報(RS)を読み込んだ後、ステップS46の処理に進む。この検知領域情報(RS)は、(Rmax,Rmin,Xmin,Xmax,Ymax,Ymin)の情報を含んでいる。
In step S45, the control unit 41 of the behavior detection server 4 calls the sensor installation information of the sensor ID (NSi) to be detected, and proceeds to the process of step S451.
In step S451, the control unit 41 of the action detection server 4 reads the detection area information (RS) and then proceeds to the process of step S46. This detection area information (RS) includes information of (Rmax, Rmin, Xmin, Xmax, Ymax, Ymin).

ステップS46において、行動検知サーバ4の制御部41は、検知領域情報(RS)に検知値が入力・記憶されているか否かを判定する。制御部41は、検知領域情報(RS)が存在しない場合(No)、ステップS48の処理に進む。制御部41は、検知領域情報(RS)に検知値を記憶している場合(Yes)、ステップS47の処理に進む。 In step S46, the control unit 41 of the behavior detection server 4 determines whether or not the detection value is input / stored in the detection area information (RS). If the detection area information (RS) does not exist (No), the control unit 41 proceeds to the process of step S48. When the detection value is stored in the detection area information (RS) (Yes), the control unit 41 proceeds to the process of step S47.

ステップS47おいて、行動検知サーバ4の制御部41は、検知領域情報(RS)と空間情報(GI,(R,X,Y))を比較する。制御部41は、移動ロボット2の位置情報(GI,(R,X,Y))が検知領域情報(RS)の範囲内、つまり過去の幾何情報範囲内であるか確認する。過去の幾何情報範囲内ではない場合(No)、行動検知サーバ4の制御部41は、ステップS48の処理に進む。過去の幾何情報範囲内である場合、行動検知サーバ4の制御部41は、ステップS50の処理に進む。 In step S47, the control unit 41 of the behavior detection server 4 compares the detection area information (RS) with the spatial information (GI, (R, X, Y)). The control unit 41 confirms whether the position information (GI, (R, X, Y)) of the mobile robot 2 is within the range of the detection area information (RS), that is, within the past geometric information range. If it is not within the past geometric information range (No), the control unit 41 of the action detection server 4 proceeds to the process of step S48. If it is within the past geometric information range, the control unit 41 of the action detection server 4 proceeds to the process of step S50.

ステップS48において、行動検知サーバ4の制御部41は、記憶している検知領域情報(RS)を、移動ロボット2からの空間情報(GI(R,X,Y))に置き換えてデータを更新し、ステップS49の処理に進む。
ステップS49において、行動検知サーバ4の制御部41は、探索エリア面積を積算して算出し、ステップS50の処理に進む。
In step S48, the control unit 41 of the action detection server 4 replaces the stored detection area information (RS) with the spatial information (GI (R, X, Y)) from the mobile robot 2 to update the data. , Proceed to the process of step S49.
In step S49, the control unit 41 of the behavior detection server 4 integrates and calculates the search area area, and proceeds to the process of step S50.

ステップS50において、行動検知サーバ4の制御部41は、探索エリアの積算値が、探索空間の全面積と合致するかを評価する。探索エリアの積算値が探索空間の全面積と合致した場合(Yes)、行動検知サーバ4の制御部41はステップS51の処理に進む。探索エリアの積算地が探索空間の全面積と合致しない場合(No)、行動検知サーバ4の制御部41は、ステップS41の処理に戻る。
ステップS51において、行動検知サーバ4の制御部41は、センサ設置情報フラグSfをクリアして、センサ設置情報モードを終了する。
In step S50, the control unit 41 of the behavior detection server 4 evaluates whether the integrated value of the search area matches the total area of the search space. When the integrated value of the search area matches the total area of the search space (Yes), the control unit 41 of the action detection server 4 proceeds to the process of step S51. When the integrated area of the search area does not match the total area of the search space (No), the control unit 41 of the action detection server 4 returns to the process of step S41.
In step S51, the control unit 41 of the behavior detection server 4 clears the sensor installation information flag Sf and ends the sensor installation information mode.

上述したセンサ設置情報(SI)を用いることによって、行動検知サーバ4の制御部41は、移動ロボット2に対するセンサ装置1の反応と人や動物などの移動体の行動に対するセンサ装置1の反応を分離して検知する。よって制御部41は、移動体の行動に対するセンサ装置1の検知情報をイベント情報(EI)として記憶させることができる。以下、センサ装置1が検知した情報を移動体の行動とそれ以外のデータに分離する手順を図11および図13、図14のフローチャートに基づいて説明する。 By using the sensor installation information (SI) described above, the control unit 41 of the behavior detection server 4 separates the reaction of the sensor device 1 to the mobile robot 2 and the reaction of the sensor device 1 to the behavior of a moving body such as a person or an animal. To detect. Therefore, the control unit 41 can store the detection information of the sensor device 1 for the behavior of the moving body as event information (EI). Hereinafter, a procedure for separating the information detected by the sensor device 1 into the behavior of the moving body and other data will be described with reference to the flowcharts of FIGS. 11, 13, and 14.

図9は、移動ロボット2と人とが同時に行動している際のセンサ装置1の反応の概略を示したものである。
居室9には、7個のセンサ装置1−1〜1−7と、給電装置3とが設置されており、移動ロボット2が太線矢印の経路で巡回している。太線矢印の経路上には、各イベント時刻Et1〜Et8における位置が示されている。図9に示す移動ロボット2の経路は、図2に示した経路とは異なっている。これは、センサ設置情報モードが完了して、イベント情報モードに遷移したためである。
FIG. 9 shows an outline of the reaction of the sensor device 1 when the mobile robot 2 and a person are moving at the same time.
In the living room 9, seven sensor devices 1-1 to 1-7 and a power feeding device 3 are installed, and the mobile robot 2 patrols along the path indicated by the thick arrow. The positions at each event time Et1 to Et8 are shown on the path of the thick arrow. The route of the mobile robot 2 shown in FIG. 9 is different from the route shown in FIG. This is because the sensor installation information mode is completed and the event information mode is entered.

図10は、検知したセンサ(NSi)の時系列毎の検知情報を図示したものである。
図10に示すように、移動ロボット2が移動する毎に、各センサ装置1が各イベント時刻に反応する。つまり、イベント時刻Et1において、センサ装置1−7(NS7)が反応する。イベント時刻Et2において、センサ装置1−1(NS1)が反応する。イベント時刻Et3において、センサ装置1−2(NS2)が反応する。イベント時刻Et4において、センサ装置1−3(NS3)が反応する。イベント時刻Et5において、センサ装置1−4(NS4)が反応する。イベント時刻Et6において、センサ装置1−5(NS5)が反応する。イベント時刻Et7において、センサ装置1−6(NS6)が反応する。イベント時刻Et8において、センサ装置1−7(NS7)が反応する。
FIG. 10 illustrates the detection information of the detected sensor (NSi) for each time series.
As shown in FIG. 10, each sensor device 1 reacts to each event time each time the mobile robot 2 moves. That is, at the event time Et1, the sensor device 1-7 (NS7) reacts. At the event time Et2, the sensor device 1-1 (NS1) reacts. At the event time Et3, the sensor device 1-2 (NS2) reacts. At the event time Et4, the sensor device 1-3 (NS3) reacts. At the event time Et5, the sensor devices 1-4 (NS4) react. At the event time Et6, the sensor device 1-5 (NS5) reacts. At the event time Et7, the sensor device 1-6 (NS6) reacts. At the event time Et8, the sensor device 1-7 (NS7) reacts.

同様に、人が行動した際に、イベント時刻Et3においてセンサ装置1−5(NS5)が反応する。イベント時刻Et4においてセンサ装置1−6(NS6)が反応する。 Similarly, when a person acts, the sensor device 1-5 (NS5) reacts at the event time Et3. The sensor device 1-6 (NS6) reacts at the event time Et4.

図11に示すように、行動検知サーバ4の制御部41は、センサ装置1−i(NSi)の検知情報を受信する毎に、移動ロボット2の自己位置の空間情報(GI(R,X,Y))を受信する。その後、制御部41は、センサ設置情報(SI)に記憶している検知領域(RS)と空間情報(GI(R,X,Y))とを比較する(S20)。これにより、制御部41は、移動ロボット2の動作によって反応したデータとそれ以外のデータを選別したイベント情報(EI)を生成し(S21)、イベント情報(EI)として記憶部42に記憶する(S22)。 As shown in FIG. 11, each time the control unit 41 of the behavior detection server 4 receives the detection information of the sensor device 1-i (NSi), the spatial information of the self-position of the mobile robot 2 (GI (R, X,) Y)) is received. After that, the control unit 41 compares the detection area (RS) stored in the sensor installation information (SI) with the spatial information (GI (R, X, Y)) (S20). As a result, the control unit 41 generates event information (EI) by selecting the data reacted by the operation of the mobile robot 2 and the other data (S21), and stores the event information (EI) in the storage unit 42 ( S22).

図12は、イベント情報(EI)のみを抽出したグラフである。
図12に示すように、イベント時刻Et3においてセンサ装置1−5(NS5)が反応している。イベント時刻Et4においてセンサ装置1−6(NS6)が反応している。これは、移動ロボット2を検知した情報を除外した検知情報であり、人や動物などを検知したことを示す情報である。このようにして、制御部41は、人や動物などの移動体の行動を検知することができる。
FIG. 12 is a graph in which only event information (EI) is extracted.
As shown in FIG. 12, the sensor device 1-5 (NS5) is reacting at the event time Et3. The sensor device 1-6 (NS6) is reacting at the event time Et4. This is detection information excluding the information that detects the mobile robot 2, and is information that indicates that a person, an animal, or the like has been detected. In this way, the control unit 41 can detect the behavior of a moving body such as a person or an animal.

以上のイベント情報モードは、以下の図13と図14において処理される。
図13は、イベント情報(EI)モードのうち移動ロボット2が起動していないときの処理を示すフローチャートである。
The above event information modes are processed in FIGS. 13 and 14 below.
FIG. 13 is a flowchart showing processing when the mobile robot 2 is not activated in the event information (EI) mode.

イベント情報(EI)モードにおいて、行動検知サーバ4の制御部41は、ステップS60において、センサ装置1よりセンサ検知情報を受信(NSi,Et,SD)し、ステップS61の処理に進む。
ステップS61において、行動検知サーバ4の制御部41は移動ロボット2へ起動の有無を確認する。移動ロボット2が起動していないときは(No)、ステップS62の処理に進む。移動ロボット2が起動しているときは(Yes)、図14に示すステップS70に進む。
In the event information (EI) mode, the control unit 41 of the action detection server 4 receives the sensor detection information (NSi, Et, SD) from the sensor device 1 in step S60, and proceeds to the process of step S61.
In step S61, the control unit 41 of the action detection server 4 confirms whether or not the mobile robot 2 has been activated. If the mobile robot 2 is not activated (No), the process proceeds to step S62. When the mobile robot 2 is activated (Yes), the process proceeds to step S70 shown in FIG.

ステップS62において、行動検知サーバ4の制御部41は、センサ設置情報モードであるか否かを判断する。センサ設置情報フラグSfがセットされている場合、制御部41は、センサ設置情報モードであると判断し、ステップS60の処理に戻る。センサ設置情報フラグSfがクリアされている場合、制御部41はステップS63の処理に進む。 In step S62, the control unit 41 of the action detection server 4 determines whether or not the sensor installation information mode is used. When the sensor installation information flag Sf is set, the control unit 41 determines that the sensor installation information mode is set, and returns to the process of step S60. When the sensor installation information flag Sf is cleared, the control unit 41 proceeds to the process of step S63.

ステップS63において、行動検知サーバ4の制御部41は、対象のセンサ(NSi)の過去の記憶データをイベント情報(EI)に要求し、ステップS631の処理に進む。
ステップS631において、行動検知サーバ4の制御部41は、対象のセンサ(NSi)の過去の記憶データをイベント情報(EI)から読み出し、ステップS64の処理に進む。
ステップS64において、行動検知サーバ4の制御部41は、過去の記憶データから比較データを算出し、ステップS65の処理に進む。制御部41は、例えば受信した検知情報(NSi,Et,SD)に対して平均化を行うことで、比較データを算出する。
In step S63, the control unit 41 of the behavior detection server 4 requests the event information (EI) for the past stored data of the target sensor (NSi), and proceeds to the process of step S631.
In step S631, the control unit 41 of the behavior detection server 4 reads the past stored data of the target sensor (NSi) from the event information (EI), and proceeds to the process of step S64.
In step S64, the control unit 41 of the behavior detection server 4 calculates comparison data from the past stored data, and proceeds to the process of step S65. The control unit 41 calculates the comparison data by averaging the received detection information (NSi, Et, SD), for example.

ステップS65において、行動検知サーバ4の制御部41は、検知情報(NSi,Et,SD)と比較データ(CD)を比較する。その差が閾値ε1を超える場合(Yes)、制御部41は、日常と異なる行動を検知したと判断し、ステップS67に進む。制御部41は、ステップS67において、モードを異常モードに変更し、異常モードフラグEMfを1に設定する。
その差が閾値ε1以下の場合(Yes)、行動検知サーバ4の制御部41は、通常状態であると判断し、検知情報をイベント情報(EI)へ追加する(S66)。その後、制御部41は、ステップS60の処理に戻る。
In step S65, the control unit 41 of the behavior detection server 4 compares the detection information (NSi, Et, SD) with the comparison data (CD). When the difference exceeds the threshold value ε 1 (Yes), the control unit 41 determines that an action different from the daily life has been detected, and proceeds to step S67. In step S67, the control unit 41 changes the mode to the abnormal mode and sets the abnormal mode flag EMf to 1.
When the difference is equal to or less than the threshold value ε 1 (Yes), the control unit 41 of the behavior detection server 4 determines that it is in the normal state, and adds the detection information to the event information (EI) (S66). After that, the control unit 41 returns to the process of step S60.

図14は、イベント情報(EI)モードのうち移動ロボット2が起動しているときの処理を示すフローチャートである。
ステップS70において、行動検知サーバ4の制御部41は、異常モードフラグEMfがセットされているか否かによって、異常処理モードか否かを確認する。制御部41は、異常処理モードであると判断した場合(Yes)、図17の異常モードに遷移する。制御部41は、異常処理モードでないと判断した場合(No)、ステップS71の処理に進む。
FIG. 14 is a flowchart showing processing when the mobile robot 2 is activated in the event information (EI) mode.
In step S70, the control unit 41 of the behavior detection server 4 confirms whether or not it is the abnormality processing mode depending on whether or not the abnormality mode flag EMf is set. When the control unit 41 determines that it is in the abnormal processing mode (Yes), the control unit 41 transitions to the abnormal mode shown in FIG. When the control unit 41 determines that the mode is not the abnormal processing mode (No), the control unit 41 proceeds to the processing of step S71.

ステップS71において、行動検知サーバ4の制御部41は、センサ設置情報モードであるか否かを判断する。センサ設置情報フラグSfがセットされている場合(Yes)、制御部41は、センサ設置情報モードであると判断し、ステップS60の処理に戻る。センサ設置情報フラグSfがクリアされている場合(No)、制御部41はステップS72の処理に進む。 In step S71, the control unit 41 of the action detection server 4 determines whether or not the sensor installation information mode is set. When the sensor installation information flag Sf is set (Yes), the control unit 41 determines that the sensor installation information mode is set, and returns to the process of step S60. When the sensor installation information flag Sf is cleared (No), the control unit 41 proceeds to the process of step S72.

ステップS72において、行動検知サーバ4の制御部41は、移動ロボット2へ自己位置情報GI(R,X,Y)をリクエストする。制御部41は、移動ロボット2から自己位置情報GI(R,X,Y)を取得すると、ステップS73の処理に進む。 In step S72, the control unit 41 of the action detection server 4 requests the mobile robot 2 for self-position information GI (R, X, Y). When the control unit 41 acquires the self-position information GI (R, X, Y) from the mobile robot 2, the control unit 41 proceeds to the process of step S73.

ステップS73において、行動検知サーバ4の制御部41は、移動ロボット2の自己位置情報GI(R,X,Y)とセンサ設置情報(SI)から、移動ロボット2によって反応しているセンサ装置1の検知情報を判別する。制御部41は、移動ロボット2によって反応しているセンサ装置1以外の他のセンサ装置1の検知情報を、人や動物などの移動体の行動検知情報(MI)であると判別し、ステップS74の処理に進む。 In step S73, the control unit 41 of the action detection server 4 of the sensor device 1 reacting with the mobile robot 2 from the self-position information GI (R, X, Y) of the mobile robot 2 and the sensor installation information (SI). Determine the detection information. The control unit 41 determines that the detection information of the sensor device 1 other than the sensor device 1 reacting by the mobile robot 2 is the behavior detection information (MI) of a moving body such as a person or an animal, and steps S74. Proceed to the process of.

ステップS74において、行動検知サーバ4の制御部41は、行動検知情報(MI)と比較するデータをイベント情報(EI)にリクエストする。
ステップS741において、制御部41は、リクエストしたデータを取得し、ステップS75の処理に進む。
In step S74, the control unit 41 of the action detection server 4 requests the event information (EI) for data to be compared with the action detection information (MI).
In step S741, the control unit 41 acquires the requested data and proceeds to the process of step S75.

ステップS75において、行動検知サーバ4の制御部41は、イベント情報(EI)から得たデータから比較データ(CD)を算出し、ステップS76の処理に進む。
ステップS76において、行動検知サーバ4の制御部41は、行動検知情報(MI)と比較データ(CD)を比較する。比較した結果が閾値ε2を超える場合(Yes)、行動検知サーバ4の制御部41は、異常常態であると判断して、ステップS78の処理に進み、処理状態を異常モードにし、異常モードフラグEMfを1に設定する。制御部41は、閾値ε2以下の場合(No)、ステップS77の処理に進む。
In step S75, the control unit 41 of the action detection server 4 calculates the comparison data (CD) from the data obtained from the event information (EI), and proceeds to the process of step S76.
In step S76, the control unit 41 of the action detection server 4 compares the action detection information (MI) with the comparison data (CD). When the comparison result exceeds the threshold value ε 2 (Yes), the control unit 41 of the behavior detection server 4 determines that the behavior detection server 4 is in the abnormal normal state, proceeds to the process of step S78, sets the processing state to the abnormal mode, and sets the abnormal mode flag. Set EMf to 1. When the threshold value ε 2 or less (No), the control unit 41 proceeds to the process of step S77.

ステップS77において、行動検知サーバ4の制御部41は、行動検知情報(MI)をイベント情報(EI)へ追記し、ステップS60の処理に戻る。
異常モードに処理を移した行動検知サーバ4の制御部41は、図15から図17および図18を用いて以下のような処理を行う。
In step S77, the control unit 41 of the action detection server 4 adds the action detection information (MI) to the event information (EI), and returns to the process of step S60.
The control unit 41 of the behavior detection server 4 that has shifted the processing to the abnormal mode performs the following processing using FIGS. 15 to 17 and 18.

図15は、日常行動(イベント情報(EI))には、Et3−Et4間でNS5(センサ装置1−5)の反応がある場合に、Et4−Et5間でNS6(センサ装置1−6)の反応が無いような異常常態時の処理の流れを示している。 FIG. 15 shows that when there is a reaction of NS5 (sensor device 1-5) between Et3-Et4 in daily activities (event information (EI)), NS6 (sensor device 1-6) between Et4-Et5. It shows the flow of processing in an abnormal normal state where there is no reaction.

図16は、検知したセンサ(NSi)の時系列毎の検知情報を図示したものである。
図16に示すように、Et4−Et5間でセンサ検知反応が無い場合、行動検知サーバ4の制御部41は、イベント情報(EI)と検知情報(NSi,SD)を比較する。イベント情報(EI)と検知情報(NSi,SD)の差が閾値を越えた場合、制御部41は、異常行動であると判断し、移動ロボット2へ異常行動が発見された(NSi)へ向かうように、センサ設置情報(SI(R,X,Y))を通信する。イベント情報(EI)と検知情報(NSi,SD)が一致する場合、行動検知サーバ4の制御部41は、検知モードを続行する。
FIG. 16 illustrates the detection information of the detected sensor (NSi) for each time series.
As shown in FIG. 16, when there is no sensor detection reaction between Et4-Et5, the control unit 41 of the behavior detection server 4 compares the event information (EI) and the detection information (NSi, SD). When the difference between the event information (EI) and the detection information (NSi, SD) exceeds the threshold value, the control unit 41 determines that the behavior is abnormal and heads for the mobile robot 2 where the behavior is found (NSi). The sensor installation information (SI (R, X, Y)) is communicated as described above. When the event information (EI) and the detection information (NSi, SD) match, the control unit 41 of the action detection server 4 continues the detection mode.

以上の異常診断モードは、図17において以下のように処理される。
行動検知サーバ4の制御部41は、ステップS80において、移動ロボット2の自己位置(GI(R,X,Y))をリクエストし、移動ロボット2の現在位置を取得し、ステップS81の処理に進む。
ステップS81において、行動検知サーバ4の制御部41は、異常モードフラグに応じて多重分岐する。異常モードフラグEMfが1の場合、行動検知サーバ4の制御部41は、ステップS82の処理に進む。異常モードフラグEMfが2の場合、行動検知サーバ4の制御部41は、ステップS85の処理に進む。異常モードフラグEMfが3の場合、行動検知サーバ4の制御部41は、ステップS87の処理に進む。
The above abnormality diagnosis mode is processed as follows in FIG.
In step S80, the control unit 41 of the action detection server 4 requests the self-position (GI (R, X, Y)) of the mobile robot 2, acquires the current position of the mobile robot 2, and proceeds to the process of step S81. ..
In step S81, the control unit 41 of the action detection server 4 multiple-branches according to the abnormality mode flag. When the abnormality mode flag EMf is 1, the control unit 41 of the action detection server 4 proceeds to the process of step S82. When the abnormality mode flag EMf is 2, the control unit 41 of the action detection server 4 proceeds to the process of step S85. When the abnormality mode flag EMf is 3, the control unit 41 of the action detection server 4 proceeds to the process of step S87.

ステップS82において、行動検知サーバ4の制御部41は、移動ロボット2に対して異常状態診断モードであることを送信し、目標座標GIo(NSi,R,X,Y)および通過予測センサ(PS)を送信する(S83)。更に制御部41は、異常モードフラグEMfを2に設定して(S84)、イベント情報モードに遷移する。 In step S82, the control unit 41 of the behavior detection server 4 transmits to the mobile robot 2 that it is in the abnormal state diagnosis mode, and the target coordinates GIo (NSi, R, X, Y) and the passage prediction sensor (PS). Is transmitted (S83). Further, the control unit 41 sets the abnormality mode flag EMf to 2 (S84), and transitions to the event information mode.

ステップS85において、行動検知サーバ4の制御部41は、移動ロボット2の自己位置(GI)と目標座標(GIo)を比較することによって、移動ロボット2が異常探索エリアに存在するか否かを判断する。自己位置(GI)と目標座標(GIo)との差が閾値ε3未満の場合(No)、制御部41は、移動ロボット2が異常探索エリアに移動したと判断し、異常モードフラグEMfを3に変更して(S86)、イベント情報モードに遷移する。自己位置(GI)と目標座標(GIo)との差が閾値ε3以上である場合(Yes)、制御部41は、移動ロボット2が異常探索エリアに到達していないと判断し、イベント情報モードに遷移する。 In step S85, the control unit 41 of the action detection server 4 determines whether or not the mobile robot 2 exists in the abnormality search area by comparing the self-position (GI) of the mobile robot 2 with the target coordinates (GIo). To do. When the difference between the self-position (GI) and the target coordinates (GIo) is less than the threshold value ε 3 (No), the control unit 41 determines that the mobile robot 2 has moved to the abnormality search area, and sets the abnormality mode flag EMf to 3. (S86) to transition to the event information mode. When the difference between the self-position (GI) and the target coordinates (GIo) is the threshold value ε 3 or more (Yes), the control unit 41 determines that the mobile robot 2 has not reached the abnormality search area, and determines that the mobile robot 2 has not reached the abnormality search area, and the event information mode. Transition to.

ステップS87において、行動検知サーバ4の制御部41は、異常探索モードであると判断し、異常の有無を確認する。異常の有無の確認は、移動ロボット2の検知部22に設けられた画像センサや音声センサによる画像および音声を用いて、異常を検知しても良い。ステップS87において異常を検知した場合(Yes)、制御部41は、ステップS88の処理に進んで異常レポートを作成し、行動検知サーバ4に設けられた外部通信部45によって、外部のサービスへ異常を連絡し(S88)、イベント情報モードに遷移する。 In step S87, the control unit 41 of the behavior detection server 4 determines that the mode is in the abnormality search mode, and confirms the presence or absence of the abnormality. To confirm the presence or absence of an abnormality, the abnormality may be detected by using an image and a voice from an image sensor or a voice sensor provided in the detection unit 22 of the mobile robot 2. When an abnormality is detected in step S87 (Yes), the control unit 41 proceeds to the process of step S88 to create an abnormality report, and causes an abnormality to an external service by the external communication unit 45 provided in the behavior detection server 4. Contact (S88) and transition to the event information mode.

ステップS87において異常を検知しない場合(No)、制御部41は、ステップS89の処理に進んで探索リポートを作成し、行動検知サーバ4に設けられた外部通信部45によって、外部のサービスへ探索リポートを送信する。探索リポートを送信後、行動検知サーバ4の制御部41は、ステップS90の処理に進み、異常診断モードをリセットして(S90)、イベント情報モードに遷移する。 If no abnormality is detected in step S87 (No), the control unit 41 proceeds to the process of step S89 to create a search report, and the external communication unit 45 provided in the behavior detection server 4 provides a search report to an external service. To send. After transmitting the search report, the control unit 41 of the action detection server 4 proceeds to the process of step S90, resets the abnormality diagnosis mode (S90), and transitions to the event information mode.

本発明の行動検知システムSは、居室9内に設けた複数のセンサ装置1と、居室9内を移動する移動手段を有した移動ロボット2とを連携させている。これにより、行動検知システムSは、センサ装置1の誤動作によって発生する誤情報の発信を防止しつつ、利用者のプライバシーを確保可能である。 The behavior detection system S of the present invention links a plurality of sensor devices 1 provided in the living room 9 with a mobile robot 2 having a moving means for moving in the living room 9. As a result, the behavior detection system S can ensure the privacy of the user while preventing the transmission of erroneous information caused by the malfunction of the sensor device 1.

《第2の実施形態》
図18は、第2の実施形態における行動検知システムの構成を示す概略図である。第2の実施形態では、複数のセンサ装置1の代わりに複数の家電機器8を居室に設置し、センサ装置の検知情報の代わりに家電機器の操作情報や検知情報を検知することで、人の行動を検知するものである。これら複数の家電機器8は、第1の実施形態におけるセンサ装置1の機能に加えて、家電機器としての各種機能を備えている。
<< Second Embodiment >>
FIG. 18 is a schematic view showing the configuration of the behavior detection system according to the second embodiment. In the second embodiment, a plurality of home appliances 8 are installed in the living room instead of the plurality of sensor devices 1, and the operation information and the detection information of the home appliances are detected instead of the detection information of the sensor devices. It detects behavior. These plurality of home electric appliances 8 have various functions as home electric appliances in addition to the functions of the sensor device 1 in the first embodiment.

図18に示すように、行動検知システムSは、複数の家電機器8と、移動ロボット2と、給電装置3と、行動検知サーバ4とを含んで構成される。
家電機器8は、居室内に設置されて各種機能を実現するものであり、例えばテレビや照明やエアコンなどである。家電機器8は、通信部14によって、自身が操作された際の操作情報を外部に送信するものである。
As shown in FIG. 18, the behavior detection system S includes a plurality of home appliances 8, a mobile robot 2, a power feeding device 3, and a behavior detection server 4.
The home appliance 8 is installed in a living room to realize various functions, such as a television, lighting, and an air conditioner. The home electric appliance 8 transmits the operation information when it is operated by the communication unit 14 to the outside.

複数の家電機器8は、制御部81と、検知部82と、記憶部83と、通信部84と、電源部85と、無線タグ86を備える。電源部85は、この家電機器8を起動し、家電機器8の各部に電力を供給する。通信部84は、無線または有線の通信モジュールであり、家電機器8に対する操作情報および家電機器8の固有IDを行動検知サーバ4へ送信する。記憶部83は、例えばROMやフラッシュメモリであり、家電機器8の固有IDを記憶する。 The plurality of home electric appliances 8 include a control unit 81, a detection unit 82, a storage unit 83, a communication unit 84, a power supply unit 85, and a wireless tag 86. The power supply unit 85 activates the home electric appliance 8 and supplies electric power to each part of the home electric appliance 8. The communication unit 84 is a wireless or wired communication module, and transmits operation information for the home electric appliance 8 and a unique ID of the home electric appliance 8 to the behavior detection server 4. The storage unit 83 is, for example, a ROM or a flash memory, and stores a unique ID of the home electric appliance 8.

《第3の実施形態》
第1の実施形態及び第2の実施形態は、センサ装置1の位置が固定されていることを前提としていた。しかしながら、室内の増改築、部屋の使途の見直し等に起因して、センサ装置1の個数、位置及びそれらが監視する空間が変化することが多い。このような変化があった場合でも、第1(第2)の実施形態の行動検知システムは、ロボット2を稼働させることによって、変更後のセンサ装置1の位置及び個数を反映したセンサ設置情報(SI)及びイベント情報(EI)を作成できる。すると、第1(第2)の実施形態の行動検知システムは、センサ装置1の位置とロボット2が移動した空間の幾何情報の対応関係も作成できることになる。
<< Third Embodiment >>
The first embodiment and the second embodiment are based on the premise that the position of the sensor device 1 is fixed. However, the number and position of the sensor devices 1 and the space monitored by them often change due to the expansion and renovation of the room, the review of the usage of the room, and the like. Even if there is such a change, the behavior detection system of the first (second) embodiment operates the robot 2 to provide sensor installation information that reflects the changed position and number of sensor devices 1. SI) and event information (EI) can be created. Then, the behavior detection system of the first (second) embodiment can also create a correspondence relationship between the position of the sensor device 1 and the geometric information of the space in which the robot 2 has moved.

しかしながら、ユーザがセンサ設置情報(SI)の一部の初期値を手動で入力し、さらにセンサ装置1の位置、個数等を変えた後、その変更内容をセンサ設置情報(SI)に再度手動で入力することも可能である。ユーザによっては、多少手間をかけても当該入力を機動的に行った方が、その後の行動検知システムの動作(異常発生時の現場への的確な到着等)に安心感を持てると考える場合もある。そこで、第3の実施形態の行動検知システムは、センサ装置1、ロボット2及び行動検知サーバ4に加えてインタフェース装置6を備える。当該構成の追加に伴い、センサ設置情報(SI)の構成の一部が第1(第2)の実施形態に比して、変更される(詳細後記)。 However, after the user manually inputs a part of the initial values of the sensor installation information (SI) and further changes the position, number, etc. of the sensor device 1, the changed contents are manually input to the sensor installation information (SI) again. It is also possible to enter. Depending on the user, it may be considered that it is safer to perform the input flexibly even if it takes some time, for the subsequent operation of the behavior detection system (accurate arrival at the site when an abnormality occurs, etc.). is there. Therefore, the behavior detection system of the third embodiment includes an interface device 6 in addition to the sensor device 1, the robot 2, and the behavior detection server 4. With the addition of the configuration, a part of the configuration of the sensor installation information (SI) is changed as compared with the first (second) embodiment (details will be described later).

図19は、第3の実施形態における行動検知システムの構成を示す概略図である。行動検知システムSは、インタフェース装置6を備える。インタフェース装置6は、例えば携帯式のコンピュータであり、室内等においてユーザによって操作される。インタフェース装置6は、制御部61、ディスプレイ等の表示部62、キーボード、マウス、タッチパネル等の入力部63、記憶部66、行動検知サーバ4等と通信するための通信部65、及び、電源部64を有する。記憶部66は、センサ設置情報(SI)等を記憶する。電源部64は、外部電源5から受電した電力を制御部61等に供給する。 FIG. 19 is a schematic view showing the configuration of the behavior detection system according to the third embodiment. The behavior detection system S includes an interface device 6. The interface device 6 is, for example, a portable computer, which is operated by a user indoors or the like. The interface device 6 includes a control unit 61, a display unit 62 such as a display, an input unit 63 such as a keyboard, mouse, and touch panel, a storage unit 66, a communication unit 65 for communicating with an action detection server 4, and a power supply unit 64. Has. The storage unit 66 stores sensor installation information (SI) and the like. The power supply unit 64 supplies the electric power received from the external power supply 5 to the control unit 61 and the like.

図20は、インタフェース装置6の表示部62が表示するインタフェース画面71の一例である。インタフェース画面71は、住空間地図(LS)を欄72に表示し、センサ設置情報(SI)を欄73に表示する。ここで表示されている住空間地図(LS)は、図2において説明した居室9を示す図と、以下の点で異なっている。
・住空間地図(LS)は、全体的に格子線(破線)で覆われている。
・住空間地図(LS)は、リビングにはセンサ装置NS1及びNS2が設置されており、図2におけるセンサ装置NS2は、未だ配置されていない状態を示している。
FIG. 20 is an example of the interface screen 71 displayed by the display unit 62 of the interface device 6. The interface screen 71 displays the living space map (LS) in the column 72 and the sensor installation information (SI) in the column 73. The living space map (LS) displayed here is different from the map showing the living room 9 described in FIG. 2 in the following points.
-The living space map (LS) is entirely covered with grid lines (broken lines).
-The living space map (LS) shows that the sensor devices NS1 and NS2 are installed in the living room, and the sensor devices NS2 in FIG. 2 are not yet arranged.

ここで表示されているセンサ設置情報(SI)は、図3において説明したセンサ設置情報(SI)と、以下の点で異なっている。
・図20のセンサ設置情報(SI)は、図3のセンサ設置情報(SI)のイベント発生時刻(Et)の欄に代わって、センサ種類(Type)、センサID(ID)、及び、検知範囲(Area)の各欄を有している。
The sensor installation information (SI) displayed here is different from the sensor installation information (SI) described in FIG. 3 in the following points.
The sensor installation information (SI) in FIG. 20 is replaced with the event occurrence time (Et) column of the sensor installation information (SI) in FIG. 3, and the sensor type (Type), sensor ID (ID), and detection range. It has each column of (Area).

センサ種類とは、センサ装置1の検知部12の種類(赤外線式、超音波式等)である。
検知範囲とは、1つのセンサ装置が確実に人等を検知し得る空間の大きさであり、ここでは、床面上の面積である。“Spot”は、面積が定義されないケース(玄関の錠前等)であることを示す。
The sensor type is a type (infrared type, ultrasonic type, etc.) of the detection unit 12 of the sensor device 1.
The detection range is the size of a space in which one sensor device can reliably detect a person or the like, and here, it is an area on the floor surface. “Spot” indicates a case where the area is not defined (such as a lock at the entrance).

いま、ユーザは、以下のことを考えている。
・リビングの右側部分に、新たなセンサ装置NS2を追加する必要がある。
・そのセンサ装置NS2のセンサ種類は、“Oc”である。
・そのセンサ装置NS2の検知範囲は、住空間地図(LS)の格子の数で約16個分である。
・そのセンサ装置NS2の検知範囲を、今後は“NR2”として管理したい。
Now, the user is thinking about the following.
-It is necessary to add a new sensor device NS2 to the right side of the living room.
-The sensor type of the sensor device NS2 is "Oc".
-The detection range of the sensor device NS2 is about 16 grids of the living space map (LS).
-I would like to manage the detection range of the sensor device NS2 as "NR2" in the future.

このとき、ユーザは、マウス等の入力部63で16個分の格子を指定し、その指定した領域中に、“NR2”を示すアイコン及び“NS2”を示すアイコンを置く。“NS2”を示すアイコンには、そのセンサ装置のセンサID及びセンサ種類が紐付いている。すると、インタフェース装置の制御部61は、センサ設置情報(SI)の新たなレコード74を作成し、インタフェース画面71の欄73に表示する。 At this time, the user designates 16 grids by the input unit 63 such as a mouse, and puts an icon indicating "NR2" and an icon indicating "NS2" in the designated area. The icon indicating "NS2" is associated with the sensor ID and sensor type of the sensor device. Then, the control unit 61 of the interface device creates a new record 74 of the sensor installation information (SI) and displays it in the column 73 of the interface screen 71.

当該処理は、センサ装置を追加する場合の例であるが、行動検知システムSの使用開始時のように、複数のセンサ装置についての入力を一度に行う場合もある(センサ初期情報入力)。ただし、初期入力の段階では、住空間地図(LS)は未だ存在しないので、ユーザは、アイコン等を使用するのではなく、センサ設置情報(SI)に対して直接、文字列等を入力することになる。このような処理の発生に伴い、第1の実施形態におけるセンサ設置情報モードのフローチャート(図8)が一部変更される。 This process is an example of adding a sensor device, but there is also a case where input for a plurality of sensor devices is performed at once, such as when the behavior detection system S starts to be used (sensor initial information input). However, at the initial input stage, the living space map (LS) does not yet exist, so the user should directly input the character string etc. to the sensor installation information (SI) instead of using the icon etc. become. Along with the occurrence of such processing, the flowchart (FIG. 8) of the sensor installation information mode in the first embodiment is partially changed.

図21は、センサ設置情報モードの処理を示すフローチャートである。図21においては、図8に対してステップS40bが追加され、図8のステップS43、S44及びS45が、それぞれステップS43b、S44b及びS45bに置き換えられている。以降では、ステップS40b、S43b、S44b及びS45bを説明する。 FIG. 21 is a flowchart showing the processing of the sensor installation information mode. In FIG. 21, step S40b is added to FIG. 8, and steps S43, S44 and S45 of FIG. 8 are replaced with steps S43b, S44b and S45b, respectively. Hereinafter, steps S40b, S43b, S44b and S45b will be described.

ステップS40bにおいて、インタフェース装置6の制御部61は、センサ初期情報(NS,Type,ID,Area)の入力を受け付ける。具体的には、制御部61は、表示部62にインタフェース画面71の欄73を表示し、ユーザがNS、ID、Type、Area及びNRの各欄に入力部63を介してデータを入力するのを受け付ける。ユーザは、全てのセンサ装置1のついて当該入力操作を繰り返す。制御部61は、全てのセンサ装置1についてのレコードをセンサ設置情報(SI)として記憶部66に記憶する。 In step S40b, the control unit 61 of the interface device 6 receives the input of the sensor initial information (NS, Type, ID, Area). Specifically, the control unit 61 displays the field 73 of the interface screen 71 on the display unit 62, and the user inputs data into each of the NS, ID, Type, Area, and NR fields via the input unit 63. Accept. The user repeats the input operation for all the sensor devices 1. The control unit 61 stores records for all the sensor devices 1 in the storage unit 66 as sensor installation information (SI).

ステップS43bにおいて、インタフェース装置6の制御部61は、移動ロボットへ空間情報をリクエストする。具体的には、制御部61は、移動ロボット2に対して空間情報(GI(R,X,Y))をリクエストする。 In step S43b, the control unit 61 of the interface device 6 requests spatial information from the mobile robot. Specifically, the control unit 61 requests spatial information (GI (R, X, Y)) from the mobile robot 2.

ステップS44bにおいて、インタフェース装置6の制御部61は、移動ロボットから空間情報を取得し、ユーザがセンサ装置の位置の変更を入力するのを受け付ける。具体的には、第1に、制御部61は、移動ロボット2から空間情報(GI(R,X,Y))を取得する。
第2に、制御部61は、ステップS44bの“第1”において取得した空間情報を使用して、インタフェース画面71の欄73に住空間地図(LS)を表示し、ユーザに対してセンサ位置の変更入力を促す。すると、ユーザは前記したように、欄72に表示されている住空間地図(LS)上で、変化があったセンサ装置についての入力操作を行う。
In step S44b, the control unit 61 of the interface device 6 acquires spatial information from the mobile robot and accepts the user to input a change in the position of the sensor device. Specifically, first, the control unit 61 acquires spatial information (GI (R, X, Y)) from the mobile robot 2.
Secondly, the control unit 61 displays the living space map (LS) in the column 73 of the interface screen 71 by using the spatial information acquired in the “first” of step S44b, and the sensor position is displayed to the user. Prompt for change input. Then, as described above, the user performs an input operation on the changed sensor device on the living space map (LS) displayed in the column 72.

ステップS45bにおいて、インタフェース装置6の制御部61は、各NSについて検知領域を定義する。具体的には、制御部61は、ステップS44bの“第2”において入力されたデータに対応するレコードをインタフェース画面71の欄74に表示する。制御部61は、変更後のレコードを、センサ設置情報(SI)の一部として記憶部66に記憶する。 In step S45b, the control unit 61 of the interface device 6 defines a detection area for each NS. Specifically, the control unit 61 displays the record corresponding to the data input in the “second” of step S44b in the column 74 of the interface screen 71. The control unit 61 stores the changed record in the storage unit 66 as a part of the sensor installation information (SI).

(人及びロボットの動き)
図22は、人の動きを説明する図である。いま、リビング1、トイレ5及び浴室8が廊下2、廊下3、廊下4、廊下6及び廊下7によって結ばれている住空間地図81を想定する。これらは、センサ装置NSi(i=1、2、・・・、7)に対応している。なお、ここでの番号(1、2、・・・)は、専ら図22における説明目的のものであり、図1における同じ番号とは直接の関係を有さない。センサ装置NSiが、ある1日の人の動きを検知した結果が、チャート82である。チャート82の横軸は時間であり、縦軸は、各センサ装置の個別ID(NSi)である。あるセンサ装置が人を検知すると、その時間帯においてそのセンサ装置の“チャート線(太い実線)”が凸状に変化する。
(Movement of humans and robots)
FIG. 22 is a diagram illustrating the movement of a person. Now, assume a living space map 81 in which the living room 1, the toilet 5, and the bathroom 8 are connected by a corridor 2, a corridor 3, a corridor 4, a corridor 6, and a corridor 7. These correspond to the sensor device NSi (i = 1, 2, ..., 7). The numbers (1, 2, ...) Here are for the purpose of explanation in FIG. 22, and do not have a direct relationship with the same numbers in FIG. Chart 82 shows the result of the sensor device NSi detecting the movement of a person on a certain day. The horizontal axis of the chart 82 is time, and the vertical axis is the individual ID (NSi) of each sensor device. When a sensor device detects a person, the "chart line (thick solid line)" of the sensor device changes in a convex shape during that time period.

センサ装置1がこのような検知を多くの回数繰り返すと、人の通常時の動きがチャート82上に“パタン”として現れる。例えば、パタン1は、人がリビング1からトイレ5に移動し、その後リビング1に戻る場合のチャート線の組合せである。パタン1は、1日のうち例えば5、6回周期的に現れる。NS1、NS2、NS3、NS4及びNS5のそれぞれの凸部の時間幅は、毎回ほぼ同じである。 When the sensor device 1 repeats such detection many times, the normal movement of the person appears as a "pattern" on the chart 82. For example, pattern 1 is a combination of chart lines when a person moves from living room 1 to toilet 5 and then returns to living room 1. Pattern 1 appears periodically, for example, 5 or 6 times a day. The time width of each of the convex portions of NS1, NS2, NS3, NS4 and NS5 is almost the same each time.

パタン2は、人がリビング1から浴室8に移動し、その後リビング1に戻る場合のチャート線の組合せである。パタン2は、1日のうち例えば夜間に1回周期的に現れる。NS1、NS2、NS3、NS4、NS6、NS7及びNS8のそれぞれの凸部の時間幅は、毎回ほぼ同じである。 Pattern 2 is a combination of chart lines when a person moves from living room 1 to bathroom 8 and then returns to living room 1. Pattern 2 appears periodically once in the day, for example at night. The time width of each of the convex portions of NS1, NS2, NS3, NS4, NS6, NS7 and NS8 is almost the same each time.

図23は、異常発生時の人及びロボットの動きを説明する図である。パタン1bに注目すると、廊下3(NS3)において、チャート線の凸部の時間幅が、図22の時間幅に比して有意に長くなっている。行動検知サーバ4の制御部41は、時点t1において異常を検知し、ロボット2に対し目標座標GIoを送信する。すると、ロボット2は、人が転倒している可能性の高い位置(廊下3)に移動する。 FIG. 23 is a diagram illustrating the movements of a person and a robot when an abnormality occurs. Focusing on the pattern 1b, in the corridor 3 (NS3), the time width of the convex portion of the chart line is significantly longer than the time width of FIG. 22. The control unit 41 of the action detection server 4 detects the abnormality at the time point t1 and transmits the target coordinates GIo to the robot 2. Then, the robot 2 moves to a position (corridor 3) where there is a high possibility that a person has fallen.

パタン1cに注目すると、廊下4(NS4)において、通常の時間幅の凸部が出現した直後、どのNSiにおいても凸部が出現していない。行動検知サーバ4の制御部41は、時点t2において異常を検知し、ロボット2に対し目標座標GIoを送信する。すると、ロボット2は、人が誘拐されている可能性の高い位置(廊下4)に移動する。 Focusing on the pattern 1c, immediately after the convex portion having a normal time width appears in the corridor 4 (NS4), the convex portion does not appear in any NSi. The control unit 41 of the action detection server 4 detects the abnormality at the time point t2 and transmits the target coordinates GIo to the robot 2. Then, the robot 2 moves to a position (corridor 4) where a person is likely to be kidnapped.

パタン1cに注目すると、浴室8(NS8)において、チャート線の凸部の時間幅が、図22の時間幅に比して有意に長くなっている。行動検知サーバ4の制御部41は、時点t3において異常を検知し、ロボット2に対し目標座標GIoを送信する。すると、ロボット2は、人が卒倒している可能性の高い位置(浴室8)に移動する。 Focusing on the pattern 1c, in the bathroom 8 (NS8), the time width of the convex portion of the chart line is significantly longer than the time width of FIG. 22. The control unit 41 of the action detection server 4 detects the abnormality at the time point t3 and transmits the target coordinates GIo to the robot 2. Then, the robot 2 moves to a position (bathroom 8) where a person is likely to have collapsed.

(変形例)
本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば上記した実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
(Modification example)
The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. It is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is also possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路などのハードウェアで実現してもよい。上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈して実行することにより、ソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリ、ハードディスク、SSD(Solid State Drive)などの記録装置、または、フラッシュメモリカード、DVD(Digital Versatile Disk)などの記録媒体に置くことができる。 Each of the above configurations, functions, processing units, processing means, and the like may be partially or wholly realized by hardware such as an integrated circuit. Each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, hard disk, recording device such as SSD (Solid State Drive), or recording medium such as flash memory card or DVD (Digital Versatile Disk). it can.

各実施形態において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には、殆ど全ての構成が相互に接続されていると考えてもよい。
本発明の変形例として、例えば、次の(a)〜(e)のようなものがある。
In each embodiment, the control lines and information lines indicate what is considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.
Examples of modifications of the present invention include the following (a) to (e).

(a) 行動検知サーバ4を設けず、移動ロボット2がイベント情報モードの処理や異常モードの処理を実行してもよい。
(b) 行動検知サーバ4を設けず、各センサ装置1が自律的にイベント情報モードの処理や異常モードの処理を実行してもよい。
(c) 行動検知サーバ4の通信部44と外部通信部45とは、共通であってもよい。
(d) 第1の実施形態の移動ロボット2は無線タグを備え、センサ装置1によってこの無線タグを検知するようにしてもよい。これにより、センサ装置1が確実に移動ロボット2を検知できるようになる。
(e) センサ設置情報モードが終了した後であっても、センサ位置の変更を検知した際には、記憶部に記憶されたセンサ位置情報を修正してもよい。
(A) The mobile robot 2 may execute the event information mode process or the abnormal mode process without providing the action detection server 4.
(B) The action detection server 4 may not be provided, and each sensor device 1 may autonomously execute the event information mode processing or the abnormality mode processing.
(C) The communication unit 44 and the external communication unit 45 of the behavior detection server 4 may be common.
(D) The mobile robot 2 of the first embodiment may include a wireless tag, and the sensor device 1 may detect the wireless tag. As a result, the sensor device 1 can reliably detect the mobile robot 2.
(E) Even after the sensor installation information mode is finished, when a change in the sensor position is detected, the sensor position information stored in the storage unit may be corrected.

S 行動検知システム
1,1−1〜1−7 センサ装置
11 制御部
12 検知部 (第1センサ)
13 記憶部
14 通信部 (第1通信手段)
15 電源部
2 移動ロボット
21 制御部
22 検知部 (第2センサ)
23 機構部
24 記憶部
25 電源部
26 操作部
27 通信部 (第2通信手段)
3 給電装置
31 検知部
32 通信部
4 行動検知サーバ
41 制御部
42 記憶部
43 タイマ
44 通信部 (第3通信手段)
45 外部通信部 (外部通信手段)
5 外部電源
6 インタフェース装置
61 制御部
62 表示部
63 入力部
64 電源部
65 通信部
66 制御部
8,8−1〜8−7 家電機器 (センサ装置)
81 制御部
82 検知部 (第1センサ)
83 記憶部
84 通信部 (第1通信手段)
85 電源部
9 居室
S Behavior detection system 1,1-1-1-7 Sensor device 11 Control unit 12 Detection unit (first sensor)
13 Storage unit 14 Communication unit (first communication means)
15 Power supply unit 2 Mobile robot 21 Control unit 22 Detection unit (second sensor)
23 Mechanical unit 24 Storage unit 25 Power supply unit 26 Operation unit 27 Communication unit (second communication means)
3 Power supply device 31 Detection unit 32 Communication unit 4 Action detection server 41 Control unit 42 Storage unit 43 Timer 44 Communication unit (third communication means)
45 External communication unit (external communication means)
5 External power supply 6 Interface device 61 Control unit 62 Display unit 63 Input unit 64 Power supply unit 65 Communication unit 66 Control unit 8,8-1 to 8-7 Home appliances (sensor device)
81 Control unit 82 Detection unit (first sensor)
83 Storage unit 84 Communication unit (first communication means)
85 Power supply 9 Living room

Claims (9)

情報を検知する第1センサ、および情報を送信する第1通信手段を備え、室内のいずれかに設けられた複数のセンサ装置と、
情報を検知する第2センサ、情報を送受信する第2通信手段、および前記室内を移動可能な移動手段を備えたロボットと、
情報を送受信する第3通信手段を備え、前記複数のセンサ装置が備える前記第1センサの検知情報、および前記ロボットが備える前記第2センサの検知情報に基づいて、移動体の行動を検知するサーバと、
ユーザが前記複数のセンサ装置が設けられている位置を画面上で入力するのを受け付けるインタフェース装置と、
を備えることを特徴とする行動検知システム。
A plurality of sensor devices provided in any of the rooms, including a first sensor for detecting information and a first communication means for transmitting information,
A robot equipped with a second sensor for detecting information, a second communication means for transmitting and receiving information, and a moving means capable of moving in the room.
A server provided with a third communication means for transmitting and receiving information, and detecting the behavior of a moving body based on the detection information of the first sensor included in the plurality of sensor devices and the detection information of the second sensor included in the robot. When,
An interface device that accepts the user to input the position where the plurality of sensor devices are provided on the screen, and
A behavior detection system characterized by being equipped with.
前記ロボットは、
前記室内の地図情報を記憶した記憶手段を備え、
前記第1センサの検知情報、および前記第2センサの検知情報に基づいて、移動体の行動を検知し、異常状態と診断した場合、前記地図情報における異常を検知した座標に自身を移動させて、当該異常を診断すること、
を特徴とする請求項1に記載の行動検知システム。
The robot
A storage means for storing the map information in the room is provided.
When the behavior of a moving body is detected based on the detection information of the first sensor and the detection information of the second sensor and a diagnosis of an abnormal state is made, the body is moved to the coordinates where the abnormality is detected in the map information. , Diagnosing the abnormality,
The behavior detection system according to claim 1.
前記複数のセンサ装置は、
家電機器であり、
前記ロボットは、
前記家電機器の操作情報を受信すること、
を特徴とする請求項2に記載の行動検知システム。
The plurality of sensor devices
It is a home appliance
The robot
Receiving operation information of the home appliances,
2. The behavior detection system according to claim 2.
前記ロボットは、
自身が移動した空間の幾何情報を検知するための位置センサを備え、
前記ロボットの記憶手段は、
前記複数のセンサ装置が設けられている位置を記憶しているとともに、自身が移動した空間の幾何情報と前記複数のセンサ装置が設けられている位置との対応関係を前記地図情報として記憶していること、
を特徴とする請求項3に記載の行動検知システム。
The robot
Equipped with a position sensor to detect the geometric information of the space in which it has moved,
The storage means of the robot is
The position where the plurality of sensor devices are provided is stored, and the correspondence relationship between the geometric information of the space in which the sensor device is provided and the position where the plurality of sensor devices are provided is stored as the map information. Being,
The behavior detection system according to claim 3.
前記ロボットの記憶手段は、
複数のセンサ装置が設けられている位置を、自身が前記位置センサによって検知した空間の座標系で表現された位置情報として記憶していること、
を特徴とする請求項4に記載の行動検知システム。
The storage means of the robot is
The position where a plurality of sensor devices are provided is stored as position information expressed by the coordinate system of the space detected by the position sensor.
4. The behavior detection system according to claim 4.
前記ロボットは、
前記第2センサによって情報を検知すると、検知した前記情報を前記記憶手段に保持し、現在の情報と前記記憶手段に保持された過去の情報とを比較することで、異常状態を診断すること、
を特徴とする請求項5に記載の行動検知システム。
The robot
When the information is detected by the second sensor, the detected information is held in the storage means, and the current information is compared with the past information held in the storage means to diagnose the abnormal state.
The behavior detection system according to claim 5.
前記ロボットは、
異常の詳細を診断するセンサと、
外部と通信する外部通信手段とを備え、
異常を確定した場合、前記外部通信手段により、確定した異常情報を外部へ送信すること、
を特徴とする請求項6に記載の行動検知システム。
The robot
A sensor that diagnoses the details of the abnormality and
Equipped with an external communication means to communicate with the outside
When an abnormality is confirmed, the confirmed abnormality information is transmitted to the outside by the external communication means.
The behavior detection system according to claim 6.
情報を検知する第1センサ、および情報を送信する第1通信手段を備え、室内のいずれかに設けられた複数のセンサ装置と、
情報を検知する第2センサ、情報を送受信する第2通信手段、および前記室内を移動可能な移動手段を備えたロボットと、
情報を送受信する第3通信手段を備え、前記複数のセンサ装置が備える前記第1センサの検知情報、および前記ロボットが備える前記第2センサの検知情報に基づいて、移動体の行動を検知するサーバと、通信可能に接続されており、
ユーザが前記複数のセンサ装置が設けられている位置を画面上で入力するのを受け付けること、
を特徴とするインタフェース装置。
A plurality of sensor devices provided in any of the rooms, including a first sensor for detecting information and a first communication means for transmitting information,
A robot equipped with a second sensor for detecting information, a second communication means for transmitting and receiving information, and a moving means capable of moving in the room.
A server provided with a third communication means for transmitting and receiving information, and detecting the behavior of a moving body based on the detection information of the first sensor included in the plurality of sensor devices and the detection information of the second sensor included in the robot. Is connected so that it can communicate with
Accepting the user to input the position where the plurality of sensor devices are provided on the screen,
An interface device characterized by.
情報を検知する第1センサ、および情報を送信する第1通信手段を備え、室内のいずれかに設けられた複数のセンサ装置と通信可能に接続されており、
情報を検知する第2センサ、情報を送受信する第2通信手段、および前記室内を移動可能な移動手段を備えたロボットであって、
前記ロボットは、
情報を送受信する第3通信手段を備え、前記複数のセンサ装置が備える前記第1センサの検知情報、および前記ロボットが備える前記第2センサの検知情報に基づいて、移動体の行動を検知するサーバと、
ユーザが前記複数のセンサ装置が設けられている位置を画面上で入力するのを受け付けるインタフェース装置とも通信可能に接続されていること、
を特徴とするロボット。
It is equipped with a first sensor for detecting information and a first communication means for transmitting information, and is communicably connected to a plurality of sensor devices provided in any of the rooms.
A robot equipped with a second sensor for detecting information, a second communication means for transmitting and receiving information, and a moving means capable of moving in the room.
The robot
A server provided with a third communication means for transmitting and receiving information, and detecting the behavior of a moving body based on the detection information of the first sensor included in the plurality of sensor devices and the detection information of the second sensor included in the robot. When,
It is also communicably connected to an interface device that accepts the user to input the positions where the plurality of sensor devices are provided on the screen.
A robot featuring.
JP2019052566A 2019-03-20 2019-03-20 Action detection system and robot Active JP7228427B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019052566A JP7228427B2 (en) 2019-03-20 2019-03-20 Action detection system and robot
SG11202109381T SG11202109381TA (en) 2019-03-20 2020-01-31 Behavior detection system, interface device, and robot
CN202080005875.4A CN112955843A (en) 2019-03-20 2020-01-31 Action detection system, interface device and robot
PCT/JP2020/003761 WO2020189052A1 (en) 2019-03-20 2020-01-31 Activity detection system, interface device, and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019052566A JP7228427B2 (en) 2019-03-20 2019-03-20 Action detection system and robot

Publications (2)

Publication Number Publication Date
JP2020154718A true JP2020154718A (en) 2020-09-24
JP7228427B2 JP7228427B2 (en) 2023-02-24

Family

ID=72519269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019052566A Active JP7228427B2 (en) 2019-03-20 2019-03-20 Action detection system and robot

Country Status (4)

Country Link
JP (1) JP7228427B2 (en)
CN (1) CN112955843A (en)
SG (1) SG11202109381TA (en)
WO (1) WO2020189052A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230151265A (en) * 2022-04-25 2023-11-01 재단법인대구경북과학기술원 Optimal control sensor position calculation device and method for calculating optimum control sensor position using the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01149114A (en) * 1987-12-07 1989-06-12 Hitachi Ltd Running control method for free-running robot
JPH11283152A (en) * 1998-03-27 1999-10-15 Sharp Corp Remote control system
JP2002092761A (en) * 2000-09-12 2002-03-29 Toshiba Tec Corp Movement monitoring system
JP2010231659A (en) * 2009-03-27 2010-10-14 Sogo Keibi Hosho Co Ltd System, terminal, method, and program for inspecting security
JP2016218659A (en) * 2015-05-19 2016-12-22 住友電気工業株式会社 Sensor management device, sensor management method, and sensor management program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092356A (en) * 2004-09-24 2006-04-06 Sanyo Electric Co Ltd Presumption system, presumption apparatus and sensing apparatus
US9046414B2 (en) * 2012-09-21 2015-06-02 Google Inc. Selectable lens button for a hazard detector and method therefor
JP5958459B2 (en) * 2013-12-26 2016-08-02 トヨタ自動車株式会社 State determination system, state determination method, and mobile robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01149114A (en) * 1987-12-07 1989-06-12 Hitachi Ltd Running control method for free-running robot
JPH11283152A (en) * 1998-03-27 1999-10-15 Sharp Corp Remote control system
JP2002092761A (en) * 2000-09-12 2002-03-29 Toshiba Tec Corp Movement monitoring system
JP2010231659A (en) * 2009-03-27 2010-10-14 Sogo Keibi Hosho Co Ltd System, terminal, method, and program for inspecting security
JP2016218659A (en) * 2015-05-19 2016-12-22 住友電気工業株式会社 Sensor management device, sensor management method, and sensor management program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230151265A (en) * 2022-04-25 2023-11-01 재단법인대구경북과학기술원 Optimal control sensor position calculation device and method for calculating optimum control sensor position using the same
KR102677452B1 (en) 2022-04-25 2024-06-24 재단법인대구경북과학기술원 Optimal control sensor position calculation device and method for calculating optimum control sensor position using the same

Also Published As

Publication number Publication date
WO2020189052A1 (en) 2020-09-24
JP7228427B2 (en) 2023-02-24
SG11202109381TA (en) 2021-10-28
CN112955843A (en) 2021-06-11

Similar Documents

Publication Publication Date Title
US10383497B2 (en) Robot and controlling method thereof
CN107636548B (en) Robot and control method thereof
US11468668B2 (en) Drone pre-surveillance
JP6551455B2 (en) Gait analysis support robot
US11798390B2 (en) Automated robot alert system
US20110231018A1 (en) Control apparatus, control method and program
CN106092091B (en) E-machine equipment
US20200171667A1 (en) Vision-based robot control system
KR20140043430A (en) Method and system for observation
US10715941B2 (en) Mobile and autonomous audio sensing and analytics system and method
TW201737854A (en) Automatic cleaning system and operation method thereof
KR20110018211A (en) Robot cleaner and control system including the same
WO2020189052A1 (en) Activity detection system, interface device, and robot
TWI742379B (en) Robot, motion detection server and motion detection system
KR101584600B1 (en) Interactive environment complex sensor IoT system
CN104050241A (en) Remote-operating accepting system, remote operating system and program
US20240005648A1 (en) Selective knowledge distillation
US20230252874A1 (en) Shadow-based fall detection
KR20200049189A (en) Home device
JP6123962B1 (en) Central processing unit and method of monitored person monitoring system, and monitored person monitoring system
KR20200076158A (en) Electronic device and method for collaborating another electronic device
JP5258113B2 (en) Location information detection system
JP2016082515A (en) Server, electric apparatus control method, control program, apparatus control system, electric apparatus, and history management system
JP2022143603A (en) Watching system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230119

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230119

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230127

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230213

R150 Certificate of patent or registration of utility model

Ref document number: 7228427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150