JP2007264950A - Autonomously moving robot - Google Patents

Autonomously moving robot Download PDF

Info

Publication number
JP2007264950A
JP2007264950A JP2006088093A JP2006088093A JP2007264950A JP 2007264950 A JP2007264950 A JP 2007264950A JP 2006088093 A JP2006088093 A JP 2006088093A JP 2006088093 A JP2006088093 A JP 2006088093A JP 2007264950 A JP2007264950 A JP 2007264950A
Authority
JP
Japan
Prior art keywords
specific person
mobile robot
unit
data
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006088093A
Other languages
Japanese (ja)
Inventor
Akiyoshi Yoshida
明美 吉田
Toshiki Kanemichi
敏樹 金道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006088093A priority Critical patent/JP2007264950A/en
Publication of JP2007264950A publication Critical patent/JP2007264950A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an autonomously moving robot capable of effectively suppressing crimes to a specified person while moving accompanying the specified person. <P>SOLUTION: The autonomously moving robot R can move accompanying the specified person M. The autonomously moving robot R reports to the surroundings that it monitors the specified person M and issues an alarm when an abnormal change occurs through a display 2 and a speaker 7. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、特定人物に随伴して移動可能な自律移動型ロボットに関する。   The present invention relates to an autonomous mobile robot that can move with a specific person.

近年、ストーカー等による犯罪が増加しており、社会問題化している。このような非常事態が発生したとき、発生現場の状況を警察署に正しく通報するために、携帯電話機を用いた防犯システムが開発されている。例えば、特許文献1に開示されたシステムでは、携帯電話機の非常ボタンを押下することにより、緊急呼を自動発信して、現場の画像データ、音声データ、及び時刻データを警察署に送信する。
特開2003−217060号公報
In recent years, crimes by stalkers and the like are increasing and becoming a social problem. A crime prevention system using a mobile phone has been developed in order to correctly report the situation of the occurrence site to the police station when such an emergency occurs. For example, in the system disclosed in Patent Document 1, an emergency call is automatically transmitted by pressing an emergency button of a mobile phone, and on-site image data, audio data, and time data are transmitted to a police station.
JP 2003-217060 A

しかしながら、上記した携帯電話機を用いた防犯システムでは、犯罪行為が発生したときの状況を正しく把握することができても、犯罪行為の発生自体を抑制する効果は少なかった。   However, in the crime prevention system using the above-described mobile phone, even if the situation when the criminal act occurs can be correctly grasped, the effect of suppressing the criminal act itself is small.

本発明は、上記した事情に鑑みて為されたものであり、特定人物に随伴して移動しながら、特定人物に対する犯罪を効果的に抑制することが可能な自律移動型ロボットを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an autonomous mobile robot capable of effectively suppressing crimes against a specific person while moving along with the specific person. Objective.

本発明に係る自律移動型ロボットは、特定人物に随伴して移動可能な自律移動型ロボットであって、特定人物を監視していることを周囲に報知する報知手段を備えることを特徴とする。   The autonomous mobile robot according to the present invention is an autonomous mobile robot that can move along with a specific person, and includes an informing unit that notifies the surroundings that the specific person is being monitored.

この自律移動型ロボットでは、特定人物を監視していることを周囲に報知する報知手段を備えるため、犯罪行為の発生自体を抑制することができる。   Since this autonomous mobile robot is provided with notification means for notifying the surroundings that a specific person is being monitored, the occurrence of criminal acts can be suppressed.

自律移動型ロボットは、特定人物を含む周辺環境の画像情報又は音情報に基づいて、異変を検出する異変検出手段と、異変検出手段により異変を検出した場合に警報を発する警報手段と、を備えると好ましい。このようにすれば、警報を発することで犯罪者の行動抑制に繋がり、特定人物に危害が及ぶ虞を低減することができる。   The autonomous mobile robot includes an anomaly detection means for detecting an anomaly based on image information or sound information of a surrounding environment including a specific person, and an alarm means for issuing an alarm when an anomaly is detected by the anomaly detection means. And preferred. If it does in this way, it will lead to a criminal's action suppression by issuing a warning, and it can reduce a possibility of harming a specific person.

報知手段は、特定人物を含む周辺環境を照らす照明機能を有すると好ましい。このようにすれば、夜間等において犯罪の抑制効果をより高めることができると共に、特定人物の移動の安全性を高めることができる。   The notification means preferably has an illumination function for illuminating the surrounding environment including the specific person. In this way, the crime suppressing effect can be further enhanced at night and the like, and the safety of movement of the specific person can be increased.

本発明によれば、特定人物に対する犯罪を効果的に抑制することが可能となる。   According to the present invention, crimes against a specific person can be effectively suppressed.

以下、添付図面を参照して本発明の実施形態について説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

参照する図面において、図1は本実施形態に係る自律移動型ロボットとしてのモビルロボットおよびその主人としての特定人物を模式的に示す平面図、図2は図1に示したモビルロボットの構造を示す側面図、図3は図2に示したモビルロボットが備える制御装置の構成を示すブロック図、図4は図3に示した制御装置による処理手順の一部を示すフローチャートである。   In the drawings to be referred to, FIG. 1 is a plan view schematically showing a mobile robot as an autonomous mobile robot according to the present embodiment and a specific person as its master, and FIG. 2 shows the structure of the mobile robot shown in FIG. FIG. 3 is a side view, FIG. 3 is a block diagram showing a configuration of a control device provided in the mobile robot shown in FIG. 2, and FIG. 4 is a flowchart showing a part of a processing procedure by the control device shown in FIG.

自律移動型ロボットは、図1に示すように、主人としての特定人物Mに随伴して移動可能なモビルロボットRとして構成されている。このモビルロボットRは、特定人物Mの近傍において、特定人物Mおよびその周辺環境を観測しつつその観測情報に基づいて特定人物Mを先導し、あるいは特定人物Mに追従する。   As shown in FIG. 1, the autonomous mobile robot is configured as a mobile robot R that can move along with a specific person M as a master. The mobile robot R leads the specific person M or follows the specific person M based on the observation information while observing the specific person M and the surrounding environment in the vicinity of the specific person M.

図2に示すように、モビルロボットRは、走行装置1により移動可能なボディR1と、このボディR1に対して回転可能に接続されたヘッドR2とを備えており、ボディR1には、報知、警報、案内などの各種のメッセージを画像や文字により表示可能なディスプレイ2が設置されている。このディスプレイ2は、例えば高輝度のバックライト光源を含み、特定人物Mを含む周辺環境を照らす照明機能を有している。そして、このボディR1には、電源としてのバッテリ3、ヘッドR2を回転駆動するためのヘッド駆動モータ4、自身の位置を検出する位置センサ9の他、走行装置1、ディスプレイ2、ヘッド駆動モータ4などを制御するための制御装置5が内蔵されている。位置センサ9は、例えばGPS(グローバルポジショニングシステム)レシーバ、ジャイロコンバータなどを有しており、これらによって自身の現在位置を検出する。   As shown in FIG. 2, the mobile robot R includes a body R1 that can be moved by the traveling device 1 and a head R2 that is rotatably connected to the body R1. A display 2 capable of displaying various messages such as alarms and guidance with images and characters is installed. The display 2 includes, for example, a high-luminance backlight light source, and has an illumination function that illuminates the surrounding environment including the specific person M. The body R1 includes a battery 3 as a power source, a head drive motor 4 for rotationally driving the head R2, a position sensor 9 for detecting its own position, a travel device 1, a display 2, and a head drive motor 4. The control apparatus 5 for controlling etc. is incorporated. The position sensor 9 has, for example, a GPS (Global Positioning System) receiver, a gyro converter, and the like, and detects its current position by these.

一方、モビルロボットRのヘッドR2には、特定人物Mおよびその周辺に存在する障害物(他の人物や動物、構造物、設置物、車両等)などを含む周辺環境をステレオ画像として観測するための撮像装置としての左右一対のCCDカメラ(または赤外線カメラ)6A,6Bと、報知、警報、案内などの各種メッセージの音声を発声可能なスピーカ7と、特定人物Mおよびその周辺環境の音を収集するためのマイク8と、無線によりデータを送信するための送信アンテナ10が設置されている。   On the other hand, the head R2 of the mobile robot R is used for observing the surrounding environment including a specific person M and obstacles (other persons, animals, structures, installations, vehicles, etc.) existing in the vicinity thereof as a stereo image. A pair of left and right CCD cameras (or infrared cameras) 6A and 6B as an imaging device, a speaker 7 capable of producing voices of various messages such as notifications, warnings, and guidance, and sounds of a specific person M and its surrounding environment are collected. A microphone 8 for transmitting data and a transmitting antenna 10 for transmitting data wirelessly are installed.

図1および図2に示すように、走行装置1は、例えば、ホイールインモータ1A,1Bにより回転方向および回転速度が左右独立に制御される左右一対の駆動車輪1C,1Dと、360度の旋回が可能なキャスタ車輪1Eとを有する。   As shown in FIGS. 1 and 2, the traveling device 1 includes, for example, a pair of left and right drive wheels 1C and 1D whose rotation direction and rotation speed are independently controlled by wheel-in motors 1A and 1B, and a 360-degree turn. It is possible to have caster wheels 1E.

この走行装置1は、左右一対の駆動車輪1C,1Dが同方向に前転駆動または後転駆動されることでモビルロボットRを前進または後退させる。その際、左右一対の駆動車輪1C,1Dの回転速度が同速度であればモビルロボットRを直進させ、左右一対の駆動車輪1C,1Dの回転速度に差があれば駆動車輪1C,1Dのうち回転速度の遅い側にモビルロボットRを旋回させる。そして、この走行装置1は、左右一対の駆動車輪1C,1Dが同速度で相互に逆方向に回転駆動されると、モビルロボットRをその場で左右の何れかに回転させる。   The traveling device 1 moves the mobile robot R forward or backward by driving the pair of left and right drive wheels 1C and 1D forward or backward in the same direction. At that time, if the rotational speeds of the pair of left and right drive wheels 1C, 1D are the same, the mobile robot R moves straight, and if there is a difference between the rotational speeds of the pair of left and right drive wheels 1C, 1D, The mobile robot R is turned to the slow rotation side. When the pair of left and right drive wheels 1C and 1D are driven to rotate in the opposite directions at the same speed, the traveling device 1 rotates the mobile robot R to the left or right on the spot.

ここで、制御装置5は、ECU(Electric Control Unit)等のマイクロコンピュータのハードウェアおよびソフトウェアを利用して構成されている。この制御装置5は、ホイールインモータ1A,1Bやヘッド駆動モータ4の駆動回路、ディスプレイ2、CCDカメラ6A,6B、スピーカ7、マイク8、位置センサ9、送信アンテナ10等との間の入出力インターフェースI/OおよびA/Dコンバータの他、プログラムおよびデータを記憶したROM(Read Only Memory)、入力データ等を一時記憶するRAM(Random Access Memory)、プログラムを実行するCPU(CentralProcessing Unit)等をハードウェアとして備えている。   Here, the control device 5 is configured by using microcomputer hardware and software such as an ECU (Electric Control Unit). This control device 5 has input / output between the wheel-in motors 1A and 1B and the drive circuit of the head drive motor 4, the display 2, the CCD cameras 6A and 6B, the speaker 7, the microphone 8, the position sensor 9, the transmission antenna 10, and the like. In addition to the interface I / O and A / D converter, ROM (Read Only Memory) that stores programs and data, RAM (Random Access Memory) that temporarily stores input data, CPU (Central Processing Unit) that executes programs, etc. It is provided as hardware.

そして、この制御装置5には、図3に示すように、特定人物認識部5A、カメラ制御部5B、画像記録部5C、異変検出部5D、データ送信部5E、走行制御モジュール5Mがソフトウェアとして構成されている。走行制御モジュール5Mは、地図データベース(DB)部5Ma、環境認識部5Mb、目的地入力受付部5Mc、追従走行計画部5Md、走行制御部5Meを含むように構成されている。   As shown in FIG. 3, the control device 5 includes a specific person recognition unit 5A, a camera control unit 5B, an image recording unit 5C, an anomaly detection unit 5D, a data transmission unit 5E, and a travel control module 5M as software. Has been. The travel control module 5M includes a map database (DB) unit 5Ma, an environment recognition unit 5Mb, a destination input reception unit 5Mc, a follow-up travel plan unit 5Md, and a travel control unit 5Me.

特定人物認識部5Aには、CCDカメラ6A,6Bから画像データが所定時間毎に入力される。そして、順次入力される画像データに基づいて撮影画像のエッジ処理を行い、予め記憶されている特定人物Mの輪郭モデルとのマッチング処理により特定人物Mを検出する。そして、この特定人物検出部5Aは、検出された特定人物Mのステレオ画像をステレオマッチング処理することにより、特定人物Mの3次元位置を三角測量の原理で所定時間毎に推測する。   Image data is input to the specific person recognition unit 5A from the CCD cameras 6A and 6B every predetermined time. Then, edge processing of the captured image is performed based on sequentially input image data, and the specific person M is detected by matching processing with the contour model of the specific person M stored in advance. And this specific person detection part 5A estimates the three-dimensional position of the specific person M for every predetermined time by the principle of triangulation by carrying out the stereo matching process of the stereo image of the detected specific person M.

カメラ制御部5Bには、特定人物検出部5Aから特定人物Mの3次元位置データが所定時間毎に入力される。このカメラ制御部5Bは、入力された特定人物Mの3次元位置データに基づき、後述する走行制御部5Meと協働して、特定人物Mが画像中央に位置するようにヘッド駆動モータ4の回転を制御してモビルロボットRのヘッドR2を回転させる。   The camera control unit 5B receives the three-dimensional position data of the specific person M from the specific person detection unit 5A every predetermined time. Based on the input three-dimensional position data of the specific person M, the camera control unit 5B rotates the head drive motor 4 so that the specific person M is positioned at the center of the image in cooperation with the travel control unit 5Me described later. And the head R2 of the mobile robot R is rotated.

走行制御モジュール5Mは、モビルロボットRが特定人物Mの近傍において障害物を避けつつ特定人物Mを先導し、あるいは特定人物Mに追従するように、走行を制御する。地図DB部5Maには、所定範囲の地図データが収納されている。目的地入力受付部5Mcは、特定人物Mが向かおうとしている目的地の入力を受け付ける。この目的地入力受付部5Mcへの入力は、例えばディスプレイ2をタッチパネル式の入力手段として機能させることで行うことができる。追従走行計画部5Mdは、位置センサ9から入力される現在の位置データ、地図DB部5Maから入力される地図データ、及び目的地入力受付部5Mcから入力される目的地データに基づいて、目的地までの走行ルートを設定する。   The traveling control module 5M controls traveling so that the mobile robot R leads the specific person M or follows the specific person M while avoiding obstacles in the vicinity of the specific person M. The map DB unit 5Ma stores a predetermined range of map data. The destination input receiving unit 5Mc receives an input of a destination that the specific person M is about to go to. The input to the destination input receiving unit 5Mc can be performed, for example, by causing the display 2 to function as a touch panel type input means. The follow-up travel plan unit 5Md is based on the current position data input from the position sensor 9, the map data input from the map DB unit 5Ma, and the destination data input from the destination input receiving unit 5Mc. Set the travel route to.

環境認識部5Mbは、CCDカメラ6A,6Bから所定時間毎に順次入力された画像データに基づいて撮影画像のエッジ処理を行うことにより、撮影画像中に存在する障害物(他の人物や動物、構造物、設置物、車両等)を検出する。そして、検出された障害物のステレオ画像をステレオマッチング処理することにより、障害物の3次元位置を三角測量の原理で所定時間毎に推測する。   The environment recognition unit 5Mb performs edge processing of the captured image based on the image data sequentially input from the CCD cameras 6A and 6B every predetermined time, so that an obstacle (another person or animal, Detect structures, installations, vehicles, etc.). Then, the stereo image of the detected obstacle is subjected to stereo matching processing, so that the three-dimensional position of the obstacle is estimated every predetermined time based on the principle of triangulation.

追従走行計画部5Mdには、特定人物認識部5Aから特定人物Mの3次元位置データが所定時間毎に入力されると共に、環境認識部5Mbから障害物の3次元位置データが所定時間毎に入力される。そして、入力された特定人物Mおよび障害物の3次元位置データに基づき、モビルロボットRが特定人物Mの近傍において障害物を避けつつ特定人物Mを先導し、あるいは特定人物Mに追従するように、走行ルートの詳細を設定する。走行制御部5Meは、追従走行計画部5Mdで設定された走行ルートに沿って移動するように、ホイールインモータ1A,1Bの回転を個別に制御して走行装置1の駆動車輪1C,1Dの回転方向および回転速度を個別に制御する。   The following travel plan unit 5Md receives the 3D position data of the specific person M from the specific person recognition unit 5A every predetermined time and also inputs the 3D position data of the obstacle from the environment recognition unit 5Mb every predetermined time. Is done. Then, based on the input three-dimensional position data of the specific person M and the obstacle, the mobile robot R leads the specific person M while avoiding the obstacle in the vicinity of the specific person M, or follows the specific person M. Set the details of the driving route. The travel control unit 5Me individually controls the rotation of the wheel-in motors 1A and 1B so as to move along the travel route set by the follow-up travel plan unit 5Md to rotate the drive wheels 1C and 1D of the travel device 1. Control the direction and speed individually.

画像記録部5Cは、CCDカメラ6A,6Bから画像データが所定時間毎に計測時刻情報と共に入力される。そして、過去5分間の特定人物Mが写った画像を記録して蓄積する。   The image recording unit 5C receives image data from the CCD cameras 6A and 6B together with measurement time information every predetermined time. Then, an image showing the specific person M in the past 5 minutes is recorded and accumulated.

異変検出部5Dには、CCDカメラ6A,6Bから画像データが所定時間毎に入力される。また、異変検出部5Dには、マイク8から特定人物Mを含む周辺環境の音データが所定時間毎に入力される。更に、異変検出部5Dには、位置センサ9からモビルロボットRの位置データが入力される。   Image data is input from the CCD cameras 6A and 6B to the anomaly detection unit 5D every predetermined time. In addition, sound data of the surrounding environment including the specific person M is input from the microphone 8 to the anomaly detection unit 5D every predetermined time. Further, the position data of the mobile robot R is input from the position sensor 9 to the anomaly detection unit 5D.

異変検出部5Dは、入力された画像データに基づいて、特定人物Mの異変を検出する。また、入力された音データに基づいて、特定人物Mの異変を検出する。特定人物Mの異変の検出については、後述する。そして、異変検出部5Dは、このように特定人物Mの異変を検出し、特定人物Mを監視していることを、ディスプレイ2及びスピーカ7を通して周囲に報知する。報知の方法としては、例えば、ディスプレイ2に「オーナー監視中」という文字を表示したり、スピーカ7から「オーナー監視中です」という音声を発したりすることが挙げられる。   The anomaly detection unit 5D detects an anomaly of the specific person M based on the input image data. Further, an abnormality of the specific person M is detected based on the input sound data. The detection of an abnormality of the specific person M will be described later. Then, the abnormality detection unit 5D detects the abnormality of the specific person M in this way, and notifies the surroundings through the display 2 and the speaker 7 that the specific person M is being monitored. As a notification method, for example, a character “owner monitoring” is displayed on the display 2, or a sound “owner monitoring is in progress” is output from the speaker 7.

そして、異変検出部5Dは、画像データ及び音データの少なくともいずれかが異変を示した場合には、特定人物Mに異変が生じたとして、そのときの位置データと共に異変検出信号をデータ送信部5Eに送信する。また、ディスプレイ2及びスピーカ7を通して周囲に警報を発する。警報の方法としては、例えば、ディスプレイ2に「オーナーに異変発生」という文字を表示して点滅させたり、スピーカ7から「オーナーに異変発生。救助願います。」という音声や警報音を発したりすることが挙げられる。   Then, when at least one of the image data and the sound data shows an abnormality, the abnormality detection unit 5D determines that an abnormality has occurred in the specific person M, and sends the abnormality detection signal together with the position data at that time to the data transmission unit 5E. Send to. Further, an alarm is issued to the surroundings through the display 2 and the speaker 7. As an alarm method, for example, the display 2 displays the characters “Anomaly has changed in the owner” and blinks, or the speaker 7 makes a sound or an alarm sound “Anomaly has occurred in the owner. Please rescue.” Can be mentioned.

データ送信部5Eは、異変検出部5Dから異変検出信号が入力されると、画像記録部5Cから過去5分間の特定人物Mが写った画像データを受け取り、入力された位置データと共に、送信アンテナ10からその画像データを所定のチャンネル(例えば、警備会社や警察署の通報チャンネル)に送信する。   When the abnormality detection signal is input from the abnormality detection unit 5D, the data transmission unit 5E receives image data showing the specific person M from the image recording unit 5C for the past 5 minutes, and transmits the antenna 10 together with the input position data. The image data is transmitted to a predetermined channel (for example, a reporting channel of a security company or a police station).

ここで、CCDカメラ6A,6Bおよび/またはマイク8と異変検出部5Dとにより本発明の異変検出手段が構成される。また、異変検出部5Dとディスプレイ2および/またはスピーカ7とにより本発明の報知手段が構成される。また、異変検出部5Dとディスプレイ2および/またはスピーカ7とにより本発明の警報手段が構成される。   Here, the anomaly detection means of the present invention is constituted by the CCD cameras 6A and 6B and / or the microphone 8 and the anomaly detector 5D. Further, the anomaly detection unit 5D and the display 2 and / or the speaker 7 constitute the notification means of the present invention. The anomaly detector 5D and the display 2 and / or the speaker 7 constitute the alarm means of the present invention.

次に、図3に示した制御装置5を構成する異変検出部5Dによる処理手順を図4に示すフローチャートに沿ってより詳細に説明する。   Next, a processing procedure performed by the anomaly detection unit 5D configuring the control device 5 shown in FIG. 3 will be described in more detail along the flowchart shown in FIG.

まず、ステップS1では、異変検出部5Dは、CCDカメラ6A,6Bから所定時間毎に特定人物Mを含む周辺環境の画像データを取得する。次のステップS2では、異変検出部5Dは、マイク8から所定時間毎に特定人物Mを含む周辺環境の音データを取得する。   First, in step S1, the anomaly detection unit 5D acquires image data of the surrounding environment including the specific person M from the CCD cameras 6A and 6B every predetermined time. In next step S <b> 2, the abnormality detection unit 5 </ b> D acquires sound data of the surrounding environment including the specific person M from the microphone 8 every predetermined time.

続くステップS3では、異変検出部5Dは、取得した画像データ及び音データに基づいて、特定人物Mの異変を検出する。画像データに基づく異変の検出は、例えば次のようにして行うことができる。すなわち、特定人物Mの非定常の表情(驚きの表情など)を検出したとき、異変が発生したものと判定する。非定常の表情の検出は、特定人物Mの非定常の表情を予め登録しておき、これに該当するものを検索することで行うことができる。または、特定人物Mの顔の特徴点を抽出し、定常時における特徴点位置からの変位が閾値よりも大きいか否か判定することで行うことができる。また、画像データに基づく異変の検出は、特定人物Mに一定距離以下に近付く人物がいることを検出することで行うこともできる。   In subsequent step S3, the abnormality detection unit 5D detects an abnormality of the specific person M based on the acquired image data and sound data. Anomaly detection based on image data can be performed, for example, as follows. That is, when an unsteady facial expression (such as a surprised facial expression) of the specific person M is detected, it is determined that an abnormality has occurred. The detection of an unsteady facial expression can be performed by registering an unsteady facial expression of the specific person M in advance and searching for a corresponding one. Alternatively, it can be performed by extracting a feature point of the face of the specific person M and determining whether or not the displacement from the feature point position in a steady state is larger than a threshold value. In addition, it is possible to detect anomalies based on image data by detecting that there is a person approaching the specific person M within a certain distance.

一方、音データに基づく異変の検出は、例えば次のようにして行うことができる。すなわち、特定人物Mの非定常の音声を検出したとき、異変が発生したものと判定する。非定常の音声の検出は、「キャー」や「助けて」などのキーワードを予め登録しておき、これに該当するものを検索することで行うことができる。または、特定人物Mの音声の強度や周波数が所定の閾値よりも大きいか否か判定することで行うことができる。   On the other hand, anomaly detection based on sound data can be performed as follows, for example. That is, when an unsteady voice of the specific person M is detected, it is determined that an abnormality has occurred. Detection of unsteady speech can be performed by previously registering keywords such as “car” and “help” and searching for a corresponding keyword. Alternatively, it can be performed by determining whether the intensity or frequency of the voice of the specific person M is greater than a predetermined threshold.

そして、ステップS4では、特定人物Mに異変が発生していないと判定したとき、ステップS5に移って特定人物Mを監視中であることを周囲に報知する。一方、ステップS4で特定人物Mに異変が発生したと判定したとき、ステップS6に移って警報を発する。そして、ステップS7に移り位置センサ9からそのときの位置データを取得し、異変検出部5Dは、ステップS8において、位置データと共に異変検出信号をデータ送信部5Eに送信する。これにより、データ送信部5Eは、画像記録部5Cから過去5分間の特定人物Mが写った画像データを受け取り、入力された位置データと共に、送信アンテナ10からその画像データを所定のチャンネル(例えば、警備会社や警察署の通報チャンネル)に送信する。   In step S4, when it is determined that no abnormality has occurred in the specific person M, the process proceeds to step S5 to notify the surroundings that the specific person M is being monitored. On the other hand, when it is determined in step S4 that an abnormality has occurred in the specific person M, the process proceeds to step S6 to issue an alarm. Then, the process proceeds to step S7, the position data at that time is acquired from the position sensor 9, and the abnormality detection unit 5D transmits the abnormality detection signal together with the position data to the data transmission unit 5E in step S8. As a result, the data transmission unit 5E receives the image data showing the specific person M from the image recording unit 5C in the past 5 minutes, and sends the image data from the transmission antenna 10 together with the input position data to a predetermined channel (for example, To the security company or police station reporting channel).

以上詳述したように、本実施形態の自律移動型ロボットとして構成されたモビルロボットRは、特定人物Mを含む周辺環境をCCDカメラ6A,6Bにより撮影しつつ、その撮影画像のデータに基づいて走行装置1の左右一対の駆動車輪1C,1Dの回転方向および回転速度を左右独立に制御することにより、特定人物Mの近傍に随伴して障害物を避けつつ特定人物Mを先導し、あるいは特定人物Mに追従する。   As described in detail above, the mobile robot R configured as the autonomous mobile robot according to the present embodiment captures the surrounding environment including the specific person M with the CCD cameras 6A and 6B, and based on the captured image data. By controlling the rotation direction and rotation speed of the pair of left and right drive wheels 1C, 1D of the traveling device 1 independently, the specific person M is led or specified while avoiding obstacles in the vicinity of the specific person M. Follow person M.

その際、CCDカメラ6A,6Bにより取得した画像データ及びマイク8により取得した音データに基づいて、特定人物Mの異変を検出することができる。そして、異変が発生していないときは、ディスプレイ2やスピーカ7を通して特定人物Mを監視中であることを周囲に報知することができる。従って、ストーカーなど罪を犯そうとする者をしり込みさせて、犯罪行為の発生自体を抑制することができる。   At that time, the abnormality of the specific person M can be detected based on the image data acquired by the CCD cameras 6A and 6B and the sound data acquired by the microphone 8. When no abnormality has occurred, it is possible to notify the surroundings that the specific person M is being monitored through the display 2 or the speaker 7. Therefore, a person who tries to commit a crime, such as a stalker, can be squeezed to suppress the occurrence of criminal acts.

また、特定人物Mの異変を検出したときには、ディスプレイ2やスピーカ7を通して周囲に警報を発することができる。従って、警報を発することで犯罪者の行動抑制に繋がり、特定人物に危害が及ぶ虞を低減することができる。   Further, when an abnormality of the specific person M is detected, an alarm can be issued to the surroundings through the display 2 and the speaker 7. Therefore, issuing a warning leads to suppression of the behavior of a criminal, and the risk of harming a specific person can be reduced.

また、報知手段としてのディスプレイ2は、例えば高輝度のバックライト光源を含み、特定人物Mを含む周辺環境を照らす照明機能を有するため、夜間等において犯罪の抑制効果をより高めることができると共に、特定人物Mの移動の安全性を高めることができる。   In addition, the display 2 as the notification means includes, for example, a high-brightness backlight light source and has an illumination function that illuminates the surrounding environment including the specific person M, so that the crime suppression effect can be further enhanced at night, etc. The safety of movement of the specific person M can be improved.

なお、本発明は上記した実施形態に限定されることなく、種々の変形が可能である。例えば、特定人物Mを監視中であることを報知する報知手段や警報手段として、ディスプレイ2やスピーカ7を挙げたが、「監視中であること」「異変が発生したこと」を示しているという社会的なコンセンサスが得られているならば、これに限定されず、単にパイロットランプや所定の光を発する発光素子により報知手段や警報手段を構成してもよい。   The present invention is not limited to the above-described embodiment, and various modifications can be made. For example, although the display 2 and the speaker 7 are cited as the notification means and warning means for notifying that the specific person M is being monitored, it indicates that “the monitoring is being performed” and “anomaly has occurred”. As long as social consensus is obtained, the present invention is not limited to this, and the notification means and the warning means may be configured simply by a pilot lamp or a light emitting element that emits predetermined light.

また、上記した実施形態では、異変検出部5Dにより異変が発生していないと判定されたときに、特定人物Mを監視中であることを報知することとしていたが、例えば、モビルロボットRの電源が入った電源ON信号や、特定人物Mにより監視モードが選択されたモード信号などトリガーとなる信号を受け付ける報知制御部を設け、このような信号が入力されたときに特定人物Mを監視中であることを報知するようにしてもよい。   In the above-described embodiment, when the abnormality detection unit 5D determines that an abnormality has not occurred, the fact that the specific person M is being monitored is notified. For example, the power supply of the mobile robot R A notification control unit is provided for receiving a trigger signal such as a power-on signal containing a signal, a mode signal in which the monitoring mode is selected by the specific person M, and the specific person M is being monitored when such a signal is input. You may make it alert | report that there exists.

また、映像記録部5Cは、過去5分間の特定人物Mの画像を記録することとしたが、より長期の画像を記録するようにしてもよい。そして、データ送信部5Eから画像データの要求があったときに、最新の一定時間(例えば過去5分間)の画像を切り出し可能に構成してもよい。   In addition, the video recording unit 5C records the image of the specific person M for the past 5 minutes, but may record a longer-term image. Then, when there is a request for image data from the data transmission unit 5E, an image of the latest fixed time (for example, the past 5 minutes) may be cut out.

また、画像記録部5Cと同様にマイク8で取得した音を記録する音記録部を設け、異変が発生したときには、データ送信部5Eは、音データも併せて送信するようにしてもよい。   Also, a sound recording unit that records the sound acquired by the microphone 8 as with the image recording unit 5C may be provided, and the data transmission unit 5E may also transmit the sound data when an abnormality occurs.

また、移動手段は2足歩行、4足歩行など他の構造のものであってもよい。また、周囲の障害物(物体)との距離等を認識する手段は、ステレオCCDカメラに限らず、イメージセンサとレーザ測距との組み合わせや、距離イメージセンサ等であってもよい。   Further, the moving means may have other structures such as bipedal walking and quadrupedal walking. In addition, the means for recognizing the distance from surrounding obstacles (objects) is not limited to a stereo CCD camera, and may be a combination of an image sensor and laser distance measurement, a distance image sensor, or the like.

実施形態に係る自律移動型ロボットとしてのモビルロボットおよびその主人としての特定人物を模式的に示す平面図である。It is a top view which shows typically the mobile robot as an autonomous mobile robot which concerns on embodiment, and the specific person as the master. 図1に示したモビルロボットの構造を示す側面図である。It is a side view which shows the structure of the mobile robot shown in FIG. 図2に示したモビルロボットが備える制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the control apparatus with which the mobile robot shown in FIG. 2 is provided. 図3に示した制御装置による処理手順の一部を示すフローチャートである。It is a flowchart which shows a part of process sequence by the control apparatus shown in FIG.

符号の説明Explanation of symbols

1…走行装置、2…ディスプレイ、3…バッテリ、4…ヘッド駆動モータ、5…制御装置、5A…特定人物認識部、5B…カメラ制御部、5C…画像記録部、5D…異変検出部、5E…データ送信部、5M…走行制御モジュール、5Ma…地図DB部、5Mb…環境認識部、5Mc…目的地入力受付部、5Md…追従走行計画部、5Me…走行制御部、6A,6B…CCDカメラ、7…スピーカ、8…マイク、9…位置センサ、10…送信アンテナ、R…モビルロボット、M…特定人物。   DESCRIPTION OF SYMBOLS 1 ... Traveling apparatus, 2 ... Display, 3 ... Battery, 4 ... Head drive motor, 5 ... Control apparatus, 5A ... Specific person recognition part, 5B ... Camera control part, 5C ... Image recording part, 5D ... Abnormality detection part, 5E Data transmission unit, 5M ... travel control module, 5Ma ... map DB unit, 5Mb ... environment recognition unit, 5Mc ... destination input reception unit, 5Md ... follow-up travel plan unit, 5Me ... travel control unit, 6A, 6B ... CCD camera , 7 ... Speaker, 8 ... Microphone, 9 ... Position sensor, 10 ... Transmission antenna, R ... Mobile robot, M ... Specific person.

Claims (3)

特定人物に随伴して移動可能な自律移動型ロボットであって、
前記特定人物を監視していることを周囲に報知する報知手段を備えることを特徴とする自律移動型ロボット。
An autonomous mobile robot that can move with a specific person,
An autonomous mobile robot characterized by comprising notifying means for notifying the surroundings that the specific person is being monitored.
前記特定人物を含む周辺環境の画像情報又は音情報に基づいて、異変を検出する異変検出手段と、
前記異変検出手段により異変を検出した場合に警報を発する警報手段と、
を備えることを特徴とする請求項1に記載の自律移動型ロボット。
Anomaly detection means for detecting an anomaly based on image information or sound information of the surrounding environment including the specific person;
Alarm means for issuing an alarm when anomaly is detected by the anomaly detection means;
The autonomous mobile robot according to claim 1, further comprising:
前記報知手段は、前記特定人物を含む周辺環境を照らす照明機能を有することを特徴とする請求項1又は2に記載の自律移動型ロボット。   The autonomous mobile robot according to claim 1, wherein the notification unit has an illumination function for illuminating a surrounding environment including the specific person.
JP2006088093A 2006-03-28 2006-03-28 Autonomously moving robot Withdrawn JP2007264950A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006088093A JP2007264950A (en) 2006-03-28 2006-03-28 Autonomously moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006088093A JP2007264950A (en) 2006-03-28 2006-03-28 Autonomously moving robot

Publications (1)

Publication Number Publication Date
JP2007264950A true JP2007264950A (en) 2007-10-11

Family

ID=38637887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006088093A Withdrawn JP2007264950A (en) 2006-03-28 2006-03-28 Autonomously moving robot

Country Status (1)

Country Link
JP (1) JP2007264950A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015198767A1 (en) * 2014-06-27 2017-04-20 日本電気株式会社 Anomaly detection device and anomaly detection method
JP2020136828A (en) * 2019-02-15 2020-08-31 シャープ株式会社 Electronic apparatus, control method, and program
WO2022138476A1 (en) 2020-12-23 2022-06-30 パナソニックIpマネジメント株式会社 Method of controlling robot, robot, and program
WO2022138475A1 (en) 2020-12-23 2022-06-30 パナソニックIpマネジメント株式会社 Robot control method, robot, and program
WO2022138474A1 (en) 2020-12-23 2022-06-30 パナソニックIpマネジメント株式会社 Robot control method, robot, program, and recording medium
WO2022153496A1 (en) * 2021-01-15 2022-07-21 日本電気株式会社 Information processing device, information processing method, and program
US11960285B2 (en) 2020-12-23 2024-04-16 Panasonic Intellectual Property Management Co., Ltd. Method for controlling robot, robot, and recording medium

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015198767A1 (en) * 2014-06-27 2017-04-20 日本電気株式会社 Anomaly detection device and anomaly detection method
US10846536B2 (en) 2014-06-27 2020-11-24 Nec Corporation Abnormality detection device and abnormality detection method
US11106918B2 (en) 2014-06-27 2021-08-31 Nec Corporation Abnormality detection device and abnormality detection method
US11250268B2 (en) 2014-06-27 2022-02-15 Nec Corporation Abnormality detection device and abnormality detection method
JP2020136828A (en) * 2019-02-15 2020-08-31 シャープ株式会社 Electronic apparatus, control method, and program
WO2022138475A1 (en) 2020-12-23 2022-06-30 パナソニックIpマネジメント株式会社 Robot control method, robot, and program
WO2022138476A1 (en) 2020-12-23 2022-06-30 パナソニックIpマネジメント株式会社 Method of controlling robot, robot, and program
WO2022138474A1 (en) 2020-12-23 2022-06-30 パナソニックIpマネジメント株式会社 Robot control method, robot, program, and recording medium
US20230176578A1 (en) * 2020-12-23 2023-06-08 Panasonic Intellectual Property Management Co., Ltd. Method for controlling robot, robot, and recording medium
US11886190B2 (en) 2020-12-23 2024-01-30 Panasonic Intellectual Property Management Co., Ltd. Method for controlling robot, robot, and recording medium
US11906966B2 (en) 2020-12-23 2024-02-20 Panasonic Intellectual Property Management Co., Ltd. Method for controlling robot, robot, and recording medium
US11960285B2 (en) 2020-12-23 2024-04-16 Panasonic Intellectual Property Management Co., Ltd. Method for controlling robot, robot, and recording medium
WO2022153496A1 (en) * 2021-01-15 2022-07-21 日本電気株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP7424305B2 (en) Information processing device, information processing method, and program
US11705018B2 (en) Personal navigation system
US20150268338A1 (en) Tracking from a vehicle
CN112660157B (en) Multifunctional remote monitoring and auxiliary driving system for barrier-free vehicle
US20160375862A1 (en) Autonomous traveling apparatus
EP3141234A1 (en) Spectacles for blind person
JP2019510288A (en) Anti-theft monitoring device, system and method
JP2007264950A (en) Autonomously moving robot
US20180151006A1 (en) Systems and methods for an enhanced garage door opener remote control
CN112534487B (en) Information processing apparatus, moving body, information processing method, and program
JP2016177722A (en) Safety driving support device and automatic driving car
JP2007229817A (en) Autonomous mobile robot
JP4784381B2 (en) Autonomous mobile robot
US11886190B2 (en) Method for controlling robot, robot, and recording medium
JP2007279824A (en) Autonomous mobile robot
EP3491628B1 (en) System for monitoring a piece of land, such as a golf course
JP7327963B2 (en) Processing device, photographing device and information processing device
Areef et al. A Study on Cloud and IoT based Accident Detection & Prevention Systems
WO2020241292A1 (en) Signal processing device, signal processing method, program, and imaging device
US11960285B2 (en) Method for controlling robot, robot, and recording medium
US20230053995A1 (en) Robot control method, robot, and recording medium
US20230288934A1 (en) Method for controlling robot, robot, and recording medium
US20230350073A1 (en) Edge and generative ai-based sustainable gps navigated wearable device for blind and visually impaired people
JP7224958B2 (en) Notification device and notification method
JP7414209B2 (en) Autonomous mobile body for security

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090324

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110322