JP2007229817A - Autonomous mobile robot - Google Patents

Autonomous mobile robot Download PDF

Info

Publication number
JP2007229817A
JP2007229817A JP2006050896A JP2006050896A JP2007229817A JP 2007229817 A JP2007229817 A JP 2007229817A JP 2006050896 A JP2006050896 A JP 2006050896A JP 2006050896 A JP2006050896 A JP 2006050896A JP 2007229817 A JP2007229817 A JP 2007229817A
Authority
JP
Japan
Prior art keywords
interest
specific person
mobile robot
interested
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006050896A
Other languages
Japanese (ja)
Inventor
Masamichi Osugi
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006050896A priority Critical patent/JP2007229817A/en
Publication of JP2007229817A publication Critical patent/JP2007229817A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an autonomous mobile robot capable of fetching information on an object, in which a specified person is interested, when the robot moves together with the person. <P>SOLUTION: This mobile robot moves together with a specified person while taking images of a peripheral condition of a specified person by CCD cameras 6A, 6B and controlling driving wheels of a traveling device based on the taken image data by a wheel-in-motor control part 5E. At that time, when a gaze condition determination part 5h detects a gazing condition of a vision of a specified person, an interested-object storing part 5J stores the taken images of the interested object, which the person gazes. Thereafter, an interested-object informing part 5K compares the image of the peripheral condition created by the image creating part 5A with the image including the interested-object stored in the interested object storing part 5J, and informs existence of the interested object of the person by a loudspeaker 7 and a display 2 when the image of the peripheral condition includes the image similar to the interested-object. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、特定人物に随伴して移動可能な自律移動型ロボットに関するものである。   The present invention relates to an autonomous mobile robot that can move along with a specific person.

近年、走行装置や歩行装置により自律的に移動して各種の作業を行うロボットの研究開発が盛んに行われており、その成果として各種の自律移動型ロボットが提案されている(例えば特許文献1、2参照)。   In recent years, research and development of robots that perform various operations by moving autonomously with a traveling device or a walking device have been actively conducted, and various autonomous mobile robots have been proposed as a result (for example, Patent Document 1). 2).

ここで、特許文献1には、特定の被案内者の歩行状態に応じて自律的に移動することで特定の被案内者を所定の案内先まで案内するロボットが提案されている。また、特許文献2には、駐車場内において車両の運転者に適切な情報を提供して車両を駐車区画へ誘導するロボットが提案されている。
特開2003−340764号公報 特開2005−290813号公報
Here, Patent Document 1 proposes a robot that guides a specific guided person to a predetermined guidance destination by autonomously moving according to the walking state of the specific guided person. Patent Document 2 proposes a robot that provides appropriate information to a driver of a vehicle in a parking lot and guides the vehicle to a parking section.
Japanese Patent Laid-Open No. 2003-340764 JP-A-2005-290813

ところで、特許文献1に記載された従来の自律移動型ロボットにおいては、被案内者を特定することはできても、その特定人物が興味を示した対象物を特定することができないため、特定人物が興味を示した興味対象物の情報を取得することができないという問題がある。特許文献2に記載された自律移動型ロボットにおいても同様の問題がある。   By the way, in the conventional autonomous mobile robot described in Patent Document 1, even though it is possible to identify the guided person, it is not possible to identify the object that the specific person has shown an interest in. There is a problem that it is not possible to acquire information on an object of interest that has shown interest. The autonomous mobile robot described in Patent Document 2 has the same problem.

そこで、本発明は、特定人物に随伴して移動する際、特定人物が興味を示した興味対象物の情報を取得することができる自律移動型ロボットを提供することを課題とする。   Accordingly, an object of the present invention is to provide an autonomous mobile robot that can acquire information on an object of interest that a specific person has shown an interest when moving with the specific person.

本発明に係る自律移動型ロボットは、特定人物を含む周辺状況を観測しつつその観測情報に基づき特定人物に随伴して移動可能な自律移動型ロボットにおいて、特定人物の視線の注視状態を検出する注視状態検出手段と、特定人物が注視した対象物を特定人物の興味対象物としてその興味対象物の観察情報を記憶する興味対象物記憶手段とを備えていることを特徴とする。   An autonomous mobile robot according to the present invention detects a gaze state of a specific person's line of sight in an autonomous mobile robot that can move along with a specific person based on observation information while observing a surrounding situation including the specific person. It is characterized by comprising gaze state detection means and interest object storage means for storing observation information of the object of interest as the object of interest of the person with the object gazeed by the specific person.

本発明に係る自律移動型ロボットでは、特定人物を含む周辺状況を観測しつつその観測情報に基づき特定人物に随伴して移動する際、特定人物の視線の注視状態を注視状態検出手段が検出すると、特定人物が注視した興味対象物の観察情報を興味対象物記憶手段が記憶する。   In the autonomous mobile robot according to the present invention, when the gaze state detecting means detects the gaze state of the gaze of the specific person while moving along with the specific person based on the observation information while observing the surrounding situation including the specific person. The interest object storage means stores observation information of the object of interest that the specific person gazes at.

本発明の自律移動型ロボットには、興味対象物記憶手段に記憶された興味対象物の観察情報を周辺状況の観測情報と比較し、この周辺状況の観測情報に興味対象物の観察情報と類似する情報が含まれている場合に興味対象物の存在を報知する興味対象物報知手段を備えることができる。   In the autonomous mobile robot of the present invention, the observation information of the object of interest stored in the object of interest storage means is compared with the observation information of the surrounding situation, and the observation information of the surrounding situation is similar to the observation information of the object of interest. An interest object notifying means for notifying the presence of the object of interest when the information to be included is included can be provided.

この興味対象物報知手段を備えた本発明の自律移動型ロボットでは、特定人物の興味対象物の存在を興味対象物報知手段が報知することにより、特定人物は周辺に興味対象物が存在することを認識することができる。   In the autonomous mobile robot of the present invention provided with this interesting object notification means, the interesting object notification means informs the existence of the interesting object of the specific person, so that the specific person has the interesting object in the vicinity. Can be recognized.

本発明に係る自律移動型ロボットでは、特定人物の視線の注視状態を注視状態検出手段が検出すると、特定人物が注視した興味対象物の観察情報を興味対象物記憶手段が記憶する。すなわち、本発明の自律移動型ロボットによれば、特定人物に随伴して移動する際、特定人物が興味を示した興味対象物の情報を取得することができる。   In the autonomous mobile robot according to the present invention, when the gaze state detection unit detects the gaze state of the gaze of the specific person, the interest object storage unit stores observation information of the object of interest that the specific person gazes at. That is, according to the autonomous mobile robot of the present invention, it is possible to acquire information on an object of interest that the specific person has shown interest when moving with the specific person.

また、興味対象物報知手段を備えた本発明の自律移動型ロボットによれば、特定人物の興味対象物の存在を興味対象物報知手段が報知することにより、特定人物は周辺に興味対象物が存在することを認識することができる。   Further, according to the autonomous mobile robot of the present invention provided with the interest object notification means, the interest object notification means notifies the presence of the interest object of the specific person, so that the specific person has the interest object in the vicinity. It can be recognized that it exists.

以下、図面を参照して本発明に係る自律移動型ロボットの実施形態を説明する。参照する図面において、図1は一実施形態に係る自律移動型ロボットとしてのモビルロボットおよびその主人としての特定人物を模式的に示す平面図、図2は図1に示したモビルロボットの構造を示す側面図、図3は図2に示した制御装置の構成を示すブロック図、図4は図3に示した制御装置による処理手順の一部を示すフローチャートである。   Hereinafter, embodiments of an autonomous mobile robot according to the present invention will be described with reference to the drawings. In the drawings to be referred to, FIG. 1 is a plan view schematically showing a mobile robot as an autonomous mobile robot according to an embodiment and a specific person as a master, and FIG. 2 shows a structure of the mobile robot shown in FIG. FIG. 3 is a side view, FIG. 3 is a block diagram showing a configuration of the control device shown in FIG. 2, and FIG. 4 is a flowchart showing a part of a processing procedure by the control device shown in FIG.

一実施形態に係る自律移動型ロボットは、図1に示すように、主人としての特定人物Mに随伴して移動可能なモビルロボットRとして構成されている。このモビルロボットRは、特定人物Mの近傍において、特定人物Mおよびその周辺状況を観測しつつその観測情報に基づいて特定人物Mを先導し、あるいは特定人物Mに追従する。   As shown in FIG. 1, the autonomous mobile robot according to an embodiment is configured as a mobile robot R that can move along with a specific person M as a master. The mobile robot R leads the specific person M or follows the specific person M based on the observation information while observing the specific person M and its surroundings in the vicinity of the specific person M.

図2に示すように、モビルロボットRは、走行装置1により移動可能なボディR1と、このボディR1に対して回転可能に接続されたヘッドR2とを備えており、ボディR1には、報知、警報、案内などの各種のメッセージを画像や文字により表示可能なディスプレイ2が設置されている。そして、このボディR1には、電源としてのバッテリ3、ヘッドR2を回転駆動するためのヘッド駆動モータ4の他、走行装置1、ディスプレイ2、ヘッド駆動モータ4などを制御するための制御装置5が内蔵されている。   As shown in FIG. 2, the mobile robot R includes a body R1 that can be moved by the traveling device 1 and a head R2 that is rotatably connected to the body R1. A display 2 capable of displaying various messages such as alarms and guidance with images and characters is installed. The body R1 includes a battery 3 as a power source, a head drive motor 4 for rotationally driving the head R2, and a control device 5 for controlling the travel device 1, the display 2, the head drive motor 4, and the like. Built in.

一方、モビルロボットRのヘッドR2には、特定人物Mおよびその周辺に存在する障害物(他の人物や動物、構造物、設置物、車両等)などを含む周辺状況をステレオ画像として観測するための左右一対のCCDカメラ(または赤外線カメラ)6A,6Bと、報知、警報、案内などの各種メッセージの音声を発声可能なスピーカ7とが設置されている。   On the other hand, in the head R2 of the mobile robot R, in order to observe a surrounding situation including a specific person M and obstacles (another person, animal, structure, installation, vehicle, etc.) existing around it as a stereo image. A pair of left and right CCD cameras (or infrared cameras) 6A and 6B and a speaker 7 capable of producing voices of various messages such as notifications, warnings, and guidance are installed.

図1および図2に示すように、走行装置1は、例えば、ホイールインモータ1A,1Bにより回転方向および回転速度が左右独立に制御される左右一対の駆動車輪1C,1Dと、360度の旋回が可能なキャスタ車輪1Eとを有する。   As shown in FIGS. 1 and 2, the traveling device 1 includes, for example, a pair of left and right drive wheels 1C and 1D whose rotation direction and rotation speed are independently controlled by wheel-in motors 1A and 1B, and a 360-degree turn. It is possible to have caster wheels 1E.

この走行装置1は、左右一対の駆動車輪1C,1Dが同方向に前転駆動または後転駆動されることでモビルロボットRを前進または後退させる。その際、左右一対の駆動車輪1C,1Dの回転速度が同速度であればモビルロボットRを直進させ、左右一対の駆動車輪1C,1Dの回転速度に差があれば駆動車輪1C,1Dのうち回転速度の遅い側にモビルロボットRを旋回させる。そして、この走行装置1は、左右一対の駆動車輪1C,1Dが同速度で相互に逆方向に回転駆動されると、モビルロボットRをその場で左右の何れかに回転させる。   The traveling device 1 moves the mobile robot R forward or backward by driving the pair of left and right drive wheels 1C and 1D forward or backward in the same direction. At that time, if the rotational speeds of the pair of left and right drive wheels 1C, 1D are the same, the mobile robot R moves straight, and if there is a difference between the rotational speeds of the pair of left and right drive wheels 1C, 1D, The mobile robot R is turned to the slow rotation side. When the pair of left and right drive wheels 1C and 1D are driven to rotate in the opposite directions at the same speed, the traveling device 1 rotates the mobile robot R to the left or right on the spot.

ここで、制御装置5は、ECU(Electric Control Unit)等のマイクロコンピュータのハードウェアおよびソフトウェアを利用して構成されている。この制御装置5は、ホイールインモータ1A,1Bやヘッド駆動モータ4の駆動回路、ディスプレイ2、CCDカメラ6A,6B、スピーカ7等との間の入出力インターフェースI/OおよびA/Dコンバータの他、プログラムおよびデータを記憶したROM(ReadOnly Memory)、入力データ等を一時記憶するRAM(Random Access Memory)、プログラムを実行するCPU(CentralProcessing Unit)等をハードウェアとして備えている。   Here, the control device 5 is configured by using microcomputer hardware and software such as an ECU (Electric Control Unit). The control device 5 includes a drive circuit for the wheel-in motors 1A and 1B and the head drive motor 4, an input / output interface I / O between the display 2, the CCD cameras 6A and 6B, the speaker 7, and the A / D converter. A ROM (Read Only Memory) that stores programs and data, a RAM (Random Access Memory) that temporarily stores input data and the like, a CPU (Central Processing Unit) that executes programs, and the like are provided as hardware.

そして、この制御装置5には、図3に示すように、画像生成部5A、特定人物検出部5B、ヘッド駆動モータ制御部5C、障害物検出部5D、ホイールインモータ制御部5E、注視点検出部5F、注視点軌跡記録部5G、注視状態判定部5H、興味対象物記憶部5J、興味対象物報知部5Kがソフトウェアとして構成されている。   As shown in FIG. 3, the control device 5 includes an image generation unit 5A, a specific person detection unit 5B, a head drive motor control unit 5C, an obstacle detection unit 5D, a wheel-in motor control unit 5E, and a gaze point detection. The unit 5F, the gaze point locus recording unit 5G, the gaze state determination unit 5H, the interesting object storage unit 5J, and the interesting object notification unit 5K are configured as software.

画像生成部5Aには、CCDカメラ6A,6Bから左右の撮影データが所定時間毎に計測時刻情報と共に入力される。この画像生成部5Aは、所定時間毎に入力された左右の撮影データに基づいて各計測時刻におけるステレオ画像を順次生成し、その画像データを計測時刻情報と共に特定人物検出部5B、障害物検出部5D、注視点検出部5F、興味対象物記憶部5Jおよび興味対象物報知部5Kへ所定時間毎に繰り返して出力する。   Left and right image data are input to the image generation unit 5A from the CCD cameras 6A and 6B together with measurement time information at predetermined intervals. The image generation unit 5A sequentially generates a stereo image at each measurement time based on left and right photographing data input every predetermined time, and the image data together with the measurement time information is a specific person detection unit 5B, an obstacle detection unit. 5D, the gazing point detection unit 5F, the interesting object storage unit 5J, and the interesting object notification unit 5K are repeatedly output every predetermined time.

特定人物検出部5Bは、画像生成部5Aから所定時間毎に順次入力される画像データに基づいて撮影画像のエッジ処理を行い、予め記憶されている特定人物Mの輪郭モデルとのマッチング処理により特定人物Mを検出する。そして、この特定人物検出部5Bは、検出された特定人物Mのステレオ画像をステレオマッチング処理することにより、特定人物Mの3次元位置を三角測量の原理で所定時間毎に推測する。   The specific person detection unit 5B performs edge processing of the captured image based on the image data sequentially input from the image generation unit 5A every predetermined time, and specifies by matching processing with the contour model of the specific person M stored in advance. A person M is detected. And this specific person detection part 5B presumes the three-dimensional position of the specific person M for every predetermined time by the principle of triangulation by carrying out the stereo matching process of the stereo image of the detected specific person M.

ヘッド駆動モータ制御部5Cには、特定人物検出部5Bから特定人物Mの3次元位置データが所定時間毎に入力される。このヘッド駆動モータ制御部5Cは、入力された特定人物Mの3次元位置データに基づき、特定人物Mが例えば画像中央に位置するようにヘッド駆動モータ4の回転を制御してモビルロボットRのヘッドR2を回転させる。   The head drive motor controller 5C receives the three-dimensional position data of the specific person M from the specific person detection unit 5B every predetermined time. The head drive motor control unit 5C controls the rotation of the head drive motor 4 so that the specific person M is located at the center of the image, for example, based on the input three-dimensional position data of the specific person M, and the head of the mobile robot R Rotate R2.

障害物検出部5Dは、画像生成部5Aから所定時間毎に順次入力された画像データに基づいて撮影画像のエッジ処理を行うことにより、撮影画像中に存在する障害物(他の人物や動物、構造物、設置物、車両等)を検出する。そして、この障害物検出部5Dは、検出された障害物のステレオ画像をステレオマッチング処理することにより、障害物の3次元位置を三角測量の原理で所定時間毎に推測する。   The obstacle detection unit 5D performs edge processing of the photographed image based on the image data sequentially input from the image generation unit 5A every predetermined time, so that the obstacle (other person or animal, Detect structures, installations, vehicles, etc.). And this obstacle detection part 5D presumes the three-dimensional position of an obstacle for every predetermined time by the principle of a triangulation by carrying out the stereo matching process of the stereo image of the detected obstacle.

ホイールインモータ制御部5Eには、特定人物検出部5Bから特定人物Mの3次元位置データが所定時間毎に入力されると共に、障害物検出部5Dから障害物の3次元位置データが所定時間毎に入力される。このホイールインモータ制御部5Eは、入力された特定人物Mおよび障害物の3次元位置データに基づき、モビルロボットRが特定人物Mの近傍において障害物を避けつつ特定人物Mを先導し、あるいは特定人物Mに追従するように、ホイールインモータ1A,1Bの回転を個別に制御して走行装置1の駆動車輪1C,1Dの回転方向および回転速度を個別に制御する。   The wheel-in motor control unit 5E receives the three-dimensional position data of the specific person M from the specific person detection unit 5B every predetermined time and the obstacle three-dimensional position data from the obstacle detection unit 5D every predetermined time. Is input. The wheel-in motor control unit 5E guides or identifies the specific person M while avoiding the obstacle in the vicinity of the specific person M by the mobile robot R based on the input specific person M and the three-dimensional position data of the obstacle. In order to follow the person M, the rotation of the wheel-in motors 1A and 1B is individually controlled to individually control the rotation direction and the rotation speed of the drive wheels 1C and 1D of the traveling device 1.

ここで、CCDカメラ6A,6B、画像生成部5A、注視点検出部5F、注視点軌跡記録部5Gおよび注視状態判定部5Hにより本発明の注視状態検出手段が構成され、興味対象物記憶部5Jにより本発明の興味対象物記憶手段が構成され、興味対象物報知部5K、ディスプレイ2およびスピーカ7により本発明の興味対象物報知手段が構成されている。   Here, the CCD camera 6A, 6B, the image generation unit 5A, the gazing point detection unit 5F, the gazing point locus recording unit 5G, and the gazing state determination unit 5H constitute the gazing state detection unit of the present invention, and the object of interest storage unit 5J. Thus, the interested object storage means of the present invention is configured, and the interested object notification unit 5K, the display 2 and the speaker 7 constitute the interesting object notification means of the present invention.

注視点検出部5Fは、画像生成部5Aから所定時間毎に順次入力される画像データに基づいて撮影画像中から特定人物Mの両眼の画像を抽出し、その画像にエッジ処理を施すことで両眼の黒目の位置を検出する。そして、この注視点検出部5Fは、検出した黒目の位置を予め記憶されている眼球モデルと比較することで両眼の注視点を3次元位置データとして所定時間毎に検出する。   The gazing point detection unit 5F extracts the binocular image of the specific person M from the photographed image based on the image data sequentially input from the image generation unit 5A every predetermined time, and performs edge processing on the image. The position of the black eye of both eyes is detected. The gazing point detection unit 5F detects the position of the detected black eye with a pre-stored eyeball model, thereby detecting the gazing point of both eyes as three-dimensional position data at predetermined time intervals.

注視点軌跡記録部5Gには、注視点検出部5Fから特定人物Mの両眼の注視点の検出データが所定時間(例えば5秒程度)入力される。そして、この注視点軌跡記録部5Gは、3次元位置データとして入力された検出データに基づき、特定人物Mの両眼の注視点の軌跡を記録する。   The gazing point locus recording unit 5G receives detection data of the gazing point of both eyes of the specific person M from the gazing point detection unit 5F for a predetermined time (for example, about 5 seconds). The gazing point locus recording unit 5G records the locus of the gazing point of both eyes of the specific person M based on the detection data input as the three-dimensional position data.

注視状態判定部5Hには、注視点軌跡記録部5Gから特定人物Mの両眼の注視点軌跡の記録データが入力される。そして、この注視状態判定部5Hは、入力された注視点軌跡の記録データに基づき、注視点が所定時間(例えば3秒程度)停留した場合、あるいは注視点の移動範囲が注視状態とみなせる程度に狭い場合には、特定人物Mの両眼が注視状態にあるものと判定して注視状態の判定信号を興味対象物記憶部5Jに出力する。   The gaze state determination unit 5H receives record data of the gazing point locus of both eyes of the specific person M from the gazing point locus recording unit 5G. Then, the gaze state determination unit 5H determines that the gaze point is stopped for a predetermined time (for example, about 3 seconds) or the movement range of the gaze point can be regarded as the gaze state based on the input record data of the gaze point locus. If it is narrow, it is determined that both eyes of the specific person M are in the gaze state, and a gaze state determination signal is output to the object-of-interest storage unit 5J.

興味対象物記憶部5Jは、注視状態判定部5Hから注視状態の判定信号が入力されると、特定人物Mが注視した対象物Oを特定人物Mの興味対象物としてその興味対象物を含む周辺状況の観察情報を記憶する。すなわち、興味対象物記憶部5Jは、画像生成部5Aから所定時間毎に順次入力される画像データのうち、特定人物Mが対象物Oを注視した計測時刻における画像データに基づいて撮影画像にエッジ処理を施し、そのエッジ処理された撮影画像のデータを記憶する。   When the interest state storage unit 5J receives a gaze state determination signal from the gaze state determination unit 5H, the object O gazeed by the specific person M is included as an interest object of the specific person M and includes the interest object Memorize situation observation information. That is, the interested object storage unit 5J provides an edge to the captured image based on the image data at the measurement time when the specific person M gazes at the object O among the image data sequentially input from the image generation unit 5A every predetermined time. Processing is performed, and the data of the captured image subjected to the edge processing is stored.

興味対象物報知部5Kは、画像生成部5Aから所定時間毎に順次入力される画像データに基づいて撮影画像にエッジ処理を施し、そのエッジ処理された周辺状況の撮影画像のデータと、興味対象物記憶部5Jにエッジ処理されて記憶されている興味対象物を含む撮影画像のデータとを比較する。その際、撮影画像中の輝度値の配列パターンも比較する。   The interested object notifying unit 5K performs edge processing on the captured image based on the image data sequentially input from the image generating unit 5A every predetermined time, and the captured image data of the peripheral situation subjected to the edge processing, and the object of interest The captured image data including the object of interest stored in the object storage unit 5J after edge processing is compared. At that time, the arrangement pattern of the luminance values in the photographed image is also compared.

この興味対象物報知部5Kは、比較される周辺状況の撮影画像データ中に興味対象物に類似する画像のデータが含まれている場合には、特定人物Mの周辺に興味対象物が存在することをスピーカ7およびディスプレイ2によって報知する。すなわち、興味対象物報知部5Kは、スピーカ7に所定の音声信号を出力して報知音または報知メッセージを発声させると共に、ディスプレイ2に所定の画像信号を出力して報知用の画像や文字のメッセージを表示させる。   The interested object notifying unit 5K includes an object of interest in the vicinity of the specific person M when image data similar to the object of interest is included in the captured image data of the surrounding situation to be compared. This is notified by the speaker 7 and the display 2. That is, the object-of-interest notification unit 5K outputs a predetermined sound signal to the speaker 7 to utter a notification sound or a notification message, and outputs a predetermined image signal to the display 2 to output a notification image or text message. Is displayed.

ここで、図3に示した制御装置5を構成する画像生成部5A、注視点検出部5F、注視点軌跡記録部5G、注視状態判定部5Hおよび興味対象物報知部5Kによる処理手順を図4に示すフローチャートに沿って説明する。   Here, the processing procedure by the image generation unit 5A, the gazing point detection unit 5F, the gazing point locus recording unit 5G, the gazing state determination unit 5H, and the object of interest notification unit 5K constituting the control device 5 shown in FIG. It demonstrates along the flowchart shown in FIG.

まず、ステップS1では、CCDカメラ6A,6Bから所定時間毎に計測時刻情報と共に入力される左右の撮影データに基づき、各計測時刻における特定人物Mを含む周辺状況のステレオ画像を画像生成部5Aが順次生成する。   First, in step S1, the image generation unit 5A generates a stereo image of the surrounding situation including the specific person M at each measurement time based on the left and right photographing data input together with the measurement time information from the CCD cameras 6A and 6B every predetermined time. Generate sequentially.

つぎのステップS2では、画像生成部5Aから所定時間毎に順次入力される画像データに基づき、特定人物Mの両眼の黒目の位置を注視点検出部5Fが検出する。そして、検出した黒目の位置を予め記憶されている眼球モデルと比較することにより、注視点検出部5Fが両眼の注視点を3次元位置データとして所定時間毎に検出する。   In the next step S2, the gazing point detection unit 5F detects the positions of the black eyes of both eyes of the specific person M based on the image data sequentially input from the image generation unit 5A every predetermined time. Then, by comparing the detected position of the black eye with a pre-stored eyeball model, the gazing point detection unit 5F detects the gazing point of both eyes as three-dimensional position data at predetermined time intervals.

続くステップS3では、注視点検出部5Fから所定時間毎に入力される注視点の検出データに基づき、注視点軌跡記録部5Gが特定人物Mの両眼の注視点の軌跡を記録する。   In subsequent step S3, the gazing point locus recording unit 5G records the gazing point locus of both eyes of the specific person M based on the gazing point detection data input from the gazing point detection unit 5F every predetermined time.

つぎのステップS4では、注視点軌跡記録部5Gから入力される注視点軌跡の記録データに基づき、特定人物Mの両眼が注視状態にあるか否かを注視状態判定部5Hが判定する。この判定においては、注視点が所定時間(例えば3秒程度)停留した場合、あるいは注視点の移動範囲が注視状態とみなせる程度に狭い場合に注視状態であるものと判定し、それ以外の場合には注視状態でないものと判定する。   In the next step S4, the gaze state determination unit 5H determines whether or not both eyes of the specific person M are in the gaze state based on the data of the gaze point locus input from the gaze point locus recording unit 5G. In this determination, when the gazing point is stopped for a predetermined time (for example, about 3 seconds) or when the moving range of the gazing point is narrow enough to be regarded as the gazing state, the gazing state is determined. Is determined not to be in a gaze state.

ステップS4の判定結果がNOであって注視状態でない場合には、ステップS1に戻るが、判定結果がYESであって注視状態である場合には、つぎのステップS5に進む。   If the determination result in step S4 is NO and not the gaze state, the process returns to step S1, but if the determination result is YES and the gaze state is established, the process proceeds to the next step S5.

つぎのステップS5では、注視状態判定部5Hから入力されるYESの判定信号に応じ、特定人物Mが注視した興味対象物を含む周辺状況の画像データとして画像生成部5Aから入力される画像データを興味対象物記憶部5Jが記憶する。その際、興味対象物記憶部5Jは、特定人物Mが対象物Oを注視した計測時刻における画像データに基づいて撮影画像にエッジ処理を施し、そのエッジ処理された撮影画像のデータを記憶する。   In the next step S5, the image data input from the image generation unit 5A as the image data of the surrounding situation including the object of interest that the specific person M watched in accordance with the YES determination signal input from the gaze state determination unit 5H. The object of interest storage unit 5J stores it. At that time, the interested object storage unit 5J performs edge processing on the captured image based on the image data at the measurement time when the specific person M gazes at the object O, and stores the data of the captured image subjected to the edge processing.

続くステップS6では、画像生成部5Aから興味対象物記憶部5Jに所定時間毎に順次入力されてエッジ処理された周辺状況の撮影画像データと、興味対象物記憶部5Jにエッジ処理されて記憶されている興味対象物を含む撮影画像データとを比較することにより、比較される周辺状況の撮影画像データ中に興味対象物に類似する画像のデータが含まれているか否かを興味対象物報知部5Kが判定する。   In the subsequent step S6, the captured image data of the peripheral situation that is sequentially input from the image generating unit 5A to the object of interest storage unit 5J at every predetermined time and subjected to edge processing, and edge processing of the object of interest storage unit 5J is stored. The target object notification unit determines whether or not the image data similar to the target object is included in the captured image data of the peripheral situation to be compared by comparing the captured image data including the target object of interest. 5K determines.

ステップS6の判定結果がNOであって周辺状況の撮影画像データ中に興味対象物に類似する画像データが含まれていない場合には、一連の処理を終了するが、判定結果がYESであって興味対象物に類似する画像データが含まれている場合には、つぎのステップS7に進む。   If the determination result in step S6 is NO and the image data similar to the object of interest is not included in the captured image data in the surrounding situation, the series of processing ends, but the determination result is YES. If image data similar to the object of interest is included, the process proceeds to the next step S7.

つぎのステップS7では、興味対象物報知部5Kがスピーカ7に所定の音声信号を出力して報知音または報知メッセージを発声させると共に、ディスプレイ2に所定の画像信号を出力して報知用の画像や文字のメッセージを表示させることにより、特定人物Mの周辺に興味対象物が存在することを報知する。   In the next step S7, the object-of-interest notification unit 5K outputs a predetermined sound signal to the speaker 7 to utter a notification sound or a notification message, and outputs a predetermined image signal to the display 2 to output an image for notification or By displaying a text message, it is notified that there is an object of interest around the specific person M.

以上のように一実施形態の自律移動型ロボットとして構成されたモビルロボットR(図1、図2参照)は、特定人物Mを含む周辺状況をCCDカメラ6A,6Bにより撮影しつつ、その撮影画像のデータに基づいて走行装置1の左右一対の駆動車輪1C,1Dの回転方向および回転速度を左右独立に制御することにより、特定人物Mの近傍に随伴して障害物を避けつつ特定人物Mを先導し、あるいは特定人物Mに追従する。   As described above, the mobile robot R (see FIGS. 1 and 2) configured as the autonomous mobile robot according to the embodiment captures the surrounding situation including the specific person M with the CCD cameras 6A and 6B, and the captured image. Based on this data, the rotation direction and the rotation speed of the pair of left and right drive wheels 1C, 1D of the traveling device 1 are independently controlled so that the specific person M can be avoided while avoiding obstacles in the vicinity of the specific person M. Lead or follow a specific person M.

その際、モビルロボットRは、制御装置5の注視状態判定部5Hにより特定人物Mの視線の注視状態を検出すると、特定人物Mが注視した興味対象物を含む周辺状況のエッジ処理された撮影画像のデータを興味対象物記憶部5Jに記憶させる。   At that time, when the mobile robot R detects the gaze state of the line of sight of the specific person M by the gaze state determination unit 5H of the control device 5, the captured image of the peripheral situation including the object of interest that the specific person M has watched is edge-processed. Is stored in the object storage unit 5J.

その後、モビルロボットRは、制御装置5の興味対象物報知部5Kにより、画像生成部5Aで生成された周辺状況の画像を興味対象物記憶部5Jに記憶された興味対象物を含む画像と比較する。そして、この比較処理の結果、画像生成部5Aで生成された周辺状況の画像に興味対象物と類似する画像が含まれている場合、モビルロボットRは、興味対象物報知部5Kからスピーカ7に所定の音声信号を出力して報知音または報知メッセージを発声させると共に、興味対象物報知部5Kからディスプレイ2に所定の画像信号を出力して報知用の画像や文字のメッセージを表示させ、特定人物Mの周辺に興味対象物が存在することを報知する。   After that, the mobile robot R compares the image of the surrounding situation generated by the image generating unit 5A with the image including the target object stored in the target object storage unit 5J by the target object notifying unit 5K of the control device 5. To do. Then, as a result of this comparison processing, if the image of the surrounding situation generated by the image generation unit 5A includes an image similar to the object of interest, the mobile robot R sends the interest object notification unit 5K to the speaker 7. A predetermined sound signal is output and a notification sound or a notification message is uttered, and a predetermined image signal is output from the interested object notification unit 5K to the display 2 to display a notification image or a text message. Notify that there is an object of interest around M.

従って、一実施形態の自律移動型ロボットとして構成されたモビルロボットRによれば、特定人物Mが注視した興味対象物の情報を興味対象物記憶部5Jに記憶された画像データとして取得することができ、興味対象物記憶部5Jに記憶された画像データから特定人物Mが興味を示した興味対象物を認識することが可能となる。   Therefore, according to the mobile robot R configured as the autonomous mobile robot according to the embodiment, it is possible to acquire the information on the object of interest that the specific person M gazes at as the image data stored in the object of interest storage unit 5J. It is possible to recognize the object of interest that the specific person M has shown interest from the image data stored in the object of interest storage unit 5J.

また、このようなモビルロボットRによれば、特定人物Mは、スピーカ7から発声される報知音または報知メッセージと、ディスプレイ2に表示される報知用の画像や文字とによって、自分にとって興味のある興味対象物が自分の周辺に存在することを認識することができる。   Further, according to such a mobile robot R, the specific person M is interested in himself / herself by the notification sound or notification message uttered from the speaker 7 and the notification image or character displayed on the display 2. Recognize that the object of interest exists around you.

本発明に係る自律移動型ロボットは、前述した一実施形態に限定されるものではない。例えば、図2に示したモビルロボットRのヘッドR2には、特定人物およびその周辺に存在する障害物までの距離やその表面の凹凸状態などを観測するためのミリ波レーダ(またはレーザレーダ)を設置してもよい。また、特定人物の周辺にいる他の人物や動物を観測するための赤外線センサ、特定人物の周辺の音を観測するための集音マイク、あるいは特定人物の周辺の温度を観測するための温度センサなどを設置してもよい。   The autonomous mobile robot according to the present invention is not limited to the above-described embodiment. For example, the head R2 of the mobile robot R shown in FIG. 2 is equipped with a millimeter wave radar (or laser radar) for observing the distance to a specific person and obstacles around the specific person and the surface roughness of the person. May be installed. Also, an infrared sensor for observing other people and animals around the specific person, a sound collecting microphone for observing sounds around the specific person, or a temperature sensor for observing the temperature around the specific person Etc. may be installed.

ミリ波レーダ(またはレーザレーダ)、赤外線センサ、集音マイク、温度センサなどをヘッドR2に備えたモビルロボットRにおいては、特定人物が注視状態にあるときの興味対象物の観察情報として、CCDカメラによるに観察情報に加えてミリ波レーダ(またはレーザレーダ)、赤外線センサ、集音マイク、温度センサからの観測情報を興味対象物記憶部に記憶させることができる。   In the mobile robot R having a millimeter wave radar (or laser radar), an infrared sensor, a sound collecting microphone, a temperature sensor and the like in the head R2, a CCD camera is used as observation information of an object of interest when a specific person is in a gaze state. Therefore, in addition to the observation information, observation information from the millimeter wave radar (or laser radar), infrared sensor, sound collecting microphone, and temperature sensor can be stored in the object storage unit.

本発明の一実施形態に係る自律移動型ロボットとしてのモビルロボットおよびその主人としての特定人物を模式的に示す平面図である。It is a top view which shows typically the mobile robot as an autonomous mobile robot which concerns on one Embodiment of this invention, and the specific person as its master. 図1に示したモビルロボットの構造を示す側面図である。It is a side view which shows the structure of the mobile robot shown in FIG. 図2に示した制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the control apparatus shown in FIG. 図3に示した制御装置による処理手順の一部を示すフローチャートである。It is a flowchart which shows a part of process sequence by the control apparatus shown in FIG.

符号の説明Explanation of symbols

1…走行装置、2…ディスプレイ、3…バッテリ、4…ヘッド駆動モータ、5…制御装置、5A…画像生成部、5B…特定人物検出部、5C…ヘッド駆動モータ制御部、5D…障害物検出部、5E…ホイールインモータ制御部、5F…注視点検出部、5G…注視点軌跡記録部、5H…注視状態判定部、5J…興味対象物記憶部、5K…興味対象物報知部、6A,6B…CCDカメラ、7…スピーカ、R…モビルロボット、M…特定人物。   DESCRIPTION OF SYMBOLS 1 ... Traveling apparatus, 2 ... Display, 3 ... Battery, 4 ... Head drive motor, 5 ... Control apparatus, 5A ... Image generation part, 5B ... Specific person detection part, 5C ... Head drive motor control part, 5D ... Obstacle detection , 5E ... wheel in motor control unit, 5F ... gazing point detection unit, 5G ... gazing point locus recording unit, 5H ... gaze state determination unit, 5J ... interest object storage unit, 5K ... interest object notification unit, 6A, 6B ... CCD camera, 7 ... Speaker, R ... Mobile robot, M ... Specific person.

Claims (2)

特定人物を含む周辺状況を観測しつつその観測情報に基づき特定人物に随伴して移動可能な自律移動型ロボットにおいて、
特定人物の視線の注視状態を検出する注視状態検出手段と、
特定人物が注視した対象物を特定人物の興味対象物としてその興味対象物の観察情報を記憶する興味対象物記憶手段とを備えていることを特徴とする自律移動型ロボット。
In an autonomous mobile robot that can move along with a specific person while observing the surrounding situation including the specific person,
Gaze state detection means for detecting a gaze state of the gaze of a specific person;
An autonomous mobile robot characterized by comprising an object-of-interest storage means for storing observation information of an object of interest as an object of interest of the specific person, with the object of interest of the specific person as the object of interest.
請求項1に記載の自律移動型ロボットであって、前記興味対象物記憶手段に記憶された興味対象物の観察情報を周辺状況の観測情報と比較し、この周辺状況の観測情報に前記興味対象物の観察情報と類似する情報が含まれている場合に興味対象物の存在を報知する興味対象物報知手段を備えていることを特徴とする自律移動型ロボット。   2. The autonomous mobile robot according to claim 1, wherein observation information of an object of interest stored in the object of interest storage unit is compared with observation information of a surrounding situation, and the interest information is included in the observation information of the surrounding situation. An autonomous mobile robot characterized by comprising interest object notifying means for notifying the presence of an object of interest when information similar to the observation information of the object is included.
JP2006050896A 2006-02-27 2006-02-27 Autonomous mobile robot Pending JP2007229817A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006050896A JP2007229817A (en) 2006-02-27 2006-02-27 Autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006050896A JP2007229817A (en) 2006-02-27 2006-02-27 Autonomous mobile robot

Publications (1)

Publication Number Publication Date
JP2007229817A true JP2007229817A (en) 2007-09-13

Family

ID=38550929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006050896A Pending JP2007229817A (en) 2006-02-27 2006-02-27 Autonomous mobile robot

Country Status (1)

Country Link
JP (1) JP2007229817A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009183538A (en) * 2008-02-07 2009-08-20 Saitama Univ Wheelchair with autonomous traveling ability
EP3338963A1 (en) * 2016-12-23 2018-06-27 LG Electronics Inc. -1- Guide robot
JP2018158393A (en) * 2017-03-22 2018-10-11 日本電気株式会社 Safety control device, safety control method and program
US10737393B2 (en) 2016-12-23 2020-08-11 Lg Electronics Inc. Guidance robot
US10750920B2 (en) 2017-03-28 2020-08-25 Lg Electronics Inc. Control method of robot system including plurality of moving robots
US10759045B2 (en) 2016-12-23 2020-09-01 Lg Electronics Inc. Robot
JP2021013981A (en) * 2019-07-11 2021-02-12 京セラドキュメントソリューションズ株式会社 Robot device, control system of robot device and control method of robot device
JP2021064067A (en) * 2019-10-10 2021-04-22 沖電気工業株式会社 Apparatus, information processing method, program, information processing system, and method of information processing system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009183538A (en) * 2008-02-07 2009-08-20 Saitama Univ Wheelchair with autonomous traveling ability
EP3338963A1 (en) * 2016-12-23 2018-06-27 LG Electronics Inc. -1- Guide robot
US10737393B2 (en) 2016-12-23 2020-08-11 Lg Electronics Inc. Guidance robot
US10744641B2 (en) 2016-12-23 2020-08-18 Lg Electronics Inc. Guidance robot
US10759045B2 (en) 2016-12-23 2020-09-01 Lg Electronics Inc. Robot
US11312004B2 (en) 2016-12-23 2022-04-26 Lg Electronics Inc. Guide robot
JP2018158393A (en) * 2017-03-22 2018-10-11 日本電気株式会社 Safety control device, safety control method and program
JP7052203B2 (en) 2017-03-22 2022-04-12 日本電気株式会社 Safety control devices, safety control methods and programs
US10750920B2 (en) 2017-03-28 2020-08-25 Lg Electronics Inc. Control method of robot system including plurality of moving robots
JP2021013981A (en) * 2019-07-11 2021-02-12 京セラドキュメントソリューションズ株式会社 Robot device, control system of robot device and control method of robot device
JP2021064067A (en) * 2019-10-10 2021-04-22 沖電気工業株式会社 Apparatus, information processing method, program, information processing system, and method of information processing system
JP7392377B2 (en) 2019-10-10 2023-12-06 沖電気工業株式会社 Equipment, information processing methods, programs, information processing systems, and information processing system methods

Similar Documents

Publication Publication Date Title
JP4940698B2 (en) Autonomous mobile robot
JP2007229817A (en) Autonomous mobile robot
US10455882B2 (en) Method and system for providing rear collision warning within a helmet
JP6565859B2 (en) Vehicle control system
JP7022547B2 (en) robot
JP4638370B2 (en) Lane departure prevention device
JP4100026B2 (en) Start support device
JP7099037B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
JP5187517B2 (en) Information providing apparatus, information providing method, and program
JP2006290051A (en) Parking assisting device and parking assisting method
JP4910787B2 (en) Parking assistance device and method, parking position setting device and method, recording medium, and program
WO2019155913A1 (en) Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium
JP2021049893A (en) Vehicle control system
JP2007229816A (en) Autonomous mobile robot
JP5196920B2 (en) Vehicle intrusion warning device
JP2007286740A (en) Autonomous movable body
JP6811743B2 (en) Safe driving support device
JP5024896B2 (en) Mobile robot control system
JP4702154B2 (en) Autonomous mobile object and information display system
JP2010100088A (en) Drive assist system
JP2008012635A (en) Personal identification system
JP2009251761A (en) Driving support system
JP2009157735A (en) Mobile object and vehicle alarm device
JP2005284975A (en) Traveling safety device
JP2007229855A (en) Autonomous mobile robot