JP2007229817A - Autonomous mobile robot - Google Patents
Autonomous mobile robot Download PDFInfo
- Publication number
- JP2007229817A JP2007229817A JP2006050896A JP2006050896A JP2007229817A JP 2007229817 A JP2007229817 A JP 2007229817A JP 2006050896 A JP2006050896 A JP 2006050896A JP 2006050896 A JP2006050896 A JP 2006050896A JP 2007229817 A JP2007229817 A JP 2007229817A
- Authority
- JP
- Japan
- Prior art keywords
- interest
- specific person
- mobile robot
- interested
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、特定人物に随伴して移動可能な自律移動型ロボットに関するものである。 The present invention relates to an autonomous mobile robot that can move along with a specific person.
近年、走行装置や歩行装置により自律的に移動して各種の作業を行うロボットの研究開発が盛んに行われており、その成果として各種の自律移動型ロボットが提案されている(例えば特許文献1、2参照)。 In recent years, research and development of robots that perform various operations by moving autonomously with a traveling device or a walking device have been actively conducted, and various autonomous mobile robots have been proposed as a result (for example, Patent Document 1). 2).
ここで、特許文献1には、特定の被案内者の歩行状態に応じて自律的に移動することで特定の被案内者を所定の案内先まで案内するロボットが提案されている。また、特許文献2には、駐車場内において車両の運転者に適切な情報を提供して車両を駐車区画へ誘導するロボットが提案されている。
ところで、特許文献1に記載された従来の自律移動型ロボットにおいては、被案内者を特定することはできても、その特定人物が興味を示した対象物を特定することができないため、特定人物が興味を示した興味対象物の情報を取得することができないという問題がある。特許文献2に記載された自律移動型ロボットにおいても同様の問題がある。
By the way, in the conventional autonomous mobile robot described in
そこで、本発明は、特定人物に随伴して移動する際、特定人物が興味を示した興味対象物の情報を取得することができる自律移動型ロボットを提供することを課題とする。 Accordingly, an object of the present invention is to provide an autonomous mobile robot that can acquire information on an object of interest that a specific person has shown an interest when moving with the specific person.
本発明に係る自律移動型ロボットは、特定人物を含む周辺状況を観測しつつその観測情報に基づき特定人物に随伴して移動可能な自律移動型ロボットにおいて、特定人物の視線の注視状態を検出する注視状態検出手段と、特定人物が注視した対象物を特定人物の興味対象物としてその興味対象物の観察情報を記憶する興味対象物記憶手段とを備えていることを特徴とする。 An autonomous mobile robot according to the present invention detects a gaze state of a specific person's line of sight in an autonomous mobile robot that can move along with a specific person based on observation information while observing a surrounding situation including the specific person. It is characterized by comprising gaze state detection means and interest object storage means for storing observation information of the object of interest as the object of interest of the person with the object gazeed by the specific person.
本発明に係る自律移動型ロボットでは、特定人物を含む周辺状況を観測しつつその観測情報に基づき特定人物に随伴して移動する際、特定人物の視線の注視状態を注視状態検出手段が検出すると、特定人物が注視した興味対象物の観察情報を興味対象物記憶手段が記憶する。 In the autonomous mobile robot according to the present invention, when the gaze state detecting means detects the gaze state of the gaze of the specific person while moving along with the specific person based on the observation information while observing the surrounding situation including the specific person. The interest object storage means stores observation information of the object of interest that the specific person gazes at.
本発明の自律移動型ロボットには、興味対象物記憶手段に記憶された興味対象物の観察情報を周辺状況の観測情報と比較し、この周辺状況の観測情報に興味対象物の観察情報と類似する情報が含まれている場合に興味対象物の存在を報知する興味対象物報知手段を備えることができる。 In the autonomous mobile robot of the present invention, the observation information of the object of interest stored in the object of interest storage means is compared with the observation information of the surrounding situation, and the observation information of the surrounding situation is similar to the observation information of the object of interest. An interest object notifying means for notifying the presence of the object of interest when the information to be included is included can be provided.
この興味対象物報知手段を備えた本発明の自律移動型ロボットでは、特定人物の興味対象物の存在を興味対象物報知手段が報知することにより、特定人物は周辺に興味対象物が存在することを認識することができる。 In the autonomous mobile robot of the present invention provided with this interesting object notification means, the interesting object notification means informs the existence of the interesting object of the specific person, so that the specific person has the interesting object in the vicinity. Can be recognized.
本発明に係る自律移動型ロボットでは、特定人物の視線の注視状態を注視状態検出手段が検出すると、特定人物が注視した興味対象物の観察情報を興味対象物記憶手段が記憶する。すなわち、本発明の自律移動型ロボットによれば、特定人物に随伴して移動する際、特定人物が興味を示した興味対象物の情報を取得することができる。 In the autonomous mobile robot according to the present invention, when the gaze state detection unit detects the gaze state of the gaze of the specific person, the interest object storage unit stores observation information of the object of interest that the specific person gazes at. That is, according to the autonomous mobile robot of the present invention, it is possible to acquire information on an object of interest that the specific person has shown interest when moving with the specific person.
また、興味対象物報知手段を備えた本発明の自律移動型ロボットによれば、特定人物の興味対象物の存在を興味対象物報知手段が報知することにより、特定人物は周辺に興味対象物が存在することを認識することができる。 Further, according to the autonomous mobile robot of the present invention provided with the interest object notification means, the interest object notification means notifies the presence of the interest object of the specific person, so that the specific person has the interest object in the vicinity. It can be recognized that it exists.
以下、図面を参照して本発明に係る自律移動型ロボットの実施形態を説明する。参照する図面において、図1は一実施形態に係る自律移動型ロボットとしてのモビルロボットおよびその主人としての特定人物を模式的に示す平面図、図2は図1に示したモビルロボットの構造を示す側面図、図3は図2に示した制御装置の構成を示すブロック図、図4は図3に示した制御装置による処理手順の一部を示すフローチャートである。 Hereinafter, embodiments of an autonomous mobile robot according to the present invention will be described with reference to the drawings. In the drawings to be referred to, FIG. 1 is a plan view schematically showing a mobile robot as an autonomous mobile robot according to an embodiment and a specific person as a master, and FIG. 2 shows a structure of the mobile robot shown in FIG. FIG. 3 is a side view, FIG. 3 is a block diagram showing a configuration of the control device shown in FIG. 2, and FIG. 4 is a flowchart showing a part of a processing procedure by the control device shown in FIG.
一実施形態に係る自律移動型ロボットは、図1に示すように、主人としての特定人物Mに随伴して移動可能なモビルロボットRとして構成されている。このモビルロボットRは、特定人物Mの近傍において、特定人物Mおよびその周辺状況を観測しつつその観測情報に基づいて特定人物Mを先導し、あるいは特定人物Mに追従する。 As shown in FIG. 1, the autonomous mobile robot according to an embodiment is configured as a mobile robot R that can move along with a specific person M as a master. The mobile robot R leads the specific person M or follows the specific person M based on the observation information while observing the specific person M and its surroundings in the vicinity of the specific person M.
図2に示すように、モビルロボットRは、走行装置1により移動可能なボディR1と、このボディR1に対して回転可能に接続されたヘッドR2とを備えており、ボディR1には、報知、警報、案内などの各種のメッセージを画像や文字により表示可能なディスプレイ2が設置されている。そして、このボディR1には、電源としてのバッテリ3、ヘッドR2を回転駆動するためのヘッド駆動モータ4の他、走行装置1、ディスプレイ2、ヘッド駆動モータ4などを制御するための制御装置5が内蔵されている。
As shown in FIG. 2, the mobile robot R includes a body R1 that can be moved by the
一方、モビルロボットRのヘッドR2には、特定人物Mおよびその周辺に存在する障害物(他の人物や動物、構造物、設置物、車両等)などを含む周辺状況をステレオ画像として観測するための左右一対のCCDカメラ(または赤外線カメラ)6A,6Bと、報知、警報、案内などの各種メッセージの音声を発声可能なスピーカ7とが設置されている。
On the other hand, in the head R2 of the mobile robot R, in order to observe a surrounding situation including a specific person M and obstacles (another person, animal, structure, installation, vehicle, etc.) existing around it as a stereo image. A pair of left and right CCD cameras (or infrared cameras) 6A and 6B and a
図1および図2に示すように、走行装置1は、例えば、ホイールインモータ1A,1Bにより回転方向および回転速度が左右独立に制御される左右一対の駆動車輪1C,1Dと、360度の旋回が可能なキャスタ車輪1Eとを有する。
As shown in FIGS. 1 and 2, the
この走行装置1は、左右一対の駆動車輪1C,1Dが同方向に前転駆動または後転駆動されることでモビルロボットRを前進または後退させる。その際、左右一対の駆動車輪1C,1Dの回転速度が同速度であればモビルロボットRを直進させ、左右一対の駆動車輪1C,1Dの回転速度に差があれば駆動車輪1C,1Dのうち回転速度の遅い側にモビルロボットRを旋回させる。そして、この走行装置1は、左右一対の駆動車輪1C,1Dが同速度で相互に逆方向に回転駆動されると、モビルロボットRをその場で左右の何れかに回転させる。
The traveling
ここで、制御装置5は、ECU(Electric Control Unit)等のマイクロコンピュータのハードウェアおよびソフトウェアを利用して構成されている。この制御装置5は、ホイールインモータ1A,1Bやヘッド駆動モータ4の駆動回路、ディスプレイ2、CCDカメラ6A,6B、スピーカ7等との間の入出力インターフェースI/OおよびA/Dコンバータの他、プログラムおよびデータを記憶したROM(ReadOnly Memory)、入力データ等を一時記憶するRAM(Random Access Memory)、プログラムを実行するCPU(CentralProcessing Unit)等をハードウェアとして備えている。
Here, the
そして、この制御装置5には、図3に示すように、画像生成部5A、特定人物検出部5B、ヘッド駆動モータ制御部5C、障害物検出部5D、ホイールインモータ制御部5E、注視点検出部5F、注視点軌跡記録部5G、注視状態判定部5H、興味対象物記憶部5J、興味対象物報知部5Kがソフトウェアとして構成されている。
As shown in FIG. 3, the
画像生成部5Aには、CCDカメラ6A,6Bから左右の撮影データが所定時間毎に計測時刻情報と共に入力される。この画像生成部5Aは、所定時間毎に入力された左右の撮影データに基づいて各計測時刻におけるステレオ画像を順次生成し、その画像データを計測時刻情報と共に特定人物検出部5B、障害物検出部5D、注視点検出部5F、興味対象物記憶部5Jおよび興味対象物報知部5Kへ所定時間毎に繰り返して出力する。
Left and right image data are input to the
特定人物検出部5Bは、画像生成部5Aから所定時間毎に順次入力される画像データに基づいて撮影画像のエッジ処理を行い、予め記憶されている特定人物Mの輪郭モデルとのマッチング処理により特定人物Mを検出する。そして、この特定人物検出部5Bは、検出された特定人物Mのステレオ画像をステレオマッチング処理することにより、特定人物Mの3次元位置を三角測量の原理で所定時間毎に推測する。
The specific
ヘッド駆動モータ制御部5Cには、特定人物検出部5Bから特定人物Mの3次元位置データが所定時間毎に入力される。このヘッド駆動モータ制御部5Cは、入力された特定人物Mの3次元位置データに基づき、特定人物Mが例えば画像中央に位置するようにヘッド駆動モータ4の回転を制御してモビルロボットRのヘッドR2を回転させる。
The head
障害物検出部5Dは、画像生成部5Aから所定時間毎に順次入力された画像データに基づいて撮影画像のエッジ処理を行うことにより、撮影画像中に存在する障害物(他の人物や動物、構造物、設置物、車両等)を検出する。そして、この障害物検出部5Dは、検出された障害物のステレオ画像をステレオマッチング処理することにより、障害物の3次元位置を三角測量の原理で所定時間毎に推測する。
The
ホイールインモータ制御部5Eには、特定人物検出部5Bから特定人物Mの3次元位置データが所定時間毎に入力されると共に、障害物検出部5Dから障害物の3次元位置データが所定時間毎に入力される。このホイールインモータ制御部5Eは、入力された特定人物Mおよび障害物の3次元位置データに基づき、モビルロボットRが特定人物Mの近傍において障害物を避けつつ特定人物Mを先導し、あるいは特定人物Mに追従するように、ホイールインモータ1A,1Bの回転を個別に制御して走行装置1の駆動車輪1C,1Dの回転方向および回転速度を個別に制御する。
The wheel-in
ここで、CCDカメラ6A,6B、画像生成部5A、注視点検出部5F、注視点軌跡記録部5Gおよび注視状態判定部5Hにより本発明の注視状態検出手段が構成され、興味対象物記憶部5Jにより本発明の興味対象物記憶手段が構成され、興味対象物報知部5K、ディスプレイ2およびスピーカ7により本発明の興味対象物報知手段が構成されている。
Here, the
注視点検出部5Fは、画像生成部5Aから所定時間毎に順次入力される画像データに基づいて撮影画像中から特定人物Mの両眼の画像を抽出し、その画像にエッジ処理を施すことで両眼の黒目の位置を検出する。そして、この注視点検出部5Fは、検出した黒目の位置を予め記憶されている眼球モデルと比較することで両眼の注視点を3次元位置データとして所定時間毎に検出する。
The gazing
注視点軌跡記録部5Gには、注視点検出部5Fから特定人物Mの両眼の注視点の検出データが所定時間(例えば5秒程度)入力される。そして、この注視点軌跡記録部5Gは、3次元位置データとして入力された検出データに基づき、特定人物Mの両眼の注視点の軌跡を記録する。
The gazing point
注視状態判定部5Hには、注視点軌跡記録部5Gから特定人物Mの両眼の注視点軌跡の記録データが入力される。そして、この注視状態判定部5Hは、入力された注視点軌跡の記録データに基づき、注視点が所定時間(例えば3秒程度)停留した場合、あるいは注視点の移動範囲が注視状態とみなせる程度に狭い場合には、特定人物Mの両眼が注視状態にあるものと判定して注視状態の判定信号を興味対象物記憶部5Jに出力する。
The gaze
興味対象物記憶部5Jは、注視状態判定部5Hから注視状態の判定信号が入力されると、特定人物Mが注視した対象物Oを特定人物Mの興味対象物としてその興味対象物を含む周辺状況の観察情報を記憶する。すなわち、興味対象物記憶部5Jは、画像生成部5Aから所定時間毎に順次入力される画像データのうち、特定人物Mが対象物Oを注視した計測時刻における画像データに基づいて撮影画像にエッジ処理を施し、そのエッジ処理された撮影画像のデータを記憶する。
When the interest
興味対象物報知部5Kは、画像生成部5Aから所定時間毎に順次入力される画像データに基づいて撮影画像にエッジ処理を施し、そのエッジ処理された周辺状況の撮影画像のデータと、興味対象物記憶部5Jにエッジ処理されて記憶されている興味対象物を含む撮影画像のデータとを比較する。その際、撮影画像中の輝度値の配列パターンも比較する。
The interested
この興味対象物報知部5Kは、比較される周辺状況の撮影画像データ中に興味対象物に類似する画像のデータが含まれている場合には、特定人物Mの周辺に興味対象物が存在することをスピーカ7およびディスプレイ2によって報知する。すなわち、興味対象物報知部5Kは、スピーカ7に所定の音声信号を出力して報知音または報知メッセージを発声させると共に、ディスプレイ2に所定の画像信号を出力して報知用の画像や文字のメッセージを表示させる。
The interested
ここで、図3に示した制御装置5を構成する画像生成部5A、注視点検出部5F、注視点軌跡記録部5G、注視状態判定部5Hおよび興味対象物報知部5Kによる処理手順を図4に示すフローチャートに沿って説明する。
Here, the processing procedure by the
まず、ステップS1では、CCDカメラ6A,6Bから所定時間毎に計測時刻情報と共に入力される左右の撮影データに基づき、各計測時刻における特定人物Mを含む周辺状況のステレオ画像を画像生成部5Aが順次生成する。
First, in step S1, the
つぎのステップS2では、画像生成部5Aから所定時間毎に順次入力される画像データに基づき、特定人物Mの両眼の黒目の位置を注視点検出部5Fが検出する。そして、検出した黒目の位置を予め記憶されている眼球モデルと比較することにより、注視点検出部5Fが両眼の注視点を3次元位置データとして所定時間毎に検出する。
In the next step S2, the gazing
続くステップS3では、注視点検出部5Fから所定時間毎に入力される注視点の検出データに基づき、注視点軌跡記録部5Gが特定人物Mの両眼の注視点の軌跡を記録する。
In subsequent step S3, the gazing point
つぎのステップS4では、注視点軌跡記録部5Gから入力される注視点軌跡の記録データに基づき、特定人物Mの両眼が注視状態にあるか否かを注視状態判定部5Hが判定する。この判定においては、注視点が所定時間(例えば3秒程度)停留した場合、あるいは注視点の移動範囲が注視状態とみなせる程度に狭い場合に注視状態であるものと判定し、それ以外の場合には注視状態でないものと判定する。
In the next step S4, the gaze
ステップS4の判定結果がNOであって注視状態でない場合には、ステップS1に戻るが、判定結果がYESであって注視状態である場合には、つぎのステップS5に進む。 If the determination result in step S4 is NO and not the gaze state, the process returns to step S1, but if the determination result is YES and the gaze state is established, the process proceeds to the next step S5.
つぎのステップS5では、注視状態判定部5Hから入力されるYESの判定信号に応じ、特定人物Mが注視した興味対象物を含む周辺状況の画像データとして画像生成部5Aから入力される画像データを興味対象物記憶部5Jが記憶する。その際、興味対象物記憶部5Jは、特定人物Mが対象物Oを注視した計測時刻における画像データに基づいて撮影画像にエッジ処理を施し、そのエッジ処理された撮影画像のデータを記憶する。
In the next step S5, the image data input from the
続くステップS6では、画像生成部5Aから興味対象物記憶部5Jに所定時間毎に順次入力されてエッジ処理された周辺状況の撮影画像データと、興味対象物記憶部5Jにエッジ処理されて記憶されている興味対象物を含む撮影画像データとを比較することにより、比較される周辺状況の撮影画像データ中に興味対象物に類似する画像のデータが含まれているか否かを興味対象物報知部5Kが判定する。
In the subsequent step S6, the captured image data of the peripheral situation that is sequentially input from the
ステップS6の判定結果がNOであって周辺状況の撮影画像データ中に興味対象物に類似する画像データが含まれていない場合には、一連の処理を終了するが、判定結果がYESであって興味対象物に類似する画像データが含まれている場合には、つぎのステップS7に進む。 If the determination result in step S6 is NO and the image data similar to the object of interest is not included in the captured image data in the surrounding situation, the series of processing ends, but the determination result is YES. If image data similar to the object of interest is included, the process proceeds to the next step S7.
つぎのステップS7では、興味対象物報知部5Kがスピーカ7に所定の音声信号を出力して報知音または報知メッセージを発声させると共に、ディスプレイ2に所定の画像信号を出力して報知用の画像や文字のメッセージを表示させることにより、特定人物Mの周辺に興味対象物が存在することを報知する。
In the next step S7, the object-of-
以上のように一実施形態の自律移動型ロボットとして構成されたモビルロボットR(図1、図2参照)は、特定人物Mを含む周辺状況をCCDカメラ6A,6Bにより撮影しつつ、その撮影画像のデータに基づいて走行装置1の左右一対の駆動車輪1C,1Dの回転方向および回転速度を左右独立に制御することにより、特定人物Mの近傍に随伴して障害物を避けつつ特定人物Mを先導し、あるいは特定人物Mに追従する。
As described above, the mobile robot R (see FIGS. 1 and 2) configured as the autonomous mobile robot according to the embodiment captures the surrounding situation including the specific person M with the
その際、モビルロボットRは、制御装置5の注視状態判定部5Hにより特定人物Mの視線の注視状態を検出すると、特定人物Mが注視した興味対象物を含む周辺状況のエッジ処理された撮影画像のデータを興味対象物記憶部5Jに記憶させる。
At that time, when the mobile robot R detects the gaze state of the line of sight of the specific person M by the gaze
その後、モビルロボットRは、制御装置5の興味対象物報知部5Kにより、画像生成部5Aで生成された周辺状況の画像を興味対象物記憶部5Jに記憶された興味対象物を含む画像と比較する。そして、この比較処理の結果、画像生成部5Aで生成された周辺状況の画像に興味対象物と類似する画像が含まれている場合、モビルロボットRは、興味対象物報知部5Kからスピーカ7に所定の音声信号を出力して報知音または報知メッセージを発声させると共に、興味対象物報知部5Kからディスプレイ2に所定の画像信号を出力して報知用の画像や文字のメッセージを表示させ、特定人物Mの周辺に興味対象物が存在することを報知する。
After that, the mobile robot R compares the image of the surrounding situation generated by the
従って、一実施形態の自律移動型ロボットとして構成されたモビルロボットRによれば、特定人物Mが注視した興味対象物の情報を興味対象物記憶部5Jに記憶された画像データとして取得することができ、興味対象物記憶部5Jに記憶された画像データから特定人物Mが興味を示した興味対象物を認識することが可能となる。
Therefore, according to the mobile robot R configured as the autonomous mobile robot according to the embodiment, it is possible to acquire the information on the object of interest that the specific person M gazes at as the image data stored in the object of
また、このようなモビルロボットRによれば、特定人物Mは、スピーカ7から発声される報知音または報知メッセージと、ディスプレイ2に表示される報知用の画像や文字とによって、自分にとって興味のある興味対象物が自分の周辺に存在することを認識することができる。
Further, according to such a mobile robot R, the specific person M is interested in himself / herself by the notification sound or notification message uttered from the
本発明に係る自律移動型ロボットは、前述した一実施形態に限定されるものではない。例えば、図2に示したモビルロボットRのヘッドR2には、特定人物およびその周辺に存在する障害物までの距離やその表面の凹凸状態などを観測するためのミリ波レーダ(またはレーザレーダ)を設置してもよい。また、特定人物の周辺にいる他の人物や動物を観測するための赤外線センサ、特定人物の周辺の音を観測するための集音マイク、あるいは特定人物の周辺の温度を観測するための温度センサなどを設置してもよい。 The autonomous mobile robot according to the present invention is not limited to the above-described embodiment. For example, the head R2 of the mobile robot R shown in FIG. 2 is equipped with a millimeter wave radar (or laser radar) for observing the distance to a specific person and obstacles around the specific person and the surface roughness of the person. May be installed. Also, an infrared sensor for observing other people and animals around the specific person, a sound collecting microphone for observing sounds around the specific person, or a temperature sensor for observing the temperature around the specific person Etc. may be installed.
ミリ波レーダ(またはレーザレーダ)、赤外線センサ、集音マイク、温度センサなどをヘッドR2に備えたモビルロボットRにおいては、特定人物が注視状態にあるときの興味対象物の観察情報として、CCDカメラによるに観察情報に加えてミリ波レーダ(またはレーザレーダ)、赤外線センサ、集音マイク、温度センサからの観測情報を興味対象物記憶部に記憶させることができる。 In the mobile robot R having a millimeter wave radar (or laser radar), an infrared sensor, a sound collecting microphone, a temperature sensor and the like in the head R2, a CCD camera is used as observation information of an object of interest when a specific person is in a gaze state. Therefore, in addition to the observation information, observation information from the millimeter wave radar (or laser radar), infrared sensor, sound collecting microphone, and temperature sensor can be stored in the object storage unit.
1…走行装置、2…ディスプレイ、3…バッテリ、4…ヘッド駆動モータ、5…制御装置、5A…画像生成部、5B…特定人物検出部、5C…ヘッド駆動モータ制御部、5D…障害物検出部、5E…ホイールインモータ制御部、5F…注視点検出部、5G…注視点軌跡記録部、5H…注視状態判定部、5J…興味対象物記憶部、5K…興味対象物報知部、6A,6B…CCDカメラ、7…スピーカ、R…モビルロボット、M…特定人物。
DESCRIPTION OF
Claims (2)
特定人物の視線の注視状態を検出する注視状態検出手段と、
特定人物が注視した対象物を特定人物の興味対象物としてその興味対象物の観察情報を記憶する興味対象物記憶手段とを備えていることを特徴とする自律移動型ロボット。 In an autonomous mobile robot that can move along with a specific person while observing the surrounding situation including the specific person,
Gaze state detection means for detecting a gaze state of the gaze of a specific person;
An autonomous mobile robot characterized by comprising an object-of-interest storage means for storing observation information of an object of interest as an object of interest of the specific person, with the object of interest of the specific person as the object of interest.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006050896A JP2007229817A (en) | 2006-02-27 | 2006-02-27 | Autonomous mobile robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006050896A JP2007229817A (en) | 2006-02-27 | 2006-02-27 | Autonomous mobile robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007229817A true JP2007229817A (en) | 2007-09-13 |
Family
ID=38550929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006050896A Pending JP2007229817A (en) | 2006-02-27 | 2006-02-27 | Autonomous mobile robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007229817A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009183538A (en) * | 2008-02-07 | 2009-08-20 | Saitama Univ | Wheelchair with autonomous traveling ability |
EP3338963A1 (en) * | 2016-12-23 | 2018-06-27 | LG Electronics Inc. -1- | Guide robot |
JP2018158393A (en) * | 2017-03-22 | 2018-10-11 | 日本電気株式会社 | Safety control device, safety control method and program |
US10737393B2 (en) | 2016-12-23 | 2020-08-11 | Lg Electronics Inc. | Guidance robot |
US10750920B2 (en) | 2017-03-28 | 2020-08-25 | Lg Electronics Inc. | Control method of robot system including plurality of moving robots |
US10759045B2 (en) | 2016-12-23 | 2020-09-01 | Lg Electronics Inc. | Robot |
JP2021013981A (en) * | 2019-07-11 | 2021-02-12 | 京セラドキュメントソリューションズ株式会社 | Robot device, control system of robot device and control method of robot device |
JP2021064067A (en) * | 2019-10-10 | 2021-04-22 | 沖電気工業株式会社 | Apparatus, information processing method, program, information processing system, and method of information processing system |
-
2006
- 2006-02-27 JP JP2006050896A patent/JP2007229817A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009183538A (en) * | 2008-02-07 | 2009-08-20 | Saitama Univ | Wheelchair with autonomous traveling ability |
EP3338963A1 (en) * | 2016-12-23 | 2018-06-27 | LG Electronics Inc. -1- | Guide robot |
US10737393B2 (en) | 2016-12-23 | 2020-08-11 | Lg Electronics Inc. | Guidance robot |
US10744641B2 (en) | 2016-12-23 | 2020-08-18 | Lg Electronics Inc. | Guidance robot |
US10759045B2 (en) | 2016-12-23 | 2020-09-01 | Lg Electronics Inc. | Robot |
US11312004B2 (en) | 2016-12-23 | 2022-04-26 | Lg Electronics Inc. | Guide robot |
JP2018158393A (en) * | 2017-03-22 | 2018-10-11 | 日本電気株式会社 | Safety control device, safety control method and program |
JP7052203B2 (en) | 2017-03-22 | 2022-04-12 | 日本電気株式会社 | Safety control devices, safety control methods and programs |
US10750920B2 (en) | 2017-03-28 | 2020-08-25 | Lg Electronics Inc. | Control method of robot system including plurality of moving robots |
JP2021013981A (en) * | 2019-07-11 | 2021-02-12 | 京セラドキュメントソリューションズ株式会社 | Robot device, control system of robot device and control method of robot device |
JP2021064067A (en) * | 2019-10-10 | 2021-04-22 | 沖電気工業株式会社 | Apparatus, information processing method, program, information processing system, and method of information processing system |
JP7392377B2 (en) | 2019-10-10 | 2023-12-06 | 沖電気工業株式会社 | Equipment, information processing methods, programs, information processing systems, and information processing system methods |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4940698B2 (en) | Autonomous mobile robot | |
JP2007229817A (en) | Autonomous mobile robot | |
US10455882B2 (en) | Method and system for providing rear collision warning within a helmet | |
JP6565859B2 (en) | Vehicle control system | |
JP7022547B2 (en) | robot | |
JP4638370B2 (en) | Lane departure prevention device | |
JP4100026B2 (en) | Start support device | |
JP7099037B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
JP5187517B2 (en) | Information providing apparatus, information providing method, and program | |
JP2006290051A (en) | Parking assisting device and parking assisting method | |
JP4910787B2 (en) | Parking assistance device and method, parking position setting device and method, recording medium, and program | |
WO2019155913A1 (en) | Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium | |
JP2021049893A (en) | Vehicle control system | |
JP2007229816A (en) | Autonomous mobile robot | |
JP5196920B2 (en) | Vehicle intrusion warning device | |
JP2007286740A (en) | Autonomous movable body | |
JP6811743B2 (en) | Safe driving support device | |
JP5024896B2 (en) | Mobile robot control system | |
JP4702154B2 (en) | Autonomous mobile object and information display system | |
JP2010100088A (en) | Drive assist system | |
JP2008012635A (en) | Personal identification system | |
JP2009251761A (en) | Driving support system | |
JP2009157735A (en) | Mobile object and vehicle alarm device | |
JP2005284975A (en) | Traveling safety device | |
JP2007229855A (en) | Autonomous mobile robot |