JP4056777B2 - Autonomous mobile object traveling system and autonomous mobile object position correction method - Google Patents

Autonomous mobile object traveling system and autonomous mobile object position correction method Download PDF

Info

Publication number
JP4056777B2
JP4056777B2 JP2002097954A JP2002097954A JP4056777B2 JP 4056777 B2 JP4056777 B2 JP 4056777B2 JP 2002097954 A JP2002097954 A JP 2002097954A JP 2002097954 A JP2002097954 A JP 2002097954A JP 4056777 B2 JP4056777 B2 JP 4056777B2
Authority
JP
Japan
Prior art keywords
autonomous mobile
mobile body
image
imaging
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002097954A
Other languages
Japanese (ja)
Other versions
JP2003295951A (en
Inventor
心哉 中村
洋一 下笹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOHGO SECURITY SERVICES CO.,LTD.
Original Assignee
SOHGO SECURITY SERVICES CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOHGO SECURITY SERVICES CO.,LTD. filed Critical SOHGO SECURITY SERVICES CO.,LTD.
Priority to JP2002097954A priority Critical patent/JP4056777B2/en
Publication of JP2003295951A publication Critical patent/JP2003295951A/en
Application granted granted Critical
Publication of JP4056777B2 publication Critical patent/JP4056777B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、自律移動体が予め設定された巡回コースを巡回する自律移動体巡回システムおよび巡回する自律移動体の位置補正方法に関する。
【0002】
【従来の技術】
現在、予め設定された巡回コースのデータを記憶し、自身が走行した距離や走行方向、現在位置を推定しながら巡回コースを移動する自律移動体がある。自律移動体は、例えば本体の左右に設けられた駆動輪を使って走行する構成である場合、駆動輪の回転数によって走行距離を検出する。また、走行方向の検出には、例えばジャイロコンパスが用いられる。また、自律移動体は、検出された走行距離や走行方向に基づいて自身の現在位置を推定している。
【0003】
自律移動体で検出される走行距離や走行方向は、駆動輪のスリップや測定誤差によって多少の誤差を含んでいる。このため、検出結果をもとにして推定される現在位置(推定位置)が不正確になり、自律移動体が自身の現在位置を正確に把握できないために設定のとおり巡回コースを巡回できなくなるおそれがある。このため、自律移動体の推定位置を補正する技術が種々提案されている。
【0004】
自律移動体の推定位置を補正する従来の技術として、画像処理を利用するものと反射板およびレーザを利用するものが挙げられる。画像処理を使った推定位置の補正では、巡回コースで撮影された目標物の画像を自律移動体に予め記憶させておく。そして、自律移動体にカメラを搭載して巡回コースを巡回させ、記憶された画像と同じ画像が撮影されると自律移動体が推定した位置で目標物を撮影させる。撮影された画像と記憶されている画像とを比較することによって自律移動体が推定した位置と実際に自律移動体がいた位置との誤差を検出する。なお、画像処理を使った推定位置の補正では、施設の通路の曲がり角、構造物、樹木、標識が目標物として使用される。
【0005】
反射板およびレーザを利用する推定位置の補正は、自律移動体にレーザ光を出力する構成を設ける一方、巡回コースにレーザ光を反射する反射板を設ける。自律移動体には予め反射板の位置を示すデータが記憶されていて、自律移動体は、レーザ光を出力しながら巡回し、反射板で反射された反射光を受光した場合、その位置が反射板の設けられた位置であると判断する。そして、実際に反射光を受光した位置と、反射板が設けられていると推定した位置とを比較し、両者が一致するように推定位置を補正する。
【0006】
また、自律移動体は、近年、警備員の代わりに施設内を巡回させ、火災や侵入者を検知する警備ロボットとして使用することが検討されている。警備ロボットとして使用される場合、自律移動体は、火災や侵入者といった異常事態の発生を検知する異常検知センサを搭載する。そして、搭載された異常検知センサによって異常が検知されたとき、巡回コースを外れて異常が検知された方向に自律移動体を向かわせ、異常の状況を確認するなどの対処が終了すると、再び巡回コースに戻る。このように、警備ロボットとして使用される自律移動体は、予め想定されたコース外を走行することもあるため、常に正確な位置を把握して走行していなければ、巡回コースを外れて走行した後に巡回コースに戻れなくなるおそれもある。このため、警備ロボットとして使用される自律移動体にとって、推定位置の補正を行い、正確な位置を把握しておくことは特に重要な課題となる。
【0007】
【発明が解決しようとする課題】
しかしながら、画像処理によって推定位置を補正する技術は、自律移動体が走行しながら撮影した動画像から目標物を抽出するため、目標物の抽出に複雑な処理を必要とする。また、目標物を抽出した後にも走行する自律移動体と目標物との相対的な距離を求める、あるいは自律移動体の走行方向を求める必要があるため、補正に必要な処理が複雑化し、走行する自律移動体の推定位置をリアルタイムで補正することが困難になる。
【0008】
また、反射板およびレーザを利用して推定位置を補正する技術は、反射板の設けられた位置以外で自律移動体の現在位置を確認することができない。また、自律移動体と反射板との距離は検出できないため、施設内を巡回する警備ロボットの走行距離の検出以外に使用することが難しいといった不具合があった。
【0009】
特に自律移動体を警備ロボットとして利用する場合、巡回コースはクライアントの要望にしたがって設定される。この巡回コースには、体育館、さらには屋外に設けられた会場といった自律移動体の走行の自由度が大きい上に目標物や反射板が設け難いものもある。したがって、自律移動体を警備ロボットとして利用する場合、上記した画像処理によって推定位置を補正する技術は、目標物を抽出し難い上に自律移動体と目標物との相対的な距離や角度の変位を検出し難く、また、反射板およびレーザを利用して推定位置を補正する技術は、体育館や屋外のような場所において利用することが困難であった。
【0010】
本発明は、上記の点に鑑みてなされたものであり、より簡易な処理で自律移動体の推定位置を補正することができる自律移動体巡回システムおよび自律移動体の位置補正方法を提供することを第1の目的とする。
【0011】
また、本発明は、自律移動体周囲の空間が広い領域であっても巡回コースにしたがって正確に巡回できる自律移動体巡回システムおよび自律移動体の位置補正方法を提供することを第2の目的とする。
【0012】
【課題を解決するための手段】
上記した課題を解決し、目的を達成するため、請求項1に記載の発明にかかる自律移動体巡回システムは、予め設定された巡回コースを自律移動体が巡回する自律移動体の巡回システムであって、自身の現在位置を推定する現在位置推定手段を備える自律移動体と、前記巡回コースを含む領域を撮像する位置に固定され、前記自律移動体を撮像する撮像手段と、前記撮像手段によって撮像された画像中の自律移動体の位置を求める画像位置取得手段と、前記画像中の自律移動体の位置に基づいて、前記自律移動体が存在する実際の位置である実位置を算出する実位置算出手段と、前記実位置を用い、前記現在位置推定手段によって推定された位置を補正する推定位置補正手段と、前記撮像手段を駆動する駆動手段と、を備え、前記自律移動体は、前記現在位置推定手段によって推定された現在位置を示す推定現在位置データを前記撮像手段に送信する推定現在位置送信手段を備えると共に前記撮像手段が前記推定現在位置データを受信する推定現在位置受信手段を備え、前記駆動手段は前記推定現在位置データが示す位置を中心とする画像を撮像する角度に前記撮像手段を駆動し、前記画像位置取得手段は前記推定現在位置データが示す位置を中心とする画像中の自律移動体の位置を求め、前記実位置算出手段は前記画像中の自律移動体の位置と画像の中心位置とを比較して実位置を算出することを特徴とする。
【0013】
この請求項1に記載の発明によれば、巡回コースを含む領域を撮像する位置に固定された撮像手段によって自律移動体を撮像し、撮像された画像中の自律移動体の位置を求める。また、この自律移動体の位置に基づいて自律移動体が存在する実際の位置である実位置を算出し、算出された実位置を用いて推定された位置を補正することができる。このため、常に一定の位置、一定の角度で撮像された画像から自律移動体という目標物だけを抽出することができる。
また、請求項1に記載の発明によれば、推定現在位置データが示す位置を中心とする画像中の自律移動体の位置を求め、この画像中の自律移動体の位置と画像の中心位置とを比較して実位置を算出することができるので、任意の位置で自律移動体の実位置を求めることができる。
【0014】
請求項2に記載の発明にかかる自律移動体巡回システムは、前記現在位置推定手段によって推定された位置を補正する地点である補正地点を設け、補正地点に対応付けられた前記撮像手段が前記自律移動体を撮像することを特徴とする。
【0015】
この請求項2に記載の発明によれば、自律移動体を補正地点において補正地点に対応付けられた撮像手段によって撮像するので、常に一定の位置および角度から同じ位置を撮像した画像を使って実位置を算出することができる。
なお、補正地点は複数設けてもよい。また、補正地点と、撮像手段の対応関係は1対1でなくてもよく、複数の補正地点に1つの撮像手段が対応付けられていてもよい。
【0016】
請求項3に記載の発明にかかる自律移動体巡回システムは、前記撮像手段を複数備え、前記自律移動体が複数の撮像手段のうちのいずれかを指定して前記現在位置推定手段によって推定された位置の補正を開始、または終了する信号を出力する信号出力手段を有すると共に、前記撮像手段は、前記信号出力手段によって出力された信号に基づいて指定を受けたか否か判断する指定判断手段を有し、当該指定判断手段が前記自律移動体の指定を受けたと判断した場合、前記画像位置取得手段に撮像した画像に関するデータを提供することを特徴とする。
【0017】
この請求項3に記載の発明によれば、複数の撮像手段のうち、自律移動体に指定された撮像手段によって提供される画像データを使って推定位置を補正をすることができるので、不適切な画像データが推定位置の補正に使用されることをなくすことができる。
【0018】
請求項4に記載の発明にかかる自律移動体巡回システムは、前記撮像手段の各々が固有の識別情報を有し、かつ、前記自律移動体が識別情報に基づいて画像を撮像した撮像手段を識別し、任意の撮像手段によって撮影された画像を利用して前記現在位置推定手段によって推定された位置を補正することを特徴とする。
【0019】
この請求項4に記載の発明によれば、自律移動体が識別情報に基づいて画像を撮像した撮像手段を識別し、任意の撮像手段によって撮影された画像を利用して推定された位置を補正することができる。
【0022】
請求項に記載の発明にかかる自律移動体巡回システムは、前記自律移動体が、前記実位置算出手段が算出した実位置を示すデータを、無線信号として受信することを特徴とする。
【0023】
この請求項に記載の発明によれば、自律移動体が実位置を示すデータを無線信号として受信することができる。
【0024】
請求項に記載の発明にかかる自律移動体巡回システムは、前記自律移動体が前記実位置算出手段を備え、自律移動体は、前記画像位置取得手段が取得した画像における自律移動体の位置を示すデータを無線信号として受信することを特徴とする。
【0025】
この請求項に記載の発明によれば、自律移動体が画像位置取得手段が取得した画像における自律移動体の位置を示すデータを無線信号として受信することができる。
【0026】
請求項に記載の発明にかかる自律移動体巡回システムは、前記自律移動体が前記画像位置取得手段と前記実位置算出手段とを備え、自律移動体は、前記撮像手段によって撮像された画像を示すデータを無線信号として受信することを特徴とする。
【0027】
この請求項に記載の発明によれば、自律移動体が撮像手段によって撮像された画像を示すデータを無線信号として受信することができる。
【0028】
請求項に記載の発明にかかる自律移動体巡回システムは、記撮像手段が撮像する撮像倍率を変更する倍率変更手段をさらに備えるか、あるいは、前記駆動手段は、前記撮像手段による撮影方向を変更して1つの撮像手段により複数の位置の画像を撮像させることを特徴とする。
【0029】
この請求項に記載の発明によれば、1つの撮像手段で異なる場所の画像を撮像させる、あるいは撮像手段が撮像する画像倍率を変更することの少なくとも一方が可能になるので、より少ない数のカメラでより広い領域を撮像することができる。
【0030】
請求項に記載の発明にかかる自律移動体巡回システムは、前記撮像手段の撮影方向と前記撮像倍率との少なくとも一方を予め登録することを特徴とする。
【0031】
この請求項に記載の発明によれば、撮像手段の撮影方向と撮像倍率との少なくとも一方を予め登録しておくことができるので、例えば、予め設定された補正地点にすばやくカメラを向け、あるいは最適な撮像倍率で画像を撮像することができる。
【0032】
請求項10に記載の発明にかかる自律移動体巡回システムは、前記現在地推定手段では、さらに、走行方向を推定するものとし、前記撮像手段によって撮影された画像中の自律移動体の走行方向を求める走行方向取得手段をさらに設け、走行方向取得手段によって求められた走行方向を用い、前記現在地推定手段で推定された走行方向を補正する走行方向補正手段をさらに設けたことを特徴とする。
【0033】
この請求項10に記載の発明によれば、撮像手段により撮影された画像から自律移動体の走行方向を求め、それをもとに自律移動体の推定された走行方向を補正することができる。
【0034】
請求項11に記載の発明にかかる自律移動体の位置補正方法は、自律移動体巡回システムで実行され、予め設定された巡回コースを巡回する自律移動体の位置補正方法であって、前記自律移動体巡回システムは、前記巡回コースを含む領域を撮像する位置に固定され、前記自律移動体を撮像する撮像手段と、前記撮像手段を駆動する駆動手段と、を備え、自律移動体の現在位置を推定する現在位置推定工程と、前記巡回コースにおいて、前記自律移動体を前記撮像手段によって撮像した画像中の自律移動体の位置を求める画像位置取得工程と、前記画像中の自律移動体の位置に基づいて、前記自律移動体が存在する実際の位置である実位置を算出する実位置算出工程と、前記実位置を用い、前記現在位置推定工程によって推定された位置を補正する推定位置補正工程と、前記自律移動体によって、前記現在位置推定工程によって推定された現在位置を示す推定現在位置データを前記撮像手段に送信する推定現在位置送信工程と、前記撮像手段が前記推定現在位置データを受信する推定現在位置受信工程と、前記駆動手段によって、前記推定現在位置データが示す位置を中心とする画像を撮像する角度に前記撮像手段を駆動する駆動工程と、を含み、前記画像位置取得工程は、前記推定現在位置データが示す位置を中心とする画像中の自律移動体の位置を求め、前記実位置算出工程は、前記画像中の自律移動体の位置と画像の中心位置とを比較して実位置を算出することを特徴とする。
【0035】
この請求項11に記載の発明によれば、巡回コースを含む領域を撮像する位置に固定された撮像手段によって自律移動体を撮像し、撮像された画像中の自律移動体の位置を求める。また、この自律移動体の位置に基づいて自律移動体が存在する実際の位置である実位置を算出し、算出された実位置を用いて推定された位置を補正することができる。
また、請求項11に記載の発明によれば、推定現在位置データが示す位置を中心とする画像中の自律移動体の位置を求め、この画像中の自律移動体の位置と画像の中心位置とを比較して実位置を算出することができるので、任意の位置で自律移動体の実位置を求めることができる。
【0036】
【発明の実施の形態】
以下、本発明の実施の形態1〜3を、図面を用いて説明する。実施の形態1〜3は、いずれも自律移動体を警備ロボットとして使用した場合のロボット警備システム、あるいは警備ロボットの位置補正方法として本発明を説明するものである。
【0037】
(実施の形態1)
実施の形態1の自律移動体巡回システムは、予め設定された巡回コースを警備ロボットとして構成された自律移動体(以下、警備ロボット)が巡回する巡回システムとして構成されている。図1は、実施の形態1の自律移動体巡回システムを説明するための図であって、自身の現在位置を推定しながら巡回する警備ロボット101と、警備ロボット101の巡回コースを含む領域である撮影範囲1を撮影できる位置に固定され、警備ロボット101を撮影するカメラ103を示している。
【0038】
図2は、図1をカメラ103の上部から見た状態を示す図である。カメラ103は、警備ロボット101が検出する走行距離や走行方向の検出誤差が生じやすいと思われる通路が交差する部分を撮影する位置に設けられる。撮影された画像に基づいて警備ロボット101の推定位置が補正されることから、本発明の実施の形態では、カメラ103が警備ロボット101を撮影する地点を補正地点と記す。補正地点の位置は警備ロボット101に予め登録されている。
【0039】
なお、実施の形態1の自律移動体巡回システムでは、施設内の通路を巡回する場合、施設の天井にカメラ103を設けている。通路の幅を2mとして、通路全体を撮影すると仮定した場合、カメラ103に100×100の解像度を持ったものを用いれば、2cm単位で通路の位置情報を得ることができる。この位置情報の精度は警備ロボット101の位置を検出するのに充分な精度である。また、100×100の解像度を持ったカメラは現在特に高性能なカメラではなく、実施の形態1の自律移動体巡回システムは、安価なカメラを用いて構成できる。
【0040】
また、近年では、撮影した画像中の移動体を検出するなどの比較的簡単な画像処理ができる撮像素子がある。実施の形態1の自律移動体巡回システムは、このような撮像素子をカメラ103に代えて使用することもできる。
【0041】
図3は、実施の形態1のカメラ103と警備ロボット101との連携を説明するための図である。実施の形態1では、巡回システムを警備ロボット101とカメラ103とを、警備ロボット101を複数管理する監視コンピュータ400とカメラを制御する制御コンピュータ105とを介して接続するものとして説明する。また、カメラ103と制御コンピュータ105とを含む構成を便宜上カメラ側といい、警備ロボット101と制御コンピュータ105とを含む構成を便宜上警備ロボット側と記すこともある。
【0042】
図4、図5は、実施の形態1の自律移動体巡回システムを説明するためのブロック図であって、図4は警備ロボット側の構成を説明するための図であり、図5は、カメラ側の構成を説明するための図である。なお、図5では、説明の簡単のために制御コンピュータ105に1台のカメラ103を接続したが、実施の形態1の自律移動体巡回システムは、図3に示したように、1台の制御コンピュータ105が複数のカメラ103と接続し、複数のカメラ103を制御している。
【0043】
図4、図5に示すように、実施の形態1の自律移動体巡回システムは、自身の現在位置を推定する現在位置推定部406を有する警備ロボット101および警備ロボット101の監視コンピュータ400を備えている。また、実施の形態1の自律移動体巡回システムは、巡回コースを含む領域を撮影できる位置に固定され、警備ロボット101を撮影するカメラ103およびカメラ103の制御コンピュータ105を備えている。そして、制御コンピュータ105が、カメラ103によって撮影された画像中の警備ロボット101の位置を取得する画像処理部506と、画像中の警備ロボット101の位置に基づいて警備ロボット101が存在する実際の位置である実位置を算出する座標算出部507と、実位置を用い、現在位置推定部406によって推定された位置を補正する推定位置補正部407とを備えている。
【0044】
図3で示したように、実施の形態1は、カメラ103と警備ロボット101とを制御コンピュータ105と制御コンピュータ105とを介して接続している。実施の形態1の画像処理部506、座標算出部507は制御コンピュータ105に設けられ、推定位置補正部407は警備ロボット101に設けられている。図4、図5に示す構成においては、座標算出部507が算出した実位置を示すデータは、監視コンピュータ400を介し、無線信号として警備ロボット101に送信される
【0045】
座標算出部507は、実位置を座標として算出する構成であり、実位置を示すデータは、座標を表すデータとして警備ロボット101に送信される。実位置を座標で表す具体的な方法については、後に詳述する。
【0046】
また、警備ロボット101は、上記した構成のほか、警備ロボット101の移動距離を検出する移動距離検出部409、移動方向を検出する移動方向検出部410を備えている。現在位置推定部406は、移動距離検出部409、移動方向検出部410が検出した移動距離や移動方向に基づいて現在位置を推定している。移動距離検出部409は、例えば、警備ロボット101の車輪の回転数を検出し、検出された回転数をもとに走行した距離を検出する構成である。また、移動方向検出部410は、例えば、ジャイロセンサによって警備ロボット101が向いている方向を検出し、走行方向を推定する構成である。
【0047】
また、警備ロボット101は、警備用ロボット周囲の状況を把握する環境認識部411、人体を検知する人体検知センサ412、火災検知センサ413、漏水検知センサ414、異常事態の状態を記録するカメラ・マイク415を備えている。人体検知センサ412、火災検知センサ413、漏水検知センサ414のうちのいずれかを用いて異常事態の発生を検知する異常検知部408を備えている。
【0048】
環境認識部411は、警備ロボット周囲の状況を把握するために設けられた構成であり、例えば、超音波センサなどを使って壁面と警備ロボット101との距離を検出する。人体検知センサ412は、侵入者などを検知するためのセンサであり、赤外線検知センサや超音波センサなどが利用される。また、火災検知センサ413は、火災を検知するためのセンサであり、炎や煙を検知するセンサである。また、漏水検知センサ414は、警備ロボット101の底面に設けられ、走行する床面に水がないかを検知する。
【0049】
また、警備ロボット101は、警備ロボット101全体を制御する制御部401、制御部401の制御に必要なプログラムやデータ、さらに警備ロボット101が巡回する巡回コースのマップデータを記憶する記憶部402、監視コンピュータ400と信号を授受する通信部403、制御部401による制御にしたがって警備ロボット101を駆動する駆動部404、以上の構成におけるデータの入出力を制御する入出力部(I/O)405を備えている。
【0050】
通信部403は、監視コンピュータ400との間で無線による通信を行い、監視コンピュータ400の命令や情報を受信する構成である。また、監視コンピュータ400に対し、警備ロボット101の現在位置や状況を知らせる。さらに、異常検知部408が異常検知した場合、異常が検知されたことを監視コンピュータ400に送信する。この際、通信部403は、カメラ・マイク415によって撮影された画像、集音された音声を送ることもできる。
【0051】
駆動部404は、制御部401の指示によって警備ロボット101を走行させる構成である。制御部401は、駆動部404に出す指示を、現在位置推定部406、推定位置補正部407が出力する情報に基づいて決定している。
【0052】
さらに、警備ロボット101は、カメラ103に警備ロボット101が撮影範囲に入ることを伝えるためのトリガ信号を送信するトリガ信号送信部416を備えている。一方、カメラ103は、トリガ信号を受信する信号受信部508を備えている。トリガ信号は、例えばレーザ光や赤外線光といった光信号、音波、電波のいずれを使うものでもよい。
【0053】
また、制御コンピュータ105は、前記した構成のほか、カメラ103と信号を授受する通信部503、制御コンピュータ105全体を制御する制御部501、制御部501の制御に使用されるプログラムやデータを記憶する記憶部502、カメラ103の図示しないモータなどを制御部501の制御にしたがって駆動し、カメラをパンチルトカメラとして動作させる駆動部504、制御コンピュータ105におけるデータの入出力を制御する入出力部(I/O)505を備えている。なお、カメラ103のパンチルトカメラとしての動作については、実施の形態2で述べる。
【0054】
以上述べた構成は、以下のように動作する。すなわち、警備ロボット101は、推定位置に基づいて補正地点との距離が所定の距離以下になったか否か判断する。そして、補正地点に所定の距離まで接近したと判断した場合、トリガ信号送信部416からトリガ信号をカメラ103に送信し、補正地点に近づいたことを知らせる。
【0055】
送信されたトリガ信号は、カメラ103の信号受信部508によって受信される。トリガ信号を受信したことを示す情報は、通信部503、I/O505を介して制御部501に入力する。制御部501は、カメラ103が撮影した画像の画像データを取り込むよう通信部403を制御する。通信部403によって取り込まれた画像データは、画像処理部506に入力する。画像処理部506は画像データを処理して画像中の警備ロボット101の位置を求め、座標算出部507が画像中の警備ロボット101の位置に基づいて警備ロボット101の実位置を算出する。
【0056】
図6(a)〜(d)は、画像処理部506、座標算出部507によってなされる処理を説明するための図である。図6(a)に示すように、画像処理部506は、画像データを処理することによって画像aから警備ロボット101を抽出し、画像a中の警備ロボット101の位置を求める。移動する警備ロボット101の画像は、例えば、カメラ103で撮影範囲を通過する警備ロボット101を連続して撮影し、各画像中の警備ロボット101の画像の差分をとる、さらに警備ロボット101の大きさなどを使って警備ロボット101以外の移動する物体を画像aから除くことによって抽出することができる。画像a中の警備ロボット101の位置Pは、検出された警備ロボット101の重心を求めるなどの方法によって求められる。なお、このような警備ロボット101の位置を求める方法は、周知であるのでこれ以上の説明を省く。
【0057】
なお、連続して撮影された画像の差分により警備ロボット101の位置を求める際、警備ロボット101の走行方向を求めるようにしてもよい。その場合、撮影された画像中における走行方向を求めた後、カメラ103の向きなどを考慮して実際の走行方向に変換し、自律移動体の走行方向を求める。求められた走行方向は、自律移動体の推定された走行方向を補正するのに利用できる。
【0058】
座標算出部507は、例えば、図6(c)に示す変換テーブルを有している。図6(c)に示した変換テーブルは、ある補正地点Cを基準点として座標を定めたテーブルである。(c)に示したテーブルに(b)に示す点Pを重ね合わせると、図6(d)に示すように、補正位置Cを基準とするPの座標(−25,25)が求められる。このようにして求めた警備ロボット101の位置の情報は、監視コンピュータ400を介して警備ロボット101に送信される。警備ロボット101の推定位置補正部407は、送信された情報に基づいて推定位置を補正する。
【0059】
図7、図8は、推定位置補正部407の推定位置補正の処理を説明するための図である。図7は、警備ロボット101の記憶部402に記憶された巡回コースのマップデータを示す図である。マップデータは、破線で示す巡回コース701と、巡回コース701上にある補正地点A〜Fの座標とを記録したデータである。図示したマップデータに従えば、警備ロボット101は、補正地点Aをスタート位置として順次補正地点B、C、D…を通る順序で巡回し、補正地点Aに戻る。また、警備ロボット101は、各補正地点で算出された実位置に基づいて推定位置を補正している。
【0060】
実施の形態1では、A〜Fの複数の補正地点を備えている。補正地点A〜Fの各々は、それぞれに対応付けられたカメラ103によって撮影される。したがって、実施の形態1の自律移動体巡回システムはカメラ103および補正地点を複数備えたものとなる。補正地点A〜Fにそれぞれ対応付けられたカメラ103の撮影範囲を、それぞれ702〜707として図中に示す。
【0061】
図8(a)、(b)は、補正地点Cにおいて推定位置を補正する手順を説明するための図であって、(a)、(b)は、それぞれ画像における位置を実位置に変換する変換テーブルを示している。(a)は補正地点を基準にして補正地点で得られた座標を示す変換テーブルで、(b)はスタート地点である補正地点Aを原点とした座標を巡回される領域に割り当てた変換テーブルである。
【0062】
(a)に示した変換テーブルを用いて推定位置を補正する場合、推定位置補正部407は、マップデータから補正地点Cの座標が(1000,800)であることを認識する。そして、図6で説明した手順で座標(−25,25)が得られた場合、座標(1000,800)を基準にして座標(−25,25)を示すことにより、座標(975,825)を得る。座標(975,825)は、補正地点A、つまり警備ロボット101のスタート地点を基準とする警備ロボット101の実位置である。現在位置推定部406が推定した推定位置は、得られた実位置によって補正される。
【0063】
また、図8に示した変換テーブル(b)を用いて推定位置を補正する場合、図6で説明した手順で算出された座標を変換テーブルの対応する座標に割り当てることにより、マッピングデータを用いることなく直接実位置を座標として得ることができる。
【0064】
図9は、以上述べた実施の形態1の自律移動体の巡回システムで行われる警備ロボット(自律移動体)101の位置補正方法を説明するためのフローチャートである。なお、図9に示したフローチャートは、実施の形態1において、制御コンピュータ105でなされる処理である。
【0065】
制御コンピュータ105は、カメラ103の信号受信部508がトリガ信号を受信したか否か判断する(ステップS901)。そして、トリガ信号を受信していないと判断した場合(ステップS901:No)、トリガ信号の受信まで待機する。また、トリガ信号を受信したと判断した場合(ステップS901:Yes)、カメラ103が撮影した画像の画像データを取り込む(ステップS902)。
【0066】
次に、制御コンピュータ105は、図6で説明したように、画像データから警備ロボット101の画像だけを抽出する。そして、抽出された画像の重心をとり、警備ロボット101の画像における位置を取得する(ステップS903)。さらに、画像における警備ロボット101の位置に基づいて補正地点を基準とする警備ロボット101の実位置の座標を算出する(ステップS904)。算出された座標に関する座標データは、監視コンピュータ400を介し、無線信号として警備ロボット101に送信される(ステップS905)。
【0067】
以上述べた実施の形態1の自律移動体巡回システムは、固定されたカメラ103によって移動する警備ロボット101を撮影した画像のデータを使って警備ロボット101の位置を検出している。このため、画像から警備ロボット101だけを抽出し、警備ロボット101の重心を求めることによって画像中の警備ロボット101の位置を取得することができる。このような実施の形態1の処理は、構造物や標識といった推定位置を補正する箇所ごとに設けられた目標物を警備ロボット101に取り付けられたカメラで撮影された画像から抽出するよりも簡単である。このため、実施の形態1は、従来よりも短時間に警備ロボット101が推定した現在位置を修正し、警備ロボット101の走行にリアルタイムに対応することができる。
【0068】
また、本発明は、以上述べた実施の形態1に限定されるものではない。すなわち、本発明の自律移動体巡回システムは、警備ロボット101が複数あるカメラ103のうちのいずれかを指定して推定位置の補正を開始、または終了する信号を出力するようにしてもよい。カメラ103の指定は、例えば、警備ロボット101が送信するトリガ信号にカメラ103のそれぞれに固有の情報を付与することによって可能になる。
【0069】
カメラ103のそれぞれに固有の情報は、光信号であるトリガ信号に対しては、例えば光の明滅のパターンによって付与できる。また、音波信号であるトリガ信号に対しては、カメラ103ごとに音波の周波数を設定することによって付与できる。さらに、電波であるトリガ信号に対しては、電波にIDコードを重畳するようにしてもよい。
【0070】
各カメラ103に固有の情報は、制御コンピュータ105の記憶部502に予め記憶されている。制御コンピュータ105は、信号受信部508がトリガ信号を受信すると、トリガ信号に付与された情報がどのカメラ103に固有の情報と一致するかによってどのカメラ103を指定したものか判断する。そして、指定を受けたカメラ103が撮影した画像に関するデータを画像処理部506に提供する。
【0071】
上記した構成によれば、警備ロボット101が送信したトリガ信号が警備ロボット101がいる撮影範囲に対応するカメラ103以外のカメラ103に受信され、このカメラ103が自身の撮影範囲を撮影する誤動作を防ぐことができる。
【0072】
また、実施の形態1の自律移動体巡回システムでは、前記した複数のカメラ103の各々に固有の識別情報としてアドレスを付与することもできる。制御部501は、アドレスに基づいて画像を撮影したカメラ103を識別する。そして、このカメラ103が撮影した画像の画像データを画像処理部506に与える。また、このとき、制御コンピュータ105の記憶部502にアドレスと共にアドレスに対応する各カメラ103の向き(角度)や撮影範囲といった撮影条件に関する情報を記憶しておけば、画像処理部506、座標算出部507は、画像中の警備ロボット101の位置の取得、あるいは実位置の座標の算出の処理にカメラ103の撮像条件を考慮することができる。
【0073】
以上の構成によれば、より高い精度で警備ロボット101の実位置の座標を算出し、警備ロボット101の推定位置を正確な位置に補正することができる。
【0074】
また、実施の形態1の自律移動体巡回システムでは、画像処理部506、座標算出部507を共に制御コンピュータ105に設け、画像中の警備ロボット101の位置の取得、取得された位置の実位置への座標変換をカメラ側で行っている。しかし、本発明は、このような実施の形態に限定されるものでなく、実位置への座標変換を警備ロボット側で行ってもよい。なお、カメラ側、警備ロボット側に対する処理の振り分けについては後にも述べる。
【0075】
(実施の形態2)
次に、本発明の実施の形態2について説明する。なお、実施の形態2の構成のうち、実施の形態1と同様の構成については同様の符号を付して示し、説明を一部省くものとする。
【0076】
実施の形態2の自律移動体巡回システムは、駆動部504がカメラ103の角度を変更し、1台のカメラ103に複数の角度から画像を撮影させると共に、制御部501がカメラ103を制御してカメラ103によって撮像される画像倍率を変更するものである。実施の形態2では、角度を変更して複数の角度から画像を撮影する機能をパンチルト機能といい、画像倍率を変更する機能をズーム機能という。また、撮影角度や撮影倍率を予め設定しておくことをプリセットという。
【0077】
図10は、実施の形態2の自律移動体巡回システムにパンチルト機能を利用した構成を説明するための図である。図示した構成では、巡回コースに沿って複数の補正地点G〜Iが設けられていて、制御コンピュータ105の記憶部502には各補正地点を撮影する際のカメラ103の角度が記憶されている。
【0078】
実施の形態2においても、補正地点G〜Iの各位置で行なわれる補正は、警備ロボット101が送信するトリガ信号をカメラ103が受信すると開始される。カメラ103は、警備ロボット101が補正地点G〜Iの各々の撮影範囲にはいるたびに信号受信部508でトリガ信号を受信し、制御コンピュータ105は、カメラ103をプリセットされた角度に向けるよう制御する。制御コンピュータ105がカメラ103を制御して角度を変更する際の制御信号は、例えば以下のように設定される。
▲1▼補正地点G:カメラ向き X軸;x1,Y軸:y1
▲2▼補正地点H:カメラ向き X軸;x2,Y軸:y2
▲3▼補正地点I:カメラ向き X軸;x3,Y軸:y3
なお、上記した角度は、上下角、回転角のいずれであってもよい。
【0079】
また、カメラ103のパンチルト機能を利用して推定位置を補正する場合には、警備ロボット101が送信するトリガ信号に補正地点G〜Iの各々を特定する識別情報を付与してもよい。トリガ信号に補正地点を識別する情報を付与した場合、制御コンピュータ105は、信号受信部508が受信した信号に付与された識別情報に基づいてカメラ103を向ける角度を判定する。
【0080】
図11は、実施の形態2の自律移動体巡回システムにズーム機能を利用した構成を説明するための図である。図示した構成では、巡回コースに沿って複数の補正地点J〜Lが設けられていて、制御コンピュータ105の記憶部502には各補正地点を撮影する際のカメラ103の撮影倍率が記憶されている。
【0081】
カメラ103は、警備ロボット101が補正地点J〜Lの各々の撮影範囲にはいるたびに信号受信部508でトリガ信号を受信し、制御コンピュータ105は、カメラ103の撮影倍率をプリセットされた倍率に制御する。制御コンピュータ105がカメラ103を制御して撮影倍率を変更する際の制御信号は、例えば以下のように設定される。
▲1▼補正地点J:倍率 zzz1
▲2▼補正地点K:倍率 zzz2
▲3▼補正地点L:倍率 zzz3
【0082】
また、カメラ103のズーム機能を利用して推定位置を補正する場合には、警備ロボット101が送信するトリガ信号に補正地点J〜Lの各々を特定する識別情報を付与してもよい。トリガ信号に補正地点を識別する情報を付与した場合、制御コンピュータ105は、信号受信部508が受信した信号に付与された識別情報に基づいて補正地点を識別し、補正地点に対応する倍率でカメラ103に画像を撮影させる。
【0083】
カメラ103のズーム機能を利用する構成は、例えば屋外で警備ロボット101を比較的遠方から撮影して推定位置を補正する場合、近づいてくる警備ロボット101を除々にズームアップして警備ロボット101の位置の検出精度を高め、誤差を低減することに有利である。
【0084】
また、ズーム機能は、各補正地点で警備ロボット101とカメラ103との距離が変化する場合にも警備ロボット101を各補正地点で等しい大きさに撮影することができる。警備ロボット101を補正地点によらず等しい大きさに撮影することにより、各補正地点で等しい精度で警備ロボット101の位置を取得することができる。また、ズーム機能を利用して警備ロボット101を大きく撮影すると、警備ロボット101の位置を高い精度で取得することができる。
【0085】
図12は、パンチルト機能とズーム機能とを実施の形態2の自律移動体巡回システムに利用した構成を説明するための図である。図示した構成では、巡回コースに沿って複数の補正地点M〜Oが設けられていて、制御コンピュータ105の記憶部502には各補正地点を撮影する際のカメラ103の角度と撮影倍率とが記憶されている。
【0086】
カメラ103は、警備ロボット101が補正地点M〜Oの各々の撮影範囲にはいるたびに信号受信部508でトリガ信号を受信し、制御コンピュータ105は、カメラ103をプリセットされた角度に向け、また、プリセットされた撮影倍率に設定する。制御コンピュータ105がカメラ103を制御して角度および撮影倍率を変更する際の制御信号は、例えば以下のように設定される。
▲1▼補正地点G:カメラ向き X軸;x1,Y軸:y1 倍率 zzz1
▲2▼補正地点H:カメラ向き X軸;x2,Y軸:y2 倍率 zzz2
▲3▼補正地点I:カメラ向き X軸;x3,Y軸:y3 倍率 zzz3
【0087】
図13は、以上述べた実施の形態2で行われるカメラ103を制御する処理を説明するためのフローチャートである。図示したフローチャートは、パンチルト機能とズーム機能とを利用して1台のカメラ103が三つの補正地点で推定位置を補正する処理を説明している。
【0088】
図示するように、実施の形態2では、1台のカメラ103によって撮影される補正地点のうち、第1のトリガ信号▲1▼を信号受信部508が受信したか否か制御コンピュータ105が判断する(ステップS1301)。この結果、トリガ信号▲1▼が受信されていなければ、受信されるまで待機する(ステップS1301:No)。
【0089】
また、ステップS1301の判断でトリガ信号▲1▼が受信されたと判断した場合(ステップS1301:Yes)、制御コンピュータ105は、第1の補正地点に対応するカメラ角度データ▲1▼と撮影の倍率データ▲1▼とを記憶部502から読み出す(ステップS1302)、(ステップS1303)。そして、カメラ103をカメラ角度データ▲1▼と倍率データ▲1▼とにしたがって制御する(ステップS1304)。
【0090】
次に、制御コンピュータ105は、第2のトリガ信号▲2▼を信号受信部508が受信したか否か判断する(ステップS1305)。この結果、トリガ信号▲2▼が受信されていなければ、受信されるまで待機する(ステップS1305:No)。
【0091】
また、ステップS1305の判断でトリガ信号▲2▼が受信されたと判断した場合(ステップS1305:Yes)、制御コンピュータ105は、第2の補正地点に対応するカメラ角度データ▲2▼と撮影の倍率データ▲2▼とを記憶部502から読み出す(ステップS1306)、(ステップS1307)。そして、カメラ103をカメラ角度データ▲2▼と倍率データ▲2▼とにしたがって制御する(ステップS1308)。
【0092】
さらに、制御コンピュータ105は、第3のトリガ信号▲3▼を信号受信部508が受信したか否か判断する(ステップS1309)。この結果、トリガ信号▲3▼が受信されていなければ、受信されるまで待機する(ステップS1309:No)。
【0093】
また、ステップS1309の判断でトリガ信号▲3▼が受信されたと判断した場合(ステップS1309:Yes)、制御コンピュータ105は、第3の補正地点に対応するカメラ角度データ▲3▼と撮影の倍率データ▲3▼とを記憶部502から読み出す(ステップS1310)、(ステップS1311)。そして、カメラ103をカメラ角度データ▲3▼と倍率データ▲3▼とにしたがって制御する(ステップS1312)。
【0094】
以上の処理の終了後、制御コンピュータ105は、カメラ103を初期の位置にセットし(ステップS1313)、次回の警備ロボット101の撮影に備える。
【0095】
以上述べた実施の形態2の自律移動体巡回システムは、1台のカメラ103によって複数の補正地点を撮影することができるので、広い空間や屋外を少数のカメラで監視することができる。このため、自律移動体巡回システムのコストを抑えることができる。また、1台のカメラ103で複数の補正地点を撮影する場合には、撮影された画像のデータに撮影した補正地点や角度、撮影倍率を付与しておくことが望ましい。一般的な監視カメラにもパンチルト機能やズーム機能を持つものがあり、実施の形態2の自律移動体巡回システムは、普段は警備システムで利用されている監視カメラを一時的に自律移動体の位置補正に利用しても実現することが可能である。
【0096】
(実施の形態3)
次に、本発明の実施の形態3について説明する。なお、実施の形態3の構成のうち、実施の形態1と同様の構成については同様の符号を付して示し、説明を一部省くものとする。
【0097】
実施の形態3の自律移動体巡回システムは、警備ロボット101が、通信部403によって推定位置示す推定位置データをカメラ103に送信する。カメラ103は、例えば信号受信部508を利用して推定位置データを受信する。推定位置データは通信部503を介して制御部501に入力し、制御部401は、駆動部504を制御し、推定位置データが示す位置を中心とする画像を撮像する角度にカメラ103を向ける。そして、画像処理部506は、推定位置データが示す位置を中心とする画像中の警備ロボット101の位置を求め、座標算出部507は、画像中の警備ロボット101の位置と画像の中心位置とを比較して実位置を算出するものである。
【0098】
図14(a)、(b)は、実施の形態3の警備ロボット101の推定位置を利用して実位置の座標を算出する処理を説明するための図である。図14(a)は、警備ロボット101が推定位置として点Pの座標(1000,1000)を出力した場合、カメラ103の角度を変更して撮影された点Pを中心とする画像を示す図である。また、(b)は、(a)に示した画像中の警備ロボット101を示す図である。警備ロボット101は、図示するように、画像の点Pからずれた点P’にある。
【0099】
(b)に示した画像のデータを処理して座標に変換すると、点P’の座標が得られる。点P’の座標が例えば(950,1050)であると、警備ロボット101が推定した推定位置は実位置から(−50,50)ずれていることになる。実位置の座標は、制御コンピュータ105から監視コンピュータ400を介して警備ロボット101に送信され、推定位置を補正する。
【0100】
以上述べた実施の形態3の自律移動体巡回システムは、警備ロボット側が送信する推定位置を使ってカメラ103の撮像位置を決定するので、補正地点を予め定める必要がなく、自律移動体巡回システムを簡易に設定することができる。また、比較的広い空間や屋外を巡回コースとする場合にも有利である。
【0101】
なお、実施の形態3では、カメラ角度の決定を制御コンピュータ105で行うものとしたが、本発明はこのような実施の形態に限定されるものでなく、警備ロボット側で行うこともできる。
【0102】
また、以上説明した本発明の自律移動体巡回システムは、いずれも画像処理部506と座標算出部507とをカメラ側に備え、実位置の座標データを警備ロボット側に送信している。画像中の警備ロボット101の位置の取得、取得された位置の実位置への座標変換をカメラ側で行った場合、巡回システムの設定を巡回コースにカメラ103を設置する際にその場で行うことができるという利点がある。
【0103】
しかし、本発明は、このような構成に限定されるものでなく、例えば図15(a)、(b)に示すように構成することもできる。なお、図15は、カメラ側と警備ロボット側との画像処理、座標変換の処理の割り振りを説明するための図であり、このために画像処理部506、座標算出部507以外の構成を図示していない。しかし、カメラ側1501、警備ロボット側1502は、いずれも図4、図5に示した画像処理部506、座標算出部507以外の構成を備えている。
【0104】
図15(a)に示した構成は、カメラ側が画像処理部506を備え、警備ロボット側1502が座標算出部507を備えている。画像処理部506が取得した画像における自律移動体の位置を示すデータd1は、無線信号として監視コンピュータ400に送信される。警備ロボット側1502は、監視コンピュータ400を介し、データd1受信する。このような構成は、カメラ側から警備ロボット側へ送信されるデータのデータ量を低減することができるという利点を持つ。
【0105】
図15(b)に示した構成は、警備ロボット側1502が画像処理部506と座標算出部507とを備えている。カメラ103によって撮影された画像を示すデータd2は、無線信号として監視コンピュータ400に送信される。警備ロボット101は、監視コンピュータ400を介してデータd2を受信する。このような構成は、推定位置の補正にかかるデータを警備ロボット側で一括して管理することができるという利点を持つ。
【0106】
さらに、本発明の自律移動体巡回システムは、実施の形態1〜3のようにカメラ103と警備ロボット101とを制御コンピュータ105、監視コンピュータ400を介して接続するものに限定されるものではない。図16は、カメラと警備ロボットとの接続例を示した図である。図16(a)は、カメラ1601と警備ロボット1602とが直接情報を授受する構成を示している。このように構成する場合、カメラ1601にはカメラ103に加えて制御コンピュータ105の機能の一部が設けられ、警備ロボット101には監視コンピュータ400の少なくとも通信部が設けられている。
【0107】
また図16(b)は、カメラ103の制御コンピュータ105と警備ロボット1602とを接続した構成を示している。さらに、図16(c)は、カメラ1601と警備ロボット101とを監視コンピュータ400を介して接続した構成を示している。
【0108】
また、実施の形態1〜3では、画像処理部506が警備ロボットの画像中の位置だけを取得しているが、本発明はこのような例に限定されるものでなく、連続して撮影された複数の画像を使って警備ロボット101の移動方向をも特定することができる。
【0109】
さらに、本発明の自律移動体巡回システムは、従来技術として挙げた巡回システムと汲み合わせることもできる。すなわち、滑りやすい通路や曲がり角など推定位置に誤差が生じやすい位置、あるいは広い空間や屋外など従来の巡回システムで推定位置の補正が困難な場所にだけ本発明を適用すると、本発明の実施に必要なカメラの数を低減し、全体的に低コストの巡回システムを構成することができる。
【0110】
【発明の効果】
以上説明したように、請求項1に記載の発明は、常に一定の位置、一定の角度で撮像された画像から自律移動体という目標物だけを抽出することができるので、より簡易な画像処理で自律移動体の位置を取得し、ひいては簡易な処理で自律移動体の推定位置を補正することができる自律移動体巡回システムを提供することができるという効果を奏する。
また、請求項1に記載の発明は、補正地点を予め設ける必要がなく、自律移動体周囲の空間が広い領域を巡回コースにしたがって正確に巡回できる自律移動体巡回システムを提供することができるという効果を奏する。
【0111】
請求項2に記載の発明は、この常に一定の位置および角度から同じ位置を撮像した画像を使って実位置を算出することができるため、より正確な実位置を得ることができる自律移動体巡回システムを提供することができるという効果を奏する。
【0112】
請求項3に記載の発明は、不適切な画像データが推定位置の補正に使用されることをなくし、より信頼性の高い実位置を得ることができる自律移動体巡回システムを提供することができるという効果を奏する。
【0113】
請求項4に記載の発明は、自律移動体が識別情報に基づいて画像を撮像した撮像手段を識別することができるので、識別情報をもとに任意の撮像手段で撮影された画像により正確な実位置を得ることができる自律移動体巡回システムを提供することができるという効果を奏する。
【0115】
請求項に記載の発明は、自律移動体が実位置を示すデータを無線信号として受信することができるため、実位置算出までの処理をカメラ側で設定でき、巡回コースの現場で設定しやすい自律移動体巡回システムを提供することができるという効果を奏する。
【0116】
請求項に記載の発明は、自律移動体が画像位置取得手段が取得した画像における自律移動体の位置を示すデータを無線信号として受信することができるため、自律移動体側に送信するデータのデータ量が少ない自律移動体巡回システムを提供することができるという効果を奏する。
【0117】
請求項に記載の発明は、自律移動体が撮像手段によって撮像された画像を示すデータを無線信号として受信することができるため、自律移動体がそれぞれ推定現在位置の補正に必要なデータを一括して管理することができる自律移動体巡回システムを提供することができるという効果を奏する。
【0118】
請求項に記載の発明は、より少ない数のカメラでより広い領域を撮像することができるので、カメラの数が低減できる自律移動体巡回システムを提供することができるという効果を奏する。
【0119】
請求項に記載の発明は、撮像手段の撮影方向または撮像倍率を変更した場合にも、例えば、予め設定された補正地点にすばやくカメラを向け、あるいは最適な撮像倍率で画像を撮像することができ、正確な実位置を得ることができる自律移動体巡回システムを提供することができるという効果を奏する。
【0120】
請求項10に記載の発明は、撮像手段により撮影された画像から自律移動体の走行方向を求め、それをもとに自律移動体の推定された走行方向を補正することができるという効果を奏する。自律移動体の位置の他、走行方向の誤差も補正することができるので、より正確な走行が可能な自律移動体巡回システムを提供することができるという効果を奏する。
【0121】
請求項11に記載の発明は、常に一定の位置、一定の角度で撮像された画像から自律移動体という目標物だけを抽出することができるので、より簡易な画像処理で自律移動体の位置を取得し、ひいては簡易な処理で自律移動体の推定位置を補正することができる自律移動体の位置補正方法を提供することができるという効果を奏する。
また、請求項11に記載の発明は、補正地点を予め設ける必要がなく、自律移動体周囲の空間が広い領域を巡回コースにしたがって正確に巡回できる自律移動体巡回システムを提供することができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の実施の形態1の自律移動体巡回システムを説明するための図である。
【図2】図1をカメラの上部から見た状態を示す図である。
【図3】実施の形態1のカメラ103と警備ロボット101との連携を説明するための図である。
【図4】実施の形態1の自律移動体巡回システムを説明するためのブロック図である。
【図5】実施の形態1の自律移動体巡回システムを説明するための他のブロック図である。
【図6】図5に示した画像処理部、座標算出部によってなされる処理を説明するための図である。
【図7】図4に示した推定位置補正部の推定位置補正の処理を説明するための図である。
【図8】図4に示した推定位置補正部の推定位置補正の処理を説明するための他の図である。
【図9】実施の形態1の自律移動体巡回システムで行われる自律移動体の位置補正方法を説明するためのフローチャートである。
【図10】実施の形態2の自律移動体巡回システムにパンチルト機能を利用した構成を説明するための図である。
【図11】実施の形態2の自律移動体巡回システムにズーム機能を利用した構成を説明するための図である。
【図12】パンチルト機能とズーム機能とを実施の形態2の自律移動体巡回システムに利用した構成を説明するための図である。
【図13】実施の形態2のカメラを制御する処理を説明するためのフローチャートである。
【図14】実施の形態3の実位置の座標を算出する処理を説明するための図である。
【図15】カメラ側と警備ロボット側との画像処理、座標変換の処理に割り振りを説明するための図である。
【図16】カメラと警備ロボットとの接続例を示した図である。
【符号の説明】
101,1602 警備ロボット
103,1601 カメラ
105 制御コンピュータ
400 監視コンピュータ
401 制御部
402 記憶部
403 通信部
404 駆動部
406 現在位置推定部
407 推定位置補正部
408 異常検知部
409 移動距離検出部
410 移動方向検出部
411 環境認識部
412 人体検知センサ
413 火災検知センサ
414 漏水検知センサ
415 カメラ・マイク
416 トリガ信号送信部
501 制御部
502 記憶部
503 通信部
504 駆動部
506 画像処理部
507 座標算出部
508 信号受信部
701 巡回コース
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an autonomous mobile body traveling system in which an autonomous mobile body circulates a preset traveling course and a position correction method for an autonomous mobile body to travel.
[0002]
[Prior art]
Currently, there is an autonomous mobile body that stores data on a preset traveling course and moves along the traveling course while estimating the distance, traveling direction, and current position of the traveling course. For example, when the autonomous mobile body is configured to travel using drive wheels provided on the left and right sides of the main body, the autonomous mobile body detects the travel distance based on the number of rotations of the drive wheels. Further, for example, a gyro compass is used for detecting the traveling direction. In addition, the autonomous mobile body estimates its current position based on the detected travel distance and travel direction.
[0003]
The travel distance and travel direction detected by the autonomous mobile body include some errors due to slip of the drive wheels and measurement errors. For this reason, the current position (estimated position) estimated based on the detection result becomes inaccurate, and the autonomous mobile body cannot accurately grasp its current position, so that it may not be possible to go around the traveling course as set. There is. For this reason, various techniques for correcting the estimated position of the autonomous mobile body have been proposed.
[0004]
Conventional techniques for correcting the estimated position of the autonomous mobile body include those using image processing and those using a reflector and a laser. In the correction of the estimated position using image processing, an image of the target image taken in the traveling course is stored in advance in the autonomous mobile body. Then, a camera is mounted on the autonomous mobile body to go around the tour course, and when the same image as the stored image is taken, the target is taken at the position estimated by the autonomous mobile body. An error between the position estimated by the autonomous mobile body and the position where the autonomous mobile body actually exists is detected by comparing the captured image with the stored image. In the correction of the estimated position using image processing, a corner of a facility passage, a structure, a tree, and a sign are used as targets.
[0005]
For correction of the estimated position using the reflector and the laser, a configuration for outputting the laser beam to the autonomous mobile body is provided, and a reflector for reflecting the laser beam is provided on the traveling course. Data indicating the position of the reflector is stored in advance in the autonomous mobile body. When the autonomous mobile body circulates while outputting laser light and receives the reflected light reflected by the reflector, the position is reflected. It is determined that the position is where the plate is provided. Then, the position where the reflected light is actually received is compared with the position where it is estimated that the reflecting plate is provided, and the estimated position is corrected so that they match.
[0006]
In recent years, it has been studied to use an autonomous mobile body as a security robot that patrols a facility instead of a security guard and detects a fire or an intruder. When used as a security robot, the autonomous mobile body is equipped with an abnormality detection sensor that detects the occurrence of an abnormal situation such as a fire or an intruder. Then, when an abnormality is detected by the installed abnormality detection sensor, the autonomous mobile body is moved in the direction in which the abnormality was detected by moving off the circuit course, and after the countermeasures such as checking the state of the abnormality are completed, the patrol is resumed. Return to the course. In this way, the autonomous mobile body used as a security robot may travel outside the course assumed in advance, so if it is not always traveling with an accurate position, it travels off the traveling course. There is a risk that you will not be able to return to the tour course later. For this reason, for an autonomous mobile body used as a security robot, it is particularly important to correct the estimated position and grasp the accurate position.
[0007]
[Problems to be solved by the invention]
However, since the technique for correcting the estimated position by image processing extracts a target from a moving image taken while the autonomous mobile body travels, complicated processing is required to extract the target. In addition, since it is necessary to obtain the relative distance between the autonomous mobile object that travels and the target object after the target is extracted, or the traveling direction of the autonomous mobile object, the processing necessary for correction becomes complicated and It becomes difficult to correct the estimated position of the autonomous moving body in real time.
[0008]
In addition, the technique for correcting the estimated position using the reflector and the laser cannot confirm the current position of the autonomous mobile body other than the position where the reflector is provided. In addition, since the distance between the autonomous mobile body and the reflector cannot be detected, there is a problem that it is difficult to use other than the detection of the travel distance of the security robot that patrols the facility.
[0009]
In particular, when an autonomous mobile body is used as a security robot, the tour course is set according to the client's request. Some of these traveling courses have a high degree of freedom in traveling autonomously moving bodies such as gymnasiums and venues provided outdoors, and it is difficult to provide targets and reflectors. Therefore, when using an autonomous mobile body as a security robot, the technique for correcting the estimated position by the above-described image processing is difficult to extract the target, and the relative distance and angular displacement between the autonomous mobile body and the target are difficult. The technique of correcting the estimated position using a reflector and a laser is difficult to use in places such as gymnasiums and outdoors.
[0010]
The present invention has been made in view of the above points, and provides an autonomous mobile body traveling system and an autonomous mobile body position correction method capable of correcting the estimated position of the autonomous mobile body with simpler processing. Is the first purpose.
[0011]
In addition, a second object of the present invention is to provide an autonomous mobile body traveling system and an autonomous mobile body position correction method capable of accurately traveling according to a traveling course even if the space around the autonomous mobile body is wide. To do.
[0012]
[Means for Solving the Problems]
  In order to solve the above-described problems and achieve the object, the autonomous mobile traveling system according to the first aspect of the present invention is an autonomous mobile traveling system in which an autonomous mobile travels around a preset traveling course. An autonomous mobile body provided with a current position estimating means for estimating its current position, an imaging means for imaging the autonomous mobile body that is fixed at a position for imaging an area including the traveling course, and imaging by the imaging means An actual position for calculating an actual position where the autonomous mobile body is present based on the position of the autonomous mobile body in the image and an image position acquisition means for obtaining the position of the autonomous mobile body in the image A calculating means; and an estimated position correcting means for correcting the position estimated by the current position estimating means using the actual position;Driving means for driving the imaging means, and the autonomous mobile body includes estimated current position transmitting means for transmitting estimated current position data indicating a current position estimated by the current position estimating means to the imaging means. In addition, the imaging unit includes an estimated current position receiving unit that receives the estimated current position data, and the driving unit drives the imaging unit to an angle for capturing an image centered on a position indicated by the estimated current position data. The image position acquisition means obtains the position of the autonomous mobile body in the image centered on the position indicated by the estimated current position data, and the actual position calculation means calculates the position of the autonomous mobile body in the image and the center position of the image. To calculate the actual positionFeatures.
[0013]
  According to the first aspect of the present invention, the autonomous mobile body is imaged by the imaging means fixed at the position where the region including the traveling course is imaged, and the position of the autonomous mobile body in the captured image is obtained. Further, an actual position, which is an actual position where the autonomous mobile body exists, can be calculated based on the position of the autonomous mobile body, and the estimated position can be corrected using the calculated actual position. For this reason, it is possible to always extract only a target object such as an autonomous mobile body from an image captured at a constant position and a constant angle.
According to the first aspect of the present invention, the position of the autonomous mobile body in the image centered on the position indicated by the estimated current position data is obtained, and the position of the autonomous mobile body in the image and the center position of the image are determined. Since the actual position can be calculated by comparing the two, the actual position of the autonomous mobile body can be obtained at an arbitrary position.
[0014]
The autonomous mobile circuit system according to claim 2 is provided with a correction point that is a point for correcting the position estimated by the current position estimation unit, and the imaging unit associated with the correction point is the autonomous region. A moving object is imaged.
[0015]
According to the second aspect of the present invention, since the autonomous mobile body is imaged by the imaging means associated with the correction point at the correction point, it is always used by using an image obtained by imaging the same position from a certain position and angle. The position can be calculated.
A plurality of correction points may be provided. Further, the correspondence between the correction point and the imaging unit may not be one-to-one, and one imaging unit may be associated with a plurality of correction points.
[0016]
An autonomous mobile body patrol system according to a third aspect of the present invention includes a plurality of the imaging means, and the autonomous mobile body is estimated by the current position estimation means by designating any of the plurality of imaging means. In addition to having signal output means for outputting a signal for starting or ending position correction, the imaging means has designation determination means for determining whether or not designation has been received based on the signal output by the signal output means. And when the said designation | designated judgment means judges that the designation | designated of the said autonomous mobile body was received, the data regarding the image imaged to the said image position acquisition means are provided, It is characterized by the above-mentioned.
[0017]
According to the third aspect of the present invention, the estimated position can be corrected using the image data provided by the imaging means designated as the autonomous mobile body among the plurality of imaging means. Therefore, it is possible to eliminate use of correct image data for correcting the estimated position.
[0018]
The autonomous mobile body patrol system according to the invention described in claim 4 identifies the imaging means in which each of the imaging means has unique identification information, and the autonomous mobile body takes an image based on the identification information. The position estimated by the current position estimating means is corrected using an image photographed by an arbitrary imaging means.
[0019]
According to the fourth aspect of the present invention, the autonomous mobile body identifies the imaging unit that captured the image based on the identification information, and corrects the estimated position using the image captured by the arbitrary imaging unit. can do.
[0022]
  Claim5The autonomous mobile body patrol system according to the invention described above is characterized in that the autonomous mobile body receives data indicating the actual position calculated by the actual position calculation means as a radio signal.
[0023]
  This claim5According to the invention described in (4), the autonomous mobile body can receive data indicating the actual position as a radio signal.
[0024]
  Claim6In the autonomous mobile body patrol system according to the invention, the autonomous mobile body includes the actual position calculation unit, and the autonomous mobile body stores data indicating the position of the autonomous mobile body in the image acquired by the image position acquisition unit. It is received as a radio signal.
[0025]
  This claim6According to the invention described in, data indicating the position of the autonomous mobile body in the image acquired by the image position acquisition means can be received as a radio signal by the autonomous mobile body.
[0026]
  Claim7In the autonomous mobile body patrol system according to the invention, the autonomous mobile body includes the image position acquisition unit and the actual position calculation unit, and the autonomous mobile body stores data indicating an image captured by the imaging unit. It is received as a radio signal.
[0027]
  This claim7According to the invention described in (4), the autonomous mobile body can receive data indicating an image captured by the imaging means as a radio signal.
[0028]
  Claim8The autonomous mobile patrol system according to the invention described inin frontThe image pickup means further includes a magnification change means for changing an image pickup magnification taken by the image pickup means.Alternatively, the drive unit changes the shooting direction of the imaging unit and causes the image pickup unit to pick up images at a plurality of positions.It is characterized by.
[0029]
  This claim8According to the invention described in (1), it is possible to pick up images of different places with one image pickup means, or to change the image magnification picked up by the image pickup means, so it is wider with a smaller number of cameras. An area can be imaged.
[0030]
  Claim9The autonomous mobile body patrol system according to the invention described above is characterized in that at least one of the imaging direction of the imaging unit and the imaging magnification is registered in advance.
[0031]
  This claim9According to the invention described in (1), since at least one of the shooting direction and the imaging magnification of the imaging unit can be registered in advance, for example, the camera is quickly directed to a preset correction point, or the optimum imaging magnification is obtained. An image can be taken with.
[0032]
  Claim10In the autonomous mobile patrol system according to the invention described above, the current location estimating means further estimates the traveling direction, and obtains the traveling direction for obtaining the traveling direction of the autonomous moving body in the image taken by the imaging means. And a travel direction correcting means for correcting the travel direction estimated by the current location estimating means using the travel direction obtained by the travel direction obtaining means.
[0033]
  This claim10According to the invention described in the above, it is possible to obtain the traveling direction of the autonomous mobile body from the image captured by the imaging unit, and to correct the estimated traveling direction of the autonomous mobile body based on the travel direction.
[0034]
  Claim11The position correction method of the autonomous mobile body according to the invention described inExecuted in an autonomous mobile patrol system,A method for correcting the position of an autonomous moving body that circulates a preset traveling course,The autonomous mobile body patrol system includes an imaging unit that is fixed at a position for imaging an area including the tour course, and that images the autonomous mobile body, and a driving unit that drives the imaging unit.A current position estimating step for estimating a current position of the autonomous mobile body; andImaged by the imaging meansAn image position acquisition step for obtaining the position of the autonomous mobile body in the image, and an actual position calculation step for calculating an actual position where the autonomous mobile body is present based on the position of the autonomous mobile body in the image And using the actual position, the current position is estimated.ProcessAn estimated position correction step for correcting the position estimated byAn estimated current position transmitting step of transmitting the estimated current position data indicating the current position estimated by the current position estimating step to the imaging means by the autonomous mobile body; and an estimation in which the imaging means receives the estimated current position data A current position receiving step, and a driving step of driving the imaging means at an angle at which an image centered on the position indicated by the estimated current position data is driven by the driving means, and the image position acquiring step includes: The position of the autonomous mobile body in the image centered on the position indicated by the estimated current position data is obtained, and the actual position calculating step compares the position of the autonomous mobile body in the image with the center position of the image to determine the actual position. To calculateIt is characterized by.
[0035]
  This claim11According to the invention described above, the autonomous mobile body is imaged by the imaging means fixed at the position for imaging the region including the traveling course, and the position of the autonomous mobile body in the captured image is obtained. Further, an actual position, which is an actual position where the autonomous mobile body exists, can be calculated based on the position of the autonomous mobile body, and the estimated position can be corrected using the calculated actual position.
According to the invention of claim 11, the position of the autonomous mobile body in the image centered on the position indicated by the estimated current position data is obtained, and the position of the autonomous mobile body in the image and the center position of the image are determined. Since the actual position can be calculated by comparing the two, the actual position of the autonomous mobile body can be obtained at an arbitrary position.
[0036]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, Embodiments 1 to 3 of the present invention will be described with reference to the drawings. The first to third embodiments describe the present invention as a robot security system or a position correction method for a security robot when an autonomous mobile body is used as a security robot.
[0037]
(Embodiment 1)
The autonomous mobile body patrol system according to the first embodiment is configured as a patrol system in which an autonomous mobile body (hereinafter referred to as a security robot) configured as a security robot visits a preset tour course. FIG. 1 is a diagram for explaining the autonomous mobile body patrol system according to the first embodiment, and is an area including a guard robot 101 that patrols while estimating its current position, and a patrol course of the guard robot 101. A camera 103 is shown which is fixed at a position where the photographing range 1 can be photographed and photographs the security robot 101.
[0038]
FIG. 2 is a diagram illustrating a state in which FIG. 1 is viewed from the top of the camera 103. The camera 103 is provided at a position where a portion where a passage where a detection error of the travel distance and the travel direction detected by the security robot 101 is likely to occur is crossed is captured. Since the estimated position of the security robot 101 is corrected based on the captured image, a point where the camera 103 captures the security robot 101 is described as a correction point in the embodiment of the present invention. The position of the correction point is registered in the security robot 101 in advance.
[0039]
In the autonomous mobile patrol system of the first embodiment, the camera 103 is provided on the ceiling of the facility when patroling the passage in the facility. If it is assumed that the entire passage is photographed with a passage width of 2 m, the passage position information can be obtained in units of 2 cm if the camera 103 having a resolution of 100 × 100 is used. The accuracy of this position information is sufficient to detect the position of the security robot 101. In addition, a camera having a resolution of 100 × 100 is not currently a high-performance camera, and the autonomous mobile tour system according to the first embodiment can be configured using an inexpensive camera.
[0040]
In recent years, there are image sensors that can perform relatively simple image processing such as detecting a moving body in a captured image. The autonomous mobile body traveling system according to the first embodiment can use such an image sensor instead of the camera 103.
[0041]
FIG. 3 is a diagram for explaining cooperation between the camera 103 and the security robot 101 according to the first embodiment. In the first embodiment, the patrol system is described as connecting the security robot 101 and the camera 103 via the monitoring computer 400 that manages a plurality of security robots 101 and the control computer 105 that controls the camera. Further, a configuration including the camera 103 and the control computer 105 may be referred to as a camera side for convenience, and a configuration including the security robot 101 and the control computer 105 may be referred to as a security robot side for convenience.
[0042]
4 and 5 are block diagrams for explaining the autonomous mobile body patrol system according to the first embodiment. FIG. 4 is a diagram for explaining the configuration of the security robot, and FIG. It is a figure for demonstrating the structure of the side. In FIG. 5, for simplicity of explanation, one camera 103 is connected to the control computer 105. However, as shown in FIG. 3, the autonomous mobile tour system according to the first embodiment controls one camera 103. A computer 105 is connected to a plurality of cameras 103 and controls the plurality of cameras 103.
[0043]
As shown in FIGS. 4 and 5, the autonomous mobile tour system of Embodiment 1 includes a security robot 101 having a current position estimation unit 406 that estimates its current position, and a monitoring computer 400 of the security robot 101. Yes. In addition, the autonomous mobile tour system according to the first embodiment includes a camera 103 that captures the security robot 101 and a control computer 105 for the camera 103 that are fixed at a position where a region including a tour course can be captured. Then, the control computer 105 acquires the position of the security robot 101 in the image taken by the camera 103, and the actual position where the security robot 101 exists based on the position of the security robot 101 in the image. A coordinate calculation unit 507 that calculates the actual position, and an estimated position correction unit 407 that corrects the position estimated by the current position estimation unit 406 using the actual position.
[0044]
As shown in FIG. 3, in the first embodiment, the camera 103 and the security robot 101 are connected via the control computer 105 and the control computer 105. The image processing unit 506 and the coordinate calculation unit 507 according to the first embodiment are provided in the control computer 105, and the estimated position correction unit 407 is provided in the security robot 101. In the configuration shown in FIGS. 4 and 5, the data indicating the actual position calculated by the coordinate calculation unit 507 is transmitted to the security robot 101 as a radio signal via the monitoring computer 400.
[0045]
The coordinate calculation unit 507 is configured to calculate the actual position as coordinates, and data indicating the actual position is transmitted to the security robot 101 as data representing the coordinates. A specific method for expressing the actual position by coordinates will be described in detail later.
[0046]
In addition to the above-described configuration, the security robot 101 includes a movement distance detection unit 409 that detects a movement distance of the security robot 101 and a movement direction detection unit 410 that detects a movement direction. The current position estimation unit 406 estimates the current position based on the movement distance and the movement direction detected by the movement distance detection unit 409 and the movement direction detection unit 410. The movement distance detection unit 409 is configured to detect, for example, the number of rotations of the wheels of the security robot 101 and to detect the distance traveled based on the detected number of rotations. Moreover, the moving direction detection part 410 is the structure which detects the direction which the security robot 101 is facing, for example with a gyro sensor, and estimates a running direction.
[0047]
The security robot 101 includes an environment recognition unit 411 that grasps the situation around the security robot, a human body detection sensor 412 that detects a human body, a fire detection sensor 413, a water leakage detection sensor 414, and a camera / microphone that records the state of an abnormal situation. 415. An abnormality detection unit 408 that detects occurrence of an abnormal situation using any one of the human body detection sensor 412, the fire detection sensor 413, and the water leakage detection sensor 414 is provided.
[0048]
The environment recognition unit 411 is configured to grasp the situation around the security robot. For example, the environment recognition unit 411 detects the distance between the wall surface and the security robot 101 using an ultrasonic sensor or the like. The human body detection sensor 412 is a sensor for detecting an intruder or the like, and an infrared detection sensor, an ultrasonic sensor, or the like is used. The fire detection sensor 413 is a sensor for detecting a fire, and is a sensor for detecting flame and smoke. The water leakage detection sensor 414 is provided on the bottom surface of the security robot 101 and detects whether there is water on the traveling floor surface.
[0049]
The security robot 101 includes a control unit 401 that controls the security robot 101 as a whole, a program and data necessary for control of the control unit 401, and a storage unit 402 that stores map data of a tour course that the security robot 101 circulates. A communication unit 403 that exchanges signals with the computer 400, a drive unit 404 that drives the security robot 101 in accordance with control by the control unit 401, and an input / output unit (I / O) 405 that controls data input and output in the above configuration. ing.
[0050]
The communication unit 403 is configured to perform wireless communication with the monitoring computer 400 and receive commands and information from the monitoring computer 400. In addition, the current position and status of the security robot 101 are notified to the monitoring computer 400. Further, when the abnormality detection unit 408 detects an abnormality, it transmits to the monitoring computer 400 that the abnormality has been detected. At this time, the communication unit 403 can also send an image captured by the camera / microphone 415 and collected sound.
[0051]
The drive unit 404 is configured to cause the security robot 101 to travel according to an instruction from the control unit 401. The control unit 401 determines an instruction to be issued to the driving unit 404 based on information output from the current position estimation unit 406 and the estimated position correction unit 407.
[0052]
Furthermore, the security robot 101 includes a trigger signal transmission unit 416 that transmits a trigger signal for notifying the camera 103 that the security robot 101 enters the imaging range. On the other hand, the camera 103 includes a signal receiving unit 508 that receives a trigger signal. The trigger signal may use any one of optical signals such as laser light and infrared light, sound waves, and radio waves.
[0053]
In addition to the configuration described above, the control computer 105 stores a communication unit 503 that exchanges signals with the camera 103, a control unit 501 that controls the entire control computer 105, and programs and data used to control the control unit 501. The storage unit 502, a motor (not shown) of the camera 103, and the like are driven in accordance with the control of the control unit 501, the drive unit 504 that operates the camera as a pan / tilt camera, and the input / output unit (I / O) 505. Note that the operation of the camera 103 as a pan / tilt camera will be described in Embodiment 2.
[0054]
The configuration described above operates as follows. That is, the security robot 101 determines whether the distance from the correction point is equal to or less than a predetermined distance based on the estimated position. When it is determined that the correction point has been approached to a predetermined distance, a trigger signal is transmitted from the trigger signal transmission unit 416 to the camera 103 to notify that the correction point has been approached.
[0055]
The transmitted trigger signal is received by the signal receiving unit 508 of the camera 103. Information indicating that the trigger signal has been received is input to the control unit 501 via the communication unit 503 and the I / O 505. The control unit 501 controls the communication unit 403 so as to capture image data of an image captured by the camera 103. The image data captured by the communication unit 403 is input to the image processing unit 506. The image processing unit 506 processes the image data to obtain the position of the security robot 101 in the image, and the coordinate calculation unit 507 calculates the actual position of the security robot 101 based on the position of the security robot 101 in the image.
[0056]
FIGS. 6A to 6D are diagrams for explaining processing performed by the image processing unit 506 and the coordinate calculation unit 507. As shown in FIG. 6A, the image processing unit 506 extracts the security robot 101 from the image a by processing the image data, and obtains the position of the security robot 101 in the image a. As for the image of the moving security robot 101, for example, the security robot 101 passing through the imaging range is continuously captured by the camera 103, and the difference between the images of the security robot 101 in each image is obtained. The moving object other than the security robot 101 can be extracted by removing the image a from the image a. The position P of the security robot 101 in the image a is obtained by a method such as obtaining the center of gravity of the detected security robot 101. Since the method for obtaining the position of the security robot 101 is well known, further explanation is omitted.
[0057]
Note that when the position of the security robot 101 is obtained from the difference between consecutively captured images, the traveling direction of the security robot 101 may be obtained. In this case, after obtaining the traveling direction in the captured image, the traveling direction of the autonomous mobile body is obtained by converting the actual traveling direction in consideration of the direction of the camera 103 and the like. The obtained traveling direction can be used to correct the estimated traveling direction of the autonomous mobile body.
[0058]
The coordinate calculation unit 507 has, for example, a conversion table shown in FIG. The conversion table shown in FIG. 6C is a table in which coordinates are determined with a certain correction point C as a reference point. When the point P shown in (b) is superimposed on the table shown in (c), the coordinates (−25, 25) of P with reference to the correction position C are obtained as shown in FIG. Information on the position of the security robot 101 thus obtained is transmitted to the security robot 101 via the monitoring computer 400. The estimated position correction unit 407 of the security robot 101 corrects the estimated position based on the transmitted information.
[0059]
7 and 8 are diagrams for explaining the estimated position correction processing of the estimated position correction unit 407. FIG. FIG. 7 is a diagram showing the map data of the traveling course stored in the storage unit 402 of the security robot 101. The map data is data in which a traveling course 701 indicated by a broken line and coordinates of correction points A to F on the traveling course 701 are recorded. According to the illustrated map data, the security robot 101 circulates in the order of passing through the correction points B, C, D... With the correction point A as the start position, and returns to the correction point A. The security robot 101 corrects the estimated position based on the actual position calculated at each correction point.
[0060]
In the first embodiment, a plurality of correction points A to F are provided. Each of the correction points A to F is photographed by the camera 103 associated therewith. Therefore, the autonomous mobile body patrol system according to Embodiment 1 includes a plurality of cameras 103 and correction points. The shooting ranges of the camera 103 respectively associated with the correction points A to F are shown in the figure as 702 to 707, respectively.
[0061]
FIGS. 8A and 8B are diagrams for explaining the procedure for correcting the estimated position at the correction point C. FIGS. 8A and 8B respectively convert the position in the image into the actual position. The conversion table is shown. (A) is a conversion table showing the coordinates obtained at the correction point with reference to the correction point, and (b) is a conversion table in which the coordinates with the correction point A as the starting point as the origin are assigned to the area to be circulated. is there.
[0062]
When correcting the estimated position using the conversion table shown in (a), the estimated position correcting unit 407 recognizes from the map data that the coordinates of the correction point C are (1000, 800). When the coordinates (−25, 25) are obtained by the procedure described with reference to FIG. 6, the coordinates (−975, 825) are indicated by indicating the coordinates (−25, 25) with reference to the coordinates (1000, 800). Get. The coordinates (975, 825) are the actual position of the security robot 101 with the correction point A, that is, the start point of the security robot 101 as a reference. The estimated position estimated by the current position estimation unit 406 is corrected by the obtained actual position.
[0063]
Further, when the estimated position is corrected using the conversion table (b) shown in FIG. 8, mapping data is used by assigning the coordinates calculated in the procedure described in FIG. 6 to the corresponding coordinates in the conversion table. The actual position can be obtained directly as coordinates.
[0064]
FIG. 9 is a flowchart for explaining a position correction method of the guard robot (autonomous mobile body) 101 performed in the traveling system for the autonomous mobile body of the first embodiment described above. The flowchart shown in FIG. 9 is a process performed by the control computer 105 in the first embodiment.
[0065]
The control computer 105 determines whether or not the signal receiving unit 508 of the camera 103 has received a trigger signal (step S901). If it is determined that the trigger signal has not been received (step S901: No), it waits until the trigger signal is received. If it is determined that the trigger signal has been received (step S901: Yes), the image data of the image captured by the camera 103 is captured (step S902).
[0066]
Next, as described with reference to FIG. 6, the control computer 105 extracts only the image of the security robot 101 from the image data. Then, the center of gravity of the extracted image is taken, and the position in the image of the security robot 101 is acquired (step S903). Further, based on the position of the security robot 101 in the image, the coordinates of the actual position of the security robot 101 with respect to the correction point are calculated (step S904). The coordinate data regarding the calculated coordinates is transmitted to the security robot 101 as a radio signal via the monitoring computer 400 (step S905).
[0067]
The autonomous mobile body patrol system according to the first embodiment described above detects the position of the guard robot 101 using data of an image obtained by photographing the guard robot 101 that is moved by the fixed camera 103. For this reason, the position of the security robot 101 in the image can be acquired by extracting only the security robot 101 from the image and obtaining the center of gravity of the security robot 101. Such processing according to the first embodiment is simpler than extracting a target provided for each position for correcting the estimated position, such as a structure or a sign, from an image photographed by a camera attached to the security robot 101. is there. For this reason, the first embodiment can correct the current position estimated by the security robot 101 in a shorter time than the prior art and can cope with the traveling of the security robot 101 in real time.
[0068]
Further, the present invention is not limited to the first embodiment described above. That is, the autonomous mobile body patrol system of the present invention may output a signal for designating any one of the cameras 103 having the security robot 101 to start or end the correction of the estimated position. For example, the camera 103 can be specified by adding unique information to each of the cameras 103 to the trigger signal transmitted by the security robot 101.
[0069]
Information unique to each camera 103 can be given to a trigger signal which is an optical signal, for example, by a blinking pattern of light. In addition, a trigger signal that is a sound wave signal can be given by setting a sound wave frequency for each camera 103. Furthermore, an ID code may be superimposed on the radio signal for a trigger signal that is a radio wave.
[0070]
Information unique to each camera 103 is stored in advance in the storage unit 502 of the control computer 105. When the signal reception unit 508 receives the trigger signal, the control computer 105 determines which camera 103 has been designated based on which information given to the trigger signal matches information unique to which camera 103. Then, the image processing unit 506 is provided with data related to the image captured by the designated camera 103.
[0071]
According to the configuration described above, the trigger signal transmitted by the security robot 101 is received by the cameras 103 other than the camera 103 corresponding to the imaging range in which the security robot 101 is located, and this camera 103 prevents an erroneous operation of imaging its own imaging range. be able to.
[0072]
In the autonomous mobile tour system according to the first embodiment, each of the plurality of cameras 103 can be given an address as unique identification information. The control unit 501 identifies the camera 103 that captured the image based on the address. Then, image data of an image captured by the camera 103 is given to the image processing unit 506. At this time, if information related to shooting conditions such as the direction (angle) of each camera 103 and the shooting range corresponding to the address is stored in the storage unit 502 of the control computer 105, the image processing unit 506, the coordinate calculation unit, and the like. In 507, the imaging condition of the camera 103 can be taken into consideration in the process of acquiring the position of the security robot 101 in the image or calculating the coordinates of the actual position.
[0073]
According to the above configuration, the coordinates of the actual position of the guard robot 101 can be calculated with higher accuracy, and the estimated position of the guard robot 101 can be corrected to an accurate position.
[0074]
In the autonomous mobile body patrol system according to the first embodiment, the image processing unit 506 and the coordinate calculation unit 507 are both provided in the control computer 105 to acquire the position of the security robot 101 in the image and return to the actual position of the acquired position. The coordinate conversion is performed on the camera side. However, the present invention is not limited to such an embodiment, and coordinate conversion to an actual position may be performed on the guard robot side. The distribution of processing to the camera side and the security robot side will be described later.
[0075]
(Embodiment 2)
Next, a second embodiment of the present invention will be described. Of the configurations of the second embodiment, configurations similar to those of the first embodiment are denoted by the same reference numerals, and a part of the description is omitted.
[0076]
In the autonomous mobile body patrol system according to the second embodiment, the drive unit 504 changes the angle of the camera 103 and causes one camera 103 to capture images from a plurality of angles, and the control unit 501 controls the camera 103. The magnification of the image captured by the camera 103 is changed. In the second embodiment, the function of photographing an image from a plurality of angles by changing the angle is called a pan / tilt function, and the function of changing the image magnification is called a zoom function. Setting the shooting angle and the shooting magnification in advance is called a preset.
[0077]
FIG. 10 is a diagram for explaining a configuration in which the pan / tilt function is used in the autonomous mobile tour system according to the second embodiment. In the illustrated configuration, a plurality of correction points G to I are provided along the traveling course, and the storage unit 502 of the control computer 105 stores the angle of the camera 103 when photographing each correction point.
[0078]
Also in the second embodiment, the correction performed at each of the correction points G to I is started when the camera 103 receives a trigger signal transmitted from the security robot 101. The camera 103 receives a trigger signal by the signal receiving unit 508 every time the security robot 101 enters the respective shooting ranges of the correction points G to I, and the control computer 105 controls the camera 103 to point at a preset angle. To do. The control signal when the control computer 105 controls the camera 103 to change the angle is set as follows, for example.
(1) Correction point G: Camera direction X axis; x1, Y axis: y1
(2) Correction point H: Camera orientation X axis; x2, Y axis: y2
(3) Correction point I: Camera direction X axis; x3, Y axis: y3
The above angle may be either a vertical angle or a rotation angle.
[0079]
In addition, when the estimated position is corrected using the pan / tilt function of the camera 103, identification information for specifying each of the correction points G to I may be added to the trigger signal transmitted by the security robot 101. When information for identifying a correction point is given to the trigger signal, the control computer 105 determines an angle at which the camera 103 is directed based on the identification information given to the signal received by the signal receiving unit 508.
[0080]
FIG. 11 is a diagram for explaining a configuration in which a zoom function is used in the autonomous mobile tour system according to the second embodiment. In the configuration shown in the drawing, a plurality of correction points J to L are provided along the traveling course, and the shooting magnification of the camera 103 when shooting each correction point is stored in the storage unit 502 of the control computer 105. .
[0081]
The camera 103 receives a trigger signal by the signal receiving unit 508 every time the security robot 101 enters the respective shooting ranges of the correction points J to L, and the control computer 105 sets the shooting magnification of the camera 103 to a preset magnification. Control. For example, the control signal when the control computer 105 controls the camera 103 to change the photographing magnification is set as follows.
(1) Correction point J: Magnification zzz1
(2) Correction point K: Magnification zzz2
(3) Correction point L: magnification zzz3
[0082]
Further, when the estimated position is corrected using the zoom function of the camera 103, identification information for specifying each of the correction points J to L may be added to the trigger signal transmitted by the security robot 101. When the information for identifying the correction point is given to the trigger signal, the control computer 105 identifies the correction point based on the identification information given to the signal received by the signal receiving unit 508, and the camera at a magnification corresponding to the correction point. 103 causes an image to be taken.
[0083]
The configuration using the zoom function of the camera 103 is that, for example, when the estimated position is corrected by photographing the security robot 101 outdoors from a relatively long distance, the position of the security robot 101 is gradually increased by zooming in on the approaching security robot 101. This is advantageous in increasing the detection accuracy of the error and reducing the error.
[0084]
Further, the zoom function can photograph the security robot 101 at the same size at each correction point even when the distance between the security robot 101 and the camera 103 changes at each correction point. By photographing the security robot 101 to the same size regardless of the correction point, the position of the security robot 101 can be obtained with the same accuracy at each correction point. Further, when the security robot 101 is photographed largely using the zoom function, the position of the security robot 101 can be acquired with high accuracy.
[0085]
FIG. 12 is a diagram for explaining a configuration in which the pan / tilt function and the zoom function are used in the autonomous mobile patrol system according to the second embodiment. In the illustrated configuration, a plurality of correction points M to O are provided along the traveling course, and the storage unit 502 of the control computer 105 stores the angle of the camera 103 and the shooting magnification when shooting each correction point. Has been.
[0086]
The camera 103 receives a trigger signal by the signal receiving unit 508 every time the security robot 101 enters each of the correction ranges M to O, and the control computer 105 points the camera 103 at a preset angle, Set the preset shooting magnification. For example, the control signal when the control computer 105 controls the camera 103 to change the angle and the photographing magnification is set as follows.
(1) Correction point G: Camera direction X axis; x1, Y axis: y1 Magnification zzz1
(2) Correction point H: Camera orientation X axis; x2, Y axis: y2 Magnification zzz2
(3) Correction point I: Camera orientation X axis; x3, Y axis: y3 Magnification zzz3
[0087]
FIG. 13 is a flowchart for explaining the process of controlling the camera 103 performed in the second embodiment described above. The flowchart shown in the figure describes a process in which one camera 103 corrects an estimated position at three correction points using a pan / tilt function and a zoom function.
[0088]
As shown in the figure, in the second embodiment, the control computer 105 determines whether or not the signal receiving unit 508 has received the first trigger signal (1) among the correction points photographed by one camera 103. (Step S1301). As a result, if the trigger signal {circle around (1)} is not received, it waits until it is received (step S1301: No).
[0089]
If it is determined in step S1301 that the trigger signal (1) has been received (step S1301: Yes), the control computer 105 determines the camera angle data (1) corresponding to the first correction point and the shooting magnification data. (1) is read from the storage unit 502 (step S1302) and (step S1303). Then, the camera 103 is controlled according to the camera angle data (1) and the magnification data (1) (step S1304).
[0090]
Next, the control computer 105 determines whether or not the signal receiving unit 508 has received the second trigger signal (2) (step S1305). As a result, if the trigger signal {circle around (2)} is not received, it waits until it is received (step S1305: No).
[0091]
If it is determined in step S1305 that the trigger signal (2) has been received (step S1305: Yes), the control computer 105 determines the camera angle data (2) corresponding to the second correction point and the shooting magnification data. (2) is read from the storage unit 502 (step S1306) and (step S1307). Then, the camera 103 is controlled according to the camera angle data (2) and the magnification data (2) (step S1308).
[0092]
Further, the control computer 105 determines whether or not the signal receiving unit 508 has received the third trigger signal (3) (step S1309). As a result, if the trigger signal {circle around (3)} is not received, it waits until it is received (step S1309: No).
[0093]
If it is determined in step S1309 that the trigger signal (3) has been received (step S1309: Yes), the control computer 105 determines the camera angle data (3) corresponding to the third correction point and the shooting magnification data. (3) is read from the storage unit 502 (step S1310) and (step S1311). Then, the camera 103 is controlled in accordance with the camera angle data (3) and the magnification data (3) (step S1312).
[0094]
After the above processing is completed, the control computer 105 sets the camera 103 to the initial position (step S1313) and prepares for the next shooting of the security robot 101.
[0095]
Since the autonomous mobile patrol system according to the second embodiment described above can capture a plurality of correction points with one camera 103, it can monitor a wide space or outdoors with a small number of cameras. For this reason, the cost of an autonomous mobile body patrol system can be held down. When a plurality of correction points are photographed by one camera 103, it is desirable to add the photographed correction points, angles, and photographing magnifications to the photographed image data. Some general surveillance cameras also have a pan / tilt function and a zoom function. The autonomous mobile object patrol system according to the second embodiment temporarily positions the surveillance camera used in the security system temporarily as an autonomous mobile object. Even if it is used for correction, it can be realized.
[0096]
(Embodiment 3)
Next, a third embodiment of the present invention will be described. Note that, in the configuration of the third embodiment, the same configuration as that of the first embodiment is denoted by the same reference numeral, and a part of the description is omitted.
[0097]
In the autonomous mobile body patrol system according to the third embodiment, the security robot 101 transmits estimated position data indicating the estimated position to the camera 103 by the communication unit 403. The camera 103 receives the estimated position data using, for example, the signal receiving unit 508. The estimated position data is input to the control unit 501 via the communication unit 503, and the control unit 401 controls the drive unit 504 to point the camera 103 at an angle for capturing an image centered on the position indicated by the estimated position data. Then, the image processing unit 506 obtains the position of the security robot 101 in the image around the position indicated by the estimated position data, and the coordinate calculation unit 507 calculates the position of the security robot 101 in the image and the center position of the image. The actual position is calculated by comparison.
[0098]
FIGS. 14A and 14B are diagrams for explaining the process of calculating the coordinates of the actual position using the estimated position of the security robot 101 according to the third embodiment. FIG. 14A is a diagram illustrating an image centered on the point P that is captured by changing the angle of the camera 103 when the security robot 101 outputs the coordinates (1000, 1000) of the point P as the estimated position. is there. Moreover, (b) is a figure which shows the security robot 101 in the image shown to (a). As shown in the figure, the security robot 101 is at a point P ′ deviated from the point P of the image.
[0099]
When the image data shown in (b) is processed and converted into coordinates, the coordinates of the point P 'are obtained. If the coordinates of the point P ′ are (950, 1050), for example, the estimated position estimated by the security robot 101 is shifted (−50, 50) from the actual position. The coordinates of the actual position are transmitted from the control computer 105 to the security robot 101 via the monitoring computer 400, and the estimated position is corrected.
[0100]
Since the autonomous mobile patrol system of the third embodiment described above determines the imaging position of the camera 103 using the estimated position transmitted by the security robot side, there is no need to predetermine a correction point, and the autonomous mobile patrol system is It can be set easily. Moreover, it is advantageous when a relatively wide space or outdoors is used as a traveling course.
[0101]
In the third embodiment, the camera angle is determined by the control computer 105. However, the present invention is not limited to such an embodiment, and can be performed on the security robot side.
[0102]
In addition, each of the autonomous mobile tour systems of the present invention described above includes the image processing unit 506 and the coordinate calculation unit 507 on the camera side, and transmits the coordinate data of the actual position to the security robot side. When acquisition of the position of the security robot 101 in the image and coordinate conversion of the acquired position to the actual position are performed on the camera side, the patrol system should be set on the spot when the camera 103 is installed on the tour course. There is an advantage that can be.
[0103]
However, the present invention is not limited to such a configuration, and can be configured as shown in FIGS. 15A and 15B, for example. FIG. 15 is a diagram for explaining allocation of image processing and coordinate conversion processing between the camera side and the security robot side. For this purpose, configurations other than the image processing unit 506 and the coordinate calculation unit 507 are illustrated. Not. However, the camera side 1501 and the security robot side 1502 both have configurations other than the image processing unit 506 and the coordinate calculation unit 507 shown in FIGS.
[0104]
In the configuration illustrated in FIG. 15A, the camera side includes an image processing unit 506, and the security robot side 1502 includes a coordinate calculation unit 507. Data d1 indicating the position of the autonomous mobile body in the image acquired by the image processing unit 506 is transmitted to the monitoring computer 400 as a radio signal. The security robot 1502 receives the data d1 via the monitoring computer 400. Such a configuration has an advantage that the amount of data transmitted from the camera side to the security robot side can be reduced.
[0105]
In the configuration shown in FIG. 15B, the security robot side 1502 includes an image processing unit 506 and a coordinate calculation unit 507. Data d2 indicating an image captured by the camera 103 is transmitted to the monitoring computer 400 as a wireless signal. The security robot 101 receives the data d2 via the monitoring computer 400. Such a configuration has an advantage that data related to the correction of the estimated position can be collectively managed on the security robot side.
[0106]
Furthermore, the autonomous mobile body patrol system of the present invention is not limited to the one that connects the camera 103 and the security robot 101 via the control computer 105 and the monitoring computer 400 as in the first to third embodiments. FIG. 16 is a diagram illustrating an example of connection between a camera and a security robot. FIG. 16A shows a configuration in which the camera 1601 and the security robot 1602 directly exchange information. In such a configuration, the camera 1601 is provided with a part of the function of the control computer 105 in addition to the camera 103, and the security robot 101 is provided with at least the communication unit of the monitoring computer 400.
[0107]
FIG. 16B shows a configuration in which the control computer 105 of the camera 103 and the security robot 1602 are connected. Further, FIG. 16C shows a configuration in which the camera 1601 and the security robot 101 are connected via the monitoring computer 400.
[0108]
In the first to third embodiments, the image processing unit 506 acquires only the position in the image of the security robot. However, the present invention is not limited to such an example and is continuously shot. The moving direction of the security robot 101 can also be specified using a plurality of images.
[0109]
Furthermore, the autonomous mobile tour system of the present invention can be combined with the tour system cited as the prior art. In other words, if the present invention is applied only to a position where an error is likely to occur in the estimated position such as a slippery passage or a corner, or to a place where it is difficult to correct the estimated position in a conventional patrol system such as a wide space or outdoors, it is necessary to implement the present invention. It is possible to reduce the number of cameras and to construct a low-cost patrol system as a whole.
[0110]
【The invention's effect】
  As described above, the invention according to claim 1 can extract only the target object, which is an autonomous moving body, from an image captured at a constant position and a constant angle at all times. There is an effect that it is possible to provide an autonomous moving body traveling system that can acquire the position of the autonomous moving body and thus correct the estimated position of the autonomous moving body by simple processing.
In addition, the invention according to claim 1 can provide an autonomous mobile traveling system that does not need to provide a correction point in advance and can travel around a wide area around the autonomous mobile according to a traveling course. There is an effect.
[0111]
In the invention according to claim 2, since the actual position can be calculated using an image obtained by imaging the same position from the constant position and angle at all times, the autonomous mobile vehicle patrol capable of obtaining a more accurate actual position The system can be provided.
[0112]
The invention according to claim 3 can provide an autonomous mobile tour system that can eliminate inappropriate image data from being used for correcting an estimated position and obtain a more reliable actual position. There is an effect.
[0113]
In the invention according to the fourth aspect, since the autonomous mobile body can identify the imaging unit that has captured the image based on the identification information, the image captured by the arbitrary imaging unit based on the identification information is more accurate. There exists an effect that the autonomous mobile body patrol system which can acquire an actual position can be provided.
[0115]
  Claim5In the invention described in, since the autonomous mobile body can receive data indicating the actual position as a wireless signal, the process up to the actual position calculation can be set on the camera side, and the autonomous mobile body that is easy to set at the site of the traveling course There is an effect that a patrol system can be provided.
[0116]
  Claim6In the invention described in, since the data indicating the position of the autonomous mobile body in the image acquired by the image position acquisition means can be received as a wireless signal, the amount of data transmitted to the autonomous mobile body is small There exists an effect that an autonomous mobile body patrol system can be provided.
[0117]
  Claim7In the invention described in, since the autonomous mobile body can receive data indicating an image captured by the imaging means as a radio signal, the autonomous mobile body collectively manages data necessary for correcting the estimated current position. It is possible to provide an autonomous mobile patrol system that can be used.
[0118]
  Claim8Since the invention described in 1 can capture a wider area with a smaller number of cameras, an autonomous mobile patrol system capable of reducing the number of cameras can be provided.
[0119]
  Claim9The invention described in 1 can accurately point the camera at a preset correction point or take an image at an optimum imaging magnification even when the imaging direction or imaging magnification of the imaging means is changed. It is possible to provide an autonomous mobile patrol system that can obtain a real position.
[0120]
  Claim10The invention described in (1) has an effect that the traveling direction of the autonomous mobile body can be obtained from the image taken by the imaging means, and the estimated traveling direction of the autonomous mobile body can be corrected based on the travel direction. In addition to the position of the autonomous mobile body, errors in the traveling direction can also be corrected, so that it is possible to provide an autonomous mobile body traveling system capable of more accurate traveling.
[0121]
  Claim11Since the invention described in the above can extract only the target of an autonomous mobile body from an image captured at a constant position and at a constant angle, the position of the autonomous mobile body is acquired with simpler image processing, As a result, the autonomous mobile body position correction method capable of correcting the estimated position of the autonomous mobile body by simple processing can be provided.
In addition, the invention according to claim 11 can provide an autonomous mobile traveling system that does not need to provide a correction point in advance and can travel around a wide area around the autonomous mobile according to a traveling course. There is an effect.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining an autonomous mobile tour system according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating a state in which FIG. 1 is viewed from the top of the camera.
3 is a diagram for explaining cooperation between the camera 103 and the security robot 101 according to Embodiment 1. FIG.
FIG. 4 is a block diagram for explaining the autonomous mobile tour system according to the first embodiment.
FIG. 5 is another block diagram for explaining the autonomous mobile tour system according to the first embodiment.
6 is a diagram for explaining processing performed by an image processing unit and a coordinate calculation unit illustrated in FIG. 5;
7 is a diagram for explaining an estimated position correction process of an estimated position correction unit shown in FIG. 4; FIG.
FIG. 8 is another diagram for explaining an estimated position correction process of the estimated position correction unit shown in FIG. 4;
9 is a flowchart for explaining an autonomous mobile body position correction method performed in the autonomous mobile body patrol system of Embodiment 1. FIG.
FIG. 10 is a diagram for explaining a configuration in which a pan / tilt function is used in the autonomous mobile tour system according to the second embodiment.
FIG. 11 is a diagram for explaining a configuration in which a zoom function is used in the autonomous mobile tour system according to the second embodiment.
12 is a diagram for explaining a configuration in which a pan / tilt function and a zoom function are used in the autonomous mobile circuit tour system according to Embodiment 2. FIG.
FIG. 13 is a flowchart for explaining processing for controlling the camera according to the second embodiment;
14 is a diagram for explaining processing for calculating coordinates of an actual position according to Embodiment 3. FIG.
FIG. 15 is a diagram for explaining allocation to image processing and coordinate conversion processing on the camera side and the security robot side;
FIG. 16 is a diagram illustrating an example of connection between a camera and a security robot.
[Explanation of symbols]
101,1602 Security robot
103,1601 camera
105 Control computer
400 monitoring computer
401 control unit
402 storage unit
403 communication unit
404 Drive unit
406 Current position estimation unit
407 Estimated position correction unit
408 Anomaly detection unit
409 Moving distance detector
410 Movement direction detector
411 Environment Recognition Department
412 Human body detection sensor
413 Fire detection sensor
414 Water leakage detection sensor
415 Camera microphone
416 Trigger signal transmitter
501 Control unit
502 storage unit
503 Communication Department
504 Drive unit
506 Image processing unit
507 Coordinate calculation unit
508 Signal receiver
701 patrol course

Claims (11)

予め設定された巡回コースを自律移動体が巡回する自律移動体の巡回システムであって、
自身の現在位置を推定する現在位置推定手段を備える自律移動体と、
前記巡回コースを含む領域を撮像する位置に固定され、前記自律移動体を撮像する撮像手段と、
前記撮像手段によって撮像された画像中の自律移動体の位置を求める画像位置取得手段と、
前記画像中の自律移動体の位置に基づいて、前記自律移動体が存在する実際の位置である実位置を算出する実位置算出手段と、
前記実位置を用い、前記現在位置推定手段によって推定された位置を補正する推定位置補正手段と、
前記撮像手段を駆動する駆動手段と、を備え、
前記自律移動体は、前記現在位置推定手段によって推定された現在位置を示す推定現在位置データを前記撮像手段に送信する推定現在位置送信手段を備えると共に前記撮像手段が前記推定現在位置データを受信する推定現在位置受信手段を備え、
前記駆動手段は前記推定現在位置データが示す位置を中心とする画像を撮像する角度に前記撮像手段を駆動し、前記画像位置取得手段は前記推定現在位置データが示す位置を中心とする画像中の自律移動体の位置を求め、前記実位置算出手段は前記画像中の自律移動体の位置と画像の中心位置とを比較して実位置を算出することを特徴とする自律移動体巡回システム。
An autonomous mobile patrol system in which an autonomous mobile patrols a preset tour course,
An autonomous mobile body equipped with current position estimating means for estimating its current position;
An imaging unit that is fixed at a position where the region including the traveling course is imaged and that images the autonomous mobile body;
Image position obtaining means for obtaining the position of the autonomous mobile body in the image imaged by the imaging means;
Based on the position of the autonomous mobile body in the image, an actual position calculating means for calculating an actual position that is an actual position where the autonomous mobile body exists;
Estimated position correcting means for correcting the position estimated by the current position estimating means using the actual position;
Driving means for driving the imaging means,
The autonomous mobile body includes estimated current position transmitting means for transmitting estimated current position data indicating the current position estimated by the current position estimating means to the imaging means, and the imaging means receives the estimated current position data. An estimated current position receiving means;
The driving means drives the imaging means at an angle for capturing an image centered on the position indicated by the estimated current position data, and the image position acquiring means is configured to display an image in the image centered on the position indicated by the estimated current position data. An autonomous mobile patrol system , wherein a position of an autonomous mobile body is obtained, and the actual position calculation means calculates an actual position by comparing a position of the autonomous mobile body in the image with a center position of the image .
前記現在位置推定手段によって推定された位置を補正する地点である補正地点を設け、補正地点に対応付けられた前記撮像手段が前記自律移動体を撮像することを特徴とする請求項1に記載の自律移動体巡回システム。  The correction point that is a point for correcting the position estimated by the current position estimation unit is provided, and the imaging unit associated with the correction point images the autonomous mobile body. Autonomous mobile patrol system. 前記撮像手段を複数備え、前記自律移動体が複数の撮像手段のうちのいずれかを指定して前記現在位置推定手段によって推定された位置の補正を開始、または終了する信号を出力する信号出力手段を有すると共に、前記撮像手段は、前記信号出力手段によって出力された信号に基づいて指定を受けたか否か判断する指定判断手段を有し、当該指定判断手段が前記自律移動体の指定を受けたと判断した場合、前記画像位置取得手段に撮像した画像に関するデータを提供することを特徴とする請求項1または2に記載の自律移動体巡回システム。  A signal output unit that includes a plurality of the imaging units, and that outputs a signal for starting or ending correction of the position estimated by the current position estimation unit by designating any of the plurality of imaging units by the autonomous mobile body And the imaging means has a designation determining means for determining whether or not a designation is received based on the signal output by the signal output means, and the designation judging means receives the designation of the autonomous mobile body. 3. The autonomous mobile patrol system according to claim 1, wherein, when determined, the image position acquisition unit provides data related to the captured image. 4. 前記撮像手段の各々が固有の識別情報を有し、かつ、前記自律移動体が識別情報に基づいて画像を撮像した撮像手段を識別し、任意の撮像手段によって撮影された画像を利用して前記現在位置推定手段によって推定された位置を補正することを特徴とする請求項1または2に記載の自律移動体巡回システム。  Each of the imaging means has unique identification information, and the autonomous mobile body identifies the imaging means that has taken an image based on the identification information, and uses the image taken by any imaging means to The autonomous mobile patrol system according to claim 1 or 2, wherein the position estimated by the current position estimating means is corrected. 前記自律移動体は、前記実位置算出手段が算出した実位置を示すデータを、無線信号として受信することを特徴とする請求項1〜のいずれか一つに記載の自律移動体巡回システム。The autonomous mobile body traveling system according to any one of claims 1 to 4 , wherein the autonomous mobile body receives data indicating the actual position calculated by the actual position calculation unit as a radio signal. 前記自律移動体が前記実位置算出手段を備え、自律移動体は、前記画像位置取得手段が取得した画像における自律移動体の位置を示すデータを無線信号として受信することを特徴とする請求項1〜のいずれか一つに記載の自律移動体巡回システム。The said autonomous mobile body is provided with the said actual position calculation means, and the autonomous mobile body receives the data which show the position of the autonomous mobile body in the image which the said image position acquisition means acquired as a radio signal. The autonomous mobile patrol system according to any one of to 4 . 前記自律移動体が前記画像位置取得手段と前記実位置算出手段とを備え、自律移動体は、前記撮像手段によって撮像された画像を示すデータを無線信号として受信することを特徴とする請求項1〜のいずれか一つに記載の自律移動体巡回システム。2. The autonomous mobile body includes the image position acquisition unit and the actual position calculation unit, and the autonomous mobile body receives data indicating an image captured by the imaging unit as a wireless signal. The autonomous mobile patrol system according to any one of to 4 . 記撮像手段が撮像する撮像倍率を変更する倍率変更手段をさらに備えるか、あるいは、前記駆動手段は、前記撮像手段による撮影方向を変更して1つの撮像手段により複数の位置の画像を撮像させることを特徴とする請求項1〜のいずれか一つに記載の自律移動体巡回システム。Further comprise or magnification changing means before Symbol imaging means changes the imaging magnification of the imaging, or the driving means causes the captured images of a plurality of positions by a single imaging unit by changing the imaging direction of the imaging means autonomous mobile patrol system according to any one of claims 1-7, characterized in that. 前記撮像手段の撮影方向と前記撮像倍率との少なくとも一方を予め登録することを特徴とする請求項に記載の自律移動体巡回システム。The autonomous mobile patrol system according to claim 8 , wherein at least one of an imaging direction of the imaging unit and the imaging magnification is registered in advance. 前記現在地推定手段では、さらに、走行方向を推定するものとし、
前記撮像手段によって撮影された画像中の自律移動体の走行方向を求める走行方向取得手段をさらに設け、
前記走行方向取得手段によって求められた走行方向を用い、前記現在地推定手段で推定された走行方向を補正する走行方向補正手段をさらに設けたことを特徴とする請求項1〜のいずれか一つに記載の自律移動体巡回システム。
The current location estimating means further estimates the traveling direction,
A travel direction obtaining means for obtaining a travel direction of the autonomous mobile body in the image photographed by the imaging means;
Claim 1-9, characterized in that the traveling using the traveling direction obtained by the direction obtaining means, provided said further traveling direction correction means for current location corrected traveling direction estimated by the estimating means Autonomous mobile patrol system described in 1.
自律移動体巡回システムで実行され、予め設定された巡回コースを巡回する自律移動体の位置補正方法であって、
前記自律移動体巡回システムは、前記巡回コースを含む領域を撮像する位置に固定され、前記自律移動体を撮像する撮像手段と、前記撮像手段を駆動する駆動手段と、を備え、
自律移動体の現在位置を推定する現在位置推定工程と、
前記巡回コースにおいて、前記自律移動体を前記撮像手段によって撮像した画像中の自律移動体の位置を求める画像位置取得工程と、
前記画像中の自律移動体の位置に基づいて、前記自律移動体が存在する実際の位置である実位置を算出する実位置算出工程と、
前記実位置を用い、前記現在位置推定工程によって推定された位置を補正する推定位置補正工程と、
前記自律移動体によって、前記現在位置推定工程によって推定された現在位置を示す推定現在位置データを前記撮像手段に送信する推定現在位置送信工程と、
前記撮像手段が前記推定現在位置データを受信する推定現在位置受信工程と、
前記駆動手段によって、前記推定現在位置データが示す位置を中心とする画像を撮像する角度に前記撮像手段を駆動する駆動工程と、を含み、
前記画像位置取得工程は、前記推定現在位置データが示す位置を中心とする画像中の自律移動体の位置を求め、
前記実位置算出工程は、前記画像中の自律移動体の位置と画像の中心位置とを比較して実位置を算出することを特徴とする自律移動体の位置補正方法。
An autonomous mobile position correction method that is executed in an autonomous mobile body patrol system and patrols a preset tour course,
The autonomous mobile body traveling system includes an imaging unit that is fixed at a position for imaging an area including the traveling course, and that images the autonomous mobile body, and a driving unit that drives the imaging unit,
A current position estimating step for estimating a current position of the autonomous mobile body;
In the traveling course, an image position acquisition step for obtaining a position of the autonomous mobile body in an image obtained by capturing the autonomous mobile body by the imaging means ;
Based on the position of the autonomous mobile body in the image, an actual position calculating step of calculating an actual position that is an actual position where the autonomous mobile body exists;
An estimated position correcting step of correcting the position estimated by the current position estimating step using the actual position;
An estimated current position transmitting step of transmitting estimated current position data indicating the current position estimated by the current position estimating step to the imaging means by the autonomous mobile body;
An estimated current position receiving step in which the imaging means receives the estimated current position data;
A driving step of driving the imaging unit at an angle for capturing an image centered on the position indicated by the estimated current position data by the driving unit;
The image position acquisition step obtains the position of the autonomous mobile body in the image centered on the position indicated by the estimated current position data,
The actual position calculating step compares the position of the autonomous mobile body in the image with the center position of the image to calculate the actual position, and calculates the position of the autonomous mobile body.
JP2002097954A 2002-03-29 2002-03-29 Autonomous mobile object traveling system and autonomous mobile object position correction method Expired - Fee Related JP4056777B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002097954A JP4056777B2 (en) 2002-03-29 2002-03-29 Autonomous mobile object traveling system and autonomous mobile object position correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002097954A JP4056777B2 (en) 2002-03-29 2002-03-29 Autonomous mobile object traveling system and autonomous mobile object position correction method

Publications (2)

Publication Number Publication Date
JP2003295951A JP2003295951A (en) 2003-10-17
JP4056777B2 true JP4056777B2 (en) 2008-03-05

Family

ID=29387814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002097954A Expired - Fee Related JP4056777B2 (en) 2002-03-29 2002-03-29 Autonomous mobile object traveling system and autonomous mobile object position correction method

Country Status (1)

Country Link
JP (1) JP4056777B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022249677A1 (en) * 2021-05-26 2022-12-01 株式会社日立製作所 Safety management system and autonomous control system

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5213183B2 (en) * 2009-07-14 2013-06-19 独立行政法人科学技術振興機構 Robot control system and robot control program
JP5493097B2 (en) * 2010-04-06 2014-05-14 株式会社国際電気通信基礎技術研究所 Robot self-localization system
US9008487B2 (en) * 2011-12-06 2015-04-14 Alcatel Lucent Spatial bookmarking
JP6187499B2 (en) * 2015-02-19 2017-08-30 Jfeスチール株式会社 Self-localization method for autonomous mobile robot, autonomous mobile robot, and landmark for self-localization
WO2017030188A1 (en) * 2015-08-19 2017-02-23 Cyberdyne株式会社 Autonomously moving body and operation system for managing inside of facility
JP2017038894A (en) * 2015-08-23 2017-02-23 日本電産コパル株式会社 Cleaning robot
CN105068557A (en) * 2015-08-24 2015-11-18 铜陵学院 Fully-automatic four-wheeled dual-core middle-speed fire-fighting robot servo controller
CN106514661A (en) * 2016-10-28 2017-03-22 天津城建大学 Underground fire disaster patrolling robot system
JP6402266B1 (en) * 2018-02-09 2018-10-10 ユニティガードシステム株式会社 Robot movement control system and movement control method
JP2019207618A (en) * 2018-05-30 2019-12-05 日本電気株式会社 Information processing system
JP2019207617A (en) 2018-05-30 2019-12-05 日本電気株式会社 Information processing system
JP6947336B2 (en) * 2019-04-12 2021-10-13 三菱電機株式会社 Mobile control system, mobile, and mobile system
JP7484742B2 (en) 2021-01-21 2024-05-16 トヨタ自動車株式会社 AUTONOMOUS MOBILITY SYSTEM, AUTONOMOUS MOBILITY METHOD, AND AUTONOMOUS MOBILITY PROGRAM
CN114578833B (en) * 2022-05-07 2022-07-15 季华实验室 Forest fire prevention robot patrol method and device, electronic equipment and storage medium
CN116660916B (en) * 2023-05-26 2024-02-02 广东省农业科学院设施农业研究所 Positioning method, mapping method and electronic equipment for orchard mobile robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022249677A1 (en) * 2021-05-26 2022-12-01 株式会社日立製作所 Safety management system and autonomous control system

Also Published As

Publication number Publication date
JP2003295951A (en) 2003-10-17

Similar Documents

Publication Publication Date Title
JP4056777B2 (en) Autonomous mobile object traveling system and autonomous mobile object position correction method
JP4587166B2 (en) Moving body tracking system, photographing apparatus, and photographing method
JP5543696B2 (en) Target navigation for vehicles using blinking optical beacons
US11019322B2 (en) Estimation system and automobile
EP3123289B1 (en) Locating a portable device based on coded light
US7479979B2 (en) Omnidirectional monitoring control system, omnidirectional monitoring control method, omnidirectional monitoring control program, and computer readable recording medium
JP4003623B2 (en) Image processing system using a pivotable surveillance camera
KR101343975B1 (en) System for detecting unexpected accident
KR101920473B1 (en) Method and apparatus for estimating 3D position and orientation by means of sensor fusion
JP2016177640A (en) Video monitoring system
JP2009162413A (en) Sniper detecting device
KR101821159B1 (en) System for tracking moving path of objects using multi-camera
CN111487610A (en) Crane, positioning system and positioning method for hoisting operation of crane, and storage medium
CN109634271A (en) A kind of indoor moving service robot and its control method
JP3271900B2 (en) Automatic tracking lighting system
WO2018228258A1 (en) Mobile electronic device and method therein
KR20170100892A (en) Position Tracking Apparatus
KR101452342B1 (en) Surveillance Camera Unit And Method of Operating The Same
CN209560365U (en) A kind of indoor moving service robot
KR101065960B1 (en) Mobile system for recogning position of mobile device and method for estimating position
US20200033874A1 (en) Systems and methods for remote visual inspection of a closed space
JP2007303913A (en) Foreign matter detecting device, robot device using the same, foreign matter detection method, and foreign matter detection program
JP7176868B2 (en) monitoring device
KR20060003871A (en) Detection system, method for detecting objects and computer program therefor
JP7437930B2 (en) Mobile objects and imaging systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071212

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4056777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131221

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees