JP3992026B2 - 自走ロボット - Google Patents

自走ロボット Download PDF

Info

Publication number
JP3992026B2
JP3992026B2 JP2004203657A JP2004203657A JP3992026B2 JP 3992026 B2 JP3992026 B2 JP 3992026B2 JP 2004203657 A JP2004203657 A JP 2004203657A JP 2004203657 A JP2004203657 A JP 2004203657A JP 3992026 B2 JP3992026 B2 JP 3992026B2
Authority
JP
Japan
Prior art keywords
camera
sensor
controlling
image
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004203657A
Other languages
English (en)
Other versions
JP2006024128A (ja
Inventor
博幸 竹中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2004203657A priority Critical patent/JP3992026B2/ja
Priority to US11/176,643 priority patent/US7166832B2/en
Publication of JP2006024128A publication Critical patent/JP2006024128A/ja
Application granted granted Critical
Publication of JP3992026B2 publication Critical patent/JP3992026B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Burglar Alarm Systems (AREA)

Description

本発明は、自走ロボットに関し、特に、セキュリティを確保するために使用される自走ロボットに関する。
従来の自走ロボット掃除機は、特許文献1に開示されるように、直流電圧を出力する充電及び電源部と、充電及び電源部から出力される直流電圧が入力されるマイクロプロセッサと、ユーザから動作条件及び動作命令が入力されて、動作条件および動作命令をマイクロプロセッサに出力するキー入力回路と、人体および愛玩動物の熱赤外線を感知し、その感知信号をマイクロプロセッサに出力する熱赤外線感知回路と、マイクロプロセッサから出力される駆動信号が入力されて前後動モータを回転させ、駆動輪を前方と後方中のいずれか一方に回転させる前後動作モータ駆動回路と、マイクロプロセッサから出力される駆動信号が入力されてステアリングモータを回転させ、駆動輪の進行方向を変更させるステアリングモータ駆動回路と、マイクロプロセッサから出力される超音波信号が入力されて超音波を送信する超音波送信回路と、超音波送信回路から送信された超音波が障害物に反射されてくる超音波を受信する超音波受信回路と、受信された信号に基づいてマイクロプロセッサから出力される駆動信号が入力されて掃除用モータを駆動させ、掃除を行う掃除用モータ駆動回路とを備える。
この発明によると、製品の製造費用を低下して掃除時間の短縮を図り、掃除能率を向上せしめることができる。
また、従来の移動ロボットシステムは、特許文献2に開示されるように、自立移動し作業を行う移動ロボットと、移動ロボットに作業指示を与える管理装置とを備え、移動ロボットは、外的または内的作用を受けたとき管理装置まで移動する制御装置と、管理装置との間で互いに情報の受け渡しを行う情報伝達装置とを有することを特徴とする。
この発明によると、移動ロボットの作業を途中で中断したい場合や最初から作業をやり直したい場合などに、移動ロボットは一旦管理装置まで移動してくるので、作業の途中でも容易に管理装置から移動ロボットに対して指示を伝えることができる。また、移動ロボットから管理装置に対しても、情報を伝えることができるので、移動ロボットが得た障害物などの周囲の状況などの情報を管理装置に伝達でき、管理装置は、その情報に応じてそれらに対応した指示または処理を行うことができる。
また、従来の人検出装置は、特許文献3に開示されるように、第1検知範囲内に人がいるか否かを検知する第1センサと、第1検知範囲より狭い第2検知範囲内に人がいるか否かを検知する第2センサとを有し、第1センサにて第1検知範囲内に人がいるか否かを検知した後に、第2センサにて第2検知範囲内に人がいることを検知することにより、当該人のいる方向を検知することを特徴とする。
この発明によると、当該人のいる方向を簡単に検出することができる。
しかし、特許文献1および特許文献2に開示された発明では、いずれも人体の動きを追尾して検出することが困難という問題点がある。その理由は、焦電センサが検知範囲内のどこに人がいるかを特定できない点にある。
特許文献3に開示された発明では、人体を追尾して撮像するという目的のためとしては、製作コストが高くなるという問題点がある。その理由は、人体を追尾して撮像する際に発生するノイズの影響を考慮していないという点にある。
特開平6−98844号公報 特開平11−282533号公報 特開2002−350555号公報
本発明は上述の問題点を解決するためになされたものであって、その目的は、簡単な構成で人体を追尾し撮像できる自走ロボットを提供することにある。
上記目的を達成するために、本発明のある局面にしたがうと、自走ロボットは、互いに異なる方向を向いており、かつ、熱源があることを検出する複数の焦電センサと、光軸上にあるものを撮像するカメラと、複数の焦電センサおよびカメラを同時に移動させる駆動装置と、駆動装置が停止したことを検出するロータリエンコーダと、駆動装置およびカメラを制御するための制御手段とを含む。制御手段は、熱源があることを複数の焦電センサのいずれか1つが検出すると、熱源があることを検出した焦電センサがあった方向にカメラの光軸が向くように、駆動装置を制御するための第1の制御手段と、駆動装置が停止したことをロータリエンコーダが検出した後、カメラがものを撮像するように、カメラを制御するための第2の制御手段と、カメラが撮像した画像のうち、周囲とのトーン差がしきい値を上回る部分を認識するための認識手段と、トーン差がしきい値を上回る部分の位置からカメラが撮像した画像の中心までの距離に基づいて、カメラの移動量を算出するための算出手段と、カメラの移動量に応じて駆動装置を制御するための手段と、カメラの移動量に応じて駆動装置を制御した後、カメラにものを撮像させるための制御を再度実施するように、第2の制御手段を制御するための手段とを含む。
すなわち、いずれかの焦電センサが熱源を検出した場合、熱源を検出した焦電センサの方向に移動してその熱源を撮像する。撮像手段が撮像した画像のうち、周囲とのトーン差がしきい値を上回る部分の位置から撮像手段が撮像した画像の中心までの距離に基づいて、移動手段が制御される。これにより、自走ロボットは、画像のうち周囲とのトーン差がしきい値を上回る部分の位置に基づいて追尾し、さらに撮像する。その結果、人体を特に的確に追尾し撮像できる自走ロボットを提供することができる。
本発明の他の局面にしたがうと、自走ロボットは、互いに異なる方向を向いており、かつ、熱源があることを検出するための複数の第1の検出手段と、光軸上にあるものを撮像するための撮像手段と、複数の第1の検出手段および撮像手段を同時に移動させるための移動手段と、移動手段が停止したことを検出するための第2の検出手段と、移動手段および撮像手段を制御するための制御手段とを含む。制御手段は、熱源があることを複数の第1の検出手段のいずれか1つが検出すると、熱源があることを検出した第1の検出手段があった方向に撮像手段の光軸が向くように、移動手段を制御するための第1の制御手段と、移動手段が停止したことを第2の検出手段が検出した後、撮像手段がものを撮像するように、撮像手段を制御するための第2の制御手段と、撮像手段が撮像した画像に基づいて、移動手段を制御するための移動制御手段と、撮像手段の移動量に応じて移動手段を制御した後、撮像手段にものを撮像させるための制御を再度実施するように、第2の制御手段を制御するための手段とを含む。
すなわち、いずれかの第1の検出手段が熱源を検出した場合、熱源を検出した第1の検出手段の方向に移動してその熱源を撮像する。さらに画像に基づいて追尾し、さらに撮像する。その結果、人体を追尾し撮像できる自走ロボットを提供することができる。
また、上述の移動制御手段は、認識手段と、位置制御手段とを含むことが望ましい。認識手段は、撮像手段が撮像した画像のうち、周囲とのトーン差がしきい値を上回る部分を認識する。位置制御手段は、トーン差がしきい値を上回る部分の位置に基づいて、移動手段を制御する。
すなわち、撮像手段が撮像した画像のうち、周囲とのトーン差がしきい値を上回る部分の位置に基づいて、移動手段が制御される。これにより、自走ロボットは、画像のうち周囲とのトーン差がしきい値を上回る部分の位置に基づいて追尾し、さらに撮像する。その結果、人体を追尾し撮像できる自走ロボットを提供することができる。
また、上述の位置制御手段は、算出手段と移動手段を制御するための手段とを含むことが望ましい。算出手段は、トーン差がしきい値を上回る部分の位置から撮像手段が撮像した画像の中心までの距離に基づいて、撮像手段の移動量を算出する。移動手段を制御するための手段は、撮像手段の移動量に応じて移動手段を制御する
すなわち、トーン差がしきい値を上回る部分の位置から撮像手段が撮像した画像の中心までの距離に基づいて、移動手段が制御される。これにより、自走ロボットは、トーン差がしきい値を上回る部分の位置から撮像手段が撮像した画像の中心までの距離に基づいて追尾し、さらに撮像する。その結果、人体をさらに的確に追尾し撮像できる自走ロボットを提供することができる。
本発明に係る自走ロボットは、安価な構成で人体を追尾し撮像できる。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同一である。したがって、それらについての詳細な説明は繰返さない。
<第1の実施の形態>
以下、本発明の第1の実施の形態に係る自走ロボットについて説明する。
図1および図2を参照して、本実施の形態に係る自走ロボット110は、第1センサ112と、第2センサ114と、第3センサ116と、第4センサ118と、タイマ120と、メモリ122と、制御部126と、入力部128と、カメラ130と、蓄電池132と、走行部134とを含む。図1は、本実施の形態に係る自走ロボット110の外観図である。自走ロボット110は、ユーザが留守の家屋に第三者が侵入した場合、この第三者を追尾して撮像する、円盤型のロボットである。図1(A)は、自走ロボット110の平面図、図1(B)は、自走ロボット110の底面図である。図2は、自走ロボット110の制御ブロック図である。
第1センサ112〜第4センサ118は、いずれも熱源(熱源は人体であることが多い)があることを検出して信号を出力する焦電センサである。第1センサ112は、自走ロボット110の左前の端に設けられている。第2センサ114は、自走ロボット110の左後ろの端に設けられている。第3センサ116は、自走ロボット110の右前の端に設けられている。第4センサ118は、自走ロボット110の右後ろの端に設けられている。これら4つのセンサが設けられる理由は、各々のセンサが熱源を検出できる範囲が、センサを中心とする100度の範囲であるという点にある。タイマ120は、予め定められた時間が経過すると信号を出力する。メモリ122は、自走ロボット110の各部の制御に必要な情報を記憶する。照度センサ124は、自走ロボット110の周囲の明るさを検出する。照度センサ124は、周囲の明るさに応じた値を表す信号を、制御部126に出力する。制御部126は、自走ロボット110の各部を制御する。制御部126は、その制御に必要な演算をする装置でもある。入力部128は、信号の受信により、ユーザの操作を受付ける。カメラ130は、光軸上にあるものを撮像する。本実施の形態において、カメラ130は、CCD素子(charge coupled device)を用いる装置である。カメラ130のレンズの前には、フィルタが設けられている。カメラ130は、照度センサ124が出力した値に応じて、そのフィルタを自動的に着脱する。これにより、カメラ130は、明るい場所では通常のデジタルカメラとして、暗い場所では赤外線カメラとして動作する。カメラ130は、自走ロボット110の正面に設けられる。蓄電池132は、電力を蓄える。走行部134は、自走ロボット110が走行する際の推進力を発生する。
走行部134は、モータ160と、駆動装置162と、ロータリエンコーダ164と、ジャイロセンサ166とを含む。モータ160は、電力を消費してロータを回転させる。駆動装置162は、ロータのトルクを床面に伝達する。これにより、自走ロボット110は、床面を走行する。駆動装置162は、第1センサ112〜第4センサ118およびカメラ130を同時に移動させる。ロータリエンコーダ164は、駆動装置162の回転に応じてパルスを発生する。本実施の形態におけるロータリエンコーダ164は、インクリメント型ロータリエンコーダである。発生したパルスは制御部126に出力される。このパルスの有無や単位時間あたりの数により、制御部126は、駆動装置162の速度を検出できる。これにより、ロータリエンコーダ164は、第1センサ112〜第4センサ118およびカメラ130が停止したことを検出することとなる。ジャイロセンサ166は、ロータリエンコーダ164から独立して、駆動装置162が回転しているか否かを検出する。すなわち、ジャイロセンサ166は、ロータリエンコーダ164と同様に、第1センサ112〜第4センサ118およびカメラ130が停止したことを検出することとなる。
駆動装置162は、起動輪(右)172と、従動輪174と、起動輪(左)176とを含む。起動輪(右)172および起動輪(左)176は、モータ160から機動力を受け、推進力を発生させるクローラである。従動輪174は、起動輪(右)172および起動輪(左)176の動きに追従する。従動輪174は、一定の方向を向くように固定して取付けられている。この場合、自走ロボット110の自転にともない、従動輪174は床上をすべることとなる。床上をすべる際の摩擦抵抗を軽減するため、従動輪174のエッジは丸く切欠かれ、樹脂製(本実施の形態の場合、車輪はナイロン製である。ただしウレタンなどであってもよい。)となっている。
図3を参照して、本実施の形態に係る自走ロボット110で実行されるプログラムは、侵入者の撮像に関し、以下のような制御構造を有する。
ステップ100(以下、ステップをSと略す。)にて、制御部126は、第1センサ112〜第4センサ118から信号を取得する。
S102にて、制御部126は、第1センサ112〜第4センサ118のいずれかが人体を検出したか否かを判断する。人体を検出したと判断した場合には(S102にてYES)、処理はS104へと移される。もしそうでないと(S102にてNO)、処理はS100へと移される。
S104にて、制御部126は、第1センサ112だけが人体を検出したか否かを判断する。第1センサ112だけが人体を検出したと判断した場合には(S104にてYES)、処理はS106へと移される。もしそうでないと(S104にてNO)、処理はS108へと移される。S106にて、モータ160は、制御部126のPWM(Pulse-Width Modulation)制御により回転する。モータ160が回転すると、起動輪(右)172は後ろへの推進力を発生させる。起動輪(左)176は前への推進力を発生させる。自走ロボット110は、第1センサ112の方向へ向きを変える。
S108にて、制御部126は、第2センサ114だけが人体を検出したか否かを判断する。第2センサ114だけが人体を検出したと判断した場合には(S108にてYES)、処理はS110へと移される。もしそうでないと(S108にてNO)、処理はS112へと移される。S110にて、モータ160は、制御部126のPWM制御により回転する。モータ160が回転すると、起動輪(右)172は後ろへの推進力を発生させる。起動輪(左)176は前への推進力を発生させる。自走ロボット110は、第2センサ114の方向へ向きを変える。
S112にて、制御部126は、第3センサ116だけが人体を検出したか否かを判断する。第3センサ116だけが人体を検出したと判断した場合には(S112にてYES)、処理はS114へと移される。もしそうでないと(S112にてNO)、処理はS116へと移される。S114にて、モータ160は、制御部126のPWM制御により回転する。モータ160が回転すると、起動輪(右)172は前への推進力を発生させる。起動輪(左)176は後ろへの推進力を発生させる。自走ロボット110は、第3センサ116の方向へ向きを変える。
S116にて、制御部126は、第4センサ118だけが人体を検出したか否かを判断する。第4センサ118だけが人体を検出したと判断した場合には(S116にてYES)、処理はS118へと移される。もしそうでないと(S116にてNO)、処理はS120へと移される。S116にて、モータ160は、制御部126のPWM制御により回転する。モータ160が回転すると、起動輪(右)172は前への推進力を発生させる。起動輪(左)176は後ろへの推進力を発生させる。自走ロボット110は、第4センサ118の方向へ向きを変える。
S120にて、制御部126は、第1センサ112〜第4センサ118のうち2つ以上が人体を検出したか否かを判断する。2つ以上が人体を検出したと判断した場合には(S120にてYES)、処理はS124へと移される。もしそうでないと(S120にてNO)、処理はS100へと移される。
S122にて、制御部126は、駆動装置162が停止するのを待って信号を出力する。制御部126は、次の2つの要件のいずれかが満たされた場合に駆動装置162が停止したと判断する。第1の要件は、ロータリエンコーダ164が出力するパルスがなくなるという要件である。第2の要件は、ロータリエンコーダ164が出力するパルスに異常があり、かつジャイロセンサ166が駆動装置162の停止を検出したことという要件である。駆動装置162が停止したか否かの判断の際、ロータリエンコーダ164が検出した結果が、優先して参酌される。制御部126が信号を出力すると、カメラ130はその前にあるものを撮像する。カメラ130は、撮像した画像のデータを制御部126に出力する。制御部126は、画像のデータをメモリ122に記録する。これにより、制御部126は、ロータリエンコーダ164またはジャイロセンサ166が、熱源があることを検出した第1センサ112〜第4センサ118のいずれかがあった方向に光軸が向いた状態でカメラ130が停止したことを検出した後、カメラ130がものを撮像するように、カメラ130を制御することとなる。
S124にて、タイマ120は、予め定められた時間が経過した後、時間が経過した旨の信号を制御部126に出力する。信号が出力されるまで、制御部126は処理を停止する。これにより、制御部126は、ロータリエンコーダ164またはジャイロセンサ166が、熱源があることを検出した第1センサ112〜第4センサ118のいずれかがあった方向に光軸が向いた状態でカメラ130が停止したことを検出した後、予め定められた時間が経過するまで、熱源があることを前記第1センサ112〜第4センサ118が検出するか否かに関わらず第1センサ112〜第4センサ118を固定するように、駆動装置162を制御することとなる。本実施の形態の場合、「予め定められた時間」とは3秒のことである。3秒とした理由は、実験の結果から得た最適値(第1センサ112〜第4センサ118のいずれかが安定するための最小の時間のこと。第1センサ112〜第4センサ118を移動させた直後に誤動作が生じやすい原因は、熱源の揺らぎが生じる点にある。)が3秒であるという点にある。
S126にて、制御部126は、入力部128が監視を停止する旨の信号を受付けたか否かを判断する。監視を停止する旨の信号を受付けたと判断した場合には(S126にてYES)、処理は終了する。もしそうでないと(S126にてNO)、処理はS100へと移される。
以上のような構造およびフローチャートに基づく、自走ロボット110の動作について説明する。
自走ロボット110は、動作を停止した状態で侵入者の監視を開始する。制御部126は、第1センサ112〜第4センサ118から信号を取得する(S100)。信号が取得されると、制御部126は、第1センサ112〜第4センサ118のいずれかが人体を検出したか否かを判断する(S102)。この場合、左前にある第1センサ112だけが人体を検出したとする。制御部126は、第1センサ112〜第4センサ118のいずれかが人体を検出したと判断するので(S102にてYES)、制御部126は、第1センサ112だけが人体を検出したか否かを判断する(S104)。この場合、第1センサ112だけが人体を検出したと判断するので(S104にてYES)、モータ160は、制御部126のPWM制御により回転する。これにより、制御部126は、熱源があることを第1センサ112〜第4センサ118のいずれか1つが検出すると、熱源があることを検出したそのセンサがあった方向にカメラ130の光軸が向くように、駆動装置162を制御することとなる。自走ロボット110の駆動装置162は、第1センサ112の方向(自走ロボット110の正面から見て左側)にスピン回転する(S106)。駆動装置162が回転し、停止し、制御部126が信号を出力すると、カメラ130はその前にあるものを撮像する(S122)。前にあるものが撮像されると、タイマ120は、予め定められた時間が経過した後、時間が経過した旨の信号を制御部126に出力する(S124)。これにより、駆動装置162がスピン回転した後、予め定められた時間が経過するまで、自走ロボット110の動きは停止する。このように停止する理由は、焦電センサが移動している場合、近くに熱源がなくても、周囲の熱の揺らぎを検出することによって、誤った信号を出力してしまう点にある。時間が経過した旨の信号が出力されると、制御部126は、入力部128が監視を停止する旨の信号を受付けたか否かを判断する(S126)。監視を停止する旨の信号を受付けるまで(S126にてNO)、S100〜S126の処理を繰返す。
以上のようにして、本実施の形態に係る自走ロボット110は、焦電センサを自走ロボットに複数個搭載し、自走ロボットが停止した状態で人体が検出されるのを待つ。いずれかのセンサが人体(ヒト以外の動物の場合もあり得る。以下同じ。第2の実施の形態も同じ。)を検出した場合、検出したセンサの方向に自ら回転してその人体を撮像する。続けて回転する場合、一定の間待ってから再び人体を検出する。すなわち、制御部126は、ロータリエンコーダ164が、熱源があることを検出した焦電センサがあった方向に光軸が向いた状態でカメラ130が停止したことを検出した後、3秒その他予め定められた時間が経過するまで、熱源があることを複数の焦電センサが検出するか否かに関わらず、複数の焦電センサを固定するように駆動装置162を制御する。これにより、わずか3秒停止するだけで、簡単な構成であっても、駆動装置162が複数の焦電センサを同時に移動させたことによるノイズの影響を特に的確に抑えつつ、カメラ130にものを撮像させることができる。その結果、簡単かつ安価な構成で人体を追尾し撮像できる自走ロボットを提供することができる。
なお、第1センサ112〜第4センサ118は、自走ロボット110の側面に設けられていてもよい。
また、第1センサ112〜第4センサ118は、焦電センサに限られない。この場合、S124おける「予め定められた時間」は、次の要件を満たす時間であればよい。その要件とは、第1センサ112〜第4センサ118の移動が終了した時から第1センサ112〜第4センサ118すべての出力が安定するまでの時間以上であるという要件である。
また、S124において、タイマ120は、次の要件が満たされた後、時間が経過した旨の信号を制御部126に出力してもよい。その要件とは、カメラ130が停止した後、第1センサ112〜第4センサ118のいずれかの出力が安定するという要件である。すなわち、制御部126は、ロータリエンコーダ164が、熱源があることを検出した焦電センサがあった方向に光軸が向いた状態でカメラ130が停止したことを検出した後、同じ構造を用いた2つ以上の焦電センサのいずれかの出力が安定するまで、熱源があることを複数の焦電センサが検出するか否かに関わらず、焦電センサを固定するように駆動装置162を制御する。このような要件を適用できる理由は、第1センサ112〜第4センサ118が、1点にある熱源を検出できるセンサが2つ以下となるように設置され、かつこれらのセンサの数が3つ以上であるという点にある。通常、侵入者は1名だけであることが多い。侵入者が1名であれば、その1名の侵入者を2つ以下のセンサが検知する場合、侵入者の存在を検出できないセンサが少なくとも1つある。このセンサの出力は、侵入者が発する熱の影響を受けない。このセンサの出力は、ほぼ熱の揺らぎを原因として生じる出力である。このことは、次のことを意味する。その第1は、ある1つのセンサの出力が安定化すれば、他のセンサの出力も安定化していると推定できることである。第2は、ある1つのセンサの出力が安定化した時点で他のセンサの出力が安定化していない場合、出力が安定化していない原因は熱源(すなわち侵入者)の存在にあるということである。その結果、第1センサ112〜第4センサ118のいずれかの出力が一定値になった直後に熱源の検出を開始すれば、駆動装置162が同じ構造を用いた複数の焦電センサを同時に移動させたことによるノイズの影響と誤動作を防ぎつつ素早く侵入者の存在を検知でき、カメラ130にものを撮像させることができる。
<第2の実施の形態>
以下、本発明の第2の実施の形態に係る自走ロボットについて説明する。
本実施の形態に係る自走ロボット110のハードウェア構成については前述の第1の実施の形態と同じである。それらについての機能も同じである。したがって、それらについての詳細な説明はここでは繰返さない。
図4を参照して、本実施の形態に係る自走ロボット110で実行されるプログラムは、侵入者の撮像に関し、以下のような制御構造を有する。なお、図4に示すフローチャートの中で、前述の図3に示した処理は同じステップ番号を付してある。それらの処理も同じである。したがって、それらについての詳細な説明はここでは繰返さない。
S130にて、制御部126は、カメラ130が撮像した画像の中における人の顔を認識する。本実施の形態の場合、周囲の画素とのトーン差があるしきい値(自走ロボット110の設計者が任意に設定する値である)を上回る画素を抽出し、そのような画素の配置と楕円形とのテンプレートマッチングを実施し、一致度があるしきい値(これも自走ロボット110の設計者が任意に設定する値である)を上回る場合に、人の顔が写っていると判断する。その場合、顔の中心は、一致度がしきい値を超えた際のテンプレートの中心の座標にあるとみなす。本実施の形態の場合、テンプレートにおける楕円の大きさをさまざまに変え、画像認識が実施される。
S131にて、制御部126は、人の顔を認識できたか否かを判断する。人の顔を認識できたと判断した場合には(S131にてYES)、処理はS132へと移される。もしそうでないと(S131にてNO)、処理はS136へと移される。S132にて、制御部126は、画像の中の人の顔の中心と画像全体の中心との、座標の差を算出する。
S134にて、制御部126は、画像の中の人の顔の中心が、画像全体の縦の中心線上にくるようにモータ160を制御する。モータ160は、制御部126の制御に応じて自転する。このとき、侵入者との距離を測定し、自らが自転する角度φを算出する必要がある。それらの方法については後述する。
S136にて、制御部126は、入力部128が監視を停止する旨の信号を受付けたか否かを判断する。監視を停止する旨の信号を受付けたと判断した場合には(S136にてYES)、処理は終了する。もしそうでないと(S136にてNO)、処理はS122へと移される。
以上のような構造およびフローチャートに基づく、自走ロボット110の動作について説明する。
S100〜S118の処理を経て、制御部126は、カメラ130が撮像した画像の中における人の顔を認識する(S130)。人の顔が認識されると、制御部126は、画像の中の人の顔の中心と画像全体の中心との、座標の差を算出する(S132)。座標の差が認識されると、制御部126は、画像の中の人の顔の中心が、画像全体の縦の中心線上にくるようにモータ160を制御する。モータ160は、制御部126の制御に応じて自転する(S134)。このとき、制御部126は、次の手順により侵入者との距離を測定し、必要な移動量(自走ロボット110が自転する角度φ)を算出する。
第1の手順は、最後に撮像した画像(第1の画像)における人の顔の中心の位置と、その画像を撮像する直前に撮像した画像(第2の画像)における人の顔の中心の位置との、座標の差(この場合、水平座標の差Cを用いる。)を算出する手順である。
第2の手順は、第1の画像を撮像する直前に自走ロボット110が自転した角度θ(この角度はメモリ122に記録されている)を、次の式に代入することにより、第2の画像を撮像した時点での自走ロボット110から侵入者までの距離Rを算出する手順である。
0.5C=Rsin(0.5θ) ・・・(1)
第2の手順は、第2の画像を撮像した後に算出した距離R(この距離Rを「R(2)」と称する。)と第1の手順で算出した距離R(この距離Rを「R(1)」と称する。)とを、次の式に代入することにより、次に撮像する際の自走ロボット110から侵入者までの距離の推定値R(0)を算出する手順である。
第3の手順は、S132にて算出した水平座標の差Sと、推定値R(0)とを、次の式に代入することにより、自走ロボット110が自転する角度φを算出する手順である。
0.5S=R(0)sin(0.5φ) ・・・(2)
第4の手順は、次に角度ψなどを算出する際利用するために、第1の画像における人の顔の中心の座標と、距離R(1)と、角度φとをメモリ122に記録する手順である。なお、最初に角度φを算出する場合は、第1の手順および第2の手順を経ない。その代わり、第3の手順にて、予めメモリ122に初期値として記録した値を推定値R(0)とみなし、式(2)に代入して角度φを算出する。
角度φが算出されると、制御部126は、入力部128が監視を停止する旨の信号を受付けたか否かを判断する(S136)。監視を停止する旨の信号を受付けたと判断するまでは(S136にてNO)、S122〜S136の処理を繰返す。
以上のようにして、本実施の形態に係る自走ロボットは、焦電センサを自走ロボットに複数個搭載し、自走ロボットが停止した状態で人体が検出されるのを待つ。いずれかのセンサが人体を検出した場合、検出したセンサの方向に自ら回転してその人体を撮像する。さらに画像認識により侵入者を認識し、追尾し、撮像する。その結果、安価な構成で人体を追尾し撮像できる自走ロボットを提供することができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明の第1の実施の形態に係る自走ロボットの外観図である。 本発明の第1の実施の形態に係る自走ロボットの制御ブロック図である。 本発明の第1の実施の形態に係る自走ロボットの撮像処理の制御の手順を示すフローチャートである。 本発明の第2の実施の形態に係る自走ロボットの撮像処理の制御の手順を示すフローチャートである。
符号の説明
110 自走ロボット、112 第1センサ、114 第2センサ、116 第3センサ、118 第4センサ、120 タイマ、122 メモリ、124 照度センサ、126 制御部、128 入力部、130 カメラ、132 蓄電池、134 走行部、160 モータ、162 駆動装置、164 ロータリエンコーダ、166 ジャイロセンサ、172 起動輪(右)、174 従動輪、176 起動輪(左)。

Claims (4)

  1. 互いに異なる方向を向いており、かつ、熱源があることを検出する複数の焦電センサと、
    光軸上にあるものを撮像するカメラと、
    前記複数の焦電センサおよびカメラを同時に移動させる駆動装置と、
    前記駆動装置が停止したことを検出するロータリエンコーダと、
    前記駆動装置および前記カメラを制御するための制御手段とを含み、
    前記制御手段は、
    前記熱源があることを前記複数の焦電センサのいずれか1つが検出すると、前記熱源があることを検出した焦電センサがあった方向に前記カメラの光軸が向くように、前記駆動装置を制御するための第1の制御手段と、
    前記駆動装置が停止したことを前記ロータリエンコーダが検出した後、前記カメラがものを撮像するように、前記カメラを制御するための第2の制御手段と、
    前記カメラが撮像した画像のうち、周囲とのトーン差がしきい値を上回る部分を認識するための認識手段と、
    前記トーン差がしきい値を上回る部分の位置から前記カメラが撮像した画像の中心までの距離に基づいて、前記カメラの移動量を算出するための算出手段と、
    前記カメラの移動量に応じて前記駆動装置を制御するための手段と、
    前記カメラの移動量に応じて前記駆動装置を制御した後、前記カメラに前記ものを撮像させるための制御を再度実施するように、前記第2の制御手段を制御するための手段とを含む、自走ロボット。
  2. 互いに異なる方向を向いており、かつ、熱源があることを検出するための複数の第1の検出手段と、
    光軸上にあるものを撮像するための撮像手段と、
    前記複数の第1の検出手段および撮像手段を同時に移動させるための移動手段と、
    前記移動手段が停止したことを検出するための第2の検出手段と、
    前記移動手段および前記撮像手段を制御するための制御手段とを含み、
    前記制御手段は、
    前記熱源があることを前記複数の第1の検出手段のいずれか1つが検出すると、前記熱源があることを検出した第1の検出手段があった方向に前記撮像手段の光軸が向くように、前記移動手段を制御するための第1の制御手段と、
    前記移動手段が停止したことを前記第2の検出手段が検出した後、前記撮像手段がものを撮像するように、前記撮像手段を制御するための第2の制御手段と、
    前記撮像手段が撮像した画像に基づいて、前記移動手段を制御するための移動制御手段と、
    前記撮像手段の移動量に応じて前記移動手段を制御した後、前記撮像手段に前記ものを撮像させるための制御を再度実施するように、前記第2の制御手段を制御するための手段とを含む、自走ロボット。
  3. 前記移動制御手段は、
    前記撮像手段が撮像した画像のうち、周囲とのトーン差がしきい値を上回る部分を認識するための認識手段と、
    前記トーン差がしきい値を上回る部分の位置に基づいて、前記移動手段を制御するための位置制御手段とを含む、請求項2に記載の自走ロボット。
  4. 前記位置制御手段は、
    前記トーン差がしきい値を上回る部分の位置から前記撮像手段が撮像した画像の中心までの距離に基づいて、前記撮像手段の移動量を算出するための算出手段と、
    前記撮像手段の移動量に応じて前記移動手段を制御するための手段とを含む、請求項3に記載の自走ロボット。
JP2004203657A 2004-07-09 2004-07-09 自走ロボット Expired - Fee Related JP3992026B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004203657A JP3992026B2 (ja) 2004-07-09 2004-07-09 自走ロボット
US11/176,643 US7166832B2 (en) 2004-07-09 2005-07-07 Self-running robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004203657A JP3992026B2 (ja) 2004-07-09 2004-07-09 自走ロボット

Publications (2)

Publication Number Publication Date
JP2006024128A JP2006024128A (ja) 2006-01-26
JP3992026B2 true JP3992026B2 (ja) 2007-10-17

Family

ID=35540324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004203657A Expired - Fee Related JP3992026B2 (ja) 2004-07-09 2004-07-09 自走ロボット

Country Status (2)

Country Link
US (1) US7166832B2 (ja)
JP (1) JP3992026B2 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100937572B1 (ko) 2004-04-30 2010-01-19 힐크레스트 래보래토리스, 인크. 3d 포인팅 장치 및 방법
US8629836B2 (en) 2004-04-30 2014-01-14 Hillcrest Laboratories, Inc. 3D pointing devices with orientation compensation and improved usability
WO2006058129A2 (en) 2004-11-23 2006-06-01 Hillcrest Laboratories, Inc. Semantic gaming and application transformation
EP1941411B1 (en) 2005-09-30 2011-09-14 iRobot Corporation Companion robot for personal interaction
JP4760272B2 (ja) * 2005-09-30 2011-08-31 アイシン精機株式会社 車両周辺監視装置及びセンサユニット
KR100877071B1 (ko) * 2007-07-18 2009-01-07 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
CN101607399A (zh) * 2008-06-19 2009-12-23 鸿富锦精密工业(深圳)有限公司 充电装置
KR101479234B1 (ko) * 2008-09-04 2015-01-06 삼성전자 주식회사 로봇 및 그 제어 방법
US8223206B2 (en) * 2008-10-15 2012-07-17 Flir Systems, Inc. Infrared camera filter wheel systems and methods
JP5424676B2 (ja) * 2009-03-13 2014-02-26 キヤノン株式会社 画像処理装置
DE202012005170U1 (de) * 2012-05-25 2012-07-11 Abb Ag Mobiler Bewegungs- und Kameramelder
DE102012211151B4 (de) * 2012-06-28 2021-01-28 Siemens Aktiengesellschaft Ladeanordnung und Verfahren zum induktiven Laden eines elektrischen Energiespeichers
JP6029446B2 (ja) * 2012-12-13 2016-11-24 セコム株式会社 自律飛行ロボット
US10617271B2 (en) 2013-12-19 2020-04-14 Aktiebolaget Electrolux Robotic cleaning device and method for landmark recognition
CN104539874B (zh) * 2014-06-17 2017-11-21 武汉理工大学 融合热释电传感与摄像机的人体混合监控系统及方法
EP3167341B1 (en) * 2014-07-10 2018-05-09 Aktiebolaget Electrolux Method for detecting a measurement error in a robotic cleaning device
CN104977934B (zh) * 2015-07-09 2018-07-17 夏鹏 一种机器人系统及基于机器人系统的人体探测和跟踪方法
EP3403146A4 (en) 2016-01-15 2019-08-21 iRobot Corporation AUTONOMOUS MONITORING ROBOT SYSTEMS
CN106054894B (zh) * 2016-07-05 2019-04-09 北京九星智元科技有限公司 一种机器人伴随系统、伴随方法及机器人小车
KR20180076450A (ko) * 2016-12-28 2018-07-06 한국기계연구원 로봇의 충돌 방지 장치 및 방법
JP7243967B2 (ja) 2017-06-02 2023-03-22 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの前方の表面のレベル差を検出する方法
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
JP6989210B2 (ja) 2017-09-26 2022-01-05 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの移動の制御
JP7024997B2 (ja) * 2017-11-03 2022-02-24 株式会社エアロネクスト 飛行体操縦システム及び飛行体操縦システムを用いて飛行体を操縦する方法
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
CN110355758B (zh) * 2019-07-05 2021-02-09 北京史河科技有限公司 一种机器跟随方法、设备及跟随机器人系统
CN110348418B (zh) * 2019-07-17 2022-03-11 上海商汤智能科技有限公司 目标跟踪方法及装置、智能移动设备和存储介质
CN111089590B (zh) * 2019-12-09 2021-10-15 泉州装备制造研究所 一种视觉和激光融合的移动机器人跟踪人腿方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6392486A (ja) 1986-10-07 1988-04-22 Dainichi Color & Chem Mfg Co Ltd 印刷物およびその製造方法
KR940004375B1 (ko) 1992-03-25 1994-05-23 삼성전자 주식회사 자주식 청소기의 구동방법
JPH08184494A (ja) 1994-12-28 1996-07-16 Matsushita Electric Ind Co Ltd 赤外線検知方法及び赤外線検知装置
JPH11282533A (ja) 1998-03-26 1999-10-15 Sharp Corp 移動ロボットシステム
JP2001191276A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボットシステム、ロボット装置及びその外装
JP2001186505A (ja) 1999-12-27 2001-07-06 Nec Corp 追尾監視システム
JP2002350555A (ja) 2001-05-28 2002-12-04 Yamaha Motor Co Ltd 人検出装置
US6507773B2 (en) * 2001-06-14 2003-01-14 Sharper Image Corporation Multi-functional robot with remote and video system
JP2003051082A (ja) 2001-08-07 2003-02-21 Omron Corp 移動監視ロボット
JP4087104B2 (ja) * 2001-11-20 2008-05-21 シャープ株式会社 群ロボットシステム
JP4043289B2 (ja) * 2002-05-27 2008-02-06 シャープ株式会社 探索ロボットシステム

Also Published As

Publication number Publication date
US7166832B2 (en) 2007-01-23
US20060006316A1 (en) 2006-01-12
JP2006024128A (ja) 2006-01-26

Similar Documents

Publication Publication Date Title
JP3992026B2 (ja) 自走ロボット
EP2839769B1 (en) Robot cleaner and method for controlling the same
US11076734B2 (en) Robot cleaner and control method thereof using artificial intelligence
US9962054B2 (en) Robot cleaner, robot cleaning system having the same, and method for operating a robot cleaner
US8515580B2 (en) Docking process for recharging an autonomous mobile device
TWI627609B (zh) 狀態檢測方法、機器人及移動裝置
SE523438C2 (sv) Mobilt robotsystem med användning av RF-modul
KR101758736B1 (ko) 감시 경계 로봇 시스템 및 경계 로봇 시스템에서 이동 로봇의 주행 방법
JP2015088794A (ja) 車両周辺映像記録システム、ソナー制御装置
JP2006321001A (ja) 自律移動ロボット及びその移動状況記録システム
KR102560462B1 (ko) 이동 로봇
JP4528648B2 (ja) 自走式ロボットシステム
JP2005304516A (ja) 自走式掃除機
JP2005166001A (ja) 自動集塵装置
JP2006095005A (ja) 自走式掃除機
JP2006043175A (ja) 自走式掃除機
KR102102378B1 (ko) 로봇 청소기 및 이의 제어 방법
JP2007303913A (ja) 異物検知装置、それを用いたロボット装置、異物検知方法および異物検知プログラム
JP2006039760A (ja) 移動ロボット
JP2008012636A (ja) 人物識別システム
KR100483566B1 (ko) 로봇청소기 및 위치인식방법
KR102135369B1 (ko) 거리 검출 장치 및 그 방법
KR102300790B1 (ko) 이동 로봇 및 그 제어방법
JP2005271152A (ja) 自走式掃除機および自走ロボット
KR101498040B1 (ko) 로봇 청소기 및 이의 제어 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070716

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100803

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees