JP5898022B2 - 自走式機器 - Google Patents

自走式機器 Download PDF

Info

Publication number
JP5898022B2
JP5898022B2 JP2012204441A JP2012204441A JP5898022B2 JP 5898022 B2 JP5898022 B2 JP 5898022B2 JP 2012204441 A JP2012204441 A JP 2012204441A JP 2012204441 A JP2012204441 A JP 2012204441A JP 5898022 B2 JP5898022 B2 JP 5898022B2
Authority
JP
Japan
Prior art keywords
image
unit
self
map
cleaner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012204441A
Other languages
English (en)
Other versions
JP2014059737A (ja
Inventor
利幸 小西
利幸 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012204441A priority Critical patent/JP5898022B2/ja
Publication of JP2014059737A publication Critical patent/JP2014059737A/ja
Application granted granted Critical
Publication of JP5898022B2 publication Critical patent/JP5898022B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は自走式機器に関し、特に、端末により誘導される自走式機器に関する。
携帯端末を用いて自走式機器を特定位置に誘導する方法として、たとえば、特許文献1(特開2011−233149号公報)および特許文献2(特開2002−85305号公報)では、携帯端末の画面上に表示されたマップ上で最終到達位置または領域を指定する方法、特許文献3(特開2007−122304号公報)では、携帯端末の画面上で表示されたマップ上でマウスなどを用いて経路設定し、最終到達位置を指定する方法が提案されている。
特開2011−233149号公報 特開2002−85305号公報 特開2007−122304号公報
特許文献1、2および3では、携帯端末は自走式機器が作成するマップを画面上に表示し場所を指定するため、ユーザが見ている目標物の位置を自走式機器の最終到達点に指定したい場合、ユーザは直感的にピンポイントで指定することが困難である。
それゆえに、本発明の目的は、ユーザの簡単操作で、自ら走行経路を生成するような自走式機器を提供することである。
この発明のある局面に従う、端末と通信する自走式機器は、端末が撮影する対象物画像を含む映像を受信する映像受信部と、複数の対象物それぞれについて、当該対象物の画像と、基準位置からの当該対象物の位置を示す位置データとを有するマップを取得するマップ取得部と、受信する映像中の画像と、マップ取得部が取得する対象物の画像それぞれとを照合し、照合結果に基づき、映像から1つ以上の対象物画像を抽出する照合抽出部と、照合抽出部により抽出された対象物画像に対応する位置データを、マップから検出する位置検出部と、自走式機器の現在位置を示す現在位置データと、位置検出部により検出された前位置データとに基づき、走行経路の情報を生成する経路生成部と、を備える。
好ましくは、対象物の位置と現在位置は、基準位置からの距離と方向に基づく位置を示す。
好ましくは、被写体を撮影し映像を出力するカメラ部と、自走式機器の現在位置を検出する現在位置検出部と、をさらに備え、マップ取得部は、基準位置から走行を開始した走行中に、カメラ部が出力する撮影画像データから複数の対象物それぞれについて対象物の画像を抽出し、抽出した各対象物の画像と、当該対象物の撮影時に検出される現在位置を示す位置データとを対応づけてマップを作成するマップ作成部を含む。
好ましくは、映像受信部が受信する映像は、走行経路の到達目標を撮影した目標画像と対象物画像を含む時系列の複数の画像からなり、経路生成部は、対象物画像と、当該対象物画像の後に撮影された目標画像とから、画像の移動距離および移動方向を検出し、検出した移動距離および移動方向と、当該対象物の位置データとから、当該目標の位置データを算出する。
好ましくは、映像受信部が受信する映像は、自走式機器を撮影した機器画像を含み、受信する映像から機器画像を検出する機器画像検出部と、自走式機器の走行方向を検出する走行方向検出部と、をさらに備え、検出される機器画像から自走式機器が撮影されている方向を検出し、検出した撮影方向と、検出される走行方向から自走式機器の走行方向を変更する。
この発明の他の局面に従うシステムは、端末と、端末と通信する自走式機器とを、備えるシステムであって、自走式機器は、端末が撮影する対象物画像を含む映像を受信する映像受信部と、複数の対象物それぞれについて、当該対象物の画像と、基準位置からの当該対象物の位置を示す位置データとを有するマップを取得するマップ取得部と、受信する映像中の画像と、マップ取得部が取得する対象物の画像それぞれとを照合し、照合結果に基づき、映像から1つ以上の対象物画像を抽出する照合抽出部と、照合抽出部により抽出された対象物画像に対応する位置データを、マップから検出する位置検出部と、自走式機器の現在位置を示す現在位置データと、位置検出部により検出された位置データとに基づき、走行経路の情報を生成する経路生成部と、を含む。
この発明のさらに他の局面に従うと、端末と通信する自走式機器の制御方法であって、端末が撮影する対象物画像を含む映像を受信するステップと、複数の対象物それぞれについて、当該対象物の画像と、基準位置からの当該対象物の位置を示す位置データとを有するマップを取得するステップと、受信する映像中の画像と、マップを取得するステップにより取得する対象物の画像それぞれとを照合し、照合結果に基づき、映像から1つ以上の対象物画像を抽出するステップと、抽出された対象物画像に対応する位置データを、マップから検出するステップと、自走式機器の現在位置を示す現在位置データと、検出するステップにより検出された位置データとに基づき、走行経路の情報を生成するステップと、を備える。
この発明のさらに他の局面に従うと、プロセッサを備えるコンピュータに、端末と通信する自走式機器の制御方法を実行させるためのプログラムであって、プログラムは、プロセッサに、端末が撮影する対象物画像を含む映像を受信するステップと、複数の対象物それぞれについて、当該対象物の画像と、基準位置からの当該対象物の位置を示す位置データとを有するマップを取得するステップと、受信する映像中の画像と、マップを取得するステップにより取得する対象物の画像それぞれとを照合し、照合結果に基づき、映像から1つ以上の対象物画像を抽出するステップと、抽出された対象物画像に対応する位置データを、マップから検出するステップと、自走式機器の現在位置を示す現在位置データと、検出するステップにより検出された位置データとに基づき、走行経路の情報を生成するステップと、を実行させる。
本発明によれば、ユーザは端末で撮影した映像を送信するという簡単な操作で、自走式機器に自ら走行経路を生成させることができる。
本発明の実施の形態に係る全体構成図である。 本実施の形態に係る端末の外観図である。 本発明の実施の形態に係る端末のハードウェア構成図である。 本発明の実施の形態に係る掃除機の外観図である。 本発明の実施の形態に係る掃除機のハードウェア構成図である。 本発明の実施の形態に係る端末の機能構成図である。 本発明の実施の形態に係る掃除機の機能構成図である。 本発明の実施の形態に係る地図データ作成方法を説明する図である。 本発明の実施の形態に係る特徴点マップの一例を示す図である。 本発明の実施の形態に係る掃除機の電源ONから待機状態までの処理フローチャートである。 本発明の実施の形態に係る掃除機の待機状態から掃除するまでの処理フローチャートである。 本発明の実施の形態に係る掃除機の待機状態から掃除するまでの処理フローチャートである。 本発明の実施の形態に係る掃除機の待機状態から掃除するまでの処理フローチャートである。 本発明の実施の形態に係る処理を説明する図である。 本発明の実施の形態に係る処理を説明する図である。 本発明の実施の形態に係る処理を説明する図である。 本発明の実施の形態に係る処理を説明する図である。 本発明の実施の形態に係る処理を説明する図である。 本発明の実施の形態に係る処理を説明する図である。 本発明の実施の形態に係る処理を説明する図である。 本発明の実施の形態に係る処理を説明する図である。 本発明の実施の形態に係る表示リストの一例を示す図である。
以下、本発明の実施の形態について図面を参照し詳細に説明する。なお、同一の構成要素には各図において同一の符号を付し、詳細な説明は繰返さない。
本実施の形態では、制御対象である自走式機器として自走式掃除機を示し、これを遠隔から誘導する端末装置として、たとえばスマートフォン(多機能端末)などの携帯型の端末装置を示す。なお、自走式機器は、自走式の掃除機に限定されない。
<システム構成>
図1は、本発明の実施の形態に係る全体構成図である。図1を参照して、室内にいるユーザが携帯型端末10(以下、端末10と略す)を所持し、端末10が撮影した映像を自走式掃除機20(以下、掃除機20と略す)に送信しながら、掃除機20は映像中の特徴点を抽出し、抽出した特徴点の位置から最終到達の目標(たとえば、掃除すべきゴミ)位置、すなわち最終到達位置までの経路を検出し、検出した経路に従って走行する。これにより、端末10のユーザは撮影する映像を用いて掃除機20を目標まで誘導することができる。
ここでは、特徴点および目標は、掃除機20の走行経路を特定するための目印となるべき対象物、またはその画像であって、より特定的には位置固定の対象物またはその画像を示す。
図2は、本発明の実施の形態に係る端末10の外観図である。図3は、本発明の実施の形態に係る端末10のハードウェア構成図である。図2と図3を参照して、端末10は、CPU(Central Processing Unitの略)11、時間を計時し時間データをCPU11に出力するタイマー11A、CCD(Charge Coupled Device)からなるカメラ部11B、HDD(Hard Disc Driveの略)、SSD(Solid State Driveの略)、フラッシュメモリ、ROM(Read Only Memoryの略)、RAM(Random Access Memoryの略)などの記憶媒体を含む記憶部12、画像などを表示するための表示部13、ユーザにより操作されるボタン・キー141などを含む操作部14、アンテナを接続し変復調回路および符号化・復号化回路を含む通信部15、外部から着脱自在に記憶媒体17が装着され、装着された記憶媒体17のデータを読書きするためのメモリドライバに相当する外部I/F(Interfaceの略)16、およびリモコン(リモートコントローラの略)信号を送受信するための受発光素子191などを含むIR(InfraRed)通信部18、および音声出力部19を備える。通信部15は通信ネットワークからの信号を送受信するためのアンテナを接続する。記憶部12には、掃除機20を目標まで誘導するための掃除機20を制御するための専用アプリケーションプログラム121(以下、専用アプリ121という)が格納される。
端末10は、表示部13と操作部14の一部を、これらを一体的に構成した入出力装置であるタッチパネル18Aとして備える。表示部13には、LCD(Liquid Crystal Displayの略)ディスプレイ、有機EL(electroluminescenceの略)ディスプレイなどを適用することができる。
通信部15は、有線LAN(Local Area Network)、WiFi(Wireless Fidelityの略)、3G(3rd Generationの略)、Bluetooth(登録商標)などの通信方式に従う有線または無線の通信処理機能を有する。
図4は、本発明の実施の形態に係る掃除機20の外観図である。図5は、本発明の実施の形態に係る掃除機20のハードウェア構成図である。図4と図5を参照し、掃除機20は、被写体を撮影し画像データを出力するカメラ部26、他の各部を制御するための制御ユニットであるCPU21、時間を計時し時間データをCPU21に出力するタイマー21A、SSD、フラッシュメモリ、ROM、RAMなどの記憶媒体を含む記憶部22、操作用のボタン・キーなどを含みユーザ操作を受付けるための操作部24、端末10を含む外部装置と通信するためのアンテナを接続する通信部25、センサ部30、自走のための車輪を含む走行部27A、走行部27Aを駆動するモータなどを含む駆動部27、ランプ,ディスプレイなどの出力部28、集塵のための掃除ブラシ、吸引部などを含む掃除ユニット29A、掃除ユニット29Aを駆動するモータなどからなる駆動部29、および充電池などを有する電源部36を含む。
駆動部27は、CPU21からの制御信号に基づきモータを回転させて、モータ回転に連動して走行部27Aの車輪が回転する。駆動部27に与えられる制御信号は、車輪の走行方向を切替えるための信号と車輪の回転を制御(回転方向、回転数の制御)するための信号を含む。駆動部29もCPU21からの制御信号に基づきモータを回転し、モータ回転に連動して掃除ユニット29Aの掃除ブラシが回転する。
カメラ部26は、掃除機20の上方の被写体を撮影する上方カメラ部261および掃除機20の進行方向の被写体を撮影する前方カメラ部262を含む。これらカメラ部はCCDカメラを含む。
センサ部30は、掃除機20の走行方向を検出するための走行方向検出部31、壁などの障害物を検出するための障害物検出部32、および走行距離を検出するための走行距離検出部33を含む。
走行方向検出部31は、ジャイロセンサであり、掃除機20の走行方向(進行方向)、すなわち前方カメラ部262が向いている方向を検出する。ジャイロセンサは、掃除機20が走行方向を変えようとする時、走行方向を変更する直前の走行方向に対し掃除機20の転向した角度を検出する。転向した角度は、回転角度データΔθとして出力されるとする。
走行距離検出部33は、車輪の回転数をエンコーダ等を用いて検出し、検出回転数と車輪のサイズから掃除機20の単位時間あたりの走行距離を算出する。
障害物検出部32は、掃除機20の本体部の外周面に沿って配置された、赤外線を出射する発光素子と、反射されてきた赤外線を受光する受光素子との対を複数含む。出射した赤外線が受光されるときは、出射した方向に障害物有りと検出し、受光できないときは障害物なしと検出する。出射時間および受光時間、ならびに赤外線の速度(伝搬速度)から掃除機20と障害物または壁との距離を測定することができる。なお、赤外線に代替して超音波を用いてもよい。
<機能構成>
図6は、本発明の実施の形態に係る端末10の機能構成図である。図6を参照して、端末10のCPU11は、カメラ部11Bが撮影したプレビュー映像を処理するための映像処理部111、表示部13などで情報を表示することによりユーザに報知するための報知部112、およびリクエスト部113を備える。これら機能は、専用アプリ121により、または専用アプリ121と回路の組合わせにより実現される。
図7は、本発明の実施の形態に係る掃除機20の機能構成図である。図7を参照して掃除機20のCPU21は、特徴点マップ41を作成するための特徴点マップ作成部50、映像を処理するための映像処理部51、地図データ42を作成するための地図作成部60、および掃除機20が走行する経路を算出することで走行経路を生成するための経路算出部70を備える。
映像処理部51は、映像から特徴点画像(以下、単に特徴点ともいう)を抽出する特徴点抽出部52、抽出した特徴点画像と、予め定められた画像とをマッチング処理(照合処理)するための特徴点マッチング部53、位置検出部54、自己映像検出部55、および端末10を携帯するユーザの方向を検出するユーザ方向検出部56を含む。図7では、これら各部に関連する周辺部として前方カメラ部262、通信部25、記憶部22およびセンサ部30が示される。記憶部22には、特徴点マップ作成部50により作成された特徴点マップデータ(以下、特徴点マップという)41および地図作成部60により作成された地図データ42が格納される。
(移動の軌跡)
CPU21は、掃除機20が走行する場合に移動の軌跡を算出することにより、軌跡データを出力する。具体的には、走行距離検出部33から出力される距離データΔlと走行方向検出部31から出力される回転角度データΔθに基づいて、距離データΔlのX方向成分Δx(=Δl×cosθ)とY方向成分Δy(=Δl×sinθ)を算出する。たとえば、X方向に延びるX軸を想定すると、Y方向はX軸と直交するY軸が延びる方向を示す。X方向は東西方向であり、Y方向は南北方向であるとしてもよい。
そして、CPU21は、直前の算出された位置データ(Px′,Py′)に対して算出したX方向成分ΔxとY方向成分Δyとを加算することにより、現在位置データ(Pxc′,Pyc′)を算出し、記憶部22の予め定められた領域に格納する。このように、CPU21は、掃除機20が予め定められた距離だけ移動するごとに現在の位置データを算出する処理を繰返すことで得られる時系列の位置データから、掃除機20の走行軌跡を算出することができる。算出した走行軌跡は、記憶部22に格納される。
(地図の作成)
掃除機20は、部屋を掃除するに際し、予め部屋の地図データ42を作成するが、自走掃除機のための地図データの作成方法は公知であるので、ここでは簡単に説明する。図8は本発明の実施の形態に係る地図データ作成方法を説明する図である。
図8は部屋の平面図を表し、部屋内には、予め定められた位置に複数の障害物(テレビ、机、家具など)が載置されている。平面図はX軸と、これと直交するY軸で規定される2次元平面を示す。また、部屋内の予め定められた位置、たとえばX軸とY軸が交わる基準位置には、電源部36を充電するための充電器(図示せず)が配置されており、掃除機20は掃除しないとき、または掃除が終了すると基準位置にまで移動して充電器によって充電されると想定する。より具体的には、CPU21は、掃除作業が完了したか、または充電を必要とする場合には、掃除機20が地図データ42に基づき、基準位置に戻すための制御信号を生成し、駆動部27に出力する。
基準位置において掃除機20は電源がONにされるか、または地図作成の指示が与えられると、走行を開始し図8(A)の矢印の方向に移動を始める。移動を始めた掃除機20は、図8(B)に示すように,掃除機20に対し左手の壁(障害物)から予め定められた距離(例えば、15cm)を保つように壁沿いに部屋内を一周する。予め定められた距離は、障害物検出部32の出力から取得することができる。
一周する間に上述の走行軌跡が算出される。部屋内を一周したかどうかは走行軌跡から判断することができる。この際、地図作成部60は、走行に伴い時系列に算出される位置データ(Pxc′,Pyc′)と、障害物検出部32の出力とから検出した部屋内の壁と障害物の位置をもとに、部屋の地図データ42を作成する。
具体的には、地図データ42は、掃除する部屋をX軸およびこれに直交するY軸により規定される2次元座標平面であって、壁および障害物により走行が妨げられた領域と、走行が可能であった領域とを含む。基準位置を座標(0,0)と、基準位置からの掃除機20の走行軌跡が示す位置データ(Pxc′,Pyc′)を所定の演算式を用いて、当該2次元座標データ(Px,Py)に換算することで、壁および障害物により走行が妨げられた領域と、走行が可能であった領域の座標データを取得できる。取得した座標データから地図データ42を作成し、記憶部22に格納する。以降は、掃除機20のCPU21は、地図データ42に従って駆動部27に制御信号を出力することにより、自走式掃除が可能になる。
なお、地図データ42の作成方法は、ここで示した方法に限定されない。
(特徴点マップの作成)
図9は、本発明の実施の形態に係る特徴点マップ41の一例を示す図である。特徴点マップ41は、1つ以上のレコードを含み、各レコードは、特徴点データ411、画像データ412、位置データ413および撮影時の向きデータ414を含む。位置データ413は、対応する画像データ412の画像の略中央の座標位置を示すものとする。
特徴点マップ作成部50は、掃除機20が地図データ42に従い走行中において特徴点マップ41を作成する。基準位置に待機する掃除機20に特徴点マップ41作成指示が与えられると、掃除機20は地図データ42の作成時と同様に基準位置から走行を開始する。走行開始と同時に、前方カメラ部262による撮影が開始する。
掃除機20が基準位置(座標(0,0))から走行を開始してから、特徴点マップ作成部50は、センサ部30の出力から、基準位置からのXおよびY方向についての移動距離および移動方向を検出し、検出した移動方向および移動距離から、所定演算式を用いて、地図上の現在位置の座標データ(Px,Py)を算出する。
映像処理部51は、走行中に前方カメラ部262から出力されるプレビュー映像を入力する。ここで、“プレビュー映像”とは、カメラにより被写体を撮影して得られる動画画像を示す。プレビュー映像は時系列の複数枚のフレーム画像からなり、1フレーム画像はたとえば(1/60)秒の画像である。
映像処理部51は、前方カメラ部262が出力するプレビュー映像から、同期信号などに基づき1フレーム単位の画像データ(以下、画像データと称する)に分離して時系列の順番に従って出力する。特徴点抽出部52は、分離される画像データを入力し、入力画像データをエッジ処理(輪郭抽出)することにより、当該画像データから家具または家電の部分画像データを抽出する。ここでは、記憶部22には、予め家具または家電の名称データと、当該名称データに関連付けて当該家具または家電の画像データが格納されていると想定する。
特徴点抽出部52は、抽出した部分画像データと予め記憶部22に格納された上述の家具または家電の画像データとをパターンマッチングなどマッチング処理することにより、両画像の類似度を算出し、算出した類似度に基づき、当該抽出部分画像データが家具または家電を表すかを判定する。家具または家電を表すと判定すると、判定された画像データに関連付けされた記憶部22の名称データを読出す。特徴点抽出部52は、家具または家電を表すと判定された抽出画像データと、読出された名称データと、当該画像データが撮影されたときに検出された座標データ(Px,Py)および撮影方向とを、特徴点データ411、画像データ412、位置データ413および撮影時の向きデータ414として格納するレコードを生成し、当該レコードを特徴点マップ41に登録する。なお、撮影時の向きデータ414は、掃除機20の走行方向に一致し、走行方向検出部31の出力から検出される。
なお、図9では、特徴点データ411が“その他”に分類されるものは、家具や家電と認識されなかったものを示す。
ここでは、特徴点マップ41と地図データ42とは個別に作成したが、地図データ42の作成時に、特徴点マップ41を作成するとしてもよい。
(ユーザ方向の検出)
本実施の形態では、ユーザは掃除機20を所望する目標位置にまで誘導するために、携帯する端末10のカメラ部11Bで撮像視野に入るように掃除機20を撮影する。撮影したプレビュー映像は、通信部15から掃除機20に送信される。掃除機20は、通信部25から当該プレビュー映像を受信する。
映像処理部51は、受信するプレビュー映像を上述のようにフレーム単位の時系列の画像データに分離し、時系列の順番に従って自己映像検出部55とユーザ方向検出部56に出力する。
自己映像検出部55は、映像処理部51が出力する画像データを時系列順に入力し、入力する各画像データにおいてパターンマッチング等のマッチング処理により掃除機20を表す部分画像(以下、掃除機画像という)を検出(抽出)する。ユーザ方向検出部56は掃除機20から見たユーザの位置する方向(以下、ユーザ方向ともいう)を検出する。このユーザ方向検出処理は、自己映像検出部55が掃除機画像をフレーム画像内で検出した場合(フレームインの場合)と、検出できない場合(フレームアウトの場合)とでは異なる。これを以下に説明する。
・フレームインの場合
ユーザ方向検出部56は、自己映像検出部55が抽出する掃除機画像と、予め定められた画像(掃除機20の左・右側面の特徴、前・後面の特徴などを示す画像)とをパターンマッチング等のマッチング処理を施し、処理結果、得られる画像の類似度から、掃除機画像は掃除機20をいずれの方向から撮影した画像であるか、すなわち左・右側面の画像および前・後面の画像のいずれを示すかを判定する。そして、この掃除機20からみて掃除機20が撮影されている方向を示す判定結果(左、右、前、後のいずれか)と走行方向検出部31の出力が示す掃除機20の走行方向とから、掃除機20に対する端末10のカメラ部11Bの方向、すなわちユーザ方向を検出する。
具体的には、記憶部22には、掃除機20の走行方向と上記の“左、右、前、後”のいずれかを含む複数の組のデータと、当該複数の組それぞれに対応し、当該組のデータが検出される場合にユーザが位置する方向を示すデータとを登録したテーブル(図示せず)が予め格納される。ユーザ方向検出部56は、判定結果(左、右、前、後のいずれか)と走行方向検出部31の出力が示す掃除機20の走行方向とに基づき、当該テーブルを検索することにより、対応するユーザが位置する方向のデータを読出す。これによりユーザ方向が検出される。当該テーブルのデータは、実験などにより予め取得されると想定する。
上述のようにユーザ方向が検出されると、CPU21は、走行方向検出部31が検出する現在の走行方向と検出したユーザ方向とに基づき、ユーザ方向に走行させるための制御信号を生成し、駆動部27に出力する。駆動部27のモータは制御信号に従って回転し、モータ回転に連動して走行部27Aの車輪が回転する。これにより、掃除機20は、ユーザ方向に走行する。
なお、ユーザ方向の検出方法は、上述のテーブルを用いる方法に限定されない。
・フレームアウトの場合
掃除機画像がフレームアウトする場合には、掃除機画像がフレームアウトするときの画像の移動方向と移動距離を用いてユーザ方向を検出する。
ユーザ方向検出部56は、ベクトルデータを用いて移動方向と移動距離を検出する。つまり、前後のフレーム画像を比較してベクトルデータ(以下、動きベクトルという)を抽出し、抽出した動きベクトルから、掃除機画像がどの方向へどの程度(距離)動いているかを検出する。この動きベクトルを用いた画像の移動方向と移動距離の検出は公知であり、説明は繰り返さない。
ユーザ方向検出部56は、フレームイン時に検出する動きベクトルに基づく掃除機画像の移動の軌跡から掃除機画像がフレームアウトするタイミング(時間)を、タイマー21Aの時間データから検出する。
ユーザ方向検出部56はフレームアウトのタイミング以降において、端末10のカメラ部11Bが、より特定的にはカメラ部11Bのレンズが「どの方向に」「どれぐらい移動」するかを検出する。この検出により、ユーザ方向を検出することができる。
具体的には、掃除機画像がフレームアウトした後もプレビュー映像から抽出する画面データに写っている(掃除機以外の)位置固定の物体の画像(物体画像という)の動きベクトルを検出し、検出した動きベクトルから、当該物体画像の移動方向および移動距離を算出する。この算出方法は、公知の方法であるから説明は繰り返さない。なお、「移動距離」に関しては、フレームアウト時に走行方向検出部31が検出する走行方向を基準にして(基準方向という)、基準方向から右向きにxxメートル移動、さらにyyメートル左向きに移動、とうように移動方向と移動距離を計算する。この計算では、画像上で当該移動距離がqqミリメートル延びると、実際にはssメートル動いているという換算が行われ、当該換算係数は予め記憶されていると想定する。
上述のように端末10のカメラ部11Bの「移動方向」と「移動距離」が検出できるので、CPU21は、検出した移動方向および移動距離に基づく制御信号を生成し駆動部27に出力することで、走行部27Aは「移動方向」に「移動距離」だけ走行し、掃除機20は、ユーザ方向に移動することができる。
なお、プレビュー映像上で軌跡を検出できない場合は、たとえば適当な物体画像を特定できなかった場合などには、端末10の加速度センサ(図示せず)の検出情報を併せて利用すればカメラ部11Bの「移動方向」の判定と「移動距離」の検出は可能である。
<処理フローチャート>
図10は、本発明の実施の形態に係る掃除機20の電源ONから待機状態までの処理を示すフローチャートである。図11〜図13は、本発明の実施の形態に係る掃除機20の待機状態から掃除するまでの処理フローチャートである。図14〜図21は、図10〜図13の処理を説明するための図である。図10〜図13に従うプログラムは予め記憶部22に格納されており、CPU21が記憶部22からプログラムを読出すことにより処理が実現される。
図10を参照して、特徴点マップ41を作成・更新する処理を説明する。なお、地図データ42は、特徴点マップ41の作成・更新に先だって、作成・更新されて記憶部22に格納されていると想定する。図14には、特徴点マップ41を作成・更新する場合の部屋内の状態が模式的に示される。
図14では、端末10を携帯したユーザと、部屋内に配置されている机、テレビなどの特徴点と、掃除機20とが示される。掃除機20は基準位置から、矢印方向に移動を開始する。
図10を参照し、掃除機20が電源ONされると、CPU21は、記憶部22を検索し、特徴点マップ41が格納されているか否か、すなわち特徴点マップ41が作成済みであるか否かを判定する(ステップS3)。作成済みでないと判定すると(ステップS3でNO)、掃除の際に特徴点マップ41を作成する処理(ステップS9)に移行する。
たとえば掃除ユニット29Aで掃除しながら、特徴点マップ作成部50は、前述したように特徴点マップ41を作成し(ステップS9)、作成した特徴点マップ41を記憶部22に格納する(ステップS11)。このとき、記憶部22に既に格納されていた特徴点マップ41は、ステップS9で作成された最新の特徴点マップ41により更新(アップデート)される(ステップS11)。その後、掃除機20は待機状態となる。
ステップS3に戻り、特徴点マップ41が作成済みと判定されると(ステップS3でYES)、CPU21は、記憶部22に格納されている特徴点マップ41が格納された時間(作成された時間)を示す時間データと、タイマー21Aからの時間データとを比較し、記憶部22の特徴点マップ41が作成されてから24時間経過しているか否かを判定する(ステップS5)。なお、特徴点マップ41が格納された時間(作成された時間)を示す時間データは、記憶部22に格納されていると想定する。
24時間経過していると判定すると(ステップS5でYES)、前述した特徴点マップ41を作成し(ステップS9)、作成した特徴点マップ41を記憶部22に格納する(ステップS11)。このとき、記憶部22の24時間前の特徴点マップ41は、ステップS9で作成された最新の特徴点マップ41により更新(アップデート)されて、待機状態に移行する。
一方、24時間経過していないと判定すると(ステップS5でNO)、CPU21は、駆動部29が出力する掃除ユニット29Aへの駆動信号(電圧信号など)を検出し、検出した制御信号に基づき現在、掃除機20により掃除中であるか否かを判定する(ステップS7)。
掃除中でないと判定すると(ステップS7でNO)、掃除機20は待機状態へ移行するが、掃除中であると判定すると(ステップS7でYES)、特徴点マップ41を作成するために、ステップS9の処理に移行する。
このように、本実施の形態では、特徴点マップ41は掃除機20により部屋の掃除がされる毎に作成されて記憶部22に格納される。また、特徴点マップ41が作成されてから24時間たっていれば、新たな特徴点マップ41が作成されて記憶部22に格納される。これにより、特徴点マップ41を部屋の模様替え(家具などのレイアウト変更)があったとしても、それに対応した特徴点マップ41を得ることができる。
なお、ここでは特徴点マップ作成部50が特徴点マップ41を取得するマップ取得部に相当するが、マップ取得部は、図示しないホームサーバが特徴点マップ41を作成し、作成した特徴点マップ41をホームサーバから受信し記憶部22に格納する機能であってもよい。
次に、図11〜図13を参照し、掃除機20が基準位置での待機状態から、移動を開始し掃除するまでの処理について説明する。なお、掃除機20が基準位置(座標(0,0))から走行を開始すると、CPU21の位置検出部54は自己位置検出機能として、センサ部30の出力から、基準位置からのXおよびY方向についての移動距離および移動方向を検出し、検出した移動方向および移動距離から、所定演算式を用いて、地図上の掃除機20の現在位置の座標データ(Px,Py)を算出する。この算出は、走行中において定期的に繰返し実行されて、現在位置データ(座標データ(Px,Py))が算出される毎に、当該現在位置データは記憶部22に格納される。
ユーザは、掃除機20を部屋内のゴミまで移動させて、ゴミを除去(清掃)させることを希望した場合に(図15参照)、端末10では、CPU11は記憶部12の専用アプリ121を読出し起動する。起動後は、CPU11は専用アプリ121を実行開始する。開始されると映像処理部111はカメラ部11Bを電源ONし、撮影を開始させる。ここでは、ゴミとユーザの位置は接近しており、ユーザ方向は略ゴミ方向であるとする。
ユーザはカメラ部11Bの視野内にゴミが入るように撮影し、撮影されたプレビュー映像は映像処理部111により表示部13に表示される。ユーザは、表示部13のプレビュー画面131(図15参照)上で、ゴミの画像を手書き線などで囲み操作した後に、画面に表示されているアイコン132の掃除ボタンのアイコンを操作する。
アイコン操作により、CPU11には上述の掃除リクエストが入力されて、リクエスト部113は掃除リクエストを、通信部15を介し掃除機20に送信する。また掃除リクエスト送信時には、ゴミの場所を掃除機20に通知するために、端末10で表示中の手書き線入りのプレビュー映像は掃除機20に送信される。
掃除機20の通信部25は掃除リクエストとプレビュー映像を受信し、受信した掃除リクエストをCPU21に出力する。なお、端末10と掃除機20とは、IR通信部18を用いた赤外線通信により掃除リクエストを送受信するとしてもよい。
CPU21は、掃除リクエストを入力するか否かを判定する(ステップS21)。掃除リクエストを入力しないと判定すると(ステップS21でNO)、待機状態を継続するが、掃除リクエストを入力したと判定すると(ステップ21でYES)、ステップS23に移行する。
なお、ユーザは、掃除機20の操作部24を操作して、掃除リクエストをCPU21に対し入力するとしてもよい。
特徴点抽出部52は、端末10からのプレビュー映像のフレーム単位の画像データからエッジ抽出で得た画像データ(以下、部分画像データという)と、特徴点マップ41の各レコードの画像データ412とをマッチング処理する(ステップS23)。
このとき掃除リスクエストとともに受信するプレビュー映像には、特徴点(家具、テレビなど)が写っていないので、掃除機20はゴミの場所を特定することができない。掃除機20のCPU21は端末10に、マッチング処理の結果、特徴点マップ41の特徴点を検出できなかったことから、“特徴点が見つからなかった旨”を通知する。報知部112は、表示部13から、ユーザに特徴点をプレビュー映像で提供するように促すための報知をする。このとき、掃除機20のCPU21は掃除機20側で把握している特徴点、すなわち特徴点マップ41の特徴点データ411および画像データ412を読出し、端末10に送信する。端末10のCPU11は掃除機20からのデータを受信し、表示部13にリスト形式(図22を参照)で表示する。
ユーザはゴミ近辺の特徴点として、図22のリストから特徴点を確認し、確認した特徴点(机、テレビなど)をカメラ部11Bで撮影し、端末10はプレビュー映像を掃除機20に送信する。
図16のように、プレビュー映像はゴミ→机→テレビに移動するように撮影されたものであり、掃除機20が机やテレビを、特徴点マップ41との画像マッチング処理により特徴点として検出した場合に、検出した特徴点から逆向きにゴミまでの経路を確立できるようにするための映像である。
特徴点の撮影はゴミから特徴点までのルートが含まれていればよく、ゴミ→テレビの順番に撮影してもいい。
掃除機20の特徴点抽出部52および特徴点マッチング部53は、端末10から受信する映像のフレーム画像からエッジ処理により特徴点を抽出する(ステップS23)。
特徴点を抽出できないと判定すると(ステップS25でNO)、端末10に対し、再度撮影の旨を通知し(ステップS27)、端末10のユーザは特徴点を再度、撮影し(ステップS23)、プレビュー映像は掃除機20に送信される。
受信映像から特徴点が抽出できたと判定すると(ステップS25でYES)、抽出した特徴点の画像データとマップ41に登録の画像データ412をマッチング処理し、その結果に基づき特徴点マップ41に未登録の新規の特徴点であるかを判定する(ステップS29)。特徴点マップ41に未登録の新規特徴点と判定すると(ステップS29でYES)、当該特徴点の画像データを、画像データ412として特徴点マップ41に追加登録し(ステップS31)、後述のステップS41に移行する。
新規特徴点に対応の特徴点データ411として“その他”を登録する。また、対応の位置データ413と撮影時の向きデータ414は“空データ”NULLを登録する。
新規特徴点ではないと判定すると(ステップS29でNO)、すなわちマッチング処理結果が示す画像の類似度から、特徴点マップ41に登録された特徴点であると判定すると、図12のステップS41に移行する。
図12を参照して、経路算出部70は、特徴点からゴミまでの経路を算出し、その結果から、経路を生成する(ステップS41)。端末10からのプレビュー映像が、ゴミ→机→テレビ→掃除機の順番で受信するときは、掃除機20は特徴点経由でゴミまでの経路を生成することができる。掃除機20がゴミまで移動するための経路としては、たとえば(1)掃除機の位置→テレビ→机→ゴミ、(2)掃除機の位置→机→ゴミの2通りがあるとする。
経路算出部70は、記憶部22に格納されている掃除機20の現在位置データと、特徴点マップ41の各特徴点の位置データ413から、掃除機の現在位置と各特徴点の距離、および特徴点間の距離(座標間距離)を算出する。
算出した距離から、経路(1)と(2)のそれぞれについて、掃除機20の現在位置からゴミに至るまでの距離を算出する。なお、“ゴミ”の位置は、たとえば経路(1)の場合には、直前に撮影された特徴点(机)からの方向と距離で示される。具体的には、フレーム画像と当該ゴミのフレーム画像(手書き囲み線が描画された画像)間の動きベクトルが示す画像の移動方向と移動距離から、当該ゴミの直前に撮影された特徴点(机)からの方向と距離を算出する。算出結果から、“ゴミ”の座標位置を取得できる。ゴミの位置を示すデータは記憶部22に格納される。なお、ゴミの座標位置は、手書き囲み線内の略中央位置としている。
経路算出部70は経路(1)については“掃除機の位置→テレビ→机→ゴミ”の距離を算出し、経路(2)については“掃除機の位置→机→ゴミ”の距離を算出する。算出結果、CPU21は経路(1)よりも経路(2)の方が、距離は短いと判定すると、経路(2)の方を選択する。この経路選択により、ゴミに至るまでの経路が特定される。
CPU21は、上記の処理によりゴミまでの経路が特定できたか否かを判定する(ステップS43)。経路が特定できた場合には(ステップS43でYES)、経路が特定できたことを端末10に通知し、CPU11は通知を表示部13に表示する。これにより、ユーザに経路特定に成功したことが報知される。
掃除機20のCPU21は特定した経路中の各特徴点の位置データ413および撮影時向きデータ414に従う制御信号を生成し駆動部27に出力する。これにより、走行部27Aの車輪は回転し、掃除機20は各特徴点を経由しながらゴミに向かって走行する(ステップS45)。
走行中において、CPU21は記憶部22の掃除機20の現在位置データと上述の取得したゴミの位置データとを比較し、比較結果に基づき、掃除機20がゴミの位置に到着したか否を判定する(ステップS47)。比較結果、掃除機20の現在位置はゴミの位置と一致しない、すなわちゴミに到着していないと判定される間(ステップS47でNO)は、ステップS45の処理に戻り、ステップS45とステップS47の処理が繰返される。比較結果、掃除機20の現在位置はゴミの位置と一致する、すなわちゴミの位置に到着したと判定されると(ステップS47でYES)、掃除ユニット29Aにより掃除が実行されて(ステップS49)、その後掃除完了の通知が端末10に送信される(図13のステップS81参照)。端末10のCPU11は、受信した通知を表示部13に表示する。これにより、ユーザは掃除完了を確認できる。これは、掃除機20が待機時の位置からゴミ位置まで直行するケース(図17参照)である。
ここでは、掃除機20がゴミの位置に到着したかの判定基準は、掃除機20の現在位置がゴミ位置との一致であったが、これに限定されず、掃除機20の現在位置がゴミの位置を含む所定範囲の位置を示すか否かを判定基準としてもよい。
その後、掃除は終了し、掃除機20は基準点まで戻るように走行を開始し、基準点に到着すると充電器により充電される。
一方、ゴミまでの経路が特定できないと判定されると(ステップS43でNO)、以下の処理を実行する。なお、ゴミから特徴点までのプレビュー映像による画像の移動が複雑、または移動距離が長いなどの場合には、プレビュー映像の解析に失敗し、テレビまたは机などの特徴点を特定できても、ゴミの位置を特定できない場合がある。その場合には、経路を特定できないと判定される。
CPU21は、端末10に経路を特定できない旨を通知する。端末10のCPU11は受信した通知を表示部13に表示し、ユーザに経路が特定できない旨を報知する。
掃除機20のCPU21は、テレビおよび机のうちのどちらの特徴点がゴミに近いのか判定することができないため、机かテレビいずれかの特徴点まで走行させるための制御信号を駆動部27に出力する。これにより、掃除機20は、図18のように、現在位置から当該特徴点まで移動する(ステップS51)。なお、走行を開始し、どの特徴点にまで移動するかは、受信したプレビュー映像の最初に写っている特徴点であると決定してよく、または、他のアルゴリズムに従って決定してもよい。当該特徴点までの移動時に、ステップS51では、CPU21は端末10に特徴点までの経路が確定した旨を通知し、報知部112は表示部13に通知を表示し、ユーザに特徴点までの経路が確定した旨を報知する。
走行中において、CPU21は掃除機20の現在位置データと特徴点の位置データ(特徴点マップ41の位置データ413)とを比較し、比較結果に基づき、当該特徴点の位置に到着したか否を判定する(ステップS53)。比較結果、掃除機20の現在位置は当該特徴点の位置と一致する、すなわち特徴点の位置に到着したと判定されると(ステップS53でYES)、CPU21は駆動部27に停止の制御信号を出力する。これにより走行部27Aの車輪は停止し、掃除機20は当該特徴点の位置で停止して待機状態となる(ステップS55)。
待機状態において、CPU21は、端末10からユーザ撮影のプレビュー映像を受信する。CPU21は、自己映像検出部55の出力に基づき、受信するプレビュー映像において掃除機画像がフレームインしているか否かを判定する(ステップS57)。フレームインしていないと判定すると(ステップS57でNO)、ステップS55に戻るが、フレームインしていると判定すると(ステップS57でYES)、ユーザ方向検出部56は、上述したフレームインの場合におけるユーザ方向検出処理により、ユーザ方向を検出する。
CPU21は、検出したユーザ方向から制御信号を生成し駆動部27に出力する。これにより、走行部27Aの車輪は回転を開始し、掃除機20は待機状態から移動を開始し、ユーザ方向に走行する(ステップS61)。その後、ステップS71に移行する。
ステップS53に戻り、上記の比較結果、掃除機20の現在位置は当該特徴点の位置と一致しない、すなわち特徴点の位置にまで到着していないと判定されると(ステップS53でNO)、CPU21は、自己映像検出部55の出力に基づき、受信するプレビュー映像において掃除機画像がフレームインしているか否かを判定する(ステップS59)。フレームインしていないと判定すると(ステップS59でNO)、ステップS51に戻るが、フレームインしていると判定すると(ステップS59でYES)、ステップS61に移行し、上述のようにユーザ方向を検出し、掃除機20の現在位置からユーザ方向に移動を開始する。
この移動ケースが図19に模式的に示される。掃除機20が、最終のゴミ位置までの移動途中である場合に、または途中の特徴点までは到達したが待機状態である場合には、ユーザはカメラ部11Bで掃除機20を撮影し、そのプレビュー映像を掃除機20に送信することで、掃除機20にユーザ方向を特定させて、特定したユーザ方向に移動を開始させることができる。これは、移動を開始したもののゴミの位置を特定できずにその後迷ってしまい待機状態になった場合などに有効である。
図13を参照して、CPU21は、端末10から受信するプレビュー映像から掃除機20がフレームアウトしたかどうかを、自己映像検出部55の出力から判定する(ステップS71)。フレームアウトしていないと判定すると(ステップS71でNO)、ステップS75に移る。
一方、フレームアウトしたと判定すると(ステップS71でYES)、ユーザ方向検出部56は上述のフレームアウト時のユーザ方向を検出する。CPU21は、検出されるユーザ方向に移動するように、制御信号を生成し駆動部27に出力する。これにより、掃除機27は現在位置からユーザ方向に移動を開始する(ステップS73)。この移動により、フレームアウト後の掃除機画像のフレームインが検出される。
図20を参照し、フレームアウト後のフレームインを説明する。ユーザがカメラ部11Bで掃除機20を撮影すると、掃除機画像のフレームインが検出されて、掃除機20はユーザ方向を検出し、ユーザに向かって移動する。ここで、表示部13を確認しながらずっとプレビュー画面131内に掃除機20が写ったままの状態をキープしてゴミ位置まで誘導する操作は、ユーザに負担がかかり実際には難しい。
そこで、図20のプレビュー画面(a)のように掃除機20がプレビュー画面からフレームアウトしそうな場合でも、掃除機20は端末10からリアルタイムで受信するプレビュー映像から、フレームアウト時のユーザ方向を特定できる。掃除機20は特定したユーザ方向に移動することで図20のレビュー画面(b)のように再度、フレームインすることができる。したがって、ユーザが表示部13のプレビュー画面内で掃除機20をとらえた後に、カメラ部11Bを掃除機20から背けるように操作した(カメラ部11Bの視野を、掃除機20を外すように移動させた)場合でも、掃除機20をユーザに近づくように移動させることができる。
その後、掃除機20の映像処理部51は、端末10からのプレビュー映像にゴミの画像が検出されるか否かを判定する。具体的には、受信するプレビュー映像のフレーム画像と、ステップS21の掃除リクエストとともに受信した手書きの囲み線入りの画像とをパターンマッチング処理し、処理結果である画像の類似度に基づき、ゴミがカメラ部11Bで再度、撮影されたか否かを判定する(ステップS75)。
類似度に基づき、再度、撮影されていないと判定すると(ステップS75でNO)、ステップS77で掃除機20のCPU21は、自己映像検出部55の出力に基づき、フレームインした状態で移動を継続し(ステップS77)、ステップS75に戻る。
類似度に基づき、再度、撮影されたと判定すると(ステップS75でYES)、判定結果が端末10に送信される。CPU11は、当該判定結果に基づき、撮影されているゴミの画像にマーカ133(図21参照)を表示する。これにより、ユーザに対し掃除機20がゴミ位置を確認した旨が報知される。
掃除機20では同一フレーム内の掃除機画像から見たゴミ画像の方向と距離を検出する。具体的には、画像を2次元座標平面のビットマップデータとした場合に、映像処理部51は、画像から抽出した掃除機画像のビットマップデータにおける座標位置と、ゴミ画像のビットマップデータにおける座標位置とから、ビットマップデータ上の両者の距離と掃除機20から見たゴミの方向を検出することができる。
CPU21は、検出結果(ビットマップデータ上のゴミまでの距離と方向)、掃除機20の現在位置および走行方向検出部31が検出する現在の走行方向から、所定演算式に従って掃除機20が現在位置からゴミの位置にまで移動するための方向と距離を算出する。算出に代替して、所定のテーブルを検索することで、掃除機20が現在位置からゴミの位置にまで移動するための方向と距離を取得するとしてもよい。
CPU21は上記の算出した方向と距離に基づく制御信号を生成し、駆動部27に出力する。これにより、掃除機20はゴミの位置まで移動し、移動を終了した時点で掃除ユニット29Aにより掃除を開始する。これによりゴミが除去される(ステップS79)。その後、ステップS81に移行し、掃除を完了し、処理を終了する。
(利用シーン)
上述の実施の形態を利用するケースとして、掃除機20による部屋のゴミ(お菓子の食べカスなどを落とした場合)の掃除を例示する。
掃除機20は普段の掃除時に部屋の特徴点(テレビや机など、位置を特定するために必要となる家電や家具の位置)を前方カメラ部262で撮影し、撮影した画像から特徴点マップ41を生成し、記憶部22に格納していると想定する。
ユーザの目の前にゴミが落ちていて、掃除機20にゴミを掃除させたい場合、ユーザは端末10を操作して、掃除機20と通信する専用アプリ121を起動する。専用アプリ121は、カメラ部11Bで目前のゴミを撮影する。撮影映像が、プレビュー画面131で表示され、ユーザがゴミを指などの手書き線で囲むと、その囲み線内の範囲がゴミであるという情報が掃除機20に送信される。
掃除機20のCPU21は受信したプレビュー映像を処理する。この映像には、ゴミ位置を特定できる情報、すなわち特徴点が写っていないため、CPU21はゴミ位置を特定することができない。そこで、CPU21は、端末10に『特徴点追加撮影』の旨を通知する。このとき、図22のリストが端末10の表示部13に表示される。
ユーザはゴミ位置を特定するための補足の情報として、ゴミ周辺の特徴点である机やテレビをカメラ部11Bで撮影し、そのプレビュー映像を掃除機20に送信する。この一連の特徴点撮影により、ゴミ→机→テレビの順に移動するプレビュー映像がリアルタイムで掃除機20に送信される。掃除機20の経路算出部70は、プレビュー映像から特徴点としてテレビを検出した場合、テレビの位置は特徴点マップ41に登録済みであり、また、動きベクトルから、テレビの位置から見たゴミの方向および距離によるゴミの位置を特定できる。このとき、CPU21は、端末10に『ゴミ位置認識済み』の旨を通知し(図12のステップS45を参照)、表示部13には当該通知が表示される。したがって、掃除機20は、テレビの位置からゴミまで到達し掃除することができる。
(実施の形態の効果)
本実施の形態によれば、ユーザは、目標(ゴミ)および特徴点(机、テレビなど)のプレビュー映像を撮影するという直感的かつ容易な操作により、ピンポイントで目標の位置にまで掃除機20を誘導することができる。ユーザは、途中の移動経路を設定する必要がなく利便性に優れる。
また、ユーザはプレビュー画面131を見ながら目標を指定することができるので、従来のように端末10に表示されるマップ上で位置指定する方式よりも直感的かつ正確に目標の位置をピンポイントで指定することができる。
また、端末10はプレビュー映像を掃除機20に送信し、掃除機20は受信するプレビュー映像から検出する特徴点の画像データと特徴点マップ41の画像データ412とのマッチング処理の結果から、目標まで移動するための経路を取得し、取得した経路に従い走行する。これにより、端末10は、掃除機20が有するマップデータ(特徴点マップ41、地図データ42など)を共有する機能、また当該マップデータを処理する機能を備える必要はない。
[他の実施の形態]
本発明における端末10が行なう掃除機20と通信しながら制御するための方法は、専用アプリ121のようなプログラムとして提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM、ROM、RAMおよびメモリカードなどのコンピュータ読取り可能な記録媒体にて非一時的に記録させて、プログラム製品として提供することもできる。あるいは、図1の記憶部12などの記録媒体にて非一時的に記録させて、プログラムを提供することもできる。また、通信ネットワークを介したダウンロードによって、プログラムを提供することもできる。たとえば、図1の構成では、記憶媒体17を用いて当該プログラムをコンピュータである端末10に供給することができる。CPU11は、メモリドライバ等の外部I/F16を介して記憶媒体17に格納されたプログラムを読出し実行する、または読出したプログラムを一旦、記憶部12に格納し、その後、記憶部12からプログラムを読出し、実行する。また、プログラムは外部装置から通信により供給されるプログラムを、アンテナを介して受信し、CPU11は受信するプログラムを記憶部12に格納し、その後、記憶部12からプログラムを読出し、実行する。
同様に、本発明における掃除機20が行なう端末10との通信を含む制御の方法は、プログラムとして提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM、ROM、RAMおよびメモリカードなどのコンピュータ読取り可能な記録媒体にて非一時的に記録させて、プログラム製品として提供することもできる。あるいは、図5の記憶部22などの記録媒体にて非一時的に記録させて、プログラムを提供することもできる。また、通信ネットワークを介したダウンロードによって、プログラムを提供することもできる。たとえば、図4の構成では、図示しない記憶媒体を用いて当該プログラムを、コンピュータ(CPU21)を搭載する掃除機20に供給することができる。CPU21は、メモリドライバ等の外部I/Fを介して記憶媒体に格納されたプログラムを読出し実行する、または読出したプログラムを一旦、記憶部22に格納し、その後、記憶部22からプログラムを読出し、実行する。また、プログラムは、外部装置(端末10など)から通信により供給されるプログラムであってもよい。その場合には、図5の通信部25のアンテナを介してプログラムを受信し、CPU21は受信するプログラムを記憶部22に格納し、その後、記憶部22からプログラムを読出し、実行する。
なお、これら提供されるプログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10 端末、20 掃除機、41 特徴点マップ、50 特徴点マップ作成部、51,111 映像処理部、52 特徴点抽出部、53 特徴点マッチング部、54 位置検出部、55 自己映像検出部、56 ユーザ方向検出部、60 地図作成部、70 経路算出部、112 報知部、113 リクエスト部、121 専用アプリケーションプログラム。

Claims (8)

  1. 端末と通信する自走式機器であって、
    前記端末が撮影する対象物画像を含む映像を受信する映像受信部と、
    複数の対象物それぞれについて、当該対象物の画像と、基準位置からの当該対象物の位置を示す位置データとを有するマップを取得するマップ取得部と、
    受信する映像中の画像と、前記マップ取得部が取得する対象物の画像それぞれとを照合し、照合結果に基づき、前記映像から1つ以上の対象物画像を抽出する照合抽出部と、
    前記照合抽出部により抽出された前記対象物画像に対応する前記位置データを、前記マップから検出する位置検出部と、
    前記自走式機器の現在位置を示す現在位置データと、前記位置検出部により検出された前記位置データとに基づき、走行経路の情報を生成する経路生成部と、を備える、自走式機器。
  2. 前記対象物の位置と前記現在位置は、前記基準位置からの距離と方向に基づく位置を示す、請求項1に記載の自走式機器。
  3. 被写体を撮影し映像を出力するカメラ部と、
    前記自走式機器の前記現在位置を検出する現在位置検出部と、をさらに備え、
    前記マップ取得部は、
    前記基準位置から走行を開始した走行中に、前記カメラ部が出力する撮影画像データから前記複数の対象物それぞれについて対象物の画像を抽出し、抽出した各対象物の画像と、当該対象物の撮影時に検出される前記現在位置を示す前記位置データとを対応づけて前記マップを作成するマップ作成部を含む、請求項1または2に記載の自走式機器。
  4. 前記映像受信部が受信する映像は、前記走行経路の到達目標を撮影した目標画像と前記対象物画像を含む時系列の複数の画像からなり、
    前記経路生成部は、
    前記対象物画像と、当該対象物画像の後に撮影された前記目標画像とから、画像の移動距離および移動方向を検出し、検出した移動距離および移動方向と、当該対象物の前記位置データとから、当該目標の位置データを算出する、請求項1から3のいずれかに記載の自走式機器。
  5. 前記映像受信部が受信する映像は、前記自走式機器を撮影した機器画像を含み、
    受信する映像から前記機器画像を検出する機器画像検出部と、
    前記自走式機器の走行方向を検出する走行方向検出部と、をさらに備え、
    検出される前記機器画像から前記自走式機器が撮影されている方向を検出し、検出した撮影方向と、検出される前記走行方向から前記自走式機器の走行方向を変更する、請求項1から4のいずれかに記載の自走式機器。
  6. 端末と、
    前記端末と通信する自走式機器とを、備えるシステムであって、
    前記自走式機器は、
    前記端末が撮影する対象物画像を含む映像を受信する映像受信部と、
    複数の対象物それぞれについて、当該対象物の画像と、基準位置からの当該対象物の位置を示す位置データとを有するマップを取得するマップ取得部と、
    受信する映像中の画像と、前記マップ取得部が取得する対象物の画像それぞれとを照合し、照合結果に基づき、前記映像から1つ以上の対象物画像を抽出する照合抽出部と、
    前記照合抽出部により抽出された前記対象物画像に対応する前記位置データを、前記マップから検出する位置検出部と、
    前記自走式機器の現在位置を示す現在位置データと、前記位置検出部により検出された前記位置データとに基づき、走行経路の情報を生成する経路生成部と、を含む、システム。
  7. 端末と通信する自走式機器の制御方法であって、
    前記端末が撮影する対象物画像を含む映像を受信するステップと、
    複数の対象物それぞれについて、当該対象物の画像と、基準位置からの当該対象物の位置を示す位置データとを有するマップを取得するステップと、
    受信する映像中の画像と、前記マップを取得するステップにより取得する対象物の画像それぞれとを照合し、照合結果に基づき、前記映像から1つ以上の対象物画像を抽出するステップと、
    抽出された前記対象物画像に対応する前記位置データを、前記マップから検出するステップと、
    前記自走式機器の現在位置を示す現在位置データと、前記検出するステップにより検出された前記位置データとに基づき、走行経路の情報を生成するステップと、を備える、自走式機器の制御方法。
  8. プロセッサを備えるコンピュータに、端末と通信する自走式機器の制御方法を実行させるためのプログラムであって、
    前記プログラムは、前記プロセッサに、
    前記端末が撮影する対象物画像を含む映像を受信するステップと、
    複数の対象物それぞれについて、当該対象物の画像と、基準位置からの当該対象物の位置を示す位置データとを有するマップを取得するステップと、
    受信する映像中の画像と、前記マップを取得するステップにより取得する対象物の画像それぞれとを照合し、照合結果に基づき、前記映像から1つ以上の対象物画像を抽出するステップと、
    抽出された前記対象物画像に対応する前記位置データを、前記マップから検出するステップと、
    前記自走式機器の現在位置を示す現在位置データと、前記検出するステップにより検出された前記位置データとに基づき、走行経路の情報を生成するステップと、を実行させるためのプログラム。
JP2012204441A 2012-09-18 2012-09-18 自走式機器 Expired - Fee Related JP5898022B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012204441A JP5898022B2 (ja) 2012-09-18 2012-09-18 自走式機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012204441A JP5898022B2 (ja) 2012-09-18 2012-09-18 自走式機器

Publications (2)

Publication Number Publication Date
JP2014059737A JP2014059737A (ja) 2014-04-03
JP5898022B2 true JP5898022B2 (ja) 2016-04-06

Family

ID=50616157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012204441A Expired - Fee Related JP5898022B2 (ja) 2012-09-18 2012-09-18 自走式機器

Country Status (1)

Country Link
JP (1) JP5898022B2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102306709B1 (ko) 2014-08-19 2021-09-29 삼성전자주식회사 청소 로봇, 청소 로봇의 제어 장치, 제어 시스템, 및 제어 방법
JP6331971B2 (ja) * 2014-10-30 2018-05-30 三菱電機株式会社 自走式掃除機
JP6528445B2 (ja) * 2015-02-18 2019-06-12 トヨタ自動車株式会社 自律移動体及び自律移動体の制御システム
JP6562678B2 (ja) * 2015-03-30 2019-08-21 株式会社クボタ 自動走行作業車両
JP6607701B2 (ja) * 2015-05-22 2019-11-20 シャープ株式会社 自律式掃除機
JP6609463B2 (ja) * 2015-11-19 2019-11-20 シャープ株式会社 自走式電子機器
JP2017111790A (ja) * 2015-12-10 2017-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 移動制御方法、自律移動ロボット及びプログラム
JP6864433B2 (ja) * 2016-01-29 2021-04-28 東芝ライフスタイル株式会社 電気掃除機
US9987752B2 (en) * 2016-06-10 2018-06-05 Brain Corporation Systems and methods for automatic detection of spills
JP6770416B2 (ja) * 2016-12-01 2020-10-14 シャープ株式会社 情報処理装置、情報処理システム、情報表示方法及び情報表示プログラム
WO2018143620A2 (en) 2017-02-03 2018-08-09 Samsung Electronics Co., Ltd. Robot cleaner and method of controlling the same
JP6884596B2 (ja) * 2017-03-01 2021-06-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 掃除支援方法、掃除支援装置及び掃除支援プログラム
JP6885160B2 (ja) * 2017-03-31 2021-06-09 カシオ計算機株式会社 移動装置、移動装置の制御方法及びプログラム
CN109425352A (zh) * 2017-08-25 2019-03-05 科沃斯机器人股份有限公司 自移动机器人路径规划方法
JPWO2019097626A1 (ja) * 2017-11-16 2020-07-27 学校法人千葉工業大学 自走式掃除機
JP7108861B2 (ja) * 2018-01-31 2022-07-29 パナソニックIpマネジメント株式会社 掃除機の制御方法
JP7033720B2 (ja) * 2018-02-23 2022-03-11 パナソニックIpマネジメント株式会社 移動ロボット
JP6356368B2 (ja) * 2018-03-02 2018-07-11 オリンパス株式会社 移動撮影装置、撮影方法及び撮影プログラム
JP6384891B1 (ja) * 2018-06-13 2018-09-05 オリンパス株式会社 情報端末機器、撮影機器、撮影方法及び撮影プログラム
JP7295657B2 (ja) * 2019-02-26 2023-06-21 東芝ライフスタイル株式会社 自律走行体装置
CN112835353A (zh) * 2019-11-25 2021-05-25 上海高仙自动化科技发展有限公司 一种清扫路径的确定方法、装置、机器人和存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002085305A (ja) * 2000-09-12 2002-03-26 Toshiba Tec Corp ロボットクリーナ及びロボットクリーナシステム
JP2002354139A (ja) * 2001-05-23 2002-12-06 Toshiba Tec Corp ロボットの制御システム及びこのシステムに使用するロボット
JP4448024B2 (ja) * 2002-05-31 2010-04-07 富士通株式会社 遠隔操作ロボットおよびロボット自己位置同定方法
JP2007094743A (ja) * 2005-09-28 2007-04-12 Zmp:Kk 自律移動型ロボットとそのシステム
US8935006B2 (en) * 2005-09-30 2015-01-13 Irobot Corporation Companion robot for personal interaction
JP2011201002A (ja) * 2010-03-26 2011-10-13 Sony Corp ロボット装置、ロボット装置の遠隔制御方法及びプログラム
JP2011212764A (ja) * 2010-03-31 2011-10-27 Toyota Motor Corp ロボットの遠隔操作システム

Also Published As

Publication number Publication date
JP2014059737A (ja) 2014-04-03

Similar Documents

Publication Publication Date Title
JP5898022B2 (ja) 自走式機器
CN110338708B (zh) 一种扫地机器人的清扫控制方法及设备
US10265858B2 (en) Auto-cleaning system, cleaning robot and method of controlling the cleaning robot
JP6054136B2 (ja) 機器制御装置、および自走式電子機器
KR102024092B1 (ko) 이동 로봇 시스템 및 그 제어방법
KR102235271B1 (ko) 이동 로봇 및 그 제어방법
KR101366860B1 (ko) 이동 로봇 및 이의 제어 방법
KR101910382B1 (ko) 자동 이동 장치 및 그 수동 조작 방법
KR101412590B1 (ko) 로봇 청소기의 원격 제어 시스템 및 방법
KR101842459B1 (ko) 로봇 청소기 및 이의 제어 방법
US10437251B2 (en) Method for specifying position, terminal device, autonomous device, and program
KR20100109257A (ko) 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법
KR20150097049A (ko) 네추럴 ui를 이용한 자율서빙 로봇 시스템
JP6828708B2 (ja) 制御装置、監視システム、及び監視カメラ制御方法
KR20190119234A (ko) 이동 로봇 및 그 제어방법
KR102500529B1 (ko) 이동 로봇 및 그 제어방법
JP6051068B2 (ja) 物体検索システム及び物体検索装置
JP2017041731A (ja) 自走式機器用無線通信設定システムおよび設定方法
JP5658618B2 (ja) 操作入力装置、プログラム
JP2020106872A (ja) 移動装置、物体検出方法及びプログラム
JP2011212764A (ja) ロボットの遠隔操作システム
WO2022077945A1 (zh) 障碍物识别信息反馈方法、装置、机器人和存储介质
JP2017045480A (ja) 物体検索システム及び物体検索装置
JP7354528B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
JP7327596B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150318

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160303

R150 Certificate of patent or registration of utility model

Ref document number: 5898022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees