JP2018014064A - 室内用自走式ロボットの位置測定システム - Google Patents

室内用自走式ロボットの位置測定システム Download PDF

Info

Publication number
JP2018014064A
JP2018014064A JP2016153226A JP2016153226A JP2018014064A JP 2018014064 A JP2018014064 A JP 2018014064A JP 2016153226 A JP2016153226 A JP 2016153226A JP 2016153226 A JP2016153226 A JP 2016153226A JP 2018014064 A JP2018014064 A JP 2018014064A
Authority
JP
Japan
Prior art keywords
robot
image
camera
pixel position
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016153226A
Other languages
English (en)
Inventor
劉洋
Yang Liu
李楊
Yang Li
区園明
Akira Kusono
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gft Co Ltd
Original Assignee
Gft Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gft Co Ltd filed Critical Gft Co Ltd
Priority to JP2016153226A priority Critical patent/JP2018014064A/ja
Publication of JP2018014064A publication Critical patent/JP2018014064A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 室内空間において、カメラで撮像した画像から移動ロボット位置及情報をリアルタイムで求められるシステム及び方法を提供する
【解決手段】画像収集部20は天井に配置されるカメラ10から室内の画像を取得し、ロボット検出部30では、事前に学習したモジュール31とHSVパラメータ32を利用し画像からロボットを検出し、ロボットピクセル位置を測定する。平面位置推定部40では、ロボットピクセル位置に基づき、透視変換マトリックス41を使い、ロボットの水平位置を推定する。通信部50は測定したリアタイム位置をロボットに伝える。
【選択図】図1

Description

本発明は、カメラより取得した室内の画像から自走式ロボットを検出し、自走式ロボットの水平位置を測定する方法に関する。
近年、室内での生活支援における自走式ロボットの活用が検討されている。このようなロボットが自律的に室内で移動するためには、ロボットの位置を測定する機能が必要とされる。
十数年前より室内向け自走式ロボットの位置測定機能は重要項目として研究されてきた。位置測定機能の従来方法の一つは、室内の静的な物、例えばドア、窓、家具などを、ランドマークとして予め登録し、ランドマークの特徴情報と、室内にて測定された位置情報とを連結しロボットに登録しておく。次にロボットは移動中に、ロボットのカメラで撮った画像中に検知されたランドマークの位置情報と、ロボットに配置された距離測定装置で測定するランドマークの相対位置を用い、ロボットの現在位置を算出する。(例えは、特許文献1と特許文献2)。
もう一つの従来の方法は、特許文献3によると、ロボットに移動反射部材と回転装置を配置し、回転装置にレーザ距離計装置を搭載し、室内空間の周辺の所定位置に反射部材を配置する。ロボットは移動する為、ロボットに搭載されたレーザ距離計は(回転装置の回転軸から)レーザを照射し、固定反射部材と移動反射部材がレーザを反射する。レーザ距離計は反射されたレーザを受光し、角度と距離を計算し、ロボットの現在位置と向き方向を算出する。
特開 2006−172016 特開 2012−3401 特開 2013−140083
上記の位置測定方法は、作動環境の変化や障害物などの影響を受けやすいという欠点がある。例えば、窓や家具などが移動されたり、人の動きによりランドマークや反射部材がブロックされたりすると、ロボットの位置測定が困難になる。
本発明が解決しようとする問題点は、高精度で障害物にロバストな自走式ロボットの位置計測システムを提供することを目的とするものである。
この発明は上記目的を達成するために、以下の手段を採用している。図1は室内用自走式ロボットの位置測定システムの概略構成を示している。部屋の天板にカメラ10を設置し、ロボットを含め全室の画像をとる。ロボット検出部30では、画像処理方法で画像からロボットの座標を検出する。次に、平面位置推定部40は透視転換マトリックス41を使い、室内の写像を真上から撮ったように変換することで、画像のピクセル位置を水平面の位置に変換し、ロボットの水平座標を推定する。
まず、カメラ10の設置方法を説明する。図2に示すように、ロボットのいる室の天井にカメラ10をロボットの作動環境の全体を撮像できるように設置する。カメラ設置後に、カメラでロボットの作動環境を撮影する。図3はカメラで撮ったロボットの作動環境の写真の例を示している。
ロボット検出部30を説明する。本発明のロボット検出機能は、機械学習で得たロボット認識モデル31とHSVパラメータ32を組み合わせることにより構築される。
機械学習モデル31は、図示しない学習モデル作成装置がロボットの写る画像及びロボット以外のものが写る画像を含む複数のサンプル画像に基づいて、ロボットを表す画像の特徴量データを学習することにより構築される。以降は学習モデルの作成について説明する。図4に示されるように、学習モデル作成装置は、複数のサンプル画像を読み込み、各サンプル画像を探索ウインドウ62によって走査する。これにより、学習モデル作成装置は、各サンプル画像からウインドウ画像63を切り出す。そして、切り出されたウインドウ画像の特徴量データを学習する。学習モデル作成装置による特徴量データの学習は、本発明では、Adaboostアルゴリズムにより行われる。そして、学習モデル作成装置は、ロボットの写る画像から抽出される特徴量データの重み付けを増やし、ロボット以外のものが写る画像から抽出される特徴量データの重み付けを減らす。また、事前学習モデルを作成する際、認識目標として設定された認識率を上回り、かつ目標として設定された誤認識率を下回るようになるまで学習モデル作成装置に複数のサンプル画像を読み込ませる。このことにより、ロボットを表すウインドウ画像64の特徴を学習した事前学習モデルが作成される。実際に学習モデルを使用するとき、ウインドウを画像のうえにスライドし、モデルとマッチングするところをロボットとして認識する。認識された画像のウインドウの中心65はロボットのピクセル位置とする。
学習モデルでロボットを検出するのは、計算に時間を必要とする。ここで、計算時間を節約するために、まず事前学習モデルで最初の画像からロボットを検知する。次にロボットを検知すると、計算しやすいHSV色空間を利用しロボットを追跡し続ける方法を利用する。これ以降は、ロボット検出部30が、画像からロボットを表すウインドウ画像64を検出する処理について、図5のフローチャートを用いて、詳しく説明する。
まず、ステップS10では、画像収集部20からカメラ10の画像を取得し、ステップS20に進む。ステップS20では、ウインドウで前記の画像を走査し、各ウインドアを事前学習モデルに学習されているロボットの特徴データと照合し、ステップS30に進む。
ステップS30では、ステップS20における照合の結果に基づき、作動環境画像60からロボットを表すウインドウ画像64を検知したか否かを判定する。ステップS30において、ロボットを表すウインドウ画像64を検出していないと判定した場合、ステップS10に戻る。一方、ステップS30において、ロボットを表すウインドウ画像64を検出していると判定した場合、ステップS120とステップS40に進む。
ステップS40では、ロボットを表すウインドウ画像を切り出し、RGB色空間をHSV色空間に変換してステップS50に進む。ステップS50では、予め統計されたロボットのHSV色範囲であるHSVパラメータ32を利用し、前記のロボットのウインドウ画像のマスク画像を作り、ステップS60に進む。ステップS70はステップS60からもらうマスク画像のヒストグラムを計算し、正則化する。
ステップS70は画像収集部20から新しい画像を読み込み、S80に進む。ステップS80はステップS70で得た画像とステップS50で作成したマスク画像の類似度をヒスとグラム特徴を利用し計算する。ステップS90はステップS80の結果を用い、CamShiftアルゴリズムでS70を得た画像からロボットの新しいウインドウ画像の場所を算出する。前記のウインドウ画像の中心点をロボットのピクセル座標と認め、ステップS100に移る。
ステップS100では、ステップS90で算出したロボットのピクセル位置の確信度を計算する。以下は前記の確信度の計算の必要性と計算方法について、説明する。前記のCamshiftアルゴリズムはHSV値でターゲットを追跡するので、障害物などに影響されやすいのである。
例えば、人間がカメラとロボットの間に入り、ロボットの像は人間にブロックされるのが室内ではよくあることである。そうなると、CamShiftアルゴリズムが実際にブロックされたロボットの位置から遠く離れる座標を出力する可能性が高いのである。図6はロボットの移動軌跡の仮想の一例を示している。ロボット軌跡65Sはいくつかの連続したロボットの中心点65によって構築された。矢印65dはロボットの移動軌跡65Sにおいてロボットのおおよその移動方向を示している。ピクセル位置65eはステップS90でCamshiftアルゴリズムが算出した最新のカメラ画像でのロボットのピクセル位置である。通常の状況下で、ロボットはスムーズで連続移動をするはずなので、65eのような位置になる可能性は非常に低いと考えられる。65eのような異常位置を拒否するために、カメラ画像毎にステップS90のCamshiftの出力の確信度を算出する必要がある。次に、カルマンフィルタ(Kalman Filter)を利用し、確信度を計算する方法について、説明する。
カルマンフィルタは今までに観測した状態(ここでは、ロボットの中心点65のピクセル座標)に基づき、今のロボットの状態の確立分布を予測することができる。ロボットの状態の予測値の確率分布を式1より推定する。
式1
Figure 2018014064
(ここで、xは時刻kにおいてロボットの瞬時状態(座標と移動方向)の予測値を表す。Zは時刻tまでのロボットの瞬時状態の観測値である。p(x|Zk−1)はZに依存した時刻kのロボット瞬時状態の予測値の確率分布である)
ステップS100は、ステップS90が算出したロボットの座標の確信度を、ステップS90が算出したロボットの座標を式1のxのところに入れて計算し、確信度の結果をステップS110に出力する。ステップS110ではステップS100で算出したロボットのピクセル座標の確信度を予め設定した確信度の閾値と比較する。ステップS110において、ロボットのピクセル座標の確信度が前記の閾値を上回ると判定した場合、ステップS120に進む。一方、ステップS110において、ロボットのピクセル座標の確信度が前記の閾値を下回ると判定した場合、ステップS10に戻る(この処理は、HSV色空間32で検出したロボットの座標は信用できなくなり、事前学習モデル31を頼ることになるという意味である)。
ステップS120では、ステップS90で算出したロボットのウインドウ画像で、ロボットのウインドウ画像64を更新し、ステップS130に進む。ステップS130はロボットウインドウ画像64の中心点65のピクセル座標を平面位置推定部に出力する。
これからは平面位置推定部40を紹介する。平面位置推定部では、ロボット検出部30から出力したロボット中心点65のピクセル座標に基づき、透視変換マトリックス41を使い、ロボットの平面位置を推定する。以下は、ロボット水平位置を推定する処理を説明する
まず、透視変換処理を説明する。図7は透視変換の例を示している。平面の斜めな透視図70は透視変換により、平面図71に転換される。透視図70にある位置70Eは水平面71にある位置71Eと対応するので、位置71Eの座標がわかれば、70Eの水平座標もわかる。透視変換は下記の式2により行われる。
式2
Figure 2018014064
(ここで、srcは元図にある三角形の頂点の座標であり、dstはsrcに対応する水ターゲット図の三角形の頂点の座標であり、map_matrixは2行3列がある透視変換マトリックスである。map_matrixを求めるためには、dstとsrcそれぞれ三つを用意必要がある。元図の座標はベクトルでmap_matrixをかけることで、それと対応するターゲット図の座標を求める。)
図8はロボットが検出された室内の画像の例を示す。ロボットのウインドウ画像64の中心点65をロボットのピクセル位置とする。長方形66の四つの頂点(66A、66B、66Cと66D)は予め設定されたロボットの中心点と同じ高さにあり、長方形66はロボットの中心点の水平面を表す(カメラを安定に天板に設置すると、66A、66B、66Cと66Dのピクセル位置は一意に定まると言える。)。そのため、ロボットの中心点65と長方形の四つの頂点(66A、66B、66Cと66D)は同じ水平面にあると考えられる。
図9は長方形66の水平図を示している。長方形66の縦横は予め測った現実の距離を比例したものである。ロボットの中心点65の水平図での相対位置を得られたら、ロボットの水平位置がわかると考えられる。ここで透視変換マトリックスは、式1で示されているように、長方形66の四つの頂点(66A、66B、66Cと66D)のピクセル座標と実際に測れた水平座標をペアし、式1に代入することで求められる。
最後に通信部50は平面位置推定部40で算出したロボットの水平位置をロボットに発信する。ロボットは前記の水平位置を利用し、移動を補正することができる。
ロボット位置測定システムを示す概略構成図である。 カメラの設置方法を示す図である。 カメラが撮った作動環境の写真を示す図である。 ロボット認識モデルが画像からロボットを表すバウンディングボックスを検知するための処理を説明するための図である。 画像からロボットを表すバウンディングボックスを検知するための処理を示すフローチャートである。 画像の中で、ロボット移動軌跡の例を示す図である。 透視変換の説明するための図である。 画像の中で、ロボットの中心点がいる水平面を示す図である。 図8に示されている画像を水平面に透視変換した結果を示す図である。
本発明は室内の自走式ロボットの位置測定に適用できる。ロボットはカメラの視界に現れないと捕獲できない問題があるが、同じ作業空間に多数カメラを多角度で配置すると問題を回避できる。理論上では作業空間の一定高度の水平面の位置はカメラの像面の画素位置と1対1にマーピングできる。マーピング関係の座標変換式は求められると、像面の任意の画素位置から作業空間の唯一の位置を計算できる。計算結果の精度を高めるために、カメラの解析度とコンピュータの性能を上げることによって実現できる。
10 カメラ
20 画像収集部
30 ロボット検出部
31 事前学習モデル
32 HSVパラメータ
40 平面位置推定部
41 透視変換マトリックス
50 通信部
60 カメラが撮った画像
61 ロボット
62 走査ウインドウ
63 走査ウインドウ画像
64 ロボットを表すウインドウ画像
65 ロボットを表すウインドウ画像の中心
65d ロボットの移動方向を示す矢印
65S ロボットの移動軌跡
65e 確信度の低いロボットの位置
66 ロボットの中心点と同じ高さにある水平四辺形
66A−D 四辺形66の四つの頂点
70 ある水四辺形の透視図
70A−D 透視図70の四つの頂点
70E 透視図70にある点
71 70が表す四辺形の平面図
71A−D 平面図71の四つの頂点
71E 平面図70にある点

Claims (5)

  1. カメラと、このカメラの画像を収集する画像収集部と、この画像収集部が収集した前記のカメラの画像からロボットのピクセル位置を検出するロボット検出部と、このロボット検出部が検出した前記のロボットのピクセル位置に基づきロボットの水平位置を推定する平面位置推定部と、この平面位置推定部が推定した前記のロボットの水平位置を前記のロボットに通信する通信部を備えることを特徴とするロボット位置測定システム。
  2. 前記ロボット検出部は、事前に学習した前記ロボットのパッタン認識モデルとHSV色空間の共同作用で、前記のカメラ画像から前記のロボットのピクセル位置を検出することを特徴とする請求項1に記載のロボット位置測定システム。
  3. 前記のHSV色空間で検出した前記のロボットのピクセル位置の確信度はカルマンフィルターアルゴリズムで算出し、確信度が閾値以上の場合は受け入れ、確信度が閾値以下の場合は拒否することを特徴とする請求項1に記載のロボット位置測定システム。
  4. 前記のロボットのピクセル位置は、前記の事前学習モデルあるいは前記のHSV色空間で算出した前記のロボットのウインドウ画像の中心点であることを特徴とする請求項1に記載のロボット位置測定システム。
  5. 前記の平面位置推定部は、前記のロボットのピクセル位置に基づき、透視変換マトリックスを使い、前記のロボットの水平位置を推定すること特徴とする請求項1に記載のロボット位置測定システム。
JP2016153226A 2016-07-19 2016-07-19 室内用自走式ロボットの位置測定システム Pending JP2018014064A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016153226A JP2018014064A (ja) 2016-07-19 2016-07-19 室内用自走式ロボットの位置測定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016153226A JP2018014064A (ja) 2016-07-19 2016-07-19 室内用自走式ロボットの位置測定システム

Publications (1)

Publication Number Publication Date
JP2018014064A true JP2018014064A (ja) 2018-01-25

Family

ID=61019524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016153226A Pending JP2018014064A (ja) 2016-07-19 2016-07-19 室内用自走式ロボットの位置測定システム

Country Status (1)

Country Link
JP (1) JP2018014064A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7451165B2 (ja) 2019-12-16 2024-03-18 日本信号株式会社 走行位置検証システム、走行位置計測システム及び走行位置補正システム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05303643A (ja) * 1992-03-18 1993-11-16 Sanyo Electric Co Ltd パターンマッチング方法
JP2004501582A (ja) * 2000-06-16 2004-01-15 インテル・コーポレーション 動き推定を実施する方法
JP2011022700A (ja) * 2009-07-14 2011-02-03 Japan Science & Technology Agency ロボット制御システム及びロボット制御プログラム
JP2011210054A (ja) * 2010-03-30 2011-10-20 Secom Co Ltd 対象物検知装置及びその学習装置
JP2012225752A (ja) * 2011-04-19 2012-11-15 Toyota Central R&D Labs Inc 移動体追跡装置及び移動体追跡方法
JP2014056465A (ja) * 2012-09-13 2014-03-27 Univ Of Tokyo 環境復元装置、環境復元方法及び環境復元プログラム
JP2015052581A (ja) * 2013-01-08 2015-03-19 キヤノン株式会社 生体組織画像の再構成方法及び装置並びに該生体組織画像を用いた画像表示装置
JP2015191369A (ja) * 2014-03-27 2015-11-02 株式会社メガチップス 物体検出装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05303643A (ja) * 1992-03-18 1993-11-16 Sanyo Electric Co Ltd パターンマッチング方法
JP2004501582A (ja) * 2000-06-16 2004-01-15 インテル・コーポレーション 動き推定を実施する方法
JP2011022700A (ja) * 2009-07-14 2011-02-03 Japan Science & Technology Agency ロボット制御システム及びロボット制御プログラム
JP2011210054A (ja) * 2010-03-30 2011-10-20 Secom Co Ltd 対象物検知装置及びその学習装置
JP2012225752A (ja) * 2011-04-19 2012-11-15 Toyota Central R&D Labs Inc 移動体追跡装置及び移動体追跡方法
JP2014056465A (ja) * 2012-09-13 2014-03-27 Univ Of Tokyo 環境復元装置、環境復元方法及び環境復元プログラム
JP2015052581A (ja) * 2013-01-08 2015-03-19 キヤノン株式会社 生体組織画像の再構成方法及び装置並びに該生体組織画像を用いた画像表示装置
JP2015191369A (ja) * 2014-03-27 2015-11-02 株式会社メガチップス 物体検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7451165B2 (ja) 2019-12-16 2024-03-18 日本信号株式会社 走行位置検証システム、走行位置計測システム及び走行位置補正システム

Similar Documents

Publication Publication Date Title
EP2144131B1 (en) Apparatus and method of building map for mobile robot
US20220292720A1 (en) Method and system for calibrating multiple cameras
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
KR100776215B1 (ko) 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성장치 및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체
KR101072876B1 (ko) 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치
Winterhalter et al. Accurate indoor localization for RGB-D smartphones and tablets given 2D floor plans
KR20110122022A (ko) 지도 생성 장치 및 방법
KR101880185B1 (ko) 이동체 포즈 추정을 위한 전자 장치 및 그의 이동체 포즈 추정 방법
KR102006291B1 (ko) 전자 장치의 이동체 포즈 추정 방법
WO2019136613A1 (zh) 机器人室内定位的方法及装置
KR20130099667A (ko) 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법
CN114066985B (zh) 一种输电线隐患距离的计算方法及终端
Annusewicz et al. Marker detection algorithm for the navigation of a mobile robot
EP3088983B1 (en) Moving object controller and program
JP2015111128A (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2018014064A (ja) 室内用自走式ロボットの位置測定システム
CN112611344B (zh) 一种自主移动式平面度检测方法、设备及存储介质
WO2021251171A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
Cupec et al. Global localization based on 3d planar surface segments
KR100835906B1 (ko) 로봇 전역 위치 추정 방법 및 로봇 전역 위치 추정 장치
Shojaeipour et al. Robot path obstacle locator using webcam and laser emitter
Fu et al. Monte Carlo Localization using 3D texture maps
KR101002776B1 (ko) 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성 장치및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체
JP2021047516A (ja) 情報処理装置、座標変換システム、座標変換方法、及び座標変換プログラム
WO2022239355A1 (ja) 位置測定システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180515