JP2021193470A - 制御装置、情報処理方法、およびプログラム - Google Patents

制御装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2021193470A
JP2021193470A JP2018169814A JP2018169814A JP2021193470A JP 2021193470 A JP2021193470 A JP 2021193470A JP 2018169814 A JP2018169814 A JP 2018169814A JP 2018169814 A JP2018169814 A JP 2018169814A JP 2021193470 A JP2021193470 A JP 2021193470A
Authority
JP
Japan
Prior art keywords
mirror
moving body
control device
map
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018169814A
Other languages
English (en)
Inventor
雅貴 豊浦
Masaki Toyoura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2018169814A priority Critical patent/JP2021193470A/ja
Priority to PCT/JP2019/033623 priority patent/WO2020054408A1/ja
Priority to US17/250,774 priority patent/US20210349467A1/en
Publication of JP2021193470A publication Critical patent/JP2021193470A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】移動体の移動経路として、鏡に映る空間を移動できない空間であると正しく判断でき、正しい経路を計画することができる制御装置を提供する。【解決手段】制御装置は、光学センサの検出結果に基づいて、物体Oが占有している位置を表す地図を生成し、鏡面を有する物体である鏡面物体O’の位置を推定し、所定の物体の並びが分断している分断区間に鏡面物体があると推定した場合、移動体の移動経路として、分断区間を通らない経路を地図に基づいて計画する装置である。本技術は、自律的に移動するロボットなどの移動体に適用することができる。【選択図】図4

Description

本技術は、制御装置、情報処理方法、およびプログラムに関し、特に、移動体の移動経路として正しい経路を計画することができるようにした制御装置、情報処理方法、およびプログラムに関する。
AI(Artificial Intelligence)などの進歩により、周囲の環境に応じて自律的に移動するロボットが普及してきている。
このような自律移動ロボットによる移動経路の計画は、周辺の障害物までの距離をセンサにより計測することによって地図を作成し、作成した地図に基づいて行われることが一般的である。地図の作成に用いるセンサとしては、LiDAR(Light Detection and Ranging)、ToF(Time Of Flight)センサなどの、光学的な仕組みによって距離を計測する光学系距離センサが用いられる。
特開2015−001820号公報 特開2009−244965号公報
光学系距離センサを用いて距離を計測する場合、表面が鏡面になっている鏡のような物体があると、現実の状況とは異なる地図が作成されることがある。光学系距離センサが出射する光が反射することにより、自律移動ロボットは、鏡の位置を対象とした計測結果からは鏡がそこにあることを認識することができない。
すなわち、自律移動ロボットは、鏡に映る空間と現実の空間とを区別することができず、鏡に映る空間を移動するような経路を移動経路として計画することがある。
人間の生活環境に自律移動ロボットが入り込むためには、自律移動ロボットが、鏡に映る空間を移動できない空間であると正しく判断できるようになることが求められる。
本技術はこのような状況に鑑みてなされたものであり、移動体の移動経路として正しい経路を計画することができるようにするものである。
本技術の一側面の制御装置は、光学センサの検出結果に基づいて、物体が占有している位置を表す地図を生成する地図生成部と、鏡面を有する物体である鏡面物体の位置を推定する推定部と、所定の物体の並びが分断している分断区間に前記鏡面物体があると推定された場合、移動体の移動経路として、前記分断区間を通らない経路を前記地図に基づいて計画する経路計画部とを備える。
本技術の他の側面の制御装置は、光学センサの検出結果に基づいて、物体が占有している位置を表す地図を生成する地図生成部と、前記光学センサが用いる方式とは異なる方式によって物体までの距離を計測する他のセンサの検出結果に基づいて、透明な表面を有する物体である透明物体の位置を推定する推定部と、所定の物体の並びが分断している分断区間に前記透明物体があると推定された場合、移動体の移動経路として、前記分断区間を通らない経路を前記地図に基づいて計画する経路計画部とを備える。
本技術の一側面においては、光学センサの検出結果に基づいて、物体が占有している位置を表す地図が生成され、鏡面を有する物体である鏡面物体の位置が推定される。また、所定の物体の並びが分断している分断区間に前記鏡面物体があると推定された場合、移動体の移動経路として、前記分断区間を通らない経路が前記地図に基づいて計画される。
本技術の他の側面においては、光学センサの検出結果に基づいて、物体が占有している位置を表す地図が生成され、前記光学センサが用いる方式とは異なる方式によって物体までの距離を計測する他のセンサの検出結果に基づいて、透明な表面を有する物体である透明物体の位置が推定される。また、所定の物体の並びが分断している分断区間に前記透明物体があると推定された場合、移動体の移動経路として、前記分断区間を通らない経路が前記地図に基づいて計画される。
本技術の一実施形態に係る移動体の外観の例を示す図である。 移動体の周囲の状況の例を示す図である。 占有格子地図の例を示す図である。 移動経路の例を示す図である。 修正後の占有格子地図の例を示す図である。 移動経路の他の例を示す図である。 移動体のハードウェア構成例を示すブロック図である。 移動体の処理について説明するフローチャートである。 鏡の位置の第1の推定方法の例を示す図である。 制御部の機能構成例を示すブロック図である。 図8のステップS3において行われる鏡位置推定処理について説明するフローチャートである。 鏡の位置の第2の推定方法の例を示す図である。 制御部の機能構成例を示すブロック図である。 図8のステップS3において行われる鏡位置推定処理について説明するフローチャートである。 鏡の位置の第3の推定方法の例を示す図である。 制御部の機能構成例を示すブロック図である。 図8のステップS3において行われる鏡位置推定処理について説明するフローチャートである。 鏡の位置の第4の推定方法の例を示す図である。 制御部の機能構成例を示すブロック図である。 図8のステップS3において行われる鏡位置推定処理について説明するフローチャートである。 占有格子地図の修正の例を示す図である。 占有格子地図の復元の例を示す図である。 制御システムの構成例を示す図である。 コンピュータの構成例を示すブロック図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.占有格子地図に基づく経路計画
2.移動体の構成例
3.移動体の全体の処理
4.事前情報に基づいて鏡の位置を推定する例
5.センサ出力を統合して鏡の位置を推定する例
6.マーカーを用いて鏡の位置を推定する例
7.テンプレートマッチングにより鏡の位置を推定する例
8.占有格子地図の修正
9.その他の例
<占有格子地図に基づく経路計画>
図1は、本技術の一実施形態に係る移動体の外観の例を示す図である。
図1に示す移動体1は、箱形の筐体の側面に設けられた車輪を駆動させることにより、任意の位置に移動することが可能な移動体である。箱形の筐体の上面に設けられた円柱状のユニットの所定の位置には、カメラ、距離センサなどの各種のセンサが設けられる。
移動体1は、内蔵するコンピュータによって所定のプログラムを実行し、車輪などの各部位を駆動させることによって自律的な行動をとる。
移動体1に代えて、犬型のロボットが用いられるようにしてもよいし、二足歩行が可能な人型のロボットが用いられるようにしてもよい。無人飛行が可能な航空機であるいわゆるドローンなどの、自律的に移動が可能な各種の移動体が移動体1に代えて用いられるようにすることが可能である。
目的地までの移動経路は、吹き出しに示すような占有格子地図に基づいて計画される。占有格子地図は、移動体1が存在する空間を表す地図を格子状に区切り、各セルに対して、物体が存在するか否かを表す情報を紐付けた地図情報である。占有格子地図により、物体が占有している位置が表される。
移動体1が管理する地図情報をイメージ化すると、占有格子地図は図1に示すような2次元の地図として表される。位置Pにある小円は移動体1の位置を表し、移動体1の前方(上方)にある大きな円は、移動に際しての障害物となる物体Oを表す。太線は、壁面などの所定の物体が直線状に並んでいることを表す。
太線によって囲まれる白色で表されるエリアが、障害物のない、移動体1が移動可能なエリアとなる。太線の外側に薄い色を付して示すエリアは、状況を計測できない未知領域である。
移動体1は、周囲にある物体までの距離を距離センサを用いて常時計測することによって占有格子地図を作成し、目的地までの移動経路を計画したり、計画した移動経路に従って実際に移動したりすることになる。
移動体1が有する距離センサは、LiDAR(Light Detection and Ranging)、ToF(Time Of Flight)センサなどの、光学的な仕組みによって距離を計測する光学系距離センサである。光学系距離センサによる距離の計測は、出射した光の反射光を検出することによって行われる。ステレオカメラなどを用いて距離の計測が行われるようにしてもよい。
図2は、移動体1の周囲の状況の例を示す図である。
図2に示すように、突き当たりが行き止まりとなり、その手前に左折可能となっている通路に移動体1がいる場合を想定する。通路に沿って壁があり、前方に、円柱状の物体Oが置かれている。移動体1の目的地は、前方の角で左折した先にある位置であるものとする。
移動体1の左前方であって、左に曲がる通路の手前の壁には、斜線を付して示すように鏡Mが設けられている。鏡Mは、鏡Mに向かって右側の壁面を構成する壁WA、および、左側の壁面を構成する壁WBと連続する面を構成するように設けられる。
このような状況において鏡Mの位置を対象として距離を計測した場合、光学系距離センサが出射した光は鏡Mにおいて反射する。移動体1においては、反射光に基づいて距離が計測され、占有格子地図が生成される。
図3は、占有格子地図の例を示す図である。
図3において、端点aは、壁WAと鏡Mとの境界を表し、端点bは、壁WBと鏡Mとの境界を表す。端点aと端点bの間に、実際には鏡Mがあることになる。鏡Mの位置を対象とした光学系距離センサからの光は、破線L1,L2で示す範囲に向けて鏡Mにおいて反射する。
この場合、後述する修正等の処理を行わないとすると、移動体1が生成する占有格子地図においては、鏡Mの先に移動可能なエリアがあり、その先に、物体O’があるものとされる。鏡Mの先にある移動可能なエリアと物体O’は、現実の空間の状況とは異なる状況を表すことになる。なお、物体O’は、破線L1,L2で示す反射ベクトルの範囲に物体Oがあることに基づいて占有格子地図上に配置される。
図3に示す占有格子地図に基づいて経路計画を行った場合、移動経路は、鏡Mの先を通過する、図4の矢印#1で示すような経路として設定される。図4に示す移動経路に従って移動した場合、移動体1は鏡Mに衝突してしまうことになる。
移動体1においては、鏡のある環境における光学系距離センサの誤検知が経路計画に及ぼす影響を抑えるために、主に、以下のような処理が行われる。
1.各種のセンサの検出結果などに基づいて、鏡の位置を推定する処理
2.鏡の位置の推定結果に基づいて、占有格子地図を修正する処理
図5は、修正後の占有格子地図の例を示す図である。
図5の例においては、鏡Mが左右の壁WA,WBと一体の壁Wとして扱われるように占有格子地図の修正が行われている。図5に示す占有格子地図に基づいて経路計画を行った場合、移動経路は、鏡Mの先にある角を左折する、図6の矢印#2で示すような経路として設定される。
このように、鏡の位置を推定し、推定結果に基づいて占有格子地図を修正することにより、移動体1は、実際の状況を表す正しい占有格子地図に基づいて経路計画を行うことができる。移動体1は、移動体の移動経路として、正しい経路を計画することができる。
鏡の位置の推定を含む移動体1の一連の処理については、フローチャートを参照して後述する。
<移動体の構成例>
図7は、移動体1のハードウェア構成例を示すブロック図である。
図7に示すように、移動体1は、制御部31に対して、入出力部32、駆動部33、無線通信部34、および電源部35が接続されることによって構成される。
制御部31は、CPU(Central Processing Unit),ROM(Read Only Memory),RAM(Random Access Memory)、フラッシュメモリなどを有するコンピュータにより構成される。制御部31は、CPUにより所定のプログラムを実行し、移動体1の全体の動作を制御する。制御部31を構成するコンピュータは、例えば移動体1の筐体内に搭載され、移動体1の動作を制御する制御装置として機能する。
例えば、制御部31は、入出力部32の光学系距離センサ12から供給された距離情報に基づいて占有格子地図を生成する。また、制御部31は、所定の目的地までの移動経路を占有格子地図に基づいて計画する。
また、制御部31は、目的地までの移動などの所定の行動をとるように駆動部33の各部を制御する。
入出力部32は、センシング部32Aと出力部32Bにより構成される。
センシング部32Aは、カメラ11、光学系距離センサ12、超音波センサ13、およびマイク(マイクロフォン)14により構成される。
カメラ11は、周囲の状況を順次撮影し、撮影によって得られた画像を制御部31に出力する。物体の特徴を捉えることができれば、RGBセンサ、グレースケールセンサ、赤外線センサなどの各種の方式のセンサをカメラ11のイメージセンサとして用いることが可能である。
光学系距離センサ12は、光学的な仕組みによって対象物までの距離を計測し、計測した距離を表す情報を制御部31に出力する。光学系距離センサ12による距離の計測は、例えば、移動体1の周囲360°を対象として行われる。
超音波センサ13は、対象物に対して超音波を送信し、その反射波を受信することにより、対象物の有無や、対象物までの距離を計測する。超音波センサ13は、計測した距離を表す情報を制御部31に出力する。
マイク14は、環境音を検出し、環境音のデータを制御部31に出力する。
出力部32Bは、スピーカ15とディスプレイ16により構成される。
スピーカ15は、合成音声、効果音、BGMなどの所定の音を出力する。
ディスプレイ16は、例えば、LCD、有機ELディスプレイなどにより構成される。ディスプレイ16は、制御部31による制御に従って各種の画像を表示する。
駆動部33は、制御部31による制御に従って駆動し、移動体1の行動を実現する。駆動部33は、筐体の側面に設けられた車輪を駆動させる駆動ユニット、各関節に設けられた駆動ユニットなどにより構成される。
各駆動ユニットは、軸回りの回転動作を行うモータ、モータの回転位置を検出するエンコーダ、および、エンコーダの出力に基づいてモータの回転位置や回転速度を適応的に制御するドライバの組み合わせによって構成される。駆動ユニットの数、駆動ユニットの位置などによって、移動体1のハードウェア構成が定まる。
図7の例においては、駆動ユニット51−1乃至51−nが設けられる。例えば駆動ユニット51−1は、モータ61−1、エンコーダ62−1、ドライバ63−1により構成される。駆動ユニット51−2乃至51−nも、駆動ユニット51−1と同様の構成を有する。以下、適宜、駆動ユニット51−2乃至51−nをそれぞれ区別する必要がない場合、まとめて駆動ユニット51という。
無線通信部34は、無線LANモジュール、LTE(Long Term Evolution)に対応した携帯通信モジュールなどの無線通信モジュールである。無線通信部34は、インターネット上のサーバなどの外部の装置との間で通信を行う。
電源部35は、移動体1内の各部に対して給電を行う。電源部35は、充電バッテリ71と、充電バッテリ71の充放電状態を管理する充放電制御部72とで構成される。
<移動体の全体の処理>
図8のフローチャートを参照して、移動体1の処理について説明する。
ステップS1において、制御部31は、光学系距離センサ12を制御し、周囲の物体までの距離を計測する。
ステップS2において、制御部31は、距離の計測結果に基づいて占有格子地図を生成する。移動体1の周囲に鏡がある場合、この時点では、図3を参照して説明したような、現実の空間の状況とは異なる状況を表す占有格子地図が生成される。
ステップS3において、制御部31は鏡位置推定処理を行う。鏡位置推定処理により、周囲にある鏡の位置が推定される。鏡位置推定処理の詳細については後述する。
ステップS4において、制御部31は、推定した鏡の位置に基づいて占有格子地図を修正する。これにより、図5を参照して説明したような、鏡があるとして推定された位置に所定の物体があることを表す占有格子地図が生成される。
ステップS6において、制御部31は、修正後の占有格子地図に基づいて移動経路を計画する。
ステップS7において、制御部31は、移動経路の計画に応じて駆動ユニット51を含む各部を制御し、移動体1を移動させる。
以下、鏡位置推定処理について説明する。鏡の位置の推定方法には以下のような方法がある。
1.事前情報に基づいて鏡の位置を推定する例
2.センサ出力を統合して鏡の位置を推定する例
3.マーカーを用いて鏡の位置を推定する例
4.テンプレートマッチングにより鏡の位置を推定する例
<事前情報に基づいて鏡の位置を推定する例>
・鏡の位置の推定方法
この例においては、鏡の位置を表す情報が移動体1に事前に与えられており、事前に与えられている情報に基づいて、鏡の位置が推定される。鏡の位置は、例えば、移動体1が存在する空間における、鏡の開始位置と終了位置(端点)により表される。
図9は、鏡の位置の推定方法の例を示す図である。
図9に示す原点POは、移動体1が存在する空間において基準となる原点である。原点POの座標は、例えば座標(Ox,Oy,Oz)として表される。移動体1が存在する空間上の各位置は、原点POを基準とした座標により表される。
鏡の開始位置(Mirror Start)を表す座標と、終了位置(Mirror End)を表す座標が、移動体1に対して与えられる。上述した図3の例においては、鏡の開始位置は例えば端点aに対応し、鏡の終了位置は例えば端点bに対応する。図9の例においては、鏡の開始位置は座標(MSx,MSy,MSz)により表され、終了位置は座標(MEx,MEy,MEz)により表される。
位置Pは、移動体1の現在位置である。移動体1の位置同定機能により、位置Pが特定される。位置Pは座標(Px,Py,Pz)により表される。また、移動体1の姿勢は、roll、pitch、yawの各方向に対する角度により表される。
なお、一点鎖線の矢印で示す矢印#11,#21は、移動体1の筐体の正面の方向を示す。矢印#12,#22は、移動体1の筐体の左側面の方向を示す。
各位置の関係が図9に示す関係を有している場合、位置Pを基準として、ベクトル#31とベクトル#32の先に示す破線矢印の区間に鏡があるものとして推定される。原点POを基準とした、鏡の開始位置、終了位置、および位置Pの座標が特定されているから、ベクトル#31,#32として示すように、位置Pを基準とした鏡の位置をも推定することが可能となる。
このように、事前に与えられた情報に基づいて鏡の位置が推定され、占有格子地図の修正が行われるようにすることが可能である。
・制御部の構成例
図10は、事前に与えられた情報に基づいて鏡の位置を推定する制御部31の機能構成例を示すブロック図である。
図10に示すように、制御部31は、光学系距離センサ制御部101、占有格子地図生成部102、自己位置同定部103、鏡位置推定部104、占有格子地図修正部105、経路計画部106、経路追従部107、駆動制御部108、および鏡位置情報記憶部109により構成される。
光学系距離センサ制御部101は、光学系距離センサ12を制御し、周囲の物体までの距離を計測する。距離の計測結果を表す情報は、占有格子地図生成部102と自己位置同定部103に出力される。上述した図8のステップS1の処理が、光学系距離センサ制御部101により行われる。
占有格子地図生成部102は、光学系距離センサ制御部101から供給された計測結果に基づいて占有格子地図を生成する。また、占有格子地図生成部102は、自己位置同定部103により特定された移動体1の現在位置を占有格子地図に設定する。占有格子地図生成部102により生成された占有格子地図は鏡位置推定部104に出力される。図8のステップS2の処理が、占有格子地図生成部102により行われる。
自己位置同定部103は、光学系距離センサ制御部101から供給された情報と、駆動制御部108から供給された情報に基づいて、移動体1の現在の位置である自己位置を特定する。駆動制御部108からは、例えば、車輪の回転量、移動方向を表す情報が供給される。
GPSセンサなどの測位センサにより自己位置が特定されるようにしてもよい。自己位置同定部103により特定された自己位置を表す情報は、占有格子地図生成部102、鏡位置推定部104、占有格子地図修正部105、経路計画部106、および経路追従部107に出力される。
鏡位置推定部104は、鏡の位置を表す情報を鏡位置情報記憶部109から読み出して取得する。鏡位置推定部104は、鏡位置情報記憶部109から読み出した情報により表される鏡の位置、自己位置同定部103により特定された自己位置などに基づいて、自己位置を基準とした鏡の位置を、図9を参照して説明したようにして推定する。
鏡位置推定部104により推定された鏡の位置を表す情報は、占有格子地図とともに占有格子地図修正部105に出力される。図8のステップS3の処理が、鏡位置推定部104により行われる。
占有格子地図修正部105は、占有格子地図のうち、鏡があるとして鏡位置推定部104により推定された位置を修正する。
例えば、占有格子地図修正部105は、移動可能なエリアとして設定されている、鏡の先のエリアを削除するようにして占有格子地図を修正する。また、占有格子地図修正部105は、鏡があるとして推定された位置に、所定の物体があることを表す情報を設定して占有格子地図を修正する。
修正後の占有格子地図は経路計画部106に出力される。図8のステップS5の処理が、占有格子地図修正部105により行われる。
経路計画部106は、占有格子地図修正部105により生成された修正後の占有格子地図に基づいて、自己位置同定部103により特定された自己位置から所定の目的地までの移動経路を計画する。修正後の占有格子地図を用いることにより、鏡の位置を通らない経路が移動経路として計画される。移動経路の情報は経路追従部107に出力される。図8のステップS6の処理が、経路計画部106により行われる。
経路追従部107は、経路計画部106により計画された移動経路に従って移動するように駆動制御部108を制御する。図8のステップS7の処理が、経路追従部107により行われる。
駆動制御部108は、経路追従部107による制御に従って、駆動ユニット51を構成するモータなどを制御し、移動体1を移動させる。
鏡位置情報記憶部109は、事前に計測された鏡の位置を表す情報である鏡位置情報を記憶する。
・鏡位置推定処理
図11のフローチャートを参照して、図8のステップS3において行われる鏡位置推定処理について説明する。図11の処理は、事前に与えられた情報に基づいて鏡の位置を推定する処理となる。
ステップS11において、鏡位置推定部104は、鏡位置情報を鏡位置情報記憶部109から読み出して取得する。
ステップS12において、鏡位置推定部104は、自己位置と、鏡位置情報により表される鏡の位置とに基づいて、自己位置を基準とした鏡の位置を算出する。
ステップS13において、鏡位置推定部104は、自己位置の近くに鏡があるか否かを確認する。自己位置の近くに鏡がある場合、鏡の位置を表す情報が占有格子地図修正部105に出力される。
その後、図8のステップS3に戻り、それ以降の処理が行われる。
以上のように、鏡の位置を表す情報が事前に与えられていることにより、移動体1は、鏡の位置を推定し、占有格子地図を修正することができる。
<センサ出力を統合して鏡の位置を推定する例>
・鏡の位置の推定方法
この例においては、光学系距離センサ12による計測結果に基づく占有格子地図だけでなく、超音波センサ13による計測結果に基づく占有格子地図が生成される。また、光学系距離センサ12による計測結果に基づく占有格子地図と、超音波センサ13による計測結果に基づく占有格子地図とを統合して、鏡の位置が推定される。占有格子地図の統合は、例えば、2つの占有格子地図を重ね合わせることにより、または、2つの占有格子地図を比較することにより行われる。
図12は、鏡の位置の推定方法の例を示す図である。
光学系距離センサ12による計測結果に基づく占有格子地図においては、上述したように、壁WA,WB、壁WAと鏡Mとの境界である端点a、壁WBと鏡Mとの境界である端点bが表される。自己位置である位置Pを基準として、端点aはベクトル#51により表され、端点bはベクトル#52により表される。
光学系距離センサ12による計測結果に基づく占有格子地図からは、端点aと端点bの間に物体がなく、その先に移動可能なエリアがあるものとして認識される。
移動体1は、端点aと端点bの間の区間のように、直線上に並ぶ物体(壁WA,WB)が分断している区間である分断区間を、光学系距離センサ12による計測結果に基づく占有格子地図から検出する。
また、移動体1は、分断区間に対応する、超音波センサ13による計測結果に基づく占有格子地図上の区間に物体があるか否かを確認する。
図12のベクトル#61の先に示すように、分断区間に対応する位置に所定の物体があることが超音波センサ13による計測結果に基づく占有格子地図から確認された場合、移動体1は、分断区間に鏡があるものとして認識する。
このように、光学系距離センサ12の計測結果に基づく占有格子地図上の分断区間に超音波センサ13の反応がある場合、移動体1は、分断区間に鏡があるものとして認識し、鏡の位置を推定することになる。
超音波センサ13は、鏡までの距離を、他の物体までの距離と同様に計測することが可能なセンサである。超音波センサ13の空間分解能は一般的に低いから、移動体1は、超音波センサ13の計測結果だけでは高い精度の占有格子地図を生成することができない。通常、超音波センサ13を用いた占有格子地図は、光学系距離センサ12を用いた占有格子地図と比べて粒度が粗い地図となる。
一方、LiDARやToFセンサなどの光学系のセンサである光学系距離センサ12は、鏡の両脇に存在する壁などの物体までの距離を高い空間分解能で計測できるが、鏡自体までの距離を計測することができないセンサである。
光学系距離センサ12と超音波センサ13を用いて2つの占有格子地図を生成し、統合して用いることにより、移動体1は、鏡の位置を推定することが可能となる。
光学系距離センサ12が用いる方式とは異なる方式によって物体までの距離を計測するセンサであれば、他のセンサを超音波センサ13に代えて用いることが可能である。例えば、ステレオカメラが用いられるようにしてもよいし、送信した電波の反射波を受信して距離を計測するセンサが用いられるようにしてもよい。
・制御部の構成例
図13は、制御部31の機能構成例を示すブロック図である。
図13に示す制御部31の構成は、鏡位置情報記憶部109に代えて、超音波センサ制御部121が設けられている点で図10に示す構成と異なる。図13に示す構成のうち、図10に示す構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
超音波センサ制御部121は、超音波センサ13を制御し、周囲の物体までの距離を計測する。超音波センサ制御部121による計測結果を表す情報は占有格子地図生成部102に出力される。
占有格子地図生成部102は、光学系距離センサ制御部101から供給された計測結果に基づいて占有格子地図を生成する。また、占有格子地図生成部102は、超音波センサ制御部121から供給された計測結果に基づいて占有格子地図を生成する。
占有格子地図生成部102は、2つの占有格子地図を統合することによって1つの占有格子地図を生成する。占有格子地図生成部102は、統合後の占有格子地図の各位置(各セル)にある物体が、どのセンサにより検出された物体であるのかを表す情報を保持する。占有格子地図生成部102により生成された占有格子地図は鏡位置推定部104に出力される。
鏡位置推定部104は、占有格子地図生成部102により生成された占有格子地図から、壁の端点の間の区間である分断区間を検出する。分断区間の検出は、物体が並ぶ一方の直線区間と他方の直線区間が同一直線上にあり、その間において分断している区間を選択するようにして行われる。
鏡位置推定部104は、分断区間に所定の物体があることが超音波センサ13により検出されているか否かを占有格子地図に基づいて確認する。鏡位置推定部104は、分断区間に所定の物体があることが超音波センサ13により検出されている場合、分断区間に鏡があると認識し、鏡の位置を推定する。鏡位置推定部104により推定された鏡の位置を表す情報は、占有格子地図とともに占有格子地図修正部105に供給される。
・鏡位置推定処理
図14のフローチャートを参照して、図8のステップS3において行われる鏡位置推定処理について説明する。図14の処理は、センサ出力を統合して鏡の位置を推定する処理となる。
ステップS21において、鏡位置推定部104は、占有格子地図生成部102により生成された占有格子地図から直線区間を抽出する。例えば、閾値となる長さ以上、物体が並んでいる区間が直線区間として抽出される。
ステップS22において、鏡位置推定部104は、一方の直線区間と他方の直線区間が同一直線上にあり、その間において分断している区間を分断区間として検出する。
ステップS23において、鏡位置推定部104は、占有格子地図から、超音波センサ13により検出された物体の位置を表す情報を取得する。
ステップS24において、鏡位置推定部104は、分断区間を対象とした超音波センサ13の計測結果が、物体があることを表しているか否かを確認する。物体があることを超音波センサ13の計測結果が表している場合、鏡位置推定部104は、分断区間に鏡があると認識する。自己位置の近くに鏡がある場合、鏡の位置を表す情報が占有格子地図修正部105に出力される。
その後、図8のステップS3に戻り、それ以降の処理が行われる。
以上のように、移動体1は、光学系距離センサ12の計測結果に基づく占有格子地図と超音波センサ13の計測結果に基づく占有格子地図とを統合して用いることによって、鏡の位置を推定し、占有格子地図を修正することができる。
<マーカーを用いて鏡の位置を推定する例>
・鏡の位置の推定方法
この例においては、移動体1の筐体の所定の位置にマーカーが付されている。例えば、一次元コード、二次元コードなどの識別子がマーカーとして用いられる。マーカーを表すシールが筐体に貼り付けられるようにしてもよいし、マーカーが筐体に印刷されるようにしてもよい。マーカーがディスプレイ16に表示されるようにしてもよい。
移動体1は、目的地までの移動中、カメラ11により撮影された画像を解析し、画像にマーカーが写っている場合、撮影方向の位置が、鏡の位置であるとして推定する。
図15は、鏡の位置の推定方法の例を示す図である。
図15の上段に示す占有格子地図は、図3を参照して説明した状況と同じ状況を表す占有格子地図である。破線L1は、端点aにおいて反射する光の反射ベクトルαを表し、破線L2は、端点bにおいて反射する光の反射ベクトルβを表す。
図15の上段に示す状況の場合、壁WAと壁WBの間にある鏡Mの存在については、移動体1はまだ認識していない。位置Pt-1に存在する移動体1の筐体にはマーカーが付されている。
移動体1が前進し、図15の下段に示すように位置Ptに移動した場合、カメラ11を端点aと端点bの間に向けて撮影された画像にはマーカーが写ることになる。位置Ptは、反射ベクトルαと反射ベクトルβの間の位置である。占有格子地図においては、位置P’tに物体(移動体1)があるものとして観測される。
移動体1は、カメラ11により撮影された画像にマーカーが写っている場合、分断区間として検出した端点aと端点bの間の区間に鏡があるものとして認識し、鏡の位置を推定する。
このように、カメラ11により撮影された画像にマーカーが写っている場合、移動体1は、撮影方向の分断区間に鏡があるものとして認識し、鏡の位置を推定することになる。
マーカーを検出すること以外に、分断区間の方向を撮影した画像の各種の解析結果に基づいて鏡の位置が推定されるようにしてもよい。
例えば、分断区間の方向を撮影した画像に移動体1が写っている場合、分断区間に鏡があるものとして認識されるようにすることが可能である。この場合、移動体1の外観の特徴に関する情報が鏡位置推定部104に与えられていることになる。
また、分断区間の方向を撮影した画像の特徴と、分断区間の前方の風景を撮影した画像の特徴とのマッチングを行い、閾値以上一致する場合、分断区間に鏡があるものとして認識されるようにすることが可能である。
・制御部の構成例
図16は、制御部31の機能構成例を示すブロック図である。
図16に示す制御部31の構成は、基本的に、超音波センサ制御部121に代えて、カメラ制御部131とマーカー検出部132が設けられている点で図13に示す構成と異なる。図16に示す構成のうち、図13に示す構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
カメラ制御部131は、カメラ11を制御し、移動体1の周囲を撮影する。カメラ11による撮影は所定の周期で繰り返し行われる。カメラ制御部131により撮影された画像は、マーカー検出部132に出力される。
マーカー検出部132は、カメラ制御部131から供給された画像を解析し、画像に写るマーカーを検出する。マーカー検出部132による検出結果を表す情報は鏡位置推定部104に供給される。
鏡位置推定部104は、占有格子地図生成部102により生成された占有格子地図に基づいて、壁の端点の間の区間である分断区間を検出する。
鏡位置推定部104は、分断区間の方向を撮影した画像にマーカーが写っていることがマーカー検出部132により検出された場合、分断区間に鏡があると認識し、鏡の位置を推定する。鏡位置推定部104により推定された鏡の位置を表す情報は、占有格子地図とともに占有格子地図修正部105に出力される。また、分断区間を表す情報と占有格子地図が経路計画部106に出力される。
経路計画部106は、分断区間に鏡があると仮定した場合に、移動体1が鏡に映ることになる位置を目的地として設定する。上述したように、反射ベクトルαと反射ベクトルβの間の位置が目的地として設定される。自己位置から目的地までの移動経路の情報が経路追従部107に出力される。
経路追従部107は、経路計画部106により計画された移動経路に従って、移動体1が鏡に映ることになる位置まで移動するように駆動制御部108を制御する。
・鏡位置推定処理
図17のフローチャートを参照して、図8のステップS3において行われる鏡位置推定処理について説明する。図17の処理は、マーカーを用いて鏡の位置を推定する処理となる。
ステップS31,S32の処理は、図14のステップS21,S22の処理と同様の処理である。すなわち、ステップS31において、占有格子地図から直線区間が抽出され、ステップS32において分断区間が検出される。
ステップS33において、経路計画部106は、分断区間に鏡があると仮定した場合に、移動体1が鏡に映ることになる位置を目的地として設定する。
ステップS34において、経路追従部107は、駆動制御部108を制御し、移動体1を目的地まで移動させる。
ステップS35において、マーカー検出部132は、目的地まで移動した後に撮影された画像を解析し、マーカーを検出する。
ステップS36において、鏡位置推定部104は、マーカー検出部132による検出結果に基づいて、分断区間の方向を撮影した画像にマーカーが写っているか否かを確認する。鏡位置推定部104は、画像にマーカーが写っている場合、分断区間に鏡があると認識し、鏡の位置を表す情報を占有格子地図修正部105に出力する。
その後、図8のステップS3に戻り、それ以降の処理が行われる。
以上のように、移動体1は、カメラ11により撮影された画像に写るマーカーを検出することによって、鏡の位置を推定し、占有格子地図を修正することができる。
<テンプレートマッチングにより鏡の位置を推定する例>
・鏡の位置の推定方法
この例においては、占有格子地図における鏡の中の領域の画像データと、現実の領域の画像データとのマッチングを行うことによって鏡の位置が推定される。
図18は、鏡の位置の推定方法の例を示す図である。
図18に示す占有格子地図は、図3を参照して説明した状況と同じ状況を表す占有格子地図である。
図18に示す状況の場合、壁WAと壁WBの間にある鏡Mの存在については、移動体1はまだ認識していない。端点aと端点bの間の分断区間の先に移動可能なエリアがあるものとして認識される。また、分断区間の先に物体O’があるものとして認識される。
この場合、移動体1は、破線で囲んで示すように、自己位置である位置Pと端点aを結ぶ直線の延長線と、位置Pと端点bを結ぶ直線の延長線との間の領域であって、分断区間より遠くにある領域A1を、鏡の中の領域であると仮定する。
移動体1は、占有格子地図全体のうちの領域A1の画像データを、分断区間である端点aと端点bを結ぶ直線を基準として線対称になるように反転させ、反転後の画像データをテンプレートとして設定する。移動体1は、テンプレートと、領域A1に対して線対称となる、一点鎖線で囲んで示す領域A2の画像データとのマッチングを行う。
移動体1は、テンプレートと領域A2の画像データとの一致度が閾値より高い場合、分断区間に鏡があるものとして認識し、鏡の位置を推定する。
図18の例においては、テンプレートに物体O’の情報が含まれ、領域A2の画像データに、物体O’の実体としての物体Oの情報が含まれているから、閾値以上の一致度が求められることになる。
このように、いわば鏡の中の領域と現実の領域とのマッチングを行い、それらの領域が一致する場合、移動体1は、分断区間に鏡があるものとして認識し、鏡の位置を推定することになる。
なお、一致度を算出するのに用いられる物体がテンプレートに含まれていない場合、図15を参照して説明したようにして移動体1が鏡Mに映ることになる位置まで移動し、その状態で生成された占有格子地図に基づいて、テンプレートの設定とマッチングが行われるようにしてもよい。
このように、テンプレートとなる所定の領域を占有格子地図上に任意に設定し、他の領域の画像データとのマッチングを行うことによって鏡の位置の推定が行われるようにすることが可能である。
・制御部の構成例
図19は、制御部31の機能構成例を示すブロック図である。
図19に示す制御部31の構成は、カメラ制御部131とマーカー検出部132が設けられていない点で図16に示す構成と異なる。図19に示す構成のうち、図16に示す構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
鏡位置推定部104は、占有格子地図生成部102により生成された占有格子地図に基づいて、壁の端点の間の区間である分断区間を検出する。
鏡位置推定部104は、自己位置と分断区間に基づいてテンプレートを設定し、鏡の中の領域の画像データをテンプレートとして、現実の領域の画像データとのマッチングを行う。鏡位置推定部104は、テンプレートと現実の領域の画像データとの一致度が閾値より高い場合、分断区間に鏡があると認識し、鏡の位置を推定する。鏡位置推定部104により推定された鏡の位置を表す情報は、占有格子地図とともに占有格子地図修正部105に出力される。
・鏡位置推定処理
図20のフローチャートを参照して、図8のステップS3において行われる鏡位置推定処理について説明する。図20の処理は、テンプレートマッチングにより鏡の位置を推定する処理となる。
ステップS41,S42の処理は、図14のステップS21,S22の処理と同様の処理である。すなわち、ステップS41において、占有格子地図から直線区間が抽出され、ステップS42において分断区間が検出される。
ステップS43において、鏡位置推定部104は、占有格子地図における自己位置と分断区間に基づいて、鏡の中の領域の画像データをテンプレートとして設定する。
ステップS44において、鏡位置推定部104は、テンプレートと現実の領域の画像データとのマッチングを行う。鏡位置推定部104は、テンプレートと現実の領域の画像データとの一致度が閾値より高い場合、分断区間に鏡があると認識し、鏡の位置を表す情報を占有格子地図修正部105に出力する。
その後、図8のステップS3に戻り、それ以降の処理が行われる。
以上のように、移動体1は、占有格子地図の画像データを用いたマッチングによって、鏡の位置を推定し、占有格子地図を修正することができる。
<占有格子地図の修正>
次に、以上のような各方法により推定された鏡の位置に基づく占有格子地図の修正について説明する。
占有格子地図修正部105による占有格子地図の修正は、基本的に、鏡の中の領域の削除と、鏡の位置の障害物化との2つの処理によって行われる。
図21は、占有格子地図の修正の例を示す図である。
図21の上段に示す占有格子地図は、図3を参照して説明した状況と同じ状況を表す占有格子地図である。鏡の中の領域は、斜線を付して示すように、自己位置である位置Pと端点aを結ぶ直線の延長線と、位置Pと端点bを結ぶ直線の延長線との間の領域であって、分断区間より遠くにある領域となる。
この場合、占有格子地図修正部105は、鏡の中の領域を削除するように占有格子地図を修正する。削除された領域は、観測が行われていない、未知領域として設定される。
仮に、鏡の方向を全て無視してしまうと、鏡と観測点(自己位置)の間に障害物があった場合にそれを検知することができなくなる。分断区間である端点aと端点bを結ぶ区間より手前の領域を占有格子地図から削除せずにそのまま残すことにより、移動体1は、鏡と観測点の間に障害物があった場合でも、その情報を占有格子地図に正しく反映することが可能となる。
また、占有格子地図修正部105は、分断区間である端点aと端点bを結ぶ区間に所定の物体があるものとして占有格子地図を修正する。修正後の占有格子地図は、図21の白抜き矢印の先に示すように端点aと端点bの間が塞がれた地図となる。
これにより、占有格子地図修正部105は、鏡の影響を排除した占有格子地図を生成することができる。修正後の占有格子地図を用いて移動経路の計画を行うことにより、移動体1は、実際に通行可能な正しい経路を移動経路として設定することが可能となる。
<その他の例>
・鏡の誤検出時の訂正について
鏡の位置の推定に誤りが生じる場合がある。占有格子地図修正部105は、占有格子地図の修正時に上述したようにして鏡の中の領域を削除した場合、削除した領域のデータを保持しておき、適宜、保持しておいたデータに基づいて、占有格子地図の復元を行う。
占有格子地図の復元は、例えば、鏡の位置の推定が誤りであったことが占有格子地図の修正後に発覚したタイミングで行われる。
図22は、占有格子地図の復元の例を示す図である。
移動体1が位置Pt-1にある状態で、上述したようにして領域の削除が行われたものとする。
占有格子地図修正部105は、位置Pt-1と端点aを結ぶ直線の延長線と、位置Pt-1と端点bを結ぶ直線の延長線との間の領域であって、分断区間より遠くにある領域を占有格子地図から削除する。また、占有格子地図修正部105は、削除対象の領域のデータを保持する。図22の例においては、削除対称の領域に物体O1’があるものとされている。
矢印#71に示すように、移動体1が位置Ptに移動したものとする。位置Ptにおいては、端点aと端点bの先に物体O2があることが観測される。端点aと端点bの先に空間があることから、鏡の位置の推定が誤りであったことになる。
この場合、占有格子地図修正部105は、占有格子地図から削除した領域を、保持していたデータに基づいて復元する。これにより、占有格子地図修正部105は、鏡の位置の推定に誤りがあった場合でも、後から発覚した現実の空間の状況を表すように、占有格子地図を復元することができる。
・他の物体の位置の推定
鏡の位置を推定し、占有格子地図の修正を行う場合について説明したが、以上のような鏡の位置の推定は、表面が鏡面になっている各種の物体の位置を推定する場合に適用可能である。
また、センサ出力を統合して鏡の位置を推定する方法は、表面が透明なガラスなどの物体の位置を推定する場合にも適用可能である。
この場合、移動体1は、光学系距離センサ12による計測結果に基づく占有格子地図と、超音波センサ13による計測結果に基づく占有格子地図とを統合して、ガラス面を有する物体などの透明物体の位置を推定する。分断区間に透明物体がある場合、移動体1は、分断区間が通行できない区間となるように占有格子地図を修正し、修正後の占有格子地図に基づいて移動経路の計画を行うことになる。
このように、上述した物体の位置の推定については、各種の透明物体の位置の推定に適用することが可能である。なお、事前情報に基づいて鏡の位置を推定する方法によっても、透明物体の位置を推定することが可能である。
・制御システムについて
移動体1の行動が、移動体1に搭載された制御部31により制御されるものとしたが、外部の装置により制御されるようにしてもよい。
図23は、制御システムの構成例を示す図である。
図23の制御システムは、移動体1と制御サーバ201がインターネットなどのネットワーク202を介して接続されることによって構成される。移動体1と制御サーバ201は、ネットワーク202を介して通信を行う。
図23の制御システムにおいては、上述したような移動体1の処理が、移動体1の外部の装置である制御サーバ201により行われる。すなわち、制御部31の各機能部が、所定のプログラムが実行されることによって制御サーバ201において実現される。
制御サーバ201は、移動体1から送信されてきた距離情報などに基づいて、上述したようにして占有格子地図を生成する。移動体1から制御サーバ201に対しては、カメラ11により撮影された画像、光学系距離センサ12により検出された距離情報、超音波センサ13により検出された距離情報などの各種のデータが繰り返し送信される。
制御サーバ201は、上述したようにして鏡の位置を推定し、適宜、占有格子地図を修正する。また、制御サーバ201は、移動経路を計画し、目的地まで移動させるためのパラメータを移動体1に送信する。移動体1は、制御サーバ201から送信されてきたパラメータに従って駆動ユニット51を駆動させる。制御サーバ201は、移動体1の行動を制御する制御装置として機能する。
このように、移動体1の行動を制御する制御装置が、移動体1の外部に設けられるようにしてもよい。PC、スマートフォン、タブレット端末などの、移動体1と通信可能な他の装置が制御装置として用いられるようにしてもよい。
・コンピュータの構成例
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図24は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。図23の制御サーバ201も、図24に示す構成と同様の構成を有する。
CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005及びバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
・構成の組み合わせ例
本技術は、以下のような構成をとることもできる。
(1)
光学センサの検出結果に基づいて、物体が占有している位置を表す地図を生成する地図生成部と、
鏡面を有する物体である鏡面物体の位置を推定する推定部と、
所定の物体の並びが分断している分断区間に前記鏡面物体があると推定された場合、移動体の移動経路として、前記分断区間を通らない経路を前記地図に基づいて計画する経路計画部と
を備える制御装置。
(2)
前記光学センサは、出射した光の反射光に基づいて物体までの距離を計測する距離センサである
前記(1)に記載の制御装置。
(3)
前記推定部は、前記分断区間を対象とした、前記光学センサが用いる方式とは異なる方式によって物体までの距離を計測する他のセンサの検出結果に基づいて、前記鏡面物体の位置を推定する
前記(2)に記載の制御装置。
(4)
前記推定部は、前記他のセンサとしての超音波センサの検出結果に基づいて、前記鏡面物体の位置を推定する
前記(3)に記載の制御装置。
(5)
前記推定部は、物体があることを前記超音波センサの検出結果が示している場合、前記分断区間に前記鏡面物体があることを推定する
前記(4)に記載の制御装置。
(6)
前記推定部は、前記分断区間の位置を撮影して得られた画像に基づいて、前記鏡面物体の位置を推定する
前記(1)または(2)に記載の制御装置。
(7)
前記推定部は、前記移動体の表面に付された所定の識別子が前記画像に写っている場合、前記分断区間に前記鏡面物体があることを推定する
前記(6)に記載の制御装置。
(8)
前記推定部は、前記地図における前記移動体の位置が、前記移動体の位置から前記分断区間の両端に向けたベクトルの反射ベクトルの間にある状態で撮影された前記画像に基づいて、前記鏡面物体があることを推定する
前記(6)または(7)に記載の制御装置。
(9)
前記移動体を、前記反射ベクトルの間の位置に移動させる駆動制御部をさらに備える
前記(8)に記載の制御装置。
(10)
前記推定部は、前記地図上の所定の領域の画像データと、他の領域の画像データとのマッチング結果に基づいて、前記鏡面物体の位置を推定する
前記(1)または(2)に記載の制御装置。
(11)
前記推定部は、前記移動体の位置を基準として前記分断区間の先にある領域を前記所定の領域として設定する
前記(10)に記載の制御装置。
(12)
前記推定部は、前記所定の領域の画像データと、前記他の領域となる、前記分断区間を基準としたときに前記所定の領域に対して線対称となる領域の画像データとのマッチングを行う
前記(11)に記載の制御装置。
(13)
前記推定部によって前記鏡面物体があると推定された場合に前記地図を修正する地図修正部をさらに備え、
前記経路計画部は、前記地図修正部によって修正された前記地図に基づいて前記移動経路を計画する
前記(1)乃至(12)のいずれかに記載の制御装置。
(14)
前記制御装置は、前記移動体に搭載された装置である
前記(1)乃至(13)のいずれかに記載の制御装置。
(15)
制御装置が、
光学センサの検出結果に基づいて、物体が占有している位置を表す地図を生成し、
鏡面を有する物体である鏡面物体の位置を推定し、
所定の物体の並びが分断している分断区間に前記鏡面物体があると推定した場合、移動体の移動経路として、前記分断区間を通らない経路を前記地図に基づいて計画する
情報処理方法。
(16)
コンピュータに、
光学センサの検出結果に基づいて、物体が占有している位置を表す地図を生成し、
鏡面を有する物体である鏡面物体の位置を推定し、
所定の物体の並びが分断している分断区間に前記鏡面物体があると推定した場合、移動体の移動経路として、前記分断区間を通らない経路を前記地図に基づいて計画する
処理を実行させるためのプログラム。
(17)
光学センサの検出結果に基づいて、物体が占有している位置を表す地図を生成する地図生成部と、
前記光学センサが用いる方式とは異なる方式によって物体までの距離を計測する他のセンサの検出結果に基づいて、透明な表面を有する物体である透明物体の位置を推定する推定部と、
所定の物体の並びが分断している分断区間に前記透明物体があると推定された場合、移動体の移動経路として、前記分断区間を通らない経路を前記地図に基づいて計画する経路計画部と
を備える制御装置。
1 移動体, 11 カメラ, 12 光学系距離センサ, 13 超音波センサ, 31 制御部, 101 光学系距離センサ制御部, 102 占有格子地図生成部, 103 自己位置同定部, 104 鏡位置推定部, 105 占有格子地図修正部, 106 経路計画部, 107 経路追従部, 108 駆動制御部, 109 鏡位置情報記憶部, 121 超音波センサ制御部, 131 カメラ制御部, 132 マーカー検出部

Claims (17)

  1. 光学センサの検出結果に基づいて、物体が占有している位置を表す地図を生成する地図生成部と、
    鏡面を有する物体である鏡面物体の位置を推定する推定部と、
    所定の物体の並びが分断している分断区間に前記鏡面物体があると推定された場合、移動体の移動経路として、前記分断区間を通らない経路を前記地図に基づいて計画する経路計画部と
    を備える制御装置。
  2. 前記光学センサは、出射した光の反射光に基づいて物体までの距離を計測する距離センサである
    請求項1に記載の制御装置。
  3. 前記推定部は、前記分断区間を対象とした、前記光学センサが用いる方式とは異なる方式によって物体までの距離を計測する他のセンサの検出結果に基づいて、前記鏡面物体の位置を推定する
    請求項2に記載の制御装置。
  4. 前記推定部は、前記他のセンサとしての超音波センサの検出結果に基づいて、前記鏡面物体の位置を推定する
    請求項3に記載の制御装置。
  5. 前記推定部は、物体があることを前記超音波センサの検出結果が示している場合、前記分断区間に前記鏡面物体があることを推定する
    請求項4に記載の制御装置。
  6. 前記推定部は、前記分断区間の位置を撮影して得られた画像に基づいて、前記鏡面物体の位置を推定する
    請求項1に記載の制御装置。
  7. 前記推定部は、前記移動体の表面に付された所定の識別子が前記画像に写っている場合、前記分断区間に前記鏡面物体があることを推定する
    請求項6に記載の制御装置。
  8. 前記推定部は、前記地図における前記移動体の位置が、前記移動体の位置から前記分断区間の両端に向けたベクトルの反射ベクトルの間にある状態で撮影された前記画像に基づいて、前記鏡面物体があることを推定する
    請求項7に記載の制御装置。
  9. 前記移動体を、前記反射ベクトルの間の位置に移動させる駆動制御部をさらに備える
    請求項8に記載の制御装置。
  10. 前記推定部は、前記地図上の所定の領域の画像データと、他の領域の画像データとのマッチング結果に基づいて、前記鏡面物体の位置を推定する
    請求項1に記載の制御装置。
  11. 前記推定部は、前記移動体の位置を基準として前記分断区間の先にある領域を前記所定の領域として設定する
    請求項10に記載の制御装置。
  12. 前記推定部は、前記所定の領域の画像データと、前記他の領域となる、前記分断区間を基準としたときに前記所定の領域に対して線対称となる領域の画像データとのマッチングを行う
    請求項11に記載の制御装置。
  13. 前記推定部によって前記鏡面物体があると推定された場合に前記地図を修正する地図修正部をさらに備え、
    前記経路計画部は、前記地図修正部によって修正された前記地図に基づいて前記移動経路を計画する
    請求項1に記載の制御装置。
  14. 前記制御装置は、前記移動体に搭載された装置である
    請求項1に記載の制御装置。
  15. 制御装置が、
    光学センサの検出結果に基づいて、物体が占有している位置を表す地図を生成し、
    鏡面を有する物体である鏡面物体の位置を推定し、
    所定の物体の並びが分断している分断区間に前記鏡面物体があると推定した場合、移動体の移動経路として、前記分断区間を通らない経路を前記地図に基づいて計画する
    情報処理方法。
  16. コンピュータに、
    光学センサの検出結果に基づいて、物体が占有している位置を表す地図を生成し、
    鏡面を有する物体である鏡面物体の位置を推定し、
    所定の物体の並びが分断している分断区間に前記鏡面物体があると推定した場合、移動体の移動経路として、前記分断区間を通らない経路を前記地図に基づいて計画する
    処理を実行させるためのプログラム。
  17. 光学センサの検出結果に基づいて、物体が占有している位置を表す地図を生成する地図生成部と、
    前記光学センサが用いる方式とは異なる方式によって物体までの距離を計測する他のセンサの検出結果に基づいて、透明な表面を有する物体である透明物体の位置を推定する推定部と、
    所定の物体の並びが分断している分断区間に前記透明物体があると推定された場合、移動体の移動経路として、前記分断区間を通らない経路を前記地図に基づいて計画する経路計画部と
    を備える制御装置。
JP2018169814A 2018-09-11 2018-09-11 制御装置、情報処理方法、およびプログラム Pending JP2021193470A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018169814A JP2021193470A (ja) 2018-09-11 2018-09-11 制御装置、情報処理方法、およびプログラム
PCT/JP2019/033623 WO2020054408A1 (ja) 2018-09-11 2019-08-28 制御装置、情報処理方法、およびプログラム
US17/250,774 US20210349467A1 (en) 2018-09-11 2019-08-28 Control device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018169814A JP2021193470A (ja) 2018-09-11 2018-09-11 制御装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2021193470A true JP2021193470A (ja) 2021-12-23

Family

ID=69777571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018169814A Pending JP2021193470A (ja) 2018-09-11 2018-09-11 制御装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US20210349467A1 (ja)
JP (1) JP2021193470A (ja)
WO (1) WO2020054408A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102203438B1 (ko) * 2018-12-26 2021-01-14 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
US11435745B2 (en) * 2019-04-17 2022-09-06 Lg Electronics Inc. Robot and map update method using the same
CN114442629B (zh) * 2022-01-25 2022-08-09 吉林大学 一种基于图像处理的移动机器人路径规划方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009244965A (ja) * 2008-03-28 2009-10-22 Yaskawa Electric Corp 移動体
JP4930443B2 (ja) * 2008-04-10 2012-05-16 トヨタ自動車株式会社 地図データ生成装置および地図データ生成方法
JP5826795B2 (ja) * 2013-06-14 2015-12-02 シャープ株式会社 自律移動体、その制御システム、および自己位置検出方法
JP2018142154A (ja) * 2017-02-27 2018-09-13 パナソニックIpマネジメント株式会社 自律走行装置
US10761541B2 (en) * 2017-04-21 2020-09-01 X Development Llc Localization with negative mapping
US10699477B2 (en) * 2018-03-21 2020-06-30 Zoox, Inc. Generating maps without shadows

Also Published As

Publication number Publication date
WO2020054408A1 (ja) 2020-03-19
US20210349467A1 (en) 2021-11-11

Similar Documents

Publication Publication Date Title
CN108290294B (zh) 移动机器人及其控制方法
EP3568334B1 (en) System, method and non-transitory computer readable storage medium for parking vehicle
CN109885080B (zh) 自主控制系统及自主控制方法
WO2020054408A1 (ja) 制御装置、情報処理方法、およびプログラム
US10489971B2 (en) System and method for processing captured images for moving platform navigation
JP2014119901A (ja) 自律移動ロボット
WO2016067640A1 (ja) 自律移動装置
JP7103354B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN111198513A (zh) 设备控制系统
Smith et al. PiPS: Planning in perception space
US20210141381A1 (en) Information processing device, information processing system, behavior planning method, and computer program
KR20210075647A (ko) 깊이 카메라를 이용한 무인 비행체의 비행 제어를 위한 학습 방법 및 장치
Isop et al. Micro Aerial Projector-stabilizing projected images of an airborne robotics projection platform
Karrer et al. Real-time dense surface reconstruction for aerial manipulation
KR20220039101A (ko) 로봇 및 그의 제어 방법
Castillón et al. Extrinsic visual–inertial calibration for motion distortion correction of underwater 3d scans
WO2020026798A1 (ja) 制御装置、制御方法、およびプログラム
CN114571460A (zh) 机器人控制方法、装置及存储介质
CN112291701B (zh) 定位验证方法、装置、机器人、外部设备和存储介质
US11645762B2 (en) Obstacle detection
Liu et al. Vision information and laser module based UAV target tracking
EP4202834A1 (en) Systems and methods for generating three-dimensional reconstructions of environments
WO2023127337A1 (ja) 情報処理装置、情報処理方法、及びプログラム
James et al. Sensor Fusion for Autonomous Indoor UAV Navigation in Confined Spaces
US20220016773A1 (en) Control apparatus, control method, and program