JP2016048464A - 自律行動ロボット、及び自律行動ロボットの制御方法 - Google Patents

自律行動ロボット、及び自律行動ロボットの制御方法 Download PDF

Info

Publication number
JP2016048464A
JP2016048464A JP2014173147A JP2014173147A JP2016048464A JP 2016048464 A JP2016048464 A JP 2016048464A JP 2014173147 A JP2014173147 A JP 2014173147A JP 2014173147 A JP2014173147 A JP 2014173147A JP 2016048464 A JP2016048464 A JP 2016048464A
Authority
JP
Japan
Prior art keywords
sound source
unit
sound
robot
map information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014173147A
Other languages
English (en)
Other versions
JP6221158B2 (ja
Inventor
圭佑 中村
Keisuke Nakamura
圭佑 中村
一博 中臺
Kazuhiro Nakadai
一博 中臺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2014173147A priority Critical patent/JP6221158B2/ja
Priority to US14/831,279 priority patent/US9639084B2/en
Publication of JP2016048464A publication Critical patent/JP2016048464A/ja
Application granted granted Critical
Publication of JP6221158B2 publication Critical patent/JP6221158B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • G01S3/8083Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining direction of source
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)

Abstract

【課題】直接音以外の音であっても音源の方向を推定でき、音源の方向へ移動することができる自律行動ロボット、及び自律行動ロボットの制御方法を提供することを目的とする。【解決手段】自律行動ロボットは、音響信号を収録する収音部と、音響信号に対する音源の方向を推定する音源定位部と、所定の範囲に対して距離に関する測定を行う距離測定部と、距離の情報を用いて二次元地図情報を生成かつ自己位置を推定する地図情報生成部と、二次元地図情報と自己位置の情報と音源の方向とに基づいて音響信号が反射音であるか直接音であるかを判別することで音源の方向を推定し直す音源方向決定部と、音響信号が反射音であると判別した場合、第1の方向へ移動する行動計画を生成し、音響信号が直接音であると判別した場合、第1の方向とは異なる第2の方向へ移動する行動計画を生成する行動生成部と、行動計画に応じて自律行動ロボットを制御する制御部と、を備える。【選択図】図1

Description

本発明は、自律行動ロボット、及び自律行動ロボットの制御方法に関する。
近年、人間のパートナーとして共存することを目的とした自律して行動する自律行動ロボットが開発されている。この種の自律行動ロボットは、人間の音声に反応して予め決められた行動をするものがある。
例えば、特許文献1に記載の自律行動ロボットでは、音源から発せられた音を検出し、検出された音に基づいて音源の方向を特定する。そして、自律行動ロボットでは、特定された音源の方向へ、撮像部を向けるように制御され、音源の方向の周辺の画像が撮影される。さらに、自律行動ロボットでは、撮影された画像から目標画像を抽出し、抽出された目標画像に基づいて、目標画像に向かう方向に撮像部を向けるように制御する。
また、自律行動ロボットを室内で使用する場合、自律行動ロボットは、室内にある壁や曲がり角によって直接音を収録できないことがある。このような場合、自律行動ロボットが収集している音は、音源から直接到来した直接音(direct sound)、壁などに反射した反射音(reflection)、壁に入射した音が壁の透過損失に応じて減衰し壁を通り抜けて透過した音、または遮蔽物を回り込んで裏面に回折によって到達する音である。
特開2003−62777号公報
しかしながら、特許文献1に記載の技術では、直接音以外の音を用いて音源の方向を推定した場合、正しい音源の方向を推定できないことがあった。正しい音源の方向を推定できない場合、自律行動ロボットは、推定した音源の方向へ移動するように制御されるため、正しい音源の方向へ移動することができない場合があった。
本発明は上記の点に鑑みてなされたものであり、直接音以外の音であっても音源の方向を推定でき、音源の方向へ移動することができる自律行動ロボット、及び自律行動ロボットの制御方法を提供することを目的とする。
(1)上記目的を達成するため、本発明の一態様に係る自律行動ロボットは、音響信号を収録する収音部と、前記収録された前記音響信号を用いて前記音響信号に対する音源の方向を推定する音源定位部と、所定の範囲に対して距離に関する測定を行う距離測定部と、前記距離の情報を用いて、二次元地図情報を生成かつ自律行動ロボットの自己位置を推定する地図情報生成部と、前記二次元地図情報と、前記推定された自己位置の情報と、前記推定された音源の方向とに基づいて、前記音響信号が反射物による反射音であるか前記音源からの直接音であるかを判別することで、前記音源の方向を推定し直す音源方向決定部と、前記二次元地図情報と、前記音源方向決定部によって推定された音源の方向とに基づいて、前記音響信号が反射音であると判別した場合、第1の方向へ移動する行動計画を生成し、前記音響信号が直接音であると判別した場合、前記第1の方向とは異なる第2の方向へ移動する行動計画を生成する行動生成部と、前記行動計画に応じて前記自律行動ロボットを制御する制御部と、を備える。
(2)また、本発明の一態様に係る自律行動ロボットにおいて、前記第2の方向は、前記第1の方向より前記音源に向いた方向であるようにしてもよい。
(3)また、本発明の一態様に係る自律行動ロボットは、前記自律行動ロボットの角速度と加速度とを検出する検出部、を備え、前記地図情報生成部は、前記検出部が検出した検出結果を用いて、前記推定した自己位置を補正するようにしてもよい。
(4)また、本発明の一態様に係る自律行動ロボットは、画像を撮像する撮像部と、前記生成された二次元地図情報と、前記撮像された画像に基づく三次元画像を用いた三次元地図情報とを統合する統合部と、を備え、前記行動生成部は、前記統合部によって統合された地図情報を用いて行動計画を生成するようにしてもよい。
(5)また、本発明の一態様に係る自律行動ロボットにおいて、前記音源方向決定部は、前記音源定位部によって定位された前記音源の方向と、前記地図情報生成部によって推定された自己位置を示す自己推定位置を用いて、フレーム毎に前記自己推定位置と障害物との関係を示す線分を算出し、任意のフレームにおける前記線分と前記障害物との交点を算出し、前記任意のフレームにおける前記線分上で前記算出した交点の近傍に2点を算出し、算出した前記2点からfフレーム(ただしfは2以上の整数)の前記線分までの距離の合計を算出し、前記算出した結果に基づいて、前記音響信号が直接音であるか反射音であるかを判別するようにしてもよい。
(6)また、本発明の一態様に係る自律行動ロボットにおいて、前記音源方向決定部は、前記音源定位部によって定位された前記音源の方向と、前記地図情報生成部によって推定された自己位置を示す情報を用いて、フレーム毎に前記自己推定位置と障害物との関係を示す前記線分Г を、次式を用いて算出するようにしてもよい。
(なお、ψ はfフレーム目のロボット座標系Cのx軸に対するfフレーム目の音響信号への方位角、θ はロボット座標系Cのx軸から世界座標系Cのx軸への方位角、yは世界座標系におけるy座標、xは世界座標系におけるx座標、y はfフレーム目における世界座標系におけるy座標、x はfフレーム目における世界座標系におけるx座標である)
(7)また、本発明の一態様に係る自律行動ロボットにおいて、前記音源方向決定部は、前記任意のフレームにおける前記線分上で前記算出した交点の近傍に、2点p 〜Wとp 〜Wとを、次式を用いて算出するようにしてもよい。
(なお、p〜Wは前記任意のフレームにおける前記線分と前記障害物との交点、p は世界座標系Cにおける1フレーム目の前記自律行動ロボットの座標、αは予め定められている値である)
(8)また、本発明の一態様に係る自律行動ロボットにおいて、前記音源方向決定部は、算出した前記2点からfフレームの前記線分までの距離の合計d 〜Wとd 〜Wとを、次式を用いて算出し、
前記算出したd 〜wがd 〜w未満である場合、前記音響信号が直接音であると判別し、前記算出したd 〜wがd 〜w未満以外である場合、前記音響信号が反射音であると判別するようにしてもよい。
(9)また、本発明の一態様に係る自律行動ロボットにおいて、前記第1の方向よりも前記第2の方向へ向かって進行しているときの方が移動速度の速いようにしてもよい。
(10)上記目的を達成するため、本発明の一態様に係る自律行動ロボットの制御方法は、収音部が、音響信号を収録する収音手順と、音源定位部が、前記収音手順によって収録された前記音響信号を用いて前記音響信号に対する音源の方向を推定する音源定位手順と、距離測定部が、所定の範囲に対して距離に関する測定を行う距離測定手順と、地図情報生成部が、前記距離測定手順によって測定された前記距離の情報を用いて、二次元地図情報を生成かつ自律行動ロボットの自己位置を推定する地図情報生成手順と、音源方向決定部が、前記二次元地図情報と、前記推定された自己位置の情報と、前記推定された音源の方向とに基づいて、前記音響信号が反射物による反射音であるか前記音源からの直接音であるかを判別することで、前記音源の方向を推定し直す音源方向決定手順と、行動生成部が、前記二次元地図情報と、前記音源方向決定部によって推定された音源の方向とに基づいて、前記音響信号が反射音であると判別した場合、第1の方向へ移動する行動計画を生成し、前記音響信号が直接音であると判別した場合、前記第1の方向とは異なる第2の方向へ移動する行動計画を生成する行動生成手順と、制御部は、行動生成手順によって生成された前記行動計画に応じて前記自律行動ロボットを制御する制御手順と、を含む。
上述した(1)又は(10)の構成によれば、収録した音響信号と地図情報に基づいて、収録した音響信号が直接音か反射音かを判別することができる。このため、本構成によれば、自律行動ロボットのいる位置から直接音を収音できない場合、第1の方向へ自律行動ロボットを移動させ、自律行動ロボットのいる位置から直接音を収音できる場合、第1の方向とは異なる音源の方向である第2の方向へ自律行動ロボットを移動させることができるので、自律行動ロボットをスムーズに移動させることができる。
上述した(2)の構成によれば、自律行動ロボットのいる位置から直接音を収音できない場合、第1の方向へ自律行動ロボットを移動させ、自律行動ロボットのいる位置から直接音を収音できる場合、第1の方向とは異なる音源の方向であり音源の方向である第2の方向へ自律行動ロボットを移動させることができる。このため、本構成によれば、自律行動ロボットを音源の方向へスムーズに移動させることができる。
上述した(3)の構成によれば、検出部が検出した検出結果を用いて推定した自己位置を補正するので、不整地等であっても、距離及び角度に関する地図情報を精度良く測定することができる。
上述した(4)の構成によれば、撮像された画像情報を二次元地図情報に統合することで三次元地図情報を生成できるので、精度の良い三次元地図情報を低い計算負荷で生成することができる。この三次元地図情報によって、自律行動ロボットを障害物を回避させ、かつ音源の方向へスムーズに移動させることができる。
上述した(5)〜(8)の構成によれば、音源定位部によって定位された音源方位と地図情報生成部によって推定された自己位置を示す情報を用いて、推定された音響信号が直接音であるか反射音であるかを判別することができる。この判別結果に応じて、自律行動ロボットを音源の方向へスムーズに移動させることができる。
上述した(9)の構成によれば、収録した音響信号の種類に応じて、自律行動ロボットの移動速度を変えることができるので、ロボットを音源の方向へスムーズに移動させることができる。
第1実施形態に係る自律行動ロボットの構成を示すブロック図である。 第1実施形態に係るロボットの外形の一例を説明する図である。 第1実施形態に係る二次元地図情報の一例を説明する図である。 第1実施形態に係る二次元の格子地図情報の一例を説明する図である。 第1実施形態に係る二次元地図にRGB−D画像を合成した地図情報の一例を説明する図である。 ロボット座標系と世界座標系との関係を説明する図である。 ロボットが直接音に対して音源定位した場合を説明する図である。 ロボットが反射音に対して音源定位した場合を説明する図である。 本実施形態に係る反射音検出モデルを説明する図である。 第1実施形態に係るロボットが行う処理のフローチャートである。 実験に用いた通路1を上から見た図である。 実験に用いた通路2を上から見た図である。 T字路を含む通路1における測定結果を説明する図である。 通路2における測定結果を説明する図である。 音源定位に関する測定結果の一例を説明する図である。 第1実施形態に係る二次元地図情報に撮像部60が撮像した3次元画像を投影した測定結果の一例を説明する図である。 第2実施形態に係る自律行動ロボットの構成を示すブロック図である。 三次元のSLAM法によって生成された三次元地図の一例を説明する図である。 第2実施形態に係るロボットが行う処理のフローチャートである。
まず、本発明の概要を説明する。
本実施形態では、自律的に行動する自律行動可能なロボット(以下、自律行動ロボット、ロボットともいう)は、収録した音響信号を用いて音源の方向を推定する。また、自律行動ロボットは、センサを介して取得した情報を用いて、二次元地図情報を生成する。そして、自律行動ロボットは、生成した二次元地図情報を用いて、壁等の障害物を検出する。また、自律行動可能なロボットは、地図情報、音源定位の結果、障害物の有無に基づいて、音響信号が直接音であるか反射音であるかを判別する。そして、自律行動ロボットは、収録した音響信号が反射音である場合は、第1の方向に進むように制御し、収録した音響信号が直接音である場合は、第1の方向とは異なる音源の方向である第2の方向に進むように制御する。この結果、自律行動ロボットは、障害物を回避しつつ、音源の方向へスムーズに移動することができる。
以下、図面を参照しながら本発明の実施形態について説明する。また、以下の説明では、自律移動装置の一例として自律行動ロボットを例に説明を行うが、自律移動装置は、自律的に移動できる装置であってもよい。
<第1実施形態>
図1は、本実施形態に係る自律行動可能なロボット1の構成を示すブロック図である。図1に示すように、ロボット1は、収音部10、第1音源定位部20(音源定位部;Local SSL)、第1センサ30(距離測定部)、第2センサ40(検出部)、第1地図情報生成部50(地図情報生成部)、撮像部60、第2音源定位部70(音源方向決定部;Global SSL)、反射物検出部80(音源方向決定部;Reflection Detection)、音源方向決定部90(Goal Decision)、コストマップ部100(Costmap)、行動生成部110、駆動制御部120(制御部)、及び駆動部130を含んで構成される。
図2は、本実施形態に係るロボット1の外観の一例を説明する図である。図2に示すように、ロボット1は、台座1001にボディ1002が可動できるように組み付けられていうる。台座1001には、不図示の車輪が組み込まれ、さらに第2センサ40が組み込まれている。なお、第2センサ40は、例えばボディ1002内に組み込まれていてもよい。また、ボディ1002には、左腕1003(含むハンド部)、右腕1004(含むハンド部)、及び頭部1005が組み付けられている。左腕1003、右腕1004、及び頭部1005等の駆動制御部、駆動部、及び図1に示した機能部は、例えばボディ1002内、または台座1001内に組み込まれていてもよい。
また、本実施形態では、収音部10、第1センサ30、及び撮像部60を台座1001の上面1001Aに設置したが、これに限られない。例えば、収音部10は、頭部1005の周辺部に取り付けられていてもよく、撮像部60は、頭部1005またはボディ1002に取り付けられていてもよい。また、第1センサ30も、台座1001、ボディ1002、及び頭部1005のいずれかに取り付けられていればよい。
また、図2に示したロボット1の外形は一例であり、ロボット1は、台座1001の代わりに脚部を備えていてもよい。
収音部10は、M個(Mは1よりも大きい整数、例えば8個)のチャネルの音響信号を収録し、収録したMチャネルの音響信号を第1音源定位部20に送信する。収音部10は、例えば周波数帯域(例えば200Hz〜4kHz)の成分を有する音波を受信するM個のマイクロホン11−1〜11−Mを備えている。以下、マイクロホン11−1〜11−Mのうち、特定しない場合は、単にマイクロホン11という。M個のマイクロホン11は、それぞれ異なる位置に配置されている。収音部10は、収録したMチャネルの音響信号を無線で送信してもよいし、有線で送信してもよい。Mが1よりも大きい場合には、送信の際にチャネル間で音響信号が同期していればよい。
第1音源定位部20には、予め伝達関数Aが記憶されている。第1音源定位部20は、収音部10のM個のマイクロホン11によって収録されたM個の音響信号を取得する。第1音源定位部20は、取得した音響信号をアナログ信号からデジタル信号に変換する。第1音源定位部20は、変換されたM個の音響信号を用いて、記憶されている伝達関数Aによって、例えばMUSIC(MUltiple SIgnal Classification;多信号分類)法、ビームフォーミング法等を用いて、音源毎の方向を推定する(以下、音源定位という)。なお、伝達関数Aは、例えば、実際にロボット1を使用する環境で予め測定するようにしてもよい。ここで、音源は、発話した人間、または音楽を出力するスピーカ等である。第1音源定位部20は、音源定位させた結果を示す第1音源定位情報を第2音源定位部70に出力する。なお、第1音源定位部20は、周知の手法を用いて、収録されたM個の音響信号を分離し、分離した音源毎に音源定位処理を行うようにしてもよい。また、第1音源定位部20は、周知の手法を用いて残響成分を抑圧するようにしてもよい。
第1センサ30は、距離センサであり、例えばLRF(Laser Range Finder;レーザレンジファインダー)センサである。LRFセンサは、レーザ光を照射しながら、検知対象の空間を所定のピッチでスキャンして、物体に反射して戻ってくるまでの時間を測定することで、物体との距離と方向を検出する二次元の測域センサである。LRFセンサは、検出した物体との距離と方向を含む情報を第1検出情報として無線または有線によって第1地図情報生成部50に出力する。なお、第1検出情報には、少なくとも床に対して水平面であるxy平面に対するx軸成分、y軸成分が含まれる。なお、本実施形態では、第1センサ30の例として、LRFセンサを用いる例を説明するが、これに限られず、他のセンサであってもよい。また、LRFセンサは、1つではなく、複数でもよい。
第2センサ40は、IMU(Inertial Measurement Unit;慣性計測装置)であり、ロボット1の運動を司る3軸の角度(または角速度)と加速度とを検出するセンサである。第2センサ40は、例えば、3軸のジャイロと3方向の加速度計によって、3次元の角速度と加速度を検出する。第2センサ40は、検出した検出結果を第2検出情報として第1地図情報生成部50に出力する。
第1地図情報生成部50は、二次元自己位置推定部51(Global 2D Self−Localization)、二次元地図情報生成部52(Global 2D Occupancy Grid Map Generation)、及び補正部53を備えている。
二次元自己位置推定部51及び二次元地図情報生成部52は、例えばHector SLAM(Simultaneous Localization and. Mapping)法(参考文献1参照)を用いて、二次元地図情報の生成と自己位置の推定を同時に行う。
例えば、第1地図情報生成部50は、まず初期位置の座標を決定し、その位置から得られた第1検出情報を取得する。そして、取得された第1検出情報に対してサンプリング処理を行い、第1検出情報が得られた領域内で観察された物体の形状を推定し、地図情報を生成する。ロボット1は、移動しながら、例えば所定の時間間隔毎(フレーム毎)に第1検出情報を取得し、領域内で観察された物体の形状を推定する。そして、第1地図情報生成部50は、フレーム毎に生成した地図情報の特徴量を抽出し、特徴量を抽出した地図情報に対して相関計算によって合成した地図情報を生成する。第1地図情報生成部50は、合成した地図情報と、ロボット1が移動した軌跡とに対して再サンプリング処理を行う。第1地図情報生成部50は、以上の処理を繰り返すことで、地図情報の生成と自己位置推定とを同時に行う。
参考文献1 S. Kohlbrecher and J. Meyer and O. von Stryk and U. Klingauf, “A Flexible and Scalable SLAM System with Full 3D Motion Estimation”, in Proc. of IEEE International Symposium on Safety, Security and Rescue Robotics (SSRR), pp. 155-160, 2011.
二次元自己位置推定部51は、例えば上述したHector SLAM法によって、第1センサ30から入力された第1検出情報を用いて、ロボット座標系における位置と傾き(姿勢ともいう)を推定する。二次元自己位置推定部51は、現在の自己位置推定を、例えば、次式(1)を用いて行う。
現在の自己位置(x、y、θ)=前の時刻の位置(x’、y’、θ’)+相対位置(Δx、Δy、Δθ) …(1)
なお、式(1)において、x、yは、二次元地図におけるx軸方向の値とy軸方向の値であり、θは姿勢である。
二次元地図情報生成部52は、第1センサ30から入力された第1検出情報を用いて、前述したように、例えばHector SLAM法を用いて、図3のように二次元の地図情報を生成する。図3は、本実施形態に係る二次元地図情報の一例を説明する図である。図3に示す地図情報の例は、情報を収集し、構築した後の例である。
二次元地図情報生成部52は、図4に示すように、予め定められた大きさの格子(Grid)毎に自身のグローバル座標系における位置と傾きを推定して環境地図に登録する。図4は、本実施形態に係る二次元の格子地図情報の一例を説明する図である。図4において、例えばロボット1の進行方向をx軸方向、ロボット1の左右方向をy軸方向とする。そして、ロボット1は、例えばxからxの方向へ移動しながら、格子地図情報m101を生成する。また、図4において、符号m102は、障害物がない空間の領域を示す格子であり、符号m103は、障害物がある空間の領域を示す格子である。ここで、障害物とは、例えば通路の左右に存在する壁等である。二次元地図情報生成部52は、生成した二次元地図情報を反射物検出部80に出力する。
補正部53は、第2センサ40から入力された第2検出情報を用いて、二次元自己位置推定部51が推定した自己位置を補正する。このように第2検出情報を用いて自己位置を補正する理由を説明する。SLAM法では、ロボット1が平面上を移動することが仮定されているため、床や地面が整地されていないような不整地を移動することによって二次元平面からのずれが生じる場合がある。このようなずれは、観測雑音となり、自己位置推定の精度が劣化することがある。このため、本実施形態では、第2センサ40から得られた第2検出情報を用いて、二次元平面からのずれを補正することで、観測雑音に対してロバストな自己位置推定を行うことができる。なお、補正部53が行う補正方法については後述する。
撮像部60は、所定の間隔毎に画像を撮像し、撮像した画像情報をコストマップ部100に出力する。撮像部60は、例えばRGB−Dカメラである。ここで、RGB−Dカメラとは、RGB画像に加えて深度画像を得ることができるカメラである。なお、撮像部60は、2台のカメラによるステレオカメラであってもよい。
第2音源定位部70(Global SSL)には、第1音源定位部20から第1音源定位情報が入力され、第1地図情報生成部50から自己位置を示す情報と二次元地図情報とが入力される。
第2音源定位部70は、第1音源定位部20によって定位された音源方位と、第1地図情報生成部50によって推定された自己位置を示す情報を用いて、フレーム毎に自己推定位置と障害物との関係を示す線分を算出し、算出した線分を示す式を反射物検出部80に出力する。なお、線分の算出方法については後述する。
反射物検出部80は、任意のフレームにおける線分と障害物との交点を算出する。そして、反射物検出部80は、算出した任意のフレームにおける線分上で算出した交点の近傍に2点を算出し、算出した2点からfフレーム(ただしfは2以上の整数)の線分までの距離の合計を算出する。次に、反射物検出部80は、算出した結果に基づいて、音響信号が直接音であるか反射音であるかを判別し、判別した判別結果を音源方向決定部90に出力する。なお、交点等の算出方法については後述する。
音源方向決定部90は、反射物検出部80から入力された判別結果に基づいて、音源方位を決定し、決定した音源定位の結果を行動生成部110に出力する。音源方向決定部90が決定した方向は、ロボット1が進むゴールである。
コストマップ部100には、第1地図情報生成部50から二次元地図情報が入力され、撮像部60から画像情報が入力される。コストマップ部100は、入力された二次元地図情報と画像情報とを統合して、図5のような地図情報を生成する。なお、二次元地図情報(SLAM)で得られたロボット1の二次元座標と向きとから、撮像部60の位置と向きとが分かるため、コストマップ部100は、撮像部60によって撮像された画像をロボット座標から投影することで、図5のような三次元地図情報を生成する。このように作成された3次元地図情報を、コストマップともいう。なお、作成されたコストマップは、行動生成部110にて、ロボット1が障害物を回避したり、次のフレームで進む方向を決定したりするために用いられる。コストマップ部100は、作成したコストマップの情報を行動生成部110に出力する。
図5は、本実施形態に係る二次元地図にRGB−D画像を合成した地図情報の一例を説明する図である。図5において、符号m111が示す領域の画像は、二次元地図情報生成部52によって生成された二次元地図情報の図である。また、符号m112が示す領域の画像は、撮像部60によって撮像された画像である。
行動生成部110には、第1地図情報生成部50からfフレーム目の自己位置情報p が入力され、音源方向決定部90から音源定位結果の方位角ψ が入力され、コストマップ部100からコストマップの情報が入力される。行動生成部110は、第1行動生成部111及び第2行動生成部112を含んで構成される。
第1行動生成部111は、入力された自己位置情報p 、音源の方位角ψ 、及びコストマップの情報に基づいて、ロボット1の行動の軌跡を示す第1の行動計画を生成する。
第2行動生成部112は、入力された自己位置情報p とコストマップの情報とに基づいて、障害物を回避するためのロボット1の第2の行動計画を生成する。
行動生成部110は、生成した第1の行動計画と第2の行動計画とを統合して行動計画を生成し、生成した行動計画を示す情報を駆動制御部120に出力する。
駆動制御部120は、行動生成部110から入力される行動計画を示す情報に応じて、ロボット1の動作を制御する駆動信号を生成し、生成した駆動信号を駆動部130に出力する。
駆動部130は、駆動制御部120から入力された駆動信号に応じて、図2に示した台座1001に組み込まれている車輪等を駆動する。
<第1の音源定位>
ここで、第1音源定位部20が行う処理について説明する。
第1音源定位部20には、所定の空間において、収音部10によって収録された不図示の音源から発せられた音が入力され、不図示の伝達関数算出部によって算出された伝達関数A(ω、ψ)が記憶されている。ここで、ωは周波数を表し、ψは、ロボット座標系から見た音源の方位角(以下、ロボット座標系から見た座標には、上付き文字rを付けて表す)である。
収音部10によって収録されたMチャネルの音響入力信号の相関行列R(ω、f)∈CM×M(なお、CM×MはM行M列の行列を表す)を、第1音源定位部20は、次式(2)のように固有値展開する。
R(ω、f)=E(ω、f)∧(ω、f)E−1(ω、f) …(2)
式(2)において、∧(ω、f)は固有値であり次式(3)のように表され、E(ω、f)は固有値ベクトルであり次式(4)のように表される。
∧(ω、f)=diag(λ(ω、f)、…、λ(ω、f)) …(3)
E(ω、f)=[e(ω、f)、…、e(ω、f)] …(4)
なお、式(3)においてdiag(・・・)は、対角行列を表す。また、固有ベクトルは、対応する固有値e(ω、f)の大きさの順番(ただしmは1以上かつM以下)に並んでいる。
空間スペクトルPは、次式(5)のように表される。
式(5)において、上付き文字*は複素共役転置演算子、Lは音源数を表す。また、ωは周波数ωの最小値、ωは周波数ωの最大値を表す。このため、式(5)の空間スペクトPは、ω≦ω≦ωで平均化されている。また、||は絶対値を表す。
第1音源定位部20は、空間スペクトルPで検出されたL個のピークを音源の方向とし、音源の方向の方位角ψを推定する。以下、fフレーム目の推定結果をψ と表す。第1音源定位部20は、推定結果ψ を第2音源定位部70に出力する。
<自己位置の補正>
次に、補正部53が行う補正について説明する。補正のための状態空間モデルは、次式(6)のように表される。
x=(Ω、p、v …(6)
式(6)において、Ωはロボット座標系から世界座標系への関係を表すオイラー角であり次式(7)のように表され、pは並進位置であり次式(8)のように表され、vは並進速度であり次式(9)のように表される。
Ω=(φ、θ、ψ) …(7)
p=(p、p、p …(8)
v=(v、v、v …(9)
なお、ロボット座標系において、高さ方向をz軸方向、床に対して平行な面をxy平面とする。式(6)〜(9)において、上付きTは、転置行列を表す。また、式(7)において、φ、θ、ψそれぞれは、ロール(roll)角、ピッチ(pitch)角、及びヨー(yaw)角である。なお、並進運動とは、剛体上の全ての点が同じ時間に同じ方向へ同じ距離移動する運動である。
第2センサ40からは、次式(10)の情報が入力される。
u=(ω、a …(10)
式(10)において、ωは姿勢角の角速度であり次式(11)のように表され、aは並進加速度であり次式(12)のように表される。
ω=(ω、ω、ω …(11)
a=(a、a、a …(12)
そして、補正モデルは、次式(13)のように表される。
式(13)において、RΩはロボット座標系から世界座標系への座標変換、EΩは第2センサ40の姿勢座標からロボットの姿勢座標への座標変換、gは重力加速度を表す。
図6は、ロボット座標系と世界座標系との関係を説明する図である。図6において、符号Sは、音源を表す。また、xはロボット座標系のx軸、yはロボット座標系のy軸である。また、xは世界座標系のx軸、yは世界座標系のy軸である。ロボット座標系をC、世界座標系をCともいう。図6に示すように、ロボット座標系Cのx軸から世界座標系Cのx軸への方位角をθ とする。そして、世界座標系Cのx軸に対するfフレーム目の音源Sの方位角をψ とする。すなわち、世界座標系Cにおいて、ロボット座標系Cのx軸から音源Sへの方位角は、θ +ψ である。
補正部53は、式(13)を用いて、ロボット座標系Cで推定した自己位置の補正と、座標系の変換とを行う。補正及び座標変換後のfフレーム目の自己位置情報p と方位角θ は、次式(14)のように表される。
第1地図情報生成部50は、生成した地図情報、補正及び座標変換後のfフレーム目の自己位置情報p を第2音源定位部70及び行動生成部110に出力する。
<第2の音源定位>
次に、第2音源定位部70が行う処理について説明する。
なお、本実施形態では、音の反射は、虚像モデル(参考文献2参照)に従うと仮定する。ここで、虚像モデルとは、壁等の障害物の向こう側に音源がある場合、壁を鏡のように見立て、この鏡面に音が反射しているとして、真の音源に対する鏡像(虚音源)を想定するモデルである。
参考文献2 J. B. Allen and D. A. Berkley, “Image method for efficiently simulating small-room acoustics”, J. Acoust. Soc. Am. vol. 65, no. 4, 943 (1979).
図7は、ロボット1が直接音に対して音源定位した場合を説明する図である。図8は、ロボット1が反射音に対して音源定位した場合を説明する図である。図7及び図8において、ロボット1の進行方向をx軸方向、ロボット1の左右方向をy軸方向とする。また、図7及び図8において、符号Lは、fフレーム毎に音源定位した結果(ψ )を表し、符号Rtrは、ロボット1が移動した軌跡を表している。また、符号Stは真の音源を表し、符号Sfは反射音による偽の音源(鏡像)を表している。
図7に示す例では、ロボット1が移動している位置から直接音を収録できる位置に、真の音源Stがある例を示している。このため、ロボット1が音源定位させた結果を示すLは、真の音源Stの位置に焦点を結ぶ。
図8に示す例では、ロボット1が移動している位置から直接音を収録できない位置に、真の音源Stがある例を示している。図8において、fフレームを1〜6フレームであるとすると、6フレーム目の位置においても鎖線fのように壁Wall2の符号Wcで囲まれた領域の壁によって直接音が遮られてしまうため、ロボット1は直接音を収録することができない。このため、ロボット1は、真の音源Stに対する壁Wall1の反対側にある反射音である鏡像(偽の音源Sf)に対して音源定位処理を行うことになる。この結果、ロボット1が音源定位させた結果を示すLは、鏡像である偽の音源Sfの位置に焦点を結ぶ。
図7及び図8を用いて説明したように、音源定位させた結果を結んだ焦点が障害物の内側(ロボット側)であるか、壁の外側であるかは、ロボット1が定位させた音源が直接音か反射音かを識別することで判別できる。
図9は、本実施形態に係る反射音検出モデルを説明する図である。なお、図9に示す例では、音源は、移動していないとする。音源は、符号cpの位置にあるとする。
図9の座標系は世界座標系Cであり、ロボット1の進行方向(紙面の縦方向)をx軸方向、ロボット1の左右方向(紙面の左右方向)をy軸方向とする。符号Rはfフレーム目におけるロボット1を表している。また、符号p は、世界座標系Cにおけるfフレーム目のロボット1の位置(座標)を表している。符号m121の領域の図は、地図情報から障害物(例えば壁)と推定された格子を表している。またドット柄の格子(例えばm122)は、空間が障害物によって塞がれているグリッドを表し、黒色の格子m123は、1フレーム目における空間が障害物によって塞がれているグリッドを表している。白色の格子(例えばm124)は、障害物がない自由な空間を表している。
第2音源定位部70は、第1音源定位部20によって推定されたfフレーム目の音源の方位角ψ と、第1地図情報生成部50から入力されたfフレーム目の自己位置情報P を用いて、音源の方向に向けた線分Г を、次式(15)のように定義する。なお、ロボット座標系Cと世界座標系Cとの関係は、図6で説明した関係である。
なお、式(15)において、x はfフレーム目の世界座標におけるx座標、y はfフレーム目の世界座標におけるy座標である。式(15)の意味合いは、点(x ,y )を通り、傾きψ +θ の直線の方程式である。
図9に示すように、第2音源定位部70は、世界座標系Cにおけるfフレーム毎に線分Г を算出することで、世界座標系Cにおけるfフレーム目の第2の音源定位を行う。第2音源定位部70は、推定した世界座標系Cにおけるfフレーム目の定位結果から生成された線分Г を示す式を反射物検出部80に出力する。
<反射物検出>
反射物検出部80には、第1地図情報生成部50から二次元地図情報、及び第2音源定位部70からfフレーム目の定位結果から生成された線分Г を示す式が入力される。
反射物検出部80は、入力された地図情報と1フレーム目の線分Г を示す式を用いて、1フレーム目の線分Г と格子との交点p〜w(次式16)を算出する。なお、ここっで、1フレーム目は、任意に時刻におけるフレームであってもよい。
なお、格子における交点は、格子における所定の位置であり、例えば、格子のy軸における中心であってもよく、格子のy軸方向の左側または右側の辺上であってもよい。
次に、反射物検出部80は、線分Г 上で、算出した交点p〜wの近傍にp 〜W(x 〜w、y 〜w)とp 〜w(x 〜w、y 〜w)の2点を次式(17)のように算出する。
式(17)において、αは、予め実験等によって定められた定数である。αは、0に近い正の値であればよく、例えば、格子の大きさに応じて決定するようにしてもよい。なお、格子の大きさは、例えば10[cm]×10[cm]である。線分Г と格子m123との交点p〜wが、例えばy軸のy11の中心の場合、近傍の2点は、格子m123があるy11列の右端と左端であってよく、例えば二点がP の外側にあるのか内側にあるのかを定義できればよい。
反射物検出部80は、式(17)で算出した2点からF本の線分Г (ただし、fは1以上かつF以下)までの距離の合計d 〜wとd 〜wとを、次式(18)を用いて算出する。
反射物検出部80は、F本の線分Г の焦点cp(図9参照)が障害物である壁の内側にあるか、または壁の外側にあるかを、算出したd 〜wとd 〜wとの関係によって判別する。
反射物検出部80は、d 〜wがd 〜w未満である場合、F本の線分から形成される焦点cpが壁の内側であると判別し、定位された音が直接音であると判定する。一方、反射物検出部80は、d 〜wがd 〜w未満である場合以外、F本の線分から形成される焦点cpが壁の外側であると判別し、定位された音が反射音であると判定する。反射物検出部80は、反射音と判別した音源定位の結果を棄却することで、反射音にロバストな音源定位を得ることができる。
反射物検出部80は、音源定位した結果が、直接音であるか反射音であるかを示す情報を音源方向決定部90に出力する。
<音源の方向の決定>
次に、音源方向決定部90が行う処理について説明する。
音源方向決定部90は、反射物検出部80から入力された音源定位の結果に基づいて、真の音源に対する音源がある方向を決定する。例えば、図7に示した例において、音源方向決定部90は、符号Sfの方向を真の音源の方向であると決定する。この場合、音源方向決定部90は、第1音源定位部20で推定されたfフレーム目の推定結果である方位角ψ を世界座標系Cwに変換した結果であるψ を行動生成部110に出力する。
一方、図8に示した例において、音源方向決定部90は、符号Sfの方向を真の音源の方向であると決定する。この場合、第1音源定位部20で推定されたfフレーム目の推定結果である方位角ψ は反射音による鏡像であるため、音源方向決定部90は、推定した方位角ψ と壁の位置に基づいて、真の音源の方位角ψ を算出する。そして、音源方向決定部90は、算出した真の音源の方位角ψ を世界座標系Cに変換した結果であるψ を行動生成部110に出力する。
<行動生成部の処理>
次に、行動生成部110が行う処理の一例を説明する。
第1行動生成部111は、入力された自己位置情報p 、音源の方位角ψ 、及びコストマップの情報に基づいて、図7及び図8の符号Rtrのようなロボット1の行動の軌跡を生成する。例えば図7に示す例において、第1行動生成部111は、推定された音源が真の音源であるため、音源Stに近づいていくような行動の軌跡Rtrを生成する。一方、図8に示す例において、第1行動生成部111は、音源方向決定部90によって決定された真の音源Stに近づいていくような行動の軌跡Rtrを生成する。これにより、ロボット1は、壁Wcによって直接音を収録できない場合であっても、真の音源の位置に向かって移動することができる。
第2行動生成部112は、入力された自己位置情報p とコストマップの情報とに基づいて、障害物を回避するためのロボット1の行動計画を生成する。例えば、図7または図8に示す例において、第2行動生成部112は、ロボット1が壁Wall1及びWall2に衝突しない行動計画を生成する。また、図8に示す例において、第2行動生成部112は、第1音源定位部によって音源があると推定した方向に壁Wall1があるため、推定した音源は鏡像であり、かつ鏡像の方向には壁Wall1があるため、壁Wall1に衝突しない行動計画を生成する。
ここで、図8に示す例において、仮に符号Sfに示す位置に真の音源がある場合、第1行動生成部111は、ロボット1は、真の音源に近づいていくような行動の軌跡Rtrを生成する。しかしながら、音源方向決定部90によって真の音源が壁Wall1の向こう側にあり、かつ第2行動生成部112によって、真の音源がある方向に壁Wall1があることに基づいて行動計画が生成されるため、ロボット1は、壁Wall1に衝突することを回避することができる。
次に、ロボット1が行う処理手順の一例を説明する。
図10は、本実施形態に係るロボット1が行う処理のフローチャートである。
(ステップS1)収音部10は、M個のチャネルの音響信号を収録し、収録したMチャネルの音響信号を第1音源定位部20に送信する。
(ステップS2)第1音源定位部20は、収音部10によって収録されたM個それぞれのFフレーム分の音響信号を用いて、記憶されている伝達関数Aによって、例えばMUSIC法、ビームフォーミング法等を用いて、fフレーム目の音源の方向である方位角ψ を推定する。
(ステップS3)第1センサ30は、例えば、レーザ光を照射しながら、検知対象の空間を所定のピッチでスキャンして、物体に反射して戻ってくるまでの時間を測定することで、物体との距離と方向を検出する。第1センサ30は、検出した物体との距離と方向を含む情報を第1検出情報として無線または有線によって第1地図情報生成部50に出力する。
(ステップS4)二次元地図情報生成部52は、第1センサ30から入力された第1検出情報を用いて、例えばHector SLAM法を用いて、二次元の地図情報を生成する。
(ステップS5)二次元自己位置推定部51は、例えばHector SLAM法によって、第1センサ30から入力された第1検出情報を用いて、自身のグローバル座標系における位置と傾きを推定する。
(ステップS6)第2センサ40は、例えば、3軸のジャイロと3方向の加速度計によって、3次元の角速度と加速度を検出し、検出した検出結果を第2検出情報として第1地図情報生成部50に出力する。次に、補正部53は、第2センサ40から入力された第2検出情報を取得する。
(ステップS7)補正部53は、第2センサ40から入力された第2検出情報を用いて、二次元自己位置推定部51が推定した自己位置を補正する。
(ステップS8)撮像部60は、所定の間隔毎に画像を撮像し、撮像した画像情報をコストマップ部100に出力する。次に、コストマップ部100は、撮像部60から入力された画像情報を取得する。
(ステップS9)コストマップ部100は、第1地図情報生成部50から入力された二次元地図情報と、撮像部60から入力された画像情報とを統合して、コストマップである三次元地図情報を生成する。
(ステップS10)第2音源定位部70は、第1音源定位部20によって推定されたfフレーム目の音源の方位角ψ と、第1地図情報生成部50から入力されたfフレーム目の自己位置情報P を用いて、音源の方向に向けた線分Г を、式(15)を用いてフレーム毎に算出する。
(ステップS11)反射物検出部80は、入力された地図情報と1フレーム目の線分Г を示す式を用いて、1フレーム目の線分Г と格子との交点p〜wを、式(16)を用いて算出する。
(ステップS12)反射物検出部80は、線分Г 上で、算出した交点p〜wの近傍にp 〜W(x 〜w、y 〜w)とp 〜w(x 〜w、y 〜w)の2点を、式(17)を用いて算出する。
(ステップS13)反射物検出部80は、ステップS12で算出した2点からF本の線分Г (ただし、fは1以上かつF以下)までの距離の合計d 〜wとd 〜wとを、式(18)を用いて算出する。
(ステップS14)反射物検出部80は、F本の線分Г の焦点が障害物である壁の内側にあるか、または壁の外側にあるかを、算出したd 〜wとd 〜wとの関係によって判別する。
(ステップS15)反射物検出部80は、d 〜wがd 〜w未満である場合(ステップS15;YES)、ステップS16に進み、d 〜wがd 〜w以上である場合(ステップS15;NO)、ステップS17に進む。
(ステップS16)反射物検出部80は、F本の線分から形成される焦点が壁の内側であると判別し、定位された音が直接音であると判定する。反射物検出部80は、処理をステップS18に進める。
(ステップS17)反射物検出部80は、F本の線分から形成される焦点が壁の外側であると判別し、定位された音が反射音であると判定する。反射物検出部80は、処理をステップS18に進める。
(ステップS18)行動生成部110は、入力された自己位置情報p 、音源の方位角ψ 、及びコストマップ部100が生成したコストマップの情報に基づいて、ロボット1の行動計画を生成する。
(ステップS19)駆動制御部120は、行動生成部110から入力される行動計画に応じて、ロボット1の動作を制御する駆動信号を生成し、生成した駆動信号を駆動部130に出力する。次に、駆動部130は、駆動制御部120から入力された駆動信号に応じて、台座1001(図2参照)に組み込まれている車輪等を駆動する。
なお、ロボット1は、以上の処理を、例えば所定の時間毎に繰り返して行う。
なお、駆動制御部120は、音源Stが壁の内側(ロボット1側)の場合の方が、音源が壁の外側の場合よりロボット1の移動速度が速くなるように、制御してもよい。すなわち、音源定位の結果が直接音である場合、その方向(第2の方向)に向けてロボット1を移動させることになるので、ロボット1を例えば0.5[m/s]の速度で移動させることができる。一方、音源定位させた音が、壁の向こう側にある場合、定位させた方向にロボット1を進めると壁に衝突することもありえる。このため、ロボット1は、反射物を検出しつつ、地図情報に基づいて、壁に衝突しない方向(第1の方向)に向けてロボット1を移動させる。この結果、ロボット1の移動速度は、障害物を回避するように、例えば0.5[m/s]より遅い速度で移動させるようにしてもよい。
<実験結果>
次に、本実施形態のロボット1を用いて行った実験結果の一例を説明する。
図11は、実験に用いた通路1を上から見た図である。図12は、実験に用いた通路2を上から見た図である。図11及び図12において、ロボット1の進行方向をx軸方向、ロボット1の左右方向をy軸方向とする。また、図11及び図12に示す通路の残響時間(RT20)は、0.4[秒]である。
図11に示す通路1は、T字路を有する通路であり、左側に壁W11とW12とがあり、右側に壁W13がある。T字路は、図11に示すように壁W11とW12とによって形成されている。壁W11とW12とによるT字路の幅は1.7[m]である。また、壁W11または壁W12と、壁W13との幅は2.0[m]である。なお、通路1及び通路2は、具体的には廊下の一部の領域である。
また、図11において、符号A11に示す位置は、ロボット1の移動開始位置である。この移動開始位置の座標を(0,0)とする。座標が(6,0)である符号A12に示す位置は、ロボット1の移動終了位置である。行動計画により、ロボット1は、移動開始位置A11から、中間位置(座標(3,0))を経て、移動終了位置A12まで移動する。音源Stは、T字路内の座標(3,1)に配置されている。なお、音源Stの位置は、固定されている。また、符号Sfは、音源Stの鏡像であり、真の音源Stに対して壁W12を線対称とした位置である座標(3,−3)に現れる。
図11に示す例において、ロボット1は、およそ座標(0,0)〜(1,0)の間、及びおよそ座標(5,0)〜(6,0)の間、音源Stの直接音を収録できない。ロボット1は、およそ座標(2,0)〜(5,0)の間、音源Stの直接音を収録できる。
図12に示す通路2は、左側の壁W21と右側の壁W22に挟まれた略直線の通路である。壁W21と、壁W22との幅は2.0[m]である。なお、図11及び図12において、壁(W11〜W13、W21、W22)は、音が反射しやすいガラス壁である。
また、図12において、座標が(0,0)である符号A21に示す位置は、ロボット1の移動開始位置である。座標が(4,0)である符号A22に示す位置は、ロボット1の移動終了位置である。行動計画により、ロボット1は、移動開始位置A21から、中間位置(座標(2,0))を経て、移動終了位置A22まで移動する。音源Stは、壁W21と壁W22との間の通路内の座標(6,0)に配置されている。なお、音源Stの位置は、固定されている。また、符号Sf1は、音源Stの鏡像であり、真の音源Stに対して壁W21を線対称とした位置である座標(6,1)に現れる。符号Sf2は、音源Stの鏡像であり、真の音源Stに対して壁W22を線対称とした位置である座標(6,−1)に現れる。
図12に示す例では、ロボット1は、移動開始位置A11〜移動終了位置A12において、音源Stの直接音を収録できるが、壁がガラスのため反射音も収録することになる。
実験に用いた収音部10は、7個のマイクロホンを備えている。また、図11に示した通路1、及び図12に示した通路2において、この収音部10を用いて5度毎に伝達関数A(ω、ψ)を予め測定した。また、第1音源定位部20は、収録した音響信号をサンプリング周波数が16[kHz]、量子化のビット数が16[bits]でサンプリングを行った。また、短時間フーリエ変換の窓長、シフト長さそれぞれは、512、160サンプリングとした。また、第1音源定位部20は、MUSIC法を用いて音源定位処理を行った。
実験では、図11において、移動開始位置A11から移動終了位置A12までロボット1を5回移動させて、T字路の角度の平均誤差を算出した。なお、T字路の場合は、1.57[rad](90度)からの角度のずれをフレーム毎に算出した。
また、図12において、移動開始位置A21から移動終了位置A22までロボット1を5回移動させて、距離の平均誤差を算出した。
図11及び図12に示したように、ロボット1は、壁(W11〜W13、W21、W22)それぞれから1[m]離れている。平均誤差は、法線方向のずれをフレーム毎に実験者が算出し、その平均を算出した。
図13は、T字路を含む通路1における測定結果を説明する図である。図14は、通路2における測定結果を説明する図である。図13及び図14において、縦軸は平均誤差[rad]、横軸は試行回数[回目]を表す。
図13において、符号g11〜g15が示す画像は、本実施形態による各試行回数における平均誤差を表し、符号g21〜g25が示す画像は、比較例による各試行回数における平均誤差を表す。また、図14において、符号g31〜g35が示す画像は、本実施形態による各試行回数における平均誤差を表し、符号g41〜g45が示す画像は、比較例による各試行回数における平均誤差を表す。ここで、比較例では、第2センサ40の測定結果によって自己位置の補正を行わず、Hector SLAM手法を用いて地図情報の作成及び自己位置推定を行った。
図13に示すように、T字路を含む通路1(図11)において、本実施形態の手法の5回の平均誤差の平均値は0.026[rad]であり、比較例の手法の5回の平均誤差の平均値は0.073[rad]であった。
また、図14に示すように、通路2(図12)において、本実施形態の手法の5回の平均誤差の平均値は0.058[rad]であり、比較例の手法の5回の平均誤差の平均値は0.150[rad]であった。
図13及び図14に示した実験結果のように、本実施形態は、距離及び角度に関係なく、比較例と比べて50〜70[%]程度、平均誤差を軽減することができた。
次に、反射物検出部80の有無による残響環境下のロボット1の音源定位の性能を測定した結果の一例を説明する。測定環境は、図11及び図12である。ロボット1は、移動開始位置から移動終了位置まで、0.5[m/s]の速さで環境を移動し、50[ms]毎に音源定位処理を行った。そして、フレーム正解率(許容誤差を5[deg]として正解である方向に定位できたフレーム数)を、観測者が算出した。
図15は、音源定位に関する測定結果の一例を説明する図である。
図15において、ロボット1の移動距離が同じであっても音源定位したフレーム数が通路1と通路2とで異なっている理由は、実際にロボット1を移動開始位置から移動終了位置まで移動させた場合、制御によって移動速度に誤差が含まれているためである。
通路1において、反射物検出部80を用いないで音源定位処理を行った場合のフレーム正解率が84.1[%]、反射物検出部80を用いて音源定位処理を行った場合のフレーム正解率が92.5[%]であった。
また、通路2において、反射物検出部80を用いないで音源定位処理を行った場合のフレーム正解率が42.4[%]、反射物検出部80を用いて音源定位処理を行った場合のフレーム正解率が49.4[%]であった。
このように、通路1及び通路2において、反射音を含む音源定位において、本実施形態によればフレーム正解率を7〜8[%]向上させることができた。
次に、コストマップ部100が、二次元地図情報に、撮像部60が撮像した画像に基づく三次元画像を投影した測定結果の一例を説明する。
図16は、本実施形態に係る二次元地図情報に撮像部60が撮像した3次元画像を投影した測定結果の一例を説明する図である。
図16において、符号Stは、音源を示し、符号m201が示す領域の画像は、二次元地図情報を示し、符号m202が示す領域の画像は、撮像部60が撮像した3次元画像を示す。また、符号m203が示す領域の画像は、地図情報が作成されていない領域の画像である。符号Rftで示す領域の画像は、ロボット1の移動した軌跡を示す画像である。
図16に示す例では、ロボット1の正面で人間(音源St)が話している状況である。符号SSLで示す領域の画像は、ロボット1が音源定位処理を行った結果を示す画像である。符号SSLが示す領域の画像のように、ロボット1は、正しく音源Stの方向に定位できていることを示している。
以上のように、本実施形態の自律行動ロボット(例えばロボット1)は、音響信号を収録する収音部(例えば収音部10)と、収録された音響信号を用いて音響信号に対する音源の方向を推定する音源定位部(例えば第1音源定位部20)と、所定の範囲に対して距離に関する測定を行う距離測定部(例えば第1センサ30)と、距離の情報を用いて、二次元地図情報を生成かつ自律行動ロボットの自己位置を推定する地図情報生成部(例えば第1地図情報生成部50)と、二次元地図情報と、推定された自己位置の情報と、推定された音源の方向とに基づいて、音響信号が反射物による反射音であるか音源からの直接音であるかを判別することで、音源の方向を推定し直す音源方向決定部(例えば第2音源定位部70、反射物検出部80、音源方向決定部90)と、二次元地図情報と、音源方向決定部によって推定された音源の方向とに基づいて、音響信号が反射音であると判別した場合、第1の方向へ移動する行動計画を生成し、音響信号が直接音であると判別した場合、第1の方向とは異なる第2の方向へ移動する行動計画を生成する行動生成部(例えば行動生成部110)と、行動計画に応じて自律行動ロボットを制御する制御部と、を備える。
この構成によって、本実施形態のロボット1は、収録した音響信号と地図情報に基づいて、収録した音響信号が直接音か反射音かを判別することができる。そして、本実施形態のロボット1は、ロボット1のいる位置から直接音を収音できない場合、第1の方向へロボット1を移動させ、ロボット1のいる位置から直接音を収音できる場合、第1の方向とは異なる第2の方向へロボット1を移動させることができる。この結果、本実施形態によれば、スムーズにロボット1を移動させることができる。
また、本実施形態の自律行動ロボット(例えばロボット1)において、第2の方向は、第1の方向より前記音源に向いた方向である。
この構成によって、本実施形態のロボット1は、壁等によって音源からの音響信号を直接収録できない場合であっても残響音を用いて音源定位を行い、音源定位した音源が直接音か反射音かを判別する。この結果、本実施形態によれば、判別結果に応じてロボット1を行動させることができるので、ロボット1を音源の方向へスムーズに移動させることができる。
また、本実施形態の自律行動ロボットにおいて、自律行動ロボットの角速度と加速度とを検出する検出部(例えば第2センサ40)、を備え、地図情報生成部(例えば第1地図情報生成部50)は、検出部が検出した検出結果を用いて、推定した自己位置を補正する。
この構成によって、本実施形態のロボット1は、距離センサであるLRFのみを用いて、地図の生成及び自己位置を推定する場合と比較して、ロボット1が移動する床や地面が不整地であるような場合にであっても、距離の推定誤差及び角度の推定誤差を軽減することができる。
また、本実施形態の自律行動ロボットにおいて、音源方向決定部(例えば第2音源定位部70、反射物検出部80、音源方向決定部90)は、音源定位部(例えば第1音源定位部20)によって定位された音源の方向と、地図情報生成部(例えば第1地図情報生成部50)によって推定された自己位置を示す自己推定位置を用いて、フレーム毎に自己推定位置と障害物との関係を示す線分を算出し、任意のフレームにおける線分と障害物との交点を算出し、任意のフレームにおける線分上で算出した交点の近傍に2点を算出し、決定した2点からfフレーム(ただしfは2以上の整数)の線分までの距離の合計を算出し、算出した結果に基づいて、音響信号が直接音であるか反射音であるかを判別する。
この構成によって、本実施形態のロボット1は、音源定位部によって定位された音源方位と地図情報生成部によって推定された自己位置を示す情報を用いて、推定された音響信号が直接音であるか反射音であるかを判別することができる。本実施形態では、この判別結果に応じて、自律行動ロボットを音源の方向へスムーズに移動させることができる。
また、本実施形態の自律行動ロボットにおいて、前記第1の方向よりも前記第2の方向へ向かって進行しているときの方が移動速度の速い。
この構成によって、本実施形態のロボット1は、収録した音響信号の種類に応じてロボット1の移動速度を変えることができるので、ロボットを音源の方向へスムーズに移動させることができる。
なお、本実施形態において、第1地図情報生成部50は、第1センサ30が検出した第1検出情報に基づいて二次元地図情報を生成する例を説明したが、これに限られない。
例えば、第1地図情報生成部50は、撮像部60が撮像した画像を取得し、取得した画像を周知の手法を用いて画像認識を行うことで、壁等の障害物を判別して、図4等に示した格子地図情報を生成するようにしてもよい。
また、本実施形態において、行動生成部110がロボット1を、障害物を回避させ且つ音源の方向へ移動させるような行動計画を生成する例を説明したが、これに限られない。
例えば、収音部10が集音した音響信号の特徴量を抽出し、音響信号の種類を推測する。そして、行動生成部110は、推測された音響信号が、例えば予め定められている記憶されている警告音などの場合、音源の方向へ移動させるのみではなく、アーム部等も制御して、所定の作業を行わせるような行動計画を生成するようにしてもよい。この場合、駆動部130は、左腕1003(含むハンド部)、右腕1004(含むハンド部)、及び頭部1005も駆動するようにしてもよい。
<第2実施形態>
図17は、本実施形態に係る自律行動可能なロボット1Aの構成を示すブロック図である。図17に示すように、ロボット1Aは、収音部10、第1音源定位部20、第1センサ30(距離測定部)、第2センサ40(検出部)、第1地図情報生成部50(地図情報生成部)、撮像部60、第2音源定位部70(音源方向決定部)、反射物検出部80(音源方向決定部)、音源方向決定部90、コストマップ部100A、行動生成部110A、駆動制御部120、駆動部130、及び第2地図情報生成部140(地図情報生成部)を含んで構成される。なお、第1実施形態のロボット1(図1)と同じ機能を有する機能部については、同じ符号を用いて説明を省略する。
撮像部60は、所定の間隔毎に画像を撮像し、撮像した画像情報を第2地図情報生成部140に出力する。撮像部60は、例えばRGB−Dカメラである。ここで、RGB−Dカメラとは、RGB画像に加えて深度画像を得ることができるカメラである。なお、撮像部60は、2台のカメラによるステレオカメラであってもよい。
第2地図情報生成部140は、三次元自己位置推定部141(Global 3D Self−Localization)、及び三次元地図情報生成部142(Global 3D Occupancy Grid Map Generation)を備えている。
三次元自己位置推定部141及び三次元地図情報生成部142は、三次元のSLAM法(3D SLAM;例えば、参考文献3〜5参照)を用いて、三次元地図情報の生成と自己位置推定を同時に行う。
参考文献3 A. Huang et al., “Visual Odometry and Mapping for Autonomous Flight Using an RGB-D Camera”, in Proc. of Int. Symposium on Robotics Research (ISRR), 2011
参考文献4 F. Endres et al., “An Evaluation of the RGB-D SLAM System”, in Proc. of the IEEE Int. Conf. on Robotics and Automation (ICRA), pp. 1691-1696, 2012
参考文献5 I. Dryanovski, R. G. Valenti, J. Xiao, “Fast Visual Odometry and Mapping from RGB-D Data”, in Proc. of the IEEE Int. Conf. on Robotics and Automation (ICRA), pp. 2305-2310, 2013
三次元自己位置推定部141は、三次元のSLAM法によって、撮像部60から入力された画像を用いて、ロボット座標系における三次元における位置p (x 、y 、z )と方位角(roll,pitch,yaw)を推定し、推定した結果を行動生成部110Aに出力する。なお、本実施形態では、第2地図情報生成部140が、三次元自己位置推定部141及び三次元地図情報生成部142を備える例を説明したが、これに限られない。第2地図情報生成部140は、三次元自己位置推定部141を備えていなくてもよい。この場合、位置の推定は、二次元自己位置推定部51が推定した結果のみを用いるようにしてもよい。
三次元地図情報生成部142は、撮像部60から入力された画像を用いて、三次元のSLAM法を用いて、図18のように三次元の地図情報を生成し、生成した三次元地図情報をコストマップ部100Aに出力する。図18は、三次元のSLAM法によって生成された三次元地図の一例を説明する図である。ただし、本実施形態において、三次元地図情報生成部142が生成する三次元地図情報は、第1実施形態の図5と同様にfフレーム毎にロボット1Aから所定の範囲のみである。
コストマップ部100Aには、第1地図情報生成部50から二次元地図情報が入力され、第2地図情報生成部140から三次元地図情報が入力される。コストマップ部100Aは、入力された二次元地図情報と三次元地図情報とを統合して、図5のような地図情報を生成し、生成した地図情報を行動生成部110Aに出力する。
行動生成部110Aは、第1行動生成部111A及び第2行動生成部112Aを含んで構成される。行動生成部110Aには、第1地図情報生成部50からfフレーム目の自己位置情報p が入力され、第2地図情報生成部140からfフレーム目の自己位置情報p が入力され、音源方向決定部90から音源定位結果の方位角ψ が入力され、コストマップ部100Aからコストマップの情報が入力される。
行動生成部110Aは、第1地図情報生成部50で生成された地図情報を主に用いる。そして、行動生成部110Aは、第1地図情報生成部50で生成された地図情報を用いて自己推定をしているときに、自己推定位置が大きく狂ってしまうキッドナップ問題の症状が発生した場合、第2地図情報生成部140から入力されたfフレーム目の自己位置情報p を用いて、地図情報や自己位置推定情報をリセットする。
第1行動生成部111Aは、第1地図情報生成部50から入力された自己位置情報p 、音源の方位角ψ 、及びコストマップの情報に基づいて、ロボット1の行動の軌跡である第1の行動計画を生成する。
第2行動生成部112Aは、自己位置情報p とコストマップの情報とに基づいて、障害物を回避するためのロボット1の第2の行動計画を生成する。
行動生成部110Aは、生成した第1の行動計画と第2の行動計画とを統合して行動計画を生成し、生成した行動計画を示す情報を駆動制御部120に出力する。
次に、ロボット1Aが行う処理手順の一例を説明する。
図19は、本実施形態に係るロボット1Aが行う処理のフローチャートである。なお、図10を用いて説明した第1実施形態と同じ処理については、同じ符号を用いて説明を省略する。
(ステップS1〜S8)ロボット1は、ステップS1〜S8の処理を、第1実施形態の図10と同様に行い、処理をステップS101に進める。
(ステップS101)三次元地図情報生成部142は、撮像部60から入力された画像を用いて、三次元のSLAM法を用いて、図18のように三次元の地図情報を生成し、生成した三次元地図情報をコストマップ部100Aに出力する。
(ステップS102)三次元自己位置推定部141は、三次元のSLAM法によって、撮像部60から入力された画像を用いて、ロボット座標系における三次元における位置と傾きを推定し、推定した結果を行動生成部110Aに出力する。
(ステップS103)コストマップ部100Aは、入力された二次元地図情報と三次元地図情報とを統合して地図情報を生成し、生成した地図情報を行動生成部110Aに出力する。コストマップ部100Aは、処理をステップS10に進める。
(ステップS10〜S15)ロボット1は、ステップS10〜S15の処理を、第1実施形態の図10と同様に行う。
(ステップS16)反射物検出部80は、F本の線分から形成される焦点が壁の内側であると判別し、定位された音が直接音であると判定する。反射物検出部80は、処理をステップS104に進める。
(ステップS17)反射物検出部80は、F本の線分から形成される焦点が壁の外側であると判別し、定位された音が反射音であると判定する。反射物検出部80は、処理をステップS104に進める。
(ステップ104)行動生成部110Aは、第1地図情報生成部50で生成された地図情報を主に用いる。そして、行動生成部110Aは、第1地図情報生成部50で生成された地図情報を用いて自己推定をしているときに、自己推定位置が大きく狂ってしまうキッドナップ問題の症状が発生した場合、第2地図情報生成部140から入力されたfフレーム目の自己位置情報p を用いて、地図情報や自己位置推定情報をリセットする。次に行動生成部110Aは、第1地図情報生成部50から入力された位置情報p と、音源方向決定部90から入力された音源の方位角ψ 、及びコストマップ部100Aが生成したコストマップの情報に基づいて、ロボット1の行動計画を生成する。行動生成部110Aは、処理をステップS19に進める。
(ステップS19)ロボット1は、ステップS19の処理を、第1実施形態の図10と同様に行う。
なお、ロボット1は、以上の処理を、例えば所定の時間毎に繰り返して行う。
以上のように、本実施形態の自律行動ロボット(例えばロボット1A)は、画像を撮像する撮像部(例えば撮像部60)と、生成された二次元地図情報と、撮像された画像に基づく三次元画像を用いた三次元地図情報とを統合する統合部(例えばコストマップ部100A)と、を備え、行動生成部(例えば行動生成部110A)は、統合部によって統合された地図情報を用いて行動計画を生成する。
この構成によって、本実施形態のロボット1は、全ての位置に置いて三次元地図情報を生成するのではなく、所定の領域のみ三次元地図情報を二次元地図情報に統合して三次元地図情報を生成する。この結果、本実施形態のロボット1は、視覚情報(撮像画像)を用いた精度の良い三次元地図情報を、全ての領域で三次元地図情報を生成する場合と比較して低い計算負荷で得ることができる。
なお、第1実施形態と同様に、駆動制御部120は、音源Stが壁の内側(ロボット1側)の場合の方が、音源が壁の外側の場合よりロボット1の移動速度が速くなるように、制御してもよい。
また、本実施形態では、第1地図情報生成部50及び第2地図情報生成部140の2つの地図情報生成部を備える例を説明したが、地図情報生成部が1つでもよい。この場合、1つの地図情報生成部が、二次元地図情報の生成、二次元地図における自己位置の推定、三次元地図情報の生成、及び三次元地図における自己位置の推定を行うようにしてもよい。
また、第1実施形態及び第2実施形態では、自律行動ロボットの例として、床の上を走行するロボット(1または1A)を説明したが、これに限られない。自律行動ロボットは、図1または図17の構成を備える移動体であればよく、例えば飛行体であってもよい。飛行体は、2以上の数のローターを搭載した回転翼機、例えばマルチコプター、クワドロコプターであってもよい。
また、本実施形態では、障害物の例として壁を用いて説明したが、障害物はこれに限られない。ロボット(1または1A)が収音部10で収音するときに、音響信号を遮る物体、例えば衝立、屏風、パーテーション、看板等であってもよい。
また、第1実施形態及び第2実施形態では、撮像部60が撮像した画像を地図情報の生成に用いる例を説明したが、これに限られない。例えば、撮像部60が撮像した画像を、例えば行動生成部(110、または110A)が周知の手法を用いて画像認識することで、音源の種類を推定するようにしてもよい。ここで、音源の種類とは、例えば、人間、スピーカ、ロボット、警告音を報知している装置等である。このように、音源の種類を推定する場合、行動生成部(110、または110A)は、推定された音源の種類に応じて、行動計画を生成するようにしてもよい。例えば、警告音を報知している装置であると推定された場合、行動生成部(110、または110A)は、装置に表示部がある場合は、装置に近づき、表示部の画像を撮像部60で撮像するようにしてもよい。そして、行動生成部(110、または110A)は、行動生成部(110、または110A)は、撮像した画像を、生成した三次元地図情報、自己位置情報、音源の方位等の情報を、不図示の通信装置を用いて、不図示の管理センター等へ送信するようにしてもよい。
また、ロボット(1、または1A)は、音源や移動中に存在する物体に、物体を識別できる識別画像が含まれている場合、その画像を含む画像を撮像部60で撮像し、撮像した画像を周知の手法で画像認識するようにしてもよい。例えば、第2実施形態において、第2地図情報生成部140が、画像から識別情報を認識し、認識した結果を地図情報に埋め込むようにしてもよい。
また、第1実施形態及び第2実施形態では、二次元地図情報の生成と自己位置推定をHector SLAM法を用いて生成、推定する例を説明したが、他の周知の手法を用いて二次元地図情報の生成と自己位置推定を行うようにしてもよい。また、地図情報生成と自己位置推定は、それぞれ異なる手法を用いてもよい。
また、第1実施形態及び第2実施形態では、反射物検出部80が第1地図情報生成部50によって生成された二次元地図情報を用いる例を説明したが、これに限られない。例えば、コストマップ部100(または100A)が統合した三次元地図情報における二次元地図情報を用いるようにしてもよい。
以上のように、第1実施形態及び第2実施形態では、三次元SLAMを直接行わず、高速な二次元SLAMによって二次元地図情報を生成し、この二次元地図情報に撮像部60によって撮像された画像を統合することで、ロボット1の行動計画を生成する上で必要な範囲で三次元地図情報を生成するようにした。この結果、本実施形態によれば、三次元地図情報を実時間で取得することができる。
また、本実施形態では、第1センサ30を用いて推定した自己位置情報を、第2センサ40が検出した第2検出情報を用いて補正するようにしたので、不整地であっても角度及び距離に関して、推測誤差を軽減することができる。
また本実施形態では、音源定位させた音響信号が障害物の向こう側にあるのか、ロボット側にあるのかを判別するため、上述したようにFフレーム分合計した2つの値の関係に基づいて判別するようにした。この結果、従来技術と比較して、反射音であるか直接音であるかを判別するための演算負荷を軽減することができる。
なお、本発明におけるロボット1(または1A)の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより音源の方向の推定、障害物の推定、直接音か反射音かの判別、地図情報の生成等の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1、1A…ロボット、10…収音部、20…第1音源定位部、30…第1センサ、40…第2センサ、50…第1地図情報生成部、51…二次元自己位置推定部、52…二次元地図情報生成部、53…補正部、60…撮像部、70…第2音源定位部、80…反射物検出部、90…音源方向決定部、100、100A…コストマップ部、110、110A…行動生成部、111、111A…第1行動生成部、112、112A…第2行動生成部、120…駆動制御部、130…駆動部、140…第2地図情報生成部、141…三次元自己位置推定部、142…三次元地図情報生成部

Claims (10)

  1. 音響信号を収録する収音部と、
    前記収録された前記音響信号を用いて前記音響信号に対する音源の方向を推定する音源定位部と、
    所定の範囲に対して距離に関する測定を行う距離測定部と、
    前記距離の情報を用いて、二次元地図情報を生成かつ自律行動ロボットの自己位置を推定する地図情報生成部と、
    前記二次元地図情報と、前記推定された自己位置の情報と、前記推定された音源方向とに基づいて、前記音響信号が反射物による反射音であるか前記音源からの直接音であるかを判別することで、前記音源の方向を推定し直す音源方向決定部と、
    前記二次元地図情報と、前記音源方向決定部によって推定された音源の方向とに基づいて、前記音響信号が反射音であると判別した場合、第1の方向へ移動する行動計画を生成し、前記音響信号が直接音であると判別した場合、前記第1の方向とは異なる第2の方向へ移動する行動計画を生成する行動生成部と、
    前記行動計画に応じて前記自律行動ロボットを制御する制御部と、
    を備える自律行動ロボット。
  2. 前記第2の方向は、前記第1の方向より前記音源に向いた方向である請求項1に記載の自律行動ロボット。
  3. 前記自律行動ロボットの角速度と加速度とを検出する検出部、を備え、
    前記地図情報生成部は、前記検出部が検出した検出結果を用いて、前記推定した自己位置を補正する請求項1または請求項2に記載の自律行動ロボット。
  4. 画像を撮像する撮像部と、
    前記生成された二次元地図情報と、前記撮像された画像に基づく三次元画像を用いた三次元地図情報とを統合する統合部と、を備え、
    前記行動生成部は、前記統合部によって統合された地図情報を用いて行動計画を生成する請求項1から請求項3のいずれか1項に記載の自律行動ロボット。
  5. 前記音源方向決定部は、
    前記音源定位部によって定位された前記音源の方向と、前記地図情報生成部によって推定された自己位置を示す自己推定位置を用いて、フレーム毎に前記自己推定位置と障害物との関係を示す線分を算出し、任意のフレームにおける前記線分と前記障害物との交点を算出し、前記任意のフレームにおける前記線分上で前記算出した交点の近傍に2点を算出し、決定した前記2点からfフレーム(ただしfは2以上の整数)の前記線分までの距離の合計を算出し、前記算出した結果に基づいて、前記音響信号が直接音であるか反射音であるかを判別する請求項1から請求項4のいずれか1項に記載の自律行動ロボット。
  6. 前記音源方向決定部は、
    前記音源定位部によって定位された前記音源の方向と、前記地図情報生成部によって推定された自己位置を示す情報を用いて、フレーム毎に前記自己推定位置と障害物との関係を示す前記線分Г を、次式を用いて算出する請求項5に記載の自律行動ロボット。
    (なお、ψ はfフレーム目のロボット座標系Cのx軸に対するfフレーム目の音響信号への方位角、θ はロボット座標系Cのx軸から世界座標系Cのx軸への方位角、yは世界座標系におけるy座標、xは世界座標系におけるx座標、y はfフレーム目における世界座標系におけるy座標、x はfフレーム目における世界座標系におけるx座標である)
  7. 前記音源方向決定部は、
    前記任意のフレームにおける前記線分上で前記算出した交点の近傍に、2点p 〜Wとp 〜Wとを、次式を用いて算出する請求項5または請求項6に記載の自律行動ロボット。
    (なお、p〜Wは前記任意のフレームにおける前記線分と前記障害物との交点、p は世界座標系Cにおける1フレーム目の前記自律行動ロボットの座標、αは予め定められている値である)
  8. 前記音源方向決定部は、
    算出した前記2点からfフレームの前記線分までの距離の合計d 〜Wとd 〜Wとを、次式を用いて算出し、
    前記算出したd 〜wがd 〜w未満である場合、前記音響信号が直接音であると判別し、前記算出したd 〜wがd 〜w未満以外である場合、前記音響信号が反射音であると判別する請求項5から請求項7のいずれか1項に記載の自律行動ロボット。
  9. 前記第1の方向よりも前記第2の方向へ向かって進行しているときの方が移動速度の速い請求項1から請求項8のいずれか1項に記載の自律行動ロボット。
  10. 収音部が、音響信号を収録する収音手順と、
    音源定位部が、前記収音手順によって収録された前記音響信号を用いて前記音響信号に対する音源の方向を推定する音源定位手順と、
    距離測定部が、所定の範囲に対して距離に関する測定を行う距離測定手順と、
    地図情報生成部が、前記距離測定手順によって測定された前記距離の情報を用いて、二次元地図情報を生成かつ自律行動ロボットの自己位置を推定する地図情報生成手順と、
    音源方向決定部が、前記二次元地図情報と、前記推定された自己位置の情報と、前記推定された音源の方向とに基づいて、前記音響信号が反射物による反射音であるか前記音源からの直接音であるかを判別することで、前記音源の方向を推定し直す音源方向決定手順と、
    行動生成部が、前記二次元地図情報と、前記音源方向決定部によって推定された音源の方向とに基づいて、前記音響信号が反射音であると判別した場合、第1の方向へ移動する行動計画を生成し、前記音響信号が直接音であると判別した場合、前記第1の方向とは異なる第2の方向へ移動する行動計画を生成する行動生成手順と、
    制御部は、行動生成手順によって生成された前記行動計画に応じて前記自律行動ロボットを制御する制御手順と、
    を含む自律行動ロボットの制御方法。
JP2014173147A 2014-08-27 2014-08-27 自律行動ロボット、及び自律行動ロボットの制御方法 Active JP6221158B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014173147A JP6221158B2 (ja) 2014-08-27 2014-08-27 自律行動ロボット、及び自律行動ロボットの制御方法
US14/831,279 US9639084B2 (en) 2014-08-27 2015-08-20 Autonomous action robot, and control method for autonomous action robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014173147A JP6221158B2 (ja) 2014-08-27 2014-08-27 自律行動ロボット、及び自律行動ロボットの制御方法

Publications (2)

Publication Number Publication Date
JP2016048464A true JP2016048464A (ja) 2016-04-07
JP6221158B2 JP6221158B2 (ja) 2017-11-01

Family

ID=55401449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014173147A Active JP6221158B2 (ja) 2014-08-27 2014-08-27 自律行動ロボット、及び自律行動ロボットの制御方法

Country Status (2)

Country Link
US (1) US9639084B2 (ja)
JP (1) JP6221158B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180106514A (ko) * 2017-03-20 2018-10-01 서울대학교산학협력단 위치 판단 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
WO2019054230A1 (en) 2017-09-15 2019-03-21 Sony Corporation ACTION PLAN PRODUCTION WHEN THE CLEAN POSITION IS UNKNOWN
US10419924B2 (en) 2017-03-31 2019-09-17 Casio Computer Co., Ltd. Mobile apparatus, method of controlling the same, and recording medium
JP2021093085A (ja) * 2019-12-12 2021-06-17 本田技研工業株式会社 三次元構造復元装置、三次元構造復元方法、およびプログラム
WO2022059489A1 (ja) * 2020-09-15 2022-03-24 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
WO2024034335A1 (ja) * 2022-08-09 2024-02-15 パナソニックIpマネジメント株式会社 自己位置推定システム

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6311197B2 (ja) * 2014-02-13 2018-04-18 本田技研工業株式会社 音響処理装置、及び音響処理方法
JP6221158B2 (ja) * 2014-08-27 2017-11-01 本田技研工業株式会社 自律行動ロボット、及び自律行動ロボットの制御方法
KR102314637B1 (ko) * 2015-03-23 2021-10-18 엘지전자 주식회사 로봇 청소기 및 이를 구비하는 로봇 청소 시스템
CN106323289A (zh) * 2016-08-23 2017-01-11 北京小米移动软件有限公司 平衡车的控制方法及装置
CN106406309A (zh) * 2016-09-30 2017-02-15 广西大学 一种声音引导定位系统
CN106335062B (zh) * 2016-11-11 2018-12-04 清研同创机器人(天津)有限公司 一种通用七轴冗余工业机器人作业规划方法
JP6673276B2 (ja) * 2017-03-28 2020-03-25 カシオ計算機株式会社 音声検出装置、音声検出方法、及びプログラム
GB2565315B (en) * 2017-08-09 2022-05-04 Emotech Ltd Robots, methods, computer programs, computer-readable media, arrays of microphones and controllers
CN107785029B (zh) * 2017-10-23 2021-01-29 科大讯飞股份有限公司 目标语音检测方法及装置
CN109990889B (zh) * 2017-12-29 2021-06-29 深圳市优必选科技有限公司 一种录音机器人的控制方法及装置
KR102115222B1 (ko) 2018-01-24 2020-05-27 삼성전자주식회사 사운드를 제어하는 전자 장치 및 그 동작 방법
WO2019232806A1 (zh) * 2018-06-08 2019-12-12 珊口(深圳)智能科技有限公司 导航方法、导航系统、移动控制系统及移动机器人
KR20200093094A (ko) 2019-01-10 2020-08-05 삼성전자주식회사 전자 장치 및 그 제어 방법
CN111860058A (zh) * 2019-04-29 2020-10-30 杭州萤石软件有限公司 一种移动机器人室内功能区域的定位方法及系统
KR102280803B1 (ko) * 2019-07-02 2021-07-21 엘지전자 주식회사 로봇 및 그의 구동 방법
KR20210029518A (ko) * 2019-09-06 2021-03-16 삼성전자주식회사 멀티 센서 기반의 무인 비행체 및 그 제어 방법
KR102323946B1 (ko) 2019-10-16 2021-11-08 엘지전자 주식회사 로봇 및 그의 제어 방법
DE102019217160A1 (de) * 2019-11-07 2021-05-12 Robert Bosch Gmbh Computer-implementiertes Verfahren zum Erstellen einer Umgebungskarte für das Betreiben eines mobilen Agenten
CN111007522A (zh) * 2019-12-16 2020-04-14 深圳市三宝创新智能有限公司 一种移动机器人的位置确定系统
CN111638523A (zh) * 2020-05-08 2020-09-08 哈尔滨工程大学 一种水下机器人对失踪者的搜寻和定位系统及方法
KR102218120B1 (ko) * 2020-09-21 2021-02-22 주식회사 폴라리스쓰리디 자율 주행 모듈, 이를 포함하는 이동 로봇 및 이의 위치 추정 방법
CN112444247B (zh) * 2020-11-19 2023-09-05 贵州北斗空间信息技术有限公司 一种基于矩阵变换的室内定位方法及系统
CN113607154B (zh) * 2021-06-29 2024-05-24 广州大学 一种室内机器人二维自主定位方法、系统、设备及介质
US11854255B2 (en) * 2021-07-27 2023-12-26 Ubkang (Qingdao) Technology Co., Ltd. Human-object scene recognition method, device and computer-readable storage medium
CN116027341B (zh) * 2021-10-25 2024-05-03 珠海一微半导体股份有限公司 基于激光观测方向的栅格和体素定位方法、机器人及芯片

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006123161A (ja) * 2004-09-30 2006-05-18 Samsung Electronics Co Ltd 位置把握、追跡および分離のためのオーディオビデオセンサー融合装置および融合方法
JP2014137226A (ja) * 2013-01-15 2014-07-28 Advanced Telecommunication Research Institute International 移動体、音響源マップ作成システムおよび音響源マップ作成方法
JP2015081831A (ja) * 2013-10-22 2015-04-27 株式会社国際電気通信基礎技術研究所 音源位置推定装置、移動体および移動体の制御方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1775401A (en) * 1999-11-18 2001-05-30 Procter & Gamble Company, The Home cleaning robot
JP4689107B2 (ja) 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
CN1304177C (zh) * 2001-10-22 2007-03-14 索尼公司 机器人装置及其控制方法
JP3627058B2 (ja) * 2002-03-01 2005-03-09 独立行政法人科学技術振興機構 ロボット視聴覚システム
JP4079792B2 (ja) * 2003-02-06 2008-04-23 松下電器産業株式会社 ロボットの教示方法と教示機能付きロボット
KR100906136B1 (ko) * 2003-12-12 2009-07-07 닛본 덴끼 가부시끼가이샤 정보 처리용 로봇
US20060111841A1 (en) * 2004-11-19 2006-05-25 Jiun-Yuan Tseng Method and apparatus for obstacle avoidance with camera vision
US20140012787A1 (en) * 2009-12-18 2014-01-09 Qin Zhang System and method for information processing and motor control
JP4872871B2 (ja) * 2007-09-27 2012-02-08 ソニー株式会社 音源方向検出装置、音源方向検出方法及び音源方向検出カメラ
US7885145B2 (en) * 2007-10-26 2011-02-08 Samsung Electronics Co. Ltd. System and method for selection of an object of interest during physical browsing by finger pointing and snapping
JP5158097B2 (ja) * 2008-01-16 2013-03-06 日本電気株式会社 移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム
JP5685177B2 (ja) * 2011-12-12 2015-03-18 本田技研工業株式会社 情報伝達システム
JP5952692B2 (ja) * 2012-09-13 2016-07-13 本田技研工業株式会社 音源方向推定装置、音響処理システム、音源方向推定方法、及び音源方向推定プログラム
ES2613138T3 (es) * 2013-08-23 2017-05-22 Lg Electronics Inc. Robot limpiador y método para controlar el mismo
JP6289936B2 (ja) * 2014-02-26 2018-03-07 株式会社東芝 音源方向推定装置、音源方向推定方法およびプログラム
US9302393B1 (en) * 2014-04-15 2016-04-05 Alan Rosen Intelligent auditory humanoid robot and computerized verbalization system programmed to perform auditory and verbal artificial intelligence processes
JP6221158B2 (ja) * 2014-08-27 2017-11-01 本田技研工業株式会社 自律行動ロボット、及び自律行動ロボットの制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006123161A (ja) * 2004-09-30 2006-05-18 Samsung Electronics Co Ltd 位置把握、追跡および分離のためのオーディオビデオセンサー融合装置および融合方法
JP2014137226A (ja) * 2013-01-15 2014-07-28 Advanced Telecommunication Research Institute International 移動体、音響源マップ作成システムおよび音響源マップ作成方法
JP2015081831A (ja) * 2013-10-22 2015-04-27 株式会社国際電気通信基礎技術研究所 音源位置推定装置、移動体および移動体の制御方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180106514A (ko) * 2017-03-20 2018-10-01 서울대학교산학협력단 위치 판단 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
KR101966396B1 (ko) * 2017-03-20 2019-04-17 서울대학교산학협력단 위치 판단 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
US10419924B2 (en) 2017-03-31 2019-09-17 Casio Computer Co., Ltd. Mobile apparatus, method of controlling the same, and recording medium
WO2019054230A1 (en) 2017-09-15 2019-03-21 Sony Corporation ACTION PLAN PRODUCTION WHEN THE CLEAN POSITION IS UNKNOWN
US20210026356A1 (en) * 2017-09-15 2021-01-28 Sony Corporation Control apparatus, control method, program, and mobile object
US11500386B2 (en) 2017-09-15 2022-11-15 Sony Corporation Control apparatus, control method, program, and mobile object
JP2021093085A (ja) * 2019-12-12 2021-06-17 本田技研工業株式会社 三次元構造復元装置、三次元構造復元方法、およびプログラム
WO2022059489A1 (ja) * 2020-09-15 2022-03-24 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
WO2024034335A1 (ja) * 2022-08-09 2024-02-15 パナソニックIpマネジメント株式会社 自己位置推定システム

Also Published As

Publication number Publication date
US20160059418A1 (en) 2016-03-03
JP6221158B2 (ja) 2017-11-01
US9639084B2 (en) 2017-05-02

Similar Documents

Publication Publication Date Title
JP6221158B2 (ja) 自律行動ロボット、及び自律行動ロボットの制御方法
EP3321888B1 (en) Projected image generation method and device, and method for mapping image pixels and depth values
US11320536B2 (en) Imaging device and monitoring device
US20100148977A1 (en) Localization and detection system applying sensors and method thereof
US7627447B2 (en) Method and apparatus for localizing and mapping the position of a set of points on a digital model
JP4871160B2 (ja) ロボットおよびその制御方法
JP4675381B2 (ja) 音源特性推定装置
CN105979442B (zh) 噪声抑制方法、装置和可移动设备
JP6330200B2 (ja) 音源位置推定装置、移動体および移動体の制御方法
JP2006524329A (ja) 物体の位置を推定するシステム、装置及び方法
Schillebeeckx et al. Biomimetic sonar: Binaural 3D localization using artificial bat pinnae
JP6467736B2 (ja) 音源位置推定装置、音源位置推定方法および音源位置推定プログラム
US10094911B2 (en) Method for tracking a target acoustic source
US20100164807A1 (en) System and method for estimating state of carrier
US12015908B2 (en) Method and apparatus for recognizing sound source
CN113568435B (zh) 一种基于无人机自主飞行态势感知趋势的分析方法与系统
KR20150125232A (ko) 이동체의 위치감지장치, 이동체의 위치감지방법, 조명장치, 공조장치, 보안장치, 및 주차장관리장치
JP2015081824A (ja) 放射音強度マップ作成システム、移動体および放射音強度マップ作成方法
KR102226405B1 (ko) 음원 인식 방법 및 장치, 그리고 컴퓨터 판독가능 저장매체
Deshpande et al. A next generation mobile robot with multi-mode sense of 3D perception
Even et al. Probabilistic 3-D mapping of sound-emitting structures based on acoustic ray casting
US11442463B1 (en) System to determine stationary features by autonomous mobile device
JP7259878B2 (ja) 収音装置、収音プログラム、及び収音方法
Kallakuri et al. Using sound reflections to detect moving entities out of the field of view
JP2021047744A (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170914

R150 Certificate of patent or registration of utility model

Ref document number: 6221158

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150