JP2015081831A - Sound source position estimation device, mobile body and control method for mobile body - Google Patents

Sound source position estimation device, mobile body and control method for mobile body Download PDF

Info

Publication number
JP2015081831A
JP2015081831A JP2013219625A JP2013219625A JP2015081831A JP 2015081831 A JP2015081831 A JP 2015081831A JP 2013219625 A JP2013219625 A JP 2013219625A JP 2013219625 A JP2013219625 A JP 2013219625A JP 2015081831 A JP2015081831 A JP 2015081831A
Authority
JP
Japan
Prior art keywords
sound
sound source
robot
sensor array
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013219625A
Other languages
Japanese (ja)
Other versions
JP2015081831A5 (en
JP6330200B2 (en
Inventor
モラレス・サイキ・ルイス・ヨウイチ
Saiki Luis Yoichi Morales
ヤニ・エヴァン
Yani Evan
イシイ・カルロス・トシノリ
Carlos Toshinori Ishii
ナガスリカン・カラクリ
Kallakuri Nagasrikanth
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2013219625A priority Critical patent/JP6330200B2/en
Publication of JP2015081831A publication Critical patent/JP2015081831A/en
Publication of JP2015081831A5 publication Critical patent/JP2015081831A5/ja
Application granted granted Critical
Publication of JP6330200B2 publication Critical patent/JP6330200B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an independent type mobile body capable of controlling movement by detecting a position of another object approaching from a range obstructed from view by using reflection sound.SOLUTION: A robot 1000 includes: a steered response power acquirement unit 1050 for executing a process for acquiring spectrum for sound source power based on a signal from a microphone array 1052; arriving sound direction distribution estimation unit 1060 for estimating an arrival direction of sound on a robot coordinate based on the sound source power spectrum; a mobile body stance specification process unit 1040 for specifying the stance of the robot based on a signal from a path length measuring sensor 10 or LRF20 and 30; and a sound source position estimation process unit 1070 for estimating the sound source position based on specified robot stance, a three-dimensional geometric map 1102 and the estimation result of the arriving sound direction distribution estimation unit 1060.

Description

この発明は実環境における音源定位技術に関し、特に、実環境において音センサアレイによる音の方向性を用いた音源位置の推定技術およびこれを用いた移動体の移動制御に関する。   The present invention relates to a sound source localization technique in a real environment, and more particularly, to a sound source position estimation technique using sound directionality by a sound sensor array in a real environment and movement control of a moving object using the sound source position.

家庭、オフィス、商店街など、異なった環境では、場所や時間によって多様な雑音特性を持つため、音声などの特定の音を対象としたアプリケーションでは、使用される環境の雑音の種類や度合いにより、期待した性能が得られないという問題がある。   Different environments such as home, office, and shopping streets have various noise characteristics depending on location and time, so in applications that target specific sounds such as voice, depending on the type and degree of environmental noise used, There is a problem that the expected performance cannot be obtained.

たとえば、人とロボットとの音声コミュニケーションにおいて、ロボットに取付けたマイクロホンは、通常離れた位置(1m以上)にある。したがって、たとえば、電話音声のよう にマイクと口との距離が数センチの場合と比べて、信号と雑音の比(SNR)は低くなる。このため、傍にいる他人の声や環境の雑音が妨害音となり、ロボットによる目的音声の認識が難しくなる。従って、ロボットへの応用として、音源定位や音源分離は重要である。   For example, in voice communication between a person and a robot, the microphone attached to the robot is usually at a position (1 m or more) away from the robot. Therefore, for example, the signal-to-noise ratio (SNR) is lower than when the distance between the microphone and the mouth is several centimeters as in telephone voice. For this reason, the voices of others nearby and the noise of the environment become interference sounds, making it difficult for the robot to recognize the target speech. Therefore, sound source localization and sound source separation are important for robot applications.

音源定位に関して、実環境を想定した従来技術として特許文献1または特許文献2に記載のものがある。特許文献1または特許文献2に記載の技術は、分解能が高いMUSIC法と呼ばれる公知の音源定位の手法を用いている。   Regarding the sound source localization, there are those described in Patent Document 1 or Patent Document 2 as conventional techniques assuming an actual environment. The technique described in Patent Document 1 or Patent Document 2 uses a known sound source localization method called the MUSIC method with high resolution.

特許文献1または特許文献2に記載の発明では、マイクロホンアレイを用い、マイクロホンアレイからの信号をフーリエ変換して得られた受信信号ベクトルと、過去の相関行列とに基づいて現在の相関行列を計算する。このようにして求められた相関行列を固有値分解し、最大固有値と、最大固有値以外の固有値に対応する固有ベクトルで ある雑音空間とを求める。さらに、マイクロホンアレイのうち、1つのマイクロホンを基準として、各マイクの出力の位相差と、雑音空間と、最大固有値とに基づいて、MUSIC法により音源の方向を推定する。   In the invention described in Patent Document 1 or Patent Document 2, a current correlation matrix is calculated based on a received signal vector obtained by Fourier-transforming a signal from the microphone array using a microphone array and a past correlation matrix. To do. The correlation matrix thus obtained is subjected to eigenvalue decomposition to obtain the maximum eigenvalue and a noise space that is an eigenvector corresponding to an eigenvalue other than the maximum eigenvalue. Furthermore, the direction of the sound source is estimated by the MUSIC method based on the phase difference of the output of each microphone, the noise space, and the maximum eigenvalue with one microphone as a reference in the microphone array.

これまでの音源定位や音源分離に関するほとんどの研究では、反射音は悪影響を与えるものとして扱われてきた(たとえば、非特許文献1、非特許文献2を参照)。   In most studies on sound source localization and sound source separation so far, reflected sound has been treated as having an adverse effect (for example, see Non-Patent Document 1 and Non-Patent Document 2).

一方で、ロボットなどの自律型の移動体においては、安全な移動を保証するためには、その移動制御にあたって、通常のセンサでは見通せない領域から近づいてくる他の物体を検知することが必要となる。   On the other hand, in order to guarantee safe movement in autonomous moving bodies such as robots, it is necessary to detect other objects approaching from areas that cannot be seen by ordinary sensors in order to ensure safe movement. Become.

たとえば、人間であれば、通路が交差している場所に近づく場合、誰かの足音が交差場所の方へ来るのを聞けば、その人が見えなくとも、自分の移動のペースを調節することは一般的である。   For example, if a person approaches a place where a passage intersects, if he hears someone's footsteps coming to the intersection, he will not be able to adjust his pace of movement even if he cannot see it. It is common.

ただし、ロボットに搭載されるセンサは、一般には、見通し領域からの信号を検知するように構成されているので、このような状況に対応することは容易でない。   However, since the sensor mounted on the robot is generally configured to detect a signal from the line-of-sight region, it is not easy to cope with such a situation.

すなわち、測距により移動体を検知し追跡するためのレーザーあるいはRGB-Dカメラの使用は、明らかに、対象が見通せるかという条件に制限される。また、近年ロボットの知覚のために使用されている超音波のセンサーは、放射された超音波パルスの伝搬時間の測定により、反射物までの距離を評価する。超音波センサーは、パルスを反射する対象物が見通される位置にいることが必要である。従って、能動的なアプローチ(超音波)を使用し、ロボットの定位あるいは障害物の検知を行なうために、障害物が直接見通せることに依存するシステムは、見通し不可領域に関する情報を集めることができない。   In other words, the use of a laser or RGB-D camera to detect and track a moving object by ranging is clearly limited to the condition of seeing the object. In addition, an ultrasonic sensor used for robot perception in recent years evaluates a distance to a reflector by measuring a propagation time of a radiated ultrasonic pulse. The ultrasonic sensor needs to be in a position where an object that reflects a pulse can be seen through. Therefore, systems that rely on direct visibility of obstacles to use robotic localization or obstacle detection using an active approach (ultrasound) cannot gather information about unrecognizable areas.

特開2008−175733号公報明細書Japanese Patent Application Laid-Open No. 2008-175733 特開2011−220701号公報明細書JP 2011-220701 A Specification

F. Asano, M. Goto, K. Itou, and H. Asoh, “Real-time sound source localization and separation system and its application on automatic speech recognition,” in Eurospeech 2001, Aalborg, Denmark, 2001, pp. 1013-1016.F. Asano, M. Goto, K. Itou, and H. Asoh, “Real-time sound source localization and separation system and its application on automatic speech recognition,” in Eurospeech 2001, Aalborg, Denmark, 2001, pp. 1013- 1016. C. T. Ishi, O. Chatot, H. Ishiguro, N. Hagita, “Evaluation of a MUSIC-based real-time sound localization of multiple sound sources in real noisy environments,” in Proc. of the 2009 IEEE/RSJ Intl. Conf. on Intelligent Robots and System, St. Louis, USA, 2009, pp. 2027-2032.CT Ishi, O. Chatot, H. Ishiguro, N. Hagita, “Evaluation of a MUSIC-based real-time sound localization of multiple sound sources in real noisy environments,” in Proc. Of the 2009 IEEE / RSJ Intl. Conf. on Intelligent Robots and System, St. Louis, USA, 2009, pp. 2027-2032.

しかしながら、このような音源定位の技術において、実環境では、たとえば、マイクロホンアレイの周りに壁や天井やガラス窓やディスプレイなどの音を反射する表面が存在する場合、音源の直接音と同時に音源の反射音も測定されることがある。特に、マイクロホンアレイと、音源との距離が大きい場合、反射音の影響は無視できないと予想される。   However, in such a sound source localization technology, in a real environment, for example, when there is a surface that reflects sound such as a wall, ceiling, glass window, or display around the microphone array, Reflected sound may also be measured. In particular, when the distance between the microphone array and the sound source is large, it is expected that the influence of reflected sound cannot be ignored.

したがって、実環境においては、反射音の影響があることを当然の前提として、音源定位を実行することが望まれるが、反射音の影響を積極的に取り込んで、音源の位置を推定する手法は、必ずしも明らかではない。   Therefore, in a real environment, it is desirable to perform sound source localization on the premise that there is an influence of reflected sound.However, a method for estimating the position of a sound source by actively incorporating the influence of reflected sound is , Not necessarily obvious.

また、反射音を利用すれば、見通し不可の領域から近づいてくる他の物体を検知することが可能と考えられるが、ロボットのような移動体の移動制御に対して、それをどのように適用すればよいのかも、必ずしも明らかではない。   In addition, using reflected sound, it is considered possible to detect other objects approaching from a non-line-of-sight area, but how to apply it to the movement control of a moving body such as a robot. It is not always clear what to do.

本発明は、上記のような問題点を解決するためになされたものであって、その目的は、反射音を利用して、見通し不可の領域から近づいてくる他の物体の位置を検知することが可能な音源位置推定装置を提供することである。   The present invention has been made to solve the above-described problems, and its purpose is to detect the position of another object approaching from a non-line-of-sight area using reflected sound. It is to provide a sound source position estimation device capable of performing the above.

この発明のさらに他の目的は、反射音を利用して、見通し不可の領域から近づいてくる他の物体の位置を検知することが可能な音源位置推定を利用して、移動制御を行うことが可能な自立型移動体を提供することである。   Still another object of the present invention is to perform movement control using sound source position estimation capable of detecting the position of another object approaching from a region where visibility is not possible using reflected sound. It is to provide a self-supporting mobile that is possible.

本発明では、複数のマイクロホンアレイを用いて音源方向を推定し、空間の情報を用いて反射音の方向を推定し、これらの情報を統合して音源定位(3次元空間の位置推定)を行う。   In the present invention, the direction of the sound source is estimated using a plurality of microphone arrays, the direction of the reflected sound is estimated using spatial information, and the information is integrated to perform sound source localization (position estimation in a three-dimensional space). .

この発明の1つの局面に従うと、音源位置推定装置であって、複数の音センサを含む音センサアレイと、音センサアレイ中の各音センサの配置の情報および測定環境の空間3次元地図情報を格納するための記憶装置と、音センサアレイからの複数チャンネルの音源信号の各々に基づいて、音センサアレイに音の到来する方位を特定するための処理を実行する到来音方向特定手段と、特定された音の到来する方向と空間3次元地図情報とに基づいて、空間3次元地図情報内で、音源に向かう複数の方向を推定するための音源方向推定手段と、音センサアレイから音源に向かう複数の方向について、反射による経路により到達しうる経路の延長領域の重なりに応じて、3次元での音源の位置を推定するための音源位置推定手段とを備える。   According to one aspect of the present invention, there is provided a sound source position estimation device, which includes a sound sensor array including a plurality of sound sensors, arrangement information of each sound sensor in the sound sensor array, and spatial three-dimensional map information of a measurement environment. A storage device for storing, an incoming sound direction specifying means for executing processing for specifying the direction in which sound arrives at the sound sensor array, based on each of the sound source signals of the plurality of channels from the sound sensor array; A sound source direction estimating means for estimating a plurality of directions toward the sound source in the spatial 3D map information based on the direction of arrival of the generated sound and the spatial 3D map information; For a plurality of directions, sound source position estimating means for estimating the position of the sound source in three dimensions according to the overlap of the extension areas of the route that can be reached by the route due to reflection is provided.

好ましくは、音センサアレイは複数設けられ、音源方向推定手段は、特定された音の到来する方向と空間3次元地図情報とに基づいて、反射音に対する音源の方向とを推定し、音源位置推定手段は、各複数の音センサアレイから反射音による音源の方向への延長領域の重なりに応じて、3次元での音源の位置を推定する。   Preferably, a plurality of sound sensor arrays are provided, and the sound source direction estimating means estimates the direction of the sound source with respect to the reflected sound based on the direction of arrival of the specified sound and the spatial three-dimensional map information, and the sound source position estimation The means estimates the position of the sound source in three dimensions according to the overlap of the extension regions in the direction of the sound source due to the reflected sound from each of the plurality of sound sensor arrays.

この発明の他の局面に従うと、自律移動が可能な移動体であって、移動機構と、複数の音センサを含む音センサアレイと、音センサアレイ中の各音センサの配置の情報および測定環境の空間3次元地図情報を格納するための記憶装置と、音センサアレイからの複数チャンネルの音源信号の各々に基づいて、音センサアレイに音の到来する方位を特定するための処理を実行する到来音方向特定手段と、特定された音の到来する方向と空間3次元地図情報とに基づいて、空間3次元地図情報内で、音源に向かう複数の方向を推定するための音源方向推定手段と、音センサアレイから音源に向かう複数の方向について、反射による経路により到達しうる経路の延長領域の重なりに応じて、3次元での音源の位置を推定するための音源位置推定手段と、移動機構を制御するための制御手段とを備え、制御手段は、音源位置推定手段により推定された音源の位置が、見通し不可領域内であって、第1の所定の距離以内である場合、移動速度を低下させる。   According to another aspect of the present invention, the mobile body is capable of autonomous movement, and includes a moving mechanism, a sound sensor array including a plurality of sound sensors, arrangement information of each sound sensor in the sound sensor array, and a measurement environment. And a storage device for storing spatial three-dimensional map information and a process for specifying a direction in which sound arrives at the sound sensor array based on each of the sound source signals of a plurality of channels from the sound sensor array Sound direction specifying means; sound source direction estimating means for estimating a plurality of directions toward the sound source in the spatial 3D map information based on the direction of arrival of the specified sound and the spatial 3D map information; Sound source position estimating means for estimating the position of the sound source in three dimensions in accordance with the overlap of the extended areas of the path that can be reached by the path due to reflection in a plurality of directions from the sound sensor array toward the sound source; Control means for controlling the movement mechanism, and the control means moves when the position of the sound source estimated by the sound source position estimation means is within the line-of-sight region and within the first predetermined distance. Reduce speed.

好ましくは、制御手段は、音源位置推定手段により推定された音源の位置が、見通し不可領域内であって、第1の所定距離よりも近い第2の所定の距離以内である場合、音源との衝突が回避できると判断されるまで、停止して移動体を待機させる。   Preferably, when the position of the sound source estimated by the sound source position estimating means is within the line-of-sight region and within a second predetermined distance that is closer than the first predetermined distance, Until it is determined that the collision can be avoided, the vehicle stops and waits.

この発明のさらに他の局面に従うと、自律移動が可能な移動体の制御方法であって、移動体は、移動機構と、複数の音センサを含む音センサアレイと、音センサアレイからの複数チャンネルの音源信号の各々に基づいて、音センサアレイに音の到来する方位を特定するための処理を実行する到来音方向特定手段と、特定された音の到来する方向と空間3次元地図情報とに基づいて、空間3次元地図情報内で、音源に向かう複数の方向を推定するための音源方向推定手段と、音センサアレイから音源に向かう複数の方向について、反射による経路により到達しうる経路の延長領域の重なりに応じて、3次元での音源の位置を推定するための音源位置推定手段とを含み、移動経路を計画するステップと、音源位置推定手段により推定された音源の位置が、見通し不可領域内であって、第1の所定の距離以内である場合、移動速度を低下させるステップとを備える。   According to still another aspect of the present invention, there is provided a method for controlling a moving body capable of autonomous movement, the moving body including a moving mechanism, a sound sensor array including a plurality of sound sensors, and a plurality of channels from the sound sensor array. Based on each sound source signal, an incoming sound direction specifying means for executing processing for specifying the direction in which the sound arrives at the sound sensor array, the specified sound arrival direction, and spatial three-dimensional map information Based on the sound source direction estimation means for estimating a plurality of directions toward the sound source in the spatial three-dimensional map information, and an extension of the path that can be reached by the reflection path for the plurality of directions from the sound sensor array toward the sound source A sound source position estimating means for estimating the position of the sound source in three dimensions according to the overlap of the regions, the step of planning the movement path, and the sound source position estimated by the sound source position estimating means Location is a sight not region, if the first is within the predetermined distance, and a step of reducing the movement speed.

好ましくは、音源位置推定手段により推定された音源の位置が、見通し不可領域内であって、第1の所定距離よりも近い第2の所定の距離以内である場合、移動経路において音源との衝突が回避できると判断されるまで、停止して移動体を待機させる。   Preferably, when the position of the sound source estimated by the sound source position estimating means is within a line-of-sight region and within a second predetermined distance that is closer than the first predetermined distance, a collision with the sound source in the movement path Until it is determined that it can be avoided, and the moving object waits.

この発明によれば、同一の音響源からの複数の到来方向からの音を利用して、音源の3次元の正確な位置の推定を行うことが可能である。   According to the present invention, it is possible to estimate a three-dimensional accurate position of a sound source using sounds from a plurality of directions of arrival from the same acoustic source.

また、この発明によれば、同一の音響源からの複数の到来方向からの音を利用して、音源の3次元の正確な位置の推定し、自立型移動体の移動制御を行うことができる。   Further, according to the present invention, it is possible to estimate the three-dimensional accurate position of the sound source by using sounds from a plurality of directions of arrival from the same acoustic source, and to control the movement of the self-supporting mobile body. .

実施の形態で想定する状況を示す概念図である。It is a conceptual diagram which shows the condition assumed in embodiment. 本実施の形態のロボット1000の構成のうち、放射音強度マップ作成のためのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions for radiant sound intensity map preparation among the structures of the robot 1000 of this Embodiment. コンピュータシステム2000のハードウェア構成をブロック図形式で示す図である。2 is a block diagram showing a hardware configuration of a computer system 2000. FIG. ロボット1000の外観を示す図である。It is a figure which shows the external appearance of the robot 1000. FIG. レーザレンジファインダによる測距処理の概念を説明するための図である。It is a figure for demonstrating the concept of the ranging process by a laser range finder. ロボット1000の位置の特定の処理の概念を説明するための図である。It is a figure for demonstrating the concept of the specific process of the position of the robot. パーティクルフィルタを用いたロボット1000の位置の特定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the specific process of the position of the robot 1000 using a particle filter. パーティクルの状態ベクトルsm[t]の算出の概念を説明するための図である。It is a figure for demonstrating the concept of calculation of the state vector sm [t] of a particle. 対象物までの距離に基づく各パーティクルについての尤度を示す図である。It is a figure which shows the likelihood about each particle based on the distance to a target object. レーザレンジファインダの測定結果(測距データ)に基づいて、パーティクルの尤度を算出する手続きを説明するための概念図である。It is a conceptual diagram for demonstrating the procedure which calculates the likelihood of a particle based on the measurement result (ranging data) of a laser range finder. レーザレンジファインダによる測距と、あるパーティクルからのレイキャストの手続きを示す概念図である。It is a conceptual diagram which shows the procedure of the distance measurement by a laser range finder, and the raycast from a certain particle. 角度についての探索グリッドを示す図である。It is a figure which shows the search grid about an angle. 試験環境のうちの1に対する3次元の幾何学的なマップを2次元に投影したマップおよび対応するオクトマップを示す図である。FIG. 5 is a diagram showing a two-dimensional projection map of a three-dimensional geometric map for one of the test environments and a corresponding octomap. レイ・トレーシングの手続きを示す図である。It is a figure which shows the procedure of ray tracing. ロボットの移動制御のフローを示す図である。It is a figure which shows the flow of the movement control of a robot. 反射音の情報を利用する状況で、3つのシナリオを含む異なる3つの試行を提示する図である。It is a figure which presents three different trials including three scenarios in a situation where information of reflected sound is used. 反射音の情報を利用しない状況で、3つのシナリオを含む異なる3つの試行を提示する図である。It is a figure which presents three different trials including three scenarios in a situation where information of reflected sound is not used.

以下、本発明の実施の形態の音源位置推定装置の構成について、図に従って説明する。なお、以下の実施の形態において、同じ符号を付した構成要素および処理工程は、同一または相当するものであり、必要でない場合は、その説明は繰り返さない。   Hereinafter, the configuration of a sound source position estimation apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the following embodiments, components and processing steps given the same reference numerals are the same or equivalent, and the description thereof will not be repeated unless necessary.

なお、以下の説明では、音センサとしては、いわゆるマイクロホン、より特定的にはエレクトレットコンデンサマイクロホンを例にとって説明を行うが、音声を電気信号として検出できるセンサであれば、他の音センサであってもよい。   In the following description, as a sound sensor, a so-called microphone, more specifically an electret condenser microphone will be described as an example, but other sound sensors may be used as long as they can detect sound as an electric signal. Also good.

また、本実施の形態では、音環境の事前知識の習得およびその利用を総称して「音環境知能」と呼ぶ。また、いつ、どこで、どのような音が発生したのかの時空間的な表現、つまり音が発生する音源を特定できる地図のことを「音環境地図」と呼ぶ。さらに、このような音源の位置だけでなく、音源の発する音の強度までを含んだ地図を「放射音強度マップ」と呼ぶことにする。   In the present embodiment, acquisition of prior knowledge of sound environment and its use are collectively referred to as “sound environment intelligence”. Also, a space-time representation of when, where, and what sound is generated, that is, a map that can identify a sound source that generates sound is called a “sound environment map”. Furthermore, a map including not only the position of such a sound source but also the sound intensity emitted by the sound source is referred to as a “radiated sound intensity map”.

実環境では、異なった場所で発生する複数の音が混合して観測されるため、音環境地図の生成において、騒音計で空間をスキャンするような単純な方法は不十分である。音環境の事前知識として役立つと考えられる音源の位置や種類を特徴付けた音環境地図の生成には、空間的情報(通常の地図)に加え、少なくとも音源の定位および分離が必要であり、さらには、音源の分類がなされることが望ましい。   In a real environment, a plurality of sounds generated at different locations are mixed and observed, so that a simple method of scanning a space with a sound level meter is insufficient for generating a sound environment map. Generating a sound environment map that characterizes the location and type of a sound source that may be useful as prior knowledge of the sound environment requires at least localization and separation of the sound source in addition to spatial information (normal map). It is desirable that the sound source is classified.

そこで、本実施の形態の音源位置推定装置では、以下に説明するように、複数の音源を定位・分離するため、複数の音センサを含むマイクロホンアレイを連携させ、空間内の特定の音源に対する音環境地図を生成し、音環境を構造化する。   Therefore, in the sound source position estimation apparatus according to the present embodiment, as described below, in order to localize and separate a plurality of sound sources, a microphone array including a plurality of sound sensors is linked to generate sound for a specific sound source in the space. Generate an environmental map to structure the sound environment.

ここでの「音源定位」とは、音源の方位を継続的に特定することをいい、「音源の位置推定」とは、所定の空間内で、音源定位により特定された音源の方位に基づいて、3次元的な音源の位置を推定することをいう。   Here, “sound source localization” means to continuously specify the direction of the sound source, and “sound source position estimation” is based on the direction of the sound source specified by the sound source localization in a predetermined space. It means estimating the position of a three-dimensional sound source.

以下では、実施の形態として、反射音を利用して、見通し不可の領域から近づいてくる他の物体の位置を検知することが可能な音源位置推定装置について説明する。   In the following, as an embodiment, a sound source position estimation device capable of detecting the position of another object approaching from a region where visibility is not possible using reflected sound will be described.

また、このような音源位置の推定を利用して、自律型移動体の移動制御を行うことが可能な移動体についても説明する。そして、以下では、移動体としては、自律移動可能なロボットを例にとって説明する。   In addition, a moving body capable of performing movement control of an autonomous moving body using such sound source position estimation will be described. In the following description, the mobile body will be described using an autonomously movable robot as an example.

図1は、本実施の形態で想定する状況を示す概念図である。   FIG. 1 is a conceptual diagram showing a situation assumed in the present embodiment.

すなわち、ロボット工学的な文脈では、図1に示されるように、近づいてくる人を検知し、速度を落とすかあるいは人が通り過ぎるまで待機するために、オクルージョン領域(見通し不可領域)から来る音響情報を使用することを意味する。   That is, in the robotic context, as shown in FIG. 1, the acoustic information coming from the occlusion area (non-line-of-sight area) to detect an approaching person and slow down or wait until the person passes. Means to use.

しかしながら、通常は、ロボットはそのような情報を使用せず、対象が見通されることを要求するセンサー(カメラ、レーザー、超音波センサー)に依存するので、見通しがある領域からの情報のみを取得する。   However, robots usually do not use such information and rely only on sensors (cameras, lasers, ultrasonic sensors) that require the subject to be seen, so they only obtain information from the line of sight .

したがって、図1に描かれたシナリオでは、ロボットは、交差する場所に常用速度で進み、人と衝突してしまう可能性があることになる。   Therefore, in the scenario depicted in FIG. 1, the robot may travel to the intersecting location at regular speed and collide with a person.

この問題は、ロボット車椅子のように、自律的に移動でき、人が乗っているような移動体に対しては、乗っている人は、人が廊下の交差に近づいてくることを聞くことができるので、特に、使用者に与える不安を除き、かつ安全な移動を実現するという観点からは、特に重要である。   The problem is that, for a moving body that can move autonomously, such as a robot wheelchair, and that a person is on board, the person on board may hear that the person is approaching the intersection in the hallway. In particular, it is particularly important from the viewpoint of removing anxiety given to the user and realizing safe movement.

つまり、上記のような状況で、ロボットが、近づいてくる人がいることに何ら対処を示さないと、乗っている人にはストレスの多い状況となってしまう。   In other words, in the situation as described above, if the robot does not take any measures against the approaching person, it will be a stressful situation for the rider.

以下に説明するように、本実施の形態では、音が反射しつつ伝送してくるという意味でのマルチパス伝送による伝搬が、見通し不可領域に、接近者がいることに関する情報を与える。つまり、環境によって反射された音を使用して、その近づいてくる人の位置を特定できることになる。   As will be described below, in the present embodiment, propagation by multipath transmission in the sense that sound is transmitted while reflecting is given information regarding the presence of an approaching person in a line-of-sight region. In other words, the position of the approaching person can be specified using the sound reflected by the environment.

このような処理の実現のためには、ロボットは、反射音を検知し、音の到来方向(DOA: direction of arrival)を評価できなければならない。   In order to realize such processing, the robot must be able to detect the reflected sound and evaluate the direction of arrival (DOA).

このような音の到来方向の検知(音源定位)は、マイクロホンアレイを使用して、MUSIC法や、他の受動的な音響の定位方法、たとえば、ステアード応答パワー位相変換(SRP-PHAT: Steered Response Power - Phase Alignment Transform、以下、単に、SRPと呼ぶ)法を実行して行われる。   Detection of the direction of sound arrival (sound source localization) is performed using a microphone array, using the MUSIC method or other passive acoustic localization methods such as steered response power phase conversion (SRP-PHAT: Steered Response). (Power-Phase Alignment Transform, hereinafter simply referred to as SRP).

このようなステアード応答パワー位相変換法については、たとえば、以下の公知文献に開示がある。   Such a steered response power phase conversion method is disclosed in, for example, the following known documents.

公知文献1:特開2012−242597号公報明細書
公知文献2:M.S. Brandstein and H.F. Silverman, “A robust method for speech signal time-delay estimation in reverberant rooms,” in IEEE Conference on Acoustics, Speech, and Signal Processing, ICASSP 1997, 1997, pp. 375-378.
さらに、ロボットは、到来した反射音の音響源を見つけるために、 (受音側から音響源側に逆に向かう)音響伝播パスを追跡する。このような追跡を、「レイ・トレーシング」と呼ぶ。
Known Document 1: Japanese Patent Application Laid-Open No. 2012-242597 Known Document 2: MS Brandstein and HF Silverman, “A robust method for speech signal time-delay estimation in reverberant rooms,” in IEEE Conference on Acoustics, Speech, and Signal Processing , ICASSP 1997, 1997, pp. 375-378.
In addition, the robot tracks the acoustic propagation path (going back from the receiving side to the acoustic source side) to find the acoustic source of the incoming reflected sound. Such tracking is called “ray tracing”.

環境内で、1または複数回反射した後に、見通し不可領域からの音を処理することになるので、ロボットは、反射物の位置の情報をもっているだけでなく、自身の姿勢(位置および方向)を知っていなければならない。   In the environment, after reflecting one or more times, the sound from the non-line-of-sight area will be processed, so the robot not only has information on the position of the reflector, but also its posture (position and direction). You must know.

後に説明するように、3D光検知測距センサー(LIDAR:Light Detection and Ranging sensors)における最近の進歩で、環境内の正確な3D地図を作成し、それを反射を評価するために使用することができる。   As will be explained later, recent advances in 3D Light Detection and Ranging sensors (LIDAR) have made it possible to create accurate 3D maps in the environment and use them to evaluate reflections. it can.

また、ロボットの姿勢は、パーティクルフィルタに基づいた定位・アルゴリズムによって評価される。   The posture of the robot is evaluated by a localization / algorithm based on a particle filter.

これらの技術を組み合わせることによって、ロボットは、見通し不可領域の音響源からの1組の「線状の経路で到来する音(アコースティック・レイと呼ぶ)」を評価することができる。   By combining these techniques, the robot can evaluate a set of “sounds arriving on a linear path (called an acoustic ray)” from an acoustic source in the non-line-of-sight region.

その後、接近する物体(たとえば、人)の位置はこれらのアコースティック・レイの交差する位置を考慮することで評価される。ここで、「交差する位置」とは、完全に交差することまでは必要なく、複数のアコースティック・レイが所定の距離の範囲にある場合の位置のことも含むものとする。   Thereafter, the position of an approaching object (eg, a person) is evaluated by considering the location where these acoustic rays intersect. Here, the “intersection position” does not need to completely intersect, and includes a position where a plurality of acoustic rays are within a predetermined distance range.

したがって、ロボットは図1に示されるような接近してくる人だけでなく、音を放射するどんな対象物も検知することができる。   Therefore, the robot can detect not only an approaching person as shown in FIG. 1 but also any object that emits sound.

音の反射を考慮することは、音のマルチパス伝送、および、特に初期の反射(少数の反射の後にリスナーに届く音)と関係がある。   Considering sound reflections has to do with multipath transmission of sounds, and in particular early reflections (sounds that reach the listener after a few reflections).

初期の反射をモデル化するために、レイ・トレーシングを利用して、仮想音響源を使用して、表面への音の反射を計算する虚音響源方法が採用される。仮想音響源は表面に関して音響源を鏡像反転することにより得られる。これらの反射は、しばしば、鏡面反射と呼ばれる。   In order to model the initial reflection, a virtual sound source method is employed that uses ray tracing to calculate the reflection of sound to the surface using a virtual sound source. A virtual acoustic source is obtained by mirroring the acoustic source with respect to the surface. These reflections are often referred to as specular reflections.

以下、この実施の形態では、鏡面反射に言及する際には、単に「反射」という用語を使用する。   Hereinafter, in this embodiment, when referring to specular reflection, the term “reflection” is simply used.

本実施の形態での音響源定位の方法では、マルチモーダルセンシングを利用したアプローチを、音響源のマッピングおよびロボットなどの自律的移動体の安全なナビゲーションに使用する。   In the method of sound source localization according to the present embodiment, an approach using multimodal sensing is used for sound source mapping and safe navigation of an autonomous mobile body such as a robot.

音響源のマッピングは、ロボットからの路程測定情報と3次元レーザスキャナからのデータを組み合わせることにより行なわれる。その後、得られた3次元地図は、ロボットのナビゲーションの間に音響反射解析に使用される。   The mapping of the acoustic source is performed by combining the path measurement information from the robot and the data from the three-dimensional laser scanner. The resulting 3D map is then used for acoustic reflection analysis during robot navigation.

図2は、本実施の形態のロボット1000の構成のうち、放射音強度マップ作成のためのハードウェア構成を示す図である。なお、図2においては、ロボット1000は、ロボットが移動するための移動機構70(たとえば、差動で動作できる2つの車輪による駆動機構)を備えるものとしており、また、カメラなどのように視覚により外部環境を検知するためのセンサなどについては図示省略している。また、以下の例では、放射音強度マップを作成するための「移動体」として、2輪で駆動される人型の自律移動型ロボットを例にとって説明するが、本発明における移動体はこのようなものに制限されず、自律的に空間内を移動可能な物であれば、他の構成の移動体やロボットでもよい。   FIG. 2 is a diagram showing a hardware configuration for creating a radiated sound intensity map among the configurations of the robot 1000 according to the present embodiment. In FIG. 2, the robot 1000 is provided with a moving mechanism 70 (for example, a driving mechanism using two wheels that can operate in a differential manner) for moving the robot, and visually, like a camera. A sensor for detecting the external environment is not shown. In the following example, a human-type autonomous mobile robot driven by two wheels will be described as an example of a “moving body” for creating a radiated sound intensity map. The moving body and the robot having other configurations may be used as long as they can move autonomously in the space without being limited thereto.

図2を参照して、ロボット1000は、2輪の駆動機構によりロボットを移動させる移動機構70に対して、その移動距離、速度、角速度などを検出するための路程測定センサ10と、ロボット1000の前面に搭載され、レーザ光のスキャンにより前方に存在する対象物までの距離を計測するための前面レーザレンジファインダ(LRF:Laser Range Finder)20と、ロボット1000の後面に搭載され、レーザ光のスキャンにより後方に存在する対象物までの距離を計測するための後面レーザレンジファインダ(LRF)30と、3次元の幾何学マップを作成するための計測を行う3D光検知測距センサー(以下、3次元LRFと呼ぶ)32と、路程測定センサ10や前面LRF20および後面LRF30からの信号ならびに3次元LRF32からの信号を、バス1060を介してデータとして出力し、あるいは、バス1060からのコマンドをこれらのセンサに伝達するためのセンサ入出力ボード40とを備える。   Referring to FIG. 2, robot 1000 has a path length measurement sensor 10 for detecting a moving distance, a speed, an angular velocity, and the like of a moving mechanism 70 that moves the robot by a two-wheel drive mechanism. A laser range finder (LRF) 20 that is mounted on the front and measures the distance to an object that is in front by scanning the laser beam, and mounted on the rear surface of the robot 1000 and scans the laser beam. The rear surface laser range finder (LRF) 30 for measuring the distance to the object existing behind and the 3D light detection distance measuring sensor (hereinafter referred to as 3D) that performs measurement for creating a 3D geometric map. LRF) 32, signals from the path length measurement sensor 10, the front surface LRF 20, and the rear surface LRF 30, and the three-dimensional LRF 3 The signals from, and output as data through the bus 1060, or, and a sensor output board 40 for transmitting a command from the bus 1060 to the sensors.

ロボット1000は、さらに、ワーキングメモリとして機能し、RAM(Random Access Memory)などで構成されるメモリ1050と、ロボット1000が動作するためのプログラム(図示せず)や3次元幾何学マップ1102、3次元幾何学マップから作成される八分木データ1106および空間内の対象物の表面法線を予め算出して格納する表面法線ルックアップテーブル1108、音響源マップ1104などを格納するための不揮発性記憶装置1100とを備える。不揮発性記憶装置1100としては、ランダムアクセス可能な記憶装置であれば、ハードディスクを用いてもよいし、あるいは、SSD(Solid State Drive)などを用いてもよい。「3次元幾何学マップ」とは、ロボット1000が移動する3次元空間内の壁や固定・半固定の定常的に存在する対象物の位置を幾何学的に地図上に表現したデータのことをいう。八分木データ1106とは、空間データベース(オブジェクト群の空間上の位置などの情報を格納するデータベース)での空間クエリの最適化に使われる空間インデックスの一種であり、木構造の一種で、各ノードに最大8個の子ノードがある。3次元空間を8つのオクタント(八分空間)に再帰的に分割する場合に使われるデータである。また、表面法線ルックアップテーブル1108とは、上述のとおり、3次元空間内の壁や固定・半固定の定常的に存在する対象物の表面の各点について、予めその法線方向を算出しておいたテーブルであり、後に説明するように、対象物からの反射を計算する際に利用される。   The robot 1000 further functions as a working memory and includes a memory 1050 including a RAM (Random Access Memory), a program (not shown) for operating the robot 1000, a three-dimensional geometric map 1102, and a three-dimensional Non-volatile storage for storing the octree data 1106 created from the geometric map, the surface normal lookup table 1108 for calculating and storing the surface normal of the object in space, the acoustic source map 1104, and the like. Device 1100. As the nonvolatile storage device 1100, a hard disk may be used as long as it is a randomly accessible storage device, or an SSD (Solid State Drive) or the like may be used. The “three-dimensional geometric map” is data that geometrically represents the position of a wall or a fixed / semi-fixed object in the three-dimensional space where the robot 1000 moves on a map. Say. The octree data 1106 is a kind of spatial index used for optimizing a spatial query in a spatial database (a database that stores information such as the position of objects in the space), and is a kind of tree structure. The node has a maximum of 8 child nodes. This data is used when recursively dividing a three-dimensional space into eight octants. In addition, as described above, the surface normal lookup table 1108 calculates the normal direction in advance for each point on the surface of a wall or a fixed / semi-fixed object in a three-dimensional space. This table is used when calculating the reflection from the object, as will be described later.

ロボット1000は、さらに、音源の方向(音の到来方向)とその方向からの音響パワーを測定するためのマイクロフォンアレイ1052と、マイクロフォンアレイ1052からの信号をバス1060に伝達する信号に変換するための音声入出力ボード1054と、ロボット1000の動作を制御し、3次元幾何学マップの作成、音響マップの作成および更新処理を実行するための演算装置であるプロセッサ1010とを備える。なお、図14では、図示省略されているが、音声入出力ボードには、プロセッサ1010により生成された音声を、ユーザとのコミュニケーションのために再生するスピーカも接続されている。   The robot 1000 further includes a microphone array 1052 for measuring the direction of the sound source (sound arrival direction) and the acoustic power from the direction, and a signal for transmitting the signal from the microphone array 1052 to a signal transmitted to the bus 1060. A voice input / output board 1054 and a processor 1010 which is an arithmetic unit for controlling the operation of the robot 1000 and executing creation of a three-dimensional geometric map and creation and update of an acoustic map are provided. Although not shown in FIG. 14, the audio input / output board is also connected to a speaker that reproduces the audio generated by the processor 1010 for communication with the user.

プロセッサ1010は、不揮発性記憶装置1100に格納されたプログラムに基づいて、路程測定センサ10や前面LRF20および後面LRF30からの信号ならびに3次元LRF32からの信号に基づいて、3次元幾何学マップの作成を行う幾何学マップ作成部1030と、マイクロフォンアレイ1052からの信号に基づいて、音源パワーのスペクトルを取得する処理を実行するステアード応答パワー取得部1050と、音源パワースペクトルに基づいて、音源方向(音の到来方向)をロボット座標上で推定するための到来音方位分布推定部1060と、路程測定センサ10や前面LRF20および後面LRF30からの信号に基づいて、ロボットの姿勢(位置・方向)を特定するための移動体姿勢特定処理部1040と、特定されたロボット姿勢と3次元幾何学マップ1102と到来音方位分布推定部1060の推定結果に基づいて、音源位置を推定する音響源位置推定処理部1070とを備える。   The processor 1010 creates a three-dimensional geometric map based on the signals from the path measurement sensor 10, the front surface LRF 20 and the rear surface LRF 30, and the signals from the three-dimensional LRF 32, based on a program stored in the nonvolatile storage device 1100. A geometric map creation unit 1030 to perform, a steered response power acquisition unit 1050 for executing processing for acquiring a spectrum of a sound source power based on a signal from the microphone array 1052, and a sound source direction (sound of the sound) based on the sound source power spectrum. In order to specify the posture (position / direction) of the robot on the basis of signals from the arrival sound direction distribution estimation unit 1060 for estimating the arrival direction on the robot coordinates, and the path length measurement sensor 10, the front surface LRF 20, and the rear surface LRF 30. Mobile body posture identification processing unit 1040 Based on the estimation results of the bot position and three-dimensional geometrical map 1102 arrival sound orientation distribution estimation unit 1060, and a sound source position estimation processing unit 1070 for estimating the sound source position.

ここで、位相差を用いた音源方向推定の場合は、SRP−PHAT法(Steered Response Power - Phase Alignment Transform)を用いて音源方向推定を行うことが可能である。
[コンピュータによる実現]
上記したプロセッサ1010や不揮発性記憶装置1100の機能は、実際にはコンピュータハードウェアと、当該コンピュータハードウェアにより実行されるコンピュータプログラムとにより、 ハードウェアとソフトウェアとの協働により実現される。以下、音源定位の処理の機能を実現するためのコンピュータプログラムの動作について簡単に説明する。
Here, in the case of sound source direction estimation using the phase difference, it is possible to perform sound source direction estimation using the SRP-PHAT method (Steered Response Power-Phase Alignment Transform).
[Realization by computer]
The functions of the processor 1010 and the nonvolatile storage device 1100 described above are actually realized by the cooperation of hardware and software by computer hardware and a computer program executed by the computer hardware. The operation of the computer program for realizing the sound source localization processing function will be briefly described below.

図3は、このようなコンピュータプログラムを実行するためのコンピュータシステム2000のハードウェア構成をブロック図形式で示す図である。   FIG. 3 is a block diagram showing the hardware configuration of a computer system 2000 for executing such a computer program.

図3に 示されるように、このコンピュータシステム2000を構成するコンピュータ本体2010は、ディスクドライブ2030およびメモリドライブ2020に加えて、それぞれバス2050に接続されたCPU(Central Processing Unit )2040と、ROM(Read Only Memory) 2060およびRAM (Random Access Memory)2070を含むメモリと、不揮発性の書換え可能な記憶装置、たとえば、ハードディスク(あるいはSSD)2080と、ネットワークを介しての通信を行うための通信インタフェース2090と、マイクロホンアレイMC1およびMC2と信号の授受を行うための音声入力インタフェース2092とを含んでいる。ディスクライブ2030には、CD−ROM2200などの光ディスクが装着される。メモリドライブ2020にはメモリカード2210が装着される。   As shown in FIG. 3, in addition to the disk drive 2030 and the memory drive 2020, the computer main body 2010 constituting the computer system 2000 includes a CPU (Central Processing Unit) 2040 and a ROM (Read Only memory) 2060 and RAM (Random Access Memory) 2070, a non-volatile rewritable storage device such as a hard disk (or SSD) 2080, and a communication interface 2090 for performing communication via a network , And microphone arrays MC1 and MC2, and an audio input interface 2092 for exchanging signals. The disc 2030 is loaded with an optical disc such as a CD-ROM 2200. A memory card 2210 is attached to the memory drive 2020.

後に説明するように、源位置推定処理を行う装置のプログラムが動作するにあたっては、その動作の基礎となる情報を格納するデータベースは、ハードディスク2080に格納されるものとして説明を行う。   As will be described later, when the program of the apparatus that performs the source position estimation process operates, the database that stores information that is the basis of the operation is described as being stored in the hard disk 2080.

なお、図3では、コンピュータ本体に対してインストールされるプログラム等の情報を記録可能な媒体として、CD−ROM2200を想定しているが、他の媒体、たとえば、DVD−ROM(Digital Versatile Disc)などでもよく、あるいは、メモリカードやUSBメモリなどでもよい。その場合は、コンピュータ本体2010には、これらの媒体を読取ることが可能なドライブ装置が設けられる。   In FIG. 3, the CD-ROM 2200 is assumed as a medium capable of recording information such as a program installed in the computer main body. However, other media such as a DVD-ROM (Digital Versatile Disc) is used. Alternatively, a memory card or a USB memory may be used. In that case, the computer main body 2010 is provided with a drive device capable of reading these media.

入力装置2100、2110や、表示ディスプレイ2120は、必要に応じて、設けられる。   The input devices 2100 and 2110 and the display display 2120 are provided as necessary.

音源位置推定処理を行う装置の主要部は、コンピュータハードウェアと、CPU2040により実行されるソフトウェアとにより構成される。一般的にこうしたソフトウェアは CD−ROM2200等の記憶媒体に格納されて流通し、ディスクドライブ2030等により記憶媒体から読取られて ハードディスク2080に一旦格納される。または、当該装置がネットワーク310に接続されている場合には、ネットワーク上のサーバから一旦ハードディスク2080にコピーされる。そうしてさらにハードディスク2080からメモリ中のRAM2070に読出されてCPU2040により実行される。なお、ネットワーク接続されている場合には、ハードディスク2080に格納することなくRAMに直接ロードして実行するようにしてもよい。   The main part of the apparatus that performs the sound source position estimation process is configured by computer hardware and software executed by the CPU 2040. Generally, such software is stored and distributed in a storage medium such as a CD-ROM 2200, read from the storage medium by a disk drive 2030 or the like, and temporarily stored in the hard disk 2080. Alternatively, when the device is connected to the network 310, it is temporarily copied from the server on the network to the hard disk 2080. Then, the data is further read from the hard disk 2080 to the RAM 2070 in the memory and executed by the CPU 2040. In the case of network connection, the program may be directly loaded into the RAM and executed without being stored in the hard disk 2080.

音源位置推定処理を行う装置として機能するためのプログラムは、コンピュータ本体2010に、情報処理装置等の機能を実行させるオペレーティングシステム(OS)は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム20がどのように動作するかは周知であり、詳細な説明は省略する。   A program for functioning as a device for performing sound source position estimation processing does not necessarily include an operating system (OS) that causes the computer main body 2010 to execute functions such as an information processing device. The program only needs to include an instruction portion that calls an appropriate function (module) in a controlled manner and obtains a desired result. How the computer system 20 operates is well known and will not be described in detail.

また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。   Further, the computer that executes the program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

さらに、CPU2040も、1つのプロセッサであっても、あるいは複数のプロセッサであってもよい。すなわち、シングルコアのプロセッサであっても、マルチコアのプロセッサであってもよい。   Further, the CPU 2040 may be a single processor or a plurality of processors. That is, it may be a single core processor or a multi-core processor.

なお、音源位置推定処理を行う装置のプログラムの動作の基礎となる情報を格納するデータベースは、インタフェース2090を介して接続される外部の記憶装置内に格納されていてもよい。たとえば、ネットワークを介して外部サーバに接続している場合は、動作の基礎となる情報を格納するデータベースは、外部サーバ内のハードディスク(図示せず)等の記憶装置に格納されていてもよい。この場合は、コンピュータ2000はクライエント機として動作し、このようなデータベースのデータをネットワークを介して外部サーバとやり取りする。   Note that a database that stores information that is the basis of the operation of the program of the device that performs sound source position estimation processing may be stored in an external storage device connected via the interface 2090. For example, when connected to an external server via a network, a database that stores information serving as a basis of operation may be stored in a storage device such as a hard disk (not shown) in the external server. In this case, the computer 2000 operates as a client machine, and exchanges such database data with an external server via a network.

図4は、ロボット1000の外観を示す図である。   FIG. 4 is a diagram illustrating an appearance of the robot 1000.

図2および図4を参照して、ロボット1000の前面および後面には、前面レーザレンジファインダ(LRF:Laser Range Finder)20と、後面レーザレンジファインダ(LRF)30と、3次元LRF32とが設けられる。また、移動機構70である車輪には、路程測定センサ10が取り付けられている。   Referring to FIGS. 2 and 4, a front laser range finder (LRF) 20, a rear laser range finder (LRF) 30, and a three-dimensional LRF 32 are provided on the front and rear surfaces of the robot 1000. . Further, a path length measurement sensor 10 is attached to a wheel that is the moving mechanism 70.

対象物(障害物)による反射音の強さは、プラットフォームの位置(操縦されたレスポンス・パワー・アルゴリズムで評価された)での音の強さおよびオブジェクト(レーザーレンジファインダを使用して評価された)への距離を組み合わせることにより評価される。   The intensity of the reflected sound from the object (obstacle) was evaluated using the sound intensity at the platform position (evaluated by the maneuvered response power algorithm) and the object (laser range finder) ) By combining the distance to.

パーティクルフィルタに基づいた位置特定アルゴリズムから得られたプラットフォームの姿勢と、プラットフォームの位置で評価された音の強さを組み合わせることによって、対象物からの反射音の音響源の位置は、環境をカバーするグリッドマップのセルの中で特定される。   By combining the platform attitude obtained from the localization algorithm based on particle filter and the sound intensity evaluated at the platform position, the position of the sound source of the reflected sound from the object covers the environment Identified in a grid map cell.

本実施の形態では、音響自身についても、それに含まれる多様な情報が、交差する場所でロボットの視野外の移動体を検知するために使用される。仮定としては、これらの移動体が音を放射しており、これらの音が環境に反射するということである。   In the present embodiment, various information included in the sound itself is used to detect a moving object outside the field of view of the robot at the intersection. The assumption is that these mobiles are emitting sound and these sounds are reflected back to the environment.

音響伝播特性に基づいて、反射された音は、ロボットに搭載されたマイクロホンアレイ1052に達する。   Based on the acoustic propagation characteristics, the reflected sound reaches the microphone array 1052 mounted on the robot.

従って、廊下などの通路が交差する場所で、ロボットに搭載された音響源位置推定処理部1070が、到来する反射された音の到来方向(DOA)を評価する。   Therefore, the acoustic source position estimation processing unit 1070 mounted on the robot evaluates the arrival direction (DOA) of the reflected sound that arrives at a place where passages such as a corridor intersect.

到来する音の到来方向およびロボットの姿勢を知って、受信音が発せられた環境内の位置を見つけるために、レイ・トレーシング処理部1072がレイ・トレーシングを行う。   In order to know the arrival direction of the incoming sound and the posture of the robot and find the position in the environment where the received sound is emitted, the ray tracing processing unit 1072 performs ray tracing.

音の反射物の特性、特に反射面の法線を決定することができれば、反射された音の(反射ポイントでの)到来方向を計算することは可能である。レイ・トレーシングおよび反射計算手続を繰り返すと、アコースティック・レイは、ロボット位置から音響源まで決定することができる。   If the properties of the sound reflector, especially the normal of the reflecting surface, can be determined, it is possible to calculate the direction of arrival of the reflected sound (at the reflection point). By repeating the ray tracing and reflection calculation procedure, the acoustic ray can be determined from the robot position to the acoustic source.

しかしながら、1つのアコースティック・レイでは、反射の数および音響源の正確な位置を決定することは可能ではない。この理由で、音響源の位置は、複数のアコースティック・レイの計算およびそれらの交差の決定により評価される。このためには、同じ音響源の異なる反射にそれぞれ対応して、オーディオスキャンがいくつかの極大値を呈することを必要とする。
(環境の3次元の幾何学的な地図の作成)
放射音の強さマップの生成の前提として、環境について記述し、モバイル・プラットフォームがそれ自体の位置を特定することを可能にするような3次元の幾何学的なマップが予め準備されていることが必要である。このような3次元幾何学マップの作成は、幾何学マップ作成部1030により実行される。
However, with one acoustic ray, it is not possible to determine the number of reflections and the exact location of the acoustic source. For this reason, the location of the acoustic source is evaluated by calculating a plurality of acoustic rays and determining their intersection. This requires that the audio scan exhibit several maxima corresponding to different reflections of the same acoustic source.
(Create a three-dimensional geometric map of the environment)
As a prerequisite for generating a radiated sound intensity map, a three-dimensional geometric map is prepared in advance that describes the environment and allows the mobile platform to locate itself. is necessary. Creation of such a three-dimensional geometric map is executed by the geometric map creation unit 1030.

そのような幾何学マップは、「占有グリッド」によって環境を表わすものである。すなわち、そのようなマップは、グリッドを構成する各セルは、以下の3種類に分類される。   Such a geometric map represents the environment by an “occupied grid”. That is, in such a map, each cell constituting the grid is classified into the following three types.

i)セルは空である(オープンスペース)。   i) The cell is empty (open space).

ii)セルは、占有されている(壁や構造物が存在する)。   ii) The cell is occupied (there are walls and structures).

iii)セルは、未調査である(空であるか占有されているか不明)。   iii) The cell has not been investigated (it is unknown whether it is empty or occupied).

幾何学的なマップは3Dツールキット・ライブラリ・フレームワークを使用して、前もって構築される。   The geometric map is pre-built using a 3D toolkit library framework.

ここで、このようなフレームワークについては、以下の文献に開示がある。   Here, such a framework is disclosed in the following documents.

公知文献3:D. Borrmann, J. Elseberg, K. Lingemann, Andreas Nuchter, and J. Hertzberg, “The Efficient Extension of Globally Consistent Scan Matching to 6 DoF,” in Proceedings of the 4th International Symposium on 3D Data Processing, Visualization and Transmission (3DPVT ’08), Atlanta, USA, June 2008, pp. 29-36.
そこで、簡単に説明することにすると、第1に、幾何学的なマップを構築するのに必要な路程測定とLRFのデータは、ユーザの操作での遠隔制御装置により、環境をモバイル・プラットフォームが通過することにより集められる。
Known Document 3: D. Borrmann, J. Elseberg, K. Lingemann, Andreas Nuchter, and J. Hertzberg, “The Efficient Extension of Globally Consistent Scan Matching to 6 DoF,” in Proceedings of the 4th International Symposium on 3D Data Processing, Visualization and Transmission (3DPVT '08), Atlanta, USA, June 2008, pp. 29-36.
Therefore, to explain briefly, first, the path measurement and LRF data necessary to construct a geometric map are transferred to the mobile platform by the remote control device operated by the user. Collected by passing.

続いて、このようにして収集された情報によって幾何学マップを作成のための、同時の測位およびマッピング(SLAM:Simultaneous Localization And Mapping)に基づくマッピング技術は、これまでにもよく研究され、完成されて、実際にも適用されてきたものである。   Subsequently, mapping technology based on simultaneous positioning and mapping (SLAM) for creating geometric maps based on the information collected in this way has been well studied and completed. It has been applied in practice.

この実施の形態では、グリッド地図の生成のために、その技術を使用する。   In this embodiment, the technique is used to generate a grid map.

たとえば、ICP(iterative closest point)ベースのSLAMを使用し、3DToolkitライブラリ・フレームワークを用いて、ロボットの軌道を修正し、かつレーザレンジファインダのスキャンを、地図に対して整合させる。   For example, using an iterative closest point (ICP) based SLAM, a 3D Toolkit library framework is used to modify the robot trajectory and align the laser rangefinder scan with the map.

その結果得られる整合されたスキャンで、占有グリッド地図が作成される。   With the resulting aligned scan, an occupancy grid map is created.

このような占有グリッド地図については、たとえば、以下の文献に開示がある。   Such an occupation grid map is disclosed in, for example, the following documents.

公知文献4:A. Elfes, “Using occupancy grids for mobile robot perception and navigation,” Computer, vol. 22, no. 6, pp. 46-57, June 1989.
したがって、本実施の形態において、「レーザレンジファインダのスキャンを、地図に整合させる」とは、レーザレンジファインダのスキャンの方向および測位の位置が設計図面においてどの方向および位置に対応するかを整合させることをいい、「占有グリッド」とは、幾何学マップにおいて、固定対象物(壁などのような固定的な対象物およびテレビのような半固定的な対象物であって、測定対象となる時間間隔に対して、固定されているとみなされるもの)により、占有されているグリッドのことをいう。
Known Document 4: A. Elfes, “Using occupancy grids for mobile robot perception and navigation,” Computer, vol. 22, no. 6, pp. 46-57, June 1989.
Therefore, in the present embodiment, “matching the scan of the laser range finder to the map” means matching the direction and position of the scan of the laser range finder and the positioning position in the design drawing. The “occupied grid” is a fixed object (a fixed object such as a wall or a semi-fixed object such as a television set) on a geometric map, and is the time to be measured. A grid that is occupied by what is considered fixed relative to the spacing.

後に説明するように、本実施の形態では、音響源の方向と「占有グリッド」に関する情報とを組み合わせることで、空間内の音響源の位置を特定する。   As will be described later, in the present embodiment, the position of the acoustic source in the space is specified by combining the direction of the acoustic source and information related to the “occupied grid”.

マップのセルの分解能は5cm×5cm×5cmに設定された。   The resolution of the map cell was set to 5 cm × 5 cm × 5 cm.

3次元幾何学マップが得られた後、この3次元幾何学マップは、オクトマップフレームワークを使用して、オクトツリー(八分木)に変換された。   After the 3D geometric map was obtained, the 3D geometric map was converted to an octree using an octomap framework.

このようなオクトマップフレームワークは、たとえば、以下の文献に開示がある。   Such an octomap framework is disclosed in the following document, for example.

公知文献5:A. Hornung, K. M. Wurm, M. Bennewitz, C. Stachniss, and W. Burgard, “OctoMap: An efficient probabilistic 3D mapping framework based on octrees,” Autonomous Robots, 2013, software available at http://octomap.github.com. [Online]. Available: http: //octomap.github.com
(ロボットの位置の特定)
ロボット1000の位置を特定する目的は、環境を表わす幾何学的なマップ中のロボット1000の姿勢(場所と方向)を正確に評価することである。
Known Document 5: A. Hornung, KM Wurm, M. Bennewitz, C. Stachniss, and W. Burgard, “OctoMap: An efficient probabilistic 3D mapping framework based on octrees,” Autonomous Robots, 2013, software available at http: // octomap.github.com. [Online]. Available: http: //octomap.github.com
(Identification of robot position)
The purpose of specifying the position of the robot 1000 is to accurately evaluate the posture (location and direction) of the robot 1000 in the geometric map representing the environment.

移動体姿勢特定処理部1040は、路程測定(ホイール・エンコーダ)およびLRF20,30からの情報を組み合わせるパーティクルフィルタに基づいた位置特定アルゴリズムによって行なわれる。   The moving body posture identification processing unit 1040 is performed by a position identification algorithm based on a particle filter that combines the path length measurement (wheel encoder) and information from the LRFs 20 and 30.

1セットのM個のパーティクルは、ロボット1000の姿勢の確率密度関数を近似する。   One set of M particles approximates the probability density function of the posture of the robot 1000.

推定ステップの間のパーティクルの尤度はレイキャスティングアプローチに基づく。   The likelihood of particles during the estimation step is based on a ray casting approach.

ロボット1000の姿勢{x(k),y(k),θ(k)}は、パーティクルの姿勢の加重平均(あるいは、最も有望なパーティクルの姿勢を用いることとしてもよい)から与えられる。   The posture {x (k), y (k), θ (k)} of the robot 1000 is given from a weighted average of particle postures (or the most promising particle posture may be used).

図5は、レーザレンジファインダによる測距処理の概念を説明するための図である。   FIG. 5 is a diagram for explaining the concept of distance measurement processing by the laser range finder.

レーザレンジファインダは、ロボット1000から角度bでレーザ光を照射して、その角度bについて対象物までの距離zを測定する装置である。角度bを変化させてスキャンすることで、一定の角度範囲内の対象物までの距離を取得できる。   The laser range finder is a device that irradiates laser light from the robot 1000 at an angle b and measures the distance z to the target object at the angle b. By scanning while changing the angle b, the distance to the object within a certain angle range can be acquired.

図5に示されるように、前面LRF20および後面LRF30によりロボットの周囲360度に存在する対象物までの距離を、各一回のスキャンで取得することが可能である。   As shown in FIG. 5, it is possible to acquire the distance to the object existing at 360 degrees around the robot by the front surface LRF 20 and the rear surface LRF 30 in each one scan.

図6は、ロボット1000の位置の特定の処理の概念を説明するための図である。   FIG. 6 is a diagram for explaining the concept of the process for specifying the position of the robot 1000.

図6(a)に示すように、ロボット1000の位置を特定するにあたり、路程センサ10のみを使用した場合、実際には、出発点と終点が一致するようにロボット1000が移動したとしても、ロボット内部で特定されたロボットの位置がずれてしまう。   As shown in FIG. 6A, when only the path sensor 10 is used to specify the position of the robot 1000, the robot 1000 actually moves even if the start point and the end point coincide with each other. The position of the robot specified inside will shift.

これに対して、以下に説明する図6(b)に示すように、路程センサ10と、前面LRF20および後面LRF30の測距データとを組み合わせると、ロボット内部で特定される位置においても、出発点と終点が一致する。   On the other hand, as shown in FIG. 6B described below, when the distance sensor 10 and the distance measurement data of the front surface LRF 20 and the rear surface LRF 30 are combined, even at a position specified inside the robot, the starting point And the end point match.

このように、路程センサ10と、前面LRF20および後面LRF30の測距データとを組み合わせるために、以下に説明するように、本実施の形態では、ロボット位置を評価するにあたり、重みづけられたM個のパーティクルによるパーティクルフィルタ・アプローチを使用する。   Thus, in order to combine the distance sensor 10 and the distance measurement data of the front surface LRF 20 and the rear surface LRF 30, as described below, in this embodiment, the weighted M pieces are used in evaluating the robot position. Use a particle filter approach with multiple particles.

m個の各パーティクルには、その属性として、ロボット1000の候補位置{xm(k),ym(k)}および候補方向{qm(k)}、ならびに、パーティクル重み{wm(k)}を含む状態ベクトルsm[t]={xm(k),ym(k),qm(k),wm(k)}が対応付けられる。   Each of the m particles includes, as its attributes, the candidate position {xm (k), ym (k)} and candidate direction {qm (k)} of the robot 1000 and the particle weight {wm (k)}. State vectors sm [t] = {xm (k), ym (k), qm (k), wm (k)} are associated.

ロボット1000が移動する間、各パーティクルも、さらに路程測定および確率論的な動作模型(それはロボット運動に不確実性について記述する)に基づいて運動する。   While the robot 1000 moves, each particle also moves based on path length measurement and a stochastic motion model (which describes uncertainty in the robot motion).

さらに、パーティクルに対して重みを算出する過程で、パーティクルフィルタは、レーザレンジファインダによる測定に基づく尤度を考慮して、事後確率を推定する。   Further, in the process of calculating the weight for the particle, the particle filter estimates the posterior probability in consideration of the likelihood based on the measurement by the laser range finder.

図7は、パーティクルフィルタを用いたロボット1000の位置の特定処理を説明するためのフローチャートである。   FIG. 7 is a flowchart for explaining the process of specifying the position of the robot 1000 using the particle filter.

図7を参照して、処理が開始されると、まず、移動体姿勢特定処理部1040は、各パーティクルの属性の初期化を行う(S100)。   Referring to FIG. 7, when the process is started, first, the moving body posture identification processing unit 1040 initializes the attribute of each particle (S100).

続いて、移動体姿勢特定処理部1040は、変数mを1から順次mの最大値mmaxまでインクリメントしながら、パーティクルの状態ベクトルsm[t]を、路程計測の結果と動作モデル、および前時刻の状態ベクトルsm[t−1]とに基づいて、算出する(S102、S104,S106,S108のループ)。   Subsequently, the moving body posture identification processing unit 1040 increments the variable m sequentially from 1 to the maximum value mmax of m, and obtains the particle state vector sm [t], the path measurement result, the motion model, and the previous time. Calculation is performed based on the state vector sm [t-1] (loop of S102, S104, S106, and S108).

図8は、パーティクルの状態ベクトルsm[t]の算出の概念を説明するための図である。   FIG. 8 is a diagram for explaining the concept of calculating the particle state vector sm [t].

図8に示されるように、路程センサ10は、右側の車輪の速度v_rおよび左側の車輪の速度v_lを計測しているので、それにより、移動体姿勢特定処理部1040は、ロボット1000の速度Vおよび各速度Rを算出することができる。これにより、前時刻の状態ベクトルsm[t−1]から、Δt時間だけ経過した後のパーティクルの状態ベクトルsm[t]を算出することになる。なお、各パーティクルは、位置だけでなく、方向も異なっている。   As shown in FIG. 8, the path sensor 10 measures the speed v_r of the right wheel and the speed v_l of the left wheel, so that the moving body posture identification processing unit 1040 causes the speed V of the robot 1000 to be measured. And each speed R can be calculated. As a result, the state vector sm [t] of the particle after the lapse of Δt time is calculated from the state vector sm [t−1] at the previous time. Each particle is different not only in position but also in direction.

図7に戻って、続いて、ロボット1000では、プロセッサ1010に制御されて、パーティクルをカウントするための変数mを1に初期化し(S108)、測定角度および変数kの初期化を行った(S110)後に、角度θ0から所定の角度Δθごとにレーザレンジファインダ20および30により、対象物までの測距を行う(S112)。   Returning to FIG. 7, subsequently, the robot 1000 is controlled by the processor 1010 to initialize the variable m for counting particles to 1 (S108), and initialize the measurement angle and the variable k (S110). ) After that, distance measurement to the object is performed by the laser range finders 20 and 30 every predetermined angle Δθ from the angle θ0 (S112).

続いて、移動体姿勢特定処理部1040は、パーティクル毎に、時刻tにおいて、その向きにおいて、対象物までの距離に基づいて、各パーティクルについての尤度を計算する(S114)。   Subsequently, the moving body posture identification processing unit 1040 calculates the likelihood for each particle based on the distance to the target object at the time t in each direction at time t (S114).

図9は、このような対象物までの距離に基づく各パーティクルについての尤度を示す図である。   FIG. 9 is a diagram showing the likelihood of each particle based on the distance to such an object.

このようなレーザレンジファインダの測距に基づく尤度については、パーティクルを対象とするものではないが、以下の文献に記載がある。   The likelihood based on the distance measurement of such a laser range finder is not intended for particles, but is described in the following documents.

公知文献6:S. Thrun, W. Burgard, and D. Fox, Probabilistic Robotics (Intelligent Robotics and Autonomous Agents),The MIT Press, 2005.
図9(a)に示すように、レーザレンジファインダにより対象物までの距離がzt*である場合、このような尤度(事後確率分布)は、以下の確率分布を重ね合わせたものである。
Known Document 6: S. Thrun, W. Burgard, and D. Fox, Probabilistic Robotics (Intelligent Robotics and Autonomous Agents), The MIT Press, 2005.
As shown in FIG. 9A, when the distance to the object is zt * by the laser range finder, such likelihood (posterior probability distribution) is obtained by superimposing the following probability distributions.

i)測定ノイズを考慮した測定距離zt*を中心とするガウス分布
ii)ロボットが移動することにより予期しない対象物が検出される確率であって、距離に対して指数関数的に減少する分布
iii)最大測距可能範囲内に対象物が存在しない場合に測距データが最大値となる確率
iv)ランダムな要因によるホワイトノイズに相当する確率分布
ただし、以下の説明では、簡単のために、尤度は、図9(b)のように表されるものとして説明する。
i) Gaussian distribution centered on the measurement distance zt * in consideration of measurement noise ii) Probability that an unexpected object is detected when the robot moves, and a distribution that decreases exponentially with distance iii ) Probability that the distance measurement data will be the maximum when there is no object within the maximum distance measurement range iv) Probability distribution corresponding to white noise due to random factors However, in the following description, for the sake of simplicity The degree will be described assuming that the degree is expressed as shown in FIG.

図10は、レーザレンジファインダの測定結果(測距データ)に基づいて、パーティクルの尤度を算出する手続きを説明するための概念図である。   FIG. 10 is a conceptual diagram for explaining a procedure for calculating the likelihood of particles based on the measurement result (ranging data) of the laser range finder.

図10に示されるように、ロボット1000の現実の位置からレーザレンジファインダにより、角度θkでの対象物までの距離がz*として測定された場合を考える。   Consider the case where the distance from the actual position of the robot 1000 to the object at the angle θk is measured as z * from the actual position of the robot 1000 as shown in FIG.

このとき、パーティクル1については、その位置および向きから、光線を発射したとして、幾何学マップにおいて、角度θkでの対象物までの距離がZ1*であると算出され、パーティクル2については、その位置および向きから、光線を発射したとして、幾何学マップにおいて、角度θkでの対象物までの距離がZ2*であると算出されるとする。   At this time, with respect to the particle 1, it is calculated that the distance to the object at the angle θk is Z1 * in the geometric map, assuming that a light ray is emitted from its position and orientation. Assume that the distance to the object at the angle θk is calculated to be Z2 * in the geometric map, assuming that a ray is emitted from the direction.

ここで、このようなパーティクルから対象物まで仮想的に光線を照射する処理も、現実のレーザ光のスキャンの動作において光線を所定の角度で照射することを「レイキャスト」と呼ぶのに対応して、「レイキャスト」と呼ぶことにする。   Here, the process of irradiating light rays virtually from the particles to the object also corresponds to the fact that irradiating light rays at a predetermined angle in the actual scanning operation of laser light is called “ray casting”. This is called “Raycast”.

このとき、移動体姿勢特定処理部1040は、図9に示した確率分布に基づいて、図10に示すように、パーティクル1の尤度を、L1と算出し、パーティクル2の尤度を、L2と算出する(S114)。   At this time, based on the probability distribution shown in FIG. 9, the moving body posture identification processing unit 1040 calculates the likelihood of the particle 1 as L1, as shown in FIG. 10, and sets the likelihood of the particle 2 as L2. Is calculated (S114).

移動体姿勢特定処理部1040は、角度θkが最大値に達していなければ(S116)、角度θkをΔθだけ更新し(S118)、角度θkでの対象物までの距離のレーザレンジファインダでの計測、および各パーティクルについて角度θkでの対象物までの距離の算出に基づいて、図9に示した確率分布により、尤度を算出し積算する(S114)。   If the angle θk does not reach the maximum value (S116), the moving body posture specifying processing unit 1040 updates the angle θk by Δθ (S118), and measures the distance to the object at the angle θk with the laser range finder. Based on the calculation of the distance to the object at the angle θk for each particle, the likelihood is calculated and integrated by the probability distribution shown in FIG. 9 (S114).

図11は、レーザレンジファインダによる測距と、あるパーティクルからのレイキャストの手続きを示す概念図である。   FIG. 11 is a conceptual diagram showing a procedure of distance measurement by a laser range finder and ray casting from a certain particle.

図11に示すように、角度を変更してスキャンしながら、ロボット1000からレーザレンジファインダにより測距した結果と、各パーティクルからのレイキャストにより幾何学マップ上で算出される対象物までの距離とにより、各角度におけるパーティクルの尤度を算出して、角度について得られた尤度を積算する。   As shown in FIG. 11, the result of ranging from the robot 1000 using the laser range finder while changing the angle, and the distance to the target calculated on the geometric map by ray casting from each particle, Thus, the likelihood of particles at each angle is calculated, and the likelihoods obtained for the angles are integrated.

図7に再び戻って、このような処理を角度θkが最大値に達するまで繰り返すことにより、移動体姿勢特定処理部1040は、各パーティクルの重みを尤度の高さに比例して決定する(S120)。   Returning to FIG. 7 again, by repeating such processing until the angle θk reaches the maximum value, the moving body posture identification processing unit 1040 determines the weight of each particle in proportion to the height of likelihood ( S120).

以上のようなステップS110からステップS120までの処理を、変数mの値をインクリメントしながら、パーティクルの最大個数mmaxとなるまで繰り返す(S110〜S124までのループ)。   The processes from step S110 to step S120 as described above are repeated until the maximum number mmax of particles is reached while incrementing the value of the variable m (loop from S110 to S124).

さらに、移動体姿勢特定処理部1040は、パーティクルの表す現在の状態とその重みとから、ロボット位置の確率密度分布を推定する(S126)。さらに、移動体姿勢特定処理部1040は、推定された確率密度分布を用いて、ロボットの現在の状態(位置および向き)を推定する(S128)。   Further, the moving body posture identification processing unit 1040 estimates the probability density distribution of the robot position from the current state represented by the particle and its weight (S126). Furthermore, the moving body posture identification processing unit 1040 estimates the current state (position and orientation) of the robot using the estimated probability density distribution (S128).

そして、移動体姿勢特定処理部1040は、パーティクルフィルタについて、推定された確率密度分布を用いてリサンプリング処理を行う(S130)。すなわち、たとえば、確率密度分布に比例した確率で、パーティクルを復元抽出する。つまり、確率の大きなパーティクルの抽出頻度を高くし、確率の小さなパーティクルを消滅させて、時刻tでのパーティクル集合を得る。   Then, the moving body posture identification processing unit 1040 performs resampling processing on the particle filter using the estimated probability density distribution (S130). That is, for example, particles are restored and extracted with a probability proportional to the probability density distribution. That is, the extraction frequency of particles with a large probability is increased, and particles with a small probability are extinguished to obtain a particle set at time t.

その後、処理は、ステップS102に復帰する。   Thereafter, the process returns to step S102.

以上のような処理によりパーティクルは、レイキャスティングの後には、より正確にロボットの状態を反映したパーティクルは、より高い尤度スコアを有することになって、より多くの重みが割り当てられる。   As a result of the above processing, after the ray casting, the particles more accurately reflecting the state of the robot have a higher likelihood score and are assigned more weight.

(受信方向の音の強さ)
マイクロホンアレイ1052に入射する音の到来方向は、SRPアルゴリズムによって評価される。
(Intensity of sound in the receiving direction)
The direction of arrival of sound incident on the microphone array 1052 is evaluated by the SRP algorithm.

ステアード応答パワー取得部1050は、公知文献2などにも記載のとおり、ある方向の音の強さを、ステアード応答パワー(SRP)アルゴリズムを使用して、到来角の関数として評価する。   The steered response power acquisition unit 1050 evaluates the sound intensity in a certain direction as a function of the arrival angle using a steered response power (SRP) algorithm, as described in the known document 2 and the like.

以下に説明するように、本実施の形態では、SRP法は、遅れと和ビーム形成器に基づいて実行される。   As described below, in the present embodiment, the SRP method is executed based on a delay and a sum beamformer.

48kHz(分析ウィンドウは長さ25ミリセカンドである。また、ウィンドウのシフトは10ミリセカンドである)でサンプリングされた観測信号に、短時間フーリエ変換(STFT)を適用した後に、処理が周波数領域で行われる。ここで、「短時間フーリエ変換(short-time Fourier transform, STFT)」とは、関数に窓関数をずらしながら掛けて、それにフーリエ変換することである。理論上フーリエ係数を求めるには無限の区間に渡って積分を行わなければならないが、実験値等からフーリエ係数を求めるには範囲を区切らなければならない。中央が1付近の値でその範囲外で0に収束する関数を掛けて、不連続な要素を極力排除することが行われる。これが短時間フーリエ変換である。このとき、この掛け合わせる関数を窓関数と言う。   After applying a short-time Fourier transform (STFT) to the observed signal sampled at 48 kHz (analysis window is 25 milliseconds in length and the window shift is 10 milliseconds), the processing is performed in the frequency domain. Done. Here, “short-time Fourier transform (STFT)” refers to multiplying a function while shifting a window function and performing Fourier transform on the function. Theoretically, in order to obtain a Fourier coefficient, integration must be performed over an infinite interval, but in order to obtain a Fourier coefficient from an experimental value or the like, the range must be divided. Multiplication is performed by eliminating a discontinuous element as much as possible by multiplying by a function whose value is 1 near the center and converges to 0 outside the range. This is a short-time Fourier transform. At this time, the function to be multiplied is called a window function.

STFTの後、サンプリング時間tで、周波数fにおいてQ個マイクロフォンからの観察された信号は、U1(f,t),…,UQ(f,t)と表示される。 After the STFT, at the sampling time t, the observed signal from the Q microphones at the frequency f is displayed as U 1 (f, t),..., U Q (f, t).

位相変換が、以下の式(1)の処理を行うことによりビームフォーミングの処理をする前に周波数領域の信号に適用される。   Phase transformation is applied to the frequency domain signal before beamforming by performing the following equation (1).

位相変換が、SRPで一般に行われるのでは、それが反響音に、より敏感でなくなるからである。 This is because if phase transformation is generally performed in SRP, it becomes less sensitive to reverberant sound.

マイクロフォンアレイの幾何学的配置が正確に知られているので、空間の場所(極座標{ρ,θ,φ}によって記述されたアレイの基準座標系で表現される)からの音を評価するために、空間ビーム形成を用いて、アレイをステアリングすることが可能である。   To accurately evaluate the sound from a spatial location (represented in the reference frame of the array described by polar coordinates {ρ, θ, φ}), since the geometry of the microphone array is known precisely It is possible to steer the array using spatial beamforming.

周波数fのビームフォーミング出力は、以下の式(2)によって表示される。   The beamforming output of frequency f is expressed by the following equation (2).

ここで、以下の式は、場所{ρ,θ,φ}に対するq番目のマイクロフォンにおける遅延を表す。 Here, the following expression represents the delay in the q-th microphone for the location {ρ, θ, φ}.

位相変換が、SRPで一般に行われるのでは、それが反響音に、より敏感でなくなるからである。 This is because if phase transformation is generally performed in SRP, it becomes less sensitive to reverberant sound.

マイクロホンアレイの幾何学的配置が正確に知られているので、空間の場所(極座標{ρ,θ,φ}によって記述されたアレイの基準系中で表現される)からの音を評価するために、空間ビーム形成を用いて、アレイをステアリングすることが可能である。   To accurately evaluate the sound from a spatial location (represented in the reference frame of the array described by polar coordinates {ρ, θ, φ}), since the geometry of the microphone array is known precisely It is possible to steer the array using spatial beamforming.

SRPアルゴリズムは、1セットのN個の場所に対するビーム形成器の出力パワーを評価する。   The SRP algorithm evaluates the beamformer output power for a set of N locations.

ここでは、遠場(far field)条件が成り立つと考える(アレイの開口と比較してρが大きい)。したがって、1セットのN個の位置は、n∈[1,N](ステップΔθ,Δφ)とするとき、角度{θn,φn},n∈[0,2π]により定義される。   Here, it is assumed that the far field condition is satisfied (ρ is larger than the aperture of the array). Therefore, a set of N positions is defined by angles {θn, φn}, nε [0, 2π], where nε [1, N] (steps Δθ, Δφ).

図12は、このような角度についての探索グリッドを示す図である。   FIG. 12 is a diagram showing a search grid for such an angle.

図12を参照して、探索グリッドは、正三角形状(2つの頂点間の角度は、ほぼ3°である)から成っている。
それから、音のパワーは、以下の式により、ディスクリートな周波数f1000およびf5000に対応する[1000,5000]Hzの周波数帯域内で計算される。
Referring to FIG. 12, the search grid has an equilateral triangle shape (the angle between two vertices is approximately 3 °).
The sound power is then calculated within the [1000, 5000] Hz frequency band corresponding to the discrete frequencies f 1000 and f 5000 by the following equation:

ここで、#Fは、帯域[1000,5000]Hz中のディスクリートな周波数の数である。 Here, #F is the number of discrete frequencies in the band [1000, 5000] Hz.

それから、以下の式で表される時間平均が、L(=10STFT)フレームを組み合わせるために適用される。   Then, the time average represented by the following equation is applied to combine L (= 10 STFT) frames.

ここで、kはLフレームのブロックに対応するインデックスである。 Here, k is an index corresponding to the block of the L frame.

すなわち、k番目のオーディオスキャンとは、1セットのN個の角度{θn,φn}とそれらに関連する音のパワーJn(k)のことである。   That is, the k-th audio scan is a set of N angles {θn, φn} and sound power Jn (k) associated with them.

オーディオスキャンの周波数は、10Hz(10ミリセカンドでシフトするL(=10STFT)ウィンドウ)である。   The frequency of the audio scan is 10 Hz (L (= 10 STFT) window shifted by 10 milliseconds).

マイクロホンアレイに入射する信号の到来方向は、オーディオスキャン中の極大値の探索を行なうことにより得られる。   The direction of arrival of the signal incident on the microphone array can be obtained by searching for the maximum value during the audio scan.

たとえば、図12では、オーディオスキャンは明白に2つの極大値を示している。
(3次元の幾何学マップおよび反射の計算におけるレイ・トレーシング)
以上説明したように、本実施の形態では、ビームフォーミングはSRPアルゴリズムを使用して実行される。
For example, in FIG. 12, the audio scan clearly shows two maxima.
(Ray tracing in 3D geometric maps and reflection calculations)
As described above, in this embodiment, beam forming is performed using the SRP algorithm.

興味のある方向がロボットの前方にあるので、オーディオスキャンはロボットの前面に制限して考えても一般性を失わない。オーディオスキャンは、このような条件を満たす、ヨー角θnおよびピッチ角φnの範囲に制限される。   Since the direction of interest is in front of the robot, audio scanning does not lose its generality when constrained to the front of the robot. The audio scan is limited to a range of the yaw angle θn and the pitch angle φn that satisfies such a condition.

オーディオスキャンを、ヨー角θminとθmaxの間およびピッチ角φminとφmaxの間の範囲のロボット中心座標(以下、ロボット座標)で考えることにする。   An audio scan is considered with robot center coordinates (hereinafter referred to as robot coordinates) in the range between the yaw angles θmin and θmax and the pitch angles φmin and φmax.

SRP法は上述のとおり、マイクロホンアレイ座標でのオーディオパワーの分布を与える。   As described above, the SRP method gives a distribution of audio power in the microphone array coordinates.

このオーディオパワーのデータは、ロボットに対するマイクロホンアレイの姿勢を使用することで、ロボット座標に変換される。   This audio power data is converted into robot coordinates by using the attitude of the microphone array relative to the robot.

一方で、3次元幾何学マップ中のロボットの正確な姿勢(位置と方向)は、上述したようなパーティクルフィルタに基づいた位置特定アルゴリズムにより得られる。   On the other hand, the accurate posture (position and direction) of the robot in the three-dimensional geometric map is obtained by the position specifying algorithm based on the particle filter as described above.

ロボットの姿勢およびSRPプロセスの結果を組み合わせて、ロボットの周囲のグローバル座標におけるオーディオパワー分布を得ることができる。   By combining the robot attitude and the results of the SRP process, an audio power distribution in global coordinates around the robot can be obtained.

レイ・トレーシングについては、第一に、特定のしきい値以上の極大値が考慮される。極大値の各々のヨー角およびピッチ角が得られる。   For ray tracing, first, local maximum values above a certain threshold are considered. Each yaw angle and pitch angle of the local maximum is obtained.

グローバル座標系中のマイクロホンアレイ1052が、ロボット座標系からグローバル座標系への変換により得られ、マイクロホンアレイ1052の正確な位置から3次元幾何学マップの中で、レイキャストが実行される。図12には、このようなヨー角とピッチ角および試行中の極大値の出現の様子、さらに、その極大値に向けたレイキャストによるレイ・トレーシングの様子が示されている。   A microphone array 1052 in the global coordinate system is obtained by conversion from the robot coordinate system to the global coordinate system, and ray casting is performed in the three-dimensional geometric map from the exact position of the microphone array 1052. FIG. 12 shows the appearance of such a yaw angle and pitch angle and the maximum value during the trial, and the state of ray tracing by ray casting toward the maximum value.

図13は、上述したように、幾何学マップ作成部1030により作成された、試験環境のうちの1に対する3次元の幾何学的なマップを2次元に投影したマップおよび対応するオクトマップを示す。図13の上の図は、2次元のマップを示し、下の図は、オクトマップを示す。   FIG. 13 shows a map obtained by projecting a three-dimensional geometric map for one of the test environments, two-dimensionally, and a corresponding octomap created by the geometric map creation unit 1030 as described above. The upper diagram in FIG. 13 shows a two-dimensional map, and the lower diagram shows an octomap.

上述したようなレイキャストによるレイ・トレーシングは、オクトツリー形式で表わされた3次元マップの中で実行される。上述したように、オクトマップフレームワークが、オクトツリーマップに関する演算と操作のために使用される。   Ray tracing by ray casting as described above is executed in a three-dimensional map represented in an octree format. As described above, the octomap framework is used for operations and operations on octree maps.

図14は、レイ・トレーシングの手続きを示す図である。   FIG. 14 is a diagram showing a ray tracing procedure.

図14では、実際には、3次元で行われる処理を2次元に投影して示す。   In FIG. 14, the processing performed in three dimensions is actually projected in two dimensions.

3次元幾何学マップ中のレイキャスティングの起点の座標と方向ベクトル(d)に対して、図14に示すように、占有マップ中で、占有セルに当たるまで、ベクトルdの方向に起点からレイキャストが実行される。レイキャストがぶつかるセルは障害物と見なされる。   As shown in FIG. 14, with respect to the coordinates and the direction vector (d) of the starting point of ray casting in the three-dimensional geometric map, ray casting is performed from the starting point in the direction of the vector d until it hits the occupied cell in the occupation map. Executed. A cell that is hit by a raycast is considered an obstacle.

一旦レイキャスティングの出力である障害物が得られれば、さらにレイトレースを実行するために、その障害物からの反射が考慮されなければならない。   Once an obstacle that is the output of ray casting is obtained, reflections from that obstacle must be considered in order to perform further ray tracing.

障害物表面の法線方向は、オフライン処理での表面の法線推定によって作られた所定のルックアップテーブル1108から得られる。3次元の幾何学マップ中のすべての点について、法線方向はシステムの実時間性能を援助するために、事前に計算される。   The normal direction of the obstacle surface is obtained from a predetermined look-up table 1108 created by surface normal estimation in off-line processing. For every point in the three-dimensional geometric map, the normal direction is pre-calculated to aid the real-time performance of the system.

反射が起こる点での法線ベクトルは、表面の法線が事前に評価されている点の最も近い隣接点から作成された共分散行列の主成分分析(PCA)を使用するポイントクラウドライブラリを使用して評価される。   The normal vector at the point where the reflection occurs uses a point cloud library that uses principal component analysis (PCA) of the covariance matrix created from the nearest neighbors of the point whose surface normal is pre-evaluated And evaluated.

このような手続きは、たとえば、以下の文献に開示がある。   Such a procedure is disclosed in the following document, for example.

公知文献7:R. B. Rusu and S. Cousins, “3D is here: Point Cloud Library (PCL),” in IEEE International Conference on Robotics and Automation (ICRA), Shanghai, China, May 9-13 2011.
反射線の方向ベクトル(r)は、起点から障害物に伝わる入射線ベクトル(i)および面法線ベクトル(n)から、以下の式により得られる。
Known Document 7: RB Rusu and S. Cousins, “3D is here: Point Cloud Library (PCL),” in IEEE International Conference on Robotics and Automation (ICRA), Shanghai, China, May 9-13 2011.
The direction vector (r) of the reflection line is obtained from the incident line vector (i) and the surface normal vector (n) transmitted from the starting point to the obstacle by the following equation.

さて、その障害物はレイキャスティングの次のレベルの新しい起点になる。そして、レイキャスティングの方向ベクトルは、反射ベクトルrの反射角により規定される。 Now that obstacle becomes the new starting point for the next level of ray casting. The direction vector of ray casting is defined by the reflection angle of the reflection vector r.

再び、レイキャスティングのプロセスは障害物からの新しいアコースティック・レイが占有マップ中の占有セルに当たる場所を順次特定しながら、繰り返される。このプロセスは、対象からの反射が所定の数に達するまで繰り返される。   Again, the process of ray casting is repeated, identifying sequentially where new acoustic rays from the obstacle hit the occupied cells in the occupation map. This process is repeated until a predetermined number of reflections from the object are reached.

以下の説明では、反射によるエラー蓄積を考慮して、レイ・トレーシングは、4回の反射まで実行することとする。   In the following description, it is assumed that ray tracing is executed up to four reflections in consideration of error accumulation due to reflection.

3Dの幾何学的マップ中のこのレイ・トレーシングは、音響源からの音がマイクロホンアレイ1052に到達する前に、どのような経路をたどったかの見積もりを与える。   This ray tracing in the 3D geometric map gives an estimate of what path the sound from the acoustic source has taken before reaching the microphone array 1052.

たとえば、1つの動いている音響源だけから音が発生しているとすると、ロボットからのアコースティック・レイは、理想的には、すべて、ロボット上のマイクロホンアレイ1052で受け取られた音の音響源を表わす点で交差する1つの共通点に集まることになる。   For example, if the sound is generated from only one moving acoustic source, the acoustic rays from the robot will ideally all source the sound received by the microphone array 1052 on the robot. They will gather at one common point that intersects at the point they represent.

異なる極大値の方位(音響源からの音の異なる反射を表す)から、所定の反射回数まで追跡(トレース)される。   It is traced from different azimuth orientations (representing different reflections of sound from an acoustic source) to a predetermined number of reflections.

各オーディオスキャンが、しきい値pより大きな値Jn(k)有するX個の極大値を与えると仮定する。アコースティック・レイは、各々、これらのX個の極大値の示す方向にトレースされる。   Assume that each audio scan gives X maxima having a value Jn (k) greater than the threshold p. Each acoustic ray is traced in the direction indicated by these X maxima.

X個のアコースティック・レイを対として考慮し、各対の交差のポイントを計算する。マイクロホンアレイ1052で受け取られた音は、たとえば、人の足と地面の接触点から生成されるので、理想的には、X個のアコースティック・レイは、すべてこの点で交差する1つの共通点を持つことになる。   Consider X acoustic rays as a pair, and calculate the point of intersection of each pair. Since the sound received by the microphone array 1052 is generated, for example, from a contact point between a person's foot and the ground, ideally, X acoustic rays have one common point that intersects at this point. Will have.

実際には、それらが3Dマップの中で投影され、反射表面は不規則を示すものなので、これらのアコースティック・レイの適切な交点はないかもしれない。しかし、これらのアコースティック・レイは互いに接近して通過するはずである。そこで、所定の範囲内において、アコースティック・レイが近接して存在するときは、それを交点とみなす処理を行う。   In practice, there may not be a proper intersection of these acoustic rays since they are projected in a 3D map and the reflective surface is irregular. However, these acoustic rays should pass close to each other. Therefore, when an acoustic ray is present in proximity within a predetermined range, processing is performed that regards it as an intersection.

そして、アコースティック・レイの交差する点に最も近接する点を考慮し、これらの点を、幾何学的なマップの中で、プロットする。これらの交点する点を、順次、時間経過に従ってプロットしたものは、音響源の移動する方向および速度を与える(この処理を、「反射解析」と呼ぶ)。   Then, considering the points closest to the intersecting points of the acoustic ray, these points are plotted in a geometric map. A plot of these intersecting points sequentially over time gives the direction and speed of movement of the acoustic source (this process is called “reflection analysis”).

この情報を使用して、ロボットは状況を理解し、安全なナビゲーションのための通信アクションを行なうことができることになる。
(音響源の位置の特定およびロボットの移動制御)
(実験設定)
これまで説明したアプローチの実験での確認のために、ロボットに搭載されたLRFが交差する通路を見通せない、廊下の交差を選択した。
Using this information, the robot will be able to understand the situation and take communication actions for safe navigation.
(Identification of acoustic source position and robot movement control)
(Experimental settings)
In order to confirm the above-described approach in the experiment, an intersection in the corridor that cannot see the passage where the LRF mounted on the robot intersects was selected.

異なる2つのタイプの廊下の交差である「T」字型および別の「+」字型の交差を検討した。交差の壁はすべてコンクリートで作られており、ほとんど表面は平坦である。天井は、磁器材料である。   Two different types of corridor intersections, a “T” shape and another “+” shape intersection, were considered. The walls of the intersection are all made of concrete and the surface is almost flat. The ceiling is a porcelain material.

実験の場所での周囲騒音は、集中型の空調システムにより、およそ42dBである。   The ambient noise at the experimental site is approximately 42 dB due to the centralized air conditioning system.

実験の意図が人の足音や、カートの車輪による音を検知することであるので、ロボット中心座標で、探索範囲は、ヨー角については、θmin=−75°からθmax=75°の間で、ピッチ角については、φmin=−45°からφmax=15°の間とした。   Since the intent of the experiment is to detect human footsteps and sounds from cart wheels, the search range for the yaw angle is between θmin = −75 ° and θmax = 75 °. The pitch angle was between φmin = −45 ° and φmax = 15 °.

極大値用のしきい値は、このシステムについて実験的に決められた28にセットされた。   The threshold for the local maximum was set to 28, which was determined experimentally for this system.

図15は、ロボットの移動制御のフローを示す図である。   FIG. 15 is a diagram illustrating a flow of robot movement control.

図15を参照して、まず、ロボット1000の移動制御部1090は、周知の広域プランナアルゴリズムを使用して、スタート位置から目的位置への移動経路を計画する(S300)。   Referring to FIG. 15, first, the movement control unit 1090 of the robot 1000 plans a movement path from the start position to the target position using a known wide area planner algorithm (S300).

続いて、移動制御部1090は、ロボット1000の移動速度を、第1の所定の速度V1、たとえば、0.5m/sに設定し(S302)、この第1の所定の速度V1のスピードで、計画された経路に沿って移動する(S304)。   Subsequently, the movement control unit 1090 sets the moving speed of the robot 1000 to a first predetermined speed V1, for example, 0.5 m / s (S302), and at the speed of the first predetermined speed V1, It moves along the planned route (S304).

移動制御部1090は、ロボット1000が廊下の交差場所から所定の距離L1以内(たとえば、交差場所からのおよそ4−5メートル)にいる場合、移動制御部1090は、音響源位置推定処理部1070からの推定結果により、見通し領域から外れた障害物を識別するために音声情報を利用する(S310)。   When the robot 1000 is within a predetermined distance L1 from the intersection location in the corridor (for example, approximately 4-5 meters from the intersection location), the movement control unit 1090 receives the information from the acoustic source position estimation processing unit 1070. Based on the estimation result, voice information is used to identify an obstacle out of the line-of-sight area (S310).

移動制御部1090は、音響源の音パワー、たとえば、SRPの出力が、所定の値(ここでは、28)のしきい値より高い場合(S314)、移動速度を、第1の所定の速度よりも低い第2の所定の速度、たとえば、0.2m/sに速度を設定する(S316)。SRPの出力が、所定の値のしきい値より低い場合、あるいは、第2の所定の速度への移動速度の設定の後、処理は、ステップS304に復帰する。   When the sound power of the acoustic source, for example, the output of SRP is higher than a threshold value of a predetermined value (here, 28) (S314), the movement control unit 1090 sets the moving speed from the first predetermined speed. Is set to a lower second predetermined speed, for example, 0.2 m / s (S316). If the SRP output is lower than the predetermined threshold value, or after setting the moving speed to the second predetermined speed, the process returns to step S304.

移動制御部1090は、ロボット1000が廊下の交差場所から所定の距離L1以内であり、音声情報を利用し、かつ、さらに、廊下の交差場所から所定の距離L2(<L1)以内(たとえば、2.5m以内)であるときは(S312)、音響源の音パワー、たとえば、SRPの出力が、所定の値(ここでは、28)のしきい値より高い場合(S320)、反射解析により、移動してくる物体の移動方向および速度を算出する(S322)。移動制御部1090は、移動経路上で、ロボット1000と接近してくる物体とが衝突する可能性が所定レベル以上である場合は(S324)、移動してくる物体がロボットが進むのに安全な位置に到達するまで、ロボット1000を停止して待機させる(S326)。SRPの出力が、所定の値のしきい値より低い場合、あるいは、接近してくる物体とが衝突する可能性が所定レベル未満である場合は、処理は、ステップS302に復帰する。
(実験結果)
本実施の形態でのアプローチは、ロボットがすべての試行中のいずれの衝突も回避して、目的地へ安全に移動する支援を実行した。
The movement control unit 1090 uses the voice information when the robot 1000 is within a predetermined distance L1 from the intersection in the hallway, and further, within a predetermined distance L2 (<L1) from the intersection in the hallway (for example, 2 If it is within 5 m (S312), if the sound power of the acoustic source, for example, the output of SRP is higher than a threshold value of a predetermined value (here, 28) (S320), it is moved by reflection analysis The moving direction and speed of the incoming object are calculated (S322). When the possibility that the robot 1000 and the approaching object collide with each other on the movement path is equal to or higher than a predetermined level (S324), the movement control unit 1090 is safe for the robot to move. The robot 1000 is stopped and waited until the position is reached (S326). If the output of SRP is lower than a predetermined threshold value, or if the possibility of collision with an approaching object is less than a predetermined level, the process returns to step S302.
(Experimental result)
The approach in the present embodiment performed support for the robot to safely move to the destination while avoiding any collision during all trials.

実験は、歩く人々および人々が屋内用のカートを押して、行なわれた。ロボットは、廊下の分かれ道からの反射音が聞こえる場合に、速度を落とすことにより、インテリジェントな挙動を示した。また、移動体が目的地の方向に識別される場合、移動体が交差点を通過するまで、ロボットは停止して待機する。   The experiment was conducted with walking people and people pushing indoor carts. The robot showed intelligent behavior by reducing the speed when the reflected sound from the fork in the hallway was heard. When the moving body is identified in the direction of the destination, the robot stops and waits until the moving body passes the intersection.

図16および図17は、3つのシナリオを含む異なる6つの試行を提示している。   Figures 16 and 17 present six different trials involving three scenarios.

ロボットの軌道は、速度を濃淡で示され、重要な速度変更は図中で矢印で示される。   Robot trajectories are shown with shades of speed, and important speed changes are shown with arrows in the figure.

最初のシナリオは、廊下の交差点の方へ来る移動体がいない状況であった。2番目のシナリオは、廊下を人が、ロボット座標で左から右へ歩いていくというものであった。3番目のシナリオは、人が屋内のカートを押して、人が右から左へ移動するというものであった。   The first scenario was a situation where there were no mobiles coming to the hallway intersection. The second scenario was a person walking in the hallway from left to right in robot coordinates. The third scenario was a person pushing an indoor cart and moving from right to left.

図16は、音響の反射の情報を用いたロボットの移動制御の場合を示し、図17は、音響の反射の情報を用いないロボットの移動制御の場合を示す。   FIG. 16 shows a case of robot movement control using acoustic reflection information, and FIG. 17 shows a case of robot movement control without using acoustic reflection information.

図16(a)および図17(d)は、廊下の交差点の方へ来る移動体がいない状況を示し、図16(b)および図17(e)は、廊下を人が、ロボット座標で左から右へ歩いていく状況である。また、図16(c)および図17(f)は、人が屋内のカートを押して、人が右から左へ移動する状況である。   FIGS. 16 (a) and 17 (d) show a situation where there is no moving body coming to the intersection of the hallway, and FIGS. 16 (b) and 17 (e) show that the person is left in the hallway in the hallway. It is a situation to walk to the right. FIG. 16C and FIG. 17F show a situation where a person pushes the indoor cart and the person moves from right to left.

X軸とY軸とは、グローバル座標を示す。スタート位置は、(3500,300)であり、目的地は、(3200,0)である。   The X axis and the Y axis indicate global coordinates. The start position is (3500,300) and the destination is (3200,0).

音響の反射の情報を用いない場合、いずれも、ロボットと移動する物体(人)との衝突が起こっており、図中では、衝突の箇所をXで示す。   In the case of not using the information of the acoustic reflection, a collision between the robot and the moving object (person) occurs, and the location of the collision is indicated by X in the figure.

示された結果とは別に、実験は、移動する方向や、移動するのが歩く人であるかあるいはカートであるかの異なる組合せについて繰り返され、すべての場合について、ロボットは、期待されるような動作を行い衝突を回避することが確認できた。
さらに、その結果は、廊下の「T」字型の交差および「+」字型の交差の両方においてほとんど類似したものであった。
Apart from the results shown, the experiment was repeated for different combinations of direction of movement and whether it was a walking person or a cart, and in all cases the robot was as expected It was confirmed that the operation was performed to avoid collision.
Furthermore, the results were almost similar in both the “T” -shaped intersection and the “+”-shaped intersection in the hallway.

すなわち、廊下の交差点で急に現われるかもしれない移動体を、反射音を利用して予測することにより、ロボットは、衝突を回避して、目的位置に到達することがきた。   That is, by predicting a moving body that may suddenly appear at an intersection in a corridor using a reflected sound, the robot can avoid a collision and reach a target position.

なお、以上したような本実施の形態の音源位置推定装置や音源位置推定方法は、実施の形態1と同様に、プロセッサ1010で実現される音響源位置推定処理部1070等の機能は、コンピュータプログラムによりコンピュータによる処理で実現することが可能である。   Note that the sound source position estimation apparatus and the sound source position estimation method of the present embodiment as described above have the same functions as the sound source position estimation processing unit 1070 realized by the processor 1010, as in the first embodiment. Thus, it can be realized by processing by a computer.

以上説明したように、本実施の形態の音源位置推定装置、音源位置推定方法および音源位置推定プログラムを利用すれば、反射音を利用して、見通し不可の領域から近づいてくる他の物体の位置を検知することが可能である。   As described above, if the sound source position estimation device, the sound source position estimation method, and the sound source position estimation program according to the present embodiment are used, the position of another object approaching from a non-line-of-sight region using the reflected sound Can be detected.

また、本実施の形態の移動体では、反射音を利用して、見通し不可の領域から近づいてくる他の物体の位置を検知することが可能な音源位置推定を利用して、安全な移動体の制御方法を実現することができる。   In addition, in the moving body of the present embodiment, a safe moving body can be used by using a sound source position estimation that can detect the position of another object approaching from a non-line-of-sight region using reflected sound. The control method can be realized.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10 路程測定センサ、20 前面レーザレンジファインダ、30 後面レーザレンジファインダ、32 3次元レーザレンジファインダ、40 センサ入出力ボード、1050 メモリ、1060 バス、1000´ ロボット、1010 プロセッサ、1030 幾何学マップ作成部、1040 移動体姿勢特定処理部、1050 ステアード応答パワー取得部、1052 マイクロフォンアレイ、1054 音声入出力ボード、1060 到来音方位分布推定部、1070 音響源位置推定処理部、1072 レイ・トレーシング処理部、1100 不揮発性記憶装置、1102 3次元幾何学マップ、1104 音響源マップ、1106 八分木データ、1108 表面法線ルックアップテーブル。   10 path length measurement sensor, 20 front laser range finder, 30 rear laser range finder, 32 three-dimensional laser range finder, 40 sensor input / output board, 1050 memory, 1060 bus, 1000 ′ robot, 1010 processor, 1030 geometric map creation unit, 1040 Mobile body posture identification processing unit, 1050 steered response power acquisition unit, 1052 microphone array, 1054 voice input / output board, 1060 arrival sound direction distribution estimation unit, 1070 sound source position estimation processing unit, 1072 ray tracing processing unit, 1100 Non-volatile memory, 1102 3D geometric map, 1104 acoustic source map, 1106 octree data, 1108 surface normal lookup table.

Claims (6)

複数の音センサを含む音センサアレイと、
前記音センサアレイ中の各音センサの配置の情報および測定環境の空間3次元地図情報を格納するための記憶装置と、
前記音センサアレイからの複数チャンネルの音源信号の各々に基づいて、前記音センサアレイに音の到来する方位を特定するための処理を実行する到来音方向特定手段と、
特定された前記音の到来する方向と前記空間3次元地図情報とに基づいて、前記空間3次元地図情報内で、音源に向かう複数の方向を推定するための音源方向推定手段と、
前記音センサアレイから前記音源に向かう複数の方向について、反射による経路により到達しうる経路の延長領域の重なりに応じて、3次元での前記音源の位置を推定するための音源位置推定手段とを備える、音源位置推定装置。
A sound sensor array including a plurality of sound sensors;
A storage device for storing information on the arrangement of each sound sensor in the sound sensor array and spatial three-dimensional map information of the measurement environment;
Based on each of the sound source signals of a plurality of channels from the sound sensor array, arrival sound direction specifying means for executing processing for specifying the direction in which sound arrives at the sound sensor array;
Sound source direction estimating means for estimating a plurality of directions toward the sound source in the spatial three-dimensional map information based on the identified direction of arrival of the sound and the spatial three-dimensional map information;
Sound source position estimating means for estimating the position of the sound source in three dimensions according to the overlap of extension areas of a path that can be reached by a path due to reflection in a plurality of directions from the sound sensor array toward the sound source; A sound source position estimating apparatus.
前記音センサアレイは複数設けられ、
前記音源方向推定手段は、特定された前記音の到来する方向と前記空間3次元地図情報とに基づいて、反射音に対する音源の方向とを推定し、
前記音源位置推定手段は、各前記複数の音センサアレイから前記反射音による音源の方向への延長領域の重なりに応じて、3次元での前記音源の位置を推定する、請求項1記載の音源位置推定装置。
A plurality of the sound sensor arrays are provided,
The sound source direction estimating means estimates the direction of the sound source with respect to the reflected sound based on the identified direction of arrival of the sound and the spatial three-dimensional map information,
2. The sound source according to claim 1, wherein the sound source position estimating unit estimates the position of the sound source in three dimensions in accordance with an overlap of extension regions in the direction of the sound source due to the reflected sound from each of the plurality of sound sensor arrays. Position estimation device.
自律移動が可能な移動体であって、
移動機構と、
複数の音センサを含む音センサアレイと、
前記音センサアレイ中の各音センサの配置の情報および測定環境の空間3次元地図情報を格納するための記憶装置と、
前記音センサアレイからの複数チャンネルの音源信号の各々に基づいて、前記音センサアレイに音の到来する方位を特定するための処理を実行する到来音方向特定手段と、
特定された前記音の到来する方向と前記空間3次元地図情報とに基づいて、前記空間3次元地図情報内で、音源に向かう複数の方向を推定するための音源方向推定手段と、
前記音センサアレイから前記音源に向かう複数の方向について、反射による経路により到達しうる経路の延長領域の重なりに応じて、3次元での前記音源の位置を推定するための音源位置推定手段と、
前記移動機構を制御するための制御手段とを備え、
前記制御手段は、前記音源位置推定手段により推定された音源の位置が、見通し不可領域内であって、第1の所定の距離以内である場合、移動速度を低下させる、移動体。
A mobile object capable of autonomous movement,
A moving mechanism;
A sound sensor array including a plurality of sound sensors;
A storage device for storing information on the arrangement of each sound sensor in the sound sensor array and spatial three-dimensional map information of the measurement environment;
Based on each of the sound source signals of a plurality of channels from the sound sensor array, arrival sound direction specifying means for executing processing for specifying the direction in which sound arrives at the sound sensor array;
Sound source direction estimating means for estimating a plurality of directions toward the sound source in the spatial three-dimensional map information based on the identified direction of arrival of the sound and the spatial three-dimensional map information;
Sound source position estimating means for estimating the position of the sound source in three dimensions according to the overlap of the extended areas of the path that can be reached by the path due to reflection, for a plurality of directions from the sound sensor array toward the sound source;
Control means for controlling the moving mechanism,
The control means reduces the moving speed when the position of the sound source estimated by the sound source position estimating means is within a line-of-sight region and within a first predetermined distance.
前記制御手段は、前記音源位置推定手段により推定された音源の位置が、見通し不可領域内であって、前記第1の所定距離よりも近い第2の所定の距離以内である場合、前記音源との衝突が回避できると判断されるまで、停止して前記移動体を待機させる、請求項3記載の移動体。   When the position of the sound source estimated by the sound source position estimating means is within a line-of-sight region and within a second predetermined distance that is closer than the first predetermined distance, the control means The moving body according to claim 3, which stops and waits for the moving body until it is determined that a collision can be avoided. 自律移動が可能な移動体の制御方法であって、前記移動体は、移動機構と、複数の音センサを含む音センサアレイと、前記音センサアレイからの複数チャンネルの音源信号の各々に基づいて、前記音センサアレイに音の到来する方位を特定するための処理を実行する到来音方向特定手段と、特定された前記音の到来する方向と空間3次元地図情報とに基づいて、前記空間3次元地図情報内で、音源に向かう複数の方向を推定するための音源方向推定手段と、前記音センサアレイから前記音源に向かう複数の方向について、反射による経路により到達しうる経路の延長領域の重なりに応じて、3次元での前記音源の位置を推定するための音源位置推定手段とを含み、
移動経路を計画するステップと、
前記音源位置推定手段により推定された音源の位置が、見通し不可領域内であって、第1の所定の距離以内である場合、移動速度を低下させるステップとを備える、移動体の制御方法。
A method of controlling a mobile body capable of autonomous movement, wherein the mobile body is based on each of a moving mechanism, a sound sensor array including a plurality of sound sensors, and a plurality of sound source signals from the sound sensor array. Based on the incoming sound direction specifying means for executing processing for specifying the direction in which sound arrives at the sound sensor array, and the specified direction of arrival of the sound and spatial three-dimensional map information, the space 3 Sound source direction estimation means for estimating a plurality of directions toward the sound source in the three-dimensional map information, and an overlap of extension areas of the route that can be reached by the path due to reflection for the plurality of directions from the sound sensor array toward the sound source And a sound source position estimating means for estimating the position of the sound source in three dimensions,
Planning a route of travel;
And a step of reducing the moving speed when the position of the sound source estimated by the sound source position estimating means is within the line-of-sight region and within the first predetermined distance.
前記音源位置推定手段により推定された音源の位置が、見通し不可領域内であって、前記第1の所定距離よりも近い第2の所定の距離以内である場合、前記移動経路において前記音源との衝突が回避できると判断されるまで、停止して前記移動体を待機させる、請求項5記載の移動体の制御方法。   When the position of the sound source estimated by the sound source position estimating means is within a line-of-sight region and within a second predetermined distance that is closer than the first predetermined distance, The method of controlling a moving body according to claim 5, wherein the moving body is stopped and waited until it is determined that a collision can be avoided.
JP2013219625A 2013-10-22 2013-10-22 SOUND SOURCE POSITION ESTIMATION DEVICE, MOBILE BODY, AND MOBILE BODY CONTROL METHOD Active JP6330200B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013219625A JP6330200B2 (en) 2013-10-22 2013-10-22 SOUND SOURCE POSITION ESTIMATION DEVICE, MOBILE BODY, AND MOBILE BODY CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013219625A JP6330200B2 (en) 2013-10-22 2013-10-22 SOUND SOURCE POSITION ESTIMATION DEVICE, MOBILE BODY, AND MOBILE BODY CONTROL METHOD

Publications (3)

Publication Number Publication Date
JP2015081831A true JP2015081831A (en) 2015-04-27
JP2015081831A5 JP2015081831A5 (en) 2016-12-08
JP6330200B2 JP6330200B2 (en) 2018-05-30

Family

ID=53012502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013219625A Active JP6330200B2 (en) 2013-10-22 2013-10-22 SOUND SOURCE POSITION ESTIMATION DEVICE, MOBILE BODY, AND MOBILE BODY CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP6330200B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048464A (en) * 2014-08-27 2016-04-07 本田技研工業株式会社 Autonomously acting robot and control method of autonomously acting robot
CN106199607A (en) * 2016-06-29 2016-12-07 北京捷通华声科技股份有限公司 The Sounnd source direction localization method of a kind of microphone array and device
US20180088234A1 (en) * 2016-09-27 2018-03-29 Carnegie Mellon University Robust Localization and Localizability Prediction Using a Rotating Laser Scanner
CN112083427A (en) * 2020-09-14 2020-12-15 哈尔滨工程大学 Distance measurement method for unmanned underwater vehicle
CN112379330A (en) * 2020-11-27 2021-02-19 浙江同善人工智能技术有限公司 Multi-robot cooperative 3D sound source identification and positioning method
CN112671622A (en) * 2020-12-24 2021-04-16 珠海格力电器股份有限公司 Safety monitoring method and device based on intelligent mobile equipment and intelligent mobile equipment
US20210114215A1 (en) * 2019-10-16 2021-04-22 Lg Electronics Inc. Robot and method for controlling the same
CN113176537A (en) * 2020-01-24 2021-07-27 动态Ad有限责任公司 Detection and classification of siren signals and location of siren signal source
CN113679379A (en) * 2021-07-14 2021-11-23 深圳大学 Human body posture estimation method, device, equipment, system and medium based on sound waves
CN114593738A (en) * 2022-05-09 2022-06-07 山东大学 Robot global positioning method and system based on octree search reflective column
WO2023157235A1 (en) * 2022-02-18 2023-08-24 日本電気株式会社 Arithmetic device
CN117558295A (en) * 2024-01-11 2024-02-13 北京谛声科技有限责任公司 Voiceprint monitoring method and device based on SLAM and SONAH fusion
CN113679379B (en) * 2021-07-14 2024-06-04 深圳大学 Human body posture estimation method, device, equipment, system and medium based on sound wave

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08194539A (en) * 1995-01-19 1996-07-30 Tokico Ltd Autonomous mobile robot
JP2009236707A (en) * 2008-03-27 2009-10-15 Kddi R & D Laboratories Inc Signal source position estimation method
JP2010204104A (en) * 2009-03-04 2010-09-16 Toyota Motor Engineering & Manufacturing North America Inc Method and device for helping collision prevention between vehicle and object
JP2012146149A (en) * 2011-01-12 2012-08-02 Panasonic Corp Detection system of vehicle in blind area, detection device of vehicle in blind area, detection method of vehicle in blind area, and program thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08194539A (en) * 1995-01-19 1996-07-30 Tokico Ltd Autonomous mobile robot
JP2009236707A (en) * 2008-03-27 2009-10-15 Kddi R & D Laboratories Inc Signal source position estimation method
JP2010204104A (en) * 2009-03-04 2010-09-16 Toyota Motor Engineering & Manufacturing North America Inc Method and device for helping collision prevention between vehicle and object
JP2012146149A (en) * 2011-01-12 2012-08-02 Panasonic Corp Detection system of vehicle in blind area, detection device of vehicle in blind area, detection method of vehicle in blind area, and program thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石井カルロス寿憲: ""反射音を利用した音源定位と音源の指向性の分析"", 日本音響学会 2013年 春季研究発表会講演論文集CD−ROM [CD−ROM], JPN6017033098, 15 March 2013 (2013-03-15), JP, pages 887 - 888, ISSN: 0003632047 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048464A (en) * 2014-08-27 2016-04-07 本田技研工業株式会社 Autonomously acting robot and control method of autonomously acting robot
CN106199607A (en) * 2016-06-29 2016-12-07 北京捷通华声科技股份有限公司 The Sounnd source direction localization method of a kind of microphone array and device
US20180088234A1 (en) * 2016-09-27 2018-03-29 Carnegie Mellon University Robust Localization and Localizability Prediction Using a Rotating Laser Scanner
US11724397B2 (en) * 2019-10-16 2023-08-15 Lg Electronics Inc. Robot and method for controlling the same
US20210114215A1 (en) * 2019-10-16 2021-04-22 Lg Electronics Inc. Robot and method for controlling the same
CN113176537A (en) * 2020-01-24 2021-07-27 动态Ad有限责任公司 Detection and classification of siren signals and location of siren signal source
CN112083427A (en) * 2020-09-14 2020-12-15 哈尔滨工程大学 Distance measurement method for unmanned underwater vehicle
CN112083427B (en) * 2020-09-14 2023-09-19 哈尔滨工程大学 Ranging method for unmanned underwater vehicle under ice
CN112379330A (en) * 2020-11-27 2021-02-19 浙江同善人工智能技术有限公司 Multi-robot cooperative 3D sound source identification and positioning method
CN112379330B (en) * 2020-11-27 2023-03-10 浙江同善人工智能技术有限公司 Multi-robot cooperative 3D sound source identification and positioning method
CN112671622A (en) * 2020-12-24 2021-04-16 珠海格力电器股份有限公司 Safety monitoring method and device based on intelligent mobile equipment and intelligent mobile equipment
CN113679379A (en) * 2021-07-14 2021-11-23 深圳大学 Human body posture estimation method, device, equipment, system and medium based on sound waves
CN113679379B (en) * 2021-07-14 2024-06-04 深圳大学 Human body posture estimation method, device, equipment, system and medium based on sound wave
WO2023157235A1 (en) * 2022-02-18 2023-08-24 日本電気株式会社 Arithmetic device
CN114593738A (en) * 2022-05-09 2022-06-07 山东大学 Robot global positioning method and system based on octree search reflective column
CN117558295A (en) * 2024-01-11 2024-02-13 北京谛声科技有限责任公司 Voiceprint monitoring method and device based on SLAM and SONAH fusion
CN117558295B (en) * 2024-01-11 2024-03-26 北京谛声科技有限责任公司 Voiceprint monitoring method and device based on SLAM and SONAH fusion

Also Published As

Publication number Publication date
JP6330200B2 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
JP6330200B2 (en) SOUND SOURCE POSITION ESTIMATION DEVICE, MOBILE BODY, AND MOBILE BODY CONTROL METHOD
US10766144B2 (en) Map related acoustic filtering by a mobile robot
JP6240995B2 (en) Mobile object, acoustic source map creation system, and acoustic source map creation method
CN104106267B (en) Signal enhancing beam forming in augmented reality environment
Schillebeeckx et al. Biomimetic sonar: Binaural 3D localization using artificial bat pinnae
Kallakuri et al. Probabilistic approach for building auditory maps with a mobile microphone array
JP2015081824A (en) Radiated sound intensity map creation system, mobile body, and radiated sound intensity map creation method
Basiri et al. Localization of emergency acoustic sources by micro aerial vehicles
An et al. Diffraction-and reflection-aware multiple sound source localization
Dümbgen et al. Blind as a bat: Audible echolocation on small robots
Even et al. Mapping sound emitting structures in 3D
Muller et al. A probabilistic sonar sensor model for robust localization of a small-size blimp in indoor environments using a particle filter
Even et al. Probabilistic 3-D mapping of sound-emitting structures based on acoustic ray casting
Deshpande et al. A next generation mobile robot with multi-mode sense of 3D perception
Martinson et al. Discovery of sound sources by an autonomous mobile robot
Even et al. Audio ray tracing for position estimation of entities in blind regions
Schymura et al. Potential-field-based active exploration for acoustic simultaneous localization and mapping
Even et al. Creation of radiated sound intensity maps using multi-modal measurements onboard an autonomous mobile platform
Sasaki et al. Online spatial sound perception using microphone array on mobile robot
Martinson et al. Robotic discovery of the auditory scene
Carmena et al. The use of Doppler in Sonar-based mobile robot navigation: inspirations from biology
Kallakuri et al. Using sound reflections to detect moving entities out of the field of view
Su et al. Robust sound source mapping using three-layered selective audio rays for mobile robots
Su et al. An acoustic sensor based novel method for 2D localization of a robot in a structured environment
Brian Auditory occupancy grids with a mobile robot

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180404

R150 Certificate of patent or registration of utility model

Ref document number: 6330200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250