JP2018034221A - Robot system - Google Patents

Robot system Download PDF

Info

Publication number
JP2018034221A
JP2018034221A JP2016167145A JP2016167145A JP2018034221A JP 2018034221 A JP2018034221 A JP 2018034221A JP 2016167145 A JP2016167145 A JP 2016167145A JP 2016167145 A JP2016167145 A JP 2016167145A JP 2018034221 A JP2018034221 A JP 2018034221A
Authority
JP
Japan
Prior art keywords
sound wave
robot
generation source
user
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016167145A
Other languages
Japanese (ja)
Other versions
JP6697982B2 (en
Inventor
伸也 高山
Shinya Takayama
伸也 高山
茂之 酒澤
Shigeyuki Sakasawa
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016167145A priority Critical patent/JP6697982B2/en
Publication of JP2018034221A publication Critical patent/JP2018034221A/en
Application granted granted Critical
Publication of JP6697982B2 publication Critical patent/JP6697982B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To estimate a position of a sound wave generation source existing in an optional position on a three-dimensional space based on a voice signal of the sound wave generation source inputted to a plurality of microphones.SOLUTION: A robot system for estimating a position of a generation source of a sound wave, comprises a robot 20 provided in a three-dimensional space, a plurality of sound wave receivers provided in an optional position of the robot 20 and receiving the sound wave, an angle calculation part 30-1 for calculating an angle formed by a reference position on the robot 20 and the generation source of the sound wave based on an arrival time difference by calculating the arrival time difference of the sound wave respectively received by any two sound wave receivers, a position estimation part 30-2 for estimating a position of the generation source of the sound wave by solving an equation with position information of a calculated angle and the respective sound wave receivers as a parameter and a front face estimation part 30-3 for estimating a direction vector and a vertical surface to the direction vector for indicating the direction of the robot 20 to a position of the generation source of the estimated sound wave.SELECTED DRAWING: Figure 2

Description

本発明は、音波の発生源の位置を推定する機能を有するロボットシステムに関する。   The present invention relates to a robot system having a function of estimating a position of a sound wave generation source.

従来から、音響処理や光学処理等の信号処理により、オブジェクトや利用者の位置を推定する技術やシステムがある。例えば、特許文献1に開示されている技術では、オブジェクトの先端と表示装置上の複数位置との間で超音波の送受信を行わせ、その送受信に要する時間に基づいて距離を求め、オブジェクト先端の平面位置座標を推定する。   Conventionally, there are techniques and systems for estimating the position of an object or a user by signal processing such as acoustic processing and optical processing. For example, in the technique disclosed in Patent Document 1, ultrasonic transmission / reception is performed between the tip of an object and a plurality of positions on a display device, a distance is obtained based on the time required for the transmission / reception, and the tip of the object is detected. Estimate the plane position coordinates.

また、特許文献2に開示されている技術では、オブジェクトから赤外線および超音波を同時に出力し、赤外線を表示装置上のフォトダイオードで受光すると共に、超音波を画面上の2つのマイクでそれぞれ受信する。そして、赤外線が受光されてから超音波が受信されるまでの間の時間差に基づいて、マイクからデバイスまで距離を求め、オブジェクトの位置を推定する。   In the technique disclosed in Patent Document 2, infrared rays and ultrasonic waves are simultaneously output from an object, the infrared rays are received by a photodiode on a display device, and the ultrasonic waves are received by two microphones on a screen, respectively. . Then, based on the time difference between when the infrared rays are received and when the ultrasonic waves are received, the distance from the microphone to the device is obtained, and the position of the object is estimated.

また、特許文献3に開示されている技術では、配置された固定マイクに対して入力された音声信号に基づき、着席している話者の発話向きを推定する。   Moreover, in the technique disclosed in Patent Document 3, the direction of speech of a seated speaker is estimated based on an audio signal input to a fixed microphone arranged.

特開2001−125740号公報JP 2001-125740 A 特開2005−122534号公報JP 2005-122534 A 特許第05235725号明細書Japanese Patent No. 05235725

しかしながら、特許文献1に開示されている技術では、オブジェクトの先端(利用者の口)が接する表示装置上の平面位置座標を推定するため、利用シーンがオブジェクトと表示装置(ロボット)とが近い場合に限られてしまう。このため、利用者がロボットに接近しなければならず、利用者がロボットから離れている場合は、この技術を使うことができない。   However, in the technique disclosed in Patent Document 1, since the plane position coordinates on the display device with which the tip of the object (user's mouth) contacts is estimated, the usage scene is close to the display device (robot). It will be limited to. For this reason, the user must approach the robot, and this technique cannot be used when the user is away from the robot.

特許文献2に開示されている技術では、送受信における時刻同期を取るために赤外線を用いるが、オブジェクト(利用者)に赤外線送受信機を装着する必要があると共に、装置が高価なものになってしまう。利用者と受光部との間に遮蔽物等があると、推定精度が劣化しやすい。   In the technique disclosed in Patent Document 2, infrared rays are used for time synchronization in transmission and reception. However, it is necessary to attach an infrared transceiver to an object (user), and the apparatus becomes expensive. . If there is a shield or the like between the user and the light receiving unit, the estimation accuracy tends to deteriorate.

特許文献3に開示されている技術では、予め固定されたマイクに対して入力された音声信号に基づき、着席している話者の発話向きを推定するが、ロボット等にマイクが装着されてマイクが動的に変化する場合や利用者が移動している場合は、推定精度が劣化しやすい。   In the technique disclosed in Patent Document 3, the utterance direction of a seated speaker is estimated based on an audio signal input to a microphone that is fixed in advance, and the microphone is attached to a robot or the like. When the value changes dynamically or when the user is moving, the estimation accuracy tends to deteriorate.

本発明は、このような事情に鑑みてなされたものであり、複数のマイクに入力された音波発生源の音声信号に基づき、3次元空間上の任意の位置に存在する音波発生源の位置を推定することができるロボットシステムを提供することを目的とする。   The present invention has been made in view of such circumstances, and based on the sound signals of the sound wave generation sources input to the plurality of microphones, the position of the sound wave generation source existing at an arbitrary position in the three-dimensional space is determined. An object of the present invention is to provide a robot system that can be estimated.

(1)上記の目的を達成するために、本発明は、以下のような手段を講じた。すなわち、本発明のロボットシステムは、音波の発生源の位置を推定するロボットシステムであって、3次元空間内に設けられたロボットと、前記ロボットの任意の位置に設けられ、音波を受信する複数の音波受信装置と、いずれか2つの音波受信装置がそれぞれ受信した音波の到達時間差を算出し、前記到達時間差に基づいて、前記ロボット上の基準位置と前記音波の発生源との成す角度を算出する角度算出部と、前記算出した角度および前記各音波受信装置の位置関係をパラメータとした方程式を解くことにより、前記音波の発生源の位置を推定する位置推定部と、前記推定した音波の発生源の位置に対する前記ロボットの向きを示す方向ベクトルおよび前記方向ベクトルに垂直な面を推定する正面推定部と、を備えることを特徴とする。   (1) In order to achieve the above object, the present invention takes the following measures. That is, the robot system of the present invention is a robot system that estimates the position of a sound wave generation source, and a robot provided in a three-dimensional space and a plurality of sound waves that are provided at arbitrary positions of the robot. And the arrival time difference between the sound waves received by each of the two sound wave reception devices, and the angle between the reference position on the robot and the sound wave generation source is calculated based on the arrival time difference. An angle calculation unit, a position estimation unit for estimating the position of the sound wave generation source by solving an equation using the calculated angle and the positional relationship between the sound wave receiving devices as parameters, and generation of the estimated sound wave A direction vector indicating the orientation of the robot with respect to the position of the source, and a front estimation unit for estimating a plane perpendicular to the direction vector.

このように、ロボットの任意の位置に設けられ、音波を受信する複数の音波受信装置のうち、いずれか2つの音波受信装置がそれぞれ受信した音波の到達時間差を算出し、その到達時間差に基づいて、ロボット上の基準位置と音波の発生源との成す角度を算出し、その記算出した角度および各音波受信装置の位置関係をパラメータとした方程式を解くことにより、音波の発生源の位置を推定し、その推定した音波の発生源の位置に対するロボットの向きを示す方向ベクトルおよび方向ベクトルに垂直な面を推定するので、音波の発生源がロボットから離れている場合であっても、その位置を推定することが可能となる。また、音波を用いるため、例えば、赤外線のような光を用いる場合と比較して小型で安価にすることができ、利便性を高めることが可能となる。また、音波は光よりも回折するため、遮蔽物の影響を受けにくいという長所がある。さらに、音波受信装置の位置が固定されていない場合であっても音波の発生源の位置を推定することができるため、ロボットが動く場合にも適用することが可能となる。さらに、音波の到達時間差を利用することから、雑音環境下や音波の発生源の位置が動く状況下であっても、音波受信装置の数を増やすことなく、位置推定精度を高く維持することができる。   In this manner, the arrival time difference between the sound waves received by any two of the sound wave reception devices provided at arbitrary positions of the robot and receiving the sound waves is calculated, and based on the arrival time difference. The position of the sound wave source is estimated by calculating the angle between the reference position on the robot and the sound wave source, and solving the equation using the calculated angle and the positional relationship of each sound wave receiver as parameters. Since the direction vector indicating the orientation of the robot with respect to the estimated position of the sound wave source and the plane perpendicular to the direction vector are estimated, even if the sound wave source is far from the robot, the position is determined. It is possible to estimate. In addition, since sound waves are used, for example, it is possible to reduce the size and cost compared to the case of using light such as infrared rays, and it is possible to improve convenience. In addition, since sound waves are diffracted more than light, there is an advantage that the sound waves are not easily affected by a shielding object. Furthermore, since the position of the sound wave generation source can be estimated even when the position of the sound wave receiving device is not fixed, the present invention can be applied even when the robot moves. Furthermore, since the arrival time difference between sound waves is used, the position estimation accuracy can be maintained high without increasing the number of sound wave receiving devices even in a noise environment or in a situation where the position of the sound wave generation source moves. it can.

(2)また、本発明のロボットシステムにおいて、前記角度算出部は、3つ以上の音波受信装置のうち、2つの音波受信装置を一組として、複数の組合せを選定し、各組み合わせにおける各音波受信装置がそれぞれ受信した音波の到達時間差を算出して、前記ロボット上の基準位置と前記音波の発生源との成す角度を算出し、前記位置推定部は、前記算出された複数の角度に基づいて、前記音波の発生源の位置を推定することを特徴とする。   (2) Further, in the robot system of the present invention, the angle calculation unit selects a plurality of combinations from two or more sound wave receiving devices as a set, and sets each sound wave in each combination. The receiving device calculates the arrival time difference between the received sound waves, calculates the angle between the reference position on the robot and the sound wave generation source, and the position estimation unit is based on the calculated plurality of angles. Then, the position of the sound wave generation source is estimated.

このように、3つ以上の音波受信装置のうち、2つの音波受信装置を一組として、複数の組合せを選定し、各組み合わせにおける各音波受信装置がそれぞれ受信した音波の到達時間差を算出して、ロボット上の基準位置と音波の発生源との成す角度を算出し、その算出された複数の角度に基づいて、音波の発生源の位置を推定するので、音波の発生源の空間上の位置を高い精度で推定することが可能となる。   In this way, among the three or more sound wave receivers, two sound wave receivers are taken as a set, a plurality of combinations are selected, and the arrival time difference between the sound waves received by each sound wave receiver in each combination is calculated. The angle between the reference position on the robot and the sound wave generation source is calculated, and the position of the sound wave generation source is estimated based on the calculated multiple angles. Can be estimated with high accuracy.

(3)また、本発明のロボットシステムにおいて、前記ロボットは、音声信号を出力するスピーカ、光信号を出力する光源、または本体若しくは本体の一部を駆動する駆動部を備え、前記推定した面に対して、前記スピーカからの音声信号の出力、前記光源からの光信号の出力または前記本体若しくは本体の一部の方向転換の少なくとも一つのフィードバック動作を実行するフィードバック実行部を更に含むことを特徴とする。   (3) In the robot system of the present invention, the robot includes a speaker that outputs an audio signal, a light source that outputs an optical signal, or a drive unit that drives a main body or a part of the main body, and the estimated surface has On the other hand, it further includes a feedback execution unit that executes at least one feedback operation of outputting an audio signal from the speaker, outputting an optical signal from the light source, or changing the direction of the main body or a part of the main body. To do.

このように、音波の発生源に対して、少なくとも一つのフィードバック動作を実行するので、ロボットに対し、音に反応する機能を付与することが可能となる。   As described above, since at least one feedback operation is performed on the sound wave generation source, it is possible to give the robot a function of reacting to sound.

本発明によれば、音波の発生源がロボットから離れている場合であっても、その位置を推定することが可能となる。また、音波を用いるため、例えば、赤外線のような光を用いる場合と比較して小型で安価にすることができ、利便性を高めることが可能となる。また、音波は光よりも回折するため、遮蔽物の影響を受けにくいという長所がある。さらに、音波受信装置の位置が固定されていない場合であっても音波の発生源の位置を推定することができるため、ロボットが動く場合にも適用することが可能となる。さらに、音波の到達時間差を利用することから、雑音環境下や音波の発生源の位置が動く状況下であっても、音波受信装置の数を増やすことなく、位置推定精度を高く維持することができる。   According to the present invention, it is possible to estimate the position of a sound wave generation source even when the sound source is away from the robot. In addition, since sound waves are used, for example, it is possible to reduce the size and cost compared to the case of using light such as infrared rays, and it is possible to improve convenience. In addition, since sound waves are diffracted more than light, there is an advantage that the sound waves are not easily affected by a shielding object. Furthermore, since the position of the sound wave generation source can be estimated even when the position of the sound wave receiving device is not fixed, the present invention can be applied even when the robot moves. Furthermore, since the arrival time difference between sound waves is used, the position estimation accuracy can be maintained high without increasing the number of sound wave receiving devices even in a noise environment or in a situation where the position of the sound wave generation source moves. it can.

本実施形態に係るロボットシステムの概略構成を示す図である。It is a figure which shows schematic structure of the robot system which concerns on this embodiment. 本実施形態に係るロボットシステムの機能を示すブロック図である。It is a block diagram which shows the function of the robot system which concerns on this embodiment. 本実施形態に係るロボットシステムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the robot system which concerns on this embodiment.

本発明者らは、音に反応するロボットの実現を想起し、ロボットに複数マイクを装着し、これらのマイクから入力された音波の発生源の音声信号に基づいて、3次元空間上の任意位置にいる音波の発信源の位置を推定し、その推定した位置情報を用いて、音波の発信源にフィードバック動作を行うことによって、ロボットに対し、音に反応する機能を付与することができることを見出し、本発明をするに至った。   The present inventors recalled the realization of a robot that reacts to sound, and attached a plurality of microphones to the robot, and based on the sound signal of the sound wave source input from these microphones, an arbitrary position in the three-dimensional space It is found that the function of reacting to sound can be given to the robot by estimating the position of the sound wave transmission source in the robot and performing a feedback operation on the sound wave transmission source using the estimated position information. It came to make this invention.

すなわち、本発明のロボットシステムは、音波の発生源の位置を推定するロボットシステムであって、3次元空間内に設けられたロボットと、前記ロボットの任意の位置に設けられ、音波を受信する複数の音波受信装置と、いずれか2つの音波受信装置がそれぞれ受信した音波の到達時間差を算出し、前記到達時間差に基づいて、前記ロボット上の基準位置と前記音波の発生源との成す角度を算出する角度算出部と、前記算出した角度と前記各音波受信装置との位置情報をパラメータとした方程式を解くことにより、前記音波の発生源の位置を推定する位置推定部と、前記推定した音波の発生源の位置に対する前記ロボットの向きを示す方向ベクトルおよび前記方向ベクトルに垂直な面を推定する正面推定部と、を備えることを特徴とする。   That is, the robot system of the present invention is a robot system that estimates the position of a sound wave generation source, and a robot provided in a three-dimensional space and a plurality of sound waves that are provided at arbitrary positions of the robot. And the arrival time difference between the sound waves received by each of the two sound wave reception devices, and the angle between the reference position on the robot and the sound wave generation source is calculated based on the arrival time difference. An angle calculation unit, a position estimation unit that estimates the position of the sound wave generation source by solving an equation using the calculated angle and position information of each of the sound wave receiving devices as a parameter, and A direction vector indicating the orientation of the robot with respect to the position of the generation source, and a front estimation unit for estimating a plane perpendicular to the direction vector.

これにより、本発明者らは、音波の発生源がロボットから離れている場合であっても、その位置を推定することを可能とした。また、音波を用いることで、例えば、赤外線のような光を用いる場合と比較して小型で安価にすることを可能とすると共に、利便性を高めることを可能とした。さらに、ロボット上に装着された複数の音波受信装置の位置が既知であれば、音波受信装置がロボットと共に動く場合であっても音波の発生源の位置を推定することを可能とした。さらに、音波の到達時間差を利用することから、雑音環境下や音波の発生源の位置が動く状況下であっても、音波受信装置の数を増やすことなく、位置推定精度を高く維持することを可能とした。以下、本発明の実施形態について、図面を参照しながら具体的に説明する。   Thus, the present inventors have made it possible to estimate the position even when the sound wave generation source is away from the robot. In addition, by using sound waves, for example, it is possible to reduce the size and cost as compared with the case of using light such as infrared rays, and it is possible to improve convenience. Furthermore, if the positions of a plurality of sound wave receiving devices mounted on the robot are known, the position of the sound wave generation source can be estimated even when the sound wave receiving device moves with the robot. Furthermore, since the difference in arrival time of sound waves is used, it is possible to maintain high position estimation accuracy without increasing the number of sound wave receiving devices even in a noise environment or in a situation where the position of the sound wave generation source moves. It was possible. Embodiments of the present invention will be specifically described below with reference to the drawings.

図1は、本実施形態に係るロボットシステムの概略構成を示す図である。図1に示すように、ロボットシステム1は、ロボット20と、音波の発生源としての利用者10の位置を推定する位置推定装置としてのPC30から構成されている。より具体的には、ロボット20、PC(Personal Computer)30、ロボット20の任意の位置に設けられた音波受信装置としての複数のマイク20a、20b、20cから構成されている。図1では、ロボット20の各端部に3つのマイク20a、20b、20cが設けられている。そして、マイク20a、20b、20cは、3次元空間上の任意位置にいる利用者10から発信された音波を受信する。   FIG. 1 is a diagram illustrating a schematic configuration of a robot system according to the present embodiment. As shown in FIG. 1, the robot system 1 includes a robot 20 and a PC 30 as a position estimation device that estimates the position of a user 10 as a sound wave generation source. More specifically, it includes a robot 20, a PC (Personal Computer) 30, and a plurality of microphones 20a, 20b, and 20c as sound wave receiving devices provided at arbitrary positions of the robot 20. In FIG. 1, three microphones 20 a, 20 b, and 20 c are provided at each end of the robot 20. The microphones 20a, 20b, and 20c receive sound waves transmitted from the user 10 located at an arbitrary position in the three-dimensional space.

ここで、本実施形態に係るロボットシステムでは、音波を利用するが、音波とは、いずれの音域も含む概念であるが、好ましくは、人の声である100Hz〜2000Hzの帯域の「可聴音」を利用する。しかし、本発明の技術的思想は、可聴音に限定されるわけではない。   Here, in the robot system according to the present embodiment, a sound wave is used. The sound wave is a concept including any sound range, but preferably “audible sound” in a band of 100 Hz to 2000 Hz which is a human voice. Is used. However, the technical idea of the present invention is not limited to audible sounds.

また、本実施形態では、一例として、ロボット20に3つのマイク20a、20b、20cが装着されているが、本発明の技術的思想は、3つのマイクに限定されるわけでなくそれ以上であっても良いし、利用者10の2次元平面上の任意位置を推定する場合は2つのマイクであっても良い。   In the present embodiment, as an example, three microphones 20a, 20b, and 20c are attached to the robot 20, but the technical idea of the present invention is not limited to three microphones, and more than that. Alternatively, when estimating an arbitrary position on the two-dimensional plane of the user 10, two microphones may be used.

PC30は、ロボット20に内蔵されているか、または、ロボット20と無線インタフェースまたは有線インタフェースで接続されており、ロボット20のマイク20a、20b、20cで音波を受信したときに、受信波を示すデータがPC30に発信されるように構成されている。PC30では、受信波に相関処理を行って、任意の2つのマイクの各組合せが受信した音波の到達時間差を求め、そのマイクの各組合せと利用者10の位置の成す角度を算出すると共に、利用者10の位置を推定する。   The PC 30 is built in the robot 20 or is connected to the robot 20 through a wireless interface or a wired interface, and when the sound waves are received by the microphones 20a, 20b, and 20c of the robot 20, data indicating a received wave is received. It is comprised so that it may be transmitted to PC30. The PC 30 performs correlation processing on the received wave to determine the arrival time difference between the sound waves received by each combination of any two microphones, calculates the angle formed by each combination of the microphones and the position of the user 10, and uses The position of the person 10 is estimated.

このため、本実施形態では、利用者10が音波を発信するタイミングが任意時刻であっても、到達時間差を算出することができる。また、同一直線上とならないようにマイク20a、20b、20cを装着すれば、利用者10の3次元空間上の位置座標を求めることが可能となると共に、利用者10の空間上の位置に対するロボット20からの向きを特定する方向ベクトル、および、方向ベクトルに垂直な面を推定することが可能となる。   For this reason, in this embodiment, even if the timing which the user 10 transmits a sound wave is arbitrary time, an arrival time difference is computable. If the microphones 20a, 20b, and 20c are attached so as not to be on the same straight line, the position coordinates of the user 10 in the three-dimensional space can be obtained, and the robot with respect to the position of the user 10 in the space. It is possible to estimate a direction vector specifying the direction from 20 and a plane perpendicular to the direction vector.

PC30は、推定された利用者10の空間上の位置、または、推定された利用者10の空間上の位置に対するロボット20からの向きを特定する方向ベクトル、または、推定された方向ベクトルに垂直な面をロボット20に送信し、利用者10へのフィードバックを実行する。   The PC 30 is a direction vector that specifies the estimated position of the user 10 in the space, or the direction from the robot 20 with respect to the estimated position of the user 10 in the space, or is perpendicular to the estimated direction vector. The surface is transmitted to the robot 20 and feedback to the user 10 is executed.

図2は、本実施形態に係るロボットシステム1の機能を示すブロック図である。PC30の角度算出部30−1は、ロボット20のマイク20a、20b、20cが、利用者10から受信した音波に対して相関処理を行い、任意の2つのマイクの各組合せが発信した音波の到達時間差を求め、そのマイクの各組合せと利用者10の位置の成す角度をそれぞれ算出する。   FIG. 2 is a block diagram illustrating functions of the robot system 1 according to the present embodiment. The angle calculation unit 30-1 of the PC 30 performs correlation processing on the sound waves received from the user 10 by the microphones 20a, 20b, and 20c of the robot 20, and arrives at the sound waves transmitted by each combination of any two microphones. A time difference is obtained, and an angle formed by each combination of the microphones and the position of the user 10 is calculated.

また、PC30の位置推定部30−2は、角度算出部30−1が算出した各角度および制約条件として利用者の位置関係を反映した方程式を従属して解くことにより、利用者10の空間上の位置を一意に推定する。さらに、正面推定部30−3は、位置推定部30−2が推定した利用者10の空間上の位置に対するロボット20からの向きを特定する方向ベクトルを推定する。また、正面推定部30−3は、ロボット20上の任意の一点を通り、方向ベクトルと平行な直線と垂直に交わる平面を推定する。その他の構成については、図1で説明したとおりであるため、説明を省略する。   In addition, the position estimation unit 30-2 of the PC 30 subordinates and solves each angle calculated by the angle calculation unit 30-1 and an equation reflecting the positional relationship of the user as a constraint condition, so Is uniquely estimated. Further, the front estimation unit 30-3 estimates a direction vector that specifies the direction from the robot 20 with respect to the position in the space of the user 10 estimated by the position estimation unit 30-2. Further, the front estimation unit 30-3 estimates a plane that passes through an arbitrary point on the robot 20 and perpendicularly intersects with a straight line parallel to the direction vector. Other configurations are the same as described with reference to FIG.

ロボット20のフィードバック実行部20−1は、音声信号を出力するスピーカ、光信号を出力する光源、またはロボット20の本体若しくは本体の一部を駆動する駆動部を備えている。この駆動部は、モータやアクチュエータ等から動力を得てロボット20の可動部を駆動する機能を有する。フィードバック実行部20−1は、PC30から送信された利用者10の空間上の位置、または、利用者10の空間上の位置に対するロボット20からの向きを特定する方向ベクトル、または、方向ベクトルに垂直な面に基づき、利用者10へのフィードバックを実行する。例えば、推定した面に対して、スピーカからの音声信号の出力、光源からの光信号の出力またはロボット20の本体若しくは本体の一部の方向転換の少なくとも一つのフィードバック動作を実行する。   The feedback execution unit 20-1 of the robot 20 includes a speaker that outputs an audio signal, a light source that outputs an optical signal, or a drive unit that drives the main body of the robot 20 or a part of the main body. The drive unit has a function of driving the movable unit of the robot 20 by obtaining power from a motor, an actuator, or the like. The feedback execution unit 20-1 is a direction vector that specifies the position of the user 10 in the space transmitted from the PC 30, or the direction from the robot 20 with respect to the position of the user 10 in the space, or is perpendicular to the direction vector. Based on this aspect, feedback to the user 10 is executed. For example, at least one feedback operation of outputting an audio signal from a speaker, outputting an optical signal from a light source, or changing the direction of the main body of the robot 20 or a part of the main body is performed on the estimated surface.

図3は、本実施形態に係るロボットシステム1の動作を示すフローチャートである。まず、空間上の未知の位置にいる利用者10は、100Hz〜2000Hzの帯域の音波を断続的にそれぞれ発信する(ステップS1)。次に、ロボット20に装着された3つのマイク20a、20b、20cで、利用者10から発信された音波をそれぞれ受信する(ステップS2)。ここで、i=1、2、3を3つのマイク20a、20b、20cの識別子として、受信された音波の波形をP(x)で表す。 FIG. 3 is a flowchart showing the operation of the robot system 1 according to this embodiment. First, the user 10 at an unknown position in space intermittently transmits sound waves in a band of 100 Hz to 2000 Hz (step S1). Next, the sound waves transmitted from the user 10 are received by the three microphones 20a, 20b, and 20c attached to the robot 20 (step S2). Here, i = 1, 2, and 3 are set as identifiers of the three microphones 20a, 20b, and 20c, and the waveform of the received sound wave is represented by P i (x).

次に、ロボット20からPC30に対して、受信波形P(x)を送信する(ステップS3)。次に、PC30において、ロボット20から送信された受信波形P(x)に相関処理を施して、利用者10から発信された音波が3つのマイク20a、20b、20cで受信されるまでの到達時間差を算出する(ステップS4)。ここで、任意の2つのマイクの各組合せ(h,i)に対して、その到達時間差は、式(1)で示される相互相関値:Dhi(τ)を用いて求める。

Figure 2018034221
ただし、tは任意の時刻とする。そして、Dhi(τ)を最大とするτを算出し、その値を到達時間差Ahiとする。 Next, the received waveform P i (x) is transmitted from the robot 20 to the PC 30 (step S3). Next, the PC 30 performs a correlation process on the received waveform P i (x) transmitted from the robot 20 and arrives until the sound waves transmitted from the user 10 are received by the three microphones 20a, 20b, and 20c. A time difference is calculated (step S4). Here, for each combination (h, i) of any two microphones, the arrival time difference is obtained using the cross-correlation value: D hi (τ) represented by the equation (1).
Figure 2018034221
However, t is an arbitrary time. Then, τ that maximizes D hi (τ) is calculated, and this value is defined as an arrival time difference A hi .

次に、PC30において、任意の2つのマイクの各組合せ(h,i)に対して、利用者10との距離差rhiを算出する(ステップS5)。ここで、音速をCとすると、rhiは、式(2)で求められる。

Figure 2018034221
Next, the PC 30 calculates the distance difference r hi from the user 10 for each combination (h, i) of any two microphones (step S5). Here, assuming that the sound speed is C, r hi is obtained by the equation (2).
Figure 2018034221

次に、PC30において、任意の2つのマイクの各組合せ(h,i)に対して、利用者10の位置との成す角度を算出する(ステップS6)。ここで、マイク20a、20b、20cが利用者10から離れているとき、利用者から発信された音波は、マイク20a、20b、20cに平行波として到達すると考えて良い。ゆえに、ロボット20に装着された任意の2つのマイクの各組合せ(h,i)間距離を2Lhiとすると、任意の2つのマイクの各組合せ(h,i)を結ぶ直線と利用者10の位置との成す角φhi(j)は、式(3)で求められる。

Figure 2018034221
Next, the PC 30 calculates the angle formed by the position of the user 10 for each combination (h, i) of any two microphones (step S6). Here, when the microphones 20a, 20b, and 20c are away from the user 10, it may be considered that the sound waves transmitted from the user reach the microphones 20a, 20b, and 20c as parallel waves. Therefore, if the distance between each combination (h, i) of any two microphones attached to the robot 20 is 2L hi , the straight line connecting each combination (h, i) of any two microphones and the user 10 The angle φ hi (j) formed with the position can be obtained by Expression (3).
Figure 2018034221

次に、PC30において、任意の2つのマイクの各組合せ(h,i)に対して、利用者10の3次元空間座標を推定する(ステップS7)。ここで、利用者10の3次元空間座標は、任意の2つのマイクの各組合せ(h,i)の中点と成す角φの平面上にあると考えることができる。ロボット20の中心を原点とし、ロボット20に装着されたマイクの3次元空間座標をそれぞれ(x,y,z)、(x,y,z)、ただし(h,i=1,…,n)とし、利用者10の3次元空間座標を(u,v,w)、ただし(j=1,…,m)とすると、余弦定理より、式(4)が与えられる。 Next, in the PC 30, the three-dimensional space coordinates of the user 10 are estimated for each combination (h, i) of any two microphones (step S7). Here, the three-dimensional space coordinates of the user 10 can be considered to be on the plane of the angle φ formed with the midpoint of each combination (h, i) of any two microphones. The center of the robot 20 is the origin, and the three-dimensional spatial coordinates of the microphone mounted on the robot 20 are (x h , y h , z h ) and (x i , y i , z i ), respectively (h, i = 1, ..., a n), the three-dimensional coordinates of the user 10 (u j, v j, w j), provided that (j = 1, ..., When m), from the cosine theorem, equation (4) Given.

ここで、利用者10は、w>0に存在することを前提とする。すなわち、利用者10がロボット20の正面に存在していることを前提としている。式(4)においては、マイクおよび利用者10の数が一般的な場合を示しており、マイクの数をn、利用者の数をmとする。

Figure 2018034221
Here, it is assumed that the user 10 exists at w j > 0. That is, it is assumed that the user 10 exists in front of the robot 20. Equation (4) shows a general case where the number of microphones and users 10 is general, where n is the number of microphones and m is the number of users.
Figure 2018034221

ここで、ロボット20に装着されたマイクの数が3つ以上あれば、数3の式数が未知数を満たし、連立方程式を解くことができる。すなわち、ロボット20に装着されたマイク20a、20b、20cの3次元空間座標をそれぞれ(x,y,z)、ただし(i=1,2,3)として、式(4)に基づき、φhi(j)を用いた連立方程式を立て、非線形連立方程式を従属して解くことにより、利用者10の3次元空間座標を(u,v,w)を一意に算出することができる。 Here, if the number of microphones attached to the robot 20 is three or more, the number of equations in Equation 3 satisfies the unknown and the simultaneous equations can be solved. That is, the three-dimensional spatial coordinates of the microphones 20a, 20b, and 20c attached to the robot 20 are respectively (x i , y i , z i ), where (i = 1, 2, 3), and based on the equation (4). , phi hi the simultaneous equations erected using (j), by solving subordinate nonlinear simultaneous equations, to uniquely calculate the three-dimensional coordinates of the user 10 (u 1, v 1, w 1) Can do.

さらに、ロボット20に装着されたマイクの数が4つ以上ある場合、式(4)で示した連立方程式において、式数が未知数を上回り、方程式の解と方程式の解として複数の候補(u,v,w)が得られるが、任意に抽出した(w,v,w)=(α,β,γ)、ただし(k=1,…,n)に対して、式(5)で示した誤差δが小さくなる(α,β,γ)を、利用者10の3次元空間座標(u,v,w)として採用する。

Figure 2018034221
Further, when the number of microphones attached to the robot 20 is four or more, in the simultaneous equations shown in the equation (4), the number of equations exceeds the unknown, and a plurality of candidates (u i , V i , w i ) can be obtained, but arbitrarily extracted (w i , v i , w i ) = (α k , β k , γ k ), where (k = 1,..., N) Therefore, the error (δ k , β k , γ k ) in which the error δ shown in the equation (5) is small is adopted as the three-dimensional space coordinates (u i , v i , w i ) of the user 10.
Figure 2018034221

次に、PC30において、利用者10の3次元空間座標に対するロボット20からの向きを特定する方向ベクトルを推定する(ステップS8)。すなわち、ロボット20に設けられる各マイクの位置は、任意であるため、ロボット20に対する利用者10の正面を特定する必要があるため、方向ベクトルを推定する。ここで、ロボット20の中心を原点としているため、利用者10の3次元空間座標に対するロボット20から方向ベクトルは、式(6)で与えられる。

Figure 2018034221
Next, in the PC 30, a direction vector that specifies the direction from the robot 20 with respect to the three-dimensional space coordinates of the user 10 is estimated (step S8). That is, since the position of each microphone provided in the robot 20 is arbitrary, it is necessary to specify the front surface of the user 10 with respect to the robot 20, and thus the direction vector is estimated. Here, since the origin of the center of the robot 20 is the origin, the direction vector from the robot 20 with respect to the three-dimensional space coordinates of the user 10 is given by equation (6).
Figure 2018034221

ここで、利用者の数が2人以上の場合であっても、マイク20a、20b、20cで受信する音波が任意の時刻で重なければ、利用者各々の方向ベクトルを求めることができる。そして、ロボット20の中心を原点とした空間上の任意の1点(x,y,z)を通り、式(6)で与えた方向ベクトルに平行な直線の方程式を式(7)のように立てる。

Figure 2018034221
ここで、(x,y,z)は、利用者10のロボット20から向きを得るために算出する方向ベクトルに平行な直線の起点である。例えば、マイク20aの装着位置を起点にする場合は、(x,y,z)=(x,y,z)とすれば良い。なお、ロボット20から外れた点を(x,y,z)としても、発明の本質は変わらない。 Here, even when the number of users is two or more, if the sound waves received by the microphones 20a, 20b, and 20c do not overlap at an arbitrary time, the direction vector of each user can be obtained. An equation of a straight line that passes through an arbitrary point (x p , y p , z p ) in the space with the center of the robot 20 as the origin and is parallel to the direction vector given by the equation (6) is expressed by the equation (7). Stand like this.
Figure 2018034221
Here, (x p , y p , z p ) is the starting point of a straight line parallel to the direction vector calculated to obtain the direction from the robot 20 of the user 10. For example, when starting from the mounting position of the microphone 20a is, (x p, y p, z p) = (x 1, y 1, z 1) and may be. Note that even if the point deviated from the robot 20 is (x p , y p , z p ), the essence of the invention does not change.

次に、PC30において、利用者10に対する正面を推定する。すなわち、式(7)で与えられる直線の方程式に垂直な平面との交点を推定する(ステップS9)。ここで、(x,y,z)を通り、式(7)に垂直な平面は、式(8)で求められる。

Figure 2018034221
Next, in PC30, the front with respect to the user 10 is estimated. That is, the intersection point with the plane perpendicular to the linear equation given by equation (7) is estimated (step S9). Here, a plane that passes through (x p , y p , z p ) and is perpendicular to equation (7) is obtained by equation (8).
Figure 2018034221

最後に、ステップS6で推定された利用者10の空間上の位置、または、ステップS7で推定された利用者10の空間上の位置に対するロボット20からの向きを特定する方向ベクトル、または、ステップS8で推定された方向ベクトルに垂直な面をロボット20に送信し、利用者10へのフィードバックを実行する(ステップS10)。   Finally, a direction vector that specifies the orientation from the robot 20 with respect to the position of the user 10 in space estimated in step S6 or the position of the user 10 in space estimated in step S7, or step S8 A plane perpendicular to the direction vector estimated in (1) is transmitted to the robot 20, and feedback to the user 10 is executed (step S10).

ロボット20によるフィードバック動作は、例えば、ステップS7で推定された利用者10の空間上の位置に対するロボット20からの向きを特定する方向ベクトルに基づき、ロボットから20から光を照射すれば、ロボット20が利用者10に対してフィードバックを通知することができる。また、ステップS7で推定された利用者10の空間上の位置に対するロボット20からの向きを特定する方向へ、ロボット20の音声を放射し、利用者10に対してフィードバックを通知することもできる。さらに、ステップS8で推定された方向ベクトルに垂直な面に基づきロボット20の顔(ディスプレイ等)を向ければ、ロボット20が利用者10の方向を振り向くことが可能となる。   The feedback operation by the robot 20 is performed by, for example, irradiating light from the robot 20 based on a direction vector that specifies the direction from the robot 20 with respect to the position of the user 10 in space estimated in step S7. The user 10 can be notified of feedback. Further, it is possible to radiate the voice of the robot 20 in a direction that specifies the direction from the robot 20 with respect to the position of the user 10 in the space estimated in step S7, and to notify the user 10 of feedback. Furthermore, if the face (display or the like) of the robot 20 is directed based on a plane perpendicular to the direction vector estimated in step S8, the robot 20 can turn around the user 10.

ここで、利用者10から音波が継続的に発信されている場合、ステップS2に戻り、再度、その音波を受信し、利用者10の空間上の位置を推定しても良い。これにより、例えば、ロボット20が利用者10の方向に顔を向けるフィードバック動作を実行した場合、ロボット20は、利用者10の動きに追従して、顔を向けることが可能となる。また、利用者10の動きが高速であっても、式(1)のτの最大閾値を与えることにより、利用者10の空間上の位置を正確に求めることができ、利用者10の高速追従が実現できる。   Here, when the sound wave is continuously transmitted from the user 10, the process may return to step S2, receive the sound wave again, and estimate the position of the user 10 in the space. Thereby, for example, when the robot 20 performs a feedback operation that turns the face toward the user 10, the robot 20 can follow the movement of the user 10 and turn the face. Even if the movement of the user 10 is high speed, the position in the space of the user 10 can be accurately obtained by giving the maximum threshold value of τ in the equation (1), and the high-speed tracking of the user 10 can be obtained. Can be realized.

なお、例えば、マイク20a、20b、20cを全指向性マイクとし、その他に指向性マイクを一つ、ロボットに固定することによって、利用者10が、w≦0となる場合、すなわち、利用者10がロボット20の裏側に存在する場合であっても、利用者10の位置を推定することが可能となる。 In addition, for example, when the microphone 10a, 20b, 20c is an omnidirectional microphone, and another directional microphone is fixed to the robot, the user 10 becomes w j ≦ 0, that is, the user Even when 10 is on the back side of the robot 20, the position of the user 10 can be estimated.

以上説明したように、本実施形態によれば、利用者10が発信した音波を各マイク20a、20b、20cが受信して、任意の2つのマイクの各組合せが受信した音波の到達時間差を求め、求めた各到達時間差に基づいて各マイクの各組合せと各マイクの成す角度を算出し、算出した各角度および制約条件として各マイクの位置関係を反映した方程式を従属して解くことにより、利用者10の空間上の位置を一意に推定し、推定した利用者10の空間上の位置に対するロボット20の向きを特定する方向ベクトルを推定すると共に、方向ベクトルに垂直な面を推定するので、利用者10がロボット20から離れている場合でも、実現可能である。また、赤外線を利用しないことにより、小型で安価かつ利便性の高い装置を提供でき、遮蔽物があっても実現可能である。さらに、固定されていないマイクでも利用者の位置を推定することができ、動的制御があるロボットにもマイクを装着可能である。加えて、音波の到達時間差を利用することで、雑音環境下や利用者の位置が移動している状況下であっても測定精度を向上でき、マイクの数を増やすことなく、実現可能である。   As described above, according to the present embodiment, the sound waves transmitted by the user 10 are received by the microphones 20a, 20b, 20c, and the arrival time difference between the sound waves received by each combination of any two microphones is obtained. Calculate the angle between each microphone combination and each microphone based on the obtained arrival time difference, and subtract the equation that reflects the positional relationship of each microphone as the calculated angle and constraint condition. The position of the user 10 in the space is uniquely estimated, the direction vector specifying the orientation of the robot 20 with respect to the estimated position in the space of the user 10 is estimated, and the plane perpendicular to the direction vector is estimated. Even when the person 10 is away from the robot 20, this can be realized. Further, by not using infrared rays, a small, inexpensive, and highly convenient device can be provided, which can be realized even if there is a shielding object. Furthermore, the position of the user can be estimated even with an unfixed microphone, and the microphone can be attached to a robot with dynamic control. In addition, by using the arrival time difference between sound waves, measurement accuracy can be improved even in a noisy environment or a situation where the position of the user is moving, and this can be realized without increasing the number of microphones. .

1 ロボットシステム
10 利用者
20 ロボット
20−1 フィードバック実行部
20a、20b、20c マイク
30 PC
30−1 角度算出部
30−2 位置推定部
30−3 正面推定部
DESCRIPTION OF SYMBOLS 1 Robot system 10 User 20 Robot 20-1 Feedback execution part 20a, 20b, 20c Microphone 30 PC
30-1 Angle calculation unit 30-2 Position estimation unit 30-3 Front estimation unit

Claims (3)

音波の発生源の位置を推定するロボットシステムであって、
3次元空間内に設けられたロボットと、
前記ロボットの任意の位置に設けられ、音波を受信する複数の音波受信装置と、
いずれか2つの音波受信装置がそれぞれ受信した音波の到達時間差を算出し、前記到達時間差に基づいて、前記ロボット上の基準位置と前記音波の発生源との成す角度を算出する角度算出部と、
前記算出した角度および前記各音波受信装置の位置関係をパラメータとした方程式を解くことにより、前記音波の発生源の位置を推定する位置推定部と、
前記推定した音波の発生源の位置に対する前記ロボットの向きを示す方向ベクトルおよび前記方向ベクトルに垂直な面を推定する正面推定部と、を備えることを特徴とするロボットシステム。
A robot system for estimating the position of a sound wave source,
A robot provided in a three-dimensional space;
A plurality of sound wave receiving devices which are provided at arbitrary positions of the robot and receive sound waves;
An angle calculation unit that calculates an arrival time difference between the sound waves received by any two sound wave receiving devices, and calculates an angle formed by a reference position on the robot and the sound wave generation source based on the arrival time difference;
A position estimation unit that estimates the position of the sound wave generation source by solving an equation using the calculated angle and the positional relationship between the sound wave receiving devices as parameters;
A robot system comprising: a direction vector indicating a direction of the robot with respect to the estimated position of the sound wave generation source; and a front estimation unit that estimates a plane perpendicular to the direction vector.
前記角度算出部は、3つ以上の音波受信装置のうち、2つの音波受信装置を一組として、複数の組合せを選定し、各組み合わせにおける各音波受信装置がそれぞれ受信した音波の到達時間差を算出して、前記ロボット上の基準位置と前記音波の発生源との成す角度を算出し、
前記位置推定部は、前記算出された複数の角度に基づいて、前記音波の発生源の位置を推定することを特徴とする請求項1記載のロボットシステム。
The angle calculation unit selects a plurality of combinations of two or more sound wave receiving devices as a set, and calculates a difference in arrival time of sound waves received by each sound wave receiving device in each combination. And calculating the angle formed by the reference position on the robot and the sound wave generation source,
The robot system according to claim 1, wherein the position estimation unit estimates a position of the sound wave generation source based on the calculated plurality of angles.
前記ロボットは、音声信号を出力するスピーカ、光信号を出力する光源、または本体若しくは本体の一部を駆動する駆動部を備え、
前記推定した面に対して、前記スピーカからの音声信号の出力、前記光源からの光信号の出力または前記本体若しくは本体の一部の方向転換の少なくとも一つのフィードバック動作を実行するフィードバック実行部を更に含むことを特徴とする請求項1または請求項2記載のロボットシステム。
The robot includes a speaker that outputs an audio signal, a light source that outputs an optical signal, or a drive unit that drives a main body or a part of the main body,
A feedback execution unit that executes at least one feedback operation of outputting an audio signal from the speaker, outputting an optical signal from the light source, or changing the direction of the main body or a part of the main body on the estimated surface; The robot system according to claim 1, comprising: a robot system according to claim 1.
JP2016167145A 2016-08-29 2016-08-29 Robot system Expired - Fee Related JP6697982B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016167145A JP6697982B2 (en) 2016-08-29 2016-08-29 Robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016167145A JP6697982B2 (en) 2016-08-29 2016-08-29 Robot system

Publications (2)

Publication Number Publication Date
JP2018034221A true JP2018034221A (en) 2018-03-08
JP6697982B2 JP6697982B2 (en) 2020-05-27

Family

ID=61566767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016167145A Expired - Fee Related JP6697982B2 (en) 2016-08-29 2016-08-29 Robot system

Country Status (1)

Country Link
JP (1) JP6697982B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211393A (en) * 2018-06-07 2019-12-12 旭化成エレクトロニクス株式会社 Determining device, determination method, and determination program
CN112098940A (en) * 2020-09-18 2020-12-18 河北工业大学 Indoor static sound source positioning method based on swarm robots
CN112346015A (en) * 2020-11-02 2021-02-09 安徽研实科技有限公司 Method for synchronously sampling and measuring accurate position of sound source by microphone linear array

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06137850A (en) * 1992-10-30 1994-05-20 Res Dev Corp Of Japan Three-dimensional position and attitude measuring device and measuring method for robot by ultrasonic wave
JPH10227849A (en) * 1997-02-14 1998-08-25 Fuji Xerox Co Ltd Sound source position measuring device, camera image pick-up controller, sound source position recording device, and sound source position measurement method
JP2003266351A (en) * 2002-03-18 2003-09-24 Sony Corp Robot device and motion control method therefor
JP2006181651A (en) * 2004-12-24 2006-07-13 Toshiba Corp Interactive robot, voice recognition method of interactive robot and voice recognition program of interactive robot
JP2013016047A (en) * 2011-07-04 2013-01-24 Kddi Corp Pointing system
JP2013083621A (en) * 2011-09-28 2013-05-09 Fuji Xerox Co Ltd Position output device, position output system, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06137850A (en) * 1992-10-30 1994-05-20 Res Dev Corp Of Japan Three-dimensional position and attitude measuring device and measuring method for robot by ultrasonic wave
JPH10227849A (en) * 1997-02-14 1998-08-25 Fuji Xerox Co Ltd Sound source position measuring device, camera image pick-up controller, sound source position recording device, and sound source position measurement method
JP2003266351A (en) * 2002-03-18 2003-09-24 Sony Corp Robot device and motion control method therefor
JP2006181651A (en) * 2004-12-24 2006-07-13 Toshiba Corp Interactive robot, voice recognition method of interactive robot and voice recognition program of interactive robot
JP2013016047A (en) * 2011-07-04 2013-01-24 Kddi Corp Pointing system
JP2013083621A (en) * 2011-09-28 2013-05-09 Fuji Xerox Co Ltd Position output device, position output system, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211393A (en) * 2018-06-07 2019-12-12 旭化成エレクトロニクス株式会社 Determining device, determination method, and determination program
CN112098940A (en) * 2020-09-18 2020-12-18 河北工业大学 Indoor static sound source positioning method based on swarm robots
CN112098940B (en) * 2020-09-18 2023-06-09 河北工业大学 Indoor stationary sound source positioning method based on group robot
CN112346015A (en) * 2020-11-02 2021-02-09 安徽研实科技有限公司 Method for synchronously sampling and measuring accurate position of sound source by microphone linear array

Also Published As

Publication number Publication date
JP6697982B2 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
US10225680B2 (en) Motion detection of audio sources to facilitate reproduction of spatial audio spaces
US8817578B2 (en) Sonic wave output device, voice communication device, sonic wave output method and program
US10353198B2 (en) Head-mounted display with sound source detection
JP4675381B2 (en) Sound source characteristic estimation device
JP2006194700A (en) Sound source direction estimation system, sound source direction estimation method and sound source direction estimation program
US10746872B2 (en) System of tracking acoustic signal receivers
Perrodin et al. Design and calibration of large microphone arrays for robotic applications
JP2018034221A (en) Robot system
US8416642B2 (en) Signal processing apparatus and method for removing reflected wave generated by robot platform
JP5045938B2 (en) Sound source direction detection method, apparatus and program
Cho et al. Sound source localization for robot auditory systems
EP3182734B1 (en) Method for using a mobile device equipped with at least two microphones for determining the direction of loudspeakers in a setup of a surround sound system
JP6034715B2 (en) Motion detection device and program
JP5683397B2 (en) Pointing system
JP2011188444A (en) Head tracking device and control program
EP3661233B1 (en) Wearable beamforming speaker array
JP2005077205A (en) System for estimating sound source direction, apparatus for estimating time delay of signal, and computer program
Pfreundtner et al. (W) Earable Microphone Array and Ultrasonic Echo Localization for Coarse Indoor Environment Mapping
JP2017143459A (en) Method and device for measuring propagation delay characteristics
JP7111103B2 (en) Imaging system, imaging device and imaging method
JP2006162461A (en) Apparatus and method for detecting location of sound source
Lee et al. Sonicstrument: A Musical Interface with Stereotypical Acoustic Transducers.
Liaquat et al. Sound Localization for Ad-Hoc Microphone Arrays. Energies 2021, 14, 3446
JP5647070B2 (en) Pointing system
WO2022172648A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200427

R150 Certificate of patent or registration of utility model

Ref document number: 6697982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees