JP6697982B2 - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP6697982B2
JP6697982B2 JP2016167145A JP2016167145A JP6697982B2 JP 6697982 B2 JP6697982 B2 JP 6697982B2 JP 2016167145 A JP2016167145 A JP 2016167145A JP 2016167145 A JP2016167145 A JP 2016167145A JP 6697982 B2 JP6697982 B2 JP 6697982B2
Authority
JP
Japan
Prior art keywords
robot
sound wave
sound
user
source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016167145A
Other languages
English (en)
Other versions
JP2018034221A (ja
Inventor
伸也 高山
伸也 高山
茂之 酒澤
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016167145A priority Critical patent/JP6697982B2/ja
Publication of JP2018034221A publication Critical patent/JP2018034221A/ja
Application granted granted Critical
Publication of JP6697982B2 publication Critical patent/JP6697982B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

本発明は、音波の発生源の位置を推定する機能を有するロボットシステムに関する。
従来から、音響処理や光学処理等の信号処理により、オブジェクトや利用者の位置を推定する技術やシステムがある。例えば、特許文献1に開示されている技術では、オブジェクトの先端と表示装置上の複数位置との間で超音波の送受信を行わせ、その送受信に要する時間に基づいて距離を求め、オブジェクト先端の平面位置座標を推定する。
また、特許文献2に開示されている技術では、オブジェクトから赤外線および超音波を同時に出力し、赤外線を表示装置上のフォトダイオードで受光すると共に、超音波を画面上の2つのマイクでそれぞれ受信する。そして、赤外線が受光されてから超音波が受信されるまでの間の時間差に基づいて、マイクからデバイスまで距離を求め、オブジェクトの位置を推定する。
また、特許文献3に開示されている技術では、配置された固定マイクに対して入力された音声信号に基づき、着席している話者の発話向きを推定する。
特開2001−125740号公報 特開2005−122534号公報 特許第05235725号明細書
しかしながら、特許文献1に開示されている技術では、オブジェクトの先端(利用者の口)が接する表示装置上の平面位置座標を推定するため、利用シーンがオブジェクトと表示装置(ロボット)とが近い場合に限られてしまう。このため、利用者がロボットに接近しなければならず、利用者がロボットから離れている場合は、この技術を使うことができない。
特許文献2に開示されている技術では、送受信における時刻同期を取るために赤外線を用いるが、オブジェクト(利用者)に赤外線送受信機を装着する必要があると共に、装置が高価なものになってしまう。利用者と受光部との間に遮蔽物等があると、推定精度が劣化しやすい。
特許文献3に開示されている技術では、予め固定されたマイクに対して入力された音声信号に基づき、着席している話者の発話向きを推定するが、ロボット等にマイクが装着されてマイクが動的に変化する場合や利用者が移動している場合は、推定精度が劣化しやすい。
本発明は、このような事情に鑑みてなされたものであり、複数のマイクに入力された音波発生源の音声信号に基づき、3次元空間上の任意の位置に存在する音波発生源の位置を推定することができるロボットシステムを提供することを目的とする。
(1)上記の目的を達成するために、本発明は、以下のような手段を講じた。すなわち、本発明のロボットシステムは、音波の発生源の位置を推定するロボットシステムであって、3次元空間内に設けられたロボットと、前記ロボットの任意の位置に設けられ、音波を受信する複数の音波受信装置と、いずれか2つの音波受信装置がそれぞれ受信した音波の到達時間差を算出し、前記到達時間差に基づいて、前記ロボット上の基準位置と前記音波の発生源との成す角度を算出する角度算出部と、前記算出した角度および前記各音波受信装置の位置関係をパラメータとした方程式を解くことにより、前記音波の発生源の位置を推定する位置推定部と、前記推定した音波の発生源の位置に対する前記ロボットの向きを示す方向ベクトルおよび前記方向ベクトルに垂直な面を推定する正面推定部と、を備えることを特徴とする。
このように、ロボットの任意の位置に設けられ、音波を受信する複数の音波受信装置のうち、いずれか2つの音波受信装置がそれぞれ受信した音波の到達時間差を算出し、その到達時間差に基づいて、ロボット上の基準位置と音波の発生源との成す角度を算出し、その記算出した角度および各音波受信装置の位置関係をパラメータとした方程式を解くことにより、音波の発生源の位置を推定し、その推定した音波の発生源の位置に対するロボットの向きを示す方向ベクトルおよび方向ベクトルに垂直な面を推定するので、音波の発生源がロボットから離れている場合であっても、その位置を推定することが可能となる。また、音波を用いるため、例えば、赤外線のような光を用いる場合と比較して小型で安価にすることができ、利便性を高めることが可能となる。また、音波は光よりも回折するため、遮蔽物の影響を受けにくいという長所がある。さらに、音波受信装置の位置が固定されていない場合であっても音波の発生源の位置を推定することができるため、ロボットが動く場合にも適用することが可能となる。さらに、音波の到達時間差を利用することから、雑音環境下や音波の発生源の位置が動く状況下であっても、音波受信装置の数を増やすことなく、位置推定精度を高く維持することができる。
(2)また、本発明のロボットシステムにおいて、前記角度算出部は、3つ以上の音波受信装置のうち、2つの音波受信装置を一組として、複数の組合せを選定し、各組み合わせにおける各音波受信装置がそれぞれ受信した音波の到達時間差を算出して、前記ロボット上の基準位置と前記音波の発生源との成す角度を算出し、前記位置推定部は、前記算出された複数の角度に基づいて、前記音波の発生源の位置を推定することを特徴とする。
このように、3つ以上の音波受信装置のうち、2つの音波受信装置を一組として、複数の組合せを選定し、各組み合わせにおける各音波受信装置がそれぞれ受信した音波の到達時間差を算出して、ロボット上の基準位置と音波の発生源との成す角度を算出し、その算出された複数の角度に基づいて、音波の発生源の位置を推定するので、音波の発生源の空間上の位置を高い精度で推定することが可能となる。
(3)また、本発明のロボットシステムにおいて、前記ロボットは、音声信号を出力するスピーカ、光信号を出力する光源、または本体若しくは本体の一部を駆動する駆動部を備え、前記推定した面に対して、前記スピーカからの音声信号の出力、前記光源からの光信号の出力または前記本体若しくは本体の一部の方向転換の少なくとも一つのフィードバック動作を実行するフィードバック実行部を更に含むことを特徴とする。
このように、音波の発生源に対して、少なくとも一つのフィードバック動作を実行するので、ロボットに対し、音に反応する機能を付与することが可能となる。
本発明によれば、音波の発生源がロボットから離れている場合であっても、その位置を推定することが可能となる。また、音波を用いるため、例えば、赤外線のような光を用いる場合と比較して小型で安価にすることができ、利便性を高めることが可能となる。また、音波は光よりも回折するため、遮蔽物の影響を受けにくいという長所がある。さらに、音波受信装置の位置が固定されていない場合であっても音波の発生源の位置を推定することができるため、ロボットが動く場合にも適用することが可能となる。さらに、音波の到達時間差を利用することから、雑音環境下や音波の発生源の位置が動く状況下であっても、音波受信装置の数を増やすことなく、位置推定精度を高く維持することができる。
本実施形態に係るロボットシステムの概略構成を示す図である。 本実施形態に係るロボットシステムの機能を示すブロック図である。 本実施形態に係るロボットシステムの動作を示すフローチャートである。
本発明者らは、音に反応するロボットの実現を想起し、ロボットに複数マイクを装着し、これらのマイクから入力された音波の発生源の音声信号に基づいて、3次元空間上の任意位置にいる音波の発信源の位置を推定し、その推定した位置情報を用いて、音波の発信源にフィードバック動作を行うことによって、ロボットに対し、音に反応する機能を付与することができることを見出し、本発明をするに至った。
すなわち、本発明のロボットシステムは、音波の発生源の位置を推定するロボットシステムであって、3次元空間内に設けられたロボットと、前記ロボットの任意の位置に設けられ、音波を受信する複数の音波受信装置と、いずれか2つの音波受信装置がそれぞれ受信した音波の到達時間差を算出し、前記到達時間差に基づいて、前記ロボット上の基準位置と前記音波の発生源との成す角度を算出する角度算出部と、前記算出した角度と前記各音波受信装置との位置情報をパラメータとした方程式を解くことにより、前記音波の発生源の位置を推定する位置推定部と、前記推定した音波の発生源の位置に対する前記ロボットの向きを示す方向ベクトルおよび前記方向ベクトルに垂直な面を推定する正面推定部と、を備えることを特徴とする。
これにより、本発明者らは、音波の発生源がロボットから離れている場合であっても、その位置を推定することを可能とした。また、音波を用いることで、例えば、赤外線のような光を用いる場合と比較して小型で安価にすることを可能とすると共に、利便性を高めることを可能とした。さらに、ロボット上に装着された複数の音波受信装置の位置が既知であれば、音波受信装置がロボットと共に動く場合であっても音波の発生源の位置を推定することを可能とした。さらに、音波の到達時間差を利用することから、雑音環境下や音波の発生源の位置が動く状況下であっても、音波受信装置の数を増やすことなく、位置推定精度を高く維持することを可能とした。以下、本発明の実施形態について、図面を参照しながら具体的に説明する。
図1は、本実施形態に係るロボットシステムの概略構成を示す図である。図1に示すように、ロボットシステム1は、ロボット20と、音波の発生源としての利用者10の位置を推定する位置推定装置としてのPC30から構成されている。より具体的には、ロボット20、PC(Personal Computer)30、ロボット20の任意の位置に設けられた音波受信装置としての複数のマイク20a、20b、20cから構成されている。図1では、ロボット20の各端部に3つのマイク20a、20b、20cが設けられている。そして、マイク20a、20b、20cは、3次元空間上の任意位置にいる利用者10から発信された音波を受信する。
ここで、本実施形態に係るロボットシステムでは、音波を利用するが、音波とは、いずれの音域も含む概念であるが、好ましくは、人の声である100Hz〜2000Hzの帯域の「可聴音」を利用する。しかし、本発明の技術的思想は、可聴音に限定されるわけではない。
また、本実施形態では、一例として、ロボット20に3つのマイク20a、20b、20cが装着されているが、本発明の技術的思想は、3つのマイクに限定されるわけでなくそれ以上であっても良いし、利用者10の2次元平面上の任意位置を推定する場合は2つのマイクであっても良い。
PC30は、ロボット20に内蔵されているか、または、ロボット20と無線インタフェースまたは有線インタフェースで接続されており、ロボット20のマイク20a、20b、20cで音波を受信したときに、受信波を示すデータがPC30に発信されるように構成されている。PC30では、受信波に相関処理を行って、任意の2つのマイクの各組合せが受信した音波の到達時間差を求め、そのマイクの各組合せと利用者10の位置の成す角度を算出すると共に、利用者10の位置を推定する。
このため、本実施形態では、利用者10が音波を発信するタイミングが任意時刻であっても、到達時間差を算出することができる。また、同一直線上とならないようにマイク20a、20b、20cを装着すれば、利用者10の3次元空間上の位置座標を求めることが可能となると共に、利用者10の空間上の位置に対するロボット20からの向きを特定する方向ベクトル、および、方向ベクトルに垂直な面を推定することが可能となる。
PC30は、推定された利用者10の空間上の位置、または、推定された利用者10の空間上の位置に対するロボット20からの向きを特定する方向ベクトル、または、推定された方向ベクトルに垂直な面をロボット20に送信し、利用者10へのフィードバックを実行する。
図2は、本実施形態に係るロボットシステム1の機能を示すブロック図である。PC30の角度算出部30−1は、ロボット20のマイク20a、20b、20cが、利用者10から受信した音波に対して相関処理を行い、任意の2つのマイクの各組合せが発信した音波の到達時間差を求め、そのマイクの各組合せと利用者10の位置の成す角度をそれぞれ算出する。
また、PC30の位置推定部30−2は、角度算出部30−1が算出した各角度および制約条件として利用者の位置関係を反映した方程式を従属して解くことにより、利用者10の空間上の位置を一意に推定する。さらに、正面推定部30−3は、位置推定部30−2が推定した利用者10の空間上の位置に対するロボット20からの向きを特定する方向ベクトルを推定する。また、正面推定部30−3は、ロボット20上の任意の一点を通り、方向ベクトルと平行な直線と垂直に交わる平面を推定する。その他の構成については、図1で説明したとおりであるため、説明を省略する。
ロボット20のフィードバック実行部20−1は、音声信号を出力するスピーカ、光信号を出力する光源、またはロボット20の本体若しくは本体の一部を駆動する駆動部を備えている。この駆動部は、モータやアクチュエータ等から動力を得てロボット20の可動部を駆動する機能を有する。フィードバック実行部20−1は、PC30から送信された利用者10の空間上の位置、または、利用者10の空間上の位置に対するロボット20からの向きを特定する方向ベクトル、または、方向ベクトルに垂直な面に基づき、利用者10へのフィードバックを実行する。例えば、推定した面に対して、スピーカからの音声信号の出力、光源からの光信号の出力またはロボット20の本体若しくは本体の一部の方向転換の少なくとも一つのフィードバック動作を実行する。
図3は、本実施形態に係るロボットシステム1の動作を示すフローチャートである。まず、空間上の未知の位置にいる利用者10は、100Hz〜2000Hzの帯域の音波を断続的にそれぞれ発信する(ステップS1)。次に、ロボット20に装着された3つのマイク20a、20b、20cで、利用者10から発信された音波をそれぞれ受信する(ステップS2)。ここで、i=1、2、3を3つのマイク20a、20b、20cの識別子として、受信された音波の波形をP(x)で表す。
次に、ロボット20からPC30に対して、受信波形P(x)を送信する(ステップS3)。次に、PC30において、ロボット20から送信された受信波形P(x)に相関処理を施して、利用者10から発信された音波が3つのマイク20a、20b、20cで受信されるまでの到達時間差を算出する(ステップS4)。ここで、任意の2つのマイクの各組合せ(h,i)に対して、その到達時間差は、式(1)で示される相互相関値:Dhi(τ)を用いて求める。
Figure 0006697982
ただし、tは任意の時刻とする。そして、Dhi(τ)を最大とするτを算出し、その値を到達時間差Ahiとする。
次に、PC30において、任意の2つのマイクの各組合せ(h,i)に対して、利用者10との距離差rhiを算出する(ステップS5)。ここで、音速をCとすると、rhiは、式(2)で求められる。
Figure 0006697982
次に、PC30において、任意の2つのマイクの各組合せ(h,i)に対して、利用者10の位置との成す角度を算出する(ステップS6)。ここで、マイク20a、20b、20cが利用者10から離れているとき、利用者から発信された音波は、マイク20a、20b、20cに平行波として到達すると考えて良い。ゆえに、ロボット20に装着された任意の2つのマイクの各組合せ(h,i)間距離を2Lhiとすると、任意の2つのマイクの各組合せ(h,i)を結ぶ直線と利用者10の位置との成す角φhi(j)は、式(3)で求められる。
Figure 0006697982
次に、PC30において、任意の2つのマイクの各組合せ(h,i)に対して、利用者10の3次元空間座標を推定する(ステップS7)。ここで、利用者10の3次元空間座標は、任意の2つのマイクの各組合せ(h,i)の中点と成す角φの平面上にあると考えることができる。ロボット20の中心を原点とし、ロボット20に装着されたマイクの3次元空間座標をそれぞれ(x,y,z)、(x,y,z)、ただし(h,i=1,…,n)とし、利用者10の3次元空間座標を(u,v,w)、ただし(j=1,…,m)とすると、余弦定理より、式(4)が与えられる。
ここで、利用者10は、w>0に存在することを前提とする。すなわち、利用者10がロボット20の正面に存在していることを前提としている。式(4)においては、マイクおよび利用者10の数が一般的な場合を示しており、マイクの数をn、利用者の数をmとする。
Figure 0006697982
ここで、ロボット20に装着されたマイクの数が3つ以上あれば、数3の式数が未知数を満たし、連立方程式を解くことができる。すなわち、ロボット20に装着されたマイク20a、20b、20cの3次元空間座標をそれぞれ(x,y,z)、ただし(i=1,2,3)として、式(4)に基づき、φhi(j)を用いた連立方程式を立て、非線形連立方程式を従属して解くことにより、利用者10の3次元空間座標を(u,v,w)を一意に算出することができる。
さらに、ロボット20に装着されたマイクの数が4つ以上ある場合、式(4)で示した連立方程式において、式数が未知数を上回り、方程式の解と方程式の解として複数の候補(u,v,w)が得られるが、任意に抽出した(w,v,w)=(α,β,γ)、ただし(k=1,…,n)に対して、式(5)で示した誤差δが小さくなる(α,β,γ)を、利用者10の3次元空間座標(u,v,w)として採用する。
Figure 0006697982
次に、PC30において、利用者10の3次元空間座標に対するロボット20からの向きを特定する方向ベクトルを推定する(ステップS8)。すなわち、ロボット20に設けられる各マイクの位置は、任意であるため、ロボット20に対する利用者10の正面を特定する必要があるため、方向ベクトルを推定する。ここで、ロボット20の中心を原点としているため、利用者10の3次元空間座標に対するロボット20から方向ベクトルは、式(6)で与えられる。
Figure 0006697982
ここで、利用者の数が2人以上の場合であっても、マイク20a、20b、20cで受信する音波が任意の時刻で重なければ、利用者各々の方向ベクトルを求めることができる。そして、ロボット20の中心を原点とした空間上の任意の1点(x,y,z)を通り、式(6)で与えた方向ベクトルに平行な直線の方程式を式(7)のように立てる。
Figure 0006697982
ここで、(x,y,z)は、利用者10のロボット20から向きを得るために算出する方向ベクトルに平行な直線の起点である。例えば、マイク20aの装着位置を起点にする場合は、(x,y,z)=(x,y,z)とすれば良い。なお、ロボット20から外れた点を(x,y,z)としても、発明の本質は変わらない。
次に、PC30において、利用者10に対する正面を推定する。すなわち、式(7)で与えられる直線の方程式に垂直な平面との交点を推定する(ステップS9)。ここで、(x,y,z)を通り、式(7)に垂直な平面は、式(8)で求められる。
Figure 0006697982
最後に、ステップS6で推定された利用者10の空間上の位置、または、ステップS7で推定された利用者10の空間上の位置に対するロボット20からの向きを特定する方向ベクトル、または、ステップS8で推定された方向ベクトルに垂直な面をロボット20に送信し、利用者10へのフィードバックを実行する(ステップS10)。
ロボット20によるフィードバック動作は、例えば、ステップS7で推定された利用者10の空間上の位置に対するロボット20からの向きを特定する方向ベクトルに基づき、ロボットから20から光を照射すれば、ロボット20が利用者10に対してフィードバックを通知することができる。また、ステップS7で推定された利用者10の空間上の位置に対するロボット20からの向きを特定する方向へ、ロボット20の音声を放射し、利用者10に対してフィードバックを通知することもできる。さらに、ステップS8で推定された方向ベクトルに垂直な面に基づきロボット20の顔(ディスプレイ等)を向ければ、ロボット20が利用者10の方向を振り向くことが可能となる。
ここで、利用者10から音波が継続的に発信されている場合、ステップS2に戻り、再度、その音波を受信し、利用者10の空間上の位置を推定しても良い。これにより、例えば、ロボット20が利用者10の方向に顔を向けるフィードバック動作を実行した場合、ロボット20は、利用者10の動きに追従して、顔を向けることが可能となる。また、利用者10の動きが高速であっても、式(1)のτの最大閾値を与えることにより、利用者10の空間上の位置を正確に求めることができ、利用者10の高速追従が実現できる。
なお、例えば、マイク20a、20b、20cを全指向性マイクとし、その他に指向性マイクを一つ、ロボットに固定することによって、利用者10が、w≦0となる場合、すなわち、利用者10がロボット20の裏側に存在する場合であっても、利用者10の位置を推定することが可能となる。
以上説明したように、本実施形態によれば、利用者10が発信した音波を各マイク20a、20b、20cが受信して、任意の2つのマイクの各組合せが受信した音波の到達時間差を求め、求めた各到達時間差に基づいて各マイクの各組合せと各マイクの成す角度を算出し、算出した各角度および制約条件として各マイクの位置関係を反映した方程式を従属して解くことにより、利用者10の空間上の位置を一意に推定し、推定した利用者10の空間上の位置に対するロボット20の向きを特定する方向ベクトルを推定すると共に、方向ベクトルに垂直な面を推定するので、利用者10がロボット20から離れている場合でも、実現可能である。また、赤外線を利用しないことにより、小型で安価かつ利便性の高い装置を提供でき、遮蔽物があっても実現可能である。さらに、固定されていないマイクでも利用者の位置を推定することができ、動的制御があるロボットにもマイクを装着可能である。加えて、音波の到達時間差を利用することで、雑音環境下や利用者の位置が移動している状況下であっても測定精度を向上でき、マイクの数を増やすことなく、実現可能である。
1 ロボットシステム
10 利用者
20 ロボット
20−1 フィードバック実行部
20a、20b、20c マイク
30 PC
30−1 角度算出部
30−2 位置推定部
30−3 正面推定部

Claims (2)

  1. 音波の発生源の位置を推定するロボットシステムであって、
    3次元空間内に設けられたロボットと、
    前記ロボットの任意の位置に設けられ、音波を受信する3個以上の音波受信装置と、
    前記各音波受信装置の識別子をi(ただし、i=1,2,3…n(n≧3))として、前記各音波受信装置で受信された音波の波形をP (x)とし、
    tを任意の時刻とし、いずれか2つの音波受信装置の組み合わせ(h,i)(ただし、h=1,2,3…n(n≧3,h≠i))に対し、それぞれ受信した音波の到達時間差 hi を、以下の式(1)で示される相互相関値D hi (τ)を最大とするτとし、
    音速をCとし、前記いずれか2つの音波受信装置の組み合わせ(h,i)に対し、前記音波の発生源との距離差r hi を、以下の式(2)を用いて算出し、
    前記いずれか2つの音波受信装置間の距離を2L hi とし、前記各音波受信装置を結ぶ線と前記音波の発生源の位置との成す角φ hi (j)を、以下の式(3)を用いて算出することによって、前記ロボット上の基準位置と前記音波の発生源との成す角度を算出する角度算出部と、
    前記ロボットの中心を原点とし、前記各音波受信装置の3次元空間座標をそれぞれ(x ,y ,z )、(x ,y ,z )とし、前記音波の発生源の3次元空間座標を(u ,v ,w )とし(ただし、j=1,…,m)、余弦定理を適用して与えられる以下の式(4)を解くことにより、前記音波の発生源の位置を推定する位置推定部と、
    前記推定した音波の発生源の位置に対する前記ロボットの向きを示す方向ベクトルおよび前記方向ベクトルに垂直な面を推定する正面推定部と、を備えることを特徴とするロボットシステム。
    Figure 0006697982
    Figure 0006697982
    Figure 0006697982
    Figure 0006697982
  2. 前記ロボットは、音声信号を出力するスピーカ、光信号を出力する光源、または本体若しくは本体の一部を駆動する駆動部を備え、
    前記推定した面に対して、前記スピーカからの音声信号の出力、前記光源からの光信号の出力または前記本体若しくは本体の一部の方向転換の少なくとも一つのフィードバック動作を実行するフィードバック実行部を更に含むことを特徴とする請求項1記載のロボットシステム。
JP2016167145A 2016-08-29 2016-08-29 ロボットシステム Expired - Fee Related JP6697982B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016167145A JP6697982B2 (ja) 2016-08-29 2016-08-29 ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016167145A JP6697982B2 (ja) 2016-08-29 2016-08-29 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2018034221A JP2018034221A (ja) 2018-03-08
JP6697982B2 true JP6697982B2 (ja) 2020-05-27

Family

ID=61566767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016167145A Expired - Fee Related JP6697982B2 (ja) 2016-08-29 2016-08-29 ロボットシステム

Country Status (1)

Country Link
JP (1) JP6697982B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211393A (ja) * 2018-06-07 2019-12-12 旭化成エレクトロニクス株式会社 判定装置、判定方法、判定プログラム
CN112098940B (zh) * 2020-09-18 2023-06-09 河北工业大学 一种基于群机器人的室内静止声源定位方法
CN112346015A (zh) * 2020-11-02 2021-02-09 安徽研实科技有限公司 一种麦克风线阵同步采样测量声源精准位置的方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3101099B2 (ja) * 1992-10-30 2000-10-23 科学技術振興事業団 超音波によるロボットの3次元位置・姿勢計測装置及びその計測方法
JP3572849B2 (ja) * 1997-02-14 2004-10-06 富士ゼロックス株式会社 音源位置計測装置、及びカメラ撮影制御装置
JP3714268B2 (ja) * 2002-03-18 2005-11-09 ソニー株式会社 ロボット装置
JP4204541B2 (ja) * 2004-12-24 2009-01-07 株式会社東芝 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム
JP5683397B2 (ja) * 2011-07-04 2015-03-11 Kddi株式会社 ポインティングシステム
JP2013083621A (ja) * 2011-09-28 2013-05-09 Fuji Xerox Co Ltd 位置出力装置、位置出力システムおよびプログラム

Also Published As

Publication number Publication date
JP2018034221A (ja) 2018-03-08

Similar Documents

Publication Publication Date Title
KR101483269B1 (ko) 로봇의 음원 위치 탐색 방법 및 그 장치
JP4675381B2 (ja) 音源特性推定装置
JP6697982B2 (ja) ロボットシステム
US10746872B2 (en) System of tracking acoustic signal receivers
US20170371038A1 (en) Systems and methods for ultrasonic velocity and acceleration detection
JP5045938B2 (ja) 音源方向検出方法、装置及びプログラム
JP2013532278A (ja) 送信機の3d座標の測定
JP2018117341A (ja) 移動体およびプログラム
Al-Sheikh et al. Sound source direction estimation in horizontal plane using microphone array
JP5683397B2 (ja) ポインティングシステム
Pfreundtner et al. (W) Earable Microphone Array and Ultrasonic Echo Localization for Coarse Indoor Environment Mapping
WO2021124739A1 (ja) 信号処理装置及び信号処理方法、並びに3次元測定装置
EP3182734B1 (en) Method for using a mobile device equipped with at least two microphones for determining the direction of loudspeakers in a setup of a surround sound system
Ionescu et al. 3D localization and tracking of objects using miniature microphones
EP3661233B1 (en) Wearable beamforming speaker array
JP2004257877A (ja) 音源検出方法、音源検出装置及びロボット
Bando et al. Posture estimation of hose-shaped robot by using active microphone array
JP2011188444A (ja) ヘッドトラッキング装置および制御プログラム
WO2020077389A1 (en) "a method and system for determining an orientation of a user"
WO2022172648A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
Packi et al. Wireless acoustic tracking for extended range telepresence
AU2021101916A4 (en) A method and system for determining an orientation of a user
Lee et al. Sonicstrument: A Musical Interface with Stereotypical Acoustic Transducers.
Horiuchi et al. A pointing system based on acoustic position estimation and gravity sensing
Gamboa-Montero et al. Real-Time Acoustic Touch Localization in Human-Robot Interaction based on Steered Response Power

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200427

R150 Certificate of patent or registration of utility model

Ref document number: 6697982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees