JP2015050610A - 音響処理装置、音響処理方法、及び音響処理プログラム - Google Patents

音響処理装置、音響処理方法、及び音響処理プログラム Download PDF

Info

Publication number
JP2015050610A
JP2015050610A JP2013180672A JP2013180672A JP2015050610A JP 2015050610 A JP2015050610 A JP 2015050610A JP 2013180672 A JP2013180672 A JP 2013180672A JP 2013180672 A JP2013180672 A JP 2013180672A JP 2015050610 A JP2015050610 A JP 2015050610A
Authority
JP
Japan
Prior art keywords
unit
sound
sound source
image
elevation angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013180672A
Other languages
English (en)
Other versions
JP6030032B2 (ja
Inventor
一博 中臺
Kazuhiro Nakadai
一博 中臺
圭佑 中村
Keisuke Nakamura
圭佑 中村
ラナ シナパヤ
Sinapayen Lana
ラナ シナパヤ
今井 倫太
Michita Imai
倫太 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2013180672A priority Critical patent/JP6030032B2/ja
Priority to US14/454,095 priority patent/US9664772B2/en
Publication of JP2015050610A publication Critical patent/JP2015050610A/ja
Application granted granted Critical
Publication of JP6030032B2 publication Critical patent/JP6030032B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction

Abstract

【課題】小型化した音響処理装置で3次元の音源方向推定が行える音響処理装置、音響処理方法、及び音響処理プログラムを提供することを目的としている。
【解決手段】音響処理装置は、音響信号を収録する収音部と、自装置の傾きに関する傾き情報を取得する傾き情報取得部と、収音部が収録した少なくとも2つの時刻における音響信号に基づいて、収音部が配置されている面内の音源の方位角を推定する方位角推定部と、傾き情報取得部が取得した傾き情報と、方位角推定部が推定した少なくとも2つのフレームにおける方位角とに基づいて、収音部が配置されている面を基準とした音源の仰角を推定する仰角推定部と、を備える。
【選択図】図2

Description

本発明は、音響処理装置、音響処理方法、及び音響処理プログラムに関する。
音源の方向や位置を定位し、定位した音源情報を利用者に報知するシステムが提案されている(例えば、特許文献1参照)。特許文献1に記載の技術では、8個のマイクロホンで採取し、採取した音データについてマイクロホンのペア間での相互相関に基づいて音源の定位を行っている。また、特許文献1に記載の技術では、7個の通常のマイクロホンと1個のサラウンド用マイクロホンを備え、7個のマイクロホンが、球状の形をした台に取り付けられている。
また、音の到着時間差を用いて、2次元の音源位置推定を行う場合は、例えば3本以上のマイクロホンが必要になる。このような3本のマイクロホンは、同一平面上に配置される。そして、音の到着時間差を用いて、3次元の音源位置推定を行う場合は、例えば4本以上のマイクロホンが必要になる。このような4本のマイクロホンは、同一平面上に存在しないように配置される。
特開2008−197650号公報
しかしながら、上述した技術では、複数のマイクロホンが3次元的に配置されているため、音データ取得部または音源定位装置が大型化してしまうという課題があった。
本発明は、上記の問題点に鑑みてなされたものであって、小型化した音響処理装置で3次元の音源方向推定が行える音響処理装置、音響処理方法、及び音響処理プログラムを提供することを目的としている。
(1)上記目的を達成するため、本発明の一態様に係る音響処理装置は、音響信号を収録する収音部と、自装置の傾きに関する傾き情報を取得する傾き情報取得部と、前記収音部が収録した少なくとも2つの時刻における前記音響信号に基づいて、前記収音部が配置されている面内の音源の方位角を推定する方位角推定部と、前記傾き情報取得部が取得した前記傾き情報と、前記方位角推定部が推定した少なくとも2つの時刻における前記方位角とに基づいて、前記収音部が配置されている面を基準とした前記音源の仰角を推定する仰角推定部と、を備えることを特徴としている。
(2)本発明に係るその他の様態は、前記仰角推定部が、前記傾き情報取得部によって取得された前記傾き情報に基づいて世界座標系から自装置における座標系への回転行列を算出し、算出した前記回転行列と、前記方位角推定部が推定した少なくとも2つの時刻における前記方位角とに基づいて、前記音源の仰角を推定することを特徴とする(1)の音声処理装置である。
(3)本発明に係るその他の様態は、前記仰角推定部が、複数の時刻に渡って推定した仰角を平滑化して、平滑化した値を音源の仰角として決定することを特徴とする(1)または(2)の音声処理装置である。
(4)本発明に係るその他の様態は、画像を表示する表示部と、前記仰角推定部が推定した前記仰角を示す画像を生成して、生成した前記画像を前記表示部に表示する画像処理部と、を備えることを特徴とする(1)から(3)のいずれか1つの音声処理装置である。
(5)本発明に係るその他の様態は、前記画像処理部が、前記方位角推定部が推定した方位角を示す画像を生成して、生成した前記画像を前記表示部に表示する
ことを特徴とする(4)の音声処理装置である。
(6)本発明に係るその他の様態は、画像を撮影する撮像部を備え、前記画像処理部は、少なくとも前記仰角を示す画像を前記撮像部が撮像した前記画像に合成して前記表示部に表示させることを特徴とする(4)または(5)の音声処理装置である。
(7)本発明に係るその他の様態は、前記画像処理部が、前記方位角推定部が推定した方位角または前記仰角推定部が推定した前記仰角に基づいた速さで変化する画像を生成することを特徴とする(6)の音声処理装置である。
(8)本発明に係るその他の様態は、音響信号を再生する音響再生部と、音源毎の音響信号のうち、利用者によって選択された音源を示す選択情報を取得する操作情報取得部と、を備え、前記方位角推定部は、前記収音部が収録した音響信号を前記音源毎の音響信号に分離し、分離した音源毎の音響信号に基づいて、音源の前記方位角を推定し、分離した前記音響信号のうち、前記操作情報取得部が取得した前記選択情報に対応する音響信号を前記音響再生部から再生することを特徴とする(1)から(7)のいずれか1つの音声処理装置である。
(9)上記目的を達成するため、本発明の一態様に係る音響処理方法は、収音部が、音響信号を収録する収音手順と、傾き情報取得部が、自装置の傾きに関する傾き情報を取得する傾き情報取得手順と、方位角推定部が、前記収音手順によって収録された少なくとも2つの時刻における前記音響信号に基づいて、前記収音部が配置されている面内の音源の方位角を各々推定する方位角推定手順と、仰角推定部が、前記傾き情報取得手順によって取得された前記傾き情報と、前記方位角推定手順によって推定された少なくとも2つの時刻における前記方位角とに基づいて、前記収音部が配置されている面を基準とした前記音源の仰角を推定する仰角推定手順と、を含むことを特徴としている。
(10)上記目的を達成するため、本発明の一態様に係る音響処理プログラムは、音響処理装置のコンピュータに、音響信号を収録する収音手順と、自装置の傾きに関する傾き情報を取得する傾き情報取得手順と、前記収音手順によって収録された少なくとも2つの時刻における前記音響信号に基づいて、収音部が配置されている面内の音源の方位角を各々推定する方位角推定手順と、前記傾き情報取得手順によって取得された前記傾き情報と、前記方位角推定手順によって推定された少なくとも2つの時刻における前記方位角とに基づいて、前記収音部が配置されている面を基準とした前記音源の仰角を推定する仰角推定手順と、を実行させることを特徴としている。
上述した(1)、(9)又は(10)の構成によれば、小型化した音響処理装置で3次元の音源方向推定することができる。
本発明の態様(2)によれば、小型化した音響処理装置で、音源の仰角を推定することができる。
本発明の態様(3)によれば、2つの時刻において取得された音響信号と姿勢情報を用いる方法に比べて、外乱に頑健に方位角と仰角を推定することができる。
本発明の態様(4)または(5)によれば、方位角音源定位部が推定した方位角と、仰角推定部が推定した仰角とを、直感的に認知しやすい画像として表示することができる。
本発明の態様(6)によれば、撮像部が撮像した画像に音源の方向を合成して表示部に表示させるため、利用者は、直感的に音源の方向を認知しやすくなる。
本発明の態様(7)によれば、表示部上に表示される画像により、利用者は、音響処理装置に対して音源がある方向を直感的に知ることができる。そして、利用者は、この表示に応じて音響処理装置を移動させることで、音源の方向を知ることができる。
本発明の態様(8)によれば、利用者によって選択された所望の音源の音響信号を再生することができる。
第1実施形態に係る音響処理システムの配置例を示す図である。 第1実施形態に係る音声処理装置の構成を示すブロック図である。 第1実施形態に係る世界座標系を説明する図である。 第1実施形態に係る第fフレームにおけるデバイス座標系を説明する図である。 第1実施形態に係る第f+1フレームにおけるデバイス座標系を説明する図である。 第1実施形態における音響処理装置の処理手順のフローチャートである。 第1実施形態に係るマイクロホンの他の配置例を説明する図である。 第2実施形態に係る音響処理装置の構成を示すブロック図である。 第2実施形態に係る最適化処理を説明する図である。 第2実施形態における音響処理装置の処理手順のフローチャートである。 第3実施形態に係る音響処理装置の構成を示すブロック図である。 第3実施形態に係る表示部に表示される画像の例を説明する図である。 第3実施形態に係る撮像部が撮影した画像に音源の方向を示す情報に基づく画像を合成して表示部に表示する画像を説明する図である。 第3実施形態に係る複数の音源が検出された場合の表示例を説明する図である。 第4実施形態に係る音響処理装置10の構成を示すブロック図である。 第4実施形態に係る音源が選択されたときの表示部に表示される画像の一例を説明する図である。 第5実施形態に係る音響処理装置の構成を示すブロック図である。 第5実施形態に係るリング画像の表示例を説明する図である。 第5実施形態に係るリング画像の表示例を説明する図である。 実験結果における距離とエラーの関係を説明する図である。
まず、本発明の概要を説明する。
本発明の音響処理装置は、例えば、2次元に配置されているマイクロホンによって音響信号を収録する。また、音響処理装置は、例えば地磁気センサと加速度センサを備え、当該地磁気センサと加速度センサが検出した自装置の回転角を取得する。そして、音響処理装置は、収録した音響信号に基づいて、フレーム毎に音源の方向(方位角、仰角)を推定する。なお、フレームとは、予め定められた時間またはサンプルの長さ(フレーム長)の時間間隔、またはその時間間隔に含まれる信号である。フレーム長は、例えば、10[msec]である。音響処理装置は、例えば、携帯電話、タブレット端末、携帯ゲーム機等の携帯端末である。
[第1実施形態]
以下、図面を参照しながら本発明の実施形態について説明する。
図1は、本実施形態に係る音響処理システム1の配置例を示す図である。図1に示すように、音響処理システム1は、音響処理装置10及び8個のマイクロホン201を備えている。図1に示すように、8個のマイクロホン201は、音響処理装置10の略周辺部に取り付けられている。なお、図1に示したマイクロホン201の個数及び配置は一例であり、マイクロホン201の個数及び配置はこれに限られない。
この配置例では、音響処理装置10の短手方向をx軸方向、長手方向をy軸方向、厚方向をz軸方向とする。また、図1のように、y軸方向の紙面において右側を音響処理装置10の前方向とする。なお、図1に示した例は一例であり、音響処理装置10の前方向は、y軸方向の紙面において上方向であってもよい。マイクロホン201は、図1のように、音響処理装置10の表面であるxy平面内に配置されている。
xy平面における角度θは、音響処理装置10の前方向に対する音源Spの方位角(azimuth)である。また、xyz空間におけるxy平面からの角度θは、音響処理装置10の前方向に対する音源Spの仰角(elevation angle)である。なお、音源Spは、発話者、音響信号を発するスピーカ等である。なお、音源の方位角は、例えば、8個のマイクロホン201の位置の重心点から、当該8個のマイクロホン201のうち予め定めた1個のマイクロホン201への方向を基準とした、水平面(xy平面)内の方向である。また、音源の仰角は、マイクロホン201が配置されているxy平面を基準としたxyz空間における方向である。
次に、本実施形態に係る音響処理装置10の構成について説明する。
図2は、本実施形態に係る音響処理装置10の構成を示すブロック図である。図2に示すように、音響処理装置10は、取得部101、音響信号取得部102、方位角音源定位部(方位角推定部)103、記憶部104、仰角推定部105、画像処理部106、及び表示部107を備えている。また、音響処理装置10には、収音部20及びセンサ30が接続されている。
収音部20は、N個(Nは1よりも大きい整数、例えば8個)のチャネルの音響信号を収録し、収録したNチャネルの音響信号を音響処理装置10に送信する。収音部20は、例えば周波数帯域(例えば200Hz〜4kHz)の成分を有する音波を受信するN個のマイクロホン201を備えている。N個のマイクロホン201が、例えば図1に示した位置に配置されている。収音部20は、収録したNチャネルの音響信号を無線で送信してもよいし、有線で送信してもよい。Nが1よりも大きい場合には、送信の際にチャネル間で音響信号が同期していればよい。
センサ30は、音響処理装置10のx軸(図1参照)回りのピッチ(pitch)、y軸回りのロール(roll)、z軸回りのヨー(yaw)を検出し、検出したピッチとロールとヨーとを回転角情報として音響処理装置10に出力する。センサ30は、例えば地磁気センサと加速度センサである。または、センサ30は、音響処理装置10の角速度を検出し、検出した角速度を音響処理装置10に出力する。角速度を検出するセンサ30は、例えば3軸のジャイロセンサである。なお、センサ30が検出するピッチとロールとヨーは、図1に示した装置における座標系(以下、デバイス座標系という)ではなく、世界座標系における値である。また、本発明において傾き情報とは、回転角情報または角速度情報である。
取得部(傾き情報取得部)101は、センサ30が検出した回転角情報、または角速度を取得し、取得した回転角情報、または角速度を仰角推定部105に出力する。
音響信号取得部102は、収音部20のN個のマイクロホン201によって収録されたN個の音響信号を取得する。音響信号取得部102は、取得したN個の音響信号に対して
時間領域において、フレーム毎にフーリエ変換を行うことで周波数領域の入力信号を生成する。音響信号取得部102は、フーリエ変換したN個の音響信号を方位角音源定位部103に出力する。
方位角音源定位部103は、音響信号取得部102から入力された入力信号に基づいて、音源Spの方位角を推定し、推定した方位角を示す方位角情報を仰角推定部105と画像処理部106に出力する。方位角音源定位部103が推定する方位角は、例えば、収音部20が備えるN個のマイクロホンの位置の重心点から、当該N個のマイクロホンのうち予め定めた1個のマイクロホンへの方向を基準とした、水平面内の方向である。例えば、方位角音源定位部103は、GSVD−MUSIC(Generalized Singular Value Decomposition−Multiple Signal Classification;一般化特異値展開を用いたMUSIC)法を用いて方位角を推定する。
なお、方位角の推定には、WDS−BF(Weighted Delay and Sum Beam Forming;重み付き遅延和ビームフォーミング)法、MUSIC法等の他の音源方向推定方式を用いてもよい。
記憶部104には、仰角を推定する式が記憶されている。なお、仰角を推定する式については、後述する。
仰角推定部105は、取得部101から入力された第fフレームのときの回転角情報を用いて、各軸の回転行列Rx、Ry、及びRzを算出し、算出した各軸の回転行列Rx、Ry、及びRzの積によって第fフレームのときのデバイス座標系から世界座標系に角度を変換する回転行列R(f)を算出する。また、仰角推定部105は、取得部101から入力された第fフレームのときの回転角情報を用いて、第f+1フレームのときの世界座標系からデバイス座標系に角度を変換する回転行列R(f+1)を算出する。
または、仰角推定部105は、取得部101から入力された角速度と、例えばロドリゲスの回転公式とを用いて、第fフレームのときの座標変換の係数である回転行列R(f)と、第f+1フレームのときの回転行列R(f+1)を算出する。
仰角推定部105は、算出した回転行列R(f)と回転行列R(f+1)とを用いて行列R(f+1)R(f)の各要素を算出する。
仰角推定部105は、方位角音源定位部103から入力された第fフレームのときの方位角のθ(f)及び第f+1フレームのときの方位角のθ(f+1)を、記憶部104に記憶されている仰角を推定する式、算出した行列R(f+1)R(f)の各要素を用いて、仰角を推定する。仰角推定部105は、推定した仰角を示す仰角情報を画像処理部106に出力する。
画像処理部106は、方位角音源定位部103から入力された方位角情報と、仰角推定部105から入力された仰角情報とを表示部107に表示させる。
表示部107は、画像処理部106によって方位角情報と仰角情報を表示する。表示部107は、例えば液晶表示パネル、有機EL(electroluminescence)表示パネル等である。
次に、世界座標系及びデバイス座標系について説明する。図3は、本実施形態に係る世界座標系を説明する図である。
世界座標系は、3次元の世界全体を定義する座標系であり、図3のようにx、y、及びzによって表される。また、符号P(f)が示すベクトルは、世界座標系における音源の位置ベクトル(以下、音源位置ベクトルという)である。添え字Wは、世界座標系を表している。また、fは、フレームを表している。図3において音響処理装置10(f)は、第fフレームにおける音響処理装置10を表し、音響処理装置10(f+1)は、第f+1フレームにおける音響処理装置10を表している。
図3に示すように、原点に音響処理装置10の重心があるとき、音響処理装置10をx軸方向、y軸方向、z軸方向のいずれかに傾けても、世界座標系における音源Spの位置、方位角、及び仰角は変化しない。例えば、利用者が音響処理装置10を傾けたり移動させたりすることで、図3に示した第fフレームと第f+1フレームにおける装置の傾き状態が発生させられる。
図4は、本実施形態に係る第fフレームにおけるデバイス座標系を説明する図である。図5は、本実施形態に係る第f+1フレームにおけるデバイス座標系を説明する図である。なお、デバイス座標系とは、音響処理装置10から見た座標系であり、例えば音響処理装置10の重心を原点とし、音響処理装置10の上面をxy平面、音響処理装置10の厚み方向とする座標系である。
図4及び図5のように、デバイス座標系は、x、y、及びzによって表される。添え字Dは、デバイス座標系を表している。なお、図4及び図5における音源Spの世界座標系における位置は同じ位置である。
図4のように、第fフレームにおいて、音源Spの音源位置ベクトルP(f)は、x(f)軸に対して方位角θ(f)、xD(f)D(f)平面に対して仰角ψ(f)である。また、図5のように、第f+1フレームにおいて、音源Spの音源位置ベクトルP(f+1)は、x(f+1)軸に対して方位角θ(f+1)、xD(f+1)D(f+1)平面に対して仰角ψ(f+1)である。
このように、音響処理装置10をx軸方向、y軸方向、z軸方向のいずれかに傾けたり移動させたりした場合、デバイス座標系から見た音源Spの位置、方位角、及び仰角が、図4及び図5のように変化する。
次に、音響処理装置10の処理手順を説明する。図6は、本実施形態における音響処理装置10の処理手順のフローチャートである。なお、以下の例では、取得部101が、回転角情報を取得する例について説明する。
(ステップS1)取得部101は、第fフレームのときセンサ30が検出した回転角情報を取得し、取得した回転角情報を仰角推定部105に出力する。ステップS1終了後、取得部101は、処理をステップS2に進める。
(ステップS2)音響信号取得部102は、第fフレームのとき収音部20が収録したNチャネルの音響信号を取得する。ステップS2終了後、音響信号取得部102は、処理をステップS3に進める。
(ステップS3)方位角音源定位部103は、音響信号取得部102が出力した入力信号に基づいて、第fフレームのときの方位角のθ(f)を推定し、推定した方位角のθ(f)を仰角推定部105に出力する。ステップS3終了後、方位角音源定位部103は、処理をステップS4に進める。
(ステップS4)取得部101は、第f+1フレームのときセンサ30が検出した回転角情報を取得し、取得した回転角情報を仰角推定部105に出力する。ステップS4終了後、取得部101は、処理をステップS5に進める。
(ステップS5)音響信号取得部102は、第f+1フレームのとき収音部20が収録したNチャネルの音響信号を取得する。ステップS5終了後、音響信号取得部102は、処理をステップS6に進める。
(ステップS6)方位角音源定位部103は、音響信号取得部102が出力した入力信号に基づいて、第f+1フレームのときの方位角のθ(f+1)を推定し、推定した方位角のθ(f+1)を仰角推定部105に出力する。ステップS6終了後、方位角音源定位部103は、処理をステップS7に進める。
(ステップS7)仰角推定部105は、第fフレームの回転角情報を用いて、第fフレームのときの回転行列R(f)を算出する。次に、仰角推定部105は、第f+1フレームの回転角情報を用いて、第f+1フレームのときの回転行列R(f+1)を算出する。次に、仰角推定部105は、算出した回転行列R(f+1)と回転行列R(f)の積である行列R(f+1)R(f)を算出する。ステップS7終了後、仰角推定部105は、処理をステップS8に進める。
(ステップS8)仰角推定部105は、第fフレームの方位角のθ(f)及び第f+1フレームの方位角のθ(f+1)、算出した行列R(f+1)R(f)、及び記憶部104に記憶されている仰角の推定式を用いて、第fフレームのときの仰角ψ(f)を推定する。
次に、画像処理部106は、方位角音源定位部103から入力された方位角情報と、仰角推定部105から入力された仰角情報とを表示部107に表示させる。
以上で、仰角の推定処理を終了する。
次に、仰角ψ(f)の推定について説明する。
図4のように、第fフレームのときのデバイス座標系における音源位置ベクトルP(f)は、次式(1)のように表される。
Figure 2015050610
式(1)において、方位角のθ(f)は、方位角音源定位部103によって推定される値である。また、仰角のψ(f)は、仰角推定部105によって推定される値である。
世界座標系からデバイス座標系への回転行列をR(f)とすると、図3における世界座標系における音源位置ベクトルP(f)は、次式(2)のように表される。
Figure 2015050610
取得部101が回転角情報(x軸回りの回転角θ、y軸回りのθ、z軸回りのθ)によって、x軸、y軸、及びz軸の回転行列は、例えば、おのおの次式(3)〜(5)のように表される。また、回転行列R(f)は、次式(3)〜(5)の積によって求められる。
Figure 2015050610
Figure 2015050610
Figure 2015050610
音源Spの位置が、第fフレームと第f+1フレームとでほぼ同じであるとき、第f+1フレームのデバイス座標系における音源位置ベクトルP(f+1)は、式(2)より次式(6)のように表される。
Figure 2015050610
また、式(6)において、R(f+1)R(f)の各要素を次式(7)のようにr11〜33で表す。
Figure 2015050610
なお、式(7)は、取得部101から入力された第fフレームの回転角情報を用いて算出した回転行列R(f)、第f+1フレームの回転角情報を用いて算出した回転行列R(f+1)を用いて仰角推定部105が算出する。
第f+1フレームのデバイス座標系におけるxD(f+1)軸の音源位置ベクトルPDx(f+1)は、式(1)及び式(7)を用いて次式(8)のように表される。
Figure 2015050610
同様に第f+1フレームのデバイス座標系におけるyD(f+1)軸の音源位置ベクトルPDy(f+1)は、式(1)及び式(7)を用いて次式(9)のように表される。
Figure 2015050610
式(8)及び式(9)より、θ(f+1)の正接は、次式(10)により求まる。
Figure 2015050610
次に、式(10)をsin(ψ(f))の式に変形し、変形した式をcos(ψ(f))で除算すると、ψ(f)の正接は、次式(11)により求まる。
Figure 2015050610
仰角推定部105は、方位角音源定位部103から入力された第fフレームの方位角のθ(f)、第f+1フレームの方位角のθ(f+1)を式(11)に代入して、仰角のψ(f)を算出することで推定する。
以上のように、本実施形態の音響処理装置10は、音響信号を収録する収音部20と、自装置の傾きに関する傾き情報(回転角、角速度)を取得する傾き情報取得部(取得部101)と、収音部が収録した少なくとも2つの時刻(フレーム)における音響信号に基づいて、収音部が配置されている面内の音源の方位角を推定する方位角推定部(方位角音源定位部103)と、傾き情報取得部が取得した傾き情報と、方位角推定部が推定した少なくとも2つの時刻における方位角とに基づいて、収音部が配置されている面を基準とした音源の仰角を推定する仰角推定部105と、を備える。
この構成によって、本実施形態の音響処理装置10は、例えば、利用者が音響処理装置10を傾けたり移動させたりすることで、2つのフレームにおけるマイクロホン201が収録した音響信号と、センサ30が検出した回転角情報、または角速度とに基づいて、音源Spの方位角と仰角とを推定することができる。この結果、本実施形態の音響処理装置10によれば、携帯端末のようにマイクロホン201を3次元配列することが困難である端末に適用した場合であっても、2次元に配置されたマイクロホン201によって、音源Spの方位角と仰角を推定することができる。
なお、本実施形態では、図1に示したように音響処理装置10の上面にマイクロホン201が2次元配列されている例を説明したが、これに限られない。
図7は、本実施形態に係るマイクロホン201の他の配置例を説明する図である。図7に示すように、音響処理装置10の上面に8個のマイクロホン201−1が2次元配列され、さらに音響処理装置10の底面に8個のマイクロホン201−2が2次元配列されている。
音響処理装置10は、第fフレームのときマイクロホン201−1が収録した音響信号を取得し、第f+1フレームのときマイクロホン201−2が収録した音響信号を取得するようにしてもよい。このような構成であっても、音響処理装置10は、2つのフレームにおけるマイクロホン201が収録した音響信号と、センサ30が検出した角速度とに基づいて、音源Spの方位角と仰角とを推定することができる。
また、図7において、マイクロホン201が8個であり、音響処理装置10は、第fフレームのとき8個のマイクロホン201をマイクロホン201−1の位置に移動させ、第f+1フレームのとき8個のマイクロホン201をマイクロホン201−2の位置に移動させるようにしてもよい。このような構成であっても、音響処理装置10は、2つのフレームにおけるマイクロホン201が収録した音響信号と、センサ30が検出した角速度とに基づいて、音源Spの方向である方位角と仰角とを推定することができる。また、音源Spに対する音響処理装置10の方向も知ることができる。
[第2実施形態]
第1実施形態では、2つのフレームのときに取得された音響信号と装置の姿勢情報である回転角情報とに基づいて、音源の方位角と仰角を推定する例を説明した。
本実施形態では、二次近似による境界最適(Bound Optimization By Quadratic Approximation;BOBYQA)法(例えば、非特許文献1参照)を用いて、複数のフレームにおける推定された音源位置を平滑化することで最適化して、音源位置を推定する。
非特許文献1;M.J.D. Powell, “The BOBYQA algorithm for bound constrained optimization without derivatives” , Report DAMTP 2009/NA06, 2009
図8は、本実施形態に係る音響処理装置10Aの構成を示すブロック図である。図8に示すように、音響処理装置10Aは、取得部(傾き情報取得部)101、音響信号取得部102、方位角音源定位部(方位角推定部)103A、記憶部104、仰角推定部105、画像処理部106B、表示部107、及び最適化部111を備えている。また、音響処理装置10Aには、収音部20及びセンサ30が接続されている。なお、音響処理装置10(図2参照)と同じ機能を有する機能部には同じ符号を用いて、説明を省略する。
取得部101は、センサ30が検出した回転角情報、または角速度を取得し、取得した回転角情報、または角速度を仰角推定部105と最適化部111に出力する。
方位角音源定位部103Aは、音響信号取得部102から入力された入力信号に基づいて、第fフレーム〜第f+K(Kは、2以上の整数)フレームのときの音源Spの方位角θ(f+0)〜θ(f+K)を順次推定し、推定した方位角θ(f+0)〜θ(f+K)を示す情報を仰角推定部105及び最適化部111に出力する。
仰角推定部105は、第fフレームの回転角情報、または角速度を用いて、第fフレームのときの回転行列R(f)を算出する。次に、仰角推定部105は、第f+1フレームの回転角情報、または角速度を用いて、第f+1フレームのときの回転行列R(f+1)を算出する。次に、仰角推定部105は、算出した回転行列R(f+1)と回転行列R(f)の積である行列R(f+1)R(f)を算出する。仰角推定部105は、方位角音源定位部103から入力された第fフレームのときの方位角のθ(f)及び第f+1フレームのときの方位角のθ(f+1)を、記憶部104に記憶されている仰角を推定する式(11)、算出した行列R(f+1)R(f)の各要素を用いて、第fフレームのときの仰角ψ(f)を推定する。
仰角推定部105は、n=1からn=Kまで、第f+Kフレームの回転角情報、または角速度を用いて、第f+Kフレームのときの回転行列R(f+K)を算出する。また、仰角推定部105は、第f+K+1フレームの回転角情報、または角速度を用いて、第f+K+1フレームのときの回転行列R(f+K+1)を算出する。仰角推定部105は、算出した回転行列R(f+K+1)と回転行列R(f+K)の積である行列R(f+K+1)R(f+K)を算出する。仰角推定部105は、方位角音源定位部103から入力された第f+K−1フレームのときの方位角のθ(f+K−1)及び第f+Kフレームのときの方位角のθ(f+K)を、記憶部104に記憶されている仰角を推定する式(11)、算出した行列R(f+K+1)R(f+K)の各要素を用いて、第f+Kフレームのときの仰角ψ(f+K)を推定する。
仰角推定部105は、推定した第fフレーム〜第f+Kフレームのときの仰角ψ(f+0)〜ψ(f+K)を示す情報を最適化部111に出力する。
最適化部111には、方位角音源定位部103から第fフレーム〜第f+Kフレームのときの方位角のθ(f+0)〜θ(f+K)、仰角推定部105から第fフレーム〜第f+Kフレームのときの仰角ψ(f+0)〜ψ(f+K)が入力される。ここで、方位角音源定位部103によって推定された第fフレームのときの方位角のθ(f)と、仰角推定部105によって推定された第fフレームのときの仰角ψ(f)との組み合わせを、第fフレームのときの音源位置P(f)とする。また、方位角音源定位部103によって推定された第f+Kフレームのときの方位角のθ(f+K)と、仰角推定部105によって推定された第f+Kフレームのときの仰角ψ(f+K)との組み合わせを、第f+Kフレームのときの音源位置P(f+K)とする。
最適化部111は、第fフレームから第f+Kフレームまでの音源位置P(f+0)〜P(f+K)に対して、例えば、BOBYQA法を用いて二乗誤差が最小となる音源位置P^(f+K)を算出する。最適化部111は、算出した音源位置P^(f+K)を画像処理部106に出力する。なお、本実施形態では、BOBYQA法を用いる例を説明したが他の手法を用いてもよい。
画像処理部106は、最適化部111から入力された音源位置P^(f+K)を示す画像を表示部107に表示させる。
次に、最適化部111が行うBOBYQA法を用いた二乗誤差が最小となる音源位置P^(f+K)の算出方法について説明する。
図9は、本実施形態に係る最適化処理を説明する図である。なお、図9では、Kが6の例を示している。図9において、符号301〜306が示す画像は、第f+0フレーム〜第f+6フレームにおける音源位置P(f+0)〜P(f+K)である。また、符号311が示す画像は、音源位置P(f+0)〜P(f+K)の二乗誤差が最小となる音源位置P^(f+K)である。また、横軸は方位角、縦軸は仰角である。
図9に示すように、方位角の拘束条件は、−180度〜+180度である。また仰角の拘束条件は、−90度〜+90度である。
最適化部111は、第f+0フレーム〜第f+6フレームにおける音源位置P(f+0)〜P(f+6)に対して、上述した拘束条件における二乗誤差が最小となる音源位置P^(f+6)を、BOBYQA法によって最適化して算出する。このように算出された音源位置P^(f+K)は、2つのフレーム間において推定したP(f+K)より外乱ノイズ等の影響を受けにくい(ロバストである)。
図10は、本実施形態における音響処理装置10Aの処理手順のフローチャートである。なお、以下の例では、取得部101が、回転角情報を取得する例について説明する。
(ステップS101)取得部101は、第fフレーム〜第f+K+1フレームのときセンサ30が検出した回転角情報を取得し、取得した第fフレーム〜第f+K+1フレームのときの回転角情報を仰角推定部105に出力する。ステップS101終了後、取得部101は、処理をステップS102に進める。
(ステップS102)音響信号取得部102は、第fフレーム〜第f+K+1フレームのとき収音部20が収録したNチャネルの音響信号を取得する。ステップS102終了後、音響信号取得部102は、処理をステップS103に進める。
(ステップS103)方位角音源定位部103Aは、音響信号取得部102が出力した入力信号に基づいて、第fフレーム〜第f+Kフレームのときの方位角のθ(f)〜θ(f+K)を推定し、推定した第fフレーム〜第f+Kフレームのときの方位角のθ(f)〜θ(f+K)を仰角推定部105及び最適化部111に出力する。ステップS103終了後、方位角音源定位部103Aは、処理をステップS104に進める。
(ステップS104)仰角推定部105は、第fフレーム〜第f+Kフレームの回転角情報を用いて、第fフレーム〜第f+Kフレームのときの回転行列R(f)〜R(f+K)を算出する。次に、仰角推定部105は、第f+1フレーム〜第f+K+1フレームの回転角情報を用いて、第f+1フレーム〜第f+K+1フレームのときの回転行列R(f+K+1)を算出する。次に、仰角推定部105は、算出した回転行列R(f+1)〜R(f+K+1)と回転行列R(f)〜R(f+K)の積である行列R(f+1)R(f)〜R(f+K+1)R(f+K)を算出する。ステップS104終了後、仰角推定部105は、処理をステップS105に進める。
(ステップS105)仰角推定部105は、方位角音源定位部103から入力された第fフレーム〜第f+Kフレームのときの方位角のθ(f)〜θ(f+K)を、記憶部104に記憶されている仰角を推定する式(11)、算出した行列R(f+1)R(f)〜R(f+K+1)R(f+K)の各要素を用いて、第fフレーム〜第f+Kフレームのときの仰角ψ(f)〜ψ(f+K)を推定する。次に、仰角推定部105は、推定した第fフレーム〜第f+Kフレームのときの仰角ψ(f)〜ψ(f+K)を示す情報を最適化部111に出力する。ステップS105終了後、仰角推定部105は、処理をステップS106に進める。
(ステップS106)最適化部111は、第fフレーム〜第f+Kフレームにおける音源位置P(f)〜P(f+K)に対して、上述した拘束条件における二乗誤差が最小となる音源位置P^(f+K)を、BOBYQA法によって最適化して算出する。
次に、画像処理部106は、最適化部111から入力された音源位置P^(f+K)を示す画像を表示部107に表示させる。
以上で、仰角の推定処理を終了する。
以上のように、本実施形態の音響処理装置10Aであって、仰角推定部105は、複数の時刻(フレーム)に渡って推定した仰角を平滑化して、平滑化した値を音源の仰角として決定する。
この構成により、本実施形態の音響処理装置10Aは、2つのフレームにおいて取得された音響信号と姿勢情報を用いる方法に比べて、外乱に頑健に方位角と仰角を推定することができる。
[第3実施形態]
第1実施形態及び第2実施形態では、推定された方位角と仰角とを表示部107に表示する例を説明したが、本実施形態では、推定された方位角と仰角とに基づいて、音源Spの方向を表示部107上に表示する例を説明する。
図11は、本実施形態に係る音響処理装置10Bの構成を示すブロック図である。図11に示すように、音響処理装置10Bは、取得部(傾き情報取得部)101、音響信号取得部102、方位角音源定位部(方位角推定部)103、記憶部104、仰角推定部105、画像処理部106B、表示部107、及び画像取得部121を備えている。また、音響処理装置10Bには、収音部20、センサ30、及び撮像部40が接続されている。なお、音響処理装置10(図2参照)と同じ機能を有する機能部には同じ符号を用いて、説明を省略する。
撮像部40は、被写体を表す画像を撮影し、撮影した画像を表す画像信号を生成する。撮像部40は、例えば、CCD(Charge Coupled Device)カメラ、又はCMOS(Complementary Metal Oxide Semiconductor)カメラである。撮像部40は、例えば、音響処理装置10Bの正面に配置されている。撮像部40は、生成した画像信号を音響処理装置10Bに出力する。
画像取得部121は、撮像部40が出力した画像信号を取得し、取得した画像信号をデジタル信号に変換する。画像取得部121は、デジタル信号に変換した画像信号を画像処理部106Bに出力する。なお、画像取得部121が画像信号を取得するタイミングは、音響信号取得部102が音響信号を取得するタイミングと同期が行われていることが好ましい。
画像処理部106Bは、方位角音源定位部103から入力された方位角情報と、仰角推定部105から入力された仰角情報とに基づいて、音源Spの方向を示す情報を生成する。そして、画像処理部106Bは、画像取得部121から画像信号が入力されているか否かを判別する。画像処理部106Bは、画像信号が入力されている場合、画像信号に生成した音源Spの方向を示す情報に基づく画像を合成し、合成した画像信号を表示部107に表示させる。画像処理部106Bは、画像信号が入力されていない場合、生成した音源Spの方向を示す情報に基づく画像を表示部107に表示させる。
次に、表示部107に表示される画像の例を説明する。
図12は、本実施形態に係る表示部107に表示される画像の例を説明する図である。図12に示す例では、利用者が音響処理装置10Bを手にもって、音源Spの方向を探索している例である。利用者は、音響処理装置10Bの正面を利用者から見て前方に向けて、音響処理装置10Bを左右、上下に移動させる。表示部107には、利用者によってフレーム毎に音響処理装置10Bの位置が異なる音響信号と回転角情報(または角速度)に基づいて第1実施形態で説明した方法または第2実施形態で説明した方法によって推定された音源位置を示す画像が表示される。利用者は、音響処理装置10Bの表示部107に表示される画像401によって、音源Spの方向を知ることができる。
図13は、本実施形態に係る撮像部40が撮影した画像に音源Spの方向を示す情報に基づく画像を合成して表示部107に表示する画像を説明する図である。
図13において、符号402が示す画像は、形状が球状の画像である。符号403が示す画像は、形状が例えばリング状であり、符号402が示す球状の画像の中心を通る断面の輪郭周辺に表示される画像である。符号403が示す画像は、世界座標系において水平な面を表している。また、符号402と403が示す画像は、音源Spの方向を直感的に認識しやすくするための補助画像である。符号404が示す画像は、形状が矢印状であり、音源Spの方向を示す情報に基づく画像である。符号405が示す画像は、球画面402の重心を示す画像である。なお、以下の説明では、符号402が示す画像を球画像402、符号403が示す画像をリング状画像403、符号404が示す画像を矢印404という。
図13のように、表示部107には、撮像部40によって撮影された画像に、球画像402とリング状画像403と矢印404とが合成されて表示される。このため、矢印404は、音響処理装置10Bの移動に伴って、矢印404の矢尻(アローヘッド)の向きと矢印404の長さとが、音源Spがある方向を示すように変化する。これにより、矢印404が、3次元空間のどの方向を指しているのかを利用者が直感的に認識しやすくなる。
すなわち、球画像402とリング状画像403との画像は、球を地球に見立てた場合に赤道にあたる輪郭周辺のリング状画像403が常に水平面に表示されるように、球画像402が安定する仮想的なジャイロスコープ(gyroscope)の画像である。
なお、図13に示した例では、音源Spが1つの例を示しているが、音源が複数の場合、複数の矢印404が画像401に含まれていてもよい。
次に、音源が複数の場合の表示例について説明する。
図14は、本実施形態に係る複数の音源が検出された場合の表示例を説明する図である。図14に示す例では、3つの音源Sp−1〜Sp−3が検出されたときの表示例である。なお、図14に示す例では、音響処理装置10Bの長手方向の一方側を正面として使用した場合の例である。また、図14では、撮像部40によって撮像された画像と合成せず、推定された音源の位置を示す画像を表示する例の画像である。なお、図13と同じ画像は、同じ符号を用いて説明を省略する。
図14において、符号406が示す画像は、音響処理装置10Bに取り付けられているマイクロホン201に対応する画像である。なお、符号406が示す画像は、表示部107に表示されなくてもよい。
符号461−1〜461−3が示す画像は、音源Sp−1〜Sp−3に対応する画像である。なお、例えば方位角音源定位部103によって分離された音源別の音響信号を、音響処理装置10Bが備える音声認識部(不図示)が音響の種別を判別する場合、符号461−1〜461−3が示す画像は、音源の種別に応じた画像であってもよい。ここで、音源の種別とは、例えば、人間による発話、動物の鳴き声、機械が発する音等である。また、音源の種別に応じた画像とは、例えば、人間のイラスト、動物のイラスト、電話機のイラスト等である。
符号404−1〜404−3が示す画像は、推定された音源Sp−1〜Sp−3の方向(方位角、仰角)を示す画像である。
符号451−1〜451−3が示す画像は、音源に割り振られた番号である。図14のように、符号451−1〜451−3が示す画像は、矢印404−1〜404−3と共に、音源の方位角及び仰角を表している。この番号は、画像処理部106Cが割り振るようにしてもよい。
符号451−1が示す画像は、色が薄い灰色であり、形状が重心の画像405から音源Sp−1方向が短径である楕円形である。符号451−1が示す画像は、音源Sp−1の方位角が音響処理装置10Bの略正面方向であり、仰角が水平面に対して、例えば−10度程度、下側であることを表している。
符号451−2が示す画像は、色が白色であり、形状が円形である。符号451−2が示す画像は、音源Sp−2の方位角が音響処理装置10Bの略左方向であり、仰角が水平面に対して、例えば+45度程度、上側であることを表している。
符号451−4が示す画像の色は、符号451−4が示す画像より濃い灰色であり、形状が重心の画像405から音源Sp−1方向が短径である楕円形である。符号451−3が示す画像は、音源Sp−3の方位角が音響処理装置10Bの略右方向であり、仰角が水平面に対して、例えば−30度程度、下側であることを表している。
このように、符号451−1〜451−3が示す画像は、形状と色によって、マイクロホン201が配置されている面を基準とした音源の仰角も視覚的に表している。
すなわち、符号451−1〜451−3が示す画像と重心の画像405が近くに表示される場合は、仰角が大きいことを表している。符号451−1〜451−3が示す画像と重心の画像405が遠くに表示される場合は、仰角が小さいことを表している。
また、符号451−1〜451−3が示す画像が白色の場合は、水平面に対して音源の仰角が上側であることを表している。符号451−1〜451−3が示す画像が灰色の場合は、水平面に対して音源の仰角が下側であることを表している。
なお、符号451−1〜451−3が示す画像は、分離された音源別信号の大きさに基づく大きさの画像であってもよい。
以上のように、本実施形態の音響処理装置10Bは、画像を表示する表示部107と、仰角推定部105が推定した仰角を示す画像を生成して、生成した画像を表示部に表示する画像処理部106Bと、を備える。
また、本実施形態の音響処理装置10Bであって、画像処理部106Bは、方位角推定部(方位角音源定位部103)が推定した方位角を示す画像を生成して、生成した画像を表示部107に表示する。
また、本実施形態の音響処理装置10Bは、画像を撮影する撮像部40を備え、画像処理部106Bは、少なくとも仰角を示す画像を撮像部が撮像した画像に合成して表示部107に表示させる。
この構成によれば、本実施形態の音響処理装置10Bは、方位角音源定位部103が推定した方位角と、仰角推定部105が推定した仰角とを、直感的に認知しやすい画像として表示部107に表示することができる。
また、本実施形態の音響処理装置10Bは、撮像部40が撮像した画像に音源の方向を合成して表示させるため、利用者は、直感的に音源の方向を認知しやすくなる。
なお、第1実施形態〜第3実施形態において、音響処理装置10(10A、10B)は、デバイス座標系における音源Spの方向(方位角と仰角)を推定し、推定した方向を示す情報を表示部107に表示する例を説明したが、これに限られない。音響処理装置10(10A、10B)は、推定した方向を装置からの相対的な方向に変換し、変換した装置からの相対的な方向を示す情報を表示部107に表示するようにしてもよい。
[第4実施形態]
第1〜第5実施形態では、音源の方向を推定し、推定した音源の方向を表示部107上に表示する例を説明した。本実施形態では、音響処理装置を音源の方向に向けるように促す例を説明する。
図15は、本実施形態に係る音響処理装置10Cの構成を示すブロック図である。図15に示すように、音響処理装置10Cは、取得部(傾き情報取得部)101、音響信号取得部102、方位角音源定位部(方位角推定部)103C、記憶部104、仰角推定部105、画像処理部106C、表示部107、画像取得部121、操作情報取得部131、及び音響再生部132を備えている。また、音響処理装置10Cには、収音部20、センサ30、撮像部40、及び操作部50が接続されている。なお、音響処理装置10B(図11参照)と同じ機能を有する機能部には同じ符号を用いて、説明を省略する。
操作部50は、利用者が操作した操作結果を検出し、検出した操作結果を示す操作情報を音響処理装置10Cに出力する。操作部50は、例えば表示部107の上に取り付けられているタッチパネルである。なお、操作情報には、利用者によって選択された音源を示す情報、選択された音源を再生する情報等が含まれている。
操作情報取得部131は、操作部50から入力された操作情報を取得し、取得した操作情報を方位角音源定位部103C及び画像処理部106Cに出力する。
方位角音源定位部103Cは、収音部20から入力されたNチャネルの音響信号に基づいて各音源の方位角を推定する。また、方位角音源定位部103Cは、Nチャネルの音響信号から各音源が寄与する成分を示す音響信号に分離する。方位角音源定位部103Cは、音源別信号を分離する際、例えば、特開2012−42953号公報に記載の音源分離方法等、既知の音源分離方法を用いる。以下では、音源毎に分離された音響信号、つまり各音源が寄与する成分を示す音響信号を、音源別信号と呼ぶ。
方位角音源定位部103Cは、各音源の方位角を示す方位角情報を生成し、生成した方位角情報を仰角推定部105及び画像処理部106Cに出力する。
方位角音源定位部103Cは、操作情報取得部131から入力された操作情報に応じて分離した音源別信号を音響再生部132に出力する。
音響再生部132は、方位角音源定位部103Cから入力された音源別信号を再生する。音響再生部132は、例えばスピーカである。
画像処理部106Cは、方位角音源定位部103Cから入力された方位角情報と、仰角推定部105から入力された仰角情報とに基づいて、音源Spの方向を示す情報を生成する。そして、画像処理部106Bは、画像取得部121から画像信号が入力されているか否かを判別する。画像処理部106Bは、画像信号が入力されている場合、画像信号に生成した音源Spの方向を示す情報に基づく画像を合成し、合成した画像信号を表示部107に表示させる。画像処理部106Bは、画像信号が入力されていない場合、生成した音源Spの方向を示す情報に基づく画像を表示部107に表示させる。
また、画像処理部106Cは、操作情報取得部131から入力された操作情報に応じて、選択された音源を示す画像を明るく表示し、選択されなかった音源を示す画像を暗く表示する。なお、画像処理部106Cは、操作情報取得部131から入力された操作情報に応じて、選択された音源を示す画像を暗く表示し、選択されなかった音源を示す画像を明るく表示するようにしてもよい。
次に、選択された音源の音響信号を再生する例について説明する。
図16は、本実施形態に係る音源が選択されたときの表示部107に表示される画像の一例を説明する図である。図16に示す例では、音源Sp−1が利用者によって選択されたときの例である。このため、音源Sp−1に対応する符号451−1が明るく(例えば、白色)で表示され、選択されていない音源Sp−2とSp−3に対応する符号451−2と451−2が暗く(例えば、半透明)表示される。また、図16のように、選択されていない音源Sp−2とSp−3の方向を示す矢印の画像が表示部107上に表示されないようにしてもよい。一方、選択された音源Sp−1に対応する矢印404−1は、音源の種別に応じた画像461−3まで延長されて表示されるようにしてもよい。
方位角音源定位部103Cは、図16のように選択された音源Sp−1に対応する音源別信号を音響再生部132に出力する。なお、方位角音源定位部103Cは、分離した音源別信号を記憶部104に記憶させ、利用者によって再生する音源が選択されたとき、記憶部104に記憶させた音源別信号を読み出して音響再生部132に出力するようにしてもよい。
以上のように、本実施形態の音響処理装置10Cは、音響信号を再生する音響再生部132と、音源毎の音響信号のうち、利用者によって選択された音源を示す選択情報を取得する操作情報取得部131と、を備え、方位角推定部(方位角音源定位部103C)は、収音部20が収録した音響信号を音源毎の音響信号に分離し、分離した音源毎の音響信号に基づいて、音源の方位角を推定し、分離した音響信号のうち、操作情報取得部が取得した選択情報に対応する音響信号を音響再生部から再生する。
この構成により、本実施形態の音響処理装置10Cは、利用者によって選択された音源の方向(方位角、仰角)を表示部107上に表示しつつ、選択された音源の音響信号を再生することができる。
[第5実施形態]
第3実施形態及び第4実施形態では、球画像402、リング状画像403、及び矢印404を用いて、音源の方位角と仰角を表示部107上に表示する例を説明した。本実施形態では、音響処理装置に対して音源が、どの方向にあるかを視覚的に表示する例を説明する。
図17は、本実施形態に係る音響処理装置10Dの構成を示すブロック図である。図17に示すように、音響処理装置10Dは、取得部(傾き情報取得部)101、音響信号取得部102、方位角音源定位部(方位角推定部)103、記憶部104、仰角推定部105、画像処理部106D、及び表示部107を備えている。なお、音響処理装置10(図2参照)と同じ機能を有する機能部には同じ符号を用いて、説明を省略する。
画像処理部106Dは、方位角音源定位部103が推定した方位角の大きさに応じて、リング状画像403(図14等参照)の描写を変化させて、音源Spの方向を表す画像を生成し、生成した画像を表示部107に表示させる。
画像処理部106Dは、方位角音源定位部103が推定した方位角の大きさを、予め定められている角度と比較し、比較した結果に応じて、表示部107上に表示させるリング状画像403を音源の方向を示す方向に回転させる画像を生成する。または、画像処理部106Dは、仰角推定部105が推定した仰角の大きさを、予め定められている角度と比較し、比較した結果に応じて、表示部107上に表示させるリング状画像403を音源の方向を示す方向に回転させる画像を生成する。
図18及び図19は、本実施形態に係るリング状画像403の描写例を説明する図である。
図18に示すように、音響処理装置10Dに対して音源Spが右側にある場合、リング状画像403は、表示部107の短手方向の各々の中心を結ぶ線分411を中心にして、矢印421が示すように回転しているように表示部107上に表示される。そして、音響処理装置10Bが音源Spの正面に配置されたとき、リング状画像403の回転が止まっているように表示部107上に表示される。リング状画像403は、例えば、音源の方位角が45度以上異なっているとき、最も速く回転しているように表示され、音源の方位角が小さくなるに従って回転速度が遅くなるように表示されるようにしてもよい。
この表示により、利用者は、音響処理装置10Dに対して音源Spがある方向を視覚的に知ることができる。そして、利用者は、この表示に応じて音響処理装置10Dを移動させることで、音源の方向を知ることができる。
音響処理装置10Dの正面方向に音源Spがある方位角または仰角に達したとき、画像処理部106Dは、音源Spの方位角または仰角に音響処理装置10Dが達したことを利用者に知らせるために、図19に示すようにリング状画像403を、矢印422のように反時計回りに回転するように表示部107上に表示させるようにしてもよい。
この表示により、利用者は、音響処理装置10Dの正面方向に音源Spがあることを視覚的に知ることができる。
以上のように、本実施形態の音響処理装置10Dであって、画像処理部106Dは、方位角推定部(方位角音源定位部103D)が推定した方位角または仰角推定部105が推定した仰角に基づいた速さで変化する画像を生成する。
この構成により、本実施形態の音響処理装置10Dは、表示部107上に表示される画像を見ながら利用者が音響処理装置10Dを移動させることで、音源の方向(方位角、仰角)を探索することができる。
また、本実施形態では、図18及び図19のように、上述のように利用者に対してリング状画像403を用いて音源Spの方向を示す例を説明したが、これに限られない。音源Spの方向を示す画像の形状は、リング状画像でなくてもよく、例えば多角形であってもよい。また、文字や音声で音源の方向を報知するようにしてもよい。
なお、本実施形態では、図18及び図19のように、リング状画像403を用いて、音源Spの方向を示す例を説明したが、これに限られない。
例えば、図13及び図14に示した画像401において、リング状画像403を、例えば、方位角に応じて、回転させて表示さるようにしてもよい。例えば、音源Spが、音響処理装置10Bに対して左側にある場合、音響処理装置10Bは、音響処理装置10Bを右側に移動させるように、反時計回りにリング状画像403を回転させるように表示させてもよい。または、音源Spが、音響処理装置10Bに対して右側にある場合、音響処理装置10Bは、音響処理装置10Bを左側に移動させるように、時計回りにリング状画像403を回転させるように表示させてもよい。
また、リング状画像403を回転させる速さは、音響処理装置10Bに対する方位角の大きさに応じて変化させるようにしてもよい。例えば、方位角が45度以上異なっているとき、音響処理装置10Bは、リング状画像403を最も速く回転させて表示させるようにしてもよい。そして、方位角が45度から0度に近くに従って、音響処理装置10Bは、リング状画像403の回転が遅くなるように表示させるようにしてもよい。
[実験結果]
ここで、第2実施形態の音響処理装置10Aを用いて、表示部107に表示される画像のパフォーマンスを評価した実験結果を説明する。センサ30には、地磁気センサと加速度センサを用いた。また、実験は、音響処理装置10Aをタブレット端末に適用して行った。8個のマイクロホン201は、タブレット端末の裏面に図1のような配置に取り付けた。実験には、音声データを用いた。
図20は、実験結果における距離とエラーの関係を説明する図である。
半径が50[cm]の半円の異なる位置に配置した音源を用いて実験した結果、一次元の音源定位の正確さは、図20の点501のようにエラーの平均値が5.8度であった。また、半径が70、100、130、150、及び200[cm]の半円の異なる位置に配置した音源を用いて実験した結果、一次元の音源定位の正確さは、図20の点502〜506のようにエラーの平均値が各々、約3.2、4.3、5.2、4.6、及び4.3%であった。
図20において、距離が50[cm]のときエラーが他の距離より大きい理由は、音源Spが音響処理装置10Aから近いため、音源を点音源として見なしにくいためと考えられる。
なお、第1〜第5実施形態では、マイクロホン201が8個の例を説明したが、これに限られない。上述したように、本発明では、異なるフレームにおける音響信号と装置の傾きを取得して方位角と仰角を推定している。このため、本発明では、マイクロホン201は1本以上であればよい。
例えば、マイクロホン201が1個の場合、方位角音源定位部103(103A、103C)は、第fフレーム及び第f+1フレームの音響信号に基づいて第fフレームまたは第f+1フレームのときの方位角を推定し、第f+2フレーム及び第f+3フレームの音響信号に基づいて第f+2または第f+3フレームのときの方位角を推定する。また、仰角指定部106(106B、106C、106D)は、推定された第fまたは第f+1フレームのときの方位角、第f+2または第f+3フレームのときの方位角、第fまたは第f+1フレームのときの姿勢情報、及び第f+2または第f+3フレームのときの姿勢情報に基づいて、式(11)を用いて、仰角を推定するようにしてもよい。この場合、音源Spが発している音響信号は、音が変化せず連続している音響信号であることが望ましい。
また、第1〜第5実施形態では、音源Spの世界座標系における位置が変化しない例を説明したが、これに限られない。音源Spの世界座標系における位置は変化していてもよい。この場合であっても、隣接するフレーム間においては、音源Spの世界座標系における位置は、ほぼ同じ位置にあると見なせるため、音響処理装置10(10A、10B、10C、及び10D)は、式(11)を用いて仰角を推定することができる。
また、第1〜第2実施形態では、推定した方位角及び仰角の値を表示部107上に表示する例を説明し、第3〜第5実施形態では、矢印404、球画像402、リング状画像403、音源に割り振った番号の画像451を用いて視覚的に音源の方向を表示部107上に表示する例を説明したが、これに限られない。説明に用いた画像の形状等は一例であり、他の形状であってもよい。また、第3〜第5実施形態において、推定した方位角及び仰角の値も表示部107上に表示するようにしてもよい。
音響処理装置10(10A、10B、10C、及び10D)を組み込む機器は、例えば、ロボット、車両、携帯端末、ICレコーダ等であってもよい。また、この場合、ロボット、車両、携帯端末、ICレコーダは、収音部20、センサ30、撮像部40、及び操作部50を備えていてもよい。
なお、本発明における音響処理装置10(10A、10B、10C、及び10D)の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより音源方向の推定を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1、1A、1B、1C、1D…音響処理システム、10、10A、10B、10C、10D…音響処理装置、20…収音部、30…センサ、40…撮像部、50…操作部、101…取得部(傾き情報取得部)、102…音響信号取得部、103、103A、103C…方位角音源定位部(方位角推定部)、104…記憶部、105…仰角推定部、106、106B、106C、106D…画像処理部、107…表示部、111…最適化部、121…画像取得部、131…操作情報取得部、201…マイクロホン、Sp…音源

Claims (10)

  1. 音響信号を収録する収音部と、
    自装置の傾きに関する傾き情報を取得する傾き情報取得部と、
    前記収音部が収録した少なくとも2つの時刻における前記音響信号に基づいて、前記収音部が配置されている面内の音源の方位角を推定する方位角推定部と、
    前記傾き情報取得部が取得した前記傾き情報と、前記方位角推定部が推定した少なくとも2つの時刻における前記方位角とに基づいて、前記収音部が配置されている面を基準とした前記音源の仰角を推定する仰角推定部と、
    を備えることを特徴とする音響処理装置。
  2. 前記仰角推定部は、
    前記傾き情報取得部によって取得された前記傾き情報に基づいて世界座標系から自装置における座標系への回転行列を算出し、算出した前記回転行列と、前記方位角推定部が推定した少なくとも2つの時刻における前記方位角とに基づいて、前記音源の仰角を推定する
    ことを特徴とする請求項1に記載の音響処理装置。
  3. 前記仰角推定部は、
    複数の時刻に渡って推定した仰角を平滑化して、平滑化した値を音源の仰角として決定する
    ことを特徴とする請求項1または請求項2に記載の音響処理装置。
  4. 画像を表示する表示部と、
    前記仰角推定部が推定した前記仰角を示す画像を生成して、生成した前記画像を前記表示部に表示する画像処理部と、
    を備えることを特徴とする請求項1から請求項3のいずれか1項に記載の音響処理装置。
  5. 前記画像処理部は、
    前記方位角推定部が推定した方位角を示す画像を生成して、生成した前記画像を前記表示部に表示する
    ことを特徴とする請求項4に記載の音響処理装置。
  6. 画像を撮影する撮像部を備え、
    前記画像処理部は、
    少なくとも前記仰角を示す画像を前記撮像部が撮像した前記画像に合成して前記表示部に表示させる
    ことを特徴とする請求項4または請求項5に記載の音響処理装置。
  7. 前記画像処理部は、
    前記方位角推定部が推定した方位角または前記仰角推定部が推定した前記仰角に基づいた速さで変化する画像を生成する
    ことを特徴とする請求項6に記載の音響処理装置。
  8. 音響信号を再生する音響再生部と、
    音源毎の音響信号のうち、利用者によって選択された音源を示す選択情報を取得する操作情報取得部と、
    を備え、
    前記方位角推定部は、
    前記収音部が収録した音響信号を前記音源毎の音響信号に分離し、分離した音源毎の音響信号に基づいて、音源の前記方位角を推定し、
    分離した前記音響信号のうち、前記操作情報取得部が取得した前記選択情報に対応する音響信号を前記音響再生部から再生する
    ことを特徴とする請求項1から請求項7のいずれか1項に記載の音響処理装置。
  9. 収音部が、音響信号を収録する収音手順と、
    傾き情報取得部が、自装置の傾きに関する傾き情報を取得する傾き情報取得手順と、
    方位角推定部が、前記収音手順によって収録された少なくとも2つの時刻における前記音響信号に基づいて、前記収音部が配置されている面内の音源の方位角を各々推定する方位角推定手順と、
    仰角推定部が、前記傾き情報取得手順によって取得された前記傾き情報と、前記方位角推定手順によって推定された少なくとも2つの時刻における前記方位角とに基づいて、前記収音部が配置されている面を基準とした前記音源の仰角を推定する仰角推定手順と、
    を含むことを特徴とする音響処理方法。
  10. 音響処理装置のコンピュータに、
    音響信号を収録する収音手順と、
    自装置の傾きに関する傾き情報を取得する傾き情報取得手順と、
    前記収音手順によって収録された少なくとも2つの時刻における前記音響信号に基づいて、収音部が配置されている面内の音源の方位角を各々推定する方位角推定手順と、
    前記傾き情報取得手順によって取得された前記傾き情報と、前記方位角推定手順によって推定された少なくとも2つの時刻における前記方位角とに基づいて、前記収音部が配置されている面を基準とした前記音源の仰角を推定する仰角推定手順と、
    を実行させる音響処理プログラム。
JP2013180672A 2013-08-30 2013-08-30 音響処理装置、音響処理方法、及び音響処理プログラム Active JP6030032B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013180672A JP6030032B2 (ja) 2013-08-30 2013-08-30 音響処理装置、音響処理方法、及び音響処理プログラム
US14/454,095 US9664772B2 (en) 2013-08-30 2014-08-07 Sound processing device, sound processing method, and sound processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013180672A JP6030032B2 (ja) 2013-08-30 2013-08-30 音響処理装置、音響処理方法、及び音響処理プログラム

Publications (2)

Publication Number Publication Date
JP2015050610A true JP2015050610A (ja) 2015-03-16
JP6030032B2 JP6030032B2 (ja) 2016-11-24

Family

ID=52583093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013180672A Active JP6030032B2 (ja) 2013-08-30 2013-08-30 音響処理装置、音響処理方法、及び音響処理プログラム

Country Status (2)

Country Link
US (1) US9664772B2 (ja)
JP (1) JP6030032B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212312A (ja) * 2015-05-12 2016-12-15 アルパイン株式会社 音響特性測定装置、方法およびプログラム
WO2019073804A1 (ja) * 2017-10-11 2019-04-18 ソニー株式会社 音源方向推定装置および方法、並びにプログラム
JPWO2020194717A1 (ja) * 2019-03-28 2020-10-01
WO2020250797A1 (ja) * 2019-06-14 2020-12-17 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2021006491A1 (ko) * 2019-07-10 2021-01-14 김영언 음원 시각화 장치 및 방법

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6030032B2 (ja) * 2013-08-30 2016-11-24 本田技研工業株式会社 音響処理装置、音響処理方法、及び音響処理プログラム
US10415960B2 (en) 2015-04-06 2019-09-17 Worldvu Satellites Limited Elevation angle estimating system and method for user terminal placement
WO2017075127A1 (en) * 2015-10-30 2017-05-04 Hornet Industries, Llc System and method to locate and identify sound sources in a noisy environment
CN108604453B (zh) * 2016-10-31 2022-11-04 华为技术有限公司 一种定向录音方法及电子设备
CN107422305B (zh) * 2017-06-06 2020-03-13 歌尔股份有限公司 一种麦克风阵列声源定位方法和装置
JP2019057047A (ja) * 2017-09-20 2019-04-11 株式会社東芝 表示制御システム、表示制御方法及びプログラム
KR102556092B1 (ko) * 2018-03-20 2023-07-18 한국전자통신연구원 지향성 마이크를 이용한 음향 이벤트 검출 방법, 그리고 지향성 마이크를 이용한 음향 이벤트 검출 장치
KR102306437B1 (ko) * 2019-07-05 2021-09-28 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN113782047B (zh) * 2021-09-06 2024-03-08 云知声智能科技股份有限公司 语音分离方法、装置、设备和存储介质
CN115171227B (zh) * 2022-09-05 2022-12-27 深圳市北科瑞声科技股份有限公司 活体检测方法、装置、电子设备及存储介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007005108A2 (en) * 2005-06-30 2007-01-11 Microsoft Corporation Normalized images for cameras
WO2007099908A1 (ja) * 2006-02-27 2007-09-07 Matsushita Electric Industrial Co., Ltd. ウェアラブル端末、および、携帯撮像収音装置、およびそれらを実現する装置、方法、プログラム
JP2007235334A (ja) * 2006-02-28 2007-09-13 Victor Co Of Japan Ltd オーディオ装置及び指向音生成方法
JP2009296232A (ja) * 2008-06-04 2009-12-17 Casio Hitachi Mobile Communications Co Ltd 音入力装置、音入力方法およびプログラム
JP2010050571A (ja) * 2008-08-19 2010-03-04 Yamaha Corp 収音装置
JP2010072695A (ja) * 2008-09-16 2010-04-02 Lenovo Singapore Pte Ltd マイクロフォンを備えるタブレット・コンピュータおよび制御方法
JP2010145524A (ja) * 2008-12-16 2010-07-01 Casio Hitachi Mobile Communications Co Ltd 記録装置、再生装置及びプログラム
JP2010278918A (ja) * 2009-05-29 2010-12-09 Nec Casio Mobile Communications Ltd 音データ処理装置
JP2011250100A (ja) * 2010-05-26 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012129873A (ja) * 2010-12-16 2012-07-05 Chubu Electric Power Co Inc 指定領域からの伝播音の再生方法とその装置
JP2013008031A (ja) * 2011-06-24 2013-01-10 Honda Motor Co Ltd 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
JP2013106298A (ja) * 2011-11-16 2013-05-30 Sony Corp 撮像制御装置、撮像制御方法、撮像制御方法のプログラムおよび撮像装置
JP2014510430A (ja) * 2011-01-13 2014-04-24 クアルコム,インコーポレイテッド モバイルプラットフォームでの可変ビーム形成

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6947073B1 (en) * 2000-04-14 2005-09-20 The United States Of America As Represented By The Secretary Of The Navy Apparatus and method for detecting a moving target
JP5383056B2 (ja) 2007-02-14 2014-01-08 本田技研工業株式会社 音データ記録再生装置および音データ記録再生方法
US10504285B2 (en) * 2007-09-26 2019-12-10 Autodesk, Inc. Navigation system for a 3D virtual scene
JP5706782B2 (ja) 2010-08-17 2015-04-22 本田技研工業株式会社 音源分離装置及び音源分離方法
US20130198630A1 (en) * 2012-01-30 2013-08-01 Ability Apps, Llc. Assisted hearing device
US10107887B2 (en) * 2012-04-13 2018-10-23 Qualcomm Incorporated Systems and methods for displaying a user interface
JP6030032B2 (ja) * 2013-08-30 2016-11-24 本田技研工業株式会社 音響処理装置、音響処理方法、及び音響処理プログラム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007005108A2 (en) * 2005-06-30 2007-01-11 Microsoft Corporation Normalized images for cameras
WO2007099908A1 (ja) * 2006-02-27 2007-09-07 Matsushita Electric Industrial Co., Ltd. ウェアラブル端末、および、携帯撮像収音装置、およびそれらを実現する装置、方法、プログラム
JP2007235334A (ja) * 2006-02-28 2007-09-13 Victor Co Of Japan Ltd オーディオ装置及び指向音生成方法
JP2009296232A (ja) * 2008-06-04 2009-12-17 Casio Hitachi Mobile Communications Co Ltd 音入力装置、音入力方法およびプログラム
JP2010050571A (ja) * 2008-08-19 2010-03-04 Yamaha Corp 収音装置
JP2010072695A (ja) * 2008-09-16 2010-04-02 Lenovo Singapore Pte Ltd マイクロフォンを備えるタブレット・コンピュータおよび制御方法
JP2010145524A (ja) * 2008-12-16 2010-07-01 Casio Hitachi Mobile Communications Co Ltd 記録装置、再生装置及びプログラム
JP2010278918A (ja) * 2009-05-29 2010-12-09 Nec Casio Mobile Communications Ltd 音データ処理装置
JP2011250100A (ja) * 2010-05-26 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012129873A (ja) * 2010-12-16 2012-07-05 Chubu Electric Power Co Inc 指定領域からの伝播音の再生方法とその装置
JP2014510430A (ja) * 2011-01-13 2014-04-24 クアルコム,インコーポレイテッド モバイルプラットフォームでの可変ビーム形成
JP2013008031A (ja) * 2011-06-24 2013-01-10 Honda Motor Co Ltd 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
JP2013106298A (ja) * 2011-11-16 2013-05-30 Sony Corp 撮像制御装置、撮像制御方法、撮像制御方法のプログラムおよび撮像装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212312A (ja) * 2015-05-12 2016-12-15 アルパイン株式会社 音響特性測定装置、方法およびプログラム
WO2019073804A1 (ja) * 2017-10-11 2019-04-18 ソニー株式会社 音源方向推定装置および方法、並びにプログラム
JPWO2020194717A1 (ja) * 2019-03-28 2020-10-01
WO2020194717A1 (ja) * 2019-03-28 2020-10-01 日本電気株式会社 音響認識装置、音響認識方法、及び、プログラムが格納された非一時的なコンピュータ可読媒体
JP7215567B2 (ja) 2019-03-28 2023-01-31 日本電気株式会社 音響認識装置、音響認識方法、及び、プログラム
US11838731B2 (en) 2019-03-28 2023-12-05 Nec Corporation Sound recognition apparatus, sound recognition method, and non-transitory computer readable medium storing program
WO2020250797A1 (ja) * 2019-06-14 2020-12-17 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2021006491A1 (ko) * 2019-07-10 2021-01-14 김영언 음원 시각화 장치 및 방법
US11927682B2 (en) 2019-07-10 2024-03-12 Young Eon Kim Sound source visualization device and method

Also Published As

Publication number Publication date
US20150063069A1 (en) 2015-03-05
US9664772B2 (en) 2017-05-30
JP6030032B2 (ja) 2016-11-24

Similar Documents

Publication Publication Date Title
JP6030032B2 (ja) 音響処理装置、音響処理方法、及び音響処理プログラム
US10863270B1 (en) Beamforming for a wearable computer
CN108648235B (zh) 相机姿态追踪过程的重定位方法、装置及存储介质
CN110544280B (zh) Ar系统及方法
JP6586834B2 (ja) 作業支援方法、作業支援プログラム、及び作業支援システム
JP7305249B2 (ja) 画像特徴点の動き情報の決定方法、タスク実行方法およびデバイス
CN110047104A (zh) 对象检测和跟踪方法、头戴式显示装置和存储介质
JP7026819B2 (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
US9500739B2 (en) Estimating and tracking multiple attributes of multiple objects from multi-sensor data
EP2998935B1 (en) Image processing device, image processing method, and program
JP6645245B2 (ja) 全天球撮影システム
EP3528024B1 (en) Information processing device, information processing method, and program
WO2019215987A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN114170349A (zh) 图像生成方法、装置、电子设备及存储介质
EP3926976B1 (en) Information processing device, information processing method, and program
WO2023151558A1 (zh) 用于显示图像的方法、装置和电子设备
CN113432620A (zh) 误差估计方法、装置、车载终端及存储介质
JP6646967B2 (ja) 制御装置、再生システム、補正方法、及び、コンピュータプログラム
US10945071B1 (en) Sound collecting method, device and medium
CN110443841B (zh) 地面深度的测量方法、装置及系统
CN111127539A (zh) 视差确定方法、装置、计算机设备及存储介质
Wu et al. Acuity: Creating realistic digital twins through multi-resolution pointcloud processing and audiovisual sensor fusion
WO2023195056A1 (ja) 画像処理方法、ニューラルネットワークの学習方法、三次元画像表示方法、画像処理システム、ニューラルネットワークの学習システム、及び三次元画像表示システム
JP7477596B2 (ja) 深度推定のための方法、深度推定システム、およびコンピュータプログラム
US11448884B2 (en) Image based finger tracking plus controller tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161019

R150 Certificate of patent or registration of utility model

Ref document number: 6030032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250