JP2013195405A - Position estimation method, device and program - Google Patents

Position estimation method, device and program Download PDF

Info

Publication number
JP2013195405A
JP2013195405A JP2012066431A JP2012066431A JP2013195405A JP 2013195405 A JP2013195405 A JP 2013195405A JP 2012066431 A JP2012066431 A JP 2012066431A JP 2012066431 A JP2012066431 A JP 2012066431A JP 2013195405 A JP2013195405 A JP 2013195405A
Authority
JP
Japan
Prior art keywords
speakers
position estimation
output
speaker
cepstrum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012066431A
Other languages
Japanese (ja)
Other versions
JP5929393B2 (en
Inventor
Takeshi Jo
武史 城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012066431A priority Critical patent/JP5929393B2/en
Publication of JP2013195405A publication Critical patent/JP2013195405A/en
Application granted granted Critical
Publication of JP5929393B2 publication Critical patent/JP5929393B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To acquire local positional information with high accuracy in a position estimation method, device and program.SOLUTION: The same original sound is outputted from three speakers provided on the same plane while adding an artificial echo of a different delay time for each speaker just for a fixed period of time, the fixed period of time in which the artificial echo is added to output of each of speakers and the fixed period of time in which the artificial echo is added to output of another speaker are in an exclusive relationship, and a fixed period of time in which the artificial echo is not added to output of all the three speakers is provided. In a position estimation device, a cepstrum is generated by cepstrum analysis of a sample train obtained by detecting and sampling the output of the three speakers by means of a microphone, a distance order indicating a magnitude relation of distances from a position of the position estimation device to each of the three speakers is acquired on the basis of a peak of the cepstrum, and the position of the position estimation device is estimated on the basis of the distance order and known positions of the three speakes.

Description

本発明は、位置推定方法、装置及びプログラムに関する。   The present invention relates to a position estimation method, apparatus, and program.

近年、消費者に提供する多種多様なサービスの一形態として、局所位置情報を用いた情報配信システムが提案されている。このような情報配信システムは、ある限定された空間内の観測者位置を元に、多種多様な情報を配信する。例えば、店舗などの限られた空間での位置情報取得によって、目的の陳列棚までの経路を探索したり、閉鎖空間で動作する自律ロボットの空間内での位置把握手法として利用することができる。   In recent years, an information distribution system using local position information has been proposed as one form of various services provided to consumers. Such an information distribution system distributes a wide variety of information based on observer positions within a limited space. For example, by acquiring position information in a limited space such as a store, it is possible to search for a route to a target display shelf or use it as a position grasping method in the space of an autonomous robot operating in a closed space.

従来より、位置情報サービスとしてGPS(Global Positioning System)が利用されている。GPSは、地球を周回している複数の衛星からの情報を元に観測者の位置情報を取得する。GPSは、地球上の任意の位置で位置情報を取得可能であることから、カーナビゲーションシステムなどで使用されている。しかし、GPSの実用精度は十数メートルに制限されているため、店舗などの空間に対しては観測精度が十分ではない。また、GPSは、屋内や地下などの衛星からの情報を受信しにくい環境では使用できない場合があり、局所空間内の位置情報取得への応用は困難である。このため、局所空間内で位置情報取得を確実に取得できる局所位置情報取得手法の実現が望まれている。   Conventionally, GPS (Global Positioning System) is used as a position information service. GPS acquires observer position information based on information from a plurality of satellites orbiting the earth. GPS is used in car navigation systems and the like because it can acquire position information at any position on the earth. However, since the practical accuracy of GPS is limited to a few dozen meters, the observation accuracy is not sufficient for spaces such as stores. In addition, GPS may not be used in an environment where it is difficult to receive information from satellites such as indoors and underground, and it is difficult to apply position information acquisition in a local space. For this reason, realization of the local position information acquisition method which can acquire position information acquisition reliably in local space is desired.

局所位置情報取得手法に要求される特徴として、位置の観測精度が挙げられる。局所空間は、典型的には十数メートル〜数十メートル四方に制限されるものであるが、局所空間内での位置の観測精度は十数センチメートル程度以下でないと有益な情報として利用できない可能性がある。   One characteristic required for the local position information acquisition method is the position observation accuracy. The local space is typically limited to a few tens of meters to a few tens of meters, but the observation accuracy of the position in the local space can be used as useful information only if it is about tens of centimeters or less. There is sex.

また、局所位置情報取得手法に要求される他の特徴としては、コストが挙げられる。観測者位置情報を元にした情報サービスの提供は、小売店舗やスーパーマーケットなどの極小規模の単位で導入されることが考えられるため、可能な限り従来の機器など利用可能であるか、あるいは、低コストで実現できなければ、サービス提供者の増加が期待できない。   Another feature required for the local position information acquisition method is cost. The provision of information services based on observer position information can be implemented in ultra-small units such as retail stores and supermarkets, so that conventional equipment can be used as much as possible or low If it cannot be realized at a low cost, an increase in service providers cannot be expected.

疑似衛星や電子タグなどを用いた局所位置情報取得手法は提案されているが、新たなハードウェアの導入及びこれに伴うコストの増加により、サービス提供者への負荷が大きい。   Local location information acquisition methods using pseudo satellites, electronic tags, and the like have been proposed, but the burden on service providers is large due to the introduction of new hardware and the accompanying increase in costs.

特開2000−147084号公報JP 2000-147084 A 特開平7−333331号公報JP 7-333331 A 特開平5−157835号公報JP-A-5-157835

従来は、GPSが使用困難な領域での局所位置情報取得、またはGPS補助のための詳細位置情報取得を、高観測精度及び低コストで実現することは難しい。   Conventionally, it is difficult to achieve local position information acquisition in an area where GPS is difficult to use or detailed position information acquisition for GPS assistance with high observation accuracy and low cost.

そこで、本発明は、高精度で局所位置情報を取得可能な位置推定方法、装置及びプログラムを提供することを目的とする。   Accordingly, an object of the present invention is to provide a position estimation method, apparatus, and program capable of acquiring local position information with high accuracy.

本発明の一観点によれば、同一平面上に設けられた3個のスピーカから同じ原音を一定期間のみ各スピーカ毎に異なる遅延時間の人工エコーを付加して出力し、各スピーカの出力に人工エコーが付加されている一定期間と他のスピーカの出力に人工エコーが付加されている一定期間とは排他的関係にあり、前記3個のスピーカ全ての出力に人工エコーが付加されていない一定期間が設けられ、端末装置において、前記3個のスピーカの出力をマイクロホンで検知してサンプリングしたサンプル列のケプストラム解析でケプストラムを生成し、前記端末装置において、前記ケプストラムのピークに基づき前記端末装置の位置から前記3個のスピーカの夫々までの距離の大小関係を示す距離順序を取得し、前記端末装置において、前記距離順序と前記3個のスピーカの既知の位置とに基づいて前記端末装置の位置を推定することを特徴とする位置推定方法が提供される。   According to one aspect of the present invention, the same original sound is output from three speakers provided on the same plane with artificial echoes having different delay times for each speaker for a certain period of time, and the output of each speaker is artificial. There is an exclusive relationship between a certain period in which the echo is added and a certain period in which the artificial echo is added to the output of another speaker, and a certain period in which no artificial echo is added to the outputs of all three speakers. In the terminal device, a cepstrum is generated by cepstrum analysis of a sample sequence obtained by detecting the outputs of the three speakers with a microphone, and the position of the terminal device is determined based on the peak of the cepstrum in the terminal device. To obtain a distance order indicating a magnitude relationship of distances from the three speakers to each of the three speakers, and in the terminal device, the distance order and Position estimating method characterized by estimating the position of the terminal apparatus based on the known position of the serial three loudspeakers are provided.

本発明の一観点によれば、同一平面上に設けられた3個のスピーカから同じ原音を一定期間のみ各スピーカ毎に異なる遅延時間の人工エコーを付加して出力し、各スピーカの出力に人工エコーが付加されている一定期間と他のスピーカの出力に人工エコーが付加されている一定期間とは排他的関係にあり、前記3個のスピーカ全ての出力に人工エコーが付加されていない一定期間が設けられるシステムで用いる位置推定装置であって、前記3個のスピーカの出力を検知するマイクロホンと、前記マイクロホンの検知出力に基づいて前記位置推定装置の位置を推定する位置推定処理を実行するプロセッサとを備え、前記位置推定処理は、前記検知出力をサンプリングしたサンプル列のケプストラム解析でケプストラムを生成し、前記ケプストラムのピークに基づき前記位置推定装置の位置から前記3個のスピーカの夫々までの距離の大小関係を示す距離順序を取得し、前記距離順序と前記3個のスピーカの既知の位置とに基づいて前記位置推定装置の位置を推定することを特徴とする位置推定装置が提供される。   According to one aspect of the present invention, the same original sound is output from three speakers provided on the same plane with artificial echoes having different delay times for each speaker for a certain period of time, and the output of each speaker is artificial. There is an exclusive relationship between a certain period in which the echo is added and a certain period in which the artificial echo is added to the output of another speaker, and a certain period in which no artificial echo is added to the outputs of all three speakers. A position estimation apparatus used in a system provided with a microphone that detects an output of the three speakers, and a processor that executes a position estimation process for estimating the position of the position estimation apparatus based on the detection output of the microphone The position estimation processing generates a cepstrum by cepstrum analysis of a sample sequence obtained by sampling the detection output, and the cepstrum A distance order indicating the magnitude relationship of the distances from the position of the position estimation device to each of the three speakers based on the peak of the position estimation device, and based on the distance order and the known positions of the three speakers A position estimation apparatus is provided that estimates the position of the position estimation apparatus.

本発明の一観点によれば、同一平面上に設けられた3個のスピーカから同じ原音を一定期間のみ各スピーカ毎に異なる遅延時間の人工エコーを付加して出力し、各スピーカの出力に人工エコーが付加されている一定期間と他のスピーカの出力に人工エコーが付加されている一定期間とは排他的関係にあり、前記3個のスピーカ全ての出力に人工エコーが付加されていない一定期間が設けられるシステムにおいて、端末装置のコンピュータに位置推定処理を実行させるプログラムであって、前記3個のスピーカの出力を前記端末装置のマイクロホンで検知してサンプリングしたサンプル列のケプストラム解析でケプストラムを生成する手順と、前記ケプストラムのピークに基づき前記端末装置の位置から前記3個のスピーカの夫々までの距離の大小関係を示す距離順序を取得する手順と、前記距離順序と前記3個のスピーカの既知の位置とに基づいて前記端末装置の位置を推定する手順を前記コンピュータに実行させることを特徴とするプログラムが提供される。   According to one aspect of the present invention, the same original sound is output from three speakers provided on the same plane with artificial echoes having different delay times for each speaker for a certain period of time, and the output of each speaker is artificial. There is an exclusive relationship between a certain period in which the echo is added and a certain period in which the artificial echo is added to the output of another speaker, and a certain period in which no artificial echo is added to the outputs of all three speakers. Is a program that causes a computer of a terminal device to perform position estimation processing, and generates a cepstrum by cepstrum analysis of a sample sequence sampled by detecting outputs of the three speakers with a microphone of the terminal device And a distance from the position of the terminal device to each of the three speakers based on the peak of the cepstrum. A program for causing a computer to execute a procedure for obtaining a distance order indicating a small relationship, and a procedure for estimating the position of the terminal device based on the distance order and the known positions of the three speakers. Is provided.

開示の位置推定方法、装置及びプログラムによれば、高精度で局所位置情報を取得することができる。   According to the disclosed position estimation method, apparatus, and program, local position information can be acquired with high accuracy.

本発明の一実施例における位置推定方法の一例を説明する図である。It is a figure explaining an example of the position estimation method in one Example of this invention. 人工エコーの付加を説明する図である。It is a figure explaining addition of an artificial echo. 端末装置の一例を示すブロック図である。It is a block diagram which shows an example of a terminal device. ケプストラム解析結果の一例を説明する図である。It is a figure explaining an example of a cepstrum analysis result. 音源からの距離順序決定手法を説明する図である。It is a figure explaining the distance order determination method from a sound source. ユーザ位置の解候補の絞り込み処理の一例を説明する図である。It is a figure explaining an example of the narrowing-down process of the solution candidate of a user position. 位置推定処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a position estimation process. スピーカ位置取得処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a speaker position acquisition process.

開示の位置推定方法、装置及びプログラムでは、同一平面上に設けられた3個のスピーカから同じ原音を一定期間のみ各スピーカ毎に異なる遅延時間の人工エコーを付加して出力する。各スピーカの出力に人工エコーが付加されている一定期間と他のスピーカの出力に人工エコーが付加されている一定期間とは排他的関係にあり、3個のスピーカ全ての出力に人工エコーが付加されていない一定期間が設けられる。位置推定装置では、3個のスピーカの出力をマイクロホンで検知してサンプリングしたサンプル列のケプストラム解析でケプストラムを生成し、ケプストラムのピークに基づき位置推定装置の位置から3個のスピーカの夫々までの距離の大小関係を示す距離順序を取得し、距離順序と3個のスピーカの既知の位置とに基づいて位置推定装置の位置を推定する。   In the disclosed position estimation method, apparatus, and program, the same original sound from three speakers provided on the same plane is added with an artificial echo having a different delay time for each speaker for a certain period and output. There is an exclusive relationship between the fixed period in which the artificial echo is added to the output of each speaker and the fixed period in which the artificial echo is added to the output of other speakers, and the artificial echo is added to the outputs of all three speakers. A certain period of time is provided. In the position estimation device, a cepstrum is generated by cepstrum analysis of a sample sequence obtained by detecting the outputs of the three speakers with a microphone, and the distance from the position of the position estimation device to each of the three speakers based on the peak of the cepstrum. Is obtained, and the position of the position estimation device is estimated based on the distance order and the known positions of the three speakers.

以下に、開示の位置推定方法、装置及びプログラムの各実施例を図面と共に説明する。   Embodiments of the disclosed position estimation method, apparatus, and program will be described below with reference to the drawings.

本発明の一実施例における位置推定方法をの一例を説明する。図1は、本発明の一実施例における位置推定方法の一例を説明する図であり、図2は、人工エコーの付加を説明する図である。   An example of a position estimation method in one embodiment of the present invention will be described. FIG. 1 is a diagram for explaining an example of a position estimation method in one embodiment of the present invention, and FIG. 2 is a diagram for explaining the addition of an artificial echo.

図1に示す例では、パーソナルコンピュータ(PC:Personal Computer)11はサービス提供者側に設けられた音源生成装置の一例である。少なくとも3個のスピーカ1A,1B,1Cは、PC11から出力される音源データの音(以下、音源とも言う)を出力する。スピーカ1A,1B,1Cは、例えば店舗などの屋内の同一平面上の任意の三角形の頂点に配置されており、ユーザ(または、観測者)が携帯する端末装置2はこの三角形の領域内に位置するものとする。   In the example shown in FIG. 1, a personal computer (PC: Personal Computer) 11 is an example of a sound source generation device provided on the service provider side. At least three speakers 1A, 1B, and 1C output sound of sound source data output from the PC 11 (hereinafter also referred to as a sound source). The speakers 1A, 1B, and 1C are arranged at the vertices of arbitrary triangles on the same plane indoors, for example, in a store, for example, and the terminal device 2 carried by the user (or an observer) is located within the triangular area. It shall be.

端末装置2は、位置推定装置の一例である。端末装置2は、スピーカ1A,1B,1Cから出力される音を検知するマイクロホン、プロセッサ、メモリなどを有し、例えばスマートホンを含む携帯電話、ノート型PC、タブレットPC、パーソナルデジタルアシスタント(PDA:Personal Digital Assistant)を含む携帯型電子装置で形成可能である。端末装置2は、スピーカ1A〜1Cから出力される音をサンプリングしたサンプル(データ)をメモリに格納し、格納された音のサンプルを元にスピーカ1A〜1Cで囲まれる空間内での端末装置2の位置を推定する。便宜上、以下の説明では端末装置2の位置を、ユーザ位置とも言う。各スピーカ1A〜1Cからは、例えば同じ原音(例えば、音楽)を出力するが、原音に対してある時間だけ遅延された音を原音に重畳して人工エコー入り音源を出力する期間を設ける。つまり、端末装置2が録音する音は、3個のスピーカ1A〜1Cから到達した音に加えて、各スピーカ1A〜1Cからの人工エコー音が重畳された音となる。   The terminal device 2 is an example of a position estimation device. The terminal device 2 includes a microphone, a processor, a memory, and the like that detect sound output from the speakers 1A, 1B, and 1C. For example, a mobile phone including a smartphone, a notebook PC, a tablet PC, and a personal digital assistant (PDA: It can be formed by a portable electronic device including a personal digital assistant. The terminal device 2 stores a sample (data) obtained by sampling sounds output from the speakers 1A to 1C in a memory, and the terminal device 2 in a space surrounded by the speakers 1A to 1C based on the stored sound samples. Is estimated. For convenience, in the following description, the position of the terminal device 2 is also referred to as a user position. For example, the same original sound (for example, music) is output from each of the speakers 1A to 1C, but a period in which a sound delayed by a certain time with respect to the original sound is superimposed on the original sound to output a sound source including an artificial echo is provided. That is, the sound recorded by the terminal device 2 is a sound in which the artificial echo sound from each of the speakers 1A to 1C is superimposed in addition to the sound that has arrived from the three speakers 1A to 1C.

図2中、(a)は音源の波形の一例と、各スピーカ1A,1B,1Cからの人工エコー入り音源の波形を示し、(b)は各スピーカ1A,1B,1Cから出力される音源の人工エコーの有無を一定期間t1毎に示す。各スピーカ1A〜1Cは、図2に示すように、ある一定期間のみ人工エコーを付加した音源を出力する。また、各スピーカ1A〜1Cの出力に付加されている人工エコーの遅延時間ta, tb, tcは、各スピーカ1A〜1C毎に異なり(すなわち、後述する各チャネルCh-A〜Ch-Cに固有の値)であり、且つ、各スピーカ(例えば、スピーカ1A)の出力に人工エコーが付加されている期間と他のスピーカ(例えば、スピーカ1B,1C)の出力に人工エコーが付加されている期間とは排他的関係にある。さらに、全てのスピーカ1A〜1C出力に人工エコーが付加されていない音源、すなわち、エコー無し音源を出力する期間が設けられる。   In FIG. 2, (a) shows an example of the waveform of the sound source and the waveform of the sound source with artificial echoes from the speakers 1A, 1B, 1C, and (b) shows the sound source output from each speaker 1A, 1B, 1C. The presence / absence of an artificial echo is shown every t1 for a certain period. As shown in FIG. 2, each of the speakers 1A to 1C outputs a sound source to which an artificial echo is added only for a certain period. Further, the delay times ta, tb, tc of the artificial echo added to the outputs of the speakers 1A to 1C are different for each speaker 1A to 1C (that is, specific to each channel Ch-A to Ch-C described later). And the period in which the artificial echo is added to the output of each speaker (for example, speaker 1A) and the period in which the artificial echo is added to the output of other speakers (for example, speakers 1B and 1C) Is in an exclusive relationship. Furthermore, a period for outputting a sound source in which no artificial echo is added to all the speakers 1A to 1C, that is, a sound source without echo is provided.

図1において、PC11は、デジタル音源データ100のマルチチャネル再生を行うために、チャネルCh-Aの再生系、チャネルCh-Bの再生系、及びチャネルCh-Cの再生系を有する。チャネルCh-Aの再生系は、加算回路12A、遅延回路13A、セレクタ14A、デジタル/アナログ変換器(DAC:Digital-to-Analog Converter)15A、及びアンプ16Aを有する。チャネルCh-Bの再生系は、加算回路12B、遅延回路13B、セレクタ14B、DAC15B、及びアンプ16Bを有する。チャネルCh-Cの再生系は、加算回路12C、遅延回路13C、セレクタ14C、DAC15C、及びアンプ16Cを有する。アンプ16A,16B,16Cの出力は、対応するスピーカ1A,1B,1Cに接続されている。   In FIG. 1, the PC 11 has a channel Ch-A playback system, a channel Ch-B playback system, and a channel Ch-C playback system in order to perform multi-channel playback of the digital sound source data 100. The reproduction system of channel Ch-A includes an adder circuit 12A, a delay circuit 13A, a selector 14A, a digital / analog converter (DAC) 15A, and an amplifier 16A. The reproduction system for channel Ch-B includes an adder circuit 12B, a delay circuit 13B, a selector 14B, a DAC 15B, and an amplifier 16B. The reproduction system for channel Ch-C includes an adder circuit 12C, a delay circuit 13C, a selector 14C, a DAC 15C, and an amplifier 16C. The outputs of the amplifiers 16A, 16B, and 16C are connected to the corresponding speakers 1A, 1B, and 1C.

PC11は、CPU(Central Processing Unit)などのプロセッサ、及びメモリなどの記憶部を有する周知のハードウェア構成を有し、チャネルCh-A〜Ch-C再生系において遅延回路部とセレクタ部の機能(遅延処理と選択処理)はプロセッサが記憶部に格納されたプログラムを実行することにより実現できる。また、DAC部とアンプ部の機能はマルチチャネル再生に対応した外付けサウンドカードや、PC11のマザーボードに搭載されたサウンドチップなどの再生系を用いることで実現できる。プログラムは、半導体記憶装置、磁気記録媒体、光記録媒体、光磁気記録媒体などの適切なコンピュータ読み取り可能な記憶媒体に格納されていても良い。なお、チャネルCh-A〜Ch-C再生系の遅延回路部とセレクタ部の機能は、ハードウェアにより実現しても良いことは言うまでもない。   The PC 11 has a known hardware configuration including a processor such as a CPU (Central Processing Unit) and a storage unit such as a memory, and functions of a delay circuit unit and a selector unit in the channels Ch-A to Ch-C playback system ( The delay process and the selection process can be realized by the processor executing a program stored in the storage unit. The functions of the DAC unit and the amplifier unit can be realized by using a reproduction system such as an external sound card that supports multi-channel reproduction or a sound chip mounted on the motherboard of the PC 11. The program may be stored in an appropriate computer-readable storage medium such as a semiconductor storage device, a magnetic recording medium, an optical recording medium, or a magneto-optical recording medium. Needless to say, the functions of the delay circuit section and the selector section of the channels Ch-A to Ch-C reproduction system may be realized by hardware.

チャネルCh-Aの再生系では、加算回路12Aがデジタル音源データ100と、遅延回路13Aで遅延時間taだけ遅延されたデジタル音源データ100とを加算する。セレクタ14Aは、デジタル音源データ100と、デジタル音源データ100に遅延時間taだけ遅延されたデジタル音源データ100が加算された加算回路12Aからの人工エコー入り音源データとを、予め決められた順序及び間隔で選択出力する。セレクタ14Aの出力音源データは、DAC15Aでデジタル/アナログ(D/A)変換され、アンプ16Aで増幅された後にスピーカ1Aに供給される。チャネルCh-B再生系及びCh-C再生系の動作は、チャネル再生系Ch-Aの処理と同様であるため、その説明は省略する。ただし、遅延回路13Bは遅延時間tbを有し、遅延回路13Cは遅延時間tcを有する。   In the reproduction system of channel Ch-A, the adding circuit 12A adds the digital sound source data 100 and the digital sound source data 100 delayed by the delay time ta by the delay circuit 13A. The selector 14A selects the digital sound source data 100 and the sound source data with artificial echoes from the addition circuit 12A obtained by adding the digital sound source data 100 delayed by the delay time ta to the digital sound source data 100 in a predetermined order and interval. Select to output. The output sound source data of the selector 14A is digital / analog (D / A) converted by the DAC 15A, amplified by the amplifier 16A, and then supplied to the speaker 1A. Since the operations of the channel Ch-B playback system and the Ch-C playback system are the same as the processing of the channel playback system Ch-A, description thereof will be omitted. However, the delay circuit 13B has a delay time tb, and the delay circuit 13C has a delay time tc.

例えば、一定期間(または、時間)t1が100ミリ秒(msec)であると、PC11は、「全てのスピーカ1A,1B,1Cの出力に人工エコー付加無し」、「スピーカ1Aの出力に人工エコー付加有り」、「スピーカ1Bの出力に人工エコー付加有り」、及び「スピーカ1Cの出力に人工エコー付加有り」の4つの状態を400msecの周期で繰り返す。この場合、人工エコーを付加をする音源を出力するスピーカ1A〜1Cの順序は任意であり、「スピーカ1B」、「スピーカ1C」、「エコー無し」、及び「スピーカ1A」などのように3個のスピーカ1A〜1Cの出力の人工エコー付加期間が連続しない順序でも良い。以下の説明では、説明の便宜上、スピーカ1Aの人工エコーの遅延時間ta=0.3msec、スピーカ1Bの人工エコーの遅延時間tb=0.5msec、及びスピーカ1Cの人工エコーの遅延時間tc=0.7msecであるものとする。各スピーカ1A〜1Cの人工エコーの遅延時間ta〜tcに制約はないが、一般的に、人間には1msec以下のエコーを判別することが困難であることを考慮すると、付加する人工エコーの遅延時間は人間が判別できない範囲内に収めることが望ましい。   For example, when the predetermined period (or time) t1 is 100 milliseconds (msec), the PC 11 determines that “the artificial echo is not added to the outputs of all the speakers 1A, 1B, and 1C” and “the artificial echo is output to the speaker 1A. The four states of “with addition”, “with artificial echo added to the output of the speaker 1B”, and “with artificial echo added to the output of the speaker 1C” are repeated at a cycle of 400 msec. In this case, the order of the speakers 1A to 1C that output the sound source to which the artificial echo is added is arbitrary, and three such as “speaker 1B”, “speaker 1C”, “no echo”, and “speaker 1A”. The order in which the artificial echo addition periods of the outputs of the speakers 1A to 1C are not continuous may be used. In the following description, for the sake of convenience of explanation, the delay time ta = 0.3 msec of the artificial echo of the speaker 1A, the delay time tb of the artificial echo of the speaker 1B, and the delay time tc = 0.7 msec of the artificial echo of the speaker 1C. Shall. The artificial echo delay time ta to tc of each speaker 1A to 1C is not limited, but in general, considering that it is difficult for humans to distinguish echoes of 1 msec or less, the delay of the artificial echo to be added It is desirable to keep the time within a range that humans cannot discern.

図3は、端末装置の一例を示すブロック図である。図3に示す端末装置2は、CPUなどのプロセッサ21、DMAC(Direct Memory Access Controller)22、タイマ23,24、メモリ25、マイクロホン26、温度センサ27、カメラ28、通信部29、及び操作部30がバス40で接続された構成を有する。この例では、端末装置2はスマートホンを形成しているが、端末装置2はスマートホンに限定されない。   FIG. 3 is a block diagram illustrating an example of a terminal device. 3 includes a processor 21 such as a CPU, a direct memory access controller (DMAC) 22, timers 23 and 24, a memory 25, a microphone 26, a temperature sensor 27, a camera 28, a communication unit 29, and an operation unit 30. Are connected by a bus 40. In this example, the terminal device 2 forms a smart phone, but the terminal device 2 is not limited to a smart phone.

この例では、プロセッサ21は命令メモリ31及びデータメモリ32に接続されているが、プロセッサ21と、プロセッサ21が用いるメモリとは、図3に示す構成及び接続に限定されるものではなく、DMAを用いない構成であっても良い。DMAを用いない構成の場合、DMAC22は省略可能である。また、命令メモリ31及びデータメモリ32は、メモリ25を用いることにより省略可能である。さらに、タイマ23,24は、プロセッサ31の内部タイマを用いることにより省略可能である。温度センサ27は、後述するように環境温度に応じて音速を修正しない場合には省略可能であり、温度センサ27を省略する場合にはタイマ24は省略可能である。マイクロホン26は、例えばモノラルマイクロホンである。   In this example, the processor 21 is connected to the instruction memory 31 and the data memory 32. However, the processor 21 and the memory used by the processor 21 are not limited to the configuration and connection shown in FIG. The structure which is not used may be sufficient. If the DMA is not used, the DMAC 22 can be omitted. Further, the instruction memory 31 and the data memory 32 can be omitted by using the memory 25. Furthermore, the timers 23 and 24 can be omitted by using the internal timer of the processor 31. As will be described later, the temperature sensor 27 can be omitted if the sound speed is not corrected according to the environmental temperature, and the timer 24 can be omitted if the temperature sensor 27 is omitted. The microphone 26 is, for example, a monaural microphone.

カメラ28、通信部29、及び操作部30は、ユーザがスピーカ1A〜1Cの位置情報取得するための入力部の一例であり、カメラ28及び通信部29は省略可能である。操作部30は、キーボードなどの入力部と、ディスプレイなどの表示部を有し、タッチパネルのように入力部と表示部を一体的に有する構成を有しても良い。   The camera 28, the communication unit 29, and the operation unit 30 are an example of an input unit for the user to acquire the positional information of the speakers 1A to 1C, and the camera 28 and the communication unit 29 can be omitted. The operation unit 30 includes an input unit such as a keyboard and a display unit such as a display, and may have a configuration in which the input unit and the display unit are integrated as in a touch panel.

プロセッサ21は、命令メモリ31に格納された位置推定プログラムを実行することで、マイクロホン26が検知したスピーカ1A,1B,1Cからの音に基づいて端末装置2の位置を推定する。プロセッサ21が実行する演算で用いるパラメータ、演算の中間データなどのデータは、データメモリ32に一時的に格納される。プロセッサ21は、マイクロホン26が検知したスピーカ1A〜1Cからの音を、タイマ23,24からの第1及び第2の転送要求に基づいてDMAC22から出力される割り込み信号で決定されるタイミングでサンプリングすることでアナログ/デジタル(A/D)変換して、サンプルをメモリ25に転送して格納する。タイマ23は、マイクロホン26の出力をサンプリングする周期で第1の転送要求を発生し、タイマ24は、温度センサ27の出力をサンプリングする周期で第2の転送要求を発生する。マイクロホン26の出力をサンプリングする周期と、温度センサ27の出力をサンプリングする周期は、例えばプロセッサ21からタイマ23,24に設定可能である。端末装置2の環境温度が急激に大きく変動することは稀であるため、タイマ24に設定される周期は例えば1秒であり、タイマ23に設定される周期と比べると長い。また、プロセッサ21は、所定数のサンプルがメモリ25へ転送された時点で割り込み信号が発生されるように、DMAC22に割り込み信号の発生周期を設定する。DMAC22は、タイマ23から第1の転送要求を受信するか、あるいは、タイマ24から第2の転送要求を受信すると、マイクロホン26が検知したデータをメモリ25へ転送することで、サンプリングされたサンプルをメモリ25に格納する。   The processor 21 executes the position estimation program stored in the instruction memory 31, thereby estimating the position of the terminal device 2 based on the sound from the speakers 1A, 1B, and 1C detected by the microphone 26. Data such as parameters used in calculations performed by the processor 21 and intermediate data of the calculations are temporarily stored in the data memory 32. The processor 21 samples the sound from the speakers 1 </ b> A to 1 </ b> C detected by the microphone 26 at a timing determined by the interrupt signal output from the DMAC 22 based on the first and second transfer requests from the timers 23 and 24. Thus, the analog / digital (A / D) conversion is performed, and the sample is transferred to the memory 25 and stored. The timer 23 generates a first transfer request at a cycle for sampling the output of the microphone 26, and the timer 24 generates a second transfer request at a cycle for sampling the output of the temperature sensor 27. The period for sampling the output of the microphone 26 and the period for sampling the output of the temperature sensor 27 can be set from the processor 21 to the timers 23 and 24, for example. Since the environmental temperature of the terminal device 2 rarely fluctuates greatly, the cycle set in the timer 24 is, for example, 1 second, which is longer than the cycle set in the timer 23. Further, the processor 21 sets an interrupt signal generation cycle in the DMAC 22 so that an interrupt signal is generated when a predetermined number of samples are transferred to the memory 25. When the DMAC 22 receives the first transfer request from the timer 23 or receives the second transfer request from the timer 24, the DMAC 22 transfers the data detected by the microphone 26 to the memory 25, so that the sampled sample is obtained. Store in the memory 25.

プロセッサ21は、DMAC22からの割り込み信号を受信すると、メモリ25に格納されたサンプルを元に以下の如き位置推定処理を開始する。つまり、プロセッサ21は、メモリ25に格納した重畳音のサンプルに対してケプストラム(Cepstrum)解析を行う。ケプストラム解析は、以下の式に基づいて行う。   When the processor 21 receives the interrupt signal from the DMAC 22, the processor 21 starts the following position estimation process based on the samples stored in the memory 25. That is, the processor 21 performs cepstrum analysis on the superimposed sound sample stored in the memory 25. Cepstrum analysis is performed based on the following equation.

Cepstrum = IFFT(log(abs(FFT(X))))
ここで、Xはデジタル録音されたサンプルのベクトル、FFTは高速フーリエ変換、abs は絶対値取得、logは対数(対数の底は任意)、IFFTは逆高速フーリエ変換を行う関数である。上記の式で求められるベクトル列はケプストラムと呼ばれ、この例では入力音源に重畳音が含まれているか否かを解析するために用いる。
Cepstrum = IFFT (log (abs (FFT (X))))
Here, X is a vector of digitally recorded samples, FFT is a fast Fourier transform, abs is an absolute value acquisition, log is a logarithm (the base of the logarithm is arbitrary), and IFFT is a function that performs an inverse fast Fourier transform. The vector sequence obtained by the above formula is called a cepstrum, and in this example, it is used to analyze whether or not a superimposed sound is included in the input sound source.

図4は、ケプストラム解析結果の一例を説明する図である。図4中、(a)は原音を一点鎖線、エコー音を破線、エコー入り音源を実線で示す。入力音源に対して時間Tだけ遅延させたエコー音を重畳すると、ケプストラム解析した結果では、図4中、(b)で示すように、ケプストラム空間上のTの位置(横軸を時間軸に対してケフレンシ(quefrency)と呼ぶ)にケプストラムの振幅に鋭いピークを観測することができる。この結果から、原音に対して時間Tだけ遅延したエコー音が重畳されていることが分かる。プロセッサ21は、ケプストラム解析結果より、ユーザ位置と各スピーカ1A〜1Cとの間の距離の差分(または、差分距離)を取得することができる。これは、複数のスピーカ1A〜1Cから出力された音には、ユーザ位置と音速により決まる微小な到達遅延が発生するためであり、端末装置2で録音した音は最も近いスピーカから出力された音に対して、遅れて到達したスピーカの音が重畳された音になるためである。すなわち、ケプストラム解析を行うことにより、最も近いスピーカの音と遅れて到達したスピーカの音の到達時間差が既知となる。この既知の到達時間差と音速を積を乗算で計算することにより、ユーザ位置とこれら2個のスピーカとの間の距離の差を計算できる。   FIG. 4 is a diagram for explaining an example of a cepstrum analysis result. In FIG. 4, (a) shows the original sound by a one-dot chain line, the echo sound by a broken line, and the sound source including the echo by a solid line. When echo sound delayed by time T is superimposed on the input sound source, the result of cepstrum analysis shows that the position of T in the cepstrum space (the horizontal axis is relative to the time axis as shown in FIG. 4B). A sharp peak in the cepstrum amplitude can be observed. From this result, it can be seen that an echo sound delayed by time T is superimposed on the original sound. The processor 21 can acquire the difference (or difference distance) in the distance between the user position and each of the speakers 1A to 1C from the cepstrum analysis result. This is because a minute arrival delay determined by the user position and sound speed occurs in the sound output from the plurality of speakers 1A to 1C, and the sound recorded by the terminal device 2 is the sound output from the nearest speaker. This is because the sound of the speaker that arrives late is superimposed. That is, by performing cepstrum analysis, the difference in arrival time between the closest speaker sound and the delayed speaker sound is known. By calculating the product of this known arrival time difference and sound speed by multiplying, the difference in distance between the user position and these two speakers can be calculated.

また、人工エコー音がユーザに到達する時間はスピーカの到達遅延に人工エコーの遅延時間を加算したものとなるため、図5に示すように、各人工エコー区間でのケプストラムピークの出現位置を特定することによりユーザ位置から3個のスピーカ1A〜1Cまでの距離の大小関係を示す距離順序(すなわち、遠いまたは近い順序)を取得することができる。図5は、音源からの距離順序決定手法を説明する図である。   In addition, since the time for the artificial echo sound to reach the user is obtained by adding the delay time of the artificial echo to the arrival delay of the speaker, as shown in FIG. 5, the appearance position of the cepstrum peak in each artificial echo section is specified. By doing this, it is possible to acquire a distance order (that is, a distant or close order) indicating the magnitude relationship of the distances from the user position to the three speakers 1A to 1C. FIG. 5 is a diagram for explaining a method for determining a distance order from a sound source.

位置推定処理は、任意のタイミングで開始される。図5の例では、図5(a)に示すように、人工エコー付加無し期間の録音から開始するものとする。この場合、プロセッサ21は、マイクロホン26が検知した音のデータを例えば50msec単位でA/D変換して音源のサンプル列を取得する。このように、サンプリング期間tsを50msecに設定するのは、各人工エコー付加期間(または、一定期間)t1が100msecの場合、サンプリング期間tsを100msecに設定してしまうと、サンプリング期間tsが2つの人工エコー付加期間を跨いでしまって正常なケプストラム解析ができない可能性があるからである。このため、サンプリング期間tsを50msec(すなわち、ts=t1/2)に設定することで、少なくとも2回に1回は異なる人工エコー付加期間を跨ぐことなくケプストラム解析が可能となる。   The position estimation process is started at an arbitrary timing. In the example of FIG. 5, it is assumed that recording starts in a period in which no artificial echo is added, as shown in FIG. In this case, the processor 21 performs A / D conversion on the sound data detected by the microphone 26 in units of 50 msec, for example, and acquires a sample sequence of the sound source. As described above, the sampling period ts is set to 50 msec. When each artificial echo addition period (or a fixed period) t1 is 100 msec, if the sampling period ts is set to 100 msec, two sampling periods ts are set. This is because there is a possibility that normal cepstrum analysis may not be possible because the artificial echo is added. For this reason, by setting the sampling period ts to 50 msec (that is, ts = t1 / 2), the cepstrum analysis can be performed without straddling different artificial echo addition periods at least once.

このようにして、取得したts=50msec単位のサンプル列のケプストラム解析を行うと、ある期間でケプストラム解析結果に2つのピークが観測できる期間が発生し、これを人工エコー付加無し期間のケプストラム解析結果とする。図5では、このようなピークを○印で示す。最も近いスピーカから出力される音源に対して、他のスピーカから出力される音源は音速分だけ遅延してマイクロホン26に到達するため、本実施例のように3個のスピーカ1A〜1Cを用いた場合、人工エコー無し期間では1つの音源に対して2つのエコーが重畳されたものとなる。図5(a)において、2つのピークのうち、位置が近い方からT1, T2で示す。   In this way, when cepstrum analysis is performed on the obtained sample sequence in units of ts = 50 msec, a period during which two peaks can be observed in the cepstrum analysis result is generated, and this is the result of cepstrum analysis without artificial echo addition. And In FIG. 5, such a peak is indicated by a circle. Since the sound source output from the other speaker reaches the microphone 26 with a delay corresponding to the sound speed, the three speakers 1A to 1C are used as in this embodiment. In this case, two echoes are superimposed on one sound source in the period without artificial echo. In Fig.5 (a), it shows by T1, T2 from the one where a position is near among two peaks.

ケプストラム解析結果に2つのピークが観測できる期間の次の50msecの期間はケプストラム解析をしない。これは、人工エコー付加期間(または、一定期間)t1は100msecであるのに対して、サンプリング期間tsは50msecであるため、2つのピークが観測された期間から50msec空けて次の期間を取得することで、期間を跨ぐことなく人工エコー付加期間を取得できるからである。このように50msec空けた次の期間では、スピーカ1Aから人工エコーが付加された原音が出力されるのでケプストラム解析をする。このケプストラム解析により、サンプリングした50msecのサンプル列から生成されたケプストラムには、図5(b)に示すように、先の2つのピークに対してさらに1つのピークが観測される。この新たなピークがケプストラムの原点+ta(例えば、ta=0.3msec)の位置に現れた場合はスピーカ1Aがユーザに最も近く、T1+taの位置に現れた場合はスピーカ1Aがユーザから2番目に遠く(または、2番目に近く)、T2+taの位置に現れた場合はスピーカ1Aがユーザから最も遠いことが分かる。これは、スピーカ1Aから出力されるエコーは、スピーカ1Aの原音の到達遅延とtaの和だけ遅れてユーザに到達するため、スピーカの位置を示すケプストラムの位置0, T1, T2に対してさらにta遅れた位置にケプストラムピークが現れるはずであるからである。図5(b)に示す例では、T1+taの位置に新たなピークが現れているので、ユーザから見たスピーカ1A,1B,1Cの距離順序はB<A<C、もしくはC<A<Bであることが分かる。   The cepstrum analysis is not performed during the 50 msec period after the period when two peaks can be observed in the cepstrum analysis result. This is because the artificial echo addition period (or fixed period) t1 is 100 msec, while the sampling period ts is 50 msec, so the next period is acquired 50 msec from the period in which two peaks are observed. This is because the artificial echo addition period can be acquired without straddling the period. Thus, in the next period after 50 msec, the original sound with the artificial echo added is output from the speaker 1A, so a cepstrum analysis is performed. In the cepstrum generated from the sampled sample sequence of 50 msec by this cepstrum analysis, as shown in FIG. 5B, one more peak is observed with respect to the previous two peaks. When this new peak appears at the position of the cepstrum origin + ta (for example, ta = 0.3 msec), the speaker 1A is closest to the user, and when it appears at the position of T1 + ta, the speaker 1A is second from the user. If it appears far away (or the second nearest) and appears at the position of T2 + ta, it can be seen that the speaker 1A is farthest from the user. This is because the echo output from the speaker 1A arrives at the user by the sum of the arrival delay of the original sound of the speaker 1A and the sum of ta, and therefore further to the cepstrum positions 0, T1, T2 indicating the position of the speaker. This is because a cepstrum peak should appear at a delayed position. In the example shown in FIG. 5B, since a new peak appears at the position of T1 + ta, the distance order of the speakers 1A, 1B, and 1C viewed from the user is B <A <C or C <A <. It turns out that it is B.

同様にして、次の50msecの期間はケプストラム解析をせず、その次の50msecの期間でケプストラム解析をして、ケプストラムのピークがT2+tb(例えば、tb=0.5msec)の位置に新たに現れたとすると、スピーカ1Aの場合と同様の論理でスピーカ1Bはユーザから最も遠い位置にあることが分かる。従って、ユーザから見たスピーカ1A,1B,1Cの距離順序は、C<A<Bであることが分かる。   Similarly, the cepstrum analysis is not performed for the next 50 msec period, the cepstrum analysis is performed for the next 50 msec period, and a cepstrum peak newly appears at the position of T2 + tb (eg, tb = 0.5 msec). Assuming that the speaker 1B is located farthest from the user by the same logic as that of the speaker 1A. Therefore, it can be seen that the distance order of the speakers 1A, 1B, and 1C viewed from the user is C <A <B.

プロセッサ21は、上記の如く求めたスピーカ1A,1B,1Cの距離順序と、スピーカ1A,1B,1Cの既知の位置を示す座標値とに基づいて、ユーザ位置を推定する。上記の処理結果から、スピーカ1Cとスピーカ1Aからの音のユーザへの到達時間差がT1であるということが分かる。空気中の音速は345m/secであるため、T1にこの音速の値を乗ずることにより、ユーザから見たスピーカ1Aとスピーカ1Cの距離差Lcaが求められる。ユーザから見たスピーカ1Cとスピーカ1Bの距離差Lcbも、同様の手法で求められる。   The processor 21 estimates the user position based on the distance order of the speakers 1A, 1B, and 1C obtained as described above and the coordinate values indicating the known positions of the speakers 1A, 1B, and 1C. From the above processing results, it can be seen that the difference in arrival time of the sound from the speakers 1C and 1A to the user is T1. Since the sound speed in the air is 345 m / sec, the distance difference Lca between the speaker 1A and the speaker 1C viewed from the user is obtained by multiplying T1 by the value of this sound speed. The distance difference Lcb between the speaker 1C and the speaker 1B as seen from the user can also be obtained by the same method.

一般に、2つの点からの距離差が一定の点をプロットすると、双曲線関数となることが知られている。そこで、双曲線における焦点をスピーカ1C,1Aとし、その距離差がLcaとなるような双曲線αが引ける。同様にして、双曲線における焦点をスピーカ1C,1Bとし、その距離差がLcbとなる双曲線βが引ける。ユーザは、これら2つの双曲線α,βを共に満たす位置にいることは明らかあるので、2連立双曲線方程式の交点を求めることによりユーザ位置を決定することが可能である。しかし、2連立双曲線方程式からは複数の解が導き出されるため、複数の解候補からユーザ位置を絞り込まなければならない。   In general, it is known that when a point having a constant distance difference between two points is plotted, a hyperbolic function is obtained. Therefore, the focal points of the hyperbola are the speakers 1C and 1A, and a hyperbola α is drawn so that the distance difference is Lca. Similarly, the focal points of the hyperbola are the speakers 1C and 1B, and a hyperbola β whose distance difference is Lcb can be drawn. Since it is clear that the user is in a position satisfying both of these two hyperbolic curves α and β, the user position can be determined by obtaining the intersection of the two simultaneous hyperbolic equations. However, since a plurality of solutions are derived from the two simultaneous hyperbolic equations, the user position must be narrowed down from a plurality of solution candidates.

なお、本実施例では、3個のスピーカ1A〜1Cを用いるため、双曲線は3つ存在し得るが、その中の2つの双曲線を選択して2連立双曲線方程式を構築し、2連立双曲線方程式の複数の解候補をユーザ位置の候補とする。   In the present embodiment, since three speakers 1A to 1C are used, there may be three hyperbolic curves. However, two hyperbolic equations are selected and two simultaneous hyperbolic equations are constructed, and two hyperbolic equations are selected. A plurality of solution candidates are set as user position candidates.

本実施例では、図6と共に説明する処理により2連立双曲線方程式の複数の解候補を絞り込む。図6は、ユーザ位置の解候補の絞り込み処理の一例を説明する図である。図6中、1A〜1Cは、スピーカ1A〜1Cの位置を示す。まず、各双曲線α,βは、図6中夫々一点鎖線及び二点鎖線で示すように、2つの曲線から構成されているが、上記の処理によりユーザから見た各スピーカ1A〜1Cの距離順序がC<A<Bであることが分かる。このため、ユーザから見た各スピーカ1A〜1Cの距離順序に基づいて、例えばスピーカ1A,1Cを焦点とする2つの双曲線α上では、スピーカ1Cに近い側の1つの双曲線α上にユーザが存在することが分かる。同様に、ユーザから見た各スピーカ1A〜1Cの距離順序に基づいて、スピーカ1B,1Cを焦点とする2つの双曲線β上では、スピーカ1Cに近い側の1つの双曲線β上にユーザが存在することが分かる。これにより、候補点(または、解候補)をP1,P2の2点に絞ることができる。さらに、ユーザは、スピーカ1A〜1Cに囲まれる領域内に存在するという前提から、最終的に候補点を1つ、すなわち、スピーカ1A〜1Cに囲まれる三角形の領域内に存在するP1に絞られる。この結果、候補点P1からユーザ位置の座標を推定することが可能となる。   In the present embodiment, a plurality of solution candidates for the two simultaneous hyperbolic equations are narrowed down by the process described with reference to FIG. FIG. 6 is a diagram illustrating an example of a narrowing process of solution candidates for user positions. In FIG. 6, 1A to 1C indicate positions of the speakers 1A to 1C. First, each hyperbola α, β is composed of two curves as shown by a one-dot chain line and a two-dot chain line in FIG. 6, but the distance order of the speakers 1A to 1C as viewed from the user by the above processing. It can be seen that C <A <B. For this reason, based on the distance order of each speaker 1A-1C seen from the user, for example, on two hyperbola α focusing on the speakers 1A, 1C, the user exists on one hyperbola α on the side closer to the speaker 1C. I understand that Similarly, on the two hyperbola β focusing on the speakers 1B and 1C based on the distance order of the speakers 1A to 1C as seen from the user, the user exists on one hyperbola β closer to the speaker 1C. I understand that. Thereby, candidate points (or solution candidates) can be narrowed down to two points P1 and P2. Further, on the assumption that the user exists in an area surrounded by the speakers 1A to 1C, the user is finally limited to one candidate point, that is, P1 existing in a triangular area surrounded by the speakers 1A to 1C. . As a result, it is possible to estimate the coordinates of the user position from the candidate point P1.

2連立双曲線方程式の解を導き出す手法は、上記の例に限定されず、他の適切な手法を用いても良い。例えば、スマートホンの場合、CPUに基本的なアプリケーションまで組み込まれたアプリケーションプロセッサに用意されている演算ライブラリを使用して2連立双曲線方程式の解を導き出すこともできる。   The method for deriving the solution of the two simultaneous hyperbolic equations is not limited to the above example, and other appropriate methods may be used. For example, in the case of a smart phone, it is possible to derive a solution of two simultaneous hyperbolic equations by using an operation library prepared in an application processor that incorporates even a basic application in the CPU.

図7は、プロセッサ21が実行する位置推定処理の一例を説明するフローチャートである。位置推定処理が開始されると、ステップS1は、マイクロホン26が検知した音のデータを例えばts=50msec単位でA/D変換して音源のサンプル列を取得する。ステップS2は、ステップS1で取得したサンプル列のケプストラム解析を行う。ステップS3は、ケプストラム解析結果にピークが2つあるか否かを判定し、判定結果がNOであると処理はステップS1へ戻る。ピークが2つの期間が発生した時点でステップS3の判定結果がYESとなり、同期が取れたと解釈して処理はステップS4へ進む。   FIG. 7 is a flowchart for explaining an example of the position estimation process executed by the processor 21. When the position estimation process is started, in step S1, the sound data detected by the microphone 26 is A / D converted, for example, in units of ts = 50 msec to obtain a sample sequence of the sound source. In step S2, cepstrum analysis of the sample sequence acquired in step S1 is performed. Step S3 determines whether there are two peaks in the cepstrum analysis result. If the determination result is NO, the process returns to step S1. When two peak periods occur, the determination result in step S3 is YES, and the processing proceeds to step S4, interpreting that synchronization has been achieved.

ステップS4は、次のts=50msecの期間のサンプル列を破棄することで、この期間のケプストラム解析を行わない。ステップS5は、スピーカ1Aの出力の人工エコー付加期間tsのサンプル列を取得し、ステップS6は、スピーカ1Aの出力の人工エコー付加期間tsのサンプル列のケプストラム解析を行う。ステップS7は、次のts=50msecの期間のサンプル列を破棄することで、この期間のケプストラム解析を行わない。ステップS8は、スピーカ1Bの出力の人工エコー付加期間tsのサンプル列を取得し、ステップS9は、スピーカ1Bの出力の人工エコー付加期間tsのサンプル列のケプストラム解析を行う。ステップS10は、次のts=50msecの期間のサンプル列を破棄することで、この期間のケプストラム解析を行わない。ステップS11は、スピーカ1Cの出力の人工エコー付加期間tsのサンプル列を取得し、ステップS12は、スピーカ1Cの出力の人工エコー付加期間tsのサンプル列のケプストラム解析を行う。   In step S4, the cepstrum analysis for this period is not performed by discarding the sample string for the next period of ts = 50 msec. In step S5, a sample sequence of the artificial echo addition period ts output from the speaker 1A is acquired, and in step S6, a cepstrum analysis is performed on the sample sequence of the artificial echo addition period ts output from the speaker 1A. In step S7, the cepstrum analysis for this period is not performed by discarding the sample string for the next period of ts = 50 msec. Step S8 obtains a sample string of the artificial echo addition period ts output from the speaker 1B, and step S9 performs cepstrum analysis of the sample string of the artificial echo addition period ts output from the speaker 1B. In step S10, the cepstrum analysis for this period is not performed by discarding the sample string for the next period of ts = 50 msec. Step S11 obtains a sample sequence of the artificial echo addition period ts output from the speaker 1C, and step S12 performs a cepstrum analysis of the sample sequence of the artificial echo addition period ts output from the speaker 1C.

ステップS13は、図5と共に説明した距離順序決定手法を用いて、3個のスピーカ1A〜1Cからユーザ位置までの距離順序を決定する。上記の例では、ユーザから見たスピーカ1A,1B,1Cの距離順序がC<A<Bに決定される。ステップS14は、上記の如く、最も近距離のスピーカを1つの焦点とする双曲線を2本引き、2つの双曲線の交点を導き出すことで、2連立双曲線方程式の複数の解候補を計算する。ステップS15は、図6と共に説明したように、ステップS13で既に決定されたスピーカ1A〜1Cの距離順序から複数の解候補を絞り、さらに、ユーザがスピーカ1A〜1Cに囲まれる領域に存在するという前提を用いて解候補を1つに絞り込むことで、ユーザ位置の座標を決定する。ステップS15の後、位置推定処理は終了する。   In step S13, the distance order from the three speakers 1A to 1C to the user position is determined using the distance order determination method described in conjunction with FIG. In the above example, the distance order of the speakers 1A, 1B, and 1C as viewed from the user is determined as C <A <B. In step S14, as described above, a plurality of candidate hyperbolic equations are calculated by drawing two hyperbolic curves having the focal point of the closest speaker and deriving the intersection of the two hyperbolic curves. In step S15, as described with reference to FIG. 6, a plurality of solution candidates are narrowed down from the distance order of the speakers 1A to 1C already determined in step S13, and the user is present in an area surrounded by the speakers 1A to 1C. The coordinates of the user position are determined by narrowing down the solution candidates to one using the premise. After step S15, the position estimation process ends.

位置推定プログラムは、半導体記憶装置、磁気記録媒体、光記録媒体、光磁気記録媒体などの適切なコンピュータ読み取り可能な記憶媒体に格納されていても良い。   The position estimation program may be stored in an appropriate computer-readable storage medium such as a semiconductor storage device, a magnetic recording medium, an optical recording medium, or a magneto-optical recording medium.

上記実施例では、スピーカ1A〜1Cの位置の座標値が既知であり、端末装置2に保存されていることが前提となっている。端末装置2にスピーカ1A〜1Cの位置の座標値を入力する手法は特に限定されない。例えば、ユーザがサービス提供者が提示しているスピーカの位置情報(スピーカ1A〜1Cの位置の座標値)を端末装置2の操作部30から入力しても、ユーザがサービス提供者のホームページで提示されているスピーカの位置情報を通信部29を介したインターネットアクセスにより入力しても、ユーザがサービス提供者が提示しているスピーカの位置情報をカメラ28で撮影して撮影画像の文字認識により入力しても、ユーザがサービス提供者が提示しているスピーカの位置情報に関するQR(Quick Response)コード(登録商標)のようなコードをカメラ28で撮影して撮影画像の画像認識により入力しても良い。   In the embodiment described above, it is assumed that the coordinate values of the positions of the speakers 1 </ b> A to 1 </ b> C are known and stored in the terminal device 2. The method of inputting the coordinate values of the positions of the speakers 1A to 1C to the terminal device 2 is not particularly limited. For example, even if the user inputs the position information of the speaker presented by the service provider (the coordinate values of the positions of the speakers 1A to 1C) from the operation unit 30 of the terminal device 2, the user presents it on the home page of the service provider Even if the position information of the speaker is input through the Internet access via the communication unit 29, the position information of the speaker presented by the service provider is captured by the camera 28 and input by character recognition of the captured image. Even if the user captures a code such as a QR (Quick Response) code (registered trademark) related to the position information of the speaker presented by the service provider with the camera 28 and inputs it by image recognition of the captured image. good.

図8は、プロセッサ21が実行するスピーカ位置取得処理の一例を説明するフローチャートである。スピーカ位置取得処理は、上記の位置推定処理を行う前に実行される。この例では、サービス提供者が予めスピーカ1A〜1Cの位置の座標値(スピーカの位置情報)に関するQRコード(登録商標)のようなコードを店舗内で提供しており、ユーザは端末装置2のカメラ28でQRコードを撮影するものとする。ステップS21は、カメラ28でQRコードが撮影可能であるか否かを判定する。ステップS21の判定結果がYESであると処理はステップS22へ進み、判定結果がNOであると処理はステップS23へ進む。ステップS22は、QRコードの撮影画像の画像認識を行うことで、店舗内のスピーカ1A〜1Cの位置の座標値を取得してメモリ25またはデータメモリ32に格納する。ステップS23は、QRコード以外の方法で、サービス提供者が予め提示しているスピーカ1A〜1Cの位置の座標値を取得する。具体的には、ユーザが、サービス提供者が印刷物などにより予め提示しているスピーカ1A〜1Cの位置の座標値を端末装置2の操作部30から入力したり、サービス提供者のホームページで提示されているスピーカの位置の座標値を通信部29を介したインターネットアクセスにより入力したり、サービス提供者が店舗内の掲示板などで提示しているスピーカの位置の座標値をカメラ28で撮影して撮影画像の文字認識により入力したりすることが可能であり、入力されたスピーカの位置の座標値はメモリ25またはデータメモリ32に格納する。ステップS22またはステップS23の後、スピーカ位置取得処理は終了する。   FIG. 8 is a flowchart for explaining an example of the speaker position acquisition process executed by the processor 21. The speaker position acquisition process is executed before the position estimation process described above. In this example, the service provider provides a code such as a QR code (registered trademark) relating to the coordinate values (speaker position information) of the positions of the speakers 1A to 1C in advance in the store. Assume that the camera 28 takes a QR code. In step S21, it is determined whether a QR code can be captured by the camera 28 or not. If the determination result in step S21 is YES, the process proceeds to step S22, and if the determination result is NO, the process proceeds to step S23. In step S22, the coordinate values of the positions of the speakers 1A to 1C in the store are acquired by performing image recognition of the captured image of the QR code, and stored in the memory 25 or the data memory 32. In step S23, the coordinate values of the positions of the speakers 1A to 1C previously presented by the service provider are acquired by a method other than the QR code. Specifically, the user inputs the coordinate values of the positions of the speakers 1A to 1C that the service provider presents in advance by printed matter or the like from the operation unit 30 of the terminal device 2, or is presented on the home page of the service provider. The coordinate value of the position of the speaker is input by Internet access via the communication unit 29, or the coordinate value of the position of the speaker presented by the service provider on the bulletin board in the store is photographed by the camera 28. It is possible to input by image character recognition, and the input coordinate value of the speaker position is stored in the memory 25 or the data memory 32. After step S22 or step S23, the speaker position acquisition process ends.

ユーザ位置の推定精度は、端末装置2が有するマイクロホン26と、マイクロホン26の出力をサンプリングしてA/D変換するプロセッサ21のADC(Analog-to-Digital Converter)機能のサンプリングレートに依存する。例えば、サンプリングレートが48kHzの場合、1/48(kHz)×345(m/sec) ≒ 0.72cmの精度でユーザ位置が推定可能である。また、上記実施例では、音速が345m/secであると仮定しているが、音速は気温に応じて変動するため、端末装置2の温度センサ27が検知した環境温度に応じて音速の値を補正しても良い。温度センサ27を用いた場合にプロセッサ21の補正処理で用いる音速補正式の一例は、次の通りである。   The estimation accuracy of the user position depends on the sampling rate of the microphone 26 of the terminal device 2 and the ADC (Analog-to-Digital Converter) function of the processor 21 that samples the output of the microphone 26 and performs A / D conversion. For example, when the sampling rate is 48 kHz, the user position can be estimated with an accuracy of 1/48 (kHz) × 345 (m / sec) ≈0.72 cm. In the above embodiment, it is assumed that the sound speed is 345 m / sec. However, since the sound speed fluctuates according to the air temperature, the sound speed value is set according to the environmental temperature detected by the temperature sensor 27 of the terminal device 2. It may be corrected. An example of the sound velocity correction formula used in the correction process of the processor 21 when the temperature sensor 27 is used is as follows.

音速 = 331 + 0.6Temp [m/sec]
ここで、Tempは温度センサ27で検知された摂氏温度である。このように、温度に応じて音速の値を補正することにより、より高精度にユーザ位置を推定することが可能となる。
Speed of sound = 331 + 0.6Temp [m / sec]
Here, Temp is a Celsius temperature detected by the temperature sensor 27. Thus, by correcting the value of the sound speed according to the temperature, it becomes possible to estimate the user position with higher accuracy.

開示の位置推定方法、装置及びプログラムによれば、低コストで高精度に局所位置を推定することができる。つまり、PC、スピーカ、端末装置などのレガシーな装置のみを用いた簡便で低コストな局所位置推定システムを構築することが可能である。   According to the disclosed position estimation method, apparatus, and program, a local position can be estimated with high accuracy at low cost. That is, it is possible to construct a simple and low-cost local position estimation system that uses only legacy devices such as PCs, speakers, and terminal devices.

サービス提供者側で必要となるスピーカには、比較的低コストのものを利用可能であり、各スピーカから出力される音に互いに異なる遅延の人工エコーを付加させるには、PCなどの汎用コンピュータを用いて予め音源を作成しておけば良い。また、各スピーカから異なる人工エコーを付加した音源を出力させるためには、例えば既存の5.1チャネルのAVアンプなどのマルチチャネル再生機器などを用いることで容易に実現できる。   Speakers required on the service provider side can be used at a relatively low cost, and a general-purpose computer such as a PC is used to add artificial echoes with different delays to the sound output from each speaker. It is sufficient to create a sound source in advance. Further, in order to output a sound source to which different artificial echoes are added from each speaker, it can be easily realized by using a multi-channel playback device such as an existing 5.1 channel AV amplifier, for example.

ユーザ側で必要となる端末装置は、マイクロホンと位置推定処理を実行するためのプロセッサであり、これらは一般的なスマートフォンやタブレットPCなどのアプリケーションプロセッサを搭載した装置などで実現可能である。   A terminal device required on the user side is a microphone and a processor for executing position estimation processing, and these can be realized by a device equipped with an application processor such as a general smartphone or tablet PC.

また、音に位置情報を埋め込むことにより、例えば店内放送や、店内を流れる楽曲などに情報を隠匿させることができ、既存のサービスとの親和性やユーザ側の使用感としても違和感が発生しない。   In addition, by embedding position information in the sound, for example, information can be concealed in in-store broadcasts, music flowing in the store, and the like, and there is no sense of incongruity in terms of compatibility with existing services and user-side usage.

位置推定処理によりユーザが取得した位置情報は、例えば端末装置の表示部に表示した地図あるいはレイアウト上に示すことで、ユーザへの案内情報として用いることができる。一方、サービス提供者がユーザが取得した位置情報を取得可能な場合には、ユーザ位置に応じた案内をユーザに提供することができる。ユーザ位置が取得できれば、サービス提供者は例えば店舗内のユーザ位置付近に設置されている商品棚に陳列されている商品の説明などの案内情報を音声または文字情報で端末装置に送信してユーザに提供したり、商品棚付近のスピーカから音声案内情報を提供することができる。   The position information acquired by the user through the position estimation process can be used as guide information to the user by, for example, showing it on a map or layout displayed on the display unit of the terminal device. On the other hand, when the service provider can acquire the position information acquired by the user, guidance according to the user position can be provided to the user. If the user position can be acquired, the service provider transmits guidance information such as explanation of products displayed on the product shelf installed near the user position in the store to the terminal device by voice or text information to the user. Voice guidance information can be provided from a speaker near the product shelf.

なお、上記実施例のようにスピーカの数が3個の場合と比較すると信号処理が多少複雑になるが、開示の位置推定方法、装置及びプログラムはスピーカの数が4個以上の場合にも同様に適用可能である。   Note that the signal processing is somewhat complicated as compared with the case where the number of speakers is three as in the above embodiment, but the disclosed position estimation method, apparatus and program are the same when the number of speakers is four or more. It is applicable to.

以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
同一平面上に設けられた3個のスピーカから同じ原音を一定期間のみ各スピーカ毎に異なる遅延時間の人工エコーを付加して出力し、各スピーカの出力に人工エコーが付加されている一定期間と他のスピーカの出力に人工エコーが付加されている一定期間とは排他的関係にあり、前記3個のスピーカ全ての出力に人工エコーが付加されていない一定期間が設けられ、
端末装置において、前記3個のスピーカの出力をマイクロホンで検知してサンプリングしたサンプル列のケプストラム解析でケプストラムを生成し、
前記端末装置において、前記ケプストラムのピークに基づき前記端末装置の位置から前記3個のスピーカの夫々までの距離の大小関係を示す距離順序を取得し、
前記端末装置において、前記距離順序と前記3個のスピーカの既知の位置とに基づいて前記端末装置の位置を推定する
ことを特徴とする、位置推定方法。
(付記2)
前記端末装置の位置の推定は、
前記3個のうち一対のスピーカの出力の前記マイクロホンへの到達時間差と音速の積から前記端末装置から見た前記一対のスピーカの距離差Lcaを求め、
前記3個のうち他の一対のスピーカの出力の前記マイクロホンへの到達時間差と音速の積から前記端末装置から見た前記他の一対のスピーカの距離差Lcbを求め、
焦点を前記一対のスピーカとして距離差がLcaとなる双曲線αと、焦点を前記他の一対のスピーカとして距離差がLcbとなる双曲線βを求め、
前記双曲線α,βを共に満たす連立双曲線方程式の交点から前記端末装置の位置を決定する
ことを特徴とする、付記1記載の位置推定方法。
(付記3)
前記連立双曲線方程式の複数の解候補を、前記端末装置から見た前記3個のスピーカの距離順序に基づいて絞り込む
ことを特徴とする、付記2記載の位置推定方法。
(付記4)
前記連立双曲線方程式の複数の解候補を前記距離順序に基づいて絞り込んだ後、前記3個のスピーカの位置を頂点とする三角形の領域内の解候補に絞り込む
ことを特徴とする、付記3記載の位置推定方法。
(付記5)
前記端末装置において、温度センサで検知した環境温度に応じて前記音速の値を補正する
ことを特徴とする、付記1乃至4のいずれか1項記載の位置推定方法。
(付記6)
前記ケプストラム解析を
Cepstrum = IFFT(log(abs(FFT(X))))
なる式に基づいて行い、Xはデジタル録音されたサンプルのベクトル、FFTは高速フーリエ変換、abs は絶対値取得、logは対数(対数の底は任意)、IFFTは逆高速フーリエ変換を行う関数である
ことを特徴とする、付記1乃至5のいずれか1項記載の位置推定方法。
(付記7)
前記端末装置において、前記3個のスピーカの既知の位置を示す情報をカメラで撮影し、撮影された情報の画像認識または文字認識で認識された前記既知の位置の座標値をメモリに格納する
ことを特徴とする、付記1乃至6のいずれか1項記載の位置推定方法。
(付記8)
同一平面上に設けられた3個のスピーカから同じ原音を一定期間のみ各スピーカ毎に異なる遅延時間の人工エコーを付加して出力し、各スピーカの出力に人工エコーが付加されている一定期間と他のスピーカの出力に人工エコーが付加されている一定期間とは排他的関係にあり、前記3個のスピーカ全ての出力に人工エコーが付加されていない一定期間が設けられるシステムで用いる位置推定装置であって、
前記3個のスピーカの出力を検知するマイクロホンと、
前記マイクロホンの検知出力に基づいて前記位置推定装置の位置を推定する位置推定処理を実行するプロセッサとを備え、
前記位置推定処理は、
前記検知出力をサンプリングしたサンプル列のケプストラム解析でケプストラムを生成し、
前記ケプストラムのピークに基づき前記位置推定装置の位置から前記3個のスピーカの夫々までの距離の大小関係を示す距離順序を取得し、
前記距離順序と前記3個のスピーカの既知の位置とに基づいて前記位置推定装置の位置を推定する
ことを特徴とする、位置推定装置。
(付記9)
前記位置推定処理は、
前記3個のうち一対のスピーカの出力の前記マイクロホンへの到達時間差と音速の積から前記位置推定装置から見た前記一対のスピーカの距離差Lcaを求め、
前記3個のうち他の一対のスピーカの出力の前記マイクロホンへの到達時間差と音速の積から前記位置推定装置から見た前記他の一対のスピーカの距離差Lcbを求め、
焦点を前記一対のスピーカとして距離差がLcaとなる双曲線αと、焦点を前記他の一対のスピーカとして距離差がLcbとなる双曲線βを求め、
前記双曲線α,βを共に満たす連立双曲線方程式の交点から前記位置推定装置の位置を決定する
ことを特徴とする、付記8記載の位置推定装置。
(付記10)
前記位置推定処理は、前記連立双曲線方程式の複数の解候補を、前記位置推定装置から見た前記3個のスピーカの距離順序に基づいて絞り込む
ことを特徴とする、付記9記載の位置推定装置。
(付記11)
前記位置推定処理は、前記連立双曲線方程式の複数の解候補を前記距離順序に基づいて絞り込んだ後、前記3個のスピーカの位置を頂点とする三角形の領域内の解候補に絞り込む
ことを特徴とする、付記10記載の位置推定装置。
(付記12)
環境温度を検知する温度センサ
を更に備え、
前記位置推定処理は、前記温度センサで検知された環境温度に応じて前記音速の値を補正する
ことを特徴とする、付記8乃至11のいずれか1項記載の位置推定装置。
(付記13)
前記位置推定処理は、前記ケプストラム解析を
Cepstrum = IFFT(log(abs(FFT(X))))
なる式に基づいて行い、Xはデジタル録音されたサンプルのベクトル、FFTは高速フーリエ変換、abs は絶対値取得、logは対数(対数の底は任意)、IFFTは逆高速フーリエ変換を行う関数である
ことを特徴とする、付記8乃至12のいずれか1項記載の位置推定装置。
(付記14)
カメラと、
メモリ
を更に備え、
前記プロセッサは、前記カメラが前記3個のスピーカの既知の位置を示す情報を撮影すると、撮影された情報の画像認識または文字認識で認識された前記既知の位置の座標値を前記メモリに格納する
ことを特徴とする、付記8乃至13のいずれか1項記載の位置推定装置。
(付記15)
同一平面上に設けられた3個のスピーカから同じ原音を一定期間のみ各スピーカ毎に異なる遅延時間の人工エコーを付加して出力し、各スピーカの出力に人工エコーが付加されている一定期間と他のスピーカの出力に人工エコーが付加されている一定期間とは排他的関係にあり、前記3個のスピーカ全ての出力に人工エコーが付加されていない一定期間が設けられるシステムにおいて、端末装置のコンピュータに位置推定処理を実行させるプログラムであって、
前記3個のスピーカの出力を前記端末装置のマイクロホンで検知してサンプリングしたサンプル列のケプストラム解析でケプストラムを生成する手順と、
前記ケプストラムのピークに基づき前記端末装置の位置から前記3個のスピーカの夫々までの距離の大小関係を示す距離順序を取得する手順と、
前記距離順序と前記3個のスピーカの既知の位置とに基づいて前記端末装置の位置を推定する手順
を前記コンピュータに実行させることを特徴とする、プログラム。
(付記16)
前記端末装置の位置を推定する手順は、
前記3個のうち一対のスピーカの出力の前記マイクロホンへの到達時間差と音速の積から前記位置推定装置から見た前記一対のスピーカの距離差Lcaを求める手順と、
前記3個のうち他の一対のスピーカの出力の前記マイクロホンへの到達時間差と音速の積から前記位置推定装置から見た前記他の一対のスピーカの距離差Lcbを求める手順と、
焦点を前記一対のスピーカとして距離差がLcaとなる双曲線αと、焦点を前記他の一対のスピーカとして距離差がLcbとなる双曲線βを求める手順と、
前記双曲線α,βを共に満たす連立双曲線方程式の交点から前記位置推定装置の位置を決定する手順
を含むことを特徴とする、付記15記載のプログラム。
(付記17)
前記端末装置の位置を推定する手順は、前記連立双曲線方程式の複数の解候補を、前記位置推定装置から見た前記3個のスピーカの距離順序に基づいて絞り込む手順
を更に含むことを特徴とする、付記16記載のプログラム。
(付記18)
前記端末装置の位置を推定する手順は、前記連立双曲線方程式の複数の解候補を前記距離順序に基づいて絞り込んだ後、前記3個のスピーカの位置を頂点とする三角形の領域内の解候補に絞り込む手順
を更に含むことを特徴とする、付記17記載のプログラム。
(付記19)
前記端末装置の温度センサで検知した環境温度に応じて前記音速の値を補正する手順
を前記コンピュータに実行させることを特徴とする、付記15乃至18のいずれか1項記載のプログラム。
(付記20)
前記ケプストラムを生成する手順は、前記ケプストラム解析を
Cepstrum = IFFT(log(abs(FFT(X))))
なる式に基づいて行い、Xはデジタル録音されたサンプルのベクトル、FFTは高速フーリエ変換、abs は絶対値取得、logは対数(対数の底は任意)、IFFTは逆高速フーリエ変換を行う関数である
ことを特徴とする、付記15乃至19のいずれか1項記載のプログラム。
(付記21)
前記端末装置のカメラで撮影された前記3個のスピーカの既知の位置を示す情報の画像認識または文字認識で認識された前記既知の位置の座標値を前記端末装置のメモリに格納する手順
を前記コンピュータに実行させることを特徴とする、付記15乃至20のいずれか1項記載のプログラム。
The following additional notes are further disclosed with respect to the embodiment including the above examples.
(Appendix 1)
The same original sound is output from three speakers provided on the same plane with artificial echoes having different delay times for each speaker only for a certain period, and the artificial echo is added to the output of each speaker. There is an exclusive relationship with a fixed period in which artificial echoes are added to the output of other speakers, and a fixed period in which artificial echoes are not added to the outputs of all three speakers is provided,
In the terminal device, the cepstrum is generated by the cepstrum analysis of the sample sequence obtained by detecting the output of the three speakers with the microphone,
In the terminal device, based on the cepstrum peak, obtain a distance order indicating a magnitude relationship of the distance from the position of the terminal device to each of the three speakers,
In the terminal device, the position estimation method estimates the position of the terminal device based on the distance order and the known positions of the three speakers.
(Appendix 2)
The position of the terminal device is estimated as follows:
The distance difference Lca between the pair of speakers viewed from the terminal device is determined from the product of the arrival time difference between the outputs of the pair of speakers among the three and the sound velocity,
The distance difference Lcb between the other pair of speakers viewed from the terminal device is obtained from the product of the arrival time difference between the output of the other pair of speakers among the three and the sound speed, and the sound speed,
A hyperbola α whose distance difference is Lca with the pair of speakers as the focal point, and a hyperbola β whose distance difference is Lcb with the other pair of speakers as the focal point,
The position estimation method according to claim 1, wherein the position of the terminal device is determined from an intersection of simultaneous hyperbolic equations satisfying both the hyperbola α and β.
(Appendix 3)
The position estimation method according to claim 2, wherein a plurality of solution candidates for the simultaneous hyperbolic equations are narrowed down based on a distance order of the three speakers as viewed from the terminal device.
(Appendix 4)
The plurality of solution candidates of the simultaneous hyperbolic equations are narrowed down based on the distance order, and then are narrowed down to solution candidates in a triangular region whose vertex is the position of the three speakers. Position estimation method.
(Appendix 5)
The position estimation method according to any one of appendices 1 to 4, wherein in the terminal device, the value of the sound velocity is corrected according to an environmental temperature detected by a temperature sensor.
(Appendix 6)
The cepstrum analysis
Cepstrum = IFFT (log (abs (FFT (X))))
X is a vector of digitally recorded samples, FFT is a fast Fourier transform, abs is an absolute value acquisition, log is a logarithm (the base of the logarithm is arbitrary), IFFT is a function that performs inverse fast Fourier transform The position estimation method according to any one of appendices 1 to 5, wherein the position estimation method is provided.
(Appendix 7)
In the terminal device, information indicating the known positions of the three speakers is photographed by a camera, and the coordinate values of the known positions recognized by image recognition or character recognition of the photographed information are stored in a memory. The position estimation method according to any one of appendices 1 to 6, wherein:
(Appendix 8)
The same original sound is output from three speakers provided on the same plane with artificial echoes having different delay times for each speaker only for a certain period, and the artificial echo is added to the output of each speaker. Position estimation apparatus used in a system that has an exclusive relationship with a fixed period in which artificial echo is added to the output of another speaker and has a fixed period in which no artificial echo is added to the outputs of all three speakers Because
A microphone for detecting the output of the three speakers;
A processor that executes position estimation processing for estimating the position of the position estimation device based on the detection output of the microphone;
The position estimation process includes:
A cepstrum is generated by cepstrum analysis of a sample sequence obtained by sampling the detection output,
Based on the cepstrum peak, obtain a distance order indicating the magnitude relationship of the distance from the position of the position estimation device to each of the three speakers,
A position estimation device that estimates the position of the position estimation device based on the distance order and the known positions of the three speakers.
(Appendix 9)
The position estimation process includes:
The distance difference Lca between the pair of speakers as viewed from the position estimation device is obtained from the product of the arrival time difference of the outputs of the pair of speakers to the microphone and the sound speed of the three speakers,
The distance difference Lcb between the other pair of speakers as viewed from the position estimation device is obtained from the product of the arrival time difference between the output of the other pair of speakers to the microphone and the sound speed of the three pairs,
A hyperbola α whose distance difference is Lca with the pair of speakers as the focal point, and a hyperbola β whose distance difference is Lcb with the other pair of speakers as the focal point,
The position estimation apparatus according to appendix 8, wherein the position estimation apparatus determines a position of the position estimation apparatus from an intersection of simultaneous hyperbolic equations satisfying both the hyperbola α and β.
(Appendix 10)
The position estimation apparatus according to appendix 9, wherein the position estimation process narrows down a plurality of solution candidates of the simultaneous hyperbolic equations based on a distance order of the three speakers as viewed from the position estimation apparatus.
(Appendix 11)
In the position estimation process, after narrowing down a plurality of solution candidates of the simultaneous hyperbolic equations based on the distance order, the solution is narrowed down to solution candidates in a triangular region having the positions of the three speakers as vertices. The position estimation apparatus according to appendix 10.
(Appendix 12)
A temperature sensor for detecting the environmental temperature;
The position estimation apparatus according to any one of appendices 8 to 11, wherein the position estimation process corrects the value of the sound velocity according to an environmental temperature detected by the temperature sensor.
(Appendix 13)
In the position estimation process, the cepstrum analysis is performed.
Cepstrum = IFFT (log (abs (FFT (X))))
X is a vector of digitally recorded samples, FFT is a fast Fourier transform, abs is an absolute value acquisition, log is a logarithm (the base of the logarithm is arbitrary), IFFT is a function that performs inverse fast Fourier transform The position estimation apparatus according to any one of appendices 8 to 12, wherein the position estimation apparatus is provided.
(Appendix 14)
A camera,
Further comprising a memory,
When the camera captures information indicating a known position of the three speakers, the processor stores the coordinate value of the known position recognized by image recognition or character recognition of the captured information in the memory. 14. The position estimation device according to any one of appendices 8 to 13, characterized in that:
(Appendix 15)
The same original sound is output from three speakers provided on the same plane with artificial echoes having different delay times for each speaker only for a certain period, and the artificial echo is added to the output of each speaker. In a system in which a fixed period in which artificial echoes are added to the outputs of other speakers is provided and a fixed period in which artificial echoes are not added to the outputs of all three speakers is provided, A program for causing a computer to execute position estimation processing,
A procedure for generating a cepstrum by cepstrum analysis of a sample sequence obtained by detecting outputs of the three speakers with a microphone of the terminal device;
A procedure for obtaining a distance order indicating a magnitude relationship of distances from the position of the terminal device to each of the three speakers based on the peak of the cepstrum;
A program for causing the computer to execute a procedure for estimating the position of the terminal device based on the distance order and the known positions of the three speakers.
(Appendix 16)
The procedure for estimating the position of the terminal device is as follows:
A procedure for obtaining a distance difference Lca between the pair of speakers as viewed from the position estimation device from a product of an arrival time difference of the output of the pair of speakers to the microphone and a sound speed among the three;
A procedure for obtaining a distance difference Lcb between the other pair of speakers as viewed from the position estimation device from a product of arrival time difference between the output of the other pair of speakers to the microphone and sound speed among the three pairs,
A procedure for obtaining a hyperbola α whose distance difference is Lca when the focal point is the pair of speakers, and a hyperbola β whose distance difference is Lcb when the focal point is the other pair of speakers,
The program according to claim 15, further comprising a procedure for determining a position of the position estimation device from an intersection of simultaneous hyperbolic equations satisfying both the hyperbolic α and β.
(Appendix 17)
The procedure of estimating the position of the terminal device further includes a procedure of narrowing down a plurality of solution candidates of the simultaneous hyperbolic equations based on a distance order of the three speakers viewed from the position estimation device. The program according to appendix 16.
(Appendix 18)
The procedure for estimating the position of the terminal device is to narrow down a plurality of solution candidates of the simultaneous hyperbolic equations based on the distance order, and then select a solution candidate in a triangular region having the positions of the three speakers as vertices. The program according to appendix 17, further comprising a narrowing-down procedure.
(Appendix 19)
The program according to any one of appendices 15 to 18, which causes the computer to execute a procedure of correcting the value of the sound velocity according to an environmental temperature detected by a temperature sensor of the terminal device.
(Appendix 20)
The procedure for generating the cepstrum includes the cepstrum analysis.
Cepstrum = IFFT (log (abs (FFT (X))))
X is a vector of digitally recorded samples, FFT is a fast Fourier transform, abs is an absolute value acquisition, log is a logarithm (the base of the logarithm is arbitrary), IFFT is a function that performs inverse fast Fourier transform 20. The program according to any one of appendices 15 to 19, which is characterized in that it exists.
(Appendix 21)
Storing the coordinate values of the known positions recognized by image recognition or character recognition of information indicating the known positions of the three speakers taken by the camera of the terminal device in the memory of the terminal device; 21. The program according to any one of appendices 15 to 20, wherein the program is executed by a computer.

以上、開示の位置推定方法、装置及びプログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。   Although the disclosed position estimation method, apparatus, and program have been described in the above embodiments, the present invention is not limited to the above embodiments, and various modifications and improvements can be made within the scope of the present invention. Needless to say.

1A〜1C スピーカ
2 端末装置
11 PC
12A〜12C 加算回路
13A〜13C 遅延回路
14A〜14C セレクタ
15A〜15C DAC
16A〜16C アンプ
21 プロセッサ
22 DMAC
25 メモリ
26 マイクロホン
30 操作部
1A to 1C Speaker 2 Terminal device 11 PC
12A to 12C Adder circuit 13A to 13C Delay circuit 14A to 14C Selector 15A to 15C DAC
16A-16C Amplifier 21 Processor 22 DMAC
25 Memory 26 Microphone 30 Operation unit

Claims (6)

同一平面上に設けられた3個のスピーカから同じ原音を一定期間のみ各スピーカ毎に異なる遅延時間の人工エコーを付加して出力し、各スピーカの出力に人工エコーが付加されている一定期間と他のスピーカの出力に人工エコーが付加されている一定期間とは排他的関係にあり、前記3個のスピーカ全ての出力に人工エコーが付加されていない一定期間が設けられるシステムで用いる位置推定装置であって、
前記3個のスピーカの出力を検知するマイクロホンと、
前記マイクロホンの検知出力に基づいて前記位置推定装置の位置を推定する位置推定処理を実行するプロセッサとを備え、
前記位置推定処理は、
前記検知出力をサンプリングしたサンプル列のケプストラム解析でケプストラムを生成し、
前記ケプストラムのピークに基づき前記位置推定装置の位置から前記3個のスピーカの夫々までの距離の大小関係を示す距離順序を取得し、
前記距離順序と前記3個のスピーカの既知の位置とに基づいて前記位置推定装置の位置を推定する
ことを特徴とする、位置推定装置。
The same original sound is output from three speakers provided on the same plane with artificial echoes having different delay times for each speaker only for a certain period, and the artificial echo is added to the output of each speaker. Position estimation apparatus used in a system that has an exclusive relationship with a fixed period in which artificial echo is added to the output of another speaker and has a fixed period in which no artificial echo is added to the outputs of all three speakers Because
A microphone for detecting the output of the three speakers;
A processor that executes position estimation processing for estimating the position of the position estimation device based on the detection output of the microphone;
The position estimation process includes:
A cepstrum is generated by cepstrum analysis of a sample sequence obtained by sampling the detection output,
Based on the cepstrum peak, obtain a distance order indicating the magnitude relationship of the distance from the position of the position estimation device to each of the three speakers,
A position estimation device that estimates the position of the position estimation device based on the distance order and the known positions of the three speakers.
前記位置推定処理は、
前記3個のうち一対のスピーカの出力の前記マイクロホンへの到達時間差と音速の積から前記位置推定装置から見た前記一対のスピーカの距離差Lcaを求め、
前記3個のうち他の一対のスピーカの出力の前記マイクロホンへの到達時間差と音速の積から前記位置推定装置から見た前記他の一対のスピーカの距離差Lcbを求め、
焦点を前記一対のスピーカとして距離差がLcaとなる双曲線αと、焦点を前記他の一対のスピーカとして距離差がLcbとなる双曲線βを求め、
前記双曲線α,βを共に満たす連立双曲線方程式の交点から前記位置推定装置の位置を決定する
ことを特徴とする、請求項2記載の位置推定装置。
The position estimation process includes:
The distance difference Lca between the pair of speakers as viewed from the position estimation device is obtained from the product of the arrival time difference of the outputs of the pair of speakers to the microphone and the sound speed of the three speakers,
The distance difference Lcb between the other pair of speakers as viewed from the position estimation device is obtained from the product of the arrival time difference between the output of the other pair of speakers to the microphone and the sound speed of the three pairs,
A hyperbola α whose distance difference is Lca with the pair of speakers as the focal point, and a hyperbola β whose distance difference is Lcb with the other pair of speakers as the focal point,
3. The position estimating apparatus according to claim 2, wherein the position of the position estimating apparatus is determined from an intersection of simultaneous hyperbolic equations satisfying both the hyperbola α and β.
前記位置推定処理は、前記連立双曲線方程式の複数の解候補を、前記位置推定装置から見た前記3個のスピーカの距離順序に基づいて絞り込む
ことを特徴とする、請求項2記載の位置推定装置。
The position estimation device according to claim 2, wherein the position estimation process narrows down a plurality of solution candidates of the simultaneous hyperbolic equations based on a distance order of the three speakers viewed from the position estimation device. .
前記位置推定処理は、前記連立双曲線方程式の複数の解候補を前記距離順序に基づいて絞り込んだ後、前記3個のスピーカの位置を頂点とする三角形の領域内の解候補に絞り込む
ことを特徴とする、請求項3記載の位置推定装置。
In the position estimation process, after narrowing down a plurality of solution candidates of the simultaneous hyperbolic equations based on the distance order, the solution is narrowed down to solution candidates in a triangular region having the positions of the three speakers as vertices. The position estimation apparatus according to claim 3.
同一平面上に設けられた3個のスピーカから同じ原音を一定期間のみ各スピーカ毎に異なる遅延時間の人工エコーを付加して出力し、各スピーカの出力に人工エコーが付加されている一定期間と他のスピーカの出力に人工エコーが付加されている一定期間とは排他的関係にあり、前記3個のスピーカ全ての出力に人工エコーが付加されていない一定期間が設けられるシステムにおいて、端末装置のコンピュータに位置推定処理を実行させるプログラムであって、
前記3個のスピーカの出力を前記端末装置のマイクロホンで検知してサンプリングしたサンプル列のケプストラム解析でケプストラムを生成する手順と、
前記ケプストラムのピークに基づき前記端末装置の位置から前記3個のスピーカの夫々までの距離の大小関係を示す距離順序を取得する手順と、
前記距離順序と前記3個のスピーカの既知の位置とに基づいて前記端末装置の位置を推定する手順
を前記コンピュータに実行させることを特徴とする、プログラム。
The same original sound is output from three speakers provided on the same plane with artificial echoes having different delay times for each speaker only for a certain period, and the artificial echo is added to the output of each speaker. In a system in which a fixed period in which artificial echoes are added to the outputs of other speakers is provided and a fixed period in which artificial echoes are not added to the outputs of all three speakers is provided, A program for causing a computer to execute position estimation processing,
A procedure for generating a cepstrum by cepstrum analysis of a sample sequence obtained by detecting outputs of the three speakers with a microphone of the terminal device;
A procedure for obtaining a distance order indicating a magnitude relationship of distances from the position of the terminal device to each of the three speakers based on the peak of the cepstrum;
A program for causing the computer to execute a procedure for estimating the position of the terminal device based on the distance order and the known positions of the three speakers.
同一平面上に設けられた3個のスピーカから同じ原音を一定期間のみ各スピーカ毎に異なる遅延時間の人工エコーを付加して出力し、各スピーカの出力に人工エコーが付加されている一定期間と他のスピーカの出力に人工エコーが付加されている一定期間とは排他的関係にあり、前記3個のスピーカ全ての出力に人工エコーが付加されていない一定期間が設けられ、
端末装置において、前記3個のスピーカの出力をマイクロホンで検知してサンプリングしたサンプル列のケプストラム解析でケプストラムを生成し、
前記端末装置において、前記ケプストラムのピークに基づき前記端末装置の位置から前記3個のスピーカの夫々までの距離の大小関係を示す距離順序を取得し、
前記端末装置において、前記距離順序と前記3個のスピーカの既知の位置とに基づいて前記端末装置の位置を推定する
ことを特徴とする、位置推定方法。
The same original sound is output from three speakers provided on the same plane with artificial echoes having different delay times for each speaker only for a certain period, and the artificial echo is added to the output of each speaker. There is an exclusive relationship with a fixed period in which artificial echoes are added to the output of other speakers, and a fixed period in which artificial echoes are not added to the outputs of all three speakers is provided,
In the terminal device, the cepstrum is generated by the cepstrum analysis of the sample sequence obtained by detecting the output of the three speakers with the microphone,
In the terminal device, based on the cepstrum peak, obtain a distance order indicating a magnitude relationship of the distance from the position of the terminal device to each of the three speakers,
In the terminal device, the position estimation method estimates the position of the terminal device based on the distance order and the known positions of the three speakers.
JP2012066431A 2012-03-22 2012-03-22 Position estimation method, apparatus and program Expired - Fee Related JP5929393B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012066431A JP5929393B2 (en) 2012-03-22 2012-03-22 Position estimation method, apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012066431A JP5929393B2 (en) 2012-03-22 2012-03-22 Position estimation method, apparatus and program

Publications (2)

Publication Number Publication Date
JP2013195405A true JP2013195405A (en) 2013-09-30
JP5929393B2 JP5929393B2 (en) 2016-06-08

Family

ID=49394509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012066431A Expired - Fee Related JP5929393B2 (en) 2012-03-22 2012-03-22 Position estimation method, apparatus and program

Country Status (1)

Country Link
JP (1) JP5929393B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017511886A (en) * 2014-03-03 2017-04-27 ローズマウント インコーポレイテッド Indoor positioning system
KR20170074322A (en) * 2015-12-21 2017-06-30 서울대학교산학협력단 The method of indoor localization using pre-designed acoustic source data
US10942250B2 (en) 2014-03-03 2021-03-09 Rosemount Inc. Positioning system
US11102746B2 (en) 2014-03-03 2021-08-24 Rosemount Inc. Positioning system
WO2022254799A1 (en) * 2021-06-03 2022-12-08 ソニーグループ株式会社 Information processing device, information processing method, and program
US11924924B2 (en) 2018-09-17 2024-03-05 Rosemount Inc. Location awareness system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63249069A (en) * 1987-04-03 1988-10-17 Mitsubishi Heavy Ind Ltd Apparatus for searching abnormal sound generating place
JPH07181242A (en) * 1993-12-22 1995-07-21 Sony Corp Position measuring system
JPH11231039A (en) * 1998-02-10 1999-08-27 Kaijo Corp Multi-user underwater positioning device
JP2002505758A (en) * 1996-05-31 2002-02-19 マサチューセッツ・インスティテュート・オブ・テクノロジー Method and apparatus for performing data hiding by echo in an audio signal
JP2003263183A (en) * 2002-03-11 2003-09-19 Univ Tohoku Digital watermark system
JP2008064568A (en) * 2006-09-06 2008-03-21 Osaka Univ Sound acquisition position locating method, sound acquisition position locating system, localization apparatus, and computer program
JP5857644B2 (en) * 2011-11-10 2016-02-10 富士通株式会社 Sound data transmission / reception system, transmission device, reception device, sound data transmission method and reception method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63249069A (en) * 1987-04-03 1988-10-17 Mitsubishi Heavy Ind Ltd Apparatus for searching abnormal sound generating place
JPH07181242A (en) * 1993-12-22 1995-07-21 Sony Corp Position measuring system
JP2002505758A (en) * 1996-05-31 2002-02-19 マサチューセッツ・インスティテュート・オブ・テクノロジー Method and apparatus for performing data hiding by echo in an audio signal
JPH11231039A (en) * 1998-02-10 1999-08-27 Kaijo Corp Multi-user underwater positioning device
JP2003263183A (en) * 2002-03-11 2003-09-19 Univ Tohoku Digital watermark system
JP2008064568A (en) * 2006-09-06 2008-03-21 Osaka Univ Sound acquisition position locating method, sound acquisition position locating system, localization apparatus, and computer program
JP5857644B2 (en) * 2011-11-10 2016-02-10 富士通株式会社 Sound data transmission / reception system, transmission device, reception device, sound data transmission method and reception method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
西村明: ""音響信号への情報秘匿技術−電子透かしとステガノグラフィ−"", 日本音響学会誌, vol. 第63巻,第11号, JPN6015041633, 1 November 2007 (2007-11-01), pages 660 - 667, ISSN: 0003177725 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017511886A (en) * 2014-03-03 2017-04-27 ローズマウント インコーポレイテッド Indoor positioning system
US10942250B2 (en) 2014-03-03 2021-03-09 Rosemount Inc. Positioning system
US11102746B2 (en) 2014-03-03 2021-08-24 Rosemount Inc. Positioning system
KR20170074322A (en) * 2015-12-21 2017-06-30 서울대학교산학협력단 The method of indoor localization using pre-designed acoustic source data
KR101869865B1 (en) 2015-12-21 2018-06-22 서울대학교산학협력단 The method of indoor localization using pre-designed acoustic source data
US11924924B2 (en) 2018-09-17 2024-03-05 Rosemount Inc. Location awareness system
WO2022254799A1 (en) * 2021-06-03 2022-12-08 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP5929393B2 (en) 2016-06-08

Similar Documents

Publication Publication Date Title
JP5929393B2 (en) Position estimation method, apparatus and program
EP3090275B1 (en) Microphone autolocalization using moving acoustic source
US10182414B2 (en) Accurately tracking a mobile device to effectively enable mobile device to control another device
US9632586B2 (en) Audio driver user interface
WO2021139435A1 (en) Indoor positioning method and apparatus, and electronic device
EP2756720B1 (en) Method and apparatus for providing information based on a location
JP4812302B2 (en) Sound source direction estimation system, sound source direction estimation method, and sound source direction estimation program
JP2013148576A (en) Portable device performing position specification using modulated background sound, computer program, and method
JP2008236516A (en) Node position measuring method, node position measuring system, and server
JP2008271465A (en) Portable communication terminal, position specification system, and position specification server
CN103688187B (en) Use the sound source localization of phase spectrum
US20200319361A1 (en) Correcting Distortions
KR101413605B1 (en) System and method for Navigation
JP2017073753A (en) Correction method, program, and electronic apparatus
JP2010212818A (en) Method of processing multi-channel signals received by a plurality of microphones
US9594148B2 (en) Estimation device and estimation method using sound image localization processing
CA3077279C (en) Correcting distortions
JP5300779B2 (en) Area estimation apparatus, area estimation method, and program
EP3182734A2 (en) Method for using a mobile device equipped with at least two microphones for determining the direction of loudspeakers in a setup of a surround sound system
CN111641921A (en) UWB-based pipe gallery positioning method, terminal equipment and storage medium
KR20180045510A (en) Method and apparatus for geomagnetic signal processing
JP2013061194A (en) Measuring apparatus and measuring method
CN114035218A (en) Fusion positioning method and device, electronic equipment and storage medium
JP6457154B1 (en) Speech recognition correction system, method and program
KR20210095284A (en) System and method for determining user position

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160418

R150 Certificate of patent or registration of utility model

Ref document number: 5929393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees