JP2014191616A - Method and device for monitoring aged person living alone, and service provision system - Google Patents

Method and device for monitoring aged person living alone, and service provision system Download PDF

Info

Publication number
JP2014191616A
JP2014191616A JP2013066992A JP2013066992A JP2014191616A JP 2014191616 A JP2014191616 A JP 2014191616A JP 2013066992 A JP2013066992 A JP 2013066992A JP 2013066992 A JP2013066992 A JP 2013066992A JP 2014191616 A JP2014191616 A JP 2014191616A
Authority
JP
Japan
Prior art keywords
sound
walking
indoor space
flow line
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013066992A
Other languages
Japanese (ja)
Inventor
Akira Saso
晃 佐宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2013066992A priority Critical patent/JP2014191616A/en
Publication of JP2014191616A publication Critical patent/JP2014191616A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a method and a device for estimating the line of flow from footsteps for the purpose of not only detecting an abnormal state of an aged person living alone but also remotely monitoring the conditions of daily life while considering the privacy of the aged person, and to provide a service provision system which is integrated with other sensor information, thereby allowing a relative in a distant location or a caretaker to easily monitor daily activities of the aged person without causing the aged person to feel unrest or tension regarding the privacy.SOLUTION: As an application utilized by a general user for monitoring an aged person living alone, a method, a device and a service provision system are provided in which a sound recorder such as a microphone array is small-sized and easily installed and removed in a living environment, work such as complicated calibration is simplified as further as possible, additional expansion of the microphone array can be easily implemented when enlarging a monitoring range, and regarding interference of surrounding environmental noise, robustness is secured.

Description

本発明は独居高齢者の見守りを目的とした歩行音からの動線推定方法、装置およびサービス提供システムに関する。   The present invention relates to a method for estimating a flow line from walking sound for the purpose of watching an elderly person living alone, an apparatus, and a service providing system.

超高齢社会を迎えた日本において、独居高齢者が安心・安全に自立生活をおくれるように、情報通信技術やロボットを活用した見守り・生活支援技術の開発が急務となっている。   In Japan, which has reached a super-aged society, it is urgently necessary to develop information and communication technology and robot-based monitoring and life support technology so that elderly people living alone can live independently and safely.

従来、例えば特許文献1にあるように、多数の高齢者などが生活する介護施設などで、少数の映像カメラで多数の高齢者を撮像し、高齢者毎の映像データを蓄積する手法がある。しかし、このように直接映像データを蓄積する手法は、特に独居高齢者の見守りに適用する場合など、プライバシの観点から運用が困難となる可能性がる。   Conventionally, as disclosed in, for example, Patent Document 1, there is a technique of capturing a large number of elderly people with a small number of video cameras and storing video data for each elderly person in a nursing facility where a large number of elderly people live. However, such a method of directly storing video data may be difficult to operate from the viewpoint of privacy, particularly when applied to watching elderly people living alone.

一方で、特許文献2にあるように、電気機器の動作状態から対象者の年齢などの属性に応じて在宅状態を推定する行動判別方法がある。電気機器の動作状況などのような対象者に関して情報量の少ない情報を用いることで、プライバシに関する対象者の不安感や緊張感を緩和しているが、そのような情報から対象者の行動を推定する場合、行動の詳細な判別が困難になる。   On the other hand, as disclosed in Patent Document 2, there is an action determination method for estimating a home state from an operation state of an electric device according to an attribute such as an age of a target person. By using information with a small amount of information about the subject, such as the operation status of electrical equipment, the subject's anxiety and tension related to privacy are alleviated, but the behavior of the subject is estimated from such information When it does, detailed discrimination | determination of action becomes difficult.

その他にも、非特許文献1では、各部屋に設置した焦電センサの情報に対して高度なデータマイニング処理を施すことで、生活パターン分類や異常検知の実現を試みている。
しかし、生活パターン分類や異常検知を行うためには長期間の事前データ収集が必要であり、またそのデータから必要な情報を抽出するには高度な専門知識が必要となる。このため、このようなシステムの一般での運用は容易ではない。
In addition, Non-Patent Document 1 attempts to realize life pattern classification and abnormality detection by performing advanced data mining processing on the information of pyroelectric sensors installed in each room.
However, in order to perform life pattern classification and abnormality detection, it is necessary to collect data in advance for a long period of time, and in order to extract necessary information from the data, advanced expertise is required. For this reason, the general operation of such a system is not easy.

他方、音を用いた異常検知の試みがある。電気機器の動作状況や焦電センサに比べて、音を用いることで収集可能な情報量は格段に増加し、且つ映像カメラの室内設置ほどプライバシに関する不安感や緊張感を対象者に与えないと期待される。例えば、特許文献3や特許文献4にある手法では、日常的な音からの逸脱として異常音を検知する。また特許文献4は、マイクロフォンアレイにより音の到来方向を推定することで、日常的に音が発生しない方向から音が発生した場合に非日常音と判断する機能を実現している。   On the other hand, there are attempts to detect anomalies using sound. Compared to the operating status of electrical equipment and pyroelectric sensors, the amount of information that can be collected by using sound increases dramatically, and the privacy must be given to the subject as much as the indoor installation of the video camera. Be expected. For example, in the methods disclosed in Patent Document 3 and Patent Document 4, abnormal sounds are detected as deviations from everyday sounds. Further, Patent Document 4 realizes a function of determining an unusual sound when sound is generated from a direction in which sound is not generated on a daily basis by estimating the direction of arrival of the sound using a microphone array.

これらの手法によって、対象者の危機的な状況の検知はある程度実現されるが、危機的とまでは言えないような些細な異常の兆候は検出対象となっていない。   Although these methods can detect the critical situation of the subject to some extent, they do not detect minor signs of abnormalities that cannot be said to be critical.

例えば、独居高齢者の日常生活の中で同じ日常行動を繰り返すなど、もしかしたら痴呆の兆候かもしれない行動が、これら従来の技術では検出できない。また独居高齢者の健康維持の見守りとして、日々どれだけ歩いているか、またはベッドで過ごす時間がどれくらいかなどの日常行動を検出する必要があるが、歩行量の推定は従来の技術では難しい。   For example, such conventional techniques cannot detect behavior that may be a sign of dementia, such as repeating the same daily behavior in the daily life of the elderly living alone. In addition, it is necessary to detect daily behavior such as how much you walk every day or how much time you spend in bed as a watch for maintaining the health of elderly people living alone, but it is difficult to estimate the amount of walking with conventional techniques.

日常行動として歩行の検出とその動線の推定が行えると、独居高齢者の日常生活の様子がある程度捉えられるようになると考えられる。従来、歩行音をマイクロフォンアレイで収集し、PHAT法に基づいて、到来時間差を推定することで、歩行位置を推定する手法が、非特許文献2などで提案されている。   If it is possible to detect walking and estimate the flow line as daily activities, it is considered that the daily life of the elderly living alone can be captured to some extent. Conventionally, a method for estimating a walking position by collecting walking sounds with a microphone array and estimating an arrival time difference based on the PHAT method has been proposed in Non-Patent Document 2 and the like.

この手法は、歩行音のみが存在し、他に環境騒音が存在しない場合において歩行位置の推定が良好に行えるが、環境騒音が存在する場合には歩行音に干渉するため時間差を正確に推定できず、歩行位置の推定も困難になる。一般的に、高齢者ほど難聴傾向にあるため、テレビやラジオなどの音量を健常者の聞くレベルより大きめに設定する傾向があり、環境騒音の影響が無視できない。このため、独居高齢者の見守りに非特許文献2の手法を使用することは現実的とは言えない。   This method can estimate the walking position well when there is only walking sound and no other environmental noise, but it can accurately estimate the time difference because it interferes with the walking sound when there is environmental noise. In addition, it is difficult to estimate the walking position. In general, since elderly people tend to be deaf, there is a tendency to set the volume of televisions, radios, etc. higher than the level heard by healthy people, and the influence of environmental noise cannot be ignored. For this reason, it cannot be said that it is realistic to use the method of nonpatent literature 2 for watching an elderly person living alone.

また特許文献5などでは、部屋内での音源定位および音源追跡の精度を改善するために、部屋内の壁と移動ロボットにマイクロフォンアレイを設置する手法が述べられている。しかし、幅の広いマイクロフォンアレイを部屋全体の壁に固定したり、移動ロボットを使用したりと、装置が大掛かりでコストが高く、一般の独居高齢者宅での利用には向いていない。   Japanese Patent Application Laid-Open No. H10-228561 describes a method of installing a microphone array on a wall in a room and a mobile robot in order to improve the accuracy of sound source localization and sound source tracking in the room. However, fixing a wide microphone array to the wall of the entire room or using a mobile robot is large and expensive, and is not suitable for use in a general elderly living alone.

特許出願2011−92636「見守り映像収集装置」Patent application 2011-92636 "Monitoring video collection device" 特許出願2009−24765「行動判別システムおよび行動判別方法」Patent application 2009-24765 “Behavior discrimination system and behavior discrimination method” 特許出願2009−249987「異常検出方法および異常検出装置」Patent application 2009-249987 “Abnormality detection method and abnormality detection device” 特許出願2008−164395「非日常音検出システム」Patent application 2008-164395 “Unusual sound detection system” 特許出願2008−514510「音源追跡システム、方法、およびロボット」Patent application 2008-514510 “Sound source tracking system, method and robot”

森武俊、「生活支援のためのセンサデータマイニング(「見守り工学」への展開)、電子情報通信学会誌、Vol.94,No.4,pp.276-281,2011Takeshi Mori, “Sensor Data Mining for Life Support (Development to“ Monitoring Engineering ”), IEICE Journal, Vol.94, No.4, pp.276-281,2011 庄司、音講論(春),727-730, 2010.Shoji, sound lecture (spring), 727-730, 2010.

独居高齢者の異常状態の検知だけでなく、高齢者のプライバシを考慮しつつ、日常生活の様子を遠隔から見守ることを目的とした、歩行音から動線推定を実現する方法および装置、そして他のセンサ情報との統合により、高齢者がプライバシに関する不安感や緊張感を感じることなく、遠隔にいる身内や介護者が容易に高齢者の日常行動を見守ることのできるサービス提供システムを解決課題とする。   A method and device that realizes flow line estimation from walking sounds for the purpose of monitoring the daily life from a remote location, taking into account the privacy of the elderly as well as detecting the abnormal state of the elderly living alone, and others A service provision system that enables elderly relatives and caregivers to easily monitor the daily activities of the elderly without the feeling of anxiety and tension related to privacy by integrating with sensor information To do.

但し、歩行音からの動線推定方法、装置およびサービス提供システムは、独居高齢者の見守りというアプリケーションで一般ユーザが利用することを考慮して、マイクロフォンアレイなどの音収録装置はコンパクトなサイズで、住環境への取付け・取外しが容易で、複雑なキャリブレーションなどの作業は極力簡単で、見守り範囲を拡大する際にマイクロフォンアレイの追加拡張が容易に実現でき、周囲環境騒音の干渉に関して頑健性を有する方法、装置およびサービス提供システムとする。   However, the flow line estimation method, device and service provision system from walking sounds are considered to be used by general users in the application of watching elderly people living alone, and sound recording devices such as microphone arrays are compact in size. Easy installation and removal from the living environment, complicated calibration and other tasks are as simple as possible, and additional expansion of the microphone array can be easily realized when expanding the watch range, making it robust against ambient noise interference And a service providing system.

本発明は、次の(1)から(3)の手段を提供する。
(1)マイクロフォンアレイ装置とセンサ情報統合装置からなる室内空間の歩行音の動線推定装置であって、
センサ情報統合装置はさらに室内空間を表示する表示部と信号処理部とを備えてマイクロフォンアレイ装置と接続され、
室内空間にマイクロフォンアレイを2個1組にして「ハ」の字型に配置され、
室内空間の歩行音がマイクロフォンアレイ1組で録音されて歩行音アナログ信号はAD変換されて歩行音デジタル信号が生成され、
MUSIC法を用いて歩行音デジタル信号から音源位置および到来方向が推定され(ステップ1)、
変形最小分散ビームフォーマによる音源分離され(ステップ2)、
音源分離された分離音源から特徴が抽出され、音響モデルの尤度計算がされ、異常音が検出され(ステップ3)、
パーティクルフィルタによる歩行人数と動線が推定されて(ステップ4)、
推定された歩行動線がセンサ情報統合装置の表示部に表示されることを特徴とする室内空間の歩行音の動線推定装置。
(2)前記音響モデルの尤度計算は、歩行音・足音の音響モデルを用いて行うことを特徴とする上に記載の室内空間の歩行音の動線推定装置。
(3)前記パーティクルフィルタの重みづけは、過去に観測された音源位置を評価して行うことを特徴とする(1)乃至(2)のいずれかに記載の室内空間の歩行音の動線推定装置を提供する。
The present invention provides the following means (1) to (3).
(1) An apparatus for estimating the flow of a walking sound in an indoor space comprising a microphone array device and a sensor information integration device,
The sensor information integration device further includes a display unit for displaying the indoor space and a signal processing unit, and is connected to the microphone array device.
In the indoor space, two microphone arrays are grouped and arranged in a “C” shape,
The walking sound in the indoor space is recorded with one microphone array, the walking sound analog signal is AD converted, and the walking sound digital signal is generated,
The sound source position and direction of arrival are estimated from the walking sound digital signal using the MUSIC method (step 1),
The sound source is separated by a modified minimum dispersion beamformer (step 2),
Features are extracted from the separated sound sources, the likelihood of the acoustic model is calculated, and abnormal sounds are detected (step 3).
The number of people walking and the flow line are estimated by the particle filter (step 4),
An estimated walking flow line is displayed on a display unit of a sensor information integration device.
(2) The likelihood calculation of the acoustic model is performed using a walking sound / footstep acoustic model, the above-described apparatus for estimating the flow of walking sound in an indoor space.
(3) The weight estimation of the particle filter is performed by evaluating the sound source position observed in the past, and the flow line estimation of the walking sound in the indoor space according to any one of (1) to (2) Providing equipment.

次に、本発明は、次の(4)から(6)の手段を提供する。
(4)マイクロフォンアレイ装置とセンサ情報統合装置からなる室内空間の歩行音の動線推定装置に使用される室内空間の歩行音の動線推定方法であって、
センサ情報統合装置はさらに室内空間を表示する表示部と信号処理部とを備えてマイクロフォンアレイ装置と接続され、
室内空間にマイクロフォンアレイを2個1組にして「ハ」の字型に配置され、
室内空間の歩行音がマイクロフォンアレイ1組で録音されて歩行音アナログ信号はAD変換されて歩行音デジタル信号が生成され、
MUSIC法を用いて歩行音デジタル信号から音源位置および到来方向が推定され(ステップ1)、
変形最小分散ビームフォーマによる音源分離され(ステップ2)、
音源分離された分離音源から特徴が抽出され、音響モデルの尤度計算がされ、異常音が検出され(ステップ3)、
パーティクルフィルタによる歩行人数と動線が推定される(ステップ4)、
ことを特徴とする室内空間の歩行音の動線推定方法。
(5)前記音響モデルの尤度計算は、歩行音・足音の音響モデルを用いて行うことを特徴とする上に記載の室内空間の歩行音の動線推定方法。
(6)前記パーティクルフィルタの重みづけは、過去に観測された音源位置を評価して行うことを特徴とする(4)乃至(5)のいずれかに記載の室内空間の歩行音の動線推定方法を提供する。
Next, the present invention provides the following means (4) to (6).
(4) A method for estimating the flow of a walking sound in an indoor space, which is used in a device for estimating the flow of a walking sound in an indoor space comprising a microphone array device and a sensor information integration device,
The sensor information integration device further includes a display unit for displaying the indoor space and a signal processing unit, and is connected to the microphone array device.
In the indoor space, two microphone arrays are grouped and arranged in a “C” shape,
The walking sound in the indoor space is recorded with one microphone array, the walking sound analog signal is AD converted, and the walking sound digital signal is generated,
The sound source position and direction of arrival are estimated from the walking sound digital signal using the MUSIC method (step 1),
The sound source is separated by a modified minimum dispersion beamformer (step 2),
Features are extracted from the separated sound sources, the likelihood of the acoustic model is calculated, and abnormal sounds are detected (step 3).
The number of people walking and the flow line are estimated by the particle filter (step 4),
A method of estimating a flow line of walking sound in an indoor space.
(5) The likelihood calculation of the acoustic model is performed using an acoustic model of a walking sound / footstep, and the flow line estimation method for the walking sound in the indoor space as described above.
(6) The weight estimation of the particle filter is performed by evaluating a sound source position observed in the past, and the flow line estimation of the walking sound in the indoor space according to any one of (4) to (5) Provide a method.

さらに、本発明は、次の(7)から(8)の手段を提供する。
(7)(1)乃至(3)のいずれかに記載の前記室内空間の歩行音の動線推定装置のセンサ情報統合装置はさらに室内空間で使用される電気機器の動作センサと接続され、
前記各センサの出力信号はセンサ情報統合装置に伝送され、
センサ情報統合装置は、各出力信号をその電気機器の動作情報に変換し、
センサ情報統合装置は、前記推定された歩行動線情報と併せて上記変換された電気機器の動作情報を通信網に送信し、
前記送信された歩行動線情報と動作情報を通信網から受信した情報端末は表示画面を備え、時間シフトのスクロールバーの示す時刻の室内空間の歩行動線情報と電気機器の動作情報を前記表示画面にリアルタイム表示することを特徴とする遠隔室内空間見守りサービス提供システム。
(8)前記電気機器には、ベッド圧力センサ、車椅子搭載の位置・方向センサ、音声対話ロボットの音声認識装置が含まれることを特徴とする(7)記載の遠隔室内空間見守りシステムを提供する。
Furthermore, the present invention provides the following means (7) to (8).
(7) The sensor information integration device of the flow estimation device for walking sound in the indoor space according to any one of (1) to (3) is further connected to an operation sensor of an electric device used in the indoor space,
The output signal of each sensor is transmitted to the sensor information integration device,
The sensor information integration device converts each output signal into operation information of the electrical device,
The sensor information integration device transmits the converted operation information of the electric device together with the estimated walking flow line information to a communication network,
The information terminal which has received the transmitted walking flow line information and operation information from the communication network has a display screen, and displays the walking flow line information in the indoor space at the time indicated by the time shift scroll bar and the operation information of the electric device. A remote indoor space monitoring service providing system that displays in real time on the screen.
(8) The electric room includes a bed pressure sensor, a wheelchair-mounted position / direction sensor, and a voice recognition device for a voice interactive robot. The remote indoor space monitoring system according to (7) is provided.

最後に、本発明は、
(9)(4)乃至(6)のいずれかに記載された室内空間の歩行音の動線推定方法を実行するためのプログラムを提供する。
Finally, the present invention
(9) A program for executing the flow line estimation method for walking sound in an indoor space described in any one of (4) to (6) is provided.

独居高齢者の異常状態の検知だけでなく、高齢者のプライバシを考慮しつつ、日常生活の様子を遠隔から見守ることを目的とした、高齢者がプライバシに関する不安感や緊張感を感じることなく、遠隔にいる身内や介護者が容易に高齢者の日常行動を見守ることのできるようになる。   In addition to detecting the abnormal state of the elderly living alone, the purpose of the elderly is to monitor the daily life from a remote location while taking into account the privacy of the elderly. Remote relatives and caregivers can easily watch the daily behavior of the elderly.

「ハ」の字型マイクロフォンアレイの構成図である。It is a block diagram of a "C" shaped microphone array. 室内空間における「ハ」の字型マイクロフォンアレイ2台の設置例を表した平面図である。It is a top view showing the example of installation of two "C" -shaped microphone arrays in indoor space. 歩行音からの動線推定処理の流れをあらわすフローチャートである。It is a flowchart showing the flow of the flow line estimation process from a walk sound. 歩行動線推定を行うシステムの最小構成例をあらわす図である。It is a figure showing the minimum structural example of the system which performs a walk flow line estimation. 遮蔽物がある場合の「ハ」の字型マイクロフォンアレイ4台の設置例。An installation example of four “C” -shaped microphone arrays when there is a shield. 複数マイクロフォンアレイ装置とセンサ情報統合装置の接続例。The connection example of a several microphone array apparatus and a sensor information integration apparatus. 各種センサとセンサ情報統合装置の接続例。Connection example of various sensors and sensor information integration device. クラウドサーバを用いたサービス提供の構成例。A configuration example of service provision using a cloud server. 高齢者の生活状況を情報端末の画面にCGで再構成した例。The example which reconfigure | reconstructed the elderly person's life condition on the screen of the information terminal by CG. マイクロフォンアレイによる受音機能の説明図。Explanatory drawing of the sound reception function by a microphone array. 本発明による動線推定の説明図。Explanatory drawing of the flow line estimation by this invention. 本発明による実施例の説明図で、テレビ音声の混合レベルがClean、1dB、−5dBの場合の3動線を表わした図である。It is explanatory drawing of the Example by this invention, and is a figure showing 3 flow lines in case the mixing level of a television audio | voice is Clean, 1 dB, and -5 dB. 本発明による実施例の説明図で、テレビ音声の混合レベルがCleanの場合の動線を示している。In the explanatory diagram of the embodiment according to the present invention, the flow line when the mixing level of the television sound is Clean is shown. 本発明による実施例の説明図で、テレビ音声の混合レベルが1dBの場合の動線を示している。In the explanatory diagram of the embodiment according to the present invention, the flow line when the mixing level of the television sound is 1 dB is shown. 本発明による実施例の説明図で、テレビ音声の混合レベルが−5dBの場合の動線を示している。In the explanatory diagram of the embodiment according to the present invention, the flow line when the mixing level of the television sound is −5 dB is shown.

本発明の概要を、クラウドサーバを用いたサービス提供システムの構成例をあらわす図8と、複数マイクロフォンアレイ装置とセンサ情報統合装置の接続例をあらわす図6と、高齢者の生活状況を情報端末の画面にCGで再構成した例をあらわす図9との3図に分けて示した。
本発明は、特に、図6に示されるマイクロフォンアレイ装置とその配置、図9および図6とに示されるセンサ情報統合装置における、それらの収集した室内空間の居住者の歩行音からの歩行動線推定方法に特徴があるので、まず以下にその実施形態を説明し、後からサービス提供システムその実施形態について説明する。
The outline of the present invention is shown in FIG. 8 showing a configuration example of a service providing system using a cloud server, FIG. 6 showing a connection example of a plurality of microphone array devices and a sensor information integration device, and the life status of an elderly person on an information terminal. The screen is divided into three views, FIG. 9 and an example of reconfiguration by CG.
The present invention particularly relates to the microphone array device shown in FIG. 6 and its arrangement, and the walking flow line from the walking sound of the occupant in the indoor space collected in the sensor information integration device shown in FIG. 9 and FIG. Since the estimation method has characteristics, the embodiment will be described first, and the service providing system will be described later.

まず図6に示されるマイクロフォンアレイ装置とその配置について説明する。
本発明では、図1に示すように、直線上に3cm間隔でマイクロフォンを4個並べたマイクロフォンアレイユニット2本を、「ハ」の字になるように例えば20cm弱程度の間隔をあけて、45°傾けた配置を特徴とする、コンパクトサイズの「ハ」の字型マイクロフォンアレイ2台を使用する(図2)。
First, the microphone array apparatus shown in FIG. 6 and its arrangement will be described.
In the present invention, as shown in FIG. 1, two microphone array units in which four microphones are arranged on a straight line at intervals of 3 cm are spaced apart by, for example, a little less than 20 cm so as to form a letter “C”. ° Use two compact sized "C" shaped microphone arrays, characterized by a tilted arrangement (Figure 2).

マイクロフォンの配置に関しては、音源定位の対象となる動線検出領域内の各位置において単一の音が発生した場合、全マイクロフォンで収録される音と、基準位置で観測される音との位相差のパターンが一意に決定されるような配置を考える必要がある。一定範囲内の周波数の音に関して「ハ」の字型マイクロフォンアレイは、遠く離れた場所にある音源の位置推定は困難になるが、到来方向の識別は可能である。   Regarding the microphone arrangement, if a single sound is generated at each position in the flow line detection area subject to sound source localization, the phase difference between the sound recorded by all microphones and the sound observed at the reference position It is necessary to consider an arrangement that uniquely determines the pattern. For a sound having a frequency within a certain range, the “C” shaped microphone array makes it difficult to estimate the position of a sound source located far away, but the direction of arrival can be identified.

ある程度マイクロフォンアレイから遠く離れた場所を歩行していても、その位置推定を可能にするために、本発明では「ハ」の字型マイクロフォンアレイ2台を、例えば図2に示すように、1.5m程度の間隔をあけて床に固定する。この構成により、十数平米程度の室内において、歩行音から歩行位置の推定が可能になる。   In order to make it possible to estimate the position even when walking far away from the microphone array to some extent, in the present invention, two “C” -shaped microphone arrays, for example, as shown in FIG. Fix to the floor with an interval of about 5m. With this configuration, the walking position can be estimated from the walking sound in a room of about a dozen square meters.

「ハ」の字型マイクロフォンアレイはコンパクトなサイズなので、室内床面への取付け・取外しは容易である。通常は「ハ」の字型マイクロフォンアレイの2本のマイクロフォンアレイユニットは金具などで固定しているため、これら8個のマイクロフォンの相対的な位置関係は不変である。従って、実際の環境に2台の「ハ」の字型マイクロフォンアレイを設置する場合は、その間隔とそれぞれの向きを計測して、全16個のマイクロフォンの相対的な位置を特定する必要がる。実際の運用では、2台のマイクロフォンアレイの向きを共に正面に向けて直線上に固定する(図2)。これにより2台の間隔のみを計測することで、全16個のマイクロフォンの位置関係が明らかにできる。計測した距離を本発明装置に入力することでキャリブレーション作業が完了し、一般ユーザでも容易に実行可能となっている。   Since the “C” shaped microphone array is compact, it can be easily attached to and removed from the indoor floor. Normally, the two microphone array units of the “C” -shaped microphone array are fixed with metal fittings or the like, so that the relative positional relationship of these eight microphones remains unchanged. Therefore, when two “C” -shaped microphone arrays are installed in an actual environment, it is necessary to determine the relative positions of all 16 microphones by measuring the distance between them and their respective directions. . In actual operation, the two microphone arrays are fixed on a straight line with the front facing both (Fig. 2). Thus, by measuring only the interval between the two units, the positional relationship of all 16 microphones can be clarified. The calibration operation is completed by inputting the measured distance to the apparatus of the present invention, and can be easily executed by a general user.

次に図9および図6とに示されるセンサ情報統合装置における、それらの収集した室内空間の居住者の歩行音からの歩行動線推定方法について図3のフローチャートに従って説明する。   Next, a walking flow line estimation method from the collected walking sounds of the occupants in the indoor space in the sensor information integration apparatus shown in FIGS. 9 and 6 will be described according to the flowchart of FIG.

環境騒音の干渉があっても歩行位置の推定を頑健に行うために、本発明では、図3に示すように、複数音源位置を同時に推定可能なMUSIC法をステップ1で用いる。歩行位置を推定する動線検出領域内では等間隔のグリッド上で音源位置を定位し、動線検出領域外から到来する音源に関しては到来方向を推定する。   In order to robustly estimate the walking position even in the presence of environmental noise interference, in the present invention, as shown in FIG. 3, a MUSIC method capable of simultaneously estimating a plurality of sound source positions is used in step 1. Within the flow line detection area for estimating the walking position, the position of the sound source is localized on an equally spaced grid, and the direction of arrival is estimated for the sound source coming from outside the flow line detection area.

続くステップ2では、これら音源の位置情報に基づいて変形最小分散ビームフォーマを構成し、動線推定領域内で検出された各音源の分離を行う。   In the subsequent step 2, a modified minimum dispersion beamformer is constructed based on the position information of these sound sources, and each sound source detected in the flow line estimation region is separated.

本発明では環境騒音がある中でも歩行音や足音だけを正しく聞き分けられるように、ステップ3では各分離音源の歩行音または足音らしさを評価する。これは予め歩行音や足音の学習用サンプルからメルケプストラム(MFCC)などの特徴量を抽出し、その特徴量をGMMやHMMなどの確率統計モデルを用いて、音響モデルを学習しておく。そして、音源分離された各音源から求めた特徴量に対する音響モデルの尤度を計算することで、歩行音または足音らしさを数値的に評価する。また特許文献3の手法に基づいて、転倒音や悲鳴などの異常音検出も行う。   In the present invention, in order to correctly distinguish only walking sounds and footsteps even in the presence of environmental noise, step 3 evaluates the likelihood of walking sound or footstepping of each separated sound source. In this method, feature quantities such as mel cepstrum (MFCC) are extracted in advance from learning samples for walking sounds and footsteps, and an acoustic model is learned using the probability quantities such as GMM and HMM. Then, by calculating the likelihood of the acoustic model for the feature amount obtained from each sound source separated, the likelihood of walking sound or footstep is numerically evaluated. In addition, based on the method of Patent Document 3, abnormal sounds such as falling sounds and screams are also detected.

ステップ4では、歩行位置を推定する動線推定領域内で検出された、各音源の位置と音響モデルの尤度の情報に基づいて、パーティクルフィルタを用いて同時歩行者の人数と各歩行者の動線推定を行う。   In step 4, based on the information on the position of each sound source and the likelihood of the acoustic model detected in the flow line estimation region for estimating the walking position, the number of simultaneous pedestrians and the number of each pedestrian are determined using a particle filter. Estimate the flow line.

この様に本発明では、分離音源の歩行音または足音らしさを表す音響モデルの尤度を評価し、更に、断続的に発生する歩行音や足音の位置情報と音響モデルの尤度に基づいて、パーティクルフィルタにより動線を推定することで、環境騒音の干渉に対して頑健な動線推定が実現される。   In this way, in the present invention, the likelihood of the acoustic model representing the likelihood of walking sound or footsteps of the separated sound source is evaluated, and further, based on the position information of the intermittently generated walking sound and footsteps and the likelihood of the acoustic model, By estimating the flow line by the particle filter, it is possible to realize the flow line estimation that is robust against environmental noise interference.

実際の歩行音からの動線推定を行う装置の構成としては、図4に示すように、マイクロフォンアレイによる、(1)音源定位および、(2)音源分離、(3)音響モデルの尤度計算、更には(4)異常音検出を行うマイクロフォンアレイ装置と、音源位置情報と音響モデルの尤度からパーティクルフィルタにより歩行者人数や動線推定を行うセンサ情報統合装置の2つの装置により最小限のシステムが構成される。
なおマイクロフォンアレイ装置はアナログ音響信号の収集のみとし上記音源定位以下の信号処理の全てをセンサ情報統合装置で行う構成としてもよい(図示せず)。
As shown in FIG. 4, the configuration of the apparatus for estimating the flow line from the actual walking sound is (1) sound source localization, (2) sound source separation, and (3) acoustic model likelihood calculation, as shown in FIG. Furthermore, (4) a microphone array device that detects abnormal sounds, and a sensor information integration device that estimates the number of pedestrians and flow lines using particle filters from the sound source position information and the likelihood of the acoustic model. The system is configured.
Note that the microphone array device may be configured to collect only analog acoustic signals and perform all signal processing below the sound source localization by the sensor information integration device (not shown).

もし、同じ室内でも遮蔽物などのため1台のマイクロフォンアレイ装置で部屋全体をカバーできない場合は、図5に示すように(この例ではベッドが遮蔽物)、もう1台のマイクロフォンアレイ装置を遮蔽物を挟んで反対側に設置する。この時、2台のマイクロフォンアレイ装置で音源定位の座標を共有するために、お互いのマイクロフォンアレイの相対的な位置関係を計測する必要がある。一方、同じ家の中の異なる部屋で動線推定をする場合、異なる部屋に置かれたマイクロフォンアレイ装置間で座標を共有する必要はない。   If the entire room cannot be covered with a single microphone array device due to shielding, etc. even in the same room, the other microphone array device is shielded as shown in FIG. 5 (in this example, the bed is a shield). Install on the opposite side of the object. At this time, in order to share the sound source localization coordinates between the two microphone array devices, it is necessary to measure the relative positional relationship between the microphone arrays. On the other hand, when estimating a flow line in different rooms in the same house, there is no need to share coordinates between microphone array devices placed in different rooms.

本発明装置では、図6に示すように、複数のマイクロフォンアレイ装置とセンサ情報統合装置の間は有線・無線のネットワーク接続を利用することも可能である。センサ情報統合装置では、複数のマイクロフォンアレイ装置から非同期で送られてくる音源位置と音響モデルの尤度を統合して、動線推定を行う。従って、複数のマイクロフォンアレイシステムを追加することは容易に実現される。   In the device of the present invention, as shown in FIG. 6, it is also possible to use a wired / wireless network connection between the plurality of microphone array devices and the sensor information integration device. The sensor information integration device integrates the sound source position and the likelihood of the acoustic model sent asynchronously from a plurality of microphone array devices to perform flow line estimation. Therefore, it is easy to add a plurality of microphone array systems.

本発明による独居高齢者の見守りサービスは以下の様に実現する。マイクロフォンアレイ装置を用いた音響センサによる歩行動線の情報の他、例えば図7に示すように、ベッドに圧力センサを敷いて高齢者がベッドに寝ているかどうかや、何時間ベッドの上で過ごしているかなどの情報、テレビやラジオ、またライトなどの各電気機器の動作状態(電源のオン・オフや各状態の継続時間など)の情報、音声対話ロボットなどによる音声認識、車椅子搭載の位置・方向センサなどの情報もセンサ情報統合装置に集約し、各情報に時刻の情報が不足する場合は、センサ情報統合装置の有する時刻の情報を各情報に適宜関連づけて各情報に追加する。   The monitoring service for the elderly living alone according to the present invention is realized as follows. In addition to information on the walking flow line by acoustic sensors using a microphone array device, for example, as shown in FIG. 7, a pressure sensor is laid on the bed to determine whether an elderly person is sleeping on the bed and how many hours are spent on the bed. Such as information on the operating status of each electrical device such as a TV, radio, or light (power on / off, duration of each status, etc.), voice recognition by a voice dialogue robot, etc. Information such as direction sensors is also collected in the sensor information integration device, and when time information is insufficient for each information, the time information of the sensor information integration device is appropriately associated with each information and added to each information.

マイクロフォンアレイ装置では、特許文献3にある手法を用いて異常音の検出も行い、異音が検知された場合には、異常音発生位置と共に、その情報がセンサ情報統合装置に送られる。これらのセンサ情報は、その時刻の情報と共に、図8に示すように、通信網あるいはクラウド上にあるアプリケーションサーバに転送される。そして、遠隔にいる身内や介護者は手元のタブレットやスマートフォンなどの情報端末を利用して通信網から受信あるいはアプリケーションサーバにアクセスすることで、独居高齢者宅の各種センサにより収集した情報を取得し、例えば図9に示すように、手元の情報端末の画面上に高齢者の日常生活の様子を3次元のCGでリアルタイム表示する。   In the microphone array apparatus, abnormal sound is also detected using the method disclosed in Patent Document 3, and when abnormal sound is detected, the information is sent to the sensor information integration apparatus together with the abnormal sound generation position. The sensor information is transferred together with the time information to an application server on a communication network or cloud as shown in FIG. Remote relatives and caregivers can use information terminals such as tablets and smartphones at hand to obtain information collected by various sensors at the elderly living alone by receiving from the communication network or accessing the application server. For example, as shown in FIG. 9, the state of daily life of an elderly person is displayed in real time in a three-dimensional CG on the screen of the information terminal at hand.

図中、円柱の上に球がのっているのが人を表している。図中では、例として歩行時の人、ベッドに寝ている状態の人、車椅子に搭乗している状態の人を表示している。車椅子のシートにも圧力センサを設置しておくことで、車椅子の位置や方向だけでなく、人の搭乗の有無に関する状態も検知できるようにしてある。テレビがオフの状態では画面が黒く表示され、オンの状態では白く表示する。ライトのオン・オフ状態も表示する。人や各電気機器などを画面上でクリックすると、それに関する情報が文字として表示される。   In the figure, a sphere on a cylinder represents a person. In the figure, as an example, a person walking, a person sleeping on a bed, and a person on a wheelchair are displayed. By installing a pressure sensor on the wheelchair seat, it is possible to detect not only the position and direction of the wheelchair but also the state of whether or not a person is on board. The screen is black when the TV is off, and white when it is on. The light on / off status is also displayed. When a person or each electric device is clicked on the screen, information about that is displayed as characters.

例えば、各電気機器をクリックすると、現在の状態とその状態の継続時間などが表示される。異常音発生時は、CG上の発生位置に異常音が発生したことを知らせるマークを表示する。例えば、遠隔から情報端末のCGを見ていて、歩行の途中に異常音が発生したことを知らせるマークが表示され、円柱状の人のシンボルが停止して一定時間以上動かなくなったら、その場所で高齢者が転倒したかもしれないと推測できる。情報端末では、視点の回転やズームなどの操作が可能で、任意の角度から部屋の様子を見守れるようになっている。
また、3次元のCG画面の下には、時間シフトのスクロールバーがあり、これを左右に移動することで、移動したスクロールバーの示す時刻における各情報が3次元のCG画面に適宜表示され、過去に遡って独居高齢者の生活状態を確認できる。
For example, when each electric device is clicked, the current state and the duration of the state are displayed. When an abnormal sound is generated, a mark is displayed informing that the abnormal sound has occurred at the position on the CG. For example, if you are looking at the CG of the information terminal from a remote location and a mark is displayed informing you that an abnormal sound has occurred during walking, and the columnar person's symbol stops and stops moving for more than a certain time, It can be inferred that the elderly may have fallen. In the information terminal, operations such as rotation of the viewpoint and zooming are possible, and the state of the room can be observed from an arbitrary angle.
Below the 3D CG screen, there is a time-shifted scroll bar. By moving the scroll bar to the left and right, each information at the time indicated by the moved scroll bar is appropriately displayed on the 3D CG screen. You can go back to the past and check the living conditions of the elderly living alone.

以上の様にして遠隔から独居高齢者の日常生活の行動様式を見守るシステムが実現される。独居高齢者はプライバシに関する不安感や緊張感を感じることなく、遠隔から身内や介護者などの人の目による見守りという安心を得ることができるようになる。また遠隔の身内や介護者も、独居高齢者のより詳細な生活様式が確認できるため安心できる。   As described above, a system for monitoring the behavioral style of daily life of elderly living alone from a remote location is realized. Elderly living alone can get the peace of mind of watching the eyes of their relatives and caregivers from a distance without feeling anxiety or tension about privacy. Remote relatives and caregivers can also be assured because they can see more detailed lifestyles of elderly living alone.

以下に、マイクロフォンにより録音収集されAD変換されたデジタル音響信号に基づく音源処理と、音源処理された歩行音からの動線推定処理について詳述する。
(ステップ1:サブステップ1:音源定位)
複数のマイクロフォンは3次元空間中の任意の位置に配置可能である。3次元空間中の任意の位置

Figure 2014191616
に置かれた音源から出力された音響信号を、3次元空間中の任意の位置
Figure 2014191616
に配置されたQ個のマイクロフォンで受音する。音源と各マイクロフォン間の距離Rqは次式で求められる。 Hereinafter, a sound source process based on a digital sound signal recorded and collected by a microphone and subjected to AD conversion, and a flow line estimation process from the walking sound subjected to the sound source process will be described in detail.
(Step 1: Sub-step 1: Sound source localization)
The plurality of microphones can be arranged at arbitrary positions in the three-dimensional space. Arbitrary position in 3D space
Figure 2014191616
An acoustic signal output from a sound source placed in
Figure 2014191616
The sound is received by Q microphones arranged in the. The distance R q between the sound source and each microphone can be obtained by the following equation.

Figure 2014191616
音源から各マイクロフォンまでの伝播時間τqは、音速をvとすると、次式で求められる。
Figure 2014191616
各マイクロフォンで受音した中心周波数ωの狭帯域信号の、音源のそれに対する利得gqは、一般的に、音源とマイクロフォン間の距離Rqと中心周波数ωの関数として定義される。
Figure 2014191616
The propagation time τ q from the sound source to each microphone can be obtained by the following equation, where the speed of sound is v.
Figure 2014191616
The gain g q of the narrow band signal having the center frequency ω received by each microphone relative to that of the sound source is generally defined as a function of the distance R q between the sound source and the microphone and the center frequency ω.

Figure 2014191616
例えば、利得を距離Rqだけの関数として、実験的に求めた次式のような関数を用いる。
Figure 2014191616
Figure 2014191616
For example, a function such as the following expression obtained experimentally is used with the gain as a function of the distance R q .
Figure 2014191616

中心周波数ωの狭帯域信号に関する、音源と各マイクロフォン間の伝達特性は、

Figure 2014191616
と表される。そして、位置P0にある音源を表す位置ベクトルa(ω,P0)を、次式のように、狭帯域信号に関する、音源と各マイクロフォン間の伝達特性を要素とする複素ベクトルとして定義する。 The transfer characteristics between the sound source and each microphone for the narrowband signal with the center frequency ω are:
Figure 2014191616
It is expressed. Then, the position vector a (ω, P 0 ) representing the sound source at the position P 0 is defined as a complex vector whose element is the transfer characteristic between the sound source and each microphone regarding the narrowband signal, as in the following equation.

(ステップ1:サブステップ2:音源位置の推定)

Figure 2014191616
音源位置の推定はMUSIC法(相関行列を固有値分解することで信号部分空間と雑音部分空間を求め、任意の音源位置ベクトルと雑音部分空間の内積の逆数を求めることにより、音源の音波到来方向や位置を調べる手法)を用いて、以下の手順で行う。q番目のマイクロフォン入力の短時間フーリエ変換を (Step 1: Sub-step 2: Estimation of sound source position)
Figure 2014191616
The sound source position is estimated by the MUSIC method (the signal subspace and the noise subspace are obtained by eigenvalue decomposition of the correlation matrix, and the reciprocal of the inner product of the arbitrary sound source position vector and the noise subspace is obtained. The following procedure is performed using a method for checking the position. Short-time Fourier transform of qth microphone input

Figure 2014191616
で表し、これを要素として観測ベクトルを次のように定義する。
Figure 2014191616
ここで、nはフレーム時刻のインデックスである。連続するN個の観測ベクトルから相関行列を次式により求める。
Figure 2014191616
The observation vector is defined as follows using this as an element.
Figure 2014191616
Here, n is an index of frame time. A correlation matrix is obtained from the continuous N observation vectors by the following equation.

Figure 2014191616
この相関行列の大きい順に並べた固有値を
Figure 2014191616
とし、それぞれに対応する固有ベクトルを
Figure 2014191616
The eigenvalues arranged in descending order of this correlation matrix
Figure 2014191616
And the corresponding eigenvectors

Figure 2014191616
とする。そして、音源数Sを次式により推定する。
Figure 2014191616
もしくは、固有値に対する閾値を設け、その閾値を超える固有値の数を音源数Sとすることも可能である。
雑音部分空間の基底ベクトルから行列Rn(ω)を次のように定義し、
Figure 2014191616
Figure 2014191616
And Then, the number S of sound sources is estimated by the following equation.
Figure 2014191616
Alternatively, a threshold value for the eigenvalue may be provided, and the number of eigenvalues exceeding the threshold value may be set as the sound source number S.
Define the matrix R n (ω) from the base vector of the noise subspace as
Figure 2014191616

周波数帯域

Figure 2014191616
および音源定位の探索領域Uを
Figure 2014191616
として、 frequency band
Figure 2014191616
And search area U for sound source localization
Figure 2014191616
As

Figure 2014191616
を計算する。そして、関数F(P)が極大値をとる座標ベクトルを求める。ここでは仮にS個の極大値を与える座標ベクトルがP1,P2,・・・,Psが推定されたとする。次にその各々の座標ベクトルにある音源のパワーを次式により求める。
Figure 2014191616
Figure 2014191616
Calculate Then, a coordinate vector in which the function F (P) takes a maximum value is obtained. Here, it is assumed that P 1 , P 2 ,..., P s are estimated as coordinate vectors that give S maximum values. Next, the power of the sound source at each coordinate vector is obtained by the following equation.
Figure 2014191616

そして、2つの閾値Fthr,Pthrを用意し、各位置ベクトルにおけるF(Ps)とP(Ps)が次の条件を満足するときに、

Figure 2014191616
Then, two threshold values F thr and P thr are prepared, and when F (P s ) and P (P s ) in each position vector satisfy the following conditions,
Figure 2014191616

連続するN個のフレーム時間内の座標ベクトルPlにおいて音が発生したと判断する。
音源位置の推定処理は連続するN個のフレームを1つのブロックとして処理する。音源位置の推定をより安定に行うためには、フレーム数Nを増やす、そして/また連続するNb個のブロックの全てで式(30)の条件が満たされたら音の発生があったと判断する。ブロック数は任意に設定する。連続するNフレームの時間内において、近似的に音源が静止していると見られるほどの速さで音源が移動している場合は、前記手法により音源の移動奇跡を捉えることができる。
It is determined that sound has occurred in the coordinate vector P 1 within N consecutive frame times.
In the sound source position estimation process, consecutive N frames are processed as one block. In order to estimate the sound source position more stably, it is determined that sound is generated when the number N of frames is increased and / or the condition of Expression (30) is satisfied in all of the consecutive Nb blocks. The number of blocks is set arbitrarily. When the sound source is moving at such a speed that the sound source can be seen to be approximately stationary within the time period of consecutive N frames, the moving miracle of the sound source can be captured by the above method.

(ステップ1:サブステップ3:周囲雑音の音波到来方向推定)
マイクロフォンアレイから遠距離にある音源の音波が到来する方向を、マイクロフォンアレイで推定する手法について以下に述べる。
複数のマイクロフォンは3次元空間中の任意の位置に配置可能である。遠距離から到来する音波は平面波として観測されると考える。
(Step 1: Sub-step 3: Estimating direction of sound wave arrival of ambient noise)
A method for estimating the direction in which sound waves of a sound source at a long distance from the microphone array arrive will be described below.
The plurality of microphones can be arranged at arbitrary positions in the three-dimensional space. Sound waves coming from a long distance are considered to be observed as plane waves.

図10は本発明のマイクロフォンアレイを用いた受音機能を説明する説明図である。
図10は、例として、任意の位置に配置された3個のマイクロフォンm1、m2、m3で、音源から到来した音波を受音する場合を示している。図10で、点cは基準点を示しており、この基準点のまわりで音波の到来方向を推定する。図10で、平面sは、基準点cを含む平面波の断面を示している。平面sの法線ベクトルnは、そのベクトルの向きを音波の伝播方向と逆向きとし、次式のように定義する。
FIG. 10 is an explanatory diagram for explaining a sound receiving function using the microphone array of the present invention.
FIG. 10 shows, as an example, a case where three microphones m1, m2, and m3 arranged at arbitrary positions receive sound waves coming from a sound source. In FIG. 10, a point c indicates a reference point, and the arrival direction of the sound wave is estimated around this reference point. In FIG. 10, the plane s indicates a cross section of a plane wave including the reference point c. The normal vector n of the plane s is defined as the following equation, with the direction of the vector opposite to the propagation direction of the sound wave.

Figure 2014191616
3次元空間中の音源の音波到来方向は2つのパラメータ(θ,φ)で表される。方向(θ,φ)から到来する音波を各マイクロフォンで受音し、そのフーリエ変換を求めることで受音信号を狭帯域信号に分解し、各受音信号の狭帯域信号毎に利得と位相を複素数として表し、それを要素として狭帯域信号毎に全受音信号分だけ並べたベクトルを音源の位置ベクトルと定義する。以下の処理において、方向(θ,φ)から到来する音波は、前述の位置ベクトルとして表現される。位置ベクトルは具体的に以下のように求められる。q番目のマイクロフォンと平面sの間の距離rqを次式により求める。
Figure 2014191616
The sound wave arrival direction of the sound source in the three-dimensional space is represented by two parameters (θ, φ). Sound waves arriving from the direction (θ, φ) are received by each microphone, and the received signal is decomposed into narrowband signals by obtaining the Fourier transform, and the gain and phase are determined for each narrowband signal of each received signal. A vector that is expressed as a complex number and is arranged as an element for all received sound signals for each narrowband signal is defined as a position vector of the sound source. In the following processing, the sound wave coming from the direction (θ, φ) is expressed as the position vector described above. Specifically, the position vector is obtained as follows. A distance r q between the q-th microphone and the plane s is obtained by the following equation.

Figure 2014191616
距離rqは平面sに関してマイクロフォンが音源側に位置すれば正となり、逆に音源と反対側にある場合は負の値をとる。音速をvとするとマイクロフォンと平面s間の伝播時間Tqは次式で表される。
Figure 2014191616
The distance r q is positive when the microphone is located on the sound source side with respect to the plane s, and is negative when the microphone is on the opposite side of the sound source. When the speed of sound is v, the propagation time T q between the microphone and the plane s is expressed by the following equation.

Figure 2014191616
平面sでの振幅を基準としてそこから距離rq離れた位置の振幅に関する利得を、狭帯域信号の中心周波数ωと距離rqの関数として次のように定義する。
Figure 2014191616
平面sでの位相を基準としてそこから距離rq離れた位置の位相差は、次式で表される。
Figure 2014191616
The gain related to the amplitude at a distance r q away from the amplitude in the plane s is defined as a function of the center frequency ω of the narrowband signal and the distance r q as follows.
Figure 2014191616
Phase difference between a position away distance r q therefrom a phase as a reference in a plane s is expressed by the following equation.

Figure 2014191616
以上より、平面sを基準として、各マイクロフォンで観測される狭帯域信号の利得と位相差は次式で表される。
Figure 2014191616
Figure 2014191616
From the above, with the plane s as a reference, the gain and phase difference of the narrowband signal observed by each microphone are expressed by the following equations.
Figure 2014191616

Q個のマイクで(θ、φ)方向から到来する音波を観測するとき、音源の位置ベクトルは、各マイクロフォンについて式(26)に従い求めた値を要素とするベクトルとして次式のように定義される。

Figure 2014191616
When observing sound waves coming from the (θ, φ) direction with Q microphones, the position vector of the sound source is defined as the following equation as a vector whose elements are values obtained according to Equation (26) for each microphone. The
Figure 2014191616

音源の位置ベクトルが定義されたら、音波の到来方向推定は、MUSIC法を用いて行われる。式(15)で与えられる行列Rn(ω)を用い、音波到来方向推定の探索領域Iを

Figure 2014191616
として、 When the position vector of the sound source is defined, the direction of arrival of the sound wave is estimated using the MUSIC method. Using the matrix R n (ω) given by Equation (15), the search region I for sound wave arrival direction estimation is
Figure 2014191616
As

Figure 2014191616
Figure 2014191616

を計算する。そして、関数J(θ、φ)が極大値を与える方向(θ、φ)を求める。ここでは仮にK個の音源が存在し、極大値を与えるK個の音波到来方向((θ1、φ1),・・・,(θk、φk))が推定されたとする。次にその各々の音波到来方向にある音源のパワーを次式により求める。 Calculate Then, the direction (θ, φ) in which the function J (θ, φ) gives the maximum value is obtained. Here, it is assumed that there are K sound sources, and K sound wave arrival directions ((θ 1 , φ 1 ),..., (Θ k , φ k )) that give maximum values are estimated. Next, the power of the sound source in each sound wave arrival direction is obtained by the following equation.

Figure 2014191616
そして、2つの閾値Jthr,Qthrを用意し、各到来方向におけるJ(θk,φk)とQ(θk,φk)が次の条件を満足するときに、
Figure 2014191616
Then, two threshold values J thr and Q thr are prepared, and when J (θ k , φ k ) and Q (θ k , φ k ) in each arrival direction satisfy the following conditions,

Figure 2014191616
Figure 2014191616

連続するN個のフレーム時間内の到来方向(θk,φk)において発声があったと判断する。音波の到来方向の推定処理は連続するN個のフレームを1つのブロックとして処理する。到来方向の推定をより安定に行うためには、フレーム数Nを増やす、そして/また連続するNb個のブロックの全てで式(31)の条件が満たされたらその方向から音波の到来があったと判断する。ブロック数は任意に設定する。連続するNフレームの時間内において、近似的に音源が静止していると見られるほどの速さで音源が移動している場合は、前記手法により音波の到来方向の移動奇跡を捉えることができる。 It is determined that there is a utterance in the direction of arrival (θ k , φ k ) within N consecutive frame times. In the process of estimating the direction of arrival of sound waves, N consecutive frames are processed as one block. In order to estimate the direction of arrival more stably, if the number of frames N is increased and / or if the condition of equation (31) is satisfied in all the consecutive Nb blocks, the sound wave has arrived from that direction. to decide. The number of blocks is set arbitrarily. When the sound source is moving at such a speed that the sound source can be seen to be approximately stationary within the time period of consecutive N frames, the moving miracle in the direction of arrival of the sound wave can be captured by the above method. .

(ステップ2:音源分離処理)
音の発生位置または到来方向は前記音源定位処理により求められている。また、周囲雑音の音源位置または到来方向も既に推定されている。これらの推定結果と式(8)と式(27)の音源位置ベクトル、そして無指向性雑音の分散を表すσを用いて、行列V(ω)を次式のように定義する。
(Step 2: Sound source separation processing)
The sound generation position or direction of arrival is obtained by the sound source localization process. Further, the sound source position or direction of arrival of ambient noise has already been estimated. Using these estimation results, the sound source position vector of Equations (8) and (27), and σ representing the variance of omnidirectional noise, the matrix V (ω) is defined as follows.

Figure 2014191616
この相関行列の大きい順に並べた固有値を
Figure 2014191616
The eigenvalues arranged in descending order of this correlation matrix

Figure 2014191616
とし、それぞれに対応する固有ベクトルを
Figure 2014191616
とする。
Figure 2014191616
And the corresponding eigenvectors
Figure 2014191616
And

ここで、相関行列V(ω)には近距離音源S個と遠距離音源K個を合わせて(S+K)個の音源が含まれているから、固有値の大きい方から(S+K)の固有値と固有ベクトルを用いて、Z(ω)を次式のように定義する。

Figure 2014191616
そして、近距離の座標ベクトルPで発生した音源を強調する分離フィルタW(ω)は、次式で与えられる。 Here, since the correlation matrix V (ω) includes (S + K) sound sources including S short-range sound sources and K long-distance sound sources, the eigenvalues and eigenvectors of (S + K) in descending order of eigenvalues. Is used to define Z (ω) as follows:
Figure 2014191616
A separation filter W (ω) that emphasizes the sound source generated by the short-distance coordinate vector P is given by the following equation.

Figure 2014191616
式(36)の分離フィルタに式(10)の観測ベクトルを乗じることで座標ベクトルPの位置で発生した音v(ω)が得られる。
Figure 2014191616
The sound v (ω) generated at the position of the coordinate vector P is obtained by multiplying the separation filter of Expression (36) by the observation vector of Expression (10).

Figure 2014191616
この強調された音源の波形信号は式(37)の逆フーリエ変換を計算することで求められる。
Figure 2014191616
The enhanced waveform signal of the sound source can be obtained by calculating the inverse Fourier transform of equation (37).

一方、遠距離の方向(θ,φ)から到来する周囲雑音を強調する場合の分離フィルタM(ω)は次式で与えられる。

Figure 2014191616
On the other hand, a separation filter M (ω) for emphasizing ambient noise coming from a long distance direction (θ, φ) is given by the following equation.
Figure 2014191616

式(38)の分離フィルタに式(10)の観測ベクトルを乗じることで方向(θ,φ)から到来する周囲雑音v(ω)が得られる。

Figure 2014191616
The ambient noise v (ω) coming from the direction (θ, φ) is obtained by multiplying the separation filter of equation (38) by the observation vector of equation (10).
Figure 2014191616

(ステップ3:分離音源からの特徴抽出と音響モデルの尤度計算、異常音の検出)
前述の音源定位処理は、歩行位置検出領域内で平面の等間隔グリッド上で行う。
時刻tにおいて式(14)により検出された音源数をNz(t)とし、その座標を、

Figure 2014191616
とする。また各位置における分離音源は、式(36)および式(37)により求められる。この分離音源からMFCC fk,jを求め、予め足音から学習した音響モデルGMMまたはHMMに基づいて尤度lk,jを求める。 (Step 3: Feature extraction from separated sound source, likelihood calculation of acoustic model, detection of abnormal sound)
The above-described sound source localization processing is performed on a flat equidistant grid within the walking position detection region.
The number of sound sources detected by the equation (14) at time t is Nz (t), and the coordinates are
Figure 2014191616
And In addition, the separated sound source at each position is obtained by Expression (36) and Expression (37). MFCC f k, j is obtained from the separated sound source, and likelihood l k, j is obtained based on the acoustic model GMM or HMM previously learned from footsteps.

時刻kにおいてi番目のパーティクルが持つ状態変数を座標x(i) k,y(i) kと、その時間差分Δx(i) k,Δy(i) kとし、この状態変数が次のプロセス方程式に従うと仮定する。パーティクルの総数はNpとする(i=1,…,Np)。

Figure 2014191616
ここでL*()は次式のリミッタ関数である。
Figure 2014191616
またδ*,ξ*は次式のプロセス雑音である。
Figure 2014191616
The state variables of the i-th particle at time k are coordinates x (i) k , y (i) k and their time differences Δx (i) k , Δy (i) k, and these state variables are the following process equations: Assuming that The total number of particles is N p (i = 1,..., N p ).
Figure 2014191616
Here, L * () is a limiter function of the following equation.
Figure 2014191616
Also, δ * and ξ * are process noise of the following equation.
Figure 2014191616

マイクロフォンアレイシステムから時刻kにおいて送られる観測座標、

Figure 2014191616
と、状態変数の座標x(i) k,y(i) kの間に次の観測方程式の関係を仮定する。
Figure 2014191616
ここでζ*は次式の観測雑音である。
Figure 2014191616
Observation coordinates sent from the microphone array system at time k,
Figure 2014191616
And the relationship of the following observation equation between the coordinates x (i) k and y (i) k of the state variables.
Figure 2014191616
Here, ζ * is the observation noise of the following equation.
Figure 2014191616

パーティクルの重みw(i) kを次式により更新する。

Figure 2014191616
The particle weight w (i) k is updated by the following equation.
Figure 2014191616

歩行音や足音以外の環境騒音による動線推定への影響を抑えるために、歩行音または足音らしさを表す音響モデルの尤度lk,jを導入している。また、音源定位処理で得られる音源位置は周囲雑音などの影響により突発的に大きな誤差を含む場合があるが、そのような突発的な誤差の影響を抑えるために、時刻kにおける重みの更新に、現時刻も含めてNk前まで過去に遡り観測された座標も計算に含める。また、複数のマイクロフォンアレイ装置から非同期に送られてくる位置情報は、マイクロフォン装置間で推定時刻に差が生じるが、これらの情報を統合するためにも、一定の時間幅を持たせる必要がある。 In order to suppress the influence on the flow line estimation caused by environmental noise other than walking sounds and footsteps, the likelihood l k, j of an acoustic model representing the likelihood of walking sounds or footsteps is introduced. In addition, the sound source position obtained by the sound source localization processing may include a large error suddenly due to the influence of ambient noise, etc. In order to suppress the influence of such a sudden error, the weight at time k is updated. In addition, coordinates that have been observed in the past up to N k before including the current time are also included in the calculation. In addition, position information sent asynchronously from a plurality of microphone array devices has a difference in estimated time between the microphone devices. In order to integrate these pieces of information, it is necessary to have a certain time width. .

但し、過去になるほど影響の度合いを低くするために忘却係数α,(0<α≦1)を導入している。一般的に高齢者の歩行はゆっくりであるため、過去の歩行位置を含めることにより生じる遅延の影響は限定的である。パーティクルの尤度は次式により与えられる。

Figure 2014191616
However, the forgetting factor α, (0 <α ≦ 1) is introduced in order to reduce the degree of influence as it becomes the past. In general, since elderly people walk slowly, the influence of delay caused by including past walking positions is limited. The likelihood of a particle is given by
Figure 2014191616

次に重みの正規化を次式により行う。

Figure 2014191616
重みの降順にパーティクルをソートする。最大の重みが閾値THRwより小さい場合、足音はないものと判断する。
最大の重みに一定の割合β,(0≦β<1)を乗じた値を閾値とする。その閾値THRβ以上の重みを持つパーティクルを対象に、以下の手順で互いに距離が一定値D以上離れるNs個のクラスCk,s,s=1,…,Nsに分類する。クラスCk,sは、このクラスに属するパーティクル番号iの集合である。この時Nsは同時に歩いている人数を表す。 Next, weight normalization is performed by the following equation.
Figure 2014191616
Sort particles in descending order of weight. If the weight of the maximum threshold THR w smaller, it is determined that there is no footsteps.
A value obtained by multiplying the maximum weight by a certain ratio β and (0 ≦ β <1) is set as a threshold value. Targeting particles having a weight of more than the threshold THR beta, N s number of class C k away distance more than a predetermined value D to each other by the following steps, s, s = 1, ... , classified into N s. Class C k, s is a set of particle numbers i belonging to this class. At this time, N s represents the number of people walking at the same time.

まず、Ns=1として、最大重みのパーティクルの座標から距離D以内にあるパーティクルを取り出し、同じクラスに分類する。次に、未分類のパーティクルの中で最大の重みを持つパーティクルを選択しクラス数Nsを1つ増やし、同様に未分類のパーティクルの中で距離がD以内にあるパーティクルを同じクラスに分類する。 First, assuming that N s = 1, particles within the distance D from the coordinates of the most weighted particle are taken out and classified into the same class. Next, a particle having the maximum weight among unclassified particles is selected and the number of classes N s is increased by 1. Similarly, particles having a distance within D among unclassified particles are classified into the same class. .

この処理を重みが閾値THRβ以上の全てのパーティクルが分類されるまで繰り返す。
そして各クラスの座標の推定値を次式により求める。

Figure 2014191616
This process is repeated until all particles having a weight equal to or greater than the threshold THR β are classified.
Then, the estimated value of the coordinates of each class is obtained by the following equation.
Figure 2014191616

最後に全パーティクルが一様な重みを持つようにリサンプリングする。

Figure 2014191616
Finally, resampling is performed so that all particles have a uniform weight.
Figure 2014191616

(ステップ4:歩行人数と動線の推定)
時刻kにおいて、足音の数がNsと推定され、各足音の座標が式(50)により推定されている。歩行動線を求めるには、これら時刻kの推定結果と時刻k−1の推定結果を結び付ける必要がある。これは以下の様に行う。
(Step 4: Estimate number of people walking and traffic lines)
At time k, the number of footsteps is estimated to be N s, and the coordinates of each footstep are estimated by equation (50). In order to obtain the walking flow line, it is necessary to link the estimation result at time k and the estimation result at time k-1. This is done as follows.

図11は、時刻k−1においてパーティクルが4つのクラスに分類され、各クラスの確率分布が実線のように表され、そして各クラスで推定された座標が実線で示された確率分布の間の点のように推定されたと仮定している。また時刻kにおいてはパーティクルが3つのクラスに分類され、各クラスで点線で示された確率分布の間の点のように足音の座標が推定されたとする。この時刻kで推定された3つの座標のそれぞれについて、以下の処理を行う。   FIG. 11 shows that particles are classified into four classes at time k−1, the probability distribution of each class is represented as a solid line, and the coordinates estimated in each class are between the probability distributions indicated by the solid line. It is assumed that it was estimated like a point. It is also assumed that at time k, the particles are classified into three classes, and the footstep coordinates are estimated as points between probability distributions indicated by dotted lines in each class. The following processing is performed for each of the three coordinates estimated at time k.

まずクラスCk,1を例にすると、推定した座標を中心に半径Rの円を考え、その中に座標が入る時刻k−1のクラスの中で最も近いクラスを選択する。この例では、クラスCk-1,1が選択され、クラスCk-1,1の座標からクラスCk,1の座標へと動線が延長される。クラスCk,2の場合は、半径Rの円内に2つのクラスCk-1,2とCk-1,3が存在する。この場合、距離が最も小さくなるクラスCk-1,2が選択され、クラスCk-1,2の座標からクラスCk,2の座標へと動線が延長される。クラスCk-1,3は選択されず消滅する。 First , taking the class C k, 1 as an example, consider a circle with a radius R around the estimated coordinates, and select the closest class among the classes at time k−1 in which the coordinates fall. In this example, class C k-1,1 is selected, and the flow line is extended from the coordinates of class C k-1,1 to the coordinates of class C k, 1 . In the case of class C k, 2 , there are two classes C k-1,2 and C k-1,3 in a circle with radius R. In this case, the class C k-1,2 having the smallest distance is selected, and the flow line is extended from the coordinates of the class C k-1,2 to the coordinates of the class C k, 2 . Class C k-1,3 disappears without being selected.

クラスCk,3の場合は、半径Rの円内に以前の推定結果が存在しないため、新たな動線の起点となる。クラスCk,3の場合は、動線の延長先が見つからないので、消滅する。
一方、短時間立ち止まったあと再び歩き始めた場合など、動線が途切れることなく繋がっていた方が良い場合もある。このような場合、上記の消滅条件を満たしても即刻消滅するのではなく、Time To Live(TTL)カウンタを用意して、消滅条件を満たした後、TTLカウンタがゼロになるまで保存し、同座標に留めておく等の処理を行う。
In the case of class C k, 3 , the previous estimation result does not exist in the circle of radius R, so that it becomes the starting point of a new flow line. In the case of class C k, 3 , since the extension of the flow line is not found, it disappears.
On the other hand, there are cases where it is better that the flow line is connected without interruption, such as when walking again after stopping for a short time. In such a case, even if the above annihilation condition is satisfied, it does not immediately disappear, but a Time To Live (TTL) counter is prepared, and after the annihilation condition is satisfied, it is stored until the TTL counter becomes zero. Processing such as keeping the coordinates is performed.

図2に示すレイアウトのように実験室に簡易的な居住空間を構築し、動線検出領域内(X軸[250:550]×Y軸[0:300])で円を描くように摺り足で数周歩行したときの歩行音と、環境騒音としてテレビ音声とを別々に収録した。テレビの音量は健常者の耳で通常と思われるレベルとした。このテレビ音声と歩行音との間でSNRを計算すると1dB強であった。実験では、歩行音のみの場合(Clean)、通常レベルのテレビ音声との混合(SNR1dB)、そして高齢者は難聴傾向にあるためテレビの音量を大きめに設定することから、テレビ音声を増幅後に混合(SNR-5dB)して、雑音重畳歩行音を生成した。   As shown in the layout shown in FIG. 2, a simple living space is constructed in the laboratory, and a sliding foot is drawn so as to draw a circle in the flow line detection area (X axis [250: 550] × Y axis [0: 300]). The footstep sound when walking several times and TV sound as environmental noise were recorded separately. The volume of the TV was set to a level considered normal by the ears of healthy individuals. The SNR calculated between the TV sound and the walking sound was over 1 dB. In the experiment, walking sound alone (Clean), mixing with normal level TV sound (SNR 1 dB), and elderly people tend to be deaf, so the volume of the TV is set higher. (SNR-5 dB) to generate a noise superimposed walking sound.

テレビ音声の混合レベルが異なるこれら3種類の歩行音から、提案法により推定した動線の各時刻における座標のプロットを図12に示す。図中、+はClean、×は1dB、*は−5dBの結果を示す。また、図13から図15に各動線を単独で示した。音源定位は10cm間隔のグリッド上で行った。何れの結果も歩行通りに円を描くような動線が得られている。また、これら3種類の結果を比較するとおおよそ一致していることから、テレビ音声の干渉に対して頑健な動線推定が行えていることがわかる。   FIG. 12 shows a plot of coordinates at each time of the flow line estimated by the proposed method from these three kinds of walking sounds with different mixing levels of television sound. In the figure, + indicates a result of Clean, x indicates a result of 1 dB, and * indicates a result of −5 dB. Further, each flow line is shown independently in FIGS. Sound source localization was performed on a grid with 10 cm intervals. In both results, a flow line that draws a circle as it walks is obtained. Further, when these three types of results are compared with each other, they are almost the same, and thus it is understood that the flow line estimation robust against the interference of the television sound can be performed.

本発明の方法は、センサ情報統合装置として、表示部を備えたポータブルPC利用し、C言語で作成したプログラムで検証した。
ただし、本発明の方法を実行するプログラムの言語は問わない。
また実行環境や実装環境により異なるモデュールとあってもよい。
プログラムの実行環境は、マイクロフォンアレイ装置、センサ情報統合装置、クラウドあるいはアプリケーションサーバであってもよく、また機能は一装置に統合されていてもよいし、分散されていてもよい。
プログラムの装置またはシステムへの実装は、起動時読み込み、実行時読み込み、あるいはあらかじめ装置に組み込まれていてもよい。
In the method of the present invention, a portable PC having a display unit was used as a sensor information integration device, and verification was performed using a program created in C language.
However, the language of the program that executes the method of the present invention is not limited.
There may be different modules depending on the execution environment and the mounting environment.
The execution environment of the program may be a microphone array device, a sensor information integration device, a cloud or an application server, and the functions may be integrated into one device or may be distributed.
The implementation of the program in the device or system may be read at startup, read at execution time, or previously installed in the device.

本発明は、主に室内空間に居住する高齢独居者をモデルにした見守りシステムとして提案したが、他に、屋根裏や床下等の(小)動物、(夜間)動物園の檻の動物の異常行動(遠隔)監視にも利用できる。
人と動物とでは歩行音・足音の特徴が異なるので、事前に(監視)対象動物の歩行音の音響モデルを作成しておくと動線推定が最適化される。
The present invention has been proposed as a watch system based on elderly singles living mainly in indoor spaces, but in addition, abnormal behavior of (small) animals such as attics and under floors, (night) zoo animals ( It can also be used for remote monitoring.
Since the characteristics of walking sounds and footsteps differ between humans and animals, flow line estimation is optimized if an acoustic model of the walking sound of the target animal is created in advance (monitoring).

1 マイクロフォン
2 マイクロフォン
3 マイクロフォンアレイ装置
4 センサ情報統合装置
5 ハブ
6 ベッド圧力センサ
7 車椅子位置方向センサ・搭乗検知センサ
8 音声対話ロボット
9 モニタ(電気機器の動作状況)
10 タブレットやスマートフォンなど情報端末
11 クラウド
12 アプリケーションサーバ
13 通信網
DESCRIPTION OF SYMBOLS 1 Microphone 2 Microphone 3 Microphone array apparatus 4 Sensor information integration apparatus 5 Hub 6 Bed pressure sensor 7 Wheelchair position direction sensor / boarding detection sensor 8 Spoken dialogue robot 9 Monitor (operation status of electrical equipment)
10 Information terminals such as tablets and smartphones 11 Cloud 12 Application server 13 Communication network

Claims (9)

マイクロフォンアレイ装置とセンサ情報統合装置からなる室内空間の歩行音の動線推定装置であって、
センサ情報統合装置はさらに室内空間を表示する表示部と信号処理部とを備えてマイクロフォンアレイ装置と接続され、
室内空間にマイクロフォンアレイを2個1組にして「ハ」の字型に配置され、
室内空間の歩行音がマイクロフォンアレイ1組で録音されて歩行音アナログ信号はAD変換されて歩行音デジタル信号が生成され、
MUSIC法を用いて歩行音デジタル信号から音源位置および到来方向が推定され(ステップ1)、
変形最小分散ビームフォーマによる音源分離され(ステップ2)、
音源分離された分離音源から特徴が抽出され、音響モデルの尤度計算がされ、異常音が検出され(ステップ3)、
パーティクルフィルタによる歩行人数と動線が推定されて(ステップ4)、
推定された歩行動線がセンサ情報統合装置の表示部に表示されることを特徴とする室内空間の歩行音の動線推定装置。
A device for estimating the flow of a walking sound in an indoor space comprising a microphone array device and a sensor information integration device,
The sensor information integration device further includes a display unit for displaying the indoor space and a signal processing unit, and is connected to the microphone array device.
In the indoor space, two microphone arrays are grouped and arranged in a “C” shape,
The walking sound in the indoor space is recorded with one microphone array, the walking sound analog signal is AD converted, and the walking sound digital signal is generated,
The sound source position and direction of arrival are estimated from the walking sound digital signal using the MUSIC method (step 1),
The sound source is separated by a modified minimum dispersion beamformer (step 2),
Features are extracted from the separated sound sources, the likelihood of the acoustic model is calculated, and abnormal sounds are detected (step 3).
The number of people walking and the flow line are estimated by the particle filter (step 4),
An estimated walking flow line is displayed on a display unit of a sensor information integration device.
前記音響モデルの尤度計算は、歩行音・足音の音響モデルを用いて行うことを特徴とする請求項1に記載の室内空間の歩行音の動線推定装置。   The apparatus of claim 1, wherein the likelihood calculation of the acoustic model is performed using an acoustic model of a walking sound / footstep. 前記パーティクルフィルタの重みづけは、過去に観測された音源位置を評価して行うことを特徴とする請求項1乃至請求項2のいずれか1項に記載の室内空間の歩行音の動線推定装置。   The apparatus for estimating a flow line of walking sound in an indoor space according to any one of claims 1 to 2, wherein the weighting of the particle filter is performed by evaluating a sound source position observed in the past. . マイクロフォンアレイ装置とセンサ情報統合装置からなる室内空間の歩行音の動線推定装置に使用される室内空間の歩行音の動線推定方法であって、
センサ情報統合装置はさらに室内空間を表示する表示部と信号処理部とを備えてマイクロフォンアレイ装置と接続され、
室内空間にマイクロフォンアレイを2個1組にして「ハ」の字型に配置され、
室内空間の歩行音がマイクロフォンアレイ1組で録音されて歩行音アナログ信号はAD変換されて歩行音デジタル信号が生成され、
MUSIC法を用いて歩行音デジタル信号から音源位置および到来方向が推定され(ステップ1)、
変形最小分散ビームフォーマによる音源分離され(ステップ2)、
音源分離された分離音源から特徴が抽出され、音響モデルの尤度計算がされ、異常音が検出され(ステップ3)、
パーティクルフィルタによる歩行人数と動線が推定される(ステップ4)、
ことを特徴とする室内空間の歩行音の動線推定方法。
An indoor space walking sound flow line estimation method used in a indoor space walking sound flow line estimation device comprising a microphone array device and a sensor information integration device,
The sensor information integration device further includes a display unit for displaying the indoor space and a signal processing unit, and is connected to the microphone array device.
In the indoor space, two microphone arrays are grouped and arranged in a “C” shape,
The walking sound in the indoor space is recorded with one microphone array, the walking sound analog signal is AD converted, and the walking sound digital signal is generated,
The sound source position and direction of arrival are estimated from the walking sound digital signal using the MUSIC method (step 1),
The sound source is separated by a modified minimum dispersion beamformer (step 2),
Features are extracted from the separated sound sources, the likelihood of the acoustic model is calculated, and abnormal sounds are detected (step 3).
The number of people walking and the flow line are estimated by the particle filter (step 4),
A method of estimating a flow line of walking sound in an indoor space.
前記音響モデルの尤度計算は、歩行音・足音の音響モデルを用いて行うことを特徴とする請求項4に記載の室内空間の歩行音の動線推定方法。   5. The method for estimating a flow of a walking sound in an indoor space according to claim 4, wherein the likelihood calculation of the acoustic model is performed using an acoustic model of a walking sound / footstep. 前記パーティクルフィルタの重みづけは、過去に観測された音源位置を評価して行うことを特徴とする請求項4乃至請求項5のいずれか1項に記載の室内空間の歩行音の動線推定方法。   The method for estimating a flow line of walking sound in an indoor space according to any one of claims 4 to 5, wherein the weighting of the particle filter is performed by evaluating a sound source position observed in the past. . 請求項1乃至請求項3のいずれか1項に記載の前記室内空間の歩行音の動線推定装置のセンサ情報統合装置はさらに室内空間で使用される電気機器の動作センサと接続され、
前記各センサの出力信号はセンサ情報統合装置に伝送され、
センサ情報統合装置は、各出力信号をその電気機器の動作情報に変換し、
センサ情報統合装置は、前記推定された歩行動線情報と併せて上記変換された電気機器の動作情報を通信網に送信し、
前記送信された歩行動線情報と動作情報を通信網から受信した情報端末は表示画面を備え、時間シフトのスクロールバーの示す時刻の室内空間の歩行動線情報と電気機器の動作情報を前記表示画面にリアルタイム表示することを特徴とする遠隔室内空間見守りサービス提供システム。
The sensor information integration device of the flow estimation device for walking sound in the indoor space according to any one of claims 1 to 3, is further connected to an operation sensor of an electric device used in the indoor space,
The output signal of each sensor is transmitted to the sensor information integration device,
The sensor information integration device converts each output signal into operation information of the electrical device,
The sensor information integration device transmits the converted operation information of the electric device together with the estimated walking flow line information to a communication network,
The information terminal which has received the transmitted walking flow line information and operation information from the communication network has a display screen, and displays the walking flow line information in the indoor space at the time indicated by the time shift scroll bar and the operation information of the electric device. A remote indoor space monitoring service providing system that displays in real time on the screen.
前記電気機器には、ベッド圧力センサ、車椅子搭載の位置・方向センサ、音声対話ロボットの音声認識装置が含まれることを特徴とする請求項7記載の遠隔室内空間見守りシステム。   8. The remote indoor space monitoring system according to claim 7, wherein the electric device includes a bed pressure sensor, a position / direction sensor mounted on a wheelchair, and a voice recognition device of a voice interactive robot. 請求項4乃至6のいずれか1項に記載された室内空間の歩行音の動線推定方法を実行するためのプログラム。   The program for performing the flow line estimation method of the walking sound of indoor space described in any one of Claims 4 thru | or 6.
JP2013066992A 2013-03-27 2013-03-27 Method and device for monitoring aged person living alone, and service provision system Pending JP2014191616A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013066992A JP2014191616A (en) 2013-03-27 2013-03-27 Method and device for monitoring aged person living alone, and service provision system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013066992A JP2014191616A (en) 2013-03-27 2013-03-27 Method and device for monitoring aged person living alone, and service provision system

Publications (1)

Publication Number Publication Date
JP2014191616A true JP2014191616A (en) 2014-10-06

Family

ID=51837803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013066992A Pending JP2014191616A (en) 2013-03-27 2013-03-27 Method and device for monitoring aged person living alone, and service provision system

Country Status (1)

Country Link
JP (1) JP2014191616A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028512A (en) * 2017-07-25 2019-02-21 パナソニックIpマネジメント株式会社 Information processing method and information processing device
WO2019189481A1 (en) * 2018-03-28 2019-10-03 日本電産株式会社 Acoustic analysis system
CN113450537A (en) * 2021-06-25 2021-09-28 北京小米移动软件有限公司 Fall detection method and device, electronic equipment and storage medium
WO2021199284A1 (en) * 2020-03-31 2021-10-07 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
WO2021220757A1 (en) * 2020-05-01 2021-11-04 ピクシーダストテクノロジーズ株式会社 Information processing device, information processing method, and program

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JPN6016038577; 佐宗晃 外1名[Akira SASOU]: '"独居高齢者の見守りを目的とした歩行音からの動線推定"' 日本音響学会2013年春季研究発表会講演論文集CD-ROM[CD-ROM] , 20130326, Page 941-942 *
JPN6016038578; SASOU,A 外1名: '"Noise Robust Speech Recognition Applied to Voice-Driven Wheelchair"' EURASIP Journal on Advances in Signal Processing Volume 2009, 2009, Aricle ID 512314, 9 Pages *
JPN6016038580; 佐宗晃 外1名[Akira SASOU]: '"高次局所自己相関を用いた異常音検知"' 日本音響学会2011年秋季研究発表会講演論文集CD-ROM[CD-ROM] , 20110929, Pages 759-760 *
JPN6016038582; 河本満 外2名[Mitsuru KAWAMOTO]: '"マイクロフォンアレイを用いた音環境の見守りによる非日常音と危険状態の検出システム"[A Security Moni' 電子情報通信学会技術研究報告 IEICE Technical Report Volume 108, Number 138, 20080710, Pages 19-26, 社団法人電子情報通信学会 The Institute of Electro *
JPN6016038583; 大塚琢馬 外3名: '"MUSIC法を用いた音源定位のベイズ拡張"' 第29回日本ロボット学会学術講演会予稿集DVD-ROM[DVD-ROM] , 20110907, Pages 1737-1740, 一般社団法人日本ロボット学会 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028512A (en) * 2017-07-25 2019-02-21 パナソニックIpマネジメント株式会社 Information processing method and information processing device
JP7038338B2 (en) 2017-07-25 2022-03-18 パナソニックIpマネジメント株式会社 Information processing method and information processing equipment
WO2019189481A1 (en) * 2018-03-28 2019-10-03 日本電産株式会社 Acoustic analysis system
CN112005087A (en) * 2018-03-28 2020-11-27 日本电产株式会社 Acoustic analysis system
WO2021199284A1 (en) * 2020-03-31 2021-10-07 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
EP4131266A4 (en) * 2020-03-31 2023-05-24 Sony Group Corporation Information processing device, information processing method, and information processing program
WO2021220757A1 (en) * 2020-05-01 2021-11-04 ピクシーダストテクノロジーズ株式会社 Information processing device, information processing method, and program
CN113450537A (en) * 2021-06-25 2021-09-28 北京小米移动软件有限公司 Fall detection method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
US10063965B2 (en) Sound source estimation using neural networks
US9813810B1 (en) Multi-microphone neural network for sound recognition
US9618918B2 (en) System and method for estimating the number of people in a smart building
Khan et al. An unsupervised acoustic fall detection system using source separation for sound interference suppression
US9635481B2 (en) Failure detection system and failure detection method
Li et al. A microphone array system for automatic fall detection
Chen et al. A fall detection system based on infrared array sensors with tracking capability for the elderly at home
CN110875060A (en) Voice signal processing method, device, system, equipment and storage medium
US11941968B2 (en) Systems and methods for identifying an acoustic source based on observed sound
Li et al. Smart home monitoring system via footstep-induced vibrations
JP2014191616A (en) Method and device for monitoring aged person living alone, and service provision system
US11924618B2 (en) Auralization for multi-microphone devices
Hollosi et al. Enhancing wireless sensor networks with acoustic sensing technology: use cases, applications & experiments
Feng et al. An adl recognition system on smart phone
Li et al. Improvement of acoustic fall detection using Kinect depth sensing
US11495111B2 (en) Indoor occupancy estimation, trajectory tracking and event monitoring and tracking system
US20240000376A1 (en) Processing Radio Frequency Wireless Signals in a Motion Detection System
Sansano-Sansano et al. Multimodal sensor data integration for indoor positioning in ambient-assisted living environments
Ciuffreda et al. People detection measurement setup based on a DOA approach implemented on a sensorised social robot
Siriwardhana et al. Classification of activities of daily living based on depth sequences and audio
KR102465105B1 (en) Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data
Kojima et al. HARK-Bird-Box: a portable real-time bird song scene analysis system
Perez et al. Acoustic event localization on an Arduino-based wireless sensor network
Mesa-Cantillo et al. A sound events detection and localization system based on YAMNet model and BLE beacons
KR102566617B1 (en) Apparatus and method for detecting disaster based on artificial intelligence model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170425