JP2012168647A - Device and method for analysis of walking sound, and program - Google Patents
Device and method for analysis of walking sound, and program Download PDFInfo
- Publication number
- JP2012168647A JP2012168647A JP2011027660A JP2011027660A JP2012168647A JP 2012168647 A JP2012168647 A JP 2012168647A JP 2011027660 A JP2011027660 A JP 2011027660A JP 2011027660 A JP2011027660 A JP 2011027660A JP 2012168647 A JP2012168647 A JP 2012168647A
- Authority
- JP
- Japan
- Prior art keywords
- walking
- category
- value
- footstep
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
本発明は、歩行に伴って発生する種々の音を分析することにより、対象者が持つ特徴の推定や、対象者の個人の識別・認証を行うための歩行音分析技術に関する。 The present invention relates to a walking sound analysis technique for estimating characteristics of a target person and identifying and authenticating the target person by analyzing various sounds generated with walking.
従来、マイクロホンアレーで検出した歩行音を分析して、足音が発生した音発生位置や音発生時刻を抽出する技術が提案されている(例えば、非特許文献1や非特許文献2等参照)。これは、マイクロホンペアに対する音の到達時間差を利用して音源位置を推定する技術に基づいている。これにより、歩行者の歩幅や歩行速度などを算出することができる。
Conventionally, a technique for analyzing a walking sound detected by a microphone array and extracting a sound generation position and a sound generation time at which a footstep sound has been proposed (see, for example, Non-Patent
一般に、人の歩行に伴って生じる足音を含む歩行音には、歩き方の癖に起因する歩行音の差異、各人の服装や持ち物などの付帯物に関する特徴など、各人固有の特徴が含まれていることは、日常経験上知られている。また、人の足音を聞いて、その人が誰かを直感的に判別できる場合もある。
しかしながら、前述した従来技術では、歩行者の歩幅や歩行速度については定量的に評価できるものの、例えば身長、体重、性別、年齢などの身体的特徴、歩行障害や特定の疾病などの運動機能的特徴、あるいは歩き方における各人固有の特徴など、歩行音から人が持つ特徴を判定することはできない。
In general, walking sounds, including footsteps that occur as a person walks, include characteristics unique to each person, such as differences in walking sounds caused by habits of walking, and characteristics associated with each person's clothes and belongings. It is known from daily experience. In some cases, a person's footsteps can be heard to intuitively determine who the person is.
However, with the above-described conventional technology, although the pedestrian's stride and walking speed can be quantitatively evaluated, physical features such as height, weight, sex, and age, and motor functional features such as gait disturbance and specific diseases, etc. In addition, it is impossible to determine a feature of a person from a walking sound such as a feature unique to each person in walking.
本発明はこのような課題を解決するためのものであり、歩行音に基づいて人の特徴を判定することができる歩行音分析技術を提供することを目的としている。 The present invention has been made to solve such a problem, and an object thereof is to provide a walking sound analysis technique capable of determining a human characteristic based on a walking sound.
このような目的を達成するために、本発明にかかる歩行音分析装置は、対象者の歩行に伴って生じる足音を含む歩行音信号を音響信号処理することにより、各足音が発生した音発生位置および音発生時刻をそれぞれ抽出する歩行音処理部と、歩行音処理部で得られた各足音の音発生位置および音発生時刻に基づいて、対象者の歩行状態に関する特徴を示す歩行状態パラメータ値を算出するパラメータ算出部と、人が持つ特徴に応じて予め設定した人の分類区分ごとに、当該分類区分に属する人の足音から得た歩行状態パラメータ値の頻度分布を示す確率分布特性を記憶する確率分布データベースと、パラメータ算出部で得られた対象者の歩行状態パラメータ値に対応する確率値を、分類区分ごとに確率分布データベースから取得して統合することにより、分類区分ごとに評価値を算出し、最も高い評価値が得られた分類区分を対象者に関する分類区分として判定する区分判定部とを備えている。 In order to achieve such an object, the walking sound analysis apparatus according to the present invention performs acoustic signal processing on a walking sound signal including a footstep sound that occurs as the subject walks, thereby generating a sound generation position where each footstep sound is generated. And a walking sound processing unit for extracting the sound generation time, and a walking state parameter value indicating characteristics regarding the walking state of the subject based on the sound generation position and the sound generation time of each footstep obtained by the walking sound processing unit. A parameter calculation unit to be calculated and a probability distribution characteristic indicating a frequency distribution of walking state parameter values obtained from footsteps of a person belonging to the classification category for each classification category of the person set in advance according to the characteristics of the person The probability distribution database and the probability values corresponding to the walking state parameter values of the subject obtained by the parameter calculation unit are acquired from the probability distribution database for each classification category and integrated. And by, calculating an evaluation value for each classification category, and a determining category determination unit as classification categories related subjects the classification category which the highest evaluation value is obtained.
この際、歩行音処理部で、歩行音信号から抽出した足音を示す足音信号について、当該足音信号に関する音響的特徴を示す特徴値をそれぞれ算出し、パラメータ算出部で、歩行音処理部で得られた各特徴値に関する統計値を、対象者の足音パラメータ値としてそれぞれ算出し、確率分布データベースで、分類区分ごとに、当該分類区分に属する人の足音から得た各足音パラメータ値の頻度分布を示す確率分布特性を記憶し、区分判定部で、分類区分ごとに評価値を算出する際、対象者の各足音パラメータ値に対応する確率値を、分類区分ごとに確率分布データベースから取得して、対応する分類区分の評価値へそれぞれ統合するようにしてもよい。 At this time, for the footstep signal indicating the footsteps extracted from the walking sound signal, the walking sound processing portion calculates the feature values indicating the acoustic features relating to the footstep signal, and the parameter calculation portion obtains the walking sound processing portion. Statistical values for each feature value are calculated as the footstep parameter values of the target person, and the frequency distribution of each footstep parameter value obtained from the footsteps of the person belonging to the classification category is shown for each classification category in the probability distribution database. When storing probability distribution characteristics and calculating an evaluation value for each classification category in the category determination unit, obtain probability values corresponding to each footstep parameter value of the target person from the probability distribution database for each category category You may make it integrate each into the evaluation value of the classification division to do.
また、歩行音処理部で、歩行音信号から抽出した足音を示す足音信号について、当該足音信号に関する音響的特徴を示す特徴値をそれぞれ算出し、パラメータ算出部で、歩行音処理部で得られた各特徴値に関する統計値を、対象者の足音パラメータ値としてそれぞれ算出し、人が履く履物に関する履物種別と、当該履物種別の履物を履いた人の足音から得た各足音パラメータ値との対応関係を示す履物種別データベースをさらに備え、履物種別データベースを参照して、パラメータ算出部で得られた対象者の足音パラメータ値に対応する履物種別を対象者の履物種別として判定する履物種別判定部をさらに備え、確率分布データベースで、分類区分ごとに、当該分類区分に属する人が履く履物に関する、履物種別ごとの頻度分布を示す確率分布特性をさらに記憶し、区分判定部で、分類区分ごとに評価値を算出する際、履物種別判定部で得られた対象者の履物種別に対応する確率値を、分類区分ごとに確率分布データベースから取得して、対応する分類区分の評価値へそれぞれ統合するようにしてもよい。 In addition, for the footstep signal indicating the footsteps extracted from the walking sound signal in the walking sound processing unit, the feature values indicating the acoustic features related to the footstep signal are respectively calculated, and the parameter calculation unit obtained by the walking sound processing unit The statistical value for each feature value is calculated as the footstep parameter value of the target person, and the correspondence between the footwear type related to the footwear worn by the person and the footstep parameter value obtained from the footstep sound of the person wearing the footwear of the footwear type A footwear type database that further includes a footwear type determination unit that refers to the footwear type database and determines the footwear type corresponding to the footstep parameter value of the target person obtained by the parameter calculation unit as the footwear type of the target person. Prepared in the probability distribution database, the probability distribution indicating the frequency distribution for each footwear type for footwear worn by persons belonging to that category. The characteristics are further stored, and when the category determination unit calculates an evaluation value for each classification category, the probability value corresponding to the footwear type of the target person obtained by the footwear type determination unit is obtained from the probability distribution database for each classification category. It may be acquired and integrated into the evaluation value of the corresponding classification category.
また、歩行音処理部で、歩行音信号を収音処理することにより、対象者の周囲に設けた観測点ごとに、当該観測点で発生した音を示す観測点信号を生成して、これら観測点信号ごとに当該観測点信号に関する音響的特徴を示す観測点特徴値をそれぞれ算出し、パラメータ算出部で、歩行音処理部で得られた各観測点特徴値に関する統計値を、観測点ごとに対象者の観測点パラメータ値としてそれぞれ算出し、人に付帯する付帯物に関する付帯物種別と、当該付帯物種別の付帯物を付帯した人の観測点信号から得た各観測点パラメータ値との対応関係を示す付帯物種別データベースをさらに備え、付帯物種別データベースを参照して、パラメータ算出部で得られた対象者の観測点パラメータ値に対応する付帯物種別を対象者の付帯物種別として判定する付帯物種別判定部をさらに備え、確率分布データベースで、分類区分ごとに、当該分類区分に属する人が付帯する付帯物に関する、付帯物種別ごとの頻度分布を示す確率分布特性をさらに記憶し、区分判定部で、分類区分ごとに評価値を算出する際、対象者の付帯物種別に対応する確率値を、分類区分ごとに確率分布データベースから取得して、対応する分類区分の評価値へそれぞれ統合するようにしてもよい。 In addition, the walking sound processing unit collects the walking sound signal to generate observation point signals indicating the sound generated at the observation point for each observation point provided around the subject. For each point signal, an observation point feature value indicating an acoustic feature related to the observation point signal is calculated, and in the parameter calculation unit, a statistical value regarding each observation point feature value obtained by the walking sound processing unit is calculated for each observation point. Correspondence between the incident type for the incidental that accompanies the person and each observation point parameter value obtained from the observation point signal of the person who accompanies the incidental of the incident type An accessory type database indicating the relationship is further provided, and the accessory type corresponding to the observation point parameter value of the subject obtained by the parameter calculation unit is referred to as the accessory type of the subject with reference to the accessory type database. A probability distribution characteristic indicating a frequency distribution for each accessory type with respect to an accessory attached by a person belonging to the classification category for each classification category in the probability distribution database. When the evaluation value is calculated for each classification category by the category determination unit, the probability value corresponding to the target person's accessory type is obtained from the probability distribution database for each classification category and converted to the evaluation value of the corresponding classification category. Each may be integrated.
また、パラメータ算出部で、歩行状態パラメータ値として、少なくとも対象者の歩幅、歩行速度、移動中心線から左右方向への開き幅、および1歩の時間間隔のうちのいずれか1つまたは複数に関する統計量、あるいは足音信号のスペクトログラムから抽出した当該足音信号の音響的特徴を示す特徴情報を算出するようにしてもよい。 Further, in the parameter calculation unit, the statistic on at least one of the step length of the subject, the walking speed, the opening width from the moving center line in the left-right direction, and the time interval of one step as the walking state parameter value. You may make it calculate the feature information which shows the acoustic feature of the said footstep signal extracted from the quantity or the spectrogram of the footstep signal.
また、区分判定部で、分類区分ごとに算出した評価値のうち、分類区分ごとに予め設定されているしきい値を越える評価値のうちから、最も高い評価値が得られた分類区分、あるいは当該評価値としきい値との差または比が最も大きい分類区分を対象者に関する分類区分として判定するようにしてもよい。 In addition, among the evaluation values calculated for each classification category by the category determination unit, the classification category in which the highest evaluation value is obtained from the evaluation values exceeding the preset threshold value for each classification category, or You may make it determine the classification division with the largest difference or ratio of the said evaluation value and a threshold value as a classification division regarding a subject.
また、本発明にかかる歩行音分析方法は、対象者の歩行に伴って生じる足音を含む歩行音信号を分析して、対象者の特徴を判定する歩行音分析装置で用いられる歩行音分析方法であって、歩行音処理部が、対象者の歩行に伴って生じる足音を含む歩行音信号を音響信号処理することにより、各足音が発生した音発生位置および音発生時刻をそれぞれ抽出する歩行音処理ステップと、パラメータ算出部が、歩行音処理部で得られた各足音の音発生位置および音発生時刻に基づいて、対象者の歩行状態に関する特徴を示す歩行状態パラメータ値を算出するパラメータ算出ステップと、記憶部が、人が持つ特徴に応じて予め設定した人の分類区分ごとに、当該分類区分に属する人の足音から得た歩行状態パラメータ値の頻度分布を示す確率分布特性を確率分布データベースとして記憶するステップと、区分判定部が、パラメータ算出部で得られた対象者の歩行状態パラメータ値に対応する確率値を、分類区分ごとに確率分布データベースから取得して統合することにより、分類区分ごとに評価値を算出し、最も高い評価値が得られた分類区分を対象者に関する分類区分として判定する区分判定ステップとを備えている。 Further, the walking sound analysis method according to the present invention is a walking sound analysis method used in a walking sound analysis apparatus that analyzes a walking sound signal including footsteps generated along with walking of the subject and determines the characteristics of the subject. The walking sound processing unit extracts a sound generation position and a sound generation time at which each footstep sound is generated by performing an acoustic signal processing on the walking sound signal including the footstep sound generated with the walking of the subject. And a parameter calculating step in which the parameter calculating unit calculates a walking state parameter value indicating characteristics relating to the walking state of the subject based on the sound generation position and sound generation time of each footstep obtained by the walking sound processing unit; A probability distribution characteristic indicating a frequency distribution of walking state parameter values obtained from footsteps of a person belonging to the classification category for each classification category of the person set in advance according to the characteristics of the person The step of storing as a probability distribution database and the classification determining unit obtains and integrates the probability value corresponding to the walking state parameter value of the subject obtained by the parameter calculation unit from the probability distribution database for each classification category. A classification determination step of calculating an evaluation value for each classification category and determining the classification category with the highest evaluation value as the classification category for the subject.
この際、歩行音処理ステップで、歩行音信号から抽出した足音を示す足音信号について、当該足音信号に関する音響的特徴を示す特徴値をそれぞれ算出し、パラメータ算出ステップで、歩行音処理部で得られた各特徴値に関する統計値を、対象者の足音パラメータ値としてそれぞれ算出し、確率分布データベースで、分類区分ごとに、当該分類区分に属する人の足音から得た各足音パラメータ値の頻度分布を示す確率分布特性を記憶し、区分判定ステップで、分類区分ごとに評価値を算出する際、対象者の各足音パラメータ値に対応する確率値を、分類区分ごとに確率分布データベースから取得して、対応する分類区分の評価値へそれぞれ統合するようにしてもよい。 At this time, in the walking sound processing step, for the footstep signal indicating the footstep extracted from the walking sound signal, the feature value indicating the acoustic feature related to the footstep signal is calculated, respectively, and obtained in the parameter calculation step by the walking sound processing unit. Statistical values for each feature value are calculated as the footstep parameter values of the target person, and the frequency distribution of each footstep parameter value obtained from the footsteps of the person belonging to the classification category is shown for each classification category in the probability distribution database. When storing probability distribution characteristics and calculating evaluation values for each category in the category determination step, the probability values corresponding to each footstep parameter value of the target person are obtained from the probability distribution database for each category and You may make it integrate each into the evaluation value of the classification division to do.
また、歩行音処理ステップで、歩行音信号から抽出した足音を示す足音信号について、当該足音信号に関する音響的特徴を示す特徴値をそれぞれ算出し、パラメータ算出ステップは、歩行音処理部で得られた各特徴値に関する統計値を、対象者の足音パラメータ値としてそれぞれ算出し、記憶部が、人が履く履物に関する履物種別と、当該履物種別の履物を履いた人の足音から得た各足音パラメータ値との対応関係を示す履物種別データベースを記憶するステップをさらに備え、履物種別判定部が、履物種別データベースを参照して、パラメータ算出部で得られた対象者の足音パラメータ値に対応する履物種別を対象者の履物種別として判定する履物種別判定ステップをさらに備え、確率分布データベースで、分類区分ごとに、当該分類区分に属する人が履く履物に関する、履物種別ごとの頻度分布を示す確率分布特性をさらに記憶し、区分判定ステップで、分類区分ごとに評価値を算出する際、履物種別判定部で得られた対象者の履物種別に対応する確率値を、分類区分ごとに確率分布データベースから取得して、対応する分類区分の評価値へそれぞれ統合するようにしてもよい。 Further, in the walking sound processing step, for the footstep signal indicating the footstep extracted from the walking sound signal, a feature value indicating an acoustic feature regarding the footstep signal is calculated, and the parameter calculation step is obtained by the walking sound processing unit. Statistical values for each feature value are calculated as footstep parameter values of the target person, and each footstep parameter value obtained from the footwear type of the footwear worn by the person and the footsteps of the person wearing the footwear of the footwear type by the storage unit A step of storing a footwear type database indicating a correspondence relationship between the footwear type database and the footwear type determining unit with reference to the footwear type database to determine the footwear type corresponding to the footstep parameter value of the subject obtained by the parameter calculating unit. It further includes a footwear type determination step for determining the footwear type of the target person, and for each classification category in the probability distribution database, the classification category Further store probability distribution characteristics indicating the frequency distribution for each footwear type related to the footwear worn by the person to which the person belongs, and when calculating the evaluation value for each classification category in the category judgment step, the target person obtained by the footwear type judgment unit The probability value corresponding to the footwear type may be acquired from the probability distribution database for each category and integrated with the evaluation value of the corresponding category.
また、歩行音処理ステップで、歩行音信号を収音処理することにより、対象者の周囲に設けた観測点ごとに、当該観測点で発生した音を示す観測点信号を生成して、これら観測点信号ごとに当該観測点信号に関する音響的特徴を示す観測点特徴値をそれぞれ算出し、パラメータ算出ステップで、歩行音処理部で得られた各観測点特徴値に関する統計値を、観測点ごとに対象者の観測点パラメータ値としてそれぞれ算出し、記憶部が、人に付帯する付帯物に関する付帯物種別と、当該付帯物種別の付帯物を付帯した人の観測点信号から得た各観測点パラメータ値との対応関係を示す付帯物種別データベースを記憶するステップをさらに備え、付帯物種別判定部が、付帯物種別データベースを参照して、パラメータ算出部で得られた対象者の観測点パラメータ値に対応する付帯物種別を対象者の付帯物種別として判定する付帯物種別判定ステップをさらに備え、確率分布データベースで、分類区分ごとに、当該分類区分に属する人が付帯する付帯物に関する、付帯物種別ごとの頻度分布を示す確率分布特性をさらに記憶し、区分判定ステップで、分類区分ごとに評価値を算出する際、対象者の付帯物種別に対応する確率値を、分類区分ごとに確率分布データベースから取得して、対応する分類区分の評価値へそれぞれ統合するようにしてもよい。 Also, in the walking sound processing step, by collecting the walking sound signal, an observation point signal indicating the sound generated at the observation point is generated for each observation point provided around the subject person. For each point signal, an observation point feature value indicating an acoustic feature related to the observation point signal is calculated, and in the parameter calculation step, a statistical value regarding each observation point feature value obtained by the walking sound processing unit is calculated for each observation point. Each observation point parameter calculated from the observation point parameter value of the target person, and the storage unit obtained from the incidental type related to the incidental that accompanies the person and the observation point signal of the person accompanying the incidental of the incidental type A step of storing an accessory type database indicating a correspondence relationship with the value, wherein the accessory type determination unit refers to the accessory type database and observes the subject obtained by the parameter calculation unit An accessory type determination step for determining an accessory type corresponding to the parameter value as an accessory type of the subject is further provided, and in the probability distribution database, for each accessory category, an accessory attached by a person belonging to the class category, The probability distribution characteristic indicating the frequency distribution for each accessory type is further stored, and when the evaluation value is calculated for each classification category in the category determination step, the probability value corresponding to the target category of the target person is calculated for each category category. It may be acquired from the probability distribution database and integrated into the evaluation value of the corresponding classification category.
また、パラメータ算出ステップで、歩行状態パラメータ値として、少なくとも対象者の歩幅、歩行速度、移動中心線から左右方向への開き幅、および1歩の時間間隔のうちのいずれか1つまたは複数に関する統計量、あるいは足音信号のスペクトログラムから抽出した当該足音信号の音響的特徴を示す特徴情報を算出するようにしてもよい。 Further, in the parameter calculation step, as the walking state parameter value, at least one of a subject's step length, walking speed, an opening width from the moving center line in the left-right direction, and a statistics regarding one or more time intervals of one step You may make it calculate the feature information which shows the acoustic feature of the said footstep signal extracted from the quantity or the spectrogram of the footstep signal.
また、区分判定ステップで、分類区分ごとに算出した評価値のうち、分類区分ごとに予め設定されているしきい値を越える評価値のうちから、最も高い評価値が得られた分類区分、あるいは当該評価値としきい値との差または比が最も大きい分類区分を対象者に関する分類区分として判定するようにしてもよい。 Further, among the evaluation values calculated for each classification category in the category determination step, among the evaluation values exceeding a preset threshold value for each classification category, the classification category having the highest evaluation value, or You may make it determine the classification division with the largest difference or ratio of the said evaluation value and a threshold value as a classification division regarding a subject.
また、本発明にかかるプログラムは、コンピュータを、前述したいずれか1つに記載の歩行音分析装置を構成する各部として機能させるためのプログラムである。 Moreover, the program concerning this invention is a program for functioning a computer as each part which comprises the walking sound analyzer as described in any one mentioned above.
本発明によれば、歩行に伴う足音を含む歩行音に基づいて、対象者が持つ特徴、例えば身長、体重、体重、性別、年齢などの身体的特徴や、歩行障害や特定の疾病などの運動機能的特徴について、これら特徴に対して予め設定した分類区分のいずれに属するかを判定することができる。 According to the present invention, on the basis of walking sounds including footsteps accompanying walking, the characteristics of the subject, for example, physical characteristics such as height, weight, weight, sex, age, and exercise such as walking disorders and specific diseases For functional features, it can be determined which of the classification categories preset for these features belongs.
次に、本発明の実施の形態について図面を参照して説明する。
[第1の実施の形態]
まず、図1を参照して、本発明の第1の実施の形態にかかる歩行音分析装置について説明する。図1は、第1の実施の形態にかかる歩行音分析装置の構成を示すブロック図である。
Next, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
First, a walking sound analyzer according to a first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of the walking sound analyzer according to the first embodiment.
この歩行音分析装置10は、全体としてパーソナルコンピュータやサーバ装置などの情報処理装置からなり、対象者の歩行に伴って生じる足音を含む歩行音信号22を入力として、人が持つ特徴に応じて予め設定した人の分類区分のうちから、対象者が属する分類区分を判定する機能を有している。
図1において、集音装置20は、マイクロホンアレーを構成する複数のマイクロホン21からの出力信号を集めてA/D変換処理し、歩行音信号22として歩行音分析装置10へ出力する機能を有している。
This walking
In FIG. 1, the
本実施の形態は、対象者の歩行に伴って生じる足音を含む歩行音信号を音響信号処理することにより、各足音が発生した音発生位置および音発生時刻をそれぞれ抽出し、得られた各足音の音発生位置および音発生時刻に基づいて、対象者の歩行状態に関する特徴を示す歩行状態パラメータ値を算出し、人が持つ特徴に応じて予め設定した人の分類区分ごとに、当該分類区分に属する人の足音から得た歩行状態パラメータ値の頻度分布を示す確率分布特性を記憶しておき、得られた対象者の歩行状態パラメータ値に対応する確率値を、分類区分ごとに確率分布データベースから取得して統合することにより、分類区分ごとに評価値を算出し、最も高い評価値が得られた分類区分を対象者に関する分類区分として判定するようにしたものである。 In this embodiment, the sound generation position and sound generation time at which each footstep sound is extracted by performing acoustic signal processing on the footstep sound signal including the footstep footage that occurs as the subject walks, and each footstep sound obtained is obtained. On the basis of the sound generation position and sound generation time, a walking state parameter value indicating characteristics relating to the walking state of the target person is calculated, and for each person classification category set in advance according to the characteristics of the person, The probability distribution characteristic indicating the frequency distribution of the walking state parameter value obtained from the footsteps of the belonging person is stored, and the probability value corresponding to the obtained walking state parameter value of the target person is obtained from the probability distribution database for each classification category. By obtaining and integrating, an evaluation value is calculated for each classification category, and the classification category with the highest evaluation value is determined as the classification category for the subject.
次に、図1を参照して、本実施の形態にかかる歩行音分析装置10の構成について詳細に説明する。
歩行音分析装置10には、主な機能部として、信号入力部11、操作入力部12、画面表示部13、記憶部14、および演算処理部15が設けられている。
Next, the configuration of the walking
The walking
信号入力部11は、専用の入出力インターフェース回路からなり、集音装置20からの歩行音信号22を取得して演算処理部15へ出力する機能を有している。
操作入力部12は、キーボードやマウスなどの操作入力装置からなり、オペレータの操作を検出して演算処理部15へ出力する機能を有している。
画面表示部13は、LCDなどの画面表示装置からなり、演算処理部15から出力された操作メニューや分析結果などの各種データを画面表示する機能を有している。
The
The
The
記憶部14は、ハードディスクや半導体メモリなどの記憶装置からなり、演算処理部15での各種処理動作に用いる処理情報やプログラム14Pを記憶する機能を有している。プログラムについては、記録媒体に記録することも、ネットワークを通じて提供することも可能である。
記憶部14で記憶する主な処理情報として、確率分布データベース(以下、確率分布DBという)14Aがある。確率分布DB14Aには、人が持つ特徴に応じて予め設定した人の分類区分ごとに、当該分類区分に属する人の足音から得た、当該歩行の特徴を示す任意のパラメータ値の頻度分布を示す確率分布特性が登録されている。
The
As main processing information stored in the
例えば、身長の分類区分の1つとして160cm−180cmという分類区分を設定した場合、この分類区分に属する複数の人の足音から、それぞれパラメータ値を抽出できる。このパラメータ値の具体例としては、例えば歩幅や歩行速度など、それぞれの人に固有の値である。したがって、同一分類区分に属する人であっても、歩幅や歩行速度は異なるが、両者はある程度の相関を持つ。例えば、身長の高い人は比較的歩幅も大きい。したがって、同一分類区分に属する複数の人の足音から抽出したパラメータ値は、あるピークをもって分布する。 For example, when a classification category of 160 cm to 180 cm is set as one of the height classification categories, parameter values can be extracted from the footsteps of a plurality of people belonging to this classification category. Specific examples of this parameter value are values specific to each person, such as stride and walking speed. Therefore, even if people belong to the same classification category, the stride and walking speed are different, but both have a certain degree of correlation. For example, a tall person has a relatively large stride. Therefore, the parameter values extracted from the footsteps of a plurality of people belonging to the same classification category are distributed with a certain peak.
このような頻度分布を正規化して、パラメータ値に設定した区間ごとに積分することにより、同一分類区分に属する全人数のうち、パラメータ値が当該区間に属する人の割合、すなわち確率値として表現できる。したがって、対象者の足音から算出したパラメータ値の確率値を分類区分ごとに取得して比較すれば、対象者が属する尤もらしい分類区分を判定することができる。本実施の形態では、複数のパラメータ値に関する確率値を統合して、対象者の部類区分を判定している。これら処理の詳細について後述する。 By normalizing such frequency distribution and integrating it for each section set as the parameter value, the parameter value can be expressed as a ratio of all persons belonging to the same classification category, that is, a probability value. . Therefore, if the probability values of the parameter values calculated from the footsteps of the subject person are acquired and compared for each category, it is possible to determine the likely category to which the subject belongs. In the present embodiment, probability values relating to a plurality of parameter values are integrated to determine the category classification of the target person. Details of these processes will be described later.
演算処理部15は、CPUなどのマイクロプロセッサとその周辺回路を有し、記憶部14のプログラム14Pを読み込んで実行することにより、各種処理部を実現する機能を有している。
演算処理部15で実現される主な機能部として、歩行音処理部15A、パラメータ算出部15B、および区分判定部15Cがある。
The
The main functional units realized by the
歩行音処理部15Aは、対象者の歩行に伴って生じる足音を含む歩行音信号22を音響信号処理することにより、各足音が発生した音発生位置および音発生時刻をそれぞれ抽出する機能を有している。この歩行音処理部15Aで用いる音発生位置および音発生時刻の抽出技術については、公知の技術を用いればよい(例えば、非特許文献1や非特許文献2等参照)。
The walking
また、音響信号処理において、前述の音発生位置および音発生時刻を基に歩行音信号22を収音処理/強調処理することにより、歩行音信号22のうちから足音に関する足音信号を抽出してもよい。これら収音処理/強調処理については、公知の技術を用いればよい(例えば、非特許文献3等参照)。
なお、これら音響信号処理や収音処理/強調処理については、原理的に、歩行者の人数によらず適用可能である。
Further, in the acoustic signal processing, the footstep signal related to the footsteps can be extracted from the walking
The acoustic signal processing and sound collection processing / emphasis processing can be applied in principle regardless of the number of pedestrians.
パラメータ算出部15Bは、歩行音処理部15Aで得られた各足音の音発生位置および音発生時刻に基づいて、対象者の歩行状態に関する特徴を示す歩行状態パラメータ値を算出する機能を有している。
本実施の形態では、歩行状態パラメータ値として、歩幅L、歩行速度V、移動中心線から左右方向への開き幅B、および1歩の時間間隔Tに関する統計値を用いている。
The
In this embodiment, statistical values relating to the step length L, the walking speed V, the opening width B from the moving center line in the left-right direction, and the time interval T of one step are used as the walking state parameter values.
図2は、歩行の歩幅および歩行速度を示す説明図である。ここでは、時刻T0に右足をステップ(接地)して、その後の時刻T1に左足をステップした例が示されている。このうち、右足と左足の距離間隔が歩幅Lとなり、この歩幅Lを右足と左足の時間間隔T(=T1−T0)で除算したものが歩行速度V(=L/T)となる。また、移動方向に沿った右足と左足の移動中心線から左右の足の中心までの距離を開き幅Bとして定義している。 FIG. 2 is an explanatory diagram showing the walking stride and walking speed. Here, an example is shown in which the right foot is stepped (grounded) at time T0 and the left foot is then stepped at time T1. Of these, the distance between the right foot and the left foot is the step length L, and the walking speed V (= L / T) is obtained by dividing the step length L by the time interval T (= T1-T0) between the right foot and the left foot. Further, the distance from the movement center line of the right foot and the left foot along the moving direction to the center of the left and right feet is defined as an opening width B.
これら歩幅L、歩行速度V、開き幅B、および時間間隔Tは、左右のステップごとに得られるため、本実施の形態では、歩行音信号22のうちから切り出した所定長の観測区間に含まれる複数のステップに対して得られる値の平均値を、実際の歩幅L、歩行速度V、開き幅B、および時間間隔Tとして算出している。また、この平均値に対するステップごとに得られた値のばらつきを示す標準偏差、すなわち歩幅標準偏差Lsd、歩行速度標準偏差Vsd、開き幅標準偏差Bsd、および時間間隔標準偏差Tsdについても歩行状態パラメータとして算出している。
Since the step length L, the walking speed V, the opening width B, and the time interval T are obtained for each of the left and right steps, in the present embodiment, they are included in an observation section having a predetermined length cut out from the walking
歩行に関する歩幅L、歩行速度V、開き幅B、および時間間隔Tについては、歩行状態の特徴が最もよく現れる値である。本実施の形態では、これら4種類の値に関する合計8個の統計量を歩行状態パラメータとして組み合わせて用いる場合を例として説明する。なお、歩行状態パラメータについては、これら8個すべてを用いる必要はなく、これらのうち少なくとも1つまたは複数の歩行状態パラメータを組み合わせて用いればよい。なお、歩行状態に関するこれら4種類以外の値を歩行状態パラメータとして用いてもよい。 About the step L regarding walking, the walking speed V, the opening width B, and the time interval T, it is a value in which the characteristic of a walking state appears most often. In the present embodiment, a case will be described as an example in which a total of eight statistics regarding these four types of values are used in combination as walking state parameters. Note that it is not necessary to use all of these eight walking state parameters, and at least one or a plurality of walking state parameters may be used in combination. In addition, you may use values other than these four types regarding a walk state as a walk state parameter.
区分判定部15Cは、パラメータ算出部15Bで得られた対象者の各歩行状態パラメータ値に対応する確率値を、分類区分ごとに確率分布DB14Aから取得する機能と、取得した各確率値を分類区分ごとに統合することにより、分類区分ごとの評価値を算出する機能と、これら評価値のうち最も高い評価値が得られた分類区分を対象者に関する分類区分として判定する機能とを有している。
The
[第1の実施の形態の動作]
次に、図3を参照して、本実施の形態にかかる歩行音分析装置10の動作について説明する。図3は、第1の実施の形態にかかる歩行音分析装置の歩行音分析処理を示すフローチャートである。
演算処理部15は、操作入力部12で検出されたオペレータによる実行開始指示に応じて、図3の歩行音分析処理の実行を開始する。
[Operation of First Embodiment]
Next, the operation of the walking
The
まず、歩行音処理部15Aは、信号入力部11を介して歩行音信号22を取得し(ステップ100)、この歩行音信号22を音響信号処理することにより、各足音が発生した音発生位置および音発生時刻をそれぞれ抽出する(ステップ101)。
First, the walking
続いて、パラメータ算出部15Bは、歩行音処理部15Aで得られた各足音の音発生位置および音発生時刻に基づいて、対象者の歩幅、歩行速度、移動中心線から左右方向への開き幅、および1歩の時間間隔に関する統計量、すなわち平均歩幅L、歩幅標準偏差Lsd、平均歩行速度V、歩行速度標準偏差Vsd、平均開き幅B、開き幅標準偏差Bsd、平均時間間隔T、および時間間隔標準偏差Tsdを、対象者の歩行状態パラメータ値としてそれぞれ算出する(ステップ102)。
Subsequently, the
次に、区分判定部15Cは、パラメータ算出部15Bで得られた対象者の各歩行状態パラメータ値に対応する確率値を、分類区分ごとに確率分布DB14Aから取得し(ステップ103)、取得した各確率値を分類区分ごとに統合することにより、分類区分ごとの評価値を算出する(ステップ104)。
この後、区分判定部15Cは、これら評価値のうち最も高い評価値が得られた分類区分を対象者に関する分類区分として判定し(ステップ105)、判定した分類区分を、入力された歩行音信号22の分析結果として、画面表示部13で画面表示し、一連の歩行音分析処理を終了する。
Next, the
Thereafter, the
図4は、歩幅と身長に関する確率分布特性例であり、横軸が平均歩幅Lを示し、縦軸が平均歩幅Lに対する確率値P(L)を示している。ここでは、身長についてH1〜H9までの分類区分が設定されており、確率分布DB14Aには、これら分類区分H1〜H9ごとに確率分布特性が予め登録されている。
FIG. 4 is an example of probability distribution characteristics relating to stride length and height, where the horizontal axis represents the average stride length L, and the vertical axis represents the probability value P (L) with respect to the average stride length L. Here, classification sections from H1 to H9 are set for height, and probability distribution characteristics are registered in advance in the
分類区分の具体例としては、H1=「80cm以下」、H2=「80−100cm」、H3=「100−120cm」、H4=「120−140cm」、H5=「140−160cm」、H6=「160−180cm」、H7=「180−200cm」、H8=「200−220cm」、H9=「220cm以上」である。例えば、平均歩幅L=50cmの場合、H3が最も高い確率値を示している。ここでは、各分類区分に関する確率分布が、正規分布に類似する釣り鐘型の特性例で示されているが、これはあくまでも模式図であり、確率分布特性が常にこのような形状となる訳ではない。 Specific examples of the classification are H1 = “80 cm or less”, H2 = “80-100 cm”, H3 = “100-120 cm”, H4 = “120-140 cm”, H5 = “140-160 cm”, H6 = “ 160-180 cm ”, H7 =“ 180-200 cm ”, H8 =“ 200-220 cm ”, and H9 =“ 220 cm or more ”. For example, when the average stride L = 50 cm, H3 indicates the highest probability value. Here, the probability distribution for each classification category is shown as a bell-shaped characteristic example similar to the normal distribution, but this is only a schematic diagram, and the probability distribution characteristic does not always have such a shape. .
図5は、評価値の算出例である。パラメータ算出部15Bで対象者の歩行状態パラメータ値として、平均歩幅Lが算出された場合、図4に示した確率分布特性から、分類区分H1〜H9ごとに確率値P(L)が得られる。図5の例では、H4登録者で「1.2%」、H5で「15.8%」、H6で「25.6%」、H7で「0.6%」、これら以外のH1,H2,H3,H8,H9はすべて「0%」という確率値がそれぞれ得られている。このようにして、分類区分ごとに、歩行状態パラメータに対応する確率値が得られ、これら確率値が分類区分ごとに統合されて評価値Eが算出される。
FIG. 5 is an example of evaluation value calculation. When the average step length L is calculated as the walking state parameter value of the subject by the
評価値Eを算出する際、歩行状態パラメータに対する重み付けが行われる。一般的に数式で表記すると、分類区分hにおける、歩行状態パラメータiの値jに関する確率値をPi(j,h)とし、歩行状態パラメータiに対する重みをw(i)とすると、分類区分hに関する評価値E(h)は、次の式(1)で求められる。
E(h)=Σiw(i)Pi(j,h) …(1)
When calculating the evaluation value E, weighting is performed on the walking state parameter. Generally expressed in mathematical formulas, if the probability value for the value j of the walking state parameter i in the classification category h is Pi (j, h) and the weight for the walking state parameter i is w (i), the classification category h is related. The evaluation value E (h) is obtained by the following equation (1).
E (h) = Σ i w (i) Pi (j, h) (1)
このようにして、各分類区分hに関する評価値E(h)が算出される。図5の例では、E(H4)が「0.4」、E(H5)が「13.2」、E(H6)が「26.1」、E(H7)が「0.1」、これら以外のE(H1),E(H2),E(H3),E(H8),E(H9)はすべて「0」である。したがって、これら評価値のうち最も高いものはE(H6)であるから、対象者の身長に関する分類区分は、H6、すなわち160−180cmであると判定される。 In this way, the evaluation value E (h) for each classification category h is calculated. In the example of FIG. 5, E (H4) is “0.4”, E (H5) is “13.2”, E (H6) is “26.1”, E (H7) is “0.1”, Other than these, E (H1), E (H2), E (H3), E (H8), and E (H9) are all “0”. Therefore, since the highest evaluation value is E (H6), it is determined that the classification category related to the height of the subject is H6, that is, 160 to 180 cm.
これら図4および図5では、人が持つ特徴として身長を例に説明したが、体重、体重、性別、年齢などの身体的特徴、さらには、歩行障害や特定の疾病などの運動機能的特徴についても同様にして適用することができる。このうち、歩行障害や特定の疾病などの運動機能的特徴については、予め設定したしきい値と評価値とを比較することにより、障害や疾病の有無を判定して、画面表示するようにしてもよい。
また、分析結果については、判定した分類区分のみを画面表示するのではなく、各分類区分の評価値を画面表示してもよい。特に、評価値を正規化することにより、評価結果を確率値分布として画面表示することも可能である。
In FIGS. 4 and 5, height has been described as an example of the characteristics of a person. However, physical characteristics such as weight, weight, sex, and age, as well as motor functional characteristics such as gait disorders and specific diseases, etc. Can be applied in the same manner. Among these, for motor functional features such as walking disorders and specific diseases, the presence or absence of disabilities and diseases is determined by comparing preset threshold values with evaluation values, and displayed on the screen. Also good.
As for the analysis result, instead of displaying only the determined classification category on the screen, the evaluation value of each classification category may be displayed on the screen. In particular, the evaluation result can be displayed on the screen as a probability value distribution by normalizing the evaluation value.
[第1の実施の形態の効果]
このように、本実施の形態は、歩行音処理部15Aで、歩行音信号22を音響信号処理することにより、各足音が発生した音発生位置および音発生時刻をそれぞれ抽出し、パラメータ算出部15Bで、各足音の音発生位置および音発生時刻に基づいて、対象者の歩行状態に関する特徴を示す歩行状態パラメータ値を算出し、区分判定部15Cで、対象者の各歩行状態パラメータ値に対応する確率値を、分類区分ごとに確率分布DB14Aから取得して統合することにより、分類区分ごとに評価値を算出し、最も高い評価値が得られた分類区分を対象者に関する分類区分として判定するようにしたものである。
[Effect of the first embodiment]
As described above, in this embodiment, the walking
これにより、歩行に伴う足音を含む歩行音に基づいて、対象者が持つ特徴、例えば身長、体重、体重、性別、年齢などの身体的特徴や、歩行障害や特定の疾病などの運動機能的特徴について、これら特徴に対して予め設定した分類区分のいずれに属するかを判定することができる。 Thereby, based on walking sounds including footsteps accompanying walking, the characteristics of the subject, for example, physical characteristics such as height, weight, weight, sex, age, and motor functional characteristics such as walking disorders and specific diseases It is possible to determine which of the classification categories set in advance for these features.
また、本実施の形態では、対象者の歩行状態パラメータ値として、対象者の歩幅、歩行速度、移動中心線から左右方向への開き幅、および1歩の時間間隔のいずれかを用いるようにしたので、極めて正確に歩行の特徴をパラメータとして捉えることができる。これにより、高い精度で分類区分を判定することができる。 In the present embodiment, as the walking state parameter value of the target person, any one of the step length of the target person, the walking speed, the opening width in the horizontal direction from the moving center line, and the time interval of one step is used. Therefore, it is possible to accurately capture the characteristics of walking as a parameter. Thereby, a classification division can be determined with high accuracy.
また、本実施の形態では、人が持つ1つの特徴に関する分類区分を判定する際、複数の歩行状態パラメータに関する確率値を統合して評価値を算出するようにしたので、1つの歩行状態パラメータのみで評価値を算出する場合と比較して、大きな偏りを生じることなく、分類区分を判定することができる。
Further, in this embodiment, when determining a classification category related to one feature of a person, the evaluation value is calculated by integrating the probability values related to a plurality of walking state parameters, so only one walking state parameter is calculated. Compared with the case where the evaluation value is calculated in
また、本実施の形態では、対象者が1人の場合を例として説明したが、原理的には対象者の人数に制限はない。このため、大型の店舗や展示会などの設備で、多くの人の1次元的あるいは2次元的な流れや、各位置における滞留状況を、各人の特徴情報を含めて評価することができる。これにより、設備内の店舗、会場、通路の配置・形状や商品自体の配置についての適正化を行う際、極めて有効な情報を提供することが可能となる。 In the present embodiment, the case where there is one subject has been described as an example, but in principle, the number of subjects is not limited. For this reason, it is possible to evaluate the one-dimensional or two-dimensional flow of many people and the staying situation at each position including the characteristic information of each person in facilities such as large stores and exhibitions. This makes it possible to provide extremely effective information when optimizing the arrangement / shape of the store, venue, and passage in the facility and the arrangement of the product itself.
また、本実施の形態では、図3のステップ105において、区分判定部15Cが、分類区分ごとに算出した評価値に基づいて対象者の分類区分を判定する際、これら分類区分ごとに算出した評価値と分類区分ごとに予め設定されているしきい値とを比較し、これら評価値のうち、しきい値を越える評価値のうちから、最も高い評価値が得られた分類区分、あるいは当該評価値としきい値との差や比が最も大きい分類区分を対象者に関する分類区分として判定するようにしてもよい。また、しきい値を越える評価値がない場合には、該当なしあるいは評価不能と判定してもよい。これにより、対象者の分類区分判定について、より高い判定精度を得ることができる。
In the present embodiment, in
また、評価値に基づいて分類区分を判定する場合、最も高い評価値とその次に高い2番目の評価値との差分や比を、予め設定されている相対しきい値(動的しきい値)と比較し、差分や比が相対しきい値を越えた場合には、最も高い評価値が得られた分類区分を対象者に関する分類区分として判定するようにしてもよい。また、差分や比が相対しきい値を越えない場合には、該当なしあるいは評価不能と判定してもよい。これにより、最も高い評価値とその次に高い2番目の評価値とにあまり差がない場合でも、対象者の分類区分判定について、より高い判定精度を得ることができる。 Further, when determining the classification category based on the evaluation value, the difference or ratio between the highest evaluation value and the second highest evaluation value is set as a relative threshold value (dynamic threshold value) set in advance. If the difference or ratio exceeds the relative threshold value, the classification category with the highest evaluation value may be determined as the classification category for the subject. If the difference or ratio does not exceed the relative threshold value, it may be determined that there is no corresponding or evaluation. Thereby, even when there is not much difference between the highest evaluation value and the second highest evaluation value, higher determination accuracy can be obtained for the classification classification of the target person.
なお、上記相対しきい値は、必ずしも定数である必要はなく、最も高い評価値、次に高い評価値、これらの差や比の関数として定義される動的なしきい値であってもよい。
また、評価値に基づく分類区分判定処理において、しきい値あるいは相対しきい値を導入する構成については、本実施の形態に限定されるものではなく、これ以降で説明する他の実施の形態にも同様に適用可能である。
The relative threshold value is not necessarily a constant, and may be a dynamic threshold value defined as a function of the highest evaluation value, the next highest evaluation value, or a difference or ratio thereof.
In addition, in the classification determination processing based on the evaluation value, the configuration for introducing the threshold value or the relative threshold value is not limited to the present embodiment, and other embodiments described below are used. Is equally applicable.
[第2の実施の形態]
次に、本発明の第2の実施の形態にかかる歩行音分析装置10について説明する。
第1の実施の形態では、分類区分が人の身体的特徴あるいは運動機能的特徴である場合を例として説明した。本実施の形態では、分類区分が個人である場合、すなわち対象者が誰かを認識する場合を例として説明する。
[Second Embodiment]
Next, a walking
In the first embodiment, the case where the classification is a human physical feature or a motor functional feature has been described as an example. In the present embodiment, a case where the classification is an individual, that is, a case where the target person recognizes who will be described as an example.
本実施の形態において、記憶部14の確率分布DB14Aは、予め分類対象として登録した登録者と対応する分類区分ごとに、当該分類区分の登録者の足音から得た各歩行状態パラメータ値の頻度分布を示す確率分布特性を記憶する。
In the present embodiment, the
図6は、歩幅と登録者に関する確率分布特性例であり、横軸が平均歩幅Lを示し、縦軸が平均歩幅Lに対する確率値P(L)を示している。ここでは、登録者としてM1〜M5の分類区分が設定されており、確率分布DB14Aには、これら分類区分M1〜M5ごとに確率分布特性が予め登録されている。
FIG. 6 is an example of probability distribution characteristics regarding the stride and the registrant. The horizontal axis indicates the average stride L, and the vertical axis indicates the probability value P (L) with respect to the average stride L. Here, classification categories M1 to M5 are set as registrants, and probability distribution characteristics are registered in advance in the
分類区分の具体例としては、M1=「Aさん」、M2=「Bさん」、M3=「Cさん」、M4=「Dさん」、M5=「Eさん」である。例えば、平均歩幅L=80cmの場合、M5の「Eさん」が最も高い確率値を示している。ここでは、各分類区分に関する確率分布が、正規分布に類似する釣り鐘型の特性例で示されているが、これはあくまでも模式図であり、確率分布特性が常にこのような形状となる訳ではない。
なお、本実施の形態にかかる歩行音分析装置10におけるその他の構成については、第1の実施の形態と同様であり、ここでの詳細な説明は省略する。
Specific examples of the classification categories are M1 = “Mr. A”, M2 = “Mr. B”, M3 = “Mr. C”, M4 = “Mr. D”, and M5 = “Mr. E”. For example, in the case of the average stride L = 80 cm, “Mr. E” of M5 indicates the highest probability value. Here, the probability distribution for each classification category is shown as a bell-shaped characteristic example similar to the normal distribution, but this is only a schematic diagram, and the probability distribution characteristic does not always have such a shape. .
In addition, about the other structure in the walking
[第2の実施の形態の動作]
次に、図7を参照して、本発明の第2の実施の形態にかかる歩行音分析装置10の動作について説明する。図7は、第2の実施の形態にかかる歩行音分析装置の歩行音分析処理を示すフローチャートであり、前述の図3と同じまたは同等部分には同一符号を付してある。
演算処理部15は、操作入力部12で検出されたオペレータによる実行開始指示に応じて、図7の歩行音分析処理の実行を開始する。
[Operation of Second Embodiment]
Next, the operation of the walking
The
まず、歩行音処理部15Aは、信号入力部11を介して歩行音信号22を取得し(ステップ100)、この歩行音信号22を音響信号処理することにより、各足音が発生した音発生位置および音発生時刻をそれぞれ抽出する(ステップ101)。
First, the walking
続いて、パラメータ算出部15Bは、歩行音処理部15Aで得られた各足音の音発生位置および音発生時刻に基づいて、対象者の歩幅、歩行速度、移動中心線から左右方向への開き幅、および1歩の時間間隔に関する統計量、すなわち平均歩幅L、歩幅標準偏差Lsd、平均歩行速度V、歩行速度標準偏差Vsd、平均開き幅B、開き幅標準偏差Bsd、平均時間間隔T、および時間間隔標準偏差Tsdを、対象者の歩行状態パラメータ値としてそれぞれ算出する(ステップ102)。
Subsequently, the
次に、区分判定部15Cは、パラメータ算出部15Bで得られた対象者の各歩行状態パラメータ値に対応する確率値を、分類区分ごと、ここでは登録者ごとに確率分布DB14Aから取得し(ステップ200)、取得した各確率値を登録者ごとに統合することにより、登録者ごとの評価値を算出する(ステップ201)。
この後、区分判定部15Cは、これら評価値のうち最も高い評価値が得られた登録者が対象者であると判定し(ステップ105)、判定した登録者を、入力された歩行音信号22の分析結果として、画面表示部13で画面表示し、一連の歩行音分析処理を終了する。
Next, the
Thereafter, the
図8は、評価値の算出例である。パラメータ算出部15Bで対象者の歩行状態パラメータ値として、平均歩幅Lが算出された場合、図6に示した確率分布特性から、分類区分M1〜M5ごとに確率値P(L)が得られる。図8の例では、M2で「4.9%」、M3で「13.8%」、M4で「26.2%」、これら以外のM1,M5はすべて「0%」という確率値がそれぞれ得られている。このようにして、分類区分ごとに、歩行状態パラメータに対応する確率値が得られ、これら確率値が分類区分ごとに統合されて評価値Eが算出される。
FIG. 8 is an example of calculation of evaluation values. When the average step length L is calculated as the walking state parameter value of the subject by the
この際、評価値Eについては、歩行状態パラメータiに対する重みをw(i)を考慮して、前述した式(1)を用いて算出すればよい。
このようにして、各分類区分hに関する評価値E(h)が算出される。図8の例では、E(M1)が「1.6」、E(M2)が「5.9」、E(M3)が「13.8」、E(M4)が「25.9」、E(M5)が「3.4」である。したがって、これら評価値のうち最も高いものはE(M4)であるから、対象者はM4のDさんであると判定される。
At this time, for the evaluation value E, the weight for the walking state parameter i may be calculated using the above-described equation (1) in consideration of w (i).
In this way, the evaluation value E (h) for each classification category h is calculated. In the example of FIG. 8, E (M1) is “1.6”, E (M2) is “5.9”, E (M3) is “13.8”, E (M4) is “25.9”, E (M5) is “3.4”. Therefore, since the highest evaluation value is E (M4), it is determined that the subject is Mr. D of M4.
なお、分析結果については、判定した分類区分のみを画面表示するのではなく、各分類区分の評価値を画面表示してもよい。特に、評価値を正規化することにより、評価結果を確率値分布として画面表示することも可能である。 As for the analysis result, not only the determined classification category is displayed on the screen, but the evaluation value of each classification category may be displayed on the screen. In particular, the evaluation result can be displayed on the screen as a probability value distribution by normalizing the evaluation value.
[第2の実施の形態の効果]
このように、本実施の形態は、記憶部14の確率分布DB14Aで、予め分類対象として登録した登録者と対応する分類区分ごとに、当該分類区分の登録者の足音から得た各歩行状態パラメータ値の頻度分布を示す確率分布特性を記憶するようにしたので、対象者が登録者のうちのいずれであるかを判定することができ、結果として、対象者に対する個人識別や認証を行うことが可能となる。
[Effect of the second embodiment]
As described above, in this embodiment, in the
[第3の実施の形態]
次に、本発明の第3の実施の形態にかかる歩行音分析装置10について説明する。
第1の実施の形態では、歩行音信号22を音響信号処理して得られた各足音の音発生位置および音発生時刻から、歩行状態パラメータ値として、平均歩幅L、歩幅標準偏差Lsd、平均歩行速度V、歩行速度標準偏差Vsd、平均開き幅B、開き幅標準偏差Bsd、平均時間間隔T、および時間間隔標準偏差Tsdを算出する場合を例として説明した。
本実施の形態では、歩行音信号22を周波数スペクトル分析することにより、歩行状態パラメータ値に加え、足音信号に関する音響的特徴を示す特徴値として足音パラメータ値を算出し、これら歩行状態パラメータ値および足音パラメータ値により、対象者の分類区分を判定する場合について説明する。
[Third Embodiment]
Next, a walking
In the first embodiment, from the sound generation position and sound generation time of each footstep obtained by acoustic signal processing of the walking
In the present embodiment, by analyzing the frequency spectrum of the walking
本実施の形態において、歩行音処理部15Aは、歩行音信号22から抽出した足音を示す足音信号について周波数スペクトル分析することにより、当該足音信号に関する音響的特徴を示す特徴値としてスペクトログラムをそれぞれ算出する機能を有している。
パラメータ算出部15Bは、歩行音処理部15Aで得られた各特徴値、すなわちスペクトログラムから、特定周波数におけるスペクトル強度値に関する平均スペクトル強度値Sおよびスペクトル強度値標準偏差Ssdからなる統計値を、対象者の足音パラメータ値としてそれぞれ算出する機能を有している。
In the present embodiment, the walking
The
確率分布DB14Aには、分類区分ごとに、当該分類区分に属する人の足音から得た各足音パラメータ値の頻度分布を示す確率分布特性が登録されている。
区分判定部15Cは、分類区分ごとに評価値を算出する際、対象者の各足音パラメータ値に対応する確率値を、分類区分ごとに確率分布DB14Aから取得する機能と、取得した確率値を対応する分類区分の評価値へそれぞれ統合する機能とを有している。
なお、本実施の形態にかかる歩行音分析装置10におけるその他の構成については、第1の実施の形態と同様であり、ここでの詳細な説明は省略する。
In the
When calculating the evaluation value for each classification category, the
In addition, about the other structure in the walking
図9は、足音信号の切り出しを示す説明図である。人の足音は、通常、100〜300ms程度の継続時間を有しており、歩行音信号22には、足音だけでなくその前後の区間も含まれている。このため、足音に関する音響的特徴を取得するために、歩行音信号22から、その振幅などに基づいて、足音の継続時間Taの全範囲、あるいは継続時間Taの中で必要な一部の範囲だけを足音信号として切り出せばよい。
FIG. 9 is an explanatory diagram showing the cutout of the footstep signal. A person's footsteps usually have a duration of about 100 to 300 ms, and the walking
本実施の形態では、足音信号に関する音響的特徴として、特定周波数におけるスペクトル強度値に関する統計量を用いる。したがって、まず、足音信号を例えば50ms程度の時間長Tfの複数のフレーム信号を、例えば10ms程度の時間長Tsだけ順に開始時刻をシフトさせながら切り出し、これらフレーム信号ごとに短時間フーリエ変換することにより、周波数スペクトル分析を行う。これにより、足音信号の特徴値として、フレーム信号ごとの周波数スペクトル分布とその時間変化、すなわちスペクトログラムが得られる。 In the present embodiment, a statistic relating to a spectrum intensity value at a specific frequency is used as an acoustic feature related to a footstep signal. Therefore, first, a footstep signal is cut out from a plurality of frame signals having a time length Tf of, for example, about 50 ms while sequentially shifting the start time by a time length Ts of, for example, about 10 ms, and short-time Fourier transform is performed for each frame signal. Perform frequency spectrum analysis. As a result, a frequency spectrum distribution for each frame signal and its temporal change, that is, a spectrogram is obtained as a feature value of the footstep signal.
図10Aは、足音信号の振幅波形図であり、横軸は歩行における経過時間(単位は[sec])を示し、縦軸は足音信号の振幅値(任意単位[a.u.])を示している。ここでは、5歩分の足音信号が示されており、各足音は約0.54[sec]程度の間隔で連続している。 FIG. 10A is an amplitude waveform diagram of a footstep signal, where the horizontal axis indicates the elapsed time in walking (unit: [sec]), and the vertical axis indicates the amplitude value (arbitrary unit [a.u.]) of the footstep signal. Here, footstep signals for five steps are shown, and each footstep is continuous at an interval of about 0.54 [sec].
図10Bは、足音信号のスペクトログラムであり、横軸は歩行における経過時間(単位は[sec])を示し、縦軸は周波数(単位は[kHz])を示し、色の濃淡が周波数成分におけるスペクトル強度(単位は[dB])を示している。ここでは、図10Aの足音信号と時間的に対応して、5歩分のそれぞれの足音信号から得られた周波数スペクトル分布が示されており、足音には20kH程度までの周波数成分の音が、ある程度のスペクトル強度で含まれていることがわかる。 FIG. 10B is a spectrogram of a footstep signal, where the horizontal axis indicates the elapsed time in walking (unit: [sec]), the vertical axis indicates frequency (unit: [kHz]), and the color shading is the spectrum of the frequency component. Indicates intensity (unit: [dB]). Here, the frequency spectrum distribution obtained from each footstep signal for five steps is shown in correspondence with the footstep signal of FIG. 10A in time, and the footstep sound has a frequency component sound up to about 20 kHz. It can be seen that it is included at a certain spectral intensity.
このようにして得られた各フレーム信号のスペクトログラムから、必要に応じて例えば歩行音の存在しない時間のデータから評価したノイズ成分スペクトルを除去した後、予め設定しておいた特定周波数fにおけるスペクトル強度値をフレーム信号ごとに取得する。そして、これらスペクトル強度値の平均値、すなわち平均スペクトル強度値S(f)を足音パラメータ値として算出すればよい。また、この平均値に対するフレーム信号ごとのスペクトル強度値のばらつきを示す標準偏差、すなわちスペクトル強度値標準偏差Ssd(f)を足音パラメータ値として算出すればよい。 From the spectrogram of each frame signal thus obtained, for example, after removing the noise component spectrum evaluated from the data of the time when no walking sound exists, for example, the spectral intensity at the preset specific frequency f is removed. A value is acquired for each frame signal. Then, an average value of these spectrum intensity values, that is, an average spectrum intensity value S (f) may be calculated as a footstep parameter value. Further, the standard deviation indicating the variation of the spectrum intensity value for each frame signal with respect to the average value, that is, the spectrum intensity value standard deviation Ssd (f) may be calculated as the footstep parameter value.
また、足音一歩の中での特定周波数fのスペクトル強度を、各フレーム信号の値について平均して評価するばかりではなく、更に詳細には足音一歩の時間範囲における時間変化St(f、t)を抽出し、これを足音パラメータとして用いることもできる。また、足音信号のスペクトログラムから抽出した当該足音信号の音響的特徴を示す特徴情報、すなわち平均スペクトル強度値S(f)、スペクトル強度値標準偏差Ssd(f)、時間変化St(f,t)を任意に組み合わせて1つの足音パラメータとして用いるようにしてもよい。また、この時間変化St(f,t)については、他の実施の形態において、平均スペクトル強度値S(f)やスペクトル強度値標準偏差Ssd(f)と同様に、足音パラメータ値として用いるようにしてもよく、これらを任意に組み合わせて1つの足音パラメータとして用いるようにしてもよい。 Further, the spectral intensity of the specific frequency f in one step of footsteps is not only evaluated by averaging the value of each frame signal, but more specifically, the time change St (f, t) in the time range of one step of footsteps. It can also be extracted and used as a footstep parameter. Also, feature information indicating the acoustic features of the footstep signal extracted from the spectrogram of the footstep signal, that is, an average spectrum intensity value S (f), a spectrum intensity value standard deviation Ssd (f), and a time change St (f, t) are obtained. Any combination may be used as one footstep parameter. In addition, this time change St (f, t) is used as a footstep parameter value in the other embodiments, like the average spectral intensity value S (f) and the spectral intensity value standard deviation Ssd (f). These may be arbitrarily combined and used as one footstep parameter.
これら、平均スペクトル強度値S(f)、スペクトル強度値標準偏差Ssd(f)、およびスペクトル強度の時間変化St(f、t)については、必要に応じて足音が発生した音発生位置の変化分に起因する音の強度の変動分を補正してデータを正規化した後に、足音信号ごとに求めたものを複数の足音信号でさらに平均値を求め、この平均値に対する標準偏差を求めてもよい。あるいは、各足音信号のデータを正規化した後に、各足音信号に含まれるフレーム信号のすべてについて、一括して平均スペクトル強度値S(f)およびスペクトル強度値標準偏差Ssd(f)を算出してもよい。
また、特定周波数fとして複数の周波数を設定し、これら特定周波数ごとに、平均スペクトル強度値S(f)、スペクトル強度値標準偏差Ssd(f)、およびスペクトル強度の時間変化St(f、t)を算出して、それぞれ独立した足音パラメータ値として用いてもよく、さらにはこれらの足音パラメータを任意に組合せたものを1つの足音パラメータ値として用いてもよい。また、このことは他の実施の形態においても同様に適用できる。
Regarding the average spectral intensity value S (f), the spectral intensity value standard deviation Ssd (f), and the temporal change St (f, t) of the spectral intensity, the change in the sound generation position where the footstep sound is generated as necessary. After normalizing the data by correcting the variation in the intensity of the sound due to the sound, it is also possible to obtain an average value of a plurality of footstep signals obtained for each footstep signal and obtain a standard deviation with respect to the average value. . Alternatively, after normalizing the data of each footstep signal, the average spectral intensity value S (f) and the spectral intensity value standard deviation Ssd (f) are calculated for all the frame signals included in each footstep signal. Also good.
In addition, a plurality of frequencies are set as the specific frequency f, and the average spectral intensity value S (f), the spectral intensity value standard deviation Ssd (f), and the temporal change St (f, t) of the spectral intensity are set for each specific frequency. May be used as independent footstep parameter values, or a combination of these footstep parameters arbitrarily may be used as one footstep parameter value. This can also be applied to other embodiments.
[第3の実施の形態の動作]
次に、図11を参照して、本実施の形態にかかる歩行音分析装置10の動作について説明する。図11は、第3の実施の形態にかかる歩行音分析装置の歩行音分析処理を示すフローチャートであり、前述の図3と同じまたは同等部分には同一符号を付してある。
演算処理部15は、操作入力部12で検出されたオペレータによる実行開始指示に応じて、図7の歩行音分析処理の実行を開始する。
[Operation of Third Embodiment]
Next, with reference to FIG. 11, operation | movement of the walking
The
まず、歩行音処理部15Aは、信号入力部11を介して歩行音信号22を取得し(ステップ100)、この歩行音信号22を音響信号処理することにより、各足音が発生した音発生位置および音発生時刻をそれぞれ抽出する(ステップ101)。
また、歩行音処理部15Aは、前述のようにして、歩行音信号22から各足音を示す足音信号をそれぞれ抽出して周波数スペクトル分析することにより、当該足音信号に関する音響的特徴を示す特徴値としてスペクトログラムを算出する(ステップ300)。
First, the walking
The walking
続いて、パラメータ算出部15Bは、歩行音処理部15Aで得られた各足音の音発生位置および音発生時刻に基づいて、対象者の歩幅、歩行速度、移動中心線から左右方向への開き幅、および1歩の時間間隔に関する統計量、すなわち平均歩幅L、歩幅標準偏差Lsd、平均歩行速度V、歩行速度標準偏差Vsd、平均開き幅B、開き幅標準偏差Bsd、平均時間間隔T、および時間間隔標準偏差Tsdを、対象者の歩行状態パラメータ値としてそれぞれ算出する(ステップ102)。
Subsequently, the
また、パラメータ算出部15Bは、前述のようにして、歩行音処理部15Aで得られたスペクトログラムに基づいて、特定周波数におけるスペクトル強度値に関する平均スペクトル強度値Sおよびスペクトル強度値標準偏差Ssdを、足音パラメータ値として算出する(ステップ102)。
Further, as described above, the
次に、区分判定部15Cは、パラメータ算出部15Bで得られた対象者の各歩行状態パラメータ値に対応する確率値と、各足音パラメータ値に対応する確率値とを、分類区分ごとに確率分布DB14Aから取得し(ステップ103)、各歩行状態パラメータ値に対応する確率値を分類区分ごとに統合することにより、分類区分ごとの評価値を算出するとともに、各足音パラメータ値に対応する確率値を、対応する分類区分の評価値に統合する(ステップ104)。
この後、区分判定部15Cは、これら評価値が登録者ごとに事前に設定されたしきい値を越えた場合に、当該登録者が対象者であると判定し(ステップ105)、判定した登録者を、入力された歩行音信号22の分析結果として、画面表示部13で画面表示し、一連の歩行音分析処理を終了する。この際、評価値が登録者ごとに事前に設定されたしきい値を越える登録者、あるいは、しきい値と評価値との差や比が最も高い値となる登録者が、複数存在する場合には、その中で最も高い評価値が得られた登録者を対象者と判定すればよい。また、しきい値を越える登録者がいない場合には、該当なしあるいは評価不能と判定すればよい。
Next, the
Thereafter, when these evaluation values exceed a threshold value set in advance for each registrant, the
[第3の実施の形態の効果]
このように、本実施の形態は、歩行音処理部15Aで、歩行音信号22から抽出した足音を示す足音信号について、当該足音信号に関する音響的特徴を示す特徴値をそれぞれ算出し、パラメータ算出部15Bにより、歩行音処理部15Aで得られた各特徴値に関する統計値を、対象者の足音パラメータ値としてそれぞれ算出し、区分判定部15Cで、分類区分ごとに評価値を算出する際、対象者の各足音パラメータ値に対応する確率値を、分類区分ごとに確率分布DB14Aから取得して、対応する分類区分の評価値へそれぞれ統合するようにしたものである。
[Effect of the third embodiment]
As described above, according to the present embodiment, the walking
これにより、対象者が持つ特徴が、その特徴に対して予め設定した分類区分のいずれに属するかを判定する際、対象者の歩行状態パラメータ値だけでなく、対象者の足音に含まれる音響的特徴を示す足音パラメータ値をも考慮することができ、より詳細に対象者の分類区分を判定することができる。 Thus, when determining which of the classification categories preset for the feature the feature of the subject belongs to, not only the walking state parameter value of the subject but also the acoustics included in the footsteps of the subject The footstep parameter value indicating the feature can also be considered, and the classification category of the subject can be determined in more detail.
[第4の実施の形態]
次に、図12を参照して、本発明の第4の実施の形態にかかる歩行音分析装置10について説明する。図12は、第4の実施の形態にかかる歩行音分析装置を示すブロック図であり、前述の図1と同じまたは同等部分には同一符号を付してある。
[Fourth Embodiment]
Next, with reference to FIG. 12, a walking
第3の実施の形態では、対象者の足音に含まれる音響的特徴を示す足音パラメータ値を考慮して、対象者の分類区分を判定する場合について説明した。ここで、足音パラメータ値には、対象者の身体的特徴あるいは運動機能的特徴だけでなく、対象者が履く履物の種類が反映されている。本実施の形態では、このことに着目して、足音パラメータ値から対象者が履いている履物の履物種別、例えば革靴、ハイヒール、サンダル、スニーカー、草履などの履物種別を判定し、この履物種別を考慮して、対象者の分類区分を判定するようにしたものである。 In the third embodiment, the case where the classification category of the subject person is determined in consideration of the footstep parameter value indicating the acoustic feature included in the footstep of the subject person has been described. Here, the footstep parameter value reflects not only the physical characteristics or motor functional characteristics of the subject but also the type of footwear worn by the subject. In this embodiment, paying attention to this, the footwear type of the footwear that the subject wears is determined from the footstep parameter value, for example, the footwear type such as leather shoes, high heels, sandals, sneakers, sandals, and the like. In consideration of this, the classification category of the target person is determined.
本実施の形態において、歩行音処理部15Aは、歩行音信号22から抽出した足音を示す足音信号について周波数スペクトル分析することにより、当該足音信号に関する音響的特徴を示す特徴値としてスペクトログラムをそれぞれ算出する機能を有している。
パラメータ算出部15Bは、歩行音処理部15Aで得られた各特徴値、すなわちスペクトログラムから、特定周波数におけるスペクトル強度値に関する平均スペクトル強度値Sおよびスペクトル強度値標準偏差Ssdからなる統計値を、対象者の足音パラメータ値としてそれぞれ算出する機能を有している。
In the present embodiment, the walking
The
また、記憶部14には、図12に示すように、新たな処理情報として、人が履く履物に関する履物種別と、当該履物種別の履物を履いた人の足音から得た各足音パラメータ値との対応関係を示す履物種別データベース(以下、履物種別DBという)14Bが記憶されている。
また、記憶部14の確率分布DB14Aには、分類区分ごとに、当該分類区分に属する人が履く履物に関する、履物種別ごとの頻度分布を示す確率分布特性が登録されている。この履物種別に関する確率分布特性については、例えば、前述した図4のように連続性のある特性ではなく、分類区分と履物種別との組合せごとにそれぞれ個別の確率値が登録されている。
In addition, as shown in FIG. 12, the
The
また、演算処理部15には、図12に示すように、新たな処理部として、記憶部14の履物種別DB14Bを参照して、パラメータ算出部15Bで得られた対象者の足音パラメータ値に対応する履物種別を対象者の履物種別として判定する履物種別判定部15Dが設けられている。
区分判定部15Cは、分類区分ごとに評価値を算出する際、履物種別判定部15Dで得られた対象者の履物種別に対応する確率値を、分類区分ごとに確率分布DB14Aから取得する機能と、取得した確率値を対応する分類区分の評価値へそれぞれ統合する機能とを有している。
Further, as shown in FIG. 12, the
When the
なお、前述した歩行音処理部15A、パラメータ算出部15B、確率分布DB14Aの詳細については、第3の実施の形態と同様である。また、本実施の形態にかかる歩行音分析装置10におけるその他の構成については、第1の実施の形態と同様であり、ここでの詳細な説明は省略する。
The details of the walking
[第4の実施の形態の動作]
次に、図13を参照して、本発明の第4の実施の形態にかかる歩行音分析装置10の動作について説明する。図13は、第4の実施の形態にかかる歩行音分析装置の歩行音分析処理を示すフローチャートであり、前述の図11と同じまたは同等部分には同一符号を付してある。
演算処理部15は、操作入力部12で検出されたオペレータによる実行開始指示に応じて、図13の歩行音分析処理の実行を開始する。
[Operation of Fourth Embodiment]
Next, the operation of the walking
The
まず、歩行音処理部15Aは、信号入力部11を介して歩行音信号22を取得し(ステップ100)、この歩行音信号22を音響信号処理することにより、各足音が発生した音発生位置および音発生時刻をそれぞれ抽出する(ステップ101)。
また、歩行音処理部15Aは、前述のようにして、歩行音信号22から各足音を示す足音信号をそれぞれ抽出して周波数スペクトル分析することにより、当該足音信号に関する音響的特徴を示す特徴値としてスペクトログラムを算出する(ステップ300)。
First, the walking
The walking
続いて、パラメータ算出部15Bは、歩行音処理部15Aで得られた各足音の音発生位置および音発生時刻に基づいて、対象者の歩幅、歩行速度、移動中心線から左右方向への開き幅、および1歩の時間間隔に関する統計量、すなわち平均歩幅L、歩幅標準偏差Lsd、平均歩行速度V、歩行速度標準偏差Vsd、平均開き幅B、開き幅標準偏差Bsd、平均時間間隔T、および時間間隔標準偏差Tsdを、対象者の歩行状態パラメータ値としてそれぞれ算出する(ステップ102)。
Subsequently, the
また、パラメータ算出部15Bは、前述のようにして、歩行音処理部15Aで得られたスペクトログラムに基づいて、特定周波数におけるスペクトル強度値に関する平均スペクトル強度値Sおよびスペクトル強度値標準偏差Ssdを、足音パラメータ値として算出する(ステップ102)。
この後、履物種別判定部15Dは、記憶部14の履物種別DB14Bを参照して、パラメータ算出部15Bで得られた対象者の足音パラメータ値に対応する履物種別を対象者の履物種別として判定する(ステップ400)。
Further, as described above, the
Thereafter, the footwear
次に、区分判定部15Cは、パラメータ算出部15Bで得られた対象者の各歩行状態パラメータ値に対応する確率値と、履物種別判定部15Dで判定された対象者の履物種別に対応する確率値とを、分類区分ごとに確率分布DB14Aから取得し(ステップ103)、各歩行状態パラメータ値に対応する確率値を分類区分ごとに統合することにより、分類区分ごとの評価値を算出するとともに、履物種別に対応する確率値を、対応する分類区分の評価値に統合する(ステップ104)。
Next, the
この後、区分判定部15Cは、これら評価値のうち最も高い評価値が得られた登録者が対象者であると判定し(ステップ105)、判定した登録者を、入力された歩行音信号22の分析結果として、画面表示部13で画面表示し、一連の歩行音分析処理を終了する。
Thereafter, the
[第4の実施の形態の効果]
このように、本実施の形態は、歩行音処理部15Aで、歩行音信号22から抽出した足音を示す足音信号について、当該足音信号に関する音響的特徴を示す特徴値をそれぞれ算出し、パラメータ算出部15Bにより、歩行音処理部15Aで得られた各特徴値に関する統計値を、対象者の足音パラメータ値としてそれぞれ算出し、履物種別判定部15Dで、履物種別DB14Bを参照して、パラメータ算出部15Bで得られた対象者の足音パラメータ値に対応する履物種別を対象者の履物種別として判定し、区分判定部15Cで、分類区分ごとに評価値を算出する際、履物種別判定部15Dで得られた対象者の履物種別に対応する確率値を、分類区分ごとに確率分布DB14Aから取得して、対応する分類区分の評価値へそれぞれ統合するようにしたものである。
[Effect of the fourth embodiment]
As described above, according to the present embodiment, the walking
これにより、対象者が持つ特徴が、その特徴に対して予め設定した分類区分のいずれに属するかを判定する際、対象者の歩行状態パラメータ値だけでなく、対象者の足音に含まれる音響的特徴を示す足音パラメータ値から判定した対象者の履物種別をも考慮することができ、より詳細に対象者の分類区分を判定することができる。 Thus, when determining which of the classification categories preset for the feature the feature of the subject belongs to, not only the walking state parameter value of the subject but also the acoustics included in the footsteps of the subject The footwear type of the subject determined from the footstep parameter value indicating the feature can also be taken into consideration, and the classification of the subject can be determined in more detail.
また、本実施の形態において、履物種別に対応する確率値を、対応する分類区分の評価値に統合する際、実際には、前述した式(1)で説明したような、各歩行状態パラメータ値に対応する確率値および履物種別に対応する確率値と、これら歩行状態パラメータ値および履物種別ごとに予め設定しておいた重みとの積和計算を行うことになる。この場合、履物種別に対応する重みとして共通する1つの重みを用いてもよいが、履物種別の判定結果に応じて異なる重みを用いてもよい。 In the present embodiment, when the probability value corresponding to the footwear type is integrated into the evaluation value of the corresponding classification category, each walking state parameter value is actually as described in the above-described equation (1). The product-sum calculation of the probability value corresponding to and the probability value corresponding to the footwear type and the weight set in advance for each walking state parameter value and footwear type is performed. In this case, one common weight may be used as the weight corresponding to the footwear type, but a different weight may be used depending on the determination result of the footwear type.
例えば、履物種別の判定結果が「ハイヒール」の場合、対象者の性別に対する分類区分については、女性である確率が極めて高い。一方、履物種別の判定結果が「運動靴」の場合、男性/女性の確率にあまり差は見られない。このため、このような場合には、予め履物種別DB14Bに登録しておいた、履物種別の判定結果に応じた重みを用いて評価値を算出すればよい。これにより、より詳細に対象者の分類区分を判定することができる。
For example, when the determination result of the footwear type is “high heels”, the probability of being a woman is very high for the classification category of the subject's gender. On the other hand, when the determination result of the footwear type is “athletic shoes”, there is not much difference in the probability of male / female. For this reason, in such a case, an evaluation value may be calculated using a weight that is registered in the
[第5の実施の形態]
次に、図14を参照して、本発明の第5の実施の形態にかかる歩行音分析装置10について説明する。図14は、第5の実施の形態にかかる歩行音分析装置を示すブロック図であり、前述の図1と同じまたは同等部分には同一符号を付してある。
[Fifth Embodiment]
Next, with reference to FIG. 14, a walking
第4の実施の形態では、対象者の足音に含まれる音響的特徴を示す足音パラメータ値から判定した対象者の履物種別を考慮して、対象者の分類区分を判定する場合について説明した。ここで、対象者の歩行に伴って発生する歩行音は、対象者の足音だけでなく、対象者が身につけている衣服や鞄等の付帯物からも発生している。本実施の形態では、このことに着目し、対象者の周囲に設けた観測点で発生した音に関する音響的特徴を示す観測点パラメータ値から判定した対象者の付帯物を考慮して、対象者の分類区分を判定するようにしたものである。 In the fourth embodiment, the case has been described in which the classification category of the subject is determined in consideration of the footwear type of the subject determined from the footstep parameter value indicating the acoustic feature included in the footstep of the subject. Here, the walking sound generated along with the walking of the subject is generated not only from the footsteps of the subject but also from accessories such as clothes and heels worn by the subject. In this embodiment, paying attention to this, in consideration of the incidental object of the subject determined from the observation point parameter value indicating the acoustic characteristics regarding the sound generated at the observation points provided around the subject, the subject The classification category is determined.
本実施の形態において、歩行音処理部15Aは、歩行音信号22を収音処理することにより、対象者の周囲に設けた観測点ごとに、当該観測点で発生した音を示す観測点信号を生成する機能と、これら観測点信号ごとに周波数スペクトル分析することにより、当該観測点信号に関する音響的特徴を示す観測点特徴値としてスペクトログラムをそれぞれ算出する機能とを有している。
パラメータ算出部15Bは、歩行音処理部15Aで得られた各観測点特徴値、すなわちスペクトログラムから、特定周波数におけるスペクトル強度値に関する平均スペクトル強度値Sおよびスペクトル強度値標準偏差Ssdからなる統計値を、観測点ごとに対象者の観測点パラメータ値としてそれぞれ算出する機能を有している。
In the present embodiment, the walking
The
図15は、対象者の観測領域を示す説明図である。ここでは、対象者を囲む観測領域として、前後左右の方向にそれぞれ0.6mの幅を持ち、高さ方向に床面から2.0mの高さを持つ領域が設定されている。実際には、この観測領域を0.2m間隔で格子状に区切って、176個の観測点を設定し、これら観測点で発生した音を示す観測点信号を生成する。これにより、対象者の服装や所持品などの付帯物から発生する歩行音を示す観測点信号を得ることができ、その音響的特徴を示す観測点特徴値から得られる観測点パラメータ値に基づき付帯物を判定することができる。 FIG. 15 is an explanatory diagram showing the observation area of the subject. Here, as the observation area surrounding the subject, an area having a width of 0.6 m in each of the front, rear, left, and right directions and a height of 2.0 m from the floor in the height direction is set. Actually, this observation area is divided into a grid at intervals of 0.2 m to set 176 observation points, and an observation point signal indicating the sound generated at these observation points is generated. As a result, it is possible to obtain an observation point signal indicating a walking sound generated from an accessory such as the subject's clothes or personal belongings, and an incidental signal based on the observation point parameter value obtained from the observation point feature value indicating the acoustic feature. You can judge things.
各観測点における観測点信号については、前述した公知の収音処理/強調処理を用いればよい(例えば、非特許文献3等参照)。これにより、対象者の体の前後左右、足の各部分、腰付近、腕付近、頭付近など、各部分で発生した、衣服の摩擦音や所持品のゆれや体にぶつかるときに発生する音などの歩行音をそれぞれ個別に得ることができる。
なお、観測領域については、連続する足音の音発生位置および音発生時刻から歩行速度を求めることにより、各時刻における対象者の体の中心位置を推定できるので、この中心位置に対して観測領域を設定すればよい。また、これら観測領域や観測点の間隔の寸法については、これに限定されるものではない。
For the observation point signal at each observation point, the above-described known sound collection processing / emphasis processing may be used (see, for example, Non-Patent Document 3). As a result, the friction sound of clothes, the vibrations of belongings, and the sound generated when hitting the body, such as front and rear, right and left of the subject's body, each part of the foot, near the waist, near the arm, near the head, etc. Can be obtained individually.
As for the observation area, the center position of the subject's body at each time can be estimated by calculating the walking speed from the sound generation position and sound generation time of the continuous footsteps. You only have to set it. Further, the size of the space between these observation areas and observation points is not limited to this.
また、記憶部14には、図14に示すように、新たな処理情報として、人に付帯する付帯物に関する付帯物種別と、当該付帯物種別の付帯物を付帯した人の観測点信号から得た各観測点パラメータ値との対応関係を示す付帯物種別データベース(以下、付帯物種別DBという)14Cが記憶されている。付帯物種別としては、ズボン、スカート、コートなどの衣服やその生地素材、バッグ、鞄などの所持品、さらにはその形状や大きさなどがある。
Further, as shown in FIG. 14, the
また、記憶部14の確率分布DB14Aには、分類区分ごとに、当該分類区分に属する人が付帯する付帯物に関する、付帯物種別ごとの頻度分布を示す確率分布特性が登録されている。この付帯物種別に関する確率分布特性については、例えば、前述した図4のように連続性のある特性ではなく、分類区分と付帯物種別との組合せごとにそれぞれ個別の確率値が登録されている。
Further, the
また、演算処理部15には、図12に示すように、新たな処理部として、付帯物種別DB14Cを参照して、パラメータ算出部15Bで得られた対象者の観測点パラメータ値に対応する付帯物種別を対象者の付帯物種別として判定する付帯物種別判定部15Eが設けられている。
区分判定部15Cは、分類区分ごとに評価値を算出する際、付帯物種別判定部15Eで得られた対象者の付帯物種別に対応する確率値を、分類区分ごとに確率分布DB14Aから取得する機能と、取得した確率値を対応する分類区分の評価値へそれぞれ統合する機能とを有している。
Further, as shown in FIG. 12, the
When the
[第5の実施の形態の動作]
次に、図16を参照して、本発明の第5の実施の形態にかかる歩行音分析装置10の動作について説明する。図16は、第5の実施の形態にかかる歩行音分析装置の歩行音分析処理を示すフローチャートであり、前述の図7と同じまたは同等部分には同一符号を付してある。
演算処理部15は、操作入力部12で検出されたオペレータによる実行開始指示に応じて、図16の歩行音分析処理の実行を開始する。
[Operation of Fifth Embodiment]
Next, with reference to FIG. 16, the operation of the walking
The
まず、歩行音処理部15Aは、信号入力部11を介して歩行音信号22を取得し(ステップ100)、この歩行音信号22を音響信号処理することにより、各足音が発生した音発生位置および音発生時刻をそれぞれ抽出する(ステップ101)。
また、歩行音処理部15Aは、前述のようにして、歩行音信号22から各観測点における観測点信号をそれぞれ生成して周波数スペクトル分析することにより、これら観測点信号ごとに、当該観測点信号に関する音響的特徴を示す特徴値としてスペクトログラムを算出する(ステップ500)。
First, the walking
In addition, the walking
続いて、パラメータ算出部15Bは、歩行音処理部15Aで得られた各足音の音発生位置および音発生時刻に基づいて、対象者の歩幅、歩行速度、移動中心線から左右方向への開き幅、および1歩の時間間隔に関する統計量、すなわち平均歩幅L、歩幅標準偏差Lsd、平均歩行速度V、歩行速度標準偏差Vsd、平均開き幅B、開き幅標準偏差Bsd、平均時間間隔T、および時間間隔標準偏差Tsdを、対象者の歩行状態パラメータ値としてそれぞれ算出する(ステップ102)。
Subsequently, the
また、パラメータ算出部15Bは、前述のようにして、歩行音処理部15Aで得られたスペクトログラムに基づいて、特定周波数におけるスペクトル強度値に関する平均スペクトル強度値Sおよびスペクトル強度値標準偏差Ssdを、観測点パラメータ値として算出する(ステップ102)。
この後、付帯物種別判定部15Eは、記憶部14の付帯物種別DB14Cを参照して、パラメータ算出部15Bで得られた対象者の観測点パラメータ値に対応する付帯物種別を対象者の付帯物種別として判定する(ステップ501)。
Further, as described above, the
Thereafter, the accessory
次に、区分判定部15Cは、パラメータ算出部15Bで得られた対象者の各歩行状態パラメータ値に対応する確率値と、付帯物種別判定部15Eで判定された対象者の付帯物種別に対応する確率値とを、分類区分ごとに確率分布DB14Aから取得し(ステップ103)、各歩行状態パラメータ値に対応する確率値を分類区分ごとに統合することにより、分類区分ごとの評価値を算出するとともに、付帯物種別に対応する確率値を、対応する分類区分の評価値に統合する(ステップ104)。
Next, the
この後、区分判定部15Cは、これら評価値のうち最も高い評価値が得られた登録者が対象者であると判定し(ステップ105)、判定した登録者を、入力された歩行音信号22の分析結果として、画面表示部13で画面表示し、一連の歩行音分析処理を終了する。
Thereafter, the
[第5の実施の形態の効果]
このように、本実施の形態は、歩行音処理部15Aでは、歩行音信号22を収音処理することにより、対象者の周囲に設けた観測点ごとに、当該観測点で発生した音を示す観測点信号を生成して、これら観測点信号ごとに当該観測点信号に関する音響的特徴を示す観測点特徴値をそれぞれ算出し、パラメータ算出部15Bにより、歩行音処理部15Aで得られた各観測点特徴値に関する統計値を、観測点ごとに対象者の観測点パラメータ値としてそれぞれ算出し、付帯物種別判定部15Eで、付帯物種別DB14Cを参照して、パラメータ算出部15Bで得られた対象者の観測点パラメータ値に対応する付帯物種別を対象者の付帯物種別として判定し、区分判定部15Cで、分類区分ごとに評価値を算出する際、対象者の付帯物種別に対応する確率値を、分類区分ごとに確率分布DB14Aから取得して、対応する分類区分の評価値へそれぞれ統合するようにしたものである。
[Effect of Fifth Embodiment]
As described above, in the present embodiment, the walking
これにより、対象者が持つ特徴が、その特徴に対して予め設定した分類区分のいずれに属するかを判定する際、対象者の歩行状態パラメータ値だけでなく、対象者の周囲で発生した歩行音に含まれる音響的特徴を示す観測点パラメータ値から判定した対象者の付帯物種別をも考慮することができ、より詳細に対象者の分類区分を判定することができる。 Thereby, when determining which of the classification categories set in advance for the feature the subject has, the walking sound generated around the subject as well as the walking state parameter value of the subject It is also possible to consider the incidental type of the subject determined from the observation point parameter value indicating the acoustic feature included in the, and to determine the classification of the subject in more detail.
また、本実施の形態では、観測点パラメータ値として、特定周波数におけるスペクトル強度値に関する平均スペクトル強度値Sおよびスペクトル強度値標準偏差Ssdからなる統計値を用いる場合について説明したが、当該観測点の位置を示す観測位置も観測点パラメータ値に含めてもよい。これにより、付帯物種別判定部15Eにおいて付帯物種別を判定する際、対象者の観測領域のうち、それぞれの付帯物が存在する位置を考慮することができ、より詳細に付帯物の種別を判定することができる。
In the present embodiment, a case has been described in which a statistical value including the average spectral intensity value S and the spectral intensity value standard deviation Ssd regarding the spectral intensity value at a specific frequency is used as the observation point parameter value. May also be included in the observation point parameter value. Thereby, when determining the accessory type in the accessory
また、本実施の形態において、付帯物種別に対応する確率値を、対応する分類区分の評価値に統合する際、実際には、前述した式(1)で説明したような、各歩行状態パラメータ値に対応する確率値および付帯物種別に対応する確率値と、これら歩行状態パラメータ値および付帯物種別ごとに予め設定しておいた重みとの積和計算を行うことになる。この場合、付帯物種別に対応する重みとして共通する1つの重みを用いてもよいが、付帯物種別の判定結果に応じて異なる重みを用いてもよい。 In the present embodiment, when the probability value corresponding to the accessory type is integrated into the evaluation value of the corresponding classification category, each walking state parameter as described in Expression (1) is actually used. The sum of products of the probability value corresponding to the value and the probability value corresponding to the accessory type and the weight set in advance for each of the walking state parameter value and the accessory type is calculated. In this case, one common weight may be used as the weight corresponding to the accessory type, but a different weight may be used depending on the determination result of the accessory type.
例えば、付帯物種別の判定結果が「ハンドバック」の場合、対象者の性別に対する分類区分については、女性である確率が極めて高い。一方、付帯物種別の判定結果が「リュックサック」の場合、男性/女性の確率にあまり差は見られない。このため、このような場合には、予め付帯物種別DB14Cに登録しておいた、付帯物種別の判定結果に応じた重みを用いて評価値を算出すればよい。これにより、より詳細に対象者の分類区分を判定することができる。
For example, when the determination result of the accessory type is “handback”, the probability of being a woman is extremely high for the classification category of the subject's gender. On the other hand, when the determination result of the accessory type is “rucksack”, there is not much difference in the probability of male / female. For this reason, in such a case, the evaluation value may be calculated using the weight according to the determination result of the incidental type registered in advance in the
[実施の形態の拡張]
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しうる様々な変更をすることができる。また、各実施の形態は、それぞれ任意に組合せて実施してもよい。
[Extended embodiment]
The present invention has been described above with reference to the embodiments, but the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention. Each embodiment may be implemented in any combination.
10…歩行音分析装置、11…信号入力部、12…操作入力部、13…画面表示部、14…記憶部、14A…確率分布DB、14B…履物種別DB、14C…付帯物種別DB、15…演算処理部、15A…歩行音処理部、15B…パラメータ算出部、15C…区分判定部、15D…履物種別判定部、15E…付帯物種別判定部、20…集音装置、21…マイクロホン、22…歩行音信号。
DESCRIPTION OF
Claims (13)
前記歩行音処理部で得られた各足音の音発生位置および音発生時刻に基づいて、前記対象者の歩行状態に関する特徴を示す歩行状態パラメータ値を算出するパラメータ算出部と、
人が持つ特徴に応じて予め設定した人の分類区分ごとに、当該分類区分に属する人の足音から得た前記歩行状態パラメータ値の頻度分布を示す確率分布特性を記憶する確率分布データベースと、
前記パラメータ算出部で得られた前記対象者の歩行状態パラメータ値に対応する確率値を、前記分類区分ごとに前記確率分布データベースから取得して統合することにより、前記分類区分ごとに評価値を算出し、最も高い評価値が得られた分類区分を前記対象者に関する分類区分として判定する区分判定部と
を備えることを特徴とする歩行音分析装置。 A walking sound processing unit that extracts a sound generation position and a sound generation time at which each footstep sound is generated by performing acoustic signal processing on a walking sound signal including a footstep sound that occurs as the subject walks, and
A parameter calculation unit that calculates a walking state parameter value indicating characteristics related to the walking state of the subject based on the sound generation position and sound generation time of each footstep obtained by the walking sound processing unit;
A probability distribution database that stores a probability distribution characteristic indicating a frequency distribution of the walking state parameter value obtained from a footstep of a person belonging to the classification category for each preset classification category of the person according to the characteristics of the person,
By obtaining and integrating the probability values corresponding to the walking state parameter values of the subject obtained by the parameter calculation unit from the probability distribution database for each classification category, an evaluation value is calculated for each classification category. And a classification determination unit that determines a classification category having the highest evaluation value as a classification category related to the target person.
前記歩行音処理部は、前記歩行音信号から抽出した足音を示す足音信号について、当該足音信号に関する音響的特徴を示す特徴値をそれぞれ算出し、
前記パラメータ算出部は、前記歩行音処理部で得られた各特徴値に関する統計値を、前記対象者の足音パラメータ値としてそれぞれ算出し、
前記確率分布データベースは、前記分類区分ごとに、当該分類区分に属する人の足音から得た前記各足音パラメータ値の頻度分布を示す確率分布特性を記憶し、
前記区分判定部は、前記分類区分ごとに前記評価値を算出する際、前記対象者の各足音パラメータ値に対応する確率値を、前記分類区分ごとに前記確率分布データベースから取得して、対応する分類区分の前記評価値へそれぞれ統合する
ことを特徴とする歩行音分析装置。 The walking sound analyzer according to claim 1,
The walking sound processing unit calculates a feature value indicating an acoustic feature related to the footstep signal for the footstep signal indicating the footstep extracted from the walking sound signal,
The parameter calculation unit calculates a statistical value regarding each feature value obtained by the walking sound processing unit as a footstep parameter value of the subject,
The probability distribution database stores a probability distribution characteristic indicating a frequency distribution of each footstep parameter value obtained from a footstep of a person belonging to the category for each category.
The category determination unit obtains a probability value corresponding to each footstep parameter value of the target person from the probability distribution database for each category category when calculating the evaluation value for each category category. A walking sound analyzer characterized by being integrated into the evaluation values of the classification categories.
前記歩行音処理部は、前記歩行音信号から抽出した足音を示す足音信号について、当該足音信号に関する音響的特徴を示す特徴値をそれぞれ算出し、
前記パラメータ算出部は、前記歩行音処理部で得られた前記各特徴値に関する統計値を、前記対象者の足音パラメータ値としてそれぞれ算出し、
人が履く履物に関する履物種別と、当該履物種別の履物を履いた人の足音から得た前記各足音パラメータ値との対応関係を示す履物種別データベースをさらに備え、
前記履物種別データベースを参照して、前記パラメータ算出部で得られた前記対象者の足音パラメータ値に対応する履物種別を前記対象者の履物種別として判定する履物種別判定部をさらに備え、
前記確率分布データベースは、前記分類区分ごとに、当該分類区分に属する人が履く履物に関する、前記履物種別ごとの頻度分布を示す確率分布特性をさらに記憶し、
前記区分判定部は、前記分類区分ごとに前記評価値を算出する際、前記履物種別判定部で得られた前記対象者の履物種別に対応する確率値を、前記分類区分ごとに前記確率分布データベースから取得して、対応する分類区分の前記評価値へそれぞれ統合する
ことを特徴とする歩行音分析装置。 In the walking sound analyzer according to claim 1 or 2,
The walking sound processing unit calculates a feature value indicating an acoustic feature related to the footstep signal for the footstep signal indicating the footstep extracted from the walking sound signal,
The parameter calculation unit calculates a statistical value regarding each feature value obtained by the walking sound processing unit as a footstep parameter value of the subject,
A footwear type database showing a correspondence relationship between footwear types related to footwear worn by a person and each footstep parameter value obtained from footsteps of a person wearing the footwear of the footwear type,
With reference to the footwear type database, further comprising a footwear type determination unit that determines the footwear type corresponding to the footstep parameter value of the target person obtained by the parameter calculation unit as the footwear type of the target person,
The probability distribution database further stores, for each classification category, a probability distribution characteristic indicating a frequency distribution for each footwear type regarding footwear worn by persons belonging to the classification category,
When the category determination unit calculates the evaluation value for each of the classification categories, a probability value corresponding to the footwear type of the target person obtained by the footwear type determination unit is calculated for each classification category in the probability distribution database. The walking sound analyzer is characterized by being acquired from the above and integrated with the evaluation values of the corresponding classification categories.
前記歩行音処理部は、前記歩行音信号を収音処理することにより、前記対象者の周囲に設けた観測点ごとに、当該観測点で発生した音を示す観測点信号を生成して、これら観測点信号ごとに当該観測点信号に関する音響的特徴を示す観測点特徴値をそれぞれ算出し、
前記パラメータ算出部は、前記歩行音処理部で得られた前記各観測点特徴値に関する統計値を、前記観測点ごとに前記対象者の観測点パラメータ値としてそれぞれ算出し、
人に付帯する付帯物に関する付帯物種別と、当該付帯物種別の付帯物を付帯した人の前記観測点信号から得た前記各観測点パラメータ値との対応関係を示す付帯物種別データベースをさらに備え、
前記付帯物種別データベースを参照して、前記パラメータ算出部で得られた前記対象者の観測点パラメータ値に対応する付帯物種別を前記対象者の付帯物種別として判定する付帯物種別判定部をさらに備え、
前記確率分布データベースは、前記分類区分ごとに、当該分類区分に属する人が付帯する付帯物に関する、前記付帯物種別ごとの頻度分布を示す確率分布特性をさらに記憶し、
前記区分判定部は、前記分類区分ごとに前記評価値を算出する際、前記対象者の付帯物種別に対応する確率値を、前記分類区分ごとに前記確率分布データベースから取得して、対応する分類区分の前記評価値へそれぞれ統合する
ことを特徴とする歩行音分析装置。 In the walking sound analyzer according to any one of claims 1 to 3,
The walking sound processing unit generates an observation point signal indicating sound generated at the observation point for each observation point provided around the subject by performing sound collection processing on the walking sound signal, For each observation point signal, an observation point feature value indicating an acoustic feature related to the observation point signal is calculated,
The parameter calculation unit calculates a statistical value regarding each observation point feature value obtained by the walking sound processing unit as an observation point parameter value of the subject for each observation point,
An accessory type database that indicates a correspondence relationship between an accessory type related to an accessory attached to a person and each observation point parameter value obtained from the observation point signal of a person attached to the accessory of the accessory type ,
An accessory type determination unit that refers to the accessory type database and determines an accessory type corresponding to the observation point parameter value of the subject obtained by the parameter calculation unit as the subject type of the subject; Prepared,
The probability distribution database further stores, for each classification category, a probability distribution characteristic indicating a frequency distribution for each accessory type related to an accessory attached to a person belonging to the classification category,
When calculating the evaluation value for each classification category, the category determination unit obtains a probability value corresponding to the accessory type of the target person from the probability distribution database for each classification category, and corresponds to the classification category. A walking sound analyzer characterized in that it is integrated with each evaluation value of each category.
前記パラメータ算出部は、前記歩行状態パラメータ値として、少なくとも前記対象者の歩幅、歩行速度、移動中心線から左右方向への開き幅、および1歩の時間間隔のうちのいずれか1つまたは複数に関する統計量、あるいは前記足音信号のスペクトログラムから抽出した当該足音信号の音響的特徴を示す特徴情報を算出することを特徴とする歩行音分析装置。 In the walking sound analyzer according to any one of claims 1 to 4,
The parameter calculation unit relates to any one or more of at least the step length of the subject, the walking speed, the opening width from the movement center line in the left-right direction, and the time interval of one step as the walking state parameter value. A walking sound analyzer characterized by calculating feature information indicating a statistic or an acoustic feature of the footstep signal extracted from a spectrogram of the footstep signal.
前記区分判定部は、前記分類区分ごとに算出した前記評価値のうち、前記分類区分ごとに予め設定されているしきい値を越える評価値のうちから、最も高い評価値が得られた分類区分、あるいは当該評価値と前記しきい値との差または比が最も大きい分類区分を前記対象者に関する分類区分として判定することを特徴とする歩行音分析装置。 In the walking sound analyzer according to any one of claims 1 to 5,
The category determination unit is a category category having the highest evaluation value among the evaluation values calculated for each category category and exceeding the preset threshold value for each category category. Alternatively, the walking sound analyzing apparatus characterized in that the classification category having the largest difference or ratio between the evaluation value and the threshold value is determined as the classification category related to the subject.
歩行音処理部が、対象者の歩行に伴って生じる足音を含む歩行音信号を音響信号処理することにより、前記各足音が発生した音発生位置および音発生時刻をそれぞれ抽出する歩行音処理ステップと、
パラメータ算出部が、前記歩行音処理部で得られた各足音の音発生位置および音発生時刻に基づいて、前記対象者の歩行状態に関する特徴を示す歩行状態パラメータ値を算出するパラメータ算出ステップと、
記憶部が、人が持つ特徴に応じて予め設定した人の分類区分ごとに、当該分類区分に属する人の足音から得た前記歩行状態パラメータ値の頻度分布を示す確率分布特性を確率分布データベースとして記憶するステップと、
区分判定部が、前記パラメータ算出部で得られた前記対象者の歩行状態パラメータ値に対応する確率値を、前記分類区分ごとに前記確率分布データベースから取得して統合することにより、前記分類区分ごとに評価値を算出し、最も高い評価値が得られた分類区分を前記対象者に関する分類区分として判定する区分判定ステップと
を備えることを特徴とする歩行音分析方法。 A walking sound analysis method used in a walking sound analysis apparatus that analyzes a walking sound signal including footsteps generated along with walking of a target person and determines characteristics of the target person,
A walking sound processing step in which a walking sound processing unit extracts a sound generation position and a sound generation time at which each footstep sound is generated by performing acoustic signal processing on a walking sound signal including a footstep sound that occurs as the subject walks. ,
A parameter calculating step for calculating a walking state parameter value indicating characteristics relating to the walking state of the subject based on a sound generation position and a sound generation time of each footstep obtained by the walking sound processing unit;
A probability distribution characteristic indicating a frequency distribution of the walking state parameter value obtained from a footstep of a person belonging to the classification category for each of the classification categories of the person set in advance according to the characteristics of the person as a probability distribution database Memorizing step;
The classification determination unit acquires the probability value corresponding to the walking state parameter value of the subject obtained by the parameter calculation unit from the probability distribution database and integrates the classification value for each classification category. A walking sound analysis method, comprising: a classification determination step of calculating an evaluation value and determining a classification category with the highest evaluation value as a classification category related to the subject.
前記歩行音処理ステップは、前記歩行音信号から抽出した足音を示す足音信号について、当該足音信号に関する音響的特徴を示す特徴値をそれぞれ算出し、
前記パラメータ算出ステップは、前記歩行音処理部で得られた各特徴値に関する統計値を、前記対象者の足音パラメータ値としてそれぞれ算出し、
前記確率分布データベースは、前記分類区分ごとに、当該分類区分に属する人の足音から得た前記各足音パラメータ値の頻度分布を示す確率分布特性を記憶し、
前記区分判定ステップは、前記分類区分ごとに前記評価値を算出する際、前記対象者の各足音パラメータ値に対応する確率値を、前記分類区分ごとに前記確率分布データベースから取得して、対応する分類区分の前記評価値へそれぞれ統合する
ことを特徴とする歩行音分析方法。 The walking sound analysis method according to claim 7,
The walking sound processing step calculates a feature value indicating an acoustic feature related to the footstep signal for the footstep signal indicating the footstep extracted from the walking sound signal,
The parameter calculating step calculates a statistical value regarding each feature value obtained by the walking sound processing unit as a footstep parameter value of the subject,
The probability distribution database stores a probability distribution characteristic indicating a frequency distribution of each footstep parameter value obtained from a footstep of a person belonging to the category for each category.
The category determination step obtains a probability value corresponding to each footstep parameter value of the target person from the probability distribution database for each category category when calculating the evaluation value for each category category. A walking sound analysis method characterized by integrating each of the classification values into the evaluation values.
前記歩行音処理ステップは、前記歩行音信号から抽出した足音を示す足音信号について、当該足音信号に関する音響的特徴を示す特徴値をそれぞれ算出し、
前記パラメータ算出ステップは、前記歩行音処理部で得られた前記各特徴値に関する統計値を、前記対象者の足音パラメータ値としてそれぞれ算出し、
前記記憶部が、人が履く履物に関する履物種別と、当該履物種別の履物を履いた人の足音から得た前記各足音パラメータ値との対応関係を示す履物種別データベースを記憶するステップをさらに備え、
履物種別判定部が、前記履物種別データベースを参照して、前記パラメータ算出部で得られた前記対象者の足音パラメータ値に対応する履物種別を前記対象者の履物種別として判定する履物種別判定ステップをさらに備え、
前記確率分布データベースは、前記分類区分ごとに、当該分類区分に属する人が履く履物に関する、前記履物種別ごとの頻度分布を示す確率分布特性をさらに記憶し、
前記区分判定ステップは、前記分類区分ごとに前記評価値を算出する際、前記履物種別判定部で得られた前記対象者の履物種別に対応する確率値を、前記分類区分ごとに前記確率分布データベースから取得して、対応する分類区分の前記評価値へそれぞれ統合する
ことを特徴とする歩行音分析方法。 In the walking sound analysis method according to claim 7 or 8,
The walking sound processing step calculates a feature value indicating an acoustic feature related to the footstep signal for the footstep signal indicating the footstep extracted from the walking sound signal,
The parameter calculating step calculates a statistical value related to each feature value obtained by the walking sound processing unit as a footstep parameter value of the subject,
The storage unit further includes a step of storing a footwear type database indicating a correspondence relationship between footwear types related to footwear worn by a person and the footstep parameter values obtained from footsteps of a person wearing the footwear of the footwear type,
The footwear type determining unit refers to the footwear type database, and determines the footwear type determining step that determines the footwear type corresponding to the footstep parameter value of the target person obtained by the parameter calculating unit as the footwear type of the target person. In addition,
The probability distribution database further stores, for each classification category, a probability distribution characteristic indicating a frequency distribution for each footwear type regarding footwear worn by persons belonging to the classification category,
In the category determination step, when calculating the evaluation value for each classification category, the probability value corresponding to the footwear type of the target person obtained by the footwear type determination unit is calculated for each classification category in the probability distribution database. The method for analyzing a walking sound, which is obtained from the above and integrated into the evaluation values of the corresponding classification categories.
前記歩行音処理ステップは、前記歩行音信号を収音処理することにより、前記対象者の周囲に設けた観測点ごとに、当該観測点で発生した音を示す観測点信号を生成して、これら観測点信号ごとに当該観測点信号に関する音響的特徴を示す観測点特徴値をそれぞれ算出し、
前記パラメータ算出ステップは、前記歩行音処理部で得られた前記各観測点特徴値に関する統計値を、前記観測点ごとに前記対象者の観測点パラメータ値としてそれぞれ算出し、
前記記憶部が、人に付帯する付帯物に関する付帯物種別と、当該付帯物種別の付帯物を付帯した人の前記観測点信号から得た前記各観測点パラメータ値との対応関係を示す付帯物種別データベースを記憶するステップをさらに備え、
付帯物種別判定部が、前記付帯物種別データベースを参照して、前記パラメータ算出部で得られた前記対象者の観測点パラメータ値に対応する付帯物種別を前記対象者の付帯物種別として判定する付帯物種別判定ステップをさらに備え、
前記確率分布データベースは、前記分類区分ごとに、当該分類区分に属する人が付帯する付帯物に関する、前記付帯物種別ごとの頻度分布を示す確率分布特性をさらに記憶し、
前記区分判定ステップは、前記分類区分ごとに前記評価値を算出する際、前記対象者の付帯物種別に対応する確率値を、前記分類区分ごとに前記確率分布データベースから取得して、対応する分類区分の前記評価値へそれぞれ統合する
ことを特徴とする歩行音分析方法。 In the walking sound analysis method according to any one of claims 7 to 9,
The walking sound processing step generates an observation point signal indicating the sound generated at the observation point for each observation point provided around the subject by collecting the walking sound signal. For each observation point signal, an observation point feature value indicating an acoustic feature related to the observation point signal is calculated,
The parameter calculating step calculates a statistical value regarding each observation point feature value obtained by the walking sound processing unit as an observation point parameter value of the subject for each observation point,
The storage unit is an accessory that indicates a correspondence relationship between an accessory type related to an accessory attached to a person and each observation point parameter value obtained from the observation point signal of a person attached to the accessory of the accessory type. Further comprising the step of storing a type database;
The accessory type determination unit refers to the accessory type database and determines the accessory type corresponding to the observation point parameter value of the subject obtained by the parameter calculation unit as the subject type of the subject. The method further includes an accessory type determination step,
The probability distribution database further stores, for each classification category, a probability distribution characteristic indicating a frequency distribution for each accessory type related to an accessory attached to a person belonging to the classification category,
In the category determination step, when calculating the evaluation value for each classification category, a probability value corresponding to the subject accessory type is acquired from the probability distribution database for each classification category, and the corresponding classification is obtained. A walking sound analysis method, characterized by integrating each of the evaluation values of the categories.
前記パラメータ算出ステップは、前記歩行状態パラメータ値として、少なくとも前記対象者の歩幅、歩行速度、移動中心線から左右方向への開き幅、および1歩の時間間隔のうちのいずれか1つまたは複数に関する統計量、あるいは前記足音信号のスペクトログラムから抽出した当該足音信号の音響的特徴を示す特徴情報を算出することを特徴とする歩行音分析方法。 The walking sound analysis method according to any one of claims 7 to 10,
The parameter calculating step relates to any one or more of at least the subject's step length, walking speed, width from the movement center line in the left-right direction, and a time interval of one step as the walking state parameter value. A walking sound analysis method characterized by calculating statistical information or feature information indicating an acoustic feature of the footstep signal extracted from a spectrogram of the footstep signal.
前記区分判定ステップは、前記分類区分ごとに算出した前記評価値のうち、前記分類区分ごとに予め設定されているしきい値を越える評価値のうちから、最も高い評価値が得られた分類区分、あるいは当該評価値と前記しきい値との差または比が最も大きい分類区分を前記対象者に関する分類区分として判定することを特徴とする歩行音分析方法。 The walking sound analysis method according to any one of claims 7 to 11,
The category determination step includes a category category in which the highest evaluation value is obtained from among the evaluation values calculated for each category category, and an evaluation value exceeding a preset threshold value for each category category. Alternatively, the walking sound analysis method characterized in that the classification category having the largest difference or ratio between the evaluation value and the threshold value is determined as the classification category related to the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011027660A JP5485924B2 (en) | 2011-02-10 | 2011-02-10 | Walking sound analyzer, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011027660A JP5485924B2 (en) | 2011-02-10 | 2011-02-10 | Walking sound analyzer, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012168647A true JP2012168647A (en) | 2012-09-06 |
JP5485924B2 JP5485924B2 (en) | 2014-05-07 |
Family
ID=46972765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011027660A Expired - Fee Related JP5485924B2 (en) | 2011-02-10 | 2011-02-10 | Walking sound analyzer, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5485924B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016112053A (en) * | 2014-12-11 | 2016-06-23 | 国立研究開発法人産業技術総合研究所 | Walking state determination method, program and device |
JP2017117492A (en) * | 2017-03-13 | 2017-06-29 | 株式会社日立製作所 | Watching system |
WO2019087563A1 (en) * | 2017-11-02 | 2019-05-09 | Necソリューションイノベータ株式会社 | Walking vibration analysis device, walking vibration analysis method, and computer-readable recording medium |
WO2021130907A1 (en) * | 2019-12-25 | 2021-07-01 | 日本電気株式会社 | Estimation device, estimation system, estimation method, and program recording medium |
WO2023047558A1 (en) * | 2021-09-27 | 2023-03-30 | 日本電気株式会社 | Estimation device, information presentation system, estimation method, and recording medium |
-
2011
- 2011-02-10 JP JP2011027660A patent/JP5485924B2/en not_active Expired - Fee Related
Non-Patent Citations (4)
Title |
---|
CSNG200701149008; 野村祐基他: 'DPマッチングによる歩行足音の個人識別に関する検討' 電子情報通信学会技術研究報告 第107巻,第239号, 20070921, p.73-77, 社団法人電子情報通信学会 * |
CSNG201100050002; 庄司正成他: '音響情報に基づく複数歩行者位置推定,追跡の検討' 電子情報通信学会技術研究報告 第110巻,第378号, 20110113, p.7-12, 社団法人電子情報通信学会 * |
JPN6014005304; 野村祐基他: 'DPマッチングによる歩行足音の個人識別に関する検討' 電子情報通信学会技術研究報告 第107巻,第239号, 20070921, p.73-77, 社団法人電子情報通信学会 * |
JPN6014005306; 庄司正成他: '音響情報に基づく複数歩行者位置推定,追跡の検討' 電子情報通信学会技術研究報告 第110巻,第378号, 20110113, p.7-12, 社団法人電子情報通信学会 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016112053A (en) * | 2014-12-11 | 2016-06-23 | 国立研究開発法人産業技術総合研究所 | Walking state determination method, program and device |
JP2017117492A (en) * | 2017-03-13 | 2017-06-29 | 株式会社日立製作所 | Watching system |
WO2019087563A1 (en) * | 2017-11-02 | 2019-05-09 | Necソリューションイノベータ株式会社 | Walking vibration analysis device, walking vibration analysis method, and computer-readable recording medium |
JPWO2019087563A1 (en) * | 2017-11-02 | 2020-11-12 | Necソリューションイノベータ株式会社 | Walking vibration analysis device, walking vibration analysis method, and program |
WO2021130907A1 (en) * | 2019-12-25 | 2021-07-01 | 日本電気株式会社 | Estimation device, estimation system, estimation method, and program recording medium |
JPWO2021130907A1 (en) * | 2019-12-25 | 2021-07-01 | ||
JP7218820B2 (en) | 2019-12-25 | 2023-02-07 | 日本電気株式会社 | Estimation Device, Estimation System, Estimation Method, and Program |
WO2023047558A1 (en) * | 2021-09-27 | 2023-03-30 | 日本電気株式会社 | Estimation device, information presentation system, estimation method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP5485924B2 (en) | 2014-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11504069B2 (en) | Method and apparatus to infer object and agent properties, activity capacities, behaviors, and intents from contact and pressure images | |
Pan et al. | Indoor person identification through footstep induced structural vibration | |
JP5485924B2 (en) | Walking sound analyzer, method, and program | |
Ortells et al. | Vision-based gait impairment analysis for aided diagnosis | |
Su et al. | Doppler radar fall activity detection using the wavelet transform | |
JP5920364B2 (en) | Information processing apparatus, representative waveform generation method, and representative waveform generation program | |
US20230085511A1 (en) | Method and system for heterogeneous event detection | |
EP3453321B1 (en) | Non-invasive method and system for estimating blood pressure from photoplethysmogram using statistical post-processing | |
CN107016233A (en) | The association analysis method and system of motor behavior and cognitive ability | |
Wang et al. | Home monitoring musculo-skeletal disorders with a single 3d sensor | |
JP2016057908A (en) | Robbery prevention system and software | |
Mazurek et al. | Use of kinematic and mel-cepstrum-related features for fall detection based on data from infrared depth sensors | |
US11793426B2 (en) | System and a method for determining breathing rate as a biofeedback | |
JP3655618B2 (en) | Pedestrian age determination device, walking state / pedestrian age determination method and program | |
CN105100701A (en) | Increasing accuracy of a physiological signal obtained from a video of a subject | |
JP6479447B2 (en) | Walking state determination method, walking state determination device, program, and storage medium | |
Rastegari et al. | A bag-of-words feature engineering approach for assessing health conditions using accelerometer data | |
CN107170466B (en) | Mopping sound detection method based on audio | |
Chen et al. | Systematic evaluation of features from pressure sensors and step number in gait for age and gender recognition | |
Muheidat et al. | Walk Identification using a smart carpet and Mel-Frequency Cepstral Coefficient (MFCC) features | |
Aich et al. | Auto detection of Parkinson’s disease based on objective measurement of gait parameters using wearable sensors | |
US20150317647A1 (en) | Method And Apparatus For Correlating Biometric Responses To Analyze Audience Reactions | |
JP5721470B2 (en) | Pedestrian number estimation device and pedestrian number estimation method | |
Mole et al. | An efficient Gait Dynamics classification method for Neurodegenerative Diseases using Brain signals | |
US20240237923A1 (en) | Mobility Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5485924 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |