JP7371856B2 - Mobile body flow line detection system - Google Patents
Mobile body flow line detection system Download PDFInfo
- Publication number
- JP7371856B2 JP7371856B2 JP2019154736A JP2019154736A JP7371856B2 JP 7371856 B2 JP7371856 B2 JP 7371856B2 JP 2019154736 A JP2019154736 A JP 2019154736A JP 2019154736 A JP2019154736 A JP 2019154736A JP 7371856 B2 JP7371856 B2 JP 7371856B2
- Authority
- JP
- Japan
- Prior art keywords
- flow line
- detection
- sensor
- learning
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 276
- 238000009434 installation Methods 0.000 claims description 7
- 230000000644 propagated effect Effects 0.000 claims description 6
- 230000001105 regulatory effect Effects 0.000 claims description 3
- 230000004048 modification Effects 0.000 description 38
- 238000012986 modification Methods 0.000 description 38
- 238000003062 neural network model Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 16
- 238000000034 method Methods 0.000 description 10
- 230000001681 protective effect Effects 0.000 description 10
- 239000000919 ceramic Substances 0.000 description 7
- 239000000463 material Substances 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 4
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 3
- KDLHZDBZIXYQEI-UHFFFAOYSA-N Palladium Chemical compound [Pd] KDLHZDBZIXYQEI-UHFFFAOYSA-N 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 239000011889 copper foil Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 229910052742 iron Inorganic materials 0.000 description 2
- 229910052709 silver Inorganic materials 0.000 description 2
- 239000004332 silver Substances 0.000 description 2
- 229910001220 stainless steel Inorganic materials 0.000 description 2
- 239000010935 stainless steel Substances 0.000 description 2
- 229910001369 Brass Inorganic materials 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000010951 brass Substances 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052763 palladium Inorganic materials 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 229910052721 tungsten Inorganic materials 0.000 description 1
Images
Landscapes
- Force Measurement Appropriate To Specific Purposes (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、所定の通行領域における移動体の動線を検出する移動体動線検出システムに関する。 The present invention relates to a moving body flow line detection system that detects the flow line of a moving body in a predetermined traffic area.
特許文献1には、歩行者等の移動体の移動経路を把握する移動経路追跡システムが開示されている。特許文献1のシステムは、通路の床に所定の密度で埋設された複数の圧力センサを備えている。圧力センサでは、通路を歩行する歩行者の通路に対する圧力を検出して出力しており、かかる出力に基づいて歩行者の移動経路を移動経路演算手段によって演算している。
しかしながら、特許文献1では、例えば、複数のセンサ間での特性等にばらつきが生じた場合、歩行者(移動体)が移動した際の各センサにおける出力値の信頼性が低下し、ひいては、移動経路の演算における精度も低下する、という問題がある。
However, in
本発明はこのような点に鑑みてなされたものであり、移動体の動線を検出する精度を向上することができる移動体動線検出システムを提供することを目的とする。 The present invention has been made in view of these points, and an object of the present invention is to provide a moving body flow line detection system that can improve the accuracy of detecting the flow line of a moving body.
本発明における一態様の移動体動線検出システムは、移動体の通行領域に並べて敷設された複数のセンサユニットを備えて該通行領域における移動体の動線を検出する移動体動線検出システムであって、前記センサユニットの各々は、床形成部材と、該床形成部材を支持し、且つ、移動体の移動によって前記床形成部材に加わる力に応じた検出値を出力するセンサとを備え、前記複数のセンサユニットにおける学習用の前記力の発生位置及び前記力が伝搬するときに前記センサから出力された学習用の検出値を表す学習データから予め学習された位置検出用学習済みモデルと、前記センサから出力された検出値とに基づいて、前記複数のセンサユニットにおける前記力の発生位置を検出する位置検出部と、前記位置検出部にて検出された前記力の発生位置に基づいて、前記複数のセンサユニットにおける移動体の動線を検出する動線検出部とを備え、前記動線検出部は、前記複数のセンサユニットにおける学習用の前記移動体の位置及び該移動体が移動したときの動線と、該移動体の移動による前記力が伝搬するときに前記センサから出力された学習用の検出値とを表す学習データから予め学習された動線検出用学習済みモデルと、前記センサから出力された検出値とにも基づいて、前記移動体の動線を検出することを特徴とする。
また、本発明における一態様の移動体動線検出システムは、移動体の通行領域に並べて敷設された複数のセンサユニットを備えて該通行領域における移動体の動線を検出する移動体動線検出システムであって、前記センサユニットの各々は、床形成部材と、該床形成部材を支持し、且つ、移動体の移動によって前記床形成部材に加わる力に応じた検出値を出力するセンサとを備え、前記複数のセンサユニットにおける学習用の前記力の発生位置及び前記力が伝搬するときに前記センサから出力された学習用の検出値を表す学習データから予め学習された位置検出用学習済みモデルと、前記センサから出力された検出値とに基づいて、前記複数のセンサユニットにおける前記力の発生位置を検出する位置検出部と、前記位置検出部にて検出された前記力の発生位置に基づいて、前記複数のセンサユニットにおける移動体の動線を検出する動線検出部とを備え、前記センサの検出値を前記力が発生した状態における全時間領域の出力波形としたことを特徴とする。
A mobile body flow line detection system according to one aspect of the present invention is a mobile body flow line detection system that includes a plurality of sensor units installed side by side in a moving area and detects a moving body flow line in the traffic area. Each of the sensor units includes a floor forming member, and a sensor that supports the floor forming member and outputs a detected value according to a force applied to the floor forming member due to movement of a moving body, a trained model for position detection learned in advance from learning data representing the generation position of the force for learning in the plurality of sensor units and a detection value for learning output from the sensor when the force propagates; a position detection section that detects a position where the force is generated in the plurality of sensor units based on the detection value output from the sensor; a flow line detection section that detects a flow line of the moving object in the plurality of sensor units, the movement line detection section detecting the position of the moving object for learning in the plurality of sensor units and the movement line of the moving object in the plurality of sensor units. a trained model for flow line detection that has been learned in advance from learning data representing a flow line and a learning detection value output from the sensor when the force due to the movement of the moving object is propagated; The present invention is characterized in that the flow line of the moving body is detected based also on a detection value output from a sensor .
In addition, a moving body flow line detection system according to one aspect of the present invention includes a plurality of sensor units installed in parallel in a moving area, and detects a moving line of the moving body in the traffic area. In the system, each of the sensor units includes a floor forming member and a sensor that supports the floor forming member and outputs a detected value according to a force applied to the floor forming member due to movement of a moving body. a trained model for position detection learned in advance from learning data representing the generation position of the force for learning in the plurality of sensor units and a detection value for learning output from the sensor when the force propagates; and a position detection unit that detects a position where the force is generated in the plurality of sensor units based on a detection value outputted from the sensor; and a flow line detection unit that detects the flow line of the moving object in the plurality of sensor units, and the detection value of the sensor is an output waveform of the entire time domain in the state in which the force is generated. .
本発明によれば、予め学習された位置検出用学習済みモデルに基づいて、移動体の移動による力の発生位置を位置検出部で検出するので、例えばセンサ間での特性等にばらつきがあっても、該発生位置の検出精度を良好に維持することができる。これにより、位置検出部の検出結果に基づき、動線検出部で検出する移動体の動線における精度の向上を図ることができる。 According to the present invention, the position detection unit detects the position where force is generated due to the movement of the moving object based on a trained model for position detection that has been trained in advance. Also, the detection accuracy of the occurrence position can be maintained satisfactorily. Thereby, it is possible to improve the accuracy of the movement line of the moving body detected by the movement line detection unit based on the detection result of the position detection unit.
以下、本発明の実施の形態について図面を参照しながら具体的に説明する。なお、本発明は、下記の実施の形態に限定されるものではなく、その要旨を変更しない範囲内で適宜変形して実施することができるものである。以下の図においては、説明の便宜上、一部の構成を省略することがある。 Embodiments of the present invention will be specifically described below with reference to the drawings. Note that the present invention is not limited to the embodiments described below, and can be implemented with appropriate modifications within the scope without changing the gist thereof. In the following figures, some configurations may be omitted for convenience of explanation.
図1は、実施の形態における移動体動線検出システムの構成を示す図である。図1に示すように、移動体動線検出システム1は、複数のセンサユニット10と、検出装置20とを備えている。移動体動線検出システム1は、駅等の建築物の床面や屋外の舗装面等となる通行領域において、移動体となる歩行者や車椅子等(以下、単に「歩行者」とする)を検出対象とする。なお、移動体としては、動物やロボット等も例示できる。
FIG. 1 is a diagram showing the configuration of a moving object flow line detection system in an embodiment. As shown in FIG. 1, the mobile body flow
センサユニット10は、歩行者の通行領域に床面や地面に沿って複数並べて敷設される。複数のセンサユニット10では、歩行者の移動によって通行領域に加わる力を電気信号となる検出値(電圧値)に変換し、自己のID情報と関連付けた検出値として出力する。また、センサユニット10は、学習用の歩行者の移動で通行領域に加わる力も同様に検出値として出力する。センサユニット10の具体的な構成については、後述する。
A plurality of
検出装置20は、パーソナルコンピュータ(PC)等で構成され、CPU等の演算手段と、CPUが実行するプログラムを保存するROMと、CPUの作業領域を構成するRAMとを含んだ構成が例示できる。検出装置20の各機能については後述する。
The
続いて、センサユニット10の具体的な構成について、図2ないし図4を参照して説明する。
Next, the specific configuration of the
図2は、実施の形態に係るセンサユニットを模式的に示す分解斜視図である。図2に示すように、センサユニット10は、複数(本実施の形態では4つ)のセンサとしての圧電素子11と、各圧電素子11が載置される下部保護材12と、下部保護材12を上方からカバーする上部保護材13とを備えている。センサユニット10は、フロア面等の設置面Fに配設され、本実施の形態では、正方形の平面形状に形成される。
FIG. 2 is an exploded perspective view schematically showing the sensor unit according to the embodiment. As shown in FIG. 2, the
下部保護材12及び上部保護材13は、相互に組み合わされた状態で、各圧電素子11をそれぞれ水平方向に向けて収納している。下部保護材12及び上部保護材13は、絶縁性ゴムによって構成されている。
The
センサユニット10は、上部保護材13の上面上に載置される板状の床形成部材14を更に備えている。本実施の形態では、床形成部材14は、センサユニット10を上面視した状態で、正方形状に形成されている。床形成部材14は、石材からなる表板部14aと、この表板部14aの下面に設けられた裏板部14bとを有している。裏板部14bは、鉄等の金属製とされ、表板部14aを補強するように設けられている。
The
図3は、実施の形態に係るセンサユニットの部分縦断面図である。図4は、実施の形態に係るセンサユニットの一部構成の概略分解斜視図である。図3に示すように、圧電素子11は、上下一対となる上電極層11a及び下電極層11bと、上電極層11a及び下電極層11bの間に位置する圧電セラミックス層11cとを積層してなる。圧電セラミックス層11cは、円形で板状の圧電性を示すセラミックスにより形成されている。下電極層11bは、円形の板状電極であり、上面に圧電セラミックス層11cが形成される。上電極層11aは、圧電セラミックス層11cの上面に膜状に形成されている。上電極層11a及び下電極層11bの材料は、電気伝導性の高い金、銀、銅、黄銅、鉄、ステンレスおよびパラジウムのうち、少なくとも1種類から選択され、本実施の形態では、上電極層11aが銀、下電極層11bがステンレスとされる。圧電素子11においては、上電極層11a、圧電セラミックス層11c、下電極層11bの順に径寸法が大きくなっている。
FIG. 3 is a partial longitudinal sectional view of the sensor unit according to the embodiment. FIG. 4 is a schematic exploded perspective view of a partial configuration of the sensor unit according to the embodiment. As shown in FIG. 3, the
上電極層11aの上面及び下電極層11bの下面それぞれには、銅箔テープ(不図示)が貼り付けられて電気的に接続されている。銅箔テープは、基板や配線(何れも不図示)を介して検出装置20(図1参照)に接続され、圧電素子11の検出値(電圧値)を検出装置20に出力可能となっている。
A copper foil tape (not shown) is attached to each of the upper surface of the
下部保護材12の上面には、各圧電素子11の設置位置それぞれに受容部15が形成されている。受容部15は、下部保護材12の上面を圧電素子11と概略同一の平面形状に凹ませることによって形成され、受容した圧電素子11の水平方向の移動を規制する位置規制部として機能している(図5参照)。また、受容部15の内部における外周側には、平面視円環状をなす載置部15aが形成されている。載置部15aは、下部保護材12の上面より若干低い位置であって、受容部15の底部より高い位置で水平方向に形成され、圧電素子11の周辺部を下方から支持している。
A receiving
上部保護材13は、頂部16と、この頂部16の外周から垂下する周壁部17とを備えた蓋状に形成されている。周壁部17は、下部保護材12及び上部保護材13を相互に組み合わせた状態で、下部保護材12を囲う位置に配設され、これにより、下部保護材12及び上部保護材13の前後及び左右方向の相対移動を規制する。頂部16の下面であって、各圧電素子11の設置位置に対応する位置には、下方に突出する突出部18が形成されている。各突出部18は、平面視円形に形成され、その外径寸法は、上電極層11aの外径寸法より小さく設定されている(図5参照)。
The
上部保護材13は、突出部18が圧電素子11の上面上に載置されることで支持される。よって、上部保護材13と、その上に載置される床形成部材14とが、圧電素子11及び下部保護材12により下方から支持される。言い換えると、圧電素子11は、上部保護材13及び床形成部材14を支持する位置に設けられる。
The
センサユニット10においては、床形成部材14上で歩行者が歩行等によって移動すると、該移動によって床形成部材14に力が加わるようになる。かかる力で上部保護材13が押し下げられるように変形し、その際に生じる圧力が突出部18によって圧電素子11に加えられる。すると、載置部15aによって圧電素子11の周辺部が支持されるので、圧電素子11の中央が凹むように変形し、圧電セラミックス層11cが下方に撓んで大きなひずみが得られる。このひずみによって各電極層11a、11bに電圧が発生し、発生した電圧に応じた検出値(電圧値)が検出装置20に出力される。
In the
図5は、実施の形態に係る通行領域の一例を示す平面図である。本実施の形態では、複数のセンサユニット10によって出力される検出値に応じ、通行領域における歩行者の位置と、歩行者の移動経路となる動線と、歩行者の属性とを検出する。例えば、図5に示すように、縦方向及び横方向それぞれ3列で合計9体のセンサユニット10が配置された通行領域Aを歩行者Wが図に示す足跡で移動する場合、各圧電素子11から歩行者Wの移動によって加わる力に応じた検出値が検出装置20に出力される。そして、検出装置20では、かかる検出値に応じて歩行者Wの位置、動線及び属性を検出する。ここで、本実施の形態では、歩行者Wの位置は、センサユニット10上での歩行者Wの重心位置とされる。
FIG. 5 is a plan view showing an example of a traffic area according to the embodiment. In this embodiment, the position of the pedestrian in the traffic area, the line of movement of the pedestrian, and the attribute of the pedestrian are detected according to the detection values output by the plurality of
具体的には、まず、移動体動線検出システム1においては、通行領域Aにおける歩行者Wの移動(歩行)したときの複数のセンサユニット10における圧電素子11によって検出された検出値を学習データとして収集する。
Specifically, first, in the mobile body flow
次に、移動体動線検出システム1は、収集された学習データに基づいて、モデルの一例であるニューラルネットワークモデルをディープラーニングによって学習させ、学習済みニューラルネットワークモデルを得る。学習済みニューラルネットワークモデルとしては、位置検出用学習済みモデル、動線検出用学習済みモデル、属性検出用学習済みモデルを得る。
Next, the mobile body flow
そして、移動体動線検出システム1は、複数のセンサユニット10によって検出された検出値と、各学習済みモデルとに基づいて、通行領域Aにおける歩行者Wの位置、動線及び属性を検出する。
Then, the mobile body flow
移動体動線検出システム1は、学習機能、位置検出機能、動線検出機能、属性検出機能を有する。以下、各機能について説明する。まず、移動体動線検出システム1における学習機能について説明する。
The mobile body flow
[学習機能]
複数のセンサユニット10は、学習用の歩行者Wの移動によって通行領域Aに伝搬する力に応じた学習用の検出値を検出する。
[Learning function]
The plurality of
図5に示す通行領域Aにおいて、複数のセンサユニット10では、学習用の歩行者Wが通行領域Aを歩行する際、歩行者Wの足裏から床形成部材14に力が加わって圧電素子11まで伝搬するときの検出値を学習用の検出値(電圧値)として検出する。例えば、学習用の歩行者Wが図5に示す足跡のように歩行すると、該足跡の位置に応じたセンサユニット10において歩行者Wの足裏から力が加わって複数の圧電素子11まで伝搬し、複数の圧電素子11によって検出値が出力される。
In the passage area A shown in FIG. The detected value when the signal propagates to is detected as the learning detected value (voltage value). For example, when a learning pedestrian W walks along the footprints shown in FIG. , a plurality of
かかる検出値から歩行者Wの位置や、動線、属性を検出するには、センサユニット10の形状や材質、圧電素子11の配置等を考慮し、歩行者Wの足跡の位置(力の発生位置)から圧電素子11までの力の伝搬をモデル化する必要がある。しかし、実際のセンサユニット10は各保護材12、13(図2参照)の材質や構造が様々となり、設置場所の状況(床面等)も種々異なるため、モデル化が困難となる。また、複数の圧電素子11についても検出値の検出特性や劣化状態等のばらつきが存在するため、モデル化は困難となる。
In order to detect the position, flow line, and attributes of the pedestrian W from such detected values, the shape and material of the
そこで、本実施の形態では、センサユニット10における歩行者Wの位置、動線及び属性に応じ、複数の圧電素子11での検出値のパターンが異なることを利用し、ニューラルネットワークモデルをディープラーニングにより学習させる。そして、得られた学習済みニューラルネットワークモデル(位置検出用学習済みモデル、動線検出用学習済みモデル、属性検出用学習済みモデル)を用いて歩行者Wの位置、動線及び属性を検出する。これにより、圧電素子11における検出特性のばらつき等の上述したモデル化困難とした各要因を考慮することなく、床形成部材14に力を加える歩行者Wの位置(重心位置)を検出し、かかる位置等に応じた歩行者Wの動線及び属性を検出することができる。
Therefore, in the present embodiment, a neural network model is developed by deep learning by utilizing the fact that the patterns of detected values in the plurality of
入力部22は、学習のために実際に通行領域Aで歩行者Wが歩行したときの、通行領域Aにおける学習用の歩行者Wの位置、動線及び属性を入力する。入力部22としては、例えば、キーボード、マウス等を例示することができる。入力部22をキーボード等とした場合、人手によって歩行者Wの位置、動線及び属性が入力される。
The
続いて、検出装置20の機能について説明する。図1に示すように、検出装置20は、取得部24、位置検出用学習部25、動線検出用学習部26、属性検出用学習部27、位置検出用学習済みモデル記憶部28、動線検出用学習済みモデル記憶部29、属性検出用学習済みモデル記憶部30、位置検出部32、動線検出部33、属性検出部34、及び出力部35を備えている。
Next, the functions of the
取得部24は、学習のために実際に通行領域Aに歩行者Wが歩行したときの複数のセンサユニット10各々によって検出された学習用の検出値を取得する。また、取得部24には、学習用の検出値に対応する学習用の歩行者Wの位置、動線及び属性が入力部22によって入力される。
The
そして、取得部24は、学習用の歩行者Wの位置、動線及び属性と、学習用の歩行者Wの歩行によって複数のセンサユニット10各々で検出された学習用の検出値とを対応付け、それらを表す学習データとして記憶領域(図示省略)へ格納する。かかる記憶領域には複数の学習データが格納される。
The
位置検出用学習部25は、取得部24によって取得された学習データに基づいて、複数の検出値から歩行者Wの位置を検出するためのニューラルネットワークモデルを予め学習させる。言い換えると、かかるニューラルネットワークモデルは、学習データに含まれるセンサユニット10の圧電素子11から出力された学習用の検出値と、入力部22で入力された学習用の歩行者Wの位置とに基づいて学習される。
The position
動線検出用学習部26は、取得部24によって取得された学習データに基づいて、複数の検出値から歩行者Wの動線を検出するためのニューラルネットワークモデルを予め学習させる。言い換えると、かかるニューラルネットワークモデルは、学習データに含まれるセンサユニット10の圧電素子11から出力された学習用の検出値と、入力部22で入力された学習用の歩行者Wの位置及び動線とに基づいて学習される。
The flow line
属性検出用学習部27は、取得部24によって取得された学習データに基づいて、複数の検出値から歩行者Wの属性を検出するためのニューラルネットワークモデルを予め学習させる。言い換えると、かかるニューラルネットワークモデルは、学習データに含まれるセンサユニット10の圧電素子11から出力された学習用の検出値と、入力部22で入力された学習用の歩行者Wの位置、動線及び属性とに基づいて学習される。本実施の形態では、各学習部25~27では、ディープラーニングによってニューラルネットワークモデルを学習させる。
The attribute
そして、位置検出用学習部25は、ディープラーニングによって得られる学習済みニューラルネットワークモデルを位置検出用学習済みモデルとして、位置検出用学習済みモデル記憶部28へ格納する。動線検出用学習部26は、ディープラーニングによって得られる学習済みニューラルネットワークモデルを動線検出用学習済みモデルとして、動線検出用学習済みモデル記憶部29へ格納する。属性検出用学習部27は、ディープラーニングによって得られる学習済みニューラルネットワークモデルを属性検出用学習済みモデルとして、属性検出用学習済みモデル記憶部30へ格納する。
Then, the position
位置検出用学習済みモデル記憶部28には、位置検出用学習部25によって得られた位置検出用学習済みモデルが格納される。また、動線検出用学習済みモデル記憶部29には、動線検出用学習部26によって得られた動線検出用学習済みモデルが格納され、属性検出用学習済みモデル記憶部30には、属性検出用学習部27によって得られた属性検出用学習済みモデルが格納される。
The trained model storage unit for
[位置検出機能]
次に、移動体動線検出システム1における位置検出機能について説明する。
[Position detection function]
Next, the position detection function in the mobile body flow
複数のセンサユニット10が敷設された通行領域Aに歩行者Wが歩行する場合、取得部24は、複数のセンサユニット10における圧電素子11各々によって検出された検出値の各々を取得する。位置検出部32は、位置検出用学習済みモデル記憶部28に格納された位置検出用学習済みモデルと、取得部24によって取得された検出値の各々とに基づいて、通行領域Aにおける歩行者Wの位置を検出する。
When a pedestrian W walks in a traffic area A where a plurality of
具体的には、位置検出部32は、取得部24によって取得された検出値の各々を位置検出用学習済みモデルへ入力し、該位置検出用学習済みモデルから出力される歩行者Wの位置を取得する。出力部35は、位置検出部32によって検出された歩行者Wの位置を結果として出力する。
Specifically, the
[動線検出機能]
次に、移動体動線検出システム1における動線検出機能について説明する。
[Flow line detection function]
Next, the flow line detection function in the mobile body flow
動線検出部33は、位置検出部32によって検出された歩行者Wの位置と、動線検出用学習済みモデル記憶部29に格納された動線検出用学習済みモデルとに基づいて、通行領域Aにおける歩行者Wの動線を検出する。また、動線検出部33での動線の検出は、通行領域Aにおける歩行者Wの歩行時に取得部24によって取得された検出値の各々にも基づいて実施される。
The flow
言い換えると、動線検出部33は、位置検出部32によって検出された歩行者Wの位置と、取得部24によって取得された検出値の各々とを動線検出用学習済みモデルへ入力する。そして、動線検出部33は、かかる動線検出用学習済みモデルから出力される歩行者Wの動線を取得する。出力部35は、動線検出部33によって検出された歩行者Wの動線を結果として出力する。
In other words, the flow
[属性検出機能]
次に、移動体動線検出システム1における属性検出機能について説明する。
[Attribute detection function]
Next, the attribute detection function in the mobile body flow
属性検出部34は、通行領域Aにおける歩行者Wの歩行時に取得部24によって取得された検出値の各々と、属性検出用学習済みモデル記憶部30に格納された属性検出用学習済みモデルとに基づいて、通行領域Aにおける歩行者Wの属性を検出する。また、属性検出部34での属性の検出は、位置検出部32によって検出された歩行者Wの位置と、動線検出部33によって検出された歩行者Wの動線とにも基づいて実施される。
The
言い換えると、属性検出部34は、取得部24によって取得された検出値の各々と、位置検出部32によって検出された歩行者Wの位置と、動線検出部33によって検出された動線とを属性検出用学習済みモデルへ入力する。そして、属性検出部34は、かかる属性検出用学習済みモデルから出力される歩行者Wの属性を取得する。出力部35は、属性検出部34によって検出された歩行者Wの属性を結果として出力する。ここで、属性としては、歩行者Wの性別、年齢、体重、歩幅、体調(泥酔、ケガ)、障害の有無の他、歩行者Wを含む移動体の種類(例えば、車椅子、ロボット等)を例示することができる。
In other words, the
各検出部32~34での上記検出においては、その精度向上を図るべく、RNN(Recurrent Neural Network)のアルゴリズムを用いることが好ましい。
In the above-described detection by each of the
図6は、歩行者の歩行時における圧電素子の出力波形の一例を示すグラフである。図6のグラフは、横軸が時間とされ、縦軸が圧電素子11の検出値(圧力値)とされる。歩行者Wの歩行によってセンサユニット10に力が発生した状態で、センサユニット10(圧電素子11)から出力される検出値は、図6に示すように、所定期間(数百m秒~数秒、本実施の形態ではt1からt2の間)にて変化する。ここで、取得部24にて取得される検出値は、t1からt2の間の任意のタイミングの検出値としたり、t1からt2の間の平均値としたりしてもよいが、t1からt2の全時間領域の出力波形とすることができる。これによっても、各検出部32~34における検出精度向上を図ることができる。
FIG. 6 is a graph showing an example of an output waveform of a piezoelectric element when a pedestrian walks. In the graph of FIG. 6, the horizontal axis represents time, and the vertical axis represents the detected value (pressure value) of the
<移動体動線検出システム1の作用>
次に、実施の形態の移動体動線検出システム1の作用について説明する。検出装置20では、学習データに基づいてニューラルネットワークモデルを学習させる学習処理ルーチンと、位置検出用学習済みモデルに基づいて、歩行者Wの位置を検出する位置検出処理ルーチンとが実行される。また、検出装置20では、動線検出用学習済みモデルに基づいて、歩行者Wの動線を検出する動線検出処理ルーチンと、属性検出用学習済みモデルに基づいて、歩行者Wの属性を検出する属性検出処理ルーチンとが実行される。
<Operation of mobile body flow
Next, the operation of the mobile body flow
<学習処理ルーチン>
まず、通行領域Aにおいて、学習のために実際に歩行者Wが通行領域Aを歩行してセンサユニット10に力が付与されているときに、複数のセンサユニット10の圧電素子11によって学習用の検出値が検出される。また、入力部22によって学習用の歩行者Wの位置が入力されると、取得部24は、学習用の歩行者Wの位置と学習用の検出値の各々とを取得する。そして、取得部24は、学習用の歩行者Wの位置と学習用の検出値の各々とを対応付け、学習データとして記憶領域(図示省略)へ格納する。
<Learning processing routine>
First, in the traffic area A, when a pedestrian W is actually walking in the traffic area A for learning and a force is applied to the
そして、検出装置20は、学習処理実行の指示信号を受け付けると、図7に示す学習処理ルーチンを実行する。図7は、実施の形態に係る学習処理ルーチンの内容を示すフローチャートである。
Then, upon receiving the instruction signal to execute the learning process, the
ステップS01において、各学習部25~27は、記憶領域(図示省略)へ格納された複数の学習データを取得する。
In step S01, each of the
ステップS02において、各学習部25~27は、上記ステップS01で取得された複数の学習データに基づいて、機械学習によってニューラルネットワークモデルを学習させる。
In step S02, each of the
ステップS03において、各学習部25~27は、上記ステップS02で得られる学習済みニューラルネットワークモデルを、各学習済みモデル記憶部28~30へ格納して、学習処理ルーチンを終了する。
In step S03, each of the
<位置検出処理ルーチン>
学習処理ルーチンを終了した後であって、検出装置20が位置検出処理実行の指示信号を受け付けると、図8に示す位置検出処理ルーチンを実行し、通行領域Aに存在する歩行者Wの位置を検出する。図8は、実施の形態に係る位置検出処理ルーチンの内容を示すフローチャートである。
<Position detection processing routine>
When the
ステップS11において、取得部24は、通行領域Aにて歩行者Wが歩行する場合に、歩行者Wからセンサユニット10に加わる力に応じた圧電素子11の検出値を取得する。
In step S11, when the pedestrian W walks in the traffic area A, the
ステップS12において、位置検出部32は、学習処理ルーチンで位置検出用学習済みモデル記憶部28に格納された位置検出用学習済みモデルと、上記ステップS11で取得された検出値とに基づいて、通行領域Aにて歩行者Wの位置を検出する。
In step S12, the
ステップS13において、上記ステップS12で検出された歩行者Wの位置を結果として出力して、位置検出処理ルーチンを終了する。 In step S13, the position of the pedestrian W detected in step S12 is output as a result, and the position detection processing routine is ended.
<動線検出処理ルーチン>
学習処理ルーチンを終了した後であって、検出装置20が動線検出処理実行の指示信号を受け付けると、図9に示す動線検出処理ルーチンを実行し、通行領域Aに存在する歩行者Wの動線を検出する。図9は、実施の形態に係る動線検出処理ルーチンの内容を示すフローチャートである。
<Flow line detection processing routine>
After the learning process routine is finished, when the
ステップS21において、取得部24は、通行領域Aにて歩行者Wが歩行する場合に、歩行者Wからセンサユニット10に加わる力に応じた圧電素子11の検出値を取得する。
In step S21, the
ステップS22において、動線検出部33には、位置検出部32によって検出された歩行者Wの位置が出力される。
In step S22, the position of the pedestrian W detected by the
ステップS23において、動線検出部33は、学習処理ルーチンで動線検出用学習済みモデル記憶部29に格納された動線検出用学習済みモデルを用いて、通行領域Aにおける歩行者Wの動線を検出する。かかる検出は、動線検出用学習済みモデルに加え、上記ステップS21で取得された検出値と、上記ステップS22で出力された歩行者Wの位置とに基づいて実施される。
In step S23, the flow
ステップS24において、上記ステップS23で検出された歩行者Wの動線を結果として出力して、動線検出処理ルーチンを終了する。 In step S24, the flow line of the pedestrian W detected in step S23 is output as a result, and the flow line detection processing routine is ended.
<属性検出処理ルーチン>
学習処理ルーチンを終了した後であって、検出装置20が属性検出処理実行の指示信号を受け付けると、図10に示す属性検出処理ルーチンを実行し、通行領域Aに存在する歩行者Wの属性を検出する。図10は、実施の形態に係る属性検出処理ルーチンの内容を示すフローチャートである。
<Attribute detection processing routine>
When the
ステップS31において、取得部24は、通行領域Aにて歩行者Wが歩行する場合に、歩行者Wからセンサユニット10に加わる力に応じた圧電素子11の検出値を取得する。
In step S31, when the pedestrian W walks in the traffic area A, the
ステップS32において、属性検出部34には、位置検出部32によって検出された歩行者Wの位置が出力される。
In step S32, the position of the pedestrian W detected by the
ステップS33において、属性検出部34には、動線検出部33によって検出された歩行者Wの動線が出力される。
In step S33, the flow line of the pedestrian W detected by the flow
ステップS34において、属性検出部34は、学習処理ルーチンで属性検出用学習済みモデル記憶部30に格納された属性検出用学習済みモデルを用いて、通行領域Aにおける歩行者Wの属性を検出する。かかる検出は、属性検出用学習済みモデルに加え、上記ステップS31で取得された検出値と、上記ステップS32で出力された歩行者Wの位置と、上記ステップS33で出力された歩行者Wの動線とに基づいて実施される。
In step S34, the
ステップS35において、上記ステップS34で検出された歩行者Wの属性を結果として出力して、属性検出処理ルーチンを終了する。 In step S35, the attribute of the pedestrian W detected in step S34 is output as a result, and the attribute detection processing routine is ended.
以上のように、本実施の形態では、上述のように得られる位置検出用学習済みモデルと、複数のセンサユニット10(圧電素子11)における検出値とによって、位置検出部32で歩行者Wの位置を検出することができる。これにより、複数のセンサユニット10に設けられた圧電素子11各々において特性にばらつき等があっても、該ばらつきを学習に組み込み、複数の圧電素子11間の特性差を無視することができる。従って、圧電素子11の特性のばらつき等の影響を抑制でき、歩行者Wの位置を検出する正確性を高めることができる。なお、圧電素子11の特性のばらつきと同様、圧電素子11の劣化状態の違いや、各保護材12、13(図2参照)の材質や構造の違い、設置場所となる床面等の状況の違いの影響も抑制することができる。
As described above, in this embodiment, the
そして、本実施の形態では、かかる歩行者Wの位置検出の結果と、上述のように得られる動線検出用学習済みモデルと、複数のセンサユニット10における検出値とに基づき、動線検出部33で歩行者Wの動線を検出することができる。従って、本実施の形態では、歩行者Wの位置検出の精度だけでなく、歩行者Wの動線検出の精度も向上させることができる。
In the present embodiment, the flow line detection unit uses the result of the position detection of the pedestrian W, the learned model for flow line detection obtained as described above, and the detection values of the plurality of
更には、本実施の形態では、歩行者Wの位置及び動線の検出結果と、上述した属性検出用学習済みモデルと、複数のセンサユニット10における検出値とに基づき、属性検出部34で歩行者Wの属性を検出することができる。よって、歩行者Wの性別や歩幅等の属性についても、検出精度を向上させることができる。
Furthermore, in the present embodiment, the
また、本実施の形態においては、複数のセンサユニット10を並べて敷設するだけで、通行領域Aを位置センサ化するだけでなく、歩行者Wの動線及び属性を検出可能なセンサとすることができる。更に、センサユニット10において数個の圧電素子11を用いるのみで、上述した各種の検出が可能となり、通行領域Aに足跡のサイズより小さい間隔で多数の圧電素子を設置する構造に比べ、システム全体を低コストかつ容易に構成することができる。
Furthermore, in this embodiment, by simply installing a plurality of
また、カメラ撮影及び画像処理にて歩行者の動線や属性を特定する従来方法と、本実施の形態とを比べた場合、以下に述べるメリットがある。本実施の形態は、カメラ等で陰になって撮影できない部分でも検出できる他、検出結果が要求される場所のみに特化した検出を行えるようになる。更に、本実施の形態は、圧電素子11からの出力となるので、画像処理に比べてデータサイズを小さくでき、また、上記従来方法と併用して動線等の検出を行うことができる。
Furthermore, when this embodiment is compared with the conventional method of specifying pedestrian flow lines and attributes using camera photography and image processing, there are advantages described below. In this embodiment, it is possible to detect areas that are in the shadow and cannot be photographed with a camera or the like, and it is also possible to perform specialized detection only in areas where detection results are required. Furthermore, in this embodiment, since the output is from the
なお、本発明は上記実施の形態に限定されず、種々変更して実施することが可能である。上記実施の形態において、添付図面に図示されている大きさや形状、方向等については、これに限定されず、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。 Note that the present invention is not limited to the above embodiments, and can be implemented with various modifications. In the embodiments described above, the size, shape, direction, etc. illustrated in the accompanying drawings are not limited to these, and can be changed as appropriate within the scope of achieving the effects of the present invention. Other changes can be made as appropriate without departing from the scope of the invention.
例えば、通行領域Aにおける複数のセンサユニット10の配置や、センサユニット10での圧電素子11の配置は、下記の第1~第9変形例にて例示するように、種々の変更が可能である。
For example, the arrangement of the plurality of
図11は、第1変形例に係る通行領域の平面図である。図12は、第2変形例に係る通行領域の平面図である。図13は、第3変形例に係る通行領域の平面図である。図11~図13に示す第1~第3変形例においては、通行領域Aの幅が正方形状のセンサユニット10の一辺の長さ(L)と同一となり、通行領域Aが図中横方向に延びている。各図では、3体のセンサユニット10を示すが、更に横方向に複数のセンサユニット10を並べて設けてもよい。
FIG. 11 is a plan view of the traffic area according to the first modification. FIG. 12 is a plan view of the traffic area according to the second modification. FIG. 13 is a plan view of the traffic area according to the third modification. In the first to third modifications shown in FIGS. 11 to 13, the width of the traffic area A is the same as the length (L) of one side of the
図11の第1変形例では、センサユニット10を上面視した状態で、圧電素子11の設置箇所が床形成部材14と相似形となって同一中心位置の仮想正方形(図中二点鎖線で図示)の各頂点とされる。床形成部材14の一辺の長さをLとした場合、仮想正方形の一辺の長さは、その約半分の2/Lとされる。また、横方向(センサユニット10の並び方向)において、センサユニット10を跨いで横方向に隣り合う圧電素子11間の距離も2/Lとされる。従って、通行領域A全体として見た場合に、一辺の長さが2/Lとなる仮想正方形を最小単位として横方向に並ぶメッシュの各交点に圧電素子11を配置することができる。
In the first modification of FIG. 11, when the
図12の第2変形例では、センサユニット10を上面視した状態で、圧電素子11の設置箇所が仮想正三角形(図中二点鎖線で図示)の各頂点とされる。床形成部材14の一辺の長さをLとした場合、仮想正三角形の高さ寸法は、その半分の2/Lとされる。仮想正三角形は、図中縦方向に延びる辺が床形成部材14の図中左側の辺から横方向に4/L離れ、図中右側に位置する頂点が図中右側の辺から横方向に4/L離れる。このような配置とすることで、高さが2/Lとなる仮想正三角形を最小単位として横方向に並ぶメッシュの各交点又は各頂点に圧電素子11を配置することができる。
In the second modification of FIG. 12, when the
図13の第3変形例では、3体のセンサユニット10のうちの中央のセンサユニット10を上面視した状態で、圧電素子11の設置箇所が仮想正六角形(二点鎖線で図示)の各頂点と、その中心とされる。仮想正六角形の中心は、床形成部材14の中心と同一位置とされ、仮想正六角形の大きさは図示したとおりとされる。他の2体のセンサユニット10では、上記仮想正六角形を横方向に隣接しつつ並べ、該仮想正六角形各々の各頂点及び中心に圧電素子11が設置される。このような配置とすることで、第2変形例より小さい仮想正三角形を最小単位として二次元方向に並ぶメッシュの各交点又は各頂点に圧電素子11を配置することができる。
In the third modification of FIG. 13, when the
図14は、第4変形例に係る通行領域の平面図である。図15は、第5変形例に係る通行領域の平面図である。図16は、第6変形例に係る通行領域の平面図である。図14~図16に示す第4~第6変形例においては、通行領域Aにおいて、直交二方向となる図中縦方向及び横方向にセンサユニット10が並んで敷設される。各図では、9体のセンサユニット10を示すが、更に縦方向及び横方向に複数のセンサユニット10を並べて設けてもよい。
FIG. 14 is a plan view of the passage area according to the fourth modification. FIG. 15 is a plan view of the passage area according to the fifth modification. FIG. 16 is a plan view of the passage area according to the sixth modification. In the fourth to sixth modifications shown in FIGS. 14 to 16,
図14の第4変形例では、第1変形例と同様の仮想正方形(二点鎖線で図示)の各頂点に圧電素子11を配置している。図15の第5変形例では、第3変形例の中央のセンサユニット10と同様の仮想正六角形(二点鎖線で図示)の各頂点及び中心に圧電素子11を配置している。図16の第6変形例では、センサユニット10を上面視した状態で、圧電素子11の設置箇所が仮想正八角形(二点鎖線で図示)の各頂点と、その中心とされる。仮想正八角形の中心は、床形成部材14の中心と同一位置とされる。なお、圧電素子11を設置箇所は、センサユニット10を上面視した状態で、床形成部材14と同一中心位置に形成される他の仮想正n角形或いはn角形(nは3以上の自然数)の各頂点及び中心としてもよい。
In the fourth modification example of FIG. 14,
図17は、第7変形例に係る通行領域の平面図である。図17の第7変形例では、センサユニット10を上面視した状態で、センサユニット10及び床形成部材14を正方形状に形成し、該正方形の頂点に圧電素子11が設置される。よって、一体の圧電素子11が4体のセンサユニット10の頂点に跨って配置され、かかる4体のセンサユニット10に加わる力を検出できるようになる。
FIG. 17 is a plan view of the passage area according to the seventh modification. In the seventh modification shown in FIG. 17, when the
図18は、第8変形例に係る通行領域の平面図である。図18の第8変形例では、センサユニット10を上面視した状態で、センサユニット10及び床形成部材14を正三角形状に形成し、相互に隣接するように並べて敷設している。そして、センサユニット10及び床形成部材14を形成する正三角形の頂点に圧電素子11が設置される。よって、一体の圧電素子11が6体のセンサユニット10の頂点に跨って配置され、かかる6体のセンサユニット10に加わる力を検出できるようになる。
FIG. 18 is a plan view of the passage area according to the eighth modification. In the eighth modification of FIG. 18, when the
図19は、第9変形例に係る通行領域の平面図である。図19の第9変形例では、センサユニット10を上面視した状態で、センサユニット10及び床形成部材14を正六角形状に形成し、相互に隣接するように並べて敷設している。そして、センサユニット10及び床形成部材14を形成する正六角形の頂点に圧電素子11が設置される。よって、一体の圧電素子11が3体のセンサユニット10の頂点に跨って配置され、かかる6体のセンサユニット10に加わる力を検出できるようになる。第7~第9変形例では、第1~第6変形例に比べて圧電素子11の設置数を少なくすることができる。
FIG. 19 is a plan view of a traffic area according to the ninth modification. In the ninth modification shown in FIG. 19, when the
上記第1~第9変形例によれば、複数のセンサユニット10において圧電素子11の設置箇所に規則性をもたせてバランス良く配置することができ、各種検出の精度をより良く発揮することができる。
According to the first to ninth modifications described above, the
また、上記実施の形態では、センサを圧電素子11とした場合を説明したが、感圧センサであれば特に限定されるものでなく、ピエゾ抵抗型、圧電型、静電容量型のセンサ、圧電素子以外の他の振動発電素子としてもよい。
Further, in the above embodiment, the case where the
更に、動線検出部33での歩行者Wの動線の検出は、上記処理に限定されるものでなく、種々の変更が可能である。例えば、上記実施の形態における動線検出用学習済みモデルを用いることなく、センサユニット10の検出値と、位置検出部32の検出結果とに加え、それら検出時の時間情報に基づき歩行者Wの動線を検出するようにしてもよい。
Furthermore, the detection of the flow line of the pedestrian W by the flow
また、属性検出部34での歩行者Wの属性の検出においても、上記処理に限定されるものでなく、種々の変更が可能である。例えば、歩行者Wの属性の検出において、属性検出用学習済みモデルへ入力する情報は、センサユニット10の検出値、位置検出部32の検出結果及び動線検出部33の検出結果の少なくとも1つを選択できる。この場合、属性検出用学習済みモデルの学習のために取得する学習用の情報も、同様にして選択可能となる。
Further, the detection of the attribute of the pedestrian W by the
本発明は、駅等の建築物の床面や屋外の舗装面等となる通行領域において、歩行者等の移動体の動線を検出する精度を向上できる点で有用である。 INDUSTRIAL APPLICABILITY The present invention is useful in that it can improve the accuracy of detecting the flow line of moving objects such as pedestrians in traffic areas such as the floors of buildings such as stations and outdoor paved surfaces.
1 移動体動線検出システム
10 センサユニット
11 圧電素子(センサ)
14 床形成部材
15 受容部(位置規制部)
32 位置検出部
33 動線検出部
34 属性検出部
A 通行領域
W 歩行者(移動体)
1 Moving object flow
14
32
Claims (7)
前記センサユニットの各々は、床形成部材と、該床形成部材を支持し、且つ、前記移動体の移動によって前記床形成部材に加わる力に応じた検出値を出力するセンサとを備え、
前記複数のセンサユニットにおける学習用の前記移動体の位置及び該移動体の移動による前記力が伝搬するときに前記センサから出力された学習用の検出値を表す学習データから予め学習された位置検出用学習済みモデルと、前記センサから出力された検出値とに基づいて、前記複数のセンサユニットにおける前記移動体の位置を検出する位置検出部と、
前記位置検出部にて検出された前記移動体の位置に基づいて、前記複数のセンサユニットにおける移動体の動線を検出する動線検出部とを備え、
前記動線検出部は、
前記複数のセンサユニットにおける学習用の前記移動体の位置及び該移動体が移動したときの動線と、該移動体の移動による前記力が伝搬するときに前記センサから出力された学習用の検出値とを表す学習データから予め学習された動線検出用学習済みモデルと、
前記センサから出力された検出値とにも基づいて、前記移動体の動線を検出することを特徴とする移動体動線検出システム。 A moving object flow line detection system that includes a plurality of sensor units installed in parallel in a moving area, and detects the moving line of the moving object in the moving area,
Each of the sensor units includes a floor forming member, and a sensor that supports the floor forming member and outputs a detected value according to a force applied to the floor forming member due to movement of the movable body,
Position detection learned in advance from learning data representing the position of the moving body for learning in the plurality of sensor units and the detection value for learning output from the sensor when the force due to the movement of the moving body is propagated. a position detection unit that detects the position of the mobile object in the plurality of sensor units based on the trained model and the detection value output from the sensor;
a flow line detection unit that detects a flow line of the mobile body in the plurality of sensor units based on the position of the mobile body detected by the position detection unit ,
The flow line detection unit is
the position of the moving object for learning in the plurality of sensor units, the line of movement when the moving object moves, and the learning detection output from the sensor when the force due to the movement of the moving object is propagated; a trained model for flow line detection that has been learned in advance from learning data representing the value;
A moving body flow line detection system , characterized in that the moving body flow line is detected based also on a detection value output from the sensor .
前記属性検出部は、
前記複数のセンサユニットにおける学習用の前記移動体の位置、該移動体が移動したときの動線及び該移動体の属性と、該移動体の移動による前記力が伝搬するときに前記センサから出力された学習用の検出値とを表す学習データから予め学習された属性検出用学習済みモデルと、
前記センサから出力された検出値と、
前記位置検出部にて検出された前記移動体の位置と、
前記動線検出部にて検出された前記移動体の動線とに基づいて、前記移動体の属性を検出することを特徴とする請求項1に記載の移動体動線検出システム。 further comprising an attribute detection unit that detects an attribute of the moving object,
The attribute detection unit is
The position of the moving object for learning in the plurality of sensor units, the flow line when the moving object moves, the attribute of the moving object, and the output from the sensor when the force due to the movement of the moving object is propagated. a trained model for attribute detection learned in advance from learning data representing the detected value for learning;
a detection value output from the sensor;
the position of the moving body detected by the position detection unit;
The moving body flow line detection system according to claim 1 , wherein attributes of the moving body are detected based on the flow line of the moving body detected by the flow line detection unit.
前記センサユニットの各々は、床形成部材と、該床形成部材を支持し、且つ、前記移動体の移動によって前記床形成部材に加わる力に応じた検出値を出力するセンサとを備え、
前記複数のセンサユニットにおける学習用の前記移動体の位置及び該移動体の移動による前記力が伝搬するときに前記センサから出力された学習用の検出値を表す学習データから予め学習された位置検出用学習済みモデルと、前記センサから出力された検出値とに基づいて、前記複数のセンサユニットにおける前記移動体の位置を検出する位置検出部と、
前記位置検出部にて検出された前記移動体の位置に基づいて、前記複数のセンサユニットにおける移動体の動線を検出する動線検出部とを備え、
前記センサの検出値を前記力が発生した状態における全時間領域の出力波形としたことを特徴とする移動体動線検出システム。 A moving object flow line detection system that includes a plurality of sensor units installed in parallel in a moving area, and detects the moving line of the moving object in the moving area,
Each of the sensor units includes a floor forming member, and a sensor that supports the floor forming member and outputs a detected value according to a force applied to the floor forming member due to movement of the movable body,
Position detection learned in advance from learning data representing the position of the moving body for learning in the plurality of sensor units and the detection value for learning output from the sensor when the force due to the movement of the moving body is propagated. a position detection unit that detects the position of the mobile object in the plurality of sensor units based on the trained model and the detection value output from the sensor;
a flow line detection unit that detects a flow line of the mobile body in the plurality of sensor units based on the position of the mobile body detected by the position detection unit ,
A moving body flow line detection system characterized in that the detected value of the sensor is an output waveform of the entire time domain in a state in which the force is generated .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019154736A JP7371856B2 (en) | 2019-08-27 | 2019-08-27 | Mobile body flow line detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019154736A JP7371856B2 (en) | 2019-08-27 | 2019-08-27 | Mobile body flow line detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021033763A JP2021033763A (en) | 2021-03-01 |
JP7371856B2 true JP7371856B2 (en) | 2023-10-31 |
Family
ID=74678298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019154736A Active JP7371856B2 (en) | 2019-08-27 | 2019-08-27 | Mobile body flow line detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7371856B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006164020A (en) | 2004-12-09 | 2006-06-22 | Jr Higashi Nippon Consultants Kk | Pedestrian movement route tracing method and system |
JP2019502212A (en) | 2016-01-14 | 2019-01-24 | 株式会社Preferred Networks | System, method and apparatus for time series data fitting and sensor fusion |
-
2019
- 2019-08-27 JP JP2019154736A patent/JP7371856B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006164020A (en) | 2004-12-09 | 2006-06-22 | Jr Higashi Nippon Consultants Kk | Pedestrian movement route tracing method and system |
JP2019502212A (en) | 2016-01-14 | 2019-01-24 | 株式会社Preferred Networks | System, method and apparatus for time series data fitting and sensor fusion |
Also Published As
Publication number | Publication date |
---|---|
JP2021033763A (en) | 2021-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yakoubi et al. | The path planning of cleaner robot for coverage region using genetic algorithms | |
JP4975503B2 (en) | Legged mobile robot | |
Hughes et al. | Texture recognition and localization in amorphous robotic skin | |
KR101121763B1 (en) | Apparatus and method for recognizing environment | |
US20170072565A1 (en) | Control of Swarming Robots | |
KR101917101B1 (en) | Vibrating apparatus, system and method for generating tactile stimulation | |
US20120069190A1 (en) | Automatic vision sensor placement apparatus and method | |
Lampe et al. | Performance measure for the evaluation of mobile robot autonomy | |
Chu et al. | SAFEgress: a flexible platform to study the effect of human and social behaviors on egress performance | |
Coelho et al. | Trends in the control of hexapod robots: a survey | |
Hughes et al. | A soft, amorphous skin that can sense and localize textures | |
JP7371856B2 (en) | Mobile body flow line detection system | |
CN108444617A (en) | A kind of digital bionical hair sensing arrangement | |
Guo et al. | Soft foot sensor design and terrain classification for dynamic legged locomotion | |
Shell et al. | Insights toward robot-assisted evacuation | |
Fu et al. | Snakes combine vertical and lateral bending to traverse uneven terrain | |
JP5930892B2 (en) | Contact state estimation device and trajectory generation device | |
KR101502235B1 (en) | Method for deriving ground reaction force predicting model and ground reaction force predicting apparatus using the same | |
Maruyama et al. | Tripping risk evaluation system based on human behavior simulation in laser-scanned 3D as-is environments | |
CN115175126B (en) | Intelligent park rapid fire-fighting emergency treatment method and system based on Internet of things | |
JP2007241960A (en) | Mobile object counter | |
Sirakoulis | Cellular automata for crowd dynamics | |
JP2019197037A (en) | Optical type tactile sensor | |
Yao et al. | Sensor coverage strategy in underwater wireless sensor networks | |
Le et al. | Viart: Vision-based soft tactile sensing for autonomous robotic vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220617 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7371856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |