JP7371856B2 - Mobile body flow line detection system - Google Patents

Mobile body flow line detection system Download PDF

Info

Publication number
JP7371856B2
JP7371856B2 JP2019154736A JP2019154736A JP7371856B2 JP 7371856 B2 JP7371856 B2 JP 7371856B2 JP 2019154736 A JP2019154736 A JP 2019154736A JP 2019154736 A JP2019154736 A JP 2019154736A JP 7371856 B2 JP7371856 B2 JP 7371856B2
Authority
JP
Japan
Prior art keywords
flow line
detection
sensor
learning
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019154736A
Other languages
Japanese (ja)
Other versions
JP2021033763A (en
Inventor
宇史 中嶋
洋一郎 橋爪
総一郎 岡村
朔矢 岸
孝幸 岸本
三昭 小林
一行 栗原
一司 川端
寛子 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Science
Original Assignee
Tokyo University of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Science filed Critical Tokyo University of Science
Priority to JP2019154736A priority Critical patent/JP7371856B2/en
Publication of JP2021033763A publication Critical patent/JP2021033763A/en
Application granted granted Critical
Publication of JP7371856B2 publication Critical patent/JP7371856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Force Measurement Appropriate To Specific Purposes (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、所定の通行領域における移動体の動線を検出する移動体動線検出システムに関する。 The present invention relates to a moving body flow line detection system that detects the flow line of a moving body in a predetermined traffic area.

特許文献1には、歩行者等の移動体の移動経路を把握する移動経路追跡システムが開示されている。特許文献1のシステムは、通路の床に所定の密度で埋設された複数の圧力センサを備えている。圧力センサでは、通路を歩行する歩行者の通路に対する圧力を検出して出力しており、かかる出力に基づいて歩行者の移動経路を移動経路演算手段によって演算している。 Patent Document 1 discloses a travel route tracking system that tracks the travel route of a moving object such as a pedestrian. The system of Patent Document 1 includes a plurality of pressure sensors embedded in the floor of a passageway at a predetermined density. The pressure sensor detects and outputs the pressure of the pedestrian walking along the passageway, and based on this output, the movement route of the pedestrian is calculated by the movement route calculating means.

特開2006-164020号公報Japanese Patent Application Publication No. 2006-164020

しかしながら、特許文献1では、例えば、複数のセンサ間での特性等にばらつきが生じた場合、歩行者(移動体)が移動した際の各センサにおける出力値の信頼性が低下し、ひいては、移動経路の演算における精度も低下する、という問題がある。 However, in Patent Document 1, for example, if there are variations in the characteristics etc. between multiple sensors, the reliability of the output value of each sensor when a pedestrian (moving object) moves decreases, and even when the pedestrian (moving object) moves, There is also a problem in that the accuracy in route calculation also decreases.

本発明はこのような点に鑑みてなされたものであり、移動体の動線を検出する精度を向上することができる移動体動線検出システムを提供することを目的とする。 The present invention has been made in view of these points, and an object of the present invention is to provide a moving body flow line detection system that can improve the accuracy of detecting the flow line of a moving body.

本発明における一態様の移動体動線検出システムは、移動体の通行領域に並べて敷設された複数のセンサユニットを備えて該通行領域における移動体の動線を検出する移動体動線検出システムであって、前記センサユニットの各々は、床形成部材と、該床形成部材を支持し、且つ、移動体の移動によって前記床形成部材に加わる力に応じた検出値を出力するセンサとを備え、前記複数のセンサユニットにおける学習用の前記力の発生位置及び前記力が伝搬するときに前記センサから出力された学習用の検出値を表す学習データから予め学習された位置検出用学習済みモデルと、前記センサから出力された検出値とに基づいて、前記複数のセンサユニットにおける前記力の発生位置を検出する位置検出部と、前記位置検出部にて検出された前記力の発生位置に基づいて、前記複数のセンサユニットにおける移動体の動線を検出する動線検出部とを備え、前記動線検出部は、前記複数のセンサユニットにおける学習用の前記移動体の位置及び該移動体が移動したときの動線と、該移動体の移動による前記力が伝搬するときに前記センサから出力された学習用の検出値とを表す学習データから予め学習された動線検出用学習済みモデルと、前記センサから出力された検出値とにも基づいて、前記移動体の動線を検出することを特徴とする。
また、本発明における一態様の移動体動線検出システムは、移動体の通行領域に並べて敷設された複数のセンサユニットを備えて該通行領域における移動体の動線を検出する移動体動線検出システムであって、前記センサユニットの各々は、床形成部材と、該床形成部材を支持し、且つ、移動体の移動によって前記床形成部材に加わる力に応じた検出値を出力するセンサとを備え、前記複数のセンサユニットにおける学習用の前記力の発生位置及び前記力が伝搬するときに前記センサから出力された学習用の検出値を表す学習データから予め学習された位置検出用学習済みモデルと、前記センサから出力された検出値とに基づいて、前記複数のセンサユニットにおける前記力の発生位置を検出する位置検出部と、前記位置検出部にて検出された前記力の発生位置に基づいて、前記複数のセンサユニットにおける移動体の動線を検出する動線検出部とを備え、前記センサの検出値を前記力が発生した状態における全時間領域の出力波形としたことを特徴とする。
A mobile body flow line detection system according to one aspect of the present invention is a mobile body flow line detection system that includes a plurality of sensor units installed side by side in a moving area and detects a moving body flow line in the traffic area. Each of the sensor units includes a floor forming member, and a sensor that supports the floor forming member and outputs a detected value according to a force applied to the floor forming member due to movement of a moving body, a trained model for position detection learned in advance from learning data representing the generation position of the force for learning in the plurality of sensor units and a detection value for learning output from the sensor when the force propagates; a position detection section that detects a position where the force is generated in the plurality of sensor units based on the detection value output from the sensor; a flow line detection section that detects a flow line of the moving object in the plurality of sensor units, the movement line detection section detecting the position of the moving object for learning in the plurality of sensor units and the movement line of the moving object in the plurality of sensor units. a trained model for flow line detection that has been learned in advance from learning data representing a flow line and a learning detection value output from the sensor when the force due to the movement of the moving object is propagated; The present invention is characterized in that the flow line of the moving body is detected based also on a detection value output from a sensor .
In addition, a moving body flow line detection system according to one aspect of the present invention includes a plurality of sensor units installed in parallel in a moving area, and detects a moving line of the moving body in the traffic area. In the system, each of the sensor units includes a floor forming member and a sensor that supports the floor forming member and outputs a detected value according to a force applied to the floor forming member due to movement of a moving body. a trained model for position detection learned in advance from learning data representing the generation position of the force for learning in the plurality of sensor units and a detection value for learning output from the sensor when the force propagates; and a position detection unit that detects a position where the force is generated in the plurality of sensor units based on a detection value outputted from the sensor; and a flow line detection unit that detects the flow line of the moving object in the plurality of sensor units, and the detection value of the sensor is an output waveform of the entire time domain in the state in which the force is generated. .

本発明によれば、予め学習された位置検出用学習済みモデルに基づいて、移動体の移動による力の発生位置を位置検出部で検出するので、例えばセンサ間での特性等にばらつきがあっても、該発生位置の検出精度を良好に維持することができる。これにより、位置検出部の検出結果に基づき、動線検出部で検出する移動体の動線における精度の向上を図ることができる。 According to the present invention, the position detection unit detects the position where force is generated due to the movement of the moving object based on a trained model for position detection that has been trained in advance. Also, the detection accuracy of the occurrence position can be maintained satisfactorily. Thereby, it is possible to improve the accuracy of the movement line of the moving body detected by the movement line detection unit based on the detection result of the position detection unit.

実施の形態における移動体動線検出システムの構成を示す図である。FIG. 1 is a diagram showing the configuration of a moving body flow line detection system in an embodiment. 実施の形態に係るセンサユニットを模式的に示す分解斜視図である。FIG. 1 is an exploded perspective view schematically showing a sensor unit according to an embodiment. 実施の形態に係るセンサユニットの部分縦断面図である。FIG. 2 is a partial vertical cross-sectional view of a sensor unit according to an embodiment. 実施の形態に係るセンサユニットの一部構成の概略分解斜視図である。FIG. 1 is a schematic exploded perspective view of a partial configuration of a sensor unit according to an embodiment. 実施の形態に係る通行領域の一例を示す平面図である。FIG. 3 is a plan view showing an example of a traffic area according to the embodiment. 歩行者の歩行時における圧電素子の出力波形の一例を示すグラフである。It is a graph which shows an example of the output waveform of a piezoelectric element when a pedestrian walks. 実施の形態に係る学習処理ルーチンの内容を示すフローチャートである。3 is a flowchart showing the contents of a learning processing routine according to an embodiment. 実施の形態に係る位置検出処理ルーチンの内容を示すフローチャートである。3 is a flowchart showing the contents of a position detection processing routine according to the embodiment. 実施の形態に係る動線検出処理ルーチンの内容を示すフローチャートである。It is a flow chart which shows the contents of a flow line detection processing routine concerning an embodiment. 実施の形態に係る属性検出処理ルーチンの内容を示すフローチャートである。3 is a flowchart showing the contents of an attribute detection processing routine according to the embodiment. 第1変形例に係る通行領域の平面図である。It is a top view of the traffic area concerning the 1st modification. 第2変形例に係る通行領域の平面図である。It is a top view of the traffic area concerning a 2nd modification. 第3変形例に係る通行領域の平面図である。It is a top view of the traffic area concerning a 3rd modification. 第4変形例に係る通行領域の平面図である。It is a top view of the traffic area concerning the 4th modification. 第5変形例に係る通行領域の平面図である。It is a top view of the traffic area concerning the 5th modification. 第6変形例に係る通行領域の平面図である。It is a top view of the traffic area concerning a 6th modification. 第7変形例に係る通行領域の平面図である。It is a top view of the traffic area concerning the 7th modification. 第8変形例に係る通行領域の平面図である。It is a top view of the traffic area concerning the 8th modification. 第9変形例に係る通行領域の平面図である。It is a top view of the traffic area concerning a 9th modification.

以下、本発明の実施の形態について図面を参照しながら具体的に説明する。なお、本発明は、下記の実施の形態に限定されるものではなく、その要旨を変更しない範囲内で適宜変形して実施することができるものである。以下の図においては、説明の便宜上、一部の構成を省略することがある。 Embodiments of the present invention will be specifically described below with reference to the drawings. Note that the present invention is not limited to the embodiments described below, and can be implemented with appropriate modifications within the scope without changing the gist thereof. In the following figures, some configurations may be omitted for convenience of explanation.

図1は、実施の形態における移動体動線検出システムの構成を示す図である。図1に示すように、移動体動線検出システム1は、複数のセンサユニット10と、検出装置20とを備えている。移動体動線検出システム1は、駅等の建築物の床面や屋外の舗装面等となる通行領域において、移動体となる歩行者や車椅子等(以下、単に「歩行者」とする)を検出対象とする。なお、移動体としては、動物やロボット等も例示できる。 FIG. 1 is a diagram showing the configuration of a moving object flow line detection system in an embodiment. As shown in FIG. 1, the mobile body flow line detection system 1 includes a plurality of sensor units 10 and a detection device 20. The moving object flow line detection system 1 detects moving objects such as pedestrians and wheelchairs (hereinafter simply referred to as "pedestrians") in traffic areas such as the floors of buildings such as stations and outdoor paved surfaces. Target for detection. In addition, examples of moving objects include animals, robots, and the like.

センサユニット10は、歩行者の通行領域に床面や地面に沿って複数並べて敷設される。複数のセンサユニット10では、歩行者の移動によって通行領域に加わる力を電気信号となる検出値(電圧値)に変換し、自己のID情報と関連付けた検出値として出力する。また、センサユニット10は、学習用の歩行者の移動で通行領域に加わる力も同様に検出値として出力する。センサユニット10の具体的な構成については、後述する。 A plurality of sensor units 10 are arranged in a row along the floor or the ground in a pedestrian traffic area. The plurality of sensor units 10 convert the force applied to the traffic area due to the pedestrian's movement into a detected value (voltage value) as an electric signal, and output the detected value as associated with the pedestrian's own ID information. Further, the sensor unit 10 similarly outputs the force applied to the traffic area due to the movement of a pedestrian for learning purposes as a detected value. The specific configuration of the sensor unit 10 will be described later.

検出装置20は、パーソナルコンピュータ(PC)等で構成され、CPU等の演算手段と、CPUが実行するプログラムを保存するROMと、CPUの作業領域を構成するRAMとを含んだ構成が例示できる。検出装置20の各機能については後述する。 The detection device 20 is constituted by a personal computer (PC) or the like, and includes a calculation means such as a CPU, a ROM that stores a program executed by the CPU, and a RAM that constitutes a work area of the CPU. Each function of the detection device 20 will be described later.

続いて、センサユニット10の具体的な構成について、図2ないし図4を参照して説明する。 Next, the specific configuration of the sensor unit 10 will be described with reference to FIGS. 2 to 4.

図2は、実施の形態に係るセンサユニットを模式的に示す分解斜視図である。図2に示すように、センサユニット10は、複数(本実施の形態では4つ)のセンサとしての圧電素子11と、各圧電素子11が載置される下部保護材12と、下部保護材12を上方からカバーする上部保護材13とを備えている。センサユニット10は、フロア面等の設置面Fに配設され、本実施の形態では、正方形の平面形状に形成される。 FIG. 2 is an exploded perspective view schematically showing the sensor unit according to the embodiment. As shown in FIG. 2, the sensor unit 10 includes a plurality of (four in this embodiment) piezoelectric elements 11 as sensors, a lower protective member 12 on which each piezoelectric element 11 is placed, and a lower protective member 12. and an upper protective member 13 that covers it from above. The sensor unit 10 is disposed on an installation surface F such as a floor surface, and in this embodiment is formed into a square planar shape.

下部保護材12及び上部保護材13は、相互に組み合わされた状態で、各圧電素子11をそれぞれ水平方向に向けて収納している。下部保護材12及び上部保護材13は、絶縁性ゴムによって構成されている。 The lower protection member 12 and the upper protection member 13 are combined with each other and house each piezoelectric element 11 in a horizontal direction. The lower protection member 12 and the upper protection member 13 are made of insulating rubber.

センサユニット10は、上部保護材13の上面上に載置される板状の床形成部材14を更に備えている。本実施の形態では、床形成部材14は、センサユニット10を上面視した状態で、正方形状に形成されている。床形成部材14は、石材からなる表板部14aと、この表板部14aの下面に設けられた裏板部14bとを有している。裏板部14bは、鉄等の金属製とされ、表板部14aを補強するように設けられている。 The sensor unit 10 further includes a plate-shaped floor forming member 14 placed on the upper surface of the upper protection member 13 . In this embodiment, the floor forming member 14 is formed in a square shape when the sensor unit 10 is viewed from above. The floor forming member 14 has a top plate part 14a made of stone, and a back plate part 14b provided on the lower surface of the top plate part 14a. The back plate portion 14b is made of metal such as iron, and is provided to reinforce the front plate portion 14a.

図3は、実施の形態に係るセンサユニットの部分縦断面図である。図4は、実施の形態に係るセンサユニットの一部構成の概略分解斜視図である。図3に示すように、圧電素子11は、上下一対となる上電極層11a及び下電極層11bと、上電極層11a及び下電極層11bの間に位置する圧電セラミックス層11cとを積層してなる。圧電セラミックス層11cは、円形で板状の圧電性を示すセラミックスにより形成されている。下電極層11bは、円形の板状電極であり、上面に圧電セラミックス層11cが形成される。上電極層11aは、圧電セラミックス層11cの上面に膜状に形成されている。上電極層11a及び下電極層11bの材料は、電気伝導性の高い金、銀、銅、黄銅、鉄、ステンレスおよびパラジウムのうち、少なくとも1種類から選択され、本実施の形態では、上電極層11aが銀、下電極層11bがステンレスとされる。圧電素子11においては、上電極層11a、圧電セラミックス層11c、下電極層11bの順に径寸法が大きくなっている。 FIG. 3 is a partial longitudinal sectional view of the sensor unit according to the embodiment. FIG. 4 is a schematic exploded perspective view of a partial configuration of the sensor unit according to the embodiment. As shown in FIG. 3, the piezoelectric element 11 is formed by laminating a pair of upper and lower electrode layers 11a and 11b, and a piezoelectric ceramic layer 11c located between the upper and lower electrode layers 11a and 11b. Become. The piezoelectric ceramic layer 11c is made of a circular, plate-shaped piezoelectric ceramic. The lower electrode layer 11b is a circular plate-shaped electrode, and a piezoelectric ceramic layer 11c is formed on the upper surface. The upper electrode layer 11a is formed in a film shape on the upper surface of the piezoelectric ceramic layer 11c. The material of the upper electrode layer 11a and the lower electrode layer 11b is selected from at least one of highly electrically conductive gold, silver, copper, brass, iron, stainless steel, and palladium. 11a is made of silver, and the lower electrode layer 11b is made of stainless steel. In the piezoelectric element 11, the diameter dimension increases in the order of the upper electrode layer 11a, the piezoelectric ceramic layer 11c, and the lower electrode layer 11b.

上電極層11aの上面及び下電極層11bの下面それぞれには、銅箔テープ(不図示)が貼り付けられて電気的に接続されている。銅箔テープは、基板や配線(何れも不図示)を介して検出装置20(図1参照)に接続され、圧電素子11の検出値(電圧値)を検出装置20に出力可能となっている。 A copper foil tape (not shown) is attached to each of the upper surface of the upper electrode layer 11a and the lower surface of the lower electrode layer 11b to electrically connect them. The copper foil tape is connected to the detection device 20 (see FIG. 1) via a substrate and wiring (none of which are shown), so that the detected value (voltage value) of the piezoelectric element 11 can be output to the detection device 20. .

下部保護材12の上面には、各圧電素子11の設置位置それぞれに受容部15が形成されている。受容部15は、下部保護材12の上面を圧電素子11と概略同一の平面形状に凹ませることによって形成され、受容した圧電素子11の水平方向の移動を規制する位置規制部として機能している(図5参照)。また、受容部15の内部における外周側には、平面視円環状をなす載置部15aが形成されている。載置部15aは、下部保護材12の上面より若干低い位置であって、受容部15の底部より高い位置で水平方向に形成され、圧電素子11の周辺部を下方から支持している。 A receiving portion 15 is formed on the upper surface of the lower protective member 12 at each installation position of each piezoelectric element 11 . The receiving part 15 is formed by recessing the upper surface of the lower protective material 12 into a planar shape that is approximately the same as that of the piezoelectric element 11, and functions as a position regulating part that regulates the movement of the received piezoelectric element 11 in the horizontal direction. (See Figure 5). Further, a mounting portion 15a having an annular shape in plan view is formed on the outer peripheral side of the interior of the receiving portion 15. The mounting portion 15a is formed horizontally at a position slightly lower than the upper surface of the lower protection member 12 and higher than the bottom of the receiving portion 15, and supports the peripheral portion of the piezoelectric element 11 from below.

上部保護材13は、頂部16と、この頂部16の外周から垂下する周壁部17とを備えた蓋状に形成されている。周壁部17は、下部保護材12及び上部保護材13を相互に組み合わせた状態で、下部保護材12を囲う位置に配設され、これにより、下部保護材12及び上部保護材13の前後及び左右方向の相対移動を規制する。頂部16の下面であって、各圧電素子11の設置位置に対応する位置には、下方に突出する突出部18が形成されている。各突出部18は、平面視円形に形成され、その外径寸法は、上電極層11aの外径寸法より小さく設定されている(図5参照)。 The upper protection member 13 is formed into a lid shape including a top portion 16 and a peripheral wall portion 17 that hangs down from the outer periphery of the top portion 16 . The peripheral wall portion 17 is disposed at a position surrounding the lower protective member 12 in a state where the lower protective member 12 and the upper protective member 13 are combined with each other. Regulates relative movement in direction. A protrusion 18 that protrudes downward is formed on the lower surface of the top portion 16 at a position corresponding to the installation position of each piezoelectric element 11 . Each protrusion 18 is circular in plan view, and its outer diameter is set smaller than the outer diameter of the upper electrode layer 11a (see FIG. 5).

上部保護材13は、突出部18が圧電素子11の上面上に載置されることで支持される。よって、上部保護材13と、その上に載置される床形成部材14とが、圧電素子11及び下部保護材12により下方から支持される。言い換えると、圧電素子11は、上部保護材13及び床形成部材14を支持する位置に設けられる。 The upper protection member 13 is supported by the protrusion 18 placed on the upper surface of the piezoelectric element 11 . Therefore, the upper protection member 13 and the floor forming member 14 placed thereon are supported from below by the piezoelectric element 11 and the lower protection member 12. In other words, the piezoelectric element 11 is provided at a position that supports the upper protection member 13 and the floor forming member 14.

センサユニット10においては、床形成部材14上で歩行者が歩行等によって移動すると、該移動によって床形成部材14に力が加わるようになる。かかる力で上部保護材13が押し下げられるように変形し、その際に生じる圧力が突出部18によって圧電素子11に加えられる。すると、載置部15aによって圧電素子11の周辺部が支持されるので、圧電素子11の中央が凹むように変形し、圧電セラミックス層11cが下方に撓んで大きなひずみが得られる。このひずみによって各電極層11a、11bに電圧が発生し、発生した電圧に応じた検出値(電圧値)が検出装置20に出力される。 In the sensor unit 10, when a pedestrian moves on the floor forming member 14 by walking or the like, force is applied to the floor forming member 14 due to the movement. The upper protection member 13 is deformed so as to be pushed down by this force, and the pressure generated at this time is applied to the piezoelectric element 11 by the protrusion 18 . Then, since the peripheral portion of the piezoelectric element 11 is supported by the mounting portion 15a, the center of the piezoelectric element 11 is deformed to be concave, and the piezoelectric ceramic layer 11c is bent downward, resulting in a large strain. This strain generates a voltage in each electrode layer 11a, 11b, and a detected value (voltage value) corresponding to the generated voltage is output to the detection device 20.

図5は、実施の形態に係る通行領域の一例を示す平面図である。本実施の形態では、複数のセンサユニット10によって出力される検出値に応じ、通行領域における歩行者の位置と、歩行者の移動経路となる動線と、歩行者の属性とを検出する。例えば、図5に示すように、縦方向及び横方向それぞれ3列で合計9体のセンサユニット10が配置された通行領域Aを歩行者Wが図に示す足跡で移動する場合、各圧電素子11から歩行者Wの移動によって加わる力に応じた検出値が検出装置20に出力される。そして、検出装置20では、かかる検出値に応じて歩行者Wの位置、動線及び属性を検出する。ここで、本実施の形態では、歩行者Wの位置は、センサユニット10上での歩行者Wの重心位置とされる。 FIG. 5 is a plan view showing an example of a traffic area according to the embodiment. In this embodiment, the position of the pedestrian in the traffic area, the line of movement of the pedestrian, and the attribute of the pedestrian are detected according to the detection values output by the plurality of sensor units 10. For example, as shown in FIG. 5, when a pedestrian W moves in a traffic area A in which a total of nine sensor units 10 are arranged in three rows in the vertical and horizontal directions, each piezoelectric element 11 A detected value corresponding to the force applied by the movement of the pedestrian W is output to the detection device 20. Then, the detection device 20 detects the position, flow line, and attributes of the pedestrian W according to the detected values. In this embodiment, the position of the pedestrian W is the center of gravity of the pedestrian W on the sensor unit 10.

具体的には、まず、移動体動線検出システム1においては、通行領域Aにおける歩行者Wの移動(歩行)したときの複数のセンサユニット10における圧電素子11によって検出された検出値を学習データとして収集する。 Specifically, first, in the mobile body flow line detection system 1, the detection values detected by the piezoelectric elements 11 in the plurality of sensor units 10 when the pedestrian W moves (walks) in the traffic area A are used as learning data. Collect as.

次に、移動体動線検出システム1は、収集された学習データに基づいて、モデルの一例であるニューラルネットワークモデルをディープラーニングによって学習させ、学習済みニューラルネットワークモデルを得る。学習済みニューラルネットワークモデルとしては、位置検出用学習済みモデル、動線検出用学習済みモデル、属性検出用学習済みモデルを得る。 Next, the mobile body flow line detection system 1 trains a neural network model, which is an example of a model, by deep learning based on the collected learning data to obtain a trained neural network model. As trained neural network models, a trained model for position detection, a trained model for flow line detection, and a trained model for attribute detection are obtained.

そして、移動体動線検出システム1は、複数のセンサユニット10によって検出された検出値と、各学習済みモデルとに基づいて、通行領域Aにおける歩行者Wの位置、動線及び属性を検出する。 Then, the mobile body flow line detection system 1 detects the position, flow line, and attributes of the pedestrian W in the traffic area A based on the detection values detected by the plurality of sensor units 10 and each learned model. .

移動体動線検出システム1は、学習機能、位置検出機能、動線検出機能、属性検出機能を有する。以下、各機能について説明する。まず、移動体動線検出システム1における学習機能について説明する。 The mobile body flow line detection system 1 has a learning function, a position detection function, a flow line detection function, and an attribute detection function. Each function will be explained below. First, the learning function in the mobile body flow line detection system 1 will be explained.

[学習機能]
複数のセンサユニット10は、学習用の歩行者Wの移動によって通行領域Aに伝搬する力に応じた学習用の検出値を検出する。
[Learning function]
The plurality of sensor units 10 detect detection values for learning according to the force propagated to the traffic area A due to the movement of the pedestrian W for learning.

図5に示す通行領域Aにおいて、複数のセンサユニット10では、学習用の歩行者Wが通行領域Aを歩行する際、歩行者Wの足裏から床形成部材14に力が加わって圧電素子11まで伝搬するときの検出値を学習用の検出値(電圧値)として検出する。例えば、学習用の歩行者Wが図5に示す足跡のように歩行すると、該足跡の位置に応じたセンサユニット10において歩行者Wの足裏から力が加わって複数の圧電素子11まで伝搬し、複数の圧電素子11によって検出値が出力される。 In the passage area A shown in FIG. The detected value when the signal propagates to is detected as the learning detected value (voltage value). For example, when a learning pedestrian W walks along the footprints shown in FIG. , a plurality of piezoelectric elements 11 output detected values.

かかる検出値から歩行者Wの位置や、動線、属性を検出するには、センサユニット10の形状や材質、圧電素子11の配置等を考慮し、歩行者Wの足跡の位置(力の発生位置)から圧電素子11までの力の伝搬をモデル化する必要がある。しかし、実際のセンサユニット10は各保護材12、13(図2参照)の材質や構造が様々となり、設置場所の状況(床面等)も種々異なるため、モデル化が困難となる。また、複数の圧電素子11についても検出値の検出特性や劣化状態等のばらつきが存在するため、モデル化は困難となる。 In order to detect the position, flow line, and attributes of the pedestrian W from such detected values, the shape and material of the sensor unit 10, the arrangement of the piezoelectric element 11, etc. are considered, and the position of the footprint of the pedestrian W (force generation It is necessary to model the propagation of force from the piezoelectric element 11 (position) to the piezoelectric element 11. However, in the actual sensor unit 10, the materials and structures of the protective members 12 and 13 (see FIG. 2) vary, and the conditions of the installation location (floor surface, etc.) also vary, making modeling difficult. Further, since there are variations in detection characteristics of detected values, deterioration states, etc. of the plurality of piezoelectric elements 11, modeling becomes difficult.

そこで、本実施の形態では、センサユニット10における歩行者Wの位置、動線及び属性に応じ、複数の圧電素子11での検出値のパターンが異なることを利用し、ニューラルネットワークモデルをディープラーニングにより学習させる。そして、得られた学習済みニューラルネットワークモデル(位置検出用学習済みモデル、動線検出用学習済みモデル、属性検出用学習済みモデル)を用いて歩行者Wの位置、動線及び属性を検出する。これにより、圧電素子11における検出特性のばらつき等の上述したモデル化困難とした各要因を考慮することなく、床形成部材14に力を加える歩行者Wの位置(重心位置)を検出し、かかる位置等に応じた歩行者Wの動線及び属性を検出することができる。 Therefore, in the present embodiment, a neural network model is developed by deep learning by utilizing the fact that the patterns of detected values in the plurality of piezoelectric elements 11 differ depending on the position, flow line, and attributes of the pedestrian W in the sensor unit 10. Let them learn. Then, the position, flow line, and attributes of the pedestrian W are detected using the obtained trained neural network models (the trained model for position detection, the trained model for flow line detection, and the trained model for attribute detection). As a result, the position (center of gravity position) of the pedestrian W applying force to the floor forming member 14 can be detected without considering the factors that make modeling difficult, such as variations in detection characteristics in the piezoelectric element 11. The flow line and attributes of the pedestrian W can be detected depending on the position and the like.

入力部22は、学習のために実際に通行領域Aで歩行者Wが歩行したときの、通行領域Aにおける学習用の歩行者Wの位置、動線及び属性を入力する。入力部22としては、例えば、キーボード、マウス等を例示することができる。入力部22をキーボード等とした場合、人手によって歩行者Wの位置、動線及び属性が入力される。 The input unit 22 inputs the position, flow line, and attributes of the pedestrian W for learning in the traffic area A when the pedestrian W actually walks in the traffic area A for learning. Examples of the input unit 22 include a keyboard, a mouse, and the like. When the input unit 22 is a keyboard or the like, the position, flow line, and attributes of the pedestrian W are input manually.

続いて、検出装置20の機能について説明する。図1に示すように、検出装置20は、取得部24、位置検出用学習部25、動線検出用学習部26、属性検出用学習部27、位置検出用学習済みモデル記憶部28、動線検出用学習済みモデル記憶部29、属性検出用学習済みモデル記憶部30、位置検出部32、動線検出部33、属性検出部34、及び出力部35を備えている。 Next, the functions of the detection device 20 will be explained. As shown in FIG. 1, the detection device 20 includes an acquisition section 24, a position detection learning section 25, a flow line detection learning section 26, an attribute detection learning section 27, a learned model storage section 28 for position detection, and a flow line detection learning section 26. It includes a detection trained model storage section 29, an attribute detection trained model storage section 30, a position detection section 32, a flow line detection section 33, an attribute detection section 34, and an output section 35.

取得部24は、学習のために実際に通行領域Aに歩行者Wが歩行したときの複数のセンサユニット10各々によって検出された学習用の検出値を取得する。また、取得部24には、学習用の検出値に対応する学習用の歩行者Wの位置、動線及び属性が入力部22によって入力される。 The acquisition unit 24 acquires a learning detection value detected by each of the plurality of sensor units 10 when a pedestrian W actually walks in the traffic area A for learning. Moreover, the position, flow line, and attribute of the pedestrian W for learning corresponding to the detection value for learning are input to the acquisition unit 24 by the input unit 22 .

そして、取得部24は、学習用の歩行者Wの位置、動線及び属性と、学習用の歩行者Wの歩行によって複数のセンサユニット10各々で検出された学習用の検出値とを対応付け、それらを表す学習データとして記憶領域(図示省略)へ格納する。かかる記憶領域には複数の学習データが格納される。 The acquisition unit 24 then associates the position, flow line, and attributes of the learning pedestrian W with the learning detection values detected by each of the plurality of sensor units 10 as the learning pedestrian W walks. , are stored in a storage area (not shown) as learning data representing them. A plurality of pieces of learning data are stored in this storage area.

位置検出用学習部25は、取得部24によって取得された学習データに基づいて、複数の検出値から歩行者Wの位置を検出するためのニューラルネットワークモデルを予め学習させる。言い換えると、かかるニューラルネットワークモデルは、学習データに含まれるセンサユニット10の圧電素子11から出力された学習用の検出値と、入力部22で入力された学習用の歩行者Wの位置とに基づいて学習される。 The position detection learning unit 25 previously learns a neural network model for detecting the position of the pedestrian W from a plurality of detection values based on the learning data acquired by the acquisition unit 24. In other words, such a neural network model is based on the learning detection value output from the piezoelectric element 11 of the sensor unit 10 included in the learning data and the learning position of the pedestrian W input through the input section 22. be learned.

動線検出用学習部26は、取得部24によって取得された学習データに基づいて、複数の検出値から歩行者Wの動線を検出するためのニューラルネットワークモデルを予め学習させる。言い換えると、かかるニューラルネットワークモデルは、学習データに含まれるセンサユニット10の圧電素子11から出力された学習用の検出値と、入力部22で入力された学習用の歩行者Wの位置及び動線とに基づいて学習される。 The flow line detection learning unit 26 previously learns a neural network model for detecting the flow line of the pedestrian W from a plurality of detection values, based on the learning data acquired by the acquisition unit 24. In other words, this neural network model uses the learning detection value output from the piezoelectric element 11 of the sensor unit 10 included in the learning data, and the learning position and flow line of the pedestrian W input by the input unit 22. It is learned based on

属性検出用学習部27は、取得部24によって取得された学習データに基づいて、複数の検出値から歩行者Wの属性を検出するためのニューラルネットワークモデルを予め学習させる。言い換えると、かかるニューラルネットワークモデルは、学習データに含まれるセンサユニット10の圧電素子11から出力された学習用の検出値と、入力部22で入力された学習用の歩行者Wの位置、動線及び属性とに基づいて学習される。本実施の形態では、各学習部25~27では、ディープラーニングによってニューラルネットワークモデルを学習させる。 The attribute detection learning unit 27 previously learns a neural network model for detecting the attributes of the pedestrian W from a plurality of detection values, based on the learning data acquired by the acquisition unit 24. In other words, such a neural network model uses the learning detection value output from the piezoelectric element 11 of the sensor unit 10 included in the learning data, the learning position and flow line of the pedestrian W input through the input section 22. and attributes. In this embodiment, each of the learning units 25 to 27 trains a neural network model by deep learning.

そして、位置検出用学習部25は、ディープラーニングによって得られる学習済みニューラルネットワークモデルを位置検出用学習済みモデルとして、位置検出用学習済みモデル記憶部28へ格納する。動線検出用学習部26は、ディープラーニングによって得られる学習済みニューラルネットワークモデルを動線検出用学習済みモデルとして、動線検出用学習済みモデル記憶部29へ格納する。属性検出用学習部27は、ディープラーニングによって得られる学習済みニューラルネットワークモデルを属性検出用学習済みモデルとして、属性検出用学習済みモデル記憶部30へ格納する。 Then, the position detection learning unit 25 stores the trained neural network model obtained by deep learning in the position detection trained model storage unit 28 as a position detection trained model. The flow line detection learning unit 26 stores the trained neural network model obtained by deep learning in the flow line detection learned model storage unit 29 as a trained model for flow line detection. The attribute detection learning unit 27 stores the trained neural network model obtained by deep learning in the attribute detection trained model storage unit 30 as a trained attribute detection model.

位置検出用学習済みモデル記憶部28には、位置検出用学習部25によって得られた位置検出用学習済みモデルが格納される。また、動線検出用学習済みモデル記憶部29には、動線検出用学習部26によって得られた動線検出用学習済みモデルが格納され、属性検出用学習済みモデル記憶部30には、属性検出用学習部27によって得られた属性検出用学習済みモデルが格納される。 The trained model storage unit for position detection 28 stores the trained model for position detection obtained by the learning unit 25 for position detection. Further, the trained model storage unit 29 for flow line detection stores the trained model for flow line detection obtained by the learning unit 26 for flow line detection, and the trained model storage unit 30 for attribute detection stores the trained model for flow line detection obtained by the learning unit 26 for flow line detection. The trained model for attribute detection obtained by the detection learning unit 27 is stored.

[位置検出機能]
次に、移動体動線検出システム1における位置検出機能について説明する。
[Position detection function]
Next, the position detection function in the mobile body flow line detection system 1 will be explained.

複数のセンサユニット10が敷設された通行領域Aに歩行者Wが歩行する場合、取得部24は、複数のセンサユニット10における圧電素子11各々によって検出された検出値の各々を取得する。位置検出部32は、位置検出用学習済みモデル記憶部28に格納された位置検出用学習済みモデルと、取得部24によって取得された検出値の各々とに基づいて、通行領域Aにおける歩行者Wの位置を検出する。 When a pedestrian W walks in a traffic area A where a plurality of sensor units 10 are installed, the acquisition unit 24 acquires each of the detection values detected by each of the piezoelectric elements 11 in the plurality of sensor units 10. The position detection unit 32 detects the pedestrian W in the traffic area A based on the learned model for position detection stored in the learned model storage unit 28 for position detection and each of the detection values acquired by the acquisition unit 24. Detect the position of.

具体的には、位置検出部32は、取得部24によって取得された検出値の各々を位置検出用学習済みモデルへ入力し、該位置検出用学習済みモデルから出力される歩行者Wの位置を取得する。出力部35は、位置検出部32によって検出された歩行者Wの位置を結果として出力する。 Specifically, the position detection unit 32 inputs each of the detection values acquired by the acquisition unit 24 into a trained model for position detection, and calculates the position of the pedestrian W output from the trained model for position detection. get. The output unit 35 outputs the position of the pedestrian W detected by the position detection unit 32 as a result.

[動線検出機能]
次に、移動体動線検出システム1における動線検出機能について説明する。
[Flow line detection function]
Next, the flow line detection function in the mobile body flow line detection system 1 will be explained.

動線検出部33は、位置検出部32によって検出された歩行者Wの位置と、動線検出用学習済みモデル記憶部29に格納された動線検出用学習済みモデルとに基づいて、通行領域Aにおける歩行者Wの動線を検出する。また、動線検出部33での動線の検出は、通行領域Aにおける歩行者Wの歩行時に取得部24によって取得された検出値の各々にも基づいて実施される。 The flow line detection unit 33 determines the traffic area based on the position of the pedestrian W detected by the position detection unit 32 and the learned model for flow line detection stored in the learned model storage unit 29 for flow line detection. The flow line of the pedestrian W at A is detected. Furthermore, the flow line detection unit 33 detects the flow line based on each of the detection values acquired by the acquisition unit 24 when the pedestrian W walks in the traffic area A.

言い換えると、動線検出部33は、位置検出部32によって検出された歩行者Wの位置と、取得部24によって取得された検出値の各々とを動線検出用学習済みモデルへ入力する。そして、動線検出部33は、かかる動線検出用学習済みモデルから出力される歩行者Wの動線を取得する。出力部35は、動線検出部33によって検出された歩行者Wの動線を結果として出力する。 In other words, the flow line detection unit 33 inputs the position of the pedestrian W detected by the position detection unit 32 and each of the detection values acquired by the acquisition unit 24 to the learned model for flow line detection. Then, the flow line detection unit 33 acquires the flow line of the pedestrian W output from the trained model for flow line detection. The output unit 35 outputs the flow line of the pedestrian W detected by the flow line detection unit 33 as a result.

[属性検出機能]
次に、移動体動線検出システム1における属性検出機能について説明する。
[Attribute detection function]
Next, the attribute detection function in the mobile body flow line detection system 1 will be explained.

属性検出部34は、通行領域Aにおける歩行者Wの歩行時に取得部24によって取得された検出値の各々と、属性検出用学習済みモデル記憶部30に格納された属性検出用学習済みモデルとに基づいて、通行領域Aにおける歩行者Wの属性を検出する。また、属性検出部34での属性の検出は、位置検出部32によって検出された歩行者Wの位置と、動線検出部33によって検出された歩行者Wの動線とにも基づいて実施される。 The attribute detection unit 34 uses each of the detection values acquired by the acquisition unit 24 when the pedestrian W walks in the traffic area A and the learned model for attribute detection stored in the learned model storage unit 30 for attribute detection. Based on this, the attributes of the pedestrian W in the traffic area A are detected. Further, the attribute detection unit 34 detects the attribute based on the position of the pedestrian W detected by the position detection unit 32 and the flow line of the pedestrian W detected by the flow line detection unit 33. Ru.

言い換えると、属性検出部34は、取得部24によって取得された検出値の各々と、位置検出部32によって検出された歩行者Wの位置と、動線検出部33によって検出された動線とを属性検出用学習済みモデルへ入力する。そして、属性検出部34は、かかる属性検出用学習済みモデルから出力される歩行者Wの属性を取得する。出力部35は、属性検出部34によって検出された歩行者Wの属性を結果として出力する。ここで、属性としては、歩行者Wの性別、年齢、体重、歩幅、体調(泥酔、ケガ)、障害の有無の他、歩行者Wを含む移動体の種類(例えば、車椅子、ロボット等)を例示することができる。 In other words, the attribute detection unit 34 detects each of the detection values acquired by the acquisition unit 24, the position of the pedestrian W detected by the position detection unit 32, and the flow line detected by the flow line detection unit 33. Input to trained model for attribute detection. Then, the attribute detection unit 34 acquires the attribute of the pedestrian W output from the trained model for attribute detection. The output unit 35 outputs the attribute of the pedestrian W detected by the attribute detection unit 34 as a result. Here, the attributes include the gender, age, weight, stride length, physical condition (drunk, injury), presence or absence of a disability of the pedestrian W, as well as the type of moving object including the pedestrian W (e.g., wheelchair, robot, etc.). I can give an example.

各検出部32~34での上記検出においては、その精度向上を図るべく、RNN(Recurrent Neural Network)のアルゴリズムを用いることが好ましい。 In the above-described detection by each of the detection units 32 to 34, it is preferable to use an RNN (Recurrent Neural Network) algorithm in order to improve the accuracy.

図6は、歩行者の歩行時における圧電素子の出力波形の一例を示すグラフである。図6のグラフは、横軸が時間とされ、縦軸が圧電素子11の検出値(圧力値)とされる。歩行者Wの歩行によってセンサユニット10に力が発生した状態で、センサユニット10(圧電素子11)から出力される検出値は、図6に示すように、所定期間(数百m秒~数秒、本実施の形態ではt1からt2の間)にて変化する。ここで、取得部24にて取得される検出値は、t1からt2の間の任意のタイミングの検出値としたり、t1からt2の間の平均値としたりしてもよいが、t1からt2の全時間領域の出力波形とすることができる。これによっても、各検出部32~34における検出精度向上を図ることができる。 FIG. 6 is a graph showing an example of an output waveform of a piezoelectric element when a pedestrian walks. In the graph of FIG. 6, the horizontal axis represents time, and the vertical axis represents the detected value (pressure value) of the piezoelectric element 11. As shown in FIG. 6, the detected value output from the sensor unit 10 (piezoelectric element 11) in a state where force is generated in the sensor unit 10 due to the walking of the pedestrian W is a predetermined period of time (several hundred milliseconds to several seconds, In this embodiment, it changes between t1 and t2). Here, the detected value acquired by the acquisition unit 24 may be a detected value at an arbitrary timing between t1 and t2, or an average value between t1 and t2, but may be an average value between t1 and t2. The output waveform can be a full time domain output waveform. This also makes it possible to improve the detection accuracy in each of the detection units 32 to 34.

<移動体動線検出システム1の作用>
次に、実施の形態の移動体動線検出システム1の作用について説明する。検出装置20では、学習データに基づいてニューラルネットワークモデルを学習させる学習処理ルーチンと、位置検出用学習済みモデルに基づいて、歩行者Wの位置を検出する位置検出処理ルーチンとが実行される。また、検出装置20では、動線検出用学習済みモデルに基づいて、歩行者Wの動線を検出する動線検出処理ルーチンと、属性検出用学習済みモデルに基づいて、歩行者Wの属性を検出する属性検出処理ルーチンとが実行される。
<Operation of mobile body flow line detection system 1>
Next, the operation of the mobile body flow line detection system 1 according to the embodiment will be explained. The detection device 20 executes a learning processing routine for learning a neural network model based on learning data, and a position detection processing routine for detecting the position of the pedestrian W based on the trained model for position detection. In addition, the detection device 20 executes a flow line detection processing routine for detecting the flow line of the pedestrian W based on the trained model for flow line detection, and detects the attributes of the pedestrian W based on the learned model for attribute detection. An attribute detection processing routine to be detected is executed.

<学習処理ルーチン>
まず、通行領域Aにおいて、学習のために実際に歩行者Wが通行領域Aを歩行してセンサユニット10に力が付与されているときに、複数のセンサユニット10の圧電素子11によって学習用の検出値が検出される。また、入力部22によって学習用の歩行者Wの位置が入力されると、取得部24は、学習用の歩行者Wの位置と学習用の検出値の各々とを取得する。そして、取得部24は、学習用の歩行者Wの位置と学習用の検出値の各々とを対応付け、学習データとして記憶領域(図示省略)へ格納する。
<Learning processing routine>
First, in the traffic area A, when a pedestrian W is actually walking in the traffic area A for learning and a force is applied to the sensor unit 10, the piezoelectric elements 11 of the plurality of sensor units 10 are used for learning. A detection value is detected. Moreover, when the position of the pedestrian W for learning is inputted by the input unit 22, the acquisition unit 24 acquires the position of the pedestrian W for learning and each of the detection values for learning. Then, the acquisition unit 24 associates the position of the pedestrian W for learning with each of the detected values for learning, and stores them in a storage area (not shown) as learning data.

そして、検出装置20は、学習処理実行の指示信号を受け付けると、図7に示す学習処理ルーチンを実行する。図7は、実施の形態に係る学習処理ルーチンの内容を示すフローチャートである。 Then, upon receiving the instruction signal to execute the learning process, the detection device 20 executes the learning process routine shown in FIG. 7 . FIG. 7 is a flowchart showing the contents of the learning processing routine according to the embodiment.

ステップS01において、各学習部25~27は、記憶領域(図示省略)へ格納された複数の学習データを取得する。 In step S01, each of the learning units 25 to 27 acquires a plurality of learning data stored in a storage area (not shown).

ステップS02において、各学習部25~27は、上記ステップS01で取得された複数の学習データに基づいて、機械学習によってニューラルネットワークモデルを学習させる。 In step S02, each of the learning units 25 to 27 trains a neural network model by machine learning based on the plurality of learning data acquired in step S01.

ステップS03において、各学習部25~27は、上記ステップS02で得られる学習済みニューラルネットワークモデルを、各学習済みモデル記憶部28~30へ格納して、学習処理ルーチンを終了する。 In step S03, each of the learning units 25 to 27 stores the trained neural network model obtained in step S02 to each of the trained model storage units 28 to 30, and ends the learning processing routine.

<位置検出処理ルーチン>
学習処理ルーチンを終了した後であって、検出装置20が位置検出処理実行の指示信号を受け付けると、図8に示す位置検出処理ルーチンを実行し、通行領域Aに存在する歩行者Wの位置を検出する。図8は、実施の形態に係る位置検出処理ルーチンの内容を示すフローチャートである。
<Position detection processing routine>
When the detection device 20 receives an instruction signal to execute the position detection process after completing the learning process routine, it executes the position detection process routine shown in FIG. To detect. FIG. 8 is a flowchart showing the contents of the position detection processing routine according to the embodiment.

ステップS11において、取得部24は、通行領域Aにて歩行者Wが歩行する場合に、歩行者Wからセンサユニット10に加わる力に応じた圧電素子11の検出値を取得する。 In step S11, when the pedestrian W walks in the traffic area A, the acquisition unit 24 acquires the detected value of the piezoelectric element 11 according to the force applied from the pedestrian W to the sensor unit 10.

ステップS12において、位置検出部32は、学習処理ルーチンで位置検出用学習済みモデル記憶部28に格納された位置検出用学習済みモデルと、上記ステップS11で取得された検出値とに基づいて、通行領域Aにて歩行者Wの位置を検出する。 In step S12, the position detecting unit 32 determines whether traffic is detected based on the learned model for position detection stored in the learned model storage unit 28 in the learning process routine and the detected value acquired in step S11. The position of the pedestrian W in area A is detected.

ステップS13において、上記ステップS12で検出された歩行者Wの位置を結果として出力して、位置検出処理ルーチンを終了する。 In step S13, the position of the pedestrian W detected in step S12 is output as a result, and the position detection processing routine is ended.

<動線検出処理ルーチン>
学習処理ルーチンを終了した後であって、検出装置20が動線検出処理実行の指示信号を受け付けると、図9に示す動線検出処理ルーチンを実行し、通行領域Aに存在する歩行者Wの動線を検出する。図9は、実施の形態に係る動線検出処理ルーチンの内容を示すフローチャートである。
<Flow line detection processing routine>
After the learning process routine is finished, when the detection device 20 receives an instruction signal to execute the flow line detection process, it executes the flow line detection process routine shown in FIG. Detect flow lines. FIG. 9 is a flowchart showing the contents of the flow line detection processing routine according to the embodiment.

ステップS21において、取得部24は、通行領域Aにて歩行者Wが歩行する場合に、歩行者Wからセンサユニット10に加わる力に応じた圧電素子11の検出値を取得する。 In step S21, the acquisition unit 24 acquires a detection value of the piezoelectric element 11 according to the force applied from the pedestrian W to the sensor unit 10 when the pedestrian W walks in the traffic area A.

ステップS22において、動線検出部33には、位置検出部32によって検出された歩行者Wの位置が出力される。 In step S22, the position of the pedestrian W detected by the position detection unit 32 is output to the flow line detection unit 33.

ステップS23において、動線検出部33は、学習処理ルーチンで動線検出用学習済みモデル記憶部29に格納された動線検出用学習済みモデルを用いて、通行領域Aにおける歩行者Wの動線を検出する。かかる検出は、動線検出用学習済みモデルに加え、上記ステップS21で取得された検出値と、上記ステップS22で出力された歩行者Wの位置とに基づいて実施される。 In step S23, the flow line detection unit 33 uses the learned model for flow line detection stored in the learned model storage unit 29 for flow line detection in the learning process routine to determine the flow line of the pedestrian W in the traffic area A. Detect. Such detection is performed based on the learned model for flow line detection, the detection value acquired in step S21, and the position of the pedestrian W output in step S22.

ステップS24において、上記ステップS23で検出された歩行者Wの動線を結果として出力して、動線検出処理ルーチンを終了する。 In step S24, the flow line of the pedestrian W detected in step S23 is output as a result, and the flow line detection processing routine is ended.

<属性検出処理ルーチン>
学習処理ルーチンを終了した後であって、検出装置20が属性検出処理実行の指示信号を受け付けると、図10に示す属性検出処理ルーチンを実行し、通行領域Aに存在する歩行者Wの属性を検出する。図10は、実施の形態に係る属性検出処理ルーチンの内容を示すフローチャートである。
<Attribute detection processing routine>
When the detection device 20 receives an instruction signal to execute attribute detection processing after completing the learning processing routine, it executes the attribute detection processing routine shown in FIG. To detect. FIG. 10 is a flowchart showing the content of the attribute detection processing routine according to the embodiment.

ステップS31において、取得部24は、通行領域Aにて歩行者Wが歩行する場合に、歩行者Wからセンサユニット10に加わる力に応じた圧電素子11の検出値を取得する。 In step S31, when the pedestrian W walks in the traffic area A, the acquisition unit 24 acquires the detected value of the piezoelectric element 11 according to the force applied from the pedestrian W to the sensor unit 10.

ステップS32において、属性検出部34には、位置検出部32によって検出された歩行者Wの位置が出力される。 In step S32, the position of the pedestrian W detected by the position detection unit 32 is output to the attribute detection unit 34.

ステップS33において、属性検出部34には、動線検出部33によって検出された歩行者Wの動線が出力される。 In step S33, the flow line of the pedestrian W detected by the flow line detection unit 33 is output to the attribute detection unit 34.

ステップS34において、属性検出部34は、学習処理ルーチンで属性検出用学習済みモデル記憶部30に格納された属性検出用学習済みモデルを用いて、通行領域Aにおける歩行者Wの属性を検出する。かかる検出は、属性検出用学習済みモデルに加え、上記ステップS31で取得された検出値と、上記ステップS32で出力された歩行者Wの位置と、上記ステップS33で出力された歩行者Wの動線とに基づいて実施される。 In step S34, the attribute detection unit 34 detects the attribute of the pedestrian W in the traffic area A using the learned model for attribute detection stored in the learned model storage unit 30 for attribute detection in the learning processing routine. In addition to the trained model for attribute detection, this detection uses the detection value acquired in step S31, the position of the pedestrian W output in step S32, and the movement of the pedestrian W output in step S33. It will be carried out based on the line.

ステップS35において、上記ステップS34で検出された歩行者Wの属性を結果として出力して、属性検出処理ルーチンを終了する。 In step S35, the attribute of the pedestrian W detected in step S34 is output as a result, and the attribute detection processing routine is ended.

以上のように、本実施の形態では、上述のように得られる位置検出用学習済みモデルと、複数のセンサユニット10(圧電素子11)における検出値とによって、位置検出部32で歩行者Wの位置を検出することができる。これにより、複数のセンサユニット10に設けられた圧電素子11各々において特性にばらつき等があっても、該ばらつきを学習に組み込み、複数の圧電素子11間の特性差を無視することができる。従って、圧電素子11の特性のばらつき等の影響を抑制でき、歩行者Wの位置を検出する正確性を高めることができる。なお、圧電素子11の特性のばらつきと同様、圧電素子11の劣化状態の違いや、各保護材12、13(図2参照)の材質や構造の違い、設置場所となる床面等の状況の違いの影響も抑制することができる。 As described above, in this embodiment, the position detection unit 32 detects the pedestrian W using the learned model for position detection obtained as described above and the detected values in the plurality of sensor units 10 (piezoelectric elements 11). The location can be detected. Thereby, even if there are variations in characteristics among the piezoelectric elements 11 provided in the plurality of sensor units 10, it is possible to incorporate the variations into learning and ignore the characteristic differences between the plurality of piezoelectric elements 11. Therefore, the influence of variations in the characteristics of the piezoelectric elements 11, etc. can be suppressed, and the accuracy of detecting the position of the pedestrian W can be improved. In addition, as well as variations in the characteristics of the piezoelectric element 11, there are also differences in the state of deterioration of the piezoelectric element 11, differences in the materials and structures of the protective materials 12 and 13 (see Fig. 2), and the condition of the floor surface where the piezoelectric element 11 is installed. The influence of differences can also be suppressed.

そして、本実施の形態では、かかる歩行者Wの位置検出の結果と、上述のように得られる動線検出用学習済みモデルと、複数のセンサユニット10における検出値とに基づき、動線検出部33で歩行者Wの動線を検出することができる。従って、本実施の形態では、歩行者Wの位置検出の精度だけでなく、歩行者Wの動線検出の精度も向上させることができる。 In the present embodiment, the flow line detection unit uses the result of the position detection of the pedestrian W, the learned model for flow line detection obtained as described above, and the detection values of the plurality of sensor units 10. 33, the flow line of the pedestrian W can be detected. Therefore, in this embodiment, not only the accuracy of detecting the position of the pedestrian W but also the accuracy of detecting the line of movement of the pedestrian W can be improved.

更には、本実施の形態では、歩行者Wの位置及び動線の検出結果と、上述した属性検出用学習済みモデルと、複数のセンサユニット10における検出値とに基づき、属性検出部34で歩行者Wの属性を検出することができる。よって、歩行者Wの性別や歩幅等の属性についても、検出精度を向上させることができる。 Furthermore, in the present embodiment, the attribute detection unit 34 detects walking based on the detection results of the position and flow line of the pedestrian W, the learned model for attribute detection described above, and the detection values of the plurality of sensor units 10. The attributes of the person W can be detected. Therefore, detection accuracy can also be improved regarding attributes such as the gender and stride length of the pedestrian W.

また、本実施の形態においては、複数のセンサユニット10を並べて敷設するだけで、通行領域Aを位置センサ化するだけでなく、歩行者Wの動線及び属性を検出可能なセンサとすることができる。更に、センサユニット10において数個の圧電素子11を用いるのみで、上述した各種の検出が可能となり、通行領域Aに足跡のサイズより小さい間隔で多数の圧電素子を設置する構造に比べ、システム全体を低コストかつ容易に構成することができる。 Furthermore, in this embodiment, by simply installing a plurality of sensor units 10 side by side, it is possible to not only turn the traffic area A into a position sensor, but also to make it a sensor capable of detecting the flow line and attributes of pedestrians W. can. Furthermore, the various types of detection described above are possible by using only a few piezoelectric elements 11 in the sensor unit 10, and compared to a structure in which many piezoelectric elements are installed in the traffic area A at intervals smaller than the footprint size, the overall system is can be constructed easily and at low cost.

また、カメラ撮影及び画像処理にて歩行者の動線や属性を特定する従来方法と、本実施の形態とを比べた場合、以下に述べるメリットがある。本実施の形態は、カメラ等で陰になって撮影できない部分でも検出できる他、検出結果が要求される場所のみに特化した検出を行えるようになる。更に、本実施の形態は、圧電素子11からの出力となるので、画像処理に比べてデータサイズを小さくでき、また、上記従来方法と併用して動線等の検出を行うことができる。 Furthermore, when this embodiment is compared with the conventional method of specifying pedestrian flow lines and attributes using camera photography and image processing, there are advantages described below. In this embodiment, it is possible to detect areas that are in the shadow and cannot be photographed with a camera or the like, and it is also possible to perform specialized detection only in areas where detection results are required. Furthermore, in this embodiment, since the output is from the piezoelectric element 11, the data size can be made smaller than in image processing, and it is also possible to detect flow lines, etc. in combination with the above-mentioned conventional method.

なお、本発明は上記実施の形態に限定されず、種々変更して実施することが可能である。上記実施の形態において、添付図面に図示されている大きさや形状、方向等については、これに限定されず、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。 Note that the present invention is not limited to the above embodiments, and can be implemented with various modifications. In the embodiments described above, the size, shape, direction, etc. illustrated in the accompanying drawings are not limited to these, and can be changed as appropriate within the scope of achieving the effects of the present invention. Other changes can be made as appropriate without departing from the scope of the invention.

例えば、通行領域Aにおける複数のセンサユニット10の配置や、センサユニット10での圧電素子11の配置は、下記の第1~第9変形例にて例示するように、種々の変更が可能である。 For example, the arrangement of the plurality of sensor units 10 in the traffic area A and the arrangement of the piezoelectric elements 11 in the sensor unit 10 can be changed in various ways, as exemplified in the first to ninth modifications below. .

図11は、第1変形例に係る通行領域の平面図である。図12は、第2変形例に係る通行領域の平面図である。図13は、第3変形例に係る通行領域の平面図である。図11~図13に示す第1~第3変形例においては、通行領域Aの幅が正方形状のセンサユニット10の一辺の長さ(L)と同一となり、通行領域Aが図中横方向に延びている。各図では、3体のセンサユニット10を示すが、更に横方向に複数のセンサユニット10を並べて設けてもよい。 FIG. 11 is a plan view of the traffic area according to the first modification. FIG. 12 is a plan view of the traffic area according to the second modification. FIG. 13 is a plan view of the traffic area according to the third modification. In the first to third modifications shown in FIGS. 11 to 13, the width of the traffic area A is the same as the length (L) of one side of the square sensor unit 10, and the traffic area A is It is extending. Although three sensor units 10 are shown in each figure, a plurality of sensor units 10 may be arranged side by side in the horizontal direction.

図11の第1変形例では、センサユニット10を上面視した状態で、圧電素子11の設置箇所が床形成部材14と相似形となって同一中心位置の仮想正方形(図中二点鎖線で図示)の各頂点とされる。床形成部材14の一辺の長さをLとした場合、仮想正方形の一辺の長さは、その約半分の2/Lとされる。また、横方向(センサユニット10の並び方向)において、センサユニット10を跨いで横方向に隣り合う圧電素子11間の距離も2/Lとされる。従って、通行領域A全体として見た場合に、一辺の長さが2/Lとなる仮想正方形を最小単位として横方向に並ぶメッシュの各交点に圧電素子11を配置することができる。 In the first modification of FIG. 11, when the sensor unit 10 is viewed from above, the installation location of the piezoelectric element 11 is similar to the floor forming member 14, and is a virtual square (indicated by the two-dot chain line in the figure) with the same center position. ). When the length of one side of the floor forming member 14 is L, the length of one side of the virtual square is approximately half of that length, 2/L. Further, in the lateral direction (the direction in which the sensor units 10 are arranged), the distance between the piezoelectric elements 11 that are adjacent in the lateral direction across the sensor units 10 is also 2/L. Therefore, when looking at the entire traffic area A, the piezoelectric elements 11 can be arranged at each intersection of meshes lined up in the horizontal direction, with the minimum unit being a virtual square whose side length is 2/L.

図12の第2変形例では、センサユニット10を上面視した状態で、圧電素子11の設置箇所が仮想正三角形(図中二点鎖線で図示)の各頂点とされる。床形成部材14の一辺の長さをLとした場合、仮想正三角形の高さ寸法は、その半分の2/Lとされる。仮想正三角形は、図中縦方向に延びる辺が床形成部材14の図中左側の辺から横方向に4/L離れ、図中右側に位置する頂点が図中右側の辺から横方向に4/L離れる。このような配置とすることで、高さが2/Lとなる仮想正三角形を最小単位として横方向に並ぶメッシュの各交点又は各頂点に圧電素子11を配置することができる。 In the second modification of FIG. 12, when the sensor unit 10 is viewed from above, the piezoelectric elements 11 are installed at each vertex of a virtual equilateral triangle (indicated by two-dot chain lines in the figure). When the length of one side of the floor forming member 14 is L, the height dimension of the virtual equilateral triangle is half of that length, 2/L. In the virtual equilateral triangle, the side extending in the vertical direction in the figure is 4/L apart in the horizontal direction from the left side in the figure of the floor forming member 14, and the vertex located on the right side in the figure is 4/L apart in the horizontal direction from the right side in the figure. /L leave. With such an arrangement, the piezoelectric element 11 can be arranged at each intersection or each vertex of the mesh arranged in the horizontal direction, with the minimum unit being a virtual equilateral triangle with a height of 2/L.

図13の第3変形例では、3体のセンサユニット10のうちの中央のセンサユニット10を上面視した状態で、圧電素子11の設置箇所が仮想正六角形(二点鎖線で図示)の各頂点と、その中心とされる。仮想正六角形の中心は、床形成部材14の中心と同一位置とされ、仮想正六角形の大きさは図示したとおりとされる。他の2体のセンサユニット10では、上記仮想正六角形を横方向に隣接しつつ並べ、該仮想正六角形各々の各頂点及び中心に圧電素子11が設置される。このような配置とすることで、第2変形例より小さい仮想正三角形を最小単位として二次元方向に並ぶメッシュの各交点又は各頂点に圧電素子11を配置することができる。 In the third modification of FIG. 13, when the central sensor unit 10 of the three sensor units 10 is viewed from above, the piezoelectric elements 11 are installed at each vertex of a virtual regular hexagon (indicated by a chain double-dashed line). And it is said to be the center of it. The center of the virtual regular hexagon is located at the same position as the center of the floor forming member 14, and the size of the virtual regular hexagon is as shown in the figure. In the other two sensor units 10, the virtual regular hexagons are arranged adjacent to each other in the horizontal direction, and piezoelectric elements 11 are installed at each vertex and center of each of the virtual regular hexagons. With such an arrangement, the piezoelectric element 11 can be arranged at each intersection or each vertex of a mesh lined up in a two-dimensional direction with the minimum unit being a virtual equilateral triangle smaller than the second modification.

図14は、第4変形例に係る通行領域の平面図である。図15は、第5変形例に係る通行領域の平面図である。図16は、第6変形例に係る通行領域の平面図である。図14~図16に示す第4~第6変形例においては、通行領域Aにおいて、直交二方向となる図中縦方向及び横方向にセンサユニット10が並んで敷設される。各図では、9体のセンサユニット10を示すが、更に縦方向及び横方向に複数のセンサユニット10を並べて設けてもよい。 FIG. 14 is a plan view of the passage area according to the fourth modification. FIG. 15 is a plan view of the passage area according to the fifth modification. FIG. 16 is a plan view of the passage area according to the sixth modification. In the fourth to sixth modifications shown in FIGS. 14 to 16, sensor units 10 are installed in a line in the traffic area A in two orthogonal directions, a vertical direction and a horizontal direction in the figure. Although nine sensor units 10 are shown in each figure, a plurality of sensor units 10 may be further arranged in the vertical and horizontal directions.

図14の第4変形例では、第1変形例と同様の仮想正方形(二点鎖線で図示)の各頂点に圧電素子11を配置している。図15の第5変形例では、第3変形例の中央のセンサユニット10と同様の仮想正六角形(二点鎖線で図示)の各頂点及び中心に圧電素子11を配置している。図16の第6変形例では、センサユニット10を上面視した状態で、圧電素子11の設置箇所が仮想正八角形(二点鎖線で図示)の各頂点と、その中心とされる。仮想正八角形の中心は、床形成部材14の中心と同一位置とされる。なお、圧電素子11を設置箇所は、センサユニット10を上面視した状態で、床形成部材14と同一中心位置に形成される他の仮想正n角形或いはn角形(nは3以上の自然数)の各頂点及び中心としてもよい。 In the fourth modification example of FIG. 14, piezoelectric elements 11 are arranged at each vertex of a virtual square (indicated by a two-dot chain line) similar to the first modification example. In the fifth modification of FIG. 15, piezoelectric elements 11 are arranged at each vertex and center of a virtual regular hexagon (indicated by a two-dot chain line) similar to the central sensor unit 10 of the third modification. In the sixth modification of FIG. 16, when the sensor unit 10 is viewed from above, the piezoelectric elements 11 are installed at each vertex of a virtual regular octagon (indicated by a chain double-dashed line) and its center. The center of the virtual regular octagon is located at the same position as the center of the floor forming member 14. Note that the piezoelectric element 11 is installed at a location of another virtual regular n-gon or n-gon (n is a natural number of 3 or more) formed at the same central position as the floor forming member 14 when the sensor unit 10 is viewed from above. Each vertex and center may be used.

図17は、第7変形例に係る通行領域の平面図である。図17の第7変形例では、センサユニット10を上面視した状態で、センサユニット10及び床形成部材14を正方形状に形成し、該正方形の頂点に圧電素子11が設置される。よって、一体の圧電素子11が4体のセンサユニット10の頂点に跨って配置され、かかる4体のセンサユニット10に加わる力を検出できるようになる。 FIG. 17 is a plan view of the passage area according to the seventh modification. In the seventh modification shown in FIG. 17, when the sensor unit 10 is viewed from above, the sensor unit 10 and the floor forming member 14 are formed into a square shape, and the piezoelectric element 11 is installed at the apex of the square. Therefore, the integrated piezoelectric element 11 is disposed across the vertices of the four sensor units 10, and the force applied to the four sensor units 10 can be detected.

図18は、第8変形例に係る通行領域の平面図である。図18の第8変形例では、センサユニット10を上面視した状態で、センサユニット10及び床形成部材14を正三角形状に形成し、相互に隣接するように並べて敷設している。そして、センサユニット10及び床形成部材14を形成する正三角形の頂点に圧電素子11が設置される。よって、一体の圧電素子11が6体のセンサユニット10の頂点に跨って配置され、かかる6体のセンサユニット10に加わる力を検出できるようになる。 FIG. 18 is a plan view of the passage area according to the eighth modification. In the eighth modification of FIG. 18, when the sensor unit 10 is viewed from above, the sensor unit 10 and the floor forming member 14 are formed into an equilateral triangular shape, and are laid side by side so as to be adjacent to each other. A piezoelectric element 11 is installed at the apex of an equilateral triangle forming the sensor unit 10 and the floor forming member 14. Therefore, the integrated piezoelectric element 11 is disposed across the vertices of the six sensor units 10, and the force applied to the six sensor units 10 can be detected.

図19は、第9変形例に係る通行領域の平面図である。図19の第9変形例では、センサユニット10を上面視した状態で、センサユニット10及び床形成部材14を正六角形状に形成し、相互に隣接するように並べて敷設している。そして、センサユニット10及び床形成部材14を形成する正六角形の頂点に圧電素子11が設置される。よって、一体の圧電素子11が3体のセンサユニット10の頂点に跨って配置され、かかる6体のセンサユニット10に加わる力を検出できるようになる。第7~第9変形例では、第1~第6変形例に比べて圧電素子11の設置数を少なくすることができる。 FIG. 19 is a plan view of a traffic area according to the ninth modification. In the ninth modification shown in FIG. 19, when the sensor unit 10 is viewed from above, the sensor unit 10 and the floor forming member 14 are formed into a regular hexagonal shape, and are laid side by side so as to be adjacent to each other. A piezoelectric element 11 is installed at the apex of a regular hexagon that forms the sensor unit 10 and the floor forming member 14. Therefore, the integrated piezoelectric element 11 is disposed across the vertices of the three sensor units 10, and the force applied to the six sensor units 10 can be detected. In the seventh to ninth modifications, the number of piezoelectric elements 11 installed can be reduced compared to the first to sixth modifications.

上記第1~第9変形例によれば、複数のセンサユニット10において圧電素子11の設置箇所に規則性をもたせてバランス良く配置することができ、各種検出の精度をより良く発揮することができる。 According to the first to ninth modifications described above, the piezoelectric elements 11 can be arranged in a well-balanced manner with regularity in the installation locations of the plurality of sensor units 10, and it is possible to better demonstrate the accuracy of various detections. .

また、上記実施の形態では、センサを圧電素子11とした場合を説明したが、感圧センサであれば特に限定されるものでなく、ピエゾ抵抗型、圧電型、静電容量型のセンサ、圧電素子以外の他の振動発電素子としてもよい。 Further, in the above embodiment, the case where the piezoelectric element 11 is used as the sensor has been described, but the sensor is not particularly limited as long as it is a pressure-sensitive sensor; It is also possible to use a vibration power generation element other than the element.

更に、動線検出部33での歩行者Wの動線の検出は、上記処理に限定されるものでなく、種々の変更が可能である。例えば、上記実施の形態における動線検出用学習済みモデルを用いることなく、センサユニット10の検出値と、位置検出部32の検出結果とに加え、それら検出時の時間情報に基づき歩行者Wの動線を検出するようにしてもよい。 Furthermore, the detection of the flow line of the pedestrian W by the flow line detection unit 33 is not limited to the above processing, and various changes are possible. For example, without using the learned model for flow line detection in the above embodiment, in addition to the detection value of the sensor unit 10 and the detection result of the position detection section 32, the detection of the pedestrian W is performed based on the time information at the time of detection. Flow lines may also be detected.

また、属性検出部34での歩行者Wの属性の検出においても、上記処理に限定されるものでなく、種々の変更が可能である。例えば、歩行者Wの属性の検出において、属性検出用学習済みモデルへ入力する情報は、センサユニット10の検出値、位置検出部32の検出結果及び動線検出部33の検出結果の少なくとも1つを選択できる。この場合、属性検出用学習済みモデルの学習のために取得する学習用の情報も、同様にして選択可能となる。 Further, the detection of the attribute of the pedestrian W by the attribute detection unit 34 is not limited to the above processing, and various changes are possible. For example, in detecting the attributes of a pedestrian W, the information input to the learned model for attribute detection is at least one of the detection value of the sensor unit 10, the detection result of the position detection section 32, and the detection result of the flow line detection section 33. can be selected. In this case, the learning information acquired for learning the learned model for attribute detection can also be selected in the same way.

本発明は、駅等の建築物の床面や屋外の舗装面等となる通行領域において、歩行者等の移動体の動線を検出する精度を向上できる点で有用である。 INDUSTRIAL APPLICABILITY The present invention is useful in that it can improve the accuracy of detecting the flow line of moving objects such as pedestrians in traffic areas such as the floors of buildings such as stations and outdoor paved surfaces.

1 移動体動線検出システム
10 センサユニット
11 圧電素子(センサ)
14 床形成部材
15 受容部(位置規制部)
32 位置検出部
33 動線検出部
34 属性検出部
A 通行領域
W 歩行者(移動体)
1 Moving object flow line detection system 10 Sensor unit 11 Piezoelectric element (sensor)
14 Floor forming member 15 Receiving part (position regulating part)
32 Position detection unit 33 Flow line detection unit 34 Attribute detection unit A Traffic area W Pedestrian (moving object)

Claims (7)

移動体の通行領域に並べて敷設された複数のセンサユニットを備えて該通行領域における該移動体の動線を検出する移動体動線検出システムであって、
前記センサユニットの各々は、床形成部材と、該床形成部材を支持し、且つ、前記移動体の移動によって前記床形成部材に加わる力に応じた検出値を出力するセンサとを備え、
前記複数のセンサユニットにおける学習用の前記移動体の位置及び該移動体の移動による前記力が伝搬するときに前記センサから出力された学習用の検出値を表す学習データから予め学習された位置検出用学習済みモデルと、前記センサから出力された検出値とに基づいて、前記複数のセンサユニットにおける前記移動体の位置を検出する位置検出部と、
前記位置検出部にて検出された前記移動体の位置に基づいて、前記複数のセンサユニットにおける移動体の動線を検出する動線検出部とを備え
前記動線検出部は、
前記複数のセンサユニットにおける学習用の前記移動体の位置及び該移動体が移動したときの動線と、該移動体の移動による前記力が伝搬するときに前記センサから出力された学習用の検出値とを表す学習データから予め学習された動線検出用学習済みモデルと、
前記センサから出力された検出値とにも基づいて、前記移動体の動線を検出することを特徴とする移動体動線検出システム。
A moving object flow line detection system that includes a plurality of sensor units installed in parallel in a moving area, and detects the moving line of the moving object in the moving area,
Each of the sensor units includes a floor forming member, and a sensor that supports the floor forming member and outputs a detected value according to a force applied to the floor forming member due to movement of the movable body,
Position detection learned in advance from learning data representing the position of the moving body for learning in the plurality of sensor units and the detection value for learning output from the sensor when the force due to the movement of the moving body is propagated. a position detection unit that detects the position of the mobile object in the plurality of sensor units based on the trained model and the detection value output from the sensor;
a flow line detection unit that detects a flow line of the mobile body in the plurality of sensor units based on the position of the mobile body detected by the position detection unit ,
The flow line detection unit is
the position of the moving object for learning in the plurality of sensor units, the line of movement when the moving object moves, and the learning detection output from the sensor when the force due to the movement of the moving object is propagated; a trained model for flow line detection that has been learned in advance from learning data representing the value;
A moving body flow line detection system , characterized in that the moving body flow line is detected based also on a detection value output from the sensor .
前記移動体の属性を検出する属性検出部を更に備え、
前記属性検出部は、
前記複数のセンサユニットにおける学習用の前記移動体の位置、該移動体が移動したときの動線及び該移動体の属性と、該移動体の移動による前記力が伝搬するときに前記センサから出力された学習用の検出値とを表す学習データから予め学習された属性検出用学習済みモデルと、
前記センサから出力された検出値と、
前記位置検出部にて検出された前記移動体の位置と、
前記動線検出部にて検出された前記移動体の動線とに基づいて、前記移動体の属性を検出することを特徴とする請求項に記載の移動体動線検出システム。
further comprising an attribute detection unit that detects an attribute of the moving object,
The attribute detection unit is
The position of the moving object for learning in the plurality of sensor units, the flow line when the moving object moves, the attribute of the moving object, and the output from the sensor when the force due to the movement of the moving object is propagated. a trained model for attribute detection learned in advance from learning data representing the detected value for learning;
a detection value output from the sensor;
the position of the moving body detected by the position detection unit;
The moving body flow line detection system according to claim 1 , wherein attributes of the moving body are detected based on the flow line of the moving body detected by the flow line detection unit.
移動体の通行領域に並べて敷設された複数のセンサユニットを備えて該通行領域における該移動体の動線を検出する移動体動線検出システムであって、
前記センサユニットの各々は、床形成部材と、該床形成部材を支持し、且つ、前記移動体の移動によって前記床形成部材に加わる力に応じた検出値を出力するセンサとを備え、
前記複数のセンサユニットにおける学習用の前記移動体の位置及び該移動体の移動による前記力が伝搬するときに前記センサから出力された学習用の検出値を表す学習データから予め学習された位置検出用学習済みモデルと、前記センサから出力された検出値とに基づいて、前記複数のセンサユニットにおける前記移動体の位置を検出する位置検出部と、
前記位置検出部にて検出された前記移動体の位置に基づいて、前記複数のセンサユニットにおける移動体の動線を検出する動線検出部とを備え
前記センサの検出値を前記力が発生した状態における全時間領域の出力波形としたことを特徴とする移動体動線検出システム。
A moving object flow line detection system that includes a plurality of sensor units installed in parallel in a moving area, and detects the moving line of the moving object in the moving area,
Each of the sensor units includes a floor forming member, and a sensor that supports the floor forming member and outputs a detected value according to a force applied to the floor forming member due to movement of the movable body,
Position detection learned in advance from learning data representing the position of the moving body for learning in the plurality of sensor units and the detection value for learning output from the sensor when the force due to the movement of the moving body is propagated. a position detection unit that detects the position of the mobile object in the plurality of sensor units based on the trained model and the detection value output from the sensor;
a flow line detection unit that detects a flow line of the mobile body in the plurality of sensor units based on the position of the mobile body detected by the position detection unit ,
A moving body flow line detection system characterized in that the detected value of the sensor is an output waveform of the entire time domain in a state in which the force is generated .
前記センサユニットを上面視した状態で、前記床形成部材が正方形状に形成され、且つ、前記センサの設置箇所が該正方形と相似形で同一中心位置に形成される仮想正方形の各頂点とされることを特徴とする請求項1ないし請求項のいずれかに記載の移動体動線検出システム。 When the sensor unit is viewed from above, the floor forming member is formed in a square shape, and the installation locations of the sensors are each vertex of a virtual square formed in a similar shape to the square and at the same central position. The moving object flow line detection system according to any one of claims 1 to 3 , characterized in that: 前記仮想正方形の一辺の長さは、前記床形成部材の一辺の長さの約半分に設定されることを特徴とする請求項に記載の移動体動線検出システム。 5. The mobile body flow line detection system according to claim 4 , wherein the length of one side of the virtual square is set to about half the length of one side of the floor forming member. 前記センサユニットを上面視した状態で、前記センサの設置箇所が前記床形成部材と同一中心位置に形成される仮想n角形(nは3以上の自然数)の各頂点とされることを特徴とする請求項1ないし請求項のいずれかに記載の移動体動線検出システム。 When the sensor unit is viewed from above, the sensor is installed at each vertex of a virtual n-gon (n is a natural number of 3 or more) formed at the same central position as the floor forming member. A mobile body flow line detection system according to any one of claims 1 to 3 . 前記センサユニットは、前記センサの水平方向の移動を規制する位置規制部を備えていることを特徴とする請求項1ないし請求項のいずれかに記載の移動体動線検出システム。 The moving object flow line detection system according to any one of claims 1 to 6 , wherein the sensor unit includes a position regulating section that regulates horizontal movement of the sensor.
JP2019154736A 2019-08-27 2019-08-27 Mobile body flow line detection system Active JP7371856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019154736A JP7371856B2 (en) 2019-08-27 2019-08-27 Mobile body flow line detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019154736A JP7371856B2 (en) 2019-08-27 2019-08-27 Mobile body flow line detection system

Publications (2)

Publication Number Publication Date
JP2021033763A JP2021033763A (en) 2021-03-01
JP7371856B2 true JP7371856B2 (en) 2023-10-31

Family

ID=74678298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019154736A Active JP7371856B2 (en) 2019-08-27 2019-08-27 Mobile body flow line detection system

Country Status (1)

Country Link
JP (1) JP7371856B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006164020A (en) 2004-12-09 2006-06-22 Jr Higashi Nippon Consultants Kk Pedestrian movement route tracing method and system
JP2019502212A (en) 2016-01-14 2019-01-24 株式会社Preferred Networks System, method and apparatus for time series data fitting and sensor fusion

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006164020A (en) 2004-12-09 2006-06-22 Jr Higashi Nippon Consultants Kk Pedestrian movement route tracing method and system
JP2019502212A (en) 2016-01-14 2019-01-24 株式会社Preferred Networks System, method and apparatus for time series data fitting and sensor fusion

Also Published As

Publication number Publication date
JP2021033763A (en) 2021-03-01

Similar Documents

Publication Publication Date Title
Yakoubi et al. The path planning of cleaner robot for coverage region using genetic algorithms
JP4975503B2 (en) Legged mobile robot
Hughes et al. Texture recognition and localization in amorphous robotic skin
KR101121763B1 (en) Apparatus and method for recognizing environment
US20170072565A1 (en) Control of Swarming Robots
KR101917101B1 (en) Vibrating apparatus, system and method for generating tactile stimulation
US20120069190A1 (en) Automatic vision sensor placement apparatus and method
Lampe et al. Performance measure for the evaluation of mobile robot autonomy
Chu et al. SAFEgress: a flexible platform to study the effect of human and social behaviors on egress performance
Coelho et al. Trends in the control of hexapod robots: a survey
Hughes et al. A soft, amorphous skin that can sense and localize textures
JP7371856B2 (en) Mobile body flow line detection system
CN108444617A (en) A kind of digital bionical hair sensing arrangement
Guo et al. Soft foot sensor design and terrain classification for dynamic legged locomotion
Shell et al. Insights toward robot-assisted evacuation
Fu et al. Snakes combine vertical and lateral bending to traverse uneven terrain
JP5930892B2 (en) Contact state estimation device and trajectory generation device
KR101502235B1 (en) Method for deriving ground reaction force predicting model and ground reaction force predicting apparatus using the same
Maruyama et al. Tripping risk evaluation system based on human behavior simulation in laser-scanned 3D as-is environments
CN115175126B (en) Intelligent park rapid fire-fighting emergency treatment method and system based on Internet of things
JP2007241960A (en) Mobile object counter
Sirakoulis Cellular automata for crowd dynamics
JP2019197037A (en) Optical type tactile sensor
Yao et al. Sensor coverage strategy in underwater wireless sensor networks
Le et al. Viart: Vision-based soft tactile sensing for autonomous robotic vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R150 Certificate of patent or registration of utility model

Ref document number: 7371856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150