JP7339485B2 - measurement system - Google Patents

measurement system Download PDF

Info

Publication number
JP7339485B2
JP7339485B2 JP2020553184A JP2020553184A JP7339485B2 JP 7339485 B2 JP7339485 B2 JP 7339485B2 JP 2020553184 A JP2020553184 A JP 2020553184A JP 2020553184 A JP2020553184 A JP 2020553184A JP 7339485 B2 JP7339485 B2 JP 7339485B2
Authority
JP
Japan
Prior art keywords
sensor
server
moving object
measurement system
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020553184A
Other languages
Japanese (ja)
Other versions
JPWO2020085142A1 (en
JPWO2020085142A5 (en
Inventor
弘純 山口
遊馬 山田
聡仁 廣森
輝夫 東野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Original Assignee
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC filed Critical Osaka University NUC
Publication of JPWO2020085142A1 publication Critical patent/JPWO2020085142A1/en
Publication of JPWO2020085142A5 publication Critical patent/JPWO2020085142A5/en
Application granted granted Critical
Publication of JP7339485B2 publication Critical patent/JP7339485B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders

Description

本発明は、動体の移動軌跡を計測する計測装置及び計測システムに関する。 TECHNICAL FIELD The present invention relates to a measuring device and a measuring system for measuring a movement trajectory of a moving body.

センサ技術の発展に伴い、人の行動データに基づく次世代システムが高い注目を集めている。特に屋内外の大規模イベント、遊園地やテーマパーク、オフィスや商業施設等、屋内外空間を歩き回る人々の位置情報は、群衆の移動履歴情報に基づくマーケティング調査、スマートホームやスマートビルディングといったエネルギー管理システム、テーマパークや商業施設や博物館・美術館等におけるパーソナルナビゲーション等、多くのサービスへの応用が期待されている。スマートフォンをはじめとするモバイル端末の測位技術としては、GPS(Global PositioningSystem)が広く利用されているが、地下や屋内では衛星からの電波を受信することができず、またスマートフォンを携行していない人々の位置や移動軌跡を得ることができない。屋内向けには、カメラ、RFID(Radio FrequencyIDentification)タグ、またモバイル端末に搭載された加速度センサやジャイセンサを用いる方法等が提案されているが、いずれの方法もプライバシ、計測領域サイズ、精度等の点で課題がある。 Along with the development of sensor technology, next-generation systems based on human behavior data are attracting a lot of attention. In particular, the location information of people walking around indoor and outdoor spaces such as large-scale indoor and outdoor events, amusement parks and theme parks, offices and commercial facilities can be used for marketing research based on crowd movement history information, and for energy management systems such as smart homes and smart buildings. It is expected to be applied to many services such as personal navigation in theme parks, commercial facilities, museums and art galleries. GPS (Global Positioning System) is widely used as a positioning technology for mobile terminals such as smartphones, but it is impossible to receive radio waves from satellites underground or indoors, and people who do not carry smartphones. It is not possible to obtain the position or movement trajectory of For indoor use, methods using cameras, RFID (Radio Frequency IDentification) tags, and acceleration sensors and gyration sensors installed in mobile terminals have been proposed. There is a problem with points.

これらに対し、レーザ測距スキャナ(LIDAR:Light Detection and Ranging)による歩行者の計測が注目を集めている。LIDARは、周囲の物体までの距離を正確に計測することができるため、広範囲(例えば市販されているLIDARの検知範囲は30m程度、走査範囲は270度である。)を高速にスキャンすることが可能である。LIDARの計測データはLIDARから見た方位角と距離とで表される計測対象の位置情報のみであるため、計測対象となる歩行者のプライバシを侵害するおそれが少なく、記録されることへの抵抗感も小さい。 Pedestrian measurement using a laser ranging scanner (LIDAR: Light Detection and Ranging) is attracting attention. Since LIDAR can accurately measure the distance to surrounding objects, it is possible to scan a wide range at high speed (for example, the detection range of commercially available LIDAR is about 30 m and the scanning range is 270 degrees). It is possible. Since the LIDAR measurement data is only the position information of the measurement target represented by the azimuth angle and distance seen from the LIDAR, there is little risk of infringing on the privacy of the pedestrian who is the measurement target, and there is little resistance to being recorded. The feeling is also small.

非特許文献1には、腰の高さ辺りを検知する複数のLIDARによって環境内の歩行者トラッキングを行うシステムが記載されている。このシステムでは、まず、各LIDARから得られた全ての点群データがサーバに送信される。以降、サーバは、歩行者の体中心点の算出を行い、次いで、各LIDARから得られた体中心点に対してグループ化を行って、単一の(同一)歩行者か否かを判断し、単一の歩行者については、それらの体中心点の重心を算出して同一歩行者の位置を得る。最後に、同一歩行者の体中心点を時系列でつなげることで、歩行者の移動軌跡を推定する(トラッキングする)ようにしている。 Non-Patent Document 1 describes a system for pedestrian tracking in an environment using multiple LIDARs that detect around waist height. In this system, all point cloud data obtained from each LIDAR is first sent to the server. Thereafter, the server calculates the body center point of the pedestrian, and then groups the body center points obtained from each LIDAR to determine whether it is a single (identical) pedestrian. , for a single pedestrian, compute the centroids of their body center points to obtain the location of the same pedestrian. Finally, by connecting the body center points of the same pedestrian in time series, the movement trajectory of the pedestrian is estimated (tracked).

高藤巧,藤田和久,樋口雄大,廣森聡仁,山口弘純,東野輝夫,下條真司,トラッキングスキャナとモーションセンサを用いた高精度屋内位置推定手法の提案,情報処理学会論文誌 Vol.57 No.1 353-365(Jan.2016)Takumi Takafuji, Kazuhisa Fujita, Yuta Higuchi, Satohito Hiromori, Hirozumi Yamaguchi, Teruo Higashino, Shinji Shimojo, Proposal of High Accuracy Indoor Position Estimation Method Using Tracking Scanner and Motion Sensor, Transactions of Information Processing Society of Japan Vol.57 No. .1 353-365 (Jan. 2016)

非特許文献1に記載の計測装置では、各LIDARでの周期的な計測の毎に全ての計測データを受信し、サーバで、全てのLIDARで各歩行者の体中心点を算出し、それらから同一歩行者を捜してその体中心点を抽出し、さらにかかる算出処理及び抽出処理を繰り返し行うことで、時系列の体中心点を統合するトラッキング処理を実行する必要があり、サーバにおけるデータ処理負担が大きいといった問題がある。 In the measuring device described in Non-Patent Document 1, all measurement data is received for each periodic measurement with each LIDAR, and the server calculates the body center point of each pedestrian with all LIDAR, and from them It is necessary to search for the same pedestrian, extract its body center point, and repeat the calculation process and extraction process to perform tracking processing that integrates the body center point in time series, which increases the data processing burden on the server. is large.

本発明は、上記に鑑みてなされたもので、センサ毎に歩行者等の動体の検出及びトラッキングを行う計測装置を、さらにトラッキングのセンサ間の統合を行うサーバを備えた計測システムを提供するものである。 The present invention has been made in view of the above, and provides a measurement system equipped with a measurement device that detects and tracks a moving object such as a pedestrian for each sensor, and a server that integrates the tracking sensors. is.

本発明に係る計測装置は、走査範囲内を繰り返し走査しながら周期的にレーザビームを送信すると共に、探知領域内の動体の各部で反射したレーザビームを受信するセンサと、受信した前記レーザビームから前記動体の各部に対応した動体点群の位置を算出し、算出した前記動体点群から楕円の胴体を抽出し、抽出した前記楕円の胴体の重心位置を順次算出する第1の算出手段と、算出した前記胴体の重心位置のうち、2つの胴体の重心位置の間の距離が閾値以下かどうかを判定し、閾値以下とされた胴体に対して共通IDを付す第2の算出手段と、前記共通IDが付された前記胴体の重心位置を時系列につなぎ合わせて移動軌跡を生成する移動軌跡生成手段とを備えたものである。 A measuring device according to the present invention comprises a sensor that periodically transmits a laser beam while repeatedly scanning a scanning range, and receives a laser beam reflected by each part of a moving object within a detection area; a first calculation means for calculating the position of a moving object point group corresponding to each part of the moving object, extracting an elliptical body from the calculated moving object point group, and sequentially calculating the position of the center of gravity of the extracted elliptical body; second calculating means for determining whether a distance between two of the calculated center-of-gravity positions of the torsos is equal to or less than a threshold, and assigning a common ID to the torsos determined to be equal to or less than the threshold; and movement trajectory generating means for generating a movement trajectory by connecting the positions of the center of gravity of the trunk to which the common ID is assigned in time series.

本発明によれば、走査範囲内を繰り返し走査しながら周期的にセンサからレーザビームが送信され、レーザビームは探知領域内に存在する動体の各部で反射して受信される。そして、第1の算出手段によって、受信した前記レーザビームから前記動体の各部に対応した動体点群の位置が算出され、算出された前記動体点群から楕円の胴体が抽出され、さらに抽出された前記楕円の胴体の重心位置が順次算出される。さらに、第2の算出手段によって、前記胴体の重心位置のうち、2つの胴体の重心位置の間の距離が閾値以下かどうかが判定され、閾値以下と判定される胴体に対して共通IDが付与される。そして、移動軌跡生成手段によって、前記共通IDが付与された前記胴体の重心位置が時系列につなぎ合わされる。従って、計測装置は、自己のセンサから取得された位置情報から移動軌跡情報を算出するようにし、これによってサーバ側のデータ処理負担の低減に供することが可能となる。また、2つの胴体の重心位置の間の距離が閾値以下と判定された場合に、同一の動体とすることで、一時的に静止する(立ち止まる)ような状態でも同一動体として適正に検知される。 According to the present invention, a laser beam is periodically transmitted from the sensor while repeatedly scanning the scanning range, and the laser beam is received by being reflected by each part of a moving object existing within the detection area. Then, the position of the moving object point group corresponding to each part of the moving object is calculated from the received laser beam by the first calculating means, the elliptical body is extracted from the calculated moving object point group, and further extracted. The position of the center of gravity of the elliptical body is sequentially calculated. Further, the second calculating means determines whether or not the distance between the center-of-gravity positions of the two torsos is equal to or less than a threshold, and assigns a common ID to the torso determined to be equal to or less than the threshold. be done. Then, the position of the center of gravity of the trunk to which the common ID is assigned is connected in time series by the movement trajectory generating means. Therefore, the measuring device calculates movement track information from the position information acquired from its own sensor, thereby reducing the data processing load on the server side. Also, when the distance between the center of gravity positions of the two torsos is determined to be less than the threshold, it is determined that they are the same moving object, so that even if it temporarily stands still (stops), it is properly detected as the same moving object. .

また、本発明に係る計測システムは、検知範囲が一部重なるように配置された前記計測装置と、前記各計測装置で生成された前記各移動軌跡の情報を取得するサーバとを備え、前記サーバは、前記計測装置間における移動軌跡のペアを抽出し、各ペアに対して移動軌跡のマッチング処理を行う移動軌跡統合手段を備えたものである。 Further, the measurement system according to the present invention includes the measurement devices arranged so that the detection ranges partially overlap, and a server for acquiring information on each of the movement trajectories generated by each of the measurement devices, wherein the server is provided with movement trajectory integration means for extracting pairs of movement trajectories between the measuring devices and performing matching processing of the movement trajectories for each pair.

本発明によれば、サーバの移動軌跡統合手段によって、前記計測装置間における移動軌跡のペアを抽出し、各ペアに対して移動軌跡のマッチング処理を行うだけとしたので、サーバでのデータ処理負担が低減する。 According to the present invention, the movement trajectory integration means of the server extracts pairs of movement trajectories between the measuring devices, and only performs matching processing of the movement trajectories for each pair. is reduced.

本発明によれば、サーバでのデータ処理負担の低減に供するセンサ側の計測装置の提供、及びかかる計測装置が複数接続されたサーバから構成される計測システムを提供できる。 According to the present invention, it is possible to provide a measuring device on the sensor side that serves to reduce the data processing load on the server, and to provide a measuring system composed of a server to which a plurality of such measuring devices are connected.

センサによるレーザスキャン動作を説明する図で、(A)は平面図、(B)は正面図、(C)は探知領域とセンサの配置例を示す平面図である。It is a figure explaining the laser scanning operation|movement by a sensor, (A) is a top view, (B) is a front view, (C) is a top view which shows the example of arrangement|positioning of a detection area and a sensor. センサによる人検知の方法を説明する図で、(A)はレーザスキャンによる人体表面の検知を説明する平面図、(B)は人の判定方法を説明する平面視の図である。It is a figure explaining the method of the person detection by a sensor, (A) is a top view explaining the detection of the human body surface by a laser scan, (B) is a figure of the planar view explaining the person determination method. 本発明に係る計測システムの一実施形態を示す全体概要図である。1 is an overall schematic diagram showing one embodiment of a measurement system according to the present invention; FIG. センサを含む計測装置の一実施形態を示す機能構成図である。1 is a functional configuration diagram showing an embodiment of a measuring device including a sensor; FIG. サーバの一実施形態を示す機能構成図である。It is a functional block diagram which shows one Embodiment of a server. センサのキャリブレーション用のキャリブレータの一例を示す図で、(A)は構造図、(B)はキャリブレータの位置と向きを算出する説明のための平面視の図である。It is a figure which shows an example of the calibrator for calibration of a sensor, (A) is a structure drawing, (B) is a figure of planar view for description which calculates the position and direction of a calibrator. 2個のセンサが配置される場合の共通のキャリブレータを用いたキャリブレーション処理の手順を説明する図で、(A)は1個目のセンサとキャリブレータとの位置関係を示す図、(B)は2個目のセンサとキャリブレータとの位置関係を示す図、(C)は(A)と(B)の結果を合成して、2個のセンサの位置をキャリブレートする方法を説明する図である。FIG. 4 is a diagram for explaining the procedure of calibration processing using a common calibrator when two sensors are arranged, (A) is a diagram showing the positional relationship between the first sensor and the calibrator; FIG. 11C is a diagram showing the positional relationship between the second sensor and the calibrator, and (C) is a diagram explaining a method of synthesizing the results of (A) and (B) to calibrate the positions of the two sensors. 計測装置のプロセッサによって実行されるセンサ処理の手順の一例を示すフローチャートである。4 is a flow chart showing an example of a procedure of sensor processing executed by a processor of the measuring device; サーバのプロセッサによって実行されるマージ処理の手順の一例を示すフローチャートで、(A)はマージ処理Iの手順を示し、(B)はマージ処理IIの手順を示す。3 is a flowchart showing an example of a procedure of merge processing executed by a processor of a server, (A) showing the procedure of merge processing I, and (B) showing the procedure of merge processing II. 計測装置のプロセッサによって実行されるキャリブレーション処理の手順の一例を示すフローチャートである。4 is a flow chart showing an example of a procedure of calibration processing executed by a processor of the measuring device; サーバのプロセッサによって実行される各センサの絶対位置情報を算出する処理の手順の一例を示すフローチャートである。4 is a flowchart showing an example of a procedure of processing for calculating absolute position information of each sensor, which is executed by a processor of a server; 検知領域内での人の移動に伴う出入りを検知する方法を説明する平面視の図である。FIG. 10 is a plan view illustrating a method of detecting entry and exit associated with movement of a person within a detection area; サーバのプロセッサによって実行される人数カウント処理の手順の一例を示すフローチャートである。4 is a flow chart showing an example of the procedure of people counting processing executed by the processor of the server; 人の属性を含めて検知可能にするセンサの配置の一実施形態を示す図である。FIG. 10 illustrates an embodiment of an arrangement of sensors that enables detection including attributes of a person; 携行されるモバイル端末が行うデータ送信処理を示すフローチャートで、(A)はモバイル端末での組み合わせアプリケーションのインストール処理を示す、サーバへのデータ送信処理Iのフローチャート、(B)は組み合わせ後のモバイル端末からの受信データの活用処理の一例を示す、サーバへのデータ送信処理Iのフローチャートである。Flowchart showing data transmission processing performed by a mobile terminal to be carried, (A) showing installation processing of a combination application in a mobile terminal, a flowchart of data transmission processing I to a server, and (B) a mobile terminal after combination 10 is a flowchart of data transmission processing I to the server, showing an example of utilization processing of data received from. サーバが実行する、携行のモバイル端末の動きと移動軌跡との組み合わせ処理の一例を示すフローチャートである。FIG. 10 is a flowchart showing an example of a process of combining a movement of a portable mobile terminal and a movement trajectory, which is executed by a server; FIG. モバイル端末の表示部に表示される画面例の図である。It is a figure of the example of a screen displayed on the display part of a mobile terminal. 交通機関に対する乗客の昇降数をカウントする適用例を示す図である。FIG. 10 is a diagram showing an application example of counting the number of passengers ascending and descending for transportation.

図1は、センサによるレーザスキャン動作を説明する図で、(A)は平面図、(B)は正面図、(C)は探知領域とセンサの配置例を示す平面図である。本発明に係る計測システム1は、図3に示すように、センサ11を備えた計測装置10と、各計測装置10からの送信データを用いて各種のデータ処理を実行するサーバ20とを少なくとも備えている。 FIGS. 1A and 1B are diagrams for explaining the laser scanning operation by the sensor, in which (A) is a plan view, (B) is a front view, and (C) is a plan view showing an example of arrangement of detection areas and sensors. As shown in FIG. 3, the measuring system 1 according to the present invention includes at least a measuring device 10 having a sensor 11 and a server 20 for executing various data processing using data transmitted from each measuring device 10. ing.

本発明で採用されるセンサ11として、本実施形態では、レーザ測距スキャナ(LIDAR:Light Detection and Ranging)を採用している。センサ11は、円柱形状で、所定の、例えば120cm程度の高さを有する。センサ11は、上部側の側面適所からパルス状のレーザビームb1,…bj,b(j+1) …を水平方向に送信する。センサ11は、周方向にスキャンしながら周期的にレーザビームbの送信を行う送信部111(図4参照)と、障害物からのレーザ反射パルスを受信する受信部112(図4参照)とを備えて構成されている。センサ11としては一般的な性能を有するものを採用しており、例えば、探知距離が30m、走査範囲が270度、分解能が0.25度、スキャン速度が25msで、測距誤差は±5cmと小さい。なお、センサ11には、図略の二次電池等の電源が装着、好ましくは内蔵され、適宜の位置への配置を容易にしている。センサ11の高さを120cm程度とすることで、レーザビームbを水平方向に放射した場合、一般的な人の腰辺りを検知することができ、胴体の形状を介して人の識別を可能にしている。なお、センサ11のレーザビームbの照射方向は水平面に限らず、用途、探知対象に応じて傾斜を有して放射する3次元態様を採用することができる。 As the sensor 11 employed in the present invention, this embodiment employs a laser ranging scanner (LIDAR: Light Detection and Ranging). The sensor 11 is cylindrical and has a predetermined height, for example, about 120 cm. The sensor 11 horizontally transmits pulsed laser beams b1, . . . bj, b(j+1) . The sensor 11 includes a transmitter 111 (see FIG. 4) that periodically transmits a laser beam b while scanning in the circumferential direction, and a receiver 112 (see FIG. 4) that receives laser reflected pulses from obstacles. configured with. As the sensor 11, one having general performance is adopted. For example, the detection distance is 30 m, the scanning range is 270 degrees, the resolution is 0.25 degrees, the scanning speed is 25 ms, and the range measurement error is ±5 cm. small. A power source such as a secondary battery (not shown) is mounted, preferably built-in, on the sensor 11 to facilitate placement at an appropriate position. By setting the height of the sensor 11 to about 120 cm, when the laser beam b is radiated in the horizontal direction, it is possible to detect the waist area of a general person, making it possible to identify the person through the shape of the torso. ing. Note that the irradiation direction of the laser beam b from the sensor 11 is not limited to the horizontal plane, and a three-dimensional mode in which the laser beam b is emitted with an inclination can be adopted according to the application and the object to be detected.

図1(C)に示すように、センサ11は、探知領域である、例えば会場50に複数台設置される。会場50は、円形、四角形の場合の他、種々の形状、例えば凸凹のある領域の場合も想定され、周囲は壁51で囲われているとする。会場50の一部には出入り口52を有する。センサ11は、会場のサイズや形状、また対象となる人数、密度等を考慮して所要数が適宜の位置に配置される。複数のセンサ11は、好ましくは複数台が同一領域を一部重ねて計測できるような位置、向きで配置される。 As shown in FIG. 1C, a plurality of sensors 11 are installed in, for example, a venue 50, which is a detection area. The venue 50 may be circular, rectangular, or of various other shapes, such as an uneven area, and is surrounded by a wall 51 . A part of the venue 50 has a doorway 52 . A required number of sensors 11 are arranged at appropriate positions in consideration of the size and shape of the hall, the number of people to be targeted, the density, and the like. The plurality of sensors 11 are preferably arranged at such positions and orientations that a plurality of sensors can partially overlap and measure the same area.

図2は、センサ11による人検知の方法を説明する図で、(A)はレーザスキャンによる人体表面の検知を説明する平面図、(B)は人の判定方法を説明する平面視の図である。図2(A)において、センサ11からのレーザビームbがある検出方向に送信され、その方向に存在する最も近い物体(歩行者6)の表面の反射点(これを検出点pと言う)への距離を、送信時から受信時までの電波伝搬時間に基づいて正確に検知する。演出された検出点pの集合を以下、点群データという。 2A and 2B are diagrams for explaining the method of human detection by the sensor 11. FIG. 2A is a plan view for explaining the detection of the surface of the human body by laser scanning, and FIG. 2B is a plan view for explaining the method for human determination. be. In FIG. 2(A), the laser beam b from the sensor 11 is transmitted in a certain detection direction to the reflection point (this is called the detection point p) on the surface of the nearest object (pedestrian 6) existing in that direction. is accurately detected based on the radio wave propagation time from the time of transmission to the time of reception. A set of produced detection points p is hereinafter referred to as point cloud data.

従って、各センサ11は、自身の座標を原点、基準(正面)方向をx軸とする座標系において、ある時刻における自身からの直線上に存在する最も近い物体の表面までの距離dと角度θとを3次元ベクトルの集合として出力する。すなわち、i番目のセンサ11での時刻tにおける単位方向ベクトルvにおける検出距離をdとしたとき、検出点情報(i, t, v, d)を計測装置10に出力する。図2(A)は、2次元空間でのかかる関係を図示したものである。なお、図2(B)は、歩行者を検出する場合の条件を説明するためのもので、詳細な説明は後述する。 Therefore, each sensor 11 measures the distance d and the angle θ and as a set of three-dimensional vectors. That is, when the detection distance in the unit direction vector v at the time t of the i-th sensor 11 is d, the detection point information (i, t, v, d) is output to the measuring device 10 . FIG. 2A illustrates such a relationship in two-dimensional space. Note that FIG. 2B is for explaining the conditions for detecting a pedestrian, and detailed explanation will be given later.

図3は、本発明に係る計測システムの一実施形態を示す全体概要図である。計測システム1は、複数の計測装置10、サーバ20、及び必要に応じて採用されるモバイル端末30を備えている。計測装置10は、レーザビームbをスキャンして点群データを取得するセンサ11とセンサ11で検知した点群データに対して一定のデータ処理を施す制御部120とを備えている。サーバ20は、データ処理を行う処理部21、処理に必要なデータ類、各計測装置10からの送信データ及び処理途中のデータを一時的に記憶するデータベース22を備えている。サーバ20には、モバイル端末30と無線LAN通信(例えばWi-Fi等)を行うためのアクセスポイント201、サイネージ用の表示器202、インターネット40が接続されている。地上局41は、インターネット40とモバイル端末30との間で、SNS(Social Net System)を含む電子メールデータを送受信するものである。 FIG. 3 is an overall schematic diagram showing one embodiment of the measurement system according to the present invention. The measurement system 1 includes a plurality of measurement devices 10, a server 20, and a mobile terminal 30 employed as necessary. The measuring device 10 includes a sensor 11 that acquires point cloud data by scanning a laser beam b, and a controller 120 that performs certain data processing on the point cloud data detected by the sensor 11 . The server 20 includes a processing unit 21 that performs data processing, and a database 22 that temporarily stores data necessary for processing, transmission data from each measuring device 10, and data in process. The server 20 is connected to an access point 201 for performing wireless LAN communication (for example, Wi-Fi) with the mobile terminal 30, a signage display 202, and the Internet 40. FIG. The ground station 41 transmits and receives e-mail data including SNS (Social Net System) between the Internet 40 and the mobile terminal 30 .

なお、モバイル端末30は、典型的にはスマートフォンで、本体31の内部にはデータを処理するプロセッサが設けられ、表面には表示部311が備えられている。また、本体31は、一般的には、GPS(Global PositioningSystem)受信機、ジャイロセンサ、加速度センサ等の動きセンサ32を内蔵し、さらに、温度センサ、湿度センサ、気圧センサ、その他の環境センサを備えている。動きセンサ32のうちジャイロセンサ及び加速度センサは、モバイル端末30を所持している歩行者の移動、例えば歩行に応じた動きや方向変化、ジャンプなどを相対的に検知可能とするものである。通信部33は、図15(A)において説明する「ひとなび」アプリケーションがインストールされたことを条件に、アクセスポイント201、また地上局41との間のデータ通信をそれぞれ行う。入力部34は、機械的あるいはボタン画像からなる文字キー群を含み、種々の指示の他、入力操作を通して、電子メール用等の文章メッセージの作成を行う。 The mobile terminal 30 is typically a smart phone, and has a processor for processing data inside the main body 31 and a display unit 311 on the surface. In addition, the body 31 generally incorporates a motion sensor 32 such as a GPS (Global Positioning System) receiver, a gyro sensor, an acceleration sensor, etc., and further includes a temperature sensor, a humidity sensor, an atmospheric pressure sensor, and other environmental sensors. ing. Among the motion sensors 32, the gyro sensor and the acceleration sensor are capable of relatively detecting movement of the pedestrian carrying the mobile terminal 30, such as movement, direction change, and jumping according to walking. The communication unit 33 performs data communication with the access point 201 and the ground station 41 on condition that the "HitoNavi" application described in FIG. 15A is installed. The input unit 34 includes a group of mechanical keys or character keys composed of button images, and in addition to various instructions, composes a text message for e-mail or the like through input operations.

図4は、センサ11を含む計測装置10の一実施形態を示す機能構成図である。計測装置10は、センサ11及び計測部12を備えている。計測部12は、センサ11の支柱本体に内装される形態であってもよい。計測部12は、プロセッサを備える制御部120を備え、制御部120には、センサ11、プログラム記憶部1201及びデータ記憶部1202が接続されている。プログラム記憶部1201は、制御部120が実行する処理プログラムを記憶するものである。データ記憶部1202は、センサ11で受信した計測データを一時的に記憶し、また処理途中のデータを一時的に記憶するものである。 FIG. 4 is a functional configuration diagram showing an embodiment of the measuring device 10 including the sensor 11. As shown in FIG. The measuring device 10 has a sensor 11 and a measuring section 12 . The measurement unit 12 may be installed inside the support body of the sensor 11 . The measurement unit 12 includes a control unit 120 having a processor, and the sensor 11, program storage unit 1201 and data storage unit 1202 are connected to the control unit 120. FIG. The program storage unit 1201 stores processing programs executed by the control unit 120 . The data storage unit 1202 temporarily stores measurement data received by the sensor 11, and temporarily stores data during processing.

制御部120は、処理プログラムを実行することで、センサ駆動部121、計測データ取得部122、キャリブレーション部123、背景処理部124、人検出部125、移動軌跡生成部126及び通信処理部127として機能する。 By executing the processing program, the control unit 120 functions as a sensor drive unit 121, a measurement data acquisition unit 122, a calibration unit 123, a background processing unit 124, a human detection unit 125, a movement trajectory generation unit 126, and a communication processing unit 127. Function.

センサ駆動部121は、センサ11への起動指示を受けて、センサ11の送信部111、受信部112を駆動させ、図1(A)及び図2(A)に示すような、レーザビームbをスキャンさせつつ周期的に送信し、反射してきたレーザビームの受信を行う。 The sensor driving unit 121 receives an activation instruction to the sensor 11, drives the transmitting unit 111 and the receiving unit 112 of the sensor 11, and emits a laser beam b as shown in FIGS. It periodically transmits while scanning, and receives the reflected laser beam.

計測データ取得部122は、図1(A)に示すようにレーザビームbを周方向に走査しながら繰り返し送信することによって障害物までの距離を探知するもので、背景点群の取得等の事前処理、人検出~移動軌跡生成処理、及びキャリブレーション処理において、検知方向、距離に関する計測データの取得を行う。 As shown in FIG. 1A, the measurement data acquisition unit 122 detects the distance to an obstacle by repeatedly transmitting the laser beam b while scanning it in the circumferential direction. Measured data relating to detection direction and distance is acquired in processing, human detection to moving trajectory generation processing, and calibration processing.

キャリブレーション部123は、初期処理として実行するもので、探知領域内に設置される複数のセンサ11の正確な絶対位置情報を取得する処理の内の前段処理、すなわち各センサ11でのキャリブレータ8(図6参照)の相対座標、向きの情報取得処理を実行する。 The calibration unit 123 is executed as an initial process, and is a pre-process in the process of acquiring accurate absolute position information of the plurality of sensors 11 installed in the detection area, that is, the calibrator 8 ( 6) is executed.

背景処理部124は、事前処理として実行するもので、図1(C)に示す会場50の壁51の検出を行うものである。同一検知方向に対して、所定の長時間、検知距離が同一である場合には、当該検出点pは、移動しない静止体、例えば壁51と見なして、それらの点群データを背景点群として事前に登録する。なお、静止体には、会場50内に設置された設置物や柱を含めることができる。 The background processing unit 124 is executed as a preliminary process, and detects the wall 51 of the hall 50 shown in FIG. 1(C). When the detection distance is the same for a predetermined long time in the same detection direction, the detection point p is regarded as a stationary body that does not move, for example, the wall 51, and the point cloud data thereof is used as the background point cloud. Register in advance. Note that the stationary body can include installation objects and pillars installed in the venue 50 .

人検出部125は、点群データから歩行者の胴体の特定、及びその位置を検出する。人検出部125は、以下のように、(I)背景点群の差分による動体点群の導出、(II)動体点群から人の胴体の検出、(III)前後フレームからの同一人物の推定を行う。なお、点群データは、センサ11で検出した受信信号をその都度用いてもよいが、ノイズ抑制、処理速度等を考慮して、複数回(複数のスキャン回数分)の受信信号を平均化したものとしてもよい。例えば、同一方向からの連続して8回のスキャン分の受信信号を平均したもの、すなわち200ms(=Δt:25ms×8)周期の点群データで処理してもよい。 The human detection unit 125 identifies the body of the pedestrian and detects its position from the point cloud data. The human detection unit 125 performs (I) derivation of a moving object point group based on the difference of the background point clouds, (II) detection of a human body from the moving object point group, and (III) estimation of the same person from the preceding and succeeding frames. I do. The point cloud data may use the received signal detected by the sensor 11 each time, but in consideration of noise suppression, processing speed, etc., the received signal of multiple times (for multiple scans) is averaged. It can be a thing. For example, it may be processed with point cloud data obtained by averaging received signals for eight consecutive scans from the same direction, that is, with a period of 200 ms (=Δt: 25 ms×8).

(I)背景点群の差分による動体点群の導出
各時刻tと十分短い時間Δt(例えば200ms)に対し、[t-Δt, t]に検出された動体点群について、それらの鉛直方向座標(Z座標)を削除したXY座標を得る。これに対し、背景処理部124で取得し、登録されている背景点とみなした点群からZ座標を削除したものと比較し、XY座標が一致すると見なされる点群を削除する。この削除処理を経て残ったものを動体点群と呼ぶ。
(I) Derivation of moving object point clouds by subtraction of background point clouds For each time t and a sufficiently short time Δt (for example, 200 ms), for the moving object point clouds detected at [t-Δt, t], their vertical coordinates XY coordinates are obtained by removing (Z coordinates). On the other hand, the point group acquired by the background processing unit 124 and regarded as the registered background points is compared with the point group from which the Z coordinate is deleted, and the point group whose XY coordinates are regarded as matching is deleted. A point group remaining after this deletion process is called a moving object point group.

(II)動体点群から人の胴体の検出
人検出部125は、まず、動体点群からの楕円形抽出を行う。すなわち、歩行者を円柱と想定した場合に、図2(A)に示すように、検知方向が実質連続し、かつ検知距離が所定範囲に収まる動体点群を、同一歩行者の体表計測点(胴体)の候補としてグループ化する。
(II) Detection of Human Body from Moving Object Point Group The human detection unit 125 first extracts an ellipse from the moving object point group. That is, assuming that the pedestrian is a cylinder, as shown in FIG. Group as candidates for (torso).

次いで、人検出部125は、楕円形のサイズによるフィルタリングを行う。すなわち、動体点群の中から、図2(B)に示すような、(a)グループ内の最大距離がある定数α以下、(b)グループ外検出点との最小距離がある定数β以上、(c)グループ内の検出点数がある定数γ以上、を満たす点のグループを抽出する。なお、図2(B)は、説明のための簡略化した図であり、グループ61とグループ62とが互いに隣接した別のグループとして例示されている。上記条件を満たさない場合、検出対象から外すなどして、いわゆるフィルタリング処理を行う。また、グループ内の動体点群データから楕円形状を算出し、そのサイズ、例えば楕円直径(長短軸のいずれ側でもよい)を算出する。人検出部125は、算出した楕円直径が予め設定された人体の最大直径をR(一般にはR=60cm程度)を超えている場合には、人とは判定せず、検出対象から外すなどして、いわゆるフィルタリング処理を行う。 Next, the human detection unit 125 performs filtering according to the size of the ellipse. That is, from the moving object point cloud, as shown in FIG. 2(B), (a) a constant α or less with the maximum distance within the group, (b) a constant β or more with the minimum distance from the detection point outside the group, (c) Extract a group of points satisfying a certain constant γ or more in the number of detected points in the group. Note that FIG. 2B is a simplified diagram for explanation, and illustrates the group 61 and the group 62 as separate groups adjacent to each other. If the above conditions are not met, so-called filtering processing is performed, such as excluding it from detection targets. Also, an elliptical shape is calculated from the moving object point cloud data in the group, and its size, for example, the elliptical diameter (either side of the long or short axis) is calculated. When the calculated ellipse diameter exceeds a preset maximum human body diameter R (generally R=60 cm), the human detection unit 125 does not determine that the human body is a human and excludes it from the detection target. Then, a so-called filtering process is performed.

なお、フィルタリングにおいては以下の内容が条件に反映される。すなわち、人体の最大直径をR(一般にはR=60cm程度)、人の一般的な歩行速度をVとするとき、α=R+V*Δtとなる。また、人はそれぞれパーソナルスペース(おおよそ30cm程度)を有しており、また歩き易さのため周辺の人とは一定距離を保ちながら歩行する。その距離をS(Sは経験的に50cm程度)とすれば、β=Sである(図2(B)参照)。また、人の検出点数は、センサ11と人との距離に依存する(センサ11は放射状に検出を行うため、人との距離が近い程、検出点が多くなる)。一般に、検出ステップ角度θのセンサ11から距離dに存在する人を、直径Rの円柱とみなせば、その人の検出点数は、|2* arc cos (d+R) / θ|で得られる。なお、センサ11の位置座標誤差や測距誤差から生じる検出距離の最大誤差をεとすれば、α=R+V*Δt+2ε,β=S―2εとすればよい。 In filtering, the following contents are reflected in the conditions. That is, when the maximum diameter of the human body is R (generally about R=60 cm) and the general walking speed of a person is V, α=R+V*Δt. In addition, each person has a personal space (approximately 30 cm), and walks while maintaining a certain distance from surrounding people for ease of walking. If the distance is S (S is empirically about 50 cm), β=S (see FIG. 2B). Also, the number of detection points for a person depends on the distance between the sensor 11 and the person (since the sensor 11 performs radial detection, the closer the distance to the person is, the more detection points are). In general, if a person present at a distance d from the sensor 11 with a detection step angle θ is regarded as a cylinder with a diameter R, the number of detection points for that person can be obtained by |2*arc cos (d+R)/θ|. Assuming that the maximum error in the detected distance caused by the positional coordinate error of the sensor 11 and the distance measurement error is ε, α=R+V*Δt+2ε and β=S−2ε.

次いで、人検出部125は、フィルタリングで検出対象とされた楕円形を人の胴体とする処理を行う。すなわち、グループ毎における人の胴体の重心座標を時刻[t-Δt, t]毎に算出して人座標点を得る。人座標点は、楕円の重心(体中心点)を算出する方法でよく、例えば、センサ11からの検知距離dが最小となる検知方向と、左右両端となる検知方向とから幾何学的に算出する方法が採用可能である。 Next, the human detection unit 125 performs a process of using the elliptical shape detected by the filtering as a human body. That is, the coordinates of the center of gravity of the body of the person in each group are calculated at each time [t-Δt, t] to obtain the person coordinate point. The human coordinate point may be calculated by a method of calculating the center of gravity of the ellipse (body center point). For example, it is geometrically calculated from the detection direction in which the detection distance d from the sensor 11 is the minimum and the detection direction at both left and right ends. method can be adopted.

(III)前後フレームから同一人物を推定
人検出部125は、時刻毎に検出した人座標点に対し、検出時刻t,t+Δt、およびt‐Δtにおいて、一般的な人間の移動速度V(m/s)を用いて、V*Δt以下の距離に2つの人座標点が存在するかどうかを判定する。そして、人検出部125は、前記判定が肯定された場合、それらは単一の人物が歩行により移動したものとみなし、それらの人座標点に同一の人物IDを割り当てる。また、人検出部125は、前記時系列における複数の周期(フレーム)分の人座標点の情報を保管しておくようにすれば、仮に、その間に、他の人がセンサ11を遮るように通過したなどの理由によって計測が一時的に途切れたとしても、保管している前記情報を用いることで途切れた人座標点を一般的な補間方式を用いて生成ことが可能となる。
(III) Estimating the Same Person from Previous and Next Frames s) is used to determine if there are two person coordinate points at a distance less than or equal to V*Δt. Then, when the determination is affirmative, the person detection unit 125 regards them as a single person moving by walking, and assigns the same person ID to those person coordinate points. In addition, if the human detection unit 125 stores information on human coordinate points for a plurality of periods (frames) in the time series, it is possible to prevent another person from blocking the sensor 11 during that time. Even if the measurement is temporarily interrupted for some reason such as passing, the interrupted human coordinate points can be generated using a general interpolation method by using the stored information.

移動軌跡生成部126は、人検出部125で取得された人座標点を人物ID毎に時系列につなぎ合わせることで人物ID毎の移動軌跡を導出する。なお、制御部120で算出された座標位置に関する各種のデータは、センサ11を基準とした相対座標で表されたものである。 The movement trajectory generation unit 126 derives a movement trajectory for each person ID by connecting the person coordinate points acquired by the person detection unit 125 in chronological order for each person ID. Various data regarding the coordinate positions calculated by the control unit 120 are represented by relative coordinates with the sensor 11 as a reference.

通信処理部127は、サーバ20との間でデータ授受を行うもので、本実施形態では、キャリブレーション部123、移動軌跡生成部126で得られた情報がサーバに送信される。 The communication processing unit 127 exchanges data with the server 20, and in this embodiment, information obtained by the calibration unit 123 and the moving trajectory generation unit 126 is transmitted to the server.

図5は、サーバ20の一実施形態を示す機能構成図である。サーバ20は、プロセッサを備える処理部21を備え、処理部21には、データベース22、プログラム記憶部23及び表示器202が接続されている。データベース22は、計測装置10で取得された各種のデータを記憶し、また処理途中のデータを一時的に記憶するものである。プログラム記憶部23は、処理部21が実行する処理プログラムを記憶するものである。 FIG. 5 is a functional configuration diagram showing an embodiment of the server 20. As shown in FIG. The server 20 includes a processing unit 21 having a processor, and the processing unit 21 is connected with a database 22, a program storage unit 23, and a display device 202. FIG. The database 22 stores various data acquired by the measuring device 10 and temporarily stores data during processing. The program storage unit 23 stores processing programs executed by the processing unit 21 .

処理部21は、処理プログラムを実行することで、移動軌跡統合部211、キャリブレーション部212、組み合わせ処理部213、サイネージ画像作成部214、モバイル端末画像作成部215、通信処理部216及び移動監視部217として機能する。 By executing the processing program, the processing unit 21 performs a movement trajectory integration unit 211, a calibration unit 212, a combination processing unit 213, a signage image creation unit 214, a mobile terminal image creation unit 215, a communication processing unit 216, and a movement monitoring unit. 217.

移動軌跡統合部211は、各計測装置10から送信された移動軌跡データを単一人物毎に統合(マージ)する処理を行う。各計測装置10からの移動軌跡データは、同一人物間においても多少ずれている可能性があり、そのような場合には一人の移動軌跡が別の人物の移動軌跡として認識され、あるいは逆に別の人物の移動軌跡が同一人の移動軌跡として認識される可能性がある。そこで、移動軌跡統合部211は、各計測装置10間の移動軌跡が同一人物のものかどうかを判定し、その結果に基づいて統合処理を行うようにしている。 The movement trajectory integration unit 211 performs a process of merging the movement trajectory data transmitted from each measuring device 10 for each single person. The movement trajectory data from each measuring device 10 may be slightly deviated even for the same person. There is a possibility that the movement trajectory of each person will be recognized as the movement trajectory of the same person. Therefore, the movement trajectory integration unit 211 determines whether or not the movement trajectory between the measuring devices 10 belongs to the same person, and performs integration processing based on the result.

ここに、統合(マージ)処理は、(i)各計測装置10で検出した人物の移動軌跡データを取得し、(ii)人物の移動軌跡データを絶対座標に変換し、(iii)各軌跡ペアについて、マッチング度を算出し、(iv)閾値以上であれば、同一人物の移動軌跡と判断する手順で行われる。 Here, the integration (merging) process includes (i) obtaining movement trajectory data of a person detected by each measuring device 10, (ii) transforming the movement trajectory data of a person into absolute coordinates, and (iii) each trajectory pair. , the degree of matching is calculated, and (iv) if it is equal to or greater than the threshold value, it is determined that the trajectory is that of the same person.

すなわち、より詳細には、移動軌跡統合部211は、(i)の処理後、(ii)のように、各計測装置10で得られた移動軌跡データを取得し、センサ11のXY座標を考慮して絶対座標系(XY平面)に変換する。次いで、各計測装置10の位置情報、時刻情報を絶対座標、共通の時間基準に変換して座標系を共通化する。さらに、移動軌跡統合部211は、(iii)のように、各軌跡ペアについて、マッチング度の算出を行う。すなわち、移動軌跡統合部211は、絶対座標系において、比較対象の移動軌跡のペアを順次選定し、ペア毎に、ある時刻範囲内で、同一時刻毎のペア間の位置情報の差分(距離)を集計し、その集計結果に関するマッチング度を求め、(iv)において、マッチング度と閾値とを比較し、マッチング度が閾値以上であれば、2つの移動軌跡は同一人物から得られたものと判断して、統合する。統合は、例えば一方の移動軌跡情報を削除することで行われる。一方、マッチング度が閾値未満であれば、2つの移動軌跡は別の人物のものと判断する。 More specifically, after the process (i), the movement trajectory integration unit 211 acquires the movement trajectory data obtained by each measuring device 10 and considers the XY coordinates of the sensor 11 as in (ii). to convert to the absolute coordinate system (XY plane). Next, the position information and time information of each measuring device 10 are converted into absolute coordinates and a common time reference to standardize the coordinate system. Further, the moving trajectory integration unit 211 calculates the degree of matching for each trajectory pair as in (iii). That is, the movement trajectory integration unit 211 sequentially selects pairs of movement trajectories to be compared in the absolute coordinate system, and for each pair, within a certain time range, calculates the difference (distance) of the position information between the pairs at the same time. are counted, and the degree of matching for the counted result is obtained. In (iv), the degree of matching is compared with a threshold. and integrate. The integration is performed, for example, by deleting one of the trajectory information. On the other hand, if the degree of matching is less than the threshold, it is determined that the two trajectories belong to different persons.

キャリブレーション部212は、2つのセンサ11間の正確な相対位置を合わせるための処理である。探知領域には、探知範囲が互いに一部重なるようにセンサ11が複数配置されることが好ましい。その場合に、各センサ11で検出された移動軌跡が同一人物のものか異なる人物のものかを判断するに際して、各センサ11の探知領域内での位置、及び必要な場合に向きが共通する同一座標系で設定されていることが必要である。 The calibration unit 212 is a process for matching accurate relative positions between the two sensors 11 . A plurality of sensors 11 are preferably arranged in the detection area so that the detection ranges partially overlap each other. In this case, when determining whether the movement trajectory detected by each sensor 11 is that of the same person or that of a different person, the position within the detection area of each sensor 11 and, if necessary, the same direction that is common to the direction. Must be set in a coordinate system.

キャリブレーション部212は、各計測装置10でのキャリブレーション部123により取得されるキャリブレータ8の位置情報に基づいて行う。 The calibration unit 212 performs calibration based on the position information of the calibrator 8 acquired by the calibration unit 123 in each measuring device 10 .

従来、各センサ11が検出した背景点を直接人手あるいは機械的にマッチングすることで相対位置関係を把握していたが、人手による方法では誤差が拡大し、また機械マッチングによる方法では、センサ11の位置関係によっては共通の物体(例えば壁や柱)を必ずしも捉えられないという問題がある。そこで、本実施形態では、図6に示すように、特定のサイズ及び位置関係を有する2本のポール81,82を備えたキャリブレータ8を用いて位置を正確に特定する方法を採用している。 Conventionally, the relative positional relationship was grasped by directly matching the background points detected by each sensor 11 manually or mechanically. There is a problem that a common object (for example, a wall or a pillar) cannot always be captured depending on the positional relationship. Therefore, in this embodiment, as shown in FIG. 6, a method of accurately specifying the position using a calibrator 8 having two poles 81 and 82 having a specific size and positional relationship is adopted.

図6は、キャリブレータ8の一例を示す図で、(A)は構造図、(B)はキャリブレータの位置と向きを算出する説明のための平面視の図である。キャリブレータ8は、平板状の基台80の上面に長尺で円柱状の2本のポール81,82が所定の位置関係で立設されており、一体として任意の位置に移動し、設置が可能である。ポール81,82は、レーザを反射するものである。ポール81とポール82とは、2種類の反射体として機能するもので、識別可能なように互いの形状、ここでは半径が大小相違している。なお、キャリブレータ8は、円柱状に限定されず、種々の形状が採用可能であり、また2個に分かれている必要もなく、互いに識別可能な形状部位を有すれば足りる。 6A and 6B are diagrams showing an example of the calibrator 8, where (A) is a structural diagram, and (B) is a plan view for explaining calculation of the position and orientation of the calibrator. The calibrator 8 has two long columnar poles 81 and 82 erected in a predetermined positional relationship on the upper surface of a flat plate-shaped base 80, and can be moved integrally to any position and installed. is. The poles 81 and 82 reflect the laser. The poles 81 and 82 function as two types of reflectors, and differ in shape, here radius, from each other so as to be identifiable. It should be noted that the calibrator 8 is not limited to a cylindrical shape, and various shapes can be adopted, and it is not necessary to be divided into two, and it is sufficient if it has shape parts that can be distinguished from each other.

先ず、計測装置10のキャリブレーション部123(図4参照)による前段処理が実行される。すなわち、事前準備としての背景点群の取得後に、会場50の適所にセンサ11を設置した状態で、動体検出と同様の方法で計測を行い、背景点群を除いて、例えば図2(B)のような動体点群を得る。 First, pre-processing is performed by the calibration unit 123 (see FIG. 4) of the measurement device 10 . That is, after obtaining the background point group as a preliminary preparation, with the sensor 11 installed at an appropriate place in the venue 50, measurement is performed in the same manner as the moving object detection, and the background point group is removed, for example, FIG. We obtain a moving object point cloud such as

次いで、動体点群から、前記した胴体の検出手法と同様の処理を利用してキャリブレータ8の位置情報の検出を行う。先ず、ポール81,82の直径情報を利用して、動体点群からD1円形(181)の点群と、D2円形(182)の点群とを検出する。さらに、D1円形に相当すると想定される点群集合と、D2円形に相当すると想定される点群集合の各組について、それらの中心間距離Lがキャリブレータ8のポール81-82の中心間距離に近い場合、それらをD1円形、D2円形とみなす。さらに、D1,D2円形の位置情報を用いて、D1,D2円形の中間の位置Pcとセンサ11との間の距離と、センサ11からD2円形の中心を結んだ方向の角度(ベクトル)Diとを算出する。そして、キャリブレーション部123は、算出した距離と角度(ベクトル)Diとをサーバ20に送信する。 Next, the positional information of the calibrator 8 is detected from the moving object point group using the same processing as the body detection method described above. First, using the diameter information of the poles 81 and 82, the point group of the D1 circle (181) and the point group of the D2 circle (182) are detected from the moving object point group. Furthermore, for each set of point cloud set assumed to correspond to the D1 circle and point cloud set assumed to correspond to the D2 circle, their center-to-center distance L is equal to the center-to-center distance of the poles 81-82 of the calibrator 8. If so, consider them D1-circle, D2-circle. Furthermore, using the position information of the D1 and D2 circles, the distance between the middle position Pc of the D1 and D2 circles and the sensor 11, and the angle (vector) Di of the direction connecting the center of the D2 circle from the sensor 11 Calculate The calibration unit 123 then transmits the calculated distance and angle (vector) Di to the server 20 .

ここで、図7を用いて、会場50での2台のセンサ11によるキャリブレーション処理を説明する。図7は、2個のセンサ11,11’が配置される場合の共通のキャリブレータ8を用いたキャリブレーション処理の手順を説明する図で、(A)は1個目のセンサ11とキャリブレータ8との位置関係を示す図、(B)は2個目のセンサ11’とキャリブレータ8との位置関係を示す図である。 Here, the calibration processing by the two sensors 11 at the venue 50 will be described with reference to FIG. FIG. 7 is a diagram for explaining the procedure of calibration processing using a common calibrator 8 when two sensors 11 and 11' are arranged. (B) is a diagram showing the positional relationship between the second sensor 11' and the calibrator 8. FIG.

図7(C)は、サーバ20のキャリブレーション部212によって実行される処理で、(A)と(B)の結果を合成して、2個のセンサ11,11’の位置をキャリブレートする。 FIG. 7C shows processing executed by the calibration unit 212 of the server 20, in which the results of (A) and (B) are combined to calibrate the positions of the two sensors 11 and 11'.

キャリブレーション部212は、センサ11の相対位置の算出及び絶対位置の算出を行う。まず、キャリブレーション部212は、ある時刻に各センサ11で検出されたキャリブレータ8の位置情報を取得し、次いで、キャリブレータ8の位置を起点にして、キャリブレータ8との距離、角度情報を用い、複数のセンサ11の相対位置を特定する(図7(C)参照)。 The calibration unit 212 calculates the relative position and absolute position of the sensor 11 . First, the calibration unit 212 acquires the position information of the calibrator 8 detected by each sensor 11 at a certain time, and then, starting from the position of the calibrator 8, using the distance and angle information from the calibrator 8, a plurality of specifies the relative position of the sensor 11 (see FIG. 7(C)).

次に、校正作業者によって、図略の入力操作部を介して、いずれか1つのセンサ11の絶対座標の位置情報が入力設定される。なお、絶対座標系は、世界座標であってもよいし、探知領域全体を共通してカバーするローカル座標であってもよい。キャリブレーション部212は、絶対座標が設定されたセンサ11の絶対位置情報と、その他のセンサ11’の相対位置関係とから、残りの、すなわちセンサ11’の絶対位置情報の算出を行う。 Next, the calibration operator inputs and sets the positional information of the absolute coordinates of any one of the sensors 11 through an input operation unit (not shown). The absolute coordinate system may be world coordinates or local coordinates that commonly cover the entire detection area. The calibration unit 212 calculates the remaining absolute position information of the sensor 11' based on the absolute position information of the sensor 11 whose absolute coordinates are set and the relative positional relationship of the other sensors 11'.

図8は、計測装置10のプロセッサによって実行されるセンサ処理の手順の一例を示すフローチャートである。図8では、先ず事前処理として、静止体からの背景点群の取得処理が実行される(ステップS1)。次いで、計測装置10が起動されて、レーザビームbを周方向に走査させながら周期的な計測処理の動作が開始される(ステップS3)。計測処理においても、歩行者と共に静止体も検出されている。そこで、計測処理において得られた点群データから背景点群を除く処理が行われて、動体点群が検出される(ステップS5)。 FIG. 8 is a flow chart showing an example of the procedure of sensor processing executed by the processor of the measuring device 10. As shown in FIG. In FIG. 8, first, as a preliminary process, a background point group acquisition process from a stationary object is executed (step S1). Next, the measuring device 10 is activated, and periodic measurement processing is started while scanning the laser beam b in the circumferential direction (step S3). Also in the measurement process, stationary objects are detected together with pedestrians. Therefore, the background point group is removed from the point group data obtained in the measurement process, and the moving object point group is detected (step S5).

次いで、動体点群からグループ化処理を実行して、グループ毎の楕円形の抽出が行われ(ステップS7)、さらに、人の楕円サイズかどうかのフィルタリング処理が実行される(ステップS9)。なお、人の楕円サイズでないと判断された場合、当該グループは検出対象外とされる。続いて、人の胴体の検出処理、すなわち人の胴体の重心座標を時刻 [t-Δt, t] 毎に算出して人座標点を検出する処理が実行される(ステップS11)。さらに、前回(t-Δt)のフレーム、今回tのフレームで検出された人座標点の位置関係から前後フレーム間での同一人物の推定を行って、人物IDの割り当てが行われる(ステップS13)。同一人物である場合、移動軌跡の導出、すなわち各フレーム間の人座標点を時系列につなぎ合わせる処理が行われ(ステップS15)、導出結果は人物IDと共にサーバ20に送信される(ステップS17)。次いで、計測が継続かどうか判断され(ステップS19)、継続であれば、ステップS3に戻って同様な処理が繰り返され、そうでなければ、本フローを終了する。 Next, grouping processing is performed from the moving object point cloud to extract an ellipse for each group (step S7), and filtering processing is performed to determine whether or not the ellipse is the size of a human (step S9). Note that if it is determined that the size of the ellipse is not the size of a human ellipse, the group is excluded from detection targets. Subsequently, a human torso detection process, that is, a process of calculating the barycentric coordinates of the human torso at each time [t-Δt, t] and detecting the human coordinate points is executed (step S11). Further, the same person is estimated between the previous and subsequent frames from the positional relationship of the human coordinate points detected in the previous (t−Δt) frame and the current frame t, and a person ID is assigned (step S13). . If it is the same person, a movement trajectory is derived, that is, processing is performed to connect the human coordinate points between frames in time series (step S15), and the derivation result is transmitted to the server 20 together with the person ID (step S17). . Next, it is determined whether or not the measurement should be continued (step S19). If the measurement is continued, the process returns to step S3 and the same processing is repeated. If not, the flow ends.

図9は、サーバのプロセッサによって実行されるマージ処理の手順の一例を示すフローチャートで、(A)はマージ処理Iの手順を示し、(B)はマージ処理IIの手順を示す。マージ処理Iは、計測装置10や、後述するようにモバイル端末30からの送信データの受信を行う処理である。まず、各計測装置10からの送信データの受信が行われ(ステップ#1)、次いで、モバイル端末30からの送信データの受信が行われる(ステップ#3)。 FIG. 9 is a flowchart showing an example of the procedure of merge processing executed by the processor of the server, (A) showing the procedure of merge processing I, and (B) showing the procedure of merge processing II. The merge process I is a process of receiving transmission data from the measuring device 10 and the mobile terminal 30 as will be described later. First, transmission data is received from each measuring device 10 (step #1), and then transmission data is received from the mobile terminal 30 (step #3).

次に、マージ処理IIでは、まず、ある時刻範囲内において各センサ11で検出された各人物の移動軌跡データが抽出され(ステップ#11)、抽出された各人物の移動軌跡データが絶対座標に変換される(ステップ#13)。 Next, in the merge process II, first, movement trajectory data of each person detected by each sensor 11 within a certain time range is extracted (step #11), and the extracted movement trajectory data of each person is converted to absolute coordinates. It is converted (step #13).

次いで、各移動軌跡のペアの組み合わせから各ペアが順次抽出されて、抽出されたペア間での検知時刻毎の位置の差分に基づいたマッチング度の算出が行われる(ステップ#15)。そして、抽出されたペアについて、算出されたマッチング度が閾値以上か否かが判断され(ステップ#17)、閾値以上であれば、当該ペアの移動軌跡は同一人物の移動軌跡であったと見なして統合される(ステップ#19)。一方、マッチングしなかった場合には、ステップ#19をスルーして、別の人物の移動軌跡として扱われる。次いで、次のペアの有無が判断され(ステップ#21)、次のペアが残っていれば、ステップ#15に戻って、残っている内からペアが抽出されて、同様なマッチング処理が実行される。ステップ#21で最後のペアが終了したら、本フローを終了する。 Next, each pair is sequentially extracted from the combination of pairs of movement trajectories, and the degree of matching is calculated based on the difference in position for each detection time between the extracted pairs (step #15). Then, it is determined whether or not the calculated degree of matching for the extracted pair is equal to or greater than a threshold value (step #17). are integrated (step #19). On the other hand, if there is no matching, step #19 is skipped and the trajectory is treated as another person's movement trajectory. Next, the presence or absence of the next pair is determined (step #21), and if the next pair remains, the process returns to step #15, the pair is extracted from the remaining pairs, and similar matching processing is executed. be. When the last pair ends in step #21, this flow ends.

図10は、計測装置10のプロセッサによって実行されるキャリブレーション処理の手順の一例を示すフローチャートである。まず、事前処理として背景点群の取得処理が実行される(ステップS31)。次いで、キャリブレータ8を探知領域、例えば会場50の適所に配置し(図7(A)参照)、その状態で、計測装置10が起動されて、レーザビームbを周方向に走査させながら周期的な計測処理が開始される(ステップS33)。計測処理においても、キャリブレータ8と共に静止体も検出されている。そこで、計測処理において得られた点群データから背景点群を除く処理が行われてキャリブレータ8のポール81,82に対する動体点群が抽出される(ステップS35)。 FIG. 10 is a flow chart showing an example of a procedure of calibration processing executed by the processor of the measuring device 10. As shown in FIG. First, background point group acquisition processing is executed as preprocessing (step S31). Next, the calibrator 8 is placed in a detection area, for example, at an appropriate location in the venue 50 (see FIG. 7A), and in that state, the measuring device 10 is activated to periodically scan the laser beam b in the circumferential direction. Measurement processing is started (step S33). A stationary object is also detected together with the calibrator 8 in the measurement process. Therefore, the background point group is removed from the point group data obtained in the measurement process, and the moving object point group for the poles 81 and 82 of the calibrator 8 is extracted (step S35).

次いで、動体点群からキャリブレータ8のポール81,82に対応するD1,D2円形の中心の位置情報の算出が行われる(ステップS37)。例えば、ポール81,82に対する位置情報の算出は、図6(B)に示すようにして行われる。このようにして、D1,D2円形の位置情報を用いて、D1,D2円形の中心間距離Lと、ポール81,82の中心間距離との差が算出され、その差が閾値以下であれば、算出した位置情報はキャリブレータ8のポール181,182に対応するものとみなすようにしている(ステップS39)。 Next, positional information of the centers of D1 and D2 circles corresponding to the poles 81 and 82 of the calibrator 8 is calculated from the moving object point group (step S37). For example, calculation of the position information for the poles 81 and 82 is performed as shown in FIG. 6(B). In this way, using the position information of the D1 and D2 circles, the difference between the center distance L of the D1 and D2 circles and the center distance between the poles 81 and 82 is calculated. , the calculated position information is regarded as corresponding to the poles 181 and 182 of the calibrator 8 (step S39).

次いで、D1,D2円形の中間の位置Pcとセンサ11との間の距離と、センサ11からD2円形の中心を結んだ方向の角度(ベクトル)Diとが算出され(ステップS41)、算出結果はサーバ20に送信される(ステップS43)。 Next, the distance between the intermediate position Pc of the D1 and D2 circles and the sensor 11 and the angle (vector) Di in the direction connecting the center of the D2 circle from the sensor 11 are calculated (step S41). It is transmitted to the server 20 (step S43).

図11は、サーバ20のプロセッサによって実行される各センサ11の絶対位置情報を算出する処理の手順の一例を示すフローチャートである。まず、各計測装置10から算出結果(ステップS41)が受信される(ステップ#31)。 FIG. 11 is a flow chart showing an example of a procedure of processing for calculating the absolute position information of each sensor 11, which is executed by the processor of the server 20. As shown in FIG. First, a calculation result (step S41) is received from each measuring device 10 (step #31).

次いで、ある時刻において各計測装置10で検出された前記算出結果を読み出し、これらの算出結果から2つの(または複数の)キャリブレータ8,…が位置、角度において正確に重ね合わされた状態での各センサ11の相対位置関係の算出が行われる(ステップ#33)。次いで、ある1つのセンサ11の、絶対座標系での絶対位置情報がマニュアルでサーバ20(または、当該センサ11を備えた計測装置10を経由しての入力設定でもよい。)に設定される(ステップ#35)。 Next, read out the calculation results detected by each measuring device 10 at a certain time, and from these calculation results, two (or a plurality of) calibrators 8, . 11 relative positional relationship is calculated (step #33). Next, the absolute position information of one sensor 11 in the absolute coordinate system is manually set in the server 20 (or input setting via the measuring device 10 including the sensor 11 may be set) ( step #35).

次いで、キャリブレーション部212は、絶対位置情報が設定されたセンサ11の絶対位置情報とその他のセンサ11の相対位置関係から、残りのセンサ11の絶対位置情報の算出(換算処理)を行う(ステップ#37)。算出された各センサ11の絶対位置情報はデータベース22に格納され、必要に応じて各計測装置10に送信される(ステップ#39)。この結果、各センサ11の位置が共通の座標情報で定義されるため、処理が容易となる。なお、各センサ11の絶対位置情報には、向き情報を含めてもよい。 Next, the calibration unit 212 calculates (converts) the absolute position information of the remaining sensors 11 from the relative positional relationship between the absolute position information of the sensors 11 for which the absolute position information has been set and the other sensors 11 (step #37). The calculated absolute position information of each sensor 11 is stored in the database 22 and transmitted to each measuring device 10 as necessary (step #39). As a result, the position of each sensor 11 is defined by common coordinate information, which facilitates processing. Note that the absolute position information of each sensor 11 may include direction information.

図12は、検知領域である会場50内での人の移動に伴って、ある領域の通過、例えば出入りを検知する方法を説明する平面視の図である。図12において、会場50には、図の左上と右下とにセンサ11が設置され、図の上の壁51の中央付近に出入り口52が設けられている。図12では、人の移動軌跡として、Tr1,Tr2が検出されている状態を例示している。移動監視部217は、統合後の人の移動軌跡について、ある領域の通過、例えば出入り口を横切ったかどうかを検知し、さらに人数の管理を行う。 FIG. 12 is a plan view illustrating a method of detecting passage through a certain area, for example, entering/exiting, as people move within the venue 50, which is the detection area. In FIG. 12, a venue 50 has sensors 11 installed at the upper left and lower right of the figure, and a doorway 52 provided near the center of a wall 51 on the upper part of the figure. FIG. 12 illustrates a state in which Tr1 and Tr2 are detected as human movement trajectories. The movement monitoring unit 217 detects whether or not the integrated movement trajectory of a person passes through a certain area, for example, crosses a doorway, and further manages the number of persons.

軌跡Tr1は、会場50の中央付近で左から右(t4,t3,t2,t1)への移動様態を示している。軌跡Tr2は、会場50内から出入り口52の領域を通過する様子(t4,t3,t2)を検知している。時刻t1の時点では探知領域外に移動しているため、時刻t2後は検知できていない。この例では、軌跡Tr2の歩行者は、(t4,t3,t2)で検知でき、かつ時刻t2と時刻t1との間で出入り口52を通過した(横切った)状態にあるので、退場であることが判り、人数的にマイナス1とすればよい。一方、軌跡Tr2を逆向きに時間が経過したものと仮定すると、外から出入り口52を通過して(横切って)入場したことが検知でき、人数的にプラス1とすればよい。なお、初期の会場人数が既知であれば、かかる人数カウントによって会場内人数をモニタすることが可能となる。センサ11は、出入り口52を簡易的に直線状に形成した出入り領域(通過領域)として検知することで、会場50内の特定の領域を交差する(横切った)ように移動する歩行者をモニタリングできる。 A trajectory Tr1 indicates a mode of movement from left to right (t4, t3, t2, t1) near the center of the hall 50. FIG. Trajectory Tr2 detects the state (t4, t3, t2) of passing through the area of doorway 52 from hall 50 . Since it has moved outside the detection area at time t1, it cannot be detected after time t2. In this example, the pedestrian on the trajectory Tr2 can be detected at (t4, t3, t2) and has passed through (crossed) the entrance 52 between time t2 and time t1, so it is assumed that the pedestrian is exiting. can be found, and the number of people should be minus 1. On the other hand, if it is assumed that time passes in the reverse direction of the trajectory Tr2, it can be detected that the person has entered through (crossed) the doorway 52 from the outside, and the number of people can be increased by one. If the initial number of people in the hall is known, it is possible to monitor the number of people in the hall by counting the number of people. The sensor 11 detects the entrance/exit 52 as an entrance/exit area (passage area) that is simply formed in a straight line, thereby monitoring pedestrians moving to intersect (traverse) a specific area in the venue 50. .

図13は、サーバ20のプロセッサによって実行される人数カウント処理の手順の一例を示すフローチャートである。まず、初期人数iが入力される(ステップ#51)。初期人数が0人の場合には特に入力は不要である。次いで、計測が行われ、移動軌跡が生成されて監視処理が行われる(ステップ#53)。監視処理において、移動軌跡が出入り口52を横切ったかどうかが判断さる(ステップ#55)。出入り口52を「中から外へ」横切った場合(ステップ#57でYes)、人数がi=i-1として減算され(ステップ#59)、逆に、出入り口52を「中から外へ」横切ったのでない場合(すなわち「外から中に」横切った場合)、人数がi=i+1として加算され(ステップ#61)、次いで、ステップ#53に戻って同様な処理が繰り返される。 FIG. 13 is a flow chart showing an example of the procedure of the people counting process executed by the processor of the server 20. As shown in FIG. First, the initial number i is input (step #51). If the initial number of people is 0, no particular input is required. Next, measurement is performed, a movement trajectory is generated, and monitoring processing is performed (step #53). In the monitoring process, it is determined whether or not the movement locus has crossed the entrance/exit 52 (step #55). If the doorway 52 is traversed "inside to outside" (Yes at step #57), the number of people is subtracted as i=i-1 (step #59) and vice versa. If not (i.e., crossing from "outside to inside"), the number of people is added as i=i+1 (step #61), and then the process returns to step #53 to repeat the same process.

図14は、人の属性を含めて検知可能にするセンサ11の配置の一実施形態を示す図である。この例では、会場50の床面に設置され、探知面を水平方向とする1台乃至は複数台のセンサ11の他、例えば壁51の、より高い位置に別のセンサ11’が取り付けられている。センサ11’は、探知面が下方に傾斜し、3次元での検知を可能にしている。なお、センサ11’は、より長尺の支柱を有する形状とし、探知面を下方に傾斜させる態様としてもよい。この構成によれば、センサ11によって胴体の検知を介して人の識別及び移動軌跡の検知を可能にする一方、センサ11’によって、移動する人の頭部(最高高さ位置)を検知することで、身長という属性を検知することが可能となり、例えば大人と子供の識別に供することができる。また、センサ11’を用いることで、歩行に従って身体の上下方向の様々な箇所が検知できるため、人体に関する種々の属性(特徴情報)が取得可能となり、適宜の用途に適用できる。 FIG. 14 is a diagram showing an embodiment of the arrangement of sensors 11 that enable detection including human attributes. In this example, in addition to one or a plurality of sensors 11 installed on the floor of the hall 50 and having the detection surface in the horizontal direction, another sensor 11' is installed at a higher position on the wall 51, for example. there is The sensor 11' has a downwardly slanted detection surface to enable three-dimensional detection. It should be noted that the sensor 11' may have a shape having a longer pillar, and the detection surface may be tilted downward. According to this configuration, the sensor 11 enables the identification of the person and the detection of the movement trajectory through the detection of the torso, while the sensor 11' detects the head (highest height position) of the moving person. , it becomes possible to detect an attribute of height, which can be used, for example, to distinguish between an adult and a child. In addition, by using the sensor 11', it is possible to detect various parts of the body in the vertical direction as the person walks, so that various attributes (feature information) relating to the human body can be acquired, and the sensor 11' can be applied to appropriate applications.

以上のように、計測システム1を適用することで、探知領域において、人々の正確な2次元位置を取得することができる。一方、それらの人々がモバイル端末30を携行していると仮定して、組み合わせ処理部213は、モバイル端末30に内蔵の動きセンサ32を利用して、それらの人の動きを取得し、人の移動軌跡とモバイル端末30とを組み合わせる(紐付けのためのIDを設定する)ようにした。さらに、組み合わせ結果を可視化することで、利用範囲が広がると共に新たな付加価値を得ることも可能となる。 As described above, by applying the measurement system 1, it is possible to acquire the accurate two-dimensional positions of people in the detection area. On the other hand, assuming that these people carry the mobile terminal 30, the combination processing unit 213 uses the motion sensor 32 built into the mobile terminal 30 to acquire the movements of those people, The trajectory of movement and the mobile terminal 30 are combined (an ID for linking is set). Furthermore, by visualizing the combination results, it becomes possible to expand the scope of use and obtain new added value.

図15は、携行されるモバイル端末30が行うデータ送信処理を示すフローチャートで、(A)はモバイル端末30での組み合わせアプリケーションのインストール処理を示す、サーバへのデータ送信処理Iのフローチャート、(B)は組み合わせ後のモバイル端末30からの受信データの活用処理の一例を示す、サーバへのデータ送信処理IIのフローチャートである。 FIG. 15 is a flowchart showing data transmission processing performed by the mobile terminal 30 to be carried, (A) is a flowchart of data transmission processing I to the server showing installation processing of the combination application in the mobile terminal 30, and (B). 4 is a flowchart of data transmission processing II to the server, showing an example of processing for utilizing data received from the mobile terminal 30 after combination.

図15(A)において、まず、会場50への入場に先立って、例えば出入り口52近くに設置された2次元バーコードであるQRコード(登録商標)をモバイル端末30のデジタルカメラで撮像し、モバイル端末内の処理部によってQRコード(登録商標)が解析され、地上局41、インターネット40を経て、該当のURL(Uniform ResourceLocator)のサイトにアクセスして、「ひとなび」アプリケーションをインストールするようになっている(ステップST1)。または、インターネット上の特定のサイトから事前に、あるいは出入り口52に配置されたアクセスポイント201と交信して、「ひとなび」アプリケーションをインストールするようにしてもよい。「ひとなび」アプリケーションがインストールされる際に、自己のモバイル端末30のアドレスがサーバ20に登録され、以後、サーバ20側からのアクセスが可能とされる。 In FIG. 15A, first, prior to entering the venue 50, for example, a QR code (registered trademark), which is a two-dimensional bar code installed near the doorway 52, is imaged by the digital camera of the mobile terminal 30, The processing unit in the terminal analyzes the QR code (registered trademark), accesses the corresponding URL (Uniform Resource Locator) site via the ground station 41 and the Internet 40, and installs the "Hitonavi" application. (step ST1). Alternatively, the "Hitonavi" application may be installed in advance from a specific site on the Internet or by communicating with the access point 201 placed at the doorway 52. FIG. When the "HitoNavi" application is installed, the address of the user's own mobile terminal 30 is registered in the server 20, and access from the server 20 side is enabled thereafter.

「ひとなび」アプリケーションとは、モバイル端末30に内蔵された動きセンサ32の検出情報を継続的に読み取って、Wi-Fiなどの近距離通信を介してサーバ20に送信する(ステップST3)。 The "HitoNavi" application continuously reads detection information from the motion sensor 32 built into the mobile terminal 30 and transmits the information to the server 20 via short-range communication such as Wi-Fi (step ST3).

図15(B)において、まず、入力部34からのメッセージの入力の有無が判断される(ステップST11)。メッセージの入力がある場合、「ひとなび」アプリケーションによって、メッセージがサーバ20に送信され(ステップST13)、メッセージの入力がない場合、ステップST13がスキップされる。 In FIG. 15B, first, it is determined whether or not a message has been input from the input unit 34 (step ST11). If there is a message input, the "HitoNavi" application transmits the message to the server 20 (step ST13), and if there is no message input, step ST13 is skipped.

さらに、「ひとなび」アプリケーションによって、メッセージの受信の有無が判断される(ステップST15)。メッセージの受信がある場合、俯瞰領域顔図内で、紐付けされたモバイル端末30に吹出し図形で受信メッセージの表示が行われ(ステップST17)、メッセージの受信がない場合、ステップST17がスキップされる。 Furthermore, the "hitonavi" application determines whether or not a message has been received (step ST15). If a message has been received, the received message is displayed in balloon graphics on the associated mobile terminal 30 in the bird's-eye area face map (step ST17), and if no message has been received, step ST17 is skipped. .

図16は、サーバ20の組み合わせ処理部213が実行する、携行のモバイル端末30の動きと移動軌跡との組み合わせ処理の一例を示すフローチャートである。モバイル端末30から動き情報が周期的に受信され(ステップ#71)、次いで移動軌跡と動き情報との共通性の評価が行われる(ステップ#73)。共通性評価のための組み合わせ処理とは、動きセンサ32から得られた動きと探知領域内で検知した人の移動軌跡との同一時刻における一致さを評価して、同一人物といえるかどうかを評価するものである。共通性の有無の判断が行われ(ステップ#75)、共通性がなければ、本フローを終了する。一方、共通性があれば、紐付け処理が実行される(ステップ#77)。 FIG. 16 is a flowchart showing an example of a process of combining the movement of the portable mobile terminal 30 and the movement trajectory, which is executed by the combination processing unit 213 of the server 20 . Motion information is periodically received from the mobile terminal 30 (step #71), and then commonality between the movement trajectory and the motion information is evaluated (step #73). The combination processing for commonality evaluation evaluates the match at the same time between the motion obtained from the motion sensor 32 and the movement trajectory of the person detected within the detection area, and evaluates whether it can be said that the person is the same person. It is something to do. A determination is made as to whether or not there is commonality (step #75), and if there is no commonality, this flow ends. On the other hand, if there is commonality, a linking process is executed (step #77).

次いで、紐付けされているモバイル端末30からSNS情報を受信したかどうかが判断される(ステップ#79)。SNS情報を受信しなければ、本フローを終了する。一方、SNS情報を受信すると、サイネージ画像作成部214によって、モバイル端末30からの受信情報が加工され、人物の画像と対応付けてサイネージの表示器202に表示される(ステップ#81)。次いで、サイネージの表示器202に表示された情報を、紐付けされたモバイル端末30にそれぞれ送信する(ステップ#83)。 Next, it is determined whether or not SNS information has been received from the associated mobile terminal 30 (step #79). If the SNS information is not received, this flow ends. On the other hand, when the SNS information is received, the information received from the mobile terminal 30 is processed by the signage image creating unit 214 and displayed on the signage display 202 in association with the person's image (step #81). Next, the information displayed on the signage display 202 is transmitted to the associated mobile terminals 30 (step #83).

図17は、モバイル端末画像作成部215によってモバイル端末30の表示部311に表示される画面例の図である。画面には、会場画像G50が俯瞰して表示されている。さらに、IDで紐付けして、モバイル端末30が内蔵する他のセンサ等から得られる情報(温度、湿度、騒がしさ、気圧、周囲の混雑など)をアクセスポイント201を介して、また、ツイート(Tweet)等、そのモバイル端末30の所持者が興味を持ったりレポートしたりする情報にタイムスタンプを付与した「モバイル端末データ」を地上局41を介して、サーバ20にそれぞれ送信されて画面に反映される。 FIG. 17 is a diagram of an example of a screen displayed on the display unit 311 of the mobile terminal 30 by the mobile terminal image creation unit 215. As shown in FIG. A venue image G50 is displayed in a bird's-eye view on the screen. Furthermore, information (temperature, humidity, noise, air pressure, surrounding congestion, etc.) obtained from other sensors etc. built in the mobile terminal 30 is linked with the ID and sent via the access point 201 to tweets ( "Mobile terminal data" in which time stamps are attached to information that the owner of the mobile terminal 30 is interested in or reports, such as tweets, etc., is transmitted to the server 20 via the ground station 41 and reflected on the screen. be done.

サイネージ用の表示器202の画面、あるいはモバイル端末30の表示部311の画面には、各人の位置に対応して人マーク、例えばアバター画像(図17の画像G6参照)が表示されると共に、「モバイル端末データ」が吹出し(図17の画像G71参照)を用いて表示される。これにより、各モバイル端末30の正しい位置情報とともに、そのモバイル端末30が捉えた「モバイル端末データ」が、それらの画面に表示される会場画像G50に、一括して表示できる。また、図17に示すように、当人のモバイル端末30の表示部311に対しては、本人を表すマーク(画像G72参照)が付された画像としてもよい。また、表示器202、表示部311には、各人の移動軌跡をある時間幅だけ表示してもよい。 On the screen of the display device 202 for signage or the screen of the display unit 311 of the mobile terminal 30, a person mark such as an avatar image (see image G6 in FIG. 17) is displayed corresponding to the position of each person, and "Mobile terminal data" is displayed using a balloon (see image G71 in FIG. 17). As a result, the correct location information of each mobile terminal 30 and the "mobile terminal data" captured by the mobile terminal 30 can be collectively displayed on the venue image G50 displayed on those screens. Further, as shown in FIG. 17, an image with a mark (see image G72) representing the person in question may be attached to the display unit 311 of the mobile terminal 30 of the person in question. In addition, the movement trajectory of each person may be displayed on the display device 202 and the display unit 311 for a certain period of time.

図18は、移動監視部217によって実行される、交通機関に対する乗客の昇降数をカウントする適用例を示す図である。この構成は、図12に示す、会場50に対して出入りする人数をカウントする態様と似ている。すなわち、図18は、バスの乗客数をカウントする態様である。バスは、後部側の昇降口付近を示す車内部BUの側部B51に沿って座席SEATが適宜設置され、昇降口にドアB52が開閉可能に設けられている。ドア開閉センサ9は、図略の駆動源で図示の矢印に示すようにスライドするドアB52の開閉を検出する、例えば機械的なスイッチである。計測部12を内装する形態のセンサ11は、好ましくは複数設置され、1つはドアB52の近傍に配置されていてもよい。 FIG. 18 is a diagram showing an application example of counting the number of passengers ascending/descending from a transportation system, which is executed by the movement monitoring unit 217. In FIG. This configuration is similar to the mode of counting the number of people entering and exiting the venue 50 shown in FIG. That is, FIG. 18 shows a mode of counting the number of passengers on a bus. In the bus, a seat SEAT is appropriately installed along a side portion B51 of the vehicle interior BU indicating the vicinity of the hatch on the rear side, and a door B52 is provided at the hatch so that it can be opened and closed. The door opening/closing sensor 9 is, for example, a mechanical switch that detects opening/closing of a door B52 that slides as indicated by an arrow in the figure by a drive source (not shown). Preferably, a plurality of sensors 11 in which the measurement unit 12 is installed are installed, and one may be arranged near the door B52.

サーバ20’は、図3の構成を備えると共に、図13のフローチャートと同様な処理を実行する。これによって、車内部BUに対して昇降する人数が検知でき、それによって各時点で乗客数が把握可能となる。また、サーバ20’のドア開閉検出部29で検出される各停留所でのドアB52の開閉時刻及び開成時間を昇降人数と関連付けることで、運行状況の把握乃至はその管理に反映させることができる。 The server 20' has the configuration shown in FIG. 3 and executes the same processing as the flowchart shown in FIG. This makes it possible to detect the number of people ascending and descending with respect to the BU inside the vehicle, thereby making it possible to grasp the number of passengers at each point in time. In addition, by associating the opening/closing time and the opening time of the door B52 at each stop detected by the door opening/closing detection unit 29 of the server 20' with the number of people ascending/descending, it is possible to grasp or manage the operation status.

なお、本発明において、モバイル端末との組み合わせ方法として以下の方法も採用可能である。すなわち、センサ11によって探知領域、例えば会場50に進入した歩行者は位置が検知され、トラッキングされる。サーバ20は、「ひとなび」アプリがインストールされたことを条件に、かかるモバイル端末30に対して、アクセスポイント201を経て位置情報の問い合わせ要求を発する。進入した歩行者がモバイル端末30を携行していれば、要求に応じて自己の位置情報をサーバ20にアクセスポイント201を経て返信する。進入した歩行者の移動軌跡及び時刻と返信された位置情報及び時刻とを比較し、同じ位置と見なせる場合、当該歩行者のモバイル端末30が進入したと判断する。従って、歩行者は、探知領域内にいる間、センサ11で得られた正確な移動軌跡をサーバ20を介してモバイル端末30で取得できる。なお、モバイル端末30の位置を取得する方法としては、Wi-Fi基地局からの電波強度の違いを利用する方式、ビーコン測位(BLE:BluetoohLow Energy)方式、その他が採用可能である。 In addition, in the present invention, the following method can also be adopted as a combination method with a mobile terminal. That is, the sensor 11 detects the position of a pedestrian who has entered the detection area, for example, the hall 50, and tracks the pedestrian. The server 20 issues a location information inquiry request to the mobile terminal 30 via the access point 201 on condition that the "Hitonavi" application is installed. If the pedestrian who has entered is carrying a mobile terminal 30, it returns its position information to the server 20 via the access point 201 in response to a request. The movement trajectory and time of the pedestrian who has entered are compared with the returned position information and time, and if they can be regarded as the same position, it is determined that the mobile terminal 30 of the pedestrian has entered. Therefore, while the pedestrian is in the detection area, the mobile terminal 30 can acquire an accurate locus of movement obtained by the sensor 11 via the server 20 . As a method for acquiring the position of the mobile terminal 30, a method using differences in radio wave intensity from Wi-Fi base stations, a beacon positioning (BLE: Bluetooth Low Energy) method, and others can be adopted.

また、本実施形態では、キャリブレータ8の構造として、図6に示すように、基台80の上面に立設した2本のポール81,82を採用したが、これに代えて、基台80と1個のポール81を別体として採用する態様としてもよい。この態様では、ポール81を予め立直させる基台80上の位置を複数箇所、例えば2箇所に目印を付して設定しておけばよい。そして、キャリブレーション処理に際して、1箇所目と2箇所目とに順番にポール81を置き換えてそれぞれ計測を行うことで、図10と同様に2箇所の計測処理が実行される。なお、ポール81に代えてポール82でもよく、あるいは他の態様のポールでもよい。 In addition, in this embodiment, as the structure of the calibrator 8, as shown in FIG. A mode in which one pole 81 is employed as a separate body may be employed. In this embodiment, the positions on the base 80 where the poles 81 are to be erected may be set in advance by marking a plurality of positions, for example, two positions. Then, in the calibration process, the poles 81 are sequentially replaced at the first point and the second point, and the measurement is performed respectively, so that the measurement process at the two points is executed in the same manner as in FIG. A pole 82 may be used in place of the pole 81, or another type of pole may be used.

また、本実施形態では、人の移動軌跡を検知したが、検知対象は人以外であってもよい。例えば、工場内を自立的に走行する運搬ロボットの移動軌跡をモニタリングすることで、衝突、異常走行また暴走を検知し、阻止することが可能となる。 Also, in the present embodiment, the locus of movement of a person is detected, but the object to be detected may be something other than a person. For example, by monitoring the movement trajectory of a transport robot that autonomously runs in a factory, it becomes possible to detect and prevent collisions, abnormal running, and runaway.

以上説明したように、本発明に係る計測装置は、走査範囲内を繰り返し走査しながら周期的にレーザビームを送信すると共に、探知領域内の動体の各部で反射したレーザビームを受信するセンサと、受信した前記レーザビームから前記動体の各部に対応した動体点群の位置を算出し、算出した前記動体点群から楕円の胴体を抽出し、抽出した前記楕円の胴体の重心位置を順次算出する第1の算出手段と、算出した前記胴体の重心位置のうち、2つの胴体の重心位置の間の距離が閾値以下かどうかを判定し、閾値以下とされた胴体に対して共通IDを付す第2の算出手段と、前記共通IDが付された前記胴体の重心位置を時系列につなぎ合わせて移動軌跡を生成する移動軌跡生成手段とを備えたものである。 As described above, the measuring apparatus according to the present invention includes a sensor that periodically transmits a laser beam while repeatedly scanning a scanning range and receives a laser beam reflected by each part of a moving object within a detection area; calculating the position of a moving body point group corresponding to each part of the moving body from the received laser beam, extracting an elliptical body from the calculated moving body point group, and sequentially calculating the position of the center of gravity of the extracted elliptical body; A second calculating means for determining whether or not the distance between two of the calculated center-of-gravity positions of the torso is equal to or less than a threshold, and assigning a common ID to the torso determined to be equal to or less than the threshold. and movement trajectory generation means for generating a movement trajectory by linking the positions of the center of gravity of the trunk to which the common ID is assigned in time series.

本発明によれば、走査範囲内を繰り返し走査しながら周期的にセンサからレーザビームが送信され、レーザビームは探知領域内に存在する動体の各部で反射して受信される。そして、第1の算出手段によって、受信した前記レーザビームから前記動体の各部に対応した動体点群の位置が算出され、算出された前記動体点群から楕円の胴体が抽出され、さらに抽出された前記楕円の胴体の重心位置が順次算出される。さらに、第2の算出手段によって、前記胴体の重心位置のうち、2つの胴体の重心位置の間の距離が閾値以下かどうかが判定され、閾値以下と判定される胴体に対して共通IDが付与される。そして、移動軌跡生成手段によって、前記共通IDが付与された前記胴体の重心位置が時系列につなぎ合わされる。従って、計測装置は、自己のセンサから取得された位置情報から移動軌跡情報を算出するようにし、これによってサーバ側のデータ処理負担の低減に供することが可能となる。また、2つの胴体の重心位置の間の距離が閾値以下と判定された場合に、同一の動体とすることで、一時的に静止する(立ち止まる)ような状態でも同一動体として適正に検知される。 According to the present invention, a laser beam is periodically transmitted from the sensor while repeatedly scanning the scanning range, and the laser beam is received by being reflected by each part of a moving object existing within the detection area. Then, the position of the moving object point group corresponding to each part of the moving object is calculated from the received laser beam by the first calculating means, the elliptical body is extracted from the calculated moving object point group, and further extracted. The position of the center of gravity of the elliptical body is sequentially calculated. Further, the second calculating means determines whether or not the distance between the center-of-gravity positions of the two torsos is equal to or less than a threshold, and assigns a common ID to the torso determined to be equal to or less than the threshold. be done. Then, the position of the center of gravity of the trunk to which the common ID is assigned is connected in time series by the movement trajectory generating means. Therefore, the measuring device calculates movement track information from the position information acquired from its own sensor, thereby reducing the data processing load on the server side. Also, when the distance between the center of gravity positions of the two torsos is determined to be less than the threshold, it is determined that they are the same moving object, so that even if it temporarily stands still (stops), it is properly detected as the same moving object. .

また、予め前記探知領域に存在する静止体の位置を背景点群として算出する背景処理手段を備え、前記第1の算出手段は、前記背景点群との差分を取って前記動体点群を導出するものである。この構成によれば、背景にある静止体の影響が排除される。 In addition, background processing means for calculating in advance the position of a stationary object existing in the detection area as a background point group is provided, and the first calculating means calculates the difference from the background point group to derive the moving object point group. It is something to do. This configuration eliminates the influence of stationary objects in the background.

また、前記第1の算出手段は、前記動体点群の中から、下記条件α、β、γを用いてグループ化を行い、各グループを前記楕円の胴体とするものである。但し、グループ内の最大距離がある定数α以下、かつグループ外の動体点群との最小距離がある定数β以上、かつグループ内の動体点群の数がある定数γ以上である。この構成によれば、一人ずつを的確に検出することが可能となる。 Further, the first calculation means performs grouping from the moving object point group using the following conditions α, β, and γ, and uses each group as the body of the ellipse. However, the maximum distance within the group is less than or equal to a constant α, the minimum distance to the moving object point cloud outside the group is greater than or equal to a constant β, and the number of moving object point clouds within the group is greater than or equal to a certain constant γ. According to this configuration, it is possible to accurately detect each person.

また、前記定数αは、α=R+V*Δtとすることが好ましい。但し、Rは胴体の最大直径として想定した値、Vは平均的な歩行速度、Δtは前記時系列における時間間隔である。この構成によれば、人の一般的な歩行速度を考慮して一人ずつの検出範囲が設定される。 Also, the constant α is preferably α=R+V*Δt. However, R is the assumed maximum diameter of the trunk, V is the average walking speed, and Δt is the time interval in the time series. According to this configuration, the detection range for each person is set in consideration of the general walking speed of a person.

また、前記第2の算出手段は、前記時系列における複数の周期分の前記胴体の重心位置を用いて、途切れた胴体の重心位置を補間するものである。この構成によれば、センサとの間を他の動体が横切るような場合であっても、その間の重心位置を補間することで得られる。 Further, the second calculating means interpolates the interrupted center-of-gravity position of the trunk using the center-of-gravity position of the trunk for a plurality of cycles in the time series. According to this configuration, even if another moving object crosses between the sensors, the position of the center of gravity can be obtained by interpolating between them.

また、本発明に係る計測システムは、検知範囲が一部重なるように配置された前記計測装置と、前記各計測装置で生成された前記各移動軌跡の情報を取得するサーバとを備え、前記サーバは、前記計測装置間における移動軌跡のペアを抽出し、各ペアに対して移動軌跡のマッチング処理を行う移動軌跡統合手段を備えたものである。 Further, the measurement system according to the present invention includes the measurement devices arranged so that the detection ranges partially overlap, and a server for acquiring information on each of the movement trajectories generated by each of the measurement devices, wherein the server is provided with movement trajectory integration means for extracting pairs of movement trajectories between the measuring devices and performing matching processing of the movement trajectories for each pair.

本発明によれば、サーバの移動軌跡統合手段によって、前記計測装置間における移動軌跡のペアを抽出し、各ペアに対して移動軌跡のマッチング処理を行うだけとしたので、サーバでのデータ処理負担が低減する。 According to the present invention, the movement trajectory integration means of the server extracts pairs of movement trajectories between the measuring devices, and only performs matching processing of the movement trajectories for each pair. is reduced.

また、本発明に係る計測システムは、反射体を備えたキャリブレータを備え、前記計測装置は、前記キャリブレータの少なくとも第1の位置と第2の位置とに立直された前記反射体を前記センサによって検出することによって、前記キャリブレータの位置及び向きの情報を取得する装置側キャリブレーション手段を備え、前記サーバは、複数の計測装置で取得した前記キャリブレータの位置及び向きを共通座標系で重ね合わせて、各センサの設置位置を算出するサーバ側キャリブレーション手段を備えたものである。この構成によれば、複数のセンサ間の配置位置が校正されるため、各センサの配置位置情報の精度が維持される。 Further, the measurement system according to the present invention includes a calibrator including a reflector, and the measurement device detects the reflector erected to at least a first position and a second position of the calibrator by the sensor. and the server superimposes the positions and orientations of the calibrators obtained by a plurality of measuring devices on a common coordinate system, It has server-side calibration means for calculating the installation position of the sensor. According to this configuration, since the arrangement positions among the plurality of sensors are calibrated, the accuracy of the arrangement position information of each sensor is maintained.

また、前記サーバは、モバイル端末の動きセンサからの動き情報と、前記動体の移動軌跡との共通性を評価し、共通性がある場合、前記動体の移動軌跡と前記モバイル端末とを組み合わせる組み合わせ処理手段を備えるものである。この構成によれば、センサで検出された人の移動軌跡と、当該人が携行するモバイル端末とが組み合わされるため、移動軌跡にモバイル端末からの情報を関連付けることが可能となり、また情報の有効活用が図れる。 Further, the server evaluates commonality between motion information from a motion sensor of the mobile terminal and the movement trajectory of the moving body, and if there is commonality, combination processing of combining the movement trajectory of the moving body and the mobile terminal. It has means. According to this configuration, since the movement trajectory of the person detected by the sensor and the mobile terminal carried by the person are combined, it is possible to associate the information from the mobile terminal with the movement trajectory, and the information can be effectively utilized. can be achieved.

また、前記サーバは、前記動体の移動軌跡が前記探知領域内の特定の領域を通過したかどうかを検知する移動監視手段を備えたことを特徴とするものである。この構成によれば、探知領域内に特定の領域を検知可能に定義づけておけば、当該特定領域の動体の通過状況の監視が可能となる。 Further, the server is characterized by comprising movement monitoring means for detecting whether or not the moving locus of the moving object has passed through a specific area within the detection area. According to this configuration, if a specific area is defined within the detection area so as to be detectable, it becomes possible to monitor the passing situation of the moving object in the specific area.

また、前記移動監視手段は、バスの昇降領域を横切って乗車及び降車する乗客の人数を監視するものである。この構成によれば、前記特定の領域としてバスの昇降領域が設定された場合、バスの乗降人数ひいては乗車人数の監視が可能となる。 Also, the movement monitoring means monitors the number of passengers boarding and disembarking across the elevating area of the bus. According to this configuration, when the elevating area of the bus is set as the specific area, it is possible to monitor the number of passengers getting on and off the bus as well as the number of passengers.

1 計測システム
8 キャリブレータ
10 計測装置
11,11’ センサ
120 制御部
123 キャリブレーション部(装置側キャリブレーション手段)
124 背景処理部(背景処理手段)
125 人検出部(第1の算出手段、第2の算出手段)
126 移動軌跡生成部(移動軌跡生成手段)
20 サーバ
21 処理部
211 移動軌跡統合部(移動軌跡統合手段)
212 キャリブレーション部(サーバ側キャリブレーション手段)
213 組み合わせ処理部(組み合わせ処理手段)
217 移動監視部(移動監視手段)
30 モバイル端末
52 出入り口
BU 車内部
1 measurement system 8 calibrator 10 measurement device 11, 11' sensor 120 control unit 123 calibration unit (apparatus-side calibration means)
124 background processing unit (background processing means)
125 human detection unit (first calculation means, second calculation means)
126 movement trajectory generation unit (movement trajectory generation means)
20 server 21 processing unit 211 movement trajectory integration unit (movement trajectory integration means)
212 calibration unit (server-side calibration means)
213 combination processing unit (combination processing means)
217 movement monitoring unit (movement monitoring means)
30 Mobile terminal 52 Doorway BU Inside car

Claims (9)

検知範囲が互いに一部重なるように配置された複数の計測装置と、前記計測装置の夫々と通信可能にされたサーバとを備え、
前記計測装置は、
走査範囲内を繰り返し走査しながら周期的にレーザビームを送信すると共に、探知領域内の動体の各部で反射したレーザビームを受信するセンサと、
受信した前記レーザビームから前記動体の各部に対応した動体点群の位置を算出し、算出した前記動体点群から楕円の胴体を抽出し、抽出した前記楕円の胴体の重心位置を順次算出する第1の算出手段と、
算出した前記胴体の重心位置のうち、2つの胴体の重心位置の間の距離が閾値以下かどうかを判定し、閾値以下とされた胴体に対して共通IDを付す第2の算出手段と、
前記共通IDが付された前記胴体の重心位置を時系列につなぎ合わせて移動軌跡を生成する移動軌跡生成手段とを備え
前記サーバは、前記計測装置の夫々で生成された前記移動軌跡の情報を取得して、前記計測装置間における前記移動軌跡のペアを抽出し、各ペアに対して前記移動軌跡のマッチング処理を行う移動軌跡統合手段を備えた計測システム。
A plurality of measuring devices arranged so that the detection ranges partially overlap each other, and a server capable of communicating with each of the measuring devices,
The measuring device is
a sensor that periodically transmits a laser beam while repeatedly scanning a scanning range and receives a laser beam that is reflected by each part of a moving object within the detection area;
calculating the position of a moving body point group corresponding to each part of the moving body from the received laser beam, extracting an elliptical body from the calculated moving body point group, and sequentially calculating the position of the center of gravity of the extracted elliptical body; 1 calculation means;
a second calculating means for determining whether the distance between two of the calculated center-of-gravity positions of the trunks is equal to or less than a threshold, and assigning a common ID to the trunks determined to be equal to or less than the threshold;
movement trajectory generating means for generating a movement trajectory by connecting the center of gravity positions of the torso to which the common ID is assigned in time series ;
The server acquires information on the trajectory generated by each of the measuring devices, extracts pairs of the trajectory between the measuring devices, and performs matching processing of the trajectory for each pair. A measurement system with moving trajectory integration means .
前記計測装置は、予め前記探知領域に存在する静止体の位置を背景点群として算出する背景処理手段を備え、
前記第1の算出手段は、前記背景点群との差分を取って前記動体点群を導出する請求項1に記載の計測システム
The measuring device comprises background processing means for calculating in advance the position of a stationary object existing in the detection area as a background point group,
2. The measurement system according to claim 1, wherein said first calculation means derives said moving object point group by taking a difference from said background point group.
前記第1の算出手段は、前記動体点群の中から、下記条件α、β、γを用いてグループ化を行い、各グループを前記楕円の胴体とする請求項1に記載の計測システム
但し、グループ内の最大距離がある定数α以下、かつグループ外の動体点群との最小距離がある定数β以上、かつグループ内の動体点群の数がある定数γ以上であること。
2. The measurement system according to claim 1, wherein said first calculation means performs grouping from said moving object point group using the following conditions α, β, and γ, and defines each group as said elliptical trunk.
However, the maximum distance within the group must be equal to or less than a constant α, the minimum distance to the moving object point cloud outside the group must be equal to or greater than a constant β, and the number of moving object point clouds within the group must be equal to or greater than a certain constant γ.
前記定数αは、α=R+V*Δtである請求項1に記載の計測システム
但し、Rは胴体の最大直径として想定した値、Vは平均的な歩行速度、Δtは前記時系列における時間間隔である。
The measurement system according to claim 1, wherein the constant α is α=R+V*Δt.
However, R is the assumed maximum diameter of the trunk, V is the average walking speed, and Δt is the time interval in the time series.
前記第2の算出手段は、前記時系列における複数の周期分の前記胴体の重心位置を用いて、途切れた胴体の重心位置を補間する請求項1に記載の計測システム2. The measurement system according to claim 1, wherein the second calculation means interpolates the interrupted center-of-gravity position of the trunk using the center-of-gravity position of the trunk for a plurality of cycles in the time series. 反射体を備えたキャリブレータを備え、
前記計測装置は、前記キャリブレータの少なくとも第1の位置と第2の位置とに立直された前記反射体を前記センサによって検出することによって、前記キャリブレータの位置及び向きの情報を取得する装置側キャリブレーション手段を備え、
前記サーバは、複数の計測装置で取得した前記キャリブレータの位置及び向きを共通座標系で重ね合わせて、各センサの設置位置を算出するサーバ側キャリブレーション手段を備えた請求項1~5のいずれかに記載の計測システム。
Equipped with a calibrator with a reflector,
The measuring device performs device-side calibration for acquiring information on the position and orientation of the calibrator by detecting, by the sensor, the reflector that has been erected to at least a first position and a second position of the calibrator. have the means to
6. The server according to any one of claims 1 to 5, wherein the server includes server-side calibration means for calculating the installation position of each sensor by superimposing the positions and orientations of the calibrators obtained by a plurality of measuring devices in a common coordinate system. The measurement system described in .
前記サーバは、モバイル端末の動きセンサからの動き情報と、前記動体の移動軌跡との共通性を評価し、共通性がある場合、前記動体の移動軌跡と前記モバイル端末とを組み合わせる組み合わせ処理手段を備える請求項1~6のいずれかに記載の計測システム。 The server evaluates motion information from the motion sensor of the mobile terminal for commonality with the movement trajectory of the moving object, and if there is commonality, combination processing means for combining the movement trajectory of the moving object and the mobile terminal. The measurement system according to any one of claims 1 to 6 . 前記サーバは、前記動体の移動軌跡が前記探知領域内の特定の領域を通過したかどうかを検知する移動監視手段を備えたことを特徴とする請求項1~7のいずれかに記載の計測システム。 8. The measurement system according to any one of claims 1 to 7, wherein said server comprises movement monitoring means for detecting whether or not the movement trajectory of said moving body has passed through a specific area within said detection area. . 前記移動監視手段は、バスの昇降領域を横切って乗車及び降車する乗客の人数を監視する請求項8に記載の計測システム。
9. A measurement system according to claim 8, wherein said movement monitoring means monitors the number of passengers boarding and disembarking across the elevating area of the bus.
JP2020553184A 2018-10-22 2019-10-15 measurement system Active JP7339485B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018198098 2018-10-22
JP2018198098 2018-10-22
PCT/JP2019/040429 WO2020085142A1 (en) 2018-10-22 2019-10-15 Measurement apparatus and measurement system

Publications (3)

Publication Number Publication Date
JPWO2020085142A1 JPWO2020085142A1 (en) 2021-10-21
JPWO2020085142A5 JPWO2020085142A5 (en) 2022-09-27
JP7339485B2 true JP7339485B2 (en) 2023-09-06

Family

ID=70330466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020553184A Active JP7339485B2 (en) 2018-10-22 2019-10-15 measurement system

Country Status (3)

Country Link
JP (1) JP7339485B2 (en)
TW (1) TW202104929A (en)
WO (1) WO2020085142A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7286586B2 (en) * 2020-05-14 2023-06-05 株式会社日立エルジーデータストレージ Ranging system and ranging sensor calibration method
TWI807340B (en) * 2021-06-16 2023-07-01 信邦電子股份有限公司 Vehicle automatic positioning management system and method
US11756423B2 (en) 2021-07-07 2023-09-12 Sinbon Electronics Company Ltd. Automatic vehicle positioning management system and method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001227942A (en) 2000-02-14 2001-08-24 Mazda Motor Corp Object recognition device for vehicle
JP2018119833A (en) 2017-01-24 2018-08-02 キヤノン株式会社 Information processing device, system, estimation method, computer program, and storage medium
JP2018159693A (en) 2017-03-24 2018-10-11 富士通株式会社 Information processing program, information processing method and information processing device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011081634A (en) * 2009-10-07 2011-04-21 Sogo Keibi Hosho Co Ltd Device and method for estimating human body direction
WO2014045521A1 (en) * 2012-09-19 2014-03-27 日本電気株式会社 Placement score calculation system, method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001227942A (en) 2000-02-14 2001-08-24 Mazda Motor Corp Object recognition device for vehicle
JP2018119833A (en) 2017-01-24 2018-08-02 キヤノン株式会社 Information processing device, system, estimation method, computer program, and storage medium
JP2018159693A (en) 2017-03-24 2018-10-11 富士通株式会社 Information processing program, information processing method and information processing device

Also Published As

Publication number Publication date
WO2020085142A1 (en) 2020-04-30
JPWO2020085142A1 (en) 2021-10-21
TW202104929A (en) 2021-02-01

Similar Documents

Publication Publication Date Title
Murata et al. Smartphone-based indoor localization for blind navigation across building complexes
JP7339485B2 (en) measurement system
Li et al. Top 10 technologies for indoor positioning on construction sites
KR102399591B1 (en) System for determining the location of entrances and areas of interest
Li et al. Real-time locating systems applications in construction
US11210875B2 (en) Movable barrier imminent motion notification system and method
EP3283843B1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
Zhao et al. A novel system for tracking pedestrians using multiple single-row laser-range scanners
US10466056B2 (en) Trajectory matching using ambient signals
US10798527B2 (en) Cognitive progressive method and system for deploying indoor location sensor networks
JP5674307B2 (en) Subject detection system and subject detection method
US10657691B2 (en) System and method of automatic room segmentation for two-dimensional floorplan annotation
WO2016066988A2 (en) Position estimation
CN111242994B (en) Semantic map construction method, semantic map construction device, robot and storage medium
US20210397191A1 (en) Information processing apparatus, information processing method, and program
CN106420285A (en) Handheld blind guiding equipment
US11785430B2 (en) System and method for real-time indoor navigation
Palaniappan et al. Autonomous RF surveying robot for indoor localization and tracking
US11169280B2 (en) Systems and methods for direction estimation in indoor and outdoor locations
Shin et al. FindingMiMo: Tracing a missing mobile phone using daily observations
EP3992747B1 (en) Mobile body, control method, and program
He et al. WiFi based indoor localization with adaptive motion model using smartphone motion sensors
US11720117B1 (en) System to facilitate autonomous mobile device movement
KR102179528B1 (en) System for providing non face-to-face grocery parking order service
US11531343B1 (en) System for user interactions with an autonomous mobile device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230728

R150 Certificate of patent or registration of utility model

Ref document number: 7339485

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150