JP2017207872A - Sensor setting location support device - Google Patents

Sensor setting location support device Download PDF

Info

Publication number
JP2017207872A
JP2017207872A JP2016098985A JP2016098985A JP2017207872A JP 2017207872 A JP2017207872 A JP 2017207872A JP 2016098985 A JP2016098985 A JP 2016098985A JP 2016098985 A JP2016098985 A JP 2016098985A JP 2017207872 A JP2017207872 A JP 2017207872A
Authority
JP
Japan
Prior art keywords
measurement
sensor
information
human flow
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016098985A
Other languages
Japanese (ja)
Other versions
JP6678512B2 (en
Inventor
聡 笹谷
So Sasatani
聡 笹谷
誠也 伊藤
Seiya Ito
誠也 伊藤
正嗣 野宮
Masatsugu Nomiya
正嗣 野宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016098985A priority Critical patent/JP6678512B2/en
Publication of JP2017207872A publication Critical patent/JP2017207872A/en
Application granted granted Critical
Publication of JP6678512B2 publication Critical patent/JP6678512B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sensor setting location support device that can appropriately determine a setting location of a sensor such as a camera in consideration of a human flow.SOLUTION: A sensor setting location support device 1 has: a measurement model creation unit 3 that creates a measurement model indicative of a measurement range of a sensor on the basis of characteristic information on the sensor and measurement item information thereon; a human flow map creation unit 4 that creates a human flow map indicative of a human flow direction of a monitoring target region on the basis of map information on the region and human flow information on the region; and a sensor arrangement adjustment unit 5 that calculates measurement sensitivity for each cell constituting the region on the basis of the measurement model and the human flow map, and determines an arrangement location of the sensor in the region on the basis of the calculated measurement sensitivity. The measurement model includes measurement accuracy in accordance with a distance from the sensor and a measurable range therein, in which, when a ratio to 1 is A, the measurement sensitivity is a value that multiplies a ratio of an area of A of measurement accuracy to an area of the cell by A.SELECTED DRAWING: Figure 1

Description

本発明は、物体の検出や位置計測を実施する複数のセンサの配置を決定する技術に関する。   The present invention relates to a technique for determining the arrangement of a plurality of sensors that perform object detection and position measurement.

大型商業施設や駅、空港といった公共施設などにおいて、人物や不審物の検出といった従来の防犯サービスに加え、人の位置を計測、追跡することで、マーケティング、混雑緩和、レイアウト改善などの空間価値を高めるサービスの需要が高まっている。これらのサービスは、監視カメラやレーザレーダなどの複数のセンサを設置して、各計測結果を参照することで実現できるものの、安定した計測精度を維持するためにはセンサの配置が重要となる。   In public facilities such as large commercial facilities, stations, and airports, in addition to conventional crime prevention services such as detection of people and suspicious objects, measuring and tracking the position of people can increase the spatial value of marketing, congestion reduction, layout improvement, etc. The demand for enhanced services is increasing. Although these services can be realized by installing a plurality of sensors such as a monitoring camera and a laser radar and referring to each measurement result, the arrangement of the sensors is important in order to maintain stable measurement accuracy.

例えば、不審者を検出したい場合は死角が生じないようセンサを設置する必要があり、また、人を追跡したい場合には人物の移動軌跡が途切れず計測できるようセンサの位置を決定する必要がある。そのため、サービスを導入する際には、顧客のニーズを踏まえた上で、実際に設置作業を行う専門家が己のノウハウでセンサ配置、設定を決定している。   For example, if it is desired to detect a suspicious person, it is necessary to install a sensor so as not to cause a blind spot, and if it is desired to track a person, it is necessary to determine the position of the sensor so that the movement trajectory of the person can be measured without interruption. . For this reason, when introducing a service, the experts who actually perform the installation work decide the sensor placement and setting based on their own know-how based on the needs of customers.

しかし、この方法では、設置コストの増加に繋がるだけでなく、専門家の知識・経験の差によって計測精度が左右されてしまうため、センサ設置位置を自動で決定する支援技術が求められる。   However, this method not only leads to an increase in the installation cost, but also the measurement accuracy depends on the difference in knowledge and experience of specialists. Therefore, a support technology for automatically determining the sensor installation position is required.

例えば、特許文献1では、商業施設において、POS(Point of Sales)データや顧客の性別などの情報に応じて人物が集まりやすい領域を推定することで、カメラの配分やその設置位置を決定する。また、特許文献2では、不審者や動きを検出したいなどの顧客の計測ニーズに応じて、監視カメラの最適な設置位置を自動で出力する。   For example, in Patent Document 1, in a commercial facility, an area where people are likely to gather is estimated according to information such as POS (Point of Sales) data and customer sex, thereby determining camera distribution and installation position. Moreover, in patent document 2, the optimal installation position of a surveillance camera is automatically output according to a customer's measurement needs, such as detecting a suspicious person or a motion.

特開2005−286619号公報JP 2005-286619 A 特開2012−10210号公報JP 2012-10210 A

特許文献1では、カメラの設置位置は推定できるものの、俯角などのカメラの設置角度などの細かい設置情報は出力できないという課題がある。また、使用するカメラの全数を予め決定する必要があり、その決定には専門家のノウハウなどが必要となる。   In Patent Document 1, although the installation position of the camera can be estimated, there is a problem that detailed installation information such as the installation angle of the camera such as the depression angle cannot be output. Further, it is necessary to determine the total number of cameras to be used in advance, and expert know-how is required for the determination.

特許文献2では、撮影範囲のレイアウトと顧客ニーズ表から、最小限のカメラ台数となる構成にてカメラ設置位置を自動で推定できる。しかし、撮影範囲における実際の人流などの人の動きを考慮して、状況によっては高精度な計測をすることや、監視カメラ以外のセンサも併用したい場合について、更なる改善の余地があった。   In Patent Document 2, the camera installation position can be automatically estimated from the layout of the shooting range and the customer needs table with a configuration that requires a minimum number of cameras. However, there is room for further improvement in cases where it is desired to perform high-precision measurement depending on the situation and to use sensors other than the surveillance camera in consideration of the movement of people such as actual human flow in the shooting range.

本発明は、前記の課題を解決するための発明であって、カメラなどのセンサの設置位置を、人流を考慮して適切に決定することができるセンサ設置位置支援装置を提供することを目的とする。   The present invention is an invention for solving the above-described problem, and an object thereof is to provide a sensor installation position support device capable of appropriately determining the installation position of a sensor such as a camera in consideration of human flow. To do.

前記目的を達成するため、本発明のセンサ設置位置支援装置は、センサの特性情報と計測項目情報とに基づき該センサの計測範囲を示す計測モデルを生成する計測モデル生成手段(例えば、計測モデル生成部3)と、監視対象のエリアのマップ情報と該エリアの人流情報とに基づき該エリアの人流方向を示す人流マップ(例えば、図4の23)を生成する人流マップ生成手段(例えば、人流マップ生成部4)と、計測モデルと人流マップに基づきエリアを構成するセル毎の計測感度(例えば、数1)を算出し、該算出した計測感度に基づきエリアにおけるセンサの配置位置を決定するセンサ配置決定手段(例えば、センサ配置調整部5)とを有することを特徴とする。本発明のその他の態様については、後記する実施形態において説明する。   In order to achieve the above object, the sensor installation position support device of the present invention is a measurement model generation unit (for example, a measurement model generation unit) that generates a measurement model indicating a measurement range of the sensor based on sensor characteristic information and measurement item information. Part 3), a human flow map generating means (for example, a human flow map) for generating a human flow map (for example, 23 in FIG. 4) indicating the flow direction of the area based on the map information of the monitored area and the human flow information of the area. A sensor arrangement that calculates the measurement sensitivity (for example, Equation 1) for each cell constituting the area based on the generation unit 4), the measurement model, and the human flow map, and determines the position of the sensor in the area based on the calculated measurement sensitivity It has a determination means (for example, sensor arrangement adjustment part 5), It is characterized by the above-mentioned. Other aspects of the present invention will be described in the embodiments described later.

本発明によれば、カメラなどのセンサの設置位置を、人流を考慮して適切に決定することができる。   According to the present invention, it is possible to appropriately determine the installation position of a sensor such as a camera in consideration of human flow.

実施形態1に係るセンサ設置位置支援装置の機能ブロックを示す図である。It is a figure which shows the functional block of the sensor installation position assistance apparatus which concerns on Embodiment 1. FIG. 計測モデル生成部が取得するセンサの特性情報の一例を示す図である。It is a figure which shows an example of the characteristic information of the sensor which a measurement model production | generation part acquires. 計測モデル生成部により生成する計測モデルの一例を示す図である。It is a figure which shows an example of the measurement model produced | generated by the measurement model production | generation part. 人流マップ生成部の処理を説明する図である。It is a figure explaining the process of a human flow map production | generation part. 人流マップ生成部の処理を示すフローチャートである。It is a flowchart which shows the process of a human flow map production | generation part. センサ配置調整部の機能ブロックを示す図である。It is a figure which shows the functional block of a sensor arrangement | positioning adjustment part. 計測中心点検出部により出力する重要計測ポイントの一例を示す図である。It is a figure which shows an example of the important measurement point output by a measurement center point detection part. 計測モデル照合部の処理を示すフローチャートである。It is a flowchart which shows the process of a measurement model collation part. 計測モデル照合部の処理S3を説明する図であり、(a)は人流マップ、(b)は計測モデルの計測方向、(c)はカメラの設置位置を示す図である。It is a figure explaining process S3 of a measurement model collation part, (a) is a person flow map, (b) is a measurement direction of a measurement model, (c) is a figure which shows the installation position of a camera. 計測モデル照合部の処理S5を説明する図であり、(a)は計測モデル、(b)は人流マップ51に照合した計測モデル、(c)(d)は人流マップ内のセルの拡大図である。It is a figure explaining process S5 of a measurement model collation part, (a) is a measurement model, (b) is a measurement model collated with human flow map 51, (c) (d) is an enlarged view of a cell in a human flow map. is there. 計測モデル照合部の処理S4を説明する図である。It is a figure explaining process S4 of a measurement model collation part. 計測モデル照合部により計測モデルを照合する一例を示す図である。It is a figure which shows an example which collates a measurement model by a measurement model collation part. センサ配置調整部により出力するセンサ位置の一例を示す図である。It is a figure which shows an example of the sensor position output by a sensor arrangement | positioning adjustment part. 実施形態2に係るセンサ設置位置支援装置の機能ブロック図を示す図である。It is a figure which shows the functional block diagram of the sensor installation position assistance apparatus which concerns on Embodiment 2. FIG. 実施形態2に係るセンサ配置調整部の処理を示すフローチャートである。10 is a flowchart illustrating processing of a sensor arrangement adjustment unit according to the second embodiment. センサ配置調整部により調整されるセンサ位置の一例を示す図である。It is a figure which shows an example of the sensor position adjusted by a sensor arrangement | positioning adjustment part.

本発明を実施するための実施形態について、適宜図面を参照しながら詳細に説明する。
<<実施形態1>>
図1は、実施形態1に係るセンサ設置位置支援装置1の機能ブロックを示す図である。本実施形態では、センサとして監視カメラを使用した場合の例を説明するが、本発明はこれらセンサに限定されるものでは無く、種類の異なるセンサを組み合わせて使用してもよい。
DESCRIPTION OF EMBODIMENTS Embodiments for carrying out the present invention will be described in detail with reference to the drawings as appropriate.
<< Embodiment 1 >>
FIG. 1 is a functional block diagram of the sensor installation position support apparatus 1 according to the first embodiment. In this embodiment, an example in which a surveillance camera is used as a sensor will be described. However, the present invention is not limited to these sensors, and different types of sensors may be used in combination.

センサ設置位置支援装置1は、対象エリアのマップ情報100、人流情報101、センサ情報102、計測項目情報103を含むデータベース2を保持しており、処理部として、計測モデル生成部3(計測モデル生成手段)、人流マップ生成部4(人流マップ生成手段)、センサ配置調整部5(センサ配置決定手段)を有する。センサ設置位置支援装置1は、各情報に基づき対象エリアの計測感度が最良となるセンサ配置を自動で出力する装置である。   The sensor installation position support device 1 holds a database 2 including map information 100, human flow information 101, sensor information 102, and measurement item information 103 of a target area, and a measurement model generation unit 3 (measurement model generation) as a processing unit. Means), a human flow map generation unit 4 (human flow map generation unit), and a sensor arrangement adjustment unit 5 (sensor arrangement determination unit). The sensor installation position support device 1 is a device that automatically outputs a sensor arrangement that provides the best measurement sensitivity of the target area based on each information.

図1に示す各機能の概要をまず説明すると、計測モデル生成部3はセンサ情報102と計測項目情報103からセンサの計測範囲を示す計測モデルを決定する機能、人流マップ生成部4は対象エリアのマップ情報100と人流情報101に基づき対象エリアの人の流れを示す人流マップを作成する機能、センサ配置調整部5は人流マップに計測モデルを照合し対象エリアの計測感度が最良となるセンサ位置を出力する機能を有する。なお、対象エリアとは、顧客がセンサにより計測したい範囲であり、例えばカメラの場合はその監視対象のエリア、レーザレーダの場合は計測対象のエリアを示す。以下、各機能の詳細について説明する。   First, the outline of each function shown in FIG. 1 will be described. The measurement model generation unit 3 is a function for determining a measurement model indicating the measurement range of the sensor from the sensor information 102 and the measurement item information 103, and the human flow map generation unit 4 is a target area. A function for creating a human flow map showing the flow of people in the target area based on the map information 100 and the human flow information 101, the sensor arrangement adjusting unit 5 matches the measurement model with the human flow map and determines the sensor position where the measurement sensitivity of the target area is the best. Has a function to output. The target area is a range that the customer wants to measure with a sensor. For example, in the case of a camera, the monitoring target area is indicated, and in the case of a laser radar, the measurement target area is indicated. Details of each function will be described below.

<計測モデル生成部>
図2は、計測モデル生成部3が取得するセンサの特性情報の一例を示す図である。図3は、計測モデル生成部3により生成する計測モデルの一例を示す図である。計測モデル生成部3について、図2と図3を用い、適宜図1を参照して説明する。
<Measurement model generator>
FIG. 2 is a diagram illustrating an example of sensor characteristic information acquired by the measurement model generation unit 3. FIG. 3 is a diagram illustrating an example of a measurement model generated by the measurement model generation unit 3. The measurement model generation unit 3 will be described with reference to FIG. 1 as appropriate using FIG. 2 and FIG.

図2は、計測モデル生成部3がセンサ情報102より取得するセンサの特性情報の一例であり、各センサにおける、計測可能な範囲、センサから計測人物までの距離に応じた計測精度、人物の密集度に応じた計測精度(分解能)、センサにより計測可能な項目(計測項目)の特徴を示している。なお、センサ及び特性情報については特にこれに限定するものでは無く、同じセンサにおいても計測項目に応じて範囲、精度、分解能が変化している特性情報でもよい。また、必ずしも距離に応じて計測精度が異なる必要は無く、計測範囲全体の精度が均一である特性情報でもよい。   FIG. 2 is an example of sensor characteristic information acquired by the measurement model generation unit 3 from the sensor information 102. In each sensor, the measurable range, the measurement accuracy according to the distance from the sensor to the measurement person, and the density of people. The measurement accuracy (resolution) according to the degree and the features of the items (measurement items) that can be measured by the sensor are shown. The sensor and the characteristic information are not particularly limited to this, and the characteristic information whose range, accuracy, and resolution are changed according to the measurement item even in the same sensor may be used. In addition, the measurement accuracy does not necessarily have to be different depending on the distance, and the characteristic information may be that the accuracy of the entire measurement range is uniform.

計測モデル生成部3では、計測項目情報103から抽出した人追跡や不審者検出といった顧客の計測ニーズとセンサの特性情報を照合することで、図3に示すようなセンサの計測モデルを生成する。図3において、10は単眼カメラ、11a、11bは単眼カメラの人追跡及び物体検出時の計測モデルの一例、12はレーザセンサ、13a、13bはレーザセンサの人追跡及び物体検出時の計測モデルの一例を示している。   The measurement model generation unit 3 generates a sensor measurement model as shown in FIG. 3 by collating customer measurement needs such as person tracking and suspicious person detection extracted from the measurement item information 103 with sensor characteristic information. In FIG. 3, 10 is a monocular camera, 11a and 11b are examples of a measurement model for human tracking and object detection of the monocular camera, 12 is a laser sensor, and 13a and 13b are measurement models for human tracking and object detection of the laser sensor. An example is shown.

なお、計測モデルの形状は図3のように計測項目により変更するのではなく、一貫して同形状のものを使用してもよい。計測項目によってモデルの形状を変更する方法を使用する要因としては、例えば、対象エリア中に存在するモノを検知する物体検出と比較すると、物体を人と認識して追従する人追跡の方が計測は困難であり、計測範囲や精度に差が生じるため、同じセンサにおいても、11aと13aの形状の大きさが11b、13bよりも小さくなる。また、一般的にカメラは近過ぎる物体や遠方の物体の検出が難しいなどといった特性を表現するために、11aや11bのようにセンサ10からの距離に応じて精度が変化する計測モデルを使用してもよい。計測モデルの形状としては、特に図3に示すものに限定するものではない。また、計測モデルの生成に利用する情報としては、センサの特性と計測項目の情報に限定されるものではなく、建物内のマップ情報などを利用してもよく、例えば、設置場所の高さや俯角により計測モデルの形状を変動的にする方法でもよい。   The shape of the measurement model is not changed depending on the measurement item as shown in FIG. As a factor to use the method of changing the shape of the model depending on the measurement item, for example, compared to object detection that detects objects existing in the target area, it is measured by human tracking that recognizes an object as a person and follows it Since the measurement range and accuracy are different, the size of the shapes of 11a and 13a is smaller than 11b and 13b even in the same sensor. In general, a camera uses a measurement model whose accuracy changes according to the distance from the sensor 10, such as 11a and 11b, in order to express characteristics such as difficulty in detecting an object that is too close or far away. May be. The shape of the measurement model is not particularly limited to that shown in FIG. In addition, the information used for generating the measurement model is not limited to the sensor characteristics and the measurement item information, but map information in the building may be used, for example, the height of the installation location or the depression angle. A method of making the shape of the measurement model variable is also possible.

すなわち、計測モデル生成部3(計測モデル生成手段)は、対象エリアのレイアウト情報、人流方向情報、位置環境情報、混雑状況情報の少なくとも1つ以上を用いて、計測モデルの計測範囲または/および計測精度を変更してもよい。ここで、対象エリアのレイアウト情報には、マップ情報、建物の高さ、建物の出入り口などがある。人流方向情報には、人流マップ生成手段が生成する人流マップがある。位置環境情報には、逆光、屋内外などの計測位置の環境である。混雑状況情報には、混雑か閑散かなどの人が集まり易い場所であるか否かの情報である。   That is, the measurement model generation unit 3 (measurement model generation means) uses at least one or more of layout information, person flow direction information, position environment information, and congestion status information of the target area, and / or measurement range of the measurement model. The accuracy may be changed. Here, the layout information of the target area includes map information, the height of the building, the entrance of the building, and the like. The human flow direction information includes a human flow map generated by the human flow map generating means. The position environment information includes the environment of the measurement position such as backlight and indoor / outdoor. The congestion status information is information on whether or not the place is easy for people to gather, such as whether it is busy or busy.

<人流マップ生成部>
図4は、人流マップ生成部4(図1参照)の処理を説明する図である。図5は、人流マップ生成部4の処理を示すフローチャートである。人流マップ生成部4について、図4と図5を用いて説明する。
<Human flow map generator>
FIG. 4 is a diagram for explaining processing of the human flow map generation unit 4 (see FIG. 1). FIG. 5 is a flowchart showing the processing of the human flow map generation unit 4. The human flow map generation unit 4 will be described with reference to FIGS. 4 and 5.

人流マップ生成部4では、初めに、図4に示す対象エリアのレイアウト俯瞰図20(レイアウト情報)をマップ情報100から取得する(処理S41)、保持したレイアウト俯瞰図を21に示すような複数の小領域に分割する(処理S42)。次に、人流情報101から対象エリアにおける人流データ22を抽出し(処理S43)、各小領域における主たる人流の向きを推定する(処理S44)。最後に、レイアウト俯瞰図に人流の向きを反映した人流マップ23を出力する(処理S45)。なお、以後はこの小領域をセルと呼び説明する。   First, the human flow map generation unit 4 obtains a layout overhead view 20 (layout information) of the target area shown in FIG. 4 from the map information 100 (processing S41), and a plurality of layout overhead views as shown in FIG. Divide into small areas (process S42). Next, the human flow data 22 in the target area is extracted from the human flow information 101 (processing S43), and the direction of the main human flow in each small area is estimated (processing S44). Finally, the human flow map 23 reflecting the direction of the human flow in the layout overhead view is output (processing S45). In the following description, this small area is referred to as a cell.

処理S42におけるレイアウト俯瞰図10のセルの分割方法として、セルの大きさは計測モデルよりも小さければよく、全てのセルが同じ大きさである必要ない。また、形状は21のような格子状以外にも俯瞰図全体を網羅できるものであれば、特に限定はしない。   As a method of dividing the cell in the layout overhead view 10 in the process S42, the size of the cell only needs to be smaller than that of the measurement model, and it is not necessary that all the cells have the same size. Further, the shape is not particularly limited as long as it can cover the whole overhead view other than the lattice shape like 21.

処理S43にて取得する人流のデータについては、人物の軌跡情報などの対象エリアにおける人流の主な向きを推定できる情報であればよい。例えば、既に対象エリア内に実際に移動する人物が存在する場合であれば一時的に人流計測用のセンサを配置して取得したデータ、人物が存在しない場合であればレイアウト俯瞰図における出入り口や曲がり角の情報などからシミュレーションにより推定した人流データでもよく、特に限定しない。   The human flow data acquired in step S43 may be information that can estimate the main direction of the human flow in the target area, such as human trajectory information. For example, if there is already a person who actually moves in the target area, data obtained by temporarily placing a sensor for measuring human flow, and if there is no person, the doorway or corner in the layout overhead view Human flow data estimated by simulation from the above information may be used, and is not particularly limited.

処理S44では、この取得した人流データ22からレイアウト俯瞰図の各格子内における人流の向き24を決定する。人流の向き24の推定方法としては、人流データ22を21に照合し、格子の中心を原点として最も頻出頻度が多い方向ベクトルを推定する方法などがある。本実施形態では、24のように人流の向きを4パターンとし、各格子内にて推定した方向ベクトルがいずれの向きのパターンに類似しているかを比較することで、最終の人流方向を決定する。なお、人流の向きのパターン数は4つに限定するものではなく、パターン数を増やすほどセンサ配置の精度が向上できる。   In process S44, the direction 24 of the human flow in each grid of the layout overhead view is determined from the acquired human flow data 22. As a method of estimating the direction 24 of the human flow, there is a method of collating the human flow data 22 with 21 and estimating a direction vector having the highest frequency with the center of the grid as the origin. In the present embodiment, the direction of the human flow is set to four patterns as in 24, and the final direction of the human flow is determined by comparing which direction pattern the direction vector estimated in each lattice is similar to. . Note that the number of patterns in the direction of human flow is not limited to four, and the accuracy of sensor arrangement can be improved as the number of patterns increases.

<センサ配置調整部>
図6は、センサ配置調整部5の機能ブロックを示す図である。図6を用いて、センサ配置調整部5を説明する。センサ配置調整部5は、計測中心点検出部30、計測モデル照合部31、センサ配置位置出力部32の機能を有する。各機能の概要を説明すると、計測中心点検出部30は人流マップの情報から対象エリアにおける計測の中心位置を示す重要計測ポイントを決定する機能、計測モデル照合部31は取得した計測モデルを、重要計測ポイントを中心に人流マップへ照合することで、対象エリア内の全てのセルの計測感度を更新する機能、センサ配置位置出力部32は、最適化された感度マップ情報からセンサ位置の情報を出力する機能を有する。以下、各機能の詳細を説明する。
<Sensor placement adjustment unit>
FIG. 6 is a diagram illustrating functional blocks of the sensor arrangement adjustment unit 5. The sensor arrangement adjustment unit 5 will be described with reference to FIG. The sensor arrangement adjustment unit 5 has functions of a measurement center point detection unit 30, a measurement model collation unit 31, and a sensor arrangement position output unit 32. The outline of each function will be explained. The measurement center point detection unit 30 is a function for determining an important measurement point indicating the center position of the measurement in the target area from the information of the human flow map, and the measurement model collating unit 31 The function of updating the measurement sensitivity of all cells in the target area by collating with the human flow map centering on the measurement point, the sensor arrangement position output unit 32 outputs the sensor position information from the optimized sensitivity map information It has the function to do. Details of each function will be described below.

図7は、計測中心点検出部30により出力する重要計測ポイント(候補計測地点)の一例を示す図である。重要計測ポイントの決定方法としては、4つのセルを包括する探索ウインドウ40を走査させ、「全てのセルに人流の向き情報が含まれる」、「人流の向きの分散が最大」という2つの条件を満たす隣接した4つのセルを探索し、その中心位置を重要計測ポイント(候補計測地点)とする方法がある。   FIG. 7 is a diagram illustrating an example of important measurement points (candidate measurement points) output by the measurement center point detection unit 30. As a method for determining important measurement points, a search window 40 including four cells is scanned, and two conditions are set such that “all cells contain human flow direction information” and “maximum distribution of human flow directions”. There is a method of searching for four adjacent cells to satisfy and using the center position as an important measurement point (candidate measurement point).

前者の条件付けの理由としては、レイアウト情報のひとつである壁などの人物が存在しない領域を計測対象から除くことで効率的なセンサ配置を実施するためで、後者の理由としては人流情報を把握したい場合や人物を追跡したい場合に、人流の向き(人流方向情報)の変化が多い地点(混雑状況情報)は重要な計測対象となる確率が高いためである。   The reason for the former is to implement efficient sensor placement by excluding areas such as walls, which are one of the layout information, from non-existent areas, and the latter reason is to understand human flow information. This is because a point (congestion state information) with a large change in the direction of human flow (human flow direction information) has a high probability of being an important measurement target when tracking a person or a person.

なお、重要計測ポイントの決定方法としては、マップ情報から位置環境情報である建物の出入り口の位置を判定する方法、使用者がGUI(Graphical User Interface)などを利用することで、手動で設定する方法など、重要計測ポイントの数が1つ以上決定できる方法であれば特に限定しない。また、計測項目により重要計測ポイントの計測方法を切り替えてもよい。例えば、計測項目が人物追跡の場合は図7に示した方法、不審者検出の場合はマップ情報から計測の中心エリアと考えられる建物の出入り口の位置を判定する方法を用いてもよい。   In addition, as a method of determining important measurement points, a method of determining the position of the entrance of a building, which is position environment information, from map information, or a method of manual setting by a user using a GUI (Graphical User Interface) or the like There is no particular limitation as long as the number of important measurement points can be determined one or more. Further, the measurement method of the important measurement points may be switched depending on the measurement item. For example, when the measurement item is person tracking, the method shown in FIG. 7 may be used, and when the suspicious person is detected, the method of determining the position of the entrance / exit of the building considered as the central area of measurement from the map information may be used.

すなわち、計測中心点検出部(重要計測ポイント検出部)は、監視対象のエリアのレイアウト情報、人流方向情報、位置環境情報、混雑状況情報の少なくとも1つ以上を用いて、対象エリア内における計測すべき重要な地点を、1つ以上を抽出するとよい。   That is, the measurement center point detection unit (important measurement point detection unit) performs measurement in the target area using at least one of layout information, person flow direction information, position environment information, and congestion status information of the monitoring target area. One or more important points should be extracted.

図8は、計測モデル照合部31の処理を示すフローチャートである。計測モデル照合部31では、まず、計測モデル生成部3から計測モデルを取得する(処理S1)。続いて、30により検出した重要計測ポイント付近のセルの計測感度を確認し(処理S2)、閾値未満であれば(処理S2,No)重要計測ポイントに計測モデルを照合し(S3)、閾値以上であれば(処理S2,Yes)計測感度が設定されていないセル付近を中心に新たな重要計測ポイントを作成後(処理S4)に処理S3を実施する。そして、計測モデルが照合された各セルの計測感度の値を更新し(処理S5)、対象エリア内の全てのセルの計測感度が閾値以上であるか確認する(処理S6)。閾値未満であれば(処理S6,No)処理S2に戻り、閾値以上であれば(処理S6,Yes)、計測モデル照合部31の処理を終了する。そして、センサ配置位置出力32(図6参照)がセンサ配置位置を出力する。以下に、処理S3における計測モデルの照合方法と、処理S4における重要計測ポイントの作成方法、S5における計測感度の計算方法について詳細に説明する。   FIG. 8 is a flowchart showing the processing of the measurement model matching unit 31. In the measurement model collation unit 31, first, a measurement model is acquired from the measurement model generation unit 3 (processing S1). Subsequently, the measurement sensitivity of the cell near the important measurement point detected by 30 is confirmed (processing S2), and if it is less than the threshold value (processing S2, No), the measurement model is collated with the important measurement point (S3), and the threshold value is exceeded. If so (Processing S2, Yes), after creating a new important measurement point centering on the vicinity of the cell where the measurement sensitivity is not set (Processing S4), the process S3 is performed. And the value of the measurement sensitivity of each cell with which the measurement model was collated is updated (process S5), and it is confirmed whether the measurement sensitivity of all the cells in the target area is equal to or higher than the threshold (process S6). If it is less than the threshold value (No at Step S6), the process returns to Step S2, and if it is equal to or greater than the threshold value (Step S6, Yes), the process of the measurement model matching unit 31 is terminated. The sensor arrangement position output 32 (see FIG. 6) outputs the sensor arrangement position. Hereinafter, a method for collating the measurement model in the process S3, a method for creating an important measurement point in the process S4, and a method for calculating the measurement sensitivity in the step S5 will be described in detail.

図9は、計測モデル照合部31の処理S3を説明する図であり、(a)は人流マップ、(b)は計測モデルの計測方向、(c)はカメラの設置位置を示す図である。図9を用いて処理S3について説明する。ここでは、計測項目が人物追跡である場合において、図9(a)に示す重要計測ポイント50が設定された人流マップ51にカメラの計測モデルを照合するフローについて述べる。   FIG. 9 is a diagram for explaining the processing S3 of the measurement model collation unit 31, where (a) is a human flow map, (b) is a measurement direction of the measurement model, and (c) is a diagram illustrating a camera installation position. The process S3 will be described with reference to FIG. Here, when the measurement item is person tracking, a flow for collating the camera measurement model with the human flow map 51 in which the important measurement points 50 shown in FIG. 9A are set will be described.

図9(b)における52は重要計測ポイント50付近の拡大図であり、53はカメラ、54は53の計測モデル、55は計測モデルの中心線、56a、56b、56cは50を中心とした人流の向きを表す直線、57は対象エリア外の領域と計測モデルの領域との重複部分、58はセンサの設置位置と重要計測ポイントを結んだ直線を示している。   9B is an enlarged view of the vicinity of the important measurement point 50, 53 is a camera, 54 is a measurement model of 53, 55 is a center line of the measurement model, 56a, 56b, and 56c are human flows centered on 50. A straight line representing the orientation of the sensor, 57 is an overlapping portion of the area outside the target area and the measurement model area, and 58 is a straight line connecting the sensor installation position and the important measurement point.

処理S3では、まず人流マップにおける計測モデル54の設置位置を決定した後に、人流の向きにより最適な計測方向を推定する。54の設置位置を決定する方法としては、計測モデルの重心を重要計測ポイント50に合わせる手法がある。その他にも、計測モデルの中で最も計測精度が高い領域の重心に設定する方法、または、計測モデルを生成する際に予めセンサ情報などから取得した計測精度が最も高い位置情報を計測モデルに付与し、その位置を重要計測ポイントと一致させる方法などがあり、特に限定しない。   In the process S3, after first determining the installation position of the measurement model 54 in the human flow map, an optimal measurement direction is estimated from the direction of the human flow. As a method of determining the installation position 54, there is a method of matching the center of gravity of the measurement model with the important measurement point 50. Other methods include setting the center of gravity of the region with the highest measurement accuracy in the measurement model, or providing the measurement model with position information with the highest measurement accuracy acquired from sensor information in advance when generating the measurement model. However, there is a method of matching the position with the important measurement point, and there is no particular limitation.

次に、計測モデルの計測方向を推定する方法について説明する。カメラによる人物追跡を実施する場合、カメラに対して水平な動きよりも垂直な向きに移動する人物の方が、追跡が容易になる傾向がある。また、不審者検知においても垂直方向から撮影することで不審者の顔が撮影されやすいといった利点もある。   Next, a method for estimating the measurement direction of the measurement model will be described. When tracking a person using a camera, tracking tends to be easier for a person who moves in a vertical direction than a horizontal movement with respect to the camera. In addition, the suspicious person detection also has an advantage that the face of the suspicious person can be easily photographed by photographing from the vertical direction.

そこで、本例では、計測モデルの中心線55と各人流の向きを表す直線56a、56b、56cとの成す角度θa,θb、θcが、一定値以下となる方向を計測モデルの向き候補とし、壁などの計測対象外エリアと計測モデルの重複面積57が最小となる向きを最終の計測モデルの向きとする。   Therefore, in this example, the direction in which the angles θa, θb, and θc formed by the center line 55 of the measurement model and the straight lines 56a, 56b, and 56c representing the direction of each person flow are equal to or less than a certain value is set as a measurement model direction candidate. The direction in which the overlapping area 57 of the measurement target area such as a wall and the measurement model is the minimum is the direction of the final measurement model.

なお、照合した計測モデルからカメラ53の設置位置が壁や人流マップ外などの設置対象では無いエリアに設定された場合は、その設置位置と重要計測ポイントを直線58(図9(c))で結び、設置対象内に設置位置が含まれるように計測モデルを平行移動してもよい。また、前述した方法により最適な計測モデルの位置が複数候補として出力される場合は、自動的に片方を選択する方法や人手により片方を選択する方法などで対応する。また、計測モデルの計測方向を決定するために、マップ情報などを参考にしてもよく、例えば出入りする人物の撮影を重視するために出入り口が撮影できる方向を優先するや、逆光などの外乱による計測精度の低下を防止あるいはプライバシーを保護するために屋外が撮影されない方向を優先するなどの方法を取り入れてもよい。   If the installation position of the camera 53 is set in an area that is not an installation target such as a wall or outside the human flow map from the collated measurement model, the installation position and the important measurement point are represented by a straight line 58 (FIG. 9C). Finally, the measurement model may be translated so that the installation position is included in the installation target. Further, when the optimum measurement model position is output as a plurality of candidates by the above-described method, it is possible to cope with the method of automatically selecting one or the method of manually selecting one. In addition, you may refer to map information etc. to determine the measurement direction of the measurement model.For example, priority is given to the direction in which the entrance / exit can be photographed in order to place importance on the photographing of people coming in and out, and measurement by disturbance such as backlighting. In order to prevent a decrease in accuracy or protect privacy, a method of giving priority to a direction in which the outdoor is not photographed may be adopted.

図10は、計測モデル照合部31の処理S5を説明する図であり、(a)は計測モデル60、(b)は人流マップ51に照合した計測モデル60a,60b、(c)(d)は人流マップ51内のセルの拡大図である。処理S4を説明する前に、セルの計測感度を算出する処理S5について図10を用いて説明する。   FIG. 10 is a diagram for explaining the processing S5 of the measurement model collation unit 31. (a) is the measurement model 60, (b) is the measurement models 60a and 60b collated with the human flow map 51, and (c) and (d) are It is an enlarged view of the cell in the human flow map. Before describing the process S4, the process S5 for calculating the measurement sensitivity of the cell will be described with reference to FIG.

図10(a)において、60は計測モデル、図10(b)において60a、60bは処理S3により人流マップ51に照合した計測モデル、61a、61bは人流マップ内の2つのセルの拡大図を示している。図10(c)において、セル61aでは、計測モデル60bの計測可能領域のみ存在しており、62は計測精度90%の領域、63は計測精度70%の領域を示している。また、図10(d)において、セル61bでは、計測モデル60a、60bの両方の計測可能領域が存在しており、64は60aの計測精度40%の領域、65は60bの計測精度40%の領域、66は60a、60bの計測精度40%の重複領域を示している。領域62、63、64、65のような他の領域と重複が無い場合の計測感度は[数1]により導出できる。   In FIG. 10A, 60 is a measurement model, in FIG. 10B, 60a and 60b are measurement models collated with the human flow map 51 by the process S3, and 61a and 61b are enlarged views of two cells in the human flow map. ing. In FIG. 10C, only the measurable region of the measurement model 60b exists in the cell 61a, 62 indicates a region with a measurement accuracy of 90%, and 63 indicates a region with a measurement accuracy of 70%. In FIG. 10D, in the cell 61b, there are both measurable regions of the measurement models 60a and 60b, 64 is a region with a measurement accuracy of 40% of 60a, and 65 is a measurement accuracy of 40b with 60%. An area 66 indicates an overlapping area of 60a and 60b with a measurement accuracy of 40%. The measurement sensitivity when there is no overlap with other regions such as regions 62, 63, 64, and 65 can be derived from [Equation 1].

Figure 2017207872
Figure 2017207872

領域66のように重複がある場合は[数1]でそれぞれ求めた計測感度の平均を求めることで導出できる。そして、各領域の計測感度の合計がその領域を含むセルの計測感度となる。なお、計測感度の計算方法としては、セル毎に算出でき、その値がセンサの計測精度を考慮したものでセル同士の間で相対的に比較可能であれば、特に限定しない。   When there is an overlap as in the region 66, it can be derived by obtaining the average of the measurement sensitivities obtained in [Equation 1]. The total measurement sensitivity of each region is the measurement sensitivity of the cell including that region. The method for calculating the measurement sensitivity is not particularly limited as long as it can be calculated for each cell, and the value can be relatively compared between cells in consideration of the measurement accuracy of the sensor.

図11は、計測モデル照合部31の処理S4を説明する図である。図11を用いて処理S4について説明する。図11において、70は計測感度が反映された人流マップの一例、71は重要計測ポイント、72は各セルの計測感度値、73は重要計測ポイント付近に存在する計測感度が閾値(本例では30)未満であるセル、74a、74b、74c、74d、74eは新規に作成する重要計測ポイントの位置候補を示している。処理S4では、予め設定した条件下において、多くの73の計測感度が閾値以上となるよう重要計測ポイントの位置を決定する。   FIG. 11 is a diagram for explaining the process S <b> 4 of the measurement model collation unit 31. The process S4 will be described with reference to FIG. In FIG. 11, 70 is an example of a human flow map in which measurement sensitivity is reflected, 71 is an important measurement point, 72 is a measurement sensitivity value of each cell, and 73 is a measurement sensitivity existing in the vicinity of the important measurement point is a threshold (30 in this example). ) Cells 74 a, 74 b, 74 c, 74 d, and 74 e indicate position candidates of important measurement points to be newly created. In the process S4, the positions of important measurement points are determined so that many 73 measurement sensitivities are equal to or higher than a threshold value under preset conditions.

位置を決定する方法は、図11の例のように、計測感度が算出済みのセルと73が接する格子点を候補とし、「周囲4つのセルが全て対象エリア内である」、「重要計測ポイントとの距離が近い」などの条件を元に最終の位置を出力する方法があり、本例では74cが位置候補となる。   As the method for determining the position, as shown in the example of FIG. 11, the grid points where the measurement sensitivity has been calculated and the cell 73 are in contact are candidates, and “all four surrounding cells are within the target area”, “important measurement points” There is a method of outputting the final position based on a condition such as “the distance is close to”. In this example, 74c is a position candidate.

なお、位置候補としては格子点に限定されず、セルの中心点や格子線上などでもよく、「出入り口に近いセルを優先する」などのマップ情報を利用するなどでもよく、特に上記の条件に限定されない。   Note that the position candidates are not limited to grid points, but may be cell center points or grid lines, or may use map information such as “prioritize cells close to the entrance / exit”, particularly limited to the above conditions. Not.

本実施形態では、処理S4と処理S3を繰り返し実施することで、各セルの計測感度を更新し対象エリア全体の計測精度が最適化されたセンサ位置を出力する。そのため、処理S3を実施する際に、既に重要計測ポイントと照合された計測モデルと新規の重要計測ポイントに合わせた計測モデルの計測可能領域が重複する場合があり、その重複領域の面積から後者の計測モデルの位置と向きを調整してもよい。   In the present embodiment, by repeatedly performing the processing S4 and the processing S3, the measurement sensitivity of each cell is updated, and the sensor position where the measurement accuracy of the entire target area is optimized is output. Therefore, when the process S3 is performed, the measurable area of the measurement model already matched with the important measurement point and the measurement model of the measurement model according to the new important measurement point may overlap. The position and orientation of the measurement model may be adjusted.

図12は、計測モデル照合部31により計測モデルを照合する一例を示す図である。例えば、図12のように、処理S4により求めた重要計測ポイント81に計測モデル80bを照合すると、計測モデル80aとの重複領域82が発生する。この場合、不審者の検出などは対象エリアに死角が生じないようセンサを設置することが求められるため、この重複領域82が小さくなる計測方法の優先度を上げるとよい。また、人物追跡の場合は重複領域82が多いほど計測精度が上がるため、重複領域82が計測モデルの一定割合以上の面積となる計測方向の優先度を上げるとよい。また、各セルにおける重複領域82の割合を、計測方法を決定する条件に加えるなどの方法でもよく、特に限定しない。   FIG. 12 is a diagram illustrating an example of collating a measurement model by the measurement model collating unit 31. For example, as shown in FIG. 12, when the measurement model 80b is collated with the important measurement point 81 obtained in step S4, an overlapping area 82 with the measurement model 80a is generated. In this case, since detection of a suspicious person, etc. requires that a sensor be installed so that no blind spot is generated in the target area, it is preferable to increase the priority of the measurement method in which the overlapping area 82 is reduced. In the case of person tracking, since the measurement accuracy increases as the number of overlapping regions 82 increases, it is preferable to increase the priority of the measurement direction in which the overlapping region 82 has an area of a certain ratio or more of the measurement model. Moreover, the method of adding the ratio of the overlapping area 82 in each cell to the conditions which determine a measuring method may be sufficient, and it does not specifically limit.

センサ配置位置出力部32(図6参照)は、計測モデル照合部31により取得した人流マップにおける計測モデルの位置情報から、最終的なセンサの配置位置を出力する。   The sensor arrangement position output unit 32 (see FIG. 6) outputs the final sensor arrangement position from the position information of the measurement model in the human flow map acquired by the measurement model matching unit 31.

図13は、センサ配置調整部5により出力するセンサ位置の一例を示す図である。以上述べた処理により、センサ配置調整部5は、図13のように、対象エリアにおける各重要計測ポイントを全てのセンサの位置を決定する。   FIG. 13 is a diagram illustrating an example of the sensor position output by the sensor arrangement adjustment unit 5. By the processing described above, the sensor arrangement adjustment unit 5 determines the positions of all the sensors for each important measurement point in the target area as shown in FIG.

本実施形態のセンサ配置調整部5(センサ配置決定手段)は、計測モデルと人流マップに基づきセンサの配置位置を決定しているが、これに限定されるわけではない。センサ配置調整部5は、対象エリアのレイアウト情報、人流方向情報、位置環境情報、混雑状況情報の少なくとも1つ以上を用いて、センサの配置位置を決定してもよい。   The sensor arrangement adjusting unit 5 (sensor arrangement determining means) of the present embodiment determines the sensor arrangement position based on the measurement model and the human flow map, but is not limited thereto. The sensor arrangement adjustment unit 5 may determine the arrangement position of the sensor using at least one or more of layout information of the target area, human flow direction information, position environment information, and congestion status information.

なお、センサ配置調整部5で使用する計測モデルは、同じセンサであっても形状が異なるものを使用してもよい。例えば、マップ情報と重要計測ポイントに照合した計測モデルの位置からセンサを配置する高さが取得できるため、その高さ情報から生成された計測モデルを処理S3により人流マップに照合してもよい。   Note that the measurement model used in the sensor arrangement adjustment unit 5 may be the same sensor but different shapes. For example, since the height at which the sensor is arranged can be acquired from the position of the measurement model collated with the map information and the important measurement point, the measurement model generated from the height information may be collated with the human flow map by processing S3.

また、人流情報から混雑が生じやすいあるいは閑散とした対象エリアを判定し、そのエリア内においては計測精度が変化した計測モデルを照合し各セルの計測感度を算出することで、より高精度なセンサの計測方向などを決定できる。   In addition, it is possible to determine a target area that is likely to be congested or quiet based on human flow information, and collate a measurement model whose measurement accuracy has changed within that area to calculate the measurement sensitivity of each cell. You can determine the measurement direction.

なお、センサ配置調整部5にて異なるセンサの計測モデルを使用してもよい。例えば、基本的にはカメラの計測モデルを人流マップに照合していき、広範囲のエリア内にてセルの人流方向が同一である場合は混雑が生じにくいエリアと判断し、レーザレーダの計測モデルを照合するという方法などでもよい。この場合、例えばユーザによって予め使用するカメラとレーザレーダの台数または全体のコストなどを指定してもらうことで、最適化の条件として追加してもよい。   Note that different sensor measurement models may be used in the sensor arrangement adjustment unit 5. For example, basically the camera measurement model is collated with the human flow map, and if the cell human flow direction is the same in a wide area, it is determined that the area is unlikely to be crowded, and the laser radar measurement model is The method of collating may be used. In this case, for example, it may be added as an optimization condition by having the user specify the number of cameras and laser radars to be used in advance or the total cost.

また、センサ配置調整部5にて異なるセンサの計測モデルを使用する際に、例えば、図8の処理S3の際に、照合済みの計測モデルと新規モデルとの計測範囲の重複率が大きい場合は、計測モデルを変更して重複率が少ない方を選択する処理を加え、設置センサ数を最小限にするという方法などがある。   Further, when using a measurement model of a different sensor in the sensor arrangement adjustment unit 5, for example, in the case of the process S3 in FIG. 8, when the overlapping ratio of the measurement range of the verified measurement model and the new model is large There is a method of minimizing the number of installed sensors by adding a process of changing the measurement model and selecting the one with a lower duplication rate.

また、センサ配置調整部5にて出力するセンサ配置のパターンは1つだけではなく、複数出力してもよい。例えば、ある重要計測ポイントにてセンサ位置を決定する際に、2つの計測方向にて同一の計測感度を示した場合はどちらか片方を選択しセンサ配置を出力した後、もう片方を選択した場合のセンサ配置を出力して、ユーザが最終的に選択する方法や、算出した対象エリア全体の計測感度を比較することで高い方を自動で選択する方法などを使用してもよい。   The sensor arrangement adjustment unit 5 outputs not only one sensor arrangement pattern but also a plurality of patterns. For example, when determining the sensor position at an important measurement point, if the same measurement sensitivity is shown in two measurement directions, either one is selected and the sensor arrangement is output, then the other is selected. A method in which the sensor arrangement is output and the user finally selects, or a method in which the higher one is automatically selected by comparing the calculated measurement sensitivities of the entire target area may be used.

本発明の実施形態1では、以上説明した機能構成により、センサの特性と計測項目に応じた計測モデルを生成し、計測範囲のレイアウト情報から作成した人流マップに照合し計測感度を算出することで、複数のセンサの配置位置を自動で出力することができる。   In Embodiment 1 of the present invention, with the functional configuration described above, a measurement model corresponding to sensor characteristics and measurement items is generated, and the measurement sensitivity is calculated by collating with a human flow map created from the layout information of the measurement range. The arrangement positions of a plurality of sensors can be automatically output.

なお、実施形態1において、2次元空間のみではなく3次元空間の情報を用いてカメラの設置位置を出力することができる。例えば、2次元のマップをセルに分割した人流マップではなく、3次元空間を複数のボクセルに分割した人流マップを使用し、各ボクセルの人流の向き及び計測感度を3次元の計測モデルにより導出することで、図1の一連のフローを実施してもよい。   In the first embodiment, the camera installation position can be output using not only the two-dimensional space but also the information of the three-dimensional space. For example, instead of a human flow map obtained by dividing a two-dimensional map into cells, a human flow map obtained by dividing a three-dimensional space into a plurality of voxels is used, and the direction and measurement sensitivity of the human flow of each voxel are derived using a three-dimensional measurement model. Thus, the series of flows in FIG. 1 may be performed.

<<実施形態2>>
図14は、実施形態2に係るセンサ設置位置支援装置1Aの機能ブロック図を示す図である。センサ設置位置支援装置1Aは、図1と比較して、センサ情報取得部6、人流情報取得部7を有し、データベース2には、センサ情報取得部6で取得したセンサ設置情報104が記憶されている。実施形態2は、既にセンサが設置済みの状況下において、センサの設置方法の修正や新たなセンサの配置位置の出力を実施する。
<< Embodiment 2 >>
FIG. 14 is a functional block diagram of the sensor installation position support apparatus 1A according to the second embodiment. Compared to FIG. 1, the sensor installation position support apparatus 1 </ b> A includes a sensor information acquisition unit 6 and a human flow information acquisition unit 7, and the sensor installation information 104 acquired by the sensor information acquisition unit 6 is stored in the database 2. ing. In the second embodiment, in a situation where a sensor has already been installed, the sensor installation method is corrected and a new sensor arrangement position is output.

センサ配置調整部5Aは、対象エリアに既設されたセンサの情報から全体の計測感度を算出することで、計測感度が低いエリアを判定し感度向上のためにセンサの設置方法の補正を実施し、場合によっては新たなセンサの設置位置を出力する。以下は、センサ配置調整部5Aの詳細について説明する。   The sensor placement adjustment unit 5A calculates the overall measurement sensitivity from the information of the sensors already installed in the target area, determines the area where the measurement sensitivity is low, and corrects the sensor installation method to improve the sensitivity. In some cases, a new sensor installation position is output. The details of the sensor arrangement adjustment unit 5A will be described below.

図15は、実施形態2に係るセンサ配置調整部の処理を示すフローチャートである。図15において、処理S2,S4,S5,S6は図8の処理と同一である。センサ配置調整部5Aは、まず対象エリアの人流マップ及び現在設置しているセンサの計測モデルから対象エリア内の全てのセルの計測感度を算出する(処理S20)。次に、図6の計測中心点検出部30と同様の方法などを用いることにより、対象エリアにおける重要計測ポイントの初期位置を1つ以上決定する(処理S21)。   FIG. 15 is a flowchart illustrating processing of the sensor arrangement adjustment unit according to the second embodiment. In FIG. 15, processes S2, S4, S5 and S6 are the same as the processes in FIG. First, the sensor arrangement adjustment unit 5A calculates the measurement sensitivity of all cells in the target area from the human flow map of the target area and the measurement model of the currently installed sensor (processing S20). Next, one or more initial positions of important measurement points in the target area are determined by using a method similar to that of the measurement center point detection unit 30 in FIG. 6 (processing S21).

そして、センサ配置調整部5Aは、重要計測ポイント付近のセルの計測感度が閾値以上であるか否かを判断する(処理S2)。重要計測ポイント付近のセルの計測感度が閾値以上であれば(処理S2,Yes)、新たに重要計測ポイント作成し(処理S4)、処理S22に進む。重要計測ポイント付近のセルの計測感度が閾値未満であれば(処理S2,No)、処理S22に進む。   Then, the sensor arrangement adjustment unit 5A determines whether or not the measurement sensitivity of the cell near the important measurement point is equal to or higher than the threshold (processing S2). If the measurement sensitivity of the cell in the vicinity of the important measurement point is equal to or higher than the threshold value (step S2, Yes), a new important measurement point is created (step S4), and the process proceeds to step S22. If the measurement sensitivity of the cell near the important measurement point is less than the threshold (No at Step S2), the process proceeds to Step S22.

処理S22では、重要な計測ポイント付近に既存の計測モデル(現在設置されているセンサの計測モデル)が存在するか否かを判断する。具体的には、重要計測ポイントと既存の計測モデルの位置との距離を計算し閾値以内であれば近くに存在すると判断する。なお、処理S22の確認方法としては、特に位置関係を比較できる方法であれば特に限定しない。   In process S22, it is determined whether an existing measurement model (a measurement model of a currently installed sensor) exists in the vicinity of an important measurement point. Specifically, the distance between the important measurement point and the position of the existing measurement model is calculated. In addition, as a confirmation method of process S22, if it is a method which can compare especially a positional relationship, it will not specifically limit.

処理S22により既存の計測モデルが存在しないと判定された場合は(処理S22,No)、新規に計測モデルを計測モデル生成部3から取得し図8の処理S3と同様の処理にて重要計測モデルに照合し(処理S23)、処理S5に進む。   If it is determined in step S22 that no existing measurement model exists (No in step S22), a new measurement model is acquired from the measurement model generation unit 3, and an important measurement model is obtained by the same process as the process S3 in FIG. (Step S23), and the process proceeds to step S5.

一方、処理S22により既存の計測モデルが存在することが確認された場合は(処理S22,Yes)、既存の計測モデルを重要計測ポイントに照合し(処理S24)、処理S5に進む。なお、処理S24としては、計測モデルの位置が固定されているため計測方向のみの調整となり、その方法としては処理S3と同様の処理でよい。   On the other hand, when it is confirmed by the process S22 that the existing measurement model exists (process S22, Yes), the existing measurement model is collated with the important measurement point (process S24), and the process proceeds to the process S5. In addition, as process S24, since the position of the measurement model is fixed, only the measurement direction is adjusted, and the method may be the same process as process S3.

最後に、計測モデルが照合されたセルの計測感度を更新し(処理S5)、処理S6において、対象エリア内の全てのセルの計測感度が閾値以上となれば(処理S6,Yes)、処理を終了し、閾値未満であれば(処理S6,No)、再度、処理S2に戻る。   Finally, the measurement sensitivity of the cell with which the measurement model is collated is updated (processing S5). If the measurement sensitivity of all the cells in the target area is equal to or greater than the threshold value in processing S6 (processing S6, Yes), the processing is performed. If it is less than the threshold (No at Step S6), the process returns to Step S2.

実施形態2では、センサ配置調整部5Aにより処理が終了された際の人流マップにおける計測モデルの位置を最終のセンサ配置位置として出力する。なお、センサ配置調整部5Aにおいて、ユーザの希望によっては、新規に計測モデルを作成して照合する処理は行わず、既設のセンサの計測モデルのみを人流マップに照合することでセンサの計測方向を補正する方法としてもよい。   In the second embodiment, the position of the measurement model in the human flow map when the process is finished by the sensor arrangement adjustment unit 5A is output as the final sensor arrangement position. Note that the sensor placement adjustment unit 5A does not perform a process of creating a new measurement model and collating it according to the user's wish, and collating only the measurement model of the existing sensor with the human flow map to change the measurement direction of the sensor. A correction method may be used.

図16は、センサ配置調整部5Aにより調整されるセンサ位置の一例を示す図であり、(a)は調整前の計測感度、(b)は調整後の計測感度である。図16に、センサ配置調整部5Aによりセンサの設置角度が調整される例を示す。図16において、53はセンサ、60cは53の計測モデル、70a、70bはセンサ配置調整部5Aによるセンサ位置の調整前後における計測感度が反映された人流マップ、110は対象エリア内の1つのセルを示している。例えば、ユーザが計測感度の閾値を50と設定した場合、セル110では計測感度が不足しているため、53の設置角度を変更することで110の計測感度を50とし、対象エリア内の全てのセルの計測感度を閾値以上となるセンサ配置を出力できる。   FIG. 16 is a diagram illustrating an example of a sensor position adjusted by the sensor arrangement adjustment unit 5A, where (a) shows measurement sensitivity before adjustment, and (b) shows measurement sensitivity after adjustment. FIG. 16 shows an example in which the sensor installation angle is adjusted by the sensor arrangement adjustment unit 5A. In FIG. 16, 53 is a sensor, 60c is a measurement model of 53, 70a and 70b are human flow maps reflecting measurement sensitivity before and after sensor position adjustment by the sensor placement adjustment unit 5A, and 110 is one cell in the target area. Show. For example, when the user sets the measurement sensitivity threshold value to 50, the measurement sensitivity is insufficient in the cell 110. Therefore, by changing the installation angle of 53, the measurement sensitivity of 110 is set to 50. It is possible to output a sensor arrangement in which the measurement sensitivity of the cell is equal to or higher than a threshold value.

本発明の実施形態2では以上説明した機能構成により、対象エリアに既に設置されているセンサの位置情報を考慮して人流マップに計測モデルを照合し計測感度を算出することで、既設のセンサの設置方法を修正し、必要に応じて新たなセンサの設置位置を出力できる。   In the second embodiment of the present invention, with the functional configuration described above, the measurement model is collated with the human flow map in consideration of the position information of the sensor already installed in the target area, and the measurement sensitivity is calculated. The installation method can be modified, and a new sensor installation position can be output if necessary.

なお、実施形態2では、人流マップの作成、計測モデルの作成、計測モデルの重要計測ポイントへの照合の際に、人流情報取得部7で取得した既設のセンサにより計測した人流情報や人物の検出率などの結果を利用してもよい。例えば、施設内のレイアウト変更により人流が変更前と比べて大きく変化した際に、実施形態2を適用することで変更後のレイアウトに適したセンサ配置を出力できる。   In the second embodiment, when creating a human flow map, creating a measurement model, or collating a measurement model with an important measurement point, detecting human flow information or a person measured by an existing sensor acquired by the human flow information acquisition unit 7 Results such as rate may be used. For example, when the human flow changes greatly compared to before the change due to the layout change in the facility, the sensor arrangement suitable for the layout after the change can be output by applying the second embodiment.

本実施形態のセンサ設置位置支援装置1は、センサの特性情報と計測項目情報とに基づき該センサの計測範囲を示す計測モデルを生成する計測モデル生成部3と、監視対象のエリアのマップ情報と該エリアの人流情報とに基づき該エリアの人流方向を示す人流マップを生成する人流マップ生成部4と、計測モデルと人流マップに基づきエリアを構成するセル毎の計測感度を算出し、該算出した計測感度に基づきエリアにおけるセンサの配置位置を決定するセンサ配置調整部5とを有する。なお、計測モデルは、センサからの距離に応じた計測精度と計測可能な範囲とを含んでおり、計測感度は、計測精度が1に対する比率がAの場合に、セルの面積に対する計測精度がAの面線の比率とAとを積算した値である。   The sensor installation position support apparatus 1 according to the present embodiment includes a measurement model generation unit 3 that generates a measurement model indicating a measurement range of the sensor based on sensor characteristic information and measurement item information, and map information of an area to be monitored. Based on the human flow information of the area, the human flow map generation unit 4 that generates a human flow map indicating the flow direction of the area, and the measurement sensitivity for each cell constituting the area is calculated based on the measurement model and the human flow map. And a sensor arrangement adjustment unit 5 that determines the arrangement position of the sensor in the area based on the measurement sensitivity. Note that the measurement model includes measurement accuracy according to the distance from the sensor and a measurable range, and the measurement sensitivity is such that when the ratio of measurement accuracy to 1 is A, the measurement accuracy for the cell area is A. It is a value obtained by integrating the ratio of the surface line and A.

以上述べた実施形態のセンサ設置位置支援装置1,1Aを適用することで、顧客の計測ニーズに応じて、1つまたは複数のセンサの設置位置を自動で決定できる。   By applying the sensor installation position support apparatuses 1 and 1A of the embodiment described above, the installation positions of one or a plurality of sensors can be automatically determined according to the measurement needs of the customer.

1,1A センタ設置位置支援装置
2 データベース(記憶手段)
3 計測モデル生成部(計測モデル生成手段)
4 人流マップ生成部(人流マップ生成手段)
5,5A センサ配置調整部(センサ設置位置決定手段)
6 センサ情報取得部
7 人流情報取得部
10 単眼カメラ(センサ)
12 レーザセンサ(センサ)
11a,11b,13a,13b 計測モデル
20 レイアウト俯瞰図(レイアウト情報)
23 人流マップ
100 マップ情報
101 人流情報
102 センサ情報
103 計測項目情報
104 センサ設置情報
1,1A Center installation position support device 2 Database (storage means)
3 Measurement model generator (measurement model generator)
4 Human flow map generation unit (human flow map generation means)
5,5A Sensor arrangement adjustment unit (sensor installation position determining means)
6 Sensor information acquisition unit 7 Human flow information acquisition unit 10 Monocular camera (sensor)
12 Laser sensor (sensor)
11a, 11b, 13a, 13b Measurement model 20 Layout overhead view (layout information)
23 Human flow map 100 Map information 101 Human flow information 102 Sensor information 103 Measurement item information 104 Sensor installation information

Claims (13)

センサの特性情報と計測項目情報とに基づき該センサの計測範囲を示す計測モデルを生成する計測モデル生成手段と、
監視対象のエリアのマップ情報と該エリアの人流情報とに基づき該エリアの人流方向を示す人流マップを生成する人流マップ生成手段と、
前記計測モデルと前記人流マップに基づき前記エリアを構成するセル毎の計測感度を算出し、該算出した計測感度に基づき前記エリアにおける前記センサの配置位置を決定するセンサ配置決定手段とを有する
ことを特徴とするセンサ設置位置支援装置。
Measurement model generation means for generating a measurement model indicating the measurement range of the sensor based on the sensor characteristic information and the measurement item information;
A human flow map generating means for generating a human flow map indicating the flow direction of the area based on the map information of the area to be monitored and the human flow information of the area;
Sensor placement determining means for calculating measurement sensitivity for each cell constituting the area based on the measurement model and the human flow map, and determining the placement position of the sensor in the area based on the calculated measurement sensitivity. A featured sensor installation position support device.
前記人流マップ生成手段は、前記エリアのマップ情報から前記エリアのレイアウト情報を取得し、前記取得したレイアウト情報を、前記エリアを構成するセルに分割し、前記人流情報から前記セル毎の人流方向を決定する
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。
The human flow map generating means acquires the layout information of the area from the map information of the area, divides the acquired layout information into cells constituting the area, and determines the human flow direction for each cell from the human flow information. The sensor installation position support apparatus according to claim 1, wherein the sensor installation position support apparatus is determined.
前記センサ配置決定手段は、前記人流マップに前記計測モデルに含まれる計測精度を照合して、前記セル毎の計測感度を算出する
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。
2. The sensor installation position support device according to claim 1, wherein the sensor arrangement determining unit calculates the measurement sensitivity for each cell by comparing the measurement accuracy included in the measurement model with the human flow map.
前記センサ配置決定手段は、前記エリアのレイアウト情報、人流方向情報、位置環境情報、混雑状況情報の少なくとも1つ以上を用いて、前記エリア内における計測すべき候補計測地点を1つ以上抽出し、前記抽出した候補計測地点に前記計測モデルを配置する
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。
The sensor arrangement determining means extracts one or more candidate measurement points to be measured in the area by using at least one of the area layout information, human flow direction information, position environment information, and congestion status information, The sensor installation position support apparatus according to claim 1, wherein the measurement model is arranged at the extracted candidate measurement point.
前記センサ配置決定手段は、前記エリアのレイアウト情報、人流方向情報、位置環境情報、混雑状況情報の少なくとも1つ以上を用いて、前記センサの配置位置を決定する
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。
The sensor placement determination means determines the placement position of the sensor using at least one or more of layout information, flow direction information, position environment information, and congestion status information of the area. The described sensor installation position support device.
前記計測モデル生成手段は、前記エリアのレイアウト情報、人流方向情報、位置環境情報、混雑状況情報の少なくとも1つ以上を用いて、前記計測モデルの計測範囲または/および計測精度を変更する
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。
The measurement model generation means changes the measurement range or / and measurement accuracy of the measurement model by using at least one of layout information, flow direction information, position environment information, and congestion status information of the area. The sensor installation position support apparatus according to claim 1.
前記センサ配置決定手段は、前記候補計測地点付近の前記セルの計測感度が所定の閾値以上である場合に、前記候補計測地点付近を新規の前記候補計測地点とする
ことを特徴とする請求項4に記載のセンサ設置位置支援装置。
The said sensor arrangement | positioning determination means makes the said candidate measurement point vicinity the new said candidate measurement point, when the measurement sensitivity of the said cell near the said candidate measurement point is more than a predetermined threshold value. The sensor installation position support apparatus according to 1.
前記センサ配置決定手段は、前記エリア内のセルの計測感度が所定の閾値以上になるように前記計測モデルを変更する
ことを特徴とする請求項4に記載のセンサ設置位置支援装置。
The sensor placement position support device according to claim 4, wherein the sensor arrangement determination unit changes the measurement model so that the measurement sensitivity of the cells in the area is equal to or higher than a predetermined threshold value.
前記センサ配置決定手段は、前記センサの配置位置が複数ある場合、種類の異なるセンサの計測モデルを使用する
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。
The sensor placement position support apparatus according to claim 1, wherein when there are a plurality of placement positions of the sensors, the sensor placement determination unit uses measurement models of different types of sensors.
前記センサ設置位置支援装置は、さらに、設置済みのセンサ設置情報を取得するセンサ情報取得部を有し、
前記センサ配置決定手段は、前記センサ情報取得部で取得したセンサ設置位置を、前記候補計測地点とする
ことを特徴とする請求項4に記載のセンサ設置位置支援装置。
The sensor installation position support device further includes a sensor information acquisition unit that acquires already installed sensor installation information,
The sensor installation position support device according to claim 4, wherein the sensor arrangement determination unit sets the sensor installation position acquired by the sensor information acquisition unit as the candidate measurement point.
前記計測モデル生成手段は、前記センサ情報取得部で取得したセンサの特性情報と計測項目情報とに基づき該センサの計測範囲を示す計測モデルを生成する
ことを特徴とする請求項10に記載のセンサ設置位置支援装置。
The sensor according to claim 10, wherein the measurement model generation unit generates a measurement model indicating a measurement range of the sensor based on sensor characteristic information and measurement item information acquired by the sensor information acquisition unit. Installation position support device.
前記センサ設置位置支援装置は、さらに、設置済みのセンサから人流情報を取得する人流情報取得部を有し、
前記人流情報取得部で取得した人流情報に基づき前記エリアの人流情報とする
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。
The sensor installation position support device further includes a human flow information acquisition unit for acquiring human flow information from an installed sensor,
The sensor installation position support device according to claim 1, wherein the flow information is the human flow information of the area based on the human flow information acquired by the human flow information acquisition unit.
前記計測モデルは、前記センサからの距離に応じた計測精度と計測可能な範囲とを含んでおり、
前記計測感度は、前記計測精度が1に対する比率がAの場合に、前記セルの面積に対する前記計測精度がAの面積の比率と前記Aとを積算した値である
ことを特徴とする請求項3に記載のセンサ設置位置支援装置。
The measurement model includes a measurement accuracy according to a distance from the sensor and a measurable range,
The measurement sensitivity is a value obtained by integrating the ratio of the area of A to the area of the cell and the A when the ratio of the measurement accuracy to 1 is A. 5. The sensor installation position support apparatus according to 1.
JP2016098985A 2016-05-17 2016-05-17 Sensor installation position support device Active JP6678512B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016098985A JP6678512B2 (en) 2016-05-17 2016-05-17 Sensor installation position support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016098985A JP6678512B2 (en) 2016-05-17 2016-05-17 Sensor installation position support device

Publications (2)

Publication Number Publication Date
JP2017207872A true JP2017207872A (en) 2017-11-24
JP6678512B2 JP6678512B2 (en) 2020-04-08

Family

ID=60417110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016098985A Active JP6678512B2 (en) 2016-05-17 2016-05-17 Sensor installation position support device

Country Status (1)

Country Link
JP (1) JP6678512B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019116541A1 (en) * 2017-12-15 2019-06-20 株式会社日立製作所 Information processing device and measurable region simulation method
WO2020129247A1 (en) * 2018-12-21 2020-06-25 三菱電機株式会社 Information processing device, information processing method, and information processing program
JP2021196823A (en) * 2020-06-12 2021-12-27 公益財団法人鉄道総合技術研究所 Layout plan creation support system and layout plan creation support method
WO2023139692A1 (en) * 2022-01-19 2023-07-27 三菱電機ビルソリューションズ株式会社 Cleaning management device and cleaning management method
WO2023139693A1 (en) * 2022-01-19 2023-07-27 三菱電機ビルソリューションズ株式会社 Cleaning management device and cleaning management method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006132029A1 (en) * 2005-06-07 2009-01-08 松下電器産業株式会社 Surveillance system, surveillance method, and camera terminal
JP2011211687A (en) * 2010-03-25 2011-10-20 Nec (China) Co Ltd Method and device for correlating data
JPWO2011021588A1 (en) * 2009-08-20 2013-01-24 日本電気株式会社 Moving body trajectory identification system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006132029A1 (en) * 2005-06-07 2009-01-08 松下電器産業株式会社 Surveillance system, surveillance method, and camera terminal
JPWO2011021588A1 (en) * 2009-08-20 2013-01-24 日本電気株式会社 Moving body trajectory identification system
JP2011211687A (en) * 2010-03-25 2011-10-20 Nec (China) Co Ltd Method and device for correlating data

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019116541A1 (en) * 2017-12-15 2019-06-20 株式会社日立製作所 Information processing device and measurable region simulation method
JPWO2019116541A1 (en) * 2017-12-15 2020-12-17 株式会社日立製作所 Information processing device and measurable area simulation method
US11388392B2 (en) * 2017-12-15 2022-07-12 Hitachi, Ltd. Information processing apparatus and measurable region simulation method
WO2020129247A1 (en) * 2018-12-21 2020-06-25 三菱電機株式会社 Information processing device, information processing method, and information processing program
JP2021196823A (en) * 2020-06-12 2021-12-27 公益財団法人鉄道総合技術研究所 Layout plan creation support system and layout plan creation support method
JP7417476B2 (en) 2020-06-12 2024-01-18 公益財団法人鉄道総合技術研究所 Layout plan creation support system and layout plan creation support method
WO2023139692A1 (en) * 2022-01-19 2023-07-27 三菱電機ビルソリューションズ株式会社 Cleaning management device and cleaning management method
WO2023139693A1 (en) * 2022-01-19 2023-07-27 三菱電機ビルソリューションズ株式会社 Cleaning management device and cleaning management method
JP7546795B2 (en) 2022-01-19 2024-09-06 三菱電機ビルソリューションズ株式会社 Cleaning management device and cleaning management method
JP7546794B2 (en) 2022-01-19 2024-09-06 三菱電機ビルソリューションズ株式会社 CLEANING CONTROL DEVICE AND CLEANING CONTROL METHOD

Also Published As

Publication number Publication date
JP6678512B2 (en) 2020-04-08

Similar Documents

Publication Publication Date Title
JP6678512B2 (en) Sensor installation position support device
US11405543B2 (en) Exploring construction site images by construction stages
US9989626B2 (en) Mobile robot and sound source position estimation system
US9165190B2 (en) 3D human pose and shape modeling
KR100926783B1 (en) Method for self-localization of a robot based on object recognition and environment information around the recognized object
WO2016199244A1 (en) Object recognition device and object recognition system
CN103377471B (en) Object positioning method and device, optimum video camera are to determining method and apparatus
US20160286351A1 (en) Indoor navigation anomaly detection
JP5687082B2 (en) Moving object tracking device
US8731829B2 (en) Flow line detection system, flow line detection method, and flow line detection program
Qiu et al. Scan planning for existing buildings without BIM based on user-defined data quality requirements and genetic algorithm
KR20080075730A (en) Method for esrimating location using objectionrecognition of a robot
JP2016024598A (en) Control method of autonomous mobile apparatus
JP2020042447A (en) Device, program and method for estimating terminal position from immovable object information
US20220377285A1 (en) Enhanced video system
US11734883B2 (en) Generating mappings of physical spaces from point cloud data
JP5027758B2 (en) Image monitoring device
WO2019186889A1 (en) Camera arrangement suitability evaluation device, control method for same, optimal camera arrangement calculation device, and computer-readable medium
Wietrzykowski et al. Adopting the FAB-MAP algorithm for indoor localization with WiFi fingerprints
KR101853700B1 (en) Indoor localization system in disaster relief and localization method thereof
US20230049073A1 (en) Imaging range estimation device, imaging range estimation method, and program
JP2008065562A (en) Information processing device, localization method and computer program
US20220329737A1 (en) 3d polygon scanner
CN113670273B (en) Beach soil environment detection method and system for mapping, storage medium and intelligent terminal
JP2010066804A (en) Moving body invasion surveillance apparatus, and method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200317

R150 Certificate of patent or registration of utility model

Ref document number: 6678512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150