JP2017207872A - Sensor setting location support device - Google Patents
Sensor setting location support device Download PDFInfo
- Publication number
- JP2017207872A JP2017207872A JP2016098985A JP2016098985A JP2017207872A JP 2017207872 A JP2017207872 A JP 2017207872A JP 2016098985 A JP2016098985 A JP 2016098985A JP 2016098985 A JP2016098985 A JP 2016098985A JP 2017207872 A JP2017207872 A JP 2017207872A
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- sensor
- information
- human flow
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 claims abstract description 327
- 230000035945 sensitivity Effects 0.000 claims abstract description 57
- 238000009434 installation Methods 0.000 claims description 62
- 239000000284 extract Substances 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 89
- 230000008569 process Effects 0.000 description 47
- 238000012545 processing Methods 0.000 description 28
- 238000001514 detection method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 230000008859 change Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、物体の検出や位置計測を実施する複数のセンサの配置を決定する技術に関する。 The present invention relates to a technique for determining the arrangement of a plurality of sensors that perform object detection and position measurement.
大型商業施設や駅、空港といった公共施設などにおいて、人物や不審物の検出といった従来の防犯サービスに加え、人の位置を計測、追跡することで、マーケティング、混雑緩和、レイアウト改善などの空間価値を高めるサービスの需要が高まっている。これらのサービスは、監視カメラやレーザレーダなどの複数のセンサを設置して、各計測結果を参照することで実現できるものの、安定した計測精度を維持するためにはセンサの配置が重要となる。 In public facilities such as large commercial facilities, stations, and airports, in addition to conventional crime prevention services such as detection of people and suspicious objects, measuring and tracking the position of people can increase the spatial value of marketing, congestion reduction, layout improvement, etc. The demand for enhanced services is increasing. Although these services can be realized by installing a plurality of sensors such as a monitoring camera and a laser radar and referring to each measurement result, the arrangement of the sensors is important in order to maintain stable measurement accuracy.
例えば、不審者を検出したい場合は死角が生じないようセンサを設置する必要があり、また、人を追跡したい場合には人物の移動軌跡が途切れず計測できるようセンサの位置を決定する必要がある。そのため、サービスを導入する際には、顧客のニーズを踏まえた上で、実際に設置作業を行う専門家が己のノウハウでセンサ配置、設定を決定している。 For example, if it is desired to detect a suspicious person, it is necessary to install a sensor so as not to cause a blind spot, and if it is desired to track a person, it is necessary to determine the position of the sensor so that the movement trajectory of the person can be measured without interruption. . For this reason, when introducing a service, the experts who actually perform the installation work decide the sensor placement and setting based on their own know-how based on the needs of customers.
しかし、この方法では、設置コストの増加に繋がるだけでなく、専門家の知識・経験の差によって計測精度が左右されてしまうため、センサ設置位置を自動で決定する支援技術が求められる。 However, this method not only leads to an increase in the installation cost, but also the measurement accuracy depends on the difference in knowledge and experience of specialists. Therefore, a support technology for automatically determining the sensor installation position is required.
例えば、特許文献1では、商業施設において、POS(Point of Sales)データや顧客の性別などの情報に応じて人物が集まりやすい領域を推定することで、カメラの配分やその設置位置を決定する。また、特許文献2では、不審者や動きを検出したいなどの顧客の計測ニーズに応じて、監視カメラの最適な設置位置を自動で出力する。
For example, in
特許文献1では、カメラの設置位置は推定できるものの、俯角などのカメラの設置角度などの細かい設置情報は出力できないという課題がある。また、使用するカメラの全数を予め決定する必要があり、その決定には専門家のノウハウなどが必要となる。
In
特許文献2では、撮影範囲のレイアウトと顧客ニーズ表から、最小限のカメラ台数となる構成にてカメラ設置位置を自動で推定できる。しかし、撮影範囲における実際の人流などの人の動きを考慮して、状況によっては高精度な計測をすることや、監視カメラ以外のセンサも併用したい場合について、更なる改善の余地があった。
In
本発明は、前記の課題を解決するための発明であって、カメラなどのセンサの設置位置を、人流を考慮して適切に決定することができるセンサ設置位置支援装置を提供することを目的とする。 The present invention is an invention for solving the above-described problem, and an object thereof is to provide a sensor installation position support device capable of appropriately determining the installation position of a sensor such as a camera in consideration of human flow. To do.
前記目的を達成するため、本発明のセンサ設置位置支援装置は、センサの特性情報と計測項目情報とに基づき該センサの計測範囲を示す計測モデルを生成する計測モデル生成手段(例えば、計測モデル生成部3)と、監視対象のエリアのマップ情報と該エリアの人流情報とに基づき該エリアの人流方向を示す人流マップ(例えば、図4の23)を生成する人流マップ生成手段(例えば、人流マップ生成部4)と、計測モデルと人流マップに基づきエリアを構成するセル毎の計測感度(例えば、数1)を算出し、該算出した計測感度に基づきエリアにおけるセンサの配置位置を決定するセンサ配置決定手段(例えば、センサ配置調整部5)とを有することを特徴とする。本発明のその他の態様については、後記する実施形態において説明する。 In order to achieve the above object, the sensor installation position support device of the present invention is a measurement model generation unit (for example, a measurement model generation unit) that generates a measurement model indicating a measurement range of the sensor based on sensor characteristic information and measurement item information. Part 3), a human flow map generating means (for example, a human flow map) for generating a human flow map (for example, 23 in FIG. 4) indicating the flow direction of the area based on the map information of the monitored area and the human flow information of the area. A sensor arrangement that calculates the measurement sensitivity (for example, Equation 1) for each cell constituting the area based on the generation unit 4), the measurement model, and the human flow map, and determines the position of the sensor in the area based on the calculated measurement sensitivity It has a determination means (for example, sensor arrangement adjustment part 5), It is characterized by the above-mentioned. Other aspects of the present invention will be described in the embodiments described later.
本発明によれば、カメラなどのセンサの設置位置を、人流を考慮して適切に決定することができる。 According to the present invention, it is possible to appropriately determine the installation position of a sensor such as a camera in consideration of human flow.
本発明を実施するための実施形態について、適宜図面を参照しながら詳細に説明する。
<<実施形態1>>
図1は、実施形態1に係るセンサ設置位置支援装置1の機能ブロックを示す図である。本実施形態では、センサとして監視カメラを使用した場合の例を説明するが、本発明はこれらセンサに限定されるものでは無く、種類の異なるセンサを組み合わせて使用してもよい。
DESCRIPTION OF EMBODIMENTS Embodiments for carrying out the present invention will be described in detail with reference to the drawings as appropriate.
<<
FIG. 1 is a functional block diagram of the sensor installation
センサ設置位置支援装置1は、対象エリアのマップ情報100、人流情報101、センサ情報102、計測項目情報103を含むデータベース2を保持しており、処理部として、計測モデル生成部3(計測モデル生成手段)、人流マップ生成部4(人流マップ生成手段)、センサ配置調整部5(センサ配置決定手段)を有する。センサ設置位置支援装置1は、各情報に基づき対象エリアの計測感度が最良となるセンサ配置を自動で出力する装置である。
The sensor installation
図1に示す各機能の概要をまず説明すると、計測モデル生成部3はセンサ情報102と計測項目情報103からセンサの計測範囲を示す計測モデルを決定する機能、人流マップ生成部4は対象エリアのマップ情報100と人流情報101に基づき対象エリアの人の流れを示す人流マップを作成する機能、センサ配置調整部5は人流マップに計測モデルを照合し対象エリアの計測感度が最良となるセンサ位置を出力する機能を有する。なお、対象エリアとは、顧客がセンサにより計測したい範囲であり、例えばカメラの場合はその監視対象のエリア、レーザレーダの場合は計測対象のエリアを示す。以下、各機能の詳細について説明する。
First, the outline of each function shown in FIG. 1 will be described. The measurement
<計測モデル生成部>
図2は、計測モデル生成部3が取得するセンサの特性情報の一例を示す図である。図3は、計測モデル生成部3により生成する計測モデルの一例を示す図である。計測モデル生成部3について、図2と図3を用い、適宜図1を参照して説明する。
<Measurement model generator>
FIG. 2 is a diagram illustrating an example of sensor characteristic information acquired by the measurement
図2は、計測モデル生成部3がセンサ情報102より取得するセンサの特性情報の一例であり、各センサにおける、計測可能な範囲、センサから計測人物までの距離に応じた計測精度、人物の密集度に応じた計測精度(分解能)、センサにより計測可能な項目(計測項目)の特徴を示している。なお、センサ及び特性情報については特にこれに限定するものでは無く、同じセンサにおいても計測項目に応じて範囲、精度、分解能が変化している特性情報でもよい。また、必ずしも距離に応じて計測精度が異なる必要は無く、計測範囲全体の精度が均一である特性情報でもよい。
FIG. 2 is an example of sensor characteristic information acquired by the measurement
計測モデル生成部3では、計測項目情報103から抽出した人追跡や不審者検出といった顧客の計測ニーズとセンサの特性情報を照合することで、図3に示すようなセンサの計測モデルを生成する。図3において、10は単眼カメラ、11a、11bは単眼カメラの人追跡及び物体検出時の計測モデルの一例、12はレーザセンサ、13a、13bはレーザセンサの人追跡及び物体検出時の計測モデルの一例を示している。
The measurement
なお、計測モデルの形状は図3のように計測項目により変更するのではなく、一貫して同形状のものを使用してもよい。計測項目によってモデルの形状を変更する方法を使用する要因としては、例えば、対象エリア中に存在するモノを検知する物体検出と比較すると、物体を人と認識して追従する人追跡の方が計測は困難であり、計測範囲や精度に差が生じるため、同じセンサにおいても、11aと13aの形状の大きさが11b、13bよりも小さくなる。また、一般的にカメラは近過ぎる物体や遠方の物体の検出が難しいなどといった特性を表現するために、11aや11bのようにセンサ10からの距離に応じて精度が変化する計測モデルを使用してもよい。計測モデルの形状としては、特に図3に示すものに限定するものではない。また、計測モデルの生成に利用する情報としては、センサの特性と計測項目の情報に限定されるものではなく、建物内のマップ情報などを利用してもよく、例えば、設置場所の高さや俯角により計測モデルの形状を変動的にする方法でもよい。
The shape of the measurement model is not changed depending on the measurement item as shown in FIG. As a factor to use the method of changing the shape of the model depending on the measurement item, for example, compared to object detection that detects objects existing in the target area, it is measured by human tracking that recognizes an object as a person and follows it Since the measurement range and accuracy are different, the size of the shapes of 11a and 13a is smaller than 11b and 13b even in the same sensor. In general, a camera uses a measurement model whose accuracy changes according to the distance from the
すなわち、計測モデル生成部3(計測モデル生成手段)は、対象エリアのレイアウト情報、人流方向情報、位置環境情報、混雑状況情報の少なくとも1つ以上を用いて、計測モデルの計測範囲または/および計測精度を変更してもよい。ここで、対象エリアのレイアウト情報には、マップ情報、建物の高さ、建物の出入り口などがある。人流方向情報には、人流マップ生成手段が生成する人流マップがある。位置環境情報には、逆光、屋内外などの計測位置の環境である。混雑状況情報には、混雑か閑散かなどの人が集まり易い場所であるか否かの情報である。 That is, the measurement model generation unit 3 (measurement model generation means) uses at least one or more of layout information, person flow direction information, position environment information, and congestion status information of the target area, and / or measurement range of the measurement model. The accuracy may be changed. Here, the layout information of the target area includes map information, the height of the building, the entrance of the building, and the like. The human flow direction information includes a human flow map generated by the human flow map generating means. The position environment information includes the environment of the measurement position such as backlight and indoor / outdoor. The congestion status information is information on whether or not the place is easy for people to gather, such as whether it is busy or busy.
<人流マップ生成部>
図4は、人流マップ生成部4(図1参照)の処理を説明する図である。図5は、人流マップ生成部4の処理を示すフローチャートである。人流マップ生成部4について、図4と図5を用いて説明する。
<Human flow map generator>
FIG. 4 is a diagram for explaining processing of the human flow map generation unit 4 (see FIG. 1). FIG. 5 is a flowchart showing the processing of the human flow
人流マップ生成部4では、初めに、図4に示す対象エリアのレイアウト俯瞰図20(レイアウト情報)をマップ情報100から取得する(処理S41)、保持したレイアウト俯瞰図を21に示すような複数の小領域に分割する(処理S42)。次に、人流情報101から対象エリアにおける人流データ22を抽出し(処理S43)、各小領域における主たる人流の向きを推定する(処理S44)。最後に、レイアウト俯瞰図に人流の向きを反映した人流マップ23を出力する(処理S45)。なお、以後はこの小領域をセルと呼び説明する。
First, the human flow
処理S42におけるレイアウト俯瞰図10のセルの分割方法として、セルの大きさは計測モデルよりも小さければよく、全てのセルが同じ大きさである必要ない。また、形状は21のような格子状以外にも俯瞰図全体を網羅できるものであれば、特に限定はしない。
As a method of dividing the cell in the layout
処理S43にて取得する人流のデータについては、人物の軌跡情報などの対象エリアにおける人流の主な向きを推定できる情報であればよい。例えば、既に対象エリア内に実際に移動する人物が存在する場合であれば一時的に人流計測用のセンサを配置して取得したデータ、人物が存在しない場合であればレイアウト俯瞰図における出入り口や曲がり角の情報などからシミュレーションにより推定した人流データでもよく、特に限定しない。 The human flow data acquired in step S43 may be information that can estimate the main direction of the human flow in the target area, such as human trajectory information. For example, if there is already a person who actually moves in the target area, data obtained by temporarily placing a sensor for measuring human flow, and if there is no person, the doorway or corner in the layout overhead view Human flow data estimated by simulation from the above information may be used, and is not particularly limited.
処理S44では、この取得した人流データ22からレイアウト俯瞰図の各格子内における人流の向き24を決定する。人流の向き24の推定方法としては、人流データ22を21に照合し、格子の中心を原点として最も頻出頻度が多い方向ベクトルを推定する方法などがある。本実施形態では、24のように人流の向きを4パターンとし、各格子内にて推定した方向ベクトルがいずれの向きのパターンに類似しているかを比較することで、最終の人流方向を決定する。なお、人流の向きのパターン数は4つに限定するものではなく、パターン数を増やすほどセンサ配置の精度が向上できる。
In process S44, the direction 24 of the human flow in each grid of the layout overhead view is determined from the acquired
<センサ配置調整部>
図6は、センサ配置調整部5の機能ブロックを示す図である。図6を用いて、センサ配置調整部5を説明する。センサ配置調整部5は、計測中心点検出部30、計測モデル照合部31、センサ配置位置出力部32の機能を有する。各機能の概要を説明すると、計測中心点検出部30は人流マップの情報から対象エリアにおける計測の中心位置を示す重要計測ポイントを決定する機能、計測モデル照合部31は取得した計測モデルを、重要計測ポイントを中心に人流マップへ照合することで、対象エリア内の全てのセルの計測感度を更新する機能、センサ配置位置出力部32は、最適化された感度マップ情報からセンサ位置の情報を出力する機能を有する。以下、各機能の詳細を説明する。
<Sensor placement adjustment unit>
FIG. 6 is a diagram illustrating functional blocks of the sensor
図7は、計測中心点検出部30により出力する重要計測ポイント(候補計測地点)の一例を示す図である。重要計測ポイントの決定方法としては、4つのセルを包括する探索ウインドウ40を走査させ、「全てのセルに人流の向き情報が含まれる」、「人流の向きの分散が最大」という2つの条件を満たす隣接した4つのセルを探索し、その中心位置を重要計測ポイント(候補計測地点)とする方法がある。
FIG. 7 is a diagram illustrating an example of important measurement points (candidate measurement points) output by the measurement center
前者の条件付けの理由としては、レイアウト情報のひとつである壁などの人物が存在しない領域を計測対象から除くことで効率的なセンサ配置を実施するためで、後者の理由としては人流情報を把握したい場合や人物を追跡したい場合に、人流の向き(人流方向情報)の変化が多い地点(混雑状況情報)は重要な計測対象となる確率が高いためである。 The reason for the former is to implement efficient sensor placement by excluding areas such as walls, which are one of the layout information, from non-existent areas, and the latter reason is to understand human flow information. This is because a point (congestion state information) with a large change in the direction of human flow (human flow direction information) has a high probability of being an important measurement target when tracking a person or a person.
なお、重要計測ポイントの決定方法としては、マップ情報から位置環境情報である建物の出入り口の位置を判定する方法、使用者がGUI(Graphical User Interface)などを利用することで、手動で設定する方法など、重要計測ポイントの数が1つ以上決定できる方法であれば特に限定しない。また、計測項目により重要計測ポイントの計測方法を切り替えてもよい。例えば、計測項目が人物追跡の場合は図7に示した方法、不審者検出の場合はマップ情報から計測の中心エリアと考えられる建物の出入り口の位置を判定する方法を用いてもよい。 In addition, as a method of determining important measurement points, a method of determining the position of the entrance of a building, which is position environment information, from map information, or a method of manual setting by a user using a GUI (Graphical User Interface) or the like There is no particular limitation as long as the number of important measurement points can be determined one or more. Further, the measurement method of the important measurement points may be switched depending on the measurement item. For example, when the measurement item is person tracking, the method shown in FIG. 7 may be used, and when the suspicious person is detected, the method of determining the position of the entrance / exit of the building considered as the central area of measurement from the map information may be used.
すなわち、計測中心点検出部(重要計測ポイント検出部)は、監視対象のエリアのレイアウト情報、人流方向情報、位置環境情報、混雑状況情報の少なくとも1つ以上を用いて、対象エリア内における計測すべき重要な地点を、1つ以上を抽出するとよい。 That is, the measurement center point detection unit (important measurement point detection unit) performs measurement in the target area using at least one of layout information, person flow direction information, position environment information, and congestion status information of the monitoring target area. One or more important points should be extracted.
図8は、計測モデル照合部31の処理を示すフローチャートである。計測モデル照合部31では、まず、計測モデル生成部3から計測モデルを取得する(処理S1)。続いて、30により検出した重要計測ポイント付近のセルの計測感度を確認し(処理S2)、閾値未満であれば(処理S2,No)重要計測ポイントに計測モデルを照合し(S3)、閾値以上であれば(処理S2,Yes)計測感度が設定されていないセル付近を中心に新たな重要計測ポイントを作成後(処理S4)に処理S3を実施する。そして、計測モデルが照合された各セルの計測感度の値を更新し(処理S5)、対象エリア内の全てのセルの計測感度が閾値以上であるか確認する(処理S6)。閾値未満であれば(処理S6,No)処理S2に戻り、閾値以上であれば(処理S6,Yes)、計測モデル照合部31の処理を終了する。そして、センサ配置位置出力32(図6参照)がセンサ配置位置を出力する。以下に、処理S3における計測モデルの照合方法と、処理S4における重要計測ポイントの作成方法、S5における計測感度の計算方法について詳細に説明する。
FIG. 8 is a flowchart showing the processing of the measurement
図9は、計測モデル照合部31の処理S3を説明する図であり、(a)は人流マップ、(b)は計測モデルの計測方向、(c)はカメラの設置位置を示す図である。図9を用いて処理S3について説明する。ここでは、計測項目が人物追跡である場合において、図9(a)に示す重要計測ポイント50が設定された人流マップ51にカメラの計測モデルを照合するフローについて述べる。
FIG. 9 is a diagram for explaining the processing S3 of the measurement
図9(b)における52は重要計測ポイント50付近の拡大図であり、53はカメラ、54は53の計測モデル、55は計測モデルの中心線、56a、56b、56cは50を中心とした人流の向きを表す直線、57は対象エリア外の領域と計測モデルの領域との重複部分、58はセンサの設置位置と重要計測ポイントを結んだ直線を示している。
9B is an enlarged view of the vicinity of the
処理S3では、まず人流マップにおける計測モデル54の設置位置を決定した後に、人流の向きにより最適な計測方向を推定する。54の設置位置を決定する方法としては、計測モデルの重心を重要計測ポイント50に合わせる手法がある。その他にも、計測モデルの中で最も計測精度が高い領域の重心に設定する方法、または、計測モデルを生成する際に予めセンサ情報などから取得した計測精度が最も高い位置情報を計測モデルに付与し、その位置を重要計測ポイントと一致させる方法などがあり、特に限定しない。
In the process S3, after first determining the installation position of the
次に、計測モデルの計測方向を推定する方法について説明する。カメラによる人物追跡を実施する場合、カメラに対して水平な動きよりも垂直な向きに移動する人物の方が、追跡が容易になる傾向がある。また、不審者検知においても垂直方向から撮影することで不審者の顔が撮影されやすいといった利点もある。 Next, a method for estimating the measurement direction of the measurement model will be described. When tracking a person using a camera, tracking tends to be easier for a person who moves in a vertical direction than a horizontal movement with respect to the camera. In addition, the suspicious person detection also has an advantage that the face of the suspicious person can be easily photographed by photographing from the vertical direction.
そこで、本例では、計測モデルの中心線55と各人流の向きを表す直線56a、56b、56cとの成す角度θa,θb、θcが、一定値以下となる方向を計測モデルの向き候補とし、壁などの計測対象外エリアと計測モデルの重複面積57が最小となる向きを最終の計測モデルの向きとする。
Therefore, in this example, the direction in which the angles θa, θb, and θc formed by the
なお、照合した計測モデルからカメラ53の設置位置が壁や人流マップ外などの設置対象では無いエリアに設定された場合は、その設置位置と重要計測ポイントを直線58(図9(c))で結び、設置対象内に設置位置が含まれるように計測モデルを平行移動してもよい。また、前述した方法により最適な計測モデルの位置が複数候補として出力される場合は、自動的に片方を選択する方法や人手により片方を選択する方法などで対応する。また、計測モデルの計測方向を決定するために、マップ情報などを参考にしてもよく、例えば出入りする人物の撮影を重視するために出入り口が撮影できる方向を優先するや、逆光などの外乱による計測精度の低下を防止あるいはプライバシーを保護するために屋外が撮影されない方向を優先するなどの方法を取り入れてもよい。
If the installation position of the
図10は、計測モデル照合部31の処理S5を説明する図であり、(a)は計測モデル60、(b)は人流マップ51に照合した計測モデル60a,60b、(c)(d)は人流マップ51内のセルの拡大図である。処理S4を説明する前に、セルの計測感度を算出する処理S5について図10を用いて説明する。
FIG. 10 is a diagram for explaining the processing S5 of the measurement
図10(a)において、60は計測モデル、図10(b)において60a、60bは処理S3により人流マップ51に照合した計測モデル、61a、61bは人流マップ内の2つのセルの拡大図を示している。図10(c)において、セル61aでは、計測モデル60bの計測可能領域のみ存在しており、62は計測精度90%の領域、63は計測精度70%の領域を示している。また、図10(d)において、セル61bでは、計測モデル60a、60bの両方の計測可能領域が存在しており、64は60aの計測精度40%の領域、65は60bの計測精度40%の領域、66は60a、60bの計測精度40%の重複領域を示している。領域62、63、64、65のような他の領域と重複が無い場合の計測感度は[数1]により導出できる。
In FIG. 10A, 60 is a measurement model, in FIG. 10B, 60a and 60b are measurement models collated with the
領域66のように重複がある場合は[数1]でそれぞれ求めた計測感度の平均を求めることで導出できる。そして、各領域の計測感度の合計がその領域を含むセルの計測感度となる。なお、計測感度の計算方法としては、セル毎に算出でき、その値がセンサの計測精度を考慮したものでセル同士の間で相対的に比較可能であれば、特に限定しない。
When there is an overlap as in the
図11は、計測モデル照合部31の処理S4を説明する図である。図11を用いて処理S4について説明する。図11において、70は計測感度が反映された人流マップの一例、71は重要計測ポイント、72は各セルの計測感度値、73は重要計測ポイント付近に存在する計測感度が閾値(本例では30)未満であるセル、74a、74b、74c、74d、74eは新規に作成する重要計測ポイントの位置候補を示している。処理S4では、予め設定した条件下において、多くの73の計測感度が閾値以上となるよう重要計測ポイントの位置を決定する。
FIG. 11 is a diagram for explaining the process S <b> 4 of the measurement
位置を決定する方法は、図11の例のように、計測感度が算出済みのセルと73が接する格子点を候補とし、「周囲4つのセルが全て対象エリア内である」、「重要計測ポイントとの距離が近い」などの条件を元に最終の位置を出力する方法があり、本例では74cが位置候補となる。
As the method for determining the position, as shown in the example of FIG. 11, the grid points where the measurement sensitivity has been calculated and the
なお、位置候補としては格子点に限定されず、セルの中心点や格子線上などでもよく、「出入り口に近いセルを優先する」などのマップ情報を利用するなどでもよく、特に上記の条件に限定されない。 Note that the position candidates are not limited to grid points, but may be cell center points or grid lines, or may use map information such as “prioritize cells close to the entrance / exit”, particularly limited to the above conditions. Not.
本実施形態では、処理S4と処理S3を繰り返し実施することで、各セルの計測感度を更新し対象エリア全体の計測精度が最適化されたセンサ位置を出力する。そのため、処理S3を実施する際に、既に重要計測ポイントと照合された計測モデルと新規の重要計測ポイントに合わせた計測モデルの計測可能領域が重複する場合があり、その重複領域の面積から後者の計測モデルの位置と向きを調整してもよい。 In the present embodiment, by repeatedly performing the processing S4 and the processing S3, the measurement sensitivity of each cell is updated, and the sensor position where the measurement accuracy of the entire target area is optimized is output. Therefore, when the process S3 is performed, the measurable area of the measurement model already matched with the important measurement point and the measurement model of the measurement model according to the new important measurement point may overlap. The position and orientation of the measurement model may be adjusted.
図12は、計測モデル照合部31により計測モデルを照合する一例を示す図である。例えば、図12のように、処理S4により求めた重要計測ポイント81に計測モデル80bを照合すると、計測モデル80aとの重複領域82が発生する。この場合、不審者の検出などは対象エリアに死角が生じないようセンサを設置することが求められるため、この重複領域82が小さくなる計測方法の優先度を上げるとよい。また、人物追跡の場合は重複領域82が多いほど計測精度が上がるため、重複領域82が計測モデルの一定割合以上の面積となる計測方向の優先度を上げるとよい。また、各セルにおける重複領域82の割合を、計測方法を決定する条件に加えるなどの方法でもよく、特に限定しない。
FIG. 12 is a diagram illustrating an example of collating a measurement model by the measurement
センサ配置位置出力部32(図6参照)は、計測モデル照合部31により取得した人流マップにおける計測モデルの位置情報から、最終的なセンサの配置位置を出力する。
The sensor arrangement position output unit 32 (see FIG. 6) outputs the final sensor arrangement position from the position information of the measurement model in the human flow map acquired by the measurement
図13は、センサ配置調整部5により出力するセンサ位置の一例を示す図である。以上述べた処理により、センサ配置調整部5は、図13のように、対象エリアにおける各重要計測ポイントを全てのセンサの位置を決定する。
FIG. 13 is a diagram illustrating an example of the sensor position output by the sensor
本実施形態のセンサ配置調整部5(センサ配置決定手段)は、計測モデルと人流マップに基づきセンサの配置位置を決定しているが、これに限定されるわけではない。センサ配置調整部5は、対象エリアのレイアウト情報、人流方向情報、位置環境情報、混雑状況情報の少なくとも1つ以上を用いて、センサの配置位置を決定してもよい。
The sensor arrangement adjusting unit 5 (sensor arrangement determining means) of the present embodiment determines the sensor arrangement position based on the measurement model and the human flow map, but is not limited thereto. The sensor
なお、センサ配置調整部5で使用する計測モデルは、同じセンサであっても形状が異なるものを使用してもよい。例えば、マップ情報と重要計測ポイントに照合した計測モデルの位置からセンサを配置する高さが取得できるため、その高さ情報から生成された計測モデルを処理S3により人流マップに照合してもよい。
Note that the measurement model used in the sensor
また、人流情報から混雑が生じやすいあるいは閑散とした対象エリアを判定し、そのエリア内においては計測精度が変化した計測モデルを照合し各セルの計測感度を算出することで、より高精度なセンサの計測方向などを決定できる。 In addition, it is possible to determine a target area that is likely to be congested or quiet based on human flow information, and collate a measurement model whose measurement accuracy has changed within that area to calculate the measurement sensitivity of each cell. You can determine the measurement direction.
なお、センサ配置調整部5にて異なるセンサの計測モデルを使用してもよい。例えば、基本的にはカメラの計測モデルを人流マップに照合していき、広範囲のエリア内にてセルの人流方向が同一である場合は混雑が生じにくいエリアと判断し、レーザレーダの計測モデルを照合するという方法などでもよい。この場合、例えばユーザによって予め使用するカメラとレーザレーダの台数または全体のコストなどを指定してもらうことで、最適化の条件として追加してもよい。
Note that different sensor measurement models may be used in the sensor
また、センサ配置調整部5にて異なるセンサの計測モデルを使用する際に、例えば、図8の処理S3の際に、照合済みの計測モデルと新規モデルとの計測範囲の重複率が大きい場合は、計測モデルを変更して重複率が少ない方を選択する処理を加え、設置センサ数を最小限にするという方法などがある。
Further, when using a measurement model of a different sensor in the sensor
また、センサ配置調整部5にて出力するセンサ配置のパターンは1つだけではなく、複数出力してもよい。例えば、ある重要計測ポイントにてセンサ位置を決定する際に、2つの計測方向にて同一の計測感度を示した場合はどちらか片方を選択しセンサ配置を出力した後、もう片方を選択した場合のセンサ配置を出力して、ユーザが最終的に選択する方法や、算出した対象エリア全体の計測感度を比較することで高い方を自動で選択する方法などを使用してもよい。
The sensor
本発明の実施形態1では、以上説明した機能構成により、センサの特性と計測項目に応じた計測モデルを生成し、計測範囲のレイアウト情報から作成した人流マップに照合し計測感度を算出することで、複数のセンサの配置位置を自動で出力することができる。
In
なお、実施形態1において、2次元空間のみではなく3次元空間の情報を用いてカメラの設置位置を出力することができる。例えば、2次元のマップをセルに分割した人流マップではなく、3次元空間を複数のボクセルに分割した人流マップを使用し、各ボクセルの人流の向き及び計測感度を3次元の計測モデルにより導出することで、図1の一連のフローを実施してもよい。 In the first embodiment, the camera installation position can be output using not only the two-dimensional space but also the information of the three-dimensional space. For example, instead of a human flow map obtained by dividing a two-dimensional map into cells, a human flow map obtained by dividing a three-dimensional space into a plurality of voxels is used, and the direction and measurement sensitivity of the human flow of each voxel are derived using a three-dimensional measurement model. Thus, the series of flows in FIG. 1 may be performed.
<<実施形態2>>
図14は、実施形態2に係るセンサ設置位置支援装置1Aの機能ブロック図を示す図である。センサ設置位置支援装置1Aは、図1と比較して、センサ情報取得部6、人流情報取得部7を有し、データベース2には、センサ情報取得部6で取得したセンサ設置情報104が記憶されている。実施形態2は、既にセンサが設置済みの状況下において、センサの設置方法の修正や新たなセンサの配置位置の出力を実施する。
<<
FIG. 14 is a functional block diagram of the sensor installation
センサ配置調整部5Aは、対象エリアに既設されたセンサの情報から全体の計測感度を算出することで、計測感度が低いエリアを判定し感度向上のためにセンサの設置方法の補正を実施し、場合によっては新たなセンサの設置位置を出力する。以下は、センサ配置調整部5Aの詳細について説明する。
The sensor
図15は、実施形態2に係るセンサ配置調整部の処理を示すフローチャートである。図15において、処理S2,S4,S5,S6は図8の処理と同一である。センサ配置調整部5Aは、まず対象エリアの人流マップ及び現在設置しているセンサの計測モデルから対象エリア内の全てのセルの計測感度を算出する(処理S20)。次に、図6の計測中心点検出部30と同様の方法などを用いることにより、対象エリアにおける重要計測ポイントの初期位置を1つ以上決定する(処理S21)。
FIG. 15 is a flowchart illustrating processing of the sensor arrangement adjustment unit according to the second embodiment. In FIG. 15, processes S2, S4, S5 and S6 are the same as the processes in FIG. First, the sensor
そして、センサ配置調整部5Aは、重要計測ポイント付近のセルの計測感度が閾値以上であるか否かを判断する(処理S2)。重要計測ポイント付近のセルの計測感度が閾値以上であれば(処理S2,Yes)、新たに重要計測ポイント作成し(処理S4)、処理S22に進む。重要計測ポイント付近のセルの計測感度が閾値未満であれば(処理S2,No)、処理S22に進む。
Then, the sensor
処理S22では、重要な計測ポイント付近に既存の計測モデル(現在設置されているセンサの計測モデル)が存在するか否かを判断する。具体的には、重要計測ポイントと既存の計測モデルの位置との距離を計算し閾値以内であれば近くに存在すると判断する。なお、処理S22の確認方法としては、特に位置関係を比較できる方法であれば特に限定しない。 In process S22, it is determined whether an existing measurement model (a measurement model of a currently installed sensor) exists in the vicinity of an important measurement point. Specifically, the distance between the important measurement point and the position of the existing measurement model is calculated. In addition, as a confirmation method of process S22, if it is a method which can compare especially a positional relationship, it will not specifically limit.
処理S22により既存の計測モデルが存在しないと判定された場合は(処理S22,No)、新規に計測モデルを計測モデル生成部3から取得し図8の処理S3と同様の処理にて重要計測モデルに照合し(処理S23)、処理S5に進む。
If it is determined in step S22 that no existing measurement model exists (No in step S22), a new measurement model is acquired from the measurement
一方、処理S22により既存の計測モデルが存在することが確認された場合は(処理S22,Yes)、既存の計測モデルを重要計測ポイントに照合し(処理S24)、処理S5に進む。なお、処理S24としては、計測モデルの位置が固定されているため計測方向のみの調整となり、その方法としては処理S3と同様の処理でよい。 On the other hand, when it is confirmed by the process S22 that the existing measurement model exists (process S22, Yes), the existing measurement model is collated with the important measurement point (process S24), and the process proceeds to the process S5. In addition, as process S24, since the position of the measurement model is fixed, only the measurement direction is adjusted, and the method may be the same process as process S3.
最後に、計測モデルが照合されたセルの計測感度を更新し(処理S5)、処理S6において、対象エリア内の全てのセルの計測感度が閾値以上となれば(処理S6,Yes)、処理を終了し、閾値未満であれば(処理S6,No)、再度、処理S2に戻る。 Finally, the measurement sensitivity of the cell with which the measurement model is collated is updated (processing S5). If the measurement sensitivity of all the cells in the target area is equal to or greater than the threshold value in processing S6 (processing S6, Yes), the processing is performed. If it is less than the threshold (No at Step S6), the process returns to Step S2.
実施形態2では、センサ配置調整部5Aにより処理が終了された際の人流マップにおける計測モデルの位置を最終のセンサ配置位置として出力する。なお、センサ配置調整部5Aにおいて、ユーザの希望によっては、新規に計測モデルを作成して照合する処理は行わず、既設のセンサの計測モデルのみを人流マップに照合することでセンサの計測方向を補正する方法としてもよい。
In the second embodiment, the position of the measurement model in the human flow map when the process is finished by the sensor
図16は、センサ配置調整部5Aにより調整されるセンサ位置の一例を示す図であり、(a)は調整前の計測感度、(b)は調整後の計測感度である。図16に、センサ配置調整部5Aによりセンサの設置角度が調整される例を示す。図16において、53はセンサ、60cは53の計測モデル、70a、70bはセンサ配置調整部5Aによるセンサ位置の調整前後における計測感度が反映された人流マップ、110は対象エリア内の1つのセルを示している。例えば、ユーザが計測感度の閾値を50と設定した場合、セル110では計測感度が不足しているため、53の設置角度を変更することで110の計測感度を50とし、対象エリア内の全てのセルの計測感度を閾値以上となるセンサ配置を出力できる。
FIG. 16 is a diagram illustrating an example of a sensor position adjusted by the sensor
本発明の実施形態2では以上説明した機能構成により、対象エリアに既に設置されているセンサの位置情報を考慮して人流マップに計測モデルを照合し計測感度を算出することで、既設のセンサの設置方法を修正し、必要に応じて新たなセンサの設置位置を出力できる。 In the second embodiment of the present invention, with the functional configuration described above, the measurement model is collated with the human flow map in consideration of the position information of the sensor already installed in the target area, and the measurement sensitivity is calculated. The installation method can be modified, and a new sensor installation position can be output if necessary.
なお、実施形態2では、人流マップの作成、計測モデルの作成、計測モデルの重要計測ポイントへの照合の際に、人流情報取得部7で取得した既設のセンサにより計測した人流情報や人物の検出率などの結果を利用してもよい。例えば、施設内のレイアウト変更により人流が変更前と比べて大きく変化した際に、実施形態2を適用することで変更後のレイアウトに適したセンサ配置を出力できる。
In the second embodiment, when creating a human flow map, creating a measurement model, or collating a measurement model with an important measurement point, detecting human flow information or a person measured by an existing sensor acquired by the human flow
本実施形態のセンサ設置位置支援装置1は、センサの特性情報と計測項目情報とに基づき該センサの計測範囲を示す計測モデルを生成する計測モデル生成部3と、監視対象のエリアのマップ情報と該エリアの人流情報とに基づき該エリアの人流方向を示す人流マップを生成する人流マップ生成部4と、計測モデルと人流マップに基づきエリアを構成するセル毎の計測感度を算出し、該算出した計測感度に基づきエリアにおけるセンサの配置位置を決定するセンサ配置調整部5とを有する。なお、計測モデルは、センサからの距離に応じた計測精度と計測可能な範囲とを含んでおり、計測感度は、計測精度が1に対する比率がAの場合に、セルの面積に対する計測精度がAの面線の比率とAとを積算した値である。
The sensor installation
以上述べた実施形態のセンサ設置位置支援装置1,1Aを適用することで、顧客の計測ニーズに応じて、1つまたは複数のセンサの設置位置を自動で決定できる。
By applying the sensor installation
1,1A センタ設置位置支援装置
2 データベース(記憶手段)
3 計測モデル生成部(計測モデル生成手段)
4 人流マップ生成部(人流マップ生成手段)
5,5A センサ配置調整部(センサ設置位置決定手段)
6 センサ情報取得部
7 人流情報取得部
10 単眼カメラ(センサ)
12 レーザセンサ(センサ)
11a,11b,13a,13b 計測モデル
20 レイアウト俯瞰図(レイアウト情報)
23 人流マップ
100 マップ情報
101 人流情報
102 センサ情報
103 計測項目情報
104 センサ設置情報
1,1A Center installation
3 Measurement model generator (measurement model generator)
4 Human flow map generation unit (human flow map generation means)
5,5A Sensor arrangement adjustment unit (sensor installation position determining means)
6 Sensor
12 Laser sensor (sensor)
11a, 11b, 13a,
23
Claims (13)
監視対象のエリアのマップ情報と該エリアの人流情報とに基づき該エリアの人流方向を示す人流マップを生成する人流マップ生成手段と、
前記計測モデルと前記人流マップに基づき前記エリアを構成するセル毎の計測感度を算出し、該算出した計測感度に基づき前記エリアにおける前記センサの配置位置を決定するセンサ配置決定手段とを有する
ことを特徴とするセンサ設置位置支援装置。 Measurement model generation means for generating a measurement model indicating the measurement range of the sensor based on the sensor characteristic information and the measurement item information;
A human flow map generating means for generating a human flow map indicating the flow direction of the area based on the map information of the area to be monitored and the human flow information of the area;
Sensor placement determining means for calculating measurement sensitivity for each cell constituting the area based on the measurement model and the human flow map, and determining the placement position of the sensor in the area based on the calculated measurement sensitivity. A featured sensor installation position support device.
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。 The human flow map generating means acquires the layout information of the area from the map information of the area, divides the acquired layout information into cells constituting the area, and determines the human flow direction for each cell from the human flow information. The sensor installation position support apparatus according to claim 1, wherein the sensor installation position support apparatus is determined.
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。 2. The sensor installation position support device according to claim 1, wherein the sensor arrangement determining unit calculates the measurement sensitivity for each cell by comparing the measurement accuracy included in the measurement model with the human flow map.
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。 The sensor arrangement determining means extracts one or more candidate measurement points to be measured in the area by using at least one of the area layout information, human flow direction information, position environment information, and congestion status information, The sensor installation position support apparatus according to claim 1, wherein the measurement model is arranged at the extracted candidate measurement point.
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。 The sensor placement determination means determines the placement position of the sensor using at least one or more of layout information, flow direction information, position environment information, and congestion status information of the area. The described sensor installation position support device.
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。 The measurement model generation means changes the measurement range or / and measurement accuracy of the measurement model by using at least one of layout information, flow direction information, position environment information, and congestion status information of the area. The sensor installation position support apparatus according to claim 1.
ことを特徴とする請求項4に記載のセンサ設置位置支援装置。 The said sensor arrangement | positioning determination means makes the said candidate measurement point vicinity the new said candidate measurement point, when the measurement sensitivity of the said cell near the said candidate measurement point is more than a predetermined threshold value. The sensor installation position support apparatus according to 1.
ことを特徴とする請求項4に記載のセンサ設置位置支援装置。 The sensor placement position support device according to claim 4, wherein the sensor arrangement determination unit changes the measurement model so that the measurement sensitivity of the cells in the area is equal to or higher than a predetermined threshold value.
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。 The sensor placement position support apparatus according to claim 1, wherein when there are a plurality of placement positions of the sensors, the sensor placement determination unit uses measurement models of different types of sensors.
前記センサ配置決定手段は、前記センサ情報取得部で取得したセンサ設置位置を、前記候補計測地点とする
ことを特徴とする請求項4に記載のセンサ設置位置支援装置。 The sensor installation position support device further includes a sensor information acquisition unit that acquires already installed sensor installation information,
The sensor installation position support device according to claim 4, wherein the sensor arrangement determination unit sets the sensor installation position acquired by the sensor information acquisition unit as the candidate measurement point.
ことを特徴とする請求項10に記載のセンサ設置位置支援装置。 The sensor according to claim 10, wherein the measurement model generation unit generates a measurement model indicating a measurement range of the sensor based on sensor characteristic information and measurement item information acquired by the sensor information acquisition unit. Installation position support device.
前記人流情報取得部で取得した人流情報に基づき前記エリアの人流情報とする
ことを特徴とする請求項1に記載のセンサ設置位置支援装置。 The sensor installation position support device further includes a human flow information acquisition unit for acquiring human flow information from an installed sensor,
The sensor installation position support device according to claim 1, wherein the flow information is the human flow information of the area based on the human flow information acquired by the human flow information acquisition unit.
前記計測感度は、前記計測精度が1に対する比率がAの場合に、前記セルの面積に対する前記計測精度がAの面積の比率と前記Aとを積算した値である
ことを特徴とする請求項3に記載のセンサ設置位置支援装置。 The measurement model includes a measurement accuracy according to a distance from the sensor and a measurable range,
The measurement sensitivity is a value obtained by integrating the ratio of the area of A to the area of the cell and the A when the ratio of the measurement accuracy to 1 is A. 5. The sensor installation position support apparatus according to 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016098985A JP6678512B2 (en) | 2016-05-17 | 2016-05-17 | Sensor installation position support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016098985A JP6678512B2 (en) | 2016-05-17 | 2016-05-17 | Sensor installation position support device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017207872A true JP2017207872A (en) | 2017-11-24 |
JP6678512B2 JP6678512B2 (en) | 2020-04-08 |
Family
ID=60417110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016098985A Active JP6678512B2 (en) | 2016-05-17 | 2016-05-17 | Sensor installation position support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6678512B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019116541A1 (en) * | 2017-12-15 | 2019-06-20 | 株式会社日立製作所 | Information processing device and measurable region simulation method |
WO2020129247A1 (en) * | 2018-12-21 | 2020-06-25 | 三菱電機株式会社 | Information processing device, information processing method, and information processing program |
JP2021196823A (en) * | 2020-06-12 | 2021-12-27 | 公益財団法人鉄道総合技術研究所 | Layout plan creation support system and layout plan creation support method |
WO2023139692A1 (en) * | 2022-01-19 | 2023-07-27 | 三菱電機ビルソリューションズ株式会社 | Cleaning management device and cleaning management method |
WO2023139693A1 (en) * | 2022-01-19 | 2023-07-27 | 三菱電機ビルソリューションズ株式会社 | Cleaning management device and cleaning management method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2006132029A1 (en) * | 2005-06-07 | 2009-01-08 | 松下電器産業株式会社 | Surveillance system, surveillance method, and camera terminal |
JP2011211687A (en) * | 2010-03-25 | 2011-10-20 | Nec (China) Co Ltd | Method and device for correlating data |
JPWO2011021588A1 (en) * | 2009-08-20 | 2013-01-24 | 日本電気株式会社 | Moving body trajectory identification system |
-
2016
- 2016-05-17 JP JP2016098985A patent/JP6678512B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2006132029A1 (en) * | 2005-06-07 | 2009-01-08 | 松下電器産業株式会社 | Surveillance system, surveillance method, and camera terminal |
JPWO2011021588A1 (en) * | 2009-08-20 | 2013-01-24 | 日本電気株式会社 | Moving body trajectory identification system |
JP2011211687A (en) * | 2010-03-25 | 2011-10-20 | Nec (China) Co Ltd | Method and device for correlating data |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019116541A1 (en) * | 2017-12-15 | 2019-06-20 | 株式会社日立製作所 | Information processing device and measurable region simulation method |
JPWO2019116541A1 (en) * | 2017-12-15 | 2020-12-17 | 株式会社日立製作所 | Information processing device and measurable area simulation method |
US11388392B2 (en) * | 2017-12-15 | 2022-07-12 | Hitachi, Ltd. | Information processing apparatus and measurable region simulation method |
WO2020129247A1 (en) * | 2018-12-21 | 2020-06-25 | 三菱電機株式会社 | Information processing device, information processing method, and information processing program |
JP2021196823A (en) * | 2020-06-12 | 2021-12-27 | 公益財団法人鉄道総合技術研究所 | Layout plan creation support system and layout plan creation support method |
JP7417476B2 (en) | 2020-06-12 | 2024-01-18 | 公益財団法人鉄道総合技術研究所 | Layout plan creation support system and layout plan creation support method |
WO2023139692A1 (en) * | 2022-01-19 | 2023-07-27 | 三菱電機ビルソリューションズ株式会社 | Cleaning management device and cleaning management method |
WO2023139693A1 (en) * | 2022-01-19 | 2023-07-27 | 三菱電機ビルソリューションズ株式会社 | Cleaning management device and cleaning management method |
JP7546795B2 (en) | 2022-01-19 | 2024-09-06 | 三菱電機ビルソリューションズ株式会社 | Cleaning management device and cleaning management method |
JP7546794B2 (en) | 2022-01-19 | 2024-09-06 | 三菱電機ビルソリューションズ株式会社 | CLEANING CONTROL DEVICE AND CLEANING CONTROL METHOD |
Also Published As
Publication number | Publication date |
---|---|
JP6678512B2 (en) | 2020-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6678512B2 (en) | Sensor installation position support device | |
US11405543B2 (en) | Exploring construction site images by construction stages | |
US9989626B2 (en) | Mobile robot and sound source position estimation system | |
US9165190B2 (en) | 3D human pose and shape modeling | |
KR100926783B1 (en) | Method for self-localization of a robot based on object recognition and environment information around the recognized object | |
WO2016199244A1 (en) | Object recognition device and object recognition system | |
CN103377471B (en) | Object positioning method and device, optimum video camera are to determining method and apparatus | |
US20160286351A1 (en) | Indoor navigation anomaly detection | |
JP5687082B2 (en) | Moving object tracking device | |
US8731829B2 (en) | Flow line detection system, flow line detection method, and flow line detection program | |
Qiu et al. | Scan planning for existing buildings without BIM based on user-defined data quality requirements and genetic algorithm | |
KR20080075730A (en) | Method for esrimating location using objectionrecognition of a robot | |
JP2016024598A (en) | Control method of autonomous mobile apparatus | |
JP2020042447A (en) | Device, program and method for estimating terminal position from immovable object information | |
US20220377285A1 (en) | Enhanced video system | |
US11734883B2 (en) | Generating mappings of physical spaces from point cloud data | |
JP5027758B2 (en) | Image monitoring device | |
WO2019186889A1 (en) | Camera arrangement suitability evaluation device, control method for same, optimal camera arrangement calculation device, and computer-readable medium | |
Wietrzykowski et al. | Adopting the FAB-MAP algorithm for indoor localization with WiFi fingerprints | |
KR101853700B1 (en) | Indoor localization system in disaster relief and localization method thereof | |
US20230049073A1 (en) | Imaging range estimation device, imaging range estimation method, and program | |
JP2008065562A (en) | Information processing device, localization method and computer program | |
US20220329737A1 (en) | 3d polygon scanner | |
CN113670273B (en) | Beach soil environment detection method and system for mapping, storage medium and intelligent terminal | |
JP2010066804A (en) | Moving body invasion surveillance apparatus, and method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200317 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6678512 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |