JP6894395B2 - 情報取得装置及び情報集計システム並びに情報集計装置 - Google Patents
情報取得装置及び情報集計システム並びに情報集計装置 Download PDFInfo
- Publication number
- JP6894395B2 JP6894395B2 JP2018059488A JP2018059488A JP6894395B2 JP 6894395 B2 JP6894395 B2 JP 6894395B2 JP 2018059488 A JP2018059488 A JP 2018059488A JP 2018059488 A JP2018059488 A JP 2018059488A JP 6894395 B2 JP6894395 B2 JP 6894395B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- target
- point cloud
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
点群取得部11は、車両等の移動手段に搭載された情報取得装置10の、現時刻tにおける周囲の形状情報を表す点群データPG(t)を取得して、当該点群データPG(t)を自己位置推定部12へと出力する。ここで、点群データPG(t)の取得手法は各種の既存手法を用いてよく、例えば非特許文献1の様な、ステレオカメラを用いた画像ベースのSLAM(Simultaneous Localization and Mapping)技術によって点群を生成してもよいし、LiDAR(Light Detection and Ranging)の様なリモートセンシング技術を用いて点群を生成してもよい。前者の場合、 点群取得部11を実現するハードウェアとしてはステレオカメラ(及びステレオ画像を処理する画像処理回路)を用いればよく、後者の場合、LiDAR専用のレーザスキャンシステムを用いればよい。
自己位置推定部12は、地図記憶部13から読み込むデータとしての、現時刻tにおける情報取得装置10が存在しうる範囲(又は、当該範囲に基づく点群データPG(t)が取得されうる範囲)をカバーした地図データMAP(t)と、点群取得部11から得た点群データPG(t)と、を用いて例えば非特許文献2に開示されるような自己位置推定手法(点群同士の位置合わせの手法)を用いることにより、現時刻tにおける情報取得装置10の自己位置pos(t)を推定すると共に、当該推定した自己位置pos(t)によって点群データPG(t)を実世界の座標へと整列させ(すなわち、実世界の座標へと座標変換し)、当該得られた自己位置pos(t)及び整列された点群データPG(t)を領域検出部14へと出力する。
地図記憶部13では、自己位置推定部12及び領域検出部14(後述)に対して、現時刻tにて情報取得装置10が存在しうる範囲の地図データMAP(t)を参照に供することを可能とすべく、これよりも広範囲をカバーした地図データMAP[広範囲]を予め記憶しておく。なお、当該広範囲の地図データMAP[広範囲]に関しては、データ量が膨大となる場合には、別途の地図サーバ等(情報取得装置10の外部サーバ等)からその都度、中範囲の地図データMAP[中範囲]として取得したキャッシュデータを利用するようにしてもよい。この際、既存の任意の地図データのキャッシュ技術を利用して中範囲の地図データMAP[中範囲]を更新するようにしてよい。
図5は、一実施形態に係る領域検出部14の機能ブロック図である。領域検出部14は、自己位置推定部12で得られた世界座標系(x,y,z)[世界]へと整列された点群データPG(t)と、地図記憶部13から得られる地図データMAP(t)(自己位置推定部12で参照したのと同様のもの)と、に基づき、現時刻tの画像P(t)(後述する画像取得部15において取得される画像P(t))内において移動対象が含まれる候補となる領域の情報を得て、当該領域の情報を対象検出部16へと出力する。
非対応検出部141は、自己位置推定部12から得られる整列された点群データPG(t)と、地図記憶部13から得られる、既に述べた自己位置推定部12にて参照したとの同様の地図データMAP(t)と、を照合することにより、点群データPG(t)のうち地図データMAP(t)との位置対応が取れない点群データを非対応点群データPG(t)[非対応]として得て、選別部142へと出力する。当該照合する際は、点群データの各点(x,y,z)[i](ここでiは各点を識別するインデクスでありi=1,2,…である)に関して、地図データMAP(t)の構成要素(点、線、面など)との最小距離を計算し、当該最小距離が所定閾値以上となるような点(x,y,z)[i]が非対応点群データPG(t)[非対応]に属するものとすればよい。
選別部142は、非対応検出部141より得た非対応点群データPG(t)[非対応]に対してさらに選別処理を行い、選別された点群データPG(t)[選別]をセグメント化部143へと出力する。当該選別処理においては、地図記憶部13から得られる地図データMAP(t)における属性情報を参照し、移動体が存在しうる領域であって且つ情報集計システム100によって移動体の存在状況等を把握すべき領域として設定されている領域(把握領域R(t)とする)に近い点を、非対応点群データPG(t)[非対応]の中から選別すればよい。当該近い点を計算する場合は、非対応検出部141に関して説明したのと同様の距離計算を行えばよく、非対応点群データPG(t)[非対応]の各点(x,y,z)[i]のうち、把握領域R(t)の構成要素(点、線、面など)との最小距離が所定閾値以下となるものを、選別された点群データPG(t)[選別]に属するものとして判定すればよい。
セグメント化部143では、選別部142で得た選別された点群データPG(t)[選別](世界座標系(x,y,z)[世界]で与えられているもの)を画像P(t)の画素座標(u,v)に投影することで、点群データPG(t)[選別]が画像P(t)の画像座標(u,v)上で占めるセグメントSG(t)を求め、対象検出部16へと出力する。当該投影する際は、世界座標系(x,y,z)[世界]において予め所定のボクセルグリッドを設定しておき、点群データPG(t)[選別]の点を内包しているボクセル群BOX(t)を点群データPG(t)[選別]の占有領域を表すものとして、当該ボクセル群BOX(t)を画像P(t)の画像座標(u,v)上へと投影することによって、粗く表現されたものとしてのセグメントSG(t)を得るようにすればよい。また、ボクセル群BOX(t)ではなくその他の占有領域モデル(ポリゴンなど)を投影してセグメントSG(t)を得るようにしてもよい。(なお、セグメント化部143が含まれる領域検出部14では図4及び図5に示される通り、後述する画像取得部15で取得される画像P(t)のデータ(画像内容)自体は参照する必要はない。ただし、画像P(t)の画像座標(u,v)に関しては、世界座標系(x,y,z)[世界]との対応関係を含めて当該画像座標(u,v)が予め既知のものとして、セグメント化部143において当該画像座標(u,v)におけるセグメントSG(t)を求めることができる。このことは画像取得部15の説明においてキャリブレーションとして後述する通りである。)
画像取得部15は、ハードウェアとしては通常のカメラで実現することが可能であり、現時刻tの画像P(t)を取得して対象検出部16及び属性推定部18へと出力する。
対象検出部16は、画像取得部15から得た画像P(t)に対して、既存手法としての画像認識を適用することで、予め設定されている所定の移動体としての検出対象(例えば人物)を検出し、検出結果(画像P(t)上で占める位置)を位置推定部17、属性推定部18及び特徴抽出部19へと出力する。なお、画像P(t)の具体的な内容に応じて、対象検出部16においては対象が検出されないこともあれば、1つ以上の対象が検出される場合もありうる。
属性推定部18では対象検出部16で得た画像P(t)内の検出対象の領域を解析することにより、当該検出対象の属性を推定し、得られた属性情報を統計情報送信部20へと出力する。検出対象が人物であれば、属性情報は例えばその性別や年齢として推定することができる。
位置推定部17は、自己位置推定部12で取得した実世界における自己位置pos(t)と、対象検出部16で取得した画像P(t)中の対象の位置情報を用いて、実世界における対象の位置情報を推定し、統計情報送信部20へと出力する。検出対象が複数であればそれぞれ位置情報が推定される。
特徴抽出部19では、対象検出部16から得られる画像P(t)内の対象領域より、対象の同一性を識別する性能を有する任意の特徴情報を抽出して、統計情報送信部20へと出力する。 例えば、対象が人物であれば、非特許文献6に開示される同一人物照合のための任意の特徴量を抽出すればよい。その他、SIFT特徴量などを抽出してもよい。対象検出部16において対象検出した際に既に当該識別性能を有する特徴情報を利用している場合であれば、特徴抽出部19では再度の抽出処理を行うことなく、対象検出部16で得た特徴情報をそのまま統計情報送信部20へと出力してもよい。
統計情報送信部20では、位置推定部17で取得した実世界における対象の位置情報、属性推定部18から得られた属性情報、特徴抽出部19から得られた特徴情報を情報集計装置30の同一対象照合部31へと送信する。この際、対象ごとに対応する属性情報及び特徴情報を送信すると共に、対応する時刻情報t(当該情報を得る元となった点群取得部11及び画像取得部15での点群PG(t)及び画像P(t)の取得時刻t)もタイムスタンプとして紐づけて送信する。前述の通り、属性情報は省略されてもよい。
まず、同一対象照合部31が処理を行うための前提を説明する。実世界の地図(地図記憶部13における地図データMAP[広域])を特定の方法で区画に分割しておく。ここで言う区画とは、例えば歩道を20m刻みに区切った領域である。更に、時刻情報を用い
て、特定の時間間隔、例えば3秒ごとに分類する。このように、区画(空間)及び時間に関する所定のビンを予め定義しておく。
通行量推定部32では、上記の同一対象照合部31において得た各ビンの統合結果(及び統計情報送信部20から送信されているその他の統計情報)を用いて、各ビンの通行量を推定する。以下、検出対象が人物であり情報取得装置10が車両搭載されている場合を例として、当該通行量(人物に関する交通量)の推定を説明する。
T[滞在]=L/v[徒歩]
ある車両(情報取得装置10を搭載した車両)が当該歩道区画としてのビンを通過するのに要する時間をT[通過]とする(車速を一定としてv[車両]とするとT[通過]=L/v[車両]である)と、ある車両が当該単位時間τにおいて人物とすれちがう確率p(従って、当該すれちがうことにより当該人物の位置情報等を取得する確率p)は以下となる。τは前述の通り単位時間である。
p=T[滞在]/(τ-T[通過])
以上の数値例を挙げると次の通りである。例えば、歩道区画長L=20m、単位時間τ=1時間=3600秒、徒歩移動速度v[徒歩]=4km/τ(時速4km)、車両通過時間T[通過]=3秒の場合、以下のようになる。
T[滞在]=20 / (4 * 1000 / (3600)) = 18(秒)
p=18 / (3600 - 3) ≒ 1 / 200
qθ= θCn*pn* (1-p)(θ-n)
Qθ=q1,θ * q2,θ * ・・・ qM,θ
となり、θの関数としての確率が求まることとなる。
θ[最尤値]=argmax(Qθ)
30…情報集計装置、31…同一対象照合部、32…通行量推定部
Claims (8)
- 情報取得装置であって、
フィールドより点群データを取得する点群取得部と、
前記取得した点群データとフィールドの所与の地図データとの位置合わせにより前記点群データを取得したカメラの位置として自己位置を推定する自己位置推定部と、
前記カメラの位置よりフィールドを撮影して画像を取得する画像取得部と、
前記画像より対象を検出する対象検出部と、
前記推定された自己位置と、前記画像より検出された対象の領域に対応する前記点群の深度と、に基づいて、前記検出された対象のフィールドにおける位置情報を推定する位置推定部と、を備えることにより、
前記検出された対象に関する情報として、前記推定された位置情報を取得し、
前記取得した点群データのうち前記所与の地図データとの対応が取れない非対応点群データを求め、当該非対応点群データが前記画像において占めるセグメント領域を検出する領域検出部をさらに備え、
前記対象検出部では、前記画像のうち、当該セグメント領域又は当該セグメント領域を包含する領域より、対象を検出し、
前記領域検出部はさらに、前記非対応点群データのうち、前記所与の地図データにおいて予め定義されている把握領域の近傍にあるものを選別し、前記セグメント領域を、前記選別された非対応点群データが前記画像において占める領域として検出することを特徴とする情報取得装置。 - 前記把握領域は、前記画像より検出される対象が移動しうる領域として予め定義されていることを特徴とする請求項1に記載の情報取得装置。
- 前記領域検出部ではさらに、前記求めた非対応点群データを空間座標値に基づいてグループ分けし、前記セグメント領域を当該分けられたグループごとに区別して検出することを特徴とする請求項1または2に記載の情報取得装置。
- 前記領域検出部は、前記非対応点群データを内包する空間領域を求め、当該空間領域が前記画像において占める領域として前記セグメント領域を検出することを特徴とする請求項1ないし3のいずれかに記載の情報取得装置。
- 前記領域検出部は、前記空間領域をボクセルとして求めることを特徴とする請求項4に記載の情報取得装置。
- 請求項1ないし5のいずれかに記載の情報取得装置を1つ以上と、情報集計装置と、を備える情報集計システムであって、
前記情報取得装置はさらに、
前記検出された対象の前記画像における特徴情報を抽出する特徴抽出部を備え、
前記情報集計装置は、
各情報取得装置から取得される、検出された対象の特徴情報、位置情報及び時刻情報を、空間及び時間の所定のビンに割り当て、各ビン内において特徴情報が一致するもの同士を同一対象に該当するものとして統合する、同一対象照合部を備えることを特徴とする情報集計システム。 - 前記情報取得装置はさらに、
前記検出された対象の属性情報を前記画像より抽出する属性抽出部を備え、
前記情報集計装置は、
前記各ビン内において特徴情報が一致するもの同士を同一対象に該当するものとして統合する際に、検出された対象の属性情報も考慮して統合することを特徴とする請求項6に記載の情報集計システム。 - 前記情報集計装置がさらに、
前記同一対象照合部で同一対象に該当するものが統合されたビンに含まれる対象数の情報に基づき、指定された空間ビンの指定された期間における対象の通行量を推定する通行量推定部を備えることを特徴とする請求項6または7に記載の情報集計システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018059488A JP6894395B2 (ja) | 2018-03-27 | 2018-03-27 | 情報取得装置及び情報集計システム並びに情報集計装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018059488A JP6894395B2 (ja) | 2018-03-27 | 2018-03-27 | 情報取得装置及び情報集計システム並びに情報集計装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019174910A JP2019174910A (ja) | 2019-10-10 |
JP6894395B2 true JP6894395B2 (ja) | 2021-06-30 |
Family
ID=68170356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018059488A Active JP6894395B2 (ja) | 2018-03-27 | 2018-03-27 | 情報取得装置及び情報集計システム並びに情報集計装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6894395B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023209997A1 (ja) * | 2022-04-28 | 2023-11-02 | 日立Astemo株式会社 | 外界認識装置 |
WO2024004191A1 (ja) * | 2022-06-30 | 2024-01-04 | 富士通株式会社 | 対応付け方法、装置、及びプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6649178B2 (ja) * | 2016-05-24 | 2020-02-19 | 株式会社東芝 | 情報処理装置、および、情報処理方法 |
-
2018
- 2018-03-27 JP JP2018059488A patent/JP6894395B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019174910A (ja) | 2019-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Weld et al. | Deep learning for automatically detecting sidewalk accessibility problems using streetscape imagery | |
US20200401617A1 (en) | Visual positioning system | |
EP3280977B1 (en) | Method and device for real-time mapping and localization | |
Wieland et al. | Estimating building inventory for rapid seismic vulnerability assessment: Towards an integrated approach based on multi-source imaging | |
Bartels et al. | Threshold-free object and ground point separation in LIDAR data | |
Laumer et al. | Geocoding of trees from street addresses and street-level images | |
Minetto et al. | Measuring human and economic activity from satellite imagery to support city-scale decision-making during covid-19 pandemic | |
Azevedo et al. | Automatic vehicle trajectory extraction by aerial remote sensing | |
Rout | A survey on object detection and tracking algorithms | |
US20160267326A1 (en) | Image abstraction system | |
JP6997057B2 (ja) | 不動物体情報から端末位置を推定する装置、プログラム及び方法 | |
Daraei et al. | Velocity and shape from tightly-coupled LiDAR and camera | |
Zhao et al. | Automated traffic surveillance system with aerial camera arrays imagery: Macroscopic data collection with vehicle tracking | |
Taran et al. | Impact of ground truth annotation quality on performance of semantic image segmentation of traffic conditions | |
Payet et al. | Scene shape from texture of objects | |
JP6894395B2 (ja) | 情報取得装置及び情報集計システム並びに情報集計装置 | |
Akabane et al. | Pedestrian trajectory prediction based on transfer learning for human-following mobile robots | |
Balali et al. | Video-based highway asset recognition and 3D localization | |
Kukolj et al. | Road edge detection based on combined deep learning and spatial statistics of LiDAR data | |
Börcs et al. | A model-based approach for fast vehicle detection in continuously streamed urban LIDAR point clouds | |
Hamledari | Inpro: Automated indoor construction progress monitoring using unmanned aerial vehicles | |
Karaki et al. | A comprehensive survey of the vehicle motion detection and tracking methods for aerial surveillance videos | |
Yang et al. | Locator slope calculation via deep representations based on monocular vision | |
Masmoudi et al. | Vision based approach for adaptive parking lots occupancy estimation | |
Murayama et al. | Deep pedestrian density estimation for smart city monitoring |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210407 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210603 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6894395 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |