JP2018109557A - 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム - Google Patents

位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム Download PDF

Info

Publication number
JP2018109557A
JP2018109557A JP2017000126A JP2017000126A JP2018109557A JP 2018109557 A JP2018109557 A JP 2018109557A JP 2017000126 A JP2017000126 A JP 2017000126A JP 2017000126 A JP2017000126 A JP 2017000126A JP 2018109557 A JP2018109557 A JP 2018109557A
Authority
JP
Japan
Prior art keywords
detection
object detection
unit
detection sensor
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017000126A
Other languages
English (en)
Inventor
榎原 孝明
Takaaki Enohara
孝明 榎原
馬場 賢二
Kenji Baba
賢二 馬場
禎敏 齋藤
Sadatoshi Saitou
禎敏 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2017000126A priority Critical patent/JP2018109557A/ja
Priority to PCT/JP2017/032878 priority patent/WO2018127996A1/ja
Publication of JP2018109557A publication Critical patent/JP2018109557A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation

Abstract

【課題】複数の物体検知センサの位置を物体検知センサごとに検出することができる位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラムを提供する。【解決手段】位置検出装置は、登録部と、通信部と、位置検出部とを持つ。物体130−1〜130−6を検知する複数の物体検知センサ2−1〜2−6は、複数の位置に設置されている。登録部は、経路を登録する。通信部は、登録された経路に沿って移動した物体を複数の物体検知センサが検知した結果を表す検知情報と物体検知センサの識別情報とを取得する。位置検出部は、物体が複数の物体検知センサの検知範囲を通過した結果と検知情報とに基づいて、物体検知センサの識別情報と物体検知センサの位置とを対応付けることによって、物体検知センサの位置を検出する。【選択図】図6

Description

本発明の実施形態は、位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラムに関する。
ビル建設等の現場において、作業者は、室内の天井に設置された複数の物体検知センサの位置を、物体検知センサごとに目視で確認する場合がある。しかしながら、作業員は、複数の物体検知センサの位置を物体検知センサごとにマップに記録する場合、実際に設置された位置とは異なる位置をマップに間違えて記録してしまう可能性がある。このように、従来では、室内の天井に設置された複数の物体検知センサの位置を、物体検知センサごとに検出することができない場合があった。
特許第5336100号公報 特開2013−4312号公報 特許第5872306号公報
「屋内外位置測位サービス」,[online] ,[2016年8月1日検索],<URL: http://sol.panasonic.biz/cloud-service/positioning/> 「複数の監視カメラ映像を統合し俯瞰化!三菱電機が新技術を公開」,[online] ,[2016年8月1日検索],<URL: http://www.rbbtoday.com/article/2016/03/10/140420.html>
本発明が解決しようとする課題は、複数の物体検知センサの位置を物体検知センサごとに検出することができる位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラムを提供することである。
実施形態の位置検出装置は、登録部と、通信部と、位置検出部とを持つ。物体を検知する複数の物体検知センサは、複数の位置に設置されている。登録部は、経路を登録する。取得部は、登録された経路に沿って移動した物体を複数の物体検知センサが検知した結果を表す検知情報と物体検知センサの識別情報とを取得する。位置検出部は、物体が複数の物体検知センサの検知範囲を通過した結果と検知情報とに基づいて、物体検知センサの識別情報と物体検知センサの位置とを対応付けることによって、物体検知センサの位置を検出する。
実施形態の位置検出システムの構成の例を示す図。 実施形態のマスク領域の例を示す図。 実施形態のカメラ画像に定められた複数の分割領域の例を示す図。 実施形態のマップの例を示す図。 実施形態の経路の登録の例を示す図。 実施形態の歩行者を物体検知センサ等が検知した順の例を示す図。 実施形態のヘルメットを身に着けた歩行者の検知順の例を示す図。 実施形態の物体検知センサの位置検出結果情報の第1例を示す図。 実施形態の物体検知センサの位置検出結果情報の第2例を示す図。 実施形態の回転ずれ量が少ない歪補正後カメラ画像における歩行者の移動の経路の例を示す図。 実施形態の回転ずれ量の検出の第1例を示す図。 実施形態の回転ずれ量が閾値以上である歪補正後カメラ画像における歩行者の移動の経路の例を示す図。 実施形態の回転ずれ量の検出の第2例を示す図。 実施形態の回転ずれ量の検出の第3例を示す図。 実施形態の回転ずれ量の検出の第4例を示す図。 実施形態のマップの表示と歪補正前カメラ画像の一覧表示との例を示す図。 実施形態のマップの表示と歪補正前カメラ画像の巡回表示との例を示す図。 実施形態のマップの表示と歪補正前カメラ画像の選択表示との例を示す図。 実施形態のマップの表示とマップに重畳した歪補正前カメラ画像の表示との例を示す図。 実施形態のマップの表示とマップに重畳した歪補正後カメラ画像の一覧表示との第1例を示す図。 実施形態のマップの表示とマップに重畳した歪補正後カメラ画像の一覧表示との第2例を示す図。 実施形態のマップの表示とマップに重畳した歪補正後カメラ画像の一覧表示との第3例を示す図。 実施形態の物体検知センサの位置を検出する動作の例を示すフローチャート。 実施形態の物体検知センサの回転ずれ量を検出する動作の例を示すフローチャート。
以下、実施形態の位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラムを、図面を参照して説明する。
図1は、位置検出システム1の構成の例を示す図である。位置検出システム1は、室内の天井に設置された複数の物体検知センサ2の位置を検出するシステムである。位置検出システム1は、設置されるべき向きに対して物体検知センサ2が回転してずれている量(以下「回転ずれ量」という。)を検出するシステム(回転ずれ量検出システム)でもよい。位置検出システム1は、物体検知センサ2−1〜2−N(Nは2以上の整数。以下、Nは一例として6である。)と、位置検出装置3と、通信回線4とを備える。なお、物体検知センサ2と位置検出装置3とは、一体でもよい。
物体検知センサ2は、センシングシステムのセンサとして物体を検知する。物体検知センサ2は、例えば、画像センサ、サーモパイルセンサ等の赤外線センサ、超音波センサである。以下、物体検知センサ2は、一例として、画像センサである。物体検知センサ2−1〜2−Nは、例えば、室内の天井に設置される。物体検知センサ2は、天井から俯瞰して室内を撮像する。
位置検出装置3は、ノート型やデスクトップ型のパーソナルコンピュータ、タブレット端末、スマートフォン端末等の情報処理装置である。位置検出装置3は、ビルエネルギー管理システム(BEMS: Building Energy Management System)等のサーバ装置でもよい。
位置検出装置3は、登録された経路を移動した物体(移動体)の位置を物体検知センサ2が検出した結果に基づいて、室内の天井に設置された複数の物体検知センサ2の位置を検出(推定)する。例えば、位置検出装置3は、物体検知センサ2が天井から俯瞰して撮像したカメラ画像における移動体の画像に基づいて、室内の天井に設置された複数の物体検知センサ2の位置を検出する。
位置検出装置3は、登録された経路を移動した物体の位置を物体検知センサ2が検出した結果に基づいて、室内の天井に設置された複数の物体検知センサ2の回転ずれ量を検出(推定)する装置(回転ずれ量検出装置)でもよい。例えば、位置検出装置3は、カメラ画像における移動体の経路と、経路に関する正解データ(正解値)との比較結果に基づいて、室内の天井に設置された物体検知センサ2の回転ずれ量(回転角度)を検出してもよい。経路に関する正解データとは、設置されるべき向きに物体検知センサ2が設置された場合に物体検知センサ2が出力するカメラ画像における、移動体の経路(基準経路)を表すデータである。移動体の経路を表すデータは、例えば、移動体の経路を表す線、移動体の経路の方向(基準方向)を表す角度、移動体を最初に検知するカメラ画像上の位置(領域)、移動体を最後に検知するカメラ画像上の位置(領域)等によって表現される。なお、位置検出装置3は、物体検知センサ2が撮像したカメラ画像に生じた回転ずれ量を補正してもよい。
通信回線4は、有線又は無線の通信回線である。通信回線4のネットワークトポロジーは、例えば、スター型、リング型である。
次に、物体検知センサ2の構成を説明する。
物体検知センサ2は、カメラ部20と、操作部21と、記憶部22と、画像認識部23と、ID設定部24と、通信部25と、バス26とを備える。
画像認識部23とID設定部24と通信部25とのうち一部又は全部は、例えば、CPU(Central Processing Unit)等のプロセッサが、記憶部22に記憶されたプログラムを実行することにより機能するソフトウェアにより実現される。また、これらの機能部のうち一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアにより実現されてもよい。
カメラ部20は、天井において設置されている位置から、魚眼レンズを介して室内を撮像する。カメラ部20は、室内を撮像したカメラ画像を、画像認識部23に送信する。カメラ部20は、天井において設置されている位置から、室内を移動している移動体を撮像する。移動体は、例えば、歩行している作業者(以下、「歩行者」という。)、作業用の車両、移動可能な作業ロボットである。以下、移動体は歩行者であるとして説明を続ける。
操作部21は、DIPスイッチ(Dual In-line Package switch)、操作キー又はタッチパネル等の操作デバイスである。操作部21は、作業者等による操作を受け付ける。作業者等による操作は、例えば、撮像等に使用するパラメータ情報を設定する操作、電源操作を受け付ける。
記憶部22は、磁気ハードディスク装置や半導体記憶装置等の不揮発性の記憶媒体(非一時的な記録媒体)を有する記憶装置を用いて構成される。半導体記憶装置は、例えば、フラッシュメモリである。記憶部22は、例えば、撮像等に使用するパラメータ情報、自センサの識別情報(ID)を記憶する。記憶部22は、室内における人物の画像の明度、室内における人物の在不在、人数、混雑度及び活動量等の検知情報を記憶してもよい。記憶部22は、複数のカメラ画像を撮像の時刻に対応付けて記憶(録画)してもよい。
記憶部22は、例えば、検知の対象として指定された歩行者をカメラ画像において検知したか否かを画像認識によって特定するための情報(以下「特定情報」という。)を記憶する。特定情報は、作業員等によって予め定められる。
特定情報は、例えば、歩行者が身に着けているヘルメットや作業服等の色や模様の情報である。ヘルメットや作業服等の色や模様の情報は、ヘルメットや作業服等の製品情報に基づく情報でもよい。位置検出装置3の通信部等は、指定されたヘルメットや作業服等の型番に基づいて、インターネットを介して製品ホームページから製品情報を検索してもよい。特定情報は、歩行者の背格好や歩容等の個人認証情報でもよい。特定情報は、歩行者が保持している携帯端末の無線通信情報でもよい。特定情報は、教師画像でもよい。例えば、特定情報は、物体検知センサ2が事前に撮像したカメラ画像における人物の画像情報でもよい。特定情報は、歩行者が手を振る等のジェスチャ情報でもよい。特定情報は、歩行者が移動する室内の特定領域を表す情報でもよい。特定情報は、歩行者が身に着けているプレート等のマーカに記載された文字列等を表す情報でもよい。
画像認識部23は、カメラ画像に対して画像処理を施す。例えば、画像認識部23は、累積差分等の輝度変化やCoHOG(Co-occurrence Histograms of Oriented Gradients)の輝度分布等の特徴量を、カメラ画像から抽出する。
画像認識部23は、記憶部22から、特定情報を取得する。画像認識部23は、位置検出装置3から通信部25を介して、特定情報を取得してもよい。画像認識部23は、カメラ画像に対して画像処理を施した結果と特定情報とに基づいて、指定された歩行者をカメラ画像において検知したか否かを特定する。例えば、画像認識部23は、ニューラルネットワーク、サポートベクターマシン(SVM: Support Vector Machine)、k近傍識別器、ベイズ分類等による特徴量の処理結果と特定情報とに基づいて、指定された歩行者をカメラ画像において検知したか否かを特定する。
ビル建設等の現場では、同じ室内で複数の作業者が作業する場合がある。このため、画像認識部23は、複数の歩行者が認識されたカメラ画像において、検知の対象となる歩行者を識別する必要がある。画像認識部23は、複数の歩行者が認識されたカメラ画像において、検知の対象となる歩行者と、検知の対象とならない他の歩行者とを、位置検出装置3から指定された特定情報に基づいて識別する。
画像認識部23は、検知の対象となる歩行者について、室内における人物の画像の明度、室内における人物の在不在、人数、混雑度及び活動量等の検知情報を生成する。画像認識部23は、検知の対象となる歩行者の移動の経路を、検知情報に基づいて決定する。画像認識部23は、例えば、背景差分処理、フレーム間差分処理、オプティカルフロー処理、テンプレートマッチング処理によって、検知の対象となる歩行者の移動の経路を決定する。なお、画像認識部23は、歩行者の識別情報を検知情報に付加してもよい。
以下、物体検知センサ2の位置を位置検出装置3が検出する動作モード(調整モード)を、「位置検出モード」という。以下、物体検知センサ2の回転ずれ量を位置検出装置3が検出する動作モード(調整モード)を、「回転量検出モード」という。以下、位置検出モード及び回転量検出モード以外の位置検出装置3の動作モード(物体検知センサ2が画像センサとして運用されている動作モード)を、「運用モード」という。
画像認識部23は、操作部21又は記憶部22から、撮像等に使用するパラメータ情報を取得する。画像認識部23は、位置検出装置3から通信部25を介して、撮像等に使用するパラメータ情報を取得してもよい。
図2は、マスク領域100の例を示す図である。撮像等に使用するパラメータ情報は、例えば、物体検知センサ2のカメラ部20がカメラ画像の一部領域をマスキングするためのマスク領域情報である。画像認識部23又は位置検出装置3は、位置検出装置3が位置検出モードで動作する場合、パラメータ情報に基づいてマスク領域100の面積を増加させ、カメラ画像領域110の面積を減少させることによって、物体検知センサ2の真下のみを歩行者の検知範囲にしてもよい。
図3は、カメラ画像に定められた複数の領域120の例を示す図である。撮像等に使用するパラメータ情報は、例えば、カメラ画像を分割する複数の領域の情報である。画像認識部23又は位置検出装置3は、領域120に施す画像処理を、パラメータ情報に基づいて領域120ごとに異ならせてもよい。図3では、カメラ画像は、一例として、領域120−1〜120−9に分割されている。
図1に戻り、物体検知センサ2の構成の説明を続ける。ID設定部24は、自センサの識別情報を記憶部22に記録する。自センサの識別情報は、例えば、MACアドレス(Media Access Control address)、IPアドレス(Internet Protocol address)である。ID設定部24は、操作部21を介して取得された識別情報を、自センサの識別情報として記憶部22に記録してもよい。ID設定部24は、DHCP(Dynamic Host Configuration Protocol)等によって自動設定された識別情報を、自センサの識別情報として記憶部22に記録してもよい。ID設定部24は、例えば、自センサの出荷時や、自センサが天井に設置された後に、自センサの識別情報を記憶部22に記録する。
通信部25は、取得部及び送信部として、Ethernet(登録商標)、ビル用、無線用、機器制御用等の通信プロトコルに基づいて、通信回線4を介して位置検出装置3と通信する。通信部25は、他の物体検知センサ2と通信してもよい。通信データは、例えば、自センサの識別情報、歩行者を物体検知センサ2が検知した結果に基づく検知情報、歩行者を物体検知センサ2が検知した結果に基づく静止画又は動画のカメラ画像である。通信部25の通信プロトコルは、例えば、汎用プロトコル、産業用プロトコル、独自プロトコルである。通信部25は、物体検知センサ2を制御する装置であるリモートコントローラと通信してもよい。
バス26は、物体検知センサ2の各部の間でデータを伝送する伝送路である。
次に、位置検出装置3の構成を説明する。
位置検出装置3は、通信部30と、操作部31と、マップ設定部32と、登録部33と、指示部34と、位置検出部35と、補正部36と、回転検出部37と、表示制御部38と、記憶部39と、表示部40と、バス41とを備える。なお、位置検出装置3は、画像認識部42をさらに備えてもよい。
通信部30とマップ設定部32と登録部33と指示部34と位置検出部35と補正部36と回転検出部37と表示制御部38と画像認識部42とのうち一部又は全部は、例えば、CPU等のプロセッサが、記憶部39に記憶されたプログラムを実行することにより機能するソフトウェアにより実現される。また、これらの機能部のうち一部又は全部は、LSIやASIC等のハードウェアにより実現されてもよい。
通信部30は、Ethernet(登録商標)、ビル用、無線用、機器制御用等の通信プロトコルに基づいて、通信回線4を介して物体検知センサ2−1〜2−Nと通信する。通信データは、例えば、物体検知センサ2の識別情報、歩行者を物体検知センサ2が検知した結果に基づく検知情報、歩行者を物体検知センサ2が検知した結果に基づく静止画又は動画のカメラ画像である。通信部30の通信プロトコルは、例えば、汎用プロトコル、産業用プロトコル、独自プロトコルである。通信部30は、リモートコントローラと通信してもよい。
操作部31は、DIPスイッチ、操作キー、キーボード、マウス又はタッチパネル等の操作デバイスである。操作部31は、作業者等による操作を受け付ける。操作部31は、例えば、歩行者の移動の経路データを登録する操作、正解データを登録する操作、撮像等に使用するパラメータ情報を設定する操作、電源操作を受け付ける。
マップ設定部32は、室内における柱の配置や区画情報等を表すマップ(平面図)を取得する。マップは、天井に設置された物体検知センサ2の位置を表す画像(天伏図)をさらに含んでもよい。マップは、写真や線図等の画像データで表される。
図4は、マップ5の例を示す図である。位置表示画像7−n(nは、1以上N以下の整数)は、物体検知センサ2−nの位置を表す画像である。マップ設定部32は、マップ5における物体検知センサ2−nの位置に、位置表示画像7−nを重畳する。マップ5において位置表示画像7が重畳される位置は、例えば、表示部40に表示されたマップ5を見ている作業員が操作部31を操作することによって定められる。マップ設定部32は、マップ5に位置表示画像7を重畳する場合、マップ5における設置間隔情報に基づく位置に、位置表示画像7を重畳してもよい。
なお、この時点では、位置検出装置3は、各位置表示画像7が示す位置に物体検知センサ2−nのいずれが設置されているのかをまだ推定していない。
物体検知センサ2の位置は、座標や区画情報で表現される。図2では、物体検知センサ2−1の位置(位置表示画像7−1が重畳された位置)は、P1(「A」ベイ(bay),第1柱)である。物体検知センサ2−2の位置(位置表示画像7−2が重畳された位置)は、P2(「A」ベイ,第2柱)である。物体検知センサ2−6の位置(位置表示画像7−6が重畳された位置)は、P6(「B」ベイ,第3柱)である。なお、物体検知センサ2の位置は、室内を移動している歩行者が物体検知センサ2に検知される時刻等の時刻情報に対応付けられてもよい。
図1に戻り、位置検出装置3の構成の説明を続ける。登録部33は、マップ5における歩行者の移動の経路データ(線画像データ)を、操作部31を介した操作に応じてマップ5に含める。登録部33は、歩行者の移動の経路データを含むマップ5を、記憶部39に登録する。
図5は、経路6の登録の例を示す図である。作業員は、表示部40に表示されたマップ5を見ながら、マウス等の操作部31を操作することによって、歩行者の移動の経路6をマップ5に描く。経路6は始点及び終点を有する。経路6は、一筆書きで描かれていなくもよい。作業員は、経路6の本数が複数である場合、操作部31を操作することによって、物体検知センサ2の位置検出に使用する経路6を選択してもよい。
作業員は、歩行者が室内を移動する前に、室内において歩行者が移動することが予定されている経路をマップ5に表すように、経路6をマップ5に描く。歩行者は、歩行者が室内を移動する前にマップ5に描かれた経路6に沿うように室内を移動する。
歩行者は、室内を移動する際に、無線通信する携帯端末を保持してもよい。歩行者に保持されている携帯端末は、歩行者が室内を移動した経路を、位置推定技術を用いて推定してもよい(非特許文献1参照)。携帯端末は、歩行者が室内を移動した経路を表すデータ(位置推定結果)を、通信部30を介して登録部33に送信してもよい。
登録部33は、歩行者が室内を移動する前にマップ5に描かれた経路6に対する、通信部30が携帯端末から取得した位置推定結果に基づく経路の偏差を検出してもよい。登録部33は、検出された偏差に基づいて、通信部30を介して携帯端末に移動経路情報を送信してもよい。歩行者に保持されている携帯端末は、移動経路情報を表示する。これによって、登録部33は、マップ5に事前に描かれた経路6を室内において歩行者が移動することができるように、経路6を表す移動経路情報を歩行者に案内することができる。
作業員は、歩行者が室内を移動した後に、室内において歩行者が移動した経路をなぞるように、経路6をマップ5に描いてもよい。登録部33は、歩行者が室内を移動した後に、歩行者に保持されていた携帯端末から通信部30が取得した位置推定結果に基づいて、経路6をマップ5に描いてもよい。
登録部33は、物体検知センサ2−1〜2−6がどのような順で歩行者を検知するのかを、各物体検知センサ2の検知範囲と、各物体検知センサ2の位置及び経路6の距離と基づいて予測してもよい。図5では、登録部33は、各物体検知センサ2の検知範囲を歩行者が通過した順(物体検知センサ2−6、2−5、2−4、2−1、2−2、2−3の順)に各物体検知センサ2が歩行者を検知すると予測する。
登録部33は、経路6に応じて物体検知センサ2の位置に定められた歩行者の通過時刻に基づいて、歩行者が物体検知センサ2の検知範囲を通過した時刻(通過時刻)を予測してもよい。図5では、歩行者が物体検知センサ2−6の検知範囲を通過した時刻は、例えば、通過時刻t1と等しい。歩行者が物体検知センサ2−3の検知範囲を通過した時刻は、例えば、通過時刻t6と等しい。
登録部33は、カメラ画像について、物体検知センサ2の回転ずれ量が少ない場合にカメラ画像において歩行者を最初に検知する位置を、経路6に対する物体検知センサ2の相対的な向きに基づいて推定する。以下、カメラ画像において歩行者を最初に検知する位置であると推定された位置を「最初検知推定位置」という。登録部33は、歩行者の最初検知推定位置を表す情報を、正解データの一つとして記憶部39に記録する。
登録部33は、カメラ画像について、物体検知センサ2の回転ずれ量が少ない場合にカメラ画像において歩行者を最後に検知する位置を、経路6に対する物体検知センサ2の相対的な向きに基づいて推定する。以下、カメラ画像において歩行者を最後に検知する位置であると推定された位置を「最後検知推定位置」という。登録部33は、歩行者の最後検知推定位置を表す情報を、正解データの一つとして記憶部39に記録する。
登録部33は、複数の領域120が定められたカメラ画像について、物体検知センサ2の回転ずれ量が少ない場合にカメラ画像において歩行者を最初に検知する領域120を、経路6に対する物体検知センサ2の相対的な向きに基づいて推定する。以下、カメラ画像において歩行者を最初に検知する領域であると推定された領域を「最初検知推定領域」という。登録部33は、歩行者の最初検知推定領域を表す情報を、正解データの一つとして記憶部39に記録する。
登録部33は、複数の領域120が定められたカメラ画像について、物体検知センサ2の回転ずれ量が少ない場合にカメラ画像において歩行者を最後に検知する領域120を、経路6に対する物体検知センサ2の相対的な向きに基づいて推定する。以下、カメラ画像において歩行者を最後に検知する領域であると推定された領域を「最後検知推定領域」という。登録部33は、歩行者の最後検知推定領域を表す情報を、正解データの一つとして記憶部39に記録する。
図1に戻り、位置検出装置3の構成の説明を続ける。指示部34は、物体検知センサ2の位置を位置検出部35が検出する場合と検出しない場合とで歩行者の検知に用いるパラメータを変更する指示を、通信部30を介して物体検知センサ2に送信する。すなわち、指示部34は、位置検出モードと運用モードとで異なるパラメータ情報を、通信部30を介して物体検知センサ2に送信する。指示部34は、動作モード情報及びパラメータ情報の少なくとも一方を、通信部30を介して物体検知センサ2に送信する。動作モード情報及びパラメータ情報は、操作部31を介して指示された情報でもよいし、予め準備された情報でもよい。指示部34は、予め準備された動作モード及びパラメータのうちから、所定の条件に基づいて動作モード及びパラメータを選択してもよい。指示部34は、選択した動作モード及びパラメータを物体検知センサに指示する。指示部34は、物体検知センサ2のセンシング機能を切り替えるための情報を含む動作モード情報を、物体検知センサ2に送信してもよい。センシング機能とは、例えば、カメラ画像における歩行者の位置の検知精度を画素単位とするか領域単位とするかという検知精度の切り替え機能である。
例えば、指示部34は、位置検出装置3が位置検出モードで動作する場合、位置検出装置3が運用モードで動作する場合と比較してマスク領域100の面積を増加させるパラメータ情報を、通信部30を介して物体検知センサ2に送信してもよい。例えば、指示部34は、位置検出装置3が位置検出モードで動作する場合、カメラ画像に複数の領域120(カメラ画像を分割する領域)を定めるパラメータ情報を、通信部30を介して物体検知センサ2に送信してもよい。
指示部34は、物体検知センサ2の回転ずれ量を回転検出部37が検出する場合と検出しない場合とで、歩行者の検知に用いるパラメータを変更する指示を、通信部30を介して物体検知センサ2に送信してもよい。すなわち、指示部34は、回転量検出モードと運用モードとで異なるパラメータ情報を、通信部30を介して物体検知センサ2に送信する。
指示部34は、特定情報を操作部31又は記憶部39から取得する。指示部34は、通信部30を介して、特定情報を物体検知センサ2に送信する。指示部34は、バス41を介して、特定情報を位置検出部35に送信してもよい。指示部34は、操作部31を介した操作に基づいて複数の特定情報から選択した特定情報を、物体検知センサ2及び位置検出部35に送信してもよい。
図1に戻り、位置検出装置3の構成の説明を続ける。位置検出部35は、物体検知センサ2の位置情報と物体検知センサ2の識別情報とを対応付ける(紐付ける)ことによって、物体検知センサ2の位置を物体検知センサ2ごとに検出する。
図6は、歩行者130(移動体)を物体検知センサ2等が検知した順の例を示す図である。図6に例示する画像は、複数の物体検知センサ2が送信したカメラ画像に基づく画像である。図6に例示する画像は、表示部40に表示される。
歩行者130は、位置検出装置3が位置検出モードで動作する場合、経路6に沿って室内を移動する。図6では、歩行者の位置は、図5に示す経路6に沿って、時系列で歩行者130−1〜130−6の順に変化する。
検知順表示画像8は、歩行者130の検知順「1番〜6番のいずれか」を表す画像である。例えば、検知順表示画像8−1は、物体検知センサ2−6が時刻t1における歩行者130−1を検知したことに基づいて、歩行者130の検知順「1番」を表す。例えば、検知順表示画像8−3は、物体検知センサ2−3が時刻t1よりも後の時刻t6における歩行者130−6を検知したことに基づいて、歩行者130の検知順「6番」を表す。
図7は、ヘルメットを身に着けた歩行者131(移動体)の検知順の例を示す図である。図7に例示する画像は、複数の物体検知センサ2が送信したカメラ画像に基づく画像である。図7に例示する画像は、表示部40に表示される。
歩行者131は、位置検出装置3が位置検出モードで動作する場合、図5に示す経路6に沿って室内を移動する。図7では、歩行者の位置は、図5に示す経路6に沿って、時系列で歩行者131−1〜131−6の順に変化する。位置検出部35は、歩行者131が身に着けているヘルメットの色や模様等に基づいて、歩行者131と他の歩行者とを識別することができる。
検知順表示画像8は、歩行者131の検知順「1番〜6番のいずれか」を表す画像である。例えば、検知順表示画像8−1は、物体検知センサ2−6が時刻t1における歩行者131−1を検知したことに基づいて、歩行者131の検知順「1番」を表す。例えば、検知順表示画像8−3は、物体検知センサ2−3が時刻t1よりも後の時刻t6における歩行者131−6を検知したことに基づいて、歩行者131の検知順「6番」を表す。
位置検出部35(リンク部)は、物体検知センサ2が歩行者131を検知した順と歩行者131が物体検知センサ2の検知範囲を通過した順との対応関係に基づいて、物体検知センサ2の位置を物体検知センサ2ごとに検出する。
図8は、物体検知センサ2の位置検出結果情報の第1例を示す図である。図8では、歩行者の検知順と、物体検知センサ2の識別情報と、歩行者が物体検知センサ2の検知範囲を通過した順(歩行者の通過順)と、物体検知センサ2の位置とが対応付けられる。
位置検出部35は、歩行者131を検知した物体検知センサ2の識別情報を、歩行者131の検知順に対応付けて、位置検出結果情報に登録する。例えば、位置検出部35は、歩行者131を1番目に検知した物体検知センサ2の識別情報「2−6」を、歩行者131の検知順「1番」に対応付けて、位置検出結果情報に登録する。例えば、位置検出部35は、歩行者131を6番目に検知した物体検知センサ2の識別情報「2−3」を、歩行者131の検知順「6番」に対応付けて、位置検出結果情報に登録する。
位置検出部35は、歩行者131が物体検知センサ2の検知範囲を通過した順(通過順)に対応付けて、物体検知センサ2の位置情報を、操作部31又は登録部33から取得する。位置検出部35は、歩行者131の検知順と歩行者131の通過順とが等しくなるように、物体検知センサ2の識別情報と物体検知センサ2の位置情報とを対応付ける。
例えば、位置検出部35は、歩行者の通過順「1番」に対応付けられた物体検知センサ2の識別情報「2−6」と、歩行者の検知順「1番」に対応付けられた物体検知センサ2−6の位置「P6」とを対応付ける。例えば、位置検出部35は、歩行者の通過順「6番」に対応付けられた物体検知センサ2の識別情報「2−3」と、歩行者の検知順「6番」に対応付けられた物体検知センサ2−3の位置「P3」とを対応付ける。
これにより、位置検出部35は、物体検知センサ2の位置を物体検知センサ2ごとに検出することができる。例えば、位置検出部35は、識別情報「2−6」が割り当てられている物体検知センサ2−6が室内における位置「P6」に設置されていることを、検出することができる。例えば、位置検出部35は、識別情報「2−3」が割り当てられている物体検知センサ2−3が室内における位置「P3」に設置されていることを、検出することができる。
位置検出部35(リンク部)は、物体検知センサ2が歩行者131を検知した時刻と歩行者131が物体検知センサ2の検知範囲を通過した時刻との対応関係に基づいて、物体検知センサ2の位置を物体検知センサ2ごとに検出してもよい。
図9は、物体検知センサ2の位置検出結果情報の第2例を示す図である。図9では、歩行者の検知時刻と、物体検知センサ2の識別情報と、歩行者が物体検知センサ2の検知範囲を通過した時刻(歩行者の通過時刻)と、物体検知センサ2の位置とが対応付けられる。歩行者の通過時刻は、経路6に定められる。
位置検出部35は、歩行者131を検知した物体検知センサ2の識別情報を、歩行者131の検知時刻に対応付けて、位置検出結果情報に登録する。例えば、位置検出部35は、歩行者131を時刻t1に検知した物体検知センサ2の識別情報「2−6」を、歩行者131の検知時刻「t1」に対応付けて、位置検出結果情報に登録する。例えば、位置検出部35は、歩行者131を時刻t6に検知した物体検知センサ2の識別情報「2−3」を、歩行者131の検知時刻「t6」に対応付けて、位置検出結果情報に登録する。
位置検出部35は、歩行者131が物体検知センサ2の検知範囲を通過した時刻(通過時刻)に対応付けて、物体検知センサ2の位置情報を、操作部31又は登録部33から取得する。位置検出部35は、歩行者131の検知時刻と歩行者131の通過時刻とが等しくなるように、物体検知センサ2の識別情報と物体検知センサ2の位置情報とを対応付ける。
例えば、位置検出部35は、歩行者の通過時刻「t1」に対応付けられた物体検知センサ2の識別情報「2−6」と、歩行者の検知時刻「t1」に対応付けられた物体検知センサ2−6の位置「P6」とを対応付ける。例えば、位置検出部35は、歩行者の通過時刻「t6」に対応付けられた物体検知センサ2の識別情報「2−3」と、歩行者の検知時刻「t6」に対応付けられた物体検知センサ2−3の位置「P3」とを対応付ける。
これにより、位置検出部35は、物体検知センサ2の位置を物体検知センサ2ごとに検出することができる。例えば、位置検出部35は、識別情報「2−6」が割り当てられている物体検知センサ2−6が室内における位置「P6」に設置されていることを、検出することができる。例えば、位置検出部35は、識別情報「2−3」が割り当てられている物体検知センサ2−3が室内における位置「P3」に設置されていることを、検出することができる。
図1に戻り、位置検出装置3の構成の説明を続ける。補正部36は、物体検知センサ2のカメラ部20の魚眼レンズによるカメラ画像(以下、「歪補正前カメラ画像」という。)の歪みを補正する。補正部36は、歪みを補正した後のカメラ画像(以下、「歪補正後カメラ画像」という。)を、回転検出部37及び表示制御部38に送信する。
物体検知センサ2が天井に設置された際、基準に対して物体検知センサ2の向きに回転ずれ量が生じる場合がある。補正部36は、物体検知センサ2の向き又はカメラ画像の回転ずれ量を表す情報を、物体検知センサ2ごとに回転検出部37から取得する。補正部36は、回転ずれ量に基づいて、歪補正後カメラ画像の回転ずれ量を補正する。補正部36は、回転ずれ量が補正された歪補正後カメラ画像を、表示制御部38に送信する。
回転検出部37は、カメラ画像を取得する。回転検出部37は、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量を、カメラ画像と正解データとの比較結果に基づいて検出する。回転検出部37は、物体検知センサ2の向き又はカメラ画像の回転ずれ量を表す情報を、補正部36及び表示制御部38に送信する。
回転検出部37は、設置された物体検知センサ2の回転ずれ量を表す情報を、音声で出力してもよい。回転検出部37は、回転ずれ量が閾値以上である物体検知センサ2の検知範囲を歩行者131が通過した場合、回転ずれ量が閾値以上である物体検知センサ2の検知範囲を歩行者131が通過したことを表す情報を、音声等で作業者等に通知してもよい。回転検出部37は、回転ずれ量が閾値以上である物体検知センサ2の位置と歩行者131の位置との間の距離を、音声等で作業者等に通知してもよい。回転検出部37は、歩行者131の位置を原点として、回転ずれ量が閾値以上である物体検知センサ2の位置の方向を、音声等で作業者等に通知してもよい。
回転検出部37は、カメラ画像上の第1領域及び第2領域と歩行者の移動の経路との対応関係に基づいて、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量を検出する。例えば、回転検出部37は、カメラ画像を分割する複数の領域と歩行者の移動の経路との対応関係に基づいて、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量を検出する。
図10は、回転ずれ量が少ない歪補正後カメラ画像140−2における歩行者131の移動の経路の例を示す図である。歪補正後カメラ画像140−2では、歩行者の位置は、図5に示す経路6に沿って、時系列で歩行者131−5−1、131−5−2、131−5−3の順に変化する。なお、歩行者131は、図5に示す経路6におおむね沿って移動しているのであれば、歪補正後カメラ画像140−2において直進していなくてもよい。
図11は、回転ずれ量の検出の第1例を示す図である。図11では、図10に示す歪補正後カメラ画像140−2は、領域120−1〜120−9に分割されている。図11では、画像認識部23又は画像認識部42が歪補正後カメラ画像140−2の歩行者131を最初に検知した領域(進入領域)は、領域120−4である。
なお、画像認識部23又は画像認識部42は、隣り合う領域120にまたがって歩行者131を検出した場合、隣り合う領域120のいずれかで歩行者131を検知した領域120を選択してもよい。
画像認識部23又は画像認識部42が歪補正後カメラ画像140−2において歩行者131を最初に検知した領域は、検知に時間がかかる等の理由で、領域120−5でもよい。画像認識部23又は画像認識部42が歪補正後カメラ画像140−2において歩行者131を最後に検知した領域(退出領域)は、領域120−6である。
回転検出部37は、歪補正後カメラ画像140−2における歩行者131の最初検知推定領域である領域120−4を表す情報を、登録部33又は記憶部39から取得する。回転検出部37は、歪補正後カメラ画像140−2における歩行者131の最後検知推定領域である領域120−6を表す情報を、登録部33又は記憶部39から取得する。
回転検出部37は、歪補正後カメラ画像140−2において歩行者131を最初に検知した領域と最初検知推定領域である領域120−4とが同じ領域であるか否かを、正解データに基づいて判定する。回転検出部37は、画像認識部23又は画像認識部42が歪補正後カメラ画像140−2において歩行者131を最後に検知した領域と最後検知推定領域である領域120−6とが同じ領域であるか否かを、正解データに基づいて判定する。
図11では、回転検出部37は、歩行者131を最初に検知した領域120と歩行者131の最初検知推定領域とが同じ領域であり、歩行者131を最後に検知した領域120と歩行者131の最後検知推定領域とが同じ領域であるため、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が少ないと判定する。
図12は、回転ずれ量が閾値以上である歪補正後カメラ画像140aにおける歩行者131の移動の経路の例を示す図である。歪補正後カメラ画像140a−2では、歩行者の位置は、図5に示す経路6に沿って、時系列で歩行者131−5−1、131−5−2、131−5−3の順に変化する。なお、歩行者131は、図5に示す経路6におおむね沿って移動しているのであれば、歪補正後カメラ画像140a−2において直進していなくてもよい。
図13は、回転ずれ量の検出の第2例を示す図である。図13では、図10に示す歪補正後カメラ画像140a−2は、領域120−1〜120−9に分割されている。歪補正後カメラ画像140a−2において、画像認識部23又は画像認識部42が歩行者131を最初に検知した領域(進入領域)は、領域120−1である。
画像認識部23又は画像認識部42が歪補正後カメラ画像140a−2において歩行者131を最初に検知した領域は、検知に時間がかかる等の理由で、領域120−5でもよい。画像認識部23又は画像認識部42が歪補正後カメラ画像140a−2において歩行者131を最後に検知した領域(退出領域)は、領域120−9である。
回転検出部37は、歪補正後カメラ画像140a−2において歩行者131を最初に検知した領域と最初検知推定領域である領域120−4とが同じ領域であるか否かを判定する。回転検出部37は、画像認識部23又は画像認識部42が歪補正後カメラ画像140a−2において歩行者131を最後に検知した領域と最後検知推定領域である領域120−6とが同じ領域であるか否かを判定する。
図13では、回転検出部37は、歩行者131を最初に検知した領域120と歩行者131を最後に検知した領域120とのうち少なくとも一方が所定領域でない場合、設置された物体検知センサ2の回転ずれ量が閾値以上であると判定する。回転検出部37は、歩行者131を最初に検知した領域120と歩行者131の最初検知推定領域とが異なる領域であるため、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が閾値以上であると判定する。回転検出部37は、歩行者131を最後に検知した領域120と歩行者131の最後検知推定領域とが異なる領域であるため、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が閾値以上であると判定してもよい。
回転検出部37は、カメラ画像に定められた座標軸と歩行者の移動の経路とが成す角度に基づいて、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量を検出してもよい。なお、歩行者131は、カメラ画像に定められた座標軸と歩行者131の移動の経路6とが成す角度が一定になるように経路6に沿って移動してもよい。この場合、移動体の経路の方向(基準方向)を表す角度の正解データは、予め登録される。
図14は、回転ずれ量の検出の第3例を示す図である。図14に示す歪補正後カメラ画像140−2には、XY座標軸(2次元の座標軸)が定められている。図14では、X軸は、物体検知センサ2の回転ずれ量が少ない場合における経路6の基準方向(歩行者の移動の基準方向)を示す。
画像認識部23又は画像認識部42が歪補正後カメラ画像140−2において歩行者131を最初に検知した位置は、歩行者131−5−1の位置である。画像認識部23又は画像認識部42が歪補正後カメラ画像140−2において歩行者131を最後に検知した位置は、歩行者131−5−3の位置である。
破線200は、歪補正後カメラ画像140−2において歩行者131を最初に検知した位置から歩行者131を最後に検知した位置までを結ぶ破線である。したがって、破線200は、歪補正後カメラ画像140−2における歩行者131の移動の方向を表す。
図14では、回転検出部37は、物体検知センサ2の回転ずれ量が少ない場合における経路6の方向(歩行者の移動の基準方向)と破線200の方向(歩行者の移動の方向)とが一致しているので、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が少ないと判定する。
図15は、回転ずれ量の検出の第4例を示す図である。図15に示す歪補正後カメラ画像140a−2には、XY座標軸(2次元の座標軸)が定められている。図15では、X軸は、物体検知センサ2の回転ずれ量が少ない(閾値未満である)場合における経路6の基準方向(歩行者の移動の基準方向)を示す。
画像認識部23又は画像認識部42が歪補正後カメラ画像140a−2において歩行者131を最初に検知した位置は、歩行者131−5−1の位置である。画像認識部23又は画像認識部42が歪補正後カメラ画像140a−2において歩行者131を最後に検知した位置は、歩行者131−5−3の位置である。
破線200は、歪補正後カメラ画像140a−2において歩行者131を最初に検知した位置から歩行者131を最後に検知した位置までを結ぶ破線である。したがって、破線200は、歪補正後カメラ画像140a−2における歩行者131の移動の方向を表す。図15では、破線200は、X軸に対して(−45度)に傾いている。
図15では、回転検出部37は、歪補正後カメラ画像140a−2における経路6を表す基準方向(X軸)と破線200の方向(歩行者131の移動の方向)とが一致していないので、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が閾値以上であると判定する。回転検出部37は、物体検知センサ2の向き又はカメラ画像の回転ずれ量(−45度)を表す情報を、補正部36及び表示制御部38に送信する。
表示制御部38は、マップ5、経路6、位置表示画像7、検知順表示画像8、回転ずれ量の有無、回転ずれ量、歪補正前カメラ画像、歪補正後カメラ画像、検知情報及びこれらの組み合わせを、表示部40に表示する。
図16は、マップ5の表示と歪補正前カメラ画像141の一覧表示との例を示す図である。表示制御部38は、マップ5と歪補正前カメラ画像141の一覧とを、表示部40に表示する。表示制御部38は、歪補正前カメラ画像141−1〜141−6を、物体検知センサ2の位置に対応付けて、表示部40の画面に配列する。
図17は、マップ5の表示と歪補正前カメラ画像141の巡回表示との例を示す図である。表示制御部38は、操作部31が操作された場合、歪補正前カメラ画像141−1〜141−5のうちから歪補正前カメラ画像141を一定時間ごとに選択する。図17では、表示制御部38は、歪補正前カメラ画像141−4及び歪補正前カメラ画像141−5を選択している。表示制御部38は、選択する歪補正前カメラ画像141を切り替えながら、選択された歪補正前カメラ画像141を巡回表示する。
図18は、マップ5の表示と歪補正前カメラ画像141の選択表示との例を示す図である。表示制御部38は、操作部31が操作された場合、歪補正前カメラ画像141−1〜141−5のうちから歪補正前カメラ画像141を操作に応じて選択する。図18では、表示制御部38は、操作部31がクリック操作されて位置表示画像7−2が選択されたことによって、位置表示画像7−2に対応付けられた物体検知センサ2−2の歪補正前カメラ画像141−2を選択している。表示制御部38は、選択された歪補正前カメラ画像141−2を拡大表示する。
図19は、マップ5の表示とマップ5に重畳した歪補正前カメラ画像141の表示との例を示す図である。表示制御部38は、マップ5と歪補正前カメラ画像141の一覧とを、表示部40に表示する。表示制御部38は、歪補正前カメラ画像141−1〜141−6を、物体検知センサ2の位置に基づく位置表示画像7−1〜7−6に対応付けて、表示部40の画面に配列する。
図20は、マップ5の表示とマップ5に重畳した歪補正後カメラ画像140の一覧表示との第1例を示す図である。表示制御部38は、マップ5と歪補正後カメラ画像140の一覧とを、表示部40に表示する。表示制御部38は、歪補正後カメラ画像140−1〜140−6を、物体検知センサ2の位置に基づく位置表示画像7−1〜7−6に対応付けて、表示部40の画面に配列する。
図21は、マップ5の表示とマップ5に重畳した歪補正後カメラ画像140の一覧表示との第2例を示す図である。表示制御部38は、複数の歪補正後カメラ画像140を互いに隣接するように配列することによって、室内の鳥瞰図を生成する(非特許文献2参照)。表示制御部38は、マップ5と鳥瞰図とを、表示部40に表示する。
図22は、マップ5の表示とマップ5に重畳した歪補正後カメラ画像140の一覧表示との第3例を示す図である。表示制御部38は、歪補正後カメラ画像140a−2の回転ずれ量が補正された歪補正後カメラ画像140−2を、補正部36から取得する。表示制御部38は、回転ずれ量が補正された歪補正後カメラ画像140−2を含む複数の歪補正後カメラ画像140を互いに隣接するように配列することによって、室内の鳥瞰図を生成する。表示制御部38は、マップ5と鳥瞰図とを、表示部40に表示する。
表示制御部38は、双方向のユーザインタフェースであるインタラクティブUI(Interactive User Interface)に基づく動作を実行してもよい。例えば、表示制御部38は、表示部40に表示されたカメラ画像を作業員が操作部31を用いてクリック操作した場合、位置検出処理をやり直すことを命令する信号を、位置検出部35に送信する。位置検出部35は、位置検出処理をやり直すことを命令する信号を取得した場合、位置検出処理をやり直す。位置検出部35は、歩行者130が室内を移動した後に位置検出処理をやり直してもよいし、歩行者130が室内を移動している途中で位置検出処理をやり直してもよい。
なお、表示制御部38は、図19から図22までに示す図を、表示部40に常時表示してもよいし、物体検知センサ2が歩行者131を検知したタイミングで表示部40に表示してもよい。表示制御部38は、歩行者131の検知が終了する前では、最新のカメラ画像を表示部40に表示してもよい。表示制御部38は、歩行者の検知が終了した後では、カメラ画像のベストショットを表示部40に表示してもよい。表示制御部38は、歩行者の検知開始のタイミングで、カメラ画像を表示部40にポップアップ表示してもよい。表示制御部38は、歪補正前カメラ画像の歪みを補正してもよい。表示制御部38は、回転ずれ量に基づいて、歪補正後カメラ画像の回転ずれ量を補正してもよい。
図1に戻り、位置検出装置3の構成の説明を続ける。記憶部39は、磁気ハードディスク装置や半導体記憶装置等の不揮発性の記憶媒体(非一時的な記録媒体)を有する記憶装置を用いて構成される。記憶部39は、特定情報と、検知情報と、位置検出プログラムと、位置検出結果情報とを記憶する。
表示部40は、液晶ディスプレイ等の表示デバイスである。表示部40は、マップ5、経路6、位置表示画像7、検知順表示画像8、回転ずれ量の有無、回転ずれ量、歪補正前カメラ画像、歪補正後カメラ画像、検知情報及びこれらの組み合わせを表示する。表示部40は、歪補正前カメラ画像の歪みを補正してもよい。表示部40は、回転ずれ量に基づいて、歪補正後カメラ画像の回転ずれ量を補正してもよい。
バス41は、位置検出装置3の各部の間でデータを伝送する伝送路である。
画像認識部23は、物体検知センサ2の画像認識部23が実行していた画像認識等の画像処理を、物体検知センサ2の代わりに実行する。
次に、位置検出システム1の動作を説明する。
図23は、物体検知センサ2の位置を検出する動作の例を示すフローチャートである。通信部30は、歩行者を検知した複数の物体検知センサ2から、物体検知センサ2の識別情報を取得する(ステップS101)。位置検出部35は、経路6に沿って移動した歩行者を検知した結果に基づいて、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付ける(ステップS102)。
図24は、物体検知センサ2の回転ずれ量を検出する動作の例を示すフローチャートである。通信部30は、経路6に沿って移動した歩行者を検知した結果に基づくカメラ画像を、物体検知センサ2から取得する(ステップS201)。回転検出部37は、カメラ画像において歩行者を最初に検知した位置とカメラ画像において歩行者を最後に検知した位置とに基づいて、物体検知センサ2の回転ずれ量を検出する(ステップS202)。
以上のように、実施形態の位置検出装置3は、登録部33と、通信部30と、位置検出部35とを持つ。複数の物体検知センサ2は、複数の位置に設置されている。登録部33は、経路6を記憶部39に登録する。通信部30は、登録された経路6に沿って移動した歩行者を複数の物体検知センサ2が検知した結果を表す検知情報と、物体検知センサ2の識別情報とを取得する。位置検出部35は、歩行者が複数の物体検知センサ2の検知範囲を通過した結果と検知情報とに基づいて、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付けることによって、物体検知センサ2の位置を検出する。
この構成によって、位置検出部35は、歩行者が複数の物体検知センサ2の検知範囲を通過した結果と検知情報とに基づいて、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付ける。これによって、実施形態の位置検出装置3は、複数の物体検知センサ2の位置を物体検知センサ2ごとに検出することができる。
実施形態の位置検出部35は、複数の物体検知センサ2が歩行者を検知した順と歩行者が複数の物体検知センサ2の検知範囲を通過した順とが等しくなるように、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付けてもよい。実施形態の位置検出部35は、複数の物体検知センサが歩行者を検知した時刻と歩行者が複数の物体検知センサの検知範囲を通過した時刻とが等しくなるように、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付けてもよい。
以上のように、実施形態の位置検出装置3は、登録部33と、回転検出部37とを持つ。登録部33は、移動する歩行者の経路6に関する正解データと経路6とを、記憶部39に登録する。回転検出部37は、登録された経路6に沿って移動した歩行者を複数の物体検知センサ2が検知した結果を表す検知情報と正解データとの比較結果に基づいて、予め定められた向きに対する物体検知センサ2の回転ずれ量を検出する。
この構成によって、回転検出部37は、登録された経路6に沿って移動した歩行者を複数の物体検知センサ2が検知した結果を表す検知情報と正解データとの比較結果に基づいて、予め定められた向きに対する物体検知センサ2の回転ずれ量を検出する。これによって、実施形態の位置検出装置3は、複数の物体検知センサ2の回転ずれ量を物体検知センサ2ごとに検出することができる。
実施形態の回転検出部37は、物体検知センサ2が歩行者を最初に検知したカメラ画像上の領域120と、物体検知センサ2が歩行者を最後に検知した領域120と、正解データとの比較結果に基づいて、物体検知センサ2の回転ずれ量を検出してもよい。この場合、領域という粗い精度(単位)で移動体の位置を比較しているので、画像における歩行者等の移動体の位置の精度は、画素、領域又は3次元座標等のどのような精度でもよい。実施形態の回転検出部37は、カメラ画像上の歩行者の移動の方向と、カメラ画像上の経路6の方向(基準方向)を表す正解データとの比較結果に基づいて、物体検知センサ2の回転ずれ量の角度を検出してもよい。
以上述べた少なくともひとつの実施形態によれば、所定の経路に沿って移動した歩行者を複数の物体検知センサが検知した結果に基づいて物体検知センサの識別情報と物体検知センサの位置とを対応付ける位置検出部を持つことにより、複数の物体検知センサの位置を物体検知センサごとに検出することができる。
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…位置検出システム、2…物体検知センサ、3…位置検出装置、4…通信回線、5…マップ、6…経路、7…位置表示画像、8…検知順表示画像、20…カメラ部、21…操作部、22…記憶部、23…画像認識部、24…ID設定部、25…通信部、26…バス、30…通信部、31…操作部、32…マップ設定部、33…登録部、34…指示部、35…位置検出部、36…補正部、37…回転検出部、38…表示制御部、39…記憶部、40…表示部、41…バス、42…画像認識部、100…マスク領域、110…カメラ画像領域、120…領域、130…歩行者、131…歩行者、140…歪補正後カメラ画像、141…歪補正前カメラ画像、200…破線

Claims (11)

  1. 物体を検知する複数の物体検知センサが複数の位置に設置されており、前記物体検知センサの位置を検出する位置検出装置であって、
    経路を登録する登録部と、
    登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報と前記物体検知センサの識別情報とを取得する取得部と、
    前記物体が前記複数の物体検知センサの検知範囲を通過した結果と前記検知情報とに基づいて、前記物体検知センサの識別情報と前記物体検知センサの位置とを対応付けることによって、前記物体検知センサの位置を検出する位置検出部と、
    を備える位置検出装置。
  2. 前記位置検出部は、前記複数の物体検知センサが前記物体を検知した順と前記物体が前記複数の物体検知センサの検知範囲を通過した順とが等しくなるように、前記物体検知センサの識別情報と前記物体検知センサの位置とを対応付ける、請求項1に記載の位置検出装置。
  3. 前記位置検出部は、前記複数の物体検知センサが前記物体を検知した時刻と前記物体が前記複数の物体検知センサの検知範囲を通過した時刻とが等しくなるように、前記物体検知センサの識別情報と前記物体検知センサの位置とを対応付ける、請求項1に記載の位置検出装置。
  4. 検知の対象として指定された前記物体をカメラ画像において検知したか否かを画像認識によって特定するための情報である特定情報に基づいて、指定された前記物体を検知したか否かを画像認識によって特定する画像認識部
    をさらに備え、
    前記位置検出部は、指定された前記物体を検知したことを前記画像認識部が特定した場合、指定された前記物体の前記検知情報に基づいて前記複数の物体検知センサの位置を前記物体検知センサごとに検出する、請求項1から請求項3のいずれか一項に記載の位置検出装置。
  5. 前記物体検知センサの位置を前記位置検出部が検出する場合と前記物体検知センサの位置を前記位置検出部が検出しない場合とで、前記物体検知センサの位置を検出するか否かに応じた動作モードと前記物体の検知に用いるパラメータとのうち少なくとも一方を前記物体検知センサに指示する指示部
    をさらに備える、請求項1から請求項4のいずれか一項に記載の位置検出装置。
  6. 前記指示部は、予め準備された前記動作モード及び前記パラメータのうちから前記動作モード及び前記パラメータを選択し、選択した前記動作モード及び前記パラメータを前記物体検知センサに指示する、請求項5に記載の位置検出装置。
  7. 前記検知情報に基づく画像を前記物体検知センサの位置に対応付けて表示部の画面に表示制御部
    をさらに備える、請求項1から請求項6のいずれか一項に記載の位置検出装置。
  8. 物体を検知するセンサと、
    移動の経路を検出する対象として指定された前記物体を検知したか否かを画像認識によって特定するための情報である特定情報と、自物体検知センサの位置を他の装置が検出するか否かに応じた動作モードと、前記物体の検知に用いるパラメータとを取得する取得部と、
    自物体検知センサの位置を他の装置が検出する場合と自物体検知センサの位置を前記他の装置が検出しない場合とで、自物体検知センサの動作モードと前記パラメータとを変更し、指定された前記物体を検知したか否かを画像認識によって前記特定情報に基づいて特定する画像認識部と、
    登録された経路に沿って移動した前記物体を検知した結果を表す検知情報と自物体検知センサの識別情報とを前記他の装置に送信する送信部と、
    を備える物体検知センサ。
  9. 複数の位置に設置され、物体を検知する複数の物体検知センサと、
    経路を登録する登録部と、
    登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報と前記物体検知センサの識別情報とを取得する取得部と、
    前記物体が前記複数の物体検知センサの検知範囲を通過した結果と前記検知情報とに基づいて、前記物体検知センサの識別情報と前記物体検知センサの位置とを対応付けることによって、前記物体検知センサの位置を検出する位置検出部と、
    を備える位置検出システム。
  10. 物体を検知する複数の物体検知センサが複数の位置に設置されており、前記物体検知センサの位置を検出する位置検出装置が実行する位置検出方法であって、
    経路を登録するステップと、
    登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報と前記物体検知センサの識別情報とを取得するステップと、
    前記物体が前記複数の物体検知センサの検知範囲を通過した結果と前記検知情報とに基づいて、前記物体検知センサの識別情報と前記物体検知センサの位置とを対応付けることによって、前記物体検知センサの位置を検出するステップと、
    を含む位置検出方法。
  11. 物体を検知する複数の物体検知センサが複数の位置に設置されており、前記物体検知センサの位置を検出する位置検出装置のコンピュータに、
    経路を登録する手順と、
    登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報と前記物体検知センサの識別情報とを取得する手順と、
    前記物体が前記複数の物体検知センサの検知範囲を通過した結果と前記検知情報とに基づいて、前記物体検知センサの識別情報と前記物体検知センサの位置とを対応付けることによって、前記物体検知センサの位置を検出する手順と、
    を実行させるための位置検出プログラム。
JP2017000126A 2017-01-04 2017-01-04 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム Pending JP2018109557A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017000126A JP2018109557A (ja) 2017-01-04 2017-01-04 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム
PCT/JP2017/032878 WO2018127996A1 (ja) 2017-01-04 2017-09-12 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017000126A JP2018109557A (ja) 2017-01-04 2017-01-04 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム

Publications (1)

Publication Number Publication Date
JP2018109557A true JP2018109557A (ja) 2018-07-12

Family

ID=62790841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017000126A Pending JP2018109557A (ja) 2017-01-04 2017-01-04 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム

Country Status (2)

Country Link
JP (1) JP2018109557A (ja)
WO (1) WO2018127996A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021107809A (ja) * 2019-12-10 2021-07-29 エフ ホフマン−ラ ロッシュ アクチェン ゲゼルシャフト 第1のコンポーネントと第2のコンポーネントとの間で水平方向に伸長する界面の垂直位置を判定するための方法および装置
WO2022168370A1 (ja) * 2021-02-04 2022-08-11 パナソニックIpマネジメント株式会社 情報処理装置、紐づけ方法、およびセンサーシステム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7258905B2 (ja) * 2018-09-14 2023-04-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 判定方法、及び判定装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246556A (ja) * 2003-02-13 2004-09-02 Matsushita Electric Ind Co Ltd 移動作業システム
JP2010098550A (ja) * 2008-10-17 2010-04-30 Hitachi Ltd カメラ管理装置およびカメラ管理方法
JP2016142480A (ja) * 2015-02-03 2016-08-08 株式会社コロナ 貯湯式給湯装置
JP2018014213A (ja) * 2016-07-20 2018-01-25 東芝ライテック株式会社 機器管理システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004643A (ja) * 2005-06-27 2007-01-11 Atsumi Electric Co Ltd 警備システム
US10437448B2 (en) * 2014-07-08 2019-10-08 Honeywell International Inc. System and method for auto-configuration of devices in building information model
WO2016175109A1 (ja) * 2015-04-27 2016-11-03 コニカミノルタ株式会社 監視装置、監視方法、監視プログラムおよび監視システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246556A (ja) * 2003-02-13 2004-09-02 Matsushita Electric Ind Co Ltd 移動作業システム
JP2010098550A (ja) * 2008-10-17 2010-04-30 Hitachi Ltd カメラ管理装置およびカメラ管理方法
JP2016142480A (ja) * 2015-02-03 2016-08-08 株式会社コロナ 貯湯式給湯装置
JP2018014213A (ja) * 2016-07-20 2018-01-25 東芝ライテック株式会社 機器管理システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021107809A (ja) * 2019-12-10 2021-07-29 エフ ホフマン−ラ ロッシュ アクチェン ゲゼルシャフト 第1のコンポーネントと第2のコンポーネントとの間で水平方向に伸長する界面の垂直位置を判定するための方法および装置
JP7260519B2 (ja) 2019-12-10 2023-04-18 エフ ホフマン-ラ ロッシュ アクチェン ゲゼルシャフト 第1のコンポーネントと第2のコンポーネントとの間で水平方向に伸長する界面の垂直位置を判定するための方法および装置
WO2022168370A1 (ja) * 2021-02-04 2022-08-11 パナソニックIpマネジメント株式会社 情報処理装置、紐づけ方法、およびセンサーシステム

Also Published As

Publication number Publication date
WO2018127996A1 (ja) 2018-07-12

Similar Documents

Publication Publication Date Title
US10950053B2 (en) Image processing apparatus and image processing method
TWI734024B (zh) 指向判斷系統以及指向判斷方法
EP3234739B1 (en) Virtual wearables
JP6424601B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
JP6015656B2 (ja) 情報処理装置、情報処理システム、サーバ、情報処理方法、および、コンピュータ・プログラム
US10424116B2 (en) Display apparatus and controlling method thereof
JP2015095164A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP2013206322A (ja) 情報処理装置、情報処理システム及び情報処理方法
US10360572B2 (en) Image processing system, method and computer program product for evaluating level of interest based on direction of human action
US20140118396A1 (en) Image processing device, image processing method, and computer program product
WO2018127996A1 (ja) 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム
WO2017039831A1 (en) Facilitating body measurements through loose clothing and/or other obscurities using three-dimensional scans and smart calculations
US20130229342A1 (en) Information providing system, information providing method, information processing apparatus, method of controlling the same, and control program
KR101623642B1 (ko) 로봇 청소기, 단말장치의 제어방법 및 이를 포함하는 로봇 청소기 제어 시스템
JP2018061114A (ja) 監視装置および監視方法
JP2023509291A (ja) ジョイント赤外および可視光視覚慣性オブジェクト追跡
US20150161923A1 (en) Electronic device, display device, method, and computer program product
WO2018127995A1 (ja) 回転ずれ量検出装置、物体検知センサ、回転ずれ量検出システム、回転ずれ量検出方法及び回転ずれ量検出プログラム
JP6543924B2 (ja) 情報処理方法、情報処理プログラム、及び情報処理装置
CN105320274A (zh) 使用光追踪和相对位置检测的直接三维指向
JP2011039994A (ja) 部品検出装置、部品検出方法、プログラムおよび記録媒体
JP7107596B2 (ja) 駅監視システム及び駅監視方法
US20220012921A1 (en) Information processing apparatus and non-transitory computer readable medium
JP2019087136A (ja) 画面表示制御方法および画面表示制御システム
JP7279975B2 (ja) 2次元カメラを利用して客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170825

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210216