JP6696693B2 - Rotation deviation amount detection device, object detection sensor, rotation deviation amount detection system, rotation deviation amount detection method, and rotation deviation amount detection program - Google Patents

Rotation deviation amount detection device, object detection sensor, rotation deviation amount detection system, rotation deviation amount detection method, and rotation deviation amount detection program Download PDF

Info

Publication number
JP6696693B2
JP6696693B2 JP2017000127A JP2017000127A JP6696693B2 JP 6696693 B2 JP6696693 B2 JP 6696693B2 JP 2017000127 A JP2017000127 A JP 2017000127A JP 2017000127 A JP2017000127 A JP 2017000127A JP 6696693 B2 JP6696693 B2 JP 6696693B2
Authority
JP
Japan
Prior art keywords
unit
detection sensor
object detection
detection
deviation amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017000127A
Other languages
Japanese (ja)
Other versions
JP2018109558A (en
Inventor
榎原 孝明
孝明 榎原
馬場 賢二
賢二 馬場
禎敏 齋藤
禎敏 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2017000127A priority Critical patent/JP6696693B2/en
Priority to PCT/JP2017/032831 priority patent/WO2018127995A1/en
Publication of JP2018109558A publication Critical patent/JP2018109558A/en
Application granted granted Critical
Publication of JP6696693B2 publication Critical patent/JP6696693B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/22Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

本発明の実施形態は、回転ずれ量検出装置、物体検知センサ、回転ずれ量検出システム、回転ずれ量検出方法及び回転ずれ量検出プログラムに関する。   Embodiments of the present invention relate to a rotation deviation amount detection device, an object detection sensor, a rotation deviation amount detection system, a rotation deviation amount detection method, and a rotation deviation amount detection program.

ビル建設等の現場において、物体検知センサは、設置されるべき向きに対して回転して向きがずれた状態で天井に設置されてしまう場合がある。以下、設置されるべき向きに対して物体検知センサが回転してずれている量を「回転ずれ量」という。作業者は、室内の天井に設置された複数の物体検知センサの回転ずれ量が生じていないことを、物体検知センサごとに目視等で確認する場合がある。しかしながら、従来では、複数の物体検知センサの回転ずれ量を、物体検知センサごとに検出することができない場合があった。   At a site such as a building construction, the object detection sensor may be installed on the ceiling in a state where the object detection sensor rotates and deviates from the installation direction. Hereinafter, the amount by which the object detection sensor rotates and deviates with respect to the orientation in which it should be installed is referred to as “rotational deviation amount”. The operator may visually confirm that there is no rotational deviation of the plurality of object detection sensors installed on the ceiling of the room for each object detection sensor. However, conventionally, there have been cases where it is not possible to detect the rotation deviation amounts of a plurality of object detection sensors for each object detection sensor.

特許第5336100号公報Japanese Patent No. 5336100 特開2013−4312号公報JP, 2013-4312, A 特許第5872306号公報Japanese Patent No. 5872306

「屋内外位置測位サービス」,[online] ,[2016年8月1日検索],<URL: http://sol.panasonic.biz/cloud-service/positioning/>"Indoor / outdoor positioning service", [online], [Search on August 1, 2016], <URL: http://sol.panasonic.biz/cloud-service/positioning/> 「複数の監視カメラ映像を統合し俯瞰化!三菱電機が新技術を公開」,[online] ,[2016年8月1日検索],<URL: http://www.rbbtoday.com/article/2016/03/10/140420.html>"Integrating multiple surveillance camera images for a bird's eye view! Mitsubishi Electric reveals new technology", [online], [Search on August 1, 2016], <URL: http://www.rbbtoday.com/article/ 2016/03/10 / 140420.html>

本発明が解決しようとする課題は、複数の物体検知センサの回転ずれ量を物体検知センサごとに検出することができる回転ずれ量検出装置、物体検知センサ、回転ずれ量検出システム、回転ずれ量検出方法及び回転ずれ量検出プログラムを提供することである。   The problem to be solved by the present invention is to provide a rotation deviation amount detection device, an object detection sensor, a rotation deviation amount detection system, and a rotation deviation amount detection device capable of detecting the rotation deviation amounts of a plurality of object detection sensors for each object detection sensor. A method and a rotation deviation amount detection program are provided.

実施形態の回転ずれ量検出装置は、登録部と、回転検出部とを持つ。物体を検知する複数の物体検知センサは、複数の位置に設置されている。登録部は、移動する物体の経路に関する正解データと経路とを登録する。回転検出部は、登録された経路に沿って移動した物体を複数の物体検知センサが検知した結果を表す検知情報と正解データとの比較結果に基づいて、予め定められた向きに対する物体検知センサの回転ずれ量を検出する。   The rotation deviation amount detection device of the embodiment has a registration unit and a rotation detection unit. A plurality of object detection sensors that detect an object are installed at a plurality of positions. The registration unit registers the correct answer data and the route regarding the route of the moving object. The rotation detection unit, based on the result of comparison between the correct information and the detection information indicating the result of detection of the object that has moved along the registered path by the plurality of object detection sensors, the object detection sensor for the predetermined direction. The amount of rotation deviation is detected.

実施形態の位置検出システムの構成の例を示す図。The figure which shows the example of a structure of the position detection system of embodiment. 実施形態のマスク領域の例を示す図。FIG. 4 is a diagram showing an example of a mask area according to the embodiment. 実施形態のカメラ画像に定められた複数の分割領域の例を示す図。FIG. 4 is a diagram showing an example of a plurality of divided areas defined in a camera image of the embodiment. 実施形態のマップの例を示す図。The figure which shows the example of the map of embodiment. 実施形態の経路の登録の例を示す図。The figure which shows the example of the registration of the route of embodiment. 実施形態の歩行者を物体検知センサ等が検知した順の例を示す図。The figure which shows the example of the order in which the object detection sensor etc. detected the pedestrian of embodiment. 実施形態のヘルメットを身に着けた歩行者の検知順の例を示す図。The figure which shows the example of a detection order of the pedestrian who wears the helmet of embodiment. 実施形態の物体検知センサの位置検出結果情報の第1例を示す図。The figure which shows the 1st example of the position detection result information of the object detection sensor of embodiment. 実施形態の物体検知センサの位置検出結果情報の第2例を示す図。The figure which shows the 2nd example of the position detection result information of the object detection sensor of embodiment. 実施形態の回転ずれ量が少ない歪補正後カメラ画像における歩行者の移動の経路の例を示す図。FIG. 6 is a diagram showing an example of a path of movement of a pedestrian in a camera image after distortion correction with a small amount of rotational deviation according to the embodiment. 実施形態の回転ずれ量の検出の第1例を示す図。The figure which shows the 1st example of detection of the amount of rotation gaps of embodiment. 実施形態の回転ずれ量が閾値以上である歪補正後カメラ画像における歩行者の移動の経路の例を示す図。FIG. 5 is a diagram showing an example of a path of movement of a pedestrian in a camera image after distortion correction in which the amount of rotational deviation according to the embodiment is equal to or greater than a threshold. 実施形態の回転ずれ量の検出の第2例を示す図。The figure which shows the 2nd example of detection of the amount of rotation gaps of embodiment. 実施形態の回転ずれ量の検出の第3例を示す図。The figure which shows the 3rd example of detection of the rotation shift amount of embodiment. 実施形態の回転ずれ量の検出の第4例を示す図。The figure which shows the 4th example of detection of the amount of rotation gaps of embodiment. 実施形態のマップの表示と歪補正前カメラ画像の一覧表示との例を示す図。FIG. 6 is a diagram showing an example of a map display and a list of camera images before distortion correction according to the embodiment. 実施形態のマップの表示と歪補正前カメラ画像の巡回表示との例を示す図。FIG. 4 is a diagram showing an example of map display and cyclic display of camera images before distortion correction according to the embodiment. 実施形態のマップの表示と歪補正前カメラ画像の選択表示との例を示す図。FIG. 6 is a diagram showing an example of display of a map and selective display of a camera image before distortion correction according to the embodiment. 実施形態のマップの表示とマップに重畳した歪補正前カメラ画像の表示との例を示す図。6A and 6B are diagrams showing an example of display of a map of the embodiment and display of a camera image before distortion correction superimposed on the map. 実施形態のマップの表示とマップに重畳した歪補正後カメラ画像の一覧表示との第1例を示す図。The figure which shows the 1st example of the display of the map of embodiment, and the list display of the camera image after distortion correction superimposed on the map. 実施形態のマップの表示とマップに重畳した歪補正後カメラ画像の一覧表示との第2例を示す図。The figure which shows the 2nd example of the display of the map of embodiment, and the list display of the camera image after distortion correction superimposed on the map. 実施形態のマップの表示とマップに重畳した歪補正後カメラ画像の一覧表示との第3例を示す図。The figure which shows the 3rd example of the display of the map of embodiment, and the list display of the camera image after distortion correction superimposed on the map. 実施形態の物体検知センサの位置を検出する動作の例を示すフローチャート。6 is a flowchart showing an example of an operation of detecting the position of the object detection sensor of the embodiment. 実施形態の物体検知センサの回転ずれ量を検出する動作の例を示すフローチャート。6 is a flowchart showing an example of an operation of detecting a rotation deviation amount of the object detection sensor of the embodiment.

以下、実施形態の回転ずれ量検出装置、物体検知センサ、回転ずれ量検出システム、回転ずれ量検出方法及び回転ずれ量検出プログラムを、図面を参照して説明する。   Hereinafter, a rotation deviation amount detection device, an object detection sensor, a rotation deviation amount detection system, a rotation deviation amount detection method, and a rotation deviation amount detection program of an embodiment will be described with reference to the drawings.

図1は、位置検出システム1の構成の例を示す図である。位置検出システム1は、室内の天井に設置された複数の物体検知センサ2の位置を検出するシステムである。位置検出システム1は、物体検知センサ2の回転ずれ量を検出するシステム(回転ずれ量検出システム)でもよい。位置検出システム1は、物体検知センサ2−1〜2−N(Nは2以上の整数。以下、Nは一例として6である。)と、位置検出装置3と、通信回線4とを備える。なお、物体検知センサ2と位置検出装置3とは、一体でもよい。   FIG. 1 is a diagram showing an example of the configuration of the position detection system 1. The position detection system 1 is a system that detects the positions of a plurality of object detection sensors 2 installed on the ceiling in a room. The position detection system 1 may be a system (rotational shift amount detection system) that detects the rotational shift amount of the object detection sensor 2. The position detection system 1 includes object detection sensors 2-1 to 2-N (N is an integer of 2 or more; hereinafter, N is 6 as an example), a position detection device 3, and a communication line 4. The object detection sensor 2 and the position detection device 3 may be integrated.

物体検知センサ2は、センシングシステムのセンサとして物体を検知する。物体検知センサ2は、例えば、画像センサ、サーモパイルセンサ等の赤外線センサ、超音波センサである。以下、物体検知センサ2は、一例として、画像センサである。物体検知センサ2−1〜2−Nは、例えば、室内の天井に設置される。物体検知センサ2は、天井から俯瞰して室内を撮像する。   The object detection sensor 2 detects an object as a sensor of the sensing system. The object detection sensor 2 is, for example, an image sensor, an infrared sensor such as a thermopile sensor, or an ultrasonic sensor. Hereinafter, the object detection sensor 2 is, for example, an image sensor. The object detection sensors 2-1 to 2-N are installed, for example, on the ceiling in the room. The object detection sensor 2 takes a bird's-eye view from the ceiling to capture an image of the room.

位置検出装置3は、ノート型やデスクトップ型のパーソナルコンピュータ、タブレット端末、スマートフォン端末等の情報処理装置である。位置検出装置3は、ビルエネルギー管理システム(BEMS: Building Energy Management System)等のサーバ装置でもよい。   The position detection device 3 is an information processing device such as a notebook-type or desktop-type personal computer, a tablet terminal, or a smartphone terminal. The position detection device 3 may be a server device such as a building energy management system (BEMS).

位置検出装置3は、登録された経路を移動した物体(移動体)の位置を物体検知センサ2が検出した結果に基づいて、室内の天井に設置された複数の物体検知センサ2の位置を検出(推定)する。例えば、位置検出装置3は、物体検知センサ2が天井から俯瞰して撮像したカメラ画像における移動体の画像に基づいて、室内の天井に設置された複数の物体検知センサ2の位置を検出する。   The position detection device 3 detects the positions of the plurality of object detection sensors 2 installed on the ceiling in the room based on the result of the object detection sensor 2 detecting the position of the object (moving body) that has moved on the registered route. (presume. For example, the position detection device 3 detects the positions of the plurality of object detection sensors 2 installed on the ceiling in the room based on the image of the moving object in the camera image captured by the object detection sensor 2 looking down from the ceiling.

位置検出装置3は、登録された経路を移動した物体の位置を物体検知センサ2が検出した結果に基づいて、室内の天井に設置された複数の物体検知センサ2の回転ずれ量を検出(推定)する装置(回転ずれ量検出装置)でもよい。例えば、位置検出装置3は、カメラ画像における移動体の経路と、経路に関する正解データ(正解値)との比較結果に基づいて、室内の天井に設置された物体検知センサ2の回転ずれ量(回転角度)を検出してもよい。経路に関する正解データとは、設置されるべき向きに物体検知センサ2が設置された場合に物体検知センサ2が出力するカメラ画像における、移動体の経路(基準経路)を表すデータである。移動体の経路を表すデータは、例えば、移動体の経路を表す線、移動体の経路の方向(基準方向)を表す角度、移動体を最初に検知するカメラ画像上の位置(領域)、移動体を最後に検知するカメラ画像上の位置(領域)等によって表現される。なお、位置検出装置3は、物体検知センサ2が撮像したカメラ画像に生じた回転ずれ量を補正してもよい。   The position detection device 3 detects (estimates) the rotation deviation amount of the plurality of object detection sensors 2 installed on the ceiling in the room based on the result of the object detection sensor 2 detecting the position of the object moving on the registered route. The device (rotational deviation detection device) may be used. For example, the position detection device 3 uses the amount of rotation deviation (rotation) of the object detection sensor 2 installed on the ceiling of the room based on the result of comparison between the path of the moving body in the camera image and the correct answer data (correct answer value) regarding the path. Angle) may be detected. The correct answer data regarding the route is data representing the route (reference route) of the moving body in the camera image output by the object detection sensor 2 when the object detection sensor 2 is installed in the direction in which it should be installed. The data representing the path of the moving body includes, for example, a line representing the path of the moving body, an angle representing the direction of the path of the moving body (reference direction), a position (area) on the camera image at which the moving body is first detected, and a movement. It is represented by a position (area) on the camera image where the body is finally detected. The position detection device 3 may correct the amount of rotation deviation that has occurred in the camera image captured by the object detection sensor 2.

通信回線4は、有線又は無線の通信回線である。通信回線4のネットワークトポロジーは、例えば、スター型、リング型である。   The communication line 4 is a wired or wireless communication line. The network topology of the communication line 4 is, for example, a star type or a ring type.

次に、物体検知センサ2の構成を説明する。
物体検知センサ2は、カメラ部20と、操作部21と、記憶部22と、画像認識部23と、ID設定部24と、通信部25と、バス26とを備える。
Next, the configuration of the object detection sensor 2 will be described.
The object detection sensor 2 includes a camera unit 20, an operation unit 21, a storage unit 22, an image recognition unit 23, an ID setting unit 24, a communication unit 25, and a bus 26.

画像認識部23とID設定部24と通信部25とのうち一部又は全部は、例えば、CPU(Central Processing Unit)等のプロセッサが、記憶部22に記憶されたプログラムを実行することにより機能するソフトウェアにより実現される。また、これらの機能部のうち一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアにより実現されてもよい。   Some or all of the image recognition unit 23, the ID setting unit 24, and the communication unit 25 function when a processor such as a CPU (Central Processing Unit) executes a program stored in the storage unit 22, for example. It is realized by software. Further, some or all of these functional units may be realized by hardware such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).

カメラ部20は、天井において設置されている位置から、魚眼レンズを介して室内を撮像する。カメラ部20は、室内を撮像したカメラ画像を、画像認識部23に送信する。カメラ部20は、天井において設置されている位置から、室内を移動している移動体を撮像する。移動体は、例えば、歩行している作業者(以下、「歩行者」という。)、作業用の車両、移動可能な作業ロボットである。以下、移動体は歩行者であるとして説明を続ける。   The camera unit 20 captures an image of the room from a position installed on the ceiling via a fisheye lens. The camera unit 20 transmits a camera image obtained by capturing an image of the room to the image recognition unit 23. The camera unit 20 captures an image of a moving body moving in a room from a position installed on the ceiling. The moving body is, for example, a walking worker (hereinafter referred to as “pedestrian”), a working vehicle, or a movable work robot. Hereinafter, the description will be continued assuming that the moving body is a pedestrian.

操作部21は、DIPスイッチ(Dual In-line Package switch)、操作キー又はタッチパネル等の操作デバイスである。操作部21は、作業者等による操作を受け付ける。作業者等による操作は、例えば、撮像等に使用するパラメータ情報を設定する操作、電源操作を受け付ける。   The operation unit 21 is an operation device such as a DIP switch (Dual In-line Package switch), an operation key, or a touch panel. The operation unit 21 receives an operation by a worker or the like. The operation by the operator or the like receives, for example, an operation of setting parameter information used for image pickup or the like, or a power supply operation.

記憶部22は、磁気ハードディスク装置や半導体記憶装置等の不揮発性の記憶媒体(非一時的な記録媒体)を有する記憶装置を用いて構成される。半導体記憶装置は、例えば、フラッシュメモリである。記憶部22は、例えば、撮像等に使用するパラメータ情報、自センサの識別情報(ID)を記憶する。記憶部22は、室内における人物の画像の明度、室内における人物の在不在、人数、混雑度及び活動量等の検知情報を記憶してもよい。記憶部22は、複数のカメラ画像を撮像の時刻に対応付けて記憶(録画)してもよい。   The storage unit 22 is configured using a storage device having a non-volatile storage medium (non-transitory recording medium) such as a magnetic hard disk device or a semiconductor storage device. The semiconductor memory device is, for example, a flash memory. The storage unit 22 stores, for example, parameter information used for image capturing and the like, and identification information (ID) of its own sensor. The storage unit 22 may store detection information such as the brightness of an image of a person in the room, the presence / absence of people in the room, the number of people, the degree of congestion, and the amount of activity. The storage unit 22 may store (record) a plurality of camera images in association with image capturing times.

記憶部22は、例えば、検知の対象として指定された歩行者をカメラ画像において検知したか否かを画像認識によって特定するための情報(以下「特定情報」という。)を記憶する。特定情報は、作業員等によって予め定められる。   The memory | storage part 22 memorize | stores the information (henceforth "specific information") for specifying whether the pedestrian designated as a detection target was detected in the camera image by image recognition, for example. The specific information is predetermined by a worker or the like.

特定情報は、例えば、歩行者が身に着けているヘルメットや作業服等の色や模様の情報である。ヘルメットや作業服等の色や模様の情報は、ヘルメットや作業服等の製品情報に基づく情報でもよい。位置検出装置3の通信部等は、指定されたヘルメットや作業服等の型番に基づいて、インターネットを介して製品ホームページから製品情報を検索してもよい。特定情報は、歩行者の背格好や歩容等の個人認証情報でもよい。特定情報は、歩行者が保持している携帯端末の無線通信情報でもよい。特定情報は、教師画像でもよい。例えば、特定情報は、物体検知センサ2が事前に撮像したカメラ画像における人物の画像情報でもよい。特定情報は、歩行者が手を振る等のジェスチャ情報でもよい。特定情報は、歩行者が移動する室内の特定領域を表す情報でもよい。特定情報は、歩行者が身に着けているプレート等のマーカに記載された文字列等を表す情報でもよい。   The specific information is, for example, information on colors and patterns of helmets, work clothes, etc. worn by pedestrians. The information on the color and pattern of the helmet, work clothes, etc. may be information based on the product information of the helmet, work clothes, etc. The communication unit or the like of the position detection device 3 may retrieve product information from the product home page via the Internet based on the designated model number of the helmet, work clothes, or the like. The specific information may be personal authentication information such as a pedestrian's profile and gait. The specific information may be wireless communication information of the mobile terminal held by the pedestrian. The specific information may be a teacher image. For example, the specific information may be image information of a person in a camera image captured by the object detection sensor 2 in advance. The specific information may be gesture information such as a pedestrian shaking a hand. The specific information may be information representing a specific area in the room where the pedestrian moves. The specific information may be information representing a character string or the like written on a marker such as a plate worn by a pedestrian.

画像認識部23は、カメラ画像に対して画像処理を施す。例えば、画像認識部23は、累積差分等の輝度変化やCoHOG(Co-occurrence Histograms of Oriented Gradients)の輝度分布等の特徴量を、カメラ画像から抽出する。   The image recognition unit 23 performs image processing on the camera image. For example, the image recognition unit 23 extracts a feature amount such as a luminance change such as a cumulative difference or a luminance distribution of CoHOG (Co-occurrence Histograms of Oriented Gradients) from a camera image.

画像認識部23は、記憶部22から、特定情報を取得する。画像認識部23は、位置検出装置3から通信部25を介して、特定情報を取得してもよい。画像認識部23は、カメラ画像に対して画像処理を施した結果と特定情報とに基づいて、指定された歩行者をカメラ画像において検知したか否かを特定する。例えば、画像認識部23は、ニューラルネットワーク、サポートベクターマシン(SVM: Support Vector Machine)、k近傍識別器、ベイズ分類等による特徴量の処理結果と特定情報とに基づいて、指定された歩行者をカメラ画像において検知したか否かを特定する。   The image recognition unit 23 acquires the specific information from the storage unit 22. The image recognition unit 23 may acquire the specific information from the position detection device 3 via the communication unit 25. The image recognition unit 23 specifies whether or not the specified pedestrian is detected in the camera image based on the result of performing the image processing on the camera image and the specific information. For example, the image recognition unit 23 identifies a specified pedestrian on the basis of the processing result of the feature amount by the neural network, the support vector machine (SVM: Support Vector Machine), the k-nearest neighbor discriminator, the Bayes classification, and the specific information. It is specified whether or not it is detected in the camera image.

ビル建設等の現場では、同じ室内で複数の作業者が作業する場合がある。このため、画像認識部23は、複数の歩行者が認識されたカメラ画像において、検知の対象となる歩行者を識別する必要がある。画像認識部23は、複数の歩行者が認識されたカメラ画像において、検知の対象となる歩行者と、検知の対象とならない他の歩行者とを、位置検出装置3から指定された特定情報に基づいて識別する。   At a construction site such as a building, a plurality of workers may work in the same room. Therefore, the image recognition unit 23 needs to identify the pedestrian to be detected in the camera image in which a plurality of pedestrians are recognized. In the camera image in which a plurality of pedestrians are recognized, the image recognition unit 23 determines the pedestrian to be the target of detection and the other pedestrian not to be the target of detection to the specific information designated by the position detection device 3. Identify based on.

画像認識部23は、検知の対象となる歩行者について、室内における人物の画像の明度、室内における人物の在不在、人数、混雑度及び活動量等の検知情報を生成する。画像認識部23は、検知の対象となる歩行者の移動の経路を、検知情報に基づいて決定する。画像認識部23は、例えば、背景差分処理、フレーム間差分処理、オプティカルフロー処理、テンプレートマッチング処理によって、検知の対象となる歩行者の移動の経路を決定する。なお、画像認識部23は、歩行者の識別情報を検知情報に付加してもよい。   The image recognition unit 23 generates detection information such as the brightness of an image of a person in the room, the presence / absence of people in the room, the number of people, the degree of congestion, and the amount of activity of a pedestrian to be detected. The image recognition unit 23 determines the route of movement of the pedestrian to be detected based on the detection information. The image recognition unit 23 determines the path of movement of the pedestrian to be detected by, for example, background difference processing, interframe difference processing, optical flow processing, and template matching processing. The image recognition unit 23 may add the pedestrian identification information to the detection information.

以下、物体検知センサ2の位置を位置検出装置3が検出する動作モード(調整モード)を、「位置検出モード」という。以下、物体検知センサ2の回転ずれ量を位置検出装置3が検出する動作モード(調整モード)を、「回転量検出モード」という。以下、位置検出モード及び回転量検出モード以外の位置検出装置3の動作モード(物体検知センサ2が画像センサとして運用されている動作モード)を、「運用モード」という。   Hereinafter, an operation mode (adjustment mode) in which the position detection device 3 detects the position of the object detection sensor 2 is referred to as a “position detection mode”. Hereinafter, the operation mode (adjustment mode) in which the position detection device 3 detects the rotation deviation amount of the object detection sensor 2 is referred to as a “rotation amount detection mode”. Hereinafter, the operation mode of the position detection device 3 other than the position detection mode and the rotation amount detection mode (the operation mode in which the object detection sensor 2 is operated as an image sensor) is referred to as “operation mode”.

画像認識部23は、操作部21又は記憶部22から、撮像等に使用するパラメータ情報を取得する。画像認識部23は、位置検出装置3から通信部25を介して、撮像等に使用するパラメータ情報を取得してもよい。   The image recognition unit 23 acquires parameter information used for image capturing or the like from the operation unit 21 or the storage unit 22. The image recognition unit 23 may acquire parameter information used for image capturing or the like from the position detection device 3 via the communication unit 25.

図2は、マスク領域100の例を示す図である。撮像等に使用するパラメータ情報は、例えば、物体検知センサ2のカメラ部20がカメラ画像の一部領域をマスキングするためのマスク領域情報である。画像認識部23又は位置検出装置3は、位置検出装置3が位置検出モードで動作する場合、パラメータ情報に基づいてマスク領域100の面積を増加させ、カメラ画像領域110の面積を減少させることによって、物体検知センサ2の真下のみを歩行者の検知範囲にしてもよい。   FIG. 2 is a diagram showing an example of the mask region 100. The parameter information used for imaging or the like is, for example, mask area information for the camera unit 20 of the object detection sensor 2 to mask a partial area of the camera image. When the position detection device 3 operates in the position detection mode, the image recognition unit 23 or the position detection device 3 increases the area of the mask region 100 and decreases the area of the camera image region 110 based on the parameter information. Only the area directly below the object detection sensor 2 may be the pedestrian detection range.

図3は、カメラ画像に定められた複数の領域120の例を示す図である。撮像等に使用するパラメータ情報は、例えば、カメラ画像を分割する複数の領域の情報である。画像認識部23又は位置検出装置3は、領域120に施す画像処理を、パラメータ情報に基づいて領域120ごとに異ならせてもよい。図3では、カメラ画像は、一例として、領域120−1〜120−9に分割されている。   FIG. 3 is a diagram showing an example of a plurality of areas 120 defined in a camera image. The parameter information used for image capturing or the like is, for example, information on a plurality of regions into which the camera image is divided. The image recognition unit 23 or the position detection device 3 may make the image processing performed on the regions 120 different for each region 120 based on the parameter information. In FIG. 3, the camera image is divided into areas 120-1 to 120-9 as an example.

図1に戻り、物体検知センサ2の構成の説明を続ける。ID設定部24は、自センサの識別情報を記憶部22に記録する。自センサの識別情報は、例えば、MACアドレス(Media Access Control address)、IPアドレス(Internet Protocol address)である。ID設定部24は、操作部21を介して取得された識別情報を、自センサの識別情報として記憶部22に記録してもよい。ID設定部24は、DHCP(Dynamic Host Configuration Protocol)等によって自動設定された識別情報を、自センサの識別情報として記憶部22に記録してもよい。ID設定部24は、例えば、自センサの出荷時や、自センサが天井に設置された後に、自センサの識別情報を記憶部22に記録する。   Returning to FIG. 1, the description of the configuration of the object detection sensor 2 will be continued. The ID setting unit 24 records the identification information of its own sensor in the storage unit 22. The identification information of its own sensor is, for example, a MAC address (Media Access Control address) and an IP address (Internet Protocol address). The ID setting unit 24 may record the identification information acquired via the operation unit 21 in the storage unit 22 as the identification information of its own sensor. The ID setting unit 24 may record the identification information automatically set by DHCP (Dynamic Host Configuration Protocol) or the like in the storage unit 22 as the identification information of its own sensor. The ID setting unit 24 records the identification information of the own sensor in the storage unit 22 at the time of shipment of the own sensor or after the own sensor is installed on the ceiling, for example.

通信部25は、取得部及び送信部として、Ethernet(登録商標)、ビル用、無線用、機器制御用等の通信プロトコルに基づいて、通信回線4を介して位置検出装置3と通信する。通信部25は、他の物体検知センサ2と通信してもよい。通信データは、例えば、自センサの識別情報、歩行者を物体検知センサ2が検知した結果に基づく検知情報、歩行者を物体検知センサ2が検知した結果に基づく静止画又は動画のカメラ画像である。通信部25の通信プロトコルは、例えば、汎用プロトコル、産業用プロトコル、独自プロトコルである。通信部25は、物体検知センサ2を制御する装置であるリモートコントローラと通信してもよい。   The communication unit 25, as an acquisition unit and a transmission unit, communicates with the position detection device 3 via the communication line 4 based on communication protocols such as Ethernet (registered trademark), building, wireless, and device control. The communication unit 25 may communicate with another object detection sensor 2. The communication data is, for example, identification information of its own sensor, detection information based on a result of detection of a pedestrian by the object detection sensor 2, and a camera image of a still image or a moving image based on a result of detection of a pedestrian by the object detection sensor 2. .. The communication protocol of the communication unit 25 is, for example, a general-purpose protocol, an industrial protocol, or an original protocol. The communication unit 25 may communicate with a remote controller that is a device that controls the object detection sensor 2.

バス26は、物体検知センサ2の各部の間でデータを伝送する伝送路である。   The bus 26 is a transmission path that transmits data between the units of the object detection sensor 2.

次に、位置検出装置3の構成を説明する。
位置検出装置3は、通信部30と、操作部31と、マップ設定部32と、登録部33と、指示部34と、位置検出部35と、補正部36と、回転検出部37と、表示制御部38と、記憶部39と、表示部40と、バス41とを備える。なお、位置検出装置3は、画像認識部42をさらに備えてもよい。
Next, the configuration of the position detection device 3 will be described.
The position detection device 3 includes a communication unit 30, an operation unit 31, a map setting unit 32, a registration unit 33, an instruction unit 34, a position detection unit 35, a correction unit 36, a rotation detection unit 37, and a display. The control unit 38, the storage unit 39, the display unit 40, and the bus 41 are provided. The position detection device 3 may further include the image recognition unit 42.

通信部30とマップ設定部32と登録部33と指示部34と位置検出部35と補正部36と回転検出部37と表示制御部38と画像認識部42とのうち一部又は全部は、例えば、CPU等のプロセッサが、記憶部39に記憶されたプログラムを実行することにより機能するソフトウェアにより実現される。また、これらの機能部のうち一部又は全部は、LSIやASIC等のハードウェアにより実現されてもよい。   Some or all of the communication unit 30, the map setting unit 32, the registration unit 33, the instruction unit 34, the position detection unit 35, the correction unit 36, the rotation detection unit 37, the display control unit 38, and the image recognition unit 42 are, for example, , A processor such as a CPU is realized by software that functions by executing a program stored in the storage unit 39. Further, some or all of these functional units may be realized by hardware such as LSI and ASIC.

通信部30は、Ethernet(登録商標)、ビル用、無線用、機器制御用等の通信プロトコルに基づいて、通信回線4を介して物体検知センサ2−1〜2−Nと通信する。通信データは、例えば、物体検知センサ2の識別情報、歩行者を物体検知センサ2が検知した結果に基づく検知情報、歩行者を物体検知センサ2が検知した結果に基づく静止画又は動画のカメラ画像である。通信部30の通信プロトコルは、例えば、汎用プロトコル、産業用プロトコル、独自プロトコルである。通信部30は、リモートコントローラと通信してもよい。   The communication unit 30 communicates with the object detection sensors 2-1 to 2-N via the communication line 4 based on communication protocols such as Ethernet (registered trademark), building, wireless, and device control. The communication data is, for example, identification information of the object detection sensor 2, detection information based on the result of detection of the pedestrian by the object detection sensor 2, and a still image or a moving camera image based on the result of detection of the pedestrian by the object detection sensor 2. Is. The communication protocol of the communication unit 30 is, for example, a general-purpose protocol, an industrial protocol, or an original protocol. The communication unit 30 may communicate with a remote controller.

操作部31は、DIPスイッチ、操作キー、キーボード、マウス又はタッチパネル等の操作デバイスである。操作部31は、作業者等による操作を受け付ける。操作部31は、例えば、歩行者の移動の経路データを登録する操作、正解データを登録する操作、撮像等に使用するパラメータ情報を設定する操作、電源操作を受け付ける。   The operation unit 31 is an operation device such as a DIP switch, an operation key, a keyboard, a mouse or a touch panel. The operation unit 31 receives an operation performed by a worker or the like. The operation unit 31 receives, for example, an operation of registering route data of a pedestrian's movement, an operation of registering correct answer data, an operation of setting parameter information used for image pickup, and a power supply operation.

マップ設定部32は、室内における柱の配置や区画情報等を表すマップ(平面図)を取得する。マップは、天井に設置された物体検知センサ2の位置を表す画像(天伏図)をさらに含んでもよい。マップは、写真や線図等の画像データで表される。   The map setting unit 32 acquires a map (plan view) representing the arrangement of columns in the room, partition information, and the like. The map may further include an image (ceiling map) showing the position of the object detection sensor 2 installed on the ceiling. The map is represented by image data such as photographs and diagrams.

図4は、マップ5の例を示す図である。位置表示画像7−n(nは、1以上N以下の整数)は、物体検知センサ2−nの位置を表す画像である。マップ設定部32は、マップ5における物体検知センサ2−nの位置に、位置表示画像7−nを重畳する。マップ5において位置表示画像7が重畳される位置は、例えば、表示部40に表示されたマップ5を見ている作業員が操作部31を操作することによって定められる。マップ設定部32は、マップ5に位置表示画像7を重畳する場合、マップ5における設置間隔情報に基づく位置に、位置表示画像7を重畳してもよい。   FIG. 4 is a diagram showing an example of the map 5. The position display image 7-n (n is an integer of 1 or more and N or less) is an image representing the position of the object detection sensor 2-n. The map setting unit 32 superimposes the position display image 7-n on the position of the object detection sensor 2-n in the map 5. The position where the position display image 7 is superimposed on the map 5 is determined by, for example, an operator who is looking at the map 5 displayed on the display unit 40 operating the operation unit 31. When superimposing the position display image 7 on the map 5, the map setting unit 32 may superimpose the position display image 7 on the position based on the installation interval information on the map 5.

なお、この時点では、位置検出装置3は、各位置表示画像7が示す位置に物体検知センサ2−nのいずれが設置されているのかをまだ推定していない。   At this point, the position detection device 3 has not yet estimated which of the object detection sensors 2-n is installed at the position indicated by each position display image 7.

物体検知センサ2の位置は、座標や区画情報で表現される。図2では、物体検知センサ2−1の位置(位置表示画像7−1が重畳された位置)は、P1(「A」ベイ(bay),第1柱)である。物体検知センサ2−2の位置(位置表示画像7−2が重畳された位置)は、P2(「A」ベイ,第2柱)である。物体検知センサ2−6の位置(位置表示画像7−6が重畳された位置)は、P6(「B」ベイ,第3柱)である。なお、物体検知センサ2の位置は、室内を移動している歩行者が物体検知センサ2に検知される時刻等の時刻情報に対応付けられてもよい。   The position of the object detection sensor 2 is represented by coordinates and section information. In FIG. 2, the position of the object detection sensor 2-1 (position on which the position display image 7-1 is superimposed) is P1 (“A” bay, first pillar). The position of the object detection sensor 2-2 (the position where the position display image 7-2 is superimposed) is P2 (“A” bay, second pillar). The position of the object detection sensor 2-6 (the position where the position display image 7-6 is superimposed) is P6 (“B” bay, third pillar). The position of the object detection sensor 2 may be associated with time information such as the time when the pedestrian moving inside the room is detected by the object detection sensor 2.

図1に戻り、位置検出装置3の構成の説明を続ける。登録部33は、マップ5における歩行者の移動の経路データ(線画像データ)を、操作部31を介した操作に応じてマップ5に含める。登録部33は、歩行者の移動の経路データを含むマップ5を、記憶部39に登録する。   Returning to FIG. 1, the description of the configuration of the position detection device 3 will be continued. The registration unit 33 includes the route data (line image data) of the movement of the pedestrian in the map 5 in the map 5 according to the operation via the operation unit 31. The registration unit 33 registers the map 5 including the route data of the movement of the pedestrian in the storage unit 39.

図5は、経路6の登録の例を示す図である。作業員は、表示部40に表示されたマップ5を見ながら、マウス等の操作部31を操作することによって、歩行者の移動の経路6をマップ5に描く。経路6は始点及び終点を有する。経路6は、一筆書きで描かれていなくもよい。作業員は、経路6の本数が複数である場合、操作部31を操作することによって、物体検知センサ2の位置検出に使用する経路6を選択してもよい。   FIG. 5 is a diagram showing an example of registration of the route 6. The worker draws the route 6 of the pedestrian's movement on the map 5 by operating the operation unit 31 such as a mouse while looking at the map 5 displayed on the display unit 40. Path 6 has a start point and an end point. The path 6 does not have to be drawn with a single stroke. When the number of routes 6 is plural, the worker may select the route 6 to be used for position detection of the object detection sensor 2 by operating the operation unit 31.

作業員は、歩行者が室内を移動する前に、室内において歩行者が移動することが予定されている経路をマップ5に表すように、経路6をマップ5に描く。歩行者は、歩行者が室内を移動する前にマップ5に描かれた経路6に沿うように室内を移動する。   Before the pedestrian moves inside the room, the worker draws the route 6 on the map 5 so that the route on which the pedestrian is scheduled to move in the room is shown on the map 5. The pedestrian moves in the room along the route 6 drawn on the map 5 before the pedestrian moves in the room.

歩行者は、室内を移動する際に、無線通信する携帯端末を保持してもよい。歩行者に保持されている携帯端末は、歩行者が室内を移動した経路を、位置推定技術を用いて推定してもよい(非特許文献1参照)。携帯端末は、歩行者が室内を移動した経路を表すデータ(位置推定結果)を、通信部30を介して登録部33に送信してもよい。   A pedestrian may hold a mobile terminal that performs wireless communication when moving in a room. The mobile terminal held by the pedestrian may estimate the route along which the pedestrian has moved indoors using a position estimation technique (see Non-Patent Document 1). The mobile terminal may transmit data (position estimation result) representing the route along which the pedestrian has moved indoors to the registration unit 33 via the communication unit 30.

登録部33は、歩行者が室内を移動する前にマップ5に描かれた経路6に対する、通信部30が携帯端末から取得した位置推定結果に基づく経路の偏差を検出してもよい。登録部33は、検出された偏差に基づいて、通信部30を介して携帯端末に移動経路情報を送信してもよい。歩行者に保持されている携帯端末は、移動経路情報を表示する。これによって、登録部33は、マップ5に事前に描かれた経路6を室内において歩行者が移動することができるように、経路6を表す移動経路情報を歩行者に案内することができる。   The registration unit 33 may detect the deviation of the route based on the position estimation result acquired by the communication unit 30 from the mobile terminal with respect to the route 6 drawn on the map 5 before the pedestrian moves in the room. The registration unit 33 may transmit the movement route information to the mobile terminal via the communication unit 30 based on the detected deviation. The mobile terminal held by the pedestrian displays the travel route information. Accordingly, the registration unit 33 can guide the pedestrians to the moving route information indicating the route 6 so that the pedestrian can move the route 6 drawn in advance on the map 5 in the room.

作業員は、歩行者が室内を移動した後に、室内において歩行者が移動した経路をなぞるように、経路6をマップ5に描いてもよい。登録部33は、歩行者が室内を移動した後に、歩行者に保持されていた携帯端末から通信部30が取得した位置推定結果に基づいて、経路6をマップ5に描いてもよい。   The worker may draw the route 6 on the map 5 so as to trace the route along which the pedestrian has moved in the room after the pedestrian has moved in the room. The registration unit 33 may draw the route 6 on the map 5 based on the position estimation result acquired by the communication unit 30 from the mobile terminal held by the pedestrian after the pedestrian moves in the room.

登録部33は、物体検知センサ2−1〜2−6がどのような順で歩行者を検知するのかを、各物体検知センサ2の検知範囲と、各物体検知センサ2の位置及び経路6の距離と基づいて予測してもよい。図5では、登録部33は、各物体検知センサ2の検知範囲を歩行者が通過した順(物体検知センサ2−6、2−5、2−4、2−1、2−2、2−3の順)に各物体検知センサ2が歩行者を検知すると予測する。   The registration unit 33 determines in what order the object detection sensors 2-1 to 2-6 detect pedestrians, the detection range of each object detection sensor 2, the position of each object detection sensor 2 and the route 6. You may make a prediction based on the distance. In FIG. 5, the registration unit 33 is arranged in the order in which a pedestrian passes through the detection range of each object detection sensor 2 (object detection sensors 2-6, 2-5, 2-4, 2-1, 2-2, 2-. It is predicted that each object detection sensor 2 detects a pedestrian in the order of 3).

登録部33は、経路6に応じて物体検知センサ2の位置に定められた歩行者の通過時刻に基づいて、歩行者が物体検知センサ2の検知範囲を通過した時刻(通過時刻)を予測してもよい。図5では、歩行者が物体検知センサ2−6の検知範囲を通過した時刻は、例えば、通過時刻t1と等しい。歩行者が物体検知センサ2−3の検知範囲を通過した時刻は、例えば、通過時刻t6と等しい。   The registration unit 33 predicts the time when the pedestrian has passed the detection range of the object detection sensor 2 (passage time) based on the passage time of the pedestrian determined at the position of the object detection sensor 2 according to the route 6. May be. In FIG. 5, the time when the pedestrian passes the detection range of the object detection sensor 2-6 is equal to the passing time t1, for example. The time when the pedestrian passes the detection range of the object detection sensor 2-3 is equal to the passing time t6, for example.

登録部33は、カメラ画像について、物体検知センサ2の回転ずれ量が少ない場合にカメラ画像において歩行者を最初に検知する位置を、経路6に対する物体検知センサ2の相対的な向きに基づいて推定する。以下、カメラ画像において歩行者を最初に検知する位置であると推定された位置を「最初検知推定位置」という。登録部33は、歩行者の最初検知推定位置を表す情報を、正解データの一つとして記憶部39に記録する。   The registration unit 33 estimates the position where the pedestrian is first detected in the camera image in the camera image when the rotation deviation amount of the object detection sensor 2 is small, based on the relative orientation of the object detection sensor 2 with respect to the route 6. To do. Hereinafter, the position estimated to be the position where the pedestrian is first detected in the camera image is referred to as the “first detection estimated position”. The registration unit 33 records the information indicating the first detected estimated position of the pedestrian in the storage unit 39 as one of the correct answer data.

登録部33は、カメラ画像について、物体検知センサ2の回転ずれ量が少ない場合にカメラ画像において歩行者を最後に検知する位置を、経路6に対する物体検知センサ2の相対的な向きに基づいて推定する。以下、カメラ画像において歩行者を最後に検知する位置であると推定された位置を「最後検知推定位置」という。登録部33は、歩行者の最後検知推定位置を表す情報を、正解データの一つとして記憶部39に記録する。   The registration unit 33 estimates the position where the pedestrian is finally detected in the camera image in the camera image when the rotation deviation amount of the object detection sensor 2 is small, based on the relative orientation of the object detection sensor 2 with respect to the route 6. To do. Hereinafter, the position estimated to be the position at which the pedestrian is detected last in the camera image is referred to as the “final detection estimated position”. The registration unit 33 records the information indicating the last detected estimated position of the pedestrian in the storage unit 39 as one of correct answer data.

登録部33は、複数の領域120が定められたカメラ画像について、物体検知センサ2の回転ずれ量が少ない場合にカメラ画像において歩行者を最初に検知する領域120を、経路6に対する物体検知センサ2の相対的な向きに基づいて推定する。以下、カメラ画像において歩行者を最初に検知する領域であると推定された領域を「最初検知推定領域」という。登録部33は、歩行者の最初検知推定領域を表す情報を、正解データの一つとして記憶部39に記録する。   The registration unit 33 sets the area 120 in which the pedestrian is first detected in the camera image when the rotation deviation amount of the object detection sensor 2 is small in the camera image in which the plurality of areas 120 are defined, to the object detection sensor 2 for the route 6. Estimate based on the relative orientation of. Hereinafter, the area estimated to be the area in which the pedestrian is first detected in the camera image is referred to as a “first detection estimation area”. The registration unit 33 records, in the storage unit 39, information representing the first detection estimation area of the pedestrian as one of the correct answer data.

登録部33は、複数の領域120が定められたカメラ画像について、物体検知センサ2の回転ずれ量が少ない場合にカメラ画像において歩行者を最後に検知する領域120を、経路6に対する物体検知センサ2の相対的な向きに基づいて推定する。以下、カメラ画像において歩行者を最後に検知する領域であると推定された領域を「最後検知推定領域」という。登録部33は、歩行者の最後検知推定領域を表す情報を、正解データの一つとして記憶部39に記録する。   The registration unit 33 sets the area 120 where the pedestrian is finally detected in the camera image when the rotation deviation amount of the object detection sensor 2 is small in the camera image in which the plurality of areas 120 are defined, to the object detection sensor 2 for the route 6. Estimate based on the relative orientation of. Hereinafter, the region estimated to be the region in which the pedestrian is detected last in the camera image is referred to as the “final detection estimation region”. The registration unit 33 records, in the storage unit 39, information indicating the final detection estimation region of the pedestrian as one of the correct answer data.

図1に戻り、位置検出装置3の構成の説明を続ける。指示部34は、物体検知センサ2の位置を位置検出部35が検出する場合と検出しない場合とで歩行者の検知に用いるパラメータを変更する指示を、通信部30を介して物体検知センサ2に送信する。すなわち、指示部34は、位置検出モードと運用モードとで異なるパラメータ情報を、通信部30を介して物体検知センサ2に送信する。指示部34は、動作モード情報及びパラメータ情報の少なくとも一方を、通信部30を介して物体検知センサ2に送信する。動作モード情報及びパラメータ情報は、操作部31を介して指示された情報でもよいし、予め準備された情報でもよい。指示部34は、予め準備された動作モード及びパラメータのうちから、所定の条件に基づいて動作モード及びパラメータを選択してもよい。指示部34は、選択した動作モード及びパラメータを物体検知センサに指示する。指示部34は、物体検知センサ2のセンシング機能を切り替えるための情報を含む動作モード情報を、物体検知センサ2に送信してもよい。センシング機能とは、例えば、カメラ画像における歩行者の位置の検知精度を画素単位とするか領域単位とするかという検知精度の切り替え機能である。   Returning to FIG. 1, the description of the configuration of the position detection device 3 will be continued. The instruction unit 34 instructs the object detection sensor 2 via the communication unit 30 to change the parameter used for detecting a pedestrian depending on whether the position detection unit 35 detects the position of the object detection sensor 2 or not. Send. That is, the instruction unit 34 transmits different parameter information in the position detection mode and the operation mode to the object detection sensor 2 via the communication unit 30. The instruction unit 34 transmits at least one of the operation mode information and the parameter information to the object detection sensor 2 via the communication unit 30. The operation mode information and the parameter information may be information instructed via the operation unit 31 or information prepared in advance. The instruction unit 34 may select the operation mode and the parameter from the operation modes and the parameters prepared in advance based on a predetermined condition. The instruction unit 34 instructs the object detection sensor on the selected operation mode and parameters. The instruction unit 34 may transmit operation mode information including information for switching the sensing function of the object detection sensor 2 to the object detection sensor 2. The sensing function is, for example, a function of switching the detection accuracy of whether the detection accuracy of the position of the pedestrian in the camera image is pixel unit or area unit.

例えば、指示部34は、位置検出装置3が位置検出モードで動作する場合、位置検出装置3が運用モードで動作する場合と比較してマスク領域100の面積を増加させるパラメータ情報を、通信部30を介して物体検知センサ2に送信してもよい。例えば、指示部34は、位置検出装置3が位置検出モードで動作する場合、カメラ画像に複数の領域120(カメラ画像を分割する領域)を定めるパラメータ情報を、通信部30を介して物体検知センサ2に送信してもよい。   For example, when the position detection device 3 operates in the position detection mode, the instruction unit 34 sends parameter information for increasing the area of the mask region 100 as compared with the case where the position detection device 3 operates in the operation mode, and the communication unit 30. You may transmit to the object detection sensor 2 via. For example, when the position detection device 3 operates in the position detection mode, the instruction unit 34 sends parameter information defining a plurality of areas 120 (areas into which the camera image is divided) to the camera image via the communication unit 30 to the object detection sensor. 2 may be sent.

指示部34は、物体検知センサ2の回転ずれ量を回転検出部37が検出する場合と検出しない場合とで、歩行者の検知に用いるパラメータを変更する指示を、通信部30を介して物体検知センサ2に送信してもよい。すなわち、指示部34は、回転量検出モードと運用モードとで異なるパラメータ情報を、通信部30を介して物体検知センサ2に送信する。   The instruction unit 34 gives an instruction to change the parameter used for the detection of a pedestrian through the communication unit 30 depending on whether the rotation detection unit 37 detects the rotation deviation amount of the object detection sensor 2 or not. It may be transmitted to the sensor 2. That is, the instruction unit 34 transmits different parameter information in the rotation amount detection mode and the operation mode to the object detection sensor 2 via the communication unit 30.

指示部34は、特定情報を操作部31又は記憶部39から取得する。指示部34は、通信部30を介して、特定情報を物体検知センサ2に送信する。指示部34は、バス41を介して、特定情報を位置検出部35に送信してもよい。指示部34は、操作部31を介した操作に基づいて複数の特定情報から選択した特定情報を、物体検知センサ2及び位置検出部35に送信してもよい。   The instruction unit 34 acquires the specific information from the operation unit 31 or the storage unit 39. The instruction unit 34 transmits the specific information to the object detection sensor 2 via the communication unit 30. The instruction unit 34 may transmit the specific information to the position detection unit 35 via the bus 41. The instruction unit 34 may transmit the specific information selected from the plurality of specific information based on the operation via the operation unit 31 to the object detection sensor 2 and the position detection unit 35.

図1に戻り、位置検出装置3の構成の説明を続ける。位置検出部35は、物体検知センサ2の位置情報と物体検知センサ2の識別情報とを対応付ける(紐付ける)ことによって、物体検知センサ2の位置を物体検知センサ2ごとに検出する。   Returning to FIG. 1, the description of the configuration of the position detection device 3 will be continued. The position detection unit 35 detects the position of the object detection sensor 2 for each object detection sensor 2 by associating (associating) the position information of the object detection sensor 2 with the identification information of the object detection sensor 2.

図6は、歩行者130(移動体)を物体検知センサ2等が検知した順の例を示す図である。図6に例示する画像は、複数の物体検知センサ2が送信したカメラ画像に基づく画像である。図6に例示する画像は、表示部40に表示される。   FIG. 6 is a diagram showing an example of the order in which the object detection sensor 2 or the like detects the pedestrian 130 (moving body). The image illustrated in FIG. 6 is an image based on the camera images transmitted by the plurality of object detection sensors 2. The image illustrated in FIG. 6 is displayed on the display unit 40.

歩行者130は、位置検出装置3が位置検出モードで動作する場合、経路6に沿って室内を移動する。図6では、歩行者の位置は、図5に示す経路6に沿って、時系列で歩行者130−1〜130−6の順に変化する。   The pedestrian 130 moves inside the room along the route 6 when the position detection device 3 operates in the position detection mode. In FIG. 6, the position of the pedestrian changes along the route 6 shown in FIG. 5 in the order of the pedestrians 130-1 to 130-6 in time series.

検知順表示画像8は、歩行者130の検知順「1番〜6番のいずれか」を表す画像である。例えば、検知順表示画像8−1は、物体検知センサ2−6が時刻t1における歩行者130−1を検知したことに基づいて、歩行者130の検知順「1番」を表す。例えば、検知順表示画像8−3は、物体検知センサ2−3が時刻t1よりも後の時刻t6における歩行者130−6を検知したことに基づいて、歩行者130の検知順「6番」を表す。   The detection order display image 8 is an image representing the detection order of the pedestrian 130 "one of the first to sixth". For example, the detection order display image 8-1 represents the detection order “first” of the pedestrian 130 based on that the object detection sensor 2-6 detects the pedestrian 130-1 at the time t1. For example, the detection order display image 8-3 is based on that the object detection sensor 2-3 detects the pedestrian 130-6 at the time t6 after the time t1 and the detection order “6th” of the pedestrian 130. Represents.

図7は、ヘルメットを身に着けた歩行者131(移動体)の検知順の例を示す図である。図7に例示する画像は、複数の物体検知センサ2が送信したカメラ画像に基づく画像である。図7に例示する画像は、表示部40に表示される。   FIG. 7 is a diagram illustrating an example of a detection order of a pedestrian 131 (moving body) wearing a helmet. The image illustrated in FIG. 7 is an image based on the camera images transmitted by the plurality of object detection sensors 2. The image illustrated in FIG. 7 is displayed on the display unit 40.

歩行者131は、位置検出装置3が位置検出モードで動作する場合、図5に示す経路6に沿って室内を移動する。図7では、歩行者の位置は、図5に示す経路6に沿って、時系列で歩行者131−1〜131−6の順に変化する。位置検出部35は、歩行者131が身に着けているヘルメットの色や模様等に基づいて、歩行者131と他の歩行者とを識別することができる。   The pedestrian 131 moves inside the room along the route 6 shown in FIG. 5 when the position detection device 3 operates in the position detection mode. In FIG. 7, the position of the pedestrian changes in the order of the pedestrians 131-1 to 131-6 in time series along the route 6 shown in FIG. The position detection unit 35 can distinguish the pedestrian 131 from other pedestrians based on the color or pattern of the helmet worn by the pedestrian 131.

検知順表示画像8は、歩行者131の検知順「1番〜6番のいずれか」を表す画像である。例えば、検知順表示画像8−1は、物体検知センサ2−6が時刻t1における歩行者131−1を検知したことに基づいて、歩行者131の検知順「1番」を表す。例えば、検知順表示画像8−3は、物体検知センサ2−3が時刻t1よりも後の時刻t6における歩行者131−6を検知したことに基づいて、歩行者131の検知順「6番」を表す。   The detection order display image 8 is an image showing the detection order of the pedestrian 131 “any one of Nos. 1 to 6”. For example, the detection order display image 8-1 represents the detection order “first” of the pedestrian 131 based on that the object detection sensor 2-6 detects the pedestrian 131-1 at the time t1. For example, the detection order display image 8-3 is based on that the object detection sensor 2-3 detects the pedestrian 131-6 at the time t6 after the time t1, and the detection order “6th” of the pedestrian 131. Represents.

位置検出部35(リンク部)は、物体検知センサ2が歩行者131を検知した順と歩行者131が物体検知センサ2の検知範囲を通過した順との対応関係に基づいて、物体検知センサ2の位置を物体検知センサ2ごとに検出する。   The position detection unit 35 (link unit) uses the object detection sensor 2 based on the correspondence relationship between the order in which the object detection sensor 2 detects the pedestrian 131 and the order in which the pedestrian 131 has passed the detection range of the object detection sensor 2. The position of is detected for each object detection sensor 2.

図8は、物体検知センサ2の位置検出結果情報の第1例を示す図である。図8では、歩行者の検知順と、物体検知センサ2の識別情報と、歩行者が物体検知センサ2の検知範囲を通過した順(歩行者の通過順)と、物体検知センサ2の位置とが対応付けられる。   FIG. 8 is a diagram showing a first example of the position detection result information of the object detection sensor 2. In FIG. 8, the pedestrian detection order, the identification information of the object detection sensor 2, the order in which the pedestrian passed the detection range of the object detection sensor 2 (the pedestrian's passing order), and the position of the object detection sensor 2. Are associated with.

位置検出部35は、歩行者131を検知した物体検知センサ2の識別情報を、歩行者131の検知順に対応付けて、位置検出結果情報に登録する。例えば、位置検出部35は、歩行者131を1番目に検知した物体検知センサ2の識別情報「2−6」を、歩行者131の検知順「1番」に対応付けて、位置検出結果情報に登録する。例えば、位置検出部35は、歩行者131を6番目に検知した物体検知センサ2の識別情報「2−3」を、歩行者131の検知順「6番」に対応付けて、位置検出結果情報に登録する。   The position detection unit 35 associates the identification information of the object detection sensor 2 that has detected the pedestrian 131 with the order of detection of the pedestrian 131 and registers it in the position detection result information. For example, the position detection unit 35 associates the identification information “2-6” of the object detection sensor 2 that first detects the pedestrian 131 with the detection order “first” of the pedestrian 131, and detects the position detection result information. Register with. For example, the position detection unit 35 associates the identification information “2-3” of the object detection sensor 2 that has detected the pedestrian 131 sixth with the detection order “6” of the pedestrian 131, and detects the position detection result information. Register with.

位置検出部35は、歩行者131が物体検知センサ2の検知範囲を通過した順(通過順)に対応付けて、物体検知センサ2の位置情報を、操作部31又は登録部33から取得する。位置検出部35は、歩行者131の検知順と歩行者131の通過順とが等しくなるように、物体検知センサ2の識別情報と物体検知センサ2の位置情報とを対応付ける。   The position detection unit 35 acquires the position information of the object detection sensor 2 from the operation unit 31 or the registration unit 33 in association with the order in which the pedestrian 131 has passed the detection range of the object detection sensor 2 (passing order). The position detection unit 35 associates the identification information of the object detection sensor 2 with the position information of the object detection sensor 2 so that the order of detection of the pedestrian 131 and the order of passage of the pedestrian 131 are the same.

例えば、位置検出部35は、歩行者の通過順「1番」に対応付けられた物体検知センサ2の識別情報「2−6」と、歩行者の検知順「1番」に対応付けられた物体検知センサ2−6の位置「P6」とを対応付ける。例えば、位置検出部35は、歩行者の通過順「6番」に対応付けられた物体検知センサ2の識別情報「2−3」と、歩行者の検知順「6番」に対応付けられた物体検知センサ2−3の位置「P3」とを対応付ける。   For example, the position detection unit 35 is associated with the identification information "2-6" of the object detection sensor 2 associated with the pedestrian's passing order "1" and the pedestrian's detection order "1". The position “P6” of the object detection sensor 2-6 is associated. For example, the position detection unit 35 is associated with the identification information “2-3” of the object detection sensor 2 associated with the pedestrian passage order “6” and the pedestrian detection order “6”. The position "P3" of the object detection sensor 2-3 is associated.

これにより、位置検出部35は、物体検知センサ2の位置を物体検知センサ2ごとに検出することができる。例えば、位置検出部35は、識別情報「2−6」が割り当てられている物体検知センサ2−6が室内における位置「P6」に設置されていることを、検出することができる。例えば、位置検出部35は、識別情報「2−3」が割り当てられている物体検知センサ2−3が室内における位置「P3」に設置されていることを、検出することができる。   Accordingly, the position detection unit 35 can detect the position of the object detection sensor 2 for each object detection sensor 2. For example, the position detection unit 35 can detect that the object detection sensor 2-6 assigned with the identification information “2-6” is installed at the position “P6” in the room. For example, the position detection unit 35 can detect that the object detection sensor 2-3 to which the identification information “2-3” is assigned is installed at the position “P3” in the room.

位置検出部35(リンク部)は、物体検知センサ2が歩行者131を検知した時刻と歩行者131が物体検知センサ2の検知範囲を通過した時刻との対応関係に基づいて、物体検知センサ2の位置を物体検知センサ2ごとに検出してもよい。   The position detection unit 35 (link unit) uses the object detection sensor 2 based on the correspondence between the time when the object detection sensor 2 detects the pedestrian 131 and the time when the pedestrian 131 passes the detection range of the object detection sensor 2. The position of may be detected for each object detection sensor 2.

図9は、物体検知センサ2の位置検出結果情報の第2例を示す図である。図9では、歩行者の検知時刻と、物体検知センサ2の識別情報と、歩行者が物体検知センサ2の検知範囲を通過した時刻(歩行者の通過時刻)と、物体検知センサ2の位置とが対応付けられる。歩行者の通過時刻は、経路6に定められる。   FIG. 9 is a diagram showing a second example of the position detection result information of the object detection sensor 2. In FIG. 9, the pedestrian detection time, the identification information of the object detection sensor 2, the time when the pedestrian passed the detection range of the object detection sensor 2 (passage time of the pedestrian), and the position of the object detection sensor 2. Are associated with. The passage time of the pedestrian is set on the route 6.

位置検出部35は、歩行者131を検知した物体検知センサ2の識別情報を、歩行者131の検知時刻に対応付けて、位置検出結果情報に登録する。例えば、位置検出部35は、歩行者131を時刻t1に検知した物体検知センサ2の識別情報「2−6」を、歩行者131の検知時刻「t1」に対応付けて、位置検出結果情報に登録する。例えば、位置検出部35は、歩行者131を時刻t6に検知した物体検知センサ2の識別情報「2−3」を、歩行者131の検知時刻「t6」に対応付けて、位置検出結果情報に登録する。   The position detection unit 35 registers the identification information of the object detection sensor 2 that has detected the pedestrian 131 in the position detection result information in association with the detection time of the pedestrian 131. For example, the position detection unit 35 associates the identification information “2-6” of the object detection sensor 2 that has detected the pedestrian 131 at the time t1 with the detection time “t1” of the pedestrian 131, and adds the identification information “2-6” to the position detection result information. register. For example, the position detection unit 35 associates the identification information “2-3” of the object detection sensor 2 that has detected the pedestrian 131 at time t6 with the detection time “t6” of the pedestrian 131, and adds the identification information “2-3” to the position detection result information. register.

位置検出部35は、歩行者131が物体検知センサ2の検知範囲を通過した時刻(通過時刻)に対応付けて、物体検知センサ2の位置情報を、操作部31又は登録部33から取得する。位置検出部35は、歩行者131の検知時刻と歩行者131の通過時刻とが等しくなるように、物体検知センサ2の識別情報と物体検知センサ2の位置情報とを対応付ける。   The position detection unit 35 acquires the position information of the object detection sensor 2 from the operation unit 31 or the registration unit 33 in association with the time when the pedestrian 131 has passed the detection range of the object detection sensor 2 (passing time). The position detection unit 35 associates the identification information of the object detection sensor 2 with the position information of the object detection sensor 2 so that the detection time of the pedestrian 131 and the passage time of the pedestrian 131 become equal.

例えば、位置検出部35は、歩行者の通過時刻「t1」に対応付けられた物体検知センサ2の識別情報「2−6」と、歩行者の検知時刻「t1」に対応付けられた物体検知センサ2−6の位置「P6」とを対応付ける。例えば、位置検出部35は、歩行者の通過時刻「t6」に対応付けられた物体検知センサ2の識別情報「2−3」と、歩行者の検知時刻「t6」に対応付けられた物体検知センサ2−3の位置「P3」とを対応付ける。   For example, the position detection unit 35 identifies the identification information “2-6” of the object detection sensor 2 associated with the pedestrian passage time “t1” and the object detection associated with the pedestrian detection time “t1”. The position "P6" of the sensor 2-6 is associated. For example, the position detection unit 35 identifies the object detection sensor 2 associated with the passing time “t6” of the pedestrian “2-3” and the object detection associated with the pedestrian detection time “t6”. The position "P3" of the sensor 2-3 is associated.

これにより、位置検出部35は、物体検知センサ2の位置を物体検知センサ2ごとに検出することができる。例えば、位置検出部35は、識別情報「2−6」が割り当てられている物体検知センサ2−6が室内における位置「P6」に設置されていることを、検出することができる。例えば、位置検出部35は、識別情報「2−3」が割り当てられている物体検知センサ2−3が室内における位置「P3」に設置されていることを、検出することができる。   Accordingly, the position detection unit 35 can detect the position of the object detection sensor 2 for each object detection sensor 2. For example, the position detection unit 35 can detect that the object detection sensor 2-6 assigned with the identification information “2-6” is installed at the position “P6” in the room. For example, the position detection unit 35 can detect that the object detection sensor 2-3 to which the identification information “2-3” is assigned is installed at the position “P3” in the room.

図1に戻り、位置検出装置3の構成の説明を続ける。補正部36は、物体検知センサ2のカメラ部20の魚眼レンズによるカメラ画像(以下、「歪補正前カメラ画像」という。)の歪みを補正する。補正部36は、歪みを補正した後のカメラ画像(以下、「歪補正後カメラ画像」という。)を、回転検出部37及び表示制御部38に送信する。   Returning to FIG. 1, the description of the configuration of the position detection device 3 will be continued. The correction unit 36 corrects the distortion of the camera image (hereinafter, referred to as “pre-distortion correction camera image”) by the fisheye lens of the camera unit 20 of the object detection sensor 2. The correction unit 36 transmits the camera image after distortion correction (hereinafter referred to as “distortion corrected camera image”) to the rotation detection unit 37 and the display control unit 38.

物体検知センサ2が天井に設置された際、基準に対して物体検知センサ2の向きに回転ずれ量が生じる場合がある。補正部36は、物体検知センサ2の向き又はカメラ画像の回転ずれ量を表す情報を、物体検知センサ2ごとに回転検出部37から取得する。補正部36は、回転ずれ量に基づいて、歪補正後カメラ画像の回転ずれ量を補正する。補正部36は、回転ずれ量が補正された歪補正後カメラ画像を、表示制御部38に送信する。   When the object detection sensor 2 is installed on the ceiling, a rotation deviation amount may occur in the direction of the object detection sensor 2 with respect to the reference. The correction unit 36 acquires information indicating the orientation of the object detection sensor 2 or the rotation deviation amount of the camera image from the rotation detection unit 37 for each object detection sensor 2. The correction unit 36 corrects the rotation deviation amount of the distortion-corrected camera image based on the rotation deviation amount. The correction unit 36 transmits the distortion-corrected camera image in which the amount of rotation deviation has been corrected to the display control unit 38.

回転検出部37は、カメラ画像を取得する。回転検出部37は、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量を、カメラ画像と正解データとの比較結果に基づいて検出する。回転検出部37は、物体検知センサ2の向き又はカメラ画像の回転ずれ量を表す情報を、補正部36及び表示制御部38に送信する。   The rotation detection unit 37 acquires a camera image. The rotation detection unit 37 detects the orientation of the installed object detection sensor 2 or the rotation deviation amount of the camera image based on the comparison result of the camera image and the correct answer data. The rotation detection unit 37 transmits information indicating the orientation of the object detection sensor 2 or the rotation deviation amount of the camera image to the correction unit 36 and the display control unit 38.

回転検出部37は、設置された物体検知センサ2の回転ずれ量を表す情報を、音声で出力してもよい。回転検出部37は、回転ずれ量が閾値以上である物体検知センサ2の検知範囲を歩行者131が通過した場合、回転ずれ量が閾値以上である物体検知センサ2の検知範囲を歩行者131が通過したことを表す情報を、音声等で作業者等に通知してもよい。回転検出部37は、回転ずれ量が閾値以上である物体検知センサ2の位置と歩行者131の位置との間の距離を、音声等で作業者等に通知してもよい。回転検出部37は、歩行者131の位置を原点として、回転ずれ量が閾値以上である物体検知センサ2の位置の方向を、音声等で作業者等に通知してもよい。   The rotation detection unit 37 may output information indicating the amount of rotation deviation of the installed object detection sensor 2 by voice. When the pedestrian 131 passes the detection range of the object detection sensor 2 whose rotation deviation amount is equal to or more than a threshold value, the rotation detection unit 37 causes the pedestrian 131 to detect the detection range of the object detection sensor 2 whose rotation deviation amount is equal to or more than the threshold value. Information indicating that the vehicle has passed may be notified to the operator or the like by voice or the like. The rotation detection unit 37 may notify the worker or the like of the distance between the position of the object detection sensor 2 and the position of the pedestrian 131, the rotation deviation amount of which is equal to or more than the threshold value, by voice or the like. The rotation detection unit 37 may notify the worker or the like by voice or the like of the direction of the position of the object detection sensor 2 whose rotation deviation amount is equal to or greater than a threshold, with the position of the pedestrian 131 as the origin.

回転検出部37は、カメラ画像上の第1領域及び第2領域と歩行者の移動の経路との対応関係に基づいて、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量を検出する。例えば、回転検出部37は、カメラ画像を分割する複数の領域と歩行者の移動の経路との対応関係に基づいて、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量を検出する。   The rotation detection unit 37 detects the orientation of the installed object detection sensor 2 or the rotation deviation amount of the camera image based on the correspondence relationship between the first area and the second area on the camera image and the movement path of the pedestrian. To do. For example, the rotation detection unit 37 detects the orientation of the installed object detection sensor 2 or the rotation deviation amount of the camera image based on the correspondence relationship between a plurality of areas into which the camera image is divided and the path of movement of the pedestrian. ..

図10は、回転ずれ量が少ない歪補正後カメラ画像140−2における歩行者131の移動の経路の例を示す図である。歪補正後カメラ画像140−2では、歩行者の位置は、図5に示す経路6に沿って、時系列で歩行者131−5−1、131−5−2、131−5−3の順に変化する。なお、歩行者131は、図5に示す経路6におおむね沿って移動しているのであれば、歪補正後カメラ画像140−2において直進していなくてもよい。   FIG. 10 is a diagram illustrating an example of a movement path of the pedestrian 131 in the distortion-corrected camera image 140-2 with a small amount of rotation deviation. In the distortion-corrected camera image 140-2, the positions of the pedestrians are the pedestrians 131-5-1, 131-5-2, 131-5-3 in chronological order along the route 6 shown in FIG. Change. Note that the pedestrian 131 does not have to go straight on the distortion-corrected camera image 140-2 as long as the pedestrian 131 is moving along the route 6 shown in FIG.

図11は、回転ずれ量の検出の第1例を示す図である。図11では、図10に示す歪補正後カメラ画像140−2は、領域120−1〜120−9に分割されている。図11では、画像認識部23又は画像認識部42が歪補正後カメラ画像140−2の歩行者131を最初に検知した領域(進入領域)は、領域120−4である。   FIG. 11 is a diagram showing a first example of detecting the amount of rotation deviation. In FIG. 11, the distortion-corrected camera image 140-2 shown in FIG. 10 is divided into regions 120-1 to 120-9. In FIG. 11, the region (entry region) in which the image recognition unit 23 or the image recognition unit 42 first detects the pedestrian 131 in the camera image 140-2 after distortion correction is the region 120-4.

なお、画像認識部23又は画像認識部42は、隣り合う領域120にまたがって歩行者131を検出した場合、隣り合う領域120のいずれかで歩行者131を検知した領域120を選択してもよい。   When the image recognizing unit 23 or the image recognizing unit 42 detects the pedestrian 131 over the adjacent regions 120, the image recognizing unit 23 or the image recognizing unit 42 may select the region 120 in which the pedestrian 131 is detected in any of the adjacent regions 120. ..

画像認識部23又は画像認識部42が歪補正後カメラ画像140−2において歩行者131を最初に検知した領域は、検知に時間がかかる等の理由で、領域120−5でもよい。画像認識部23又は画像認識部42が歪補正後カメラ画像140−2において歩行者131を最後に検知した領域(退出領域)は、領域120−6である。   The region in which the pedestrian 131 is first detected by the image recognition unit 23 or the image recognition unit 42 in the distortion-corrected camera image 140-2 may be the region 120-5 because it takes time to detect the pedestrian 131. The area (exit area) in which the image recognition unit 23 or the image recognition unit 42 finally detects the pedestrian 131 in the distortion-corrected camera image 140-2 is the area 120-6.

回転検出部37は、歪補正後カメラ画像140−2における歩行者131の最初検知推定領域である領域120−4を表す情報を、登録部33又は記憶部39から取得する。回転検出部37は、歪補正後カメラ画像140−2における歩行者131の最後検知推定領域である領域120−6を表す情報を、登録部33又は記憶部39から取得する。   The rotation detection unit 37 acquires, from the registration unit 33 or the storage unit 39, information indicating the region 120-4 that is the first detection estimation region of the pedestrian 131 in the distortion-corrected camera image 140-2. The rotation detection unit 37 acquires, from the registration unit 33 or the storage unit 39, information indicating the region 120-6 that is the final detection estimation region of the pedestrian 131 in the distortion-corrected camera image 140-2.

回転検出部37は、歪補正後カメラ画像140−2において歩行者131を最初に検知した領域と最初検知推定領域である領域120−4とが同じ領域であるか否かを、正解データに基づいて判定する。回転検出部37は、画像認識部23又は画像認識部42が歪補正後カメラ画像140−2において歩行者131を最後に検知した領域と最後検知推定領域である領域120−6とが同じ領域であるか否かを、正解データに基づいて判定する。   The rotation detection unit 37 determines whether or not the region in which the pedestrian 131 is first detected in the post-correction camera image 140-2 and the region 120-4 which is the first detection estimation region are the same region based on the correct answer data. To judge. In the rotation detection unit 37, the region where the image recognition unit 23 or the image recognition unit 42 detects the pedestrian 131 last in the distortion-corrected camera image 140-2 and the region 120-6 that is the final detection estimation region are the same region. Whether or not there is is determined based on the correct answer data.

図11では、回転検出部37は、歩行者131を最初に検知した領域120と歩行者131の最初検知推定領域とが同じ領域であり、歩行者131を最後に検知した領域120と歩行者131の最後検知推定領域とが同じ領域であるため、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が少ないと判定する。   In FIG. 11, in the rotation detection unit 37, the region 120 in which the pedestrian 131 is detected first and the first detection estimated region of the pedestrian 131 are the same region, and the region 120 in which the pedestrian 131 is detected last and the pedestrian 131 are the same. Since it is the same area as the last detection estimation area of, the direction of the installed object detection sensor 2 or the rotation deviation amount of the camera image is determined to be small.

図12は、回転ずれ量が閾値以上である歪補正後カメラ画像140aにおける歩行者131の移動の経路の例を示す図である。歪補正後カメラ画像140a−2では、歩行者の位置は、図5に示す経路6に沿って、時系列で歩行者131−5−1、131−5−2、131−5−3の順に変化する。なお、歩行者131は、図5に示す経路6におおむね沿って移動しているのであれば、歪補正後カメラ画像140a−2において直進していなくてもよい。   FIG. 12 is a diagram showing an example of the path of movement of the pedestrian 131 in the camera image 140a after distortion correction in which the amount of rotation deviation is equal to or greater than the threshold. In the distortion-corrected camera image 140a-2, the positions of the pedestrians are the pedestrians 131-5-1, 131-5-2, 131-5-3 in chronological order along the route 6 shown in FIG. Change. Note that the pedestrian 131 does not have to go straight in the distortion-corrected camera image 140a-2 as long as the pedestrian 131 is moving along the route 6 shown in FIG.

図13は、回転ずれ量の検出の第2例を示す図である。図13では、図10に示す歪補正後カメラ画像140a−2は、領域120−1〜120−9に分割されている。歪補正後カメラ画像140a−2において、画像認識部23又は画像認識部42が歩行者131を最初に検知した領域(進入領域)は、領域120−1である。   FIG. 13 is a diagram showing a second example of detecting the amount of rotation deviation. In FIG. 13, the distortion-corrected camera image 140a-2 shown in FIG. 10 is divided into regions 120-1 to 120-9. In the distortion-corrected camera image 140a-2, the area (entry area) in which the image recognition unit 23 or the image recognition unit 42 first detects the pedestrian 131 is the area 120-1.

画像認識部23又は画像認識部42が歪補正後カメラ画像140a−2において歩行者131を最初に検知した領域は、検知に時間がかかる等の理由で、領域120−5でもよい。画像認識部23又は画像認識部42が歪補正後カメラ画像140a−2において歩行者131を最後に検知した領域(退出領域)は、領域120−9である。   The area in which the image recognizing unit 23 or the image recognizing unit 42 first detects the pedestrian 131 in the distortion-corrected camera image 140a-2 may be the area 120-5 because detection takes time. An area (exit area) in which the image recognition unit 23 or the image recognition unit 42 finally detects the pedestrian 131 in the distortion-corrected camera image 140a-2 is the area 120-9.

回転検出部37は、歪補正後カメラ画像140a−2において歩行者131を最初に検知した領域と最初検知推定領域である領域120−4とが同じ領域であるか否かを判定する。回転検出部37は、画像認識部23又は画像認識部42が歪補正後カメラ画像140a−2において歩行者131を最後に検知した領域と最後検知推定領域である領域120−6とが同じ領域であるか否かを判定する。   The rotation detection unit 37 determines whether or not the area in which the pedestrian 131 is first detected in the distortion-corrected camera image 140a-2 and the area 120-4 that is the first detection estimation area are the same area. In the rotation detection unit 37, the region where the image recognition unit 23 or the image recognition unit 42 finally detects the pedestrian 131 in the distortion-corrected camera image 140a-2 and the region 120-6 that is the final detection estimation region are the same region. Determine if there is.

図13では、回転検出部37は、歩行者131を最初に検知した領域120と歩行者131を最後に検知した領域120とのうち少なくとも一方が所定領域でない場合、設置された物体検知センサ2の回転ずれ量が閾値以上であると判定する。回転検出部37は、歩行者131を最初に検知した領域120と歩行者131の最初検知推定領域とが異なる領域であるため、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が閾値以上であると判定する。回転検出部37は、歩行者131を最後に検知した領域120と歩行者131の最後検知推定領域とが異なる領域であるため、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が閾値以上であると判定してもよい。   In FIG. 13, when at least one of the area 120 in which the pedestrian 131 is first detected and the area 120 in which the pedestrian 131 is finally detected is not a predetermined area, the rotation detection unit 37 detects that the object detection sensor 2 installed. It is determined that the rotation deviation amount is equal to or more than the threshold value. In the rotation detection unit 37, since the area 120 in which the pedestrian 131 is first detected and the first detection estimation area of the pedestrian 131 are different areas, the orientation of the installed object detection sensor 2 or the rotation deviation amount of the camera image is It is determined that it is equal to or more than the threshold value. In the rotation detection unit 37, since the region 120 in which the pedestrian 131 is detected last and the last detection estimation region of the pedestrian 131 are different regions, the direction of the installed object detection sensor 2 or the rotation deviation amount of the camera image is You may determine that it is more than a threshold value.

回転検出部37は、カメラ画像に定められた座標軸と歩行者の移動の経路とが成す角度に基づいて、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量を検出してもよい。なお、歩行者131は、カメラ画像に定められた座標軸と歩行者131の移動の経路6とが成す角度が一定になるように経路6に沿って移動してもよい。この場合、移動体の経路の方向(基準方向)を表す角度の正解データは、予め登録される。   The rotation detection unit 37 may detect the orientation of the installed object detection sensor 2 or the rotation deviation amount of the camera image based on the angle formed by the coordinate axis defined in the camera image and the path of movement of the pedestrian. .. Note that the pedestrian 131 may move along the path 6 so that the angle formed by the coordinate axis defined in the camera image and the path 6 of the movement of the pedestrian 131 is constant. In this case, the correct answer data of the angle indicating the direction (reference direction) of the path of the moving body is registered in advance.

図14は、回転ずれ量の検出の第3例を示す図である。図14に示す歪補正後カメラ画像140−2には、XY座標軸(2次元の座標軸)が定められている。図14では、X軸は、物体検知センサ2の回転ずれ量が少ない場合における経路6の基準方向(歩行者の移動の基準方向)を示す。   FIG. 14 is a diagram showing a third example of detecting the amount of rotation deviation. An XY coordinate axis (two-dimensional coordinate axis) is defined in the distortion-corrected camera image 140-2 shown in FIG. In FIG. 14, the X axis indicates the reference direction of the route 6 (the reference direction of movement of a pedestrian) when the amount of rotation deviation of the object detection sensor 2 is small.

画像認識部23又は画像認識部42が歪補正後カメラ画像140−2において歩行者131を最初に検知した位置は、歩行者131−5−1の位置である。画像認識部23又は画像認識部42が歪補正後カメラ画像140−2において歩行者131を最後に検知した位置は、歩行者131−5−3の位置である。   The position where the image recognition unit 23 or the image recognition unit 42 first detects the pedestrian 131 in the camera image 140-2 after distortion correction is the position of the pedestrian 131-5-1. The position where the image recognizing unit 23 or the image recognizing unit 42 finally detects the pedestrian 131 in the distortion-corrected camera image 140-2 is the position of the pedestrian 131-5-3.

破線200は、歪補正後カメラ画像140−2において歩行者131を最初に検知した位置から歩行者131を最後に検知した位置までを結ぶ破線である。したがって、破線200は、歪補正後カメラ画像140−2における歩行者131の移動の方向を表す。   A broken line 200 is a broken line connecting a position where the pedestrian 131 is first detected to a position where the pedestrian 131 is finally detected in the camera image 140-2 after distortion correction. Therefore, the broken line 200 represents the direction of movement of the pedestrian 131 in the camera image 140-2 after distortion correction.

図14では、回転検出部37は、物体検知センサ2の回転ずれ量が少ない場合における経路6の方向(歩行者の移動の基準方向)と破線200の方向(歩行者の移動の方向)とが一致しているので、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が少ないと判定する。   In FIG. 14, the rotation detection unit 37 indicates that the direction of the route 6 (reference direction of movement of the pedestrian) and the direction of broken line 200 (direction of movement of the pedestrian) when the amount of rotation deviation of the object detection sensor 2 is small. Since they match, it is determined that the orientation of the installed object detection sensor 2 or the amount of rotation deviation of the camera image is small.

図15は、回転ずれ量の検出の第4例を示す図である。図15に示す歪補正後カメラ画像140a−2には、XY座標軸(2次元の座標軸)が定められている。図15では、X軸は、物体検知センサ2の回転ずれ量が少ない(閾値未満である)場合における経路6の基準方向(歩行者の移動の基準方向)を示す。   FIG. 15 is a diagram showing a fourth example of detecting the amount of rotation deviation. An XY coordinate axis (two-dimensional coordinate axis) is defined in the distortion-corrected camera image 140a-2 shown in FIG. In FIG. 15, the X axis indicates the reference direction of the route 6 (the reference direction of movement of a pedestrian) when the amount of rotation deviation of the object detection sensor 2 is small (less than the threshold value).

画像認識部23又は画像認識部42が歪補正後カメラ画像140a−2において歩行者131を最初に検知した位置は、歩行者131−5−1の位置である。画像認識部23又は画像認識部42が歪補正後カメラ画像140a−2において歩行者131を最後に検知した位置は、歩行者131−5−3の位置である。   The position where the image recognizing unit 23 or the image recognizing unit 42 first detects the pedestrian 131 in the distortion-corrected camera image 140a-2 is the position of the pedestrian 131-5-1. The position where the image recognizing unit 23 or the image recognizing unit 42 finally detects the pedestrian 131 in the distortion-corrected camera image 140a-2 is the position of the pedestrian 131-5-3.

破線200は、歪補正後カメラ画像140a−2において歩行者131を最初に検知した位置から歩行者131を最後に検知した位置までを結ぶ破線である。したがって、破線200は、歪補正後カメラ画像140a−2における歩行者131の移動の方向を表す。図15では、破線200は、X軸に対して(−45度)に傾いている。   A broken line 200 is a broken line connecting a position where the pedestrian 131 is first detected to a position where the pedestrian 131 is finally detected in the post-correction camera image 140a-2. Therefore, the broken line 200 represents the direction of movement of the pedestrian 131 in the camera image 140a-2 after distortion correction. In FIG. 15, the broken line 200 is inclined (−45 degrees) with respect to the X axis.

図15では、回転検出部37は、歪補正後カメラ画像140a−2における経路6を表す基準方向(X軸)と破線200の方向(歩行者131の移動の方向)とが一致していないので、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が閾値以上であると判定する。回転検出部37は、物体検知センサ2の向き又はカメラ画像の回転ずれ量(−45度)を表す情報を、補正部36及び表示制御部38に送信する。   In the rotation detection unit 37 in FIG. 15, the reference direction (X axis) representing the route 6 in the camera image 140a-2 after distortion correction does not coincide with the direction of the broken line 200 (direction of movement of the pedestrian 131). It is determined that the orientation of the installed object detection sensor 2 or the rotation deviation amount of the camera image is equal to or more than a threshold value. The rotation detection unit 37 transmits information indicating the orientation of the object detection sensor 2 or the rotation deviation amount (−45 degrees) of the camera image to the correction unit 36 and the display control unit 38.

表示制御部38は、マップ5、経路6、位置表示画像7、検知順表示画像8、回転ずれ量の有無、回転ずれ量、歪補正前カメラ画像、歪補正後カメラ画像、検知情報及びこれらの組み合わせを、表示部40に表示する。   The display control unit 38 includes the map 5, the route 6, the position display image 7, the detection order display image 8, the presence / absence of the rotation deviation amount, the rotation deviation amount, the camera image before the distortion correction, the camera image after the distortion correction, the detection information, and these. The combination is displayed on the display unit 40.

図16は、マップ5の表示と歪補正前カメラ画像141の一覧表示との例を示す図である。表示制御部38は、マップ5と歪補正前カメラ画像141の一覧とを、表示部40に表示する。表示制御部38は、歪補正前カメラ画像141−1〜141−6を、物体検知センサ2の位置に対応付けて、表示部40の画面に配列する。   FIG. 16 is a diagram showing an example of the display of the map 5 and the list display of the camera images 141 before distortion correction. The display control unit 38 displays the map 5 and the list of the camera images 141 before distortion correction on the display unit 40. The display control unit 38 arranges the pre-distortion camera images 141-1 to 141-6 on the screen of the display unit 40 in association with the position of the object detection sensor 2.

図17は、マップ5の表示と歪補正前カメラ画像141の巡回表示との例を示す図である。表示制御部38は、操作部31が操作された場合、歪補正前カメラ画像141−1〜141−5のうちから歪補正前カメラ画像141を一定時間ごとに選択する。図17では、表示制御部38は、歪補正前カメラ画像141−4及び歪補正前カメラ画像141−5を選択している。表示制御部38は、選択する歪補正前カメラ画像141を切り替えながら、選択された歪補正前カメラ画像141を巡回表示する。   FIG. 17 is a diagram showing an example of the display of the map 5 and the cyclic display of the camera image 141 before distortion correction. When the operation unit 31 is operated, the display control unit 38 selects the pre-distortion correction camera image 141 from the pre-distortion correction camera images 141-1 to 141-5 at regular time intervals. In FIG. 17, the display control unit 38 selects the pre-distortion correction camera image 141-4 and the pre-distortion correction camera image 141-5. The display control unit 38 cyclically displays the selected pre-distortion correction camera image 141 while switching the pre-distortion correction camera image 141 to be selected.

図18は、マップ5の表示と歪補正前カメラ画像141の選択表示との例を示す図である。表示制御部38は、操作部31が操作された場合、歪補正前カメラ画像141−1〜141−5のうちから歪補正前カメラ画像141を操作に応じて選択する。図18では、表示制御部38は、操作部31がクリック操作されて位置表示画像7−2が選択されたことによって、位置表示画像7−2に対応付けられた物体検知センサ2−2の歪補正前カメラ画像141−2を選択している。表示制御部38は、選択された歪補正前カメラ画像141−2を拡大表示する。   FIG. 18 is a diagram showing an example of the display of the map 5 and the selective display of the camera image 141 before distortion correction. When the operation unit 31 is operated, the display control unit 38 selects the pre-distortion correction camera image 141 from the pre-distortion correction camera images 141-1 to 141-5 according to the operation. In FIG. 18, the display control unit 38 distorts the object detection sensor 2-2 associated with the position display image 7-2 by clicking the operation unit 31 and selecting the position display image 7-2. The uncorrected camera image 141-2 is selected. The display control unit 38 enlarges and displays the selected pre-distortion correction camera image 141-2.

図19は、マップ5の表示とマップ5に重畳した歪補正前カメラ画像141の表示との例を示す図である。表示制御部38は、マップ5と歪補正前カメラ画像141の一覧とを、表示部40に表示する。表示制御部38は、歪補正前カメラ画像141−1〜141−6を、物体検知センサ2の位置に基づく位置表示画像7−1〜7−6に対応付けて、表示部40の画面に配列する。   FIG. 19 is a diagram showing an example of display of the map 5 and display of the pre-distortion correction camera image 141 superimposed on the map 5. The display control unit 38 displays the map 5 and the list of the camera images 141 before distortion correction on the display unit 40. The display control unit 38 associates the pre-distortion camera images 141-1 to 141-6 with the position display images 7-1 to 7-6 based on the position of the object detection sensor 2 and arranges them on the screen of the display unit 40. To do.

図20は、マップ5の表示とマップ5に重畳した歪補正後カメラ画像140の一覧表示との第1例を示す図である。表示制御部38は、マップ5と歪補正後カメラ画像140の一覧とを、表示部40に表示する。表示制御部38は、歪補正後カメラ画像140−1〜140−6を、物体検知センサ2の位置に基づく位置表示画像7−1〜7−6に対応付けて、表示部40の画面に配列する。   FIG. 20 is a diagram showing a first example of the display of the map 5 and the list display of the camera images 140 after distortion correction superimposed on the map 5. The display control unit 38 displays the map 5 and a list of the distortion-corrected camera images 140 on the display unit 40. The display control unit 38 associates the camera images 140-1 to 140-6 after distortion correction with the position display images 7-1 to 7-6 based on the position of the object detection sensor 2 and arranges them on the screen of the display unit 40. To do.

図21は、マップ5の表示とマップ5に重畳した歪補正後カメラ画像140の一覧表示との第2例を示す図である。表示制御部38は、複数の歪補正後カメラ画像140を互いに隣接するように配列することによって、室内の鳥瞰図を生成する(非特許文献2参照)。表示制御部38は、マップ5と鳥瞰図とを、表示部40に表示する。   FIG. 21 is a diagram showing a second example of the display of the map 5 and the list display of the camera images 140 after distortion correction superimposed on the map 5. The display control unit 38 generates a bird's-eye view of the room by arranging the plurality of distortion-corrected camera images 140 so as to be adjacent to each other (see Non-Patent Document 2). The display control unit 38 displays the map 5 and the bird's-eye view on the display unit 40.

図22は、マップ5の表示とマップ5に重畳した歪補正後カメラ画像140の一覧表示との第3例を示す図である。表示制御部38は、歪補正後カメラ画像140a−2の回転ずれ量が補正された歪補正後カメラ画像140−2を、補正部36から取得する。表示制御部38は、回転ずれ量が補正された歪補正後カメラ画像140−2を含む複数の歪補正後カメラ画像140を互いに隣接するように配列することによって、室内の鳥瞰図を生成する。表示制御部38は、マップ5と鳥瞰図とを、表示部40に表示する。   FIG. 22 is a diagram showing a third example of the display of the map 5 and the list display of the distortion-corrected camera images 140 superimposed on the map 5. The display control unit 38 acquires, from the correction unit 36, the distortion-corrected camera image 140-2 in which the rotation deviation amount of the distortion-corrected camera image 140a-2 is corrected. The display control unit 38 generates a bird's-eye view of the room by arranging a plurality of distortion-corrected camera images 140 including the distortion-corrected camera image 140-2 in which the rotation deviation amount has been corrected so as to be adjacent to each other. The display control unit 38 displays the map 5 and the bird's-eye view on the display unit 40.

表示制御部38は、双方向のユーザインタフェースであるインタラクティブUI(Interactive User Interface)に基づく動作を実行してもよい。例えば、表示制御部38は、表示部40に表示されたカメラ画像を作業員が操作部31を用いてクリック操作した場合、位置検出処理をやり直すことを命令する信号を、位置検出部35に送信する。位置検出部35は、位置検出処理をやり直すことを命令する信号を取得した場合、位置検出処理をやり直す。位置検出部35は、歩行者130が室内を移動した後に位置検出処理をやり直してもよいし、歩行者130が室内を移動している途中で位置検出処理をやり直してもよい。   The display control unit 38 may execute an operation based on an interactive UI (Interactive User Interface) which is a bidirectional user interface. For example, when the worker clicks on the camera image displayed on the display unit 40 using the operation unit 31, the display control unit 38 transmits a signal to the position detection unit 35 to instruct the position detection process to be redone. To do. When the position detection unit 35 acquires a signal instructing to redo the position detection process, the position detection unit 35 redoes the position detection process. The position detection unit 35 may perform the position detection process again after the pedestrian 130 moves in the room, or may perform the position detection process again while the pedestrian 130 is moving in the room.

なお、表示制御部38は、図19から図22までに示す図を、表示部40に常時表示してもよいし、物体検知センサ2が歩行者131を検知したタイミングで表示部40に表示してもよい。表示制御部38は、歩行者131の検知が終了する前では、最新のカメラ画像を表示部40に表示してもよい。表示制御部38は、歩行者の検知が終了した後では、カメラ画像のベストショットを表示部40に表示してもよい。表示制御部38は、歩行者の検知開始のタイミングで、カメラ画像を表示部40にポップアップ表示してもよい。表示制御部38は、歪補正前カメラ画像の歪みを補正してもよい。表示制御部38は、回転ずれ量に基づいて、歪補正後カメラ画像の回転ずれ量を補正してもよい。   Note that the display control unit 38 may always display the diagrams shown in FIGS. 19 to 22 on the display unit 40, or may display the diagrams on the display unit 40 at the timing when the object detection sensor 2 detects the pedestrian 131. May be. The display control unit 38 may display the latest camera image on the display unit 40 before the detection of the pedestrian 131 is completed. The display control unit 38 may display the best shot of the camera image on the display unit 40 after the detection of the pedestrian is completed. The display control unit 38 may popup-display the camera image on the display unit 40 at the timing when the detection of the pedestrian is started. The display control unit 38 may correct the distortion of the camera image before distortion correction. The display control unit 38 may correct the rotation deviation amount of the distortion-corrected camera image based on the rotation deviation amount.

図1に戻り、位置検出装置3の構成の説明を続ける。記憶部39は、磁気ハードディスク装置や半導体記憶装置等の不揮発性の記憶媒体(非一時的な記録媒体)を有する記憶装置を用いて構成される。記憶部39は、特定情報と、検知情報と、位置検出プログラムと、位置検出結果情報とを記憶する。   Returning to FIG. 1, the description of the configuration of the position detection device 3 will be continued. The storage unit 39 is configured using a storage device having a non-volatile storage medium (non-transitory recording medium) such as a magnetic hard disk device or a semiconductor storage device. The storage unit 39 stores the specific information, the detection information, the position detection program, and the position detection result information.

表示部40は、液晶ディスプレイ等の表示デバイスである。表示部40は、マップ5、経路6、位置表示画像7、検知順表示画像8、回転ずれ量の有無、回転ずれ量、歪補正前カメラ画像、歪補正後カメラ画像、検知情報及びこれらの組み合わせを表示する。表示部40は、歪補正前カメラ画像の歪みを補正してもよい。表示部40は、回転ずれ量に基づいて、歪補正後カメラ画像の回転ずれ量を補正してもよい。   The display unit 40 is a display device such as a liquid crystal display. The display unit 40 includes a map 5, a route 6, a position display image 7, a detection order display image 8, presence / absence of a rotation deviation amount, a rotation deviation amount, a camera image before distortion correction, a camera image after distortion correction, detection information, and a combination thereof. Is displayed. The display unit 40 may correct the distortion of the camera image before distortion correction. The display unit 40 may correct the rotation deviation amount of the distortion-corrected camera image based on the rotation deviation amount.

バス41は、位置検出装置3の各部の間でデータを伝送する伝送路である。   The bus 41 is a transmission path that transmits data between the respective units of the position detection device 3.

画像認識部23は、物体検知センサ2の画像認識部23が実行していた画像認識等の画像処理を、物体検知センサ2の代わりに実行する。   The image recognition unit 23 performs the image processing such as image recognition performed by the image recognition unit 23 of the object detection sensor 2 instead of the object detection sensor 2.

次に、位置検出システム1の動作を説明する。
図23は、物体検知センサ2の位置を検出する動作の例を示すフローチャートである。通信部30は、歩行者を検知した複数の物体検知センサ2から、物体検知センサ2の識別情報を取得する(ステップS101)。位置検出部35は、経路6に沿って移動した歩行者を検知した結果に基づいて、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付ける(ステップS102)。
Next, the operation of the position detection system 1 will be described.
FIG. 23 is a flowchart showing an example of the operation of detecting the position of the object detection sensor 2. The communication unit 30 acquires the identification information of the object detection sensor 2 from the plurality of object detection sensors 2 that have detected a pedestrian (step S101). The position detection unit 35 associates the identification information of the object detection sensor 2 with the position of the object detection sensor 2 based on the result of detecting the pedestrian moving along the route 6 (step S102).

図24は、物体検知センサ2の回転ずれ量を検出する動作の例を示すフローチャートである。通信部30は、経路6に沿って移動した歩行者を検知した結果に基づくカメラ画像を、物体検知センサ2から取得する(ステップS201)。回転検出部37は、カメラ画像において歩行者を最初に検知した位置とカメラ画像において歩行者を最後に検知した位置とに基づいて、物体検知センサ2の回転ずれ量を検出する(ステップS202)。   FIG. 24 is a flowchart showing an example of the operation of detecting the amount of rotation deviation of the object detection sensor 2. The communication unit 30 acquires, from the object detection sensor 2, a camera image based on the result of detecting a pedestrian moving along the route 6 (step S201). The rotation detection unit 37 detects the rotation deviation amount of the object detection sensor 2 based on the position where the pedestrian is first detected in the camera image and the position where the pedestrian is finally detected in the camera image (step S202).

以上のように、実施形態の位置検出装置3は、登録部33と、通信部30と、位置検出部35とを持つ。複数の物体検知センサ2は、複数の位置に設置されている。登録部33は、経路6を記憶部39に登録する。通信部30は、登録された経路6に沿って移動した歩行者を複数の物体検知センサ2が検知した結果を表す検知情報と、物体検知センサ2の識別情報とを取得する。位置検出部35は、歩行者が複数の物体検知センサ2の検知範囲を通過した結果と検知情報とに基づいて、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付けることによって、物体検知センサ2の位置を検出する。   As described above, the position detection device 3 of the embodiment has the registration unit 33, the communication unit 30, and the position detection unit 35. The plurality of object detection sensors 2 are installed at a plurality of positions. The registration unit 33 registers the route 6 in the storage unit 39. The communication unit 30 acquires the detection information indicating the result of the plurality of object detection sensors 2 detecting the pedestrian who has moved along the registered route 6, and the identification information of the object detection sensor 2. The position detection unit 35 associates the identification information of the object detection sensor 2 with the position of the object detection sensor 2 based on the detection information and the result of the pedestrian passing through the detection ranges of the plurality of object detection sensors 2, The position of the object detection sensor 2 is detected.

この構成によって、位置検出部35は、歩行者が複数の物体検知センサ2の検知範囲を通過した結果と検知情報とに基づいて、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付ける。これによって、実施形態の位置検出装置3は、複数の物体検知センサ2の位置を物体検知センサ2ごとに検出することができる。   With this configuration, the position detection unit 35 determines the identification information of the object detection sensor 2 and the position of the object detection sensor 2 based on the result of the pedestrian passing the detection ranges of the plurality of object detection sensors 2 and the detection information. Correspond. Thereby, the position detection device 3 of the embodiment can detect the positions of the plurality of object detection sensors 2 for each object detection sensor 2.

実施形態の位置検出部35は、複数の物体検知センサ2が歩行者を検知した順と歩行者が複数の物体検知センサ2の検知範囲を通過した順とが等しくなるように、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付けてもよい。実施形態の位置検出部35は、複数の物体検知センサが歩行者を検知した時刻と歩行者が複数の物体検知センサの検知範囲を通過した時刻とが等しくなるように、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付けてもよい。   The position detection unit 35 of the embodiment detects the pedestrians by the plurality of object detection sensors 2 so that the order in which the pedestrians pass the detection ranges of the plurality of object detection sensors 2 is equal. The identification information and the position of the object detection sensor 2 may be associated with each other. The position detection unit 35 of the embodiment identifies the object detection sensor 2 so that the time when the plurality of object detection sensors detect the pedestrian and the time when the pedestrian passes the detection range of the plurality of object detection sensors are equal. The information and the position of the object detection sensor 2 may be associated with each other.

以上のように、実施形態の位置検出装置3は、登録部33と、回転検出部37とを持つ。登録部33は、移動する歩行者の経路6に関する正解データと経路6とを、記憶部39に登録する。回転検出部37は、登録された経路6に沿って移動した歩行者を複数の物体検知センサ2が検知した結果を表す検知情報と正解データとの比較結果に基づいて、予め定められた向きに対する物体検知センサ2の回転ずれ量を検出する。   As described above, the position detection device 3 according to the embodiment has the registration unit 33 and the rotation detection unit 37. The registration unit 33 registers the correct answer data regarding the moving pedestrian's route 6 and the route 6 in the storage unit 39. The rotation detection unit 37 detects a pedestrian moving along the registered route 6 based on the comparison result of the detection information indicating the detection result of the plurality of object detection sensors 2 and the correct answer data, and determines the predetermined direction. The amount of rotation deviation of the object detection sensor 2 is detected.

この構成によって、回転検出部37は、登録された経路6に沿って移動した歩行者を複数の物体検知センサ2が検知した結果を表す検知情報と正解データとの比較結果に基づいて、予め定められた向きに対する物体検知センサ2の回転ずれ量を検出する。これによって、実施形態の位置検出装置3は、複数の物体検知センサ2の回転ずれ量を物体検知センサ2ごとに検出することができる。   With this configuration, the rotation detection unit 37 determines in advance based on the comparison result of the detection information indicating the result of the detection of the plurality of object detection sensors 2 of the pedestrian moving along the registered route 6 and the correct answer data. The amount of rotation deviation of the object detection sensor 2 with respect to the determined direction is detected. Thereby, the position detection device 3 of the embodiment can detect the rotation deviation amount of the plurality of object detection sensors 2 for each object detection sensor 2.

実施形態の回転検出部37は、物体検知センサ2が歩行者を最初に検知したカメラ画像上の領域120と、物体検知センサ2が歩行者を最後に検知した領域120と、正解データとの比較結果に基づいて、物体検知センサ2の回転ずれ量を検出してもよい。この場合、領域という粗い精度(単位)で移動体の位置を比較しているので、画像における歩行者等の移動体の位置の精度は、画素、領域又は3次元座標等のどのような精度でもよい。実施形態の回転検出部37は、カメラ画像上の歩行者の移動の方向と、カメラ画像上の経路6の方向(基準方向)を表す正解データとの比較結果に基づいて、物体検知センサ2の回転ずれ量の角度を検出してもよい。   The rotation detection unit 37 of the embodiment compares the region 120 on the camera image where the object detection sensor 2 first detected a pedestrian, the region 120 where the object detection sensor 2 last detected a pedestrian, and the correct answer data. The amount of rotation deviation of the object detection sensor 2 may be detected based on the result. In this case, since the position of the moving body is compared with the coarse accuracy (unit) of the area, the accuracy of the position of the moving body such as a pedestrian in the image may be any accuracy such as pixel, area, or three-dimensional coordinate. Good. The rotation detection unit 37 of the embodiment detects the object detection sensor 2 based on the comparison result between the moving direction of the pedestrian on the camera image and the correct answer data indicating the direction (reference direction) of the route 6 on the camera image. The angle of the rotation deviation amount may be detected.

以上述べた少なくともひとつの実施形態によれば、登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報と正解データとの比較結果に基づいて物体検知センサの回転ずれ量を検出する回転検出部を持つことにより、複数の物体検知センサの回転ずれ量を物体検知センサごとに検出することができる。   According to at least one embodiment described above, an object based on the comparison result of the detection information and the correct answer data indicating the result of the plurality of object detection sensors detecting the object that has moved along the registered route. By providing the rotation detection unit that detects the rotation deviation amount of the detection sensor, the rotation deviation amounts of the plurality of object detection sensors can be detected for each object detection sensor.

以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although some embodiments of the present invention have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. The embodiments and their modifications are included in the scope of the invention and the scope thereof, and are included in the invention described in the claims and the scope of equivalents thereof.

1…位置検出システム、2…物体検知センサ、3…位置検出装置、4…通信回線、5…マップ、6…経路、7…位置表示画像、8…検知順表示画像、20…カメラ部、21…操作部、22…記憶部、23…画像認識部、24…ID設定部、25…通信部、26…バス、30…通信部、31…操作部、32…マップ設定部、33…登録部、34…指示部、35…位置検出部、36…補正部、37…回転検出部、38…表示制御部、39…記憶部、40…表示部、41…バス、42…画像認識部、100…マスク領域、110…カメラ画像領域、120…領域、130…歩行者、131…歩行者、140…歪補正後カメラ画像、141…歪補正前カメラ画像、200…破線 DESCRIPTION OF SYMBOLS 1 ... Position detection system, 2 ... Object detection sensor, 3 ... Position detection device, 4 ... Communication line, 5 ... Map, 6 ... Route, 7 ... Position display image, 8 ... Detection order display image, 20 ... Camera part, 21 ... operation unit, 22 ... storage unit, 23 ... image recognition unit, 24 ... ID setting unit, 25 ... communication unit, 26 ... bus, 30 ... communication unit, 31 ... operation unit, 32 ... map setting unit, 33 ... registration unit , 34 ... Instructing section, 35 ... Position detecting section, 36 ... Correction section, 37 ... Rotation detecting section, 38 ... Display control section, 39 ... Storage section, 40 ... Display section, 41 ... Bus, 42 ... Image recognition section, 100 ... mask area, 110 ... camera image area, 120 ... area, 130 ... pedestrian, 131 ... pedestrian, 140 ... camera image after distortion correction, 141 ... camera image before distortion correction, 200 ... broken line

Claims (14)

物体を検知する複数の物体検知センサが複数の位置に設置されており、前記物体検知センサの回転ずれ量を検出する回転ずれ量検出装置であって、
移動する前記物体の経路に関する正解データと前記経路とを登録する登録部と、
登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報と前記正解データとの比較結果に基づいて、予め定められた向きに対する前記物体検知センサの回転ずれ量を検出する回転検出部と、
を備える回転ずれ量検出装置。
A plurality of object detection sensors for detecting an object are installed at a plurality of positions, a rotation deviation amount detection device for detecting a rotation deviation amount of the object detection sensor,
A registration unit that registers the correct answer data regarding the path of the moving object and the path;
Based on the result of comparison between the correct information and the detection information representing the result of detection of the object moved along the registered path by the plurality of object detection sensors, the object detection sensor of the predetermined orientation A rotation detector that detects the amount of rotation deviation,
Rotational deviation amount detection device comprising:
前記回転検出部は、前記物体検知センサが前記物体を最初に検知した画像上の位置と前記物体検知センサが前記物体を最後に検知した前記画像上の位置と前記正解データとの比較結果に基づいて、予め定められた向きに対する前記物体検知センサの回転ずれ量を検出する、請求項1に記載の回転ずれ量検出装置。 The rotation detecting unit, the object detection sensor is a result of comparison between the position and the correct data on the image position and the object detection sensor detects the object at the end of the images obtained by detecting the object in the first The rotation deviation amount detecting device according to claim 1, wherein the rotation deviation amount of the object detection sensor with respect to a predetermined direction is detected based on the above. 前記回転検出部は、前記物体検知センサが前記物体を最初に検知した画像上の領域と前記物体検知センサが前記物体を最後に検知した領域と前記正解データとの比較結果に基づいて、前記物体検知センサの回転ずれ量を検出する、請求項1又は請求項2に記載の回転ずれ量検出装置。 The rotation detection part, based on the object detection sensor is a result of comparison between the first region on the images has been detected with the object detection sensor detects the object at the end region with the correct answer data to said object, The rotation deviation amount detection device according to claim 1 or 2, which detects a rotation deviation amount of the object detection sensor. 前記回転検出部は、画像上の前記物体の移動の方向と前記正解データとの比較結果に基づいて、前記物体検知センサの回転ずれ量の角度を検出する、請求項1又は請求項2に記載の回転ずれ量検出装置。 The rotation detecting unit, based on a comparison result of the direction and the correct answer data of the movement of the object on the images, detects the angle of rotation displacement amount of the object detection sensor, to claim 1 or claim 2 The rotation deviation amount detection device described. 指定された前記物体を検知したか否かを画像認識によって特定する画像認識部
をさらに備え、
前記回転検出部は、指定された前記物体を検知したことを前記画像認識部が特定した場合、指定された前記物体の前記検知情報に基づいて前記複数の物体検知センサの回転ずれ量を前記物体検知センサごとに検出する、請求項1から請求項4のいずれか一項に記載の回転ずれ量検出装置。
An image recognition unit is further provided for specifying whether or not the specified object is detected by image recognition,
When the image recognition unit identifies that the rotation detection unit has detected the designated object, the rotation detection unit determines the amount of rotation deviation of the plurality of object detection sensors based on the detection information of the designated object. The rotation deviation amount detection device according to any one of claims 1 to 4, which detects each of the detection sensors.
前記物体検知センサの回転ずれ量を前記回転検出部が検出する場合と前記物体検知センサの回転ずれ量を前記回転検出部が検出しない場合とで前記物体の検知に用いるパラメータを変更し、前記物体検知センサの回転ずれ量を検出するか否かに応じた動作モードと前記パラメータとを前記物体検知センサに指示する指示部
をさらに備える、請求項1から請求項5のいずれか一項に記載の回転ずれ量検出装置。
The parameter used for detecting the object is changed depending on whether the rotation detection unit detects the rotation deviation amount of the object detection sensor or when the rotation detection unit does not detect the rotation deviation amount of the object detection sensor. 6. The instruction unit according to claim 1, further comprising: an instruction unit for instructing the object detection sensor of an operation mode and the parameter according to whether or not to detect a rotation deviation amount of the detection sensor. Rotational deviation amount detection device.
前記検知情報に基づく画像を前記物体検知センサの位置に対応付けて表示部の画面に配列する表示制御部
をさらに備える、請求項1から請求項6のいずれか一項に記載の回転ずれ量検出装置。
The rotation deviation amount detection according to any one of claims 1 to 6, further comprising: a display control unit configured to arrange an image based on the detection information on a screen of a display unit in association with a position of the object detection sensor. apparatus.
前記検知情報に基づく画像の歪みを補正する補正部
をさらに備え、
前記表示制御部は、前記歪みが補正された画像を前記表示部の画面に表示する、請求項7に記載の回転ずれ量検出装置。
Further comprising a correction unit for correcting image distortion based on the detection information,
The rotation deviation amount detection device according to claim 7, wherein the display control unit displays the image in which the distortion is corrected on a screen of the display unit.
前記表示制御部は、前記歪みが補正された画像を配列して前記表示部の画面に表示する、請求項8に記載の回転ずれ量検出装置。   The rotation deviation amount detection device according to claim 8, wherein the display control unit arranges the images in which the distortions are corrected and displays the images on the screen of the display unit. 前記表示制御部は、前記歪みが補正された画像を結合して前記表示部の画面に表示する、請求項9に記載の回転ずれ量検出装置。   The rotation deviation amount detection device according to claim 9, wherein the display control unit combines the images in which the distortions are corrected and displays the combined images on the screen of the display unit. 物体を検知するセンサと、
指定された前記物体を検知したか否かを画像認識によって特定するための情報である特定情報を取得する取得部と、
自物体検知センサの回転ずれ量を他の装置が検出する場合と自物体検知センサの回転ずれ量を前記他の装置が検出しない場合とで前記物体の検知に用いるパラメータを変更し、指定された前記物体を検知したか否かを画像認識によって前記特定情報に基づいて特定する画像認識部と、
登録された経路に沿って移動した前記物体を検知した結果を表す検知情報と自物体検知センサの識別情報とを前記他の装置に送信する送信部と、
を備える物体検知センサ。
A sensor that detects an object,
An acquisition unit that acquires specific information that is information for specifying whether or not the specified object is detected by image recognition,
The parameters used to detect the object are changed and designated depending on whether the rotation deviation amount of the self-object detection sensor is detected by another device or when the rotation deviation amount of the self-object detection sensor is not detected by the other device. An image recognition unit that specifies whether or not the object is detected based on the specific information by image recognition,
A transmission unit that transmits the detection information indicating the result of detecting the object that has moved along the registered path and the identification information of the self-object detection sensor to the other device,
An object detection sensor including.
複数の位置に設置され、物体を検知する複数の物体検知センサと、
移動する前記物体の経路に関する正解データと前記経路とを登録する登録部と、
登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報と前記正解データとの比較結果に基づいて、予め定められた向きに対する前記物体検知センサの回転ずれ量を検出する回転検出部と、
を備える回転ずれ量検出システム。
A plurality of object detection sensors installed in a plurality of positions to detect an object,
A registration unit that registers the correct answer data regarding the path of the moving object and the path;
Based on the result of comparison between the correct information and the detection information representing the result of detection of the object moved along the registered path by the plurality of object detection sensors, the object detection sensor of the predetermined orientation A rotation detector that detects the amount of rotation deviation,
A rotation deviation amount detection system including.
物体を検知する複数の物体検知センサが複数の位置に設置されており、前記物体検知センサの回転ずれ量を検出する回転ずれ量検出装置が実行する回転ずれ量検出方法であって、
移動する前記物体の経路に関する正解データと前記経路とを登録するステップと、
登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報とと前記正解データとの比較結果に基づいて、予め定められた向きに対する前記物体検知センサの回転ずれ量を検出するステップと、
を含む回転ずれ量検出方法。
A plurality of object detection sensors for detecting an object are installed at a plurality of positions, a rotation deviation amount detection method executed by a rotation deviation amount detection device for detecting a rotation deviation amount of the object detection sensor,
Registering the correct answer data regarding the path of the moving object and the path,
The object detection sensor for a predetermined direction based on a comparison result of detection information indicating a result of detection of the object moving along the registered path by the plurality of object detection sensors and the correct answer data. Detecting the amount of rotation deviation of
A method for detecting the amount of rotation deviation including.
物体を検知する複数の物体検知センサが複数の位置に設置されており、前記物体検知センサの回転ずれ量を検出する回転ずれ量検出装置のコンピュータに、
移動する前記物体の経路に関する正解データと前記経路とを登録する手順と、
登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報と前記正解データとの比較結果に基づいて、予め定められた向きに対する前記物体検知センサの回転ずれ量を検出する手順と、
を実行させるための回転ずれ量検出プログラム。
A plurality of object detection sensors for detecting an object are installed at a plurality of positions, the computer of the rotation deviation amount detection device for detecting the rotation deviation amount of the object detection sensor,
A step of registering the correct answer data regarding the path of the moving object and the path;
Based on the result of comparison between the correct information and the detection information representing the result of detection of the object moved along the registered path by the plurality of object detection sensors, the object detection sensor of the predetermined orientation Procedure to detect the amount of rotation deviation,
A rotation deviation amount detection program for executing.
JP2017000127A 2017-01-04 2017-01-04 Rotation deviation amount detection device, object detection sensor, rotation deviation amount detection system, rotation deviation amount detection method, and rotation deviation amount detection program Active JP6696693B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017000127A JP6696693B2 (en) 2017-01-04 2017-01-04 Rotation deviation amount detection device, object detection sensor, rotation deviation amount detection system, rotation deviation amount detection method, and rotation deviation amount detection program
PCT/JP2017/032831 WO2018127995A1 (en) 2017-01-04 2017-09-12 Rotation displacement amount detection device, object detection sensor, rotation displacement amount detection system, rotation displacement amount detection method, and rotation displacement amount detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017000127A JP6696693B2 (en) 2017-01-04 2017-01-04 Rotation deviation amount detection device, object detection sensor, rotation deviation amount detection system, rotation deviation amount detection method, and rotation deviation amount detection program

Publications (2)

Publication Number Publication Date
JP2018109558A JP2018109558A (en) 2018-07-12
JP6696693B2 true JP6696693B2 (en) 2020-05-20

Family

ID=62789376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017000127A Active JP6696693B2 (en) 2017-01-04 2017-01-04 Rotation deviation amount detection device, object detection sensor, rotation deviation amount detection system, rotation deviation amount detection method, and rotation deviation amount detection program

Country Status (2)

Country Link
JP (1) JP6696693B2 (en)
WO (1) WO2018127995A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220113260A1 (en) * 2019-02-01 2022-04-14 Nec Corporation Image processing apparatus
JP7139987B2 (en) * 2019-02-08 2022-09-21 コニカミノルタ株式会社 Process information acquisition system, process information acquisition method, and process information acquisition program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3614529B2 (en) * 1995-09-27 2005-01-26 Ntn株式会社 Calculation parameter measuring method of measuring apparatus and measuring apparatus
JP2006112910A (en) * 2004-10-14 2006-04-27 Optex Co Ltd Infrared sensing device and its installation method
US7312872B2 (en) * 2005-03-16 2007-12-25 Fujitsu Limited System and method for automated positioning of camera
JP5650500B2 (en) * 2010-11-10 2015-01-07 本田技研工業株式会社 Position measuring apparatus and position measuring method
JP2015070581A (en) * 2013-09-30 2015-04-13 Kddi株式会社 Moving route estimation device, moving route estimation method, and computer program
JP5781174B2 (en) * 2014-02-17 2015-09-16 セコム株式会社 Monitoring sensor
JP6454006B2 (en) * 2015-04-28 2019-01-16 株式会社日立国際電気 Video surveillance system and video surveillance method

Also Published As

Publication number Publication date
WO2018127995A1 (en) 2018-07-12
JP2018109558A (en) 2018-07-12

Similar Documents

Publication Publication Date Title
US9191633B2 (en) Tracking assistance device, tracking assistance system and tracking assistance method
US20200202116A1 (en) Moving information analyzing system and moving information analyzing method
JP6755713B2 (en) Tracking device, tracking method and program
CN112217998B (en) Imaging device, information processing device, control method thereof, and storage medium
WO2014122884A1 (en) Information processing apparatus, information processing method, program, and information processing system
CN110834327B (en) Robot control method and device
JP2018522348A (en) Method and system for estimating the three-dimensional posture of a sensor
JP5851261B2 (en) Image sensor system, information processing apparatus, information processing method, and program
JP6015656B2 (en) Information processing apparatus, information processing system, server, information processing method, and computer program
WO2018127996A1 (en) Position detection device, object detection sensor, position detection system, position detection method, and position detection program
JP2019041261A (en) Image processing system and setting method of image processing system
JP6693509B2 (en) Image processing apparatus, image processing method, and image processing system
JP2017073670A (en) Image processing apparatus, image processing method and image processing system
JP2016149654A (en) Display control apparatus and display control method
US20160379079A1 (en) System, apparatus, method, and computer readable storage medium for extracting information
JP2010206405A (en) Image monitoring device
JP6696693B2 (en) Rotation deviation amount detection device, object detection sensor, rotation deviation amount detection system, rotation deviation amount detection method, and rotation deviation amount detection program
JP5147760B2 (en) Image monitoring device
CN105898208A (en) A surveillance system, a surveillance camera and an image processing method
JP2018061114A (en) Monitoring device and monitoring method
JP6575845B2 (en) Image processing system, image processing method, and program
CN110069057A (en) A kind of obstacle sensing method based on robot
CN105320274A (en) Direct three-dimensional pointing using light tracking and relative position detection
JP2010217984A (en) Image detector and image detection method
JPWO2016174942A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170825

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200417

R150 Certificate of patent or registration of utility model

Ref document number: 6696693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150