WO2018127996A1 - 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム - Google Patents

位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム Download PDF

Info

Publication number
WO2018127996A1
WO2018127996A1 PCT/JP2017/032878 JP2017032878W WO2018127996A1 WO 2018127996 A1 WO2018127996 A1 WO 2018127996A1 JP 2017032878 W JP2017032878 W JP 2017032878W WO 2018127996 A1 WO2018127996 A1 WO 2018127996A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection
object detection
unit
detection sensor
pedestrian
Prior art date
Application number
PCT/JP2017/032878
Other languages
English (en)
French (fr)
Inventor
榎原 孝明
馬場 賢二
禎敏 齋藤
Original Assignee
株式会社東芝
東芝インフラシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝インフラシステムズ株式会社 filed Critical 株式会社東芝
Publication of WO2018127996A1 publication Critical patent/WO2018127996A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation

Definitions

  • Embodiments described herein relate generally to a position detection device, an object detection sensor, a position detection system, a position detection method, and a position detection program.
  • an operator may visually confirm the positions of a plurality of object detection sensors installed on the ceiling of the room for each object detection sensor.
  • the positions of the plurality of object detection sensors are recorded on the map for each object detection sensor, the worker may mistakenly record a position different from the actually installed position on the map.
  • the positions of the plurality of object detection sensors installed on the ceiling in the room cannot be detected for each object detection sensor.
  • the problem to be solved by the present invention provides a position detection device, an object detection sensor, a position detection system, a position detection method, and a position detection program capable of detecting the positions of a plurality of object detection sensors for each object detection sensor. That is.
  • the position detection apparatus includes a registration unit, a communication unit, and a position detection unit.
  • a plurality of object detection sensors for detecting an object are installed at a plurality of positions.
  • the registration unit registers a route.
  • the acquisition unit acquires detection information representing a result of detection by the plurality of object detection sensors of the object moved along the registered route and identification information of the object detection sensor.
  • the position detection unit associates the identification information of the object detection sensor with the position of the object detection sensor based on the result of the object passing through the detection ranges of the plurality of object detection sensors and the detection information, thereby detecting the position of the object detection sensor. Is detected.
  • the figure which shows the example of a structure of the position detection system of embodiment The figure which shows the example of the mask area
  • shift amount of embodiment is more than a threshold value.
  • FIG. 1 is a diagram illustrating an example of the configuration of the position detection system 1.
  • the position detection system 1 is a system that detects the positions of a plurality of object detection sensors 2 installed on an indoor ceiling.
  • the position detection system 1 may be a system (rotational deviation amount detection system) that detects an amount (hereinafter referred to as “rotational deviation amount”) in which the object detection sensor 2 rotates and deviates with respect to the installation direction.
  • the position detection system 1 includes object detection sensors 2-1 to 2-N (N is an integer greater than or equal to 2. Here, N is 6 as an example), a position detection device 3, and a communication line 4.
  • the object detection sensor 2 and the position detection device 3 may be integrated.
  • the object detection sensor 2 detects an object as a sensor of the sensing system.
  • the object detection sensor 2 is, for example, an infrared sensor such as an image sensor or a thermopile sensor, or an ultrasonic sensor.
  • the object detection sensor 2 is an image sensor as an example.
  • the object detection sensors 2-1 to 2-N are installed, for example, on the indoor ceiling.
  • the object detection sensor 2 takes an image of the room as seen from the ceiling.
  • the position detection device 3 is an information processing device such as a notebook or desktop personal computer, a tablet terminal, or a smartphone terminal.
  • the position detection device 3 may be a server device such as a building energy management system (BEMS: Building Energy Management System).
  • BEMS Building Energy Management System
  • the position detection device 3 detects the positions of a plurality of object detection sensors 2 installed on the indoor ceiling based on the result of the object detection sensor 2 detecting the position of the object (moving body) that has moved along the registered route. (presume. For example, the position detection device 3 detects the positions of the plurality of object detection sensors 2 installed on the indoor ceiling based on the image of the moving body in the camera image captured by the object detection sensor 2 as seen from the ceiling.
  • the position detection device 3 detects (estimates) rotational deviation amounts of the plurality of object detection sensors 2 installed on the indoor ceiling based on the result of the object detection sensor 2 detecting the position of the object moved along the registered route. ) (Rotational deviation detecting device). For example, the position detection device 3 determines the amount of rotation deviation (rotation) of the object detection sensor 2 installed on the indoor ceiling based on the comparison result between the path of the moving body in the camera image and the correct answer data (correct answer value) regarding the path. Angle) may be detected.
  • the correct data related to the route is data representing the route (reference route) of the moving body in the camera image output by the object detection sensor 2 when the object detection sensor 2 is installed in the direction to be installed.
  • the data representing the path of the moving body includes, for example, a line representing the path of the moving body, an angle representing the direction (reference direction) of the path of the moving body, the position (region) on the camera image where the moving body is first detected, and the movement It is expressed by the position (region) on the camera image where the body is detected last.
  • the position detection device 3 may correct the amount of rotational deviation generated in the camera image captured by the object detection sensor 2.
  • the communication line 4 is a wired or wireless communication line.
  • the network topology of the communication line 4 is, for example, a star type or a ring type.
  • the object detection sensor 2 includes a camera unit 20, an operation unit 21, a storage unit 22, an image recognition unit 23, an ID setting unit 24, a communication unit 25, and a bus 26.
  • Some or all of the image recognition unit 23, the ID setting unit 24, and the communication unit 25 function when a processor such as a CPU (Central Processing Unit) executes a program stored in the storage unit 22, for example. Realized by software. Further, some or all of these functional units may be realized by hardware such as LSI (Large Scale Integration) or ASIC (Application Specific Specific Integrated Circuit).
  • LSI Large Scale Integration
  • ASIC Application Specific Specific Integrated Circuit
  • the camera unit 20 images the room through a fisheye lens from a position installed on the ceiling.
  • the camera unit 20 transmits a camera image obtained by imaging the room to the image recognition unit 23.
  • the camera unit 20 images a moving body moving in the room from a position installed on the ceiling.
  • the moving body is, for example, a worker who is walking (hereinafter referred to as “pedestrian”), a working vehicle, or a movable working robot.
  • the moving body is a pedestrian.
  • the operation unit 21 is an operation device such as a DIP switch (Dual In-line Package Switch), an operation key, or a touch panel.
  • the operation unit 21 receives an operation by an operator or the like.
  • the operation by the operator or the like accepts, for example, an operation for setting parameter information used for imaging or the like, and a power operation.
  • the storage unit 22 is configured using a storage device having a nonvolatile storage medium (non-temporary recording medium) such as a magnetic hard disk device or a semiconductor storage device.
  • the semiconductor memory device is, for example, a flash memory.
  • the storage unit 22 stores, for example, parameter information used for imaging and the like, and identification information (ID) of the own sensor.
  • the storage unit 22 may store detection information such as the brightness of an image of a person in the room, the presence or absence of a person in the room, the number of people, the degree of congestion, and the amount of activity.
  • the storage unit 22 may store (record) a plurality of camera images in association with imaging times.
  • the storage unit 22 stores, for example, information (hereinafter referred to as “specific information”) for specifying by image recognition whether or not a pedestrian designated as a detection target has been detected in the camera image.
  • the specific information is predetermined by a worker or the like.
  • the specific information is, for example, information on the color or pattern of a helmet or work clothes worn by pedestrians.
  • the information on the color and pattern of the helmet and work clothes may be information based on product information such as the helmet and work clothes.
  • the communication unit or the like of the position detection device 3 may search for product information from the product homepage via the Internet based on the specified model number of a helmet, work clothes, or the like.
  • the specific information may be personal authentication information such as a pedestrian's back and gait.
  • the specific information may be wireless communication information of a mobile terminal held by a pedestrian.
  • the specific information may be a teacher image.
  • the specific information may be image information of a person in a camera image captured in advance by the object detection sensor 2.
  • the specific information may be gesture information such as a pedestrian shaking hands.
  • the specific information may be information indicating a specific area in the room where the pedestrian moves.
  • the specific information may be information representing a character string or the like written on a marker such as a plate worn by a pedestrian
  • the image recognition unit 23 performs image processing on the camera image. For example, the image recognition unit 23 extracts feature quantities such as a luminance change such as a cumulative difference and a luminance distribution of CoHOG (Co-occurrence Histograms of Oriented Gradients) from the camera image.
  • feature quantities such as a luminance change such as a cumulative difference and a luminance distribution of CoHOG (Co-occurrence Histograms of Oriented Gradients) from the camera image.
  • the image recognition unit 23 acquires specific information from the storage unit 22.
  • the image recognition unit 23 may acquire specific information from the position detection device 3 via the communication unit 25.
  • the image recognition unit 23 specifies whether or not the designated pedestrian has been detected in the camera image based on the result of performing image processing on the camera image and the specific information. For example, the image recognizing unit 23 determines the designated pedestrian based on the processing result of the feature value by the neural network, the support vector machine (SVM: Support Vector Machine), the k neighborhood discriminator, the Bayes classification, and the specific information. It is specified whether or not it is detected in the camera image.
  • SVM Support Vector Machine
  • the image recognition part 23 needs to identify the pedestrian used as the detection target in the camera image in which the several pedestrian was recognized.
  • the image recognition unit 23 sets pedestrians to be detected and other pedestrians not to be detected as specific information designated by the position detection device 3. Identify based on.
  • the image recognition unit 23 generates detection information such as the brightness of a person's image in the room, the presence / absence of a person in the room, the number of persons, the degree of congestion, and the amount of activity for a pedestrian to be detected.
  • the image recognizing unit 23 determines the movement path of the pedestrian to be detected based on the detection information.
  • the image recognizing unit 23 determines a movement path of a pedestrian to be detected by, for example, background difference processing, inter-frame difference processing, optical flow processing, and template matching processing.
  • the image recognition unit 23 may add pedestrian identification information to the detection information.
  • an operation mode (adjustment mode) in which the position detection device 3 detects the position of the object detection sensor 2 is referred to as a “position detection mode”.
  • an operation mode (adjustment mode) in which the position detection device 3 detects the rotational deviation amount of the object detection sensor 2 is referred to as a “rotation amount detection mode”.
  • an operation mode of the position detection device 3 other than the position detection mode and the rotation amount detection mode is referred to as an “operation mode”.
  • the image recognition unit 23 acquires parameter information used for imaging or the like from the operation unit 21 or the storage unit 22.
  • the image recognition unit 23 may acquire parameter information used for imaging or the like from the position detection device 3 via the communication unit 25.
  • FIG. 2 is a diagram illustrating an example of the mask region 100.
  • the parameter information used for imaging or the like is, for example, mask area information for the camera unit 20 of the object detection sensor 2 to mask a partial area of the camera image.
  • the image recognition unit 23 or the position detection device 3 increases the area of the mask region 100 based on the parameter information and decreases the area of the camera image region 110 when the position detection device 3 operates in the position detection mode. Only the area immediately below the object detection sensor 2 may be set as a detection range of the pedestrian.
  • FIG. 3 is a diagram showing an example of a plurality of areas 120 defined in the camera image.
  • the parameter information used for imaging or the like is information on a plurality of areas into which the camera image is divided, for example.
  • the image recognition unit 23 or the position detection device 3 may vary the image processing performed on the region 120 for each region 120 based on the parameter information.
  • the camera image is divided into regions 120-1 to 120-9 as an example.
  • the ID setting unit 24 records the identification information of the own sensor in the storage unit 22.
  • the identification information of the own sensor is, for example, a MAC address (Media Access Control address) and an IP address (Internet Protocol address).
  • the ID setting unit 24 may record the identification information acquired via the operation unit 21 in the storage unit 22 as the identification information of the own sensor.
  • the ID setting unit 24 may record the identification information automatically set by DHCP (Dynamic Host Configuration Protocol) or the like in the storage unit 22 as the identification information of the own sensor.
  • DHCP Dynamic Host Configuration Protocol
  • the ID setting unit 24 records the identification information of the self sensor in the storage unit 22 when the self sensor is shipped or after the self sensor is installed on the ceiling.
  • the communication unit 25 communicates with the position detection device 3 via the communication line 4 based on a communication protocol such as Ethernet (registered trademark), building, wireless, or device control as an acquisition unit and a transmission unit.
  • the communication unit 25 may communicate with another object detection sensor 2.
  • the communication data is, for example, identification information of the own sensor, detection information based on a result of detecting the pedestrian by the object detection sensor 2, and a still image or a video camera image based on the result of detection of the pedestrian by the object detection sensor 2.
  • the communication protocol of the communication unit 25 is, for example, a general purpose protocol, an industrial protocol, or a unique protocol.
  • the communication unit 25 may communicate with a remote controller that is a device that controls the object detection sensor 2.
  • the bus 26 is a transmission path for transmitting data between each part of the object detection sensor 2.
  • the position detection device 3 includes a communication unit 30, an operation unit 31, a map setting unit 32, a registration unit 33, an instruction unit 34, a position detection unit 35, a correction unit 36, a rotation detection unit 37, and a display.
  • a control unit 38, a storage unit 39, a display unit 40, and a bus 41 are provided.
  • the position detection device 3 may further include an image recognition unit 42.
  • Some or all of the communication unit 30, the map setting unit 32, the registration unit 33, the instruction unit 34, the position detection unit 35, the correction unit 36, the rotation detection unit 37, the display control unit 38, and the image recognition unit 42 are, for example,
  • a processor such as a CPU is realized by software that functions by executing a program stored in the storage unit 39.
  • Some or all of these functional units may be realized by hardware such as an LSI or an ASIC.
  • the communication unit 30 communicates with the object detection sensors 2-1 to 2-N via the communication line 4 based on communication protocols such as Ethernet (registered trademark), building, wireless, and device control.
  • the communication data includes, for example, identification information of the object detection sensor 2, detection information based on a result of detecting the pedestrian by the object detection sensor 2, and a still image or video camera image based on the result of detection of the pedestrian by the object detection sensor 2. It is.
  • the communication protocol of the communication unit 30 is, for example, a general purpose protocol, an industrial protocol, or a unique protocol.
  • the communication unit 30 may communicate with the remote controller.
  • the operation unit 31 is an operation device such as a DIP switch, operation keys, a keyboard, a mouse, or a touch panel.
  • the operation unit 31 receives an operation by an operator or the like.
  • the operation unit 31 accepts, for example, an operation for registering route data of pedestrian movement, an operation for registering correct answer data, an operation for setting parameter information used for imaging, and a power operation.
  • the map setting unit 32 acquires a map (plan view) that represents the arrangement of the pillars in the room, the section information, and the like.
  • the map may further include an image (a top view) representing the position of the object detection sensor 2 installed on the ceiling.
  • the map is represented by image data such as a photograph or a diagram.
  • FIG. 4 is a diagram showing an example of the map 5.
  • the position display image 7-n (n is an integer of 1 to N) is an image representing the position of the object detection sensor 2-n.
  • the map setting unit 32 superimposes the position display image 7-n on the position of the object detection sensor 2-n on the map 5.
  • the position at which the position display image 7 is superimposed on the map 5 is determined by, for example, an operator viewing the map 5 displayed on the display unit 40 operating the operation unit 31.
  • the map setting unit 32 may superimpose the position display image 7 on the position based on the installation interval information on the map 5.
  • the position detection device 3 has not yet estimated which of the object detection sensors 2-n is installed at the position indicated by each position display image 7.
  • the position of the object detection sensor 2 is expressed by coordinates and section information.
  • the position of the object detection sensor 2-1 (the position on which the position display image 7-1 is superimposed) is P1 (“A” bay, first pillar).
  • the position of the object detection sensor 2-2 (the position on which the position display image 7-2 is superimposed) is P2 (“A” bay, second pillar).
  • the position of the object detection sensor 2-6 (position on which the position display image 7-6 is superimposed) is P6 (“B” bay, third pillar).
  • the position of the object detection sensor 2 may be associated with time information such as a time when a pedestrian moving in the room is detected by the object detection sensor 2.
  • the registration unit 33 includes the pedestrian movement route data (line image data) in the map 5 in the map 5 according to the operation through the operation unit 31.
  • the registration unit 33 registers the map 5 including route data of pedestrian movement in the storage unit 39.
  • FIG. 5 is a diagram illustrating an example of registration of the route 6.
  • the operator draws a route 6 of the pedestrian's movement on the map 5 by operating the operation unit 31 such as a mouse while viewing the map 5 displayed on the display unit 40.
  • the path 6 has a start point and an end point.
  • the path 6 may not be drawn with a single stroke.
  • the worker may select the path 6 to be used for detecting the position of the object detection sensor 2 by operating the operation unit 31.
  • the worker draws the route 6 on the map 5 so that the route on which the pedestrian is scheduled to move in the room is represented on the map 5 before the pedestrian moves in the room.
  • the pedestrian moves in the room along the route 6 drawn on the map 5 before the pedestrian moves in the room.
  • a pedestrian may hold a portable terminal for wireless communication when moving in a room.
  • the mobile terminal held by the pedestrian may estimate the route that the pedestrian has moved through the room using a position estimation technique (see Non-Patent Document 1).
  • the mobile terminal may transmit data (position estimation result) representing the route that the pedestrian has moved through the room to the registration unit 33 via the communication unit 30.
  • the registration unit 33 may detect a deviation of a route based on a position estimation result acquired from the mobile terminal by the communication unit 30 with respect to the route 6 drawn on the map 5 before the pedestrian moves in the room.
  • the registration unit 33 may transmit the travel route information to the mobile terminal via the communication unit 30 based on the detected deviation.
  • the mobile terminal held by the pedestrian displays the travel route information.
  • the registration unit 33 can guide the pedestrian about the movement route information representing the route 6 so that the pedestrian can move along the route 6 drawn in advance on the map 5 in the room.
  • the worker may draw a route 6 on the map 5 so as to trace the route that the pedestrian has moved in the room after the pedestrian has moved in the room.
  • the registration unit 33 may draw the route 6 on the map 5 based on the position estimation result acquired by the communication unit 30 from the portable terminal held by the pedestrian after the pedestrian moves in the room.
  • the registration unit 33 determines in what order the object detection sensors 2-1 to 2-6 detect pedestrians, the detection range of each object detection sensor 2, the position of each object detection sensor 2, and the path 6 You may predict based on distance.
  • the registration unit 33 is arranged in the order in which pedestrians pass through the detection ranges of the object detection sensors 2 (object detection sensors 2-6, 2-5, 2-4, 2-1, 2-2, 2- 3), it is predicted that each object detection sensor 2 detects a pedestrian.
  • the registration unit 33 predicts the time (passage time) when the pedestrian has passed the detection range of the object detection sensor 2 based on the passage time of the pedestrian determined at the position of the object detection sensor 2 according to the path 6. May be.
  • the time when the pedestrian passes the detection range of the object detection sensor 2-6 is equal to, for example, the passage time t1.
  • the time when the pedestrian passes through the detection range of the object detection sensor 2-3 is equal to, for example, the passage time t6.
  • the registration unit 33 estimates the position where the pedestrian is first detected in the camera image when the amount of rotational deviation of the object detection sensor 2 is small based on the relative orientation of the object detection sensor 2 with respect to the path 6. To do.
  • a position estimated to be a position where a pedestrian is first detected in a camera image is referred to as an “initial detection estimated position”.
  • the registration unit 33 records information representing the estimated initial position of the pedestrian in the storage unit 39 as one of correct answer data.
  • the registration unit 33 estimates, based on the relative orientation of the object detection sensor 2 with respect to the path 6, the position at which the pedestrian is finally detected in the camera image when the rotation deviation amount of the object detection sensor 2 is small. To do.
  • the position estimated to be the position at which the pedestrian is finally detected in the camera image is referred to as “last detection estimated position”.
  • the registration unit 33 records information representing the estimated last detected position of the pedestrian in the storage unit 39 as one of correct data.
  • the registration unit 33 detects the area 120 where the pedestrian is first detected in the camera image when the rotation deviation amount of the object detection sensor 2 is small. Estimate based on the relative orientation of.
  • a region estimated to be a region where a pedestrian is first detected in the camera image is referred to as a “first detection estimated region”.
  • the registration unit 33 records information representing the first detection estimation area of the pedestrian in the storage unit 39 as one of correct answer data.
  • the registration unit 33 uses the object detection sensor 2 for the path 6 to detect the region 120 where the pedestrian is detected last in the camera image when the rotational deviation amount of the object detection sensor 2 is small in the camera image in which the plurality of regions 120 are defined. Estimate based on the relative orientation of.
  • a region estimated to be a region where a pedestrian is detected last in the camera image is referred to as a “last detection estimated region”.
  • the registration unit 33 records information indicating the pedestrian's last detection estimated area in the storage unit 39 as one of correct data.
  • the instruction unit 34 instructs the object detection sensor 2 via the communication unit 30 to change the parameter used for detecting the pedestrian depending on whether the position detection unit 35 detects the position of the object detection sensor 2 or not. Send. That is, the instruction unit 34 transmits parameter information that differs between the position detection mode and the operation mode to the object detection sensor 2 via the communication unit 30. The instruction unit 34 transmits at least one of the operation mode information and the parameter information to the object detection sensor 2 via the communication unit 30.
  • the operation mode information and parameter information may be information instructed via the operation unit 31 or information prepared in advance.
  • the instruction unit 34 may select an operation mode and a parameter based on a predetermined condition from among operation modes and parameters prepared in advance.
  • the instruction unit 34 instructs the object detection sensor about the selected operation mode and parameter.
  • the instruction unit 34 may transmit operation mode information including information for switching the sensing function of the object detection sensor 2 to the object detection sensor 2.
  • the sensing function is, for example, a detection accuracy switching function of whether the detection accuracy of the position of the pedestrian in the camera image is in units of pixels or in units of regions.
  • the instruction unit 34 displays parameter information that increases the area of the mask region 100 as compared with the case where the position detection device 3 operates in the operation mode. You may transmit to the object detection sensor 2 via. For example, when the position detection device 3 operates in the position detection mode, the instruction unit 34 sends parameter information that defines a plurality of regions 120 (regions for dividing the camera image) to the camera image via the communication unit 30. 2 may be transmitted.
  • the instruction unit 34 sends an instruction to change a parameter used for detection of a pedestrian through the communication unit 30 depending on whether the rotation detection unit 37 detects the rotation deviation amount of the object detection sensor 2 or not. It may be transmitted to the sensor 2. That is, the instruction unit 34 transmits parameter information that differs between the rotation amount detection mode and the operation mode to the object detection sensor 2 via the communication unit 30.
  • the instruction unit 34 acquires specific information from the operation unit 31 or the storage unit 39.
  • the instruction unit 34 transmits specific information to the object detection sensor 2 via the communication unit 30.
  • the instruction unit 34 may transmit the specific information to the position detection unit 35 via the bus 41.
  • the instruction unit 34 may transmit specific information selected from a plurality of specific information based on an operation via the operation unit 31 to the object detection sensor 2 and the position detection unit 35.
  • the position detection unit 35 detects the position of the object detection sensor 2 for each object detection sensor 2 by associating (linking) the position information of the object detection sensor 2 with the identification information of the object detection sensor 2.
  • FIG. 6 is a diagram showing an example of the order in which the object detection sensor 2 or the like has detected the pedestrian 130 (moving body).
  • the image illustrated in FIG. 6 is an image based on camera images transmitted by the plurality of object detection sensors 2.
  • the image illustrated in FIG. 6 is displayed on the display unit 40.
  • the pedestrian 130 moves in the room along the route 6 when the position detection device 3 operates in the position detection mode.
  • the positions of pedestrians change in the order of pedestrians 130-1 to 130-6 in time series along the route 6 shown in FIG.
  • the detection order display image 8 is an image representing the detection order “any one of Nos. 1 to 6” of the pedestrian 130.
  • the detection order display image 8-1 represents the detection order “No. 1” of the pedestrian 130 based on the fact that the object detection sensor 2-6 has detected the pedestrian 130-1 at time t1.
  • the detection order display image 8-3 indicates that the detection order “No. 6” of the pedestrian 130 is based on the fact that the object detection sensor 2-3 detects the pedestrian 130-6 at the time t6 after the time t1. Represents.
  • FIG. 7 is a diagram showing an example of the detection order of the pedestrian 131 (moving body) wearing a helmet.
  • the image illustrated in FIG. 7 is an image based on the camera image transmitted by the plurality of object detection sensors 2.
  • the image illustrated in FIG. 7 is displayed on the display unit 40.
  • the pedestrian 131 moves in the room along the route 6 shown in FIG. 5 when the position detection device 3 operates in the position detection mode.
  • the positions of pedestrians change in the order of pedestrians 131-1 to 131-6 in time series along the path 6 shown in FIG.
  • the position detection unit 35 can identify the pedestrian 131 and other pedestrians based on the color or pattern of the helmet worn by the pedestrian 131.
  • the detection order display image 8 is an image representing the detection order “any of No. 1 to No. 6” of the pedestrian 131.
  • the detection order display image 8-1 represents the detection order “No. 1” of the pedestrian 131 based on the object detection sensor 2-6 detecting the pedestrian 131-1 at the time t1.
  • the detection order display image 8-3 indicates that the detection order “No. 6” of the pedestrian 131 is based on the fact that the object detection sensor 2-3 detects the pedestrian 131-6 at the time t6 after the time t1. Represents.
  • the position detection unit 35 (link unit) is based on the correspondence relationship between the order in which the object detection sensor 2 detects the pedestrian 131 and the order in which the pedestrian 131 passes through the detection range of the object detection sensor 2. Is detected for each object detection sensor 2.
  • FIG. 8 is a diagram illustrating a first example of position detection result information of the object detection sensor 2.
  • the detection order of the pedestrian, the identification information of the object detection sensor 2, the order in which the pedestrian has passed the detection range of the object detection sensor 2 (the order in which the pedestrian passes), and the position of the object detection sensor 2 are associated.
  • the position detection unit 35 registers the identification information of the object detection sensor 2 that has detected the pedestrian 131 in the position detection result information in association with the detection order of the pedestrian 131. For example, the position detection unit 35 associates the identification information “2-6” of the object detection sensor 2 that first detected the pedestrian 131 with the detection order “No. 1” of the pedestrian 131, and detects the position detection result information. Register with. For example, the position detection unit 35 associates the identification information “2-3” of the object detection sensor 2 that has detected the pedestrian 131 sixth with the detection order “No. 6” of the pedestrian 131, and detects the position detection result information. Register with.
  • the position detection unit 35 acquires the position information of the object detection sensor 2 from the operation unit 31 or the registration unit 33 in association with the order in which the pedestrian 131 has passed the detection range of the object detection sensor 2 (passing order).
  • the position detection unit 35 associates the identification information of the object detection sensor 2 with the position information of the object detection sensor 2 so that the detection order of the pedestrian 131 and the passage order of the pedestrian 131 are equal.
  • the position detection unit 35 associates the identification information “2-6” of the object detection sensor 2 associated with the pedestrian passage order “1” and the pedestrian detection order “1”.
  • the position “P6” of the object detection sensor 2-6 is associated.
  • the position detection unit 35 associates the identification information “2-3” of the object detection sensor 2 associated with the pedestrian passage order “6” and the pedestrian detection order “6”.
  • the position “P3” of the object detection sensor 2-3 is associated.
  • the position detection unit 35 can detect the position of the object detection sensor 2 for each object detection sensor 2. For example, the position detection unit 35 can detect that the object detection sensor 2-6 to which the identification information “2-6” is assigned is installed at the position “P6” in the room. For example, the position detection unit 35 can detect that the object detection sensor 2-3 to which the identification information “2-3” is assigned is installed at the position “P3” in the room.
  • the position detection unit 35 (link unit) is based on the correspondence between the time when the object detection sensor 2 detects the pedestrian 131 and the time when the pedestrian 131 passes through the detection range of the object detection sensor 2. May be detected for each object detection sensor 2.
  • FIG. 9 is a diagram illustrating a second example of the position detection result information of the object detection sensor 2.
  • the detection time of the pedestrian, the identification information of the object detection sensor 2, the time when the pedestrian has passed the detection range of the object detection sensor 2 (passage time of the pedestrian), and the position of the object detection sensor 2 are associated.
  • the passage time of the pedestrian is determined by the route 6.
  • the position detection unit 35 registers the identification information of the object detection sensor 2 that has detected the pedestrian 131 in the position detection result information in association with the detection time of the pedestrian 131. For example, the position detection unit 35 associates the identification information “2-6” of the object detection sensor 2 that has detected the pedestrian 131 at time t1 with the detection time “t1” of the pedestrian 131, in the position detection result information. sign up. For example, the position detection unit 35 associates the identification information “2-3” of the object detection sensor 2 that has detected the pedestrian 131 at the time t6 with the detection time “t6” of the pedestrian 131 in the position detection result information. sign up.
  • the position detection unit 35 acquires the position information of the object detection sensor 2 from the operation unit 31 or the registration unit 33 in association with the time when the pedestrian 131 passes through the detection range of the object detection sensor 2 (passing time).
  • the position detection unit 35 associates the identification information of the object detection sensor 2 with the position information of the object detection sensor 2 so that the detection time of the pedestrian 131 and the passage time of the pedestrian 131 are equal.
  • the position detection unit 35 detects the object detection sensor 2 associated with the identification information “2-6” of the object detection sensor 2 associated with the passage time “t1” of the pedestrian and the detection time “t1” of the pedestrian.
  • the position “P6” of the sensor 2-6 is associated.
  • the position detection unit 35 detects the identification information “2-3” of the object detection sensor 2 associated with the passage time “t6” of the pedestrian and the object detection associated with the detection time “t6” of the pedestrian.
  • the position “P3” of the sensor 2-3 is associated.
  • the position detection unit 35 can detect the position of the object detection sensor 2 for each object detection sensor 2. For example, the position detection unit 35 can detect that the object detection sensor 2-6 to which the identification information “2-6” is assigned is installed at the position “P6” in the room. For example, the position detection unit 35 can detect that the object detection sensor 2-3 to which the identification information “2-3” is assigned is installed at the position “P3” in the room.
  • the correction unit 36 is a camera image (hereinafter referred to as “camera image before distortion correction”) obtained by the fisheye lens of the camera unit 20 of the object detection sensor 2. ) Is corrected.
  • the correction unit 36 transmits the camera image after correcting the distortion (hereinafter referred to as “camera image after distortion correction”) to the rotation detection unit 37 and the display control unit 38.
  • a rotational deviation amount may occur in the direction of the object detection sensor 2 with respect to the reference.
  • the correction unit 36 acquires information representing the orientation of the object detection sensor 2 or the amount of rotational deviation of the camera image from the rotation detection unit 37 for each object detection sensor 2.
  • the correction unit 36 corrects the rotational deviation amount of the camera image after distortion correction based on the rotational deviation amount.
  • the correction unit 36 transmits the distortion-corrected camera image in which the rotational deviation amount is corrected to the display control unit 38.
  • the rotation detection unit 37 acquires a camera image.
  • the rotation detection unit 37 detects the direction of the installed object detection sensor 2 or the amount of rotation deviation of the camera image based on the comparison result between the camera image and the correct answer data.
  • the rotation detection unit 37 transmits information indicating the orientation of the object detection sensor 2 or the amount of rotation deviation of the camera image to the correction unit 36 and the display control unit 38.
  • the rotation detection unit 37 may output information representing the amount of rotation deviation of the installed object detection sensor 2 by voice.
  • the rotation detection unit 37 allows the pedestrian 131 to detect the detection range of the object detection sensor 2 whose rotation deviation amount is equal to or greater than the threshold.
  • Information indicating that it has passed may be notified to a worker or the like by voice or the like.
  • the rotation detection unit 37 may notify a worker or the like of the distance between the position of the object detection sensor 2 and the position of the pedestrian 131 whose rotation deviation amount is equal to or greater than a threshold value by voice or the like.
  • the rotation detection unit 37 may notify the operator or the like of the position of the object detection sensor 2 whose rotation deviation amount is equal to or greater than a threshold value by voice or the like with the position of the pedestrian 131 as the origin.
  • the rotation detection unit 37 detects the orientation of the installed object detection sensor 2 or the amount of rotation deviation of the camera image based on the correspondence between the first and second regions on the camera image and the path of movement of the pedestrian. To do. For example, the rotation detection unit 37 detects the orientation of the installed object detection sensor 2 or the amount of rotational deviation of the camera image based on the correspondence between a plurality of regions that divide the camera image and the path of movement of the pedestrian. .
  • FIG. 10 is a diagram illustrating an example of a path of movement of the pedestrian 131 in the camera image 140-2 after distortion correction with a small amount of rotational deviation.
  • the positions of the pedestrians are in the order of the pedestrians 131-5-1, 131-5-2, 131-5-3 in time series along the path 6 shown in FIG. Change. Note that the pedestrian 131 does not have to travel straight in the camera image 140-2 after distortion correction as long as the pedestrian 131 moves along the route 6 shown in FIG.
  • FIG. 11 is a diagram showing a first example of detection of the rotational deviation amount.
  • the camera image 140-2 after distortion correction shown in FIG. 10 is divided into regions 120-1 to 120-9.
  • the region (entrance region) where the image recognition unit 23 or the image recognition unit 42 first detects the pedestrian 131 of the camera image 140-2 after distortion correction is a region 120-4.
  • the image recognition unit 23 or the image recognition unit 42 may select the region 120 where the pedestrian 131 is detected in any of the adjacent regions 120. .
  • the region where the pedestrian 131 is first detected in the camera image 140-2 after distortion correction by the image recognition unit 23 or the image recognition unit 42 may be the region 120-5 because detection takes time.
  • a region (exit region) where the image recognition unit 23 or the image recognition unit 42 last detected the pedestrian 131 in the camera image 140-2 after distortion correction is a region 120-6.
  • the rotation detection unit 37 acquires information representing the region 120-4 that is the first detection estimated region of the pedestrian 131 in the camera image 140-2 after distortion correction from the registration unit 33 or the storage unit 39.
  • the rotation detection unit 37 acquires, from the registration unit 33 or the storage unit 39, information representing the region 120-6 that is the estimated last detection region of the pedestrian 131 in the post-distortion camera image 140-2.
  • the rotation detection unit 37 determines whether or not the region where the pedestrian 131 is first detected in the camera image 140-2 after distortion correction and the region 120-4 which is the first detection estimation region are the same region based on the correct answer data. Judgment. In the rotation detection unit 37, the region where the image recognition unit 23 or the image recognition unit 42 last detected the pedestrian 131 in the camera image 140-2 after distortion correction is the same region as the region 120-6 which is the last detection estimated region. Whether or not there is determined based on correct data.
  • the region 120 where the pedestrian 131 is first detected and the first detection estimated region of the pedestrian 131 are the same region, and the region 120 where the pedestrian 131 is detected last and the pedestrian 131. Therefore, it is determined that the direction of the installed object detection sensor 2 or the amount of rotational deviation of the camera image is small.
  • FIG. 12 is a diagram illustrating an example of a path of movement of the pedestrian 131 in the post-distortion-corrected camera image 140a in which the rotation deviation amount is equal to or greater than the threshold value.
  • the positions of the pedestrians are in the order of the pedestrians 131-5-1, 131-5-2, 131-5-3 in time series along the route 6 shown in FIG. Change. Note that the pedestrian 131 does not have to go straight in the camera image 140a-2 after distortion correction as long as the pedestrian 131 moves along the route 6 shown in FIG.
  • FIG. 13 is a diagram showing a second example of detection of the rotational deviation amount.
  • the post-distortion camera image 140a-2 shown in FIG. 10 is divided into regions 120-1 to 120-9.
  • a region (entrance region) where the image recognition unit 23 or the image recognition unit 42 first detects the pedestrian 131 is a region 120-1.
  • the region where the image recognition unit 23 or the image recognition unit 42 first detects the pedestrian 131 in the camera image 140a-2 after distortion correction may be the region 120-5 for the reason that it takes time to detect.
  • a region (exit region) where the image recognition unit 23 or the image recognition unit 42 last detected the pedestrian 131 in the camera image 140a-2 after distortion correction is a region 120-9.
  • the rotation detection unit 37 determines whether or not the region where the pedestrian 131 is first detected in the camera image 140a-2 after distortion correction and the region 120-4 which is the first detection estimation region are the same region. In the rotation detection unit 37, the region where the image recognition unit 23 or the image recognition unit 42 last detected the pedestrian 131 in the camera image 140a-2 after distortion correction is the same region as the region 120-6 which is the last detection estimated region. It is determined whether or not there is.
  • the rotation detection unit 37 of the installed object detection sensor 2 determines that the rotational deviation amount is equal to or greater than the threshold value. Since the rotation detection unit 37 is a region where the region 120 where the pedestrian 131 is first detected and the first detection estimated region of the pedestrian 131 are different, the direction of the installed object detection sensor 2 or the amount of rotation deviation of the camera image is detected. It determines with it being more than a threshold value.
  • the rotation detection unit 37 is a region in which the region 120 where the pedestrian 131 was last detected and the last detection estimated region of the pedestrian 131 are different, the direction of the installed object detection sensor 2 or the amount of rotation deviation of the camera image is detected. You may determine with it being more than a threshold value.
  • the rotation detection unit 37 may detect the direction of the installed object detection sensor 2 or the amount of rotation deviation of the camera image based on the angle formed by the coordinate axis defined in the camera image and the path of movement of the pedestrian. .
  • the pedestrian 131 may move along the path 6 so that the angle formed by the coordinate axis defined in the camera image and the path 6 of movement of the pedestrian 131 is constant. In this case, the correct data of the angle representing the direction of the path of the moving body (reference direction) is registered in advance.
  • FIG. 14 is a diagram showing a third example of detection of the rotational deviation amount.
  • XY coordinate axes two-dimensional coordinate axes
  • the X axis indicates the reference direction of the path 6 (reference direction of pedestrian movement) when the amount of rotational deviation of the object detection sensor 2 is small.
  • the position where the image recognition unit 23 or the image recognition unit 42 first detected the pedestrian 131 in the camera image 140-2 after distortion correction is the position of the pedestrian 131-5-1.
  • the position where the image recognition unit 23 or the image recognition unit 42 last detected the pedestrian 131 in the camera image 140-2 after distortion correction is the position of the pedestrian 131-5-3.
  • the broken line 200 is a broken line connecting from the position where the pedestrian 131 is first detected to the position where the pedestrian 131 is last detected in the camera image 140-2 after distortion correction. Therefore, the broken line 200 represents the direction of movement of the pedestrian 131 in the camera image 140-2 after distortion correction.
  • the rotation detection unit 37 indicates the direction of the path 6 (reference direction of pedestrian movement) and the direction of the broken line 200 (direction of pedestrian movement) when the amount of rotation deviation of the object detection sensor 2 is small. Since they match, it is determined that the direction of the installed object detection sensor 2 or the amount of rotational deviation of the camera image is small.
  • FIG. 15 is a diagram showing a fourth example of detection of the rotational deviation amount.
  • XY coordinate axes two-dimensional coordinate axes
  • the X-axis indicates the reference direction of the path 6 (reference direction of pedestrian movement) when the amount of rotational deviation of the object detection sensor 2 is small (less than the threshold value).
  • the position where the image recognition unit 23 or the image recognition unit 42 first detects the pedestrian 131 in the camera image 140a-2 after distortion correction is the position of the pedestrian 131-5-1.
  • the position where the image recognition unit 23 or the image recognition unit 42 last detected the pedestrian 131 in the camera image 140a-2 after distortion correction is the position of the pedestrian 131-5-3.
  • the broken line 200 is a broken line connecting the position from which the pedestrian 131 was first detected to the position at which the pedestrian 131 was last detected in the camera image 140a-2 after distortion correction. Therefore, the broken line 200 represents the direction of movement of the pedestrian 131 in the camera image 140a-2 after distortion correction. In FIG. 15, the broken line 200 is inclined ( ⁇ 45 degrees) with respect to the X axis.
  • the rotation detection unit 37 does not match the reference direction (X axis) representing the path 6 in the post-distortion camera image 140a-2 with the direction of the broken line 200 (the direction of movement of the pedestrian 131). Then, it is determined that the orientation of the installed object detection sensor 2 or the rotational deviation amount of the camera image is equal to or greater than the threshold value.
  • the rotation detection unit 37 transmits information representing the orientation of the object detection sensor 2 or the rotation shift amount ( ⁇ 45 degrees) of the camera image to the correction unit 36 and the display control unit 38.
  • the display control unit 38 includes a map 5, a path 6, a position display image 7, a detection order display image 8, presence / absence of rotational deviation, rotational deviation, camera image before distortion correction, camera image after distortion correction, detection information, and these The combination is displayed on the display unit 40.
  • FIG. 16 is a diagram illustrating an example of the display of the map 5 and the list display of the camera images 141 before distortion correction.
  • the display control unit 38 displays the map 5 and the list of pre-distortion camera images 141 on the display unit 40.
  • the display control unit 38 arranges the pre-distortion camera images 141-1 to 141-6 on the screen of the display unit 40 in association with the position of the object detection sensor 2.
  • FIG. 17 is a diagram showing an example of the display of the map 5 and the cyclic display of the camera image 141 before distortion correction.
  • the display control unit 38 selects the pre-distortion camera image 141 from the pre-distortion camera images 141-1 to 141-5 at regular intervals.
  • the display control unit 38 selects the pre-distortion camera image 141-4 and the pre-distortion camera image 141-5.
  • the display control unit 38 cyclically displays the selected pre-distortion camera image 141 while switching the pre-distortion camera image 141 to be selected.
  • FIG. 18 is a diagram showing an example of the display of the map 5 and the selection display of the pre-distortion camera image 141.
  • the display control unit 38 selects the pre-distortion camera image 141 from the pre-distortion camera images 141-1 to 141-5 according to the operation.
  • the display control unit 38 clicks on the operation unit 31 and selects the position display image 7-2, so that the distortion of the object detection sensor 2-2 associated with the position display image 7-2 is displayed.
  • the pre-correction camera image 141-2 is selected.
  • the display control unit 38 enlarges and displays the selected pre-distortion camera image 141-2.
  • FIG. 19 is a diagram illustrating an example of the display of the map 5 and the display of the pre-distortion camera image 141 superimposed on the map 5.
  • the display control unit 38 displays the map 5 and the list of pre-distortion camera images 141 on the display unit 40.
  • the display control unit 38 arranges the pre-distortion camera images 141-1 to 141-6 on the screen of the display unit 40 in association with the position display images 7-1 to 7-6 based on the position of the object detection sensor 2. To do.
  • FIG. 20 is a diagram illustrating a first example of the display of the map 5 and the list display of the camera images 140 after distortion correction superimposed on the map 5.
  • the display control unit 38 displays the map 5 and a list of the camera images 140 after distortion correction on the display unit 40.
  • the display control unit 38 arranges the camera images 140-1 to 140-6 after distortion correction on the screen of the display unit 40 in association with the position display images 7-1 to 7-6 based on the position of the object detection sensor 2. To do.
  • FIG. 21 is a diagram illustrating a second example of the display of the map 5 and the list display of the camera images 140 after distortion correction superimposed on the map 5.
  • the display control unit 38 generates an indoor bird's-eye view by arranging a plurality of post-distortion camera images 140 so as to be adjacent to each other (see Non-Patent Document 2).
  • the display control unit 38 displays the map 5 and the bird's eye view on the display unit 40.
  • FIG. 22 is a diagram showing a third example of the display of the map 5 and the list display of the camera images 140 after distortion correction superimposed on the map 5.
  • the display control unit 38 acquires from the correction unit 36 the post-distortion camera image 140-2 in which the rotational deviation amount of the post-distortion camera image 140a-2 is corrected.
  • the display control unit 38 generates a bird's-eye view of the room by arranging a plurality of post-distortion camera images 140 including the post-distortion camera image 140-2 in which the rotational deviation amount is corrected so as to be adjacent to each other.
  • the display control unit 38 displays the map 5 and the bird's eye view on the display unit 40.
  • the display control unit 38 may execute an operation based on an interactive UI (Interactive User Interface) that is a bidirectional user interface. For example, when the operator clicks on the camera image displayed on the display unit 40 using the operation unit 31, the display control unit 38 sends a signal to the position detection unit 35 to instruct the position detection process to be performed again. To do. When the position detection unit 35 acquires a signal for instructing to redo the position detection process, the position detection unit 35 redoes the position detection process. The position detection unit 35 may redo the position detection process after the pedestrian 130 moves in the room, or may redo the position detection process while the pedestrian 130 is moving in the room.
  • an interactive UI Interactive User Interface
  • the display control unit 38 may always display the diagrams shown in FIGS. 19 to 22 on the display unit 40 or display them on the display unit 40 when the object detection sensor 2 detects the pedestrian 131. May be.
  • the display control unit 38 may display the latest camera image on the display unit 40 before the detection of the pedestrian 131 ends.
  • the display control unit 38 may display the best shot of the camera image on the display unit 40 after the detection of the pedestrian is completed.
  • the display control unit 38 may pop-up the camera image on the display unit 40 at the timing when the detection of the pedestrian is started.
  • the display control unit 38 may correct distortion of the camera image before distortion correction.
  • the display control unit 38 may correct the rotational deviation amount of the camera image after distortion correction based on the rotational deviation amount.
  • the storage unit 39 is configured using a storage device having a nonvolatile storage medium (non-temporary recording medium) such as a magnetic hard disk device or a semiconductor storage device.
  • the storage unit 39 stores specific information, detection information, a position detection program, and position detection result information.
  • the display unit 40 is a display device such as a liquid crystal display.
  • the display unit 40 includes a map 5, a path 6, a position display image 7, a detection order display image 8, presence / absence of rotational deviation, rotational deviation, camera image before distortion correction, camera image after distortion correction, detection information, and combinations thereof. Is displayed.
  • the display unit 40 may correct distortion of the camera image before distortion correction.
  • the display unit 40 may correct the rotational deviation amount of the camera image after distortion correction based on the rotational deviation amount.
  • the bus 41 is a transmission path for transmitting data between each part of the position detection device 3.
  • the image recognition unit 23 executes image processing such as image recognition performed by the image recognition unit 23 of the object detection sensor 2 instead of the object detection sensor 2.
  • FIG. 23 is a flowchart illustrating an example of an operation for detecting the position of the object detection sensor 2.
  • the communication unit 30 acquires identification information of the object detection sensor 2 from the plurality of object detection sensors 2 that have detected a pedestrian (step S101).
  • the position detection unit 35 associates the identification information of the object detection sensor 2 with the position of the object detection sensor 2 based on the result of detecting a pedestrian that has moved along the route 6 (step S102).
  • FIG. 24 is a flowchart showing an example of an operation of detecting the rotational deviation amount of the object detection sensor 2.
  • the communication part 30 acquires the camera image based on the result of having detected the pedestrian who moved along the path
  • the rotation detector 37 detects the amount of rotational deviation of the object detection sensor 2 based on the position at which the pedestrian is first detected in the camera image and the position at which the pedestrian is last detected in the camera image (step S202).
  • the position detection device 3 includes the registration unit 33, the communication unit 30, and the position detection unit 35.
  • the plurality of object detection sensors 2 are installed at a plurality of positions.
  • the registration unit 33 registers the route 6 in the storage unit 39.
  • the communication unit 30 acquires detection information representing a result of detection by the plurality of object detection sensors 2 of a pedestrian moving along the registered route 6 and identification information of the object detection sensor 2.
  • the position detection unit 35 associates the identification information of the object detection sensor 2 with the position of the object detection sensor 2 based on the result of the pedestrian passing through the detection ranges of the plurality of object detection sensors 2 and the detection information. The position of the object detection sensor 2 is detected.
  • the position detection unit 35 determines the identification information of the object detection sensor 2 and the position of the object detection sensor 2 based on the result of the pedestrian passing through the detection ranges of the plurality of object detection sensors 2 and the detection information. Associate. Thereby, the position detection device 3 of the embodiment can detect the positions of the plurality of object detection sensors 2 for each object detection sensor 2.
  • the position detection unit 35 of the embodiment is configured so that the order in which the plurality of object detection sensors 2 detect a pedestrian and the order in which the pedestrian passes through the detection range of the plurality of object detection sensors 2 are equal.
  • the identification information may be associated with the position of the object detection sensor 2.
  • the position detection unit 35 of the embodiment identifies the object detection sensor 2 so that the time when the plurality of object detection sensors detect the pedestrian and the time when the pedestrian passes the detection range of the plurality of object detection sensors are equal. Information and the position of the object detection sensor 2 may be associated with each other.
  • the position detection device 3 includes the registration unit 33 and the rotation detection unit 37.
  • the registration unit 33 registers correct data and the route 6 regarding the route 6 of the moving pedestrian in the storage unit 39.
  • the rotation detection unit 37 detects the pedestrian that has moved along the registered route 6 and detects the result of detection by the plurality of object detection sensors 2 and the comparison result between the correct data and the predetermined direction. The amount of rotational deviation of the object detection sensor 2 is detected.
  • the rotation detection unit 37 is determined in advance based on the comparison result between the detection information representing the result of detection by the plurality of object detection sensors 2 of the pedestrian moving along the registered route 6 and the correct answer data. The amount of rotational deviation of the object detection sensor 2 with respect to the specified direction is detected. Thereby, the position detection device 3 according to the embodiment can detect the rotational deviation amounts of the plurality of object detection sensors 2 for each object detection sensor 2.
  • the rotation detection unit 37 compares the area 120 on the camera image where the object detection sensor 2 first detects a pedestrian, the area 120 where the object detection sensor 2 detects the pedestrian last, and the correct data. Based on the result, the rotational deviation amount of the object detection sensor 2 may be detected.
  • the accuracy of the position of the moving object such as a pedestrian in the image can be any accuracy such as a pixel, an area, or a three-dimensional coordinate. Good.
  • the rotation detection unit 37 according to the embodiment is based on the comparison result between the direction of movement of the pedestrian on the camera image and correct data indicating the direction of the path 6 (reference direction) on the camera image. The angle of the rotational deviation may be detected.
  • the identification information of the object detection sensor and the position of the object detection sensor are associated with each other based on the result of detection by the plurality of object detection sensors of the pedestrian moving along the predetermined route.
  • the positions of a plurality of object detection sensors can be detected for each object detection sensor.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

実施形態の位置検出装置は、登録部と、通信部と、位置検出部とを持つ。物体を検知する複数の物体検知センサは、複数の位置に設置されている。登録部は、経路を登録する。通信部は、登録された経路に沿って移動した物体を複数の物体検知センサが検知した結果を表す検知情報と物体検知センサの識別情報とを取得する。位置検出部は、物体が複数の物体検知センサの検知範囲を通過した結果と検知情報とに基づいて、物体検知センサの識別情報と物体検知センサの位置とを対応付けることによって、物体検知センサの位置を検出する。

Description

位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム
 本発明の実施形態は、位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラムに関する。
 ビル建設等の現場において、作業者は、室内の天井に設置された複数の物体検知センサの位置を、物体検知センサごとに目視で確認する場合がある。しかしながら、作業員は、複数の物体検知センサの位置を物体検知センサごとにマップに記録する場合、実際に設置された位置とは異なる位置をマップに間違えて記録してしまう可能性がある。このように、従来では、室内の天井に設置された複数の物体検知センサの位置を、物体検知センサごとに検出することができない場合があった。
特許第5336100号公報 特開2013-4312号公報 特許第5872306号公報
「屋内外位置測位サービス」,[online] ,[2016年8月1日検索],<URL: http://sol.panasonic.biz/cloud-service/positioning/> 「複数の監視カメラ映像を統合し俯瞰化!三菱電機が新技術を公開」,[online] ,[2016年8月1日検索],<URL: http://www.rbbtoday.com/article/2016/03/10/140420.html>
 本発明が解決しようとする課題は、複数の物体検知センサの位置を物体検知センサごとに検出することができる位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラムを提供することである。
 実施形態の位置検出装置は、登録部と、通信部と、位置検出部とを持つ。物体を検知する複数の物体検知センサは、複数の位置に設置されている。登録部は、経路を登録する。
取得部は、登録された経路に沿って移動した物体を複数の物体検知センサが検知した結果を表す検知情報と物体検知センサの識別情報とを取得する。位置検出部は、物体が複数の物体検知センサの検知範囲を通過した結果と検知情報とに基づいて、物体検知センサの識別情報と物体検知センサの位置とを対応付けることによって、物体検知センサの位置を検出する。
実施形態の位置検出システムの構成の例を示す図。 実施形態のマスク領域の例を示す図。 実施形態のカメラ画像に定められた複数の分割領域の例を示す図。 実施形態のマップの例を示す図。 実施形態の経路の登録の例を示す図。 実施形態の歩行者を物体検知センサ等が検知した順の例を示す図。 実施形態のヘルメットを身に着けた歩行者の検知順の例を示す図。 実施形態の物体検知センサの位置検出結果情報の第1例を示す図。 実施形態の物体検知センサの位置検出結果情報の第2例を示す図。 実施形態の回転ずれ量が少ない歪補正後カメラ画像における歩行者の移動の経路の例を示す図。 実施形態の回転ずれ量の検出の第1例を示す図。 実施形態の回転ずれ量が閾値以上である歪補正後カメラ画像における歩行者の移動の経路の例を示す図。 実施形態の回転ずれ量の検出の第2例を示す図。 実施形態の回転ずれ量の検出の第3例を示す図。 実施形態の回転ずれ量の検出の第4例を示す図。 実施形態のマップの表示と歪補正前カメラ画像の一覧表示との例を示す図。 実施形態のマップの表示と歪補正前カメラ画像の巡回表示との例を示す図。 実施形態のマップの表示と歪補正前カメラ画像の選択表示との例を示す図。 実施形態のマップの表示とマップに重畳した歪補正前カメラ画像の表示との例を示す図。 実施形態のマップの表示とマップに重畳した歪補正後カメラ画像の一覧表示との第1例を示す図。 実施形態のマップの表示とマップに重畳した歪補正後カメラ画像の一覧表示との第2例を示す図。 実施形態のマップの表示とマップに重畳した歪補正後カメラ画像の一覧表示との第3例を示す図。 実施形態の物体検知センサの位置を検出する動作の例を示すフローチャート。 実施形態の物体検知センサの回転ずれ量を検出する動作の例を示すフローチャート。
 以下、実施形態の位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラムを、図面を参照して説明する。
 図1は、位置検出システム1の構成の例を示す図である。位置検出システム1は、室内の天井に設置された複数の物体検知センサ2の位置を検出するシステムである。位置検出システム1は、設置されるべき向きに対して物体検知センサ2が回転してずれている量(以下「回転ずれ量」という。)を検出するシステム(回転ずれ量検出システム)でもよい。位置検出システム1は、物体検知センサ2-1~2-N(Nは2以上の整数。以下、Nは一例として6である。)と、位置検出装置3と、通信回線4とを備える。なお、物体検知センサ2と位置検出装置3とは、一体でもよい。
 物体検知センサ2は、センシングシステムのセンサとして物体を検知する。物体検知センサ2は、例えば、画像センサ、サーモパイルセンサ等の赤外線センサ、超音波センサである。以下、物体検知センサ2は、一例として、画像センサである。物体検知センサ2-1~2-Nは、例えば、室内の天井に設置される。物体検知センサ2は、天井から俯瞰して室内を撮像する。
 位置検出装置3は、ノート型やデスクトップ型のパーソナルコンピュータ、タブレット端末、スマートフォン端末等の情報処理装置である。位置検出装置3は、ビルエネルギー管理システム(BEMS: Building Energy Management System)等のサーバ装置でもよい。
 位置検出装置3は、登録された経路を移動した物体(移動体)の位置を物体検知センサ2が検出した結果に基づいて、室内の天井に設置された複数の物体検知センサ2の位置を検出(推定)する。例えば、位置検出装置3は、物体検知センサ2が天井から俯瞰して撮像したカメラ画像における移動体の画像に基づいて、室内の天井に設置された複数の物体検知センサ2の位置を検出する。
 位置検出装置3は、登録された経路を移動した物体の位置を物体検知センサ2が検出した結果に基づいて、室内の天井に設置された複数の物体検知センサ2の回転ずれ量を検出(推定)する装置(回転ずれ量検出装置)でもよい。例えば、位置検出装置3は、カメラ画像における移動体の経路と、経路に関する正解データ(正解値)との比較結果に基づいて、室内の天井に設置された物体検知センサ2の回転ずれ量(回転角度)を検出してもよい。経路に関する正解データとは、設置されるべき向きに物体検知センサ2が設置された場合に物体検知センサ2が出力するカメラ画像における、移動体の経路(基準経路)を表すデータである。移動体の経路を表すデータは、例えば、移動体の経路を表す線、移動体の経路の方向(基準方向)を表す角度、移動体を最初に検知するカメラ画像上の位置(領域)、移動体を最後に検知するカメラ画像上の位置(領域)等によって表現される。なお、位置検出装置3は、物体検知センサ2が撮像したカメラ画像に生じた回転ずれ量を補正してもよい。
 通信回線4は、有線又は無線の通信回線である。通信回線4のネットワークトポロジーは、例えば、スター型、リング型である。
 次に、物体検知センサ2の構成を説明する。
 物体検知センサ2は、カメラ部20と、操作部21と、記憶部22と、画像認識部23と、ID設定部24と、通信部25と、バス26とを備える。
 画像認識部23とID設定部24と通信部25とのうち一部又は全部は、例えば、CPU(Central Processing Unit)等のプロセッサが、記憶部22に記憶されたプログラムを実行することにより機能するソフトウェアにより実現される。また、これらの機能部のうち一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアにより実現されてもよい。
 カメラ部20は、天井において設置されている位置から、魚眼レンズを介して室内を撮像する。カメラ部20は、室内を撮像したカメラ画像を、画像認識部23に送信する。カメラ部20は、天井において設置されている位置から、室内を移動している移動体を撮像する。移動体は、例えば、歩行している作業者(以下、「歩行者」という。)、作業用の車両、移動可能な作業ロボットである。以下、移動体は歩行者であるとして説明を続ける。
 操作部21は、DIPスイッチ(Dual In-line Package switch)、操作キー又はタッチパネル等の操作デバイスである。操作部21は、作業者等による操作を受け付ける。作業者等による操作は、例えば、撮像等に使用するパラメータ情報を設定する操作、電源操作を受け付ける。
 記憶部22は、磁気ハードディスク装置や半導体記憶装置等の不揮発性の記憶媒体(非一時的な記録媒体)を有する記憶装置を用いて構成される。半導体記憶装置は、例えば、フラッシュメモリである。記憶部22は、例えば、撮像等に使用するパラメータ情報、自センサの識別情報(ID)を記憶する。記憶部22は、室内における人物の画像の明度、室内における人物の在不在、人数、混雑度及び活動量等の検知情報を記憶してもよい。記憶部22は、複数のカメラ画像を撮像の時刻に対応付けて記憶(録画)してもよい。
 記憶部22は、例えば、検知の対象として指定された歩行者をカメラ画像において検知したか否かを画像認識によって特定するための情報(以下「特定情報」という。)を記憶する。特定情報は、作業員等によって予め定められる。
 特定情報は、例えば、歩行者が身に着けているヘルメットや作業服等の色や模様の情報である。ヘルメットや作業服等の色や模様の情報は、ヘルメットや作業服等の製品情報に基づく情報でもよい。位置検出装置3の通信部等は、指定されたヘルメットや作業服等の型番に基づいて、インターネットを介して製品ホームページから製品情報を検索してもよい。特定情報は、歩行者の背格好や歩容等の個人認証情報でもよい。特定情報は、歩行者が保持している携帯端末の無線通信情報でもよい。特定情報は、教師画像でもよい。例えば、特定情報は、物体検知センサ2が事前に撮像したカメラ画像における人物の画像情報でもよい。特定情報は、歩行者が手を振る等のジェスチャ情報でもよい。特定情報は、歩行者が移動する室内の特定領域を表す情報でもよい。特定情報は、歩行者が身に着けているプレート等のマーカに記載された文字列等を表す情報でもよい。
 画像認識部23は、カメラ画像に対して画像処理を施す。例えば、画像認識部23は、累積差分等の輝度変化やCoHOG(Co-occurrence Histograms of Oriented Gradients)の輝度分布等の特徴量を、カメラ画像から抽出する。
 画像認識部23は、記憶部22から、特定情報を取得する。画像認識部23は、位置検出装置3から通信部25を介して、特定情報を取得してもよい。画像認識部23は、カメラ画像に対して画像処理を施した結果と特定情報とに基づいて、指定された歩行者をカメラ画像において検知したか否かを特定する。例えば、画像認識部23は、ニューラルネットワーク、サポートベクターマシン(SVM: Support Vector Machine)、k近傍識別器、ベイズ分類等による特徴量の処理結果と特定情報とに基づいて、指定された歩行者をカメラ画像において検知したか否かを特定する。
 ビル建設等の現場では、同じ室内で複数の作業者が作業する場合がある。このため、画像認識部23は、複数の歩行者が認識されたカメラ画像において、検知の対象となる歩行者を識別する必要がある。画像認識部23は、複数の歩行者が認識されたカメラ画像において、検知の対象となる歩行者と、検知の対象とならない他の歩行者とを、位置検出装置3から指定された特定情報に基づいて識別する。
 画像認識部23は、検知の対象となる歩行者について、室内における人物の画像の明度、室内における人物の在不在、人数、混雑度及び活動量等の検知情報を生成する。画像認識部23は、検知の対象となる歩行者の移動の経路を、検知情報に基づいて決定する。画像認識部23は、例えば、背景差分処理、フレーム間差分処理、オプティカルフロー処理、テンプレートマッチング処理によって、検知の対象となる歩行者の移動の経路を決定する。なお、画像認識部23は、歩行者の識別情報を検知情報に付加してもよい。
 以下、物体検知センサ2の位置を位置検出装置3が検出する動作モード(調整モード)を、「位置検出モード」という。以下、物体検知センサ2の回転ずれ量を位置検出装置3が検出する動作モード(調整モード)を、「回転量検出モード」という。以下、位置検出モード及び回転量検出モード以外の位置検出装置3の動作モード(物体検知センサ2が画像センサとして運用されている動作モード)を、「運用モード」という。
 画像認識部23は、操作部21又は記憶部22から、撮像等に使用するパラメータ情報を取得する。画像認識部23は、位置検出装置3から通信部25を介して、撮像等に使用するパラメータ情報を取得してもよい。
 図2は、マスク領域100の例を示す図である。撮像等に使用するパラメータ情報は、例えば、物体検知センサ2のカメラ部20がカメラ画像の一部領域をマスキングするためのマスク領域情報である。画像認識部23又は位置検出装置3は、位置検出装置3が位置検出モードで動作する場合、パラメータ情報に基づいてマスク領域100の面積を増加させ、カメラ画像領域110の面積を減少させることによって、物体検知センサ2の真下のみを歩行者の検知範囲にしてもよい。
 図3は、カメラ画像に定められた複数の領域120の例を示す図である。撮像等に使用するパラメータ情報は、例えば、カメラ画像を分割する複数の領域の情報である。画像認識部23又は位置検出装置3は、領域120に施す画像処理を、パラメータ情報に基づいて領域120ごとに異ならせてもよい。図3では、カメラ画像は、一例として、領域120-1~120-9に分割されている。
 図1に戻り、物体検知センサ2の構成の説明を続ける。ID設定部24は、自センサの識別情報を記憶部22に記録する。自センサの識別情報は、例えば、MACアドレス(Media Access Control address)、IPアドレス(Internet Protocol address)である。
ID設定部24は、操作部21を介して取得された識別情報を、自センサの識別情報として記憶部22に記録してもよい。ID設定部24は、DHCP(Dynamic Host Configuration Protocol)等によって自動設定された識別情報を、自センサの識別情報として記憶部22に記録してもよい。ID設定部24は、例えば、自センサの出荷時や、自センサが天井に設置された後に、自センサの識別情報を記憶部22に記録する。
 通信部25は、取得部及び送信部として、Ethernet(登録商標)、ビル用、無線用、機器制御用等の通信プロトコルに基づいて、通信回線4を介して位置検出装置3と通信する。通信部25は、他の物体検知センサ2と通信してもよい。通信データは、例えば、自センサの識別情報、歩行者を物体検知センサ2が検知した結果に基づく検知情報、歩行者を物体検知センサ2が検知した結果に基づく静止画又は動画のカメラ画像である。通信部25の通信プロトコルは、例えば、汎用プロトコル、産業用プロトコル、独自プロトコルである。通信部25は、物体検知センサ2を制御する装置であるリモートコントローラと通信してもよい。
 バス26は、物体検知センサ2の各部の間でデータを伝送する伝送路である。
 次に、位置検出装置3の構成を説明する。
 位置検出装置3は、通信部30と、操作部31と、マップ設定部32と、登録部33と、指示部34と、位置検出部35と、補正部36と、回転検出部37と、表示制御部38と、記憶部39と、表示部40と、バス41とを備える。なお、位置検出装置3は、画像認識部42をさらに備えてもよい。
 通信部30とマップ設定部32と登録部33と指示部34と位置検出部35と補正部36と回転検出部37と表示制御部38と画像認識部42とのうち一部又は全部は、例えば、CPU等のプロセッサが、記憶部39に記憶されたプログラムを実行することにより機能するソフトウェアにより実現される。また、これらの機能部のうち一部又は全部は、LSIやASIC等のハードウェアにより実現されてもよい。
 通信部30は、Ethernet(登録商標)、ビル用、無線用、機器制御用等の通信プロトコルに基づいて、通信回線4を介して物体検知センサ2-1~2-Nと通信する。通信データは、例えば、物体検知センサ2の識別情報、歩行者を物体検知センサ2が検知した結果に基づく検知情報、歩行者を物体検知センサ2が検知した結果に基づく静止画又は動画のカメラ画像である。通信部30の通信プロトコルは、例えば、汎用プロトコル、産業用プロトコル、独自プロトコルである。通信部30は、リモートコントローラと通信してもよい。
 操作部31は、DIPスイッチ、操作キー、キーボード、マウス又はタッチパネル等の操作デバイスである。操作部31は、作業者等による操作を受け付ける。操作部31は、例えば、歩行者の移動の経路データを登録する操作、正解データを登録する操作、撮像等に使用するパラメータ情報を設定する操作、電源操作を受け付ける。
 マップ設定部32は、室内における柱の配置や区画情報等を表すマップ(平面図)を取得する。マップは、天井に設置された物体検知センサ2の位置を表す画像(天伏図)をさらに含んでもよい。マップは、写真や線図等の画像データで表される。
 図4は、マップ5の例を示す図である。位置表示画像7-n(nは、1以上N以下の整数)は、物体検知センサ2-nの位置を表す画像である。マップ設定部32は、マップ5における物体検知センサ2-nの位置に、位置表示画像7-nを重畳する。マップ5において位置表示画像7が重畳される位置は、例えば、表示部40に表示されたマップ5を見ている作業員が操作部31を操作することによって定められる。マップ設定部32は、マップ5に位置表示画像7を重畳する場合、マップ5における設置間隔情報に基づく位置に、位置表示画像7を重畳してもよい。
 なお、この時点では、位置検出装置3は、各位置表示画像7が示す位置に物体検知センサ2-nのいずれが設置されているのかをまだ推定していない。
 物体検知センサ2の位置は、座標や区画情報で表現される。図2では、物体検知センサ2-1の位置(位置表示画像7-1が重畳された位置)は、P1(「A」ベイ(bay),第1柱)である。物体検知センサ2-2の位置(位置表示画像7-2が重畳された位置)は、P2(「A」ベイ,第2柱)である。物体検知センサ2-6の位置(位置表示画像7-6が重畳された位置)は、P6(「B」ベイ,第3柱)である。なお、物体検知センサ2の位置は、室内を移動している歩行者が物体検知センサ2に検知される時刻等の時刻情報に対応付けられてもよい。
 図1に戻り、位置検出装置3の構成の説明を続ける。登録部33は、マップ5における歩行者の移動の経路データ(線画像データ)を、操作部31を介した操作に応じてマップ5に含める。登録部33は、歩行者の移動の経路データを含むマップ5を、記憶部39に登録する。
 図5は、経路6の登録の例を示す図である。作業員は、表示部40に表示されたマップ5を見ながら、マウス等の操作部31を操作することによって、歩行者の移動の経路6をマップ5に描く。経路6は始点及び終点を有する。経路6は、一筆書きで描かれていなくもよい。作業員は、経路6の本数が複数である場合、操作部31を操作することによって、物体検知センサ2の位置検出に使用する経路6を選択してもよい。
 作業員は、歩行者が室内を移動する前に、室内において歩行者が移動することが予定されている経路をマップ5に表すように、経路6をマップ5に描く。歩行者は、歩行者が室内を移動する前にマップ5に描かれた経路6に沿うように室内を移動する。
 歩行者は、室内を移動する際に、無線通信する携帯端末を保持してもよい。歩行者に保持されている携帯端末は、歩行者が室内を移動した経路を、位置推定技術を用いて推定してもよい(非特許文献1参照)。携帯端末は、歩行者が室内を移動した経路を表すデータ(位置推定結果)を、通信部30を介して登録部33に送信してもよい。
 登録部33は、歩行者が室内を移動する前にマップ5に描かれた経路6に対する、通信部30が携帯端末から取得した位置推定結果に基づく経路の偏差を検出してもよい。登録部33は、検出された偏差に基づいて、通信部30を介して携帯端末に移動経路情報を送信してもよい。歩行者に保持されている携帯端末は、移動経路情報を表示する。これによって、登録部33は、マップ5に事前に描かれた経路6を室内において歩行者が移動することができるように、経路6を表す移動経路情報を歩行者に案内することができる。
 作業員は、歩行者が室内を移動した後に、室内において歩行者が移動した経路をなぞるように、経路6をマップ5に描いてもよい。登録部33は、歩行者が室内を移動した後に、歩行者に保持されていた携帯端末から通信部30が取得した位置推定結果に基づいて、経路6をマップ5に描いてもよい。
 登録部33は、物体検知センサ2-1~2-6がどのような順で歩行者を検知するのかを、各物体検知センサ2の検知範囲と、各物体検知センサ2の位置及び経路6の距離と基づいて予測してもよい。図5では、登録部33は、各物体検知センサ2の検知範囲を歩行者が通過した順(物体検知センサ2-6、2-5、2-4、2-1、2-2、2-3の順)に各物体検知センサ2が歩行者を検知すると予測する。
 登録部33は、経路6に応じて物体検知センサ2の位置に定められた歩行者の通過時刻に基づいて、歩行者が物体検知センサ2の検知範囲を通過した時刻(通過時刻)を予測してもよい。図5では、歩行者が物体検知センサ2-6の検知範囲を通過した時刻は、例えば、通過時刻t1と等しい。歩行者が物体検知センサ2-3の検知範囲を通過した時刻は、例えば、通過時刻t6と等しい。
 登録部33は、カメラ画像について、物体検知センサ2の回転ずれ量が少ない場合にカメラ画像において歩行者を最初に検知する位置を、経路6に対する物体検知センサ2の相対的な向きに基づいて推定する。以下、カメラ画像において歩行者を最初に検知する位置であると推定された位置を「最初検知推定位置」という。登録部33は、歩行者の最初検知推定位置を表す情報を、正解データの一つとして記憶部39に記録する。
 登録部33は、カメラ画像について、物体検知センサ2の回転ずれ量が少ない場合にカメラ画像において歩行者を最後に検知する位置を、経路6に対する物体検知センサ2の相対的な向きに基づいて推定する。以下、カメラ画像において歩行者を最後に検知する位置であると推定された位置を「最後検知推定位置」という。登録部33は、歩行者の最後検知推定位置を表す情報を、正解データの一つとして記憶部39に記録する。
 登録部33は、複数の領域120が定められたカメラ画像について、物体検知センサ2の回転ずれ量が少ない場合にカメラ画像において歩行者を最初に検知する領域120を、経路6に対する物体検知センサ2の相対的な向きに基づいて推定する。以下、カメラ画像において歩行者を最初に検知する領域であると推定された領域を「最初検知推定領域」という。登録部33は、歩行者の最初検知推定領域を表す情報を、正解データの一つとして記憶部39に記録する。
 登録部33は、複数の領域120が定められたカメラ画像について、物体検知センサ2の回転ずれ量が少ない場合にカメラ画像において歩行者を最後に検知する領域120を、経路6に対する物体検知センサ2の相対的な向きに基づいて推定する。以下、カメラ画像において歩行者を最後に検知する領域であると推定された領域を「最後検知推定領域」という。登録部33は、歩行者の最後検知推定領域を表す情報を、正解データの一つとして記憶部39に記録する。
 図1に戻り、位置検出装置3の構成の説明を続ける。指示部34は、物体検知センサ2の位置を位置検出部35が検出する場合と検出しない場合とで歩行者の検知に用いるパラメータを変更する指示を、通信部30を介して物体検知センサ2に送信する。すなわち、指示部34は、位置検出モードと運用モードとで異なるパラメータ情報を、通信部30を介して物体検知センサ2に送信する。指示部34は、動作モード情報及びパラメータ情報の少なくとも一方を、通信部30を介して物体検知センサ2に送信する。動作モード情報及びパラメータ情報は、操作部31を介して指示された情報でもよいし、予め準備された情報でもよい。指示部34は、予め準備された動作モード及びパラメータのうちから、所定の条件に基づいて動作モード及びパラメータを選択してもよい。指示部34は、選択した動作モード及びパラメータを物体検知センサに指示する。指示部34は、物体検知センサ2のセンシング機能を切り替えるための情報を含む動作モード情報を、物体検知センサ2に送信してもよい。センシング機能とは、例えば、カメラ画像における歩行者の位置の検知精度を画素単位とするか領域単位とするかという検知精度の切り替え機能である。
 例えば、指示部34は、位置検出装置3が位置検出モードで動作する場合、位置検出装置3が運用モードで動作する場合と比較してマスク領域100の面積を増加させるパラメータ情報を、通信部30を介して物体検知センサ2に送信してもよい。例えば、指示部34は、位置検出装置3が位置検出モードで動作する場合、カメラ画像に複数の領域120(カメラ画像を分割する領域)を定めるパラメータ情報を、通信部30を介して物体検知センサ2に送信してもよい。
 指示部34は、物体検知センサ2の回転ずれ量を回転検出部37が検出する場合と検出しない場合とで、歩行者の検知に用いるパラメータを変更する指示を、通信部30を介して物体検知センサ2に送信してもよい。すなわち、指示部34は、回転量検出モードと運用モードとで異なるパラメータ情報を、通信部30を介して物体検知センサ2に送信する。
 指示部34は、特定情報を操作部31又は記憶部39から取得する。指示部34は、通信部30を介して、特定情報を物体検知センサ2に送信する。指示部34は、バス41を介して、特定情報を位置検出部35に送信してもよい。指示部34は、操作部31を介した操作に基づいて複数の特定情報から選択した特定情報を、物体検知センサ2及び位置検出部35に送信してもよい。
 図1に戻り、位置検出装置3の構成の説明を続ける。位置検出部35は、物体検知センサ2の位置情報と物体検知センサ2の識別情報とを対応付ける(紐付ける)ことによって、物体検知センサ2の位置を物体検知センサ2ごとに検出する。
 図6は、歩行者130(移動体)を物体検知センサ2等が検知した順の例を示す図である。図6に例示する画像は、複数の物体検知センサ2が送信したカメラ画像に基づく画像である。図6に例示する画像は、表示部40に表示される。
 歩行者130は、位置検出装置3が位置検出モードで動作する場合、経路6に沿って室内を移動する。図6では、歩行者の位置は、図5に示す経路6に沿って、時系列で歩行者130-1~130-6の順に変化する。
 検知順表示画像8は、歩行者130の検知順「1番~6番のいずれか」を表す画像である。例えば、検知順表示画像8-1は、物体検知センサ2-6が時刻t1における歩行者130-1を検知したことに基づいて、歩行者130の検知順「1番」を表す。例えば、検知順表示画像8-3は、物体検知センサ2-3が時刻t1よりも後の時刻t6における歩行者130-6を検知したことに基づいて、歩行者130の検知順「6番」を表す。
 図7は、ヘルメットを身に着けた歩行者131(移動体)の検知順の例を示す図である。図7に例示する画像は、複数の物体検知センサ2が送信したカメラ画像に基づく画像である。図7に例示する画像は、表示部40に表示される。
 歩行者131は、位置検出装置3が位置検出モードで動作する場合、図5に示す経路6に沿って室内を移動する。図7では、歩行者の位置は、図5に示す経路6に沿って、時系列で歩行者131-1~131-6の順に変化する。位置検出部35は、歩行者131が身に着けているヘルメットの色や模様等に基づいて、歩行者131と他の歩行者とを識別することができる。
 検知順表示画像8は、歩行者131の検知順「1番~6番のいずれか」を表す画像である。例えば、検知順表示画像8-1は、物体検知センサ2-6が時刻t1における歩行者131-1を検知したことに基づいて、歩行者131の検知順「1番」を表す。例えば、検知順表示画像8-3は、物体検知センサ2-3が時刻t1よりも後の時刻t6における歩行者131-6を検知したことに基づいて、歩行者131の検知順「6番」を表す。
 位置検出部35(リンク部)は、物体検知センサ2が歩行者131を検知した順と歩行者131が物体検知センサ2の検知範囲を通過した順との対応関係に基づいて、物体検知センサ2の位置を物体検知センサ2ごとに検出する。
 図8は、物体検知センサ2の位置検出結果情報の第1例を示す図である。図8では、歩行者の検知順と、物体検知センサ2の識別情報と、歩行者が物体検知センサ2の検知範囲を通過した順(歩行者の通過順)と、物体検知センサ2の位置とが対応付けられる。
 位置検出部35は、歩行者131を検知した物体検知センサ2の識別情報を、歩行者131の検知順に対応付けて、位置検出結果情報に登録する。例えば、位置検出部35は、歩行者131を1番目に検知した物体検知センサ2の識別情報「2-6」を、歩行者131の検知順「1番」に対応付けて、位置検出結果情報に登録する。例えば、位置検出部35は、歩行者131を6番目に検知した物体検知センサ2の識別情報「2-3」を、歩行者131の検知順「6番」に対応付けて、位置検出結果情報に登録する。
 位置検出部35は、歩行者131が物体検知センサ2の検知範囲を通過した順(通過順)に対応付けて、物体検知センサ2の位置情報を、操作部31又は登録部33から取得する。位置検出部35は、歩行者131の検知順と歩行者131の通過順とが等しくなるように、物体検知センサ2の識別情報と物体検知センサ2の位置情報とを対応付ける。
 例えば、位置検出部35は、歩行者の通過順「1番」に対応付けられた物体検知センサ2の識別情報「2-6」と、歩行者の検知順「1番」に対応付けられた物体検知センサ2-6の位置「P6」とを対応付ける。例えば、位置検出部35は、歩行者の通過順「6番」に対応付けられた物体検知センサ2の識別情報「2-3」と、歩行者の検知順「6番」に対応付けられた物体検知センサ2-3の位置「P3」とを対応付ける。
 これにより、位置検出部35は、物体検知センサ2の位置を物体検知センサ2ごとに検出することができる。例えば、位置検出部35は、識別情報「2-6」が割り当てられている物体検知センサ2-6が室内における位置「P6」に設置されていることを、検出することができる。例えば、位置検出部35は、識別情報「2-3」が割り当てられている物体検知センサ2-3が室内における位置「P3」に設置されていることを、検出することができる。
 位置検出部35(リンク部)は、物体検知センサ2が歩行者131を検知した時刻と歩行者131が物体検知センサ2の検知範囲を通過した時刻との対応関係に基づいて、物体検知センサ2の位置を物体検知センサ2ごとに検出してもよい。
 図9は、物体検知センサ2の位置検出結果情報の第2例を示す図である。図9では、歩行者の検知時刻と、物体検知センサ2の識別情報と、歩行者が物体検知センサ2の検知範囲を通過した時刻(歩行者の通過時刻)と、物体検知センサ2の位置とが対応付けられる。歩行者の通過時刻は、経路6に定められる。
 位置検出部35は、歩行者131を検知した物体検知センサ2の識別情報を、歩行者131の検知時刻に対応付けて、位置検出結果情報に登録する。例えば、位置検出部35は、歩行者131を時刻t1に検知した物体検知センサ2の識別情報「2-6」を、歩行者131の検知時刻「t1」に対応付けて、位置検出結果情報に登録する。例えば、位置検出部35は、歩行者131を時刻t6に検知した物体検知センサ2の識別情報「2-3」を、歩行者131の検知時刻「t6」に対応付けて、位置検出結果情報に登録する。
 位置検出部35は、歩行者131が物体検知センサ2の検知範囲を通過した時刻(通過時刻)に対応付けて、物体検知センサ2の位置情報を、操作部31又は登録部33から取得する。位置検出部35は、歩行者131の検知時刻と歩行者131の通過時刻とが等しくなるように、物体検知センサ2の識別情報と物体検知センサ2の位置情報とを対応付ける。
 例えば、位置検出部35は、歩行者の通過時刻「t1」に対応付けられた物体検知センサ2の識別情報「2-6」と、歩行者の検知時刻「t1」に対応付けられた物体検知センサ2-6の位置「P6」とを対応付ける。例えば、位置検出部35は、歩行者の通過時刻「t6」に対応付けられた物体検知センサ2の識別情報「2-3」と、歩行者の検知時刻「t6」に対応付けられた物体検知センサ2-3の位置「P3」とを対応付ける。
 これにより、位置検出部35は、物体検知センサ2の位置を物体検知センサ2ごとに検出することができる。例えば、位置検出部35は、識別情報「2-6」が割り当てられている物体検知センサ2-6が室内における位置「P6」に設置されていることを、検出することができる。例えば、位置検出部35は、識別情報「2-3」が割り当てられている物体検知センサ2-3が室内における位置「P3」に設置されていることを、検出することができる。
 図1に戻り、位置検出装置3の構成の説明を続ける。補正部36は、物体検知センサ2のカメラ部20の魚眼レンズによるカメラ画像(以下、「歪補正前カメラ画像」という。
)の歪みを補正する。補正部36は、歪みを補正した後のカメラ画像(以下、「歪補正後カメラ画像」という。)を、回転検出部37及び表示制御部38に送信する。
 物体検知センサ2が天井に設置された際、基準に対して物体検知センサ2の向きに回転ずれ量が生じる場合がある。補正部36は、物体検知センサ2の向き又はカメラ画像の回転ずれ量を表す情報を、物体検知センサ2ごとに回転検出部37から取得する。補正部36は、回転ずれ量に基づいて、歪補正後カメラ画像の回転ずれ量を補正する。補正部36は、回転ずれ量が補正された歪補正後カメラ画像を、表示制御部38に送信する。
 回転検出部37は、カメラ画像を取得する。回転検出部37は、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量を、カメラ画像と正解データとの比較結果に基づいて検出する。回転検出部37は、物体検知センサ2の向き又はカメラ画像の回転ずれ量を表す情報を、補正部36及び表示制御部38に送信する。
 回転検出部37は、設置された物体検知センサ2の回転ずれ量を表す情報を、音声で出力してもよい。回転検出部37は、回転ずれ量が閾値以上である物体検知センサ2の検知範囲を歩行者131が通過した場合、回転ずれ量が閾値以上である物体検知センサ2の検知範囲を歩行者131が通過したことを表す情報を、音声等で作業者等に通知してもよい。回転検出部37は、回転ずれ量が閾値以上である物体検知センサ2の位置と歩行者131の位置との間の距離を、音声等で作業者等に通知してもよい。回転検出部37は、歩行者131の位置を原点として、回転ずれ量が閾値以上である物体検知センサ2の位置の方向を、音声等で作業者等に通知してもよい。
 回転検出部37は、カメラ画像上の第1領域及び第2領域と歩行者の移動の経路との対応関係に基づいて、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量を検出する。例えば、回転検出部37は、カメラ画像を分割する複数の領域と歩行者の移動の経路との対応関係に基づいて、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量を検出する。
 図10は、回転ずれ量が少ない歪補正後カメラ画像140-2における歩行者131の移動の経路の例を示す図である。歪補正後カメラ画像140-2では、歩行者の位置は、図5に示す経路6に沿って、時系列で歩行者131-5-1、131-5-2、131-5-3の順に変化する。なお、歩行者131は、図5に示す経路6におおむね沿って移動しているのであれば、歪補正後カメラ画像140-2において直進していなくてもよい。
 図11は、回転ずれ量の検出の第1例を示す図である。図11では、図10に示す歪補正後カメラ画像140-2は、領域120-1~120-9に分割されている。図11では、画像認識部23又は画像認識部42が歪補正後カメラ画像140-2の歩行者131を最初に検知した領域(進入領域)は、領域120-4である。
 なお、画像認識部23又は画像認識部42は、隣り合う領域120にまたがって歩行者131を検出した場合、隣り合う領域120のいずれかで歩行者131を検知した領域120を選択してもよい。
 画像認識部23又は画像認識部42が歪補正後カメラ画像140-2において歩行者131を最初に検知した領域は、検知に時間がかかる等の理由で、領域120-5でもよい。画像認識部23又は画像認識部42が歪補正後カメラ画像140-2において歩行者131を最後に検知した領域(退出領域)は、領域120-6である。
 回転検出部37は、歪補正後カメラ画像140-2における歩行者131の最初検知推定領域である領域120-4を表す情報を、登録部33又は記憶部39から取得する。回転検出部37は、歪補正後カメラ画像140-2における歩行者131の最後検知推定領域である領域120-6を表す情報を、登録部33又は記憶部39から取得する。
 回転検出部37は、歪補正後カメラ画像140-2において歩行者131を最初に検知した領域と最初検知推定領域である領域120-4とが同じ領域であるか否かを、正解データに基づいて判定する。回転検出部37は、画像認識部23又は画像認識部42が歪補正後カメラ画像140-2において歩行者131を最後に検知した領域と最後検知推定領域である領域120-6とが同じ領域であるか否かを、正解データに基づいて判定する。
 図11では、回転検出部37は、歩行者131を最初に検知した領域120と歩行者131の最初検知推定領域とが同じ領域であり、歩行者131を最後に検知した領域120と歩行者131の最後検知推定領域とが同じ領域であるため、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が少ないと判定する。
 図12は、回転ずれ量が閾値以上である歪補正後カメラ画像140aにおける歩行者131の移動の経路の例を示す図である。歪補正後カメラ画像140a-2では、歩行者の位置は、図5に示す経路6に沿って、時系列で歩行者131-5-1、131-5-2、131-5-3の順に変化する。なお、歩行者131は、図5に示す経路6におおむね沿って移動しているのであれば、歪補正後カメラ画像140a-2において直進していなくてもよい。
 図13は、回転ずれ量の検出の第2例を示す図である。図13では、図10に示す歪補正後カメラ画像140a-2は、領域120-1~120-9に分割されている。歪補正後カメラ画像140a-2において、画像認識部23又は画像認識部42が歩行者131を最初に検知した領域(進入領域)は、領域120-1である。
 画像認識部23又は画像認識部42が歪補正後カメラ画像140a-2において歩行者131を最初に検知した領域は、検知に時間がかかる等の理由で、領域120-5でもよい。画像認識部23又は画像認識部42が歪補正後カメラ画像140a-2において歩行者131を最後に検知した領域(退出領域)は、領域120-9である。
 回転検出部37は、歪補正後カメラ画像140a-2において歩行者131を最初に検知した領域と最初検知推定領域である領域120-4とが同じ領域であるか否かを判定する。回転検出部37は、画像認識部23又は画像認識部42が歪補正後カメラ画像140a-2において歩行者131を最後に検知した領域と最後検知推定領域である領域120-6とが同じ領域であるか否かを判定する。
 図13では、回転検出部37は、歩行者131を最初に検知した領域120と歩行者131を最後に検知した領域120とのうち少なくとも一方が所定領域でない場合、設置された物体検知センサ2の回転ずれ量が閾値以上であると判定する。回転検出部37は、歩行者131を最初に検知した領域120と歩行者131の最初検知推定領域とが異なる領域であるため、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が閾値以上であると判定する。回転検出部37は、歩行者131を最後に検知した領域120と歩行者131の最後検知推定領域とが異なる領域であるため、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が閾値以上であると判定してもよい。
 回転検出部37は、カメラ画像に定められた座標軸と歩行者の移動の経路とが成す角度に基づいて、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量を検出してもよい。なお、歩行者131は、カメラ画像に定められた座標軸と歩行者131の移動の経路6とが成す角度が一定になるように経路6に沿って移動してもよい。この場合、移動体の経路の方向(基準方向)を表す角度の正解データは、予め登録される。
 図14は、回転ずれ量の検出の第3例を示す図である。図14に示す歪補正後カメラ画像140-2には、XY座標軸(2次元の座標軸)が定められている。図14では、X軸は、物体検知センサ2の回転ずれ量が少ない場合における経路6の基準方向(歩行者の移動の基準方向)を示す。
 画像認識部23又は画像認識部42が歪補正後カメラ画像140-2において歩行者131を最初に検知した位置は、歩行者131-5-1の位置である。画像認識部23又は画像認識部42が歪補正後カメラ画像140-2において歩行者131を最後に検知した位置は、歩行者131-5-3の位置である。
 破線200は、歪補正後カメラ画像140-2において歩行者131を最初に検知した位置から歩行者131を最後に検知した位置までを結ぶ破線である。したがって、破線200は、歪補正後カメラ画像140-2における歩行者131の移動の方向を表す。
 図14では、回転検出部37は、物体検知センサ2の回転ずれ量が少ない場合における経路6の方向(歩行者の移動の基準方向)と破線200の方向(歩行者の移動の方向)とが一致しているので、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が少ないと判定する。
 図15は、回転ずれ量の検出の第4例を示す図である。図15に示す歪補正後カメラ画像140a-2には、XY座標軸(2次元の座標軸)が定められている。図15では、X軸は、物体検知センサ2の回転ずれ量が少ない(閾値未満である)場合における経路6の基準方向(歩行者の移動の基準方向)を示す。
 画像認識部23又は画像認識部42が歪補正後カメラ画像140a-2において歩行者131を最初に検知した位置は、歩行者131-5-1の位置である。画像認識部23又は画像認識部42が歪補正後カメラ画像140a-2において歩行者131を最後に検知した位置は、歩行者131-5-3の位置である。
 破線200は、歪補正後カメラ画像140a-2において歩行者131を最初に検知した位置から歩行者131を最後に検知した位置までを結ぶ破線である。したがって、破線200は、歪補正後カメラ画像140a-2における歩行者131の移動の方向を表す。図15では、破線200は、X軸に対して(-45度)に傾いている。
 図15では、回転検出部37は、歪補正後カメラ画像140a-2における経路6を表す基準方向(X軸)と破線200の方向(歩行者131の移動の方向)とが一致していないので、設置された物体検知センサ2の向き又はカメラ画像の回転ずれ量が閾値以上であると判定する。回転検出部37は、物体検知センサ2の向き又はカメラ画像の回転ずれ量(-45度)を表す情報を、補正部36及び表示制御部38に送信する。
 表示制御部38は、マップ5、経路6、位置表示画像7、検知順表示画像8、回転ずれ量の有無、回転ずれ量、歪補正前カメラ画像、歪補正後カメラ画像、検知情報及びこれらの組み合わせを、表示部40に表示する。
 図16は、マップ5の表示と歪補正前カメラ画像141の一覧表示との例を示す図である。表示制御部38は、マップ5と歪補正前カメラ画像141の一覧とを、表示部40に表示する。表示制御部38は、歪補正前カメラ画像141-1~141-6を、物体検知センサ2の位置に対応付けて、表示部40の画面に配列する。
 図17は、マップ5の表示と歪補正前カメラ画像141の巡回表示との例を示す図である。表示制御部38は、操作部31が操作された場合、歪補正前カメラ画像141-1~141-5のうちから歪補正前カメラ画像141を一定時間ごとに選択する。図17では、表示制御部38は、歪補正前カメラ画像141-4及び歪補正前カメラ画像141-5を選択している。表示制御部38は、選択する歪補正前カメラ画像141を切り替えながら、選択された歪補正前カメラ画像141を巡回表示する。
 図18は、マップ5の表示と歪補正前カメラ画像141の選択表示との例を示す図である。表示制御部38は、操作部31が操作された場合、歪補正前カメラ画像141-1~141-5のうちから歪補正前カメラ画像141を操作に応じて選択する。図18では、表示制御部38は、操作部31がクリック操作されて位置表示画像7-2が選択されたことによって、位置表示画像7-2に対応付けられた物体検知センサ2-2の歪補正前カメラ画像141-2を選択している。表示制御部38は、選択された歪補正前カメラ画像141-2を拡大表示する。
 図19は、マップ5の表示とマップ5に重畳した歪補正前カメラ画像141の表示との例を示す図である。表示制御部38は、マップ5と歪補正前カメラ画像141の一覧とを、表示部40に表示する。表示制御部38は、歪補正前カメラ画像141-1~141-6を、物体検知センサ2の位置に基づく位置表示画像7-1~7-6に対応付けて、表示部40の画面に配列する。
 図20は、マップ5の表示とマップ5に重畳した歪補正後カメラ画像140の一覧表示との第1例を示す図である。表示制御部38は、マップ5と歪補正後カメラ画像140の一覧とを、表示部40に表示する。表示制御部38は、歪補正後カメラ画像140-1~140-6を、物体検知センサ2の位置に基づく位置表示画像7-1~7-6に対応付けて、表示部40の画面に配列する。
 図21は、マップ5の表示とマップ5に重畳した歪補正後カメラ画像140の一覧表示との第2例を示す図である。表示制御部38は、複数の歪補正後カメラ画像140を互いに隣接するように配列することによって、室内の鳥瞰図を生成する(非特許文献2参照)。表示制御部38は、マップ5と鳥瞰図とを、表示部40に表示する。
 図22は、マップ5の表示とマップ5に重畳した歪補正後カメラ画像140の一覧表示との第3例を示す図である。表示制御部38は、歪補正後カメラ画像140a-2の回転ずれ量が補正された歪補正後カメラ画像140-2を、補正部36から取得する。表示制御部38は、回転ずれ量が補正された歪補正後カメラ画像140-2を含む複数の歪補正後カメラ画像140を互いに隣接するように配列することによって、室内の鳥瞰図を生成する。表示制御部38は、マップ5と鳥瞰図とを、表示部40に表示する。
 表示制御部38は、双方向のユーザインタフェースであるインタラクティブUI(Interactive User Interface)に基づく動作を実行してもよい。例えば、表示制御部38は、表示部40に表示されたカメラ画像を作業員が操作部31を用いてクリック操作した場合、位置検出処理をやり直すことを命令する信号を、位置検出部35に送信する。位置検出部35は、位置検出処理をやり直すことを命令する信号を取得した場合、位置検出処理をやり直す。位置検出部35は、歩行者130が室内を移動した後に位置検出処理をやり直してもよいし、歩行者130が室内を移動している途中で位置検出処理をやり直してもよい。
 なお、表示制御部38は、図19から図22までに示す図を、表示部40に常時表示してもよいし、物体検知センサ2が歩行者131を検知したタイミングで表示部40に表示してもよい。表示制御部38は、歩行者131の検知が終了する前では、最新のカメラ画像を表示部40に表示してもよい。表示制御部38は、歩行者の検知が終了した後では、カメラ画像のベストショットを表示部40に表示してもよい。表示制御部38は、歩行者の検知開始のタイミングで、カメラ画像を表示部40にポップアップ表示してもよい。表示制御部38は、歪補正前カメラ画像の歪みを補正してもよい。表示制御部38は、回転ずれ量に基づいて、歪補正後カメラ画像の回転ずれ量を補正してもよい。
 図1に戻り、位置検出装置3の構成の説明を続ける。記憶部39は、磁気ハードディスク装置や半導体記憶装置等の不揮発性の記憶媒体(非一時的な記録媒体)を有する記憶装置を用いて構成される。記憶部39は、特定情報と、検知情報と、位置検出プログラムと、位置検出結果情報とを記憶する。
 表示部40は、液晶ディスプレイ等の表示デバイスである。表示部40は、マップ5、経路6、位置表示画像7、検知順表示画像8、回転ずれ量の有無、回転ずれ量、歪補正前カメラ画像、歪補正後カメラ画像、検知情報及びこれらの組み合わせを表示する。表示部40は、歪補正前カメラ画像の歪みを補正してもよい。表示部40は、回転ずれ量に基づいて、歪補正後カメラ画像の回転ずれ量を補正してもよい。
 バス41は、位置検出装置3の各部の間でデータを伝送する伝送路である。
 画像認識部23は、物体検知センサ2の画像認識部23が実行していた画像認識等の画像処理を、物体検知センサ2の代わりに実行する。
 次に、位置検出システム1の動作を説明する。
 図23は、物体検知センサ2の位置を検出する動作の例を示すフローチャートである。
通信部30は、歩行者を検知した複数の物体検知センサ2から、物体検知センサ2の識別情報を取得する(ステップS101)。位置検出部35は、経路6に沿って移動した歩行者を検知した結果に基づいて、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付ける(ステップS102)。
 図24は、物体検知センサ2の回転ずれ量を検出する動作の例を示すフローチャートである。通信部30は、経路6に沿って移動した歩行者を検知した結果に基づくカメラ画像を、物体検知センサ2から取得する(ステップS201)。回転検出部37は、カメラ画像において歩行者を最初に検知した位置とカメラ画像において歩行者を最後に検知した位置とに基づいて、物体検知センサ2の回転ずれ量を検出する(ステップS202)。
 以上のように、実施形態の位置検出装置3は、登録部33と、通信部30と、位置検出部35とを持つ。複数の物体検知センサ2は、複数の位置に設置されている。登録部33は、経路6を記憶部39に登録する。通信部30は、登録された経路6に沿って移動した歩行者を複数の物体検知センサ2が検知した結果を表す検知情報と、物体検知センサ2の識別情報とを取得する。位置検出部35は、歩行者が複数の物体検知センサ2の検知範囲を通過した結果と検知情報とに基づいて、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付けることによって、物体検知センサ2の位置を検出する。
 この構成によって、位置検出部35は、歩行者が複数の物体検知センサ2の検知範囲を通過した結果と検知情報とに基づいて、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付ける。これによって、実施形態の位置検出装置3は、複数の物体検知センサ2の位置を物体検知センサ2ごとに検出することができる。
 実施形態の位置検出部35は、複数の物体検知センサ2が歩行者を検知した順と歩行者が複数の物体検知センサ2の検知範囲を通過した順とが等しくなるように、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付けてもよい。実施形態の位置検出部35は、複数の物体検知センサが歩行者を検知した時刻と歩行者が複数の物体検知センサの検知範囲を通過した時刻とが等しくなるように、物体検知センサ2の識別情報と物体検知センサ2の位置とを対応付けてもよい。
 以上のように、実施形態の位置検出装置3は、登録部33と、回転検出部37とを持つ。登録部33は、移動する歩行者の経路6に関する正解データと経路6とを、記憶部39に登録する。回転検出部37は、登録された経路6に沿って移動した歩行者を複数の物体検知センサ2が検知した結果を表す検知情報と正解データとの比較結果に基づいて、予め定められた向きに対する物体検知センサ2の回転ずれ量を検出する。
 この構成によって、回転検出部37は、登録された経路6に沿って移動した歩行者を複数の物体検知センサ2が検知した結果を表す検知情報と正解データとの比較結果に基づいて、予め定められた向きに対する物体検知センサ2の回転ずれ量を検出する。これによって、実施形態の位置検出装置3は、複数の物体検知センサ2の回転ずれ量を物体検知センサ2ごとに検出することができる。
 実施形態の回転検出部37は、物体検知センサ2が歩行者を最初に検知したカメラ画像上の領域120と、物体検知センサ2が歩行者を最後に検知した領域120と、正解データとの比較結果に基づいて、物体検知センサ2の回転ずれ量を検出してもよい。この場合、領域という粗い精度(単位)で移動体の位置を比較しているので、画像における歩行者等の移動体の位置の精度は、画素、領域又は3次元座標等のどのような精度でもよい。実施形態の回転検出部37は、カメラ画像上の歩行者の移動の方向と、カメラ画像上の経路6の方向(基準方向)を表す正解データとの比較結果に基づいて、物体検知センサ2の回転ずれ量の角度を検出してもよい。
 以上述べた少なくともひとつの実施形態によれば、所定の経路に沿って移動した歩行者を複数の物体検知センサが検知した結果に基づいて物体検知センサの識別情報と物体検知センサの位置とを対応付ける位置検出部を持つことにより、複数の物体検知センサの位置を物体検知センサごとに検出することができる。
 以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (11)

  1.  物体を検知する複数の物体検知センサが複数の位置に設置されており、前記物体検知センサの位置を検出する位置検出装置であって、
     経路を登録する登録部と、
     登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報と前記物体検知センサの識別情報とを取得する取得部と、
     前記物体が前記複数の物体検知センサの検知範囲を通過した結果と前記検知情報とに基づいて、前記物体検知センサの識別情報と前記物体検知センサの位置とを対応付けることによって、前記物体検知センサの位置を検出する位置検出部と、
     を備える位置検出装置。
  2.  前記位置検出部は、前記複数の物体検知センサが前記物体を検知した順と前記物体が前記複数の物体検知センサの検知範囲を通過した順とが等しくなるように、前記物体検知センサの識別情報と前記物体検知センサの位置とを対応付ける、請求項1に記載の位置検出装置。
  3.  前記位置検出部は、前記複数の物体検知センサが前記物体を検知した時刻と前記物体が前記複数の物体検知センサの検知範囲を通過した時刻とが等しくなるように、前記物体検知センサの識別情報と前記物体検知センサの位置とを対応付ける、請求項1に記載の位置検出装置。
  4.  検知の対象として指定された前記物体をカメラ画像において検知したか否かを画像認識によって特定するための情報である特定情報に基づいて、指定された前記物体を検知したか否かを画像認識によって特定する画像認識部
     をさらに備え、
     前記位置検出部は、指定された前記物体を検知したことを前記画像認識部が特定した場合、指定された前記物体の前記検知情報に基づいて前記複数の物体検知センサの位置を前記物体検知センサごとに検出する、請求項1に記載の位置検出装置。
  5.  前記物体検知センサの位置を前記位置検出部が検出する場合と前記物体検知センサの位置を前記位置検出部が検出しない場合とで、前記物体検知センサの位置を検出するか否かに応じた動作モードと前記物体の検知に用いるパラメータとのうち少なくとも一方を前記物体検知センサに指示する指示部
     をさらに備える、請求項1に記載の位置検出装置。
  6.  前記指示部は、予め準備された前記動作モード及び前記パラメータのうちから前記動作モード及び前記パラメータを選択し、選択した前記動作モード及び前記パラメータを前記物体検知センサに指示する、請求項5に記載の位置検出装置。
  7.  前記検知情報に基づく画像を前記物体検知センサの位置に対応付けて表示部の画面に表示制御部
     をさらに備える、請求項1に記載の位置検出装置。
  8.  物体を検知するセンサと、
     移動の経路を検出する対象として指定された前記物体を検知したか否かを画像認識によって特定するための情報である特定情報と、自物体検知センサの位置を他の装置が検出するか否かに応じた動作モードと、前記物体の検知に用いるパラメータとを取得する取得部と、
     自物体検知センサの位置を他の装置が検出する場合と自物体検知センサの位置を前記他の装置が検出しない場合とで、自物体検知センサの動作モードと前記パラメータとを変更し、指定された前記物体を検知したか否かを画像認識によって前記特定情報に基づいて特定する画像認識部と、
     登録された経路に沿って移動した前記物体を検知した結果を表す検知情報と自物体検知センサの識別情報とを前記他の装置に送信する送信部と、
     を備える物体検知センサ。
  9.  複数の位置に設置され、物体を検知する複数の物体検知センサと、
     経路を登録する登録部と、
     登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報と前記物体検知センサの識別情報とを取得する取得部と、
     前記物体が前記複数の物体検知センサの検知範囲を通過した結果と前記検知情報とに基づいて、前記物体検知センサの識別情報と前記物体検知センサの位置とを対応付けることによって、前記物体検知センサの位置を検出する位置検出部と、
     を備える位置検出システム。
  10.  物体を検知する複数の物体検知センサが複数の位置に設置されており、前記物体検知センサの位置を検出する位置検出装置が実行する位置検出方法であって、
     経路を登録するステップと、
     登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報と前記物体検知センサの識別情報とを取得するステップと、
     前記物体が前記複数の物体検知センサの検知範囲を通過した結果と前記検知情報とに基づいて、前記物体検知センサの識別情報と前記物体検知センサの位置とを対応付けることによって、前記物体検知センサの位置を検出するステップと、
     を含む位置検出方法。
  11.  物体を検知する複数の物体検知センサが複数の位置に設置されており、前記物体検知センサの位置を検出する位置検出装置のコンピュータに、
     経路を登録する手順と、
     登録された前記経路に沿って移動した前記物体を前記複数の物体検知センサが検知した結果を表す検知情報と前記物体検知センサの識別情報とを取得する手順と、
     前記物体が前記複数の物体検知センサの検知範囲を通過した結果と前記検知情報とに基づいて、前記物体検知センサの識別情報と前記物体検知センサの位置とを対応付けることによって、前記物体検知センサの位置を検出する手順と、
     を実行させるための位置検出プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2017/032878 2017-01-04 2017-09-12 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム WO2018127996A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-000126 2017-01-04
JP2017000126A JP2018109557A (ja) 2017-01-04 2017-01-04 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム

Publications (1)

Publication Number Publication Date
WO2018127996A1 true WO2018127996A1 (ja) 2018-07-12

Family

ID=62790841

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/032878 WO2018127996A1 (ja) 2017-01-04 2017-09-12 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム

Country Status (2)

Country Link
JP (1) JP2018109557A (ja)
WO (1) WO2018127996A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111902692A (zh) * 2018-09-14 2020-11-06 松下电器(美国)知识产权公司 判定方法及判定装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3835737B1 (en) * 2019-12-10 2024-03-20 Roche Diagnostics GmbH Method and apparatus for determining a vertical position of a horizontally extending interface between a first component and a second component
JP2022119557A (ja) * 2021-02-04 2022-08-17 パナソニックIpマネジメント株式会社 情報処理装置、紐づけ方法、およびセンサーシステム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004643A (ja) * 2005-06-27 2007-01-11 Atsumi Electric Co Ltd 警備システム
US20160011751A1 (en) * 2014-07-08 2016-01-14 Honeywell International Inc. System and method for auto-configuration of devices in building information model
WO2016175109A1 (ja) * 2015-04-27 2016-11-03 コニカミノルタ株式会社 監視装置、監視方法、監視プログラムおよび監視システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246556A (ja) * 2003-02-13 2004-09-02 Matsushita Electric Ind Co Ltd 移動作業システム
JP5192978B2 (ja) * 2008-10-17 2013-05-08 株式会社日立製作所 カメラ管理装置およびカメラ管理方法
JP6450208B2 (ja) * 2015-02-03 2019-01-09 株式会社コロナ 貯湯式給湯装置
JP2018014213A (ja) * 2016-07-20 2018-01-25 東芝ライテック株式会社 機器管理システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004643A (ja) * 2005-06-27 2007-01-11 Atsumi Electric Co Ltd 警備システム
US20160011751A1 (en) * 2014-07-08 2016-01-14 Honeywell International Inc. System and method for auto-configuration of devices in building information model
WO2016175109A1 (ja) * 2015-04-27 2016-11-03 コニカミノルタ株式会社 監視装置、監視方法、監視プログラムおよび監視システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111902692A (zh) * 2018-09-14 2020-11-06 松下电器(美国)知识产权公司 判定方法及判定装置

Also Published As

Publication number Publication date
JP2018109557A (ja) 2018-07-12

Similar Documents

Publication Publication Date Title
US9191633B2 (en) Tracking assistance device, tracking assistance system and tracking assistance method
US10650223B2 (en) Techniques for built environment representations
JP6015656B2 (ja) 情報処理装置、情報処理システム、サーバ、情報処理方法、および、コンピュータ・プログラム
US10095461B2 (en) Outside-facing display for head-mounted displays
CN110834327B (zh) 一种机器人的控制方法及设备
WO2018127996A1 (ja) 位置検出装置、物体検知センサ、位置検出システム、位置検出方法及び位置検出プログラム
JP4369326B2 (ja) 施設内情報提供システム及び施設内情報提供方法
US20200171667A1 (en) Vision-based robot control system
US10853658B2 (en) Image-based detection of offside in gameplay
US20180098200A1 (en) Position determination device, position determining method, and storage medium
US20170255947A1 (en) Image processing system and image processing method
JP2018085571A (ja) 情報処理装置、情報処理方法、およびプログラム
TWI489326B (zh) 操作區的決定方法與系統
JP6543924B2 (ja) 情報処理方法、情報処理プログラム、及び情報処理装置
WO2018127995A1 (ja) 回転ずれ量検出装置、物体検知センサ、回転ずれ量検出システム、回転ずれ量検出方法及び回転ずれ量検出プログラム
CN105320274A (zh) 使用光追踪和相对位置检测的直接三维指向
JP5152281B2 (ja) 画像処理装置、方法及びプログラム
JP2019087840A (ja) 監視システム
JP2020077262A (ja) 情報処理システム、サーバ、プログラム、及び情報処理方法
US20220012921A1 (en) Information processing apparatus and non-transitory computer readable medium
JP6382772B2 (ja) 視線誘導装置、視線誘導方法、および視線誘導プログラム
JP5909709B1 (ja) 動線分析システム、カメラ装置及び動線分析方法
JP2020161006A (ja) オブジェクト姿勢制御プログラムおよび情報処理装置
TWI815593B (zh) 用於偵測手勢的方法和系統,以及電腦可讀儲存媒體
KR102467017B1 (ko) 다중 사용자 간의 증강현실 커뮤니케이션 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17890549

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17890549

Country of ref document: EP

Kind code of ref document: A1