WO2013030929A1 - 監視装置、監視システム及び監視方法 - Google Patents

監視装置、監視システム及び監視方法 Download PDF

Info

Publication number
WO2013030929A1
WO2013030929A1 PCT/JP2011/069462 JP2011069462W WO2013030929A1 WO 2013030929 A1 WO2013030929 A1 WO 2013030929A1 JP 2011069462 W JP2011069462 W JP 2011069462W WO 2013030929 A1 WO2013030929 A1 WO 2013030929A1
Authority
WO
WIPO (PCT)
Prior art keywords
equipment
self
shape
facility
map
Prior art date
Application number
PCT/JP2011/069462
Other languages
English (en)
French (fr)
Inventor
昌史 古賀
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to EP11871559.8A priority Critical patent/EP2765386A4/en
Priority to PCT/JP2011/069462 priority patent/WO2013030929A1/ja
Priority to JP2013530912A priority patent/JP5658372B2/ja
Priority to US14/238,087 priority patent/US9911041B2/en
Priority to CN201180072688.9A priority patent/CN103717995B/zh
Publication of WO2013030929A1 publication Critical patent/WO2013030929A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]

Definitions

  • the present invention relates to a technique for monitoring equipment elements in a building.
  • Non-Patent Document 1 Self-localization methods for robots can be used.
  • Non-Patent Document 1 can estimate the self-position, it cannot identify what equipment element is being monitored. For useful monitoring, in addition to self-position estimation, it is desirable to identify what equipment elements are being monitored.
  • An object of the present invention is to enable a monitoring device that monitors equipment elements in a building to identify what equipment elements are being monitored.
  • a typical example of the invention disclosed in the present application is as follows. That is, a monitoring device that monitors equipment elements in a building, the three-dimensional measurement unit that measures a three-dimensional shape around the monitoring device, and the measured three-dimensional shape, the building other than the equipment elements
  • a self-position estimating unit that estimates the self-position of the monitoring device by collating with a map for self-position estimation including the shape and position of the structure inside, and the equipment elements around the estimated self-position
  • a peripheral equipment element extraction unit that extracts from a facility element matching map including the shape and position of equipment elements in a building, and a facility element candidate extraction unit that extracts the shape and position of equipment element candidates from the measured three-dimensional shape
  • a degree-of-match evaluation unit that calculates the error distribution of the shape and position of the equipment elements around the self-position and the error distribution of the
  • FIG. 1st Embodiment It is an external appearance block diagram of the monitoring apparatus in 1st Embodiment. It is A arrow directional view of FIG. It is a block diagram which shows the hardware constitutions of the monitoring system comprised by the monitoring apparatus and server in 1st Embodiment. It is a functional block diagram which shows the logical structure of the monitoring apparatus in 1st Embodiment. It is a functional block diagram which shows the detail of the installation element specific
  • the operational status of equipment elements such as power / distribution equipment and chemical plants is often monitored by a monitoring system such as SCADA (Supervision Control And Data Acquisition), and monitoring work is managed by the equipment elements and the monitoring system being monitored. It is required to have a high degree of reliability in correspondence with installed equipment elements.
  • SCADA Supervision Control And Data Acquisition
  • the physical quantity for identifying the equipment element and determining whether it is normal or abnormal This is because it is necessary to obtain the normal range of the database from the database.
  • the monitoring apparatus not only estimates the self-position of the monitoring apparatus but also specifies what equipment elements are being monitored. Further, the abnormality of the equipment element is determined based on the measured physical quantity of the equipment element being monitored.
  • FIG. 1 shows an external configuration of the monitoring apparatus 100 according to the first embodiment of the present invention.
  • the monitoring device 100 includes a main body 101, sensors 102 to 105, and a wireless communication device 106. During the monitoring work, the operator grips the main body 101 and points the sensors 102 to 105 forward, and measures the surroundings of the monitoring device 100 by the sensors 102 to 105.
  • the “building” is a building such as a power / distribution facility or a chemical plant
  • the “facility element” is an element such as a pipe, a pump, or a valve installed inside the building.
  • the sensors 102 to 105 are attached to the front surface of the main body 101.
  • the sensors 102 to 105 include a laser range finder (also referred to as “scanner-type range sensor”) 102, a thermal infrared camera 103, a visible light camera 104, and an acceleration sensor 105.
  • the laser range finder 102 has a laser irradiation part and a light receiving part.
  • the laser range finder 102 radiates the laser beam from the laser irradiation unit using a rotary reflecting mirror or the like, and reflects the time until the laser beam is reflected from the surface of the nearest object and returns to the light receiving unit. By measuring, the distance to the nearest object is measured. By measuring in various directions, the laser range finder 102 measures the three-dimensional shape around the monitoring device 100.
  • “periphery” means a region having a predetermined radius centered on the monitoring device 100 (for example, a range in which the distance can be measured by the laser range finder 102).
  • the thermal infrared camera 103 is composed of a CCD (Charge Coupled Device) image sensor having a sensitivity distribution in the infrared region.
  • the thermal infrared camera 103 measures the intensity (or wavelength) of radiant heat from the facility element being monitored, that is, the temperature of the facility element being monitored.
  • the visible light camera 104 is composed of a CCD image sensor having a sensitivity distribution in the visible light region.
  • the visible light camera 104 acquires a visible light image of the facility element being monitored. Note that the thermal infrared camera 103 and the visible light camera 104 can be configured by a single CCD image sensor.
  • the acceleration sensor 105 is composed of a semiconductor accelerometer and a gyroscope, and measures the acceleration in the three-axis direction and the rotational acceleration around the three axes of the monitoring device 100.
  • the wireless communication device 106 is a device for connecting the monitoring device 100 to an external server 120 and exchanging data with the server 120 (for example, equipment ID, position, temperature, abnormality detection result, etc. of the equipment element being monitored). is there.
  • the wireless communication device 106 is, for example, a wireless LAN transmission / reception module.
  • the monitoring device 100 and the server 120 may be connected by wire.
  • the monitoring device 100 and the server 120 are connected by a wired LAN interface, a serial interface such as USB, or the like.
  • the monitoring apparatus 100 and the server 120 may communicate in real time, and may communicate as needed.
  • the main body 101 has a processor for data processing, a memory for data storage, and the like. Further, as shown in FIG. 2, the main body 101 has a display 201 and an operation unit 202 including buttons on the back surface thereof, for example.
  • the server 120 includes a wireless communication device 121 for exchanging data with the monitoring device 100.
  • the wireless communication device 121 is, for example, a wireless LAN module.
  • FIG. 3 is a block diagram illustrating a hardware configuration of the monitoring system 1 including the monitoring device 100 and the server 120.
  • the monitoring device 100 is a computer having a processor 301, a memory 302, a storage device 303, an input interface 304, an output interface 305, and a wireless communication device 106. These configurations 301 to 305 and 106 are connected to each other by a bus 306.
  • the processor 301 executes a program stored in the memory 302.
  • the memory 302 is a volatile storage device such as a DRAM and stores a program executed by the processor 301. Specifically, the memory 302 includes a self-position estimating unit 401, an equipment element specifying unit 402, a coordinate system correcting unit 403, 3D mapping units 404 and 405, an abnormality detecting unit 406, and an image superimposing unit 407 shown in FIG. Store the program for The memory 302 stores an operating system (OS). The processor 301 executes the operating system, thereby realizing the basic functions of the computer.
  • OS operating system
  • the storage device 303 is a non-volatile storage device such as a magnetic disk drive or a flash memory, and stores data used when the processor 301 executes a program. Specifically, the storage device 303 stores the self-position estimation map 411, the equipment element matching map 412, the installation error statistical model 413, the equipment CAD coordinate system 414, the standard temperature data 415, and the system diagram data 416 shown in FIG. Store.
  • the memory 302 stores a program for mounting the functional units 401 to 407 of the monitoring apparatus 100
  • the storage device 303 stores data 411 to 416 used by the functional units 401 to 407.
  • the programs corresponding to the functional units 401 to 407 are stored in the storage device 303, and are read from the storage device 303 and loaded into the memory 302 when the program is executed.
  • Data 411 to 416 are also read from the storage device 303 and loaded into the memory 302 when the program needs them.
  • the sensors 102 to 105 are connected to the input interface 304.
  • a display 201 is connected to the output interface 305.
  • the server 120 is a computer having a processor 311, a memory 312, a storage device 313, an input interface 314, an output interface 315, and a wireless communication device 121. These components 311 to 315 and 121 are connected to each other by a bus 316.
  • the processor 311 executes a program (such as software for managing the facility elements and the monitoring device 100) stored in the memory 312.
  • the memory 312 is a volatile storage device such as a DRAM and stores a program executed by the processor 311.
  • the memory 312 stores an operating system (OS).
  • the processor 311 executes the operating system, thereby realizing the basic functions of the computer.
  • the storage device 313 is a nonvolatile storage device such as a magnetic disk drive or a flash memory, and stores data used when the processor 311 executes a program.
  • program is stored in the storage device 313 and is read from the storage device 313 and loaded into the memory 312 when the program is executed. Data is also read from the storage device 313 and loaded into the memory 312 when the program requires it.
  • the input interface 314 is connected to an input device 317 such as a keyboard and a mouse.
  • a display 318 is connected to the output interface 315.
  • FIG. 4 is a functional block diagram showing a logical configuration of the monitoring apparatus 100. As shown in FIG.
  • the monitoring device 100 corresponds to the portion surrounded by a broken line in the figure, and includes sensors 102 to 105, a display 201, functional units 401 to 407, and data 411 to 416.
  • the data 411 to 416 are created in advance prior to the monitoring work and are stored in the storage device 313 of the monitoring device 100. Note that the data configuration described below is an example and may be configured in other formats.
  • the self-position estimation map 411 is a map including the shape and position of a structure in a building such as a wall or a pillar (a fixed object with a small installation error and a fixed position and orientation).
  • the map 411 for self-location estimation is obtained by converting data such as walls and columns managed by a structure CAD (Computer Aided Design) 421 which is design data of a building into a format suitable for self-location estimation by a conversion process 422. Created.
  • CAD Computer Aided Design
  • the format suitable for self-position estimation is a format suitable for collation with the three-dimensional shape measured by the laser range finder 102.
  • the self-position estimation map 411 includes only data relating to the surface shape of a structure in a building.
  • FIG. 6A and 6B are specific examples of the structure CAD 421 and the self-position estimation map 411.
  • FIG. 6A the structure CAD 421 has data of structures such as a wall 601 and a pillar 602, and the self-position estimation map 401 includes a surface 603 of the structure as shown in FIG. 6B. Has data only.
  • the self-position estimation map 411 is a map generated from the structure CAD 421, the self-position estimation map 411 does not include data on equipment elements such as pipes, pumps, and valves.
  • the facility element verification map 412 is created by converting the shape, position, and the like of the facility elements such as pipes, pumps, and valves managed by the facility CAD 423 by the conversion process 424.
  • the conversion process 424 is based on numerical values (positional deviation, direction deviation, scale deviation, etc. necessary for alignment between the self-position estimation map 411 and the equipment element matching map 412) stored in the equipment CAD coordinate system 414.
  • the coordinate conversion for aligning the self-position estimation map 411 and the equipment element matching map 412 is included.
  • FIG. 7 is a diagram for explaining the configuration of the facility element matching map 412.
  • the facility element matching map 412 is a table including a facility ID 701, a shape type 702, and a position / size 703.
  • the facility ID 701 stores an identifier uniquely assigned to each facility element such as a pipe and a pump.
  • the equipment ID 701 is common to an equipment error statistical model 413, standard temperature data 415, and system diagram data 416, which will be described later.
  • the shape type 702 stores an identifier assigned according to the shape type of the equipment element. For example, 1 is given for a cylinder, and 2 is given for a rectangular parallelepiped.
  • Position / size 703 stores a numerical value group for defining the position, size, etc. according to the shape type of the equipment element.
  • the position / size 703 is, for example, a center coordinate x, y and a radius r in the case of a cylinder.
  • FIG. 8 is a diagram for explaining the configuration of the installation error statistical model 413.
  • the installation error statistical model 413 is a table including equipment ID 801, variance 802, and correction coefficient 803.
  • the facility ID 801 stores an identifier uniquely assigned to each facility element such as a pipe and a pump.
  • the equipment ID 801 is common with the equipment element matching map 412 and the like.
  • the variance 802 stores a parameter representing an error distribution of installation positions of equipment elements.
  • the error distribution is represented by a two-dimensional probability density distribution.
  • the variance 802 is a variance value in a plane orthogonal to the central axis of the pipe. ⁇ 1 2 and ⁇ 2 2 are stored.
  • the correction coefficient 803 stores a correction coefficient when the shape of the error distribution changes due to the installation location of the equipment element, the installation method, and the like.
  • the correction coefficient 803 is, for example, when a pipe is installed along a wall, and when the distance from the wall to the pipe is strictly protected but the installation error in the direction along the wall is allowed, the error distribution is Stores a correction coefficient for correcting the error distribution so that it becomes a long ellipse along the wall.
  • the variance 802 and the correction coefficient 803 are set according to the type of equipment element, the installation location, the installation method, etc. based on the past results, but may be created for each equipment element.
  • the equipment CAD coordinate system 414 includes numerical values such as a positional deviation, a direction deviation, and a scale necessary for alignment between the self-position estimation map 411 and the equipment element matching map 412 although not shown.
  • FIG. 9 is a diagram for explaining the configuration of the standard temperature data 415.
  • Standard temperature data 415 is a table including equipment ID 901, lower limit temperature 902, and upper limit temperature 903.
  • the facility ID 901 stores an identifier uniquely assigned to each facility element such as a pipe and a pump.
  • the equipment ID 901 is common with the equipment element matching map 412 and the like.
  • the lower limit temperature 902 stores the lower limit temperature of each facility element
  • the upper limit temperature 903 stores the upper limit temperature of each facility element.
  • the lower limit temperature 902 and the upper limit temperature 903 define a temperature range in which each facility element can be determined as normal operation.
  • FIG. 10 is a diagram for explaining the configuration of the system diagram data 416.
  • the system diagram data 416 is a table including an equipment ID 1001, a connection source 1002, and a connection destination 1003.
  • the facility ID 1001 stores an identifier uniquely assigned to each facility element such as a pipe and a pump.
  • the equipment ID 1001 is common to the equipment element matching map 412 and the like.
  • the connection source 1002 stores the identifier of the facility element connected to the upstream side of the facility element. When a plurality of equipment elements are connected on the upstream side of the equipment element, the connection source 1002 stores a plurality of identifiers.
  • the connection destination 1003 stores the identifier of the facility element connected to the downstream side of the facility element. When a plurality of facility elements are connected to the downstream side of the facility element, the connection destination 1003 stores a plurality of identifiers.
  • the self-position estimation unit 401 estimates the self-position of the monitoring device 100 (“position” includes “direction” of the monitoring device 100, the same applies hereinafter) based on a plurality of measurement results. Specifically, the acceleration measured by the acceleration sensor 105 is integrated twice to calculate the first predicted self-position, and the surrounding three-dimensional shape measured by the laser range finder 102 is displayed as the self-position estimation required map 401. And the second predicted self-position is calculated. Then, the self-position estimation unit 401 integrates these two predicted self-positions including variations based on statistical errors using a Kalman filter, and estimates the most likely self-position.
  • the equipment element specifying unit 402 specifies the equipment ID and the position of the equipment element being monitored using the self position estimated by the self position estimating unit 401 and the result of the three-dimensional measurement by the laser range finder 102.
  • FIG. 5 is a functional block diagram showing details of the equipment element specifying unit 402.
  • the facility element specifying unit 402 includes a peripheral facility element extracting unit 501, an installation error distribution calculating unit 502, a difference extracting unit 503, a facility element candidate extracting unit 504, a coincidence degree evaluating unit 505, and a facility element specifying unit 506.
  • the peripheral equipment element extraction unit 501 determines the shape type and position / size of the equipment elements around the self-position from the equipment element verification map 413, that is, the shape and position. Search and extract as peripheral equipment elements.
  • the installation error distribution calculation unit 502 refers to the installation error statistical model 413 for each of the peripheral equipment elements extracted by the peripheral equipment element extraction unit 501 and searches for the dispersion and correction coefficient of the corresponding equipment ID. The installation error distribution is calculated based on the correction coefficient.
  • the difference extraction unit 503 calculates the difference between the three-dimensional measurement result obtained by the laser range finder 102 and the self-position estimation required map 411. As a result, measurement point groups for building structures such as walls and pillars are excluded from 3D measurement results, and only objects other than building structures, that is, measurement point groups for equipment elements, are extracted as differences.
  • the facility element candidate extraction unit 504 detects the shape corresponding to the facility element such as a plane or a cylinder and its position from the difference extracted by the difference extraction unit 503 by the least square method, Hough transform, or the like, and detects this as the facility element candidate. Extract as
  • the shape existing around the self-location is predicted to some extent based on the shape and position of the peripheral facility element extracted by the peripheral facility element extraction unit 501, and the predicted shape and position are changed.
  • the shape and position that minimize the square error are searched, and the shape and position that minimize the square error are extracted as equipment element candidates.
  • voting is performed using parameters according to the shape to be searched, and the shape is searched based on the result. For example, in the case of a cylinder, voting is performed for each measurement point with three parameters of an arbitrary radius r and center coordinates x and y, and it is assumed that there is a cylinder having a parameter with the most votes, and the shape of the cylinder And the position are extracted as equipment element candidates.
  • the facility element candidate extraction unit 504 also calculates a prediction error distribution that is a statistical error included in the extracted facility element candidates. For example, when an equipment element candidate is extracted using the least square method, a prediction error distribution is calculated by adding a known self-position estimation error to the sum of square errors.
  • the degree-of-match evaluation unit 505 determines whether or not all of the installation error distributions of the peripheral equipment elements obtained by the installation error distribution calculation unit 502 and the prediction error distributions of the equipment element candidates extracted by the equipment element candidate extraction unit 504. The degree of coincidence is calculated for the combination. The degree of coincidence is the maximum value of the integrated error distribution obtained by integrating the installation error distribution and the prediction error distribution.
  • the facility element specifying unit 506 extracts a combination that maximizes the matching degree from all the combinations. Since the combination that maximizes the degree of coincidence is most probable, it is possible to specify which of the peripheral equipment elements the equipment element candidate extracted by the equipment element candidate extraction unit 504 corresponds to. That is, the facility ID of the facility element being monitored can be specified. Further, since the position where the maximum value is obtained in the integrated error distribution is most likely as the position of the equipment element being monitored, the position of the equipment element being monitored can also be specified.
  • the deviation between the map 411 and the equipment element matching map 412 is calculated, and the numerical value stored in the equipment CAD coordinate system 414 (the positional deviation necessary for the alignment between the self-position estimation map 411 and the equipment element matching map 412). , Direction deviation, scale deviation, etc.). Accordingly, the shift between the self-position estimation map 411 and the facility element matching map 412 when the facility element matching map 412 is generated next time by the conversion process 424 is reduced.
  • the 3D mapping unit 404 integrates the temperature of the monitored facility element measured by the thermal infrared camera 103 and the distance / direction to the monitored facility element measured by the laser range finder 102 to obtain a three-dimensional temperature. Calculate the distribution.
  • the 3D mapping unit 405 integrates the visible light image of the monitored facility element acquired by the visible light camera 104 and the distance / direction to the monitored facility element measured by the laser range finder 102 to obtain a visible light image. Is converted to a three-dimensional image.
  • the anomaly detection unit 406 refers to the standard temperature data 415 to search for and obtain a lower limit temperature and an upper limit temperature corresponding to the equipment ID of the equipment element being monitored, and a 3D mapping part for the temperature of the equipment element being monitored Obtained from 404. And the abnormality detection part 406 compares both, and when the temperature of the equipment element under monitoring is lower than the lower limit temperature or higher than the upper limit temperature, it is determined that the equipment element is abnormal.
  • the image superimposing unit 407 generates a superimposed image in which the three-dimensional temperature distribution calculated by the 3D mapping unit 404 is superimposed on the visible light image converted into the three-dimensional image by the 3D mapping unit 405. Then, the image superimposing unit 407 projects the generated superimposed image onto a plane, converts it into a two-dimensional image, and outputs it to the display 201.
  • the temperature distribution to be superimposed is color-coded according to the temperature so that the part where the temperature is higher than the upper limit temperature is red and the other parts are colorless. You may color-code so that a color may change continuously according to temperature.
  • an appropriate transmittance is set for the temperature distribution so that the operator can confirm the visible light image even when the temperature distribution is superimposed on the visible light image.
  • the image superimposing unit 407 generates a system diagram that visually represents the connection relationship of each facility element based on the connection information between the facility elements stored in the system diagram data 416. Then, a mark (for example, a colored circle) is added to a part corresponding to the equipment element in which the abnormality is detected by the abnormality detection unit 406, and is output to the display 201.
  • a mark for example, a colored circle
  • the display 201 displays a superimposed image and a system diagram input from the image superimposing unit 407.
  • a specific example of display is shown in FIG. 22, which will be described later.
  • FIG. 11 is a flowchart of the self-position estimation process. This self-position estimation process is performed by the self-position estimation unit 401 of the monitoring apparatus 100, that is, when the processor 301 executes a program stored in the memory 302.
  • the processor 301 integrates the acceleration detected by the acceleration sensor 105 twice, and adds this to the previous value of the self position to estimate the current self position (1101).
  • first estimated self-position the self-position estimated by the processing 1101 is referred to as “first estimated self-position”.
  • the processor 301 assumes the arrangement of buildings such as walls and pillars when assuming various self-positions, and the building structure such as the assumed walls and pillars and the three-dimensional measurement result by the laser range finder 102. Are matched (scan matching). Then, the position having the highest degree of coincidence is estimated as the self position (1102).
  • the self-position estimated by the processing 1102 is referred to as “second estimated self-position”. Further, a statistical error distribution of the second estimated self-position is calculated based on the degree of coincidence when the self-position estimated from the position where the degree of coincidence is highest.
  • the self-position estimation map 411 includes wall data 1201a and 1202a corresponding to the walls 1201 and 1202 as shown in FIG.
  • FIG. 14 shows the result 1401 of the three-dimensional measurement by the laser range finder 102 with a thick line.
  • a result 1401 of the three-dimensional measurement is a set of a large number of measurement points corresponding to a part of the walls 1201 and 1202 irradiated with the laser and a part of the pipe 1203.
  • 1402 is the position of the laser range finder 102, that is, the self position.
  • the processor 301 translates and rotates the wall data 1201a and 1202a read from the self-position estimation map 411 by affine transformation, and assumes various arrangements as indicated by broken lines in the figure.
  • the processor 301 compares the assumed arrangement of the wall data 1201a and 1202a with the result 1401 of the three-dimensional measurement, and calculates the degree of coincidence. Then, the processor 301 obtains an arrangement 1501 having the highest matching degree. As shown in FIG. 14, since the relationship between the three-dimensional measurement result 1401 and the self-position 1402 is known, the self-position 1402 is estimated from the three-dimensional measurement result 1401 and the arrangement 1501 having the highest degree of coincidence with this. Can do.
  • the processor 301 calculates an error distribution of the estimated self position (second estimated self position) from the distribution of the degree of coincidence when the position is shifted from the arrangement 1501 having the highest degree of coincidence.
  • the processor 301 integrates the first estimated self-position and the second estimated self-position by the Kalman filter, and estimates the most likely position as the self-position (1103).
  • FIG. 16 is a diagram for explaining an example of the self-position estimation process. Although this figure is two-dimensional, the actual processing is performed in three dimensions.
  • the first estimated self-position is obtained by adding a value obtained by integrating twice the acceleration value measured by the acceleration sensor 105 to the self-position 1601 estimated last time.
  • the value measured by the acceleration sensor 105 includes a statistical error. For this reason, the first estimated self-position also varies.
  • An ellipse 1602 indicates the error distribution of the first estimated self-position.
  • the second estimated self-position is estimated by collating the result of the three-dimensional measurement by the laser range finder 102 with the self-position estimation map 411 (scan matching), and the second estimated self-position is also the first estimated self-position. As with, there are variations based on statistical errors. An ellipse 1603 indicates the error distribution of the second estimated self-position.
  • the first estimated self-position and the second estimated self-position each having variations are integrated by the Kalman filter, and the most probable position, that is, the position having the largest value in the integrated error distribution is obtained. Estimate as self-position. In this example, the position 1604 having the largest value in the integrated error distribution is estimated as the self position.
  • the self-position estimation process estimates the self-position every moment by repeating the above process.
  • FIG. 17 is a flowchart of the equipment element specifying process. This equipment element specifying process is performed by the equipment element specifying unit 402 of the monitoring apparatus 100, that is, when the processor 301 executes a program stored in the memory 302.
  • the processor 301 extracts equipment IDs, shape types, positions and sizes of peripheral equipment elements with reference to the equipment element matching map 412 based on the self-position estimated by the self-position estimation processing (1701).
  • the pipe 1203 and the valve 1204 are extracted as peripheral equipment elements.
  • the processor 301 extracts a difference between the result (measurement point group) of the three-dimensional measurement by the laser range finder 102 and the self-position estimation map 411 (1702). As a result, the measurement point group corresponding to the structure of the building such as a wall or a pillar is removed from the measurement point group obtained by the three-dimensional measurement, and only the measurement point group corresponding to the facility element is extracted.
  • FIG. 18 shows the difference extracted by the processing 1702 in the example shown in FIG.
  • the difference includes only the curved surface 1801 corresponding to a part of the pipe 1203.
  • a portion corresponding to the valve 1204 is originally included in the difference, but is omitted here for simplicity.
  • the example shown in FIG. 18 is the difference extracted from the three-dimensional measurement result obtained by the laser range finder 102 scanning once, but the results of scanning at a plurality of positions as shown in FIG.
  • the difference 1901 may be extracted from the superimposed result. By using the superimposed result, the equipment element candidate extraction accuracy in the next processing 1702 is improved.
  • the processor 301 detects and extracts the shape and position of candidate equipment elements such as a plane and a cylinder from the difference extracted in the processing 1702 by the least square method, Hough transform, or the like. Further, a prediction error distribution, which is a statistical error included in the extracted equipment element candidates, is also calculated (1703). For example, when an equipment element candidate is extracted using the least square method, the processor 301 calculates a prediction error distribution by adding a known self-position estimation error to the sum of square errors.
  • FIG. 20 shows the result of detecting and extracting the shape and position of the facility element candidate from the difference shown in FIG.
  • the cylinder 2001 corresponding to the pipe 1203 and its position are detected and extracted from the difference.
  • the processor 301 refers to the installation error statistical model 413 for each of the peripheral equipment elements extracted in the process 1701, acquires parameters (dispersion and correction coefficient) regarding the installation error, and calculates a predicted installation error distribution. (1706). Then, the processor 301 integrates the installation error distribution and the prediction error distribution for all the combinations of the peripheral equipment elements extracted in the process 1701 and the equipment element candidates extracted in the process 1703, and calculates the degree of coincidence between them. (1709). The degree of coincidence is the maximum value of the integrated error distribution.
  • the processor 301 uses the counters i and j to calculate the degree of coincidence for all combinations of the peripheral equipment elements extracted in the processing 1701 and the equipment element candidates extracted in the processing 1703 (processing 1704 ⁇ ). 1711).
  • the processor 301 calculates the combination of the peripheral equipment element and the equipment element candidate having the highest degree of coincidence, and the equipment element candidate extracted in the process 1703 corresponds to any of the peripheral equipment elements extracted in the process 1701. Identify what to do. That is, the facility ID of the facility element being monitored is specified. Further, the position having the maximum value in the error distribution in the combination is specified as the position of the equipment element being monitored (1712).
  • FIG. 21 shows a state in which the equipment ID and position of the equipment element are specified in the situation shown in FIG. 12 by the equipment element specifying process.
  • a part corresponding to the pipe 1203 is extracted as a facility element candidate (cylinder) from the result of the three-dimensional measurement, and the prediction error distribution is a concentric contour line 2101 centered on the central axis of the cylinder.
  • the pipe 1203 is extracted from the equipment element matching map 412 as the peripheral equipment elements, and the installation error distribution is centered on the central axis of the pipe 1203 based on the parameters relating to the installation error acquired from the installation error statistical model 413. It is represented by an elliptic contour 2102.
  • the shape of the installation error distribution is an ellipse, for example, because of the restrictions on the construction method when installing the pipe 1203. The distance from the wall is strictly protected, but the installation error in the direction parallel to the wall is This is because it is allowed.
  • the processor 301 integrates the two error distributions by multiplying each position, and calculates the maximum value of the integrated error distribution as the degree of coincidence between the facility element candidate and the pipe 1203. If the degree of coincidence of the combination is higher than the degree of coincidence in the other combinations, it is determined that the equipment element being monitored is the pipe 1203, and the position 2103 where the error distribution is the maximum value is the position of the pipe 1203. To be identified.
  • FIG. 22 is a display example on the display 201 in the situation shown in FIG.
  • a superimposed image of the visible light image and the temperature distribution generated by the image superimposing unit 407 is displayed in the left area of the display 201.
  • a portion 2201 exceeding the upper limit temperature of each equipment element is displayed in color.
  • the valve 1204 has exceeded its upper limit temperature, and the valve 1204 is displayed in red.
  • a system diagram 2202 generated by the image superimposing unit 407 is displayed in the right area of the display 201.
  • the portion corresponding to the valve 1204 in the system diagram 2202 is surrounded by a red circle 2203.
  • the operator can confirm that the equipment elements being monitored are the pipe 1203 and the valve 1204, and confirm that an abnormality has occurred in the valve 1204. be able to.
  • the monitoring device 100 can not only estimate the self-position, but also what the equipment element is being monitored and up to its position. Can be identified. That is, the correspondence between the facility element being monitored and the facility element managed by the monitoring system 1 can be obtained with high reliability.
  • a plurality of self-positions estimated from measurement results by a plurality of sensors are statistically integrated to estimate the final self-position, and
  • the map for self-location estimation used for self-location estimation includes only the structures in the building with little installation error.
  • the self-position can be estimated with high accuracy, and as a result, the specific accuracy of the facility element that uses the self-position estimation result can also be increased.
  • the position where the equipment element is actually arranged may be shifted from the position stored in the equipment CAD due to the installation error.
  • the equipment elements are specified in consideration of the installation error distribution of the equipment elements, so that the equipment elements can be specified even if there is an installation error.
  • FIG. 23 is a functional block diagram showing a logical configuration of the monitoring apparatus 100 according to the second embodiment of the present invention. A portion surrounded by a broken line is a portion mounted on the monitoring device 100.
  • the data 411 to 415 are stored in the storage device 303 of the monitoring device 100.
  • the data 411 to 415 are stored in the storage device 313 of the server 120.
  • the monitoring apparatus 100 requests the server 120 to transmit a portion of the data 411 to 415 necessary for processing by the function units 401 to 407, and the server 120 transmits the requested data to the monitoring apparatus 100.
  • the monitoring apparatus 100 executes processing in the function units 401 to 407 using the received data.
  • all of the data 411 to 415 are held on the server 120 side, but the monitoring apparatus 100 may have a part of the data 411 to 415. Further, the system diagram data 416 may be held on the server 120 side.
  • FIG. 24 is a functional block diagram showing a logical configuration of the monitoring device 100 according to the third embodiment of the present invention. A portion surrounded by a broken line is a portion mounted on the monitoring device 100.
  • all of the data 411 to 416 and a program for mounting the self-position estimating unit 401, the equipment element specifying unit 402, the coordinate system correcting unit 403, and the abnormality detecting unit 406 are stored in the storage device 313 of the server 120. Stored. These programs are read into the memory 312 of the server 120 and executed by the processor 311, so that these functional units 401 to 403 and 406 are installed in the server 120.
  • the monitoring device 100 transmits the measurement results of the sensors 102 to 105 to the server 120, and the server 120 performs self-position estimation processing, equipment element identification processing, etc. based on the measurement results received from the monitoring device 100. The various processes are executed. Then, the server 120 transmits the processing result (the result of self-position estimation, the identification result of the equipment element, the abnormality detection result, etc.) to the monitoring device 100.
  • the monitoring apparatus 100 processes the processing result received from the server 120 in the image superimposing unit 407 and displays the processed result on the display 201.
  • the self-position estimating unit 401, the equipment element specifying unit 402, the coordinate system correcting unit 403, and the abnormality detecting unit 406 are mounted on the server 120, but some of them are mounted on the monitoring device 100. May be.
  • the 3D mapping unit 404, the 3D mapping unit 405, and the image superimposing unit 407 are mounted on the monitoring device 100, some or all of them may be mounted on the server 120.
  • the laser range finder 102 is used to measure the surrounding three-dimensional shape, but the other three sensors may be used to measure the surrounding three-dimensional shape.
  • a method using a parallax image generated from images acquired by two cameras, a method of analyzing changes in feature points based on a plurality of images acquired while moving one camera, and the like may be used.
  • the self-position estimation map 401 measures the interior of the building three-dimensionally by the laser range finder 102 as an operator moves in the building before monitoring, and corresponds to a structure such as a wall or a pillar from the measurement result. You may make it produce
  • the monitoring apparatus 100 measures the temperature of an installation element and compares the measured temperature with a minimum temperature and an upper limit temperature, it determines the abnormality of an installation element, but other physical quantities (sound, Vibration, color, etc.) may be measured, and abnormality of equipment elements may be determined based on the measured other physical quantities.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

 監視装置は、監視装置の周囲の三次元形状を計測し、計測された三次元形状を、設備要素を除く建物内の構造物の形状及び位置を含む自己位置推定用地図と照合することで、監視装置の自己位置を推定し、推定された自己位置の周辺の設備要素を、建物内の設備要素の形状及び位置を含む設備要素照合用地図から抽出し、計測された三次元形状から設備要素候補の形状及び位置を抽出し、設備要素照合用地図から抽出された自己位置の周辺の設備要素の形状及び位置と計測された三次元形状から抽出された設備要素候補の形状及び位置との一致度を、自己位置の周辺の設備要素の形状及び位置の誤差分布及び計測された三次元形状から抽出された設備要素候補の形状及び位置の誤差分布に基づき算出し、算出された一致度に基づき、計測された三次元形状から抽出された設備要素候補の形状が設備要素照合用地図から抽出された自己位置の周辺の設備要素のいずれであるかを特定する。

Description

監視装置、監視システム及び監視方法
 本発明は、建物内の設備要素を監視する技術に関する。
 監視装置を用いて建物内の設備要素を監視するにあたっては、建物内における監視装置の自己位置を推定する必要がある。
 建物内では、GPS(全地球測位システム)を利用することができないので、これに代わる自己位置推定方法が必要であり、そのような方法の一つとして、非特許文献1に開示される自立走行ロボットのための自己位置推定方法を利用することができる。
 この方法によれば、特許文献1に開示されるようなレーザレンジファインダを用いて周囲の物体の形状や配置を計測し、計測結果と予め用意された地図とを照合(マッチング)することによって、自己位置を推定することができる。このような自己位置推定方法はスキャンマッチングと呼ばれる。
特開2009-236774号公報
Sebastian Thrun, Wolfram Burgard, Dieter Fox, "Probabilistic Robotics", The MIT Press, 2005
 しかしながら、非特許文献1が開示する方法では自己位置を推定することができるが、監視中の設備要素が何であるかを特定することができない。有用な監視のためには、自己位置の推定に加え、監視中の設備要素が何であるかを特定することが望ましい。
 本発明の目的は、建物内の設備要素を監視する監視装置において、監視中の設備要素が何であるかを特定できるようにすることである。
 本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、建物内の設備要素を監視する監視装置であって、前記監視装置の周囲の三次元形状を計測する三次元計測部と、計測された前記三次元形状を、前記設備要素以外の前記建物内の構造物の形状及び位置を含む自己位置推定用地図と照合することによって、前記監視装置の自己位置を推定する自己位置推定部と、推定された前記自己位置の周辺の設備要素を、前記建物内の設備要素の形状及び位置を含む設備要素照合用地図から抽出する周辺設備要素抽出部と、計測された前記三次元形状から設備要素候補の形状及び位置を抽出する設備要素候補抽出部と、前記設備要素照合用地図から抽出された前記自己位置の周辺の設備要素の形状及び位置と計測された前記三次元形状から抽出された前記設備要素の候補の形状及び位置との一致度を、前記自己位置の周辺の設備要素の形状及び位置の誤差分布及び計測された前記三次元形状から抽出された前記設備要素候補の形状及び位置の誤差分布に基づき算出する一致度評価部と、算出された前記一致度に基づき、計測された前記三次元形状から抽出された前記設備要素候補の形状が前記設備要素照合用地図から抽出された前記自己位置の周辺の設備要素のいずれであるかを特定する設備要素特定部と、を備えたことを特徴とする監視装置が提供される。
 本発明の代表的な実施形態によれば、自己位置を推定することができることに加え、監視中の設備要素が何であるかまで特定することができる。
第1実施形態における監視装置の外観構成図である。 図1のA矢視図である。 第1実施形態における監視装置及びサーバによって構成される監視システムのハードウェア構成を示すブロック図である。 第1実施形態における監視装置の論理的な構成を示す機能ブロック図である。 第1実施形態における設備要素特定部の詳細を示す機能ブロック図である。 第1実施形態における構造物CADに格納されるデータの例である。 構造物CADに格納されるデータから生成される自己位置推定用地図の例である。 第1実施形態における設備要素照合用地図の構成を説明する図である。 第1実施形態における設置誤差統計モデルの構成を説明する図である。 第1実施形態における標準温度データの構成を説明する図である。 第1実施形態における系統図データの構成を説明する図である。 第1実施形態における自己位置推定処理のフローチャートである。 第1実施形態における監視装置によって監視される設備要素の例である。 第1実施形態における自己位置推定処理を説明する図である。 第1実施形態における自己位置推定処理を説明する図である。 第1実施形態における自己位置推定処理を説明する図である。 第1実施形態における自己位置推定処理を説明する図である。 第1実施形態における設備要素特定処理のフローチャートである。 第1実施形態における設備要素特定処理を説明する図である。 第1実施形態における設備要素特定処理を説明する図である。 第1実施形態における設備要素特定処理を説明する図である。 第1実施形態における設備要素特定処理を説明する図である。 第1実施形態におけるディスプレイの画面表示例を示す図である。 第2実施形態における監視装置の論理的な構成を示す機能ブロック図である。 第3実施形態における監視装置の論理的な構成を示す機能ブロック図である。
 以下、本発明の実施形態を図面を用いて説明する。
 <第1実施形態>
 本発明の第1実施形態では、本発明の典型的な例を説明する。
 電力・配電設備、化学プラント等の設備要素の動作状況はSCADA(Supervisory Control And Data Acquisition)等の監視システムで監視されることが多く、監視作業においては、監視中の設備要素と監視システムで管理されている設備要素との対応関係を高い信頼度でとることが要求される。
 これは、計測された監視中の設備要素のある物理量に基づき当該設備要素の異常を判定するためには、当該設備要素が何であるかを特定し、正常か異常かを判定するための当該物理量の正常範囲をデータベースから取得する必要があるからである。また、異常が検知された場合には、当該設備要素に応じた適切な措置(現場における調査、修理等)をとる必要があるからである。
 そこで、本発明の第1実施形態における監視装置は、監視装置の自己位置を推定するだけでなく、監視中の設備要素が何であるかまで特定する。さらに、計測された監視中の設備要素の物理量に基づき、当該設備要素の異常を判定する。
 図1は、本発明の第1実施形態における監視装置100の外観構成を示している。
 監視装置100は、本体101、センサ102~105及び無線通信装置106を有する。監視作業中は、作業者が本体101を把持してセンサ102~105を前方に向け、センサ102~105によって監視装置100の周囲を計測する。ここで、「建物」とは電力・配電設備、化学プラント等の建屋であり、「設備要素」とは、建物内部に設置される配管、ポンプ、バルブ等の要素である。
 センサ102~105は、本体101の正面に取り付けられている。センサ102~105は、レーザレンジファインダ(「スキャナ式レンジセンサ」ともいう。)102、熱赤外線カメラ103、可視光カメラ104及び加速度センサ105を含む。
 レーザレンジファインダ102は、レーザ照射部と受光部を有する。レーザレンジファインダ102は、回転式の反射鏡等を用いてレーザ照射部からのレーザビームを放射状に放射し、レーザビームが直近の物体の表面で反射して受光部まで戻ってくるまでの時間を計測することで、直近の物体までの距離を計測する。様々な方向について計測を行うことによって、レーザレンジファインダ102は監視装置100の周囲の三次元形状を計測する。ここで「周囲」とは、監視装置100を中心とした所定半径の領域(例えば、レーザレンジファインダ102によって距離を計測可能な範囲)を意味する。
 熱赤外線カメラ103は、赤外線領域に感度分布を持つCCD(Charge Coupled Device)イメージセンサで構成される。熱赤外線カメラ103は、監視中の設備要素からの放射熱の強度(又は波長)、すなわち、監視中の設備要素の温度を計測する。
 可視光カメラ104は、可視光領域に感度分布を持つCCDイメージセンサで構成される。可視光カメラ104は、監視中の設備要素の可視光画像を取得する。なお、熱赤外線カメラ103と可視光カメラ104とは一つのCCDイメージセンサで構成することも可能である。
 加速度センサ105は、半導体式の加速度計とジャイロスコープとで構成され、監視装置100の3軸方向の加速度と3軸周りの回転加速度とを計測する。
 無線通信装置106は、監視装置100を外部のサーバ120と接続し、サーバ120とデータ(例えば、監視中の設備要素の設備ID、位置、温度、異常検知結果等)を交換するための装置である。無線通信装置106は、例えば、無線LANの送受信モジュールである。
 監視装置100とサーバ120とは有線で接続されていてもよく、その場合、監視装置100とサーバ120とは、有線LANインターフェース、USB等のシリアルインターフェース等で接続される。また、監視装置100とサーバ120とは、リアルタイムに通信してもよいし、必要に応じて通信してもよい。
 本体101は、データ処理用のプロセッサ、データ記憶用のメモリ等を内部に有する。また、本体101は、図2に示すように、ディスプレイ201及びボタン類からなる操作部202を例えばその背面に有する。
 サーバ120は、監視装置100とデータを交換するための無線通信装置121を有する。無線通信装置121は、例えば、無線LANモジュールである。
 図3は、監視装置100及びサーバ120によって構成される監視システム1のハードウェア構成を示すブロック図である。
 監視装置100は、プロセッサ301、メモリ302、記憶装置303、入力インターフェース304、出力インターフェース305及び無線通信装置106を有する計算機である。これらの構成301~305及び106はバス306によって相互に接続される。プロセッサ301は、メモリ302に格納されたプログラムを実行する。
 メモリ302は、DRAM等の揮発性の記憶装置で、プロセッサ301が実行するプログラムを格納する。具体的には、メモリ302は、図4に示す自己位置推定部401、設備要素特定部402、座標系補正部403、3Dマッピング部404、405、異常検知部406及び画像重畳部407を実装するためのプログラムを格納する。また、メモリ302は、オペレーティングシステム(OS)を格納する。プロセッサ301が、オペレーティングシステムを実行することによって、計算機の基本機能が実現される。
 記憶装置303は、磁気ディスクドライブ、フラッシュメモリ等の不揮発性の記憶装置で、プロセッサ301がプログラムを実行する時に使用するデータを格納する。具体的には、記憶装置303は、図4に示す自己位置推定用地図411、設備要素照合用地図412、設置誤差統計モデル413、設備CAD座標系414、標準温度データ415及び系統図データ416を格納する。
 なお、ここでは、メモリ302が、監視装置100の機能部401~407を実装するためのプログラムを格納し、記憶装置303が、機能部401~407で使用されるデータ411~416を格納するとして説明したが、機能部401~407に対応するプログラムは記憶装置303に格納されており、プログラムを実行する時に記憶装置303から読み出されメモリ302にロードされる。また、データ411~416も、プログラムが必要とする際に、記憶装置303から読み出され、メモリ302にロードされる。
 入力インターフェース304には、センサ102~105が接続される。出力インターフェース305にはディスプレイ201が接続される。
 サーバ120は、プロセッサ311、メモリ312、記憶装置313、入力インターフェース314、出力インターフェース315及び無線通信装置121を有する計算機である。これらの構成311~315及び121はバス316によって相互に接続される。プロセッサ311は、メモリ312に格納されたプログラム(設備要素及び監視装置100を管理するためのソフトウェア等)を実行する。
 メモリ312は、DRAM等の揮発性の記憶装置で、プロセッサ311が実行するプログラムを格納する。また、メモリ312は、オペレーティングシステム(OS)を格納する。プロセッサ311が、オペレーティングシステムを実行することによって、計算機の基本機能が実現される。
 記憶装置313は、磁気ディスクドライブ、フラッシュメモリ等の不揮発性の記憶装置で、プロセッサ311がプログラムを実行する時に使用するデータを格納する。
 なお、プログラムは、記憶装置313に格納されており、プログラムの実行時に記憶装置313から読み出されメモリ312にロードされる。また、データも、プログラムが必要とする際に、記憶装置313から読み出されメモリ312にロードされる。
 入力インターフェース314には、キーボード、マウス等の入力装置317が接続される。出力インターフェース315には、ディスプレイ318が接続される。
 図4は、監視装置100の論理的な構成を示す機能ブロック図である。
 監視装置100は、図中破線で囲まれた部分に対応し、センサ102~105、ディスプレイ201、機能部401~407及びデータ411~416を含む。
 まず、機能部401~407が利用するデータ411~416の構造について説明する。データ411~416は監視作業に先立って予め作成され、監視装置100の記憶装置313に格納される。なお、以下に説明するデータの構成は一例であり、その他の形式で構成されてもよい。
 自己位置推定用地図411は、壁、柱等の建物内の構造物(設置誤差が少なく、位置及び向きが不変の固定物)の形状及び位置を含む地図である。自己位置推定用地図411は、建物の設計データである構造物CAD(Computer Aided Design)421で管理されている壁、柱等のデータを変換処理422によって自己位置推定に適した形式に変換して作成される。
 自己位置推定に適した形式とは、レーザレンジファインダ102によって計測される三次元形状との照合に適した形式である。例えば、自己位置推定用地図411は、建物内の構造物の表面形状に関するデータのみを含む。
 図6A及び図6Bは構造物CAD421及び自己位置推定用地図411の具体例である。構造物CAD421は、図6Aに示されるように、壁601、柱602等の構造物のデータを有し、自己位置推定用地図401は、図6Bに示されるように、構造物の表面603のデータのみを有する。
 なお、自己位置推定用地図411は構造物CAD421から生成される地図なので、自己位置推定用地図411には配管、ポンプ、バルブ等の設備要素についてのデータは含まれない。
 設備要素照合用地図412は、設備CAD423で管理される配管、ポンプ、バルブ等の設備要素の形状、位置等を変換処理424によって変換して作成される。
 変換処理424は、設備CAD座標系414に格納されている数値(自己位置推定用地図411と設備要素照合用地図412との位置合わせに必要な位置ずれ、方向ずれ、スケールずれ等)に基づき、自己位置推定用地図411と設備要素照合用地図412との位置合わせをするための座標変換を含む。
 図7は、設備要素照合用地図412の構成を説明する図である。
 設備要素照合用地図412は、設備ID701、形状タイプ702及び位置・大きさ703を含むテーブルである。
 設備ID701は、配管、ポンプなどの各設備要素に固有に付与された識別子を格納する。設備ID701は、後述する、設備誤差統計モデル413、標準温度データ415及び系統図データ416と共通である。
 形状タイプ702は、設備要素の形状タイプに応じて付与された識別子を格納する。例えば、円柱なら1が付与され、直方体なら2が付与される。
 位置・大きさ703は、設備要素の形状タイプに応じて、位置、大きさ等を定義するための数値群を格納する。位置・大きさ703は、例えば、円柱の場合は中心座標x、yと半径rである。
 図8は、設置誤差統計モデル413の構成を説明する図である。
 設置誤差統計モデル413は、設備ID801、分散802及び補正係数803を含むテーブルである。
 設備ID801は、配管、ポンプなどの各設備要素に固有に付与された識別子を格納する。設備ID801は、設備要素照合用地図412等と共通である。
 分散802は、設備要素の設置位置の誤差分布を表すパラメータを格納する。ここでは、誤差分布を二次元の確率密度分布で表現するとし、例えば、設備要素が鉛直に配置される配管(円柱)の場合、分散802は、配管の中心軸に直交する平面での分散値σ 、σ を格納する。
 補正係数803は、設備要素の設置場所、設置工法等の影響で、誤差分布の形状が変わる場合の補正係数を格納する。補正係数803は、例えば、壁に沿って配管を設置する場合であって、壁から配管までの距離は厳密に守られるが壁に沿った方向の設置誤差は許容される場合は、誤差分布が壁に沿って長い楕円となるように誤差分布を補正するための補正係数を格納する。
 分散802及び補正係数803は、過去の実績を元に、設備要素の種類、設置場所、設置工法等に応じて設定されるが、設備要素毎に作成してもよい。
 設備CAD座標系414は、図示を省略するが、自己位置推定用地図411と設備要素照合用地図412との位置合わせに必要な、位置ずれ、方向ずれ、スケール等の数値を含む。
 図9は、標準温度データ415の構成を説明する図である。
 標準温度データ415は、設備ID901、下限温度902及び上限温度903を含むテーブルである。
 設備ID901は、配管、ポンプなどの各設備要素に固有に付与された識別子を格納する。設備ID901は、設備要素照合用地図412等と共通である。
 下限温度902は、各設備要素の下限温度を格納し、上限温度903は、各設備要素の上限温度を格納する。下限温度902及び上限温度903によって、各設備要素について正常運転と判定できる温度範囲が規定される。
 図10は、系統図データ416の構成を説明する図である。
 系統図データ416は、設備ID1001、接続元1002、接続先1003を含むテーブルである。
 設備ID1001は、配管、ポンプなどの各設備要素に固有に付与された識別子を格納する。設備ID1001は、設備要素照合用地図412等と共通である。
 接続元1002は、設備要素の上流側に接続する設備要素の識別子を格納する。当該設備要素の上流側に複数の設備要素が接続されている場合は、接続元1002は、複数の識別子を格納する。
 接続先1003は、設備要素の下流側に接続する設備要素の識別子を格納する。当該設備要素の下流側に複数の設備要素が接続されている場合は、接続先1003は、複数の識別子を格納する。
 次に、図4に戻り、監視装置100の機能部401~407の機能について説明する。
 自己位置推定部401は、監視装置100の自己位置(「位置」には監視装置100の「向き」が含まれる、以下同じ。)を複数の計測結果に基づき推定する。具体的には、加速度センサ105によって計測される加速度を2回積分して第1の予測自己位置を算出するとともに、レーザレンジファインダ102によって計測される周囲の三次元形状を自己位置推定要地図401と照合して第2の予測自己位置を算出する。そして、自己位置推定部401は、統計的な誤差に基づくばらつきを含んだこれら二つの予測自己位置をカルマンフィルタを用いて統合し、最も確からしい自己位置を推定する。
 なお、自己位置推定処理の詳細については具体例を挙げながら後で説明する。
 設備要素特定部402は、自己位置推定部401によって推定された自己位置とレーザレンジファインダ102による三次元計測の結果とを用いて、監視中の設備要素の設備ID及び位置を特定する。
 図5は、設備要素特定部402の詳細を示す機能ブロック図である。
 設備要素特定部402は、周辺設備要素抽出部501、設置誤差分布算出部502、差分抽出部503、設備要素候補抽出部504、一致度評価部505及び設備要素特定部506を含む。
 周辺設備要素抽出部501は、自己位置推定部401によって推定された自己位置に基づき、設備要素照合用地図413から自己位置の周辺の設備要素の形状タイプ及び位置・大きさ、すなわち形状及び位置を検索し、周辺設備要素として抽出する。
 設置誤差分布算出部502は、周辺設備要素抽出部501によって抽出された周辺設備要素それぞれについて、設置誤差統計モデル413を参照して対応する設備IDの分散及び補正係数を検索し、検索された分散及び補正係数に基づき設置誤差分布を算出する。
 差分抽出部503は、レーザレンジファインダ102による三次元計測結果と自己位置推定要地図411との差分を算出する。これにより、三次元計測結果から、壁、柱等の建物の構造物についての計測点群が除かれ、建物の構造物以外の物体、すなわち、設備要素についての計測点群のみが差分として抽出される。
 設備要素候補抽出部504は、差分抽出部503で抽出された差分から、平面、円柱等の設備要素に対応する形状及びその位置を最小二乗法、ハフ変換等によって検出し、これを設備要素候補として抽出する。
 最小二乗法を用いる場合は、周辺設備要素抽出部501によって抽出された周辺設備要素の形状及び位置等に基づき自己位置周辺に存在する形状をある程度予測し、予測される形状及び位置を変化させながら二乗誤差を最小とする形状及び位置を検索し、二乗誤差を最小とする形状及び位置を設備要素候補として抽出する。
 ハフ変換を用いる場合は、検索する形状に応じたパラメータを用いた投票を行い、その結果に基づいて形状を検索する。例えば、円柱の場合は、任意の半径rと中心座標x、yとの三つのパラメータで計測点毎に投票を行い、最も投票が集中したパラメータを持つ円柱が存在すると推測し、当該円柱の形状及び位置を設備要素候補として抽出する。
 なお、設備要素候補抽出部504は、抽出された設備要素候補に含まれる統計的な誤差である予測誤差分布も併せて算出する。例えば、最小二乗法を用いて設備要素候補を抽出する場合は、二乗誤差の和に、既知である自己位置推定の誤差を加味することによって予測誤差分布を算出する。
 一致度評価部505は、設置誤差分布算出部502で得られた周辺設備要素の設置誤差分布と、設備要素候補抽出部504で抽出された設備要素候補の予測誤差分布との間で、全ての組み合わせについて一致度を算出する。一致度は、設置誤差分布と予測誤差分布とを統合し、統合された誤差分布の最大値である。
 設備要素特定部506では、全ての組み合わせの中から、一致度が最大になる組み合わせを抽出する。一致度が最大になる組み合わせが最も確からしいことから、設備要素候補抽出部504で抽出された設備要素候補が周辺設備要素のどれに対応するかを特定することができる。すなわち、監視中の設備要素の設備IDを特定することができる。また、統合された誤差分布において最大値をとる位置が、監視中の設備要素の位置として最も確からしいことから、監視中の設備要素の位置も特定することができる。
 なお、設備要素特定処理の詳細については具体例を挙げながら後で説明する。
 図4に戻り、監視装置100の機能部401~407の機能についての説明を続けると、座標系補正部403は、設備要素特定部402によって特定された設備要素の位置に基づき、自己位置推定用地図411と設備要素照合用地図412とのずれを算出し、設備CAD座標系414に格納されている数値(自己位置推定用地図411と設備要素照合用地図412との位置合わせに必要な位置ずれ、方向ずれ、スケールずれ等)を修正する。これにより、変換処理424によって設備要素照合用地図412が次回生成される際の自己位置推定用地図411と設備要素照合用地図412とのずれを減少させる。
 3Dマッピング部404は、熱赤外線カメラ103で計測された監視中の設備要素の温度とレーザレンジファインダ102で計測された監視中の設備要素までの距離・方向とを統合し、三次元的な温度分布を算出する。
 3Dマッピング部405は、可視光カメラ104で取得された監視中の設備要素の可視光画像とレーザレンジファインダ102で計測された監視中の設備要素までの距離・方向とを統合し、可視光画像を三次元画像に変換する。
 異常検知部406は、標準温度データ415を参照して、監視中の設備要素の設備IDに対応する下限温度及び上限温度を検索して取得するとともに、監視中の設備要素の温度を3Dマッピング部404から取得する。そして、異常検知部406は、両者を比較し、監視中の設備要素の温度が下限温度よりも低い、又は、上限温度よりも高い場合は、当該設備要素が異常であると判定する。
 画像重畳部407は、3Dマッピング部405によって三次元画像に変換された可視光画像の上に、3Dマッピング部404によって算出された三次元的な温度分布を重畳した重畳画像を生成する。そして、画像重畳部407は、生成した重畳画像を平面に投影して二次元に変換し、ディスプレイ201に出力する。
 重畳する温度分布は、上限温度よりも温度が高い部位が赤色、その他の部位が無色となるように、温度によって色分けされる。温度に応じて連続的に色が変化するように色分けをしてもよい。また、可視光画像の上に温度分布を重ね合わせた状態であっても可視光画像を作業者が確認できるように、温度分布には適度な透過率が設定される。
 また、画像重畳部407は、系統図データ416に格納されている設備要素間の接続情報に基づき、各設備要素の接続関係を視覚的に表した系統図を生成する。そして、異常検知部406で異常が検知された設備要素に対応する部位に印(例えば、色付きの丸)を付け、ディスプレイ201に出力する。
 ディスプレイ201は、画像重畳部407から入力される重畳画像及び系統図を表示する。表示の具体例を図22に示すが、これについては後で説明する。
 続いて、自己位置推定処理及び設備要素特定処理の詳細について具体例を挙げながら説明する。
 具体例では、図12に示すように、監視装置100の周辺に、壁1201及び1202によって形成されるコーナ、壁1202の脇に立設された配管1203及び配管1203の側面に取り付けられたバルブ1204が存在する状況を想定する。
 図11は、自己位置推定処理のフローチャートである。この自己位置推定処理は、監視装置100の自己位置推定部401によって、すなわち、プロセッサ301がメモリ302に格納されたプログラムを実行することによって行われる。
 まず、プロセッサ301は、加速度センサ105で検出された加速度を2回積分し、これを自己位置の前回値に加えることで、現在の自己位置を推定する(1101)。以下、処理1101によって推定された自己位置を「第1の推定自己位置」と称する。
 次に、プロセッサ301は、様々な自己位置を仮定した際の壁、柱等の建物の配置を想定し、想定した壁、柱等の建物の構造物とレーザレンジファインダ102による三次元計測結果とを照合(スキャンマッチング)する。そして、一致度が最も高くなる位置を自己位置と推定する(1102)。処理1102によって推定された自己位置を「第2の推定自己位置」と称する。また、一致度が最も高くなる位置から推定された自己位置がずれた場合の一致度に基づき、第2の推定自己位置の統計的な誤差分布を算出する。
 例えば、図12に示した状況では、自己位置推定用地図411は、図13に示すような壁1201及び1202に対応する壁データ1201a及び1202aを含む。
 図14は、レーザレンジファインダ102による三次元計測の結果1401を太線で示している。三次元計測の結果1401は、レーザが照射される壁1201及び1202の一部と配管1203の一部に対応する多数の計測点の集合である。図中1402はレーザレンジファインダ102の位置、すなわち自己位置である。
 プロセッサ301は、図15に示すように、自己位置推定用地図411から読み出した壁データ1201a及び1202aを、アフィン変換によって平行移動及び回転し、図中破線で示すように様々な配置を想定する。
 プロセッサ301は、想定した壁データ1201a及び1202aの配置それぞれを三次元計測の結果1401と照合し、一致度を算出する。そして、プロセッサ301は、最も一致度が高くなる配置1501を求める。図14に示すように、三次元計測の結果1401と自己位置1402との関係が既知なので、三次元計測の結果1401とこれと最も一致度の高い配置1501とから、自己位置1402を推定することができる。
 また、プロセッサ301は、最も一致度が高くなる配置1501から位置がずれた場合の一致度の分布から、推定された自己位置(第2の推定自己位置)の誤差分布を算出する。
 次に、プロセッサ301は、カルマンフィルタによって、第1の推定自己位置と第2の推定自己位置とを統合し、最も確からしい位置を自己位置として推定する(1103)。
 図16は、上記自己位置推定処理の例を説明する図である。なお、この図は二次元であるが、実際の処理は三次元で行われる。
 第1の推定自己位置は、前回推定された自己位置1601に加速度センサ105によって計測された加速度の値を2回積分した値を加算することで得られる。加速度センサ105によって計測される値は統計的な誤差を含んでおり、このため、第1の推定自己位置もばらつきがある。楕円1602は、第1の推定自己位置の誤差分布を示している。
 第2の推定自己位置は、レーザレンジファインダ102による三次元計測の結果を自己位置推定用地図411と照合(スキャンマッチング)することによって推定され、第2の推定自己位置も第1の推定自己位置と同様に統計的な誤差に基づくばらつきがある。楕円1603は、第2の推定自己位置の誤差分布を示している。
 上記自己位置推定処理では、それぞればらつきを有する第1の推定自己位置及び第2の推定自己位置をカルマンフィルタによって統合し、最も確からしい位置、すなわち、統合後の誤差分布において最も大きな値をとる位置を自己位置として推定する。この例では、統合後の誤差分布において最も大きな値をとる位置1604が自己位置と推定される。
 上記自己位置推定処理は、上記処理を繰り返すことで、自己位置を刻々と推定する。
 図17は、設備要素特定処理のフローチャートである。この設備要素特定処理は、監視装置100の設備要素特定部402によって、すなわち、プロセッサ301がメモリ302に格納されたプログラムを実行することによって行われる。
 まず、プロセッサ301は、自己位置推定処理によって推定された自己位置に基づき、設備要素照合用地図412を参照して周辺設備要素の設備ID、形状タイプ及び位置・大きさを抽出する(1701)。図12に示した状況では、配管1203及びバルブ1204が周辺設備要素として抽出される。
 次に、プロセッサ301は、レーザレンジファインダ102による三次元計測の結果(計測点群)と自己位置推定用地図411との差分を抽出する(1702)。これによって、三次元計測によって得られた計測点群から壁、柱等の建物の構造物に対応する計測点群が除かれ、設備要素に対応する計測点群のみが抽出される。
 図18は、図12に示した例において、処理1702によって抽出された差分を示している。差分は、配管1203の一部に対応する曲面1801のみを含む。なお、バルブ1204に対応する部分が本来差分には含まれるが、ここでは簡単のため省略している。
 また、図18に示した例は、レーザレンジファインダ102が1回スキャンすることで得られる三次元計測結果から抽出された差分であるが、図19に示すように複数の位置においてスキャンした結果を重畳し、重畳した結果から差分1901を抽出するようにしてもよい。重畳した結果を用いることで次の処理1702における設備要素候補の抽出精度が向上する。
 次に、プロセッサ301は、処理1702で抽出された差分から、平面、円柱等の設備要素候補の形状及び位置を最小二乗法、ハフ変換等によって検出し抽出する。また、抽出された設備要素候補に含まれる統計的な誤差である予測誤差分布も算出する(1703)。例えば、最小二乗法を用いて設備要素候補を抽出する場合は、プロセッサ301は、二乗誤差の和に、既知である自己位置推定の誤差を加味することによって予測誤差分布を算出する。
 図20は、図18に示した差分から設備要素候補の形状及び位置を検出し抽出した結果を示している。この例では、差分から配管1203に対応する円柱2001及びその位置が検出され、抽出されている。
 次に、プロセッサ301は、処理1701で抽出された周辺設備要素それぞれについて、設置誤差統計モデル413を参照して設置誤差に関するパラメータ(分散及び補正係数)を取得し、予測される設置誤差分布を算出する(1706)。そして、プロセッサ301は、処理1701で抽出された周辺設備要素と処理1703で抽出された設備要素候補との全ての組み合わせについて、設置誤差分布と予測誤差分布とを統合し、両者の一致度を算出する(1709)。一致度は、統合された誤差分布の最大値である。
 実際の処理では、プロセッサ301は、カウンタi、jを用い、処理1701で抽出された周辺設備要素と処理1703で抽出された設備要素候補との全ての組み合わせについて一致度を算出する(処理1704~1711)。
 そして、プロセッサ301は、一致度が最も大きくなる周辺設備要素と設備要素候補との組み合わせを算出し、処理1703で抽出された設備要素候補が、処理1701で抽出された周辺設備要素のどれに対応するかを特定する。すなわち、監視中の設備要素の設備IDを特定する。また、当該組み合わせにおける誤差分布において最大値をとる位置を、監視中の設備要素の位置として特定する(1712)。
 図21は、上記設備要素特定処理によって、図12に示す状況において、設備要素の設備ID及び位置が特定される様子を示している。
 図12に示す状況では、三次元計測の結果から配管1203に対応する部分が設備要素候補(円柱)として抽出され、その予測誤差分布は、円柱の中心軸を中心とした同心円状の等高線2101となる。
 一方、周辺設備要素として設備要素照合用地図412から配管1203が抽出され、その設置誤差分布は、設置誤差統計モデル413から取得される設置誤差に関するパラメータに基づき、配管1203の中心軸を中心とした楕円の等高線2102で表される。設置誤差分布の形状が楕円になっているのは、例えば、配管1203の設置時の工法上の制約で、壁からの距離は厳密に守られるが、壁に平行な方向の位置の設置誤差は許容されているからである。
 プロセッサ301は、二つの誤差分布を各位置について乗じることで統合し、統合後の誤差分布の最大値を設備要素候補と配管1203との一致度として算出する。そして、その組み合わせの一致度が他の組み合わせにおける一致度よりも高い場合は、監視中の設備要素が配管1203であると特定し、かつ、誤差分布が最大値となる位置2103を配管1203の位置であると特定する。
 図22は、図12に示す状況でのディスプレイ201への表示例である。
 ディスプレイ201の左側領域には、画像重畳部407で生成された可視光画像と温度分布との重畳画像が表示される。各設備要素の上限温度を超える部分2201は色付きで表示される。この例では、バルブ1204がその上限温度を超えており、バルブ1204が赤色で表示される。
 また、ディスプレイ201の右側領域には、画像重畳部407で生成された系統図2202が表示される。この例では、バルブ1204がその上限温度を超え、異常であると判定されるので、系統図2202においてバルブ1204に対応する部分が赤丸2203で囲まれている。
 ディスプレイ201に表示されるこれら画像に基づき、作業者は、監視中の設備要素が配管1203及びバルブ1204であることを確認することができ、また、バルブ1204に異常が生じていることを確認することができる。
 以上に説明したように、本発明の第1実施形態によれば、監視装置100は、自己位置置を推定することができるだけでなく、監視中の設備要素が何であるか、及び、その位置まで特定することができる。すなわち、監視中の設備要素と監視システム1で管理されている設備要素との対応関係を高い信頼度でとることができる。
 自己位置の推定においては、複数のセンサ(レーザレンジファインダ102及び加速度センサ105)による計測結果から推定される複数の自己位置を統計的に統合し、最終的な自己位置を推定するようにし、また、自己位置推定のために用いられる自己位置推定用地図が、設置誤差の少ない建物内の構造物のみを含むようにした。これにより、自己位置を高い精度で推定することができ、ひいては、自己位置の推定結果を利用する設備要素の特定の精度も高めることができる。
 また、設備要素が実際に配置されている位置は、設置誤差により、設備CADに格納されている位置とずれている可能性があり、三次元計測結果と設備CADとを照合するだけでは、設備要素を特定することは難しい。しかしながら、本発明の第1実施形態によれば、設備要素の設置誤差分布を考慮に入れて設備要素が特定されるので、設置誤差があっても、設備要素の特定を行うことができる。
 また、監視中の設備要素候補の何であるかを特定できるので、計測された温度とその設備要素について予め設定されている正常な温度範囲とを比較し、当該設備要素の異常を判定することができ、作業者は、当該設備装置に応じた適切な措置をとることができる。
 <第2実施形態>
 続いて、本発明の第2実施形態について説明する。
 図23は、本発明の第2実施形態における監視装置100の論理的な構成を示す機能ブロック図である。破線で囲まれた部分が監視装置100に実装される部分である。
 第1実施形態では、データ411~415が監視装置100の記憶装置303に格納されていたが、第2実施形態では、データ411~415がサーバ120の記憶装置313に格納されている。
 監視装置100は、データ411~415うち、機能部401~407での処理に必要な部分を送信するようサーバ120に要求し、サーバ120は要求されたデータを監視装置100に送信する。監視装置100は受信したデータを用いて機能部401~407での処理を実行する。
 その他の構成(ハードウェア構成、機能部401~407における処理内容)については第1実施形態と同じなので、それらの説明を省略する。
 なお、第2実施形態では、データ411~415の全てをサーバ120側で持つようにしているが、データ411~415の一部を監視装置100が持つようにしてもよい。また、系統図データ416をサーバ120側で持つようにしてもよい。
 <第3実施形態>
 続いて、本発明の第3実施形態について説明する。
 図24は、本発明の第3実施形態における監視装置100の論理的な構成を示す機能ブロック図である。破線で囲まれた部分が監視装置100に実装される部分である。
 第3実施形態では、データ411~416の全てと、自己位置推定部401、設備要素特定部402、座標系補正部403及び異常検知部406を実装するためのプログラムがサーバ120の記憶装置313に格納されている。これらプログラムがサーバ120のメモリ312に読み出されてプロセッサ311によって実行されることによって、これら機能部401~403及び406がサーバ120に実装される。
 設備要素の監視作業中、監視装置100は、センサ102~105の計測結果をサーバ120に送信し、サーバ120は、監視装置100から受信した計測結果に基づき自己位置推定処理、設備要素特定処理等の各種処理を実行する。そして、サーバ120は、処理の結果(自己位置推定の結果、設備要素の特定結果及び異常検知結果等)を、監視装置100に送信する。監視装置100は、サーバ120から受信した処理の結果を画像重畳部407において加工し、ディスプレイ201に表示する。
 その他の構成(ハードウェア構成、機能部401~407における処理内容)については第1実施形態と同じなので、それらの説明を省略する。
 なお、第3実施形態では、自己位置推定部401、設備要素特定部402、座標系補正部403及び異常検知部406をサーバ120に実装しているが、これらの一部を監視装置100に実装してもよい。
 また、3Dマッピング部404、3Dマッピング部405及び画像重畳部407を監視装置100に実装しているが、これらの一部又は全部をサーバ120に実装してもよい。
 以上、本発明を添付の図面を参照して詳細に説明したが、本発明はこのような具体的構成に限定されるものではなく、添付した請求の範囲の趣旨内における様々な変更及び同等の構成を含むものである。
 例えば、上記実施形態では、周囲の三次元形状を計測するのにレーザレンジファインダ102を用いているが、その他のセンサを用いて周囲の三次元形状を計測するようにしてもよい。例えば、2台のカメラによって取得した画像から生成される視差画像を用いる方法、1台のカメラを移動しながら取得した複数の画像に基づき特徴点の変化を解析する方法等を用いてもよい。
 また、自己位置推定用地図401は、監視に先立ち、作業者が建物内を移動することでレーザレンジファインダ102によって建物内を三次元計測し、この計測結果から壁、柱等の構造物に対応する部分のみを抽出することで生成するようにしてもよい。
 また、上記実施形態では、監視装置100は、設備要素の温度を計測し、計測された温度と下限温度及び上限温度とを比較して設備要素の異常を判定するが、その他の物理量(音、振動、色等)を計測し、計測されたその他の物理量に基づき設備要素の異常を判定するようにしてもよい。

Claims (15)

  1.  建物内の設備要素を監視する監視装置であって、
     前記監視装置の周囲の三次元形状を計測する三次元計測部と、
     計測された前記三次元形状を、前記設備要素以外の前記建物内の構造物の形状及び位置を含む自己位置推定用地図と照合することによって、前記監視装置の自己位置を推定する自己位置推定部と、
     推定された前記自己位置の周辺の設備要素を、前記建物内の設備要素の形状及び位置を含む設備要素照合用地図から抽出する周辺設備要素抽出部と、
     計測された前記三次元形状から設備要素候補の形状及び位置を抽出する設備要素候補抽出部と、
     前記設備要素照合用地図から抽出された前記自己位置の周辺の設備要素の形状及び位置と計測された前記三次元形状から抽出された前記設備要素の候補の形状及び位置との一致度を、前記自己位置の周辺の設備要素の形状及び位置の誤差分布及び計測された前記三次元形状から抽出された前記設備要素候補の形状及び位置の誤差分布に基づき算出する一致度評価部と、
     算出された前記一致度に基づき、計測された前記三次元形状から抽出された前記設備要素候補の形状が前記設備要素照合用地図から抽出された前記自己位置の周辺の設備要素のいずれであるかを特定する設備要素特定部と、
    を備えたことを特徴とする監視装置。
  2.  請求項1に記載の監視装置であって、
     可視光画像を取得する可視光カメラと、
     特定された前記設備要素の物理量を測定する物理量測定部と、
     測定された前記物理量と特定された前記設備要素の標準物理量とを比較することによって特定された前記設備要素の異常を検知する異常検知部と、
     検知された前記異常を、特定された前記設備要素の位置に基づき、前記可視光カメラによって取得された前記可視光画像に重畳して表示する画像表示部と、
    をさらに備えたことを特徴とする監視装置。
  3.  請求項1に記載の監視装置であって、
     前記一致度評価部は、
     前記自己位置の周辺の設備要素の形状及び位置の誤差分布と、計測された前記三次元形状から抽出された前記設備要素候補の形状及び位置の誤差分布とを乗じて統合し、
     統合後の誤差分布の最大値を前記一致度として算出する、
    ことを特徴とする監視装置。
  4.  請求項1に記載の監視装置であって、
     前記設備要素特定部は、特定された前記設備要素の位置を前記一致度に基づき特定し、
     前記監視装置が、
     前記設備要素特定部によって特定された前記設備要素の位置に基づき、前記自己位置推定用地図と前記設備要素照合用地図とのずれを算出し、当該ずれが減少するように前記設備要素照合用地図を修正する座標系補正部をさらに備えた、
    ことを特徴とする監視装置。
  5.  請求項1に記載の監視装置であって、
     前記自己位置推定用地図及び前記設備要素照合用地図の少なくとも一つは、サーバによって保持され、
     前記監視装置は、前記自己位置推定用地図及び前記設備要素照合用地図の少なくとも一つを前記サーバから取得する、
    ことを特徴とする監視装置。
  6.  建物内の設備要素を監視する監視装置と、前記監視装置と接続されるサーバとを備える監視システムであって、
     前記監視装置の周囲の三次元形状を計測する三次元計測部と、
     計測された前記三次元形状を、前記設備要素以外の前記建物内の構造物の形状及び位置を含む自己位置推定用地図と照合することによって、前記監視装置の自己位置を推定する自己位置推定部と、
     推定された前記自己位置の周辺の設備要素を、前記建物内の設備要素の形状及び位置を含む設備要素照合用地図から抽出する周辺設備要素抽出部と、
     計測された前記三次元形状から設備要素候補の形状及び位置を抽出する設備要素候補抽出部と、
     前記設備要素照合用地図から抽出された前記自己位置の周辺の設備要素の形状及び位置と計測された前記三次元形状から抽出された前記設備要素候補の形状及び位置との一致度を、前記自己位置の周辺の設備要素の形状及び位置の誤差分布及び計測された前記三次元形状から抽出された前記設備要素候補の形状及び位置の誤差分布に基づき算出する一致度評価部と、
     算出された前記一致度に基づき、計測された前記三次元形状から抽出された前記設備要素候補の形状が前記設備要素照合用地図から抽出された前記自己位置の周辺の設備要素のいずれであるかを特定する設備要素特定部と、
    を備えたことを特徴とする監視システム。
  7.  請求項6に記載の監視システムであって、
     前記監視装置は、
     可視光画像を取得する可視光カメラと、
     特定された前記設備要素の物理量を測定する物理量測定部と、
    を有し、
     前記監視システムは、
     測定された前記物理量と特定された前記設備要素の標準物理量とを比較することによって特定された前記設備要素の異常を検知する異常検知部と、
     検知された前記異常を、特定された前記設備要素の位置に基づき、前記可視光カメラによって取得された前記可視光画像に重畳して表示する画像表示部と、
    をさらに備えたことを特徴とする監視システム。
  8.  請求項6に記載の監視システムであって、
     前記一致度評価部は、
     前記自己位置の周辺の設備要素の形状及び位置の誤差分布と、計測された前記三次元形状から抽出された前記設備要素候補の形状及び位置の誤差分布とを乗じて統合し、
     統合後の誤差分布の最大値を前記一致度として算出する、
    ことを特徴とする監視システム。
  9.  請求項6に記載の監視システムであって、
     前記設備要素特定部は、特定された前記設備要素の位置を前記一致度に基づき特定し、
     前記監視システムが、
     前記設備要素特定部によって特定された前記設備要素の位置に基づき、前記自己位置推定用地図と前記設備要素照合用地図とのずれを算出し、当該ずれが減少するように前記設備要素照合用地図を修正する座標系補正部をさらに備えた、
    ことを特徴とする監視システム。
  10.  請求項6に記載の監視システムであって、
     前記監視装置は、前記三次元計測部、前記自己位置推定部、前記周辺設備要素抽出部、前記一致度評価部及び前記設備要素特定部を含み、
     前記サーバは、前記自己位置推定用地図及び前記設備要素照合用地図の少なくとも一つを保持する、
    ことを特徴とする監視システム。
  11.  請求項6に記載の監視システムであって、
     前記サーバは、
     前記三次元計測部、前記自己位置推定部、前記周辺設備要素抽出部、前記一致度評価部及び前記設備要素特定部の少なくとも一つを含み、
     前記自己位置推定用地図及び前記設備要素照合用地図の少なくとも一つを保持する、
    ことを特徴とする監視システム。
  12.  監視装置によって建物内の設備要素を監視する監視方法であって、
     前記監視装置の周囲の三次元形状を計測する三次元計測ステップと、
     計測された前記三次元形状を、前記設備要素以外の前記建物内の構造物の形状及び位置を含む自己位置推定用地図と照合することによって、前記監視装置の自己位置を推定する自己位置推定ステップと、
     推定された前記自己位置の周辺の設備要素を、前記建物内の設備要素の形状及び位置を含む設備要素照合用地図から抽出する周辺設備要素抽出ステップと、
     計測された前記三次元形状から設備要素候補の形状及び位置を抽出する設備要素候補抽出ステップと、
     前記設備要素照合用地図から抽出された前記自己位置の周辺の設備要素の形状及び位置と計測された前記三次元形状から抽出された前記設備要素候補の形状及び位置との一致度を、前記自己位置の周辺の設備要素の形状及び位置の誤差分布及び計測された前記三次元形状から抽出された前記設備要素候補の形状及び位置の誤差分布に基づき算出する一致度評価ステップと、
     算出された前記一致度に基づき、計測された前記三次元形状から抽出された前記設備要素候補の形状が前記設備要素照合用地図から抽出された前記自己位置の周辺の設備要素のいずれであるかを特定する設備要素特定ステップと、
    を含むことを特徴とする監視方法。
  13.  請求項12に記載の監視方法であって、
     可視光画像を取得する可視光画像取得ステップと、
     特定された前記設備要素の物理量を測定する物理量測定ステップと、
     測定された前記物理量と特定された前記設備要素の標準物理量とを比較することによって特定された前記設備要素の異常を検知する異常検知ステップと、
     検知された前記異常を、特定された前記設備要素の位置に基づき、前記可視光カメラによって取得された前記可視光画像に重畳して表示する画像表示ステップと、
    をさらに含むことを特徴とする監視方法。
  14.  請求項12に記載の監視方法であって、
     前記一致度評価ステップでは、
     前記自己位置の周辺の設備要素の形状及び位置の誤差分布と、計測された前記三次元形状から抽出された前記設備要素候補の形状及び位置の誤差分布とを乗じて統合し、
     統合後の誤差分布の最大値を前記一致度として算出する、
    ことを特徴とする監視方法。
  15.  請求項12に記載の監視方法であって、
     前記設備要素特定ステップでは、特定された前記設備要素の位置を前記一致度に基づき特定し、
     前記監視方法は、
     前記設備要素特定ステップによって特定された前記設備要素の位置に基づき、前記自己位置推定用地図と前記設備要素照合用地図とのずれを算出し、当該ずれが減少するように前記設備要素照合用地図を修正する座標系補正ステップをさらに含む、
    ことを特徴とする監視方法。
PCT/JP2011/069462 2011-08-29 2011-08-29 監視装置、監視システム及び監視方法 WO2013030929A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP11871559.8A EP2765386A4 (en) 2011-08-29 2011-08-29 MONITORING DEVICE, MONITORING SYSTEM AND MONITORING PROCEDURE
PCT/JP2011/069462 WO2013030929A1 (ja) 2011-08-29 2011-08-29 監視装置、監視システム及び監視方法
JP2013530912A JP5658372B2 (ja) 2011-08-29 2011-08-29 監視装置、監視システム及び監視方法
US14/238,087 US9911041B2 (en) 2011-08-29 2011-08-29 Monitoring device, monitoring system and monitoring method
CN201180072688.9A CN103717995B (zh) 2011-08-29 2011-08-29 监视装置、监视系统及监视方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/069462 WO2013030929A1 (ja) 2011-08-29 2011-08-29 監視装置、監視システム及び監視方法

Publications (1)

Publication Number Publication Date
WO2013030929A1 true WO2013030929A1 (ja) 2013-03-07

Family

ID=47755483

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/069462 WO2013030929A1 (ja) 2011-08-29 2011-08-29 監視装置、監視システム及び監視方法

Country Status (5)

Country Link
US (1) US9911041B2 (ja)
EP (1) EP2765386A4 (ja)
JP (1) JP5658372B2 (ja)
CN (1) CN103717995B (ja)
WO (1) WO2013030929A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017505444A (ja) * 2013-10-30 2017-02-16 テクタス・ドリームラブ・プライベート・リミテッドTectus Dreamlab Pte Ltd 対象物、特に建造物を検査するための構成および方法
JP2017182612A (ja) * 2016-03-31 2017-10-05 倉敷紡績株式会社 画像配置方法及び画像配置用コンピュータプログラム
US10445160B2 (en) 2014-12-31 2019-10-15 Nuscale Power, Llc Remote monitoring of critical reactor parameters
JP2019194605A (ja) * 2019-06-11 2019-11-07 テクタス・ドリームラブ・プライベート・リミテッドTectus Dreamlab Pte Ltd 対象物、特に建造物を検査するための構成および方法
JP2020004231A (ja) * 2018-06-29 2020-01-09 大和ハウス工業株式会社 自律移動装置、自律移動プログラム及び位置推定システム
JP2020519987A (ja) * 2017-04-21 2020-07-02 エックス デベロップメント エルエルシー 環境地図生成および位置整合のための方法ならびにシステム
JP2021504715A (ja) * 2017-11-28 2021-02-15 深▲せん▼市杉川机器人有限公司Shenzhen 3Irobotix Co., Ltd. 領域輪郭作成の方法、装置及びコンピュータ読取可能な記憶媒体
JP2021103149A (ja) * 2019-12-25 2021-07-15 株式会社デンソー 推定装置、推定方法、推定プログラム
JP2021103148A (ja) * 2019-12-25 2021-07-15 株式会社デンソー 推定装置、推定方法、推定プログラム
JPWO2022014443A1 (ja) * 2020-07-16 2022-01-20
JP2022058620A (ja) * 2019-06-11 2022-04-12 スクリーニング・イーグル・ドリームラボ・プライベート・リミテッド 対象物、特に建造物を検査するための構成および方法
JPWO2022219780A1 (ja) * 2021-04-15 2022-10-20

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6432494B2 (ja) 2015-11-30 2018-12-05 オムロン株式会社 監視装置、監視システム、監視プログラムおよび記録媒体
CN111009036B (zh) * 2019-12-10 2023-11-21 北京歌尔泰克科技有限公司 同步定位与地图构建中栅格地图的修正方法、装置
US11335072B2 (en) * 2020-06-03 2022-05-17 UrsaLeo Inc. System for three dimensional visualization of a monitored item, sensors, and reciprocal rendering for a monitored item incorporating extended reality
CN112729181A (zh) * 2020-12-25 2021-04-30 上海广川科技有限公司 一种进行晶圆定位检测的装置及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07281753A (ja) * 1994-04-15 1995-10-27 Toshiba Corp 移動ロボット
JPH08304581A (ja) * 1995-04-28 1996-11-22 Toshiba Corp プラント点検支援装置および方法
JP2004347488A (ja) * 2003-05-23 2004-12-09 Mitsubishi Electric Corp 現場作業支援装置
JP2007322138A (ja) * 2006-05-30 2007-12-13 Toyota Motor Corp 移動装置及び移動装置の自己位置推定方法
JP2009236774A (ja) 2008-03-27 2009-10-15 Hokuyo Automatic Co 三次元測距装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2815045B2 (ja) * 1996-12-16 1998-10-27 日本電気株式会社 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
TW518882B (en) * 2000-03-27 2003-01-21 Hitachi Ltd Liquid crystal display device for displaying video data
JP2002132341A (ja) * 2000-10-26 2002-05-10 Toshiba Corp 現場点検装置
KR100493159B1 (ko) * 2002-10-01 2005-06-02 삼성전자주식회사 이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법
US20050285941A1 (en) * 2004-06-28 2005-12-29 Haigh Karen Z Monitoring devices
WO2007069721A1 (ja) * 2005-12-16 2007-06-21 Ihi Corporation 三次元形状データの記憶・表示方法と装置および三次元形状の計測方法と装置
US8121399B2 (en) * 2005-12-16 2012-02-21 Ihi Corporation Self-position identifying method and device, and three-dimensional shape measuring method and device
JP4974217B2 (ja) * 2006-11-27 2012-07-11 アルパイン株式会社 ナビゲーション装置
US8050458B2 (en) * 2007-06-18 2011-11-01 Honda Elesys Co., Ltd. Frontal view imaging and control device installed on movable object
JP5120926B2 (ja) * 2007-07-27 2013-01-16 有限会社テクノドリーム二十一 画像処理装置、画像処理方法およびプログラム
US8515257B2 (en) * 2007-10-17 2013-08-20 International Business Machines Corporation Automatic announcer voice attenuation in a presentation of a televised sporting event
KR100926783B1 (ko) * 2008-02-15 2009-11-13 한국과학기술연구원 물체인식 및 인식된 물체를 포함하는 주변 환경 정보를바탕으로 한 로봇의 자기 위치 추정 방법
EP2331944B1 (en) * 2008-09-05 2014-03-12 Optosecurity Inc. Method and system for performing x-ray inspection of a liquid product at a security checkpoint
DE102009016230B4 (de) * 2008-09-12 2013-12-19 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur merkmalsbasierten Ortung eines mobilen Objekts mittels einer Referenzkarte oder zum unüberwachten Lernen einer Referenzkarte zur merkmalsbasierten Ortung
KR101503903B1 (ko) * 2008-09-16 2015-03-19 삼성전자 주식회사 이동 로봇의 지도 구성 장치 및 방법
CN102203777B (zh) * 2008-11-26 2015-04-29 三菱电机株式会社 设施检索装置
JP4866951B2 (ja) * 2009-09-16 2012-02-01 株式会社日立製作所 測位組み合わせ決定システム
TWI403690B (zh) * 2009-10-26 2013-08-01 Ind Tech Res Inst 自我定位裝置及其方法
US8635015B2 (en) * 2009-12-17 2014-01-21 Deere & Company Enhanced visual landmark for localization
US8908923B2 (en) * 2011-05-13 2014-12-09 International Business Machines Corporation Interior location identification

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07281753A (ja) * 1994-04-15 1995-10-27 Toshiba Corp 移動ロボット
JPH08304581A (ja) * 1995-04-28 1996-11-22 Toshiba Corp プラント点検支援装置および方法
JP2004347488A (ja) * 2003-05-23 2004-12-09 Mitsubishi Electric Corp 現場作業支援装置
JP2007322138A (ja) * 2006-05-30 2007-12-13 Toyota Motor Corp 移動装置及び移動装置の自己位置推定方法
JP2009236774A (ja) 2008-03-27 2009-10-15 Hokuyo Automatic Co 三次元測距装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SEBASTIAN THRUN; WOLFRAM BURGARD; DIETER FOX: "Probabilistic Robotics", 2005, THE MIT PRESS
See also references of EP2765386A4

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10551280B2 (en) 2013-10-30 2020-02-04 Tectus Dreamlab Pte Ltd Arrangement and method for inspecting an object, in particular a building
JP2017505444A (ja) * 2013-10-30 2017-02-16 テクタス・ドリームラブ・プライベート・リミテッドTectus Dreamlab Pte Ltd 対象物、特に建造物を検査するための構成および方法
US10445160B2 (en) 2014-12-31 2019-10-15 Nuscale Power, Llc Remote monitoring of critical reactor parameters
JP2017182612A (ja) * 2016-03-31 2017-10-05 倉敷紡績株式会社 画像配置方法及び画像配置用コンピュータプログラム
JP6986188B6 (ja) 2017-04-21 2022-02-08 イントリンジック イノベーション エルエルシー 環境地図生成および位置整合のための方法ならびにシステム
JP2020519987A (ja) * 2017-04-21 2020-07-02 エックス デベロップメント エルエルシー 環境地図生成および位置整合のための方法ならびにシステム
JP2021504715A (ja) * 2017-11-28 2021-02-15 深▲せん▼市杉川机器人有限公司Shenzhen 3Irobotix Co., Ltd. 領域輪郭作成の方法、装置及びコンピュータ読取可能な記憶媒体
US11275178B2 (en) 2017-11-28 2022-03-15 Shenzhen 3Irobotix Co., Ltd. Method and device for drawing region outline and computer readable storage medium
JP2020004231A (ja) * 2018-06-29 2020-01-09 大和ハウス工業株式会社 自律移動装置、自律移動プログラム及び位置推定システム
JP7144991B2 (ja) 2018-06-29 2022-09-30 大和ハウス工業株式会社 自律移動装置、自律移動プログラム及び位置推定システム
JP7042238B2 (ja) 2019-06-11 2022-03-25 スクリーニング・イーグル・ドリームラボ・プライベート・リミテッド 対象物、特に建造物を検査するための構成および方法
JP7312864B2 (ja) 2019-06-11 2023-07-21 スクリーニング・イーグル・ドリームラボ・プライベート・リミテッド 対象物、特に建造物を検査するための構成および方法
JP2022058620A (ja) * 2019-06-11 2022-04-12 スクリーニング・イーグル・ドリームラボ・プライベート・リミテッド 対象物、特に建造物を検査するための構成および方法
JP2019194605A (ja) * 2019-06-11 2019-11-07 テクタス・ドリームラブ・プライベート・リミテッドTectus Dreamlab Pte Ltd 対象物、特に建造物を検査するための構成および方法
JP2021103148A (ja) * 2019-12-25 2021-07-15 株式会社デンソー 推定装置、推定方法、推定プログラム
JP2021103149A (ja) * 2019-12-25 2021-07-15 株式会社デンソー 推定装置、推定方法、推定プログラム
JP7318522B2 (ja) 2019-12-25 2023-08-01 株式会社デンソー 推定装置、推定方法、推定プログラム
JP7318521B2 (ja) 2019-12-25 2023-08-01 株式会社デンソー 推定装置、推定方法、推定プログラム
WO2022014443A1 (ja) * 2020-07-16 2022-01-20 コニカミノルタ株式会社 プラント管理方法、プラント管理装置およびプラント管理プログラム
JPWO2022014443A1 (ja) * 2020-07-16 2022-01-20
JP7260839B2 (ja) 2020-07-16 2023-04-20 コニカミノルタ株式会社 プラント管理方法、プラント管理装置およびプラント管理プログラム
JPWO2022219780A1 (ja) * 2021-04-15 2022-10-20
WO2022219780A1 (ja) * 2021-04-15 2022-10-20 三菱電機株式会社 点検支援装置、点検支援システム、点検支援方法、及び点検支援プログラム
JP7361992B2 (ja) 2021-04-15 2023-10-16 三菱電機株式会社 点検支援装置、点検支援システム、点検支援方法、及び点検支援プログラム

Also Published As

Publication number Publication date
CN103717995B (zh) 2016-05-11
EP2765386A4 (en) 2015-04-08
JPWO2013030929A1 (ja) 2015-03-23
JP5658372B2 (ja) 2015-01-21
CN103717995A (zh) 2014-04-09
US20140168423A1 (en) 2014-06-19
EP2765386A1 (en) 2014-08-13
US9911041B2 (en) 2018-03-06

Similar Documents

Publication Publication Date Title
JP5658372B2 (ja) 監視装置、監視システム及び監視方法
CN112654886B (zh) 外参标定方法、装置、设备及存储介质
US9250073B2 (en) Method and system for position rail trolley using RFID devices
US7627447B2 (en) Method and apparatus for localizing and mapping the position of a set of points on a digital model
EP4060288A2 (en) Apparatus and method for providing vehicular positioning
JP6545279B2 (ja) 衝突は発生しないかについて、車両が辿るべき目標軌跡を監視するための方法及び装置
Bonnabel et al. On the covariance of ICP-based scan-matching techniques
CN110470333B (zh) 传感器参数的标定方法及装置、存储介质和电子装置
CN105874350A (zh) 校准装置、校准方法及校准程序
JP6532412B2 (ja) 自己位置推定システム、自己位置推定方法、モバイル端末、サーバおよび自己位置推定プログラム
JP7113611B2 (ja) 位置特定装置、位置特定プログラム及び位置特定方法、並びに、撮影画像登録装置、撮影画像登録プログラム及び撮影画像登録方法
US9727978B2 (en) Method for extracting outer space feature information from spatial geometric data
CN112990151B (zh) 障碍物检测模块的精度检测方法和电子设备
Yu et al. Displacement measurement of large structures using nonoverlapping field of view multi‐camera systems under six degrees of freedom ego‐motion
KR102050995B1 (ko) 공간좌표의 신뢰성 평가 장치 및 방법
RU139571U1 (ru) Устройство ориентации и навигации тележки мобильного робота при его перемещении по горизонтальной поверхности в заданном помещении
US11288554B2 (en) Determination method and determination device
CN105741260A (zh) 行动定位装置及其定位方法
KR101502071B1 (ko) 랜드마크 기반 비전항법시스템을 위한 카메라 데이터 생성기와 그것을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
CN112344966A (zh) 一种定位失效检测方法、装置、存储介质及电子设备
CN112099509A (zh) 地图优化方法、装置及机器人
Barczyk et al. Observability, covariance and uncertainty of ICP scan matching
JP7441579B1 (ja) 情報処理システム及び情報処理方法
JP2019168226A (ja) プラント設備ナビゲーションシステムおよびプラント設備ナビゲーション方法
KR102521235B1 (ko) 설비의 이상 유무를 모니터링하는 자율주행 장치 및 그 동작 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180072688.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11871559

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013530912

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14238087

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011871559

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE