WO2020045631A1 - メータ読取装置、メータ検針システム、及びコンピュータプログラム - Google Patents

メータ読取装置、メータ検針システム、及びコンピュータプログラム Download PDF

Info

Publication number
WO2020045631A1
WO2020045631A1 PCT/JP2019/034133 JP2019034133W WO2020045631A1 WO 2020045631 A1 WO2020045631 A1 WO 2020045631A1 JP 2019034133 W JP2019034133 W JP 2019034133W WO 2020045631 A1 WO2020045631 A1 WO 2020045631A1
Authority
WO
WIPO (PCT)
Prior art keywords
meter
unit
captured image
information
pointer
Prior art date
Application number
PCT/JP2019/034133
Other languages
English (en)
French (fr)
Inventor
西村 圭介
孝司 小山
Original Assignee
株式会社オージス総研
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オージス総研 filed Critical 株式会社オージス総研
Priority to CN201980056090.7A priority Critical patent/CN112640415B/zh
Priority to JP2020517609A priority patent/JP6811354B2/ja
Publication of WO2020045631A1 publication Critical patent/WO2020045631A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C19/00Electric signal transmission systems

Definitions

  • the present invention relates to a meter reading device for reading a pointer of an analog meter, a meter reading system using the meter reading device, and a computer program.
  • Patent Literature 1 discloses reading a measured value of a single-needle rotation type analog meter by analyzing a luminance value in a range in which the pointer moves using a reference image obtained by imaging a scale plate in a state where the pointer points to a known scale. A method has been proposed. In Patent Literature 1, it is estimated that the pointer is present in a portion where the luminance value is the lowest and the change in the luminance value in the radial direction on the arc-shaped dial is small, and the measured value is read from a portion having a high correlation with the reference image. .
  • Patent Document 2 discloses a technique for performing background removal, noise removal, and the like in order to identify a portion of a luminance value set for a pointer by image recognition.
  • Patent Literature 1 In a conventional method such as Patent Literature 1 or Patent Literature 2, an image of a portion where a luminance value lower than a predetermined value appears appears on the assumption that the luminance value of a region in which a pointer appears in a captured image is lower than other regions. Extracted from the image.
  • Patent Literature 1 a method is used in which a captured image in which a pointer is captured in advance and frequency conversion is performed together with a captured image of a dial to identify a portion having a high correlation, but the accuracy is reduced even if noise is removed. Is difficult to identify.
  • the place where the instrument is attached is affected by light from a factory window, other equipment, and the like, and the scale plate may show a clear shadow different from characters, dirt, and the like. If the pointer keeps shaking, the image of the pointer shown in the captured image is unclear and may be confused with a clear shadow or the like and may be erroneously detected.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide a meter reading device, a meter reading system, and a computer program that accurately read the pointer of an analog meter by a simple method.
  • the reference position of the scale plate in the captured image of the scale plate of the meter, the information indicating the position of a plurality of main scales of the scale plate are respectively associated with numerical values.
  • a first storage unit that stores the image in association with the identification information of the device, a receiving unit that receives a captured image newly capturing the scale of the meter, and each time the captured image is received by the receiving unit, the captured image
  • a reading unit that reads a numerical value indicated by the pointer of the meter based on the reference position of the dial, the positions of the plurality of main graduations, and the shape and size of the pointer stored in the first storage unit; Read by department The taken numeric and a second storage unit that stores in association with the identification information.
  • a meter reading system includes an adapter for attaching to a meter, an imaging unit and a wireless communication unit on a substrate positioned with respect to the meter by the adapter, and an image captured by the imaging unit
  • a camera device that transmits the position indicated by the pointer of the meter with respect to a captured image transmitted from the camera device, and the meter reading device according to any one of claims 1 to 5. including.
  • a computer program provides a computer including a storage unit, a reference position of the scale plate in a captured image obtained by imaging a scale plate of a meter, and a plurality of main scales of the scale plate each associated with a numerical value.
  • Receiving the information indicating the position of the pointer receiving the information indicating the shape and size of the pointer, storing the received information in the storage unit in association with the identification information of the meter or the imaging device that images the meter, Receiving a picked-up image of a newly picked-up graduation plate, each time a received image is received, the stored reference position of the graduation plate, the positions of the plurality of main graduations, and the shape and size of the hands
  • a process of reading the numerical value indicated by the pointer of the meter and storing the read numerical value in the storage unit in association with the identification information.
  • a computer program includes a computer including a display unit and a communication unit, including a captured image obtained by capturing a scale of a meter, and receiving a selection operation of a reference position of the scale on the captured image.
  • the communication unit receives screen information of a setting screen including one screen and a second screen that receives a selection operation of a plurality of main scale positions of the scale board on the captured image in association with corresponding numerical values. Then, a process of displaying the setting screen on the display unit based on the received screen information, receiving the information, and transmitting the received information by the communication unit is performed.
  • the reading process is executed based on the initially received reference position of the dial, the positions of the plurality of main graduations, and the shape and size of the hands.
  • a captured image obtained by capturing the scale of the meter is scanned in a direction orthogonal to the scale to create a scanned image.
  • a likelihood distribution indicating a high possibility that the pointer is present in the scanned image is obtained.
  • the position of the pointer that is, the numerical value indicated by the pointer on the dial is specified.
  • the reference positions of the hands, the positions of the plurality of main graduations, and the shapes and sizes of the hands are received on the screen including the captured image.
  • the person in charge may set the reference position, the plurality of positions of the main scale, the shape, and the size for the first time while viewing the captured image.
  • the accuracy is also improved as compared with the case where the position of the main scale is specified by a complicated image analysis process.
  • the numerical value is automatically read, but also the determination of the presence or absence of an abnormality may be performed by the meter reading device.
  • a numerical value that is automatically read is stored as a history, and not only a determination as to whether the numerical value is safe alone but also whether there is a sign of danger based on a long-term change is performed. Can be determined.
  • a camera device is attached to the meter via an adapter, and not only high-precision meter reading based on the camera device, but also the convenience of the camera device is improved by expanding peripheral services.
  • the meter reading device According to the meter reading device, the meter reading system, and the computer program of the present disclosure, it is possible to automatically read the pointer of the analog meter accurately and with a simple method. It is possible to omit the task of confirming the abnormality judgment by visual observation of the analog meter. Incorporation of an analog meter into an IoT system can be easily realized.
  • FIG. 3 is a diagram illustrating an outline of correction of distortion in a captured image.
  • FIG. 3 is a diagram illustrating an outline of correction of distortion in a captured image.
  • FIG. 9 is a flowchart illustrating an example of a reading process performed by a server device. It is a schematic diagram which shows the example of the content of the captured image.
  • FIG. 3 is a diagram illustrating an outline of a scanning method for a captured image. It is a schematic diagram which shows an example of the scanning image of the dial of a meter. It is a schematic diagram which shows an example of the scanning image of the dial of a meter. It is a schematic diagram which shows an example of the scanning image of a pointer. It is a schematic diagram which shows an example of the scanning image of a pointer. It is a figure showing a likelihood distribution. It is a figure showing a likelihood distribution. FIG.
  • FIG. 9 is a diagram illustrating an outline of another example of a scanning method for a captured image. It is a flowchart which shows an example of the procedure of the abnormality detection processing by the control part of a server apparatus. It is a flowchart which shows an example of the procedure of the 2nd abnormality detection processing by a server apparatus.
  • FIG. 1 is an explanatory diagram showing an outline of the meter reading system 100 in the present embodiment.
  • the meter reading system 100 includes a plurality of camera devices 1, a gateway device 2, a server device 3, and a client device 4.
  • the camera device 1 is provided for a plurality of meters M provided in equipment in a factory.
  • the gateway device 2 is installed in a factory, and is capable of communicating with a plurality of camera devices 1.
  • the communication connection between the camera device 1 and the gateway device 2 is realized by, for example, short-range wireless communication.
  • the camera device 1 and the gateway device 2 may be configured to be capable of communication connection by wire.
  • the camera device 1 transmits a captured image of the scale of the meter M to the gateway device 2 by communication.
  • the gateway device 2 transmits the captured image transmitted from each of the plurality of camera devices 1 to the server device 3 via the network N.
  • the server device 3 executes a process described below on the captured image transmitted from the gateway device 2 and specifies the state indicated by the positions of the hands of the one or more meters M in the captured image.
  • the server device 3 exhibits a function of receiving setting information for specifying a state on a Web basis, and issues an alarm to a manager of a factory where the meter M is provided based on the specified state. Demonstrate function.
  • the server device 3 is described as a single server computer for ease of description, but is realized by a virtual server that is logically operated by a plurality of instances on a single server computer. . Further, functions or processes may be distributed or superimposed on a plurality of server computers.
  • the network N includes a public network N1 and a carrier network N2.
  • the public network N1 is the so-called Internet.
  • the carrier network N2 is a network provided by a communication carrier that realizes wireless communication based on a standard such as the next-generation or next-next-generation high-speed mobile communication standard.
  • the public network N1 includes an access point AP.
  • the carrier network N2 includes a base station BS.
  • the gateway device 2 can transmit and receive information to and from the server device 3 connected to the public network N1 by the access point AP or the base station BS.
  • meters with digital output functions output the measurement results to a control device such as a center console in the factory, and the state of the measurement target is controlled by the control device. It is easy to determine the presence or absence of abnormalities.
  • the factory manager checks the presence or absence of abnormality visually, or uses a camera to display the meter scale plate in places where personnel cannot enter. The person in charge checked the image and remotely checked it to determine whether there was any abnormality. For example, with regard to the meter M which is a diaphragm type pressure gauge, the person in charge visually inspects several times a day to see if the pressure is abnormally high. Has been judged.
  • the camera device 1 is attached to the meter M that does not have a digital output function, and the function as the meter reading device of the server device 3 based on the image captured by the camera device 1 is used.
  • the server device 3 can specify the state where the pointer of the meter M is inserted with high accuracy. This makes it possible to simplify the procedure of installing the gateway device 2 in the factory by providing the camera device 1 on the existing analog meter M and omitting the visual inspection of the person in charge several times a day. .
  • FIGS. 2A and 2B are schematic diagrams of the camera device 1.
  • FIG. 2A is a schematic perspective view
  • FIG. 2B is a schematic sectional view.
  • the camera device 1 is provided with an imaging unit 11 and a light source 12 on one surface of a strip-shaped extension board 10f extended from the board 10, mounts a communication unit 13 and a control unit 14 on the board 10, and connects a battery box 16 thereto. It is composed.
  • the light source 12 may be unnecessary depending on the installation location, and thus is preferably detachable.
  • the camera device 1 is attached such that the surface of the extension board 10f on which the imaging unit 11 is mounted faces the window for viewing the scale of the meter M.
  • the camera device 1 is positioned with respect to the meter M by the adapter 17.
  • the adapter 17 has a transparent resin cover 15 having a circular shape larger than the outer diameter of the meter M, and a main body of the adapter 17 fixed to one end of the cover 15.
  • the camera device 1 By fixing the substrate 10 together with the battery box 16 to the main body of the adapter 17, covering the cover 15 over the window of the meter M, and fixing it with mounting screws or fittings (not shown), the camera device 1 Are positioned as shown in FIG.
  • the cover 15 is made of a transparent resin, and the extension board 10f on which the imaging unit 11 facing the scale plate of the meter M is mounted is a strip and has a size having a width corresponding to the size of the imaging unit 11. Therefore, the meter M with the camera device 1 attached can also be visually recognized.
  • the configurations of the camera device 1 and the adapter 17 are not limited to this.
  • the imaging unit 11 includes a visible light or infrared light imaging element, a memory, and the like, and performs imaging in accordance with a control signal from the control unit 14.
  • the light source 12 includes, for example, an LED (Light Emitting Diode), and emits white light or infrared light at the time of imaging according to a control signal of the control unit 14.
  • the light source 12 may use an illuminance sensor, and may not be turned on when it is sufficiently bright due to ambient light.
  • the communication unit 13 realizes a communication connection with the gateway device 2.
  • the communication unit 13 includes, for example, a short-range wireless communication module such as Bluetooth (registered trademark), particularly 2.4 GHz BLE (Bluetooth Low Energy).
  • the control unit 14 includes a processor and a memory, and controls imaging execution by the imaging unit 11, turning on / off of the light source 12, and transmission / reception by the communication unit 13 based on a program and setting information stored in the memory.
  • identification information for identifying the camera device 1 from others is stored in advance, and the control unit 14 stores the identification information in the memory when transmitting a captured image from the communication unit 13. And transmits the associated identification information.
  • the control unit 14 performs imaging with the imaging unit 11 based on a cycle included in the setting information or in response to an instruction from the gateway device 2, reads out a captured image temporarily stored in a built-in memory of the imaging unit 11, It is provided to the communication unit 13 and transmitted to the gateway device 2.
  • the camera device 1 may include another sensor in addition to the imaging unit 11.
  • the camera device 1 may include, for example, a temperature sensor and a humidity sensor.
  • the camera device 1 may include, for example, a sensor that acquires information on an imaging environment, such as its own battery voltage and an illuminance sensor.
  • the control unit 14 can transmit the metadata description portion of the captured image including the information measured by these sensors from the communication unit 13 together with the captured image.
  • FIG. 3 is a block diagram showing a configuration of the meter reading system 100.
  • a device called a so-called IoT gateway including a first communication unit 22 and a second communication unit 23 having different protocols is used.
  • the gateway device 2 includes a control unit 20 and a storage unit 21.
  • the control unit 20 performs a process of transmitting a captured image transmitted from the camera device 1 to the server device 3 based on a program and setting information stored in advance using a CPU, a clock, and the like.
  • the first communication unit 22 includes a short-range wireless communication module such as BLE for communication with the camera device 1.
  • the second communication unit 23 includes a communication module for the next-generation mobile communication standard that realizes communication via the carrier network N2 included in the network N.
  • the gateway device 2 may include a device for Ethernet (registered trademark) and a communication module for wireless LAN.
  • the server device 3 uses a server computer.
  • the server device 3 includes a control unit 30, a storage unit 31, and a communication unit 32.
  • the control unit 30 is a processor using a CPU (Central Processing Unit) or a GPU (Graphical Processing Unit), and includes a built-in volatile memory, a clock, and the like. It is preferable that the control unit 30 uses a GPU or a separate graphic card to execute image processing as described later.
  • the control unit 30 executes each process based on the server program 30P stored in the storage unit 31, and causes the general-purpose server computer to function as a specific meter reading device that performs information processing on a captured image of a meter M described later.
  • the storage unit 31 stores information referred to by the control unit 30 in addition to the server program 30P using a hard disk.
  • the storage unit 31 stores setting information for each meter M, which is referred to by the control unit 30 at the time of processing of a captured image described later, in association with identification information of the meter M.
  • the server program 30P stored in the storage unit 31 may be externally acquired and stored by the communication unit 32.
  • the communication unit 32 includes a network card.
  • the control unit 30 can transmit and receive information to and from the client device 4 via the network N by the communication unit 32.
  • the client device 4 includes a control unit 40, a storage unit 41, a display unit 42, an operation unit 43, a voice input / output unit 44, and a communication unit 45.
  • the control unit 40 includes a processor such as a CPU or a GPU, a memory, and the like.
  • the control unit 40 may be configured as one piece of hardware (SoC: System ⁇ On ⁇ a ⁇ Chip) in which a processor, a memory, a storage unit 41, and a communication unit 45 are integrated.
  • SoC System ⁇ On ⁇ a ⁇ Chip
  • the control unit 40 causes a general-purpose computer to function as the client device 4 for the user of the meter reading system 100 of the present embodiment based on the application program 40P stored in the storage unit 41.
  • the storage unit 41 includes a nonvolatile memory such as a flash memory.
  • the storage unit 41 stores the application program 40P.
  • the application program 40P may include a Web browser function. A general-purpose Web browser program stored in the storage unit 41 may be used.
  • the storage unit 41 stores data referred to by the control unit 40.
  • the application program 40P may be one in which the control unit 40 reads the application program 49P stored in the storage medium 49 by a reading unit (not shown) and installs the application program 49P in the storage unit 41.
  • the application program 40P may be one in which the control unit 40 receives an application program (not shown) distributed by an arbitrary server device via the network N by the communication unit 45 and installs the application program in the storage unit 41.
  • the display unit 42 includes a display device such as a liquid crystal panel or an organic EL display.
  • the operation unit 43 is an interface that receives a user operation, and includes a physical button and a touch panel device with a built-in display.
  • the operation unit 43 can receive an operation on a screen displayed on the display unit 42 by a physical button or a touch panel.
  • the audio input / output unit 44 includes a speaker, a microphone, and the like.
  • the voice input / output unit 44 includes a voice recognition unit, and can recognize an operation content from an input voice using a microphone and accept the operation.
  • the communication unit 45 is a wireless communication module that transmits and receives information to and from the server device 3 via the network N.
  • the communication unit 45 may perform communication via the network N by wire using a network card.
  • the gateway device 2 stores the device identification information of the camera device 1 that can be connected for communication in the storage unit 21 in advance.
  • the device identification information may be, for example, a MAC address, or may be information previously assigned to the camera device 1 and stored.
  • the storage unit 21 may additionally store the gateway identification information of the gateway device 2 itself.
  • the gateway device 2 may establish a pairing with a plurality of camera devices 1 by the first communication unit 22 for the camera device 1 to establish communication connection.
  • the control unit 20 of the gateway device 2 instructs the plurality of camera devices 1 to execute imaging and transmit a captured image in order in association with the device identification information stored in the storage unit 21.
  • the control unit 14 may transmit this together with the captured image.
  • the control unit 20 of the gateway device 2 associates the captured image from the second communication unit 23 with the corresponding device identification information to the server device 3. Send.
  • the control unit 20 may use the built-in memory to accumulate the captured images. If transmission from the second communication unit 23 is difficult, the data may be stored and transmitted when communication becomes possible.
  • the control unit 20 of the gateway device 2 cyclically repeats the above-described image capturing instruction and the process of receiving and transmitting the captured image with respect to one or a plurality of camera devices 1 that can be connected for communication.
  • the gateway device 2 can be communicatively connected to, for example, up to 20 camera devices 1. When it takes 10 seconds to 20 seconds to transmit to the server device 3 from one imaging instruction, each camera device 1 performs imaging once every 4 minutes to 6 minutes.
  • the control unit 30 receives setting information used for specifying the position of the pointer and specifying the numerical value in association with the device identification information for each meter M. When information on the imaging environment, such as temperature, humidity, and battery voltage, is added along with the captured image, these are associated with the specified numerical values, and are used in processing (FIG. 16 or FIG. 17) described later. You may.
  • the reception of the setting information is executed based on the application program 40P of the client device 4 or the Web browser program.
  • FIG. 4 is a flowchart illustrating an example of a setting information receiving process procedure.
  • the control unit 30 of the server device 3 logs in the service of the meter reading system 100 using the account information by the web browser function of the client device 4 using the web browser function of the client device 4, and the following services are provided in the web service provided by the server device 3. Processing is started.
  • the control unit 30 receives selection or input of device identification information of the camera device 1 corresponding to the meter M to be set (step S101).
  • the control unit 30 stores the received device identification information in association with the logged-in account information (step S102).
  • the control unit 30 reads out the captured image stored in the storage unit 31 in association with the received device identification information (Step S103).
  • step S103 if the captured image associated with the received device identification information is not yet stored in the storage unit 31, the server device 3 sends the gateway device 2 a test to the camera device 1 corresponding to the device identification information. May be transmitted.
  • the control unit 30 transmits screen information including the setting information reception screen including the read captured image to the client device 4 (Step S104).
  • the control unit 30 uses the operation unit 43 of the client device 4 on the setting information reception screen to set the pointer fulcrum position on the captured image included in the screen, the positions of the plurality of main graduations, and the shape and hands of the hands. Input or selection is accepted for each meter M (step S105).
  • the control unit 30 may receive the camera view angle setting and the distortion correction setting on the setting information reception screen while including the captured image in the preview frame.
  • the control unit 30 stores the coordinates of the position of the pointer fulcrum and the position of the main scale received in step S105 in the captured image in the storage unit 31 in association with the device identification information and the meter identification information of the meter M (step S106).
  • the meter identification information may be a name of the meter M, information indicating a place where the meter M is installed, a number, a symbol, or the like.
  • the meter identification information only needs to be distinguishable from the meter identification information of another meter M in combination with the device identification information. For example, if the device identification information is a MAC address, it can be identified by a set of a MAC address and a serial number. Note that the meter identification information is indispensable when a plurality of meters M to be monitored are captured in one captured image. However, when one target meter M is captured in one captured image, May not be used.
  • the control unit 30 calculates, for each of the meters M, an angle of an arc having a radius of a distance from the pointer fulcrum position coordinates to the positions of the plurality of main graduations for each of the adjacent main graduations, and calculates the device identification information and the meter.
  • the identification information is stored in the storage unit 31 (step S107). Details of step S107 will be described later.
  • the control unit 30 determines, on the captured image, the distance to the tip of the needle, the thickness of the tip, the thickness of the base with respect to the pointer fulcrum position received in step S106, and the device identification information.
  • the information is stored in the storage unit 31 in association with the meter identification information of the meter M (step S108). Details of step S108 will also be described later.
  • the control unit 30 stores the needle color of the received hand in the storage unit 31 in association with the device identification information and the meter identification information of the meter M (step S109), and ends the setting processing procedure.
  • FIGS. 5 to 7 are diagrams showing examples of the setting information reception screen.
  • FIGS. 5A and 5B show a first screen 421 for receiving a pointer fulcrum position among the setting information reception screens 420 displayed on the display unit 42 of the client device 4.
  • FIG. 5A shows the first screen 421 during reception of the pointer fulcrum position
  • FIG. 5B shows the first screen 421 after reception of the pointer fulcrum position.
  • the first screen 421 includes a preview screen 422 including a captured image of the scale of the meter M, as shown in FIGS. 5A and 5B.
  • a pointer 431 operated by the person in charge using the operation unit 43 of the client device 4 is displayed.
  • the person in charge checks the position of the pointer fulcrum in the captured image included in the preview screen 422 visually, and performs the selection operation by overlapping the pointer 431.
  • the fulcrum mark 423 is drawn at the position where the pointer 431 is overlapped when the selection operation is performed.
  • coordinates (X, Y) indicating the position on the captured image of the pointer 431 when the operation of selecting the pointer fulcrum position is performed are displayed.
  • the first screen 421 includes a button interface 432 for proceeding to the next second screen.
  • the button interface 432 is invalidated and cannot be selected.
  • the button interface 432 is activated and can be selected.
  • the person in charge confirms that the fulcrum mark 423 is drawn at the position of the pointer fulcrum visually identified, the person in charge superimposes the pointer 431 on the button interface 432 and performs a selection operation. Thereby, the pointer fulcrum position is received.
  • FIG. 6 shows a second screen 424 of the setting information reception screen 420 for receiving the positions of a plurality of main scales.
  • FIG. 6 shows the second screen 424 during the operation of selecting the position of the main scale.
  • a second screen 424 is displayed on the setting information reception screen 420.
  • the second screen 424 includes a preview screen 422 including a captured image of the scale of the meter M.
  • the pointer 431 is also displayed on the second screen 424 during reception of the position of the main scale.
  • the person in charge checks the position corresponding to the main scale visually in the captured image included in the preview screen 422, and performs the selection operation by overlapping the pointer 431.
  • an auxiliary line 425 is drawn between the position where the pointer 431 when the selection operation is performed and the fulcrum mark 423.
  • the auxiliary line 425 is indicated by a broken line.
  • the selection operation is received in ascending order from the 0 (zero) scale at set intervals (“2” in FIG.
  • a set of a scale that increases at a set interval and coordinates (X, Y) indicating the position on the captured image of the pointer 431 when the selection operation is performed on the scale is a main scale. Is accepted as a position. Information on the accepted position of the main scale is displayed as a table 426 in the second screen 424.
  • the second screen 424 also includes a button interface 433 that is selected when the reception is completed.
  • a button interface 433 that is selected when the reception is completed.
  • FIG. 7 shows a third screen 427 of the setting information reception screen 420 for receiving the shape and size of the hands and the needle color.
  • FIG. 7 shows a third screen 427 during the operation of selecting the shape of the pointer.
  • a third screen 427 is displayed on the setting information reception screen 420.
  • the third screen 427 includes a preview screen 422 including a captured image of the scale of the meter M.
  • the pointer 431 is also displayed on the third screen 427 during reception of the shape of the pointer.
  • information indicating a general contour is stored in advance in the storage unit 31 as the shape of the pointer.
  • the person in charge checks the pointer visually in the captured image included in the preview screen 422, and selects the pointer 431 by superimposing the pointer 431 on the pointer tip position in accordance with a message prompting the selection of the pointer tip. I do.
  • the tip position when the tip position is selected, coordinates indicating the position of the tip position on the captured image are specified, and the distance to the pointer fulcrum position already accepted and the rotation angle are specified. I do.
  • a contour 428 corresponding to the shape and size of the pointer is drawn using the specified distance and rotation angle based on the general contour information of the pointer stored in the storage unit 31. The thickness of the front end, the fulcrum, and the end of the outline 428 can be adjusted by selecting and dragging the position where the pointer 431 is overlapped.
  • the shape of the pointer is received based on the contour information of the contour 428 after the adjustment.
  • the third screen 427 shown in FIG. 7 includes a palette control 429 for selectively displaying color samples of different colors and accepting them as needle colors.
  • the person in charge checks the pointer visually in the captured image included in the preview screen 422, and selects the pointer 431 by superimposing the pointer 431 on one of the appropriate color samples of the palette control 429 according to a message prompting the selection of the needle color. Manipulate. Thereby, the needle color is received.
  • the third screen 427 may further include a palette control for receiving selection of the base color of the dial.
  • the third screen 427 also includes a button interface 434 that is selected when the reception is completed.
  • a button interface 434 that is selected when the reception is completed.
  • distortion correction of the captured image may be set.
  • the distortion correction for example, since the distance between the imaging unit 11 of the camera device 1 and the meter M is short, if the imaging unit 11 is not strictly perpendicular to the scale plate of the meter M, that is, if it is not directly facing, the distortion is reduced. growing.
  • 8A and 8B are diagrams illustrating an outline of correction of distortion in a captured image. 8A and 8B, the distortion of the captured image is represented by a lattice. As shown in FIG. 8A and FIG. 8B, the lattices which originally intersect perpendicularly are distorted as shown in FIG.
  • the control unit 30 of the server device 3 may automatically specify and correct distortion using an image analysis function, or display a screen for previewing a captured image before the first screen 421, and The user may correct the distortion while checking the corrected captured image.
  • FIG. 8B shows the grid after the correction.
  • the control unit 30 of the server device 3 accepts this, and stores the parameter group used at the time of correction in the storage unit 31 as setting information. Based on the setting information, the control unit 30 can perform correction on a captured image captured by the same camera device 1 at a stage before a reading process described later.
  • the reading process is executed by the server device 3 on the captured image transmitted from the camera device 1 based on the setting information received via the client device 4.
  • FIG. 9 is a flowchart illustrating an example of a reading process procedure performed by the server device 3.
  • the server device 3 executes the following processing each time a captured image is received from the gateway device 2.
  • the control unit 30 of the server device 3 specifies the device identification information corresponding to the received captured image (Step S201), and reads out the setting information associated with the device identification information from the storage unit 31 (Step S202).
  • the control unit 30 first executes the distortion correction process on the received captured image based on the read setting information (step S203).
  • step S203 for example, the control unit 30 reads and applies a group of correction parameters by the operation of the person in charge on the preview screen 422 including the captured image in the setting information reception screen 420 as described above.
  • the control unit 30 may automatically specify parameters for distortion correction in advance and store them in the storage unit 31 for use.
  • the control unit 30 executes the second equalization process on the captured image (step S204).
  • the equalization processing in step S204 is image processing for reducing the influence of noise elements such as shadows and reflections by correcting the gradation of the image.
  • control unit 30 selects one meter M in the captured image after the processing of steps S203 and S204 (step S205), and performs the following steps based on the setting information stored for the selected meter M.
  • the processing from step S206 to step S214 is executed.
  • the control unit 30 scans the captured image for pixels in a range corresponding to the length of the pointer along the length direction of the pointer with reference to the position of the pointer fulcrum. (Zero) From the graduation position to the maximum graduation position, sequentially proceed in a direction orthogonal to the graduation (or in a direction in which the pointer moves) (step S206). Each time the reference process is performed, a scanned image of the dial is created using the pixel value of the referenced pixel (step S207).
  • the control unit 30 creates an image of the hands based on the outline information of the shape of the hands and the needle color included in the read setting information (step S208).
  • the control unit 30 draws, for example, a background image that is sufficiently larger than the length and width of the hands in the color of the scale included in the setting information, and places the background image in the center of the background image based on the outline information.
  • the outline of the pointer corresponding to the length and width is drawn, and the inside of the outline is drawn with the needle color of the setting information.
  • Pixels of a width corresponding to the length of the pointer are scanned in a direction orthogonal to the scale (step S209), and a scanned image of the pointer is created using the pixel values of the scanned pixels (step S210).
  • the control unit 30 uses the scanned image of the hands created in step S210 along the direction orthogonal to the scale in the scanned image of the scale board created in step S207, and distributes the height of the possibility that the hands are shown ( The likelihood distribution is calculated (step S211).
  • step S211 the control unit 30 superimposes the scanning image of the hands created in step S210 along the direction perpendicular to the scale in the scanning image (rectangular image) of the dial in accordance with the direction of the hands, and sets the corresponding pixels together.
  • the likelihood is calculated based on a numerical value obtained by calculating the difference between.
  • the control unit 30 may use the sum of the differences between the corresponding pixels in the entire range of the size of the scanning image of the pointer, or may calculate the average value of the sum.
  • the control unit 30 calculates the likelihood that the smaller the sum or average value of the differences, the higher the possibility that the pointer is located at a position in the scan image of the dial where the scan image of the pointer is located is higher.
  • the likelihood is calculated by weighting the differences so that the smaller the difference, the greater the likelihood.
  • the control unit 30 corrects the likelihood distribution using the direction orthogonal to the scale calculated in step S211, that is, the differential value of the likelihood distribution with respect to the scale position (step S212). This is because the control unit 30 in step S212 adopts a steeper peak among peaks having the same likelihood among peaks in the likelihood distribution.
  • the control unit 30 Based on the likelihood distribution after the correction in step S212, the control unit 30 specifies the position on the scanned image of the scale plate where the likelihood is maximum (step S213), and calculates the numerical value indicated by the pointer corresponding to the specified position.
  • the calculated value is stored in the storage unit 31 in association with the device identification information and the meter identification information (step S214).
  • the storage in step S214 may be accumulated and stored as a log in association with time information indicating the time at which the captured image was acquired, or only the latest numerical information may be stored.
  • the control unit 30 determines whether or not all the processes of the meter M to be monitored that have been captured in the received captured image have been executed (step S215), and when it is determined that all of the processes have not been executed (S215). : NO), the process returns to step S205, the next meter M is selected (S205), and the process is continued.
  • control unit 30 ends the process.
  • step S206 If it is expected that the pointer fluctuates beyond the upper and lower limits of the scale range (zero and the maximum scale position) at the time of scanning in step S206, a portion exceeding the upper and lower limits is set as an "outside the read range". It may be executed including the range described above.
  • the control unit 30 may advance the scanning based on the setting of whether or not the “region outside the reading range” is to be the target of the scanned image. When the “out-of-read range area” is not targeted, the control unit 30 performs scanning only from the zero-scale position to the maximum-scale position to create a scanned image as shown in S206.
  • control unit 30 proceeds scanning including the “out-of-read-range area”, creates a scanned image, and displays the pointer in the “out-of-read-range area” in the processing after S211. In a state where it can be estimated that the process is performed, a process of avoiding the specific process of S213 may be performed.
  • FIG. 10 is a schematic diagram illustrating an example of the content of a captured image.
  • FIG. 10 shows an example in which the meter M, which is a pressure gauge, is imaged as shown in FIG.
  • FIG. 11 is a diagram illustrating an outline of a scanning method for a captured image.
  • the position of the pointer fulcrum set by the processing described with reference to FIGS. 4 to 8 is denoted by the symbol O, and the positions of the plurality of main graduations are denoted by the symbols P0, P1, P2 with respect to the captured image shown in FIG. , P3, P4, P5.
  • the symbols P0, P1, P2 with respect to the captured image shown in FIG.
  • a white arrow indicates a traveling direction of a scan for creating a scanned image of the dial, and a broken line indicates a range corresponding to the length of the pointer to be referred to in one scan (main scan).
  • This is indicated by a rectangle L.
  • the rectangle L extends through the pixel at the fulcrum position of the pointer, which is the reference position of the pointer, and has a width such that one to two pixels corresponding to the length of the pointer can be referred to.
  • the control unit 30 creates a scan image with reference to pixel values while rotating the rectangle L little by little at the pointer fulcrum position O.
  • FIGS. 12A and 12B are schematic diagrams illustrating an example of a scanned image of the scale of the meter M.
  • FIG. 12B is another example of the scanned image obtained by the different method shown in FIG. 12A.
  • the scanning target extends to the blank on the needle tail side of the hands. 12A and 12B
  • the scanned image is shown as a diagram, and the positions of the main graduations identified by the symbols O, P0, P1, P2, P3, P4, and P5 shown in FIG. Is shown.
  • the line segment Q in FIGS. 12A and 12 of the rectangular image corresponds to the position of the pointer fulcrum. As shown in FIGS.
  • the scanned image is created as a rectangular image.
  • the long side direction corresponds to the rotation angle of the rectangle L during scanning.
  • the length of each section between the main graduations differs depending on the distortion of the meter M in the captured image. Therefore, when the numerical value indicated by the pointer is read later, it is specified based on the distribution of the scales between the main scales which are different for each section. In order to equalize the length of the section, the scan image may be expanded or shortened by a different coefficient for each section.
  • FIGS. 13A and 13B are schematic diagrams illustrating an example of a scanned image of a pointer.
  • the lower part of the pointer is created as an enlarged image.
  • FIG. 13B shows an example in which the scanning target is extended to the blank on the needle tail side of the hands as compared with FIG. 13A.
  • FIGS. 14A and 14B are diagrams showing likelihood distributions.
  • the horizontal axis indicates the direction in which the scanning of the scanned image on the scale plate proceeds, and the vertical axis indicates the likelihood.
  • FIG. 14A shows the likelihood distribution superimposed on the scanned image of the dial of FIG. 12A.
  • the scanning image of the pointer of FIG. 13A matches the scanning image of the dial of FIG. 12A, that is, the distribution of the height of the possibility that the pointer is captured is shown.
  • the control unit 30 can specify that the pointer indicates around 3.4 based on the position of the peak and the position of the main scale on the scanned image.
  • FIG. 14B shows the likelihood distribution superimposed on the scanned image of the dial of FIG. 12B.
  • FIG. 15 is a diagram illustrating an outline of another example of a scanning method for a captured image.
  • an image captured by a water level gauge whose pointer moves up and down in the vertical direction is used. Even with such a water level meter, a scanned image is created by sequentially referring to the pixel values of the range L including the hands in the direction perpendicular to the scale (the direction in which the hands or the water surface, the boundary surface, etc. advance). Can be applied.
  • the read numerical values are respectively used for abnormality detection of the state of the measurement target of the meter M.
  • the server device 3 determines whether or not the read numerical value is within a preset range.
  • the client device 4 of the meter reading system 100 is determined only when it is determined that the read numerical value is out of the range. Notify the person in charge to use and implement the safety monitoring service.
  • FIG. 16 is a flowchart illustrating an example of a procedure of an abnormality detection process performed by the control unit 30 of the server device 3.
  • the control unit 30 executes the following processing procedure every time the reading processing shown in the flowchart of FIG. 9 is executed, or at a predetermined cycle such as once every few minutes or once every several hours.
  • the control unit 30 selects the device identification information (step S301), and reads out the numerical value indicated by the pointer for each meter M stored in association with the selected device identification information (step S302).
  • the control unit 30 reads a predetermined safe range for each meter M corresponding to the selected device identification information (step S303), and determines whether the numerical value read in step S302 is within the predetermined safe range read in step S303. A determination is made (step S304).
  • step S304 determines whether all the device identification information corresponding to the meter M to be monitored has been selected (step S305). When it is determined that all are selected (S305: YES), the control unit 30 ends the processing.
  • step S304 If it is determined in step S304 that the device is out of the safety range (S304: NO), the control unit 330 issues a notification to the person in charge based on the account information associated with the device identification information selected in step S301. Then (step S306), the process proceeds to step S305.
  • control unit 30 If it is determined in step S305 that all of them have not been selected (S305: NO), control unit 30 returns the process to step S301.
  • the person in charge visited the factory and visually checked the meter M, which is an analog meter, to determine whether there was any abnormality.
  • the function of the server device 3 of the present disclosure enables highly accurate automatic reading.
  • the camera device 1 is positioned and attached to the meter M, the gateway device 2 is set and installed, and the client device 4 only performs the initial setting operation as shown in FIGS. Thereafter, the work of the abnormality detection can be automated.
  • a meter installed in a place where entry of a person in charge is difficult such as handling of high-temperature or dangerous gas can be automated by using the camera device 1 using the adapter 17 corresponding to high temperature. is there.
  • the server device 3 stores not only the read numerical value alone but also a history for each meter, and detects a long-term abnormality and predicts an abnormality in the condition of the factory or the meter M itself. Service can be provided.
  • the server device 3 stores the read numerical value together with the time information in the storage unit 31 in association with the device identification information or the meter identification information, and creates a measurement history database for each meter.
  • the server device 3 executes the following processing using the measured value history.
  • FIG. 17 is a flowchart illustrating an example of a procedure of a second abnormality detection process performed by the server device 3.
  • the control unit 30 executes the following processing on the measurement history database at a predetermined cycle such as once a week, once a month, or the like.
  • the control unit 30 selects the device identification information (step S401), and sets the numerical value group stored as the measurement history database in association with the selected device identification information together with the associated time information. It is read (step S402).
  • the control unit 30 calculates a change in the read numerical value with respect to the passage of time (step S403).
  • the control unit 30 may calculate, for example, the frequency of the change in the numerical value in step S403.
  • the control unit 30 may calculate both or one of the long-term fluctuation trend and the trend in the latest predetermined period.
  • the control unit 30 may calculate the approximate curve and the parameters of the approximate curve.
  • step S404 the control unit 30 determines whether there is any danger regarding the meter M itself or the measurement target of the meter M (step S404).
  • the control unit 30 may determine whether or not the danger has arrived, and may predict the danger together with the arrival time.
  • the determination in step S404 may be made based on a comparison between the condition and the condition stored in the storage unit 31 for each meter (meter identification information or device identification information). For example, one or a plurality of conditions for the change calculated in step S403 are stored in the storage unit 31 for each type of measurement target (pressure, water level, flow rate, and the like) of the meter M.
  • the frequency range may be stored.
  • a trend numerical value determined to be dangerous is stored.
  • the parameters of the approximate curve may be stored.
  • control unit 30 When it is determined that there is a danger (S404: YES), the control unit 30 issues a danger to the person in charge based on the account information associated with the device identification information selected in step S401 (step S405). ).
  • the control unit 30 determines whether all the device identification information corresponding to the meter M to be monitored has been selected (step S406). When it is determined that all have been selected (S406: YES), the control unit 30 ends the processing.
  • step S404 If it is determined in step S404 that there is no danger (S404: NO), control unit 30 proceeds to step S406 without performing step S405.
  • control unit 30 If it is determined in step S406 that all of them have not been selected (S406: NO), control unit 30 returns the process to step S401.
  • reading of a numerical value and detection of an abnormality based on the read numerical value are performed on the server device 3 side, and only when an abnormality is detected, an alarm is issued.
  • a service that reduces the work load can be realized.
  • the numerical value read by the reading process may be sequentially notified from the server device 3 to the client device 4, and the client device 4 may determine whether there is an abnormality based on comparison with a predetermined numerical value or range.
  • the abnormality detection may be executed by the server device 3 and a log report summarizing numerical histories may be transmitted to the client device 4 periodically.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)
  • Image Analysis (AREA)

Abstract

簡素な方法で精度よくアナログメータの指針を読み取るメータ読取装置、メータ検針システム、及びコンピュータプログラムを提供する。メータ読取装置は、メータの目盛盤を撮像した撮像画像における前記目盛盤の基準位置、各々数値が対応付けられた前記目盛盤の複数の主目盛の位置を示す情報を受け付ける第1受付部と、前記指針の形状及び大きさを示す情報を受け付ける第2受付部と、第1及び第2受付部で受け付けた情報を、メータ又はメータを撮像する撮像装置の識別情報に対応付けて記憶する第1記憶部と、前記目盛盤を新たに撮像した撮像画像を受信する受信部と、該受信部により撮像画像を受信する都度に、該撮像画像に対し、前記第1記憶部に記憶した情報に基づき、前記メータの指針が示す数値を読み取る読取部と、該読取部にて読み取られた数値を前記識別情報に対応付けて記憶する第2記憶部とを備える。

Description

メータ読取装置、メータ検針システム、及びコンピュータプログラム
 本発明は、アナログメータの指針を読み取るメータ読取装置、該メータ読取装置を用いたメータ検針システム、及びコンピュータプログラムに関する。
 工場設備、農場等に設けられた計器に通信機を接続して計器で測定した情報をサーバ装置へ送信させ、計器が取り付けられている設備、農場の状態を遠隔で把握し、サーバ装置から機器を自動制御させるIoT(Internet of Things)システムが実現されている。
 IoTシステムで使用される計器としては、デジタル温度計、湿度計、振動計等のデジタル信号で測定結果を出力する種類のデジタルセンサがよく使用されている。通信機に測定結果を示す数値を送信させることが容易なためである。これに対し、測定により得られる情報をデジタル信号へ変換することが容易でない機械式の計器がある。例えばブルドン、ダイヤフラム、ベローを用いた圧力計、浮子を用いた水位計等である。これらの機械式の計器は、目盛盤を目視で確認する種類の計器であり、アナログ信号も出力されない。これらの計器で測定される情報をIoTシステムで用いるため、担当者が目視で確認してきた目盛盤上の指針を、カメラで撮像して測定値を読み取る方法が提案されている。
 特許文献1には、単針回転型のアナログメータについて、指針が既知の目盛を指している状態の目盛盤を撮像した基準画像を用い、指針が動く範囲における輝度値の分析によって測定値を読み取る方法が提案されている。特許文献1では、輝度値が最も低く、円弧状の目盛盤における径方向の輝度値の変化が少ない部分に指針が存在すると推定し、基準画像との相関が高い部分から測定値を読み取っている。
 特許文献2では、指針に対して設定された輝度値の部分を画像認識により特定するため、背景除去、ノイズ除去等を行なう技術が開示されている。
特開2004-133560号公報 特開2002-188939号公報
 特許文献1又は特許文献2等の従来の方法では、撮像画像中の指針が写っている領域の輝度値は他の領域よりも低いという前提で、所定値よりも低い輝度値が現れる部分を撮像画像から抽出している。特許文献1では、予め指針を写した撮像画像を用い、目盛盤の撮像画像と共に周波数変換を施し、相関が高い部分を特定する方法を採用しているが、ノイズの除去を実施しても精度の高い特定が困難である。計器が取り付けられている場所には、工場の窓、他の機器からの光等の影響を受けており、目盛盤には、文字、汚れ等とは異なる鮮明な影が映る場合がある。指針が振れ続ける場合には撮像画像に写る指針の画像は不鮮明であり、鮮明な影等と混同して誤って検出される可能性がある。
 本発明は斯かる事情を鑑みてなされたものであり、簡素な方法で精度よくアナログメータの指針を読み取るメータ読取装置、メータ検針システム、及びコンピュータプログラムを提供することを目的とする。
 本開示の一態様に係るメータ読取装置は、メータの目盛盤を撮像した撮像画像における前記目盛盤の基準位置、各々数値が対応付けられた前記目盛盤の複数の主目盛の位置を示す情報を受け付ける第1受付部と、前記メータの指針の形状及び大きさを示す情報を受け付ける第2受付部と、第1受付部及び第2受付部にて受け付けた情報を、メータ又はメータを撮像する撮像装置の識別情報に対応付けて記憶する第1記憶部と、前記メータの目盛盤を新たに撮像した撮像画像を受信する受信部と、該受信部により撮像画像を受信する都度に、該撮像画像に対し、前記第1記憶部に記憶した目盛盤の基準位置、前記複数の主目盛の位置、並びに指針の形状及び大きさに基づき、前記メータの指針が示す数値を読み取る読取部と、該読取部にて読み取られた数値を前記識別情報に対応付けて記憶する第2記憶部とを備える。
 本開示の一態様に係るメータ検針システムは、メータに取り付けるためのアダプタと、該アダプタにより前記メータに対して位置決めされる基板に撮像部及び無線通信部を備え、該撮像部で撮像した撮像画像を前記無線通信部から送信するカメラデバイスと、該カメラデバイスから送信される撮像画像に対して前記メータの指針が示す位置を読み取る請求項1から5のいずれか1項に記載のメータ読取装置とを含む。
 本開示の一態様に係るコンピュータプログラムは、記憶部を備えるコンピュータに、メータの目盛盤を撮像した撮像画像における前記目盛盤の基準位置、各々数値が対応付けられた前記目盛盤の複数の主目盛の位置を示す情報を受け付け、前記指針の形状及び大きさを示す情報を受け付け、受け付けた情報を、メータ又はメータを撮像する撮像装置の識別情報に対応付けて前記記憶部に記憶し、前記メータの目盛盤を新たに撮像した撮像画像を受信し、受信の都度、受信した撮像画像に対し、記憶してある目盛盤の基準位置、前記複数の主目盛の位置、並びに指針の形状及び大きさに基づき、前記メータの指針が示す数値を読み取り、読み取られた数値を前記識別情報に対応付けて前記記憶部に記憶する処理を実行させる。
 本開示の一態様に係るコンピュータプログラムは、表示部及び通信部を備えるコンピュータに、メータの目盛盤を撮像した撮像画像を含み、該撮像画像上で前記目盛盤の基準位置の選択操作を受け付ける第1画面と、前記撮像画像上で前記目盛盤の複数の主目盛の位置の選択操作を、対応する数値と対応付けて受け付ける第2画面とを含む設定画面の画面情報を前記通信部にて受信し、受信した画面情報に基づいて前記表示部に前記設定画面を表示して情報を受け付け、受け付けた情報を前記通信部により送信する処理を実行させる。
 本開示の一態様では、初期的に受け付けた目盛盤の基準位置、複数の主目盛の位置、指針の形状及び大きさに基づいて、以後読取処理が実行される。読取処理では、メータの目盛盤を撮像した撮像画像を目盛に直交する方向に走査して走査画像が作成される。走査画像と指針画像に対して同様に操作を行なって得られる画像とを用いて走査画像中における指針が写っている可能性の高さを示す尤度分布が求められる。尤度分布に基づいて指針の位置、即ち目盛盤上で指針が示す数値が特定される。
 本開示の一態様では、指針の基準位置、複数の主目盛の位置、指針の形状及び大きさの受け付けは、撮像画像を含む画面上で受け付けられる。担当者は撮像画像を視認しながら初回に基準位置、主目盛の複数の位置、形状及び大きさの設定操作をすればよい。複雑な画像解析処理によって主目盛の位置を特定する場合よりも、精度も向上する。
 本開示の一態様では、自動で数値を読み取るのみならず、異常の有無の判断もメータ読取装置側で行なってもよい。
 本開示の一態様では、自動で読み取られた数値を履歴として記憶し、その数値単体での安全であるか否かの判断のみならず、長期的な変化に基づいて危険の予兆があるか否かの判断が可能である。メータにアダプタを介してカメラデバイスを取り付け、カメラデバイスに基づく高精度なメータ読み取りのみならず、周辺サービスが拡充されることでカメラデバイスの利便性が向上する。
 本開示のメータ読取装置、メータ検針システム、及びコンピュータプログラムによれば、簡素な方法で精度よくアナログメータの指針を自動で読み取ることが可能になる。アナログメータの目視による異常判断の確認業務を省略させることが可能になる。アナログメータをIoTシステムに取り込むことも容易に実現できる。
本実施の形態におけるメータ検針システムの概要を示す説明図である。 カメラデバイスの模式斜視図である。 カメラデバイスの模式断面図である。 メータ検針システムの構成を示すブロック図である。 設定情報の受付処理手順の一例を示すフローチャートである。 設定情報受付画面の一例を示す図である。 設定情報受付画面の一例を示す図である。 設定情報受付画面の一例を示す図である。 設定情報受付画面の一例を示す図である。 撮像画像における歪みの補正の概要を示す図である。 撮像画像における歪みの補正の概要を示す図である。 サーバ装置による読取処理手順の一例を示すフローチャートである。 撮像画像の内容例を示す模式図である。 撮像画像に対する走査方法の概要を示す図である。 メータの目盛盤の走査画像の一例を示す模式図である。 メータの目盛盤の走査画像の一例を示す模式図である。 指針の走査画像の一例を示す模式図である。 指針の走査画像の一例を示す模式図である。 尤度分布を示す図である。 尤度分布を示す図である。 撮像画像に対する走査方法の他の例の概要を示す図である。 サーバ装置の制御部による異常検知処理の手順の一例を示すフローチャートである。 サーバ装置による第2の異常検知処理の手順の一例を示すフローチャートである。
 以下、本開示のメータ読取装置及びこれを用いた検針システムについてその実施形態を示す図面に基づいて具体的に説明する。
 図1は、本実施の形態におけるメータ検針システム100の概要を示す説明図である。メータ検針システム100は、複数のカメラデバイス1、ゲートウェイ装置2、サーバ装置3、及びクライアント装置4を含む。
 カメラデバイス1は、工場内の設備に設けられている複数のメータMに対して設けられている。ゲートウェイ装置2は工場内に設置されており、複数のカメラデバイス1と通信接続が可能である。カメラデバイス1とゲートウェイ装置2との間の通信接続は、例えば近距離無線通信により実現される。カメラデバイス1とゲートウェイ装置2との間は、有線によって通信接続が可能な構成としてもよい。
 カメラデバイス1は、メータMの目盛盤を撮像した撮像画像をゲートウェイ装置2へ通信により送信する。ゲートウェイ装置2は、複数のカメラデバイス1夫々から送信される撮像画像を、ネットワークNを介してサーバ装置3へ送信する。
 サーバ装置3は、ゲートウェイ装置2から送信された撮像画像に対して後述する処理を実行し、撮像画像に写っている1又は複数のメータMの指針の位置が示す状態を特定する。サーバ装置3はこれに加え、状態を特定するための設定情報をWebベースで受け付ける機能を発揮すると共に、特定した状態に基づいてメータMが設けられている工場の管理者へ警報を発報する機能を発揮する。なおサーバ装置3について本実施の形態では、説明を容易にするために1台のサーバコンピュータとして説明するが、1台のサーバコンピュータにて論理的に複数のインスタンスにより動作する仮想サーバにより実現される。また、複数のサーバコンピュータで機能又は処理を分散させるか、重畳させてもよい。
 ネットワークNは、公衆網N1、及びキャリアネットワークN2を含む。公衆網N1は所謂インターネットである。キャリアネットワークN2は、次世代又は次々世代高速携帯通信規格等の規格に基づく無線通信を実現する通信キャリアが提供するネットワークである。公衆網N1はアクセスポイントAPを含む。キャリアネットワークN2は基地局BSを含む。ゲートウェイ装置2は、アクセスポイントAP又は基地局BSにより、公衆網N1に接続されるサーバ装置3との間で情報の送受信が可能である。
 工場内の設備に取り付けられている多様なメータの内、デジタル出力機能を有するメータからは、例えば工場内のセンターコンソール等の制御装置に向けて測定結果を出力させ、制御装置で測定対象の状態の異常の有無等を判断することが容易である。これに対し、デジタル出力機能を有していないメータMについては従来、工場管理担当者が目視で異常の有無を確認するか、担当者が立ち入ることができない場所についてはカメラでメータの目盛盤を撮像してこれを担当者が遠隔から確認し、異常の有無を判断してきた。例えば、ダイヤフラム式の圧力計であるメータMについては、異常に高圧力となっていないか否かを担当者が1日に数回目視して確認するなどして、工場内設備の異常の有無を判断してきた。
 本実施の形態では、デジタル出力機能を有していないメータMに対してカメラデバイス1を取り付け、カメラデバイス1で撮像された撮像画像に基づくサーバ装置3のメータ読取装置としての機能によって、メータMで測定している状態を特定するメータ検針システム100を実現する。以下に示す処理内容により、サーバ装置3は高精度にメータMの指針が差す状態を特定することができる。これにより、既存のアナログ式のメータMにカメラデバイス1を設けてゲートウェイ装置2を工場内に設置する容易な手順で、担当者の1日に数回の目視の作業を省略することを実現する。
 図2A及び図2Bは、カメラデバイス1の模式図である。図2Aは模式斜視図、図2Bは模式断面図である。カメラデバイス1は、基板10から延出された短冊状の延出基板10fの一面に撮像部11及び光源12を設け、基板10に通信部13及び制御部14を実装し、電池ボックス16を接続して構成される。なお光源12は、設置場所によっては不要な場合があるので着脱可能であることが好ましい。カメラデバイス1は、延出基板10fの撮像部11が実装されている面をメータMの目盛盤の視認用の窓に向けるようにして取り付けられる。カメラデバイス1は、アダプタ17によってメータMに対して位置決めされる。アダプタ17は、メータMの外径より大きい円形状の透明樹脂製カバー15及び該カバー15の一端に固定されたアダプタ17の本体を有している。アダプタ17の本体に電池ボックス16と共に基板10を固定し、カバー15をメータMの窓に被せ、図示しない取付ネジ又は取付金具で固定することで、カメラデバイス1がメータMに対して、図2Bに示すように位置決めされる。カバー15は透明樹脂製であり、メータMの目盛盤に対向する撮像部11が実装された延出基板10fは短冊状であって撮像部11の大きさに対応する幅を有する程度の大きさでよいので、カメラデバイス1が取り付けられた状態でのメータMも視認が可能である。なおカメラデバイス1及びアダプタ17の構成はこれに限らないことは勿論である。
 撮像部11は、可視光又は赤外光の撮像素子及びメモリ等を含み、制御部14の制御信号に応じて撮像を実行する。光源12は例えばLED(Light Emitting Diode)を含み、制御部14の制御信号に応じて、撮像時に白色光又は赤外光を照射する。光源12については照度センサを用い、環境光によって十分に明るい場合には点灯しない等、環境光に応じた点灯とするようにしてもよい。通信部13はゲートウェイ装置2との通信接続を実現する。通信部13は例えばBluetooth(登録商標)、特に2.4GHzのBLE(Bluetooth Low Energy)等の近距離無線通信モジュールを含む。
 制御部14はプロセッサ及びメモリを含み、メモリに記憶されているプログラム及び設定情報に基づいて撮像部11による撮像実行、光源12の点灯及び消灯、並びに通信部13による送受信を制御する。メモリに記憶されている設定情報には、カメラデバイス1を他と識別するための識別情報が予め記憶されており、制御部14は、通信部13から撮像画像を送信する際に、メモリに記憶されている識別情報を対応付けて送信する。制御部14は、設定情報に含まれる周期に基づいて、又はゲートウェイ装置2からの指示に応じて撮像部11で撮像を実行し、撮像部11の内蔵メモリに一時保存される撮像画像を読み出し、通信部13に与えてゲートウェイ装置2へ送信させる。
 カメラデバイス1は撮像部11以外に他のセンサを備えてもよい。カメラデバイス1は例えば、温度センサ、湿度センサを備えてもよい。カメラデバイス1は例えば、自身の電池電圧、照度センサ等、撮像環境に関する情報を取得するセンサを備えてもよい。制御部14は撮像画像のメタデータ記述部分にこれらのセンサで測定された情報を含めて通信部13から撮像画像と共に送信することができる。
 図3は、メータ検針システム100の構成を示すブロック図である。ゲートウェイ装置2は、プロトコルが異なる第1通信部22及び第2通信部23を備えた所謂IoTゲートウェイと呼ばれる装置を用いる。ゲートウェイ装置2は、制御部20及び記憶部21を備える。制御部20はCPU及びクロック等を用いて予め記憶されたプログラム及び設定情報に基づいてカメラデバイス1から送信される撮像画像のサーバ装置3への送信処理を行なう。第1通信部22は、カメラデバイス1との通信用のBLE等の近距離無線通信モジュールを含む。第2通信部23は、ネットワークNに含まれるキャリアネットワークN2経由での通信を実現する次世代移動通信規格用の通信モジュールを含む。ゲートウェイ装置2はその他、イーサネット(登録商標)用のデバイス、無線LAN用の通信モジュールを備えてもよい。
 サーバ装置3は、サーバコンピュータを用いる。サーバ装置3は、制御部30、記憶部31、及び通信部32を備える。制御部30はCPU(Central Processing Unit)又はGPU(Graphical Processing Unit)を用いたプロセッサであり、内蔵する揮発性メモリ、クロック等を含む。制御部30は後述するように画像処理を実行するためGPU又は別途グラフィックカードを用いることが好ましい。制御部30は、記憶部31に記憶されているサーバプログラム30Pに基づいた各処理を実行し、汎用サーバコンピュータを後述するメータMの撮像画像に関する情報処理を行なう特定のメータ読取装置として機能させる。
 記憶部31は、ハードディスクを用いてサーバプログラム30Pのほか、制御部30が参照する情報を記憶する。記憶部31は、後述の撮像画像に対する処理の際に制御部30が参照するメータM毎の設定情報を、メータMの識別情報と対応付けて記憶する。記憶部31に記憶してあるサーバプログラム30Pは、通信部32により外部から取得して記憶したものであってよい。
 通信部32は、ネットワークカードを含む。制御部30は通信部32により、ネットワークNを介したクライアント装置4との間の情報の送受信が可能である。
 クライアント装置4は、制御部40、記憶部41、表示部42、操作部43、音声入出力部44、及び通信部45を備える。制御部40は、CPU、又はGPU等のプロセッサと、メモリ等を含む。制御部40は、プロセッサ、メモリ、記憶部41、及び通信部45を集積した1つのハードウェア(SoC:System On a Chip)として構成されていてもよい。制御部40は、記憶部41に記憶されているアプリプログラム40Pに基づき、汎用的なコンピュータを本実施の形態のメータ検針システム100のユーザ用のクライアント装置4として機能させる。
 記憶部41は、例えばフラッシュメモリ等の不揮発性メモリを含む。記憶部41は、アプリプログラム40Pを記憶する。アプリプログラム40PはWebブラウザ機能を含むとよい。記憶部41に記憶してある汎用のWebブラウザプログラムが用いられてもよい。記憶部41は、制御部40が参照するデータを記憶する。アプリプログラム40Pは、記憶媒体49に記憶されたアプリプログラム49Pを、制御部40が図示しない読取部によって読み出して記憶部41にインストールしたものであってもよい。アプリプログラム40Pは、任意のサーバ装置がネットワークNを介して配信するアプリプログラム(図示せず)を制御部40が通信部45により受信して記憶部41にインストールしたものであってもよい。
 表示部42は、液晶パネル又は有機ELディスプレイ等のディスプレイ装置を含む。操作部43は、ユーザの操作を受け付けるインタフェースであり、物理ボタン、ディスプレイ内蔵のタッチパネルデバイスを含む。操作部43は、物理ボタンまたはタッチパネルにて表示部42で表示している画面上における操作を受け付けることが可能である。
 音声入出力部44は、スピーカ及びマイクロフォン等を含む。音声入出力部44は、音声認識部を備えて、マイクロフォンにて入力音声から操作内容を認識して操作を受け付けることが可能である。
 通信部45は、ネットワークNを介してサーバ装置3との間の情報の送受信を実現する無線通信モジュールである。通信部45は、ネットワークカードを用いて有線によりネットワークNを介した通信を行なってもよい。
 このように構成されるメータ検針システム100におけるメータMの検針方法を説明する。本実施の形態においてゲートウェイ装置2は、記憶部21に予め、通信接続可能なカメラデバイス1のデバイス識別情報を記憶しておく。デバイス識別情報は例えばMACアドレスであってよいし、予めカメラデバイス1に付与して記憶されている情報であってもよい。記憶部21には、ゲートウェイ装置2自身のゲートウェイ識別情報が加えて記憶されてもよい。ゲートウェイ装置2は、カメラデバイス1用の第1通信部22によって複数のカメラデバイス1に対してペアリングを確立させることで通信接続してもよい。ゲートウェイ装置2の制御部20は、複数のカメラデバイス1に対し、記憶部21に記憶してあるデバイス識別情報と対応付けて順に、撮像の実行及び撮像画像の送信を指示する。
 カメラデバイス1は夫々、ゲートウェイ装置2から指示を受けると、光源12を点灯させ、撮像部11による撮像を実行し、光源12を消灯させ、撮像画像を通信部13からゲートウェイ装置2へ送信する。制御部14は、内蔵メモリにデバイス識別情報が予め記憶してある場合、これを撮像画像と共に送信してもよい。
 ゲートウェイ装置2の制御部20は、カメラデバイス1から第1通信部22により撮像画像を受信する都度、対応するデバイス識別情報と対応付けて、第2通信部23から撮像画像をサーバ装置3宛てに送信する。制御部20は内蔵メモリを用いて、撮像画像を蓄積してもよい。第2通信部23からの送信が困難な場合には蓄積しておき、通信可能となった時点で送信すればよい。
 ゲートウェイ装置2の制御部20は、以上の撮像指示、撮像画像の受信及び送信の処理を、通信接続可能な1又は複数のカメラデバイス1に対して巡回的に繰り返す。ゲートウェイ装置2は例えば、最大20台のカメラデバイス1と通信接続することができる。1回の撮像指示からサーバ装置3への送信に10秒-20秒要する場合、各カメラデバイス1では4分-6分に一度撮像が実行される。
 サーバ装置3では、ゲートウェイ装置2から撮像画像が送信される都度、デバイス識別情報と対応付けてメータM毎に、後述する処理によってメータMの目盛盤から指針の位置を特定し、指針が指し示す目盛に対応する数値を特定する。制御部30は、指針の位置の特定、及び数値の特定に使用する設定情報をメータM毎、デバイス識別情報に対応付けて受け付ける。また、撮像画像と共に気温、湿度、電池電圧等、撮像環境に関する情報が付加されている場合は、これらを特定された数値と対応付けておき、後述する処理(図16又は図17)にて用いてもよい。設定情報の受け付けは、クライアント装置4のアプリプログラム40P又はWebブラウザプログラムに基づいて実行される。
 図4は、設定情報の受付処理手順の一例を示すフローチャートである。サーバ装置3の制御部30は、工場管理担当者がクライアント装置4のWebブラウザ機能により、アカウント情報を用いてメータ検針システム100のサービスにログインすると、サーバ装置3が提供するWebサービス内で以下の処理が開始される。
 制御部30は、設定対象のメータMに対応するカメラデバイス1のデバイス識別情報の選択又は入力を受け付ける(ステップS101)。制御部30は、受け付けたデバイス識別情報をログイン中のアカウント情報に対応付けて記憶する(ステップS102)。制御部30は、受け付けたデバイス識別情報が対応付けられて記憶部31に記憶している撮像画像を読み出す(ステップS103)。
 なおステップS103において、受け付けたデバイス識別情報に対応付けられた撮像画像が記憶部31に未だ記憶されていない場合には、サーバ装置3からゲートウェイ装置2へデバイス識別情報が対応するカメラデバイス1へテスト用の撮像指示を送信するようにしてもよい。
 制御部30は、読み出した撮像画像を含む設定情報受付画面を含む画面情報をクライアント装置4へ送信する(ステップS104)。制御部30は、設定情報受付画面にて、該画面に含まれる撮像画像上での指針支点位置、複数の主目盛の位置、並びに、指針の形状及び針色のクライアント装置4の操作部43による入力又は選択を、メータM毎に受け付ける(ステップS105)。ステップS105にて制御部30は、設定情報受付画面で、撮像画像をプレビュー枠に含みながらカメラ画角設定、歪み補正設定を受け付けるようにしてもよい。
 制御部30は、ステップS105で受け付けた指針支点位置、主目盛の位置の撮像画像上の座標を、デバイス識別情報及びメータMのメータ識別情報と対応付けて記憶部31に記憶する(ステップS106)。メータ識別情報は、メータMの名称、メータMの設置場所を示す情報、番号、又は記号等であってよい。メータ識別情報は、デバイス識別情報との組み合わせで他のメータMのメータ識別情報と区別できればよく、例えばデバイス識別情報がMACアドレスであれば、MACアドレスと通し番号との組で識別できる。なおメータ識別情報は、1つの撮像画像に監視の対象となる複数のメータMが撮像されている場合は必須であるが、1つの撮像画像に対象のメータMが1つ撮像されている場合には使用せずともよい。
 制御部30は、メータM毎に、指針支点位置座標を中心として複数の主目盛の位置までの距離を半径とした円弧の角度を、隣り合う主目盛間毎に算出してデバイス識別情報及びメータ識別情報別に記憶部31に記憶する(ステップS107)。ステップS107の詳細は後述する。
 制御部30はメータM毎に、撮像画像上で、ステップS106で受け受けた指針支点位置を基準とする針の先端位置までの距離、先端部の太さ、根元の太さをデバイス識別情報及びメータMのメータ識別情報と対応付けて記憶部31に記憶する(ステップS108)。ステップS108の詳細についても後述する。制御部30は、受け付けた指針の針色をデバイス識別情報及びメータMのメータ識別情報と対応付けて記憶部31に記憶し(ステップS109)、設定処理手順を終了する。
 図5-図7は、設定情報受付画面の一例を示す図である。図5A及び図5Bは、クライアント装置4の表示部42に表示される設定情報受付画面420の内、指針支点位置を受け付ける第1画面421を示す。図5Aは、指針支点位置を受け付け中の第1画面421を示し、図5Bは、指針支点位置が受け付けられた後の第1画面421を示している。
 第1画面421には、図5A及び図5Bに示すように、メータMの目盛盤を撮像した撮像画像を含むプレビュー画面422が含まれている。図5Aに示すように、第1画面421には、担当者がクライアント装置4の操作部43によって操作するポインタ431が表示されている。担当者は、プレビュー画面422中に含まれる撮像画像中の指針支点位置を目視で確認し、ポインタ431を重ねて選択操作する。これにより、図5Bに示すように、選択操作がされたときのポインタ431が重ねられた位置に、支点マーク423が描画される。また第1画面421には、指針支点位置の選択操作がされたときのポインタ431の撮像画像上の位置を示す座標(X,Y)が表示される。
 図5A及び図5Bに示すように、第1画面421には次の第2画面へ進むためのボタンインタフェース432が含まれている。図5Aでは指針支点位置が受け付け未完了であるために、ボタンインタフェース432は無効化されており、選択不可の状態である。図5Bでは選択操作によって第1画面421での受け付けが完了しているので、ボタンインタフェース432は有効化されて選択可能な状態である。担当者は、自身が目視で特定した指針支点位置に支点マーク423が描画されていることを確認すると、ボタンインタフェース432にポインタ431を重ねて選択操作する。これにより、指針支点位置が受け付けられる。
 図6は、設定情報受付画面420の内、複数の主目盛の位置を受け付ける第2画面424を示す。図6には、主目盛の位置の選択操作中の第2画面424が示されている。図5Bのボタンインタフェース432が選択されると、設定情報受付画面420に第2画面424が表示される。
 図6に示すように第2画面424には、メータMの目盛盤を撮像した撮像画像を含むプレビュー画面422が含まれている。図6に示すように、主目盛の位置の受け付け中の第2画面424にもポインタ431が表示される。担当者は、プレビュー画面422中に含まれる撮像画像中、主目盛に対応する位置を目視で確認し、ポインタ431を重ねて選択操作する。選択操作の都度、選択操作がされたときのポインタ431が重ねられた位置と、支点マーク423との間に、補助線425が描画される。図6中で補助線425は、破線で示されている。選択操作は、設定された間隔(図6では「2」)で0(ゼロ)目盛から昇順に受け付けられる。選択操作の都度、設定された間隔で増大する目盛と、その目盛に対して選択操作がされたときのポインタ431の撮像画像上の位置を示す座標(X,Y)との組が、主目盛の位置として受け付けられる。受け付けられた主目盛の位置の情報は、第2画面424中の表426として表示される。
 第2画面424にも、受け付けが完了した場合に選択されるボタンインタフェース433が含まれている。担当者は、自身が目視で特定した複数の主目盛の位置に対して支点マーク423から補助線425が正しく描画されていることを確認すると、ボタンインタフェース433にポインタ431を重ねて選択操作する。これにより、複数の主目盛の位置が受け付けられる。
 図7は、設定情報受付画面420の内、指針の形状及び大きさ、更に針色を受け付ける第3画面427を示す。図7には、指針の形状の選択操作中の第3画面427が示されている。図5Bのボタンインタフェース433が選択されると、設定情報受付画面420に第3画面427が表示される。
 図7に示すように第3画面427には、メータMの目盛盤を撮像した撮像画像を含むプレビュー画面422が含まれている。図7に示すように、指針の形状の受け付け中の第3画面427にもポインタ431が表示される。サーバ装置3では、記憶部31に予め指針の形状として一般的な輪郭を示す情報を記憶している。第3画面427に対して担当者は、プレビュー画面422中に含まれる撮像画像中、指針を目視で確認し、指針の先端の選択を促すメッセージに従って指針の先端位置にポインタ431を重ねて選択操作する。第3画面427では、先端位置が選択操作された場合、その先端位置の撮像画像上での位置を示す座標を特定し、既に受け付けている指針支点位置との間の距離、及び回転角度を特定する。第3画面427では、記憶部31に記憶してある指針の一般的な輪郭情報に基づき、特定した距離と回転角度とを用いて指針の形状及び大きさに対応する輪郭428が描画される。輪郭428は、ポインタ431を重ねた位置での選択及びドラッグ操作によって、先端、支点及び終端の太さの調整が可能である。第3画面427では、調整後の輪郭428の輪郭情報によって指針の形状が受け付けられる。
 図7に示す第3画面427には、異なる色の色見本を選択可能に示して針色として受け付けるパレットコントロール429が含まれている。担当者は、プレビュー画面422中に含まれる撮像画像中、指針を目視で確認し、針色の選択を促すメッセージに従ってパレットコントロール429のいずれかの適切な色の色見本にポインタ431を重ねて選択操作する。これにより、針色が受け付けられる。
 なお第3画面427では、目盛盤のベース色の選択を受け付けるパレットコントロールを更に含んでもよい。
 第3画面427にも、受け付けが完了した場合に選択されるボタンインタフェース434が含まれている。担当者は、自身が目視で特定した指針と、輪郭428が適切に重なっていることを確認すると、ボタンインタフェース434にポインタ431を重ねて選択操作する。これにより、設定情報受付画面420による各種情報の設定の受け付けが完了する。
 第1画面421の設定を受け付ける前に、撮像画像の歪み補正を設定するとよい。歪み補正では例えば、カメラデバイス1の撮像部11とメータMとの間の距離が近いため、撮像部11がメータMの目盛盤とが厳密には垂直でなく即ち正対していない場合に歪みが大きくなる。その他レンズの特性による歪みがある。図8A及び図8Bは、撮像画像における歪みの補正の概要を示す図である。図8A及び図8Bでは、撮像画像の歪みを格子で表している。図8A及び図8Bに示すように、本来は相互に垂直に交わっている格子が、撮像方向の角度、レンズ特性等によって図8Aに示すように歪んで撮像される。サーバ装置3の制御部30にて、画像解析機能を用いて自動的に歪みを特定して補正してもよいし、第1画面421の前に、撮像画像をプレビューさせる画面を表示し、担当者が補正後の撮像画像を確認しながら、歪みを補正してもよい。図8Bは、補正後の格子を示している。撮像画像が補正できたと担当者が確認した場合、サーバ装置3の制御部30がこれを受け付け、補正時に使用したパラメータ群を記憶部31に設定情報として記憶する。設定情報に基づいて制御部30は、同一のカメラデバイス1で撮像した撮像画像に対して、後述の読取処理の前段階で補正を行なうことができる。
 次に、図4のフローチャート及び図5-図7の画面例で示すように受け付けられた設定情報に基づく読取処理について説明する。読取処理は、クライアント装置4を介して受け付けられた設定情報に基づき、カメラデバイス1から送信される撮像画像に対してサーバ装置3にて実行される。
 図9は、サーバ装置3による読取処理手順の一例を示すフローチャートである。サーバ装置3は、撮像画像をゲートウェイ装置2から受信する都度、以下の処理を実行する。
 サーバ装置3の制御部30は、受信した撮像画像に対応するデバイス識別情報を特定し(ステップS201)、デバイス識別情報に対応付けられている設定情報を記憶部31から読み出す(ステップS202)。
 制御部30は、読み出した設定情報に基づき、受信した撮像画像に対して第1に歪み補正処理を実行する(ステップS203)。ステップS203において制御部30は例えば、上述したように設定情報受付画面420内の撮像画像を含むプレビュー画面422にて、担当者の操作による補正のパラメータ群を読み出して適用する。制御部30は、歪み補正のパラメータを予め自動的に特定しておき、記憶部31に記憶しておいて使用してもよい。
 制御部30は、撮像画像に対して第2にイコライゼーション処理を実行する(ステップS204)。ステップS204におけるイコライゼーション処理は、画像の階調補正によって、影や反射等のノイズ要素の影響を低減する画像処理である。
 制御部30は次に、ステップS203及びS204の処理後の撮像画像に写っているメータMを1つ選択し(ステップS205)、選択したメータMについて記憶してある設定情報に基づいて以下のステップS206からステップS214の処理を実行する。
 制御部30は、撮像画像に対し、指針支点位置を基準として、指針の長さ方向に沿う指針の長さ分に対応する範囲の画素を走査する処理を、複数の目盛位置の内の0(ゼロ)目盛位置から最大の目盛位置まで、目盛に直交する方向(又は指針が進行する方向)に順次進める(ステップS206)。参照処理の都度、参照した画素の画素値を用いて目盛盤の走査画像を作成する(ステップS207)。
 制御部30は、読み出した設定情報に含まれる指針の形状の輪郭の情報及び針色に基づいて、指針の画像を作成する(ステップS208)。ステップS208において制御部30は例えば、指針の長さ及び幅よりもいずれも十分に大きい背景画像を設定情報に含まれる目盛盤の色で描画し、この背景画像の中央に、輪郭の情報に基づいて長さ及び幅に対応させた指針の輪郭を描画し、輪郭内を設定情報の針色で描画する。目盛に直交する方向に、指針の長さに対応する幅分の画素を走査し(ステップS209)、走査した画素の画素値を用いて指針の走査画像を作成する(ステップS210)。
 制御部30は、ステップS207で作成した目盛盤の走査画像における目盛に直交する方向に沿って、ステップS210で作成した指針の走査画像を用い、指針が写っている可能性の高さの分布(尤度分布)を算出する(ステップS211)。
 ステップS211において制御部30は、目盛盤の走査画像(矩形画像)における目盛に直交する方向に沿って、ステップS210で作成した指針の走査画像を指針の方向に合わせて重畳させ、対応する画素同士の差分を算出して得られる数値に基づいて尤度を算出する。制御部30は、対応する画素同士の差分を、指針の走査画像の大きさの範囲全て合算したものを用いてもよいし、和の平均値を算出してもよい。制御部30は差分の合算値、又は平均値が小さい程に、指針の走査画像が位置する目盛盤の走査画像内の箇所に指針が写っている可能性が高いとして尤度を算出する。好ましくは、指針の走査画像における指針の中心線及び中心線から所定幅分の画素については、その差分が小さい程尤度が大きくなるように、差分に重み付けを与えて尤度を算出するとよい。
 制御部30は、ステップS211で算出した目盛に直交する方向、即ち目盛位置に対する尤度分布の微分値を用いて尤度分布を補正する(ステップS212)。ステップS212において制御部30は、尤度分布におけるピークの内、尤度が同程度のピークについてはより急峻なピークを採用するためである。
 制御部30は、ステップS212の補正後の尤度分布に基づき、尤度が最大となる目盛盤の走査画像上の位置を特定し(ステップS213)、特定した位置に対応する指針が示す数値を算出して記憶部31にデバイス識別情報及びメータ識別情報と対応付けて記憶する(ステップS214)。ステップS214における記憶は、撮像画像を取得した時間を示す時間情報と対応付けてログとして蓄積記憶してもよいし、最新の数値情報のみを記憶するようにしてもよい。
 制御部30は、受信した撮像画像について写っている監視対象のメータM全ての処理を実行したか否かを判断し(ステップS215)、全ての処理を実行していないと判断された場合(S215:NO)、処理をステップS205へ戻し、次のメータMを選択して(S205)、処理を続行する。
 ステップSにて全ての処理を実行したと判断された場合(S215:YES)、制御部30は処理を終了する。
 ステップS206における走査に際し、指針が目盛範囲の上下限(ゼロ及び最大の目盛位置)を超えて振れることが予想される場合には、その上下限を超える部分を「読取範囲外領域」として設定された範囲を含めて実行してもよい。制御部30はステップS206で、「読取範囲外領域」を走査画像の対象とするか否かの設定に基づいて走査を進めてもよい。「読取範囲外領域」を対象としない場合、制御部30はS206で示したように、ゼロ目盛位置から最大目盛位置までに限定して走査を行ない、走査画像を作成する。「読取範囲外領域」を対象とする場合制御部30は、「読取範囲外領域」も含めて走査を進め、走査画像を作成し、S211以降の処理で指針が「読取範囲外領域」に存在していることが推定できる状態では、S213の特定処理を回避するといった処理を行なってもよい。
 撮像画像の内容例を用い、図9のフローチャートに示した処理手順について具体的に説明する。図10は、撮像画像の内容例を示す模式図である。図10では図5で示したように圧力計であるメータMを撮像した例を示している。図11は、撮像画像に対する走査方法の概要を示す図である。図11では、図10に示した撮像画像に対し、図4-図8を参照して説明した処理によって設定された指針支点位置を符号O、複数の主目盛の位置を符号P0,P1,P2,P3,P4,P5で示している。図11では、目盛盤の走査画像を作成するための走査の進行方向を白抜きの矢符を示し、1回の走査(主走査)で参照する指針の長さ分に対応する範囲を破線の矩形Lにて示している。矩形Lは、指針の基準位置である指針の支点位置の画素を通り、指針の長さ分の1画素から2画素、画素が参照できる程度の幅の範囲である。制御部30はステップS207(ステップS210でも同様)において、矩形Lを指針支点位置Oで少しずつ回転させながら画素値を参照して走査画像を作成する。
 図12A及び図12Bは、メータMの目盛盤の走査画像の一例を示す模式図である。図12Bは、図12Aに示す異なる手法で得られた走査画像の他の一例である。図12Bの例では、図12Aと比して、走査対象が指針の針尾部分側の空白に及んでいる。図12A及び図12Bでは、走査画像を線図で示し、走査画像中の図11中で示した符号O,P0,P1,P2,P3,P4,P5で識別される主目盛の位置を符号で示している。図12A及び図12Bに示す一例では、矩形画像の図12A及び図12中の線分Qが、指針支点位置に対応している。図12A及び図12Bに示すように走査画像は矩形画像として作成される。長辺方向は走査時の矩形Lの回転角度に対応する。なお図12A及び図12Bに示すように、撮像画像におけるメータMの歪みによって、主目盛間の区間毎に長さが異なる。したがって後に指針が示す数値を読み取る際には区間毎に異なる主目盛間の目盛の配分に基づいて特定する。なお区間の長さを均一化するために区間毎に異なる係数で走査画像を伸長又は短縮させるようにしてもよい。
 図13A及び図13Bは、指針の走査画像の一例を示す模式図である。図11に示した方法で目盛盤の走査画像と同様の走査画像を作成するため、指針の下部が拡がった画像として作成される。図13Bは、図13Aに比して、走査の対象を指針の針尾部分側の空白にまで及ばせた場合の例を示している。
 図14A及び図14Bは、尤度分布を示す図である。横軸は目盛盤の走査画像の走査の進行方向、縦軸は尤度を示している。図14Aは、尤度分布を図12Aの目盛盤の走査画像に重畳させるようにして示している。図12Aの目盛盤の走査画像に対して図13Aの指針の走査画像が合致、即ち指針が写っている可能性の高さの分布を示している。図14Aの例では、目盛盤の走査画像における左側に尤度のピークがある。制御部30はピークの位置と、走査画像上における主目盛の位置とに基づき、指針は3.4付近を示していると特定することができる。図14Bは、尤度分布を図12Bの目盛盤の走査画像に重畳させるようにして示している。
 上述の処理は、回転する指針を持つメータMを例に説明したが、これに限らず上下する指針又は左右に動く指針(針に限らない指示部)を持つメータMに対しても同様の処理によって読取が可能である。このとき走査を進める方向は、目盛に直交する方向(指針が上下する方向)で変わらない。ただしこのようなメータMに対しては、設定情報として指針支点位置ではなく指針の基準位置(例えば中心)を受け付けて記憶しておき、読取処理においては基準位置を用いて走査画像を作成する。図15は、撮像画像に対する走査方法の他の例の概要を示す図である。図15に示す例では、垂直方向に指針が上下する水位計の撮像画像を用いている。このような水位計であっても目盛に直交する方向(指針又は水面、境界面等が進行する方向)に順次、指針を含む範囲Lの画素値を参照して走査画像を作成することで同様の処理を適用することができる。
 読み取られた数値は夫々、メータMの測定対象の状態の異常検知に利用される。以下の処理では、読み取られた数値が予め設定された範囲内にあるか否かをサーバ装置3にて判断し、範囲外であると判断された場合のみにメータ検針システム100のクライアント装置4を用いる担当者へ向けて通知を行ない、安全監視サービスを実現する。
 図16は、サーバ装置3の制御部30による異常検知処理の手順の一例を示すフローチャートである。制御部30は、図9のフローチャートに示した読取処理を実行する都度、又は、数分に1度、数時間に1度等の所定の周期で以下に示す処理手順を実行する。
 制御部30は、デバイス識別情報を選択し(ステップS301)、選択したデバイス識別情報に対応付けて記憶したメータM毎の指針が示す数値を読み出す(ステップS302)。制御部30は、選択したデバイス識別情報に対応するメータM毎の所定安全範囲を読み出し(ステップS303)、ステップS302で読み出した数値が、ステップS303読み出した所定の安全範囲内であるか否かを判断する(ステップS304)。
 ステップS304で安全範囲内であると判断された場合(S304:YES)、制御部30は、監視対象のメータMに対応するデバイス識別情報を全て選択したか否かを判断する(ステップS305)。全て選択したと判断された場合(S305:YES)、制御部30は処理を終了する。
 ステップS304で安全範囲外であると判断された場合(S304:NO)、制御部330は、ステップS301で選択したデバイス識別情報に対応付けられているアカウント情報に基づいて担当者へ向けて発報し(ステップS306)、処理をステップS305へ進める。
 ステップS305で全て選択していないと判断された場合(S305:NO)、制御部30は処理をステップS301へ戻す。
 従来は担当者が工場を巡回して、アナログメータであるメータMを目視により確認して異常の有無を判断してきた。しかしながら本開示のサーバ装置3の機能によって高精度な自動読取が可能になる。カメラデバイス1をメータMに位置決めして取り付け、ゲートウェイ装置2を設定、設置し、クライアント装置4にて各カメラデバイス1について図5-図7に示したような初期的な設定操作を行なうのみで以後、異常検知の業務を自動化することができる。例えば高温、危険ガス取扱い等、担当者の立ち入りが困難な場所に設置されているメータについても、高温対応のアダプタ17を用いてカメラデバイス1を使用することで、検針を自動化させることが可能である。
 本開示のメータ検針システム100では更に、サーバ装置3により、読み取られた数値単体のみならず履歴をメータ毎に記憶しておき、工場の状況又はメータMそのものについての長期的な異常検知、異常予測サービスを提供することができる。サーバ装置3は、記憶部31にデバイス識別情報又はメータ識別情報と対応付けて、読み取った数値を時間情報と共に記憶し、メータ毎の測定履歴のデータベースを作成する。サーバ装置3はこの測定値履歴を用いて以下の処理を実行する。
 図17は、サーバ装置3による第2の異常検知処理の手順の一例を示すフローチャートである。制御部30は、測定履歴のデータベースに対し、1週間に1度、1ヶ月に1度等の所定の周期で、以下の処理を実行する。
 制御部30は、制御部30は、デバイス識別情報を選択し(ステップS401)、選択したデバイス識別情報に対応付けて測定履歴データベースとして記憶してある数値群を、対応付けられている時間情報と共に読み出す(ステップS402)。
 制御部30は、読み取られた数値の時間経過に対する変化を算出する(ステップS403)。制御部30はステップS403において例えば、数値の変動の周波数を算出してもよい。制御部30は、長期的な変動のトレンド及び直近所定期間におけるトレンドの両方又は一方を算出してもよい。制御部30は近似曲線及び近似曲線のパラメータ等を算出してもよい。
 制御部30は、ステップS403で算出した変化に基づいて、メータM自体又はメータMの測定対象に関する危険の有無を判断する(ステップS404)。ステップS404において制御部30は、危険の到来の有無を判断し、到来時期と共に予測してもよい。
 ステップS404の判断は、記憶部31にメータ毎(メータ識別情報又はデバイス識別情報)に条件を記憶しておき、条件との比較に基づき行なわれるとよい。例えばメータMの測定対象の種別(圧力、水位、流量等)毎に、ステップS403で算出する変化についての1又は複数の条件を記憶部31に記憶してある。周波数を算出する場合には、周波数範囲が記憶してあってもよい。トレンドを算出する場合には、危険であると判断するトレンド数値が記憶してあるとよい。近似曲線のパラメータが記憶されていてもよい。
 危険有と判断された場合(S404:YES)、制御部30は、危険をステップS401で選択したデバイス識別情報に対応付けられているアカウント情報に基づいて担当者へ向けて発報する(ステップS405)。
 制御部30は、監視対象のメータMに対応するデバイス識別情報を全て選択したか否かを判断する(ステップS406)。全て選択したと判断された場合(S406:YES)、制御部30は処理を終了する。
 ステップS404で危険無と判断された場合(S404:NO)、制御部30は、ステップS405の処理を行なうことなく、ステップS406へ処理を進める。
 ステップS406で全て選択していないと判断された場合(S406:NO)、制御部30は処理をステップS401へ戻す。
 このように、本開示のメータ検針システム100では、数値の読取り及び読み取られた数値に基づく異常の検知についてはサーバ装置3側で実施し、異常が検知された場合のみ発報し、担当者における作業負担を削減するサービスを実現することができる。勿論、読取処理によって読み取られた数値は、サーバ装置3から逐次クライアント装置4へ通知するようにし、クライアント装置4で所定の数値又は範囲との比較に基づき異常の有無を判断してもよい。また異常検知はサーバ装置3で実行し、定期的に、数値の履歴をまとめたログレポートをクライアント装置4へ送信するようにしてもよい。
 上述のように開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 1 カメラデバイス
 11 撮像部
 13 通信部
 14 制御部
 17 アダプタ
 2 ゲートウェイ装置
 3 サーバ装置(メータ読取装置)
 30 制御部
 31 記憶部
 30P サーバプログラム
 4 クライアント装置
 40 制御部
 40P アプリプログラム
 42 表示部
 43 操作部
 

Claims (8)

  1.  メータの目盛盤を撮像した撮像画像における前記目盛盤の基準位置、各々数値が対応付けられた前記目盛盤の複数の主目盛の位置を示す情報を受け付ける第1受付部と、
     前記メータの指針の形状及び大きさを示す情報を受け付ける第2受付部と、
     第1受付部及び第2受付部にて受け付けた情報を、メータ又はメータを撮像する撮像装置の識別情報に対応付けて記憶する第1記憶部と、
     前記メータの目盛盤を新たに撮像した撮像画像を受信する受信部と、
     該受信部により撮像画像を受信する都度に、該撮像画像に対し、前記第1記憶部に記憶した目盛盤の基準位置、前記複数の主目盛の位置、並びに指針の形状及び大きさに基づき、前記メータの指針が示す数値を読み取る読取部と、
     該読取部にて読み取られた数値を前記識別情報に対応付けて記憶する第2記憶部と
     を備えるメータ読取装置。
  2.  メータの目盛盤を撮像した撮像画像を含み、該撮像画像上で前記メータの目盛盤の基準位置の選択操作を受け付ける第1画面と、前記撮像画像上で前記目盛盤の複数の主目盛の位置の選択操作を、対応する数値と対応付けて受け付ける第2画面とを含む設定画面の画面情報を送信する送信部を備え、
     前記第1受付部は、前記設定画面にて情報を受け付ける
     請求項1に記載のメータ読取装置。
  3.  前記設定画面は、前記撮像画像上で前記メータの指針の形状及び大きさを受け付ける第3画面を含み、
     前記第2受付部は、前記設定画面にて情報を受け付ける
     請求項2に記載のメータ読取装置。
  4.  前記読取部にて読み取られる数値に対する範囲の設定を受け付ける第3受付部と、
     該第3受付部で受け付けた設定範囲を、前記メータ又はメータを撮像する撮像装置の識別情報に対応付けて記憶する第3記憶部と、
     前記読取部にて数値を読み取る都度、読み取られた数値が前記第3記憶部に記憶した設定範囲内であるか否かを判断する判断部と、
     該判断部にて設定範囲外であると判断された場合、前記メータ又はメータを撮像する撮像装置の識別情報に対応付けて記憶してあるユーザ情報に基づいて報知する報知部と
     を備える請求項1又は2に記載のメータ読取装置。
  5.  前記第2記憶部は、前記読取部にて読み取られた数値を前記識別情報及び時間情報に対応付けて記憶し、
     該第2記憶部に記憶してある数値の履歴に基づき、数値の変化から異常を検知する異常検知部を備える
     請求項2に記載のメータ読取装置。
  6.  メータに取り付けるためのアダプタと、
     該アダプタにより前記メータに対して位置決めされる基板に撮像部及び無線通信部を備え、該撮像部で撮像した撮像画像を前記無線通信部から送信するカメラデバイスと、
     該カメラデバイスから送信される撮像画像に対して前記メータの指針が示す位置を読み取る請求項1から5のいずれか1項に記載のメータ読取装置と
     を含むメータ検針システム。
  7.  記憶部を備えるコンピュータに、
     メータの目盛盤を撮像した撮像画像における前記目盛盤の基準位置、各々数値が対応付けられた前記目盛盤の複数の主目盛の位置を示す情報を受け付け、
     前記メータの指針の形状及び大きさを示す情報を受け付け、
     受け付けた情報を、メータ又はメータを撮像する撮像装置の識別情報に対応付けて前記記憶部に記憶し、
     前記メータの目盛盤を新たに撮像した撮像画像を受信し、
     受信の都度、受信した撮像画像に対し、記憶してある目盛盤の基準位置、前記複数の主目盛の位置、並びに指針の形状及び大きさに基づき、前記メータの指針が示す数値を読み取り、
     読み取られた数値を前記識別情報に対応付けて前記記憶部に記憶する
     処理を実行させるコンピュータプログラム。
  8.  表示部及び通信部を備えるコンピュータに、
     メータの目盛盤を撮像した撮像画像を含み、該撮像画像上で前記目盛盤の基準位置の選択操作を受け付ける第1画面と、前記撮像画像上で前記目盛盤の複数の主目盛の位置の選択操作を、対応する数値と対応付けて受け付ける第2画面とを含む設定画面の画面情報を前記通信部にて受信し、
     受信した画面情報に基づいて前記表示部に前記設定画面を表示して情報を受け付け、
     受け付けた情報を前記通信部により送信する
     処理を実行させるコンピュータプログラム。
     
PCT/JP2019/034133 2018-08-30 2019-08-30 メータ読取装置、メータ検針システム、及びコンピュータプログラム WO2020045631A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201980056090.7A CN112640415B (zh) 2018-08-30 2019-08-30 仪表读取装置、抄表系统和存储介质
JP2020517609A JP6811354B2 (ja) 2018-08-30 2019-08-30 メータ読取装置、メータ検針システム、及びコンピュータプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-161879 2018-08-30
JP2018161879 2018-08-30

Publications (1)

Publication Number Publication Date
WO2020045631A1 true WO2020045631A1 (ja) 2020-03-05

Family

ID=69642800

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/034133 WO2020045631A1 (ja) 2018-08-30 2019-08-30 メータ読取装置、メータ検針システム、及びコンピュータプログラム

Country Status (3)

Country Link
JP (1) JP6811354B2 (ja)
CN (1) CN112640415B (ja)
WO (1) WO2020045631A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113358172A (zh) * 2021-06-02 2021-09-07 三川智慧科技股份有限公司 一种水表自动设置机电同步的方法、装置、设备和介质
TWI746013B (zh) * 2020-06-16 2021-11-11 中華電信股份有限公司 電表通訊異常檢測與通報系統及其方法
TWI841953B (zh) 2022-04-19 2024-05-11 國立臺東大學 指針式量測裝置的輔助觀測方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114140678A (zh) * 2021-11-23 2022-03-04 北京东方国信科技股份有限公司 刻度识别方法、装置、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5673331A (en) * 1995-06-03 1997-09-30 United States Department Of Energy Method and apparatus for reading meters from a video image
JP2004133560A (ja) * 2002-10-08 2004-04-30 Central Res Inst Of Electric Power Ind アナログメータの自動読み取り方法および自動読み取り装置
JP2016162412A (ja) * 2015-03-05 2016-09-05 株式会社正興電機製作所 指示針式メータ用画像解析装置、指示針式メータ用画像解析方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106737674B (zh) * 2016-12-23 2017-11-28 西安交通大学 仪表盘非线性刻度视觉检测方法及画写系统装置
CN107239742B (zh) * 2017-05-11 2020-06-09 安徽慧视金瞳科技有限公司 一种仪表指针刻度值计算方法
CN107563368A (zh) * 2017-09-08 2018-01-09 清华大学 双表盘指针式仪表的高精度自动读数装置及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5673331A (en) * 1995-06-03 1997-09-30 United States Department Of Energy Method and apparatus for reading meters from a video image
JP2004133560A (ja) * 2002-10-08 2004-04-30 Central Res Inst Of Electric Power Ind アナログメータの自動読み取り方法および自動読み取り装置
JP2016162412A (ja) * 2015-03-05 2016-09-05 株式会社正興電機製作所 指示針式メータ用画像解析装置、指示針式メータ用画像解析方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI746013B (zh) * 2020-06-16 2021-11-11 中華電信股份有限公司 電表通訊異常檢測與通報系統及其方法
CN113358172A (zh) * 2021-06-02 2021-09-07 三川智慧科技股份有限公司 一种水表自动设置机电同步的方法、装置、设备和介质
TWI841953B (zh) 2022-04-19 2024-05-11 國立臺東大學 指針式量測裝置的輔助觀測方法

Also Published As

Publication number Publication date
JP6811354B2 (ja) 2021-01-13
CN112640415B (zh) 2022-09-13
CN112640415A (zh) 2021-04-09
JPWO2020045631A1 (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
JP6783894B2 (ja) メータ読取装置、メータ読取方法及びコンピュータプログラム
WO2020045631A1 (ja) メータ読取装置、メータ検針システム、及びコンピュータプログラム
JP6782194B2 (ja) 自動点検システム
CN113418543B (zh) 自动驾驶传感器的检测方法、装置、电子设备及存储介质
US20130088604A1 (en) Method for displaying a thermal image in an ir camera, and an ir camera
JP5679521B2 (ja) 情報表示装置及び情報表示システム
CN107203196B (zh) 工业设备检测系统及方法
KR101934571B1 (ko) 아날로그 계측 장비 관리 시스템, 그리고 이를 이용한 아날로그 계측 장비 관리 방법
CN106895791B (zh) 一种板卡形变监测预警系统
KR100939079B1 (ko) 적설량 관측 시스템 및 적설량 원격 측정 방법
JP7408865B2 (ja) メータ読み取り作業装置および方法ならびにメータ読み取り作業システム
JP2010176202A (ja) 管理システム、管理方法及びプログラム
JP6197827B2 (ja) センサ管理装置、センサ管理方法およびセンサ管理プログラム
KR20190029463A (ko) 엘리베이터 시스템의 유지 보수 과정의 추적
US20190246071A1 (en) Building Monitoring System
JP6808413B2 (ja) 監視装置
WO2020045635A1 (ja) メータ読取装置、メータ読取方法及びコンピュータプログラム
JP2017173262A (ja) 動作検知装置、および情報処理装置
JP6803940B2 (ja) 遠隔メータ読取コンピュータ、その方法及びプログラム
JP2001022433A (ja) 監視装置および監視方法
JP2020181467A (ja) メータ読取システム、メータ読取方法及びプログラム
JPH1149100A (ja) エプロン監視装置
CN108009453B (zh) 背光显示器检测和无线电签名识别
WO2021090864A1 (ja) 画像処理装置、画像処理方法および撮像装置
EP3531243B1 (en) Measurement instrument identification system as well as method for finding a particular measurement instrument

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2020517609

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19855707

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19855707

Country of ref document: EP

Kind code of ref document: A1