WO2019187499A1 - 吐水制御装置、吐水制御システム、及び吐水制御方法 - Google Patents

吐水制御装置、吐水制御システム、及び吐水制御方法 Download PDF

Info

Publication number
WO2019187499A1
WO2019187499A1 PCT/JP2019/000783 JP2019000783W WO2019187499A1 WO 2019187499 A1 WO2019187499 A1 WO 2019187499A1 JP 2019000783 W JP2019000783 W JP 2019000783W WO 2019187499 A1 WO2019187499 A1 WO 2019187499A1
Authority
WO
WIPO (PCT)
Prior art keywords
water discharge
target object
image
detection unit
discharge control
Prior art date
Application number
PCT/JP2019/000783
Other languages
English (en)
French (fr)
Inventor
宣広 滝
雄喜 白井
Original Assignee
株式会社Lixil
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Lixil filed Critical 株式会社Lixil
Publication of WO2019187499A1 publication Critical patent/WO2019187499A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E03WATER SUPPLY; SEWERAGE
    • E03CDOMESTIC PLUMBING INSTALLATIONS FOR FRESH WATER OR WASTE WATER; SINKS
    • E03C1/00Domestic plumbing installations for fresh water or waste water; Sinks
    • E03C1/02Plumbing installations for fresh water
    • E03C1/05Arrangements of devices on wash-basins, baths, sinks, or the like for remote control of taps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers

Definitions

  • the present invention relates to a water discharge control device, a water discharge control system, and a water discharge control method.
  • the installation position of the sensor is fixed and cannot be moved. Since the installation position of the sensor is fixed, water discharge is not started unless an object to be detected such as a human hand or a washing object is put out in an area where the sensor can detect. For this reason, for example, even if a short child puts out a hand or the like in front of the spout, there is a possibility that the hand will be outside the region that can be detected by the sensor and cannot be detected. In such a case, the sensor cannot be moved even if it tries to move the sensor to a position that matches the movement of the child.
  • the objective is the water discharge control apparatus, water discharge control system, and water discharge control which can move the position which detects operation which controls water discharge according to a condition. Is to provide a method.
  • an operation object that is a detection target related to the image and whose position can be changed based on image information of an image in which the imaging target region is captured.
  • An operation object detection unit that detects a position
  • a target object detection unit that detects a position of a target object that is a detection target in the image based on the image information
  • an operation object detected by the operation object detection unit is captured.
  • a control unit that controls water discharge based on information on the position, the position of the target object detected by the target object detection unit, and the movement of the target object.
  • the position of at least one operation object among the plurality of operation objects provided in the imaging target region can be changed, and the operation object detection unit includes a plurality of operation objects in the image. The position of each of the operation objects may be detected.
  • the control unit determines that the position of the target object is approaching the position of the operation object based on a time-series change in the position of the target object
  • the water discharge may be controlled according to the operation corresponding to the operation object.
  • the control unit determines that the moving speed of the target object is decelerating based on a time-series change in the moving speed of the position of the target object
  • the operation The water discharge may be controlled according to the operation corresponding to the object.
  • the control unit is predicted that the speed of the target object is equal to or lower than a predetermined threshold at the position of the operation object based on a time-series change in the moving speed of the target object.
  • water discharge may be controlled in accordance with an operation corresponding to the operation object.
  • the operation object may be a display object displayed in accordance with a water discharge operation.
  • control unit based on depth information indicating the depth of the object in the imaging target region, the position of the three-dimensional space in the operation object detected by the operation object detection unit, And the position of the three-dimensional space in the said target object detected by the said target object detection part may be calculated, and water discharge may be controlled based on each calculated position.
  • the imaging apparatus that captures the imaging target region and the image information of the image captured by the imaging apparatus are acquired.
  • the water discharge control device described in 1. is provided.
  • the water discharge control system further includes a distance measurement device that measures the depth of the object in the imaging target region, and the water discharge control device includes image information of an image captured by the image pickup device, and the distance measurement. You may acquire the depth information which shows the depth of the object in the said imaging target area
  • the operation object detection unit is an operation object that is a detection target related to the operation of water discharge in an image corresponding to the image information based on the image information of the imaging target region.
  • the target object detection unit detects the position of the target object that is the detection target in the image based on the image information, and the control unit detects the operation object detection.
  • Water discharge is controlled based on the position of the operation object detected by the unit, the position of the target object detected by the target object detection unit, and information on the movement of the target object.
  • the position for detecting the operation for controlling water discharge can be moved according to the situation.
  • FIG. 1 is a block diagram illustrating a configuration example of a water discharge control system 1 according to the first embodiment.
  • the water discharge control system 1 controls water discharge and water stop based on the image of the imaging target area 40 that is an area including the graphic 401.
  • the figure 401 is, for example, a visual symbol (for example, a pictogram) corresponding to a water discharge operation.
  • the figure 401 is an example of an “operation object”.
  • the figure 401 is an example of a “display object”.
  • the figure 401 is an image showing, for example, a pictograph of a cup in which water has been poured.
  • the pictogram on which the cup filled with water is displayed corresponds to, for example, an operation of discharging purified water.
  • the figure 401 is not an electronic component in which a touch sensor or an electronic circuit is incorporated, but a member on which a visual symbol (for example, a pictogram) is drawn, such as a sticker, a sticker, or a card.
  • FIG. 1 illustrates the case where there is one figure 401, there may be a plurality of figures 401.
  • the figure 401 should just be provided in arbitrary places suitable in order to operate water discharge, such as a sink wall and an outer peripheral part, and an installation position may be changed according to a situation, without fixing an installation position. For example, when a small child uses a faucet, the figure 401 may be moved to a lower position.
  • Control of water discharge performed by the water discharge control system includes control for selecting the type of water to be discharged, the form of water to be discharged, the water pressure and flow rate of water to be discharged, the temperature, and the like.
  • Examples of the water discharged include raw water, purified water, and hot water.
  • Examples of the form of water discharged include straight water discharge and shower water discharge. In the following description, a case where the water discharge control system 1 controls water discharge and water stop will be described as an example.
  • the water discharge control system 1 includes, for example, an imaging device 10 and a water discharge control device 20.
  • the water discharge control device 20 is connected to an electromagnetic valve 30 that starts or ends water discharge from the water discharge pipe.
  • the water discharge control system 1 controls water discharge and water stoppage of the water discharge pipe by opening and closing the electromagnetic valve 30.
  • the imaging device 10 is provided in a place where water is used, such as a kitchen, and images the imaging target area 40 at predetermined time intervals.
  • the image of the imaging target area 40 captured by the imaging apparatus 10 is an example of an “area image”.
  • the imaging device 10 captures an area wider than the sink (for example, an area including the sink and the stove).
  • the imaging device 10 is provided around a water discharge pipe, such as a ceiling of a kitchen or an outer surface of a bottom plate of a wall cabinet.
  • a bulb-type camera that can be attached to a lighting wiring fixture can be used.
  • the imaging device 10 operates with electric power supplied from the illumination wiring device.
  • the imaging device 10 is provided above the water discharge pipe.
  • the imaging device 10 is installed such that an area viewed from the upper side of the water discharge pipe is the imaging area. That is, the imaging device 10 images a region including the water discharge pipe from a position overlooking the water discharge pipe.
  • the imaging device 10 outputs image information of the captured image to the water discharge control device 20.
  • the imaging device 10 outputs image information of the captured image to the water discharge control device 20 via a wireless communication line such as WiFi, for example.
  • the imaging device 10 may capture a moving image or a still image.
  • the imaging device 10 may capture a color image or a monochrome image.
  • the water discharge control device 20 includes, for example, a target object detection unit 200, a graphic detection unit 201, a coordinate extraction unit 202, a coordinate extraction unit 203, a coincidence detection unit 204, a speed detection unit 205, a trajectory prediction unit 206, and a control information output unit 207.
  • the figure detection unit 201 and the coordinate extraction unit 203 are examples of the “operation object detection unit”.
  • the coordinate extraction unit 202 is an example of a “target object detection unit”.
  • the coincidence detection unit 204 is an example of a “control unit”.
  • the speed detection unit 205 is an example of a “control unit”.
  • the trajectory prediction unit 206 is an example of a “control unit”.
  • the control information output unit 207 is an example of a “control unit”.
  • the target object detection unit 200 detects whether or not there is a target object 400 (that is, the target objects 400X and 400Y) based on the image of the imaging target region 40 captured by the imaging device 10.
  • the target object 400 here is an object that operates the graphic 401 in order to operate water discharge.
  • the target object 400 is a part of a hand that pushes, touches, or points to the graphic 401.
  • the target object 400Y indicates the position of the “hand” that is the target object
  • the target object 400X indicates the position of the “hand” at a time point before the time when the target object 400Y is detected.
  • the target objects 400X and 400Y are collectively referred to as the target object 400.
  • the target object detection unit 200 extracts various objects captured in an image by performing edge detection, for example.
  • the graphic detection unit 201 performs edge detection based on, for example, the luminance difference in the image data.
  • the target object detection unit 200 applies various rectangular frames (that is, cells) to the image, and compares them with the inside of the frame.
  • the target object detection unit 200 determines that there is an object in the frame when the luminance difference is small on the outer periphery of the frame, and extracts the object from the image by extracting the frame.
  • the target object detection unit 200 selects the target object 400 from the objects extracted from the image.
  • the target object detection unit 200 stores in advance an image showing the shape of a part of a body (hereinafter, simply referred to as “hand”) such as various hands, fingers, and elbows assumed as the target object 400.
  • the target object detection unit 200 scales the stored hand image and the object image extracted from the image captured by the imaging device 10 to the same size, and compares each pixel of both images. To do.
  • the target object detection unit 200 determines that the object extracted from the image is the image of the target object 400 when both the compared images satisfy a predetermined similarity condition.
  • the predetermined similarity condition here is, for example, a case where the ratio of pixels in which the color difference between the pixels in both images is less than a predetermined threshold is a predetermined ratio or more.
  • the target object detection unit 200 outputs the detection result to the coordinate extraction unit 202.
  • the graphic detection unit 201 detects whether or not there is a graphic 401 in the image based on the image of the imaging target area 40 imaged by the imaging device 10.
  • the figure detection unit 201 extracts various objects captured in an image by performing edge detection, for example. Then, the graphic detection unit 201 selects the graphic 401 from the object extracted from the image. The figure detection unit 201 stores, for example, a predetermined figure 401 determined in advance. The graphic detection unit 201 compares the stored graphic 401 with the image of the object extracted from the image captured by the imaging device 10, and the object extracted from the image when both images satisfy a predetermined similarity condition Is a figure 401. The figure detection unit 201 outputs the detection result to the coordinate extraction unit 203.
  • the coordinate extraction unit 202 extracts position coordinates indicating the position of the target object 400 in the image based on the image captured by the imaging device 10 and the detection result output by the target object detection unit 200.
  • the position coordinates here may be coordinate values (that is, representative values) indicating positions near the center of the target object 400, or may be a coordinate group indicating the outer periphery of the target object 400.
  • the coordinate extraction unit 202 outputs the position coordinates of the target object 400 in the extracted image to the coincidence detection unit 204.
  • the coordinate extraction unit 202 extracts position coordinates indicating the position of the target object 400 using, for example, a two-dimensional coordinate system of the x axis indicating the horizontal direction and the y axis indicating the vertical direction in the image.
  • the coordinate extraction unit 203 extracts position coordinates indicating the position of the graphic 401 in the image based on the image captured by the imaging device 10 and the detection result output by the graphic detection unit 201.
  • the coordinate extraction unit 202 outputs the position coordinates of the graphic 401 in the extracted image to the coincidence detection unit 204.
  • the coordinate extraction unit 203 extracts position coordinates indicating the position of the figure 401 using a two-dimensional coordinate system of an x-axis and a y-axis in the image, for example.
  • the coincidence detection unit 204 detects whether or not the position coordinates of the target object 400 extracted by the coordinate extraction unit 202 and the position coordinates of the figure 401 extracted by the coordinate extraction unit 203 match. For example, when the distance between the position coordinate of the target object 400 and the position coordinate of the figure 401 is less than a predetermined threshold, the coincidence detection unit 204 determines that both position coordinates coincide.
  • the predetermined threshold here may be arbitrarily set according to the position where the figure 401 is installed.
  • the coincidence detection unit 204 outputs the detection result to the control information output unit 207.
  • the speed detection unit 205 detects the speed at which the target object 400 moves based on the position coordinates of the target object 400 with respect to the graphic 401 extracted by the coordinate extraction unit 202.
  • the speed detection unit 205 determines the position coordinates of the target object 400 (for example, the target object 400Y) in the image and the position coordinates of the target object 400 (for example, the target object 400X) in the image captured before the image. The amount of change is calculated.
  • the speed detection unit 205 calculates the amount of movement (that is, speed) of the target object 400 per unit time based on a predetermined time interval at which images are captured. For example, the speed detection unit 205 calculates a speed in the x-axis direction and a speed in the y-axis direction, respectively.
  • the speed detection unit 205 outputs the calculated speed to the trajectory prediction unit 206 and the control information output unit 207.
  • the speed detection unit 205 calculates a relative movement speed that is a speed at which the target object 400 moves with respect to the graphic 401.
  • the trajectory prediction unit 206 predicts a trajectory along which the target object 400 moves based on the relative movement speed calculated by the speed detection unit 205.
  • the trajectory prediction unit 206 calculates, for example, the moving direction of the target object 400 and the speed change amount (that is, acceleration) per unit time.
  • the trajectory prediction unit 206 calculates a change (that is, a trajectory) of the movement position of the target object 400 when it is assumed that the target object 400 moves at a constant acceleration in the calculated movement direction based on the calculated movement direction and acceleration. To do.
  • the trajectory prediction unit 206 predicts the calculated change in the movement position (that is, the trajectory) as a trajectory along which the target object 400 moves. For example, the trajectory prediction unit 206 predicts a trajectory in the x-axis direction and a trajectory in the y-axis direction, respectively. The trajectory prediction unit 206 outputs the predicted trajectory along which the target object 400 moves to the control information output unit 207.
  • the control information output unit 207 outputs a control signal for controlling the open / close state of the electromagnetic valve 30 based on the detection result of the coincidence detection unit 204, the detection result of the speed detection unit 205, and the prediction result of the trajectory prediction unit 206. For example, the control information output unit 207 determines whether the position of the target object 400 is approaching the position of the figure 401 in the two-dimensional coordinate system of the x-axis and the y-axis based on the detection result of the coincidence detection unit 204. judge.
  • the control information output unit 207 determines the movement speed of the target object 400 in the two-dimensional coordinate system of the x axis and the y axis based on the detection result of the speed detection unit 205. Determine whether the vehicle is decelerating.
  • the control information output unit 207 moves the moving speed of the target object 400 in the two-dimensional coordinate system of the x-axis and the y-axis based on the prediction result of the trajectory prediction unit 206.
  • the position coordinate of the target object 400 at the time when becomes zero that is, the position where the movement of the target object 400 is predicted to stop) is calculated.
  • control information output unit 207 determines that the calculated position where the movement of the target object 400 is predicted to stop coincides with the position of the figure 401. Then, control information indicating that is output to the solenoid valve 30. “Stop” here is an example of “speed is below a predetermined threshold”.
  • FIG. 2 is a diagram for explaining processing in which the trajectory prediction unit 206 according to the first embodiment predicts a trajectory.
  • FIG. 2 shows an example of a time-series change in the speed at which the target object 400 moves with respect to the graphic 401.
  • the horizontal axis indicates time
  • the vertical axis indicates speed.
  • FIG. 2 illustrates a case where the moving speed of the target object 400 in the image captured at time t0 is the speed v0, and the moving speed of the target object 400 in the image captured at time t1 is the speed v1. Further, FIG. 2 illustrates a case where the speed v0 is higher than the speed v1 and the moving speed of the target object 400 is decelerated between the time t0 and the time t1.
  • the trajectory prediction unit 206 calculates the acceleration of the target object 400 at time t1 by the following (Equation 1).
  • a1 is the acceleration at time t1
  • v1 is the speed at time t1
  • v0 is the speed at time t
  • time t0 is the time when the image was captured before time t1.
  • the trajectory predicting unit 206 calculates the time taken until the speed becomes zero as ).
  • ⁇ t represents the time taken for the speed to become zero
  • v1 represents the speed at time t1
  • v0 represents the speed at time t0.
  • FIG. 3 is a diagram for explaining processing in which the trajectory prediction unit 206 according to the first embodiment predicts a trajectory.
  • FIG. 3 shows an example of a time-series change in the position where the target object 400 corresponding to FIG. 2 moves.
  • the horizontal axis indicates time
  • the vertical axis indicates the x coordinate.
  • FIG. 3 illustrates the case where the x coordinate of the target object 400 in the image captured at time t0 is the coordinate x0, and the x coordinate of the target object 400 in the image captured at time t1 is the coordinate x1.
  • the trajectory prediction unit 206 calculates a value corresponding to the area of the triangle indicated by dx in FIG. 2 as the distance moved during the time ⁇ t. Specifically, the trajectory prediction unit 206 calculates the distance traveled during the time ⁇ t by the following (Equation 3). Where dx is the distance traveled during time ⁇ t, ⁇ t is the time taken for the speed to reach zero, v1 is the speed at time t1, x1 is the x coordinate at time t1, x0 is the x coordinate at time t0, time t0 indicates a time when an image is captured before time t1.
  • Equation 3 indicates the moving direction with a + (plus) or ⁇ (minus) sign.
  • the trajectory prediction unit 206 calculates the x coordinate of the target object 400 at the time when the moving speed becomes zero. Specifically, since the target object 400 changes the distance dx in the x-axis direction after the time ⁇ t has elapsed from the coordinate x1 at the time t1, the trajectory prediction unit 206 has the target object at the time when the moving speed becomes zero. The x coordinate of 400 is calculated as (x1 + dx). Similarly, the trajectory prediction unit 206 calculates the y coordinate of the target object 400 at the time when the moving speed becomes zero in the y-axis direction.
  • FIG. 4 is a flowchart showing an operation example of the water discharge control device 20 according to the first embodiment. Here, the overall flow of the operation of the water discharge control device 20 will be described with reference to FIG.
  • the water discharge control device 20 acquires image information of an image of the imaging target region 40 imaged by the imaging device 10 (step S100).
  • the water discharge control device 20 outputs the acquired image information to the target object detection unit 200 and the graphic detection unit 201.
  • the graphic detection unit 201 performs a process of detecting whether or not the graphic 401 is included in the image (graphic detection process) (step S200).
  • the figure detection unit 201 outputs the detection result to the coordinate extraction unit 203.
  • the target object detection unit 200 performs processing (operation detection processing) for detecting whether or not the target object 400 is included in the image (operation S300).
  • the target object detection unit 200 outputs the detection result to the coordinate extraction unit 202.
  • the coordinate extraction unit 202 extracts the position coordinates of the target object 400 based on the detection result output by the target object detection unit 200, and outputs the extracted position coordinates to the coincidence detection unit 204.
  • the coincidence detection unit 204, the speed detection unit 205, and the trajectory prediction unit 206 perform processing (operation state detection processing) for detecting the movement state of the target object 400 (step S400).
  • the coincidence detection unit 204 detects whether or not the position of the graphic 401 matches the position of the target object 400 based on the position coordinates extracted by the coordinate extraction units 202 and 203.
  • the coincidence detection unit 204 outputs the detection result to the control information output unit 207.
  • the speed detection unit 205 calculates the speed at which the target object 400 moves based on the position coordinates of the target object 400 extracted by the coordinate extraction unit 202.
  • the trajectory prediction unit 206 predicts a time-series change in the position where the target object 400 moves based on the movement speed of the target object 400 calculated by the speed detection unit 205.
  • the control information output unit 207 performs a determination process for determining water discharge according to the operation based on the results of the process (operation state detection process) by the coincidence detection unit 204, the speed detection unit 205, and the trajectory prediction unit 206. This is performed (step S500).
  • FIG. 5 is a flowchart illustrating an operation example of the water discharge control device 20 according to the first embodiment.
  • the flow of the “determination process” shown in step S500 will be described with reference to FIG.
  • control information output unit 207 determines whether the target object 400 (described as “operation” in FIG. 5) is detected from the image by the coordinate extraction unit 203 (step S501). Next, the control information output unit 207 extracts the operation position TP, and when an operation is detected from the image, the operation position TP approaches the position of the figure 401 based on the detection result of the coincidence detection unit 204. It is determined whether or not there is (step S502). Next, the control information output unit 207 extracts the operation speed TV, and when the operation position approaches the position of the figure 401, the operation movement speed TV is decelerated based on the detection result of the speed detection unit 205. It is determined whether or not (step S503).
  • the control information output unit 207 predicts the activation of the operation (step S504). Specifically, when the movement speed TV of the operation is decelerating, the control information output unit 207 determines whether or not the operation trajectory is predicted to stop at the position of the graphic 401 based on the prediction result of the trajectory prediction unit 206. Is determined (step S504). The control information output unit 207 predicts that the operation trajectory stops at the position of the graphic 401 when the position of the operation at the time when the movement speed of the operation becomes zero is at a distance less than a predetermined threshold from the position of the graphic 401.
  • Step S505 the control information output unit 207 determines that the operation on the graphic 401 is performed, and controls water discharge based on the operation corresponding to the graphic 401.
  • Step S505 the control information output unit 207 controls the water discharge state based on the predicted trajectory.
  • the control information output unit 207 may predict a position where the movement speed of the operation is a predetermined threshold value or less.
  • the water discharge control device 20 is an operation object that is a detection target related to the operation of water discharge in the area image based on the image information of the area image in which the imaging target area is captured.
  • the figure detection unit 201 that detects the figure 401 whose position can be changed, the target object detection unit 200 that detects an operation on the figure 401 based on the region image, and the position and target of the figure detected by the figure detection unit 201
  • a control information output unit 207 that controls water discharge is provided based on the operation position VT of the operation on the graphic detected by the object detection unit 200 and information on the movement of the operation position.
  • the water discharge control device 20 determines that the operation is performed on the graphic 401 according to the moving speed of the target object 400, the water discharge corresponding to the graphic 401 is performed. Control can be performed.
  • the figure 401 is not an electronic component in which a touch sensor or an electronic circuit is incorporated, the installation position can be changed depending on the situation. For this reason, the position which detects operation which controls water discharge can be moved according to a situation.
  • a plurality of graphics 401 are provided in the image, and the position of at least a part of the plurality of graphics 401 can be changed, and the graphic detection unit 201 includes a plurality of graphics 401 in the image. Each position is detected. For this reason, even if it is a case where the some figure 401 is installed, the water discharge control apparatus 20 which concerns on this embodiment reduces responsiveness based on the movement state of the position of each figure 401 and the hand to operate. It is possible to control water discharge without any problems.
  • the control information output unit 207 determines that the operation position VT is approaching the position of the graphic 401 based on the time series change of the operation position VT.
  • the water discharge is controlled according to the corresponding operation.
  • the water discharge control apparatus 20 which concerns on this embodiment can determine that operation is performed, and can control water discharge.
  • the water discharge control device 20 when the control information output unit 207 determines that the speed in the movement of the operation position VT is decelerated based on the rate of change in the speed in the movement of the operation position VT, Water discharge is controlled according to the operation corresponding to the figure 401. As a result, the water discharge control device 20 according to the present embodiment operates when the operation position VT is approaching the position of the figure 401 and it is determined that the speed of movement of the operation position VT is decelerating. Therefore, it is possible to control water discharge.
  • the control information output unit 207 is configured to predict that the movement of the operation position VT is stopped at the position of the graphic 401 based on the rate of change in speed in the movement of the operation position VT.
  • the water discharge is controlled according to the operation corresponding to the figure 401.
  • the operation position VT is approaching the position of the figure 401, and the speed of movement of the operation position VT is decelerated.
  • the movement of the operation position VT When the speed is predicted to be equal to or lower than a predetermined threshold at the position of the graphic 401, it is determined that the operation is performed, and water discharge can be controlled. Thereby, malfunction of the sensor is suppressed, and it is possible to detect whether or not an operation on the graphic 401 has been performed with higher accuracy according to the detection result.
  • water discharge is started by detecting a human hand or an object to be cleaned that is a detection target object put out to the water discharge port by a sensor installed in a faucet or the like so that the periphery of the water discharge port is imaged. Control was performed. In such a conventional example, even when the detection target object simply passes around the water discharge port, water discharge may be started.
  • the operation position VT approaches the position of the figure 401, the speed in the movement of the operation position VT is reduced, and the movement of the operation position VT is the position of the figure 401.
  • the position of the target object 400 moves and passes across the position of the figure 401, it is possible to suppress erroneous detection that an operation on the figure 401 has been performed. It is possible to detect whether or not an operation has been performed.
  • the water discharge control system 1 includes an imaging device 10 that captures a region image including a graphic corresponding to a water discharge operation that is a state relating to water to be discharged, and image information of the region image captured by the imaging device 10. And a water discharge control device 20 to be acquired.
  • the water discharge control system 1 which concerns on this embodiment can control water discharge based on the image imaged by the imaging device 10, it suppresses malfunction of a sensor and controls water discharge according to a detection result. be able to.
  • the water discharge control system 1 ⁇ / b> A according to the present embodiment is different from the above-described embodiment in that movement information in a three-dimensional space is acquired regarding the movement of the target object 400.
  • movement information in a three-dimensional space is acquired regarding the movement of the target object 400.
  • FIG. 6 is a block diagram illustrating a configuration example of the water discharge control system 1A according to the second embodiment.
  • the water discharge control system 1A includes an imaging device 10A and a water discharge control device 20A.
  • the imaging device 10 ⁇ / b> A captures the imaging target area 40 and acquires depth information of the object in the imaging target area 40.
  • the imaging device 10A is an imaging device including a distance sensor 10A1.
  • the distance sensor 10A1 is an example of a “distance measuring device”.
  • the distance sensor 10A1 measures the distance from the irradiation port to the object by, for example, irradiating infrared light or the like and receiving reflected light reflected by the irradiated infrared light on the object.
  • the imaging device 10 measures the distance to the object in the imaging target region 40 using the distance sensor 10A1.
  • the imaging device 10A transmits information indicating the distance to the measured object to the water discharge control device 20A together with the image information.
  • the water discharge control device 20A controls water discharge based on the image information transmitted by the imaging device 10A and information indicating the distance to the object.
  • the coordinate extraction unit 202A extracts position coordinates indicating the position of the target object 400 using a three-dimensional coordinate system of an x-axis indicating the horizontal direction, a y-axis indicating the vertical direction, and a z-axis indicating the depth direction in the image.
  • the coordinate extraction unit 202A outputs the calculated position coordinates to the coincidence detection unit 204.
  • the coordinate extraction unit 203A extracts position coordinates indicating the position of the figure 401 using a three-dimensional coordinate system of an x-axis, a y-axis, and a z-axis in the image.
  • the coordinate extraction unit 203A outputs the calculated position coordinates to the coincidence detection unit 204.
  • the speed detection unit 205 calculates the speed in the x-axis direction, the speed in the y-axis direction, and the speed in the z-axis direction, respectively.
  • the speed detection unit 205 outputs the calculated speed to the trajectory prediction unit 206 and the control information output unit 207.
  • the trajectory prediction unit 206 predicts a trajectory in the x-axis direction, a trajectory in the y-axis direction, and a trajectory in the z-axis direction.
  • the trajectory prediction unit 206 outputs the calculated trajectory to the control information output unit 207.
  • the control information output unit 207 determines whether or not the position of the target object 400 is approaching the position of the figure 401 in the three-dimensional coordinate system of the x axis, the y axis, and the z axis. Determine.
  • the control information output unit 207 determines the target object 400 in the three-dimensional coordinate system of the x axis, the y axis, and the z axis based on the detection result of the speed detection unit 205. It is determined whether the moving speed is decelerating.
  • the control information output unit 207 determines the target object 400 in the three-dimensional coordinate system of the x axis, the y axis, and the z axis based on the prediction result of the trajectory prediction unit 206.
  • the position coordinates of the target object 400 that is, the position where the movement of the target object 400 is predicted to stop
  • the control information output unit 207 determines that the operation of opening or closing the electromagnetic valve 30 has been performed when it is determined that the calculated position where the movement of the target object 400 is expected to stop coincides with the position of the figure 401. Control information indicating this is output to the solenoid valve 30.
  • the control information output unit 207 is detected by the figure detection unit 201A based on the depth information indicating the depth of the object in the imaging target region 40.
  • the position of the three-dimensional space in the figure and the position of the three-dimensional space in the operation on the figure 401 detected by the target object detection unit 200A are calculated, and the water discharge is controlled based on each calculated position.
  • the water discharge control device 20A according to the second embodiment can perform the operation in the z-axis direction even when the target object 400 and the figure 401 are overlapped in the z-axis direction perpendicular to the imaging surface.
  • the movement speed of the target object 400 at the time can be calculated, and the trajectory of the movement of the target object 400 in the z-axis direction can be predicted. For this reason, it is possible to suppress malfunction of the sensor and detect whether or not an operation is performed on the graphic 401 with higher accuracy according to the detection result.
  • the imaging device 10A is an imaging device including the distance sensor 10A1 has been described as an example.
  • the present invention is not limited to this.
  • the imaging device 10A only needs to be able to measure the depth of an object in the imaging target region 40, and may be a stereo camera, for example.
  • the case where the graphic detection unit 201 or the graphic detection unit 201A detects the graphic 401 is described as an example, but the present invention is not limited to this.
  • the water discharge control device 20 or the water discharge control device 20A may detect the position of the water discharge port instead of the position of the graphic 401.
  • the water discharge control device 20 or the water discharge control device 20A can perform control such as water discharge when the water discharge port and the target object 400 are close to each other by detecting the position of the water discharge port, and according to the detection result.
  • the water discharge state can be controlled.
  • the case where the water discharge state is controlled by a human touching the graphic 401 and the like has been described as an example.
  • the present invention is not limited to the graphic such as the graphic 401.
  • the water discharge state may be controlled when a human touches a character or a photograph other than a graphic.
  • a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed.
  • the “computer system” includes an OS and hardware such as peripheral devices.
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
  • the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line.
  • a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time.
  • the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. It may be realized using a programmable logic device such as an FPGA.

Abstract

吐水制御装置は、撮像対象領域が撮像された画像の画像情報に基づいて、前記画像における吐水の操作に関する検知対象である操作物体であって位置が変更可能な操作物体の位置を検知する操作物体検知部と、前記画像情報に基づいて、前記画像における検知対象である対象物体の位置を検知する対象物体検知部と、前記操作物体検知部により検知された前記操作物体の位置、前記対象物体検知部により検知された前記対象物体の位置、及び前記対象物体の移動に関する情報に基づいて、吐水を制御する制御部とを備える。

Description

吐水制御装置、吐水制御システム、及び吐水制御方法
 本発明は、吐水制御装置、吐水制御システム、及び吐水制御方法に関する。
 本願は、2018年3月30日に、日本国に出願された特願2018-067514号に基づいて優先権を主張し、その内容をここに援用する。
 近年、人間の行動からその行動の意図を認識する行動認識技術の発達に伴い、人間が水栓の操作をしなくても、自動的にその人間の意図に基づいて適切に水栓を制御するシステムの開発が期待されている。
 例えば、シンクに設置され、吐水口の下が検知領域となるセンサにより、吐水口に差し出された人間の手や洗浄物などの検知対象物体を検知することで、検知対象物体の動きに応じたタイミングで吐水を開始する技術が開示されている(例えば特許文献1参照)。
日本国特開2010-145379号公報
 しかしながら、上記の技術を用いた場合においては、シンクにセンサ等を設ける必要がある。このため、センサの設置位置が固定されており、動かすことができない。センサの設置位置が固定されているため、センサが検知可能な領域に、人間の手や洗浄物などの検知対象物体が差し出されなければ、吐水が開始されない。このため、例えば、背の低い子供が吐水口の手前に手などを差し出しても、手がセンサの検知可能な領域外となり、検知できない可能性がある。
 このような場合に、子供の動作に合わせた位置にセンサを移動させようとしても移動できない。
 本発明は、このような事情に鑑みてなされたものであり、その目的は、吐水を制御する操作を検知する位置を状況に応じ移動させることができる吐水制御装置、吐水制御システム、及び吐水制御方法を提供することである。
 本発明の一態様に係る吐水制御装置によれば、撮像対象領域が撮像された画像の画像情報に基づいて、前記画像における関する検知対象である操作物体であって位置が変更可能な操作物体の位置を検知する操作物体検知部と、前記画像情報に基づいて、前記画像における検知対象である対象物体の位置を検知する対象物体検知部と、前記操作物体検知部により検知された前記操作物体の位置、前記対象物体検知部により検知された前記対象物体の位置、及び前記対象物体の移動に関する情報に基づいて、吐水を制御する制御部とを備える。
 上述の態様に係る吐水制御装置において、前記撮像対象領域において複数設けられた前記操作物体のうち、少なくとも一つの前記操作物体は位置が変更可能であり、前記操作物体検知部は、前記画像における複数の前記操作物体の各々の位置を検知してもよい。
 上述の態様に係る吐水制御装置において、前記制御部は、前記対象物体の位置の時系列変化に基づいて、前記対象物体の位置が前記操作物体の位置に近づいていると判定される場合、前記操作物体に対応する操作に応じて、吐水を制御してもよい。
 上述の態様に係る吐水制御装置において、前記制御部は、前記対象物体の位置の移動速度の時系列変化に基づいて、前記対象物体の移動速度が減速していると判定される場合、前記操作物体に対応する操作に応じて、吐水を制御してもよい。
 上述の態様に係る吐水制御装置において、前記制御部は、前記対象物体の移動速度の時系列変化に基づいて、前記対象物体が前記操作物体の位置において速度が所定の閾値以下となると予測される場合に、前記操作物体に対応する操作に応じて、吐水を制御してもよい。
 上述の態様に係る吐水制御装置において、前記操作物体は、吐水の操作に応じて表示された表示物であってもよい。
 上述の態様に係る吐水制御装置において、前記制御部は、前記撮像対象領域における物体の深度を示す深度情報に基づいて、前記操作物体検知部により検知された前記操作物体における三次元空間の位置、及び前記対象物体検知部により検知された前記対象物体における三次元空間の位置を算出し、算出した各々の位置に基づいて、吐水を制御してもよい。
 本発明の一態様に係る吐水制御システムによれば、撮像対象領域を撮像する撮像装置と、前記撮像装置により撮像された画像の画像情報を取得する請求項1から請求項4の何れか一項に記載の吐水制御装置を備える。
 上述の態様に係る吐水制御システムにおいて、前記撮像対象領域における物体の深度を測定する距離測定装置を更に備え、前記吐水制御装置は、前記撮像装置により撮像された画像の画像情報、及び前記距離測定装置により測定された前記撮像対象領域における物体の深度を示す深度情報を取得してもよい。
 本発明の一態様に係る吐水制御方法によれば、操作物体検知部が、撮像対象領域の画像情報に基づいて、前記画像情報に対応する画像における吐水の操作関する検知対象である操作物体であって位置が変更可能な操作物体の位置を検知し、対象物体検知部が、前記画像情報に基づいて、前記画像における検知対象である対象物体の位置を検知し、制御部が、前記操作物体検知部により検知された前記操作物体の位置、前記対象物体検知部により検知された前記対象物体の位置、及び前記対象物体の移動に関する情報に基づいて、吐水を制御する。
 以上説明した各態様に係る吐水制御装置、吐水制御システム、および吐水制御方法によれば、吐水を制御する操作を検知する位置を状況に応じ移動させることができる。
第1の実施形態に係る吐水制御システム1の構成例を示すブロック図である。 本実施形態に係る軌道予測部206が行う処理を説明するための図である。 本実施形態に係る軌道予測部206が行う処理を説明するための図である。 本実施形態に係る吐水制御装置20の動作例を示すフローチャートである。 本実施形態に係る吐水制御装置20の動作例を示すフローチャートである。 第2の実施形態に係る吐水制御装置20Aの構成例を示すブロック図である。
 以下、本発明の各実施形態に係る吐水制御システム及び吐水制御装置を、図面を参照して説明する。
<第1の実施形態>
 まず、第1の実施形態について説明する。
 図1は、第1の実施形態に係る吐水制御システム1の構成例を示すブロック図である。吐水制御システム1は、図形401を含む領域である撮像対象領域40の画像に基づいて、吐水及び止水を制御する。図形401は、例えば、吐水の操作に対応する視覚記号(例えばピクトグラム)である。ここで、図形401は、「操作物体」の一例である。また、図形401は、「表示物」の一例である。
 図1に示すように、図形401は、例えば、水が注がれたコップの絵文字が示された画像である。水が注がれたコップが表示された絵文字は、例えば、浄水を吐水する操作に対応する。
 図形401は、タッチセンサや電子回路が組み込まれた電子部品ではなく、視覚記号(例えばピクトグラム)が描かれた部材であり、例えば、ステッカーやシール、カード等である。
 図1では、図形401が一つである場合を例示したが、図形401は複数あってもよい。図形401は、シンクの壁や外周部など、吐水を操作するために好適な任意の箇所に設けられればよく、設置位置が固定されることなく状況に応じて設置位置が変更されてもよい。例えば、小さな子供が水栓を使用する場合には、図形401を低い位置に移動させて使用してもよい。
 吐水制御システムが行う吐水の制御には、吐水する水の種別、吐水する水の形態及び吐水する水の水圧や流量、温度等を選択する制御が含まれる。吐水する水の種別には、例えば、原水、浄水、湯水がある。吐水する水の形態には、例えば、ストレート吐水、及びシャワー吐水がある。以下の説明では、吐水制御システム1が吐水及び止水を制御する場合を例示して説明する。
 吐水制御システム1は、例えば、撮像装置10及び吐水制御装置20を備える。
吐水制御装置20は、吐水管の吐水を開始又は終了させる電磁弁30と接続する。吐水制御システム1は、電磁弁30を開閉することにより吐水管の吐水及び止水を制御する。
 撮像装置10は、例えば、キッチン等、水が使用される場所に設けられ、所定の時間間隔で撮像対象領域40を撮像する。ここで、撮像装置10により撮像された撮像対象領域40の画像は、「領域画像」の一例である。撮像装置10は、例えば、シンクよりも広い領域(例えばシンクとコンロとを含む領域)を撮像する。撮像装置10は、例えば、キッチンの天井、又はウォールキャビネットの底板外側面等、吐水管の周囲に設けられる。撮像装置10が天井に設けられる場合には、照明配線器具に装着可能な電球型のカメラを用いることができる。この場合、撮像装置10は、照明配線器具から供給される電力により動作する。また、この場合、撮像装置10は、吐水管の上方に設けられる。この場合、撮像装置10は、例えば、吐水管の上方から下側をみた領域が撮像領域となるように設置される。つまり、撮像装置10は、吐水管を俯瞰する位置から吐水管を含む領域を撮像する。
 撮像装置10は、撮像した画像の画像情報を吐水制御装置20に出力する。撮像装置10は、例えば、WiFi等の無線通信回線を介して、撮像した画像の画像情報を吐水制御装置20に出力する。撮像装置10は、動画像を撮像してもよいし、静止画像を撮像してもよい。撮像装置10は、カラー画像を撮像してもよいし、白黒画像を撮像してもよい。
 吐水制御装置20は、例えば、対象物体検知部200、図形検知部201、座標抽出部202、座標抽出部203、一致検知部204、速度検知部205、軌道予測部206、及び制御情報出力部207を備える。ここで、図形検知部201及び座標抽出部203は「操作物体検知部」の一例である。座標抽出部202は、「対象物体検知部」の一例である。一致検知部204は、「制御部」の一例である。速度検知部205は、「制御部」の一例である。軌道予測部206は、「制御部」の一例である。制御情報出力部207は、「制御部」の一例である。
 対象物体検知部200は、撮像装置10により撮像された撮像対象領域40の画像に基づいて、対象物体400(つまり対象物体400X、400Y)があるか否かを検知する。ここでの対象物体400は、吐水を操作するために、図形401を操作する物体であり、例えば、図形401を押したり、触れたり、指し示したりする手の部分である。図1の例では、対象物体400Yは対象物体である「手」の位置を示し、対象物体400Xは対象物体400Yが検知された時間より前の時点における「手」の位置を示している。以下の説明においては、対象物体400X、400Yを区別しない場合には、対象物体400X、400Yを対象物体400と総称する。
 対象物体検知部200は、例えば、エッジ検出を行うことにより画像に撮像された様々な物体を抽出する。図形検知部201は、例えば、画像データにおける輝度の差分に基づいてエッジ検出を行う。具体的には、対象物体検知部200は、画像に様々な矩形の枠(つまりセル)をあてはめ、枠の内部と比較する。対象物体検知部200は、枠の外周に輝度の差分が少ない場合に、その枠内に物体があると判定し、その枠を抽出することで画像から物体を抽出する。
 対象物体検知部200は、画像から抽出した物体から、対象物体400を選択する。対象物体検知部200は、例えば、対象物体400として想定される様々な手や指、肘などの身体の一部(以下では、単に「手」という)の形状を示す画像を予め記憶させておく。
 対象物体検知部200は、記憶されている手の画像と、撮像装置10により撮像された画像から抽出した物体の画像とを、同じ大きさにスケーリングした上で、両画像の画素の各々について比較する。対象物体検知部200は、比較した両画像が所定の類似条件を充足する場合に、画像から抽出した物体が、対象物体400の画像であると判定する。ここでの所定の類似条件は、例えば、両画像における画素毎の色の差分が所定の閾値未満である画素の割合が所定以上の割合となる場合である。対象物体検知部200は、検知結果を座標抽出部202に出力する。
 図形検知部201は、撮像装置10により撮像された撮像対象領域40の画像に基づいて、画像に図形401があるか否かを検知する。
 図形検知部201は、例えば、エッジ検出を行うことにより画像に撮像された様々な物体を抽出する。そして、図形検知部201は、画像から抽出した物体から図形401を選択する。図形検知部201は、例えば、予め定められた所定の図形401を記憶させておく。図形検知部201は、記憶されている図形401と、撮像装置10により撮像された画像から抽出した物体の画像とを比較し、両画像が所定の類似条件を充足する場合に画像から抽出した物体が図形401であると判定する。図形検知部201は、検知結果を座標抽出部203に出力する。
 座標抽出部202は、撮像装置10により撮像された画像、及び対象物体検知部200により出力された検知結果に基づいて、画像における対象物体400の位置を示す位置座標を抽出する。ここでの位置座標は、対象物体400の部分における中心付近の位置を示す座標値(つまり代表値)であってもよいし、対象物体400の外周を示す座標群であってもよい。座標抽出部202は、抽出した画像における対象物体400の位置座標を一致検知部204に出力する。座標抽出部202は、例えば、画像における横方向を示すx軸、及び縦方向を示すy軸の二次元座標系により、対象物体400の位置を示す位置座標を抽出する。
 座標抽出部203は、撮像装置10により撮像された画像、及び図形検知部201により出力された検知結果に基づいて、画像における図形401の位置を示す位置座標を抽出する。座標抽出部202は、抽出した画像における図形401の位置座標を一致検知部204に出力する。座標抽出部203は、例えば、画像におけるx軸、及びy軸の二次元座標系により、図形401の位置を示す位置座標を抽出する。
 一致検知部204は、座標抽出部202により抽出された対象物体400の位置座標と、座標抽出部203により抽出された図形401の位置座標とが一致しているか否かを検知する。一致検知部204は、例えば、対象物体400の位置座標と図形401の位置座標との距離が所定の閾値未満である場合に双方の位置座標が一致していると判定する。ここでの所定の閾値は、図形401が設置される位置などに応じて任意に設定されてよい。一致検知部204は、検知結果を制御情報出力部207に出力する。
 速度検知部205は、座標抽出部202により抽出された図形401に対する対象物体400の位置座標に基づいて、対象物体400が移動する速度を検知する。速度検知部205は、画像における対象物体400(例えば、対象物体400Y)の位置座標と、その画像の前に撮像された画像における対象物体400(例えば、対象物体400X)の位置座標との位置の変化量を算出する。そして、速度検知部205は、画像が撮像される所定の時間間隔に基づいて、単位時間あたりの対象物体400の移動量(つまり、速度)を算出する。速度検知部205は、例えば、x軸方向における速度、及びy軸方向における速度をそれぞれに算出する。速度検知部205は、算出した速度を、軌道予測部206及び制御情報出力部207に出力する。
 速度検知部205は、図形401に対する対象物体400が移動する速度である相対移動速度を算出する。軌道予測部206は、速度検知部205により算出された相対移動速度に基づいて、対象物体400が移動する軌道を予測する。軌道予測部206は、例えば、対象物体400の移動における移動方向、及び単位時間あたり速度変化量(つまり、加速度)を算出する。軌道予測部206は、算出した移動方向、及び加速度に基づいて、対象物体400が算出した移動方向に等加速度運動すると仮定した場合における、対象物体400の移動位置の変化(つまり、軌道)を算出する。軌道予測部206は、算出した移動位置の変化(つまり、軌道)を、対象物体400が移動する軌道として予測する。軌道予測部206は、例えば、x軸方向における軌道、及びy軸方向における軌道をそれぞれ予測する。軌道予測部206は、予測した対象物体400が移動する軌道を制御情報出力部207に出力する。
 制御情報出力部207は、一致検知部204の検知結果、速度検知部205の検知結果、及び軌道予測部206の予測結果に基づいて、電磁弁30の開閉状態を制御する制御信号を出力する。
 制御情報出力部207は、例えば、一致検知部204の検知結果に基づいて、x軸、及びy軸の二次元座標系において、対象物体400の位置が図形401の位置に近づいているか否かを判定する。対象物体400が図形401に近づいている場合、制御情報出力部207は、速度検知部205の検知結果に基づいて、x軸、及びy軸の二次元座標系において、対象物体400の移動速度が減速しているか否かを判定する。対象物体400の移動速度が減速している場合、制御情報出力部207は、軌道予測部206の予測結果に基づいて、x軸、及びy軸の二次元座標系において、対象物体400の移動速度がゼロとなる時点における対象物体400の位置座標(つまり対象物体400の移動が停止すると予測される位置)を算出する。制御情報出力部207は、算出した対象物体400の移動が停止すると予測される位置と、図形401の位置とが一致することを判定した場合、電磁弁30を開く又は閉じる操作が行われたと判定し、その旨を示す制御情報を電磁弁30に出力する。ここでの「停止」は、「速度が所定の閾値以下」の一例である。
 図2は、第1の実施形態に係る軌道予測部206が軌道を予測する処理を説明するための図である。図2では図形401に対する対象物体400が移動する速度の時系列変化の一例を示している。図2の横軸は時間、縦軸は速度を示している。
 図2では、時間t0において撮像された画像における対象物体400の移動速度が速度v0であり、時間t1において撮像された画像における対象物体400の移動速度が速度v1である場合を例示している。また、図2では、速度v0は、速度v1よりも大きく、時間t0から時間t1の間に対象物体400の移動速度が減速している場合を例示している。
 軌道予測部206は、時間t1における対象物体400の加速度を、以下の(数1)により算出する。ここで、a1は時間t1における加速度、v1は時間t1における速度、v0は時間tにおける速度、時間t0は時間t1より前に画像が撮像された時間を示す。
Figure JPOXMLDOC01-appb-M000001
 軌道予測部206は、加速度a1が負(つまりa1<0)、つまり対象物体400が移動速度を減速させながら移動している場合、速度がゼロとなるまでにかかる時間を、以下の(数2)により算出する。ここで、Δtは速度がゼロとなるまでにかかる時間、v1は時間t1における速度、v0は時間t0における速度を示す。
Figure JPOXMLDOC01-appb-M000002
 図3は、第1の実施形態に係る軌道予測部206が軌道を予測する処理を説明するための図である。図3では、図2に対応する対象物体400が移動する位置の時系列変化の一例を示している。図3の横軸は時間、縦軸はx座標を示している。
 図3では、時間t0において撮像された画像における対象物体400のx座標が座標x0であり、時間t1において撮像された画像における対象物体400のx座標が座標x1である場合を例示している。
 軌道予測部206は、時間Δtの間に移動する距離として、図2におけるdxで示される三角形の面積に相当する値を算出する。具体的には、軌道予測部206は、時間Δtの間に移動する距離を以下の(数3)により算出する。ここで、dxは時間Δtの間に移動する距離、Δtは速度がゼロとなるまでにかかる時間、v1は時間t1における速度、x1は時間t1におけるx座標、x0は時間t0におけるx座標、時間t0は時間t1より前に画像が撮像された時間を示す。
Figure JPOXMLDOC01-appb-M000003
 ここで、(数3)における((x0-x1)/|x1-x0|)の項は、移動する方向を+(プラス)又は-(マイナス)符号で示している。
 軌道予測部206は、移動速度がゼロとなる時点における対象物体400のx座標を算出する。具体的には、対象物体400が時間t1における座標x1から、時間Δtが経過した後に、x軸方向に距離dx変化することから、軌道予測部206は、移動速度がゼロとなる時点における対象物体400のx座標を、(x1+dx)と算出する。
 軌道予測部206は、y軸方向についても同様に、移動速度がゼロとなる時点における対象物体400のy座標を算出する。
 図4は、第1の実施形態に係る吐水制御装置20の動作例を示すフローチャートである。ここでは、図4を用いて吐水制御装置20の動作の全体の流れを説明する。
 まず、吐水制御装置20は、撮像装置10により撮像された撮像対象領域40の画像の画像情報を取得する(ステップS100)。吐水制御装置20は、取得した画像情報を、対象物体検知部200、及び図形検知部201に出力する。
 次に、図形検知部201は、画像に図形401が含まれているか否かを検知する処理(図形の検知処理)を行う(ステップS200)。図形検知部201は、検知結果を座標抽出部203に出力する。
 次に、対象物体検知部200は、画像に対象物体400が含まれているか否かを検知する処理(操作の検知処理)を行う(ステップS300)。対象物体検知部200は、検知結果を座標抽出部202に出力する。座標抽出部202は、対象物体検知部200により出力された検知結果に基づいて、対象物体400の位置座標を抽出し、抽出した位置座標を一致検知部204に出力する。
 次に、一致検知部204、速度検知部205、及び軌道予測部206は、対象物体400の移動の状態を検知する処理(操作の状態検知処理)を行う(ステップS400)。一致検知部204は、座標抽出部202及び203により抽出された位置座標に基づいて、図形401の位置と対象物体400の位置とが一致するか否かを検知する。一致検知部204は、検知結果を制御情報出力部207に出力する。速度検知部205は、座標抽出部202により抽出された対象物体400の位置座標に基づいて、対象物体400が移動する速度を算出する。軌道予測部206は、速度検知部205により算出された対象物体400の移動速度に基づいて、対象物体400が移動する位置の時系列変化を予測する。
 そして、制御情報出力部207は、一致検知部204、速度検知部205、及び軌道予測部206による処理(操作の状態検知処理)の結果に基づいて、操作に応じた吐水を判定する判定処理を行う(ステップS500)。
 上述したフローチャートでは、まず、図形401を検知する処理(図形の検知処理)の後に、操作を検知する処理(操作の検知処理)が行われる場合を例示して説明したが、先に操作を検知する処理(操作の検知処理)が行われ、その次に図形401を検知する処理(図形の検知処理)が行われてもよい。
 図5は、第1の実施形態に係る吐水制御装置20の動作例を示すフローチャートである。ここでは、図5を用いて、ステップS500により示される「判定処理」の流れを説明する。
 まず、制御情報出力部207は、座標抽出部203により画像から対象物体400(図5では「操作」と記載する)が検出されたか否かを判定する(ステップS501)。
 次に、制御情報出力部207は、操作の位置TPを抽出し、画像から操作が検出された場合、一致検知部204の検知結果に基づいて、操作の位置TPが図形401の位置に近づいているか否かを判定する(ステップS502)。
 次に、制御情報出力部207は、操作の速度TVを抽出し、操作の位置が図形401の位置に近づいている場合、速度検知部205の検知結果に基づいて、操作の移動速度TVが減速しているか否かを判定する(ステップS503)。
 次に、制御情報出力部207は、操作の起動を予測する(ステップS504)。具体的に、操作の移動速度TVが減速している場合、制御情報出力部207は、軌道予測部206の予測結果に基づいて、操作の軌道が図形401の位置で停止すると予測されるか否かを判定する(ステップS504)。制御情報出力部207は、操作の移動速度がゼロとなる時点における操作の位置が、図形401の位置と所定の閾値未満の距離にある場合に、操作の軌道が図形401の位置で停止すると予測されると判定する。
 そして、制御情報出力部207は、操作の軌道が図形401の位置で停止すると予測される場合、図形401に対する操作が行われると判定し、図形401に対応する操作に基づいて、吐水を制御する(ステップS505)。つまり、制御情報出力部207は、予測した軌道に基づいて、吐水状態を制御する。
 上述したフローチャートでは、ステップS504に示す処理において速度、操作の軌道が停止する位置を予測したが、これに限定されることはない。制御情報出力部207は、操作の移動速度が所定の閾値以下となる位置を予測してもよい。
 以上説明したように、第1の実施形態に係る吐水制御装置20は、撮像対象領域が撮像された領域画像の画像情報に基づいて、領域画像における吐水の操作に関する検知対象である操作物体であって位置が変更可能な図形401を検知する図形検知部201と、領域画像に基づいて、図形401に対する操作を検知する対象物体検知部200と、図形検知部201により検知された図形の位置、対象物体検知部200により検知された図形に対する操作の操作位置VT、及び操作位置の移動に関する情報に基づいて、吐水を制御する制御情報出力部207を備える。これにより、第1に係る実施形態の吐水制御装置20は、対象物体400の移動速度に応じて、図形401に対して操作がなされる動作であると判定する場合に、図形401に対応する吐水制御を行うことができる。ここで、図形401は、タッチセンサや電子回路が組み込まれた電子部品ではないため状況に応じて設置位置が変更可能である。このため、吐水を制御する操作を検知する位置を状況に応じ移動させることができる。
 本実施形態に係る吐水制御装置20では、図形401は、画像において複数設けられ、複数の図形401のうち少なくとも一部は位置が変更可能であり、図形検知部201は、画像における複数の図形401各々の位置を検知する。このため、本実施形態に係る吐水制御装置20は、複数の図形401が設置された場合であっても、各々の図形401の位置と操作する手の移動状況に基づいて、応答性を低下させることなく吐水を制御することが可能である。
 本実施形態に係る吐水制御装置20では、制御情報出力部207は、操作位置VTの時系列変化に基づいて、操作位置VTが図形401の位置に近づいていると判定される場合、図形401に対応する操作に応じて、吐水を制御する。これにより、本実施形態に係る吐水制御装置20は、操作位置VTが図形401の位置に近づいている場合に、操作が行われると判定して、吐水を制御することができる。
 本実施形態に係る吐水制御装置20では、制御情報出力部207は、操作位置VTの移動における速度の変化率に基づいて、操作位置VTの移動における速度が減速していると判定される場合、図形401に対応する操作に応じて、吐水を制御する。これにより、本実施形態に係る吐水制御装置20は、操作位置VTが図形401の位置に近づいており、尚且つ、操作位置VTの移動における速度が減速していると判定される場合に、操作が行われると判定して、吐水を制御することができる。
 本実施形態に係る吐水制御装置20では、制御情報出力部207は、操作位置VTの移動における速度の変化率に基づいて、操作位置VTの移動が図形401の位置において停止すると予測される場合に、図形401に対応する操作に応じて、吐水を制御する。これにより、本実施形態に係る吐水制御装置20は、操作位置VTが図形401の位置に近づいており、尚且つ、操作位置VTの移動における速度が減速しており、さらに、操作位置VTの移動が図形401の位置において速度が所定の閾値以下となると予測される場合に、操作が行われると判定して、吐水を制御することができる。これにより、センサの誤動作が抑制され、検知結果に応じてより精度よく、図形401に対する操作が行われたか否かを検知することができる。
 従来、吐水口の周辺が撮像されるように水栓等に設置したセンサにより、吐水口に差し出された検知対象物体である人間の手や被洗浄物を検知することにより、吐水が開始される制御が行われていた。このような従来例では、吐水口の周辺を検知対象物体が単に通過した場合であっても、吐水が開始される場合があり得る。
 これに対し、本実施形態では、操作位置VTが図形401の位置に近づいており、尚且つ、操作位置VTの移動における速度が減速しており、さらに、操作位置VTの移動が図形401の位置において停止すると予測される場合に、操作が行われると判定して、吐水を制御することができる。このため、対象物体400の位置が移動し、図形401の位置を横切るように通過した場合に、図形401に対する操作が行われたと誤検出することを抑制することができ、より精度よく、図形401に対する操作が行われたか否かを検知することができる。
 本実施形態に係る吐水制御システム1は、吐水する水に関する状態である吐水の操作に対応する図形を含む領域画像を撮像する撮像装置10と、撮像装置10により撮像された領域画像の画像情報を取得する吐水制御装置20とを備える。これにより、本実施形態に係る吐水制御システム1は、撮像装置10により撮像された画像に基づいて吐水を制御することができるため、センサの誤動作を抑制し、検知結果に応じて吐水を制御することができる。
<第2の実施形態>
 次に、第2の実施形態について説明する。本実施形態に係る吐水制御システム1Aは、対象物体400の移動について三次元空間における移動情報を取得する点において、上述した実施形態と相違する。以下では、上述した実施形態と異なる点を説明し、上述した実施形態と同一または類似の機能を有する構成に同一の符号を付し、その説明を省略する。
 図6は、第2の実施形態に係る吐水制御システム1Aの構成例を示すブロック図である。吐水制御システム1Aは、撮像装置10A及び吐水制御装置20Aを備える。
 撮像装置10Aは、撮像対象領域40を撮像すると共に、撮像対象領域40における物体の深度情報を取得する。撮像装置10Aは、距離センサ10A1を備えた撮像装置である。ここで、距離センサ10A1は「距離測定装置」の一例である。
 距離センサ10A1は、例えば、赤外線等を照射し、照射した赤外線が物体に反射した反射光を受光することにより、照射口から物体までの距離を測定する。撮像装置10は、距離センサ10A1を用いて、撮像対象領域40における物体までの距離を測定する。撮像装置10Aは、測定した物体まで距離を示す情報を、画像情報と共に吐水制御装置20Aに送信する。
 吐水制御装置20Aは、撮像装置10Aにより送信された画像情報、及び物体まで距離を示す情報に基づいて、吐水を制御する。
 座標抽出部202Aは、画像における横方向を示すx軸、縦方向を示すy軸、及び深度方向を示すz軸の三次元座標系により、対象物体400の位置を示す位置座標を抽出する。座標抽出部202Aは、算出した位置座標を、一致検知部204に出力する。
 座標抽出部203Aは、画像におけるx軸、y軸、及びz軸の三次元座標系により、図形401の位置を示す位置座標を抽出する。座標抽出部203Aは、算出した位置座標を、一致検知部204に出力する。
 速度検知部205は、x軸方向における速度、y軸方向における速度、及びz軸方向における速度をそれぞれに算出する。速度検知部205は、算出した速度を、軌道予測部206及び制御情報出力部207に出力する。
 軌道予測部206は、x軸方向における軌道、y軸方向における軌道、及びz軸方向における軌道をそれぞれ予測する。軌道予測部206は、算出した軌道を、制御情報出力部207に出力する。
 制御情報出力部207は、一致検知部204の検知結果に基づいて、x軸、y軸、及びz軸の三次元座標系において、対象物体400の位置が図形401の位置に近づいているか否かを判定する。対象物体400が図形401に近づいている場合、制御情報出力部207は、速度検知部205の検知結果に基づいて、x軸、y軸、及びz軸の三次元座標系において、対象物体400の移動速度が減速しているか否かを判定する。対象物体400の移動速度が減速している場合、制御情報出力部207は、軌道予測部206の予測結果に基づいて、x軸、y軸、及びz軸の三次元座標系において、対象物体400の移動速度がゼロとなる時点における対象物体400の位置座標(つまり対象物体400の移動が停止すると予測される位置)を算出する。制御情報出力部207は、算出した対象物体400の移動が停止すると予測される位置と、図形401の位置とが一致する判定した場合、電磁弁30を開く又は閉じる操作が行われたと判定し、その旨を示す制御情報を電磁弁30に出力する。
 以上説明したように、第2の実施形態に係る吐水制御装置20Aでは、制御情報出力部207は、撮像対象領域40における物体の深度を示す深度情報に基づいて、図形検知部201Aにより検知された図形における三次元空間の位置、及び対象物体検知部200Aにより検知された図形401に対する操作における三次元空間の位置を算出し、算出した各々の位置に基づいて、前記吐水を制御する。これにより、第2の実施形態に係る吐水制御装置20Aは、撮像面に対して垂直なz軸方向に、対象物体400と図形401とが重なるようにして操作が行われる場合でも、z軸方向における対象物体400の移動速度を算出し、z軸方向における対象物体400の移動の軌道を予測することができる。このため、センサの誤動作を抑制し、検知結果に応じてより精度よく、図形401に対する操作が行われたか否かを検知することができる。
 上記では、撮像装置10Aが距離センサ10A1を備えた撮像装置である場合を例示して説明したが、これに限定されることはない。撮像装置10Aは、撮像対象領域40における物体の深度を測定できればよく、例えば、ステレオカメラであってもよい。
 上述の実施形態では、図形検知部201または図形検知部201Aが図形401を検知する場合を例示して説明したが、これに限定されない。吐水制御装置20または吐水制御装置20Aは、図形401の位置に代えて、吐水口の位置を検知してもよい。吐水制御装置20または吐水制御装置20Aは、吐水口の位置を検出することで、吐水口と対象物体400とが近づいている場合に吐水を行う等の制御を行うことができ、検知結果に応じて吐水状態を制御することが可能となる。
 上述の実施形態では、人間が図形401に触れるなどして操作することにより吐水状態が制御される場合を例示して説明したが、図形401のような図形に限定されることはない。吐水制御システム1または吐水制御システム1Aにおいては、図形以外の文字や写真等に、人間が触れるなどした場合に、吐水状態が制御されてもよい。
 上述した実施形態における吐水制御装置20、及び20Aが行う処理の全部または一部をコンピュータで実現してもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
 なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。また、本発明は前述した説明によって限定されることはなく、添付の請求の範囲によってのみ限定される。
 上記各実施形態によれば、吐水を制御する操作を検知する位置を状況に応じ移動させることができる吐水制御装置、吐水制御システム、及び吐水制御方法を提供することができる。
1,1A 吐水制御システム
10,10A 撮像装置
10A1 距離センサ
20,20A 吐水制御装置
200,200A 対象物体検知部
201,201A 図形検知部
202,202A 座標抽出部
203,203A 座標抽出部
204 一致検知部
205 速度検知部
206 軌道予測部
207 制御情報出力部
30 電磁弁
40 撮像対象領域
400,400X,400Y 対象物体
401 図形

Claims (10)

  1.  撮像対象領域が撮像された画像の画像情報に基づいて、前記画像における吐水の操作に関する検知対象である操作物体であって位置が変更可能な操作物体の位置を検知する操作物体検知部と、
     前記画像情報に基づいて、前記画像における検知対象である対象物体の位置を検知する対象物体検知部と、
     前記操作物体検知部により検知された前記操作物体の位置、前記対象物体検知部により検知された前記対象物体の位置、及び前記対象物体の位置の移動に関する情報に基づいて、吐水を制御する制御部と、
     を備える吐水制御装置。
  2.  前記撮像対象領域において複数設けられた前記操作物体のうち、少なくとも一つの前記操作物体は位置が変更可能であり、
     前記操作物体検知部は、前記画像における複数の前記操作物体の各々の位置を検知する
     請求項1に記載の吐水制御装置。
  3.  前記制御部は、前記対象物体の位置の時系列変化に基づいて、前記対象物体の位置が前記操作物体の位置に近づいていると判定される場合、前記操作物体に対応する操作に応じて、吐水を制御する
     請求項1又は請求項2に記載の吐水制御装置。
  4.  前記制御部は、前記対象物体の位置の移動速度の時系列変化に基づいて、前記対象物体の移動速度が減速していると判定される場合、前記操作物体に対応する操作に応じて、吐水を制御する
     請求項3に記載の吐水制御装置。
  5.  前記制御部は、前記対象物体の移動速度の時系列変化に基づいて、前記対象物体が前記操作物体の位置において速度が所定の閾値以下となると予測される場合に、前記操作物体に対応する操作に応じて、吐水を制御する
     請求項4に記載の吐水制御装置。
  6.  前記操作物体は、吐水の操作に応じて表示された表示物である
     請求項1から請求項5の何れか一項に記載の吐水制御装置。
  7.  前記制御部は、前記撮像対象領域における物体の深度を示す深度情報に基づいて、前記操作物体検知部により検知された前記操作物体における三次元空間の位置、及び前記対象物体検知部により検知された前記対象物体における三次元空間の位置を算出し、算出した各々の位置に基づいて、吐水を制御する
     請求項1から請求項6の何れか一項に記載の吐水制御装置。
  8.  撮像対象領域を撮像する撮像装置と、
     前記撮像装置により撮像された画像の画像情報を取得する請求項1から請求項7の何れか一項に記載の吐水制御装置と
     を備える吐水制御システム。
  9.  前記撮像対象領域における物体の深度を測定する距離測定装置
     を更に備え、
     前記吐水制御装置は、前記撮像装置により撮像された画像の画像情報、及び前記距離測定装置により測定された前記撮像対象領域における物体の深度を示す深度情報を取得する
     請求項8に記載の吐水制御システム。
  10.  操作物体検知部が、撮像対象領域が撮像された画像の画像情報に基づいて、前記画像における吐水の操作に関する検知対象である操作物体であって位置が変更可能な操作物体の位置を検知し、
     対象物体検知部が、前記画像情報に基づいて、前記画像における検知対象である対象物体の位置を検知し、
     制御部が、前記操作物体検知部により検知された前記操作物体の位置、前記対象物体検知部により検知された前記対象物体の位置、及び前記対象物体の位置の移動に関する情報に基づいて、吐水を制御する
     吐水制御方法。
PCT/JP2019/000783 2018-03-30 2019-01-11 吐水制御装置、吐水制御システム、及び吐水制御方法 WO2019187499A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018067514A JP2019178524A (ja) 2018-03-30 2018-03-30 吐水制御装置、吐水制御システム、及び吐水制御方法
JP2018-067514 2018-03-30

Publications (1)

Publication Number Publication Date
WO2019187499A1 true WO2019187499A1 (ja) 2019-10-03

Family

ID=68059770

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/000783 WO2019187499A1 (ja) 2018-03-30 2019-01-11 吐水制御装置、吐水制御システム、及び吐水制御方法

Country Status (2)

Country Link
JP (1) JP2019178524A (ja)
WO (1) WO2019187499A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008075357A (ja) * 2006-09-22 2008-04-03 Matsushita Electric Works Ltd 便器装置
JP2010097552A (ja) * 2008-10-20 2010-04-30 Nec Corp アイコン表示装置、アイコン表示方法及びプログラム
JP2015032100A (ja) * 2013-08-01 2015-02-16 株式会社東芝 情報端末装置
JP2015176253A (ja) * 2014-03-13 2015-10-05 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP2017115334A (ja) * 2015-12-22 2017-06-29 アイシン精機株式会社 人体局部洗浄装置
EP3203356A2 (en) * 2016-02-03 2017-08-09 OP-Hygiene IP GmbH Interactive display device for dispensing fluids

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008075357A (ja) * 2006-09-22 2008-04-03 Matsushita Electric Works Ltd 便器装置
JP2010097552A (ja) * 2008-10-20 2010-04-30 Nec Corp アイコン表示装置、アイコン表示方法及びプログラム
JP2015032100A (ja) * 2013-08-01 2015-02-16 株式会社東芝 情報端末装置
JP2015176253A (ja) * 2014-03-13 2015-10-05 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP2017115334A (ja) * 2015-12-22 2017-06-29 アイシン精機株式会社 人体局部洗浄装置
EP3203356A2 (en) * 2016-02-03 2017-08-09 OP-Hygiene IP GmbH Interactive display device for dispensing fluids

Also Published As

Publication number Publication date
JP2019178524A (ja) 2019-10-17

Similar Documents

Publication Publication Date Title
US11257223B2 (en) Systems and methods for user detection, identification, and localization within a defined space
JP5876142B2 (ja) 存在センサ
US10088549B2 (en) System and a method for tracking mobile objects using cameras and tag devices
US20160379074A1 (en) System and a method for tracking mobile objects using cameras and tag devices
JP4002919B2 (ja) 移動体高さ判別装置
WO2019154112A1 (zh) 入离场状态检测方法和装置
WO2016205951A1 (en) A system and a method for tracking mobile objects using cameras and tag devices
EP3421401A1 (en) Elevator system and method of intent deduction for an elevator system
US10552675B2 (en) Method and apparatus for eye detection from glints
JP5001930B2 (ja) 動作認識装置及び方法
JPH07262375A (ja) 移動体検出装置
Brooks et al. Tracking people with networks of heterogeneous sensors
WO2019187499A1 (ja) 吐水制御装置、吐水制御システム、及び吐水制御方法
CN110294371A (zh) 利用者检测系统
JP5930808B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
US9866798B2 (en) Image processing apparatus, method and program for controlling an image processing apparatus based on detected user movement
JP2020071717A (ja) 情報処理装置、情報処理方法及びプログラム
WO2018203325A1 (en) Method and system for determining occupancy from images
KR102121458B1 (ko) 자동 충전을 위한 로봇 청소기의 경로 추정 방법 및 이를 이용한 로봇 청소기
JP7206057B2 (ja) 吐水制御装置、及び吐水制御システム
KR20190129551A (ko) 무인 이동체용 사물 유도 시스템 및 방법
EP3783157A1 (en) Water discharge control device, water discharge control system, and water discharge control method
JP2019153184A (ja) 自動運転車両を制御するためのシステム、方法、及びプログラム
JP5638335B2 (ja) 位置検出システム、そのデータ処理装置、そのデータ処理方法およびコンピュータプログラム
KR20230034723A (ko) 포인팅 방향 기반 비접촉 센싱 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19774553

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19774553

Country of ref document: EP

Kind code of ref document: A1