WO2015136657A1 - センサ装置、およびセンサ装置の制御方法 - Google Patents

センサ装置、およびセンサ装置の制御方法 Download PDF

Info

Publication number
WO2015136657A1
WO2015136657A1 PCT/JP2014/056613 JP2014056613W WO2015136657A1 WO 2015136657 A1 WO2015136657 A1 WO 2015136657A1 JP 2014056613 W JP2014056613 W JP 2014056613W WO 2015136657 A1 WO2015136657 A1 WO 2015136657A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
gravity
human sensor
human
substrate
Prior art date
Application number
PCT/JP2014/056613
Other languages
English (en)
French (fr)
Inventor
友軌 笹
敬文 岡田
Original Assignee
Necディスプレイソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necディスプレイソリューションズ株式会社 filed Critical Necディスプレイソリューションズ株式会社
Priority to PCT/JP2014/056613 priority Critical patent/WO2015136657A1/ja
Publication of WO2015136657A1 publication Critical patent/WO2015136657A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers

Definitions

  • the present invention relates to a sensor device and a method for controlling the sensor device.
  • the human sensor attached to the display device is designed so that it can detect that a person is away from the display device.
  • a pyroelectric infrared sensor when used as a human sensor, it is effective to narrow a detection area in a specific direction of the sensor by a Fresnel lens or the like. This is because an excellent S / N (Signal to Noise) ratio can be obtained for a person who is far away because the pyroelectric infrared sensor does not receive infrared rays generated outside the desired detection region.
  • S / N Signal to Noise
  • the detection area in a specific direction of the human sensor is narrowed as described above, attention must be paid to the arrangement and orientation of the human sensor so as to obtain a desired detection area.
  • the arrangement for attaching the human sensor may be limited depending on the installation environment of the display device.
  • the problem to be solved is that the user of the human sensor has a burden of checking or adjusting the arrangement and orientation of the human sensor so that a desired area for detecting a person can be obtained. In that point.
  • the sensor device of the present invention includes a first human sensor provided on the substrate, wherein the size of the detection region with respect to the longitudinal direction of the substrate is larger than the size of the detection region with respect to the vertical direction of the longitudinal direction.
  • a control unit for controlling the detecting operation.
  • control method of the sensor device of the present invention is provided on the substrate, wherein the size of the detection region with respect to the longitudinal direction of the substrate is larger than the size of the detection region with respect to the vertical direction of the longitudinal direction.
  • the first human sensor and the size of the detection region with respect to the longitudinal direction are smaller than the size of the detection region with respect to the vertical direction, and are arranged side by side with the first human sensor in the longitudinal direction of the substrate.
  • a control method of a sensor device comprising: a second human sensor; a gravity sensor that is provided on the substrate and detects a direction of gravity; and a control unit that is provided on the substrate, wherein the control unit includes: The detection operation of the first human sensor and the second human sensor is controlled based on the detection result of the gravity sensor.
  • the human sensor in which the size of the detection region with respect to the longitudinal direction of the substrate is larger than the size of the detection region with respect to the vertical direction of the longitudinal direction, and the size of the detection region with respect to the longitudinal direction of the substrate A human sensor smaller than the size of the detection area with respect to the vertical direction is arranged in the longitudinal direction of the substrate. Further, a control unit for controlling the detection operation of these two human sensors based on the detection result of the gravity sensor provided on the substrate is provided on the substrate.
  • an appropriate detection region can be obtained, such as detecting a person in a remote place, regardless of the arrangement and orientation when the sensor device is attached to the display device. For this reason, it is not necessary to pay attention to the arrangement and direction of attaching the sensor device, and the burden on the user when attaching the sensor device can be reduced.
  • FIG. 3 is a top view of the sensor substrate shown in FIG. It is a perspective view of a pyroelectric infrared sensor and a Fresnel lens. It is a figure which shows the detection area
  • FIG. 2 is a block diagram of a sensor module 10 and a display device 50. FIG. It is a figure which shows the state which attached the sensor module 10 to the display apparatus 50. FIG. It is a figure which shows an example of the operation
  • positioning It is a figure which shows the state which attached the sensor module 10a to the display apparatus 50a. It is a figure which shows an example of the operation
  • FIG. 1 is an overall perspective view in which the sensor device of this embodiment is attached to a display device.
  • 1A is an overall perspective view as viewed from the display surface 51 side of the display device 50
  • FIG. 1B is a perspective view as viewed from the back side, that is, the back cover 52 side.
  • the sensor module 10 (sensor device) includes a sensor unit 11 and an inclination mechanism 12.
  • the tilting mechanism 12 is fixed by screwing into a screw hole provided in the bezel 53 of the display device 50.
  • the bezel 53 is provided with a screw hole for fixing the tilt mechanism 12 on the side surface or the bottom surface of the display device 50. For this reason, the sensor module 10 can be attached not only to the top surface of the display device 50 as shown in FIG.
  • the sensor module 10 is connected to a terminal (not shown in FIG. 1B) provided on the display device 50 via a cable 54. With this cable 54, control signals and the like can be transmitted and received between the sensor module 10 and the display device 50.
  • FIG. 2 is an overall perspective view of the sensor device of the present embodiment.
  • Fig.2 (a) is the figure which expanded the sensor module 10 of FIG.
  • FIG. 2B is an exploded perspective view of the sensor unit 11 and the tilt mechanism 12 shown in FIG.
  • the sensor unit 11 includes a front case 13, a Fresnel lens 14 (hereinafter referred to as Fresnel lens 1 b and Fresnel lens 2 b), a sensor substrate 15 (substrate), and a rear case 16.
  • a sensor substrate 15 on which a human sensor is mounted (provided) is housed in the rear case 16 of the sensor unit 11.
  • the tilt mechanism 12 is fixed on the pedestal 17, and the rear case 16 and the tilt mechanism 12 are further fixed on the pedestal 17 by screws.
  • FIG. 3 is a top view of the sensor substrate 15 (substrate) shown in FIG.
  • two human sensors are mounted (provided) on the sensor substrate 15.
  • Each of the two human sensors includes a pyroelectric infrared sensor and a Fresnel lens.
  • the two human sensors are referred to as human sensor 1 (first human sensor) and human sensor 2 (second human sensor), respectively.
  • the sensor board 15 is provided with a gravity sensor 3 for detecting the direction of gravity and a microcomputer 4 (control unit) for controlling the human sensor.
  • a jack 5 for inserting and removing a cable 54 connected to the display device 50 is provided.
  • FIG. 3B is a top view of the sensor substrate 15 excluding the jack 5.
  • FIG. 4 is a perspective view of a pyroelectric infrared sensor and a Fresnel lens.
  • FIG. 4A is a diagram of a state in which a Fresnel lens is attached to the pyroelectric infrared sensor
  • FIG. 4B is a diagram of a state in which the Fresnel lens is removed.
  • the lower claw 18 of the Fresnel lens is fitted into an opening 15 a provided in the sensor substrate 15 and fixed.
  • FIG. 4B by providing an opening 15a at a predetermined position of the sensor substrate 15, the Fresnel lens is attached to the sensor substrate 15 in a state where the lens is rotated by 90 degrees.
  • the human sensor 1 is composed of the pyroelectric infrared sensor 1a and the Fresnel lens 1b.
  • the human sensor 2 includes a pyroelectric infrared sensor 2a and a Fresnel lens 2b.
  • the direction in which the human sensor 1 and the human sensor 2 are arranged is the x axis, and is perpendicular to the x axis in the plane of the sensor substrate.
  • One direction (vertical direction) is defined as the y-axis
  • the direction perpendicular to the surface of the sensor substrate is defined as the z-axis.
  • FIG. 5 is a diagram showing detection areas of the human sensor 1 and the human sensor 2.
  • FIG. 5 corresponds to a light distribution diagram of the Fresnel lens 1b and the Fresnel lens 2b attached to the pyroelectric infrared sensor 1a and the pyroelectric infrared sensor 2a, respectively.
  • FIG. 5A shows the detection area Sa on the yz plane of the human sensor 1.
  • FIG. 5B shows the detection area Sb of the human sensor 1 on the xz plane
  • FIG. 5C shows the detection area Sc of the human sensor 2 on the yz plane
  • FIG. Indicates the detection area Sd of the human sensor 2 on the xz plane.
  • FIGS. 1 shows the detection area Sa on the yz plane of the human sensor 1.
  • FIG. 5B shows the detection area Sb of the human sensor 1 on the xz plane
  • FIG. 5C shows the detection area Sc of the human sensor 2 on the yz plane
  • FIG. Indicates the detection area Sd of
  • the detection region in the y direction of the human sensor 1 is narrower than the detection region in the x direction. Further, as shown in FIGS. 5C and 5D, the x-direction detection area of the human sensor 2 is narrower than the vertical y-direction detection area.
  • FIG. 6 is a block diagram of the sensor module 10 and the display device 50.
  • the two human sensors 1, human sensor 1 and gravity sensor 3 of the sensor module 10 include power supply units (power supply for the human sensor 1) provided in the microcomputer 4 (control unit). Power is supplied from the unit 41, the power supply unit 42 for the human sensor 2, and the power supply unit 43 for the gravity sensor. The detection results of these sensors are sent to the control unit.
  • a cable 54 is connected to the input / output terminal (jack 5) of the sensor substrate 15 (see FIG. 1B), and a control signal is transmitted between the display device 50 and the microcomputer 4 of the sensor module 10 via the cable 54. Send and receive.
  • FIG. 7 is a diagram showing a state in which the sensor module 10 is attached to the display device 50.
  • 7A shows the sensor module 10 on the top surface of the display device 50
  • FIG. 7B shows the sensor module 10 on the left side surface of the display device 50
  • FIG. 7C shows the sensor module 10 on the display device 50
  • 7D shows a state in which the sensor module 10 is attached to the right side surface of the display device 50, respectively.
  • the sensor module 10 (sensor device) has a human sensor 1 and a human sensor 2.
  • a wide detection region can be obtained in the horizontal direction by the human sensor 1, and in the state shown in FIGS. 7B and 7D.
  • the human sensor 2 can obtain a wide detection region in the horizontal direction.
  • it can be detected by the gravity sensor 3 that the sensor module 10 is attached.
  • the gravity direction detected by the gravity sensor 3 is 0 degree in the case of FIG. 7A, 90 degrees in the case of FIG. 7B, 180 degrees in the case of FIG.
  • the case of (d) is defined as 270 degrees.
  • FIG. 8 is a diagram illustrating an example of an operation flow according to the first embodiment.
  • the processing executed by the microcomputer 4 control unit
  • the gravity sensor 3 receiving power from the microcomputer 4 detects the direction of gravity (step ST1).
  • the microcomputer 4 determines whether the direction of gravity is either 0 degrees or 180 degrees based on the detection result of the gravity sensor 3 (step ST2).
  • the microcomputer 4 supplies power to the human sensor 1 and does not supply power to the human sensor 2. (Step ST3). Thereby, the microcomputer 4 can detect not only a person in the vicinity of the display device 50 but also a person who is away from the display device 50 based on the detection result of the human sensor 1. On the other hand, when the gravity direction detected by the gravity sensor 3 is not 0 degree or 180 degrees (step ST2-No), whether the gravity direction is either 90 degrees or 270 degrees depending on the detection result of the gravity sensor 3. Is determined (step ST4).
  • the microcomputer 4 When the gravity direction detected by the gravity sensor 3 is 90 degrees or 270 degrees (step ST4-Yes), the microcomputer 4 does not supply power to the human sensor 1 but supplies power to the human sensor 2. (Step ST5). Thereby, the microcomputer 4 can detect not only a person in the vicinity of the display device 50 but also a person who is away from the display device 50 based on the detection result of the human sensor 2.
  • step ST4-No If the gravity direction detected by the gravity sensor is not determined above (step ST4-No), power is supplied to both the human sensor 1 and the human sensor 2 (step ST6).
  • the microcomputer 4 is not only a person in the vicinity of the display device 50 but also a place away from the display device 50 by using the detection results of both the human sensor 1 and the human sensor 2 simultaneously. A person can be detected. Note that the above-described operation flow may be performed, for example, when the power of the display device 50 is turned on or when video display is started, but is not limited thereto.
  • the sensor module 10 of the present embodiment has a sensor substrate 15 and the size of the detection region with respect to the longitudinal direction of the sensor substrate 15 is the detection region with respect to the vertical direction of the longitudinal direction.
  • the human sensor 1 provided on the sensor substrate 15 is larger than the size.
  • the sensor module 10 of the present embodiment has a detection area that is smaller in the longitudinal direction than the detection area in the vertical direction, and is arranged in the human sensor 1 in the longitudinal direction of the sensor substrate 15.
  • a gravity sensor 3 that is provided on the sensor substrate 15 and detects the direction of gravity.
  • the sensor module 10 of the present embodiment includes a microcomputer 4 that is provided on the sensor substrate 15 and controls the detection operation of the human sensor 1 and the human sensor 2 based on the detection result of the gravity sensor 3.
  • the microcomputer 4 supplies power to the human sensor 1 when the vertical direction and the direction of gravity are the same (substantially parallel) (when the direction of gravity detected by the gravity sensor 3 is 0 degree or 180 degrees). On the other hand, when the longitudinal direction and the direction of gravity are the same direction (when the direction of gravity detected by the gravity sensor 3 is 90 degrees or 270 degrees), power is supplied to the human sensor 2. Then, the detection operation is executed.
  • the microcomputer 4 supplies power to the human sensor 1 and performs a detection operation.
  • the longitudinal direction and the direction of gravity are the same direction (when the direction of gravity detected by the gravity sensor 3 is 90 degrees or 270 degrees)
  • power is supplied to the human sensor 2 to perform the detection operation. Is executed.
  • the microcomputer 4 determines whether the vertical direction or the longitudinal direction and the direction of gravity are not the same direction (when the gravity direction detected by the gravity sensor 3 is not 0, 90, 180, or 270 degrees). Electric power is supplied to both the sensor 1 and the human sensor 2 to execute the detection operation.
  • the microcomputer 4 control unit
  • the landscape arrangement is such that the short side of the display device 50 is arranged in substantially the same direction as the direction of gravity (see FIG. 1).
  • the display device 50a a portrait arrangement in which the long side of the display device (hereinafter referred to as the display device 50a) is arranged in substantially the same direction as the direction of gravity will be described.
  • the sensor module 10 in addition to the direction of gravity detected by the gravity sensor 3, the sensor module 10 (sensor device) is operated based on whether the display device 50a is arranged in landscape or portrait.
  • FIG. 9 is a perspective view of a state in which the display device is in a portrait arrangement and the sensor device is attached to the top surface of the display device in the portrait arrangement.
  • the same parts as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted as appropriate.
  • FIG. 9A is an overall perspective view as viewed from the display surface 51 side of the display device 50a
  • FIG. 9B is a perspective view as viewed from the back side, that is, the back cover 52 side.
  • FIG. 9A is a view on the display surface side
  • FIG. 9B is a view on the back side.
  • the sensor device (referred to as the sensor module 10a) is not limited to the case where it is attached to the top surface of the display device 50a as shown in FIG.
  • FIG. 10 is a diagram showing a state where the sensor module 10a is attached to the display device 50a.
  • 10A shows the sensor module 10a on the top surface of the display device 50a
  • FIG. 10B shows the sensor module 10a on the left side surface of the display device 50a
  • FIG. 10C shows the sensor module 10a on the display device.
  • FIG. 10D shows a state in which the sensor module 10a is attached to the right side surface of the display device 50a on the bottom surface of 50a.
  • the sensor module 10 a includes a human sensor 1 and a human sensor 2.
  • a wide detection region can be obtained in the horizontal direction by the human sensor 1, and the state shown in FIGS. 10B and 10D.
  • the human sensor 2 can obtain a wide detection region in the horizontal direction.
  • the gravity sensor 3 it can be detected by the gravity sensor 3 that the sensor module 10a is attached as shown in FIGS. 10 (a) to 10 (d).
  • the gravity direction detected by the gravity sensor 3 is 0 degree in the case of FIG. 10A, 90 degrees in the case of FIG. 10B, 180 degrees in the case of FIG.
  • the case of (d) is defined as 270 degrees.
  • FIGS. 9 and 10A when the display device is in a portrait arrangement and the sensor device is attached to the top surface, the other devices are shown in FIGS. 10B to 10D.
  • the position of the sensor module 10a is relatively high.
  • a person in the vicinity of the display device 50a may enter the blind spot in the detection area of the human sensor 1 and may not be detected. is there. Therefore, in this case, not only the human sensor 1 but also the human sensor 2 is operated so that a person in the vicinity of the display device 50a can be detected.
  • FIG. 11 is a diagram illustrating an example of an operation flow according to the second embodiment.
  • the processing executed by the control unit referred to as the microcomputer 4a
  • the microcomputer 4a has one of the two human sensors (human sensor 1 and human sensor 2) according to the direction of gravity detected by the gravity sensor and the arrangement of the display device. Decide to supply power to the sensor, or both human sensors.
  • the gravity sensor 3 receiving power from the microcomputer 4a detects the direction of gravity (step ST11).
  • the microcomputer 4a determines whether or not the direction of gravity is 0 degrees based on the detection result of the gravity sensor 3 (step ST12).
  • the microcomputer 4a determines that the sensor module 10a is attached to the top surface of the display device 50a when the gravity direction is determined to be 0 degree (step ST12-Yes). Next, the microcomputer 4a determines whether or not the display device 50a is in the landscape arrangement (step ST13). Here, the microcomputer 4a determines that the display device 50a is in landscape arrangement based on comparison information (comparison information between the length of the display device 50a in which the sensor module 10a is installed in the direction of gravity and the length in the vertical direction of the gravity direction). It is determined whether or not.
  • the comparison information may be written in advance in the microcomputer 4a from the outside of the sensor module 10a, or the comparison information may be written in the microcomputer 4a after being installed in the display device 50a.
  • the microcomputer 4a determines that the display device 50a is not in the landscape arrangement, that is, in the portrait arrangement (step ST13-No)
  • the microcomputer 4a supplies power to both the human sensor 1 and the human sensor 2 ( Step ST14). Accordingly, even if a person in the vicinity of the display device 50a enters the blind spot in the detection area of the human sensor 1 and may not be detected, the human sensor 2 is also operated, so that the person is in the vicinity of the display device 50a. Can detect people.
  • the microcomputer 4a determines that the display device 50a is in the landscape arrangement (step ST13-Yes)
  • the microcomputer 4a supplies power to the human sensor 1 and does not supply power to the human sensor 2 (step ST15).
  • the microcomputer 4a can detect not only a person in the vicinity of the display device 50a but also a person in a place away from the display device 50a based on the detection result of the human sensor 1.
  • step ST12 determines that the direction of gravity is not 0 degrees based on the detection result of the gravity sensor 3 (step ST12-No).
  • the microcomputer 4a determines that the sensor module 10a is not attached to the top surface of the display device 50a. To do. Furthermore, the microcomputer 4a determines whether or not the direction of gravity is 180 degrees based on the detection result of the gravity sensor 3 (step ST16).
  • step ST16 determines that the direction of gravity is 180 degrees (step ST16—Yes)
  • the microcomputer 4a determines that the sensor module 10a is attached to the bottom surface of the display device 50a (see FIG. 10C).
  • the microcomputer 4a supplies power to the human sensor 1 and does not supply power to the human sensor 2 (step ST17).
  • the microcomputer 4a can detect not only a person in the vicinity of the display device 50a but also a person in a place away from the display device 50a based on the detection result of the human sensor 1.
  • step ST16-No the microcomputer 4a determines whether the gravity direction is either 90 degrees or 270 degrees based on the detection result of the gravity sensor 3. Determination is made (step ST18).
  • the microcomputer 4a determines that the direction of gravity is either 90 degrees or 270 degrees (step ST18-Yes), it determines that the sensor module 10a is attached to the side surface of the display device 50a (FIG. 10B). ) And FIG. 10 (c)).
  • the microcomputer 4a does not supply power to the human sensor 1 but supplies electric power to the human sensor 2 (step ST19). Thereby, the microcomputer 4a can detect not only a person in the vicinity of the display device 50a but also a person in a place away from the display device 50a based on the detection result of the human sensor 2.
  • step ST18-No If the microcomputer 4a determines that the direction of gravity is neither 90 degrees nor 270 degrees (step ST18-No), the microcomputer 4a determines that the direction of gravity detected by the gravity sensor 3 is not determined.
  • the microcomputer 4a supplies electric power to the human sensor 1 and the human sensor 2 (step ST20). Thereby, the microcomputer 4a can detect not only a person in the vicinity of the display device 50a but also a person in a place away from the display device 50a based on the detection result of the human sensor 2.
  • the microcomputer 4a determines the length of the display device 50a in which the sensor module 10a is installed in the direction of gravity (display surface) according to the detection result detected by the gravity sensor (when the gravity direction is 0 degree). Of the human sensor 1 and the human sensor 2 based on the comparison information of the vertical direction (the horizontal length of the display surface) and the gravity direction. Control.
  • the sensor module 10a (sensor device) is operated by the microcomputer 4 (control unit), thereby depending on the gravity direction detected by the gravity sensor 3 and the arrangement of the display device. Then, it is determined to supply power to one or both of the two human sensors. Thereby, even if the person in the vicinity of the display device 50a is not detected by the human sensor 1, it can be detected by the human sensor 2.
  • both the human sensor 1 and the human sensor 2 may be used.
  • both the human sensor 1 and the human sensor 2 are used when the display device 50a has a portrait arrangement and the sensor module 10a (sensor device) is attached to the top surface.
  • An example was detailed.
  • the present invention is not limited to the example described in detail in the second embodiment, and according to the usage environment or the like of the display device, the user can use the human sensor 1 and the human sensor 2 in other arrangements of the sensor device. Both can be used.
  • One of the human sensor 1 and the human sensor 2 (human sensor 2 in the description of the above embodiment) has a wide detection area in the vertical direction and a narrow detection area in the horizontal direction. When a person is detected by this human sensor, it can be estimated that there is a person in front of the display device because the horizontal detection area is narrow.
  • the human sensor cannot detect but only the other human sensor (human sensor 1 in the description of the above embodiment), there is a person but it is not in front of the display device. Can be estimated.
  • the display device is controlled based on these estimations.
  • FIG. 12 is a diagram illustrating an example of an operation flow according to the third embodiment. According to this flow, it is determined whether or not there is a person in front of the display device using two human sensors according to the direction of gravity detected by the gravity sensor. Then, the display device is controlled according to the determination result. In the control of this flow, a control unit (referred to as microcomputer 4b) of the sensor device (referred to as sensor module 10b) performs each process.
  • the display device (hereinafter, referred to as display device 50b) is not limited to the display device 50a used in the description in the first embodiment and the display device used in the description in the second embodiment.
  • the microcomputer 4 and the microcomputer 4a described above may be used to execute the present control flow with the operation mode of the sensor device set to the present flow, for example.
  • the microcomputer 4b controls the human sensor 1 and the human sensor 2 in accordance with the direction of gravity detected by the gravity sensor 3, while the microcomputer 4 and the microcomputer 4a use either human sensor. Based on the detection result of the human sensor, a determination is made as to whether or not there is a person in front of the display device.
  • the gravity sensor 3 receiving power from the microcomputer 4b detects the direction of gravity (step ST31).
  • the microcomputer 4b determines whether the direction of gravity is 0 degrees or 180 degrees based on the detection result of the gravity sensor 3 (step ST32). If the gravity direction detected by the gravity sensor 3 is 0 degree or 180 degrees (step ST32—Yes), the microcomputer 4b determines whether the human sensor 2 detects a person (step ST33). If the human sensor 2 detects a person (step ST34—Yes), the microcomputer 4b determines that there is a person in front of the display device 50b (step ST34).
  • step ST35 determines whether or not the human sensor 1 detects a person.
  • step ST36 determines that there is a person but is not in front of the display device 50b.
  • step ST37 determines that there is no person.
  • step ST32-No the microcomputer 4b determines whether the gravity direction detected by the gravity sensor 3 is 90 degrees or 270 degrees. It is determined whether or not (step ST38). If the gravity direction detected by the gravity sensor 3 is 90 degrees or 270 degrees (step ST38-Yes), the microcomputer 4b determines whether the human sensor 1 detects a person (step ST39). If the human sensor 1 detects a person (step ST39—Yes), the microcomputer 4b determines that there is a person in front of the display device 50b (step ST40).
  • step ST41 determines whether the human sensor 2 detects a person (step ST41).
  • step ST42 determines that there is a person but is not in front of the display device 50b (step ST42).
  • step ST41-No determines that there is no person (step ST43).
  • step ST38-No the microcomputer 4b determines whether the human sensor 1 or the human sensor 2 detects a person. Is determined (step ST44). When the human sensor 1 or the human sensor 2 detects a person (step ST45—Yes), the microcomputer 4b determines that there is a person (step ST45). On the other hand, when the human sensor 1 or the human sensor 2 does not detect a person (No in step ST45), the microcomputer 4b determines that there is no person (step ST46).
  • the microcomputer 4b After the determination step (steps ST34, ST36, ST37, ST40, ST42, ST43, ST45, ST46), the microcomputer 4b transmits a control signal according to the determination result to the display device 50a according to the determination result. (Step ST47). Further, the microcomputer 4b waits for a certain period (step ST47), returns to step ST31, and executes the above-described processing (steps ST31 to ST47).
  • the microcomputer 4b supplies power to the human sensor 1 and the human sensor 2 regardless of the detection result detected by the gravity sensor 3, and the detection result of the gravity sensor 3 and the detection of the human sensor 1 are detected. Based on the result and the detection result of the human sensor 2, it is determined whether or not there is a person in front of the display device 50b on which the sensor module 10b is installed.
  • the display device 50b when the display device 50b is a liquid crystal display device, for example, the luminance may appear to be lowered when the display surface is not viewed from the front. Therefore, as described above, when it is determined that there is a person but is not in front of the display device (when the processing of step ST36 and step ST42 is performed), the determination result is displayed on the display device 50b. It can be transmitted as a control signal. For example, when receiving the control signal, the display device 50b increases the brightness of the display surface, thereby improving the visibility with respect to a person who is not in front of the display surface and improving the advertising effect of the display device.

Landscapes

  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Geophysics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 基板と、基板の長手方向に対する検出領域の大きさが長手方向の垂直方向に対する検出領域の大きさに比べて大きい、基板に設けられた第1の人感センサと、長手方向に対する検出領域の大きさが垂直方向に対する検出領域の大きさに比べて小さく、基板の長手方向に第1の人感センサに並べて設けられた第2の人感センサと、基板に設けられ、重力方向を検出する重力センサと、基板に設けられ、重力センサの検出結果に基づいて、第1の人感センサ、前記第2の人感センサの検出動作を制御する制御部と、を備える。

Description

センサ装置、およびセンサ装置の制御方法
 本発明は、センサ装置、およびセンサ装置の制御方法に関する。
 パブリックディスプレイ等の表示装置の省電力化のために、人感センサの検出結果に基づき人がいないと判定した場合には、表示輝度を下げる等の動作を行うことが望ましい。一方、表示装置を電子看板として使用する際に広告効果を向上させるためには、表示装置近傍に人がいる場合だけでなく、表示装置から離れた場所に人がいる場合にも、映像を表示させることが望ましい。
 そこで、表示装置に取り付ける人感センサは、表示装置から離れた場所に人がいることを検出できるように設計する。例えば、人感センサとして焦電型赤外線センサを使用する場合には、フレネルレンズ等により、センサの特定方向の検出領域を狭めることが有効である。なぜなら、所望の検出領域以外で発生する赤外線を焦電型赤外線センサが受光しない分、離れた場所にいる人に対して、優れたS/N(Signal to Noise)比を得られるからである。(例えば、特許文献1参照)。
特開2009-281981号公報
 しかしながら、上述のように人感センサの特定方向の検出領域を狭める場合には、所望の検出領域を得られるように、人感センサを取り付ける配置や向きに留意しなければならない。特に、表示装置の設置環境によっては、人感センサを取り付ける配置が制限される場合もある。
 そこで、解決しようとする問題点は、人感センサのユーザが、人を検出するための所望の領域を得られるように、人感センサの配置や向きを確認または調整するという負担が生じていた、という点にある。
 本発明のセンサ装置は、基板と、前記基板の長手方向に対する検出領域の大きさが前記長手方向の垂直方向に対する検出領域の大きさに比べて大きい、前記基板に設けられた第1の人感センサと、前記長手方向に対する検出領域の大きさが前記垂直方向に対する検出領域の大きさに比べて小さく、前記基板の長手方向に前記第1の人感センサに並べて設けられた第2の人感センサと、前記基板に設けられ、重力方向を検出する重力センサと、前記基板に設けられ、前記重力センサの検出結果に基づいて、前記第1の人感センサ、および前記第2の人感センサの検出動作を制御する制御部と、を備えることを特徴とする。
 また、本発明のセンサ装置の制御方法は、基板と、前記基板の長手方向に対する検出領域の大きさが前記長手方向の垂直方向に対する検出領域の大きさに比べて大きい、前記基板に設けられた第1の人感センサと、前記長手方向に対する検出領域の大きさが前記垂直方向に対する検出領域の大きさに比べて小さく、前記基板の長手方向に前記第1の人感センサに並べて設けられた第2の人感センサと、前記基板に設けられ、重力方向を検出する重力センサと、前記基板に設けられた制御部と、を備えたセンサ装置の制御方法であって、前記制御部は、前記重力センサの検出結果に基づいて、前記第1の人感センサ、および前記第2の人感センサの検出動作を制御する、ことを特徴とする。
 本発明によれば、基板の長手方向に対する検出領域の大きさが長手方向の垂直方向に対する検出領域の大きさに比べて大きい人感センサと、基板の長手方向に対する検出領域の大きさが長手方向の垂直方向に対する検出領域の大きさに比べて小さい人感センサと、を基板の長手方向に並べて設ける。また、これら2つの人感センサの検出動作を、基板に設けられる重力センサの検出結果に基づいて制御する制御部を基板に設ける。
 これにより、本発明によれば、例えば表示装置に対してセンサ装置を取り付ける際の配置や向きによらず、離れた場所にいる人を検出する等、適切な検出領域を得られる。このため、センサ装置を取り付ける配置や向きに注意する必要がなくなり、センサ装置を取り付ける際のユーザの負担を軽減できる。
表示装置に本実施形態のセンサ装置を取り付けた全体斜視図である。 本実施形態のセンサ装置の全体斜視図である。 図2(b)に示すセンサ基板の上面図である。 焦電型赤外線センサとフレネルレンズの斜視図である。 人感センサ1、および人感センサ2の検出領域を示す図である。 センサモジュール10、および表示装置50のブロック図である。 表示装置50にセンサモジュール10を取り付けた状態を示す図である。 第1の実施形態における動作フローの一例を示す図である。 表示装置をポートレート配置とし、センサ装置をポートレート配置における表示装置の天面に取り付けた状態を示す斜視図である。 表示装置50aにセンサモジュール10aを取り付けた状態を示す図である。 第2の実施形態における動作フローの一例を示す図である。 第3の実施形態における動作フローの一例を示す図である。
 以下、本発明の一実施形態によるセンサ装置について図面を参照して説明する。
(第1の実施形態)
 図1は、表示装置に本実施形態のセンサ装置を取り付けた全体斜視図である。図1(a)は表示装置50の表示面51側から見た全体斜視図であり、図1(b)は背面側、すなわちバックカバー52側から見た斜視図である。
 図1に示すように、センサモジュール10(センサ装置)は、センサ部11と傾斜機構12により構成される。このうち、傾斜機構12は、表示装置50のベゼル53に設けたねじ穴へのねじ止めにより固定される。また、ベゼル53には、傾斜機構12を固定するためのねじ穴を、表示装置50の側面や底面に設けている。このため、センサモジュール10を、図1に示すような表示装置50の天面に取り付けた場合に限らず、側面や底面にも取り付けることができる。
 また、図1(b)に示すように、センサモジュール10は、ケーブル54を介して表示装置50に設けた端子(図1(b)において不図示)と接続される。このケーブル54により、センサモジュール10と表示装置50との間で、制御信号等の送受信を行うことができる。
 図2は、本実施形態のセンサ装置の全体斜視図である。
 図2(a)は、図1のセンサモジュール10を拡大した図である。また、図2(b)は、図2(a)に示すセンサ部11および傾斜機構12の分解斜視図である。センサ部11には、2個の人感センサをフロントケース13から露出させている。また、センサ部11の仰角を傾斜機構12により変更できる。つまり、傾斜機構12により、人感センサにより検出する角度を調節できる。センサ部11は、フロントケース13、フレネルレンズ14(以下、フレネルレンズ1b、フレネルレンズ2bと称す)、センサ基板15(基板)、およびリアケース16により構成される。センサ部11のリアケース16の中に、人感センサを実装した(設けた)センサ基板15が収められる。また、傾斜機構12は台座17の上に固定されており、リアケース16と傾斜機構12とが台座17の上でネジ止めにより、さらに固定される。
 図3は、図2(b)に示すセンサ基板15(基板)の上面図である。図3(a)に示すように、センサ基板15には、人感センサが2個実装される(設けられる)。2個の人感センサは、それぞれ、焦電型赤外線センサとフレネルレンズにより構成する。以下では、2個の人感センサを、それぞれ、人感センサ1(第1の人感センサ)、人感センサ2(第2の人感センサ)と称する。また、センサ基板15には、重力方向を検出するための重力センサ3、人感センサを制御するマイコン4(制御部)を設ける。さらに、表示装置50と接続するケーブル54を挿抜するためのジャック5を設ける。
 なお、図3(b)は、このジャック5を除いたセンサ基板15の上面図である。
 図4は、焦電型赤外線センサとフレネルレンズの斜視図である。図4(a)は焦電型赤外線センサにフレネルレンズを取り付けた状態の図、図4(b)はフレネルレンズを取り外した状態の図である。フレネルレンズの下部の爪18をセンサ基板15に設けた開口15aに嵌合させて固定する。図4(b)に示すように、開口15aを、センサ基板15の所定の位置に設けることにより、フレネルレンズをそれぞれ90度回転させた状態でセンサ基板15に取り付ける。
 これにより、人感センサ1は、焦電型赤外線センサ1aとフレネルレンズ1bにより構成される。また、人感センサ2は、焦電型赤外線センサ2aとフレネルレンズ2bにより構成される。なお、以下では、図4(a)に示すように、人感センサ1、人感センサ2を並べた方向(センサ基板15の長手方向)をx軸、センサ基板の面内でx軸に垂直な方向(垂直方向)をy軸、センサ基板の面に垂直な方向をz軸と規定する。
 図5は、人感センサ1、および人感センサ2の検出領域を示す図である。図5は、焦電型赤外線センサ1a、焦電型赤外線センサ2aにそれぞれ取り付けるフレネルレンズ1b、フレネルレンズ2bの配光図に相当するものである。図5(a)は、人感センサ1のy-z面の検出領域Saを示す。同様に、図5(b)は人感センサ1のx-z面の検出領域Sbを、図5(c)は人感センサ2のy-z面の検出領域Scを、図5(d)は人感センサ2のx-z面の検出領域Sdを、それぞれ示す。図5(a)、および図5(b)に示すように、人感センサ1のy方向の検出領域は、x方向の検出領域に対して狭めている。また、図5(c)、および図5(d)に示すように、人感センサ2のx方向の検出領域は、垂直方向のy方向の検出領域に対して狭めている。
 これらにより、それぞれの検出領域外において発生する赤外線を受光しないため、離れた場所にいる人に対しても、優れたS/N(Signal to Noise)比を得られる。
 図6は、センサモジュール10および表示装置50のブロック図である。
 センサモジュール10(センサ装置)の有する2個の人感センサ1、人感センサ1、重力センサ3には、マイコン4(制御部)に設けた各々の電力供給部(人感センサ1用電力供給部41、人感センサ2用電力供給部42、重力センサ用電力供給部43)から電力を供給する。また、これらのセンサの検出結果は制御部に送られる。センサ基板15の入出力端子(ジャック5)には、ケーブル54を接続し(図1(b)参照)、ケーブル54を介して表示装置50とセンサモジュール10のマイコン4との間において制御信号の送受信等を行う。
 図7は、表示装置50にセンサモジュール10を取り付けた状態を示す図である。図7(a)はセンサモジュール10を表示装置50の天面に、図7(b)はセンサモジュール10を表示装置50の左側の側面に、図7(c)はセンサモジュール10を表示装置50の底面に、図7(d)はセンサモジュール10を表示装置50の右側の側面に、それぞれ取り付けた状態を示している。センサモジュール10(センサ装置)は人感センサ1および人感センサ2を有している。
 これにより、図7(a)および図7(c)に示す状態においては、人感センサ1により水平方向に広い検出領域を得ることができ、図7(b)および(d)に示す状態においては、人感センサ2により水平方向に広い検出領域を得ることができる。また、図7(a)~図7(d)に示すように、センサモジュール10が取り付けられていることを、重力センサ3により検出することができる。以下では、例えば、重力センサ3により検出する重力方向を、図7(a)の場合を0度、図7(b)の場合を90度、図7(c)の場合を180度、図7(d)の場合を270度、とそれぞれ規定する。
 図8は、第1の実施形態における動作フローの一例を示す図である。以下、図8を参照しつつ、マイコン4(制御部)の実行する処理について説明する。
 まず、マイコン4から電力の供給を受けている重力センサ3は、重力方向を検出する(ステップST1)。
 マイコン4は、重力センサ3の検出結果により、重力方向が0度または180度のいずれかであるか否かを判定する(ステップST2)。
 マイコン4は、重力センサ3により検出する重力方向が0度または180度である場合には(ステップST2-Yes)、人感センサ1に電力を供給し、人感センサ2には電力を供給しない(ステップST3)。これにより、マイコン4は、人感センサ1の検出結果によって、表示装置50の近傍の人だけでなく、表示装置50から離れた場所にいる人を検出することができる。
 一方、重力センサ3により検出する重力方向が0度または180度でない場合には(ステップST2-No)、重力センサ3の検出結果により、重力方向が90度または270度のいずれかであるか否かを判定する(ステップST4)。
 マイコン4は、重力センサ3により検出する重力方向が90度または270度である場合には(ステップST4-Yes)、人感センサ1に電力を供給せず、人感センサ2に電力を供給する(ステップST5)。これにより、マイコン4は、人感センサ2の検出結果によって、表示装置50の近傍の人だけでなく、表示装置50から離れた場所にいる人を検出することができる。
 なお、重力センサにより検出する重力方向が上記で定まらない場合には(ステップST4-No)、人感センサ1および人感センサ2の両方の人感センサに電力を供給する(ステップST6)。
 これにより、マイコン4は、例えば、人感センサ1、人感センサ2の両方の検出結果を同時に使用することにより、表示装置50の近傍の人だけでなく、表示装置50から離れた場所にいる人を検出することができる。
 なお、上述した動作フローは、例えば、表示装置50の電源をオンにした時や、映像表示を開始した時に行えばよいが、これに限られるものではない。
 このように、本実施形態のセンサモジュール10は、図3(b)に示すように、センサ基板15と、センサ基板15の長手方向に対する検出領域の大きさが長手方向の垂直方向に対する検出領域の大きさに比べて大きい、センサ基板15に設けられた人感センサ1と、を備える。また、本実施形態のセンサモジュール10は、長手方向に対する検出領域の大きさが垂直方向に対する検出領域の大きさに比べて小さく、センサ基板15の長手方向に人感センサ1に並べて設けられた人感センサ2と、センサ基板15に設けられ、重力方向を検出する重力センサ3と、を備える。また、本実施形態のセンサモジュール10は、センサ基板15に設けられ、重力センサ3の検出結果に基づいて、人感センサ1、および人感センサ2の検出動作を制御するマイコン4を備える。
 また、マイコン4は、垂直方向と重力の方向とが同じ方向(略平行)である場合(重力センサ3の検出する重力方向が0度または180度の場合)、人感センサ1に電力を供給して検出動作を実行させ、一方、長手方向と重力の方向とが同じ方向である場合(重力センサ3の検出する重力方向が90度または270度の場合)、人感センサ2に電力を供給して検出動作を実行させる。
 また、マイコン4は、垂直方向と重力の方向とが同じ方向である場合(重力センサ3の検出する重力方向が0度または180度の場合)、人感センサ1に電力を供給して検出動作を実行させ、一方、長手方向と重力の方向とが同じ方向である場合(重力センサ3の検出する重力方向が90度または270度の場合)、人感センサ2に電力を供給して検出動作を実行させる。
 また、マイコン4は、垂直方向または長手方向と重力の方向が同じ方向でない場合(重力センサ3の検出する重力方向が0度、90度、180度、270度のいずれでもない場合)、人感センサ1、および人感センサ2のいずれにも電力を供給して検出動作を実行させる。
 このようにセンサモジュール10(センサ装置)をマイコン4(制御部)により動作させることにより、センサ装置を取り付ける配置や角度によらず、人を検出するための所望の検出領域を得ることができる。また、このため、センサ装置を取り付ける配置や角度に注意する必要がなく、ユーザへの負担を軽減できる。さらに、人感センサの検出領域を特定の方向に対して狭めているため、表示装置近傍の人だけでなく、表示装置から離れた場所にいる人を検出することができる。
(第2の実施形態)
 上述した第1の実施形態においては、表示装置50の短辺を重力の方向と略同じ方向になるように配置するランドスケープ配置とする場合について説明した(図1参照)。第2の実施形態においては、表示装置(以下、表示装置50aとする)の長辺を重力の方向と略同じ方向に配置するポートレート配置についても説明する。第2の実施形態においては、重力センサ3により検出する重力方向に加え、表示装置50aの配置がランドスケープまたはポートレートのどちらの配置であるかに基づいてセンサモジュール10(センサ装置)を動作させる。
 図9は、表示装置をポートレート配置とし、センサ装置をポートレート配置における表示装置の天面に取り付けた状態の斜視図である。なお、図9において、図1と同一の部分には同一の符号を付し、その説明を適宜省略する。図9(a)は表示装置50aの表示面51側から見た全体斜視図であり、図9(b)は背面側、すなわちバックカバー52側から見た斜視図である。図9(a)は表示面側、図9(b)は背面側の図である。センサ装置(センサモジュール10aとする)は、図1に示す場合と同様、図9に示すような表示装置50aの天面に取り付けた場合に限らず、側面や底面にも取り付けることができる。
 図10は、表示装置50aにセンサモジュール10aを取り付けた状態を示す図である。図10(a)は、センサモジュール10aを表示装置50aの天面に、図10(b)はセンサモジュール10aを表示装置50aの左側の側面に、図10(c)はセンサモジュール10aを表示装置50aの底面に、図10(d)はセンサモジュール10aを表示装置50aの右側の側面に、それぞれ取り付けた状態を示している。センサモジュール10aは人感センサ1および人感センサ2を有している。
 これにより、図10(a)および図10(c)に示す状態においては、人感センサ1により水平方向に広い検出領域を得ることができ、図10(b)および図10(d)示す状態においては、人感センサ2により水平方向に広い検出領域を得ることができる。また、図10(a)~図10(d)に示すようにセンサモジュール10aが取り付けられていることを、重力センサ3により検出することができる。以下では、例えば、重力センサ3により検出する重力方向を、図10(a)の場合を0度、図10(b)の場合を90度、図10(c)の場合を180度、図10(d)の場合を270度、とそれぞれ規定する。
 ところで、図9および図10(a)に示すように、表示装置をポートレート配置とし、天面にセンサ装置を取り付けた場合には、他の図10(b)~図10(d)に示す場合と比較して、センサモジュール10aの位置が比較的高くなる。このため、ポートレート配置の表示装置50aの天面にセンサモジュール10aを取り付けた場合には、表示装置50aの近傍にいる人が人感センサ1の検出領域の死角に入り、検出されない可能性がある。そこで、この場合には、人感センサ1だけでなく、人感センサ2をも動作させ、表示装置50aの近傍にいる人を検出できるようにする。
 図11は、第2の実施形態における動作フローの一例を示す図である。以下、図11を参照しつつ、制御部(マイコン4aとする)の実行する処理について説明する。
 図11に示すフローにより、マイコン4aは、重力センサで検出する重力方向と表示装置の配置に応じて、2つの人感センサ(人感センサ1および人感センサ2)のいずれか一方の人感センサ、または両方の人感センサに電力を供給することを決定する。
 まず、マイコン4aから電力の供給を受けている重力センサ3は、重力方向を検出する(ステップST11)。
 マイコン4aは、重力センサ3の検出結果により、重力方向が0度であるか否かを判定する(ステップST12)。
 マイコン4aは、重力方向を0度と判定した場合(ステップST12-Yes)、センサモジュール10aが表示装置50aの天面に取り付けられていると判定する。次に、マイコン4aは、表示装置50aがランドスケープ配置であるか否かを判定する(ステップST13)。ここで、マイコン4aは、比較情報(センサモジュール10aが設置される表示装置50aの重力方向に対する長さと、重力方向とは垂直方向の長さとの比較情報)に基づいて、表示装置50aがランドスケープ配置であるか否かを判定する。この比較情報は、予めセンサモジュール10aの外部からマイコン4aに書き込まれる構成としてもよいし、或いは、表示装置50aへの設置後に比較情報がマイコン4aに書き込まれる構成としてよい。
 マイコン4aは、表示装置50aがランドスケープ配置でない、すなわちポートレート配置であると判定した場合(ステップST13-No)、人感センサ1および人感センサ2の両方の人感センサに電力を供給する(ステップST14)。これにより、表示装置50aの近傍にいる人が人感センサ1の検出領域の死角に入り、検出されない可能性があっても、人感センサ2をも動作させるので、表示装置50aの近傍にいる人を検出できることができる。
 一方、マイコン4aは、表示装置50aがランドスケープ配置であると判定した場合(ステップST13-Yes)、人感センサ1に電力を供給し、人感センサ2に電力を供給しない(ステップST15)。これにより、マイコン4aは、人感センサ1の検出結果によって、表示装置50aの近傍にいる人だけでなく、表示装置50aから離れた場所にいる人を検出できる。
 マイコン4aは、ステップST12において、重力センサ3の検出結果により、重力方向が0度でないと判定した場合(ステップST12-No)、センサモジュール10aが表示装置50aの天面に取り付けられていないと判定する。さらに、マイコン4aは、重力センサ3の検出結果により、重力方向が180度であるか否かを判定する(ステップST16)。
 マイコン4aは、重力方向を180度と判定した場合(ステップST16-Yes)、センサモジュール10aが表示装置50aの底面に取り付けられていると判定する(図10(c)参照)。
 次に、マイコン4aは、人感センサ1に電力を供給し、人感センサ2に電力を供給しない(ステップST17)。これにより、マイコン4aは、人感センサ1の検出結果によって、表示装置50aの近傍にいる人だけでなく、表示装置50aから離れた場所にいる人を検出できる。
 マイコン4aは、重力方向を180度でないと判定した場合(ステップST16-No)、マイコン4aは、重力センサ3の検出結果により、重力方向が90度または270度のいずれかであるか否かを判定する(ステップST18)。
 マイコン4aは、重力方向を90度または270度のいずれかであると判定した場合(ステップST18-Yes)、センサモジュール10aが表示装置50aの側面に取り付けられていると判定する(図10(b)および図10(c)参照)。
 次に、マイコン4aは、人感センサ1に電力を供給せず、人感センサ2に電力を供給する(ステップST19)。これにより、マイコン4aは、人感センサ2の検出結果によって、表示装置50aの近傍にいる人だけでなく、表示装置50aから離れた場所にいる人を検出できる。
 マイコン4aは、重力方向を90度または270度のいずれでもないと判定した場合(ステップST18-No)、重力センサ3により検出する重力方向が定まらないと判定する。
 次に、マイコン4aは、人感センサ1および人感センサ2に電力を供給する(ステップST20)。これにより、マイコン4aは、人感センサ2の検出結果によって、表示装置50aの近傍にいる人だけでなく、表示装置50aから離れた場所にいる人を検出できる。
 このように、マイコン4aは、重力センサの検出する検出結果に応じて(重力方向が0度の場合)、さらに、センサモジュール10aが設置される表示装置50aの重力の方向に対する長さ(表示面の縦方向の長さ)と、重力の方向とは垂直方向の長さ(表示面の横方向の長さ)との比較情報に基づき、人感センサ1、および人感センサ2の検出動作を制御する。
 以上述べたように、第2の実施形態によれば、センサモジュール10a(センサ装置)をマイコン4(制御部)により動作させることにより、重力センサ3で検出する重力方向と表示装置の配置に応じて、2つの人感センサのいずれか、または両方に電力を供給することを決定する。これにより、表示装置50aの近傍にいる人が人感センサ1で検出されない場合であっても、人感センサ2により検出することができる。
(第3の実施形態)
 第2の実施形態に説明したように、人感センサ1および人感センサ2の両方の人感センサを使用する場合がある。第2の実施形態では、表示装置50aをポートレート配置とし、その天面にセンサモジュール10a(センサ装置)を取り付けた場合に人感センサ1および人感センサ2の両方の人感センサを使用する例について詳述した。
 しかしながら、第2の実施形態で詳述した例に限定されず、表示装置の使用環境等に応じて、ユーザは、センサ装置の他の配置等においても、人感センサ1および人感センサ2の両方を使用することができる。人感センサ1および人感センサ2のうち、いずれか一方(上述の実施形態の説明では人感センサ2)は、垂直方向の検出領域が広く、水平方向の検出領域が狭くなっている。この人感センサにより人が検出される場合は、その水平方向の検出領域が狭くなっているため、表示装置の正面に人がいると推定できる。また、この人感センサでは検出できず、他方の人感センサ(上述の実施形態の説明では人感センサ1)でのみ検出される場合には、人はいるが、表示装置の正面にはいないと推定できる。第3の実施形態においては、これらの推定に基づき、表示装置の制御を行う。
 図12は、第3の実施形態における動作フローの一例を示す図である。このフローにより、重力センサで検出する重力方向に応じて、2つの人感センサを用いて、表示装置の正面に人がいるか否かを判定する。そして、この判定結果に応じて、表示装置を制御する。
 なお、本フローの制御では、センサ装置(センサモジュール10bとする)の制御部(マイコン4bとする)が各処理を行うものとする。なお、表示装置(以下、表示装置50bとする)は、第1の実施形態での説明に用いた表示装置50a、第2の実施形態での説明に用いた表示装置に限られない。また、上述したマイコン4、マイコン4aを用いて、本制御フローを、例えばセンサ装置としての動作モードを本フローに設定して実行する構成としてよいことは言うまでもない。ただし、このマイコン4bは、マイコン4、マイコン4aが、重力センサ3の検出する重力方向に応じて、人感センサ1および人感センサ2を制御するのに対して、いずれの人感センサをも制御して(電力を供給して)、この人感センサの検出結果を基に、表示装置の前に人がいるか否か等についての判定を実行する。
 まず、マイコン4bから電力の供給を受けている重力センサ3は、重力方向を検出する(ステップST31)。
 マイコン4bは、重力センサ3の検出結果により、重力方向が0度または180度のいずれかであるか否かを判定する(ステップST32)。
 マイコン4bは、重力センサ3により検出する重力方向が0度または180度である場合には(ステップST32-Yes)、人感センサ2が人を検出するか否かを判定する(ステップST33)。マイコン4bは、人感センサ2が人を検出した場合(ステップST34-Yes)、表示装置50bの正面に人がいると判定する(ステップST34)。
 一方、マイコン4bは、人感センサ2が人を検出しない場合(ステップST33-No)、人感センサ1が人を検出するか否かを判定する(ステップST35)。
 マイコン4bは、人感センサ1が人を検出した場合(ステップST35-Yes)、人はいるが、表示装置50bの正面にはいないと判定する(ステップST36)。一方、マイコン4bは、人感センサ1が人を検出しない場合(ステップST35-No)、人はいないと判定する(ステップST37)。
 マイコン4bは、ステップST32において、重力センサ3により検出する重力方向が0度または180度でない場合には(ステップST32-No)、重力センサ3により検出する重力方向が90度または270度であるか否かを判定する(ステップST38)。マイコン4bは、重力センサ3により検出する重力方向が90度または270度である場合には(ステップST38-Yes)、人感センサ1が人を検出するか否かを判定する(ステップST39)。マイコン4bは、人感センサ1が人を検出した場合(ステップST39-Yes)、表示装置50bの正面に人がいると判定する(ステップST40)。
 一方、マイコン4bは、人感センサ1が人を検出しない場合(ステップST39-No)、人感センサ2が人を検出するか否かを判定する(ステップST41)。
 マイコン4bは、人感センサ2が人を検出した場合(ステップST41-Yes)、人はいるが、表示装置50bの正面にはいないと判定する(ステップST42)。一方、マイコン4bは、人感センサ2が人を検出しない場合(ステップST41-No)、人はいないと判定する(ステップST43)。
 マイコン4bは、ステップST38において、重力センサ3により検出する重力方向が90度または270度でない場合には(ステップST38-No)、人感センサ1または人感センサ2が人を検出するか否かを判定する(ステップST44)。マイコン4bは、人感センサ1または人感センサ2が人を検出する場合(ステップST45-Yes)、人はいると判定する(ステップST45)。一方、マイコン4bは、人感センサ1または人感センサ2が人を検出しない場合(ステップST45-No)、人はいないと判定する(ステップST46)。
 マイコン4bは、上記判定ステップ(ステップST34、ST36,ST37、ST40、ST42、ST43、ST45、ST46)の後、これらの判定結果に応じて表示装置50aに対して、判定結果に伴う制御信号を送信する(ステップST47)。また、マイコン4bは、一定期間待機して(ステップST47)、ステップST31へ戻り、上述した処理(ステップST31~ST47)を実行する。
 このように、マイコン4bは、重力センサ3の検出する検出結果に関らず、人感センサ1、および人感センサ2に電力を供給し、重力センサ3の検出結果、人感センサ1の検出結果、及び人感センサ2の検出結果に基づいて、センサモジュール10bが設置される表示装置50bの正面に人がいるか否かの判定を行う。
 以上説明したように、実施形態3のセンサモジュール10bによれば、例えば表示装置50bが液晶表示装置である場合には、表示面を正面から視認しない際に、輝度が下がって見えることがある。このため、上記のように、人はいるが、表示装置の正面にはいないと判定した場合(ステップST36、ステップST42の処理を実行した場合)には、表示装置50bに対して、判定結果を制御信号として送信することができる。例えば、表示装置50bは、この制御信号を受けると表示面の輝度を上げることにより、表示面の正面にいない人に対する視認性を向上させ、表示装置の広告効果を向上させることができる。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 1,2 人感センサ
 3 重力センサ
 4,4a マイコン(制御部)
 15 センサ基板(基板)
 10,10a センサモジュール(センサ装置)
 11 センサ部
 12 傾斜機構
 50,50a 表示装置(装置)

Claims (6)

  1.  基板と、
     前記基板の長手方向に対する検出領域の大きさが前記長手方向の垂直方向に対する検出領域の大きさに比べて大きい、前記基板に設けられた第1の人感センサと、
     前記長手方向に対する検出領域の大きさが前記垂直方向に対する検出領域の大きさに比べて小さく、前記基板の長手方向に前記第1の人感センサに並べて設けられた第2の人感センサと、
     前記基板に設けられ、重力方向を検出する重力センサと、
     前記基板に設けられ、前記重力センサの検出結果に基づいて、前記第1の人感センサ、および前記第2の人感センサの検出動作を制御する制御部と、
     を備える
     ことを特徴とするセンサ装置。
  2.  前記制御部は、
     前記垂直方向と重力の方向とが同じ方向である場合、前記第1の人感センサに電力を供給して検出動作を実行させ、
     一方、前記長手方向と重力の方向とが同じ方向である場合、前記第2の人感センサに電力を供給して検出動作を実行させる、
     ことを特徴とする請求項1に記載のセンサ装置。
  3.  前記制御部は、
     前記垂直方向または前記長手方向と重力の方向が同じ方向でない場合、前記第1の人感センサ、および前記第2の人感センサのいずれにも電力を供給して検出動作を実行させる、
     ことを特徴とする請求項2に記載のセンサ装置。
  4.  前記制御部は、
     前記重力センサの検出する検出結果に応じて、
     さらに、前記センサ装置が設置される装置の重力の方向に対する長さと、前記重力の方向とは垂直方向の長さとの比較情報に基づき、前記第1の人感センサ、および前記第2の人感センサの検出動作を制御する、
     ことを特徴とする請求項1に記載のセンサ装置。
  5.  前記制御部は、
     前記重力センサの検出する検出結果に関らず、前記第1の人感センサ、および前記第2の人感センサに電力を供給し、
     前記重力センサの検出結果、前記第1の人感センサの検出結果、及び前記第2の人感センサの検出結果に基づいて、前記センサ装置が設置される装置の正面に人がいるか否かの判定を行う、
     ことを特徴とする請求項1に記載のセンサ装置。
  6.  基板と、
     前記基板の長手方向に対する検出領域の大きさが前記長手方向の垂直方向に対する検出領域の大きさに比べて大きい、前記基板に設けられた第1の人感センサと、
     前記長手方向に対する検出領域の大きさが前記垂直方向に対する検出領域の大きさに比べて小さく、前記基板の長手方向に前記第1の人感センサに並べて設けられた第2の人感センサと、
     前記基板に設けられ、重力方向を検出する重力センサと、
     前記基板に設けられた制御部と、
     を備えたセンサ装置の制御方法であって、
     前記制御部は、前記重力センサの検出結果に基づいて、前記第1の人感センサ、および前記第2の人感センサの検出動作を制御する、
     ことを特徴とするセンサ装置の制御方法。
PCT/JP2014/056613 2014-03-13 2014-03-13 センサ装置、およびセンサ装置の制御方法 WO2015136657A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/056613 WO2015136657A1 (ja) 2014-03-13 2014-03-13 センサ装置、およびセンサ装置の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/056613 WO2015136657A1 (ja) 2014-03-13 2014-03-13 センサ装置、およびセンサ装置の制御方法

Publications (1)

Publication Number Publication Date
WO2015136657A1 true WO2015136657A1 (ja) 2015-09-17

Family

ID=54071134

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/056613 WO2015136657A1 (ja) 2014-03-13 2014-03-13 センサ装置、およびセンサ装置の制御方法

Country Status (1)

Country Link
WO (1) WO2015136657A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109914884A (zh) * 2019-03-19 2019-06-21 上海汇聚自动化科技有限公司 一种车架一体式抱夹停车机器人

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002006041A (ja) * 2000-06-20 2002-01-09 Honda Motor Co Ltd 車両用物体検知装置
JP2011185664A (ja) * 2010-03-05 2011-09-22 Panasonic Electric Works Co Ltd 対象物検出装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002006041A (ja) * 2000-06-20 2002-01-09 Honda Motor Co Ltd 車両用物体検知装置
JP2011185664A (ja) * 2010-03-05 2011-09-22 Panasonic Electric Works Co Ltd 対象物検出装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109914884A (zh) * 2019-03-19 2019-06-21 上海汇聚自动化科技有限公司 一种车架一体式抱夹停车机器人
CN109914884B (zh) * 2019-03-19 2024-03-22 上海汇聚自动化科技有限公司 一种车架一体式抱夹停车机器人

Similar Documents

Publication Publication Date Title
US8363145B2 (en) Mobile apparatus
US20180203475A1 (en) User control device with automatic mirroring and leveling system for semi-transparent display
US7394451B1 (en) Backlit display with motion sensor
US10194124B2 (en) Projection type video display device and projection type video display method
CN107667526B (zh) 电子设备及方法
US8902355B2 (en) Prompting system
EP2988206A1 (en) Display apparatus and control method thereof
US7170534B2 (en) Automatic controllable display device according to image display direction
EP2378780A1 (en) Shutter glasses and display apparatus
CN102034456A (zh) 显示装置及其控制方法以及投影装置及其控制方法
JP2004233845A (ja) 情報処理装置および表示輝度制御方法
US20070188022A1 (en) Input device
JP2003005278A (ja) 液晶プロジェクタ
WO2015136657A1 (ja) センサ装置、およびセンサ装置の制御方法
JP3755479B2 (ja) 映像投射装置
JP2008072561A (ja) テレビ受像機
JP2007178148A (ja) 薄型表示装置
TWI406169B (zh) Electronic device and its automatic control method
JP2005238885A (ja) 車載表示装置
JP2012114630A (ja) 表示装置およびテレビジョン
JP2002229464A (ja) パネル型装置の支持機構
US20240176409A1 (en) Information processing apparatus and control method
JP2009198741A (ja) 映像表示装置
WO2023019402A1 (zh) 显示装置的控制方法、显示装置、设备和计算机存储介质
JP2007094348A (ja) 表示装置を構成するための装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14885255

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14885255

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP