WO2018061792A1 - 遮光装置および遮光方法、並びにプログラム - Google Patents

遮光装置および遮光方法、並びにプログラム Download PDF

Info

Publication number
WO2018061792A1
WO2018061792A1 PCT/JP2017/033203 JP2017033203W WO2018061792A1 WO 2018061792 A1 WO2018061792 A1 WO 2018061792A1 JP 2017033203 W JP2017033203 W JP 2017033203W WO 2018061792 A1 WO2018061792 A1 WO 2018061792A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
state
shielding
transmission
shielding wall
Prior art date
Application number
PCT/JP2017/033203
Other languages
English (en)
French (fr)
Inventor
俊一 諏訪
暦本 純一
邦彦 長嶺
嘉暢 有住
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018542375A priority Critical patent/JPWO2018061792A1/ja
Priority to US16/328,754 priority patent/US20190218773A1/en
Publication of WO2018061792A1 publication Critical patent/WO2018061792A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04BGENERAL BUILDING CONSTRUCTIONS; WALLS, e.g. PARTITIONS; ROOFS; FLOORS; CEILINGS; INSULATION OR OTHER PROTECTION OF BUILDINGS
    • E04B2/00Walls, e.g. partitions, for buildings; Wall construction with regard to insulation; Connections specially adapted to walls
    • E04B2/74Removable non-load-bearing partitions; Partitions with a free upper edge
    • EFIXED CONSTRUCTIONS
    • E06DOORS, WINDOWS, SHUTTERS, OR ROLLER BLINDS IN GENERAL; LADDERS
    • E06BFIXED OR MOVABLE CLOSURES FOR OPENINGS IN BUILDINGS, VEHICLES, FENCES OR LIKE ENCLOSURES IN GENERAL, e.g. DOORS, WINDOWS, BLINDS, GATES
    • E06B7/00Special arrangements or measures in connection with doors or windows
    • E06B7/28Other arrangements on doors or windows, e.g. door-plates, windows adapted to carry plants, hooks for window cleaners
    • EFIXED CONSTRUCTIONS
    • E06DOORS, WINDOWS, SHUTTERS, OR ROLLER BLINDS IN GENERAL; LADDERS
    • E06BFIXED OR MOVABLE CLOSURES FOR OPENINGS IN BUILDINGS, VEHICLES, FENCES OR LIKE ENCLOSURES IN GENERAL, e.g. DOORS, WINDOWS, BLINDS, GATES
    • E06B9/00Screening or protective devices for wall or similar openings, with or without operating or securing mechanisms; Closures of similar construction
    • E06B9/24Screens or other constructions affording protection against light, especially against sunshine; Similar screens for privacy or appearance; Slat blinds
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/041Function-oriented details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1335Structural association of cells with optical devices, e.g. polarisers or reflectors
    • G02F1/133509Filters, e.g. light shielding masks
    • G02F1/133512Light shielding layers, e.g. black matrix
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/26Pc applications
    • G05B2219/2628Door, window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Definitions

  • the present technology relates to a light shielding device, a light shielding method, and a program, and in particular, depending on the state in the vicinity of the light shielding wall, the object to be hidden is hidden from view or difficult to see.
  • the present invention relates to a light-shielding device, a light-shielding method, and a program that make a power easy to get into the eye.
  • the present disclosure has been made in view of such a situation, and in particular, depending on the state in the vicinity of the light-shielding wall, the object to be hidden is hidden so as not to be seen with the eyes, or is made difficult to see with the eyes, or , Making things that should be visible easy to see.
  • a light-shielding device includes a light-shielding wall that partitions a first space and a second space and includes a plurality of regions that are controllable to a light-transmissive state or a light-shielded light-shielded state.
  • a light-transmitting transmission information generating unit configured to generate the light-transmitting information for controlling the light-transmitting state or the light-blocking state of each of the plurality of regions based on information indicating a state in the vicinity of the light-shielding wall; And a control unit that controls a transmission state or a light shielding state of a plurality of regions of the light shielding wall based on the light shielding transmission information generated by the transmission information generating unit.
  • the light shielding wall may be a window that partitions the first space and the second space, and information indicating the state of the vicinity of the light shielding wall exists in the vicinity of the window made of the light shielding wall.
  • the light-shielding transmission information generation unit the user's eyes exist in the vicinity of the window made of the light-shielding wall, which is information indicating a state near the light-shielding wall. Based on the information on whether or not, the transmission state or the light-blocking transmission information for controlling the light-blocking state at each position of the plurality of regions can be generated.
  • the light-shielding transmission information generating unit is information indicating whether or not the user's eyes are in the vicinity of the window made of the light-shielding wall, which is information indicating a state near the light-shielding wall.
  • the area in the light shielding wall corresponding to the position of the user's eye is controlled to the transmission state, and the other area is controlled to the light shielding state.
  • the light shielding transmission information for controlling the entire area of the light shielding wall to the light shielding state can be generated.
  • the first space may be a space where an observation target exists
  • the second space may be an observation space for observing the observation target
  • information indicating a state in the vicinity of the light shielding wall is
  • information regarding whether or not a light shielding wall exists in the field of view of the observation target can be included
  • the light shielding transmission information generation unit includes a light shielding wall in the field of view of the observation target. Based on the information on whether or not to perform and the information on whether or not the user's eyes are present in the vicinity of the window made of the light shielding wall, or the light transmission state of each position of the plurality of regions, or the light shielding. It is possible to generate shading transmission information for controlling the state.
  • the plurality of the user's eyes when there is a light-shielding wall in the field of view of the observation target, the plurality of the user's eyes based on information on whether or not the user's eyes are present in the vicinity of the window made of the light-shielding wall
  • the transmission state of each position of the region or the light-shielding transmission information for controlling the light-shielding state is generated and no light-shielding wall exists in the field of view of the observation object, all of the plurality of regions are The shading transmission information to be controlled can be generated.
  • the case where the observation target is sufficiently separated from the light shielding wall can be included.
  • the light shielding wall is a floor that partitions the first space and the second space, and information indicating a state in the vicinity of the light shielding wall may be information indicating whether or not a user has stepped on the floor.
  • the shading transmission information generation unit may be configured to determine each position of the plurality of regions based on information indicating whether the user has stepped on the floor, which is information indicating a state in the vicinity of the shading wall.
  • the transmission state information or the light-blocking transmission information for controlling the light-blocking state can be generated.
  • the shading transmission information generation unit controls the area at the position of the foot that the user steps on to the transmission state, and controls the other areas to the light shielding state.
  • the shading transmission information to be generated can be generated.
  • the shading transmission information generation unit controls the area of the foot where the user steps on to the shading state, and controls the other areas to the transmitting state.
  • the shading transmission information to be generated can be generated.
  • the light shielding wall is a window that partitions the first space and the second space, and may further include a key control unit that controls locking and unlocking of the key of the window.
  • the information indicating the state of the suspicious person can be used as information indicating the presence or absence of a suspicious person, and the information on the presence or absence of the suspicious person is information indicating the state of the light shielding wall in the light shielding transmission information generation unit. Based on the information, the transmission state of each position of the plurality of areas, or the light shielding transmission information for controlling the light shielding state is generated, the key control unit based on the information on the presence or absence of the suspicious person, It is possible to control the locking or unlocking of the window key.
  • the light-shielding transmission information generation unit controls the plurality of areas in the visual field of the suspicious person to the light-shielding state and controls the other areas to the transmission state. Information is generated, and the key control unit is controlled to lock the window key, and when there is no suspicious person, the light-shielding transmission information generation unit controls all areas to the transmission state.
  • the shading transmission information to be generated is generated, and the key control unit can be controlled to unlock the key of the window.
  • the light shielding wall may be a road wall that partitions a road and a residential area along the road, and information indicating a state of the vicinity of the light shielding wall is obtained from a passenger through the light shielding wall in a transparent state.
  • Information indicating whether or not a vehicle whose area is visible is traveling on the road, and the light-shielding transmission information generation unit transmits information from the passenger, which is information indicating a state near the light-shielding wall.
  • the light shielding for controlling the transmission state or the light shielding state of each position of the plurality of regions based on information on whether or not a vehicle in which the living area is visible is traveling on the road through the light shielding wall in a state Transmission information can be generated.
  • Whether the vehicle in which the living area can be seen from the occupant through the light-shielding wall in a transmissive state is traveling on the road is information indicating the state near the light-shielding wall.
  • the information when a vehicle on which the living area can be seen is traveling on the road from the passenger through the light-shielding wall in a transparent state, an area on the light-shielding wall from which the living area can be seen from the passenger.
  • the other area is controlled to the transparent state. It is possible to generate shading transmission information for controlling the entire area of the wall to the transmission state.
  • the light shielding method of the light shielding device includes a plurality of regions that partition the first space and the second space and are controllable to a light transmission state or a light shielding state.
  • a light shielding method of a light shielding device having a light shielding wall based on information indicating a state in the vicinity of the light shielding wall, the transmission state of each position of the plurality of regions, or light shielding transmission information for controlling the light shielding state is generated.
  • the light shielding method includes a step of controlling a transmission state or a light shielding state of the plurality of regions of the light shielding wall based on the generated light shielding transmission information.
  • a program includes a light shielding wall configured by partitioning a first space and a second space and configured to be a transmission state that transmits light or a plurality of regions that can be controlled to block light. Based on information indicating a state in the vicinity of the light shielding wall, a light shielding transmission information generation unit that generates the transmission state of each of the plurality of regions or the light shielding transmission information for controlling the light shielding state, and the light shielding transmission A program that causes a computer to function as a control unit that controls a transmission state or a light shielding state of a plurality of regions of the light shielding wall based on the light shielding transmission information generated by the information generation unit.
  • the first space and the second space are partitioned by a light-shielding wall configured of a plurality of regions that can be controlled to a light-transmissive state or a light-shielded light-shielded state, Based on the information indicating the state in the vicinity of the light shielding wall, the transmission state of each position of the plurality of regions or the light shielding transmission information for controlling the light shielding state is generated, and based on the generated light shielding transmission information Thus, the transmission state or the light shielding state of the plurality of regions of the light shielding wall is controlled.
  • an object to be hidden is hidden from being seen by an eye, or is made difficult to be seen by an eye, or an object to be made visible is to be seen. It becomes possible to make it easy to enter.
  • FIG. 11 is a diagram illustrating a configuration example of a general-purpose personal computer.
  • Outline of light shielding device of present disclosure >> The light-shielding device of the present disclosure hides things to be hidden so that they cannot be seen with the eyes, makes them difficult to see with eyes, or makes it easy to see what should be visible, depending on the state near the light-shielding wall It is a state.
  • the light-shielding device of the present disclosure partitions the first space on the left side in the drawing and the second space on the right side in the drawing,
  • the light shielding wall 11 is composed of a plurality of panels 21 that can be controlled to have various transmittances.
  • the panel 21 will be described as being switched to either the light shielding state or the transmission state in order to simplify the description.
  • the panel 21 can be further controlled to be changed to various transmittances.
  • the light shielding state is a state in which even part of the incident light is shielded
  • the transmission state is a state in which even part of the incident light is transmitted.
  • the light shielding state is at least compared with the transmission state.
  • the transmittance of the panel 21 in the light shielding state may be at least lower than the transmittance of the panel state in the transmission state, and the transmittance in the light shielding state may be 10% or 30% in addition to 0%.
  • the transmittance in the transmissive state may be 90% or 70% in addition to 100%.
  • the light shielding wall 11 controls, for example, only the panel 21 in a region where the object B1 existing in the first space can be directly viewed from the viewpoint of the persons H1 and H2 existing in the second space, and blocks other than that.
  • the panel 21 in the area is controlled to be in a transmissive state.
  • the shading device of FIG. 1 is configured not to show what the user does not want to show.
  • the light shielding device in FIG. 1 includes a light shielding wall 11, cameras 12-1 and 12-2, and a control unit 13.
  • the light shielding wall 11 partitions the first space shown on the left side in the drawing from the second space shown on the right side in the drawing.
  • an object B1 that the person H1 and H2 that are present in the second space does not want to show (they are hidden in an invisible state).
  • a person for example, persons H1, H2, etc.
  • a person for example, persons H1, H2, etc.
  • the light shielding wall 11 is composed of a plurality of panels 21, for example, as shown in FIG.
  • the panel 21 is a liquid crystal panel having a size of about 10 cm ⁇ 10 cm, for example, and is controlled by the control unit 13 to be in a light shielding state or a transmission state.
  • the transmission state includes a state controlled to various transmittances.
  • the size of the panel 21 is not limited to about 10 cm ⁇ 10 cm, and may be smaller or larger than this size.
  • FIG. 2 an example in which the panel 21 has a square shape is shown, but it may not be a square shape but may be other shapes, such as a polygon including a triangle, a circle, or Other geometric shapes may be used.
  • the panel 21 may have a configuration other than the liquid crystal panel as long as it can be controlled in either a light shielding state or a transmissive state that can be controlled to various transmittances. Further, one panel 21 may be divided into smaller areas and controlled to have different transmittances for each area. In other words, the minimum unit for controlling the light shielding state or the transmission state is the panel 21. However, it may be a finely divided region, a panel unit, or a region unit. However, in the embodiments of the present disclosure, the description will proceed with the panel 21 as a control unit unless otherwise specified.
  • the panel 21 is controlled to the light shielding state.
  • a region W1 surrounded by a dotted line the inside of the conference room cannot be seen (a state where it cannot be seen).
  • the area other than the area W1 when the panel 21 is controlled to be in the transmissive state, the inside of the conference room can be seen (a state in which it can be seen).
  • the cameras 12-1 and 12-2 capture the first space and the second space, respectively, and supply the captured images to the control unit 13.
  • the cameras 12-1 and 12-2 will be simply referred to as the camera 12 unless otherwise distinguished, and the other configurations will be referred to in the same manner.
  • the cameras 12-1 and 12-2 include optical blocks 12a-1 and 12a-2, image sensors 12b-1 and 12b-2, and signal processing units 12c-1 and 12c-2, respectively.
  • the optical block 12a is composed of at least one lens, collects incident light, and focuses it on the image sensor 12b.
  • the image sensor 12b converts focused light incident through the optical block into a signal corresponding to the amount of light in units of pixels arranged in an array, and outputs the signal to the signal processing unit 12c.
  • the signal processing unit 12 c performs predetermined signal processing on the signal supplied from each pixel to generate an image composed of pixel signals, and outputs the generated image to the control unit 13.
  • the cameras 12-1 and 12-2 capture images, respectively, and images including distance data from the cameras 12-1 and 12-2 in the space in the subject image captured for each pixel. Image. That is, the cameras 12-1 and 12-2 have a camera function called a depth camera (Depth Camera).
  • the images captured by the cameras 12-1 and 12-2 include information on the distance from the cameras 12-1 and 12-2 to the subject in units of pixels in addition to the normal images.
  • an image made up of distance information in pixel units will be referred to as a distance image. Therefore, the cameras 12-1 and 12-2 capture normal images, generate distance images, and supply them to the control unit 13.
  • the control unit 13 includes a control circuit such as one or a plurality of CPUs (Central Processing Unit), and the first space and the second space supplied from the cameras 12-1 and 12-2, respectively. Get the image.
  • the control unit 13 recognizes the position of the object B1 in the first space based on the image of the first space and information on the installation position and direction of the camera 12-1. Further, the control unit 13 determines the positions E1 and E2 of the eyes of the persons H1 and H2 who do not want to show the object B1 based on the image of the second space and information on the installation position and direction of the camera 12-2. Identify.
  • CPUs Central Processing Unit
  • control unit 13 can also be said to be the path of the line of sight when viewing the object B1 from the eye positions E1 and E2 of the persons H1 and H2 who do not want to show the object B1, and the eyes of the persons H1 and H2 who do not want to show the object B1.
  • the optical paths L1 and L2 of the object B1 are obtained from the positions E1 and E2.
  • control unit 13 controls the panel 21 including the intersections with the optical paths L1 and L2 among the panels 21 on the light shielding wall 11 to the light shielding state, and controls the other panels 21 to the transmission state.
  • the transmissive state is a state where a room on the other side can be seen through the light shielding wall 11 as shown in the left part of FIG.
  • the light-shielding state is a state in which the inside of the room on the other side cannot be seen, as indicated by the region W1 on the left side of FIG.
  • the optical path represents a line of sight when the positions E1 and E2 of the eyes of the persons H1 and H2 are viewed, but the optical path is transmitted or shielded with respect to the light shielding wall 11. It only needs to indicate a light path. Therefore, the optical path does not necessarily indicate a line of sight.
  • an optical path that indicates a sunlight path using the sun as a light source is also referred to as an optical path. Therefore, in the following description, all light paths that pass through the light shielding wall 11 when each panel 21 of the light shielding wall 11 is controlled to be in a transmissive state are referred to as optical paths.
  • the camera 12-1 is not particularly necessary and may be configured only by the camera 12-2. Further, in the case of sunlight using the sun as a light source, it can be regarded as almost parallel light on the earth, and if the azimuth and the direction of the light shielding wall 11 can be recognized, the optical path can be obtained. A configuration with only two may be used.
  • the panel 21 on the optical path through which the user does not want to show through the light shielding wall 11 to the predetermined user is in the light shielding state and the other panels 21 are in the transmission state.
  • the transmission panel may be in a transmissive state
  • the other panels 21 may be in a light shielding state.
  • First embodiment >> ⁇ Example of a light shielding device that allows only a user who has approached the light shielding wall to visually recognize the outside of the light shielding wall>
  • the light shielding wall 11 described above can be used like a window glass when the panel 21 is in a transmissive state, and can also function as a blind when in the light shielding state. Therefore, in the first embodiment of the light shielding device to which the technology of the present disclosure is applied, an example in which the above-described light shielding wall 11 is used as a window will be described.
  • FIG. 4 uses the light shielding wall 11 as a window glass, and according to the state corresponding to the positional relationship between the light shielding wall 11 as a window and a specific part of the user in the vicinity of the light shielding wall 11, A configuration example of a light shielding device is illustrated in which the panel 21 in the range is set to the transmissive state, and the panel 21 in the other range is controlled to the light shielding state.
  • each panel 21 of the light shielding wall 11 can be used as a window by setting each panel 21 of the light shielding wall 11 in a transmissive state, and can also be blinded by changing the transmittance even in the light shielding state or the transmissive state. It can also function as.
  • the camera 12 in the light shielding device in FIG. 4 images the room where the user H11 exists and supplies the captured image to the control unit 13.
  • the control unit 13 estimates the eye position as a specific part of the user H11 based on the captured image.
  • the control unit 13 When approaching the wall 11), the panel 21 in the region E ⁇ b> 11 of the light shielding wall 11 corresponding to the position of the eye which is a specific part is controlled to the transmission state.
  • a blind slat blind splash
  • a finger or the like to look into the outside. It is no longer necessary to bend and create a space and look into the outside of the space.
  • the control unit 13 includes an image acquisition unit 51, an acquired image determination unit 52, a light shielding / transmission position calculation unit 53, a light shielding / transmission storage unit 54, and a light shielding / transmission control unit 55.
  • the image acquisition unit 51 acquires a depth image in which a room in which the user of the room where the light shielding wall 11 is provided as a window is captured by the camera 12 is supplied to the acquired image determination unit 52.
  • the acquired image determination unit 52 analyzes the depth image supplied from the image acquisition unit 51, detects the presence / absence of the user in the depth image, estimates the position of the user's eyes when the user exists, and When the estimated eye position is closer to the light shielding wall 11 than a predetermined distance (when it is present in the vicinity of the light shielding wall 11), the estimated eye position information is supplied to the light shielding transmission position calculation unit 53. .
  • the light shielding / transmission position calculating unit 53 Based on the information on the eye position supplied from the acquired image determination unit 52, the light shielding / transmission position calculating unit 53 identifies the position of the panel 21 in the corresponding light shielding wall 11, and puts the identified panel 21 into the transmission state. In addition to the control, the light-shielding transmission information is generated so as to control the other panels 21 in the light-shielding state, and is stored in the light-shielding transmission storage unit 54.
  • the light-shielding transmission information is information in which each panel 21 is set and registered in either the light-shielding state or the transmission state, and further, the setting of the transmittance when in the transmission state is registered. Therefore, the shading transmission position calculation unit 53 sets information about whether each panel 21 is set to the light shielding state or the transmission state and the transmittance of the panel 21 set to the transmission state in the light shielding transmission information. The Here, it is assumed that the transmittance when the transmission state is controlled is 1. However, other transmittances may be set. In addition, each panel 21 may be divided into finer areas to control either the light shielding state or the transmission state. In this case, the light shielding transmission information indicates that each area is in the light shielding state or the transmission state.
  • the light-shielding / transmission control unit 55 In the light-shielding / transmission control unit 55, information on the transmission state or light-shielding state of each panel 21 in the light-shielding wall 11 stored in the light-shielding / transmission storage unit 54 and information on the transmittance of each of the transmitting panels 21 are registered. The light shielding state of each panel 21 of the light shielding wall 11 and the transmission state in consideration of the transmittance are controlled according to the light shielding transmission information.
  • step S ⁇ b> 11 the camera 12 captures the indoor side of the window formed of the light shielding wall 11 as a depth image and supplies the image to the image acquisition unit 51.
  • step S ⁇ b> 12 the image acquisition unit 51 supplies the depth image supplied from the camera 12 to the acquired image determination unit 52.
  • step S ⁇ b> 13 the acquired image determination unit 52 detects the user's eyes as a specific part of the user from the depth image, specifies the position in the space, and is closer to the light shielding wall 11 than the predetermined distance. It is determined whether or not the user's eyes exist in the vicinity (near) of the light shielding wall 11 depending on whether or not there is, and the determination result is supplied to the light shielding transmission position calculation unit 53.
  • the acquired image determination unit 52 performs a face image detection process on the depth image to detect the face image. Further, the acquired image determination unit 52 performs eye organ extraction from the detected face image. Further, the acquired image determination unit 52 calculates the position in the indoor space of the window made of the light shielding wall 11 based on the distance information in the depth image of the eye that is the extracted organ, and the user's eyes Is determined and whether or not the user's eyes are present in the vicinity of the light shielding wall 11 is determined based on whether or not it is within a predetermined distance from the light shielding wall 11.
  • the acquired image determination unit 52 extracts the back of the head image instead of the face image,
  • the eye position may be estimated from the position.
  • the acquired image determination unit 52 detects the face image from the image of the scene where the face image is captured, continuously tracks the detected eye position, and the face image For example, even in a scene where only the back of the head is projected, the position of the eyes may be estimated.
  • step S13 for example, when it is determined that the user's eyes are closer than the predetermined distance from the light shielding wall 11, the acquired image determination unit 52 uses the determination result together with the information on the user's eye position to determine the light transmission / transmission position calculation unit. The process proceeds to step S14.
  • step S14 the light-shielding transmission position calculation unit 53 stores information on the position in the user's eye space that is a specific part of the user.
  • step S15 the light shielding / transmitting position calculation unit 53 sets any unprocessed area among the predetermined areas set in units of the panel 21 in the light shielding wall 11 as a processing coping area.
  • step S16 the light-shielding transmission position calculation unit 53 determines whether or not the position of the panel 21 in the processing target region is near the position in the space of the user's eyes that is a specific part of the user. If it is determined in step S16 that the position of the panel 21 in the processing target area is near the position in the user's eye space that is a specific part of the user, the process proceeds to step S17.
  • step S17 the light-shielding transmission position calculation unit 53 stores the light-shielding transmission information in the light-shielding transmission storage unit 54 as a control for controlling the panel 21 in the processing target region to the transmission state.
  • the light-shielding transmission control unit 55 controls the panel 21 in the processing target region to the transmission state based on the light-shielding transmission information stored in the light-shielding transmission storage unit 54.
  • step S16 determines whether the position of the panel 21 in the processing target area is near the position in the user's eye space that is a specific part of the user. If it is determined in step S16 that the position of the panel 21 in the processing target area is not near the position in the user's eye space that is a specific part of the user, the process proceeds to step S18.
  • step S18 the light-shielding transmission position calculation unit 53 stores the light-shielding transmission information in the light-shielding transmission storage unit 54, assuming that the panel 21 in the processing target region is controlled to be in a light-shielding state.
  • the light-shielding transmission control unit 55 controls the panel 21 in the processing target region to be in a light-shielding state based on the light-shielding transmission information stored in the light-shielding transmission storage unit 54.
  • step S19 the light shielding / transmitting position calculation unit 53 determines whether or not there is an unprocessed region among the regions of the panel 21 in the light shielding wall 11, and if there is an unprocessed region, the process proceeds to step S19. Return to S15. That is, steps S15 to S19 are repeated until there is no unprocessed area. If it is determined in step S19 that there is no unprocessed area, the process proceeds to step S20. If it is determined in step S13 that the user's eyes are not closer than the predetermined distance from the light shielding wall 11, the processes in steps S14 to S19 are skipped.
  • step S20 the acquired image determination unit 52 determines whether or not the end of the process is instructed. If the end of the process is not instructed, the process returns to step S11 and the subsequent processes are repeated. In step S20, when it is determined that the end is instructed, the process ends.
  • the panel 21 at the position corresponding to the approaching eye is controlled to the transmission state,
  • Other panels 21 are in a light-shielded state, and in other states, the entire panel 21 is controlled to be in a light-shielded state.
  • the position of the eyes may be specified using a two-dimensional image. Good.
  • the movement of the eyes can be tracked from the image where the eyes are displayed by using an image continuously captured with a moving image or the like.
  • the position of the eyes in an image in which no face or eyes are shown may be estimated.
  • the position of the eye approaching the window made of the light shielding wall 11 may be detected by a method other than a depth image captured by the camera 12 or a normal two-dimensional image.
  • a method other than a depth image captured by the camera 12 or a normal two-dimensional image For example, an infrared sensor or the like may be used to determine whether or not the distance is within a predetermined distance until the wall 11 is approached.
  • the panel 21 in a region corresponding to the position of the eyes is in a transparent state.
  • the other panel 21 may be controlled to be in a light-shielded state so that the room can be looked into from the outside.
  • the camera 12 needs to be configured to take an image of the outdoors.
  • Second embodiment when the light shielding wall 11 is applied as a window and the user's eyes are near the light shielding wall 11 and within a predetermined distance based on the state of the periphery of the window made of the light shielding wall 11, An example has been described in which the panel 21 in the region corresponding to this position is controlled to the transmissive state, and the panel 21 in other regions is controlled to the light shielding state. However, in this example, since it is assumed that the light shielding wall 11 is controlled to the light shielding state as a whole, the state outside the window made of the light shielding wall 11 cannot be seen.
  • the window made of the light shielding wall 11 is used as a boundary between an animal breeding room to be observed in a zoo and a space for observation by a zoo visitor (hereinafter also referred to as an observation space).
  • the window made of the light shielding wall 11 is always in the light-shielded state, and in order to see the animals in the breeding room, it is necessary for the visitor to approach the window made of the light shielding wall 11 and bring his eyes closer to him. . This makes it difficult for many visitors to observe the animal at the same time.
  • the boundary between the breeding room and the observation space is configured by using a window made of the light shielding wall 11, as shown by the light shielding device in FIG. , 12-2 are provided.
  • the control unit 13 11 is controlled to a transmission state.
  • the control unit 13 performs the above-described partial transmission processing on the light shielding wall 11. It may be.
  • the entire panel 21 of the light shielding wall 11 is controlled to be in a transmissive state so that many visitors can observe the animals in the breeding room at the same time. can do.
  • the panel 21 of the light shielding wall 11 can be controlled to be in a light shielding state or a transmission state based on the state of the animal and the light shielding wall 11, depending on the state without surprise the animal. Many visitors can observe animals at the same time.
  • the light shielding device of FIG. 8 is different from the light shielding device of FIG. 5 in that the camera 12 is the cameras 12-1 and 12-2, and the image acquisition units 51-1 and 51-2 are provided respectively. Furthermore, instead of the acquired image determination unit 52 and the light shielding transmission position calculation unit 53, an acquired image determination unit 71 and a light shielding transmission position calculation unit 72 are provided.
  • the cameras 12-1 and 12-2 and the image acquisition units 51-1 and 51-2 are the same as the camera 12 and the image acquisition unit 51, but the camera 12-1 captures the observation space, 12-2 images the inside of the breeding room.
  • the acquired image determination unit 71 executes basically the same processing as the acquired image determination unit 52, but further determines the state of the animal in the breeding room, and makes the determination result a light-shielding transmission position calculation unit 72.
  • the acquired image determination unit 71 supplies the light shielding wall 11 within the field of view of the animals in the breeding room based on the images in the breeding room captured by the camera 12-2 supplied from the image obtaining unit 51-2. Is present (a state where a visitor can be seen through a window made of the light shielding wall 11), and the determination result is supplied to the light shielding transmission position calculation unit 72.
  • the light-shielding transmission position calculation unit 72 basically executes the same processing as the light-shielding transmission position calculation unit 53, but includes a state in which the light-shielding wall 11 is included in the field of view of the animal in the breeding room (from the light-shielding wall 11). The process according to the determination result of whether or not the visitor can see through the window is executed.
  • the light shielding / transmitting position calculation unit 72 is in a state where the light shielding wall 11 is included in the field of view of the animal in the breeding room based on the image in the breeding room captured by the camera 12-2 (the light shielding wall). 11), when an image captured by the camera 12-1 is supplied from the image acquisition unit 51-1.
  • the acquired image determination unit 71 performs the same process as the above-described partially transparent process.
  • the light-shielding transmission position calculation unit 72 does not include visitors through the window made of the light-shielding wall 11 within the field of view of the animals in the breeding room based on the images in the breeding room captured by the camera 12-2.
  • the determination result that the state is the state is supplied, all the panels 21 of the light shielding wall 11 are controlled to the transmission state.
  • step S31 the camera 12-2 captures the rear room side of the window made of the light shielding wall 11 as a depth image and supplies it to the image acquisition unit 51-2.
  • step S32 the image acquisition unit 51-2 supplies the depth image supplied from the camera 12-2 to the acquired image determination unit 71.
  • step S33 the acquired image determination unit 71 detects a face as a specific part of the animal from the depth image in the breeding room, identifies the position in the breeding room, and determines whether the light shielding wall 11 exists in the field of view of the animal. The determination result is supplied to the light-shielding transmission position calculation unit 72.
  • the acquired image determination unit 71 performs an animal face image detection process on the depth image to detect the animal face image.
  • the acquired image determination unit 71 performs eye organ extraction from the detected face image. Further, the acquired image determination unit 71 determines whether or not the window made of the light shielding wall 11 is within the field of view of the animal in the breeding room, based on the distance information in the depth image of the eye that is the extracted organ. To do.
  • step S33 for example, if there is a window made of the light shielding wall 11 in the field of view of the animal in the breeding room and the visitor can visually recognize the process, the process proceeds to step S34.
  • step S34 the light-shielding transmission position calculation unit 72 described above according to the determination result of the acquired image determination unit 71 based on the image from the image acquisition unit 51-1 that acquires the image captured by the camera 12-1. Partially transparent processing is executed. Note that the partially transparent process in step S34 is a series of processes including steps S11 to S19 in FIG. 6 and is the same as described above, and thus the description thereof is omitted.
  • the entire light-shielding wall 11 is in a light-shielded state, and a part of the eye corresponding to the eyes is in a transparent state by a partly transmitting process so that a visitor brings his eyes close to the light-shielding wall 11.
  • step S33 for example, when there is no window made of the light shielding wall 11 in the field of view of the animal in the breeding room, and the person cannot be seen from the animal through the window, the process proceeds to step S35.
  • step S35 the light shielding / transmitting position calculation unit 72 controls all the panels 21 of the light shielding wall 11 to the transmitting state based on the determination result.
  • step S35 the control unit 13 does not have to make all the regions transparent, and the control unit 13 performs processing for making more (wider) regions transparent than the regions controlled to the transparent state by at least partial transmission processing. You can go.
  • step S36 the acquired image determination unit 71 determines whether or not the end of the process is instructed. If the end of the process is not instructed, the process returns to step S31, and the subsequent processes are repeated. Then, if it is determined in step S36 that the end has been instructed, the process ends.
  • the animal A1 does not look toward the window made of the light shielding wall 11, but through the window made of the light shielding wall 11,
  • the entire panel 21 of the light shielding wall 11 is made transparent, and the visitor threatens the animal A1 in the breeding room even from a position away from the light shielding wall 11. It is possible to observe the original activity of the animal without any problem.
  • the animal A2 is looking at the window made of the light shielding wall 11, and the animal A2 can see the visitors through the window made of the light shielding wall 11.
  • the animal A2 can see the visitors through the window made of the light shielding wall 11.
  • the entire panel 21 is controlled to be in a transmissive state only when there is no window made of the light shielding wall 11 in any field of view of the plurality of animals.
  • a partially transparent process may be used.
  • the light shielding wall 11 is applied to the window at the boundary between the observation space and the breeding room, and when there is no window made of the light shielding wall 11 in the field of view of the animal in the breeding room, the entire panel 21 is made transparent.
  • the light shielding wall 11 may be used as a floor instead of a window, and the transmission state or the light shielding state may be controlled according to the state of the user on the floor.
  • FIG. 10 shows an embodiment of a light-shielding device that uses the light-shielding wall 11 as a floor and controls the panel 21 in a transmissive state or a light-shielded state according to the state of the user on the floor.
  • the light shielding device of FIG. 10 is configured by forming the floor 91 of the observation room 81 a of the sightseeing tower 81 with the light shielding wall 11, and the upper part of the right part of FIG. 10. As shown in the figure, each panel 21 is controlled to be in a light shielding state or a transmission state in accordance with the state of the user on the light shielding wall 11 as a floor.
  • the camera 12 captures an image on the floor 91 made of the light shielding wall 11 in the observation room 81a, and based on the captured image, the control unit 13 controls the panel 21 in the region 11a where the visitor (user) H31 has stepped on to the light shielding state, and controls the other panels 21 to the transmissive state.
  • the conditions of the light shielding state and the transmission state may be reversed.
  • the camera 12 is on the floor 91 made of the light shielding wall 11 in the observation room 81a.
  • the control unit 13 controls the panel 21 in the region 11b where the visitor (user) H31 has stepped on to the transmissive state, and controls the other panels 21 to the light-shielded state. To do.
  • the acquired image determination unit 111 and the light shielding transmission position calculation unit 112 replace the acquired image determination unit 52 and the light shielding transmission position calculation unit 53. It is a point provided.
  • the acquired image determination unit 111 specifies the position of the foot that the visitor who is the user in the observation room 81a steps on the floor 91 based on the depth image supplied from the image acquisition unit 51 in the image, Further, the position of the space in the observation room 81a of the foot that has been stepped on is specified based on the distance information of the depth image, and supplied to the light-shielding transmission position calculation unit 112.
  • the light-shielding transmission position calculating unit 112 identifies the panel 21 on the light-shielding wall 11 constituting the floor 91 of the observation room 81a corresponding to the position of the space in the observation room 81a of the foot, Alternatively, the transmission / shielding information is generated so as to control the other panel 21 to the transmission state or the light-shielding state, and is stored in the transmission / light-shielding storage unit 54.
  • step S ⁇ b> 51 the camera 12 captures the observation room 81 a on the floor 91 including the light shielding wall 11 as a depth image, and supplies the image to the image acquisition unit 51.
  • step S ⁇ b> 52 the image acquisition unit 51 supplies the depth image supplied from the camera 12 to the acquired image determination unit 111.
  • step S53 the acquired image determination unit 11 detects the foot that the visitor has stepped on the floor 91 from the depth image, and whether or not the visitor has stepped on the floor 91 formed of the light shielding wall 11 of the observation room 81a. The determination result is supplied to the light-shielding transmission position calculation unit 112.
  • the acquired image determination unit 111 performs a foot image detection process on the depth image to detect the foot. In addition, the acquired image determination unit 111 determines whether a foot is present on the floor 91 including the light shielding wall 11 and the visitor is stepping on the basis of the distance information in the depth image from the detected foot image. Determine whether or not.
  • step S53 for example, when the visitor's foot is present on the floor 91 formed by the light shielding wall 11 and the visitor is regarded as stepping on the floor 91, the process proceeds to step S54. Then, along with the determination result, information on the position of the visitor's foot is supplied to the shading transmission position calculation unit 112.
  • step S54 the light-shielding transmission position calculation unit 112 stores information on the position of the floor 91 in the observation room 81a of the visitor's foot.
  • step S55 the light shielding / transmitting position calculation unit 112 sets any unprocessed area as a processing area to be processed among predetermined areas set in units of panels 21 in the light shielding wall 11 constituting the floor 91.
  • step S56 the light-shielding transmission position calculation unit 112 determines whether or not the position of the panel 21 in the processing target area is a position near the area on the floor 91 in the observation room 81a of the visitor's foot. If it is determined in step S56 that the position of the panel 21 in the processing target area is a position in the vicinity of the area on the floor 91 in the observation room 81a of the visitor's foot, the process proceeds to step S57.
  • step S57 the light-shielding transmission position calculation unit 112 stores the light-shielding transmission information in the light-shielding transmission storage unit 54, as controlling the panel 21 in the processing target region to be in a light-shielding state.
  • the light-shielding transmission control unit 55 controls the panel 21 in the processing target region to be in a light-shielding state based on the light-shielding transmission information stored in the light-shielding transmission storage unit 54.
  • step S56 if it is determined in step S56 that the position of the panel 21 in the processing target area is not a position in the vicinity of the area on the floor 91 in the observation room 81a of the visitor's foot, the process proceeds to step S58. .
  • step S58 the light-shielding transmission position calculation unit 112 stores the light-shielding transmission information in the light-shielding transmission storage unit 54 as controlling the panel 21 in the processing target region to the transmission state.
  • the light-shielding transmission control unit 55 controls the panel 21 in the processing target region to the transmission state based on the light-shielding transmission information stored in the light-shielding transmission storage unit 54.
  • step S59 the light-shielding transmission position calculating unit 112 determines whether there is an unprocessed area among the areas of the panel 21 in the light-shielding wall 11, and if there is an unprocessed area, the process proceeds to step S59. Return to S55. That is, steps S55 to S59 are repeated until there is no unprocessed area. If it is determined in step S59 that there is no unprocessed area, the process proceeds to step S60. If it is determined in step S53 that the visitor's foot has not stepped on the floor 91 made of the light shielding wall 11, the processing in steps S54 to S59 is skipped.
  • step S60 the acquired image determination unit 111 determines whether or not the end of the process is instructed. If the end of the process is not instructed, the process returns to step S51, and the subsequent processes are repeated. In step S60, when it is determined that the end is instructed, the process ends.
  • the panel 21 at the position where the foot is placed is controlled to be in a light shielding state.
  • the other panels 21 are in the transmissive state, and in other states, the entire panel 21 is controlled to the transmissive state.
  • the example of specifying the position of the visitor's foot using the depth image captured by the camera 12 has been described.
  • the sensor data obtained by a two-dimensional image or other sensors is used.
  • the position of the foot may be specified.
  • the position of the foot on the floor 91 made of the light shielding wall 11 may be detected by a method other than a depth image captured by the camera 12 or a normal two-dimensional image, for example, an infrared sensor or a touch sensor. You may make it detect the position of a leg
  • the floor 91 at the foot is controlled to be in a transmissive state or a light shielding state when a visitor steps on the floor 91 of the observation room 81a has been described.
  • the panel 21 constituting the ceiling directly above when the visitor enters the observation room 81a or the like is controlled to the transmission state or the light shielding state, and the other panels 21 are controlled to the light shielding state or the transmission state. You may do it.
  • FIG. 13 uses the light shielding wall 11 as a window, detects the presence or absence of a suspicious person as a state around the window, and controls the transmission state or the light shielding state of the panel 21 of the light shielding wall 11 constituting the window.
  • the embodiment of the light-shielding device that controls the locking and unlocking of the window key is shown.
  • the control unit 13 determines that the suspicious person H51 is based on the image.
  • the panel 21 in the area corresponding to the visual field range of the suspicious person H51 in the light shielding wall 11 constituting the window is controlled to the light shielding state, and the window key
  • the smart lock 121 is controlled to be locked.
  • the control unit 13 controls the entire panel 21 of the light shielding wall 11 constituting the window to be in a transparent state, and controls the smart lock 121 that is a key of the window to unlock the window. To control.
  • the intrusion of the suspicious person is suppressed, and even when there is a resident user inside the window made of the light shielding wall 11, the situation where the suspicious person is put together with the suspicious person.
  • the smart lock 121 is unlocked when there is no suspicious person, the user who is a resident can easily open and close the window without being aware of the locking and unlocking, but the suspicious person can be intruded. It becomes possible to prevent.
  • the light shielding device of FIG. 14 differs from the light shielding device of FIG. 5 in that an operation determination unit 151 and a light shielding transmission position calculation unit 152 are provided instead of the acquired image determination unit 52 and the light shielding transmission position calculation unit 53.
  • a smart lock control unit 153 for newly controlling the unlocking and locking of the smart lock 121 is provided.
  • the operation determination unit 151 determines whether or not there is a suspicious person based on the depth image supplied from the image acquisition unit 51, and when there is a suspicious person, from the light shielding wall 11 that is the visual field range of the suspicious person.
  • the information on the window area is supplied to the light-shielding transmission position calculation unit 152 and the presence / absence of a suspicious person is supplied to the smart lock control unit 153.
  • the shading transmission position calculation unit 152 specifies the position of the corresponding panel 21 when acquiring the information about the window area including the shading wall 11 that is the visual field range of the suspicious person together with the determination result indicating that the suspicious person has been detected. Then, the light blocking state is controlled, and when no suspicious person is detected, all the panels 21 of the light blocking wall 11 are set to the transmissive state.
  • the smart lock control unit 153 controls to lock the smart lock 121 that is a window key when a suspicious person is detected, and controls to unlock the smart lock 121 when a suspicious person is not detected.
  • the panel 21 in the region that becomes the visual field range of the suspicious person is controlled to the light shielding state, and the other panels 21 are in the transmissive state And the smart lock 121 is locked.
  • the approach of a suspicious person is not detected, all the panels 21 are controlled to be in a transparent state and the smart lock 121 is unlocked.
  • step S ⁇ b> 71 the camera 12 captures the outdoor outside the vicinity of the window made of the light shielding wall 11 as a depth image and supplies the image to the image acquisition unit 51.
  • step S ⁇ b> 72 the image acquisition unit 51 supplies the depth image supplied from the camera 12 to the operation determination unit 151.
  • step S73 the operation determination unit 151 detects the suspicious person by analyzing the depth image, and determines the presence or absence of the suspicious person near the window made of the light shielding wall 11.
  • the operation determination unit 151 registers in advance a face image of a user who is an indoor resident inside the window made of the light shielding wall 11 in a storage unit (not shown) and detects the face image from the depth image. Then, the face image of the registered resident is compared, and whether or not there is a suspicious person is determined based on whether or not they match.
  • the operation determination unit 151 detects a person from the moving image and continuously analyzes the detected movement of the person to detect a suspicious person. May be. That is, the motion determination unit 151 compares the motion of a person captured as a moving image with the motion registered in a storage unit (not shown) in advance as a suspicious motion. You may make it determine whether it exists.
  • the operation determination unit 151 repeats the detection process of the face image from the image captured by the camera 12, and when the face image is detected, the operation determination unit 151 compares the face image with the user's face image registered in advance and matches the face image. Whether or not there is a suspicious person is determined based on whether or not it is present. In addition, the operation
  • step S73 If it is determined in step S73 that there is a suspicious person, the process proceeds to step S74.
  • step S74 the operation determination unit 151 supplies a determination result indicating that there is a suspicious person to the smart lock control unit 153. Based on the determination result, the smart lock control unit 153 controls the smart lock 121 to the locked state.
  • step S75 the motion determination unit 151 specifies the position of the suspicious person's face image in the detected image in the depth image with respect to the window made of the light shielding wall 11, and obtains the suspicious person's visual field range to block the light.
  • the transmission position calculation unit 152 stores it.
  • step S76 the light-shielding transmission position calculation unit 152 sets any unprocessed area as a processing-handling area among the predetermined areas set for each panel 21 in the light-shielding wall 11 constituting the window.
  • step S77 the light-shielding transmission position calculation unit 152 determines whether or not the position of the panel 21 in the processing target area is a position near the area of the suspicious person's visual field range. If it is determined in step S77 that the position of the panel 21 in the processing target area is a position near the area within the visual field range of the suspicious person, the process proceeds to step S78.
  • step S78 the light-shielding transmission position calculation unit 152 stores the light-shielding transmission information in the light-shielding transmission storage unit 54, assuming that the panel 21 in the processing target region is controlled to be in a light-shielding state.
  • the light-shielding transmission control unit 55 controls the panel 21 in the processing target region to be in a light-shielding state based on the light-shielding transmission information stored in the light-shielding transmission storage unit 54.
  • step S77 if it is determined in step S77 that the position of the panel 21 in the processing target area is not a position near the area within the visual field range of the suspicious person, the process proceeds to step S79.
  • step S79 the light-shielding transmission position calculation unit 152 stores the light-shielding transmission information in the light-shielding transmission storage unit 54, so as to control the panel 21 in the processing target region to the transmission state.
  • the light-shielding transmission control unit 55 controls the panel 21 in the processing target region to the transmission state based on the light-shielding transmission information stored in the light-shielding transmission storage unit 54.
  • step S80 the light-shielding transmission position calculation unit 152 determines whether there is an unprocessed area among the areas of the panel 21 in the light-shielding wall 11, and if there is an unprocessed area, the process proceeds to step S80. Return to S76. That is, steps S76 to S80 are repeated until there is no unprocessed area. If it is determined in step S80 that there is no unprocessed area, the process proceeds to step S81.
  • step S81 the acquired image determination unit 111 determines whether or not the end of the process is instructed. If the end of the process is not instructed, the process returns to step S71, and the subsequent processes are repeated. Then, if it is determined in step S81 that termination has been instructed, the process ends.
  • step S73 If it is determined in step S73 that there is no suspicious person in the vicinity of the window made of the light shielding wall 11, the process proceeds to step S82.
  • step S82 the operation determination unit 151 supplies a determination result indicating that there is no suspicious person to the smart lock control unit 153. Based on the determination result, the smart lock control unit 153 controls the smart lock 121 to be in a unlocked state (unlocked state).
  • step S83 the operation determination unit 151 instructs the light shielding / transmission position calculation unit 152 to control all the panels 21 in the light shielding wall 11 to the transmission state.
  • the light-shielding transmission position calculation unit 152 generates light-shielding transmission information so as to control all the panels 21 to the transmission state, and stores them in the light-shielding transmission storage unit 54.
  • the light-shielding transmission control unit 55 controls all the panels 21 to the transmission state.
  • the panel 21 corresponding to the region on the light shielding wall 11 which becomes the visual field range of the suspicious person. are controlled to be in a light-shielding state, the other panels 21 are set in a transmissive state, and the smart lock 121 is locked. If no suspicious person is detected, the entire panel 21 is controlled to be in a transparent state, and the smart lock 121 is unlocked.
  • the smart lock 121 is locked by the smart lock 121 only when a suspicious person approaches, and since it is unlocked in other states, the user who becomes an indoor resident inside the window made of the light shielding wall 11 Can open and close the window made of the light shielding wall 11 without being aware of locking and unlocking.
  • the light-shielding wall 11 is used as a window, and the surrounding state of the window is controlled to a transparent state or a light-shielded state depending on whether or not a suspicious person is approaching.
  • An example of controlling the above has been described.
  • the present invention is not limited to this.
  • a road wall made of a light shielding wall 11 is provided at the boundary between a road and a residential area along the road, and the residential area is changed from the vehicle passenger according to the position of the vehicle.
  • the visible range may be controlled to the light shielding state, and the other range may be controlled to the transmissive state.
  • a road wall made of a light shielding wall 11 is provided at the boundary between the road and the residential area along the road, and the residential area can be seen by the vehicle passenger according to the position of the vehicle traveling on the road.
  • An embodiment of the light shielding device is shown in which the panel 21 of the road wall in the range is controlled to the light shielding state, and the panel 21 in the other range is controlled to the transmission state.
  • a vehicle running on the road 171 is imaged by the camera 12 provided on the road 171, supplied to the control unit 13, and the control unit 13 identifies the vehicle specified from the image. From the position, the panel 21 of the light shielding wall 11 corresponding to the range in which the occupant of the vehicle can see the living area 172 is controlled to the light shielding state, and the others are controlled to the transmission state.
  • a road wall composed of the light shielding wall 11 is provided at the boundary between the road 171 and the living area 172, and the light shielding wall 11 is provided along the road 171, for example. It is assumed that the panels 21-1 to 21-8 constituting the light shielding wall 11 are individually controlled to the light shielding state or the transmission state. Further, as shown by the cameras 12-1 and 12-2, the vehicle 181 that is provided in the central separation zone of the road 171 is imaged and supplied to the control unit 13.
  • the vehicle 181 is traveling from the left side to the right side in the drawing.
  • the camera 12-1 captures the vehicle 181-1 on the right side of the vehicle 181 as a depth image and supplies the depth image to the control unit 13.
  • the control unit 13 obtains the positional relationship between the vehicle 181-1 and the living area 172 from this depth image, and is controlled to a transmission state among the panels 21 constituting the light shielding wall 11 from the passenger of the vehicle 181-1.
  • the panel 21 of the range which can see the living area 172 through the panel 21 is controlled to a light-shielding state, and the other panel 21 is controlled to a permeation
  • FIG. 17 only the panels 21-3 to 21-5 are controlled in the light shielding state, and the other panels 21 are controlled in the transmissive state.
  • control unit 13 puts only the panels 21-1 to 21-4 of the light shielding wall 11 into a light shielding state.
  • the other panels 21 are controlled to be in a transmissive state.
  • the road wall made up of the light shielding wall 11 is such that only the panel 21 in a range where the vehicle 181 traveling on the road 171 approaches the living area 172 and the living area 172 can be seen from the passenger of the vehicle 181 is shielded.
  • the panel 21 in the range is set in the transmissive state.
  • the light shielding device in FIG. 18 differs from the light shielding device in FIG. 5 in that a vehicle position determination unit 191 and a light shielding transmission position calculation unit 192 are used instead of the acquired image determination unit 52 and the light shielding transmission position calculation unit 53. It is a point provided.
  • the vehicle position determination unit 191 identifies the position of the vehicle 181 on the road 171 based on the depth image captured by the camera 12 provided along the median strip of the road 171 and supplied from the image acquisition unit 51. Then, based on the position information of the specified vehicle 181, it is determined whether or not there is a vehicle 181 in which the occupant can see the living area 172, and the determination result is supplied to the light-shielding transmission position calculation unit 192. At this time, when there is a vehicle 181 in which the occupant can see the living area 172, the vehicle position determination unit 191 also supplies information on the position of the vehicle 181 to the light-shielding transmission position calculation unit 192.
  • the light-shielding transmission position calculation unit 192 acquires information on the position of the detected vehicle 181 together with the determination result indicating that the vehicle has been detected, the light-shielding wall that exists in a range where the occupant of the vehicle 181 can see the living area 172 Eleven panels 21 are controlled to be in a light shielding state, and light shielding transmission information for controlling the other panels 21 to be in a transmission state is generated and stored in the light shielding / transmission storage unit 54. That is, the road wall composed of the light shielding wall 11 is normally controlled in a transmissive state, and in that state, the vehicle 181 traveling on the road 171 passes through the road wall composed of the transmissive light shielding wall 11.
  • the interior of the dwelling unit in the living area 172 can be visually recognized. Therefore, in the case where a vehicle 181 on which a passenger who can visually recognize the residential area 172 is detected, the panel of the light shielding wall 11 in an area where the residential area 172 can be visually recognized by the passenger when the vehicle 181 passes. 21 is controlled to the light shielding state, and the other panels 21 are controlled to the transmissive state.
  • the panel 21 in a range where the passenger can see the residential area of the vehicle 181 passing through the road is controlled to be in a light-shielded state. It becomes possible to protect the privacy of the person. Further, when the vehicle 181 in which the occupant can see the living area 172 does not exist on the road 171, the entire panel 21 of the light shielding wall 11 as the road wall is controlled to be in a transmissive state. On the other hand, it is possible to realize a road wall that does not give an unnecessary feeling of pressure such that the scenery on the road 171 side cannot be seen.
  • step S101 the camera 12 provided along the road 171 images the road 171 as a depth image and supplies it to the image acquisition unit 51.
  • step S102 the image acquisition unit 51 supplies the depth image supplied from the camera 12 to the vehicle position determination unit 191.
  • step S103 the vehicle position determination unit 191 determines whether or not there is a vehicle 181 that travels on the road 171 from the depth image so that the occupant can see the living area 172.
  • the vehicle position determination unit 191 detects the vehicle 181 from the depth image captured by the camera 12, and when the vehicle 181 is detected, further identifies and specifies the passenger of the detected vehicle 181. The line of sight of the passenger is estimated, and the presence or absence of the vehicle 181 on which the passenger in a state where the living area 172 is visible is determined. Note that if the vehicle 181 is not detected, the vehicle position determination unit 191 considers that there is no vehicle 181 in which the occupant can see the living area 172.
  • step S103 when it is determined that there is a vehicle 181 in which the living area 172 is visible from the passenger, the process proceeds to step S104.
  • step S104 the vehicle position determination unit 191 obtains a position with respect to the road wall made of the light shielding wall 11 from the position in the depth image of the vehicle 181 in a state where the occupant can see the resident area 172. An area where the area 172 can be seen is obtained and stored in the light-shielding transmission position calculation unit 192.
  • step S105 the light-shielding transmission position calculation unit 192 sets any unprocessed area as a processing-handling area among predetermined areas set for each panel 21 in the light-shielding wall 11 constituting the road wall.
  • step S106 the light-shielding transmission position calculation unit 192 determines whether or not the position of the panel 21 in the processing target area is a position in the vicinity of the area of the living area 172 that can be seen by the passenger. If it is determined in step S105 that the position of the panel 21 in the processing target area is a position in the vicinity of an area where the occupant of the vehicle traveling on the road 171 can see the living area 172, the process proceeds to step S107.
  • step S107 the light-shielding transmission position calculation unit 192 stores the light-shielding transmission information in the light-shielding transmission storage unit 54 so as to control the panel 21 in the processing target region to the light shielding state.
  • the light-shielding transmission control unit 55 controls the panel 21 in the processing target region to be in a light-shielding state based on the light-shielding transmission information stored in the light-shielding transmission storage unit 54.
  • step S106 when it is determined in step S106 that the position of the panel 21 in the processing target area is not a position near the area where the occupant of the vehicle traveling on the road 171 can see the living area 172, the process proceeds to step S108. move on.
  • step S108 the light-shielding transmission position calculation unit 192 stores the light-shielding transmission information in the light-shielding transmission storage unit 54 as a control for controlling the panel 21 in the processing target region to the transmission state.
  • the light-shielding transmission control unit 55 controls the panel 21 in the processing target region to the transmission state based on the light-shielding transmission information stored in the light-shielding transmission storage unit 54.
  • step S109 the light-shielding transmission position calculation unit 192 determines whether or not there is an unprocessed area among the areas of the panel 21 in the light-shielding wall 11, and if there is an unprocessed area, the process proceeds to step S109. Return to S105. That is, steps S105 to S109 are repeated until there is no unprocessed area. If it is determined in step S109 that there is no unprocessed area, the process proceeds to step S110. If it is determined in step S103 that there is no vehicle 181 in which the occupant can see the living area 172, the processing in steps S104 to S109 is skipped.
  • step S110 the vehicle position determination unit 191 determines whether or not the end of the process is instructed. If the end of the process is not instructed, the process returns to step S101, and the subsequent processes are repeated. In step S110, when it is determined that the end is instructed, the process ends.
  • the vehicle 181 traveling on the road 171 is located on the opposite side of the road 171 across the road wall composed of the light shielding wall 11 from the passenger.
  • the vehicle 108 in which the residential area 172 can be seen is detected, and the panel 21 in the area where the residential area 172 can be seen by the passenger of the vehicle 181 in the light shielding wall 11 is controlled to be in a light-shielded state.
  • the transmission state is controlled.
  • the panel 21 in the region where the passenger can see the living area of the vehicle 181 passing through the road is controlled to be in the light shielding state by the above-described processing. It is possible to protect the privacy of residents. Further, when the vehicle 181 in which the occupant can see the living area 172 does not exist on the road 171, the entire panel 21 of the light shielding wall 11 as the road wall is controlled to be in a transmissive state. On the other hand, it is possible to realize a road wall that does not give an unnecessary feeling of pressure.
  • the light shielding wall 11 as a road wall is in a transparent state, so that the passenger of the vehicle 181 can travel openly. A sense can be obtained. Further, depending on the situation where the vehicle 181 passes through the road 171, for example, when a living area 172 exists along the road 171, when the vehicle 181 is traveling below the speed limit, the boarding of the vehicle 181 Since it is easy for a person to visually recognize the living area 172, the panel 21 of the light shielding wall 11 which is a road wall may be controlled to be in a light shielding state. By doing so, priority may be given to privacy protection. It becomes possible.
  • the panel 21 of the light shielding wall 11 may be controlled to be in a transmissive state, and in this way, a road wall having a sense of openness for both residents of the living area and passengers of the vehicle 181 can be formed. It can be realized.
  • ⁇ Example executed by software> By the way, the series of processes described above can be executed by hardware, but can also be executed by software.
  • a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.
  • FIG. 20 shows a configuration example of a general-purpose personal computer.
  • This personal computer incorporates a CPU (Central Processing Unit) 1001.
  • An input / output interface 1005 is connected to the CPU 1001 via a bus 1004.
  • a ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 are connected to the bus 1004.
  • the input / output interface 1005 includes an input unit 1006 including an input device such as a keyboard and a mouse for a user to input an operation command, an output unit 1007 for outputting a processing operation screen and an image of the processing result to a display device, programs, and various types.
  • a storage unit 1008 including a hard disk drive for storing data, a LAN (Local Area Network) adapter, and the like are connected to a communication unit 1009 that executes communication processing via a network represented by the Internet.
  • magnetic disks including flexible disks
  • optical disks including CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc)), magneto-optical disks (including MD (Mini Disc)), or semiconductors
  • a drive 1010 for reading / writing data from / to a removable medium 1011 such as a memory is connected.
  • the CPU 1001 is read from a program stored in the ROM 1002 or a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installed in the storage unit 1008, and loaded from the storage unit 1008 to the RAM 1003. Various processes are executed according to the program.
  • the RAM 1003 also appropriately stores data necessary for the CPU 1001 to execute various processes.
  • the CPU 1001 loads the program stored in the storage unit 1008 to the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the program, for example. Is performed.
  • the CPU 1001 in FIG. 20 is the control unit 13 in FIG. 5, for example, and after receiving the input of the depth image supplied from the camera 12 via the input unit 1006, A signal for controlling the light shielding wall 11 is output from the output unit 1007.
  • the program executed by the computer (CPU 1001) can be provided by being recorded on the removable medium 1011 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 1008 via the input / output interface 1005 by attaching the removable medium 1011 to the drive 1010. Further, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the storage unit 1008. In addition, the program can be installed in advance in the ROM 1002 or the storage unit 1008.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • the present disclosure can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is processed jointly.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • this indication can also take the following structures.
  • a light-shielding wall configured by partitioning the first space and the second space, and configured to have a plurality of regions that can be controlled to a light-transmissive state or a light-shielded light-shielded state;
  • the light transmission transmission information generation unit Based on information indicating a state in the vicinity of the light shielding wall, the light transmission transmission information generation unit that generates the light transmission state information for controlling the light transmission state or the light shielding state of each position of the plurality of regions, And a control unit that controls a transmission state or a light shielding state of a plurality of regions of the light shielding wall based on the light shielding transmission information generated by the light shielding transmission information generation unit.
  • the light shielding wall is a window that partitions the first space and the second space
  • Information indicating the state of the vicinity of the light shielding wall is information whether or not the user's eyes are present in the vicinity of the window made of the light shielding wall
  • the light-shielding transmission information generation unit is information indicating whether or not the user's eyes are present in the vicinity of the window made of the light-shielding wall, which is information indicating a state near the light-shielding wall.
  • the light-shielding transmission information generation unit is information indicating a state in the vicinity of the light-shielding wall, based on information on whether or not the user's eyes are present in the vicinity of the window made of the light-shielding wall.
  • the area in the light shielding wall corresponding to the position of the user's eyes is controlled to be in a transmissive state, and the other areas are controlled in the light shielding state.
  • the first space is a space where an observation object exists
  • the second space is an observation space where the observation object is observed
  • Information indicating the state of the vicinity of the light shielding wall further includes information on whether or not there is a light shielding wall in the field of view of the observation target
  • the light-shielding transmission information generation unit includes information on whether or not a light-shielding wall exists in the field of view of the observation target, and information on whether or not the user's eyes are present in the vicinity of the window made of the light-shielding wall. Based on this, the light-shielding transmission information which controls the said permeation
  • the shading transmission information generation unit When a light shielding wall exists in the field of view of the observation target, the transmission of each position of the plurality of regions is based on information on whether the user's eyes are present in the vicinity of the window made of the light shielding wall. Generating light-shielding transmission information for controlling the state or the light-shielding state;
  • the light-shielding device according to ⁇ 4>, wherein when there is no light-shielding wall in the field of view of the observation target, light-shielding transmission information that controls all of the plurality of regions to the transmission state is generated.
  • the light-shielding device including a case where the light-shielding wall does not exist in the field of view of the observation target, and the observation target is sufficiently separated from the light-shielding wall.
  • the light shielding wall is a floor that partitions the first space and the second space
  • Information indicating the state of the vicinity of the shading wall is information whether or not the user has stepped on the floor
  • the light-shielding transmission information generation unit is information indicating a state in the vicinity of the light-shielding wall, and is based on information on whether or not the user has stepped on the floor.
  • the light shielding device according to ⁇ 1>, wherein the light shielding transmission information for controlling the state or the light shielding state is generated.
  • the shading transmission information generation unit When the user steps on the floor, the area of the foot where the user steps on is controlled to the transmission state, and the light transmission transmission information for controlling the other area to the light blocking state is generated.
  • the light-shielding transmission information generating unit is When the user steps on the floor, the area at the position of the foot that the user has stepped on is controlled to the light-shielding state, and the other area is controlled to generate the light-shielding transmission information ⁇ 7 > The light-shielding device.
  • the light shielding wall is a window that partitions the first space and the second space,
  • a key control unit for controlling locking and unlocking of the window key Information indicating the state of the vicinity of the light shielding wall is information on the presence or absence of a suspicious person
  • the light-blocking transmission information generation unit is configured to determine the transmission state or the light-blocking state at each position of the plurality of regions based on information on the presence / absence of a suspicious person, which is information indicating a state near the light-shielding wall. Generate shading transmission information to control, The light-shielding device according to ⁇ 1>, wherein the key control unit controls locking or unlocking of the key of the window based on information on the presence / absence of the suspicious person.
  • the light-shielding transmission information generating unit When the suspicious person exists, The light-shielding transmission information generating unit generates the light-shielding transmission information for controlling the plurality of regions in the suspicious person's field of view to the light-shielding state and controlling other regions to the transmission state, The key control unit controls to lock the key of the window, If there is no suspicious person, The light-shielding transmission information generation unit generates light-shielding transmission information for controlling all regions to the transmission state, The light shielding device according to ⁇ 10>, wherein the key control unit performs control to unlock the key of the window.
  • the light shielding wall is a road wall that partitions a road and a residential area along the road
  • Information indicating the state of the vicinity of the light-shielding wall is information on whether or not the vehicle from which the living area can be seen through the light-shielding wall in a transmissive state is traveling on the road.
  • the light-shielding transmission information generation unit is information indicating a state in the vicinity of the light-shielding wall, and whether or not a vehicle from which the living area can be seen through the light-shielding wall in a transparent state is traveling on the road.
  • the light-shielding device wherein the light-transmitting transmission information for controlling the transmission state or the light-shielding state at each position of the plurality of regions is generated based on the information.
  • the light-shielding transmission information generation unit is information indicating a state in the vicinity of the light-shielding wall. A vehicle from which the living area can be seen through the light-shielding wall in a transmissive state travels on the road. On the basis of the information on whether or not there is a vehicle in which the living area can be seen through the light-shielding wall in a transparent state from the passenger, the vehicle is traveling on the road.
  • a light shielding method including a step of controlling a transmission state or a light shielding state of a plurality of regions of the light shielding wall based on the generated light shielding transmission information.
  • a light-shielding wall configured by partitioning the first space and the second space and including a plurality of regions that can be controlled to a light-transmissive state or a light-shielded light-shielded state; Based on information indicating a state in the vicinity of the light shielding wall, the light transmission transmission information generation unit that generates the light transmission state information for controlling the light transmission state or the light shielding state of each position of the plurality of regions, A program that causes a computer to function as a control unit that controls a transmission state or a light shielding state of a plurality of regions of the light shielding wall based on the light shielding transmission information generated by the light shielding transmission information generation unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Structural Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Civil Engineering (AREA)
  • Architecture (AREA)
  • Nonlinear Science (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Liquid Crystal (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Optics & Photonics (AREA)

Abstract

本技術は、遮光壁の周辺の状態に応じて、人に見えないようにすべきものを目で見えないように隠した状態にする、または、見せたいものは目で見える状態にすることができるようにする遮光装置および遮光方法、並びにプログラムに関する。 2つの空間を仕切り、光を透過する透過状態、または遮光する遮光状態に制御可能な複数のパネルから構成される遮光壁を窓として使用し、遮光壁の近傍にユーザの目の位置を検出し、ユーザの目の位置が遮光壁の近傍に存在する場合、ユーザの目の位置に対応する遮光壁のパネルを透過状態に制御し、それ以外のパネルを遮光状態に制御する。本開示は、遮光壁に適用することができる。

Description

遮光装置および遮光方法、並びにプログラム
 本技術は、遮光装置および遮光方法、並びにプログラムに関し、特に、遮光壁付近の状態に応じて、隠すべきものを目で見えないように隠す、もしくは見え難い状態とする、または、見えるようにするべきものを目に入り易い状態にするようにした遮光装置および遮光方法、並びにプログラムに関する。
 人に見えない状態にすべきものは隠しつつ、見せたいものは見せられるようにする遮光装置が提案されている(特許文献1参照)。
国際公開2014/010498号
 しかしながら、上述の特許文献1に記載の遮光装置においては、遮光壁付近の状態に応じて、人に見えないようにすべきものを目で見えないように隠した状態にする、または、見せたいものは目で見える状態にするものではない。
 本開示は、このような状況に鑑みてなされたものであり、特に、遮光壁付近の状態に応じて、隠すべきものを目で見えないように隠す、もしくは目で見え難い状態とする、または、見えるようにするべきものを目に入り易い状態にするものである。
 本開示の一側面の遮光装置は、第1の空間と、第2の空間とを仕切り、光を透過する透過状態、または遮光する遮光状態に制御可能な複数の領域から構成される遮光壁と、前記遮光壁の付近の状態を示す情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する遮光透過情報生成部と、前記遮光透過情報生成部により生成された前記遮光透過情報に基づいて、前記遮光壁の複数の領域の透過状態、または遮光状態を制御する制御部とを含む遮光装置である。
 前記遮光壁は第1の空間と、第2の空間とを仕切る窓とすることができ、前記遮光壁の付近の状態を示す情報は、ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報とすることができ、前記遮光透過情報生成部には、前記遮光壁の付近の状態を示す情報である、前記ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成させるようにすることができる。
 前記遮光透過情報生成部には、前記遮光壁の付近の状態を示す情報である、前記ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報に基づいて、前記ユーザの目の位置が前記遮光壁からなる窓の近傍に存在する場合、前記ユーザの目の位置に対応する、前記遮光壁における領域を透過状態に制御し、それ以外の前記領域を前記遮光状態に制御し、前記ユーザの目の位置が前記遮光壁からなる窓の近傍に存在しない場合、前記遮光壁の全領域を遮光状態に制御する遮光透過情報を生成させるようにすることができる。
 前記第1の空間は、観察対象が存在する空間とすることができ、第2の空間は、前記観察対象を観察する観察空間とすることができ、前記遮光壁の付近の状態を示す情報は、さらに、前記観察対象の視野内に遮光壁が存在するか否かの情報を含ませるようにすることができ、前記遮光透過情報生成部には、前記観察対象の視野内に遮光壁が存在するか否かの情報、および、前記ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成させるようにすることができる。
 前記遮光透過情報生成部には、前記観察対象の視野内に遮光壁が存在する場合、前記ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成させ、前記観察対象の視野内に遮光壁が存在しない場合、前記複数の領域の全てを、前記透過状態に制御する遮光透過情報を生成させるようにすることができる。
 前記観察対象の視野内に遮光壁が存在しない場合には、前記観察対象が十分に前記遮光壁から離れている場合を含ませるようにすることができる。
 前記遮光壁は第1の空間と、第2の空間とを仕切る床であり、前記遮光壁の付近の状態を示す情報は、ユーザが前記床に足を踏み入れたか否かの情報とすることができ、前記遮光透過情報生成部には、前記遮光壁の付近の状態を示す情報である、前記ユーザが前記床に足を踏み入れたか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成させるようにすることができる。
 前記遮光透過情報生成部には、前記ユーザが前記床に足を踏み入れた場合、前記ユーザが踏み入れた足の位置の前記領域を前記透過状態に制御し、それ以外の領域を前記遮光状態に制御する遮光透過情報を生成させるようにさせることができる。
 前記遮光透過情報生成部には、前記ユーザが前記床に足を踏み入れた場合、前記ユーザが踏み入れた足の位置の前記領域を前記遮光状態に制御し、それ以外の領域を前記透過状態に制御する遮光透過情報を生成させるようにすることができる。
 前記遮光壁は第1の空間と、第2の空間とを仕切る窓であり、前記窓の鍵の施錠および解錠を制御する鍵制御部をさらに含ませるようにすることができ、前記遮光壁の付近の状態を示す情報は、不審者の有無の情報とすることができ、前記遮光透過情報生成部には、前記遮光壁の付近の状態を示す情報である、前記不審者の有無の情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成させ、前記鍵制御部には、前記不審者の有無の情報に基づいて、前記窓の鍵の施錠または解錠を制御させるようにすることができる。
 前記不審者が存在する場合、前記遮光透過情報生成部には、前記不審者の視野内の前記複数の領域を前記遮光状態に制御し、それ以外の領域を、前記透過状態に制御する遮光透過情報を生成させ、前記鍵制御部には、前記窓の鍵を施錠するように制御し、前記不審者が存在しない場合、前記遮光透過情報生成部は、全ての領域を、前記透過状態に制御する遮光透過情報を生成させ、前記鍵制御部には、前記窓の鍵を解錠するように制御させるようにすることができる。
 前記遮光壁は道路と、前記道路沿いの居住エリアとを仕切る道路壁とすることができ、前記遮光壁の付近の状態を示す情報は、搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行しているか否かの情報とすることができ、前記遮光透過情報生成部には、前記遮光壁の付近の状態を示す情報である、前記搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行しているか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成させるようにすることができる。
 前記遮光透過情報生成部には、前記遮光壁の付近の状態を示す情報である、前記搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行しているか否かの情報に基づいて、前記搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行している場合、前記搭乗者から居住エリアが見える前記遮光壁における領域を遮光状態に制御し、それ以外の前記領域を前記透過状態に制御し、前記搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行していない場合、前記遮光壁の全領域を透過状態に制御する遮光透過情報を生成させるようにすることができる。
 本開示の一側面の遮光装置の遮光方法は、第1の空間と、第2の空間とを仕切り、光を透過する透過状態、または遮光する遮光状態に制御可能な複数の領域から構成される遮光壁を有する遮光装置の遮光方法において、前記遮光壁の付近の状態を示す情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成し、生成された前記遮光透過情報に基づいて、前記遮光壁の複数の領域の透過状態、または遮光状態を制御するステップを含む遮光方法である。
 本開示の一側面のプログラムは、第1の空間と、第2の空間とを仕切り、光を透過する透過状態、または遮光する遮光状態に制御可能な複数の領域から構成される遮光壁と、前記遮光壁の付近の状態を示す情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する遮光透過情報生成部と、前記遮光透過情報生成部により生成された前記遮光透過情報に基づいて、前記遮光壁の複数の領域の透過状態、または遮光状態を制御する制御部としてコンピュータを機能させるプログラムである。
 本開示の一側面においては、光を透過する透過状態、または遮光する遮光状態に制御可能な複数の領域から構成される遮光壁により、第1の空間と、第2の空間とが仕切られ、前記遮光壁の付近の状態を示す情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報が生成され、生成された前記遮光透過情報に基づいて、前記遮光壁の複数の領域の透過状態、または遮光状態が制御される。
 本開示の一側面によれば、遮光壁付近の状態に応じて、隠すべきものを目で見えないように隠す、もしくは目で見え難い状態とする、または、見えるようにするべきものを目に入り易い状態にすることが可能となる。
本開示の遮光装置の概要を説明する図である。 図1の遮光装置の遮光壁を説明する図である。 図1の遮光装置の遮光壁を説明する図である。 本開示の遮光装置の第1の実施の形態の構成例を示す図である。 図4の遮光装置を実現する機能を説明するブロック図である。 図5の遮光装置による一部透過処理を説明するフローチャートである。 本開示の遮光装置の第2の実施の形態の構成例を示す図である。 図7の遮光装置を実現する機能を説明するブロック図である。 図8の遮光装置による動物観察処理を説明するフローチャートである。 本開示の遮光装置の第3の実施の形態の構成例を示す図である。 図10の遮光装置を実現する機能を説明するブロック図である。 図11の遮光装置による床一部透過処理を説明するフローチャートである。 本開示の遮光装置の第4の実施の形態の構成例を示す図である。 図13の遮光装置を実現する機能を説明するブロック図である。 図14の遮光装置による防犯処理を説明するフローチャートである。 本開示の遮光装置の第5の実施の形態を説明する図である。 図16の遮光装置の動作を説明する図である。 図16,図17の遮光装置の構成例を示す図である。 図18の遮光装置による道路壁目隠し処理を説明するフローチャートである。 汎用のパーソナルコンピュータの構成例を説明する図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 以下、発明を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
 1.本開示の遮光装置の概要
 2.第1の実施の形態(遮光壁を覗き窓として使用する場合の一例)
 3.第2の実施の形態(遮光壁を飼育室と観察空間との境界として使用する際、その覗き窓として用いる場合の一例)
 4.第3の実施の形態(遮光壁を塔などの展望室の床に使用する場合の一例)
 5.第4の実施の形態(遮光壁を防犯用の窓として使用する場合の一例)
 6.第5の実施の形態(遮光壁を道路壁として使用する場合の一例)
 <<1.本開示の遮光装置の概要>>
 本開示の遮光装置は、遮光壁付近の状態に応じて、隠すべきものを目で見えないように隠す、もしくは目で見え難い状態とする、または、見えるようにするべきものを目に入り易い状態にするものである。
 より具体的には、本開示の遮光装置は、図1で示されるように、図中左側の第1の空間と、図中右側の第2の空間とを仕切り、遮光状態、透過状態、または、様々な透過率に変更した状態に制御可能な複数のパネル21からなる遮光壁11により構成される。尚、遮光装置の概要を説明する上では、説明を簡略化するため、パネル21は、遮光状態、または透過状態の2状態のいずれかに切り替えられるものとして説明するものとするが、当然のことながら、パネル21は、さらに、様々な透過率に変更した状態に制御することも可能である。なお、遮光状態とは、入射する光を一部でも遮光する状態であり、透過状態とは、入射する光を一部でも透過させる状態であり、遮光状態は、少なくとも透過状態と比較して、入射する光の透過率が低い状態であればよい。したがって、例えば、遮光状態におけるパネル21の透過率は少なくとも透過状態におけるパネル状態の透過率よりも低いものであればよく、遮光状態の透過率は0%以外に10%や30%であってもよく、透過状態の透過率は100%以外に90%や70%であってよい。
 遮光壁11は、例えば、第2の空間に存在する人物H1,H2の視点から、第1の空間内に存在する物体B1を直視できる領域のパネル21のみを遮光状態に制御し、それ以外の領域のパネル21を透過状態に制御する。すなわち、図1の遮光装置は、見せたくないものを見せないようにするものである。
 より詳細には、図1の遮光装置は、遮光壁11、カメラ12-1,12-2、および制御部13より構成されている。遮光壁11は、図中の左部で示される第1の空間と、図中の右部で示される第2の空間とを仕切っている。図1で示されるように、第1の空間内には、第2の空間内に存在する人物H1,H2に対して見せたくない(見えない状態に隠しておきたい)物体B1が存在する。一方、第2の空間内は、人物(例えば、人物H1,H2など)が自由に移動できる空間となっている。
 遮光壁11は、例えば、図2で示されるように、複数のパネル21で構成されている。パネル21は、例えば、10cm×10cm程度の大きさの液晶パネルであり、制御部13により遮光状態または透過状態に制御される。ただし、透過状態は、様々な透過率に制御される状態を含む。尚、パネル21の大きさは、10cm×10cm程度の大きさに限るものではなく、この大きさよりも小さくても大きくても良いものである。また、図2において、パネル21は、方形状のものである例が示されているが、方形状でなくても、その他の形状であっても良く、三角形を含む多角形、円形、または、その他の幾何学図形でもよい。また、パネル21は、遮光状態、または様々な透過率に制御可能な透過状態のいずれかに制御できれば、液晶パネル以外の構成でもよい。さらに、1枚のパネル21は、さらに細かい領域に区切って、領域毎に別々の透過率に制御しても良く、換言すれば、遮光状態、または透過状態を制御する最小単位については、パネル21でも、さらに、細かく区切られた領域であっても良く、パネル単位であるとしてもよいし、領域単位であってもよいものである。ただし、本開示の実施例においては、特に断りがない限り、パネル21を制御単位として説明を進めるものとする。
 尚、図2では、パネル21は、遮光状態である場合、パネル21を人物が肉眼で目視しても、パネル21の反対側に存在する物体を認識する(見る)ことはできない状態とされるものとする。また、パネル21は、透過状態である場合、パネル21を人物が肉眼で目視すると、パネル21の反対側に存在する物体を認識する(見る)ことができる状態とされるものとする。尚、図2においては、透過状態のパネル21については、「パネル21」と表記されており、遮光状態のパネル21については、「パネル21’」と表記されている。
 より具体的には、例えば、遮光壁11を手前側に置き、遮光壁11の奥手側に会議室が存在するような場合、パネル21は、遮光状態に制御されると、図3右部の点線で囲まれる領域W1内で示されるように、会議室の中が見えない状態(視認できない状態)となる。また、領域W1以外の領域で示されるように、パネル21が透過状態に制御されると、会議室の中が見える状態(視認できる状態)となる。
 カメラ12-1,12-2は、それぞれ上述した第1の空間、および第2の空間を撮像し、撮像した画像を制御部13に供給する。尚、以降において、カメラ12-1,12-2のそれぞれについて、特に区別する必要がない場合、単にカメラ12と称するものとし、その他の構成についても同様の称するものとする。より詳細には、カメラ12-1,12-2は、それぞれ光学ブロック12a-1,12a-2、イメージセンサ12b-1,12b-2、および信号処理部12c-1,12c-2を備えている。光学ブロック12aは、少なくとも1枚以上のレンズより構成され、入射する光を集光し、イメージセンサ12bにおいて合焦させる。イメージセンサ12bは、アレイ状に配置された画素単位で、光学ブロックを介して入射する合焦された光を光量に応じた信号に変換し、信号処理部12cに出力する。信号処理部12cは、各画素より供給されてくる信号に対して、所定の信号処理を加えることで、画素信号からなる画像を生成し、生成した画像を制御部13に出力する。ここで、カメラ12-1,12-2は、それぞれ画像を撮像すると共に、各画素について撮像された被写体の画像内の空間における、カメラ12-1,12-2からの距離のデータを含む画像を撮像する。すなわち、カメラ12-1,12-2は、いわゆるデプスカメラ(Depth Camera)と呼ばれるカメラの機能を備えている。このため、カメラ12-1,12-2により撮像された画像は、通常の画像に加えて、画素単位でカメラ12-1,12-2から被写体までの距離の情報を含んでいる。尚、以降において、この画素単位の距離の情報からなる画像については、距離画像と称するものとする。従って、カメラ12-1,12-2は、通常の画像を撮像するとともに、距離画像を生成し、制御部13に供給する。
 制御部13は、1又は複数のCPU(Central Processing Unit)等の制御回路を含んで構成され、カメラ12-1,12-2よりそれぞれ供給されてくる、第1の空間、および第2の空間の画像を取得する。制御部13は、第1の空間の画像と、カメラ12-1との設置位置および方向の情報とに基づいて、物体B1の第1の空間内における位置を認識する。また、制御部13は、第2の空間の画像と、カメラ12-2との設置位置および方向の情報とに基づいて、物体B1を見せたくない人物H1,H2の目の位置E1,E2を特定する。さらに、制御部13は、物体B1を見せたくない人物H1,H2の目の位置E1,E2から物体B1を目視するときの視線の経路とも言える、物体B1を見せたくない人物H1,H2の目の位置E1,E2から物体B1の光路L1,L2を求める。
 さらに、制御部13は、遮光壁11上のパネル21のうち、光路L1,L2との交点を含むパネル21を遮光状態に制御し、その他のパネル21を透過状態に制御する。このように制御することで、第2の空間に存在する人物H1,H2に対しては、第1の空間に存在するB1を見せない状態を維持しつつ、第2の空間を明るく、開放感のある空間として維持することが可能となる。すなわち、透過状態とは、例えば、図3の左部で示されるように遮光壁11越しに、その向こう側にある部屋を見ることができる状態となる。一方、遮光状態とは、図3の左部の領域W1で示されるように、その向こう側の部屋の中を見ることができない状態である。
 尚、図1では、光路は、人物H1,H2の目の位置E1,E2を視点としたときの視線を表現するものとするが、光路は、遮光壁11に対して透過、または遮光される光の経路を示すものであればよい。従って、光路は、必ずしも視線を示すものでなくともよく、例えば、太陽を光源とする日差しの経路を示すものも光路と称する。そこで、以降の説明においては、遮光壁11の各パネル21が透過状態に制御されたときの、遮光壁11を透過する光の経路については全て光路と称するものとする。
 また、物体B1の空間内の位置が予め認識できている状態であれば、カメラ12-1は、特に必要なく、カメラ12-2のみで構成するようにしてもよい。また、太陽を光源とする日差しの場合、地球上では、ほぼ平行光とみなすことができ、方位と遮光壁11の方向とを認識できれば、光路を求めることができるので、この場合でもカメラ12-2のみの構成とするようにしてもよい。
 さらに、以上においては、所定のユーザに対して遮光壁11を通して、見せたくないものが見える光路上のパネル21を遮光状態とし、それ以外のパネル21を透過状態とする例について説明してきたが、逆に、遮光壁11を通して、所定のユーザには見せてもいいが、所定のユーザ以外のユーザに対して見せたくない物体がある場合、所定のユーザから物体までの光路上のパネル21のみを透過状態とし、それ以外のパネル21を遮光状態とするようにしてもよい。
 <<2.第1の実施の形態>>
 <遮光壁に接近したユーザにのみ遮光壁外を視認できるようにした遮光装置の例>
 上述した遮光壁11は、パネル21を透過状態にすると窓ガラスのように使用することができ、遮光状態にすることで、ブラインドとして機能させることもできるものである。そこで、本開示の技術を適用した遮光装置の第1の実施の形態は、上述した遮光壁11を窓として利用する例について説明する。
 図4は、遮光壁11を窓ガラスとして利用し、窓としての遮光壁11と、遮光壁11付近におけるユーザの特定の部位との位置関係に対応した状態に応じて、遮光壁11における所定の範囲のパネル21を透過状態にし、それ以外の範囲のパネル21を遮光状態に制御する遮光装置の構成例を示している。
 尚、図4の遮光装置は、遮光壁11の各パネル21を透過状態に設定することで窓として利用できるほか、遮光状態、または透過状態であっても、透過率を変更させることで、ブラインドとして機能させることもできる。
 より詳細には、図4の遮光装置におけるカメラ12は、ユーザH11の存在する室内を撮像して、撮像した画像を制御部13に供給する。制御部13は、撮像された画像に基づいて、ユーザH11の特定の部位として目の位置を推定する。
 そして、制御部13は、遮光壁11からなる窓に対して、図4の右部で示されるように、特定の部位である目の位置が、遮光壁11の付近に存在する場合、(遮光壁11に接近している場合)、特定の部位である目の位置に対応する遮光壁11の領域E11のパネル21を透過状態に制御する。
 このような処理により、例えば、図4の左部で示されるように、ブラインドを遮光状態にして使用する場合に、外側を覗き見るために、指などでブラインドのスラット(ブラインドのはね)を折り曲げて、空間を作り、その空間から外側を覗き見るような動作をする必要がなくなる。
 <図4の遮光装置を実現させる構成例>
 次に、図5のブロック図を参照して、図4の遮光装置を実現させるための詳細な構成について説明する。尚、窓を構成する遮光壁11、およびカメラ12については、図1乃至図3を参照して説明した機能と同一であるので、その説明は適宜省略するものとする。
 制御部13は、画像取得部51、取得画像判定部52、遮光透過位置算出部53、遮光透過記憶部54、および遮光透過制御部55を備えている。
 画像取得部51は、遮光壁11が窓として設けられている部屋のユーザの存在する室内がカメラ12により撮像されたデプス画像を取得し、取得画像判定部52に供給する。
 取得画像判定部52は、画像取得部51より供給されてくるデプス画像を解析し、デプス画像内のユーザの有無を検出するとともに、ユーザが存在する場合、ユーザの目の位置を推定し、さらに、推定した目の位置が、遮光壁11に対して、所定の距離よりも近い場合(遮光壁11付近に存在する場合)、推定した目の位置の情報を遮光透過位置算出部53に供給する。
 遮光透過位置算出部53は、取得画像判定部52より供給されてくる目の位置の情報に基づいて、対応する遮光壁11内のパネル21の位置を特定し、特定したパネル21を透過状態に制御するとともに、それ以外のパネル21を遮光状態に制御するように遮光透過情報を生成して、遮光透過記憶部54に記憶させる。
 遮光透過情報は、各パネル21が遮光状態または透過状態のいずれに設定されて登録され、さらに、透過状態のときの透過率の設定が登録された情報である。したがって、遮光透過情報の、各パネル21が遮光状態または透過状態のいずれに設定されるかについての情報と、透過状態に設定されたパネル21の透過率が、遮光透過位置算出部53により設定される。尚、ここでは、透過状態に制御される場合の透過率は、1であるものとして説明するものとするが、それ以外の透過率が設定されるようにしてもよい。また、各パネル21をより細かい領域に分割して遮光状態または透過状態のいずれかの制御するようにしてもよいものであり、この場合、遮光透過情報は、各領域が遮光状態または透過状態のいずれに設定されるかを示す情報となる。また、遮光透過情報に登録される情報は、遮光状態または透過状態のいずれに設定されるかを示す情報に対応する、透過率、又は遮光率を示す情報であっても良く、例えば、透過率=1-遮光率として定義するようにしてもよい。
 遮光透過制御部55は、遮光透過記憶部54に記憶されている遮光壁11における各パネル21の透過状態または遮光状態の情報、および透過するパネル21のそれぞれの透過率の情報が登録されている遮光透過情報に応じて、遮光壁11の各パネル21の遮光状態、および透過率を考慮した透過状態を制御する。
 <図5の遮光装置による一部透過処理>
 次に、図6のフローチャートを参照して、図5の遮光装置の制御部13における一部透過処理について説明する。
 ステップS11において、カメラ12は、遮光壁11からなる窓の室内側を、デプス画像として撮像し、画像取得部51に供給する。
 ステップS12において、画像取得部51は、カメラ12より供給されてくるデプス画像を取得画像判定部52に供給する。
 ステップS13において、取得画像判定部52は、デプス画像よりユーザの特定の部位としてユーザの目を検出し、その空間内の位置を特定し、遮光壁11に対して所定の距離よりも近い位置であるか否かにより、遮光壁11の付近(近傍)にユーザの目が存在するか否かを判定し、判定結果を遮光透過位置算出部53に供給する。
 より詳細には、取得画像判定部52は、デプス画像に対して顔画像の検出処理を施し、顔画像を検出する。また、取得画像判定部52は、検出された顔画像より、目の器官抽出を行う。さらに、取得画像判定部52は、抽出された器官である目の、デプス画像内の距離の情報に基づいて、遮光壁11からなる窓の室内側の空間内の位置を算出し、ユーザの目の位置を特定し、遮光壁11より所定の距離内であるか否かに基づいて、ユーザの目が遮光壁11の近傍に存在するか否かを判定する。尚、カメラ12により撮像した画像内に顔画像がなく、例えば、後頭部などのみしか撮像できていない場合、取得画像判定部52は、後頭部の画像を顔画像の代わりに抽出し、後頭部の画像の位置から目の位置を推定するようにしてもよい。また、動画像などを撮像している場合、取得画像判定部52は、顔画像が撮像されているシーンの画像から顔画像を検出し、検出した目の位置を連続的にトラッキングし、顔画像が見えない、例えば、後頭部のみが映し出されているシーンにおいても、目の位置を推定するようにしてもよい。
 ステップS13において、例えば、ユーザの目が、遮光壁11より所定の距離より近いとみなされた場合、取得画像判定部52は、判定結果と共に、ユーザの目の位置の情報を遮光透過位置算出部53に供給し、処理は、ステップS14に進む。
 ステップS14において、遮光透過位置算出部53は、ユーザの特定の部位であるユーザの目の空間内の位置の情報を記憶する。
 ステップS15において、遮光透過位置算出部53は、遮光壁11内のパネル21単位で設定される所定の領域のうち、いずれか未処理の領域を処理対処領域に設定する。
 ステップS16において、遮光透過位置算出部53は、処理対象領域におけるパネル21の位置が、ユーザの特定の部位であるユーザの目の空間内の位置の付近であるか否かを判定する。ステップS16において、処理対象領域におけるパネル21の位置が、ユーザの特定の部位であるユーザの目の空間内の位置の付近であるとみなされた場合、処理は、ステップS17に進む。
 ステップS17において、遮光透過位置算出部53は、処理対象領域におけるパネル21を透過状態に制御するものとして、遮光透過情報を遮光透過記憶部54に記憶させる。この処理に応じて、遮光透過制御部55は、遮光透過記憶部54に記憶された遮光透過情報に基づいて、処理対象領域におけるパネル21を透過状態に制御する。
 一方、ステップS16において、処理対象領域におけるパネル21の位置が、ユーザの特定の部位であるユーザの目の空間内の位置の付近ではないとみなされた場合、処理は、ステップS18に進む。
 ステップS18において、遮光透過位置算出部53は、処理対象領域におけるパネル21を遮光状態に制御するものとして、遮光透過情報を遮光透過記憶部54に記憶させる。この処理に応じて、遮光透過制御部55は、遮光透過記憶部54に記憶された遮光透過情報に基づいて、処理対象領域におけるパネル21を遮光状態に制御する。
 ステップS19において、遮光透過位置算出部53は、遮光壁11におけるパネル21単位の領域のうち、未処理の領域があるか否かを判定し、未処理の領域が存在する場合、処理は、ステップS15に戻る。すなわち、未処理の領域がなくなるまで、ステップS15乃至S19の処理が繰り返される。そして、ステップS19において、未処理の領域がないと判定された場合、処理は、ステップS20に進む。尚、ステップS13において、ユーザの目が、遮光壁11より所定の距離より近くないとみなされた場合、ステップS14乃至S19の処理がスキップされる。
 ステップS20において、取得画像判定部52は、処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS11に戻り、それ以降の処理が繰り返される。そして、ステップS20において、終了が指示されたとみなされた場合、処理は、終了する。
 すなわち、以上の処理により、図4の右部で示されるように、ユーザが目を遮光壁11からなる窓に接近させると、接近した目に対応する位置のパネル21が透過状態に制御され、それ以外のパネル21が遮光状態とされ、それ以外の状態においては、パネル21の全体が遮光状態に制御される。
 このため、ユーザが目を近づけるまでは全てのパネル21が遮光状態に制御されるので、遮光壁11からなる窓のユーザが存在する室内側の様子は、室外から見えない状態となるので、ユーザの存在する室内のプライバシを保持することが可能となる。また、このようにプライバシが保持された状態を維持しつつ、室内のユーザが遮光壁11からなる窓の外側を見たい時には、目を接近させるだけで、目の付近のパネル21のみが透過状態に制御されるので、室外の様子を覗き見ることが可能となる。
 尚、以上においては、カメラ12により撮像されたデプス画像を用いて、ユーザの目の位置を特定する例について説明してきたが、2次元の画像を用いて目の位置を特定するようにしてもよい。また、カメラ12により撮像される画像に顔や目が映っていない場合であっても、動画などで連続的に撮像する画像を用いることで、目が映った画像から目の移動をトラッキングすることで、顔や目が映っていない画像における目の位置を推定するようにしてもよい。
 さらに、遮光壁11からなる窓に接近する目の位置については、カメラ12により撮像されたデプス画像や通常の2次元画像から以外により検出するようにしてもよく、例えば、目の位置を、遮光壁11に接近するまでの段階で特定し、所定距離内であるか否かについては、例えば、赤外線センサなどを用いるようにしてもよい。
 また、以上においては、ユーザが室内に存在する例について説明してきたが、ユーザが室外に存在し、遮光壁11を室外から覗き込むときに、目の位置に対応する領域のパネル21を透過状態に制御し、それ以外のパネル21を遮光状態に制御するようにして、室外から室内を覗き見られるようにしてもよい。ただし、この場合、カメラ12は、室外を撮像するように構成する必要がある。
 <<3.第2の実施の形態>>
 以上においては、窓として遮光壁11を適用し、遮光壁11からなる窓の周辺の状態に基づいて、ユーザの目が遮光壁11の付近であって、所定の距離内に接近したとき、目の位置に対応する領域のパネル21を透過状態に制御し、それ以外の領域のパネル21を遮光状態に制御する例について説明してきた。ただし、この例においては、遮光壁11が、全体として遮光状態に制御されていることが前提とされるので、遮光壁11からなる窓の外側の状態を見ることができる状態になっていない。
 このため、この遮光壁11からなる窓を、例えば、動物園における観察対象となる動物の飼育室と動物園の来園者の観察用の空間(以下、観察空間とも称する)との境界に用いるようなことを考える場合、遮光壁11からなる窓が常に遮光状態とされてしまい、飼育室内の動物を見るには、来園者が遮光壁11からなる窓に接近して、目を近づける必要がある。このようにすると、多くの来園者が同時に動物を観察することが難しくなってしまう。
 そこで、飼育室と観察空間との境界を遮光壁11からなる窓を用いて構成する場合、図7の遮光装置で示されるように、飼育室と観察空間とのそれぞれを撮像するカメラ12-1,12-2を設ける。そして、図7の左部の飼育室内の動物A1で示されるように、動物A1が遮光壁11に対して背を向けて、遮光壁11を見ることができない場合、制御部13は、遮光壁11の全体を透過状態に制御する。一方、図7の右部の飼育室内の動物A2で示されるように、動物A2が遮光壁11に対向している場合、制御部13は、遮光壁11を上述した一部透過処理とするようにしてもよい。
 このような構成により、動物園における飼育室で、例えば、人を怖がる動物などが飼育されているような場合でも、動物が遮光壁11からなる窓の方を見ているような場合には、遮光状態に制御されるので、飼育されている動物は来園者の目を意識する必要がない状態とすることが可能となる。また、来園者は、遮光壁11に接近して目を近づければ、目の付近のパネル21のみが透過状態に制御されるので、動物を驚かせずに観察することが可能となる。また、動物が遮光壁11からなる窓を見ていないような場合には、遮光壁11の全体のパネル21を透過状態に制御することで、多くの来園者が同時に飼育室内の動物を観察することができる。いずれにおいても、動物と遮光壁11との状態に基づいて、遮光壁11のパネル21を遮光状態、または透過状態に制御することが可能となるので、動物を驚かせることなく、状態に応じて、多くの来園者が同時に動物を観察することが可能となる。
 <図7の遮光装置を実現させる構成例>
 次に、図8のブロック図を参照して、図7の遮光装置を実現させるための詳細な構成について説明する。尚、窓を構成する遮光壁11、およびカメラ12については、図1乃至図3を参照して説明した機能と同一であるので、その説明は適宜省略するものとする。また、図8の構成において、図5の構成と同一の機能を備えた構成については、同一の符号、および、同一の名称を付しており、その説明は適宜省略するものとする。
 すなわち、図8の遮光装置において、図5の遮光装置と異なる点は、カメラ12が、カメラ12-1,12-2とされ、それぞれに画像取得部51-1,51-2が設けられ、さらに、取得画像判定部52、および遮光透過位置算出部53に代えて、取得画像判定部71、および遮光透過位置算出部72が設けられた点である。
 カメラ12-1,12-2、および、画像取得部51-1,51-2は、カメラ12、および画像取得部51と同一であるが、カメラ12-1は、観察空間を撮像し、カメラ12-2は、飼育室内を撮像する。
 また、取得画像判定部71は、取得画像判定部52と基本的には同様の処理を実行するが、さらに、飼育室内の動物の状態を判定し、判定結果を遮光透過位置算出部72する。すなわち、取得画像判定部71は、画像取得部51-2より供給されてくる、カメラ12-2により撮像された、飼育室内の画像に基づいて、飼育室内の動物の視野内に、遮光壁11が存在する状態(遮光壁11からなる窓を通して来園者が見える状態)であるか否かを判定し、判定結果を遮光透過位置算出部72に供給する。
 遮光透過位置算出部72は、基本的には、遮光透過位置算出部53と同様の処理を実行するが、飼育室内における動物の視野内に、遮光壁11が含まれた状態(遮光壁11からなる窓を通して来園者が見える状態)であるか否かの判定結果に応じた処理を実行する。
 すなわち、遮光透過位置算出部72は、カメラ12-2により撮像された、飼育室内の画像に基づいて、飼育室内の動物の視野内に、遮光壁11が含まれた状態である場合(遮光壁11からなる窓を通して来園者が見えてしまう状態であるとの判定結果が供給されてくる場合)、カメラ12-1により撮像された画像が、画像取得部51-1より供給されてくるとき、取得画像判定部71は、上述した一部透過処理と同様の処理を実行する。
 また、遮光透過位置算出部72は、カメラ12-2により撮像された、飼育室内の画像に基づいて、飼育室内の動物の視野内に、遮光壁11からなる窓を通して来園者が含まれない状態であるとの判定結果が供給されてくると、遮光壁11の全てのパネル21を透過状態に制御する。
 <図8の遮光装置による一部透過処理>
 次に、図9のフローチャートを参照して、図8の遮光装置の制御部13における観察処理について説明する。ここでは一例として動物を観察対象とする場合を説明するが、観察対象は生物、カメラを搭載した無生物などでも良い。
 ステップS31において、カメラ12-2は、遮光壁11からなる窓の飼育室側を、デプス画像として撮像し、画像取得部51-2に供給する。
 ステップS32において、画像取得部51-2は、カメラ12-2より供給されてくるデプス画像を取得画像判定部71に供給する。
 ステップS33において、取得画像判定部71は、飼育室内のデプス画像より動物の特定の部位として顔を検出し、その飼育室内の位置を特定し、遮光壁11が動物の視野内に存在するか否かを判定し、判定結果を遮光透過位置算出部72に供給する。
 より詳細には、取得画像判定部71は、デプス画像に対して動物の顔画像の検出処理を実施し、動物の顔画像を検出する。また、取得画像判定部71は、検出された顔画像より、目の器官抽出を行う。さらに、取得画像判定部71は、抽出された器官である目の、デプス画像内の距離の情報に基づいて、遮光壁11からなる窓が飼育室内の動物の視野内であるか否かを判定する。
 ステップS33において、例えば、飼育室内の動物の目の視野内に、遮光壁11からなる窓があり、来園者が視認できる場合、処理は、ステップS34に進む。
 ステップS34において、遮光透過位置算出部72は、カメラ12-1により撮像された画像を取得する画像取得部51-1からの画像に基づいた取得画像判定部71の判定結果に応じて、上述した一部透過処理を実行する。尚、ステップS34における一部透過処理は、図6のステップS11乃至S19からなる一連の処理であり、上述の説明と同様であるので、その説明は省略する。
 すなわち、今の場合、飼育室内の動物の視野内に、遮光壁11からなる窓が存在し、動物から、その窓を通して来園者が見えてしまう状態であり、人を怖がる動物は、落ち着いた行動がとれず、動物本来の行動を観察できない恐れがある。そこで、この場合は、遮光壁11の全体を遮光状態とし、一部透過処理により、来園者が、遮光壁11に目を近づけることで、目に対応する一部が透過状態とされることで、飼育室内の動物を覗き見るように観察できるようにすることで、飼育室内の動物を驚かせることなく、動物本来の行動を適切に観察できる状態にする。
 一方、ステップS33において、例えば、飼育室内の動物の目の視野内に、遮光壁11からなる窓がなく、動物から窓を介して来園者が見えない場合、処理は、ステップS35に進む。
 ステップS35において、遮光透過位置算出部72は、判定結果に基づいて、遮光壁11の全てのパネル21を透過状態に制御する。
 すなわち、今の場合、飼育室内の動物の視野内に、遮光壁11からなる窓が存在せず、窓を通して来園者が見えない状態であり、人を怖がる動物でも、来園者の視線を気にすることなく行動することができる状態である。そこで、この場合は、遮光壁11の全てのパネル21が透過状態に制御され、来園者は、遮光壁11からなる窓から離れていても、飼育室内の動物を観察することができるので、複数の来園者が、同時に、動物を観察することが可能となる。なお、ステップS35においては、全ての領域を透過状態にせずともよく、少なくとも一部透過処理により透過状態に制御される領域よりも多く(広く)の領域を透過状態にする処理を制御部13が行っても良い。
 ステップS36において、取得画像判定部71は、処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS31に戻り、それ以降の処理が繰り返される。そして、ステップS36において、終了が指示されたとみなされた場合、処理は、終了する。
 すなわち、以上の処理により、図7の左部の動物A1で示されるように、動物A1が、遮光壁11からなる窓の方を見ておらず、遮光壁11からなる窓を通して、来園者が観察する姿が動物A1から見えない状態であるときには、遮光壁11の全パネル21が透過状態とされ、来園者は、遮光壁11から離れた位置からでも飼育室内の動物A1を脅かすことなく動物本来の活動を観察することが可能となる。
 また、図7の右部の動物A2で示されるように、動物A2が、遮光壁11からなる窓の方を見ており、動物A2が、遮光壁11からなる窓を通して来園者を見える状態であるときには、上述した一部透過処理が実行されることで、遮光壁11に対して目を近づけた来園者のみが、近づけた目に対応する一部のパネル21のみが透過状態に制御されて、動物を観察することになる。この場合、来園者の目の部分だけが透過状態に制御されることで、動物A2には、来園者の姿が見えないので、動物を驚かすことなく動物本来の行動を適切に観察することが可能となる。
 尚、以上においては、動物が遮光壁11からなる窓を見ているか否かにより、遮光壁11を一部透過処理とするか、全パネル21を透過状態に制御するかについて説明してきたが、飼育室内の動物から遮光壁11からなる窓を通して来園者が見えない状態であればいいので、必ずしも動物の視野内に遮光壁11からなる窓が存在するか否かのみではなく、所定の距離だけ離れていれば、視野内にあっても、遮光壁11からなる窓を通して来園者が見えることはないので、所定の距離より離れていることが確認できていれば、遮光壁11の全パネル21を透過状態に制御するようにしてもよい。
 また、飼育室内に複数の動物が存在するような場合については、複数の動物のいずれの視野内にも遮光壁11からなる窓が存在しないときにのみ、全パネル21を透過状態に制御し、それ以外のときには、一部透過処理とするようにしてもよい。
 <<4.第3の実施の形態>>
 以上においては、観察空間と飼育室との境界の窓に遮光壁11を適用し、飼育室内の動物の視野内に遮光壁11からなる窓がない場合には全パネル21を透過状態とし、それ以外の場合については、一部透過処理をする例について説明してきた。しかしながら、遮光壁11を窓としてではなく、床として使用し、床の上のユーザの状態に応じて、透過状態、または遮光状態を制御するようにしてもよい。
 図10は、遮光壁11を床として使用し、床の上のユーザの状態に応じて、パネル21を透過状態、または遮光状態に制御する遮光装置の実施例を示している。
 すなわち、図10の遮光装置は、図10の左部で示されるように、観光用の塔81の展望室81aの床91を遮光壁11により構成したものであり、図10の右部の上部で示されるように、床としての遮光壁11の上のユーザの状態に応じて、各パネル21を遮光状態、または、透過状態に制御するものである。
 より詳細には、図10の右部の左下部で示されるように、カメラ12が、展望室81a内における遮光壁11からなる床91上を撮像し、撮像された画像に基づいて、制御部13は、来客者(ユーザ)H31が足を踏み入れた領域11aのパネル21を遮光状態に制御し、それ以外のパネル21を透過状態に制御する。
 また、遮光状態と透過状態との条件は逆にしてもよく、例えば、図10の右部の右下部で示されるように、カメラ12が、展望室81a内における遮光壁11からなる床91上を撮像し、撮像された画像に基づいて、制御部13が、来客者(ユーザ)H31が足を踏み入れた領域11bのパネル21を透過状態に制御し、それ以外のパネル21を遮光状態に制御する。
 このような構成により、ユーザである展望室81aの来客者H31が床91上を移動するごとに、自らの足元のみが遮光状態に制御される、または、透過状態に制御されるといった演出がなされることにより、様々な眺望を楽しませることが可能となる。
 <図10の遮光装置を実現させる構成例>
 次に、図11のブロック図を参照して、図10の遮光装置を実現させるための詳細な構成について説明する。尚、床91を構成する遮光壁11、およびカメラ12については、図1乃至図3を参照して説明した機能と同一であるので、その説明は適宜省略するものとする。また、図11の構成において、図5の構成と同一の機能を備えた構成については、同一の符号、および、同一の名称を付しており、その説明は適宜省略するものとする。
 すなわち、図11の遮光装置において、図5の遮光装置と異なる点は、取得画像判定部52、および遮光透過位置算出部53に代えて、取得画像判定部111、および遮光透過位置算出部112が設けられた点である。
 また、取得画像判定部111は、画像取得部51より供給されてきたデプス画像に基づいて、展望室81aにおけるユーザである来客者が床91上に踏み入れた足の位置を画像内で特定し、さらに、デプス画像の距離の情報に基づいて、踏み入れた足の展望室81a内における空間の位置を特定し、遮光透過位置算出部112に供給する。
 遮光透過位置算出部112は、足の展望室81a内における空間の位置に対応する、展望室81aの床91を構成する遮光壁11上のパネル21を特定し、特定したパネル21を遮光状態、または透過状態に制御し、それ以外のパネル21を透過状態、または、遮光状態に制御するように透過遮光情報を生成し、透過遮光記憶部54に記憶させる。
 このような構成により、展望室81aの床91上における来客者の足元のパネル21のみが遮光状態、または透過状態に制御され、それ以外のパネル21が透過状態、または、遮光状態に制御される。このような演出により、来客者は展望室81aの床91の上を歩くと、足の移動に伴って、自らが足を踏み入れた床91のパネル21のみが、遮光状態、または、透過状態に制御されるといった演出を楽しむことが可能となる。
 <図11の遮光装置による床一部透過処理>
 次に、図12のフローチャートを参照して、図11の遮光装置の制御部13における床一部透過処理について説明する。
 ステップS51において、カメラ12は、遮光壁11からなる床91の上の展望室81aを、デプス画像として撮像し、画像取得部51に供給する。
 ステップS52において、画像取得部51は、カメラ12より供給されてくるデプス画像を取得画像判定部111に供給する。
 ステップS53において、取得画像判定部11は、デプス画像より来客者が床91上に踏み入れた足を検出し、その展望室81aの遮光壁11からなる床91上に来客者が足を踏み入れたか否かを判定し、判定結果を遮光透過位置算出部112に供給する。
 より詳細には、取得画像判定部111は、デプス画像に対して足の画像の検出処理を施し、足を検出する。また、取得画像判定部111は、検出された足の画像より、デプス画像内の距離の情報に基づいて、遮光壁11からなる床91上に足が存在し、来客者が足を踏み入れているか否かを判定する。
 ステップS53において、例えば、来客者の足が、遮光壁11より構成された床91上に存在し、来客者が床91上に足を踏み入れているとみなされた場合、処理は、ステップS54に進み、判定結果と共に、来店者の足の位置の情報が遮光透過位置算出部112に供給される。
 ステップS54において、遮光透過位置算出部112は、来客者の足の展望室81a内の床91の位置の情報を記憶する。
 ステップS55において、遮光透過位置算出部112は、床91を構成する遮光壁11内のパネル21単位で設定される所定の領域のうち、いずれか未処理の領域を処理対処領域に設定する。
 ステップS56において、遮光透過位置算出部112は、処理対象領域におけるパネル21の位置が、来客者の足の展望室81a内の床91上の領域の付近の位置であるか否かを判定する。ステップS56において、処理対象領域におけるパネル21の位置が、来客者の足の展望室81a内の床91上の領域の付近の位置であるとみなされた場合、処理は、ステップS57に進む。
 ステップS57において、遮光透過位置算出部112は、処理対象領域におけるパネル21を遮光状態に制御するものとして、遮光透過情報を遮光透過記憶部54に記憶させる。この処理に応じて、遮光透過制御部55は、遮光透過記憶部54に記憶された遮光透過情報に基づいて、処理対象領域におけるパネル21を遮光状態に制御する。
 一方、ステップS56において、処理対象領域におけるパネル21の位置が、来客者の足の展望室81a内の床91上の領域の付近の位置ではないとみなされた場合、処理は、ステップS58に進む。
 ステップS58において、遮光透過位置算出部112は、処理対象領域におけるパネル21を透過状態に制御するものとして、遮光透過情報を遮光透過記憶部54に記憶させる。この処理に応じて、遮光透過制御部55は、遮光透過記憶部54に記憶された遮光透過情報に基づいて、処理対象領域におけるパネル21を透過状態に制御する。
 ステップS59において、遮光透過位置算出部112は、遮光壁11におけるパネル21単位の領域のうち、未処理の領域があるか否かを判定し、未処理の領域が存在する場合、処理は、ステップS55に戻る。すなわち、未処理の領域がなくなるまで、ステップS55乃至S59の処理が繰り返される。そして、ステップS59において、未処理の領域がないと判定された場合、処理は、ステップS60に進む。尚、ステップS53において、来客者の足が、遮光壁11よりなる床91上に足を踏み入れていないとみなされた場合、ステップS54乃至S59の処理がスキップされる。
 ステップS60において、取得画像判定部111は、処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS51に戻り、それ以降の処理が繰り返される。そして、ステップS60において、終了が指示されたとみなされた場合、処理は、終了する。
 すなわち、以上の処理により、図10の右部で示されるように、来客者が遮光壁11からなる床91上に足を踏み入れると、足を置いた位置のパネル21が遮光状態に制御され、それ以外のパネル21が透過状態とされ、それ以外の状態においては、パネル21の全体が透過状態に制御される。
 このため、来客者が床91上に足を踏み入れるまでは全てのパネル21が透過状態に制御されるので、遮光壁11からなる床91に足を踏み入れると、自らの足元となる部分のパネル21のみが遮光状態となるので、あたかも足を踏み入れると足場ができるような演出を実現することが可能となる。さらに、踏み入れた足が床91上を歩きながら移動するに伴って、足場となる遮光状態となるパネル21が踏み入れた足の下の部分に順次現れるような演出を実現することができる。
 尚、以上においては、足を踏み入れた位置のパネル21が遮光状態に制御され、それ以外のパネル21が透過状態に制御される例について説明してきたが、遮光状態、および透過状態の制御は逆であってもよい。このようにすることで、来客者が足を踏み入れるまでは、床91は、全面が遮光状態に制御されることになり、来客者は、足を踏み入れた、その瞬間に足元の床91のパネル21が透過状態に制御されることで、あたかも踏み入れた位置の床91が抜け落ちたような演出をすることが可能となる。
 また、以上においては、カメラ12により撮像されたデプス画像を用いて、来客者の足の位置を特定する例について説明してきたが、2次元の画像やその他のセンサにより得られたセンサデータを用いて足の位置を特定するようにしてもよい。
 さらに、遮光壁11からなる床91上の足の位置については、カメラ12により撮像されたデプス画像や通常の2次元画像から以外により検出するようにしてもよく、例えば、赤外線センサやタッチセンサなどを用いて足の位置を検出するようにしてもよい。
 また、以上においては、来客者が展望室81aの床91上に足を踏み入れたときに足元の床91を透過状態、または遮光状態に制御する例について説明してきたが、遮光壁11により天井を構成し、来客者が展望室81aなどに足を踏み入れたときの真上の天井を構成するパネル21を透過状態または遮光状態に制御し、それ以外のパネル21を遮光状態または透過状態に制御するようにしてもよい。
 <<5.第4の実施の形態>>
 以上においては、観光用の塔81の展望室81aの床91として遮光壁11を適用し、遮光壁11からなる床91に来客者が足を踏み入れたとき、床91上の来客者の足元に対応する領域のパネル21を遮光状態または透過状態に制御し、それ以外の領域のパネル21を透過状態または遮光状態に制御する例について説明してきた。しかしながら、遮光壁11を窓として使用し、窓の周辺の状態として不審者の接近の有無に応じて、透過状態、または遮光状態に制御すると共に、対応して窓の鍵の施錠解錠を制御するようにしてもよい。
 図13は、遮光壁11を窓として使用し、窓の周辺の状態として不審者の接近の有無を検出し、窓を構成する遮光壁11のパネル21の透過状態、または遮光状態に制御すると共に、窓の鍵の施錠解錠を制御するようにした遮光装置の実施例を示している。
 すなわち、図13の遮光装置は、カメラ12により撮像された、遮光壁11により構成される窓の外の屋外の画像が制御部13に供給されると、制御部13が、画像より不審者H51の有無を検出し、不審者H51が検出される場合、窓を構成する遮光壁11のうち、不審者H51の視野範囲に対応する領域のパネル21を遮光状態に制御すると共に、窓の鍵となるスマートロック121を制御して施錠状態に制御する。また、不審者が検出されていない場合、制御部13は、窓を構成する遮光壁11の全パネル21を透過状態に制御すると共に、窓の鍵となるスマートロック121を制御して解錠状態に制御する。
 このように構成することで、不審者の侵入を抑止すると共に、遮光壁11からなる窓の内側となる屋内に住人であるユーザが存在するような場合でも、不審者と鉢合わせするような事態を抑制することで、不審者により住人が危害を加えられるような犯罪を抑止することが可能となる。また、不審者が存在しない状態では、スマートロック121は解錠された状態となるので、住人であるユーザは施錠解錠を意識することなく窓の開閉を容易にしつつも、不審者の侵入を防止することが可能となる。
 <図13の遮光装置を実現させる構成例>
 次に、図14のブロック図を参照して、図13の遮光装置を実現させるための詳細な構成について説明する。尚、窓を構成する遮光壁11、およびカメラ12については、図1乃至図3を参照して説明した機能と同一であるので、その説明は適宜省略するものとする。また、図14の構成において、図5の構成と同一の機能を備えた構成については、同一の符号、および、同一の名称を付しており、その説明は適宜省略するものとする。
 すなわち、図14の遮光装置において、図5の遮光装置と異なる点は、取得画像判定部52、および遮光透過位置算出部53に代えて、動作判定部151、および遮光透過位置算出部152が設けられ、さらに、新たに、スマートロック121の解錠および施錠を制御するスマートロック制御部153が設けられた点である。
 また、動作判定部151は、画像取得部51より供給されてきたデプス画像に基づいて、不審者の有無を判定すると共に、不審者が存在する場合、不審者の視野範囲となる遮光壁11からなる窓の領域の情報を遮光透過位置算出部152に供給すると共に、不審者の有無をスマートロック制御部153に供給する。
 遮光透過位置算出部152は、不審者が検出されたことを示す判定結果と共に、不審者の視野範囲となる遮光壁11からなる窓の領域の情報を取得すると、対応するパネル21の位置を特定し、遮光状態に制御し、不審者が検出されない場合、遮光壁11の全てのパネル21を透過状態とする。
 スマートロック制御部153は、不審者が検出された場合、窓の鍵であるスマートロック121を施錠するように制御し、不審者が検出されない場合、スマートロック121を解錠するように制御する。
 このような構成により、窓としての遮光壁11において、不審者の接近が検出される場合、不審者の視野範囲となる領域のパネル21が遮光状態に制御され、それ以外のパネル21が透過状態に制御されると共に、スマートロック121が施錠される。また、不審者の接近が検出されない場合、全てのパネル21が透過状態に制御されると共に、スマートロック121が解錠される。
 <図14の遮光装置による防犯処理>
 次に、図15のフローチャートを参照して、図14の遮光装置の制御部13における防犯処理について説明する。
 ステップS71において、カメラ12は、遮光壁11からなる窓の近傍の外側となる室外を、デプス画像として撮像し、画像取得部51に供給する。
 ステップS72において、画像取得部51は、カメラ12より供給されてくるデプス画像を動作判定部151に供給する。
 ステップS73において、動作判定部151は、デプス画像を解析することにより不審者を検出し、遮光壁11からなる窓付近の不審者の有無を判定する。
 より詳細には、動作判定部151は、予め遮光壁11よりなる窓の内側となる屋内の住人となるユーザの顔画像を予め図示せぬ記憶部に登録すると共に、デプス画像より顔画像を検出し、登録された住人の顔画像と比較し、一致するか否かにより不審者の有無を判定する。また、カメラ12により動画像が撮像されている場合、動作判定部151は、動画像より人物を検出すると共に、検出された人物の動きを連続的に解析して、不審人物を検出するようにしてもよい。すなわち、動作判定部151は、動画像として撮像された人物の動作と、不審動作として予め図示せぬ記憶部に登録された動作とを比較し、一致するか否かに基づいて、不審者であるか否かを判定するようにしてもよい。
 動作判定部151は、例えば、カメラ12により撮像された画像より顔画像の検出処理を繰り返し、顔画像が検出された場合、予め登録されている住人となるユーザの顔画像と比較し、一致するか否かにより不審者の有無を判定する。尚、動作判定部151は、顔画像が検出されない場合、不審者は存在しないものとみなす。
 ステップS73において、不審者が存在すると判定された場合、処理は、ステップS74に進む。
 ステップS74において、動作判定部151は、不審者が存在することを示す判定結果をスマートロック制御部153に供給する。この判定結果に基づいて、スマートロック制御部153は、スマートロック121を施錠状態に制御する。
 ステップS75において、動作判定部151は、検出された画像内の不審者の顔画像のデプス画像内の位置から、遮光壁11からなる窓に対する位置を特定し、不審者の視野範囲を求めて遮光透過位置算出部152に記憶させる。
 ステップS76において、遮光透過位置算出部152は、窓を構成する遮光壁11内のパネル21単位で設定される所定の領域のうち、いずれか未処理の領域を処理対処領域に設定する。
 ステップS77において、遮光透過位置算出部152は、処理対象領域におけるパネル21の位置が、不審者の視野範囲の領域の付近の位置であるか否かを判定する。ステップS77において、処理対象領域におけるパネル21の位置が、不審者の視野範囲内の領域付近の位置であるとみなされた場合、処理は、ステップS78に進む。
 ステップS78において、遮光透過位置算出部152は、処理対象領域におけるパネル21を遮光状態に制御するものとして、遮光透過情報を遮光透過記憶部54に記憶させる。この処理に応じて、遮光透過制御部55は、遮光透過記憶部54に記憶された遮光透過情報に基づいて、処理対象領域におけるパネル21を遮光状態に制御する。
 一方、ステップS77において、処理対象領域におけるパネル21の位置が、不審者の視野範囲内の領域の付近の位置ではないとみなされた場合、処理は、ステップS79に進む。
 ステップS79において、遮光透過位置算出部152は、処理対象領域におけるパネル21を透過状態に制御するものとして、遮光透過情報を遮光透過記憶部54に記憶させる。この処理に応じて、遮光透過制御部55は、遮光透過記憶部54に記憶された遮光透過情報に基づいて、処理対象領域におけるパネル21を透過状態に制御する。
 ステップS80において、遮光透過位置算出部152は、遮光壁11におけるパネル21単位の領域のうち、未処理の領域があるか否かを判定し、未処理の領域が存在する場合、処理は、ステップS76に戻る。すなわち、未処理の領域がなくなるまで、ステップS76乃至S80の処理が繰り返される。そして、ステップS80において、未処理の領域がないと判定された場合、処理は、ステップS81に進む。
 ステップS81において、取得画像判定部111は、処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS71に戻り、それ以降の処理が繰り返される。そして、ステップS81において、終了が指示されたとみなされた場合、処理は、終了する。
 また、ステップS73において、遮光壁11からなる窓の付近に不審者が存在しないとみなされた場合、処理は、ステップS82に進む。
 ステップS82において、動作判定部151は、不審者が存在しないことを示す判定結果をスマートロック制御部153に供給する。この判定結果に基づいて、スマートロック制御部153は、スマートロック121の施錠を解除した状態(解錠状態)に制御する。
 ステップS83において、動作判定部151は、遮光透過位置算出部152に対して、遮光壁11における全てのパネル21を透過状態に制御するように指示する。これにより、遮光透過位置算出部152は、全てのパネル21を透過状態に制御するように、遮光透過情報を生成して、遮光透過記憶部54に記憶させる。この処理により、遮光透過制御部55は、全てのパネル21を透過状態に制御する。
 すなわち、以上の処理により、図13で示されるように、不審者が遮光壁11からなる窓の付近で検出されると、不審者の視野範囲となる遮光壁11上の領域に対応するパネル21が遮光状態に制御され、それ以外のパネル21が透過状態とされると共に、スマートロック121が施錠された状態とされる。また、不審者が検出されない場合、パネル21の全体が透過状態に制御され、スマートロック121が解錠される。
 このため、不審者が接近するときにのみスマートロック121により施錠され、それ以外の状態においては、解錠された状態であるので、遮光壁11からなる窓の内側となる屋内の住人となるユーザは、施錠や解錠を意識することなく遮光壁11からなる窓を開閉することが可能となる。
 また、不審者が接近した場合に、屋内に住人が存在するようなことがあっても、不審者と鉢合わせするようなことを抑制することができるので、不審者が住人となるユーザに対して危害を加えるような犯罪を抑制することが可能となる。
 <<6.第5の実施の形態>>
 以上においては、遮光壁11を窓として使用し、窓の周辺の状態として不審者の接近の有無に応じて、透過状態、または遮光状態に制御すると共に、対応して窓の鍵の施錠解錠を制御するようにする例について説明してきた。しかしながら、これに限らず、例えば、道路と、道路沿いの居住エリアとの境界に、遮光壁11からなる道路壁を設けるようにして、車両の位置に応じて、車両の搭乗者から居住エリアが見える範囲を遮光状態に制御し、それ以外の範囲を透過状態に制御するようにしてもよい。
 図16は、道路と、道路沿いの居住エリアとの境界に、遮光壁11からなる道路壁を設けるようにして、道路を走行する車両の位置に応じて、車両の搭乗者から居住エリアが見える範囲の道路壁のパネル21を遮光状態に制御し、それ以外の範囲のパネル21を透過状態に制御するようにした遮光装置の実施例を示している。
 すなわち、図16の遮光装置は、道路171上に設けられたカメラ12により道路171を走行中の車両が撮像されて、制御部13に供給され、制御部13が、画像から特定される車両の位置から、車両の搭乗者から居住エリア172が見える範囲に対応する遮光壁11のパネル21を遮光状態に制御し、それ以外を透過状態に制御する。
 より具体的には、例えば、図17で示されるように、遮光壁11からなる道路壁が道路171と居住エリア172の境界に設けられ、遮光壁11は、例えば、道路171に沿って設けられ、遮光壁11を構成する、パネル21-1乃至21-8が、それぞれ個別に遮光状態または透過状態に制御されるものとする。また、カメラ12-1,12-2で示されるように、道路171の中央分離帯に設けられており、走行する車両181を撮像し、制御部13に供給する。
 ここで、例えば、車両181が図中の左側から右側に向かって走行しているものとする。このとき、カメラ12-1が、車両181のうち、図中の右側の車両181-1をデプス画像として撮像し、制御部13にデプス画像を供給する。制御部13は、このデプス画像から車両181-1と居住エリア172との位置関係を求めて、車両181-1の搭乗者から遮光壁11を構成するパネル21のうち、透過状態に制御されると、パネル21を通して居住エリア172が見える範囲のパネル21を遮光状態に制御し、それ以外のパネル21を透過状態に制御する。図17においては、パネル21-3乃至21-5のみが遮光状態に制御されて、それ以外のパネル21が透過状態に制御されている。
 さらに、車両181-1が時間の経過とともに、図中の右側の車両181-2の位置に移動した場合、制御部13は、遮光壁11のパネル21-1乃至21-4のみを遮光状態に制御し、それ以外のパネル21を透過状態に制御する。
 すなわち、遮光壁11からなる道路壁は、道路171を走行する車両181が居住エリア172に接近し、車両181の搭乗者から居住エリア172が見える範囲のパネル21のみを遮光状態にし、それ以外の範囲のパネル21を透過状態とする。
 この結果、車両181が道路171上を走行し、かつ、居住エリア172に接近したタイミングで、搭乗者から見える範囲のパネル21だけが遮光状態に制御されるので、居住エリア172の住民のプライバシを保護することが可能となる。また、車両181が走行していない限り、道路壁を構成する遮光壁11のパネル21は透過状態が維持されることになるので、遮光状態に固定された道路壁が設けられるよりも、圧迫感が少ない道路壁を実現することが可能となる。
 <図16,図17の遮光装置を実現させる構成例>
 次に、図18のブロック図を参照して、図16,図17の遮光装置を実現させるための詳細な構成について説明する。尚、道路壁を構成する遮光壁11、およびカメラ12については、図1乃至図3を参照して説明した機能と同一であるので、その説明は適宜省略するものとする。また、図18の構成において、図5の構成と同一の機能を備えた構成については、同一の符号、および、同一の名称を付しており、その説明は適宜省略するものとする。
 すなわち、図18の遮光装置において、図5の遮光装置と異なる点は、取得画像判定部52、および遮光透過位置算出部53に代えて、車両位置判定部191、および遮光透過位置算出部192が設けられた点である。
 車両位置判定部191は、道路171の中央分離帯に沿って設けられたカメラ12により撮像され、画像取得部51より供給されてきたデプス画像に基づいて、道路171上の車両181の位置を特定し、特定した車両181の位置の情報に基づいて、その搭乗者から居住エリア172が見える車両181が存在するか否かを判定し、判定結果を遮光透過位置算出部192に供給する。この際、搭乗者から居住エリア172が見える車両181が存在する場合、車両位置判定部191は、その車両181の位置の情報も併せて遮光透過位置算出部192に供給する。
 遮光透過位置算出部192は、車両が検出されたことを示す判定結果と共に、検出された車両181の位置の情報を取得すると、車両181の搭乗者から居住エリア172が見える範囲に存在する遮光壁11のパネル21を遮光状態に制御し、それ以外のパネル21を透過状態に制御する遮光透過情報を生成して、遮光透過記憶部54に記憶させる。すなわち、遮光壁11からなる道路壁は、通常、透過状態に制御されており、そのままの状態だと、道路171上を走行する車両181の搭乗者から透過状態の遮光壁11からなる道路壁を通して、居住エリア172における住戸内などが視認できる状態とされている。そこで、居住エリア172を視認可能な搭乗者が乗っている車両181が検出された場合については、車両181が通過する際、搭乗者から居住エリア172を視認可能な領域の、遮光壁11のパネル21が遮光状態に制御され、それ以外のパネル21が透過状態に制御される。
 このような構成により、道路壁としての遮光壁11において、道路を通行する車両181のうち、搭乗者から居住エリアが見える範囲のパネル21が遮光状態に制御されることで、居住エリア172の居住者のプライバシを保護することが可能となる。また、搭乗者から居住エリア172が見える車両181が道路171上に存在しない場合には、道路壁としての遮光壁11の全パネル21が透過状態に制御されるので、居住エリア172の居住者に対して、道路171側の景色が見えないといった、不要な圧迫感を与えることない道路壁を実現することが可能となる。
 <図18の遮光装置による道路壁目隠し処理>
 次に、図19のフローチャートを参照して、図18の遮光装置の制御部13における道路壁目隠し処理について説明する。
 ステップS101において、道路171に沿って設けられたカメラ12は、道路171上を、デプス画像として撮像し、画像取得部51に供給する。
 ステップS102において、画像取得部51は、カメラ12より供給されてくるデプス画像を車両位置判定部191に供給する。
 ステップS103において、車両位置判定部191は、デプス画像より道路171上を走行する、その搭乗者により居住エリア172が見える車両181の有無を判定する。
 より詳細には、車両位置判定部191は、カメラ12により撮像されたデプス画像より車両181を検出し、車両181が検出された場合、検出された車両181の搭乗者をさらに特定し、特定した搭乗者の視線を推定し、居住エリア172が見える状態の搭乗者が搭乗している車両181の有無を判定する。尚、車両位置判定部191は、車両181が検出されない場合、その搭乗者から居住エリア172が見える状態の車両181は存在しないものとみなす。
 ステップS103において、搭乗者から居住エリア172が見える状態の車両181が存在すると判定された場合、処理は、ステップS104に進む。
 ステップS104において、車両位置判定部191は、搭乗者から居住エリア172が見える状態の車両181のデプス画像内の位置から、遮光壁11からなる道路壁に対しての位置を求め、搭乗者から居住エリア172が見える領域を求めて遮光透過位置算出部192に記憶させる。
 ステップS105において、遮光透過位置算出部192は、道路壁を構成する遮光壁11内のパネル21単位で設定される所定の領域のうち、いずれか未処理の領域を処理対処領域に設定する。
 ステップS106において、遮光透過位置算出部192は、処理対象領域におけるパネル21の位置が、搭乗者から見える居住エリア172の領域の付近の位置であるか否かを判定する。ステップS105において、処理対象領域におけるパネル21の位置が、道路171を走行する車両の搭乗者から居住エリア172が見える領域の付近の位置であるとみなされた場合、処理は、ステップS107に進む。
 ステップS107において、遮光透過位置算出部192は、処理対象領域におけるパネル21を遮光状態に制御するものとして、遮光透過情報を遮光透過記憶部54に記憶させる。この処理に応じて、遮光透過制御部55は、遮光透過記憶部54に記憶された遮光透過情報に基づいて、処理対象領域におけるパネル21を遮光状態に制御する。
 一方、ステップS106において、処理対象領域におけるパネル21の位置が、道路171を走行する車両の搭乗者から居住エリア172が見える領域の付近の位置ではないとみなされた場合、処理は、ステップS108に進む。
 ステップS108において、遮光透過位置算出部192は、処理対象領域におけるパネル21を透過状態に制御するものとして、遮光透過情報を遮光透過記憶部54に記憶させる。この処理に応じて、遮光透過制御部55は、遮光透過記憶部54に記憶された遮光透過情報に基づいて、処理対象領域におけるパネル21を透過状態に制御する。
 ステップS109において、遮光透過位置算出部192は、遮光壁11におけるパネル21単位の領域のうち、未処理の領域があるか否かを判定し、未処理の領域が存在する場合、処理は、ステップS105に戻る。すなわち、未処理の領域がなくなるまで、ステップS105乃至S109の処理が繰り返される。そして、ステップS109において、未処理の領域がないと判定された場合、処理は、ステップS110に進む。尚、ステップS103において、搭乗者から居住エリア172が見える状態の車両181が存在しないとみなされた場合、ステップS104乃至S109の処理がスキップされる。
 ステップS110において、車両位置判定部191は、処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS101に戻り、それ以降の処理が繰り返される。そして、ステップS110において、終了が指示されたとみなされた場合、処理は、終了する。
 すなわち、以上の処理により、図16,図17で示されるように、道路171上を走行する車両181であって、その搭乗者から遮光壁11からなる道路壁を挟んで道路171の反対側の居住エリア172が見えてしまう車両108が検出されて、遮光壁11のうち、車両181の搭乗者から居住エリア172が見えてしまう領域のパネル21が遮光状態に制御され、それ以外のパネル21が透過状態に制御される。
 結果として、上述した処理により、道路壁としての遮光壁11において、道路を通行する車両181のうち、搭乗者から居住エリアが見える領域のパネル21が遮光状態に制御されることで、居住エリア172の居住者のプライバシを保護することが可能となる。また、搭乗者から居住エリア172が見える車両181が道路171上に存在しない場合には、道路壁としての遮光壁11の全パネル21が透過状態に制御されるので、居住エリア172の居住者に対して不要な圧迫感を与えることない道路壁を実現することが可能となる。さらに、道路171沿いであって、居住エリア172が存在しない範囲においては、道路壁としての遮光壁11は、全パネル21が透過状態とされるため、車両181の搭乗者は、開放的な走行感覚を得ることが可能となる。また、車両181が道路171を通過している状況に応じて、例えば、道路171沿いに居住エリア172が存在している場合、車両181が制限速度未満で走行しているときには、車両181の搭乗者から、居住エリア172が視認し易くなるので、道路壁である遮光壁11のパネル21が遮光状態に制御されるようにしてもよく、このようにすることで、プライバシ保護を優先することが可能となる。逆に、道路171沿いに居住エリア172が存在している場合でも、車両181が制限速度以上で走行しているときには、車両181の搭乗者から、居住エリア172の視認が難しくなるので、道路壁である遮光壁11のパネル21が透過状態に制御されるようにしてもよく、このようにすることで、居住エリアの居住者にも、車両181の搭乗者にも開放感のある道路壁を実現することが可能となる。
 <ソフトウェアにより実行させる例>
 ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
 図20は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタ-フェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
 入出力インタ-フェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
 CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 尚、図20におけるCPU1001が、例えば、図5における制御部13であり、入力部1006を介してカメラ12より供給されるデプス画像の入力を受け付けることで、上述した一連の処理を実行した後、出力部1007より遮光壁11を制御する信号を出力する。
 コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 尚、本開示は、以下のような構成も取ることができる。
<1> 第1の空間と、第2の空間とを仕切り、光を透過する透過状態、または遮光する遮光状態に制御可能な複数の領域から構成される遮光壁と、
 前記遮光壁の付近の状態を示す情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する遮光透過情報生成部と、
 前記遮光透過情報生成部により生成された前記遮光透過情報に基づいて、前記遮光壁の複数の領域の透過状態、または遮光状態を制御する制御部と
 を含む遮光装置。
<2> 前記遮光壁は第1の空間と、第2の空間とを仕切る窓であり、
 前記遮光壁の付近の状態を示す情報は、ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報であり、
 前記遮光透過情報生成部は、前記遮光壁の付近の状態を示す情報である、前記ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する
 <1>に記載の遮光装置。
<3> 前記遮光透過情報生成部は、前記遮光壁の付近の状態を示す情報である、前記ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報に基づいて、前記ユーザの目の位置が前記遮光壁からなる窓の近傍に存在する場合、前記ユーザの目の位置に対応する、前記遮光壁における領域を透過状態に制御し、それ以外の前記領域を前記遮光状態に制御し、
 前記ユーザの目の位置が前記遮光壁からなる窓の近傍に存在しない場合、前記遮光壁の全領域を遮光状態に制御する遮光透過情報を生成する
 <2>に記載の遮光装置。
<4> 前記第1の空間は、観察対象が存在する空間であり、第2の空間は、前記観察対象を観察する観察空間であり、
 前記遮光壁の付近の状態を示す情報は、さらに、前記観察対象の視野内に遮光壁が存在するか否かの情報を含み、
 前記遮光透過情報生成部は、前記観察対象の視野内に遮光壁が存在するか否かの情報、および、前記ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する
 <3>に記載の遮光装置。
<5> 前記遮光透過情報生成部は、
  前記観察対象の視野内に遮光壁が存在する場合、前記ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成し、
  前記観察対象の視野内に遮光壁が存在しない場合、前記複数の領域の全てを、前記透過状態に制御する遮光透過情報を生成する
 <4>に記載の遮光装置。
<6> 前記観察対象の視野内に遮光壁が存在しない場合には、前記観察対象が十分に前記遮光壁から離れている場合を含む
 <5>に記載の遮光装置。
<7> 前記遮光壁は第1の空間と、第2の空間とを仕切る床であり、
 前記遮光壁の付近の状態を示す情報は、ユーザが前記床に足を踏み入れたか否かの情報であり、
 前記遮光透過情報生成部は、前記遮光壁の付近の状態を示す情報である、前記ユーザが前記床に足を踏み入れたか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する
 <1>に記載の遮光装置。
<8> 前記遮光透過情報生成部は、
 前記ユーザが前記床に足を踏み入れた場合、前記ユーザが踏み入れた足の位置の前記領域を前記透過状態に制御し、それ以外の領域を前記遮光状態に制御する遮光透過情報を生成する
 <7>に記載の遮光装置。
<9> 前記遮光透過情報生成部は、
 前記ユーザが前記床に足を踏み入れた場合、前記ユーザが踏み入れた足の位置の前記領域を前記遮光状態に制御し、それ以外の領域を前記透過状態に制御する遮光透過情報を生成する
 <7>に記載の遮光装置。
<10> 前記遮光壁は第1の空間と、第2の空間とを仕切る窓であり、
 前記窓の鍵の施錠および解錠を制御する鍵制御部をさらに含み、
 前記遮光壁の付近の状態を示す情報は、不審者の有無の情報であり、
 前記遮光透過情報生成部は、前記遮光壁の付近の状態を示す情報である、前記不審者の有無の情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成し、
 前記鍵制御部は、前記不審者の有無の情報に基づいて、前記窓の鍵の施錠または解錠を制御する
 <1>に記載の遮光装置。
<11> 前記不審者が存在する場合、
  前記遮光透過情報生成部は、前記不審者の視野内の前記複数の領域を前記遮光状態に制御し、それ以外の領域を、前記透過状態に制御する遮光透過情報を生成し、
  前記鍵制御部は、前記窓の鍵を施錠するように制御し、
 前記不審者が存在しない場合、
  前記遮光透過情報生成部は、全ての領域を、前記透過状態に制御する遮光透過情報を生成し、
  前記鍵制御部は、前記窓の鍵を解錠するように制御する
 <10>に記載の遮光装置。
<12> 前記遮光壁は道路と、前記道路沿いの居住エリアとを仕切る道路壁であり、
 前記遮光壁の付近の状態を示す情報は、搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行しているか否かの情報であり、
 前記遮光透過情報生成部は、前記遮光壁の付近の状態を示す情報である、前記搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行しているか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する
 <1>に記載の遮光装置。
<13> 前記遮光透過情報生成部は、前記遮光壁の付近の状態を示す情報である、前記搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行しているか否かの情報に基づいて、前記搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行している場合、前記搭乗者から居住エリアが見える前記遮光壁における領域を遮光状態に制御し、それ以外の前記領域を前記透過状態に制御し、
 前記搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行していない場合、前記遮光壁の全領域を透過状態に制御する遮光透過情報を生成する
 <12>に記載の遮光装置。
<14> 第1の空間と、第2の空間とを仕切り、光を透過する透過状態、または遮光する遮光状態に制御可能な複数の領域から構成される遮光壁を有する遮光装置の遮光方法において、
 前記遮光壁の付近の状態を示す情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成し、
 生成された前記遮光透過情報に基づいて、前記遮光壁の複数の領域の透過状態、または遮光状態を制御する
 ステップを含む遮光方法。
<15> 第1の空間と、第2の空間とを仕切り、光を透過する透過状態、または遮光する遮光状態に制御可能な複数の領域から構成される遮光壁と、
 前記遮光壁の付近の状態を示す情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する遮光透過情報生成部と、
 前記遮光透過情報生成部により生成された前記遮光透過情報に基づいて、前記遮光壁の複数の領域の透過状態、または遮光状態を制御する制御部と
 してコンピュータを機能させるプログラム。
 11 遮光壁, 12,12-1,12-2 カメラ, 13 制御部, 21,21-A乃至21-C,21-1,21-2,21’ パネル, 51,51-1,51-2 画像取得部, 52 取得画像判定部, 53 遮光透過位置算出部, 54 遮光透過記憶部, 55 遮光透過制御部, 71 取得画像判定部, 72 遮光透過位置算出部, 111 取得画像判定部, 112 遮光透過位置算出部, 121 スマートロック, 151 動作判定部, 152 遮光透過位置算出部, 153 スマートロック制御部, 171 道路, 172 居住エリア, 181,181-1,181-2 車両, 191 車両位置判定部, 192 遮光透過位置算出部

Claims (15)

  1.  第1の空間と、第2の空間とを仕切り、光を透過する透過状態、または遮光する遮光状態に制御可能な複数の領域から構成される遮光壁と、
     前記遮光壁の付近の状態を示す情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する遮光透過情報生成部と、
     前記遮光透過情報生成部により生成された前記遮光透過情報に基づいて、前記遮光壁の複数の領域の透過状態、または遮光状態を制御する制御部と
     を含む遮光装置。
  2.  前記遮光壁は第1の空間と、第2の空間とを仕切る窓であり、
     前記遮光壁の付近の状態を示す情報は、ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報であり、
     前記遮光透過情報生成部は、前記遮光壁の付近の状態を示す情報である、前記ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する
     請求項1に記載の遮光装置。
  3.  前記遮光透過情報生成部は、前記遮光壁の付近の状態を示す情報である、前記ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報に基づいて、前記ユーザの目の位置が前記遮光壁からなる窓の近傍に存在する場合、前記ユーザの目の位置に対応する、前記遮光壁における領域を透過状態に制御し、それ以外の前記領域を前記遮光状態に制御し、
     前記ユーザの目の位置が前記遮光壁からなる窓の近傍に存在しない場合、前記遮光壁の全領域を遮光状態に制御する遮光透過情報を生成する
     請求項2に記載の遮光装置。
  4.  前記第1の空間は、観察対象が存在する空間であり、第2の空間は、前記観察対象を観察する観察空間であり、
     前記遮光壁の付近の状態を示す情報は、さらに、前記観察対象の視野内に遮光壁が存在するか否かの情報を含み、
     前記遮光透過情報生成部は、前記観察対象の視野内に遮光壁が存在するか否かの情報、および、前記ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する
     請求項3に記載の遮光装置。
  5.  前記遮光透過情報生成部は、
      前記観察対象の視野内に遮光壁が存在する場合、前記ユーザの目が前記遮光壁からなる窓の近傍に存在するか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成し、
      前記観察対象の視野内に遮光壁が存在しない場合、前記複数の領域の全てを、前記透過状態に制御する遮光透過情報を生成する
     請求項4に記載の遮光装置。
  6.  前記観察対象の視野内に遮光壁が存在しない場合には、前記観察対象が十分に前記遮光壁から離れている場合を含む
     請求項5に記載の遮光装置。
  7.  前記遮光壁は第1の空間と、第2の空間とを仕切る床であり、
     前記遮光壁の付近の状態を示す情報は、ユーザが前記床に足を踏み入れたか否かの情報であり、
     前記遮光透過情報生成部は、前記遮光壁の付近の状態を示す情報である、前記ユーザが前記床に足を踏み入れたか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する
     請求項1に記載の遮光装置。
  8.  前記遮光透過情報生成部は、
     前記ユーザが前記床に足を踏み入れた場合、前記ユーザが踏み入れた足の位置の前記領域を前記透過状態に制御し、それ以外の領域を前記遮光状態に制御する遮光透過情報を生成する
     請求項7に記載の遮光装置。
  9.  前記遮光透過情報生成部は、
     前記ユーザが前記床に足を踏み入れた場合、前記ユーザが踏み入れた足の位置の前記領域を前記遮光状態に制御し、それ以外の領域を前記透過状態に制御する遮光透過情報を生成する
     請求項7に記載の遮光装置。
  10.  前記遮光壁は第1の空間と、第2の空間とを仕切る窓であり、
     前記窓の鍵の施錠および解錠を制御する鍵制御部をさらに含み、
     前記遮光壁の付近の状態を示す情報は、不審者の有無の情報であり、
     前記遮光透過情報生成部は、前記遮光壁の付近の状態を示す情報である、前記不審者の有無の情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成し、
     前記鍵制御部は、前記不審者の有無の情報に基づいて、前記窓の鍵の施錠または解錠を制御する
     請求項1に記載の遮光装置。
  11.  前記不審者が存在する場合、
      前記遮光透過情報生成部は、前記不審者の視野内の前記複数の領域を前記遮光状態に制御し、それ以外の領域を、前記透過状態に制御する遮光透過情報を生成し、
      前記鍵制御部は、前記窓の鍵を施錠するように制御し、
     前記不審者が存在しない場合、
      前記遮光透過情報生成部は、全ての領域を、前記透過状態に制御する遮光透過情報を生成し、
      前記鍵制御部は、前記窓の鍵を解錠するように制御する
     請求項10に記載の遮光装置。
  12.  前記遮光壁は道路と、前記道路沿いの居住エリアとを仕切る道路壁であり、
     前記遮光壁の付近の状態を示す情報は、搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行しているか否かの情報であり、
     前記遮光透過情報生成部は、前記遮光壁の付近の状態を示す情報である、前記搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行しているか否かの情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する
     請求項1に記載の遮光装置。
  13.  前記遮光透過情報生成部は、前記遮光壁の付近の状態を示す情報である、前記搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行しているか否かの情報に基づいて、前記搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行している場合、前記搭乗者から居住エリアが見える前記遮光壁における領域を遮光状態に制御し、それ以外の前記領域を前記透過状態に制御し、
     前記搭乗者から、透過状態の前記遮光壁を通して、前記居住エリアが見える車両が前記道路を走行していない場合、前記遮光壁の全領域を透過状態に制御する遮光透過情報を生成する
     請求項12に記載の遮光装置。
  14.  第1の空間と、第2の空間とを仕切り、光を透過する透過状態、または遮光する遮光状態に制御可能な複数の領域から構成される遮光壁を有する遮光装置の遮光方法において、
     前記遮光壁の付近の状態を示す情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成し、
     生成された前記遮光透過情報に基づいて、前記遮光壁の複数の領域の透過状態、または遮光状態を制御する
     ステップを含む遮光方法。
  15.  第1の空間と、第2の空間とを仕切り、光を透過する透過状態、または遮光する遮光状態に制御可能な複数の領域から構成される遮光壁と、
     前記遮光壁の付近の状態を示す情報に基づいて、前記複数の領域のそれぞれの位置の前記透過状態、または前記遮光状態を制御する遮光透過情報を生成する遮光透過情報生成部と、
     前記遮光透過情報生成部により生成された前記遮光透過情報に基づいて、前記遮光壁の複数の領域の透過状態、または遮光状態を制御する制御部と
     してコンピュータを機能させるプログラム。
PCT/JP2017/033203 2016-09-27 2017-09-14 遮光装置および遮光方法、並びにプログラム WO2018061792A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018542375A JPWO2018061792A1 (ja) 2016-09-27 2017-09-14 遮光装置および遮光方法、並びにプログラム
US16/328,754 US20190218773A1 (en) 2016-09-27 2017-09-14 Light-shielding device, light-shielding method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016187821 2016-09-27
JP2016-187821 2016-09-27

Publications (1)

Publication Number Publication Date
WO2018061792A1 true WO2018061792A1 (ja) 2018-04-05

Family

ID=61762852

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/033203 WO2018061792A1 (ja) 2016-09-27 2017-09-14 遮光装置および遮光方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20190218773A1 (ja)
JP (1) JPWO2018061792A1 (ja)
WO (1) WO2018061792A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020085296A1 (ja) * 2018-10-24 2020-04-30 パナソニックIpマネジメント株式会社 機能パネルシステム
JP7413632B2 (ja) 2019-10-18 2024-01-16 株式会社竹中工務店 調光制御機構

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7167947B2 (ja) * 2018-01-16 2022-11-09 ソニーグループ株式会社 照明制御装置及び照明制御方法、照明装置、並びに照明システム
WO2019195270A1 (en) * 2018-04-03 2019-10-10 Kaarta, Inc. Methods and systems for real or near real-time point cloud map data confidence evaluation
CN111814571A (zh) * 2020-06-12 2020-10-23 深圳禾思众成科技有限公司 一种基于背景过滤的口罩人脸识别方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000280896A (ja) * 1999-03-31 2000-10-10 Hitachi Ltd 鉄道車両の陽射し制御装置および鉄道車両
JP2002067690A (ja) * 2000-08-31 2002-03-08 Auto Network Gijutsu Kenkyusho:Kk 液晶バイザ
WO2014010498A1 (ja) * 2012-07-12 2014-01-16 ソニー株式会社 遮光装置および遮光方法、並びにプログラム
JP3188376U (ja) * 2013-09-25 2014-01-16 光碁科技股▲ふん▼有限公司 スマート型電子カーテン
US20150354789A1 (en) * 2014-06-09 2015-12-10 Telelumen, LLC Spectrally controllable light valve

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8616331B2 (en) * 2004-02-12 2013-12-31 Eric C. Humphries Panel assembly for traffic noise barrier wall
WO2017098687A1 (ja) * 2015-12-08 2017-06-15 パナソニックIpマネジメント株式会社 光学デバイス
US10362350B2 (en) * 2016-04-28 2019-07-23 Ecolink Intelligent Technology, Inc. Systems, methods and apparatus for interacting with a security system using a television remote control

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000280896A (ja) * 1999-03-31 2000-10-10 Hitachi Ltd 鉄道車両の陽射し制御装置および鉄道車両
JP2002067690A (ja) * 2000-08-31 2002-03-08 Auto Network Gijutsu Kenkyusho:Kk 液晶バイザ
WO2014010498A1 (ja) * 2012-07-12 2014-01-16 ソニー株式会社 遮光装置および遮光方法、並びにプログラム
JP3188376U (ja) * 2013-09-25 2014-01-16 光碁科技股▲ふん▼有限公司 スマート型電子カーテン
US20150354789A1 (en) * 2014-06-09 2015-12-10 Telelumen, LLC Spectrally controllable light valve

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JUN REKIMOTO: "Squama: Modular Visibility Control of Walls and Windows for Programmable Physical Architectures", PROCEEDINGS OF THE INTERNATIONAL WORKING CONFERENCE ON ADVANCED VISUAL INTERFACES (AVI 2012, 21 May 2012 (2012-05-21) - 25 May 2012 (2012-05-25), pages 168 - 171, XP055497973 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020085296A1 (ja) * 2018-10-24 2020-04-30 パナソニックIpマネジメント株式会社 機能パネルシステム
JP7413632B2 (ja) 2019-10-18 2024-01-16 株式会社竹中工務店 調光制御機構

Also Published As

Publication number Publication date
JPWO2018061792A1 (ja) 2019-07-04
US20190218773A1 (en) 2019-07-18

Similar Documents

Publication Publication Date Title
WO2018061792A1 (ja) 遮光装置および遮光方法、並びにプログラム
Benezeth et al. Towards a sensor for detecting human presence and characterizing activity
US10289824B2 (en) Security system for facility access control
ES2364915T3 (es) Cable trampa de video.
US9848112B2 (en) Optical detection apparatus and methods
Cristani et al. Background subtraction for automated multisensor surveillance: a comprehensive review
US8334906B2 (en) Video imagery-based sensor
CN107066962A (zh) 用于通过光学成像进行的对象检测和表征的增强对比度
CA3126835C (en) Smart surveillance system for swimming pools
US20170147885A1 (en) Heat-Based Human Presence Detection and Tracking
US20210241597A1 (en) Smart surveillance system for swimming pools
TW200806035A (en) Video surveillance system employing video primitives
KR101858396B1 (ko) 지능형 침입 탐지 시스템
US10650229B2 (en) Devices, methods, and systems for occupancy detection
CN108701211B (zh) 用于实时地检测、跟踪、估计和识别占用的基于深度感测的系统
KR101890589B1 (ko) 사생활 보호 영상 처리 시스템 및 방법
Sharma Human detection and tracking using background subtraction in visual surveillance
TWI713368B (zh) 影像式小偷偵測裝置及方法
Chan A robust target tracking algorithm for FLIR imagery
US20140333763A1 (en) Method and system for controlling access using a smart optical sensor
Rehman et al. Image processing based detecting and tracking for security systems
Hassan et al. Mixture of gaussian based background modelling for crowd tracking using multiple cameras
US20220028197A1 (en) Access control solution for a passage device
US11906822B2 (en) Information processing device
KR102357380B1 (ko) 안면 인식을 이용한 출입문의 자동개폐시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17855748

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018542375

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17855748

Country of ref document: EP

Kind code of ref document: A1