WO2021079736A1 - エレベーターシステム - Google Patents

エレベーターシステム Download PDF

Info

Publication number
WO2021079736A1
WO2021079736A1 PCT/JP2020/037864 JP2020037864W WO2021079736A1 WO 2021079736 A1 WO2021079736 A1 WO 2021079736A1 JP 2020037864 W JP2020037864 W JP 2020037864W WO 2021079736 A1 WO2021079736 A1 WO 2021079736A1
Authority
WO
WIPO (PCT)
Prior art keywords
elevator
sensor
passenger
elevator system
passengers
Prior art date
Application number
PCT/JP2020/037864
Other languages
English (en)
French (fr)
Inventor
納谷 英光
貴大 羽鳥
孝道 星野
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Publication of WO2021079736A1 publication Critical patent/WO2021079736A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B1/00Control systems of elevators in general
    • B66B1/02Control systems without regulation, i.e. without retroactive action
    • B66B1/06Control systems without regulation, i.e. without retroactive action electric
    • B66B1/14Control systems without regulation, i.e. without retroactive action electric with devices, e.g. push-buttons, for indirect control of movements
    • B66B1/18Control systems without regulation, i.e. without retroactive action electric with devices, e.g. push-buttons, for indirect control of movements with means for storing pulses controlling the movements of several cars or cages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B13/00Doors, gates, or other apparatus controlling access to, or exit from, cages or lift well landings
    • B66B13/30Constructional features of doors or gates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B3/00Applications of devices for indicating or signalling operating conditions of elevators

Definitions

  • the present invention relates to an elevator system equipped with a sensor.
  • the elevator system cannot keep track of how many passengers are waiting for the car to arrive at the landing. Therefore, as mentioned above, there is a possibility that some passengers will not be able to board even if the car arrives at the landing. In addition, as described above, since the destination floor cannot be known unless the passengers board the car and press the floor number button, there is a high possibility that the optimum vehicle allocation has not been achieved.
  • Patent Document 1 In the technique described in Patent Document 1, as shown in FIG. 8, the camera is attached in a state of protruding from the three-sided frame in order to confirm the safety of getting on and off the wheelchair user, and the landing is photographed.
  • Patent Document 1 it is necessary to change the shooting direction up and down and left and right for each case so that a desired image can be shot, which complicates the adjustment work and captures a wide range of passengers from around the door for getting on and off. It was something I could't do.
  • the technique described in Patent Document 1 cannot measure the number of passengers waiting at the landing and cannot identify each passenger in the entire landing.
  • Patent Document 2 In the technique described in Patent Document 2, for example, as disclosed in FIGS. 17 to 19, a camera is provided on the upper part of the three-sided frame, and the car floor surface and the in-situ floor are provided in an increasing direction from directly above. I try to shoot the gaps on the surface. Also in Patent Document 2, it is not possible to image a wider range of passengers than around the door for getting on and off, and it is not possible to measure the number of people waiting at the landing.
  • An object of the present invention is to provide an elevator system that facilitates measurement of the presence or absence of passengers waiting at an elevator landing and the number of passengers, and improves the efficiency of elevator operation control.
  • the present invention is in an elevator system including a sensor for acquiring information of passengers getting on and off the elevator, the sensor is a front surface facing the elevator landing in an upper frame of a three-sided frame provided in the elevator landing. It is characterized by being prepared for.
  • the present invention includes a recognition means that recognizes at least a part of a passenger's head, face, and pupil from the data acquired by the sensor, and a passenger that generates passenger identification information from the recognition result of the recognition means. It is characterized by having an identification means.
  • an elevator system that makes it easy to measure the presence / absence and the number of passengers waiting at the elevator landing and improves the efficiency of elevator operation control.
  • FIG. 1A is a cross-sectional view taken along the line II in FIG. 1A.
  • FIG. 1A is a cross-sectional view taken along the line II in FIG. 1A.
  • FIG. 2 is a sectional view taken along line II-II in FIG. 2A.
  • FIG. It is a front view of the elevator which concerns on Example 3.
  • FIG. It is a front view of the elevator which concerns on Example 4.
  • FIG. It is a front view of the elevator which concerns on Example 5.
  • 6A is a sectional view taken along line VI-VI in FIG. 6A.
  • FIG. 6A is a sectional view taken along line VI-VI in FIG. 6A. It is an overall block diagram of the elevator system which concerns on Example 7.
  • FIG. It is an overall block diagram of the elevator system which concerns on the modification of FIG. 7.
  • the various components of the present invention do not necessarily have to be independent of each other, and one component is composed of a plurality of members, a plurality of components are composed of one member, and a certain component is different. It is allowed that a part of one component overlaps with a part of another component.
  • FIG. 1A is a front view of the elevator according to the first embodiment
  • FIGS. 1B and 1C are cross-sectional views taken along the line II in FIG. 1A.
  • a three-sided frame 20 is provided at the entrance / exit of the elevator platform 40.
  • the three-sided frame is attached to the upper part of the entrance and to the left and right. Since there is no frame at the bottom of the three-sided frame, the step due to the frame is eliminated and the ease of getting on and off the elevator car is improved. Since there are no steps, it is especially effective for wheelchairs and trolleys. Further, a door 25 for opening and closing the entrance / exit is attached to the three-sided frame 20.
  • the sensor 10 is provided in the upper riding scene 30 (the portion surrounded by the broken line) of the three-sided frame 20.
  • the upper riding scene 30 is the front surface facing the elevator landing 40 in the upper frame of the three-sided frame 20.
  • the sensor 10 is provided at the center position in the left-right direction of the upper frame in the upper riding scene 30 of the three-sided frame 20.
  • the sensor 10 is an image sensor 12 combined with a fisheye lens 11, as shown in FIG.
  • the image sensor 12 is combined only with the lower half of the fisheye lens 11, or the lower half of the measurement data captured by the image sensor 12 is used.
  • the upper riding scene of the three-sided frame 20 is set so that the optical axis in the vertical direction is downward from the horizontal.
  • a sensor having a narrow vertical measurement range such as LiDAR (Light Detection and Ringing) can be similarly incorporated to measure a wide range of the elevator landing 40.
  • the measurement range can be secured for the landing space of the sensor 10, at least the upper body, especially the head, face, and pupils above the shoulders are affected by the overlap of passengers waiting at the landing. It becomes possible to measure.
  • an individual can be distinguished by the sensor 10 identifying the whorl shape, hairstyle, hat, etc. of the head with high accuracy.
  • the sensor 10 can identify an individual with high accuracy. Further, the sensor 10 can distinguish an individual by discriminating the glow of the pupil with high accuracy.
  • the number of people can be measured because it is equivalent to the presence of a person. If there is no overlap, the entire body can be measured, so it is possible to derive the occupied area. If the occupied area of each passenger can be derived, the filling rate in the car can be estimated in advance, so that the space margin in the car can be adjusted and the comfort level of the passengers can be improved. Further, by determining the direction in which the sensor 10 is incorporated in the upper riding scene 30 according to the landing space dimension, the measurement area of the sensor 10, and the dimension of the three-sided frame 20, the sensor 10 can be fixed at the time of manufacturing the three-sided frame 20. It is not necessary to adjust the top, bottom, left and right of the sensor 10 at the time of construction for each project in which the product is laid, and the workability is improved.
  • the three-sided frame 20 is integrated with the wall surface of the building.
  • the sensor 10 may be incorporated in the wall surface.
  • the specific structure of the door is omitted, but this embodiment can be applied to any structure such as a central opening and a single opening.
  • FIG. 2A is a front view of the elevator according to the second embodiment
  • FIG. 2B is a sectional view taken along line II-II in FIG. 2A.
  • the same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.
  • Example 2 the difference from Example 1 is the installation position of the sensor 10.
  • the elevator landing 40 space may be open to the elevator on either the left or right side.
  • the wall 45 is located on the right side when the elevator landing 40 is viewed from the front, and the left side is open.
  • the sensor 10 is shifted from the center position in the left-right direction of the upper riding scene 30 in the upper frame of the three-sided frame 20 and moved toward the wall 45 so that the sensor 10 can easily detect the periphery on the opposite side of the wall 45. Try to incorporate it.
  • the optical axis in the vertical direction is set to face downward from the horizontal as shown in the side sectional view, but in this embodiment, as shown in the upper sectional view of FIG. 2B, it is set.
  • the optical axis in the left-right direction is set to be separated from the wall 45.
  • the sensor 10 since the sensor 10 is installed close to the wall side of the three-sided frame 20, it is possible to avoid the sensor 10 from detecting the space where passengers do not exist, and the measurement range of the sensor 10 Can be used effectively.
  • FIG. 3 is a front view of the elevator according to the third embodiment.
  • the same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the difference from the first embodiment in the third embodiment is that the sensor 10 is arranged on the indicator 50.
  • an indicator 50 is provided on the upper part of the three-sided frame 20 and the upper part on the right side.
  • the indicator 50 includes a first indicator 50 (a) indicating the moving direction of the car 110 (see FIGS. 7, 8 and 14) and the position of the car 110, and a second indicator 50 indicating the arrival of the car 110.
  • the indicator 50 (a) is often located above the three-sided frame 20, and even in this case, the indicator 50 (a) is in a position where the entire landing can be overlooked, so that it is suitable for incorporating the sensor 10 for measuring the passengers in the landing.
  • the sensor 10 is incorporated between the vertical lamp indicating the moving direction of the car 110 and the floor number lamp indicating the position of the car 110. It is not limited to this position. The sensor 10 may be incorporated in any position as long as it is the indicator 50 (a).
  • the indicator 50 (b) is often located above or diagonally above the three-sided frame 20, and even in this case, since it is a position where the entire elevator landing 40 can be overlooked, it is suitable for incorporating a sensor 10 for measuring passengers at the landing. ing.
  • the sensor 10 is incorporated on the upper side of the lamp, but the present invention is not limited to this position.
  • the passengers can be detected from a position higher than the height of the passengers, and the passengers waiting at the landing can be overlapped. It becomes possible to measure the head, face, and pupil accordingly.
  • FIG. 4 is a front view of the elevator according to the fourth embodiment.
  • the same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the difference from the first embodiment in the fourth embodiment is that the stereo camera 60 is incorporated into the upper riding scene 30 of the three-sided frame 20 as one of the sensors 10.
  • the stereo camera 60 is a kind of sensor that secures parallax by installing two image sensors 12a and 12b apart from each other and can measure a distance based on the parallax. As a measurement result, a distance image can also be acquired.
  • two image sensors 12a and 12b are embedded in the upper riding scene 30 of the three-sided frame 20.
  • the distance between the image sensors 12a and 12b is a distance at which the parallax required to obtain the desired distance accuracy can be obtained.
  • the image sensors 12a and 12b may be tilted horizontally downward.
  • the stereo camera 60 capable of measuring the distance image into the upper riding scene 30 of the three-sided frame 20
  • passengers can be detected from a position higher than the height of the passengers, and the passengers waiting at the landing can be detected according to the degree of overlap of the passengers. It is possible to measure the distance to the head, face, and pupil.
  • FIG. 5 is a front view of the elevator according to the fifth embodiment.
  • the same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the difference from the first embodiment in the fifth embodiment is that the ToF sensor 70 is incorporated into the upper riding scene 30 of the three-sided frame 20 as one of the sensors 10.
  • the ToF (Time of Flight) sensor 70 is a sensor 10 capable of measuring the distance to an object by radiating light having a specific wavelength by modulating it and receiving and processing the light reflected by the object. It is a kind of. A separate light is required to irradiate light of a specific wavelength.
  • a light 72 that emits a specific wavelength and a ToF sensor 70 are incorporated in the upper riding scene 30 of the three-sided frame 20. In this embodiment, the ToF sensor 70 is incorporated in the center of the upper riding scene 30, but the present invention is not limited to this position.
  • a point cloud which is a collection of distance data to passengers waiting at the landing, is obtained. be able to.
  • Example 6 of the present invention will be described with reference to FIG. 6A is a front view of the elevator according to the sixth embodiment, and FIGS. 6B and 6C are cross-sectional views taken along the line VI-VI in FIG. 6A.
  • the same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the difference from the first embodiment in the sixth embodiment is that the millimeter wave sensor 80 is incorporated into the upper riding scene 30 of the three-sided frame 20 as one of the sensors 10.
  • the millimeter wave sensor 80 measures a distance to an object by modulating and transmitting a radio wave having a specific frequency and receiving and processing a reflected wave generated by the transmitted wave colliding with an object. It is a kind of sensor 10 that can be used.
  • An antenna 82 that realizes each function of transmitting and receiving radio waves is embedded in the upper riding scene 30 of the three-sided frame 20.
  • the transmitting antenna and the receiving antenna are mixedly mounted on the planar antenna. Since the antenna pattern looks like a special pattern, a blindfold plate 84 or the like through which millimeter waves pass may be provided in front of the antenna 82.
  • the blind plate 84 and the antenna 82 can be coaxial with each other in the horizontal direction, so that the upper riding scene 30 of the three-sided frame 20 can be easily set. It can be incorporated.
  • the opening of the blindfold plate 84 is the same, and the position of the millimeter wave sensor 80 is installed above the blindfold plate 84 and downward in the horizontal plane, so that the elevator landing 40
  • the measurement range can be all the spaces of.
  • the distance to the object can be measured, and by incorporating the millimeter wave sensor 80 into the upper riding scene 30 of the three-sided frame 20, a point cloud, which is a collection of distance data to the passengers waiting at the landing, is created. Obtainable.
  • FIG. 7 is an overall configuration diagram of the elevator system according to the seventh embodiment.
  • the same configurations as those of Examples 1 to 6 are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the seventh embodiment the configuration for realizing the first to sixth embodiments will be described.
  • the elevator 100 includes a car 110, a counterweight 150, a rope 160, a main engine 120 that moves the car 110 up and down, an elevator controller 130 that controls the main engine 120, and a destination on the car 110. It is composed of a car controller 140 that processes floor buttons and controls the car door. The car 110 and the counterweight 150 are connected by a rope 160.
  • the group management controller 200 communicates with the plurality of elevator controllers 130 via the communication path 180 in order to control vehicle allocation and the like so as to efficiently operate the plurality of elevators 100.
  • the sensor 10 of the upper riding scene 30 of the three-sided frame 20 embedded in the three-sided frame 20 on each floor of the plurality of elevators 100 is connected to the sensor controller 170.
  • the sensor controller 170 is connected to the group management controller 200 via a communication path 190.
  • the elevator system can measure and identify the number of passengers at the elevator platform 40.
  • the group management controller 200 can dispatch elevators according to the number of people measured on each floor.
  • the sensor controller 170 is provided in each elevator 100, but the present invention is not limited to this. If the processing capacity of the sensor controller 170 is high, all the sensors 10 may be connected to one sensor controller 170 for processing. Further, when the processing capacity of the group management controller 200 is high, all the sensors 10 may be connected to the group management controller 200 for processing.
  • FIG. 8 is an overall configuration diagram of the elevator system according to the modified example of FIG. 7. The same configurations as those in FIG. 7 are designated by the same reference numerals, and detailed description thereof will be omitted. In the modified example, the processing of the sensor controller 170 and the group management controller 200 in FIG. 7 is configured to be executed in the cloud 240.
  • the cloud 240 can communicate via the communication network 230.
  • the communication network 230 is a wide area communication network.
  • the communication network 230 becomes a LAN.
  • the car controller 140 is connected to the communication relay facility 220 via the communication path 180, and can communicate with the cloud 240.
  • the sensor 10 incorporated in the upper riding scene 30 of the three-sided frame 20 installed for each elevator 100 at the elevator landing 40 on each floor is connected to the communication relay facility 220 via the communication path 190 to form a cloud. Communication with 240 becomes possible.
  • FIG. 9 is a block diagram showing the configuration of the sensor controller 170.
  • the data measured by the sensor 10 is transmitted to the sensor controller 170.
  • the sensor controller 170 includes a recognition means 300, a passenger identification means 310, a storage means 320, a learning means 330, a call guessing means 340, and a coordinate conversion means 350.
  • the data acquired by the sensor 10 is transmitted to the recognition means 300, and the recognition means 300 recognizes whether or not at least a part of a person, a passenger's head, a face, and a pupil exists, and if the recognition means can be recognized, the sensor 10 is used.
  • the reference position information is also generated as a recognition result.
  • the recognition result of the recognition means 300 is transmitted to the passenger identification means 310, and the passenger identification means 310 identifies the passenger from the recognition result.
  • the passenger identification means 310 identifies at least one of the presence or absence of passengers and the number of passengers, generates passenger identification information, and outputs the information to the storage means 320 and the call guessing means 340.
  • the passenger identification means 310 may only determine the presence or absence of passengers, or may count the number of passengers. Even if it can be counted as the number of passengers, there are cases where the number of passengers can be obtained as an absolute value, and there are cases where it is output as a range value such as N or more.
  • the passenger identification means 310 generates guess information such as age and gender for each passenger, or identification information that cannot identify an individual but can be distinguished, and also generates passenger information corresponding to the identification information.
  • the storage means 320 stores at least the identification information, the time information, and the boarding / alighting floor number.
  • the learning means 330 has means such as machine learning and deep learning, and learns the identification information, the time information, and the boarding / alighting floor number stored in the storage means 320, and as a result of the learning. Generate a trained network.
  • the learning means 330 stores the learned network in the storage means 320.
  • the call guessing means 340 guesses the car call from the identification information generated by the passenger identification means 310 and the network stored in the storage means 320.
  • the coordinate conversion means 350 uses the position information of the recognition target based on the sensor 10 output from the recognition means 300 in a three-dimensional space whose height direction is the built-in position of the sensor 10 with the plane of the elevator landing 40 as a reference plane. Convert to the spatial coordinate system again.
  • the sensor controller 170 is provided with the recognition means 300, the passenger identification means 310, the storage means 320, the learning means 330, the call guessing means 340, and the coordinate conversion means 350, but these means are provided in the group management controller 200. Alternatively, it may be prepared for the cloud 240.
  • the passenger identification means 310 is provided to identify at least one of the presence or absence of passengers and the number of passengers and generate passenger identification information.
  • the group management controller 200 can operate according to the presence or absence of passengers and the number of passengers, and can improve the efficiency of elevator operation.
  • FIG. 10 is a diagram showing a processing flow of FIG.
  • the sensor 10 measures the elevator landing 40 and generates measurement data (step S10).
  • the recognition means 300 processes the measurement data measured by the sensor 10 and extracts the data that can be recognized as a person (step S20). For example, when the sensor 10 is an image sensor, the recognition means 300 has deep learning, and outputs area information that can be recognized as a person and an accuracy value that is a person.
  • the passenger identification means 310 determines the number of passengers from the data extracted by the recognition means 300 from the accuracy value of a person or the like (step S30).
  • the call guessing means 340 dispatches an elevator 100 having a vacant car according to the number of people waiting on the floor of the elevator landing 40 from the number of passengers (identification information) identified by the passenger identification means 310. If there is not enough space in one elevator 100, operation control is executed so that a plurality of elevators 100 are dispatched (step S50).
  • operation control is executed so that a plurality of elevators 100 are dispatched (step S50).
  • passengers can know that a call has occurred at that time by pressing the up and down buttons on the landing floor, but it is not possible to know how many passengers there are, so an appropriate number of elevators can be used. It was not possible to dispatch 100 to the floor. In addition, it was not possible to know the passengers who stopped using the elevator 100 after pressing the button.
  • FIG. 11 is a processing flow diagram for detecting the number of people in consideration of the overlap of people
  • FIGS. 12A to 12C are diagrams showing the overlapping state of people.
  • the recognition result cannot be constantly obtained.
  • the degree of overlap between people changes due to the delicate movements of people, and the recognition result also changes.
  • Passengers waiting for the arrival of the car 110 at the elevator platform 40 are not standing upright and waiting, but constantly turning around, shifting their weight from side to side, and over the shoulders of others to check the indicator 50.
  • There is an opportunity to secure a sufficient measurement area for the sensor 10 because it looks into the sensor 10.
  • the sensor 10 in the upper riding scene 30 of the three-sided frame 20 (the front surface of the upper frame of the three-sided frame 20 facing the elevator landing 40), it is possible to measure the crowns of a plurality of passengers.
  • the passenger identification means 310 acquires the recognition result from the recognition means 300 (step S100).
  • the passenger identification means 310 determines whether or not the newly acquired recognition result is the same from the result of being recognized as a memorized person (step S110). If it is the same as the stored recognition result, the number of people is maintained as it is (step S130). If it is different from the stored recognition result, the result recognized as a new person is stored (step S120). Since new passengers have been added, the number of passengers is added and updated (step S130).
  • the pupil is exposed to the sensor due to the displacement of the person 3, and the pupil is recognized with high accuracy, so that the person can be recognized as a new person different from the person 1 and the person 2.
  • FIG. 12C when the person 3 is further displaced, the face is exposed to the sensor, and the face is recognized with high accuracy, so that the person 3 is re-recognized as a person. In this way, by using recognition processes having different regions such as faces and eyes according to the degree of overlap, it is possible to determine the number of people even when people overlap.
  • Passenger identification means 310 boarding / alighting processing flow Next, with reference to FIG. 13, a process when a person cannot be identified at the time of getting off will be described.
  • FIG. 13 is a flow chart showing generation and storage processing of passenger boarding / alighting information when a person cannot be identified at the time of getting off.
  • the passenger faces backward with respect to the sensor 10 when getting off, so that the front of the face and the pupil can be within the measurement range.
  • the passenger identification means 310 confirms that the person has boarded the car 110 based on the person's identification information, the recognition position, and the like (step S200).
  • the passenger identification means 310 confirms whether the boarding information (boarding time, boarding floor) is stored in the storage means 320 from the floor corresponding to the person's identification information (step S210).
  • the passenger identification means 310 registers the boarding information (boarding time, boarding floor) from the floor with the person's identification information in the storage means 320 (step S220). At this point, there is no disembarkation information (disembarkation floor) corresponding to boarding.
  • the person gets on the train from the disembarkation floor (step S200)
  • it is confirmed whether the boarding information is stored from the floor corresponding to the person's identification information step S210. If it is stored and the disembarkation floor information is not stored, the floor is stored as the disembarkation floor information (step S230).
  • the passenger identification means 310 confirms whether the boarding information is stored from the floor corresponding to the person's identification information (step S210). .. After that, it is the same as the above flow. By repeating the above flow, the passenger identification means 310 identifies the passenger boarding / alighting information 360 from the recognition result of the passenger's head and stores it in the storage means 320.
  • FIG. 14 is a diagram showing boarding / alighting information 360.
  • the storage means 320 stores the passenger identifier, the boarding time associated with the identifier, the boarding floor on which the passenger boarded, and the disembarking floor on which the passenger disembarked, as boarding / alighting information 360.
  • passenger A with the identifier A gets on the train from the 1st floor to the 3rd floor where the workplace is located at 07:30, which is the commuting time.
  • Passenger A boarded from the 3rd floor to the 10th floor where the dining room is located.
  • Passenger B to which the identifier B is assigned gets on the train from the 1st floor to the 4th floor where the workplace is located at 08:00, which is the commuting time.
  • Passenger B boarded from the 4th floor to the 8th floor where the meeting room is located.
  • Passenger D who is given the identifier D, gets on the train from the 1st floor to the 4th floor where the workplace is located at 07:30, which is the commuting time. At 12:00 at lunch, Passenger D boarded from the 4th floor to the 10th floor where the dining room is located.
  • boarding / alighting information 360 From the boarding / alighting information 360, it can be understood that passenger A, passenger D, and passenger E go to work at 07:30 and board the elevator from the first floor to head for the workplace. Similarly, from the boarding / alighting information 360, it can be understood that passengers B and E are heading from the 4th floor to the 8th floor at 14:00 in accordance with the holding of the conference.
  • FIG. 15 is a flow chart for executing vehicle allocation control based on human identification information.
  • the sensor 10 measures the elevator landing 40 and generates measurement data (step S10).
  • the recognition means 300 processes the measurement data detected by the sensor 10 and extracts the data that can be recognized as a person (step S20).
  • the passenger identification means 310 generates the above-mentioned identification information from the recognition data extracted by the recognition means 300 (step S40).
  • the call guessing means 340 estimates the passenger's disembarkation floor from the identification information (recognition result) and the boarding / alighting information 360 from the above-mentioned learned network (step S300). For example, when the time is 07:30, as shown in FIG. 14, passenger A, passenger D, and passenger E board from the first floor and get off at the third and fourth floors, respectively.
  • the call guessing means 340 estimates the boarding floor from the identification information, the time, the boarding floor, and the boarding / alighting information 360.
  • the call guessing means 340 registers the call in the storage means 320 with the estimated drop-off floor as the destination floor (step S310).
  • the group management controller 200 is redistributed based on the newly registered call (step S50).
  • FIG. 16 is a diagram showing an arrangement example of the three-sided frame 20 and the sensor 10 in a building that operates a plurality of elevators.
  • FIG. 16 is a bird's-eye view from the ceiling.
  • the six elevators 101, 102, 103, 104, 105, and 106 are in a general arrangement in which three elevators are arranged facing each other.
  • Each of the plurality of elevators 101, 102, 103, 104, 105, 106 is provided with a sensor 10.
  • the coordinate system is the X-axis in the horizontal left-right direction, the Z-axis in the depth direction, and the Y-axis in the height direction from the passage 46 side toward the elevator landing 40. Since the back of the elevator landing 40 is a dead end due to the wall 45, as shown in FIG. 2, the axis of the sensor 10 is oriented in the opening direction of the elevator landing 40 space, and the installation position of the sensor 10 is above the three-sided frame 20. It is shifting toward the back of the riding scene 30. It can be seen that by combining the measurement ranges of the six (plural) sensors 10, almost the entire area of the elevator landing 40 space can be covered. By converting the position of the recognition object obtained by processing such as human recognition, head recognition, face recognition, and pupil recognition by the sensor 10 into a coordinate system by the coordinate conversion means 350, the position is mapped to the elevator landing 40 space. Can be done.
  • 401, 402, 403, 404, 405, and 406 are defined as areas corresponding to the elevators 101, 102, 103, 104, 105, and 106. This is the virtual area that each elevator is in charge of.
  • the axis of the sensor 10 is directed toward the opening of the elevator landing 40 space, and the installation position of the sensor 10 is shifted toward the back of the upper riding scene 30 of the three-sided frame 20, so that the elevator landing 40 space Can be detected comprehensively.
  • FIG. 17 is a flow diagram for eliminating duplication of recognition processing by the plurality of sensors 10.
  • the sensor 10 measures the elevator landing 40 and generates measurement data (step S10).
  • the recognition means 300 processes the measurement data measured by the sensor 10 and extracts the data that can be recognized as a person (step S20).
  • the passenger identification means 310 generates the above-mentioned identification information from the recognition data extracted by the recognition means 300 (step S40).
  • the coordinate conversion means 350 converts the identification information into coordinates based on the installation position information of the sensor 10 and stores it in the storage means 320 as the coordinate information of the elevator landing 40 (step S42). It is assumed that the installation position information of the sensor 10 is stored in the storage means 320 in advance.
  • the recognition means 300 determines whether or not the sensor 10 whose measurement has not been completed remains (step S44).
  • the passenger identification means 310 eliminates duplication of the identification information stored based on the coordinate information (step S46). After deduplication, the passenger identification means 310 determines as a unique identification result with no duplication (step S48). The confirmed result is stored in the storage means 320. Even when a plurality of sensors 10 are present, it is possible to obtain a single identification result by eliminating duplication in this way.
  • FIG. 18 is a flow chart for performing operation control based on a person existing in the area in charge. Overlapping portions in regions 401, 402, 403, 404, 405, 406 are eliminated by the method shown in FIG.
  • the group management controller 200 selects an arbitrary elevator 100 from a plurality of elevators and determines the area in charge of the elevator 100 (step S100).
  • the group management controller 200 acquires the number of people in each area of the plurality of elevators via the sensor controller 170 (step S110).
  • the group management controller 200 confirms the vacancy status of the car 110 of the elevator 100 in each area of the acquired number of people, and confirms whether or not each of the above-mentioned number of people can be accommodated (step S120).
  • the group management controller 200 selects the elevator 100 as a vehicle allocation candidate when there is a vacancy that can be accommodated in the elevator in each area portion (step S130).
  • the group management controller 200 selects another candidate with the number of persons that cannot be accommodated as the shortage (step S140).
  • the group management controller 200 selects another candidate so that all of the above can be entrusted to another elevator 100 (step S145).
  • FIG. 19 is a flow chart for executing operation control based on the density of people in the area in charge.
  • the group management controller 200 determines the area in charge of each elevator 100 (step S100).
  • the group management controller 200 acquires the number of people in each area of the plurality of elevators via the sensor controller 170 (step S110).
  • the group management controller 200 calculates the person density based on the area in each area portion and the acquired number of people (step S150).
  • the group management controller 200 rearranges the order of allocating the elevators 100 according to the magnitude of the density (step S170).
  • the group management controller 200 is determined as a vehicle allocation candidate in order (step S180).
  • the vehicle allocation candidate generated separately from the vehicle allocation candidate is comprehensively judged, and the final vehicle allocation allocation is determined.
  • the passengers waiting for the car are not always uniformly dispersed. Focusing on the densities of the areas 401, 402, 403, 404, 405, and 406 in charge of each elevator 100, the density is high. By preferentially allocating the elevator 100 corresponding to the area, the convenience of passengers can be improved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)
  • Elevator Control (AREA)
  • Elevator Door Apparatuses (AREA)

Abstract

本発明は、エレベーター乗場で待機している乗客の有無、人数を計測し易くし、エレベーター運行制御の効率向上を図ったエレベーターシステムを提供することを目的とする。 本発明は、エレベーターに乗降する乗客の情報を取得するセンサ10を備える。センサ10は、エレベーター乗場40に設けられる三方枠20の上枠におけるエレベーター乗場40と対向する前面に備える。また、センサ10が取得したデータから乗客の頭部、顔、瞳の少なくとも一部を認識する認識手段300と、認識手段300の認識結果から乗客の識別情報を生成する乗客識別手段310を備える。さらに、乗客識別手段310は、乗客の有無、乗客の人数の少なくとも1つを識別して乗客の識別情報を生成する。

Description

エレベーターシステム
 本発明は、センサを備えたエレベーターシステムに関する。
 現在のエレベーターの運行は、乗場に設置された上下ボタンを乗客が押すことにより、各階におけるかご呼びが発生し、運行制御装置はかご呼びが発生した階を把握し、各エレベーターの乗りかごの位置、及び乗りかご内の搭乗可能人数等の各エレベーターの状態に基づいて、どのエレベーターをどの階に配車するかを決定している。到着した乗りかごに乗客が乗り、該乗客が所望の階床番号ボタンを押すことにより、始めて行先階が確定し、運行制御装置は複数の停止階に基づいてエレベーターの動作を決定する。
 エレベーターシステムは、何人の乗客が乗場で乗りかごの到着を待っているかを把握することはできない。よって前述のように、乗場に乗りかごが到着しても乗れない乗客が発生する可能性がある。また、前述の通り、乗客がかごに搭乗して階床番号ボタンを押さないと行先階がわからないので、最適な配車ができていない可能性が高い。
 乗場の状況を把握するために、カメラを設置して乗場を撮影する技術がある。このような技術として、例えば特許文献1及び2に記載のものがある。
特開2016-169096号公報 特開2015-044674号公報
 特許文献1に記載の技術においては、図8に示すように、カメラは車椅子利用者の乗降安全確認のために、カメラを三方枠から飛び出した状態で取り付け、乗場を撮影するようにしている。特許文献1では、所望の映像を撮影できるように案件毎に、上下及び左右に撮影方向を変更する作業が必要となり、調整作業が煩雑であるとともに、乗降にかかるドア周辺より広範囲の乗客を撮像することができないものであった。このように特許文献1に記載の技術では、乗場の待ち人数を計測することができず、また乗場全体の各乗客を識別することもできないものであった。
 特許文献2に記載の技術においては、例えば図17~図19に開示されているように、三方枠の上部にカメラを設け、真上方向から増した方向に向けてかご床面とその場床面の隙間を撮影するようにしている。特許文献2においても、乗降にかかるドア周辺より広範囲の乗客を撮像することができず、また、乗場の待ち人数を計測することができないものであった。
 本発明の目的は、エレベーター乗場で待機している乗客の有無、人数を計測し易くし、エレベーター運行制御の効率向上を図ったエレベーターシステムを提供することにある。
 上記目的を達成するために本発明は、エレベーターに乗降する乗客の情報を取得するセンサを備えるエレベーターシステムにおいて、前記センサは、エレベーター乗場に設けられる三方枠の上枠における前記エレベーター乗場と対向する前面に備えられたことを特徴とする。
 また、本発明は上記に加え、前記センサが取得したデータから乗客の頭部、顔、瞳の少なくとも一部を認識する認識手段と、前記認識手段の認識結果から乗客の識別情報を生成する乗客識別手段を備えたことを特徴とする。
 本発明によれば、エレベーター乗場で待機している乗客の有無、人数を計測し易くし、エレベーター運行制御の効率向上を図ったエレベーターシステムを提供することができる。
実施例1に係るエレベーターの正面図である。 図1AにおけるI-I断面図である。 図1AにおけるI-I断面図である。 実施例2に係るエレベーターの正面図である。 図2AにおけるII-II断面図である。 実施例3に係るエレベーターの正面図である。 実施例4に係るエレベーターの正面図である。 実施例5に係るエレベーターの正面図である。 実施例6に係るエレベーターの正面図である。 図6AにおけるVI-VI断面図である。 図6AにおけるVI-VI断面図である。 実施例7に係るエレベーターシステムの全体構成図である。 図7の変形例に係るエレベーターシステムの全体構成図である。 センサコントローラの構成を示すブロック図である。 図9の処理フローを示す図である。 人重なりを考慮した人数検知の処理フロー図である。 人の重なり状態を示す図である。 人の重なり状態を示す図である。 人の重なり状態を示す図である。 降車時の人の識別ができなかった場合における乗客の乗降情報の生成及び記憶処理を示すフロー図である。 乗降情報を示す図である。 人の識別情報に基づく配車制御を実行するフロー図である。 複数のエレベーターを運行する建屋における三方枠とセンサの配置例を示す図である。 複数のセンサによる認識処理の重複を排除するフロー図である。 担当領域に存在する人に基づいて運行制御を実施するフロー図である。 担当領域の人密度に基づいて運行制御を実施するフロー図である。
 以下、本発明の実施例について添付の図面を参照しつつ説明する。同様の構成要素には同様の符号を付し、同様の説明は繰り返さない。
 本発明の各種の構成要素は必ずしも個々に独立した存在である必要はなく、一の構成要素が複数の部材から成ること、複数の構成要素が一の部材から成ること、或る構成要素が別の構成要素の一部であること、或る構成要素の一部と他の構成要素の一部とが重複すること、などを許容する。
 図1Aは実施例1に係るエレベーターの正面図、図1B及び図1Cは、図1AにおけるI-I断面図である。
 エレベーター乗場40の乗降口には、三方枠20が備えられている。三方枠は乗降口の上部と左右の三方に取り付けられている。三方枠は下部に枠がないことによって、枠による段差を無くし、エレベーターの乗りかごへの乗降性を向上させている。段差がないので、特に車椅子や台車の乗り入れには有効である。また、三方枠20には、乗降口を開閉するドア25が取り付けられている。
 三方枠20の上方乗場面30(破線で囲った部分)には、センサ10が備えられている。上方乗場面30は三方枠20の上枠におけるエレベーター乗場40と対向する前面となる。実施例1では、三方枠20の上方乗場面30における上枠の左右方向中央位置にセンサ10を備えている。センサ10を、魚眼レンズ11と組合せた画像センサ12とした場合、図1Bに示すように、魚眼レンズ11に画角(図中の上下方向に示した破線)が広い広角レンズもしくは魚眼レンズ11を選定すると、画像センサ12の光軸を三方枠20の乗場面に垂直にして組み込むことで、エレベーター乗場40空間の任意の領域もしくは全てを計測することが可能となる。
 また、センサ10の設置高さからエレベーター乗場40床間までの空間のみを計測したい場合には、魚眼レンズ11の水平面から下側を利用すると良い。この場合、魚眼レンズ11の下半分のみ画像センサ12を組み合わせるか、もしくは画像センサ12が撮影した計測データの下半分を利用する。
 さらに、図1Cに示すように、魚眼レンズ11に前述のレンズよりも画角の狭いレンズを選定しても、上下方向の光軸が水平よりも下方向となるように三方枠20の上方乗場面30に組み込むことで、センサ10の設置高さとエレベーター乗場40の間の空間のみを計測することが可能となる。実施例1では、LiDAR(Light Detection and Ranging)のような上下方向の計測範囲の狭いセンサも、同様に組み込むことでエレベーター乗場40の広範囲を計測することが可能となる。
 本実施例では、センサ10の乗場空間に対して計測範囲を確保できるので、乗場で待っている乗客の重なり具合によって、少なくとも、上半身、特に肩より上部となる頭部、顔部、瞳部を計測することが可能になる。例えば、センサ10が頭部のつむじ形状、髪形、帽子等を高精度に識別することにより、個人を区別可能である。また、センサ10が顔を高精度に識別することにより、個人を区別可能である。さらに、センサ10が瞳の光彩を高精度に識別することにより、個人を区別可能である。
 センサ10が頭部、顔部、瞳部が存在することを計測することにより、人が存在するに等しいため人数の計測が可能となる。重なりがない場合には、体全体を計測できるので、占有面積を導出することも可能となる。乗客それぞれの占有面積を導出できると、かご内の充填率を事前に推測できるので、かご内の空間的余裕を調整することが可能となり、乗客の快適度を向上させることができる。さらに、乗場空間寸法、センサ10の計測領域および三方枠20の寸法に合わせて、上方乗場面30にセンサ10を組み込む方向を決定することにより、三方枠20の製造時にセンサ10を固定できるので、製品を敷設する案件毎に、施工時にセンサ10の上下左右を調整する必要がなくなり、施工性が向上する。
 なお、三方枠20が建屋壁面と一体化している場合もある。その場合にはセンサ10を該壁面に組み込んでも構わない。本実施例においては、ドアの具体的構造は省略しているが、本実施例は、中央開き、片開き等どのような構造でも適用することができる。
 次に図2A及び図2Bを用いて、本発明の実施例2について説明する。図2Aは実施例2に係るエレベーターの正面図、図2Bは図2AにおけるII-II断面図である。実施例1と同一の構成については、同一の符号を付し、その詳細な説明は省略する。
 実施例2において、実施例1と異なるところは、センサ10の設置位置である。乗場の形状によっては、エレベーターに対してエレベーター乗場40空間が左右どちらか片方だけが開放されている場合がある。例えば、図2Aにおいては、エレベーター乗場40を正面視して右側に壁45が位置しており、左側が開放されている。この場合には、壁45と反対側の周辺をセンサ10が検知し易いように、センサ10を三方枠20の上枠における上方乗場面30の左右方向中央位置からずらし、壁45側に寄せて組み込むようにする。
 また、図1Cでは側断面図に示したように上下方向の光軸が水平より下側に向くように設定していたが、本実施例では、図2Bの上断面図に示したように、左右方向の光軸が壁45から離れるように設定している。
 本実施例によれば、センサ10を三方枠20の壁側に寄せて設置するようにしているので、センサ10が乗客の存在しない空間を検出するのを避けることができ、センサ10の計測範囲を有効に活用することができる。
 次に図3を用いて、本発明の実施例3について説明する。図3は実施例3に係るエレベーターの正面図である。実施例1と同一の構成については、同一の符号を付し、その詳細な説明は省略する。
 実施例3において、実施例1と異なるところは、インジケータ50にセンサ10を配置したことにある。
 図3において、三方枠20の上部、及び右側上部にはインジケータ50が備えられている。インジケータ50には、乗りかご110(図7、図8、図14参照)の移動方向、及び乗りかご110の位置を示す第1のインジケータ50(a)と、乗りかご110の到着を示す第2のインジケータ50(b)の少なくとも2種類が存在する。インジケータ50(a)は、三方枠20の上部に位置する場合が多く、この場合にも乗場全体を俯瞰できる位置にあるため、乗場の乗客を計測するセンサ10を組み込むのに適している。
 本実施例のインジケータ50(a)では、乗りかご110の移動方向を示す上下方向ランプと、乗りかご110の位置を示す階床番号ランプとの間にセンサ10を組み込んでいるが、本発明はこの位置に限定されるものではない。センサ10は、インジケータ50(a)であればどの位置に組み込みこんでも構わない。
 インジケータ50(b)は、三方枠20の上方もしくは斜め上方に位置する場合が多く、この場合にもエレベーター乗場40全体を俯瞰できる位置のため、乗場の乗客を計測するセンサ10を組み込むのに適している。本実施例のインジケータ50(b)では、ランプの上側にセンサ10を組み込んでいるが、本発明は、この位置に限定されるものではない。
 本実施例によれば、センサ10をインジケータ50(a)、若しくはインジケータ50(b)に備えることにより、乗客の身長より高い位置から乗客を検出でき、乗場で待機している乗客の重なり具合に応じて頭部、顔部、瞳部を計測することが可能になる。
 次に図4を用いて、本発明の実施例4について説明する。図4は実施例4に係るエレベーターの正面図である。実施例1と同一の構成については、同一の符号を付し、その詳細な説明は省略する。
 実施例4において、実施例1と異なるところは、センサ10の一つとしてステレオカメラ60を三方枠20の上方乗場面30に組み込んだことにある。
 ステレオカメラ60は、二つの画像センサ12a,12bを離して設置することにより視差を確保し、この視差を元にして距離も計測できるセンサの一種である。計測結果として、距離画像も取得できる。本実施例においては、三方枠20の上方乗場面30に二つの画像センサ12a,12bを埋め込む。画像センサ12a,12bの間隔は、所望の距離精度を得るために必要な視差を得られる距離とする。図1Cに示したように、画像センサ12a,12bは水平下方向に傾けても構わない。
 このように、距離画像を計測できるステレオカメラ60を三方枠20の上方乗場面30に組み込むことにより、乗客の身長より高い位置から乗客を検出でき、乗場で待っている乗客の重なり具合に応じて頭部、顔部、瞳部までの距離を計測することが可能となる。
 次に図5を用いて、本発明の実施例5について説明する。図5は実施例5に係るエレベーターの正面図である。実施例1と同一の構成については、同一の符号を付し、その詳細な説明は省略する。
 実施例5において、実施例1と異なるところは、センサ10の一つとしてToFセンサ70を三方枠20の上方乗場面30に組み込んだことにある。
 ToF(Time of Flight)センサ70は、特定波長の光に変調をかけて放射し、該放射光が物体で反射した光を受信して処理することで、該物体までの距離を計測できるセンサ10の一種である。特定波長の光を照射するために別途ライトが必要である。三方枠20の上方乗場面30には、特定波長を放射するライト72と、ToFセンサ70とを組み込む。本実施例では、ToFセンサ70を上方乗場面30の中央に組み込んだが、本発明はこの位置に限定されるものではない。
 本実施例によれば、物体までの距離を計測できるToFセンサ70を三方枠20の上方乗場面30に組み込むことにより、乗場で待っている乗客までの距離データの集合体であるポイントクラウドを得ることができる。
 次に図6を用いて、本発明の実施例6について説明する。図6Aは実施例6に係るエレベーターの正面図、図6B及び図6Cは図6AにおけるVI-VI断面図である。実施例1と同一の構成については、同一の符号を付し、その詳細な説明は省略する。
 実施例6において、実施例1と異なるところは、センサ10の一つとしてミリ波センサ80を三方枠20の上方乗場面30に組み込んだことにある。
 図6において、ミリ波センサ80は、特定周波数の電波に変調をかけて送信し、該送信波が物体に衝突して生じる反射波を受信して処理することで、該物体までの距離を計測できるセンサ10の一種である。
 三方枠20の上方乗場面30には、電波の送信と受信のそれぞれの機能を実現するアンテナ82を埋め込む。本実施例では、送信アンテナと、受信アンテナとを平面アンテナに混載する構成としている。アンテナパターンは、特殊な模様に見えるため、アンテナ82の前方にミリ波が通過する目隠し板84等を設けても構わない。アンテナ82の送受信の指向性が広範囲の場合には、図6Bに示すように目隠し板84と、アンテナ82と、水平方向に同軸にすることで、三方枠20の上方乗場面30に、簡単に組み込むことが可能となる。アンテナ32の送受信の指向性が狭い場合には、目隠し板84の開口部は同一で、ミリ波センサ80の位置を目隠し板84の上方で、かつ水平面下方向にして組み込むことにより、エレベーター乗場40のすべての空間を計測範囲とすることができる。
 本実施例によれば、物体までの距離を計測できミリ波センサ80を三方枠20の上方乗場面30に組み込むことにより、乗場で待っている乗客までの距離データの集合体であるポイントクラウドを得ることができる。
 次に図7を用いて、本発明の実施例7について説明する。図7は実施例7に係るエレベーターシステムの全体構成図である。実施例1乃至6と同一の構成については、同一の符号を付し、その詳細な説明は省略する。実施例7では、実施例1乃至6を実現させるための構成について説明する。
 図7において、エレベーター100は、乗りかご110と、カウンターウェイト150と、ロープ160と、乗りかご110の上下移動を担う主機120と、主機120を制御するエレベーターコントローラ130と、乗りかご110上の行先階ボタンの処理やかごドアの制御を処理するかごコントローラ140とで構成されている。乗りかご110とカウンターウェイト150はロープ160によって接続されている。
 群管理コントローラ200は、複数のエレベーター100を効率良く運行するように配車等の制御するために、通信路180を介して、複数のエレベーターコントローラ130と通信する。複数台のエレベーター100の各階における三方枠20に埋め込まれた三方枠20の上方乗場面30のセンサ10は、センサコントローラ170に接続される。センサコントローラ170は、通信路190を介して、群管理コントローラ200に接続されている。
 このような構成にすることで、エレベーターシステムでは、エレベーター乗場40の乗客の人数計測および識別が可能となる。群管理コントローラ200は、各階で計測された人数に応じてエレベーターの配車を行うことができる。
 なお、本実施例では、各エレベーター100に、センサコントローラ170を設けているが、この限りではない。センサコントローラ170の処理能力が高い場合には、全てのセンサ10を、1台のセンサコントローラ170に接続して処理しても構わない。さらに、群管理コントローラ200の処理能力が高い場合には、全てのセンサ10を、群管理コントローラ200に接続して処理しても構わない。
〔変形例〕
 次に図8を用いて変形例を説明する。図8は図7の変形例に係るエレベーターシステムの全体構成図である。図7と同一の構成については、同一の符号を付し、その詳細な説明は省略する。変形例においては、図7におけるセンサコントローラ170及び群管理コントローラ200の処理をクラウド240で実行するように構成している。クラウド240は、通信網230を経由して、通信することが可能である。通信網230への接続のために、ルーター等の通信中継設備220がある。クラウド240がグローバル・クラウドの場合には、通信網230は広域通信網となる。クラウド240がオンプレミスの場合には、通信網230はLANとなる。
 かごコントローラ140は、通信路180を経由して、通信中継設備220と接続し、クラウド240と通信が可能となる。各階のエレベーター乗場40に、エレベーター100毎に設置されている三方枠20の上方乗場面30に組み込まれたセンサ10は、通信路190を経由して、通信中継設備220と接続することで、クラウド240と通信が可能となる。
 変形例によれば、上記のように構成にすることにより、エレベーター100が設置される昇降路に物理的に存在しなければいけないエレベーター100の機構及び設備と、新たなセンサ10を建屋側に残し、エレベーター100の近傍に設置する必要がない群管理処理及びセンサ処理を、クラウド240に集約することができるため、最低限のエレベーター100の機構及び設備のみを敷設するだけとなり、施工及び保守作業を簡素化することができる。
〔センサコントローラの構成〕
 次にセンサコントローラの構成について、図9を用いて説明する。図9はセンサコントローラ170の構成を示すブロック図である。センサ10で計測されたデータは、センサコントローラ170に送信される。センサコントローラ170は、認識手段300と、乗客識別手段310と、記憶手段320と、学習手段330と、呼び推測手段340と座標変換手段350とを備えている。
 センサ10が取得したデータは、認識手段300に送信され、認識手段300によって、人物、乗客の頭部、顔、瞳の少なくとも一部が存在するか認識し、認識できた場合にはセンサ10を基準とした位置情報も認識結果として生成する。
 認識手段300の認識結果は乗客識別手段310に送信され、乗客識別手段310では認識結果から乗客を識別する。乗客識別手段310は乗客の有無、乗客の人数の少なくとも1つを識別して乗客の識別情報を生成し、記憶手段320、呼び推測手段340に出力する。
 乗客識別手段310は、センサ10の計測精度によって、乗客の有無しか判断できない場合と、乗客の人数として計数できる場合がある。乗客の人数として計数できた場合でも、絶対値として人数を得られる場合と、N人以上といった範囲値として出力する場合がある。
 また、乗客識別手段310は、個々の乗客について、年齢、性別等の推測情報、もしくは、個人を特定できないが区別できる識別情報を生成するとともに、該識別情報に対応する乗客の情報を生成する。
 記憶手段320は、少なくとも、該識別情報と、時間情報と、乗降階床番号とを記憶する。学習手段330は、例えば、機械学習や深層学習のような手段が存在し、記憶手段320で記憶されている識別情報と、時間情報と、乗降階床番号とを学習し、該学習の結果として学習済みネットワークを生成する。
 学習手段330は、学習済みネットワークを記憶手段320に記憶する。
 呼び推測手段340は、乗客識別手段310が生成する識別情報と、記憶手段320で記憶されている該ネットワークから、かご呼びを推測する。
 座標変換手段350は、認識手段300から出力されるセンサ10を基準にした認識対象の位置情報を、エレベーター乗場40平面を基準面としたセンサ10の組み込み位置を高さ方向とする三次元空間の該空間座標系に変換しなおす。
 本実施例では、認識手段300、乗客識別手段310、記憶手段320、学習手段330、呼び推測手段340、座標変換手段350をセンサコントローラ170に備えるようにしたが、これらの手段は群管理コントローラ200、若しくはクラウド240に備えるようにしても良い。
 本実施例では、乗客の有無、乗客の人数の少なくとも1つを識別して乗客の識別情報を生成する乗客識別手段310を備えている。群管理コントローラ200は、乗客の識別情報に基づいてエレベーターの運行制御を行うようにすることで、乗客の有無、人数に応じた運行ができ、エレベーター運行の効率向上が可能となる。
〔人数計測による処理フロー〕
 図10は、図9の処理フローを示す図である。
 図10において、センサ10は、エレベーター乗場40を計測して計測データを生成する(ステップS10)。
 認識手段300は、センサ10で計測された計測データを処理して、人と認識できたデータを抽出する(ステップS20)。認識手段300には、例えばセンサ10が画像センサの場合には深層学習があり、人と認識できた領域情報と、人である確度値を出力する。
 乗客識別手段310は、認識手段300で抽出されたデータから、人の確度値等から乗客人数を決定する(ステップS30)。
 呼び推測手段340は、乗客識別手段310で識別された乗客人数(識別情報)から、エレベーター乗場40の階の待ち人数に応じた乗りかごの空きがあるエレベーター100を配車する。1台のエレベーター100では空きが足りない場合には、複数のエレベーター100を配車するよう運行制御を実行する(ステップS50)。従来のエレベーター100では、乗客が乗場階の上下ボタンを押すことにより、その時点で呼びが発生したことを知ることはできるが、乗客が何人いるのかを知ることはできないため、適切な台数のエレベーター100を当該階に配車することはできなかった。また、該ボタンを押した後に、エレベーター100の利用をやめてしまった乗客も知ることはできなかった。このように、エレベーター100の利用をやめてしまって待ち乗客がいない場合に、即座に再配車して、無駄な停車や、エレベーター乗場40にいない乗客の乗車のために、事前に定められたドア開維持の無駄な時間の消費を回避することができる。
〔乗客識別手段310による人数更新処理フロー〕
 次に図11及び図12を用いて、乗客識別手段310の人数更新処理について説明する。
 図11は人重なりを考慮した人数検知の処理フロー図、図12A~Cは人の重なり状態を示す図である。
 センサ10の精度や、認識手段300の手段の処理方式によっては、定常的に認識結果が得られない。また、人の微妙な動きにより、人と人の重なり具合が変化して、認識結果も変化する。エレベーター乗場40において乗りかご110の到着を待つ乗客は、直立不動で待機しているわけではなく、絶えず体の向きを変えたり、左右に体重移動したり、インジケータ50を確認するために他人の肩越しに覗き込んだりするため、センサ10に対して十分な計測領域が確保できる機会が存在する。本発明のように、センサ10を三方枠20の上方乗場面30(三方枠20の上枠におけるエレベーター乗場40と対向する前面)に設置することにより、複数の乗客の頭頂部が計測可能となるが、重なり具合によっては、顔部分の認識、瞳の認識等が可能になる。
 エレベーター乗場40において、乗りかご110の到着を待つ複数の乗客は、任意の場所で待っているため、センサ10からみて重なりが生じる場合がある。ある乗客が別の乗客の陰に入ってしまうと、前述のような一般的なセンサ10で計測することは不可能である。乗客の動きによる重なり度合によって、認識できたりできなかったりが頻繁に発生する。
 乗客識別手段310は、認識手段300から認識結果を取得する(ステップS100)。乗客識別手段310は、記憶されている人として認識された結果から、新たに取得した認識結果が同一か否かを判定する(ステップS110)。記憶されている認識結果と同一の場合は、人数は現状維持とする(ステップS130)。記憶されている認識結果と異なる場合は、新たに人物して認識された結果を記憶する(ステップS120)。新たな乗客が追加されたので、人数を加算し、更新する(ステップS130)。
 乗場の乗客待機時における重なりと認識結果について図12を用いて説明する。図12Aでは、人認識によって人1と、人2は、上半身が完全に計測できることにより人物として高確度で認識される。人1との重なりが大きい人3は、人として認識されない可能性が高い。
 図12Bでは、人3がずれることで、センサに対して瞳が晒されており、瞳が高確度で認識されるため、人1、人2とは異なる新たな人物として認識することができる。
 図12Cでは、さらに人3がずれることで、センサに対して顔が晒されており、顔が高確度で認識されるため、人3を人物として再認識される。このように、重なりの度合に応じて、顔や瞳のような領域の異なる認識処理を利用することにより、人が重なっている場合でも、人数を決定することが可能となる。
〔乗客識別手段310による乗降処理フロー〕
 次に図13を用いて、降車時の人の識別ができなかった場合の処理について説明する。
図13は降車時の人の識別ができなかった場合における乗客の乗降情報の生成及び記憶処理を示すフロー図である。
 センサ10は、三方枠20の上方乗場面30、若しくはインジケータ50に設置されているため、降車時において乗客はセンサ10に対して後ろ向きとなるため、顔正面、瞳を計測範囲に収めることはできず、人の識別は困難である。そこで、同一人物が降車階から再度乗車する確率が高いと仮定する。なお、頭部は計測範囲に収まるので、前述の通り、つむじ形状、髪形、帽子等、に基づく人識別ができれば、降車時にも人の識別は可能である。
 乗客識別手段310は、人の識別情報及び認識位置等により、当該人物が乗りかご110に乗車したことを確定させる(ステップS200)。
 乗客識別手段310は、人の識別情報に相当する当該階から乗車情報(乗車時間、乗車階)が記憶手段320に記憶されているか確認する(ステップS210)。
 記憶されていない場合、乗客識別手段310は、人の識別情報で当該階からの乗車情報(乗車時間、乗車階)を記憶手段320に登録する(ステップS220)。この時点においては、乗車に対応した降車情報(降車階)は存在しない。当該人物が降車階から乗車する(ステップS200)と、人の識別情報に相当する当該階から乗車情報が記憶されているか確認する(ステップS210)。記憶され且つ降車階情報が記憶されていない場合、当該階を降車階情報として記憶する(ステップS230)。なお、上述の頭部による降車時の人識別ができた場合(ステップS240)、乗客識別手段310は、人の識別情報に相当する当該階から乗車情報が記憶されているか確認する(ステップS210)。以降は、上記フローと同一である。以上のフローを繰り返すことにより、乗客識別手段310は、乗客の頭部の認識結果から客の乗降情報360を識別し、記憶手段320に記憶させる。
 図14は乗降情報360を示す図である。記憶手段320には、乗客の識別子と、この識別子に付随した乗車時間と、乗客が乗車した乗車階、乗客が降車した降車階に関する情報が、乗降情報360として記憶される。
 例えば、識別子Aが付与された乗客Aは、出勤時間である07:30に1階から職場がある3階まで乗車する。昼食時の12:00には、乗客Aは、3階から食堂がある10階まで乗車する。識別子Bが付与された乗客Bは、出勤時間である08:00に1階から職場がある4階まで乗車する。会議が開催される14:00には、乗客Bは、4階から会議室がある8階まで乗車する。識別子Dが付与された乗客Dは、出勤時間である07:30に1階から職場がある4階まで乗車する。昼食時の12:00には、乗客Dは、4階から食堂がある10階まで乗車する。
 乗降情報360からは、乗客A、乗客D、乗客Eは、07:30に出勤し、1階からエレベーターに乗車して職場に向かうことが把握できる。同様に、乗降情報360からは、乗客B、乗客Eは会議開催に合わせ、14:00に4階から8階に向かうことが把握できる。
 なお、乗車階は確認できたが、降車階が確認できていないといった乗降情報360が残る可能性もある。このような乗降情報360については、例えば、深夜等の乗客の利用が少ない時間帯を選んで、整理・消去する。蓄積された乗降情報360を機械学習、深層学習等の学習手段330によって学習を実行すると、学習済みネットワークを構築することができる。
〔乗降情報360に基づく配車制御フロー〕
 図15は人の識別情報に基づく配車制御を実行するフロー図である。
 図15において、センサ10は、エレベーター乗場40を計測して計測データを生成する(ステップS10)。
 認識手段300は、センサ10が検出した計測データを処理して、人と認識できたデータを抽出する(ステップS20)。
 乗客識別手段310は、認識手段300で抽出された認識データから、前述の識別情報を生成する(ステップS40)。
 呼び推測手段340は、該識別情報(認識結果)と、乗降情報360とから前述の学習済みネットワークにより、乗客の降車階を推測する(ステップS300)。例えば、時間が07:30のとき、図14に示すように、1階からは乗客A、乗客D、乗客Eが乗車し、それぞれ3階、4階で降車する。呼び推測手段340では、識別情報と、時間と、乗車階、乗降情報360から降車階を推測する。
 また、呼び推測手段340は、推測した降車階を行先階として呼びを記憶手段320に登録する(ステップS310)。
 群管理コントローラ200は、新たに登録された呼びに基づいて再配車する(ステップS50)。
 このように、過去における乗客の乗降情報360に基づいて行先階を推測することにより、効率良くエレベーター100の運行を制御することが可能となる。
〔複数のエレベーターの人数計測〕
 次に、複数のエレベーターが設置された状態について説明する。図16は複数のエレベーターを運行する建屋における三方枠20とセンサ10の配置例を示す図である。図16は、天井から俯瞰した図である。
 図16において、エレベーター101、102、103、104、105、106の6台は、3台ずつ向い合せに配置する一般的な配置となっている。複数のエレベーター101、102、103、104、105、106のそれぞれには、センサ10が備えられている。
 座標系は、通路46側からエレベーター乗場40に向かって水平左右方向がX軸、奥行き方向がZ軸、高さ方向がY軸である。エレベーター乗場40の奥が壁45によって行き止まりになっているため、図2に示したように、センサ10の軸をエレベーター乗場40空間の開放方向に向け、センサ10の設置位置を三方枠20の上方乗場面30の奥方向にシフトしている。6個(複数)のセンサ10の計測範囲を組み合わせることで、エレベーター乗場40空間のほぼ全域を網羅できていることがわかる。センサ10による、人認識、頭部認識、顔認識、瞳認識等の処理によって得られる認識対象物の位置を、座標変換手段350によって座標系に変換することで、エレベーター乗場40空間にマッピングすることができる。
 図16では、エレベーター101、102、103、104、105、106に対応した領域として401、402、403、404、405、406を定義している。これは、それぞれのエレベーターが担当する仮想的な領域である。
 本実施例によれば、センサ10の軸をエレベーター乗場40空間の開放方向に向け、センサ10の設置位置を三方枠20の上方乗場面30の奥方向にシフトしているので、エレベーター乗場40空間を網羅的に検出することができる。
 次に、図17を用いて、複数のセンサ10による認識処理について説明する。図17は複数のセンサ10による認識処理の重複を排除するフロー図である。
 図16に示したように、複数のエレベーター100が設置されている場合、任意の乗場に複数のセンサ10が存在し、計測領域に重なりが生じ同一人物が重複して認識されてしまうため、重複を排除する必要がある。
 センサ10は、エレベーター乗場40を計測して計測データを生成する(ステップS10)。
 認識手段300は、センサ10で計測された計測データを処理して、人と認識できたデータを抽出する(ステップS20)。
 乗客識別手段310は、認識手段300で抽出された認識データから、前述の識別情報を生成する(ステップS40)。
 座標変換手段350は、識別情報をセンサ10の設置位置情報によって座標変換してエレベーター乗場40の座標情報として記憶手段320に記憶する(ステップS42)。なお、センサ10の設置位置情報は、あらかじめ記憶手段320に記憶されているとものとする。
 認識手段300は、計測が終了していないセンサ10が残っているかを判定する(ステップS44)。
 残っている場合にはステップS10に戻ってフローを継続する。残っていない場合には、乗客識別手段310は、座標情報に基づいて記憶された識別情報の重複を排除する(ステップS46)。重複排除後、乗客識別手段310は、重複はないユニークな識別結果として確定する(ステップS48)。確定した結果は、記憶手段320に記憶される。複数のセンサ10が存在する場合でも、このように重複を排除することで、単一の識別結果を得ることが可能となる。
〔複数のエレベーター100における個々の人数計測方法〕
 次に図18を用いて複数のエレベーター100における個々の人数計測方法について説明する。図18は担当領域に存在する人に基づいて運行制御を実施するフロー図である。
領域401、402、403、404、405、406での重複部分は図17で示した方法で排除されている。
 図18において、群管理コントローラ200は、複数のエレベーターの中から、任意のエレベーター100を選定し、該エレベーター100の担当領域を確定する(ステップS100)。
 群管理コントローラ200は、センサコントローラ170を介して、複数のエレベーターのそれぞれの領域部分における人数を取得する(ステップS110)。
 群管理コントローラ200は、取得した人数のそれぞれの領域部分におけるエレベーター100の乗りかご110について空き状態を確認して、それぞれ前述の人数を収容できるかを確認する(ステップS120)。
 群管理コントローラ200は、それぞれの領域部分におけるエレベーターに収容できる分の空きがある場合には、当該エレベーター100を配車候補とする(ステップS130)。
 空きはあるが、前述の全員を収容できない場合、群管理コントローラ200は、収容できない人数を不足分として別候補を選定する(ステップS140)。
 空きがない場合、群管理コントローラ200は、前述の全員を別のエレベーター100に任せられるように別候補を選定する(ステップS145)。
 以上により、任意のエレエーター100が担当するエレベーター乗場40の領域で待っている乗客数を元に、運行制御の配車候補を決定することができる。配車処理では、該配車候補と別に生成された配車候補を総合的に判断して、最終的な配車割当を決定する。本実施例のフローにより、エレベーター乗場40の待ち人数に対する配車処理を効率良く実行できる。
〔複数のエレベーター100における個々の人数計測方法の他の例〕
 次に図19を用いて複数のエレベーター100個々の人数計測方法の他の例について説明する。図19は担当領域の人密度に基づいて運行制御を実施するフロー図である。
 群管理コントローラ200は、各エレベーター100の担当領域を確定する(ステップS100)。
 群管理コントローラ200は、センサコントローラ170を介して、複数のエレベーターのそれぞれの領域部分における人数を取得する(ステップS110)。
 群管理コントローラ200は、それぞれの領域部分における面積と、取得した人数とに基づいて人密度を算出する(ステップS150)。
 全てのエレベーター100について密度算出を繰り返す(ステップS160)。
 全てのエレベーター100について各担当領域における密度の算出が終了した場合、群管理コントローラ200は、密度の大小に合わせて、エレベーター100を配車する順序を並べ替える(ステップS170)。
 群管理コントローラ200は、順序に従って配車候補として確定する(ステップS180)。
 配車処理では、該配車候補と別に生成された配車候補を総合的に判断して、最終的な配車割当を決定する。本実施例のフローにより、かごを待っている乗客が均一に分散しているとは限らない各エレベーター100の担当領域401、402、403、404、405、406の密度に着目し、密度が高い領域に対応するエレベーター100を優先的に配車することで、乗客の利便性を向上することができる。
 以上説明したように、各実施例によれば、エレベーター乗場で待機している乗客の有無、人数を計測し易くし、エレベーター運行制御の効率向上を図ったエレベーターシステムを提供することができる。
 なお、本発明は、上述した実施例に限定するものではなく、様々な変形例が含まれる。
上述した実施例は本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定するものではない。
 10…センサ、11…魚眼レンズ、12…画像センサ、20…三方枠、30…上方乗場面、32…アンテナ、40…エレベーター乗場、45…壁、46…通路、50…インジケータ、60…ステレオカメラ、70…ToFセンサ、72…ライト、80…ミリ波センサ、82…アンテナ、84…目隠し板、100,101,102,103,104,105,106…エレベーター、110…乗りかご、120…主機、130…エレベーターコントローラ、140…かごコントローラ、150…カウンターウェイト、160…ロープ、170…センサコントローラ、180,190…通信路、200…群管理コントローラ、230…通信網、240…クラウド、300…認識手段、310…乗客識別手段、320…記憶手段、330…学習手段、340…呼び推測手段、350…座標変換手段、360…乗降情報

Claims (15)

  1.  エレベーターに乗降する乗客の情報を取得するセンサを備えるエレベーターシステムにおいて、
     前記センサは、エレベーター乗場に設けられる三方枠の上枠における前記エレベーター乗場と対向する前面に備えられたことを特徴とするエレベーターシステム。
  2.  請求項1において、
     前記センサが取得したデータから乗客の頭部、顔、瞳の少なくとも一部を認識する認識手段と、前記認識手段の認識結果から乗客の識別情報を生成する乗客識別手段を備えたことを特徴とするエレベーターシステム。
  3.  請求項2において、
     前記乗客識別手段は、乗客の有無、乗客の人数の少なくとも1つを識別して乗客の識別情報を生成することを特徴とするエレベーターシステム。
  4.  請求項3において、
     前記識別情報に基づいて前記エレベーターの運行制御を行う群管理コントローラを備えたことを特徴とするエレベーターシステム。
  5.  請求項3において、
     前記乗客識別手段で識別された人数から、前記エレベーター乗場の階の待ち人数に応じたエレベーターを配車する呼び推測手段を備えたことを特徴とするエレベーターシステム。
  6.  請求項5において、
     前記呼び推測手段は、1台のエレベーターでは空きが足りない場合、複数のエレベーターを配車することを特徴とするエレベーターシステム。
  7.  請求項2において、
     前記乗客識別手段は、乗客の頭部の認識結果から乗客の乗降情報を識別し、記憶手段に記憶させることを特徴とするエレベーターシステム。
  8.  請求項7において、
     前記乗降情報は、乗客の識別子と、前記識別子に付随した乗車時間と、乗客が乗車した乗車階と、乗客が降車した降車階としたことを特徴とするエレベーターシステム。
  9.  請求項8において、
     前記乗降情報を機械学習、深層学習する学習手段を備えたことを特徴とするエレベーターシステム。
  10.  請求項7において、
     前記識別情報と、前記乗降情報とから乗客の降車階を推測する呼び推測手段を備えたことを特徴とするエレベーターシステム。
  11.  請求項2において、
     前記エレベーターは複数備えられ、前記センサは前記複数のエレベーターのそれぞれに備えられ、
     前記識別情報を前記センサの設置位置情報によって座標変換して前記エレベーター乗場の座標情報として記憶手段に記憶する座標変換手段を備え、
     前記乗客識別手段は、前記座標変換手段の座標情報に基づいて記憶された識別情報の重複を排除することを特徴とするエレベーターシステム。
  12.  請求項11において、
     前記複数のエレベーターの運行制御を行う群管理コントローラを備え、
     前記群管理コントローラは、前記複数のエレベーターのそれぞれの領域部分における人数を取得し、それぞれの領域部分におけるエレベーターに収容できる分の空きがある場合には、前記空きがあるエレベーターを配車候補とすることを特徴とするエレベーターシステム。
  13.  請求項11において、
     前記複数のエレベーターの運行制御を行う群管理コントローラを備え、
     前記群管理コントローラは、前記複数のエレベーターのそれぞれの領域部分における人数を取得し、それぞれの領域部分における面積と取得した人数とに基づいて人密度を算出し、算出した前記人密度の大小に応じて配車する前記エレベーターの順序並べ替えることを特徴とするエレベーターシステム。
  14.  請求項1において、
     前記センサは、前記三方枠における上枠の左右方向中央位置に備えたことを特徴とするエレベーターシステム。
  15.  エレベーターに乗降する乗客の情報を取得するセンサと、前記エレベーターの乗りかごの位置を示す第1のインジケータと、前記乗りかごの到着を示す第2のインジケータとを備えるエレベーターシステムにおいて、
     前記第1のインジケータ及び前記第2のインジケータは、エレベーター乗場に設けられる三方枠の上方に備えられ、
    前記センサは、前記第1のインジケータ、若しくは前記第2のインジケータに備えられたことを特徴とするエレベーターシステム。 
PCT/JP2020/037864 2019-10-25 2020-10-06 エレベーターシステム WO2021079736A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-194159 2019-10-25
JP2019194159A JP2021066575A (ja) 2019-10-25 2019-10-25 エレベーターシステム

Publications (1)

Publication Number Publication Date
WO2021079736A1 true WO2021079736A1 (ja) 2021-04-29

Family

ID=75620010

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/037864 WO2021079736A1 (ja) 2019-10-25 2020-10-06 エレベーターシステム

Country Status (2)

Country Link
JP (1) JP2021066575A (ja)
WO (1) WO2021079736A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115180470A (zh) * 2022-06-16 2022-10-14 安徽领电智能科技有限公司 一种基于自学习的楼宇电梯管控系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06263338A (ja) * 1993-03-15 1994-09-20 Mitsubishi Denki Bill Techno Service Kk エレベータの群管理装置
JPH06274713A (ja) * 1993-03-23 1994-09-30 Mitsubishi Denki Bill Techno Service Kk 混雑度検出装置
JP2001302121A (ja) * 2000-04-19 2001-10-31 Mitsubishi Electric Corp エレベータ装置
JP2002167131A (ja) * 2000-09-25 2002-06-11 Mitsubishi Electric Corp 移動体システム及びその情報供給方法
JP2002293484A (ja) * 2001-03-29 2002-10-09 Mitsubishi Electric Corp エレベータ制御装置
JP3480847B2 (ja) * 2003-02-03 2003-12-22 株式会社東芝 画像監視装置を利用したエレベータ制御装置
JP2008013325A (ja) * 2006-07-06 2008-01-24 Fujitec Co Ltd エレベータ等の表示、照明装置
JP2013173595A (ja) * 2012-02-24 2013-09-05 Hitachi Ltd エレベータ到着時間推定装置、エレベータシステム
JP2014181124A (ja) * 2013-03-21 2014-09-29 Mitsubishi Electric Building Techno Service Co Ltd エレベータ運行制御システム
JP2015051853A (ja) * 2013-09-06 2015-03-19 東芝エレベータ株式会社 エレベータシステム
JP2018002362A (ja) * 2016-06-29 2018-01-11 株式会社日立ビルシステム エレベータ制御装置
JP2019023124A (ja) * 2017-07-24 2019-02-14 株式会社日立製作所 エレベーターシステム、画像認識方法及び運行制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008195468A (ja) * 2007-02-09 2008-08-28 Toshiba Corp エレベータシステムおよびエレベータ制御方法
JP4952357B2 (ja) * 2007-04-25 2012-06-13 三菱電機ビルテクノサービス株式会社 エレベーターの防犯録画装置
JP5527789B2 (ja) * 2008-10-15 2014-06-25 日本電気株式会社 撮影装置、撮影装置付き携帯端末、人物撮影画像処理方法、人物撮影画像処理プログラムおよび記録媒体
JP2010217984A (ja) * 2009-03-13 2010-09-30 Tottori Univ 像検出装置及び像検出方法
JP5618628B2 (ja) * 2010-05-28 2014-11-05 エヌ・ティ・ティ・コムウェア株式会社 人物情報自動収集システム及び人物情報自動収集方法並びにそのプログラム
JP5888770B2 (ja) * 2011-09-22 2016-03-22 Necエンベデッドプロダクツ株式会社 迷子発見システム及び方法
JP2013245030A (ja) * 2012-05-23 2013-12-09 Toshiba Elevator Co Ltd エレベータ及びエレベータ管理方法
JP5974982B2 (ja) * 2013-06-04 2016-08-23 三菱電機株式会社 エレベータシステム
CN111212802B (zh) * 2017-10-30 2021-06-29 株式会社日立制作所 电梯使用日志输出系统以及电梯使用日志输出方法
JP6828713B2 (ja) * 2018-03-30 2021-02-10 ダイキン工業株式会社 心身状態認識システム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06263338A (ja) * 1993-03-15 1994-09-20 Mitsubishi Denki Bill Techno Service Kk エレベータの群管理装置
JPH06274713A (ja) * 1993-03-23 1994-09-30 Mitsubishi Denki Bill Techno Service Kk 混雑度検出装置
JP2001302121A (ja) * 2000-04-19 2001-10-31 Mitsubishi Electric Corp エレベータ装置
JP2002167131A (ja) * 2000-09-25 2002-06-11 Mitsubishi Electric Corp 移動体システム及びその情報供給方法
JP2002293484A (ja) * 2001-03-29 2002-10-09 Mitsubishi Electric Corp エレベータ制御装置
JP3480847B2 (ja) * 2003-02-03 2003-12-22 株式会社東芝 画像監視装置を利用したエレベータ制御装置
JP2008013325A (ja) * 2006-07-06 2008-01-24 Fujitec Co Ltd エレベータ等の表示、照明装置
JP2013173595A (ja) * 2012-02-24 2013-09-05 Hitachi Ltd エレベータ到着時間推定装置、エレベータシステム
JP2014181124A (ja) * 2013-03-21 2014-09-29 Mitsubishi Electric Building Techno Service Co Ltd エレベータ運行制御システム
JP2015051853A (ja) * 2013-09-06 2015-03-19 東芝エレベータ株式会社 エレベータシステム
JP2018002362A (ja) * 2016-06-29 2018-01-11 株式会社日立ビルシステム エレベータ制御装置
JP2019023124A (ja) * 2017-07-24 2019-02-14 株式会社日立製作所 エレベーターシステム、画像認識方法及び運行制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115180470A (zh) * 2022-06-16 2022-10-14 安徽领电智能科技有限公司 一种基于自学习的楼宇电梯管控系统
CN115180470B (zh) * 2022-06-16 2024-05-07 安徽领电智能科技有限公司 一种基于自学习的楼宇电梯管控系统

Also Published As

Publication number Publication date
JP2021066575A (ja) 2021-04-30

Similar Documents

Publication Publication Date Title
CN109292579B (zh) 电梯系统、图像识别方法和运行控制方法
JP6682672B1 (ja) エレベータシステム、エレベータ群管理制御装置及びエレベータの号機割当て方法
JP5865729B2 (ja) エレベータシステム
EP3392178B1 (en) Method for controlling an elevator system
CN110626891B (zh) 用于改进的电梯调度的系统和方法
JP6974489B2 (ja) エレベーター運行管理システムおよびエレベーター運行管理方法
EP3733577B1 (en) Elevator car assignment based on a detected number of waiting passengers
CN106144795A (zh) 通过识别用户操作用于乘客运输控制和安全的系统和方法
CN106144798A (zh) 用于乘客运输控制的传感器融合
JP2009502691A (ja) ユーザをエレベータシステムへと割り当てるための方法
CN106144816A (zh) 基于深度传感器的乘客检测
CN107416620A (zh) 目的地调度的动态调整
JP6230472B2 (ja) 群管理エレベータ装置
KR102473630B1 (ko) 로봇 친화형 건물
EP3882208A1 (en) Elevator calling coordination for robots and individuals
JP6776549B2 (ja) エレベータの群管理制御装置及び群管理システム、並びにエレベータシステム
JP2023129536A5 (ja) エレベータ制御システム、プログラム及び制御方法
WO2021079736A1 (ja) エレベーターシステム
CN113401740A (zh) 用于与电梯和建筑物系统端到端机器人集成的方法和架构
US20210101776A1 (en) Elevator system
EP3416909B1 (en) Elevator access control system
JP6719357B2 (ja) エレベータシステム
CN112978534B (zh) 电梯控制方法、电梯控制装置和电梯系统
JP2017214165A (ja) エレベーターシステム
JP7327560B1 (ja) エレベータの群管理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20878626

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20878626

Country of ref document: EP

Kind code of ref document: A1