WO2023199520A1 - 物体検知装置およびエレベーターシステム - Google Patents

物体検知装置およびエレベーターシステム Download PDF

Info

Publication number
WO2023199520A1
WO2023199520A1 PCT/JP2022/017944 JP2022017944W WO2023199520A1 WO 2023199520 A1 WO2023199520 A1 WO 2023199520A1 JP 2022017944 W JP2022017944 W JP 2022017944W WO 2023199520 A1 WO2023199520 A1 WO 2023199520A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
detection
shape data
door
sleeve frame
Prior art date
Application number
PCT/JP2022/017944
Other languages
English (en)
French (fr)
Inventor
陽介 齋藤
和宏 渡辺
友也 新井
浩章 村上
裕之 河野
元気 山下
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2022/017944 priority Critical patent/WO2023199520A1/ja
Publication of WO2023199520A1 publication Critical patent/WO2023199520A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B13/00Doors, gates, or other apparatus controlling access to, or exit from, cages or lift well landings
    • B66B13/24Safety devices in passenger lifts, not otherwise provided for, for preventing trapping of passengers
    • B66B13/26Safety devices in passenger lifts, not otherwise provided for, for preventing trapping of passengers between closing doors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B3/00Applications of devices for indicating or signalling operating conditions of elevators

Definitions

  • the present disclosure relates to an object detection device and an elevator system.
  • Patent Document 1 discloses an object detection device for an elevator system.
  • the object detection device captures an image of the entrance and exit of the car.
  • the object detection device sets a detection area in the vicinity of the door and the sleeve frame in the image.
  • the object detection device can detect a detection target existing in a detection area.
  • the detection area is set based on information on installation conditions stored in advance, such as information on the dimensions of the car and information on the installation angle of the camera. That is, information on the installation conditions needs to be stored in advance. Therefore, preparations for setting the detection area in each elevator system are required each time.
  • An object of the present disclosure is to provide an object detection device and an elevator system that can easily set a detection area.
  • the object detection device sets a plurality of areas for shape data of an object existing below the shape data acquisition device acquired by the shape data acquisition device provided at the upper part of the entrance/exit of an elevator car.
  • the area setting unit determines the shape of the door among the plurality of regions in the shape data.
  • a first area recognition unit that recognizes a door area indicating a position; and one or more second areas of the plurality of areas in the shape data based on the position of the door area recognized by the first area recognition unit.
  • a detection target object is present in the detection area set by the detection area setting unit based on shape data acquired by a detection area setting unit that sets a detection area in at least one of the areas and the shape data acquisition device. and a detection processing unit that detects.
  • An elevator system includes a car, a door provided at the doorway of the car, and a shape data acquisition device provided above the doorway of the car to obtain shape data of an object present below.
  • the object detection device includes the object detection device, and a control panel that stops the opening or closing operation of the door when the object detection device detects that a detection target exists in the detection area.
  • the object detection device sets a detection area based on the acquired shape data. Therefore, the detection area can be easily set.
  • FIG. 1 is a diagram showing an outline of a building provided with an elevator system in Embodiment 1.
  • FIG. 1 is a perspective view showing a main part of a car of the elevator system in Embodiment 1.
  • FIG. 1 is a perspective view showing a main part of a car of the elevator system in Embodiment 1.
  • FIG. 1 is a perspective view showing a main part of a car of the elevator system in Embodiment 1.
  • FIG. 3 is a diagram showing regions set in shape data acquired by the shape data acquisition device of the elevator system in Embodiment 1.
  • FIG. FIG. 3 is a diagram showing shape data including a region recognized by the elevator system in Embodiment 1.
  • FIG. FIG. 3 is a diagram showing shape data including a detection area set by the elevator system in Embodiment 1.
  • FIG. FIG. 3 is a diagram showing shape data including a detection area set by the elevator system in Embodiment 1.
  • FIG. FIG. 3 is a diagram showing shape data on which detection processing of the elevator system in Embodiment 1 is performed.
  • 2 is a flowchart for explaining an overview of detection area setting processing of a detection processor of an elevator system in Embodiment 1.
  • FIG. FIG. 3 is a perspective view showing the main parts of the car of the elevator system in Embodiment 2.
  • FIG. 7 is a diagram showing shape data including a detection area set by the elevator system in Embodiment 2.
  • FIG. 7 is a diagram showing shape data including a detection area set by the elevator system in Embodiment 2.
  • FIG. 2 is a perspective view showing a main part of the elevator car of the elevator system of Embodiment 1 and Embodiment 2.
  • FIG. FIG. 2 is a perspective view showing a main part of the elevator car of the elevator system of Embodiment 1 and Embodiment 2.
  • FIG. 3 is a diagram showing regions set in shape data acquired by the shape data acquisition device of the elevator system in Embodiment 1 and Embodiment 2;
  • FIG. 7 is a perspective view showing a landing of the elevator system in Embodiment 2.
  • FIG. FIG. 7 is a perspective view showing the main parts of the car of the elevator system in Embodiment 3;
  • FIG. 7 is a perspective view showing the main parts of the car of the elevator system in Embodiment 3; It is a figure which shows the 2nd modification of the elevator system in Embodiment 3. It is a figure which shows the 3rd modification of the elevator system in Embodiment 3.
  • FIG. 12 is a diagram showing a first example of shape data including a detection area set by the elevator system in Embodiment 4;
  • FIG. 12 is a diagram showing a second example of shape data including a detection area set by the elevator system in Embodiment 4;
  • FIG. 12 is a diagram showing a relationship between a detection area set by an object detection device of an elevator system and time in Embodiment 4;
  • FIG. 7 is a diagram showing a detection area set by the elevator system in Embodiment 5.
  • FIG. 2 is a hardware configuration diagram of an object detection device of an elevator system in Embodiments 1 to 5.
  • FIG. 2 is a hardware configuration diagram of an object detection device of an elevator system in Embodiments 1 to
  • FIG. 1 is a diagram showing an outline of a building in which an elevator system according to the first embodiment is installed.
  • the hoistway 2 penetrates each floor of the building 3.
  • the machine room 4 is provided directly above the hoistway 2.
  • the main rope 5 is wound around a hoist 6 provided in the machine room 4.
  • the car 7 is suspended from the main rope 5 inside the hoistway 2.
  • a plurality of landings 8 are provided on each floor of the building 3. Each of the plurality of landings 8 faces the hoistway 2.
  • the plurality of landing doors 9 are provided at the entrances and exits of the plurality of landings 8, respectively.
  • the plurality of landing door frames 10 are provided at the entrances and exits of the plurality of landings 8, respectively.
  • the car door device 11 is provided at the entrance/exit of the car 7.
  • the car door device 11 includes a pair of door panels 12 and a driver 13.
  • the pair of door panels 12 are provided at the entrance/exit of the car 7 so as to be perpendicular to the direction of getting on and off the car 7.
  • the direction of getting on and off the car 7 is the direction of getting on or getting off the car 7, which is the left-right direction in the drawing.
  • the pair of door panels 12 can be opened and closed in a direction perpendicular to the boarding and exiting direction and horizontally.
  • the pair of door panels 12 can be opened and closed in opposite directions.
  • the drive machine 13 can open and close the pair of door panels 12.
  • the control panel 14 is provided in the machine room 4.
  • the control panel 14 is electrically connected to the hoisting machine 6 and the drive machine 13.
  • the control panel 14 can control the elevator system 1 as a whole.
  • the elevator system 1 includes an object detection device 20 as a safety device.
  • the object detection device 20 is provided in the car 7.
  • the object detection device 20 can monitor the entrance/exit of the car 7 and detect objects present near the entrance/exit.
  • the hoisting machine 6 is driven based on the control of the control panel 14.
  • the car 7 moves up and down as the hoist 6 is driven.
  • the control panel 14 sends a command to the driving machine 13 to open the pair of door panels 12.
  • the driving machine 13 opens the pair of door panels 12 in the door opening/closing direction.
  • the driving machine 13 closes the pair of door panels 12 in the door opening/closing direction based on a command from the control panel 14 to close the pair of door panels 12 .
  • the object detection device 20 sets a detection area around the pair of door panels 12 in advance.
  • the object detection device 20 can detect the presence of a detection target inside the detection area before the pair of door panels 12 opens or before the pair of door panels 12 closes.
  • the object detection device 20 detects that a detection target exists within the detection area, it transmits detection information indicating that the detection target has been detected to the control panel 14 .
  • the control panel 14 receives the detection information before the pair of door panels 12 are opened, it stops transmitting the command to open the pair of door panels 12.
  • the control panel 14 receives the detection information before the pair of door panels 12 are closed, it stops transmitting the command to close the pair of door panels 12. Note that, instead of stopping the transmission of the command to open or close the pair of door panels 12, the control panel 14 transmits a command to the driving machine 13 to stop the operation of opening or closing the pair of door panels 12. Good too.
  • FIG. 2 is a perspective view showing the main parts of the car of the elevator system in the first embodiment.
  • FIG. 2 shows an overview of the entrance and exit of the car 7.
  • the car 7 includes a floor 7a, an upper frame 7b, and a pair of sleeve frames 7c and 7d.
  • the floor 7a is the floor inside the car 7.
  • the upper frame 7b and the pair of sleeve frames 7c and 7d are provided inside the car 7 as a three-sided frame for the entrance and exit of the car 7.
  • the upper frame 7b is provided above the entrance/exit of the car 7.
  • a pair of sleeve frames 7c and 7d are provided on both sides of the entrance/exit of the car 7, respectively.
  • the pair of sleeve frames 7c and 7d each have a sleeve frame surface adjacent to each pair of door panels 12.
  • the sleeve frame surface of the sleeve frame 7c and the sleeve frame surface of the sleeve frame 7d face each other.
  • a gap exists between the pair of sleeve frames 7c, 7d and each pair of door panels 12 for opening and closing.
  • the object detection device 20 includes a shape data acquisition device 21 and a detection processor 22.
  • the shape data acquisition device 21 is provided in the upper frame 7b as a shape data acquisition section.
  • the shape data acquisition device 21 is located at the center of the upper frame 7b in the horizontal direction.
  • the shape data acquisition device 21 is a sensor that acquires shape data indicating the shape of an object existing in a detection target range.
  • the shape data acquisition device 21 acquires the shape of an object as shape data in a two-dimensionally defined format.
  • the shape data acquisition device 21 is a camera that captures a video that is an image or a series of images.
  • the shape data acquisition device 21 acquires image data or video data as shape data in a two-dimensionally defined format.
  • the shape data acquisition device 21 may be an infrared camera or the like as long as it can acquire two-dimensional shape data.
  • the shape data acquisition device 21 is provided so as to be able to acquire shape data of an object existing below. Specifically, the shape data acquisition device 21 is provided on the upper frame 7b so as to be able to photograph the pair of door panels 12, the floor 7a, and the pair of sleeve frames 7c and 7d.
  • the mounting angle and mounting position of the shape data acquisition device 21 may be any angle and position as long as the shape data of the pair of door panels 12, the floor 7a, and the pair of sleeve frames 7c, 7d can be acquired. and position.
  • the shape data acquisition device 21 transmits the acquired shape data to the detection processor 22.
  • the shape data acquisition unit 21 acquires shape data at regular intervals and transmits it to the detection processor 22.
  • the shape data acquisition device 21 detects whether the pair of door panels 12 are in an open state or a closed state based on information from the drive machine 13 or the control panel 14 (not shown in FIG. 2).
  • the shape data acquisition device 21 acquires the shape data when the pair of door panels 12 are in the open state, and performs detection processing on the shape data when the door is open, in which the shape data is associated with the label indicating when the door is open. 22.
  • the shape data acquisition unit 21 acquires the shape data when the pair of door panels 12 are in the closed state, and performs detection processing on the shape data when the door is closed, in which the shape data is associated with the label indicating when the door is closed. 22.
  • the shape data acquisition device 21 may detect whether the pair of door panels 12 is in an open state or a closed state based on the acquired shape data. Specifically, the shape data acquisition unit 21 acquires a series of temporally continuous shape data in a state where the pair of door panels 12 are continuously performing an opening operation or a closing operation. The shape data acquisition device 21 automatically extracts shape data when the door is open and when the door is closed from the series of shape data. In this case, the shape data acquisition unit 21 generates door open shape data in which the extracted shape data is associated with the door open label, or door open shape data in which the extracted shape data is associated with the door closed label. The shape data at the time of closing may be transmitted to the detection processor 22. A known technique may be applied to the process in which the shape data acquisition unit 21 extracts shape data when the door is open or closed.
  • the detection processor 22 performs a detection area setting process to set a detection area for the shape data.
  • the detection processor 22 performs a detection process to detect a detection target existing within the set detection area.
  • the detection processor 22 includes a storage section 23 , a reception section 24 , an area setting section 25 , a first area recognition section 26 , a second area recognition section 27 , a detection area setting section 28 , and a detection processing section 29 .
  • the storage unit 23 stores the shape data acquired by the shape data acquisition device 21.
  • the receiving unit 24 receives the shape data transmitted by the shape data acquisition unit 21 and stores it in the storage unit 23.
  • the area setting unit 25 sets a plurality of areas for the shape data in the detection area setting process.
  • the area setting unit 25 creates information on the plurality of areas that have been set.
  • the area setting unit 25 sets areas of the surface in the same dimensional space as the shape data as a plurality of areas.
  • the region setting unit 25 sets coordinates in a two-dimensional space corresponding to the image, which is the shape data stored in the storage unit 23. In this case, the region setting unit 25 expresses the plurality of regions using the coordinates of the two-dimensional space.
  • the area setting unit 25 uses image processing techniques such as edge detection to determine the boundaries of the image in the image based on the continuity of the image, which is the shape data stored in the storage unit 23, the intensity information inside the image, etc. Set.
  • the area setting unit 25 sets a plurality of areas surrounded by each boundary.
  • the area setting unit 25 creates information on a plurality of areas when the door is open, based on the shape data when the door is open, which is stored in the storage unit 23.
  • the area setting unit 25 creates information on a plurality of areas when the door is closed, based on the shape data when the door is closed, which is stored in the storage unit 23.
  • the first area recognition unit 26 recognizes the door area as the first area among the multiple areas included in the information on the multiple areas created by the area setting unit 25.
  • the door area is an area corresponding to the pair of door panels 12, and is an area corresponding to the position of the pair of door panels 12 in the shape data.
  • the first area recognition unit 26 compares a plurality of areas when the door is open and a plurality of areas when the door is closed, and detects a difference.
  • the first area recognition unit 26 recognizes, as a door area, an area where the difference exceeds a threshold value among the plurality of areas when the door is closed.
  • the first area recognition unit 26 attaches a label indicating that the recognized door area is a door area among the plurality of areas.
  • the second area recognition unit 27 recognizes one or more second areas among the plurality of areas included in the information on the plurality of areas created by the area setting unit 25.
  • the second region recognition section 27 recognizes the second region among the plurality of regions when the door is closed, based on the positional relationship with the door region recognized by the first region recognition section 26.
  • the second area recognition unit 27 attaches a label indicating that this is the recognized second area among the plurality of areas.
  • the second areas are the first sleeve frame area, the second sleeve frame area, and the floor area.
  • the first sleeve frame area is an area corresponding to one of the pair of sleeve frames 7c, 7d, and is an area corresponding to the position of one of the pair of sleeve frames 7c, 7d in the shape data.
  • the second sleeve frame area is an area corresponding to the other of the pair of sleeve frames 7c, 7d, and is an area corresponding to the position of the other of the pair of sleeve frames 7c, 7d in the shape data.
  • the floor area is an area corresponding to the floor 7a, and is an area corresponding to the position of the floor 7a in the shape data.
  • the detection area setting unit 28 sets one or more detection areas in the dimensional space corresponding to the shape data for the shape data. For example, when the shape data is defined in a two-dimensional space, the detection area setting unit 28 sets a detection area expressed in two dimensions. Specifically, the detection area setting unit 28 sets an area expressed by two-dimensional coordinates as one or more detection areas in the image acquired by the shape data acquisition device 21.
  • the detection area setting unit 28 sets the detection area based on the position of at least one of the first area and the second area. Specifically, for example, the detection area setting unit 28 detects an area including at least a part of the door area, an area including at least a part of the first sleeve frame area which is the second area, and a second area which is the second area. At least one region including at least a part of the sleeve frame region is set as a detection region.
  • the detection processing unit 29 performs detection processing. Specifically, when shape data is received from the shape data acquisition device 21, the detection processing section 29 applies the detection region set by the detection region setting section 28 in the detection region setting process to the shape data. The detection processing unit 29 determines whether or not a detection target exists in the detection area in the shape data based on the result of applying the shape data to the shape data. When a detection target object exists in the detection area, the detection processing unit 29 detects the detection target object existing inside the detection area. In this case, the detection processing unit 29 transmits information to the control panel 14 that the detection target object has been detected.
  • FIGS. 3 and 4 are perspective views showing essential parts of the elevator system car in the first embodiment.
  • FIG. 3 shows the entrance and exit of the car 7 when the pair of door panels 12 are in the open state.
  • the open state is a state in which the pair of door panels 12 are fully open. That is, when the door is open means when the pair of door panels 12 are fully open.
  • FIG. 4 shows the entrance and exit of the car 7 when the pair of door panels 12 are in the closed state.
  • the closed state is a state in which the pair of door panels 12 are fully closed. That is, when the door is closed means when the pair of door panels 12 are fully closed.
  • FIG. 5 is a diagram showing areas set in the shape data acquired by the shape data acquisition device of the elevator system in the first embodiment.
  • FIG. 5 is an image representing information on a plurality of regions when the door is open, which is created based on the shape data when the door is open.
  • FIG. 5B is an image representing information on a plurality of areas when the door is closed, which is created based on the shape data when the door is closed.
  • the region setting unit 25 sets regions and boundaries within the image based on continuity in the color space.
  • the area setting unit 25 detects a group of pixels that are adjacent to each other and have similar colors among the plurality of pixels constituting the RGB image as a continuity of the color space, and groups the group of pixels. do.
  • the area setting unit 25 detects the group of the grouped pixels as one area. Further, when there is no continuity between a group of pixels and another group of pixels, the area setting unit 25 detects the gap between the two groups and sets a boundary.
  • the area setting unit 25 creates information on a plurality of areas based on the detected boundaries or areas.
  • the area setting unit 25 when setting a plurality of areas for shape data that is a two-dimensional infrared image, the area setting unit 25 sets boundaries and areas within the image based on the continuity of infrared intensity. At this time, the area setting unit 25 detects, as continuity of infrared intensity, a group of pixels that are adjacent to each other and have similar intensities among the plurality of pixels forming the infrared image, and groups them. Thereafter, the area setting unit 25 performs the same processing as in the example of the RGB image.
  • the first area recognition unit 26 compares the information of the plurality of areas when the door is open and the information of the plurality of areas when the door is closed, and the difference between the two exceeds a threshold value in the information of the plurality of areas when the door is closed. Detect areas. For example, in (B) of FIG. 5, the first area recognition unit 26 detects an area A0 in which the difference exceeds the threshold value. Note that the first area recognition unit 26 may detect a plurality of areas A0 in which the difference exceeds a threshold value.
  • FIG. 6 is a diagram showing shape data including a region recognized by the elevator system in the first embodiment.
  • the first area recognition unit 26 recognizes area A0 as door area A1 in the information on multiple areas when the door is closed. Note that when there are a plurality of areas A0, the first area recognition unit 26 integrates the plurality of areas A0 to form a door area A1. Further, the first area recognition unit 26 may set the areas corresponding to each of the plurality of areas A0 as the plurality of door areas A1.
  • the second area recognition unit 27 recognizes the first sleeve frame area A2 and the second sleeve frame area A3, which are the second areas, based on the positional relationship with the door area A1. do. Specifically, the second area recognition unit 27 detects two areas that are adjacent to the door area A1 in the boarding/exiting direction among the plurality of areas and are symmetrical in the door opening/closing direction. At this time, the two regions that are symmetrical in the door opening/closing direction may be regions that are approximately symmetrical in position with respect to the door opening/closing direction. The two regions that are symmetrical in the door opening/closing direction may be regions that are approximately symmetrical in shape.
  • the second area recognition unit 27 recognizes the two areas as the first sleeve frame area A2 and the second sleeve frame area A3.
  • the second area recognition unit 27 determines that the areas recognized as the first sleeve frame area A2 and the second sleeve frame area A3 among the plurality of areas are the first sleeve frame area A2 and the second sleeve frame area A3, respectively. Attach a label indicating the At this time, either of the two areas may be the first sleeve frame area A2 or the second sleeve frame area A3.
  • the first sleeve frame area A2 corresponds to the sleeve frame 7c.
  • the second sleeve frame area A3 corresponds to the sleeve frame 7d.
  • the second area recognition unit 27 recognizes the floor area A4, which is the second area, based on the positional relationship between the door area A1, the first sleeve frame area A2, and the second sleeve frame area A3. Specifically, the second area recognition unit 27 recognizes an area adjacent to the door area A1, the first sleeve frame area A2, and the second sleeve frame area A3 among the plurality of areas as the floor area A4. The second area recognition unit 27 attaches a label indicating that the area is the floor area A4 to an area recognized as the floor area A4 among the plurality of areas.
  • FIGS. 7 and 8 are diagrams showing shape data including a detection area set by the elevator system according to the first embodiment.
  • FIG. 7 shows a first example of the detection area.
  • the detection area setting unit 28 sets a detection area Ad in a part of the first sleeve frame area A2 and a part of the second sleeve frame area A3.
  • the shape of the detection area Ad is a rectangle.
  • the detection area setting unit 28 may set the detection area Ad in the entire first sleeve frame area A2 and the entire second sleeve frame area A3.
  • FIG. 8 shows a second example of the detection area.
  • the detection area Ad has a wider shape in a portion closer to the floor area A4 than in the first example. Portions of the first sleeve frame area A2 and the second sleeve frame area A3 near the floor area are areas where children's hands are likely to be placed.
  • the detection area may be set inside the door area.
  • the detection area may be an area that includes at least a portion of the door area and may be set to an area that the pair of door panels 12 pass through when opening and closing.
  • the detection area may be set in the area of the landing 8 that is visible when the pair of door panels 12 are open. In this case, the detection area may be set to an area that includes at least a portion of the door area and includes a position corresponding to the landing area 8.
  • FIG. 9 is a diagram showing shape data on which detection processing of the elevator system in the first embodiment is performed.
  • (A) in FIG. 9 shows shape data when there is no detection target object in the detection area.
  • the storage unit 23 stores shape data when there is no detection target object in the detection area as reference shape data.
  • (B) in FIG. 9 shows shape data when a detection target object exists in the detection area.
  • the shape data acquisition unit 21 acquires shape data of the detection target including an image of the detection target.
  • the detection processing unit 29 compares the shape data of the detection target with the reference shape data and calculates the difference between the two shape data. Specifically, when the shape data is an RGB image, the detection processing unit 29 calculates a color difference between the shape data of the detection target and the reference shape data. That is, the detection processing unit 29 calculates the difference in color between a plurality of pixels forming the shape data of the detection target and a plurality of pixels forming the reference shape data.
  • the detection processing unit 29 extracts pixels for which the calculated pixel color difference exceeds a preset threshold.
  • the detection processing unit 29 determines that the difference between the two shape data exceeds the preset threshold.
  • the extracted amount may be set as an index such as the number of pixels, which is the number of pixels whose difference exceeds a threshold, or an area constituted by pixels whose difference exceeds a threshold.
  • the detection processing unit 29 applies the detection region to the shape data of the detection target. If the detection area includes a position where there is a difference between the two shape data, the detection processing unit 29 detects the detection target existing in the detection area.
  • the detection processing unit 29 may calculate a distance difference as the difference between the two shape data. Further, the detection processing unit 29 may specify an image indicating the detection target by performing edge processing on the shape data of the detection target instead of calculating the difference. In this case, the detection processing unit 29 may apply the detection area to the shape data of the detection target whose image has been identified, and may detect the detection target when the image is present in the detection area.
  • FIG. 10 is a flowchart for explaining an overview of the detection area setting process of the detection processor of the elevator system in the first embodiment.
  • the detection processor 22 starts the detection area setting process at an arbitrary timing.
  • step S01 the detection processor 22 acquires shape data from the shape data acquisition device 21. At this time, the detection processor 22 acquires shape data when the door is open and shape data when the door is closed.
  • step S02 the detection processor 22 sets a plurality of areas.
  • step S03 the detection processor 22 recognizes the door area from a plurality of areas.
  • step S04 the detection processor 22 recognizes the first sleeve frame area and the second sleeve frame area from the plurality of areas as the second area.
  • step S05 the detection processor 22 sets a part of the first sleeve frame area and a part of the second sleeve frame area as the detection area.
  • the detection processor 22 ends the detection area setting process.
  • the elevator system 1 includes the object detection device 20.
  • the object detection device 20 includes a region setting section 25 , a first region recognition section 26 , a second region recognition section 27 , a detection region setting section 28 , and a detection processing section 29 .
  • the first area recognition unit 26 recognizes the door area by comparing the shape data of the pair of door panels 12 in the open state and the shape data in the closed state.
  • the second area recognition unit 27 recognizes the second area based on the door area.
  • the detection area setting unit 28 sets a detection area based on at least one of the first area and the second area.
  • the object detection device 20 can set the detection area without using information on installation conditions such as information on the dimensions of the car 7, information on the mounting angle of the shape data acquisition device 21, and the like. There is no need to input installation condition information into the object detection device 20 in advance. Therefore, the object detection device 20 can easily set the detection area. Moreover, even if the condition of the dimensions of the car 7 is different from what was expected in advance, the object detection device 20 can set the detection area.
  • the object detection device 20 uses a two-dimensional image, which is two-dimensionally defined shape data, as the shape data.
  • the second area recognition unit 27 sets the first sleeve frame area and the second sleeve frame area based on the positional relationship with the door area. Therefore, the object detection device 20 can recognize an area corresponding to the internal configuration of the car 7 from a plurality of areas. At this time, the object detection device 20 can recognize the second area using a simple algorithm such as determining whether the areas are adjacent in the two-dimensional space. As a result, the calculation load for recognizing the second area can be suppressed.
  • the object detection device 20 sets a detection area in at least one of an area including at least a part of the first sleeve frame area and an area including at least a part of the second sleeve frame area. Therefore, objects can be prevented from being drawn into the gap between the sleeve frames 7c, 7d and the door panel 12.
  • the object detection device 20 sets an area that includes at least a portion of the door area and that the pair of door panels 12 passes through when opening and closing as a detection area. Therefore, it is possible to prevent objects from being caught between the pair of door panels 12.
  • the object detection device 20 sets an area that includes at least a portion of the door area and includes a position corresponding to the landing area 8 as a detection area. Therefore, an object attempting to board the car 7 from the landing 8 can be detected.
  • the elevator system 1 may be an elevator system without a machine room.
  • the elevator system 1 may be an elevator system in which a plurality of cars are suspended inside a hoistway.
  • the shape data acquisition device 21 may be provided not in the upper frame of the car 7 but in the upper frame of the three-sided frame of the landing door frame 10. In this case, the shape data acquisition device 21 may be provided at each of the plurality of landings 8.
  • the detection processor 22 may be provided in the machine room 4.
  • FIG. 11 is a perspective view showing the main parts of a car of an elevator system according to the second embodiment. Note that parts that are the same as or equivalent to those in Embodiment 1 are given the same reference numerals. Description of this part will be omitted.
  • the shape data acquisition device 21 is a sensor that acquires shape data in a three-dimensionally defined format.
  • the shape data acquisition device 21 measures points indicating the position of an object in a three-dimensional space, and acquires a three-dimensional point group that is a set of the measured points as shape data.
  • the shape data acquisition device 21 is a sensor using LiDAR (Light Detection and Ranging) technology, a sensor using ToF (Time of Flight) technology, a stereo camera, or the like.
  • the information on the point measured by the shape data acquisition device 21 includes distance information from the shape data acquisition device 21 to the measurement point and information on the angular position of the measurement point with respect to the shape data acquisition device 21.
  • the information on the points measured by the shape data acquisition device 21 may further include measurement intensity information of the measurement points measured by the shape data acquisition device 21.
  • the intensity information of the measurement point is information indicating the reflection intensity, which is the intensity of the reflected wave from the point when the shape data acquisition device 21 measures the point.
  • the information on the measurement point may include information on three-dimensional spatial coordinates having the measurement detection position of the shape data acquisition device 21 as the origin.
  • the shape data acquisition device 21 transmits a three-dimensional point group that includes measurement points exceeding a specified number to the detection processor 22 as shape data.
  • the area setting unit 25 detects a surface formed by the three-dimensional point group shown in the shape data based on the flatness of the three-dimensional point group. At this time, the area setting unit 25 extracts subgroups of the point group that can be considered to exist on the same plane from the three-dimensional point group, and labels them as areas of one plane. In this way, the area setting unit 25 distinguishes and detects the plane formed by the three-dimensional point group as a plurality of planes. The area setting unit 25 sets each of the detected faces as a plurality of areas. In this case, each of the plurality of regions is a surface region existing within a three-dimensional space.
  • the area setting unit 25 detects the surfaces formed by the three-dimensional point group, such as a plane, a curved surface, and a raised surface, as a plurality of surfaces. It's okay.
  • the first area recognition unit 26 recognizes the door area among the multiple areas when the door is closed by comparing the multiple areas when the door is open and the multiple areas when the door is closed. Specifically, the first region recognition unit 26 detects one or more regions that do not exist in the plurality of regions when the door is open but exists in the plurality of regions when the door is closed, and identifies the one or more regions as the door. Recognize it as an area.
  • the second area recognition unit 27 recognizes the floor area based on the positional relationship between the plurality of areas and the shape data acquisition device 21. Specifically, the second region recognition unit 27 recognizes the region directly facing the shape data acquisition device 21 among the plurality of regions as the floor region.
  • the second area recognition unit 27 recognizes the first sleeve frame area and the second sleeve frame area based on the positional relationship between the door area and the floor area. Specifically, the second area recognition unit 27 identifies two areas, which are orthogonal to the floor area and adjacent to the door area, as a first sleeve frame area and a second sleeve frame area, respectively. Recognize that there is.
  • FIG. 12 is a diagram showing shape data including a detection area set by the elevator system according to the second embodiment. Note that in FIG. 12, illustration of the detection processor 22 is omitted.
  • the detection region setting unit 28 detects one or more three-dimensional spatial regions in the three-dimensional space to be measured by the shape data acquisition device 21.
  • Set to area For example, the detection area setting unit 28 sets a three-dimensional spatial area including at least a portion of the first sleeve frame area as the detection area Ad.
  • the detection area setting unit 28 sets a three-dimensional space area including at least a portion of the second sleeve frame area as the detection area Ad.
  • the shape of the detection area is arbitrarily set depending on the location where it is set.
  • the shape of the detection area Ad is a rectangular parallelepiped.
  • the thickness of the detection area Ad from the first sleeve frame area is several centimeters (cm).
  • the thickness of the detection area Ad from the door area is several centimeters (cm).
  • the thickness of the detection area Ad from the first sleeve frame area and from the door area is about 5 cm to 10 cm. If the thickness of the detection area Ad from the first sleeve frame area or the thickness from the door area is less than 5 cm, there is a possibility that the object to be detected cannot be detected accurately. If the thickness of the detection area Ad from the first sleeve frame area or the thickness from the door area is greater than 10 cm, there is a possibility that an object that should not be detected may be detected.
  • the shape of the detection area corresponding to the first sleeve frame area or the second sleeve frame area may be such that the width in the getting-on/off direction is widened in the lower part. That is, the detection area may be set so that the volume of the detection area becomes larger in a portion where a child's hand is likely to be placed.
  • the detection area setting unit 28 may set a three-dimensional spatial area including the space through which the pair of door panels 12 passes when opening and closing as the detection area. At this time, the detection area setting unit 28 sets a three-dimensional spatial area including the door area as the detection area. In this case, the detection processor 22 can detect a person getting into or getting off the car 7 while the pair of door panels 12 are open.
  • the detection area setting unit 28 may set a three-dimensional spatial area including a position corresponding to the landing 8 where the car 7 stops as the detection area. At this time, the detection area setting unit 28 may set a three-dimensional spatial area including the door area as the detection area. In this case, the detection processor 22 can detect a person getting into the car 7 from the landing 8 with the pair of door panels 12 open.
  • the storage unit 23 stores shape data when there is no detection target object in the detection area as reference shape data.
  • the detection processing unit 29 compares the shape data of the detection target acquired by the shape data acquisition unit 21 with the reference shape data, and calculates the difference between the two shape data. Specifically, the detection processing unit 29 calculates a point group of measurement points that exist in the shape data of the detection target but do not exist in the reference shape data as the difference. The detection processing unit 29 applies the detection area to the calculated difference between the point clouds, and determines that a detection target object exists in the detection area when the difference between the point clouds existing inside the detection area is equal to or greater than a predetermined threshold. Detect.
  • FIG. 13 is a diagram showing shape data including a detection area set by the elevator system according to the second embodiment. Note that in FIG. 13, illustration of the object detection device 20 is omitted.
  • FIG. 13 shows a single door panel 12a rather than a pair of double door panels 12.
  • the single-swing door panel 12a is a single-swing car door panel.
  • the single door panel 12a is composed of two panels 12b and 12c.
  • the single door panel 12a is provided at the entrance/exit of the car 7 so as to be movable in the opening/closing direction.
  • the panel 12b is the inner panel of the car 7 out of the two panels 12b and 12c.
  • a surface 12d of the panel 12b perpendicular to the panel 12c is a surface serving as a boundary position between the two panels 12b and 12c. If an object exists near the vertical surface 12d, there is a possibility that the object will be caught in the gap between the two panels 12b and 12c when the single door panel 12a moves in the opening direction d. be.
  • the first region recognition unit 26 recognizes the region corresponding to the surface 12d of the panel 12b among the plurality of regions as the door boundary region. Specifically, the first area recognition unit 26 recognizes an area parallel to the boarding direction of the car 7 among the plurality of areas as the door boundary area. The first area recognition unit 26 attaches a label indicating that the door boundary area is a door boundary area to the recognized door boundary area among the plurality of boundaries. Note that the door boundary area is located inside the door area. The first area recognition unit 26 may also recognize the door boundary area as a door area. That is, a label for the door area and a label for the door boundary area are attached to the door boundary area.
  • the detection area setting unit 28 sets a three-dimensional spatial area that includes at least a portion of the door boundary area as the detection area Ad.
  • the object detection device 20 detects a detection target using three-dimensional point group data, which is three-dimensionally defined shape data. Therefore, the accuracy of detecting the object to be detected can be improved compared to the case where two-dimensionally defined shape data is handled.
  • the object detection device 20 sets at least one of the three-dimensional spatial regions including at least part of the first sleeve frame region and the second sleeve frame region as a detection region. Further, the object detection device 20 sets a three-dimensional spatial region that includes a part of the door region and that the pair of door panels 12 passes through when opening and closing as a detection region. Further, the object detection device 20 sets a three-dimensional spatial region including a position corresponding to the landing as a detection region. Therefore, the object detection device 20 can detect objects corresponding to each area.
  • the object detection device 20 recognizes the door boundary area based on the shape data.
  • the object detection device 20 sets a detection area corresponding to the door boundary area. Therefore, the object detection device 20 can prevent objects from being caught in the door boundary area.
  • the detection processing unit 29 of the object detection device 20 may perform detection processing using information on the measured intensity of the object. If the shape data acquisition device 21 is a device that always measures in a fixed measurement direction, such as a stereo camera, the three-dimensional point group PC0 of the reference shape data and the three-dimensional point group PC1 of the shape data of the detection target are The positions of each measurement point correspond to each other on a one-to-one basis and match.
  • the detection processing unit 29 calculates the difference between the reflection intensity of each measurement point in the point group PC0 and the reflection intensity of each measurement point in the point group PC1. Regarding the point group PC1 existing in the detection area, when the difference is greater than or equal to the threshold value, the detection processing unit 29 detects the detection target object.
  • the detection processing unit 29 also uses distance information to the measurement points in order to recognize the position of each measurement point.
  • the shape data acquisition unit 21 is a device that performs measurement by slightly changing the measurement direction for each measurement, such as some models of LiDAR
  • the detection processing unit 29 performs multiple measurements of the point cloud PC0. Measurement points corresponding to each measurement point of point group PC1 are found from among the points.
  • the detection processing unit 29 regards the measurement point of the point group PC0 that is closest to the measurement point of the point group PC1 as the corresponding measurement point. Therefore, the object detection device 20 can improve the accuracy of detecting the object to be detected.
  • FIGS. 14 to 16 are perspective views showing essential parts of the elevator system cars of the first and second embodiments.
  • FIG. 16 is a diagram showing regions set in shape data acquired by the shape data acquisition device of the elevator system in the first and second embodiments. Note that illustration of the detection processor 22 is omitted in FIGS. 14 to 16.
  • FIG. 14 shows a first example of comparative explanation.
  • FIG. 14 shows a case where the detection target object exists near the first sleeve frame area, which is the detection area.
  • Point P is a point where a straight line passing through the shape data acquisition device 21 and the center of gravity of the object to be detected intersects with the first sleeve frame region.
  • the detection target exists at a position including point P.
  • the object detection device 20 detects that the object to be detected is in the detection area. It can be determined that it exists. That is, when the shape data acquisition unit 21 captures an image that is two-dimensionally defined shape data, the detection processor 22 determines the detection target object based on the shape data as shown in FIG. 9(B), for example. Detect.
  • FIG. 14 shows a case where the detection target exists at a position away from the first sleeve frame region, which is the detection region.
  • the object to be detected exists on a straight line connecting the shape data acquisition device 21 and the point P.
  • the detection processor 22 determines that a detection target exists in the detection area, and detects the detection target. That is, the detection processor 22 erroneously detects the object to be detected.
  • the detection processor 22 acquires three-dimensional spatial coordinates indicating the detection target object as data of a three-dimensional point group. Therefore, the detection processor 22 does not determine that the detection target object exists in the detection area. That is, the detection processor 22 has a low possibility of erroneously detecting the object to be detected.
  • FIG. 15 shows a case where the detection target exists at a position away from the first sleeve frame area, which is the detection area.
  • a line segment L shown by a solid line corresponds to reflected light when the light incident on the first sleeve frame region from the shape data acquisition device 21 is reflected by the first sleeve frame region.
  • the object to be detected exists on the line segment L.
  • FIG. 16 is an image taken as two-dimensionally defined shape data by the shape data acquisition unit 21 in the first embodiment in the state shown in FIG. 15.
  • the object to be detected does not exist inside the detection area.
  • the reflectance of the surface on which the detection area is set such as the sleeve frame 7c
  • the image of the detection target will be reflected at the position of the point P on the surface in the image that is the shape data.
  • the detection processor 22 calculates the difference between the images and determines that the detection target exists in the detection area. That is, the detection processor 22 erroneously detects the object to be detected.
  • the detection processor 22 does not determine that an object exists at the point P. That is, the detection processor 22 has a low possibility of erroneously detecting the object to be detected.
  • the object detection device 20 in the second embodiment has higher accuracy in detecting the object to be detected than the object detection device 20 in the first embodiment. That is, by using shape data defined in three dimensions, false detection by the object detection device 20 can be suppressed.
  • FIG. 17 is a perspective view showing a landing of the elevator system in the second embodiment. Note that in FIG. 17, illustration of the detection processor 22 is omitted.
  • the detection area Ad is set at the landing 8.
  • the shape data acquisition device 21 acquires shape data of an object moving inside the hall 8.
  • the detection processing unit 29 calculates the center of gravity position of the object existing in the detection area Ad based on the shape data acquired by the shape data acquisition device 21.
  • the detection processing unit 29 calculates the moving direction of the object by continuously calculating the position of the center of gravity of the object.
  • the detection processing unit 29 determines whether or not the object has the intention to board the car 7 based on the moving direction of the object to estimate the intention to board the car. For example, when the detection processing unit 29 detects that the object moves in the moving direction d1 across the front of the entrance/exit of the car 7, the detection processing unit 29 determines that the object has no intention of getting into the car 7. For example, when detecting that the object moves in the movement direction d2 toward the inside of the car 7, the detection processing unit 29 determines that the object has an intention to get into the car 7.
  • the detection processing unit 29 determines that the object has an intention to board the car 7
  • the detection processing unit 29 regards the object as a detection target object. That is, in this case, the detection processing unit 29 detects that the detection target object exists in the detection area.
  • the object detection device 20 when the object detection device 20 sets the detection region in the three-dimensional spatial region including the landing 8, the object detection device 20 detects objects inside the detection region based on the shape data. The center of gravity of the object is calculated and the direction of movement of the center of gravity of the object is detected. The object detection device 20 determines whether the object has an intention to board the car 7 based on the moving direction of the center of gravity of the object. When the object detection device 20 determines that there is an intention to ride the object, the object detection device 20 detects the object as a detection target. Therefore, when an object that the driver does not intend to board the car crosses in front of the entrance/exit of the car 7, it is possible to prevent the object from being detected as a detection target. Further, it is possible to suppress detecting an object placed in front of the entrance/exit of the car 7 as a detection target. That is, the object detection device 20 can suppress false detection.
  • Embodiment 3. 18 and 19 are perspective views showing essential parts of a car of an elevator system according to the third embodiment. Note that parts that are the same as or equivalent to those in Embodiment 1 or 2 are given the same reference numerals. Description of this part will be omitted. In FIGS. 18 and 19, illustration of the detection processor 22 is omitted.
  • the shape data acquisition device 21 acquires shape data defined in three dimensions, similarly to the second embodiment.
  • the shape data acquisition device 21 is provided at a position depending on the type of door of the car 7.
  • the detection processor 22 recognizes the position of the shape data acquisition device 21.
  • FIG. 18(A) shows a pair of double door panels 12.
  • the shape data acquisition device 21 is provided at the center of the upper frame 7b.
  • the detection area setting unit 28 calculates a first distance D1 from the shape data acquisition device 21 to the first sleeve frame area.
  • the detection area setting unit 28 calculates a second distance D2 from the shape data acquisition device 21 to the second sleeve frame area. In the example shown in FIG. 18A, the first distance D1 and the second distance D2 are equal.
  • the detection area setting unit 28 compares the first distance D1 and the second distance D2, and determines that the first distance D1 and the second distance D2 are equal. In this case, the detection area setting unit 28 recognizes that the shape data acquisition device 21 is provided at the center of the upper frame 7b.
  • the detection processor 22 may reflect the fact that the shape data acquisition device 21 is provided in the center of the upper frame 7b in each process.
  • FIG. 18(B) shows a single door panel 12a.
  • the single door panel 12a is stored on the side of the first sleeve frame area.
  • the shape data acquisition device 21 is provided closer to the second sleeve frame region than the center of the upper frame 7b in the opening/closing direction of the door panel. That is, the shape data acquisition device 21 is provided on the opposite side of the center of the upper frame 7b from the side where the single-opening door panel 12a is stored.
  • the first distance D1 is larger than the second distance D2.
  • the detection area setting unit 28 compares the first distance D1 and the second distance D2, and determines that the first distance D1 is larger than the second distance D2. In this case, the detection area setting unit 28 recognizes that the shape data acquisition device 21 is provided closer to the second sleeve frame area than the center of the upper frame 7b.
  • the single door panel 12a may be stored on the side of the second sleeve frame area.
  • the second distance D2 is greater than the first distance D1.
  • the detection area setting unit 28 compares the first distance D1 and the second distance D2, and determines that the second distance D2 is larger than the first distance D1. In this case, the detection area setting unit 28 recognizes that the shape data acquisition device 21 is provided closer to the first sleeve frame area than the center of the upper frame 7b.
  • FIG. 19 shows the detection area set according to the position of the shape data acquisition device 21.
  • the detection areas Ad are set on both sides of the first sleeve frame area and the second sleeve frame area, respectively.
  • the detection area Ad is set on the side of the first sleeve frame area, which is the sleeve frame area on the side where the single door panel 12a is stored. That is, when the first distance D1 is larger than the second distance D2, the detection area setting unit 28 sets a three-dimensional space area including at least a part of the first sleeve frame area as the detection area Ad. In the case of this example, when the single door panel 12a starts to open, the detection area Ad is not set on the second sleeve frame area side.
  • the object detection device 20 recognizes the door type of the car 7 based on the shape data.
  • the object detection device 20 recognizes the installation position of the shape data acquisition device 21 based on the door type of the car 7.
  • the object detection device 20 sets a detection area according to the installation position of the shape data acquisition device 21. Therefore, the object detection device 20 can set the detection area at an appropriate position without having to be inputted with information on the installation conditions regarding the door type in advance. That is, for example, the object detection device 20 can set the detection area only in an area where an event where an object is drawn into the door panels 12, 12a may occur, and it is possible to avoid setting the detection area in an unnecessary area. I can do it. As a result, detection accuracy can be improved.
  • FIG. 20 is a diagram showing a first modification of the elevator system according to the third embodiment.
  • FIG. 21 is a diagram showing a second modification of the elevator system according to the second embodiment.
  • FIG. 20(A) is a view of the entrance and exit of the car 7 viewed in the horizontal direction.
  • the shape data acquisition device 21 is provided closer to the second sleeve frame region than the center of the upper frame 7b in the opening/closing direction of the door panel.
  • the shape data acquisition device 21 photographs an image that is two-dimensionally defined shape data.
  • the lens of the shape data acquisition device 21 faces vertically downward. That is, the shape data acquisition device 21 photographs a direction parallel to the surfaces of the sleeve frames 7c and 7d.
  • FIG. 20(B) is an image taken by the shape data acquisition device 21 when the door is closed.
  • the object detection device 20 recognizes the door area A1, the first sleeve frame area A2, and the second sleeve frame area A3 in the image.
  • the detection area setting unit 28 of the object detection device 20 calculates the first area of the first sleeve frame area A2 and the second area of the second sleeve frame area A3 in the image.
  • the area of the image reflected in the image becomes smaller as the distance from the shape data acquisition device 21 to the object indicated by the image is greater.
  • the detection area setting unit 28 recognizes the door type of the car 7 by comparing the first area and the second area.
  • the detection area setting unit 28 recognizes the installation position of the shape data acquisition device 21 based on the door type of the car 7.
  • the detection area setting unit 28 sets a detection area Ad according to the installation position of the shape data acquisition device 21.
  • the first area is smaller than the second area.
  • the detection area setting unit 28 determines that the first area is smaller than the second area, the detection area setting unit 28 recognizes that the door of the car 7 is of the single-opening type, and the shape data acquisition unit 21 detects that the door panel is opened in the opening/closing direction. It is recognized that it is provided closer to the second sleeve frame area A3 than the center of the frame 7b. In this case, the detection area setting unit 28 sets the detection area Ad in an area including at least a part of the first sleeve frame area A2.
  • the detection area setting unit 28 determines that the first area and the second area are equal, the detection area setting unit 28 recognizes that the door of the car 7 is a double door type, and the shape data acquisition unit 21 Recognize that it is provided in In this case, the detection area setting unit 28 sets the detection area Ad in an area including at least a part of the first sleeve frame area A2 and an area including at least a part of the second sleeve frame area A3.
  • the detection area setting unit 28 determines that the second area is smaller than the first area, the detection area setting unit 28 recognizes that the door of the car 7 is a single-opening type, and the shape data acquisition unit 21 detects that the door panel is opened in the opening/closing direction. It is recognized that it is provided closer to the first sleeve frame area A2 than the center of the frame 7b. In this case, the detection area setting unit 28 sets the detection area Ad in an area including at least a part of the second sleeve frame area A3.
  • the object detection device 20 determines the shape by comparing the first area of the first sleeve frame region and the second area of the second sleeve frame region. The position where the data acquisition device 21 is provided is recognized. The object detection device 20 sets a detection area based on the position where the shape data acquisition device 21 is provided. Therefore, when the shape data acquisition device 21 that takes images is installed without being tilted as in this example, the object detection device 20 can detect the image without being inputted with installation condition information regarding the door type in advance. The detection area can be set at an appropriate position.
  • the shape data acquisition device 21 is provided closer to the second sleeve frame region than the center of the upper frame 7b in the opening/closing direction of the door panel.
  • the shape data acquisition device 21 photographs an image that is two-dimensionally defined shape data.
  • the lens of the shape data acquisition device 21 faces diagonally rather than vertically downward. That is, the shape data acquisition device 21 photographs a direction that is more inclined than a direction parallel to the surfaces of the sleeve frames 7c and 7d. For example, when the width of the door of the car 7 is wider than the range that can be photographed by the shape data acquisition device 21, the shape data acquisition device 21 is installed in an inclined position.
  • FIG. 21(B) is an image taken by the shape data acquisition device 21 when the door is closed.
  • a solid line frame F1 is an image photographed in the second modification.
  • a broken line frame F2 is an image photographed in the first modification. That is, the broken line frame F2 is the image shown in FIG. 20(B).
  • the angle of view of the image in the second modified example is tilted toward the first sleeve frame region A2 than the angle of view of the image in the first modified example.
  • the second area is larger than the first area.
  • the second area is larger than the first area.
  • the object detection device 20 performs processing different from that in the first modification.
  • the detection area setting unit 28 calculates the first area and the second area, similarly to the first modification.
  • the detection area setting unit 28 compares the first area and the second area.
  • the detection area setting unit 28 determines that the first area and the second area are different, it recognizes that the door of the car 7 is of the single-opening type. Thereafter, the detection area setting unit 28 detects the direction in which the door opens based on the shape data. The detection area setting unit 28 detects the position where the shape data acquisition device 21 is provided based on the direction in which the door opens. The detection area setting unit 28 sets a detection area Ad based on the position where the shape data acquisition device 21 is provided.
  • the detection area setting unit 28 acquires a series of temporally continuous shape data from the time when the door is closed to the time when the door is opened. Retrieved from 21. At this time, whether the door is closed or opened may be detected based on a signal from the drive machine 13 or the control panel 14, or may be detected based on a series of shape data.
  • the detection area setting unit 28 integrates the amount of displacement of the image while the door is open, based on the shape data when the door is closed and a series of shape data. The amount of displacement is accumulated for each of the plurality of pixels that constitute the door area. Specifically, the detection area setting unit 28 selects a plurality of pixels forming the door area A1 of each of the plurality of images included in the series of shape data, and a plurality of pixels forming the door area A1 of the image when the door is closed. Compare pixels and . The detection area setting unit 28 calculates the difference between each pixel forming the door area A1 shown in a certain image and each pixel forming the door area A1 shown in the image when the door is closed.
  • the detection area setting unit 28 integrates each calculated pixel difference for a plurality of images, and considers it as the amount of displacement of the image while the door is being opened. For example, when focusing on the pixel at position (x, y), the detection area setting unit 28 selects the pixel at position (x, y) of each image included in the series of shape data, and the position (x, y) of the image when the door is closed. x, y) and calculates the difference between the pixels. The detection area setting unit 28 calculates the difference corresponding to the pixel at the position (x, y), which is calculated for each image. The detection area setting unit 28 integrates the differences corresponding to the pixels at the calculated positions (x, y) for a plurality of images.
  • the detection area setting unit 28 regards the sum of the differences corresponding to the pixels at the position (x, y) as the amount of displacement at the position (x, y) of the image while the door is open.
  • the detection area setting unit 28 integrates the amount of displacement in pixels at each position included in the door area A1.
  • the detection area setting unit 28 extracts pixels whose amount of displacement in the image during door opening exceeds a threshold value as a plurality of extraction pixels.
  • the detection area setting unit 28 calculates the centroid positions of a plurality of extracted pixels whose displacement exceeds a threshold value.
  • the detection area setting unit 28 recognizes the sleeve frame area close to the center of gravity among the first sleeve frame area A2 and the second sleeve frame area A3.
  • the center of gravity is closer to the second sleeve frame area A3 than to the first sleeve frame area A2.
  • the detection area setting unit 28 determines that the second sleeve frame area A3 is closer to the center of gravity, the shape data acquisition unit 21 is provided closer to the second sleeve frame area A3 than the center of the upper frame 7b. I recognize that there is.
  • the detection area setting unit 28 sets the detection area Ad in an area including at least a part of the first sleeve frame area A2.
  • the detection area setting unit 28 determines that the first sleeve frame area A2 is closer to the center of gravity, the shape data acquisition unit 21 is located closer to the first sleeve frame area A2 than the center of the upper frame 7b. I recognize that it is set up in In this case, the detection area setting unit 28 sets the detection area Ad in an area including at least a part of the second sleeve frame area A3.
  • the door of car 7 opens from the right to the left in the page.
  • an image of the floor of the landing hall 8 and the like is shown on the right side of the paper in the portion corresponding to the door area A1.
  • An image of the door area A1 appears on the left side of the paper in the portion corresponding to the door area A1. Therefore, the amount of displacement of pixels at each position in the door area A1 increases toward the right side of the page. The number of pixels whose displacement amount exceeds the threshold value increases toward the right side of the paper.
  • the centroid positions of the plurality of extracted pixels are located on the right side of the page with respect to the center of the page in the door area A1.
  • the detection area setting unit 28 can recognize that the shape data acquisition device 21 is provided on the side of the second sleeve frame area A3.
  • the detection area setting unit 28 determines that the first area and the second area are equal, it recognizes that the door of the car 7 is a double door type, similarly to the first modification, It is recognized that the shape data acquisition device 21 is provided at the center of the upper frame 7b. In this case, the detection area setting unit 28 sets the detection area Ad in an area including at least a part of the first sleeve frame area A2 and an area including at least a part of the second sleeve frame area A3.
  • the object detection device 20 detects the centroid positions of the plurality of extracted pixels based on the series of shape data. is calculated, and the position where the shape data acquisition device 21 is provided is recognized based on the center of gravity position.
  • the object detection device 20 sets a detection area based on the position where the shape data acquisition device 21 is provided. Therefore, even if the shape data acquisition device 21 that takes images is installed tilted, the object detection device 20 can detect the object at an appropriate position without having to input installation condition information regarding the door type in advance.
  • An area Ad can be set.
  • FIG. 22 is a diagram showing a first example of shape data including a detection area set by the elevator system according to the fourth embodiment.
  • FIG. 23 is a diagram showing a second example of shape data including a detection area set by the elevator system according to the fourth embodiment. Note that parts that are the same as or equivalent to those in Embodiments 1 to 3 are given the same reference numerals. Description of this part will be omitted. Note that in FIGS. 22 and 23, illustration of the detection processor 22 is omitted.
  • the detection processor 22 changes the shape of the detection area according to the opening/closing operation of the pair of door panels 12.
  • FIG. 22 shows a first example in which the object detection device 20 uses shape data defined in three dimensions.
  • the detection area setting unit 28 of the detection processor 22 sets a detection area Ad in a three-dimensional spatial area that includes at least a part of the door area and that the pair of door panels 12 pass through when opening and closing. do.
  • FIG. 22(A) shows the detection area Ad when the pair of door panels 12 are fully open.
  • the detection area Ad is set in a three-dimensional spatial area extending from one side of the pair of door panels 12 to the other.
  • FIG. 22(B) shows the detection area Ad when the pair of door panels 12 are in the middle of closing, that is, when the door is closed.
  • the closed state of the pair of door panels 12 is between the fully open state and the fully closed state.
  • the detection area Ad in this case is set to a three-dimensional spatial area extending from one side of the pair of door panels 12 to the other.
  • the width of the detection area Ad in the door opening/closing direction in FIG. 22(B) is smaller than the width of the detection area Ad in the door opening/closing direction in FIG. 22(A). That is, the volume of the detection area Ad in FIG. 22(B) is smaller than the volume of the detection area Ad in FIG. 22(A).
  • the object detection device 20 suppresses false detection of, for example, detecting a pair of door panels 12 as detection objects. be able to.
  • the object detection device 20 when the object detection device 20 uses shape data defined in two dimensions, the object detection device 20 detects door opening/closing similarly to the case where shape data defined in three dimensions is used.
  • the detection area Ad which is an area that includes at least a part of the door area and is set as an area that the pair of door panels 12 pass through when opening and closing, is changed depending on the operation.
  • FIG. 23 shows a second example in which the object detection device 20 uses shape data defined in three dimensions.
  • the detection area setting unit 28 sets a detection area Ad in a three-dimensional spatial area that includes at least a portion of the door area and includes a position corresponding to the landing area 8.
  • FIG. 23(A) shows the detection area Ad when the pair of door panels 12 are fully open.
  • the detection area Ad is set in a radial shape that passes between the pair of door panels 12 with the shape data acquisition device 21 as the center.
  • FIG. 23(B) shows the detection area Ad when the pair of door panels 12 are closed.
  • the detection area Ad is narrower than the detection area Ad in FIG. 23A, depending on the distance between the pair of door panels 12. That is, the volume of the detection area Ad in FIG. 23(B) is smaller than the volume of the detection area Ad in FIG. 23(A).
  • the object detection device 20 when the object detection device 20 uses shape data defined in two dimensions, the object detection device 20 detects door opening/closing similarly to the case where shape data defined in three dimensions is used.
  • the shape of a detection area Ad which is an area including at least a part of the door area and includes a position corresponding to the landing area 8, is changed in accordance with the operation.
  • FIG. 24 is a diagram showing the relationship between the detection area and time set by the object detection device of the elevator system in Embodiment 4.
  • FIG. 24 shows a graph representing the relationship between time t and the size of the detection area.
  • the horizontal axis of the graph is time.
  • the graph shown in (a) is the relationship between time t and the amount of opening and closing of the pair of door panels 12. From time ta0 to ta1, the pair of door panels 12 are in a fully closed state. At this time, the opening/closing amount is 0. At time ta1, the pair of door panels 12 starts an opening operation, and becomes fully open at time ta2. At this time, the opening/closing amount increases from time ta1 and reaches a maximum at time ta2. From time ta2 to time ta3, the pair of door panels 12 are in a fully open state. At time ta3, the pair of door panels 12 start a closing operation, and at time ta4, are in a fully closed state. At this time, the opening/closing amount decreases from time ta3 and becomes 0 at time ta4.
  • the graph shown in (b) is the relationship between time t and the size of the detection area for detecting entrainment.
  • the detection area for detecting the drawing-in area includes at least a part of the first sleeve frame area or at least a part of the second sleeve frame area. This is the detection area set in the containing area.
  • the size of the detection region is the area of the detection region.
  • the detection area for detecting the drawing is a three-dimensional space area including at least a part of the first sleeve frame area or at least the second sleeve frame area. This is a detection area set in a three-dimensional spatial area including a portion of the area.
  • the size of the sensing area is the volume of the sensing area.
  • the size of the detection area for detecting the door being pulled in is maximum before and after the pair of door panels 12 start the opening operation, and becomes 0 at other times. If the size of the detection area is 0, it may be considered that no detection area is set. Specifically, at time tb1, which is before time ta1, the size of the detection area for detecting the pull-in changes from 0 to the maximum value. After time ta1, at time tb2, the size of the detection area for detecting the pull-in decreases from the maximum value to zero.
  • the graph shown in (c) is the relationship between time t and the size of the detection area for detecting the door being caught.
  • the detection area for detecting the door being caught is the detection area set in the area where the pair of door panels 12 are opened and closed.
  • the size of the detection region is the area of the detection region.
  • the detection area for detecting a door being caught is a detection area set in a three-dimensional spatial area where the pair of door panels 12 are opened and closed.
  • the size of the sensing area is the volume of the sensing area.
  • the size of the detection area for detecting the door being caught is 0 until the pair of door panels 12 are fully opened.
  • the size of the detection area for detecting the door being caught changes from 0 to the maximum value.
  • the size of the detection area for detecting the door being caught begins to decrease from the maximum value as the amount of opening and closing of the door decreases.
  • the size of the detection area for detecting the door being caught becomes zero.
  • the graph shown in (d) is the relationship between time t and the size of the detection area that detects the object that the vehicle is trying to board.
  • the object to be boarded is a detection target object that has an intention to move from the landing area 8 to the inside of the car 7.
  • the detection area for detecting an object to be boarded is a detection area set in an area including a position corresponding to the landing area 8.
  • the size of the detection region is the area of the detection region.
  • the detection area for detecting the object to be boarded is a detection area set in a three-dimensional spatial area including the position corresponding to the landing area 8. .
  • the size of the sensing area is the volume of the sensing area.
  • the size of the detection area for detecting an object to be boarded is 0 until the pair of door panels 12 are fully opened.
  • the size of the detection area for detecting an object to be boarded changes from 0 to the maximum value.
  • the size of the detection area for detecting the object to be boarded starts to decrease from the maximum value as the amount of opening and closing of the door decreases.
  • time td3 immediately before time ta4 when the pair of door panels 12 are fully closed, the size of the detection area for detecting an object about to get on the vehicle becomes zero.
  • the object detection device 20 changes the shape of the detection area according to the opening and closing operations of the pair of door panels 12. Therefore, the object detection device 20 can set only the area necessary for detection as the detection area. Further, when the door panel 12 or the like moves inside the detection area, it is possible to suppress erroneously detecting the door panel 12 as a detection target object.
  • FIG. 25 is a diagram showing the detection area set by the elevator system in Embodiment 5. Note that the same reference numerals are given to the same or corresponding parts as those in Embodiments 1 to 4. Description of this part will be omitted. Note that in FIG. 25, illustration of the detection processor 22 is omitted.
  • the detection area setting unit 28 of the object detection device 20 sets a plurality of divided detection areas AD by dividing the detection area.
  • FIG. 25 shows a detection area Ad set in a three-dimensional space area including at least a part of the first sleeve frame area when the shape data acquisition unit 21 acquires three-dimensionally defined shape data.
  • the detection area setting unit 28 divides the detection area Ad into three divided detection areas ADa, ADb, and ADc. The three divided detection areas ADa, ADb, and ADc are arranged downward in order from the top.
  • the detection processing unit 29 can detect the presence of a detection target in the detection area.
  • the fine object is not an object that should be considered as a detection target. That is, in this case, the detection processing unit 29 may perform false detection.
  • the detection area By dividing the detection area into a plurality of divided detection areas AD, the number of shape data of the fine object detected in each divided detection area AD becomes difficult to exceed a threshold value. Therefore, the occurrence of false detection can be suppressed.
  • the detection processing unit 29 sets a plurality of detection threshold values for each of the plurality of divided detection areas ADa, ADb, and ADc so that they correspond to each other on a one-to-one basis.
  • the plurality of detection threshold values are set such that the farther the distance from the shape data acquisition device 21, the smaller the value. That is, the plurality of detection threshold values are set so that the lower the divided detection area is located, the smaller the value. The lower the divided detection area is located, the more important it is to detect a small object such as a child's hand. Further, when an image is acquired as two-dimensionally defined shape data, the farther the divided detection region is located downward from the shape data acquisition device 21, the smaller the image occupies in the entire shape data. That is, the number of shape data such as pixels in which the image of the object to be detected is reflected in the entire image decreases as the distance from the shape data acquisition device 21 increases.
  • the detection threshold value By setting the detection threshold value to be smaller in the lower divided detection regions, it is possible to improve the detection accuracy for objects of higher importance. In addition, by setting the detection threshold to be smaller as the divided detection region is located lower, it is possible to reduce the effect that the number of shape data decreases depending on the distance from the shape data acquisition device 21 has on detection accuracy. can.
  • the object detection device 20 sets a plurality of divided detection regions.
  • the object detection device 20 sets a threshold value corresponding to each of the plurality of divided detection regions. Therefore, the object detection device 20 can improve the detection accuracy in each divided detection area while suppressing the occurrence of false detection.
  • FIG. 26 is a hardware configuration diagram of an object detection device for an elevator system in Embodiments 1 to 5.
  • Each function of the object detection device 20 can be realized by a processing circuit.
  • the processing circuit includes at least one processor 100a and at least one memory 100b.
  • the processing circuitry includes at least one dedicated hardware 200.
  • each function of the object detection device 20 is realized by software, firmware, or a combination of software and firmware. At least one of the software and firmware is written as a program. At least one of software and firmware is stored in at least one memory 100b. At least one processor 100a realizes each function of the object detection device 20 by reading and executing a program stored in at least one memory 100b. At least one processor 100a is also referred to as a central processing unit, processing unit, arithmetic unit, microprocessor, microcomputer, or DSP.
  • the at least one memory 100b is a non-volatile or volatile semiconductor memory such as RAM, ROM, flash memory, EPROM, EEPROM, etc., a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD, etc.
  • the processing circuitry comprises at least one dedicated hardware 200
  • the processing circuitry may be implemented, for example, in a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof. Ru.
  • each function of the object detection device 20 is realized by a processing circuit.
  • each function of the object detection device 20 is realized by a processing circuit.
  • the functions of the detection processing section 29 are realized by a processing circuit as dedicated hardware 200, and the functions other than those of the detection processing section 29 are realized by at least one processor 100a and stored in at least one memory 100b. It may also be realized by reading and executing a program.
  • the processing circuit realizes each function of the object detection device 20 using the hardware 200, software, firmware, or a combination thereof.
  • the shape data acquisition device 21 and the detection processing device 22 may be provided at different locations.
  • each function of the shape data acquisition device 21 and the detection processor 22 is also realized by a processing circuit equivalent to the processing circuit that realizes each function of the object detection device 20.
  • the object detection device according to the present disclosure can be used in an elevator system.

Landscapes

  • Elevator Door Apparatuses (AREA)

Abstract

検知領域を容易に設定することができる物体検知装置およびエレベーターシステムを提供する。物体検知装置は、エレベーターのかごの出入口の上部に設けられた形状データ取得器よりも下方に存在する物体の形状データに対して複数の領域を設定する領域設定部と、出入口の戸が開いている時の形状データと出入口の戸が閉じている時の形状データとを比較することで、形状データにおいて複数の領域のうち戸の位置を示す戸領域を認識する第1領域認識部と、戸領域の位置に基づいて、形状データにおける複数の領域のうち1以上の第2領域を認識する第2領域認識部と、戸領域の少なくとも一部を含む領域および1以上の第2領域の少なくとも一部を含む領域のうち少なくとも一方に検知領域を設定する検知領域設定部と、形状データに基づいて、検知領域に検知対象物が存在することを検知する検知処理部と、を備えた。

Description

物体検知装置およびエレベーターシステム
 本開示は、物体検知装置およびエレベーターシステムに関する。
 特許文献1は、エレベーターシステムの物体検知装置を開示する。当該物体検知装置は、かごの出入口の画像を撮影する。物体検知装置は、当該画像において戸と袖枠との近傍に検知領域を設定する。物体検知装置は、検知領域に存在する検知対象物を検知し得る。
日本特開2020-152470号公報
 しかしながら、特許文献1に記載の物体検知装置において、検知領域は、かごの寸法の情報、カメラの据付角度の情報、等の予め記憶された設置条件の情報に基づいて設定される。即ち、設置条件の情報が予め記憶されている必要がある。このため、各エレベーターシステムにおいて検知領域を設定するための準備が都度必要となる。
 本開示は、上述の課題を解決するためになされた。本開示の目的は、検知領域を容易に設定することができる物体検知装置およびエレベーターシステムを提供することである。
 本開示に係る物体検知装置は、エレベーターのかごの出入口の上部に設けられた形状データ取得器が取得した前記形状データ取得器よりも下方に存在する物体の形状データに対して複数の領域を設定する領域設定部と、前記出入口の戸が開いている時の形状データと前記出入口の戸が閉じている時の形状データとを比較することで、形状データにおいて前記複数の領域のうち前記戸の位置を示す戸領域を認識する第1領域認識部と、前記第1領域認識部が認識した前記戸領域の位置に基づいて、形状データにおける前記複数の領域のうち1以上の第2領域を認識する第2領域認識部と、前記第1領域認識部が認識した前記戸領域の少なくとも一部を含む領域および前記第2領域認識部が認識した前記1以上の第2領域の少なくとも一部を含む領域のうち少なくとも一方に検知領域を設定する検知領域設定部と、前記形状データ取得器が取得した形状データに基づいて、前記検知領域設定部が設定した前記検知領域に検知対象物が存在することを検知する検知処理部と、を備えた。
 本開示に係るエレベーターシステムは、かごと、前記かごの出入口に設けられた戸と、前記かごの出入口の上部に設けられ、下方に存在する物体の形状データを取得する形状データ取得器を備えた上記物体検知装置と、前記物体検知装置によって検知領域に検知対象物が存在することが検知された場合に、前記戸の開動作または閉動作を中止させる制御盤と、を備えた。
 本開示によれば、物体検知装置は、取得された形状データに基づいて検知領域を設定する。このため、検知領域を容易に設定することができる。
実施の形態1におけるエレベーターシステムが設けられた建築物の概要を示す図である。 実施の形態1におけるエレベーターシステムのかごの要部を示す斜視図である。 実施の形態1におけるエレベーターシステムのかごの要部を示す斜視図である。 実施の形態1におけるエレベーターシステムのかごの要部を示す斜視図である。 実施の形態1におけるエレベーターシステムの形状データ取得器が取得した形状データに設定された領域を示す図である。 実施の形態1におけるエレベーターシステムが認識した領域が含まれる形状データを示す図である。 実施の形態1におけるエレベーターシステムが設定した検知領域が含まれる形状データを示す図である。 実施の形態1におけるエレベーターシステムが設定した検知領域が含まれる形状データを示す図である。 実施の形態1におけるエレベーターシステムの検知処理が行われる形状データを示す図である。 実施の形態1におけるエレベーターシステムの検知処理器の検知領域設定処理の概要を説明するためのフローチャートである。 実施の形態2におけるエレベーターシステムのかごの要部を示す斜視図である。 実施の形態2におけるエレベーターシステムが設定した検知領域が含まれる形状データを示す図である。 実施の形態2におけるエレベーターシステムが設定した検知領域が含まれる形状データを示す図である。 実施の形態1および実施の形態2のエレベーターシステムのかごの要部を示す斜視図である。 実施の形態1および実施の形態2のエレベーターシステムのかごの要部を示す斜視図である。 実施の形態1および実施の形態2におけるエレベーターシステムの形状データ取得器が取得した形状データに設定された領域を示す図である。 実施の形態2におけるエレベーターシステムの乗場を示す斜視図である。 実施の形態3におけるエレベーターシステムのかごの要部を示す斜視図である。 実施の形態3におけるエレベーターシステムのかごの要部を示す斜視図である。 実施の形態3におけるエレベーターシステムの第2変形例を示す図である。 実施の形態3におけるエレベーターシステムの第3変形例を示す図である。 実施の形態4におけるエレベーターシステムが設定した検知領域が含まれる形状データの第1例を示す図である。 実施の形態4におけるエレベーターシステムが設定した検知領域が含まれる形状データの第2例を示す図である。 実施の形態4におけるエレベーターシステムの物体検知装置が設定する検知領域と時刻との関係を示す図である。 実施の形態5におけるエレベーターシステムが設定した検知領域を示す図である。 実施の形態1から5におけるエレベーターシステムの物体検知装置のハードウェア構成図である。
 本開示を実施するための形態について添付の図面に従って説明する。なお、各図中、同一または相当する部分には同一の符号が付される。当該部分の重複説明は適宜に簡略化ないし省略される。
実施の形態1.
 図1は実施の形態1におけるエレベーターシステムが設けられた建築物の概要を示す図である。
 図1のエレベーターシステム1において、昇降路2は、建築物3の各階を貫く。機械室4は、昇降路2の直上に設けられる。主ロープ5は、機械室4に設けられた巻上機6に巻き掛けられる。かご7は、昇降路2の内部で主ロープ5に吊るされる。
 複数の乗場8は、建築物3の各階に設けられる。複数の乗場8の各々は、昇降路2に対向する。複数の乗場戸9は、複数の乗場8の出入口にそれぞれ設けられる。複数の乗場戸枠10は、複数の乗場8の出入口にそれぞれ設けられる。
 かご戸装置11は、かご7の出入口に設けられる。かご戸装置11は、一対の戸パネル12と駆動機13とを備える。一対の戸パネル12は、かご7の出入口において、かご7への乗降方向に垂直となるよう設けられる。かご7への乗降方向は、かご7へ乗車またはかご7から降車する方向であり、紙面左右方向である。一対の戸パネル12は、乗降方向とは垂直な方向かつ水平方向に開閉し得る。一対の戸パネル12は、互いに反対方向に開閉し得る。駆動機13は、一対の戸パネル12を開閉し得る。
 制御盤14は、機械室4に設けられる。制御盤14は、巻上機6と駆動機13とに電気的に接続される。制御盤14は、エレベーターシステム1を全体的に制御し得る。
 エレベーターシステム1は、安全装置として物体検知装置20を備える。例えば、物体検知装置20は、かご7に設けられる。物体検知装置20は、かご7の出入口を監視し、出入口付近に存在する物体を検知し得る。
 エレベーターシステム1が通常運行する場合、制御盤14の制御に基づいて、巻上機6が駆動する。かご7は、巻上機6の駆動に応じて昇降する。かご7が目的階の乗場8に到着した場合、制御盤14は、駆動機13に対して一対の戸パネル12を開く旨の指令を送信する。駆動機13は、一対の戸パネル12を戸開閉方向へ開く。その後、駆動機13は、制御盤14からの一対の戸パネル12を閉じる指令に基づいて、一対の戸パネル12を戸開閉方向へ閉じる。
 物体検知装置20は、予め一対の戸パネル12の周辺に検知領域を設定する。物体検知装置20は、一対の戸パネル12が開く前または一対の戸パネル12が閉じる前に、検知領域の内部に検知対象物が存在することを検知し得る。物体検知装置20は、検知領域の内部に検知対象物が存在することを検知した場合、検知対象物を検知した旨の検知情報を制御盤14に送信する。制御盤14は、一対の戸パネル12が開く前に検知情報を受信した場合、一対の戸パネル12を開く指令の送信を中止する。制御盤14は、一対の戸パネル12が閉じる前に検知情報を受信した場合、一対の戸パネル12を閉じる指令の送信を中止する。なお、制御盤14は、一対の戸パネル12を開くまたは閉じる指令の送信を中止する代わりに、駆動機13に対して一対の戸パネル12を開く動作または閉じる動作を中止させる指令を送信してもよい。
 次に、図2を用いてかご7の出入口の構成および物体検知装置20を説明する。
 図2は実施の形態1におけるエレベーターシステムのかごの要部を示す斜視図である。
 図2は、かご7の出入口の概要を示す。かご7は、床7aと上枠7bと一対の袖枠7c、7dとを備える。床7aは、かご7の内部の床である。上枠7bと一対の袖枠7c、7dとは、かご7の出入口の三方枠としてかご7の内部に設けられる。上枠7bは、かご7の出入口の上部に設けられる。一対の袖枠7c、7dは、かご7の出入口の両側方にそれぞれ設けられる。一対の袖枠7c、7dは、それぞれの一対の戸パネル12とに隣接する袖枠面をそれぞれ有する。例えば、袖枠7cの袖枠面と7dの袖枠面とは、互いに対向する。一対の袖枠7c、7dとそれぞれの一対の戸パネル12との間には、開閉のための隙間が存在する。
 物体検知装置20は、形状データ取得器21と検知処理器22とを備える。
 形状データ取得器21は、形状データ取得部として、上枠7bに設けられる。例えば、形状データ取得器21は、水平方向において上枠7bの中央に位置する。形状データ取得器21は、検出対象の範囲に存在する物体の形状を示す形状データを取得するセンサである。実施の形態1において、形状データ取得器21は、物体の形状を2次元で規定される形式の形状データとして取得する。具体的には、形状データ取得器21は、画像または連続した画像である映像を撮影するカメラである。この場合、形状データ取得器21は、2次元で規定される形式の形状データとして画像データまたは映像データを取得する。なお、形状データ取得器21は、2次元の形状データを取得できれば、赤外線カメラ等であってもよい。
 形状データ取得器21は、下方に存在する物体の形状データを取得し得るよう設けられる。具体的には、形状データ取得器21は、一対の戸パネル12と床7aと一対の袖枠7c、7dとを撮影し得るよう上枠7bに設けられる。なお、形状データ取得器21の取付角度および取付位置は、一対の戸パネル12と床7aと一対の袖枠7c、7dとの形状データが取得可能な角度および位置であれば、どのような角度および位置でもよい。形状データ取得器21は、取得した形状データを検知処理器22に送信する。
 形状データ取得器21は、規定の周期で形状データを取得し、検知処理器22に送信する。形状データ取得器21は、図2には図示されない駆動機13または制御盤14からの情報に基づいて、一対の戸パネル12が開状態または閉状態であることを検知する。形状データ取得器21は、一対の戸パネル12が開状態である場合の形状データを取得し、当該形状データと戸開時であるラベルとが対応付けられた戸開時の形状データを検知処理器22に送信する。形状データ取得器21は、一対の戸パネル12が閉状態である場合の形状データを取得し、当該形状データと戸閉時であるラベルとが対応付けられた戸閉時の形状データを検知処理器22に送信する。
 なお、形状データ取得器21は、取得した形状データに基づいて一対の戸パネル12が開状態または閉状態であることを検知してもよい。具体的には、形状データ取得器21は、一対の戸パネル12が連続的に開動作または閉動作を行っている状態での時間的に連続する一連の形状データを取得する。形状データ取得器21は、当該一連の形状データから、戸開時および戸閉時の形状データを自動的に抽出する。この場合、形状データ取得器21は、抽出した形状データと戸開時のラベルとが対応付けられた戸開時の形状データまたは抽出した形状データと戸閉時のラベルとが対応付けられた戸閉時の形状データを検知処理器22に送信してもよい。形状データ取得器21が戸開時または戸閉時の形状データを抽出する処理には、公知の技術が適用されてもよい。
 検知処理器22は、形状データに対して検知領域を設定する検知領域設定処理を行う。検知処理器22は、設定した検知領域の内部に存在する検知対象物を検知する検知処理を行う。検知処理器22は、記憶部23と受信部24と領域設定部25と第1領域認識部26と第2領域認識部27と検知領域設定部28と検知処理部29とを備える。
 記憶部23は、形状データ取得器21が取得した形状データを記憶する。
 受信部24は、形状データ取得器21が送信した形状データを受信し、記憶部23に記憶させる。
 領域設定部25は、検知領域設定処理において、形状データに対して複数の領域を設定する。領域設定部25は、設定した複数の領域の情報を作成する。この際、領域設定部25は、形状データと同じ次元空間における面の領域を複数の領域として設定する。具体的には、例えば、領域設定部25は、記憶部23に記憶された形状データである画像に対応する2次元空間の座標を設定する。この場合、領域設定部25は、当該2次元空間の座標を用いて複数の領域を表現する。
 領域設定部25は、記憶部23に記憶された形状データである画像の連続性、画像内部の強度情報、等に基づいて、エッジ検出等の画像処理技術を用いることで画像に写る像の境界を設定する。領域設定部25は、各境界に囲まれた複数の領域を設定する。
 領域設定部25は、記憶部23に記憶された戸開時の形状データに基づいて、戸開時における複数の領域の情報を作成する。領域設定部25は、記憶部23に記憶された戸閉時の形状データに基づいて、戸閉時における複数の領域の情報を作成する。
 第1領域認識部26は、検知領域設定処理において、領域設定部25が作成した複数の領域の情報に含まれる複数の領域のうち、第1領域として、戸領域を認識する。戸領域は、一対の戸パネル12に対応する領域であって、形状データにおいて一対の戸パネル12の位置に対応する領域である。具体的には、第1領域認識部26は、戸開時における複数の領域と戸閉時における複数の領域とを比較して、差分を検出する。第1領域認識部26は、戸閉時における複数の領域のうち、差分が閾値を超える領域を戸領域として認識する。例えば、第1領域認識部26は、複数の領域のうちの認識した戸領域に対して戸領域であることを示すラベルを付す。
 第2領域認識部27は、検知領域設定処理において、領域設定部25が作成した複数の領域の情報に含まれる複数の領域のうち、1以上の第2領域を認識する。第2領域認識部27は、戸閉時における複数の領域のうち、第1領域認識部26が認識した戸領域との位置関係に基づいて第2領域を認識する。第2領域認識部27は、複数の領域のうちの認識した第2領域であることを示すラベルを付す。
 第2領域は、第1袖枠領域、第2袖枠領域、床領域である。第1袖枠領域は、一対の袖枠7c、7dの一方に対応する領域であって、形状データにおいて一対の袖枠7c、7dの一方の位置に対応する領域である。第2袖枠領域は、一対の袖枠7c、7dの他方に対応する領域であって、形状データにおいて一対の袖枠7c、7dの他方の位置に対応する領域である。床領域は、床7aに対応する領域であって、形状データにおいて床7aの位置に対応する領域である。
 検知領域設定部28は、検知領域設定処理において、形状データに対して、当該形状データに対応する次元空間における1以上の検知領域を設定する。例えば、形状データが2次元空間で規定される場合、検知領域設定部28は、2次元で表現される検知領域を設定する。具体的には、検知領域設定部28は、形状データ取得器21が取得した画像において、2次元座標で表現された領域を1以上の検知領域として設定する。
 検知領域設定部28は、1以上の検知領域を設定する際に、第1領域および第2領域のうち少なくとも1つ領域の位置に基づいて検知領域を設定する。具体的には、例えば、検知領域設定部28は、戸領域の少なくとも一部を含む領域、第2領域である第1袖枠領域の少なくとも一部を含む領域、および第2領域である第2袖枠領域の少なくとも一部を含む領域のうち少なくとも1つの領域を検知領域に設定する。
 検知処理部29は、検知処理を行う。具体的には、形状データ取得器21から形状データを受信した場合、検知処理部29は、検知領域設定処理において検知領域設定部28が設定した検知領域を当該形状データに当てはめる。検知処理部29は、当該形状データに当てはめた結果に基づいて当該形状データにおける検知領域に検知対象物が存在するか否かを判定する。検知領域に検知対象物が存在する場合、検知処理部29は、検知領域の内部に存在する当該検知対象物を検知する。この場合、検知処理部29は、検知対象物を検知した旨の情報を制御盤14に送信する。
 次に、図3と図4とを用いて、一対の戸パネル12の開状態および閉状態を説明する。
 図3および図4は実施の形態1におけるエレベーターシステムのかごの要部を示す斜視図である。
 図3は、一対の戸パネル12が開状態である場合のかご7の出入口を示す。開状態は、一対の戸パネル12が全開となっている状態である。即ち、戸開時は、一対の戸パネル12が全開となっている時を意味する。
 図4は、一対の戸パネル12が閉状態である場合のかご7の出入口を示す。閉状態は、一対の戸パネル12が全閉となっている状態である。即ち、戸閉時は、一対の戸パネル12が全閉となっている時を意味する。
 次に、図5を用いて、領域設定部25が設定する複数の領域を説明する。
 図5は実施の形態1におけるエレベーターシステムの形状データ取得器が取得した形状データに設定された領域を示す図である。
 図5の(A)は、戸開時の形状データに基づいて作成された、戸開時の複数の領域の情報を表す画像である。図5の(B)は、戸閉時の形状データに基づいて作成された、戸閉時の複数の領域の情報を表す画像である。
 例えば、2次元のRGB画像である形状データに対して複数の領域を設定する場合、領域設定部25は、色空間における連続性に基づいて画像内の領域および境界を設定する。この際、領域設定部25は、色空間の連続性として、RGB画像を構成する複数のピクセルのうち隣接したピクセルであって近い色を持つピクセルの群を検出し、当該ピクセルの群をグループ化する。領域設定部25は、グループ化した当該ピクセルの群を1つの領域として検出する。また、領域設定部25は、ピクセルの群と別のピクセルの群との間に連続性が無い場合に、当該2つの群の間を検出し、境界を設定する。領域設定部25は、検出した境界または領域に基づいて、複数の領域の情報を作成する。
 例えば、領域設定部25は、2次元の赤外線画像である形状データに対して複数の領域を設定する場合、赤外線強度の連続性に基づいて画像内の境界および領域を設定する。この際、領域設定部25は、赤外線強度の連続性として、赤外線画像を構成する複数のピクセルのうち隣接したピクセルであって近い強度を持つピクセルの群を検出し、グループ化する。その後、領域設定部25は、RGB画像の例と同様の処理を行う。
 第1領域認識部26は、戸開時の複数の領域の情報と戸閉時の複数の領域の情報とを比較して、戸閉時の複数の領域の情報において両者の差分が閾値を超える領域を検出する。例えば、図5の(B)において、第1領域認識部26は、差分が閾値を超える領域A0を検出する。なお、第1領域認識部26は、差分が閾値を超えている複数の領域A0を検出してもよい。
 次に、図6を用いて、第1領域認識部26と第2領域認識部27とが行う処理を説明する。
 図6は実施の形態1におけるエレベーターシステムが認識した領域が含まれる形状データを示す図である。
 図6に示されるように、第1領域認識部26は、戸閉時の複数の領域の情報において、領域A0を戸領域A1と認識する。なお、領域A0が複数である場合、第1領域認識部26は、当該複数の領域A0を統合して戸領域A1とする。また、第1領域認識部26は、複数の領域A0のそれぞれに対応する領域を複数の戸領域A1としてもよい。
 第2領域認識部27は、形状データが2次元で規定される場合、戸領域A1との位置関係に基づいて第2領域である第1袖枠領域A2と第2袖枠領域A3とを認識する。具体的には、第2領域認識部27は、複数の領域のうちの戸領域A1と乗降方向に隣接する領域であって、戸開閉方向に対称な2つの領域を検出する。この際、戸開閉方向に対称な2つの領域は、戸開閉方向に対する位置がおおよそ対称な領域であればよい。戸開閉方向に対称な2つの領域は、形状がおおよそ対称な領域であればよい。第2領域認識部27は、当該2つの領域を第1袖枠領域A2および第2袖枠領域A3として認識する。第2領域認識部27は、複数の領域のうち第1袖枠領域A2および第2袖枠領域A3と認識した領域に対してそれぞれ第1袖枠領域A2および第2袖枠領域A3であることを示すラベルを付す。この際、当該2つの領域のうちいずれが第1袖枠領域A2または第2袖枠領域A3であってもよい。図6では、第1袖枠領域A2は、袖枠7cに対応する。第2袖枠領域A3は、袖枠7dに対応する。
 その後、第2領域認識部27は、戸領域A1と第1袖枠領域A2と第2袖枠領域A3との位置関係に基づいて第2領域である床領域A4を認識する。具体的には、第2領域認識部27は、複数の領域のうちの戸領域A1と第1袖枠領域A2と第2袖枠領域A3とに隣接する領域を床領域A4として認識する。第2領域認識部27は、複数の領域のうち床領域A4と認識した領域に対して床領域A4であることを示すラベルを付す。
 次に、図7と図8とを用いて、検知領域設定部28が行う処理を説明する。
 図7および図8は実施の形態1におけるエレベーターシステムが設定した検知領域が含まれる形状データを示す図である。
 図7は、検知領域の第1例を示す。検知領域設定部28は、第1袖枠領域A2の一部と第2袖枠領域A3の一部とに検知領域Adを設定する。例えば、検知領域Adの形状は、四角形である。なお、検知領域設定部28は、第1袖枠領域A2の全部と第2袖枠領域A3の全部とに検知領域Adを設定してもよい。
 図8は、検知領域の第2例を示す。第2例において、検知領域Adは、第1例よりも床領域A4に近い部分が広い形状を有する。第1袖枠領域A2および第2袖枠領域A3における床領域に近い部分は、子供の手が置かれやすい部分である。
 なお、図示されないが、検知領域は、戸領域の内部に設定されてもよい。この場合、検知領域は、戸領域の少なくとも一部を含む領域であって、一対の戸パネル12が開閉する際に通過する領域に設定されてもよい。
 また、図示されないが、検知領域は、一対の戸パネル12が開いている時に映る乗場8の領域に設定されてもよい。この場合、検知領域は、戸領域の少なくとも一部を含む領域であって、乗場8に対応する位置を含む領域に設定されてもよい。
 次に、図9を用いて、検知処理を説明する。
 図9は実施の形態1におけるエレベーターシステムの検知処理が行われる形状データを示す図である。
 図9の(A)は、検知領域に検知対象物が存在しない場合の形状データを示す。記憶部23は、検知領域に検知対象物が存在しない場合の形状データを基準形状データとして記憶する。
 図9の(B)は、検知領域に検知対象物が存在する場合の形状データを示す。検知領域に検知対象物が存在する場合、形状データ取得器21は、当該検知対象物の像を含む検知対象の形状データを取得する。検知処理部29は、検知対象の形状データと基準形状データとを比較して、2つの形状データの差分を演算する。具体的には、形状データがRGB画像である場合、検知処理部29は、検知対象の形状データと基準形状データとにおける色の差分を演算する。即ち、検知処理部29は、検知対象の形状データを構成する複数のピクセルと基準形状データを構成する複数のピクセルとの色の差分を演算する。検知処理部29は、演算したピクセル色の差分が予め設定された閾値を超えているピクセルを抽出する。抽出した量が検知領域に設定された閾値を超える場合、検知処理部29は、2つの形状データの差分が予め設定された閾値を超えると判定する。なお、ここで、抽出した量は、差分が閾値を超えているピクセルの数である画素数、差分が閾値を超えているピクセルで構成される面積、等の指標が設定され得る。検知処理部29は、2つの形状データの差分が閾値を超える場合、検知対象の形状データに検知領域を当てはめる。2つの形状データの差分が存在する位置が検知領域に含まれる場合、検知処理部29は、検知領域に存在する検知対象物を検知する。
 なお、形状データが深度画像である場合、検知処理部29は、2つの形状データの差分として距離の差分を演算してもよい。また、検知処理部29は、差分を演算するのではなく、検知対象の形状データに対してエッジ処理を行うことで、検知対象物を示す像を特定してもよい。この場合、検知処理部29は、像を特定した検知対象の形状データに検知領域を当てはめ、検知領域に当該像が存在する場合に検知対象物を検知してもよい。
 次に、図10を用いて、検知領域設定処理の例を説明する。
 図10は実施の形態1におけるエレベーターシステムの検知処理器の検知領域設定処理の概要を説明するためのフローチャートである。
 検知処理器22は、任意のタイミングで検知領域設定処理を開始する。
 図10に示されるように、ステップS01において、検知処理器22は、形状データ取得器21から形状データを取得する。この際、検知処理器22は、戸開時の形状データおよび戸閉時の形状データを取得する。
 その後、ステップS02において、検知処理器22は、複数の領域を設定する。
 その後、ステップS03において、検知処理器22は、複数の領域から戸領域を認識する。
 その後、ステップS04において、検知処理器22は、第2領域として、複数の領域から第1袖枠領域と第2袖枠領域とを認識する。
 その後、ステップS05において、検知処理器22は、第1袖枠領域の一部および第2袖枠領域の一部を検知領域に設定する。
 その後、検知処理器22は、検知領域設定処理を終了する。
 以上で説明した実施の形態1によれば、エレベーターシステム1は、物体検知装置20を備える。物体検知装置20は、領域設定部25と第1領域認識部26と第2領域認識部27と検知領域設定部28と検知処理部29とを備える。第1領域認識部26は、一対の戸パネル12の開状態の形状データと閉状態の形状データとを比較することで、戸領域を認識する。第2領域認識部27は、戸領域に基づいて第2領域を認識する。検知領域設定部28は、第1領域および第2領域のうちの少なくとも一方に基づいて検知領域を設定する。即ち、物体検知装置20は、かご7の寸法の情報、形状データ取得器21の取り付け角度の情報、等の設置条件の情報を用いることなく検知領域を設定し得る。物体検知装置20に予め設置条件の情報を入力する必要が無い。このため、物体検知装置20は、検知領域を容易に設定することができる。また、かご7の寸法の条件が事前の想定と異なっている場合でも、物体検知装置20は、検知領域を設定することができる。
 また、物体検知装置20は、形状データとして2次元で規定された形状データである2次元画像を用いる。第2領域認識部27は、戸領域との位置関係に基づいて、第1袖枠領域および第2袖枠領域を設定する。このため、物体検知装置20は、複数の領域からかご7の内部の構成に対応する領域を認識することができる。この際、物体検知装置20は、2次元空間内で領域が隣接しているかどうか、等の簡単なアルゴリズムによって第2領域を認識することができる。その結果、第2領域を認識するための計算負荷を抑制することができる。
 また、物体検知装置20は、第1袖枠領域の少なくとも一部を含む領域および第2袖枠領域の少なくとも一部を含む領域の少なくとも一方に検知領域を設定する。このため、袖枠7c、7dと戸パネル12との間の隙間に物体が引き込まれることを抑制することができる。
 また、物体検知装置20は、戸領域の少なくとも一部を含む領域であって、一対の戸パネル12が開閉する際に通過する領域を検知領域に設定する。このため、一対の戸パネル12に物体が挟まれることを抑制することができる。
 また、物体検知装置20は、戸領域の少なくとも一部を含む領域であって、乗場8に対応する位置を含む領域を検知領域に設定する。このため、乗場8からかご7に乗車しようとする物体を検知することができる。
 なお、エレベーターシステム1は、機械室が無い方式のエレベーターシステムであってもよい。エレベーターシステム1は、昇降路の内部に複数のかごが吊るされたエレベーターシステムであってもよい。
 なお、形状データ取得器21は、かご7の上枠ではなく、乗場戸枠10の三方枠のうちの上枠に設けられてもよい。この場合、形状データ取得器21は、複数の乗場8の各々に設けられてもよい。
 なお、検知処理器22は、機械室4に設けられてもよい。
実施の形態2.
 図11は実施の形態2におけるエレベーターシステムのかごの要部を示す斜視図である。なお、実施の形態1の部分と同一又は相当部分には同一符号が付される。当該部分の説明は省略される。
 実施の形態2において、形状データ取得器21は、3次元で規定される形式の形状データを取得するセンサである。形状データ取得器21は、3次元空間において物体が存在する位置を示す点を測定し、当該測定点の集合である3次元点群を形状データとして取得する。例えば、形状データ取得器21は、LiDAR(Light Detection And Ranging)の技術を利用したセンサ、ToF(Time of Flight)の技術を利用したセンサ、ステレオカメラ、等である。
 形状データ取得器21が測定する点の情報は、形状データ取得器21からの測定点までの距離情報と形状データ取得器21に対する測定点の角度位置の情報とを含む。形状データ取得器21が測定する点の情報は、形状データ取得器21が測定した際の測定点の測定強度情報を更に含んでもよい。測定点の強度情報は、形状データ取得器21が当該点を測定した際の当該点からの反射波の強度である反射強度を示す情報である。なお、例えば、測定点の情報は、形状データ取得器21の測定検出位置を原点とする3次元空間座標の情報を含んでもよい。
 形状データ取得器21は、規定の数を超える測定点が含まれる3次元点群を形状データとして検知処理器22に送信する。
 領域設定部25は、形状データに示される3次元点群が形成する面を3次元点群の平面性に基づいて検出する。この際、領域設定部25は、3次元点群において、同一平面上に存在するとみなすことのできる点群のサブグループを抽出し、1つの面の領域としてラベルを付す。このように、領域設定部25は、当該3次元点群が形成する平面を複数の面として区別して検出する。領域設定部25は、検出した複数の面をそれぞれ複数の領域として設定する。この場合、複数の領域の各々は、3次元空間内部に存在する面の領域である。なお、領域設定部25は、3次元点群が形成する面に連続性がある場合には、3次元点群が形成する平面、曲面、隆起した面、等の面を複数の面として検出してもよい。
 第1領域認識部26は、戸開時における複数の領域と戸閉時における複数の領域を比較することで、戸閉時の複数の領域のうち戸領域を認識する。具体的には、第1領域認識部26は、戸開時における複数の領域に存在せず、戸閉時における複数の領域に存在する1以上の領域を検出し、当該1以上の領域を戸領域と認識する。
 第2領域認識部27は、複数の領域と形状データ取得器21との位置関係に基づいて床領域を認識する。具体的には、第2領域認識部27は、複数の領域のうち形状データ取得器21と正対して対向する領域を床領域と認識する。
 第2領域認識部27は、戸領域と床領域との位置関係に基づいて第1袖枠領域および第2袖枠領域を認識する。具体的には、第2領域認識部27は、複数の領域のうち床領域と直交する領域であって、戸領域と隣接する2つの領域をそれぞれ第1袖枠領域および第2袖枠領域であると認識する。
 次に、図12を用いて実施の形態2における検知領域を説明する。
 図12は実施の形態2におけるエレベーターシステムが設定した検知領域が含まれる形状データを示す図である。なお、図12では、検知処理器22の図示が省略される。
 図12に示されるように、形状データが3次元で規定される場合、検知領域設定部28は、形状データ取得器21が測定対象とする3次元空間における3次元の空間領域を1以上の検知領域に設定する。例えば、検知領域設定部28は、第1袖枠領域の少なくとも一部を含む3次元空間領域を検知領域Adに設定する。検知領域設定部28は、第2袖枠領域の少なくとも一部を含む3次元空間領域を検知領域Adに設定する。
 検知領域の形状は、設定される場所に応じて任意に設定される。図12では、検知領域Adの形状は、直方体である。例えば、検知領域Adの第1袖枠領域からの厚さは、数センチメートル(cm)である。例えば、検知領域Adの戸領域からの厚さは、数センチメートル(cm)である。具体的には、検知領域Adの第1袖枠領域からの厚さおよび戸領域からの厚さは、5cmから10cm程度である。検知領域Adの第1袖枠領域からの厚さまたは戸領域からの厚さが5cm未満である場合、検知すべき対象物を正確に検知できない可能性がある。検知領域Adの第1袖枠領域からの厚さまたは戸領域からの厚さが10cmより大きい場合、検知すべきでない物体を検知する可能性がある。
 図示されないが、第1袖枠領域または第2袖枠領域に対応する検知領域の形状は、下方において乗降方向の幅が広くなっている形状であってもよい。即ち、子供の手が置かれやすい部分において、検知領域の体積が大きくなるように検知領域が設定されてもよい。
 なお、図12には図示されないが、検知領域設定部28は、一対の戸パネル12が開閉する際に通過する空間を含む3次元空間領域を検知領域に設定してもよい。この際、検知領域設定部28は、戸領域を含む3次元空間領域を検知領域に設定する。この場合、検知処理器22は、一対の戸パネル12が開いている状態でかご7に乗り込む人またはかご7から降りる人を検知可能となる。
 なお、図12には図示されないが、検知領域設定部28は、かご7が停車する乗場8に対応する位置を含む3次元空間領域を検知領域に設定してもよい。この際、検知領域設定部28は、戸領域を含む3次元空間領域を検知領域に設定してもよい。この場合、検知処理器22は、一対の戸パネル12が開いている状態で乗場8からかご7に乗り込む人を検知可能となる。
 記憶部23は、検知領域に検知対象物が存在しない場合の形状データを基準形状データとして記憶する。
 検知処理部29は、形状データ取得器21が取得した検知対象の形状データと基準形状データとを比較して、2つの形状データの差分を演算する。具体的には、検知処理部29は、検知対象の形状データに存在する測定点であって基準形状データに存在しない測定点の点群を当該差分として演算する。検知処理部29は、演算した点群の差分に検知領域を当てはめて、検知領域の内部に存在する点群の差分が規定の閾値以上となる場合に、検知領域に検知対象物が存在することを検知する。
 次に、図13を用いて検知領域の別の例を説明する。
 図13は実施の形態2におけるエレベーターシステムが設定した検知領域が含まれる形状データを示す図である。なお、図13では、物体検知装置20の図示が省略される。
 図13には、両開き式の一対の戸パネル12ではなく、片開きの戸パネル12aが示される。片開きの戸パネル12aは、片開式のかご戸パネルである。例えば、片開きの戸パネル12aは、2枚のパネル12b、12cから構成される。片開きの戸パネル12aは、かご7の出入口において開閉方向へ移動可能に設けられる。
 片開きの戸パネル12aにおける2枚のパネル12b、12cの間には、隙間が存在する。パネル12bは、2枚のパネル12b、12cのうちのかご7の内側のパネルである。パネル12bのパネル12cと垂直な面12dは、2枚のパネル12b、12cの境界位置となる面である。垂直な面12dの付近に物体が存在する場合、当該物体は、片開きの戸パネル12aが開方向dへ移動した際に、2枚のパネル12b、12cの間の隙間に巻き込まれる可能性がある。
 第1領域認識部26は、複数の領域のうちのパネル12bの面12dに対応する領域を戸境界領域と認識する。具体的には、第1領域認識部26は、複数の領域のうちかご7の乗降方向に平行な領域を戸境界領域と認識する。第1領域認識部26は、複数の境界のうちの認識した戸境界領域に対して戸境界領域であることを示すラベルを付す。なお、戸境界領域は、戸領域の内部に位置する。第1領域認識部26は、戸境界領域を戸領域としても認識してよい。即ち、戸境界領域には、戸領域のラベルと戸境界領域のラベルとが付される。
 検知領域設定部28は、戸境界領域のうち少なくとも一部を含む3次元空間領域を検知領域Adに設定する。
 以上で説明した実施の形態2によれば、物体検知装置20は、形状データとして3次元で規定された形状データである3次元点群のデータを用いて検知対象物の検知を行う。このため、2次元で規定された形状データを扱う場合と比べて、検知対象物の検出の精度を向上させることができる。
 また、物体検知装置20は、第1袖枠領域および第2袖枠領域の少なくとも一部を含む3次元空間領域のうち少なくとも一方を検知領域に設定する。また、物体検知装置20は、戸領域の一部を含む3次元空間領域であって、一対の戸パネル12が開閉する際に通過する3次元空間領域を検知領域に設定する。また、物体検知装置20は、乗場に対応する位置を含む3次元空間領域を検知領域に設定する。このため、物体検知装置20は、各領域に対応する物体を検知することができる。
 また、物体検知装置20は、形状データに基づいて、戸境界領域を認識する。物体検知装置20は、戸境界領域に対応する検知領域を設定する。このため、物体検知装置20は、戸境界領域に物体が挟まれることを抑制することができる。
 なお、物体検知装置20の検知処理部29は、物体の測定強度の情報を用いて検知処理を行ってもよい。形状データ取得器21が、ステレオカメラ等のように、常に一定の測定方向で測定する機器である場合、基準形状データの3次元点群PC0と検知対象の形状データの3次元点群PC1との各測定点の位置は、1対1で対応し、一致する。検知処理部29は、点群PC0における各測定点の反射強度と点群PC1における各測定点の反射強度との差分を演算する。検知領域に存在する点群PC1について、当該差分が閾値以上である場合、検知処理部29は、検知対象物を検知する。この際、検知処理部29は、各測定点の位置を認識するために、測定点との距離情報を併せて用いる。なお、形状データ取得器21が、LiDARの一部の機種のように、測定毎に測定方向を微妙に変化させて測定する機器である場合、検知処理部29は、点群PC0の複数の測定点の中から、点群PC1の各測定点と対応する測定点を求める。この際、検知処理部29は、点群PC1の測定点と最も距離が近い点群PC0の測定点を、対応する測定点とみなす。このため、物体検知装置20は、検知対象物を検知する精度を向上させることができる。
 物体検知装置20は、3次元で規定される形状データを扱うことで、2次元で規定される形状データを扱う場合よりも検出精度を向上させることができる。次に、図14から図16を用いて形状データが2次元で規定される場合と3次元で規定される場合とを比較説明する。
 図14および図15は実施の形態1および実施の形態2のエレベーターシステムのかごの要部を示す斜視図である。図16は実施の形態1および実施の形態2におけるエレベーターシステムの形状データ取得器が取得した形状データに設定された領域を示す図である。なお、図14から図16において、検知処理器22の図示が省略される。
 図14は、比較説明の第1例を示す。
 図14の(A)は、検知対象物が検知領域である第1袖枠領域の付近に存在する場合を示す。点Pは、形状データ取得器21と検知対象物の重心とを通る直線が第1袖枠領域に交わる点である。検知対象物は、点Pを含む位置に存在する。
 2次元で規定される形状データが扱われる場合、および3次元で規定される形状データが扱われる場合、のいずれの場合においても、この状態において物体検知装置20は、検知領域に検知対象物が存在すると判定し得る。即ち、形状データ取得器21が2次元で規定される形状データである画像を撮影する場合、検知処理器22は、例えば図9の(B)に示されるような形状データに基づいて検知対象物を検知する。
 図14の(B)は、検知対象物が検知領域である第1袖枠領域から離れた位置に存在する場合を示す。検知対象物は、形状データ取得器21と点Pとを結ぶ直線上に存在する。この状態において形状データ取得器21が2次元で規定される形状データである画像を撮影する場合、当該画像は、図14の(A)で撮影される画像とほぼ同一の画像となる。この場合、検知処理器22は、検知領域に検知対象物が存在すると判定し、検知対象物を検知する。即ち、検知処理器22は、検知対象物を誤検知する。
 一方、形状データが3次元の形式で規定される形状データである場合、検知処理器22は、検知対象物を示す3次元空間座標を3次元点群のデータとして取得する。そのため、検知処理器22は、検知対象物が検知領域に存在すると判定しない。即ち、検知処理器22では、検知対象物の誤検知が発生する可能性が低い。
 図15と図16とは、比較説明の第2例を示す。
 図15は、検知対象物が検知領域である第1袖枠領域から離れた位置に存在する場合を示す。実線で示される線分Lは、形状データ取得器21から第1袖枠領域へ入射した光が第1袖枠領域で反射した際の反射光に対応する。図15において、検知対象物は、線分L上に存在する。
 図16は、図15に示される状態において、実施の形態1における形状データ取得器21が2次元で規定される形状データとして撮影した画像である。図16に示されるように、検知対象物は、検知領域の内部には存在しない。ただし、袖枠7c等の検知領域が設定された面の反射率が高い場合、形状データである画像には、当該面の点Pの位置に検知対象物の像が写り込む。例えば、当該面の材質が金属等である場合、面の反射率が高い。この場合、検知処理器22は、当該像の差分を演算し、検知対象物が検知領域に存在すると判定する。即ち、検知処理器22は、検知対象物を誤検知する。
 一方、形状データが3次元の形式で規定される形状データである場合、検知処理器22は、点Pに物体が存在すると判定しない。即ち、検知処理器22では、検知対象物の誤検知が発生する可能性が低い。
 以上のように、実施の形態2における物体検知装置20は、実施の形態1における物体検知装置20と比べて、検知対象物を検知する精度が高い。即ち、3次元で規定される形状データが利用されることで、物体検知装置20の誤検知を抑制することができる。
 なお、検知領域が乗場8に対応する位置を含むよう設定されている場合に、検知処理部29は、人、台車、ロボット、等の物体がかご7に乗車する意思の有無を推定してもよい。なお、物体がかご7に乗車する意思があることには、当該物体がかご7の内部を目的地として移動を制御されるまたは操作されることが含まれる。
 図17は実施の形態2におけるエレベーターシステムの乗場を示す斜視図である。なお、図17では、検知処理器22の図示が省略される。
 図17において、検知領域Adが乗場8に設定される。形状データ取得器21は、乗場8の内部を移動する物体の形状データを取得する。
 検知処理部29は、形状データ取得器21が取得した形状データに基づいて、検知領域Adに存在する当該物体の重心位置を演算する。検知処理部29は、連続して当該物体の重心位置を演算することで、当該物体の移動方向を演算する。検知処理部29は、当該物体の移動方向に基づいて、乗車意思の推定として、当該物体がかご7に乗車する意思があるか否かを判定する。例えば、検知処理部29は、物体がかご7の出入口の前を横切る移動方向d1へ移動することを検出した場合、当該物体がかご7に乗車する意思が無いと判定する。例えば、検知処理部29は、物体がかご7の内部へ向かう移動方向d2へ移動することを検出した場合、当該物体がかご7に乗車する意思があると判定する。
 検知処理部29は、当該物体にかご7へ乗車する意思があると判定した場合に、当該物体を検知対象物とみなす。即ち、この場合に、検知処理部29は、検知領域に検知対象物が存在することを検知する。
 なお、物体の重心位置の演算方法、重心位置の移動方向の演算方法、および乗車する意思の有無の判定方法には、公知の技術が適用されてもよい。
 以上で説明した実施の形態2の変形例によれば、物体検知装置20は、乗場8を含む3次元空間領域に検知領域を設定している時、形状データに基づいて検知領域の内部の物体の重心位置を演算し、物体の重心位置の移動方向を検出する。物体検知装置20は、物体の重心位置の移動方向から物体がかご7へ乗車する意思があるか否かを判定する。物体検知装置20は、当該物体に乗車する意思があると判定した場合、当該物体を検知対象物として検知する。このため、乗車する意思が無い物体が、かご7の出入口の前を横切った場合に、当該物体を検知対象物として検知することを抑制することができる。また、かご7の出入口の前に置かれている物体を検知対象物として検知することを抑制することができる。即ち、物体検知装置20は、誤検知を抑制することができる。
実施の形態3.
 図18および図19は実施の形態3におけるエレベーターシステムのかごの要部を示す斜視図である。なお、実施の形態1または2の部分と同一又は相当部分には同一符号が付される。当該部分の説明は省略される。図18および図19では、検知処理器22の図示が省略される。
 実施の形態3において、形状データ取得器21は、実施の形態2と同様に、3次元で規定される形状データを取得する。形状データ取得器21は、かご7のドアの方式に応じた位置に設けられる。この場合、検知処理器22は、当該形状データ取得器21の位置を認識する。
 図18の(A)は、両開き式の一対の戸パネル12を示す。この場合、形状データ取得器21は、上枠7bの中央部に設けられる。
 検知領域設定部28は、形状データ取得器21から第1袖枠領域までの第1距離D1を演算する。検知領域設定部28は、形状データ取得器21から第2袖枠領域までの第2距離D2を演算する。図18の(A)に示される例において、第1距離D1と第2距離D2とは等しい。検知領域設定部28は、第1距離D1と第2距離D2とを比較し、第1距離D1と第2距離D2とが等しいと判定する。この場合、検知領域設定部28は、形状データ取得器21が上枠7bの中央部に設けられていることを認識する。検知処理器22は、各処理において、形状データ取得器21が上枠7bの中央部に設けられていることを反映してもよい。
 図18の(B)は、片開きの戸パネル12aを示す。片開きの戸パネル12aは、第1袖枠領域の側に格納される。この場合、形状データ取得器21は、戸パネルの開閉方向において、上枠7bの中央よりも第2袖枠領域の側に設けられる。即ち、形状データ取得器21は、上枠7bの中央よりも片開きの戸パネル12aが格納される側とは反対側に設けられる。
 図18の(B)に示される例において、第1距離D1は第2距離D2よりも大きい。検知領域設定部28は、第1距離D1と第2距離D2とを比較し、第1距離D1が第2距離D2よりも大きいと判定する。この場合、検知領域設定部28は、形状データ取得器21が上枠7bの中央部よりも第2袖枠領域の側に設けられていることを認識する。
 なお、図示されないが、片開きの戸パネル12aが第2袖枠領域の側に格納される場合がある。この場合、第2距離D2は第1距離D1よりも大きい。検知領域設定部28は、第1距離D1と第2距離D2とを比較し、第2距離D2が第1距離D1よりも大きいと判定する。この場合、検知領域設定部28は、形状データ取得器21が上枠7bの中央部よりも第1袖枠領域の側に設けられていることを認識する。
 図19は、形状データ取得器21の位置に応じて設定された検知領域を示す。
 図19の(A)の例において、検知領域Adは、第1袖枠領域の側と第2袖枠領域の側との両側にそれぞれ設定される。
 図19の(B)の例において、検知領域Adは、片開きの戸パネル12aが格納される側の袖枠領域である第1袖枠領域の側に設定される。即ち、検知領域設定部28は、第1距離D1が第2距離D2よりも大きい場合に、第1袖枠領域の少なくとも一部を含む3次元空間領域を検知領域Adに設定する。本例の場合、片開きの戸パネル12aが開き始める際に、第2袖枠領域の側には検知領域Adが設定されない。
 以上で説明した実施の形態3によれば、物体検知装置20は、形状データに基づいて、かご7のドアの方式を認識する。物体検知装置20は、かご7のドアの方式に基づく形状データ取得器21の設置位置を認識する。物体検知装置20は、形状データ取得器21の設置位置に応じて検知領域を設定する。このため、物体検知装置20は、予めドアの方式に関する設置条件の情報を入力されることなく、適切な位置に検知領域を設定することができる。即ち、例えば、物体検知装置20は、戸パネル12、12aに物体が引き込まれる事象が発生し得る領域のみに検知領域を設定することができ、余分な領域に検知領域を設定することをなくすことができる。その結果、検知精度を向上させることができる。
 なお、実施の形態1のように、形状データ取得器21が2次元で規定される形状データである画像を撮影する場合において、物体検知装置20は、かご7のドアの方式を認識してもよい。次に、図20と図21とを用いて、物体検知装置20が画像からかご7のドアの方式を認識する2つの変形例を説明する。
 図20は実施の形態3におけるエレベーターシステムの第1変形例を示す図である。図21は実施の形態2におけるエレベーターシステムの第2変形例を示す図である。
 図20の(A)は、かご7の出入口を水平方向に見た図である。第1変形例では、形状データ取得器21は、戸パネルの開閉方向において、上枠7bの中央よりも第2袖枠領域の側に設けられる。形状データ取得器21は、2次元で規定される形状データである画像を撮影する。形状データ取得器21のレンズは、鉛直下方を向く。即ち、形状データ取得器21は、袖枠7c、7dの表面と平行な方向を撮影する。
 図20の(B)は、戸閉時に形状データ取得器21が撮影した画像である。物体検知装置20は、当該画像において、戸領域A1、第1袖枠領域A2および第2袖枠領域A3を認識する。
 その後、物体検知装置20の検知領域設定部28は、画像における第1袖枠領域A2の第1面積および第2袖枠領域A3の第2面積をそれぞれ演算する。画像に写る像の面積は、形状データ取得器21から当該像が示す物体までの距離が遠いほど、小さくなる。検知領域設定部28は、第1面積と第2面積とを比較することで、かご7のドアの方式を認識する。検知領域設定部28は、かご7のドアの方式に基づく形状データ取得器21の設置位置を認識する。検知領域設定部28は、形状データ取得器21の設置位置に応じて検知領域Adを設定する。
 本例では、第1面積が第2面積よりも小さい。検知領域設定部28は、第1面積が第2面積よりも小さいと判定した場合、かご7のドアが片開きの方式であると認識し、戸パネルの開閉方向において形状データ取得器21が上枠7bの中央よりも第2袖枠領域A3の側に設けられていると認識する。この場合、検知領域設定部28は、第1袖枠領域A2の少なくとも一部を含む領域に検知領域Adを設定する。
 なお、検知領域設定部28は、第1面積と第2面積とが等しいと判定した場合、かご7のドアが両開きの方式であると認識し、形状データ取得器21が上枠7bの中央部に設けられていることを認識する。この場合、検知領域設定部28は、第1袖枠領域A2の少なくとも一部を含む領域および第2袖枠領域A3の少なくとも一部を含む領域に検知領域Adを設定する。
 検知領域設定部28は、第2面積が第1面積よりも小さいと判定した場合、かご7のドアが片開きの方式であると認識し、戸パネルの開閉方向において形状データ取得器21が上枠7bの中央よりも第1袖枠領域A2の側に設けられていると認識する。この場合、検知領域設定部28は、第2袖枠領域A3の少なくとも一部を含む領域に検知領域Adを設定する。
 以上で説明した実施の形態3の第1変形例によれば、物体検知装置20は、第1袖枠領域の第1面積と第2袖枠領域の第2面積とを比較することで、形状データ取得器21が設けられた位置を認識する。物体検知装置20は、形状データ取得器21が設けられた位置に基づいて検知領域を設定する。このため、本例のように画像を撮影する形状データ取得器21が傾けられずに設置されている場合、物体検知装置20は、予めドアの方式に関する設置条件の情報を入力されることなく、適切な位置に検知領域を設定することができる。
 図21の(A)に示される第2変形例では、形状データ取得器21は、戸パネルの開閉方向において、上枠7bの中央よりも第2袖枠領域の側に設けられる。形状データ取得器21は、2次元で規定される形状データである画像を撮影する。形状データ取得器21のレンズは、鉛直下方よりも斜めを向く。即ち、形状データ取得器21は、袖枠7c、7dの表面と平行な方向よりも傾いた方向を撮影する。例えば、形状データ取得器21が撮影可能な範囲に対してかご7のドアの幅が広い場合に、形状データ取得器21は、傾いた姿勢で取り付けられる。
 図21の(B)は、戸閉時に形状データ取得器21が撮影した画像である。実線の枠F1は、第2変形例において撮影された画像である。破線の枠F2は、第1変形例において撮影された画像である。即ち、破線の枠F2は、図20の(B)で示された画像である。第2変形例における画像の画角は、第1変形例における画像の画角よりも第1袖枠領域A2の方に傾いている。枠F2に示される第1変形例の画像において、第2面積は、第1面積よりも大きい。一方で、枠F1に示される第2変形例の画像において、第2面積は、第1面積よりも大きい。このように、形状データ取得器21が傾いた状態で設置されている場合、第1変形例と同様の処理が適用できない場合がある。物体検知装置20は、第2変形例において、第1変形例とは別の処理を行う。
 まず、第2変形例において、検知領域設定部28は、第1変形例と同様に、第1面積と第2面積とを演算する。検知領域設定部28は、第1面積と第2面積とを比較する。
 検知領域設定部28は、第1面積と第2面積とが異なると判定した場合、かご7のドアが片開きの方式であると認識する。その後、検知領域設定部28は、形状データに基づいてドアが開く方向を検出する。検知領域設定部28は、ドアが開く方向に基づいて、形状データ取得器21が設けられた位置を検出する。検知領域設定部28は、形状データ取得器21が設けられた位置に基づいて、検知領域Adを設定する。
 具体的には、検知領域設定部28は、第1面積と第2面積とが異なると判定した場合、戸閉時から戸開時までの時間的に連続する一連の形状データを形状データ取得器21から取得する。この際、戸閉時および戸開時であるか否かは、駆動機13または制御盤14からの信号に基づいて検出されてもよいし、一連の形状データに基づいて検出されてもよい。
 検知領域設定部28は、戸閉時の形状データと一連の形状データとに基づいて、戸開中の画像の変位量を積算する。当該変位量は、戸領域を構成する複数のピクセルの各々について積算される。具体的には、検知領域設定部28は、一連の形状データに含まれる複数の画像の各々の戸領域A1を構成する複数のピクセルと、戸閉時の画像の戸領域A1を構成する複数のピクセルと、を比較する。検知領域設定部28は、ある画像に写る戸領域A1を構成する各ピクセルについて、戸閉時の画像に写る戸領域A1を構成する各ピクセルとの差分を演算する。検知領域設定部28は、演算した各ピクセルの差分のそれぞれを、複数の画像の分だけ積算し、戸開中の画像の変位量とみなす。例えば、位置(x,y)のピクセルに着目した場合、検知領域設定部28は、一連の形状データに含まれる各画像の位置(x,y)のピクセルと、戸閉時の画像の位置(x,y)のピクセルと、の差分を演算する。検知領域設定部28は、位置(x,y)のピクセルに対応する差分であって各画像で演算された差分をそれぞれ算出する。検知領域設定部28は、それぞれ算出した位置(x,y)のピクセルに対応する差分を、複数の画像の分だけ積算する。検知領域設定部28は、位置(x,y)のピクセルに対応する差分の和を、戸開中の画像の位置(x,y)における変位量とみなす。検知領域設定部28は、戸領域A1に含まれる各位置のピクセルにおける変位量を積算する。
 検知領域設定部28は、戸開中の画像の変位量が閾値を超えるピクセルを複数の抽出ピクセルとして抽出する。検知領域設定部28は、変位量が閾値を超える複数の抽出ピクセルの重心位置を演算する。検知領域設定部28は、第1袖枠領域A2と第2袖枠領域A3とのうち当該重心位置に近い袖枠領域を認識する。
 図21には図示されないが、本例において、重心位置は、第1袖枠領域A2よりも第2袖枠領域A3に近い。検知領域設定部28は、第2袖枠領域A3の方が重心位置に近いと判定した場合、形状データ取得器21が上枠7bの中央よりも第2袖枠領域A3の側に設けられていると認識する。この場合、検知領域設定部28は、第1袖枠領域A2の少なくとも一部を含む領域に検知領域Adを設定する。
 図示されないが、検知領域設定部28は、第1袖枠領域A2の方が重心位置に近いと判定した場合、形状データ取得器21が上枠7bの中央よりも第1袖枠領域A2の側に設けられていると認識する。この場合、検知領域設定部28は、第2袖枠領域A3の少なくとも一部を含む領域に検知領域Adを設定する。
 例えば、図21の(B)において、かご7のドアは、紙面右から紙面左へ向かって開く。図示されないが、かご7のドアが閉状態から開く途中の画像において、戸領域A1に対応する部分のうち紙面右側には、乗場8の床等の像が写る。戸領域A1に対応する部分のうち紙面左側には、戸領域A1の像が写る。そのため、戸領域A1における各位置のピクセルの変位量は、紙面右側ほど大きくなる。変位量が閾値を超えるピクセルの数は、紙面右側ほど大きくなる。その結果、複数の抽出ピクセルの重心位置は、戸領域A1における紙面中央よりも紙面右側に位置する。検知領域設定部28は、形状データ取得器21が第2袖枠領域A3の側に設けられていると認識することが可能となる。
 なお、図示されないが、検知領域設定部28は、第1面積と第2面積とが等しいと判定した場合、第1変形例と同様に、かご7のドアが両開きの方式であると認識し、形状データ取得器21が上枠7bの中央部に設けられていることを認識する。この場合、検知領域設定部28は、第1袖枠領域A2の少なくとも一部を含む領域および第2袖枠領域A3の少なくとも一部を含む領域に検知領域Adを設定する。
 以上で説明した実施の形態3の第2変形例によれば、物体検知装置20は、第1面積と第2面積とが異なる場合に、一連の形状データに基づいて複数の抽出ピクセルの重心位置を演算し、当該重心位置に基づいて形状データ取得器21が設けられた位置を認識する。物体検知装置20は、形状データ取得器21が設けられた位置に基づいて検知領域を設定する。このため、画像を撮影する形状データ取得器21が傾けられて設置されている場合でも、物体検知装置20は、予めドアの方式に関する設置条件の情報を入力されることなく、適切な位置に検知領域Adを設定することができる。
実施の形態4.
 図22は実施の形態4におけるエレベーターシステムが設定した検知領域が含まれる形状データの第1例を示す図である。図23は実施の形態4におけるエレベーターシステムが設定した検知領域が含まれる形状データの第2例を示す図である。なお、実施の形態1から3の部分と同一又は相当部分には同一符号が付される。当該部分の説明は省略される。なお、図22および図23において、検知処理器22の図示は省略される。
 実施の形態4において、検知処理器22は、検知領域の形状を一対の戸パネル12の開閉動作に応じて変化させる。
 図22には、物体検知装置20が、3次元で規定される形状データを利用する場合の第1例が示される。検知処理器22の検知領域設定部28は、戸領域の少なくとも一部を含む3次元空間領域であって、一対の戸パネル12が開閉する際に通過する3次元空間領域に検知領域Adを設定する。
 図22の(A)は、一対の戸パネル12が全開状態である場合の検知領域Adを示す。検知領域Adは、一対の戸パネル12の一方から他方にわたる3次元空間領域に設定される。
 図22の(B)は、一対の戸パネル12が閉じる途中である戸閉中の場合の検知領域Adを示す。一対の戸パネル12の戸閉中の状態は、全開の状態から全閉の状態の間の状態である。この場合の検知領域Adは、一対の戸パネル12の一方から他方にわたる3次元空間領域に設定される。図22の(B)における検知領域Adの戸開閉方向の幅は、図22の(A)における検知領域Adの戸開閉方向の幅よりも小さい。即ち、図22の(B)における検知領域Adの体積は、図22の(A)における検知領域Adの体積よりも小さい。
 図22に示されるように、戸開閉の動作に応じて検知領域Adを変化させることで、例えば、物体検知装置20は、一対の戸パネル12を検知対象物として検知するという誤検知を抑制することができる。
 なお、図示されないが、物体検知装置20が2次元で規定される形状データを利用する場合も、物体検知装置20は、3次元で規定される形状データを利用する場合と同様に、戸開閉の動作に応じて戸領域の少なくとも一部を含む領域であって、一対の戸パネル12が開閉時に通過する領域に設定した検知領域Adを変化させる。
 図23には、物体検知装置20が3次元で規定される形状データを利用する場合の第2例が示される。検知領域設定部28は、戸領域の少なくとも一部を含む3次元空間領域であって、乗場8に対応する位置を含む3次元空間領域に検知領域Adを設定する。
 図23の(A)は、一対の戸パネル12が全開状態である場合の検知領域Adを示す。検知領域Adは、形状データ取得器21を中心として一対の戸パネル12の間を通る放射状の形状に設定される。
 図23の(B)は、一対の戸パネル12が戸閉中の場合の検知領域Adを示す。検知領域Adは、一対の戸パネル12の間の距離に応じて、図23の(A)における検知領域Adよりも狭い。即ち、図23の(B)における検知領域Adの体積は、図23の(A)における検知領域Adの体積よりも小さい。
 なお、図示されないが、物体検知装置20が2次元で規定される形状データを利用する場合も、物体検知装置20は、3次元で規定される形状データを利用する場合と同様に、戸開閉の動作に応じて戸領域の少なくとも一部を含む領域であって、乗場8に対応する位置を含む領域に設定した検知領域Adの形状を変化させる。
 次に、検知領域の変化を説明する。
 図24は実施の形態4におけるエレベーターシステムの物体検知装置が設定する検知領域と時刻との関係を示す図である。
 図24には、時刻tと検知領域の大きさとの関係を表すグラフが示される。グラフの横軸は、時刻である。
 (a)が示すグラフは、時刻tと一対の戸パネル12の開閉量との関係である。時刻ta0からta1において、一対の戸パネル12は、全閉状態である。この時、開閉量は0である。時刻ta1において、一対の戸パネル12は、開動作を開始し、時刻ta2において全開状態となる。この時、開閉量は、時刻ta1から増加して時刻ta2において最大となる。時刻ta2から時刻ta3において、一対の戸パネル12は、全開状態である。時刻ta3において、一対の戸パネル12は、閉動作を開始し、時刻ta4において、全閉状態となる。この時、開閉量は、時刻ta3から減少して時刻ta4において0となる。
 (b)が示すグラフは、時刻tと引き込まれを検知する検知領域の大きさとの関係である。実施の形態1のように形状データが2次元で規定される場合、引き込まれを検知する検知領域は、第1袖枠領域の少なくとも一部を含む領域または第2袖枠領域の少なくとも一部を含む領域に設定された検知領域である。この場合、検知領域の大きさは、検知領域の面積である。実施の形態2のように形状データが3次元で規定される場合、引き込まれを検知する検知領域は、第1袖枠領域の少なくとも一部を含む3次元空間領域または第2袖枠領域の少なくとも一部を含む3次元空間領域に設定された検知領域である。この場合、検知領域の大きさは、検知領域の体積である。
 引き込まれを検知する検知領域の大きさは、一対の戸パネル12が開動作を開始する前後で最大となり、それ以外では0となる。検知領域の大きさが0の場合、検知領域が設定されていないとみなされてもよい。具体的には、時刻ta1よりも前の時刻tb1において、引き込まれを検知する検知領域の大きさは、0から最大値となる。時刻ta1の後、時刻tb2において、引き込まれを検知する検知領域の大きさは、最大値から0となる。
 (c)が示すグラフは、時刻tと戸の挟まれを検知する検知領域の大きさとの関係である。実施の形態1のように形状データが2次元で規定される場合、戸の挟まれを検知する検知領域は、一対の戸パネル12が開閉する領域に設定された検知領域である。この場合、検知領域の大きさは、検知領域の面積である。実施の形態2のように形状データが3次元で規定される場合、戸の挟まれを検知する検知領域は、一対の戸パネル12が開閉する3次元空間領域に設定された検知領域である。この場合、検知領域の大きさは、検知領域の体積である。
 戸の挟まれを検知する検知領域の大きさは、一対の戸パネル12が全開となるまでの間、0である。時刻ta2から時刻ta3の間の時刻tc1において、戸の挟まれを検知する検知領域の大きさが0から最大値になる。その後、時刻ta3と同じ時刻tc2において、戸の挟まれを検知する検知領域の大きさは、戸の開閉量が減少するとともに最大値から減少を始める。一対の戸パネル12が全閉となる時刻ta4の直前の時刻tc3において、戸の挟まれを検知する検知領域の大きさは、0となる。
 (d)が示すグラフは、時刻tと乗車しようとする物体を検知する検知領域の大きさとの関係である。ここで、乗車しようとする物体は、乗場8からかご7の内部へ移動しようという意思を持つ検知対象物である。実施の形態1のように形状データが2次元で規定される場合、乗車しようとする物体を検知する検知領域は、乗場8に対応する位置を含む領域に設定された検知領域である。この場合、検知領域の大きさは、検知領域の面積である。実施の形態2のように形状データが3次元で規定される場合、乗車しようとする物体を検知する検知領域は、乗場8に対応する位置を含む3次元空間領域に設定された検知領域である。この場合、検知領域の大きさは、検知領域の体積である。
 乗車しようとする物体を検知する検知領域の大きさは、一対の戸パネル12が全開となるまでの間、0である。時刻ta2から時刻ta3の間の時刻td1において、乗車しようとする物体を検知する検知領域の大きさが0から最大値になる。その後、時刻ta3と同じ時刻td2において、乗車しようとする物体を検知する検知領域の大きさは、戸の開閉量が減少するとともに最大値から減少を始める。一対の戸パネル12が全閉となる時刻ta4の直前の時刻td3において、乗車しようとする物体を検知する検知領域の大きさは、0となる。
 以上で説明した実施の形態4によれば、物体検知装置20は、一対の戸パネル12が開閉する動作に応じて検知領域の形状を変化させる。このため、物体検知装置20は、検知するために必要な領域のみを検知領域に設定することができる。また、戸パネル12等が検知領域の内部を移動した際に、当該戸パネル12を検知対象物として誤検知することを抑制することができる。
実施の形態5.
 図25は実施の形態5におけるエレベーターシステムが設定した検知領域を示す図である。なお、実施の形態1から4の部分と同一又は相当部分には同一符号が付される。当該部分の説明は省略される。なお、図25において、検知処理器22の図示が省略される。
 実施の形態5において、物体検知装置20の検知領域設定部28は、検知領域を分割した複数の分割検知領域ADを設定する。図25には、形状データ取得器21が3次元で規定される形状データを取得する場合に、第1袖枠領域の少なくとも一部を含む3次元空間領域に設定された検知領域Adが示される。検知領域設定部28は、当該検知領域Adを3つの分割検知領域ADa、ADb、ADcに分割する。3つの分割検知領域ADa、ADb、ADcは、上から順番に下方へ並ぶ。
 例えば、検知領域が分割されていない状態で、形状データ取得器21の下方に粉塵等の細かい物体が飛散した場合、検知領域全体に存在する細かい物体の形状データの数が閾値を超えることで、検知処理部29は、検知領域に検知対象物が存在することを検知し得る。しかしながら、当該細かい物体は、検知対象物として想定されるべき物体ではない。即ち、この場合、検知処理部29は、誤検知を行い得る。
 検知領域が複数の分割検知領域ADに分割されることで、各分割検知領域ADで検知される当該細かい物体の形状データの数が閾値を超えにくくなる。このため、誤検知の発生が抑制され得る。
 検知処理部29は、複数の分割検知領域ADa、ADb、ADcについて、複数の検知閾値を1対1で対応するようそれぞれ設定する。
 例えば、複数の検知閾値は、形状データ取得器21からの距離が遠いほど小さい値になるように設定される。即ち、複数の検知閾値は、下方に位置する分割検知領域ほど小さい値になるように設定される。下方に位置する分割検知領域ほど、子供の手等の小さな物体を検知する重要性が大きくなる。また、2次元で規定される形状データとして画像が取得される場合、形状データ取得器21から遠い下方に位置する分割検知領域ほど、形状データの全体に占める像が小さくなる。即ち、画像全体に対して検知対象物の像が写るピクセル等の形状データの数が、形状データ取得器21から遠いほど少なくなる。
 下方に位置する分割検知領域ほど検知閾値が小さくなるように設定することで、より重要性の高い物体への検知精度を向上させることができる。また、下方に位置する分割検知領域ほど検知閾値が小さくなるように設定することで、形状データ取得器21からの距離によって形状データの数が少なくなることが検知精度に与える影響を小さくすることができる。
 以上で説明した実施の形態5によれば、物体検知装置20は、複数の分割検知領域を設定する。物体検知装置20は、複数の分割検知領域の各々に対応する閾値を設定する。このため、物体検知装置20は、誤検知が発生することを抑制しながら、各分割検知領域における検知精度を向上させることができる。
 次に、図26を用いて、物体検知装置20を構成するハードウェアの例を説明する。
 図26は実施の形態1から5におけるエレベーターシステムの物体検知装置のハードウェア構成図である。
 物体検知装置20の各機能は、処理回路により実現し得る。例えば、処理回路は、少なくとも1つのプロセッサ100aと少なくとも1つのメモリ100bとを備える。例えば、処理回路は、少なくとも1つの専用のハードウェア200を備える。
 処理回路が少なくとも1つのプロセッサ100aと少なくとも1つのメモリ100bとを備える場合、物体検知装置20の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせで実現される。ソフトウェアおよびファームウェアの少なくとも一方は、プログラムとして記述される。ソフトウェアおよびファームウェアの少なくとも一方は、少なくとも1つのメモリ100bに格納される。少なくとも1つのプロセッサ100aは、少なくとも1つのメモリ100bに記憶されたプログラムを読み出して実行することにより、物体検知装置20の各機能を実現する。少なくとも1つのプロセッサ100aは、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSPともいう。例えば、少なくとも1つのメモリ100bは、RAM、ROM、フラッシュメモリ、EPROM、EEPROM等の、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等である。
 処理回路が少なくとも1つの専用のハードウェア200を備える場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらの組み合わせで実現される。例えば、物体検知装置20の各機能は、それぞれ処理回路で実現される。例えば、物体検知装置20の各機能は、まとめて処理回路で実現される。
 物体検知装置20の各機能について、一部を専用のハードウェア200で実現し、他部をソフトウェアまたはファームウェアで実現してもよい。例えば、検知処理部29が有する機能については専用のハードウェア200としての処理回路で実現し、検知処理部29が有する機能以外の機能については少なくとも1つのプロセッサ100aが少なくとも1つのメモリ100bに格納されたプログラムを読み出して実行することにより実現してもよい。
 このように、処理回路は、ハードウェア200、ソフトウェア、ファームウェア、またはこれらの組み合わせで物体検知装置20の各機能を実現する。
 なお、物体検知装置20において、形状データ取得器21と検知処理器22とは、別の場所に設けられてもよい。図示されないが、形状データ取得器21および検知処理器22の各機能も、物体検知装置20の各機能を実現する処理回路と同等の処理回路で実現される。
 以上のように、本開示に係る物体検知装置は、エレベーターシステムに利用できる。
 1 エレベーターシステム、 2 昇降路、 3 建築物、 4 機械室、 5 主ロープ、 6 巻上機、 7 かご、 7a 床、 7b 上枠、 7c,7d 袖枠、 8 乗場、 9 乗場戸、 10 乗場戸枠、 11 かご戸装置、 12 戸パネル、 12a 片開きの戸パネル、 12b,12c パネル、 12d 面、 13 駆動機、 14 制御盤、 20 物体検知装置、 21 形状データ取得器、 22 検知処理器、 23 記憶部、 24 受信部、 25 領域設定部、 26 第1領域認識部、 27 第2領域認識部、 28 検知領域設定部、 29 検知処理部、 100a プロセッサ、 100b メモリ、 200 ハードウェア

Claims (18)

  1.  エレベーターのかごの出入口の上部に設けられた形状データ取得器が取得した前記形状データ取得器よりも下方に存在する物体の形状データに対して複数の領域を設定する領域設定部と、
     前記出入口の戸が開いている時の形状データと前記出入口の戸が閉じている時の形状データとを比較することで、形状データにおいて前記複数の領域のうち前記戸の位置を示す戸領域を認識する第1領域認識部と、
     前記第1領域認識部が認識した前記戸領域の位置に基づいて、形状データにおける前記複数の領域のうち1以上の第2領域を認識する第2領域認識部と、
     前記第1領域認識部が認識した前記戸領域の少なくとも一部を含む領域および前記第2領域認識部が認識した前記1以上の第2領域の少なくとも一部を含む領域のうち少なくとも一方に検知領域を設定する検知領域設定部と、
     前記形状データ取得器が取得した形状データに基づいて、前記検知領域設定部が設定した前記検知領域に検知対象物が存在することを検知する検知処理部と、
    を備えた物体検知装置。
  2.  前記形状データは、前記形状データ取得器が撮影した2次元画像のデータであり、
     前記領域設定部は、2次元空間において前記複数の領域を設定し、
     前記第2領域認識部は、前記1以上の第2領域として、前記領域設定部に設定された前記複数の領域のうち、前記かごの乗降方向において前記戸領域と隣接した領域であって、前記戸の開閉方向において対称の位置に存在する2つの領域が、前記かごに設けられた一対の袖枠の位置を示す第1袖枠領域と第2袖枠領域とであると認識する請求項1に記載の物体検知装置。
  3.  前記検知領域設定部は、前記第1袖枠領域の少なくとも一部を含む領域および前記第2袖枠領域の少なくとも一部を含む領域のうち少なくとも一方を前記検知領域に設定する請求項2に記載の物体検知装置。
  4.  前記検知領域設定部は、前記第1領域認識部が認識した前記戸領域の少なくとも一部を含む領域であって、前記戸が開閉する際に通過する領域を前記検知領域に設定する請求項2または請求項3に記載の物体検知装置。
  5.  前記検知領域設定部は、前記第1領域認識部が認識した前記戸領域の少なくとも一部を含む領域であって、前記エレベーターの乗場に対応する位置を含む領域を前記検知領域に設定する請求項2から請求項4のいずれか一項に記載の物体検知装置。
  6.  前記検知領域設定部は、
     前記第1袖枠領域の第1面積および前記第2袖枠領域の第2面積を演算し、
     前記第1面積と前記第2面積とが等しい場合に、前記第1袖枠領域の少なくとも一部を含む領域および前記第2袖枠領域の少なくとも一部を含む領域を前記検知領域に設定し、
     前記第1面積が前記第2面積よりも小さい場合に、前記第1袖枠領域の少なくとも一部を含む領域を前記検知領域に設定し、
     前記第2面積が前記第1面積よりも小さい場合に、前記第2袖枠領域の少なくとも一部を含む領域を前記検知領域に設定する、
    請求項2から請求項5のいずれか一項に記載の物体検知装置。
  7.  前記検知領域設定部は、
     前記出入口の戸が開いている状態から前記出入口の戸が閉まるまでの間に前記形状データ取得器が取得した一連の形状データに基づいて、前記出入口の戸が開いている状態の形状データに含まれる2次元画像の前記戸領域を構成する複数のピクセルと、前記一連の形状データに含まれる複数の2次元画像の各々の前記戸領域を構成する複数のピクセルと、の変位量を演算し、
     前記変位量が閾値を超えるピクセルを複数の抽出ピクセルとして抽出して、前記複数の抽出ピクセルの重心位置を演算し、
     前記第1袖枠領域の方が前記第2袖枠領域よりも前記複数の抽出ピクセルの重心位置に近いと判定した場合に、前記第2袖枠領域の少なくとも一部を含む領域を前記検知領域に設定し、
     前記第2袖枠領域の方が前記第1袖枠領域よりも前記複数の抽出ピクセルの重心位置に近いと判定した場合に、前記第1袖枠領域の少なくとも一部を含む領域を前記検知領域に設定する、
    請求項2から請求項5のいずれか一項に記載の物体検知装置。
  8.  形状データは、前記形状データ取得器が測定した3次元空間における測定点の集合である3次元点群のデータであり、
     前記領域設定部は、3次元空間において前記3次元点群が形成する複数の面を検出し、前記複数の面にそれぞれ対応する前記複数の領域を設定し、
     前記第2領域認識部は、
     前記1以上の第2領域として、前記複数の領域のうち前記形状データ取得器と対向する面に対応する領域が床の位置を示す床領域であると認識し、
     前記1以上の第2領域として、前記複数の領域のうち前記床領域と直交する領域であって、前記戸領域と隣接する2つの領域が、前記かごに設けられた一対の袖枠の位置をそれぞれ示す第1袖枠領域と第2袖枠領域とであると認識する、
    請求項1に記載の物体検知装置。
  9.  前記検知領域設定部は、前記第1袖枠領域の少なくとも一部を含む3次元空間領域および前記第2袖枠領域の少なくとも一部を含む3次元空間領域のうち少なくとも一方を前記検知領域に設定する請求項8に記載の物体検知装置。
  10.  前記検知領域設定部は、前記第1領域認識部が認識した前記戸領域の少なくとも一部を含む3次元空間領域であって、前記戸が開閉する際に通過する3次元空間領域を前記検知領域に設定する請求項8または請求項9に記載の物体検知装置。
  11.  前記検知領域設定部は、前記第1領域認識部が認識した前記戸領域の少なくとも一部を含む3次元空間領域であって、前記エレベーターの乗場に対応する位置を含む3次元空間領域を前記検知領域に設定する請求項8から請求項10のいずれか一項に記載の物体検知装置。
  12.  前記検知処理部は、形状データの3次元点群に基づいて前記検知領域の内部に存在する前記物体の重心位置を演算し、前記物体の重心位置が移動する方向に基づいて前記物体が前記かごに乗車する意思があると判定した場合に、前記物体を前記検知対象物とみなして前記検知領域に前記検知対象物が存在することを検知する請求項11に記載の物体検知装置。
  13.  前記第1領域認識部は、前記複数の領域のうち前記かごの乗降方向に平行な領域を前記戸の内部の境界位置を示す戸境界領域であると認識し、
     前記領域設定部は、前記戸境界領域の少なくとも一部を含む3次元空間領域を前記検知領域に設定する請求項8から請求項12のいずれか一項に記載の物体検知装置。
  14.  前記検知領域設定部は、
     形状データの3次元点群の情報に基づいて前記形状データ取得器から前記第1袖枠領域までの第1距離および前記形状データ取得器から前記第2袖枠領域までの第2距離を演算し、
     前記第1距離と前記第2距離とが等しい場合に、前記第1袖枠領域の少なくとも一部を含む3次元空間領域および前記第2袖枠領域の少なくとも一部を含む3次元空間領域を前記検知領域に設定し、
     前記第1距離が前記第2距離よりも大きい場合に、前記第1袖枠領域の少なくとも一部を含む3次元空間領域を前記検知領域に設定し、
     前記第2距離が前記第1距離よりも大きい場合に、前記第2袖枠領域の少なくとも一部を含む3次元空間領域を前記検知領域に設定する、
    請求項8から請求項13のいずれか一項に記載の物体検知装置。
  15.  前記検知処理部は、形状データと前記形状データ取得器が前記測定点を測定した際の測定強度とに基づいて、前記検知領域設定部が設定した前記検知領域に検知対象物が存在することを検知する請求項8から請求項14のいずれか一項に記載の物体検知装置。
  16.  前記検知領域設定部は、前記戸が開閉する動作に応じて前記検知領域の形状を変化させる請求項1から請求項15のいずれか一項に記載の物体検知装置。
  17.  前記検知領域設定部は、前記検知領域を分割した複数の分割検知領域を設定し、
     前記検知処理部は、前記複数の分割検知領域に対応する複数の検知閾値をそれぞれ設定し、前記形状データ取得器が取得した形状データと前記複数の検知閾値とに基づいて、前記複数の分割検知領域のうちいずれかの分割検知領域に存在する前記検知対象物を検知する請求項1から請求項16のいずれか一項に記載の物体検知装置。
  18.  かごと、
     前記かごの出入口に設けられた戸と、
     前記かごの出入口の上部に設けられ、下方に存在する物体の形状データを取得する形状データ取得器を備えた請求項1から請求項17のいずれか一項に記載の物体検知装置と、
     前記物体検知装置によって検知領域に検知対象物が存在することが検知された場合に、前記戸の開動作または閉動作を中止させる制御盤と、
    を備えたエレベーターシステム。
PCT/JP2022/017944 2022-04-15 2022-04-15 物体検知装置およびエレベーターシステム WO2023199520A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/017944 WO2023199520A1 (ja) 2022-04-15 2022-04-15 物体検知装置およびエレベーターシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/017944 WO2023199520A1 (ja) 2022-04-15 2022-04-15 物体検知装置およびエレベーターシステム

Publications (1)

Publication Number Publication Date
WO2023199520A1 true WO2023199520A1 (ja) 2023-10-19

Family

ID=88329504

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/017944 WO2023199520A1 (ja) 2022-04-15 2022-04-15 物体検知装置およびエレベーターシステム

Country Status (1)

Country Link
WO (1) WO2023199520A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009031376A1 (ja) * 2007-09-04 2009-03-12 Mitsubishi Electric Corporation 利用者検出方法及び装置、並びに制御方法
JP2011522758A (ja) * 2008-05-22 2011-08-04 オーチス エレベータ カンパニー 映像によるエレベータドアの検出装置および検出方法
JP2018162117A (ja) * 2017-03-24 2018-10-18 東芝エレベータ株式会社 エレベータの乗車検知システム
JP2018197140A (ja) * 2017-05-23 2018-12-13 フジテック株式会社 エレベータの制御システム
WO2021090447A1 (ja) * 2019-11-07 2021-05-14 三菱電機株式会社 エレベーターの制御システムおよび制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009031376A1 (ja) * 2007-09-04 2009-03-12 Mitsubishi Electric Corporation 利用者検出方法及び装置、並びに制御方法
JP2011522758A (ja) * 2008-05-22 2011-08-04 オーチス エレベータ カンパニー 映像によるエレベータドアの検出装置および検出方法
JP2018162117A (ja) * 2017-03-24 2018-10-18 東芝エレベータ株式会社 エレベータの乗車検知システム
JP2018197140A (ja) * 2017-05-23 2018-12-13 フジテック株式会社 エレベータの制御システム
WO2021090447A1 (ja) * 2019-11-07 2021-05-14 三菱電機株式会社 エレベーターの制御システムおよび制御方法

Similar Documents

Publication Publication Date Title
JP6134641B2 (ja) 画像認識機能を備えたエレベータ
CN108622776B (zh) 电梯的乘梯探测系统
CN106144795B (zh) 通过识别用户操作用于乘客运输控制和安全的系统和方法
CN108622777B (zh) 电梯的乘梯探测系统
CN106144796B (zh) 用于空乘客运输外壳确定的基于深度传感器的乘客感测
JP6474687B2 (ja) 画像認識機能を備えたエレベータ
CN106144862B (zh) 用于乘客运输门控制的基于深度传感器的乘客感测
JP5317426B2 (ja) エレベータ装置
CN104828664B (zh) 自动调试系统和方法
JP6242966B1 (ja) エレベータ制御システム
CN109928290B (zh) 利用者检测系统
EP2300949B1 (en) Video-based system and method of elevator door detection
US11332345B2 (en) Elevator system with optimized door response
JP5542661B2 (ja) スライドドア装置及びエレベータ
JP6139729B1 (ja) 画像処理装置
JP6798937B2 (ja) エレベータ及びエスカレータ
CN112678635B (zh) 电梯满员检测系统以及电梯满员检测方法
EP3604192A1 (en) Elevator door control for deboarding passengers in multidoor elevators
WO2023199520A1 (ja) 物体検知装置およびエレベーターシステム
CN113023518B (zh) 电梯利用者检测系统
CN110745675B (zh) 一种基于tof相机的电梯保护方法
CN115703609A (zh) 电梯的利用者检测系统
CN112441490A (zh) 电梯的使用者探测系统
JP6729980B1 (ja) エレベータの利用者検知システム
CN111453588B (zh) 电梯系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22937497

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2024514785

Country of ref document: JP

Kind code of ref document: A