WO2024009389A1 - エレベーターの機器の配置作業の支援システム - Google Patents

エレベーターの機器の配置作業の支援システム Download PDF

Info

Publication number
WO2024009389A1
WO2024009389A1 PCT/JP2022/026707 JP2022026707W WO2024009389A1 WO 2024009389 A1 WO2024009389 A1 WO 2024009389A1 JP 2022026707 W JP2022026707 W JP 2022026707W WO 2024009389 A1 WO2024009389 A1 WO 2024009389A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
image
arrangement
placement
devices
Prior art date
Application number
PCT/JP2022/026707
Other languages
English (en)
French (fr)
Inventor
良直 高橋
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2022/026707 priority Critical patent/WO2024009389A1/ja
Publication of WO2024009389A1 publication Critical patent/WO2024009389A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/02Applications of checking, fault-correcting, or safety devices in elevators responsive to abnormal operating conditions
    • B66B5/04Applications of checking, fault-correcting, or safety devices in elevators responsive to abnormal operating conditions for detecting excessive speed

Definitions

  • the present disclosure relates to a support system for arranging elevator equipment.
  • Patent Document 1 discloses an example of a method for arranging a shock absorber stand for an elevator.
  • the visible light laser device is positioned with reference to a reference wire member vertically lowered in the hoistway.
  • the shock absorber stand is positioned in the pit by aligning the laser beam emitted from the visible light laser device with the index of the shock absorber stand.
  • the present disclosure relates to solving such problems.
  • the present disclosure provides a support system that can be applied to the arrangement work of various equipment in an elevator.
  • the support system is capable of photographing an area including the position of the target arrangement corresponding to each of the one or more devices in the arrangement work of arranging each of the one or more devices of the elevator at the corresponding target arrangement.
  • the apparatus includes a device and a guidance system that guides the placement of each of the one or more devices to a corresponding target placement based on images taken by the imaging device.
  • the support system according to the present disclosure can be applied to the arrangement work of various equipment in elevators.
  • FIG. 1 is a perspective view of an example of elevator equipment to which the support system according to Embodiment 1 is applied;
  • FIG. 1 is a top view of the hoisting machine according to Embodiment 1.
  • FIG. 1 is a configuration diagram of a support system according to Embodiment 1.
  • FIG. 3 is a diagram showing an example of a display by a display unit according to Embodiment 1.
  • FIG. 3 is a diagram showing an example of a display by a display unit according to Embodiment 1.
  • FIG. 5 is a flowchart illustrating an example of the operation of the support system according to the first embodiment.
  • FIG. 7 is a top view of another example of elevator equipment to which the support system according to the first embodiment is applied.
  • FIG. 7 is a top view of another example of elevator equipment to which the support system according to the first embodiment is applied.
  • 7 is a diagram illustrating another example of display by the display unit according to Embodiment 1.
  • FIG. 7 is a diagram illustrating an example of feature portion extraction by the target placement acquisition unit according to Embodiment 1.
  • FIG. 7 is a diagram illustrating an example of feature portion extraction by the target placement acquisition unit according to Embodiment 1.
  • FIG. 7 is a diagram illustrating an example of feature portion extraction by the target placement acquisition unit according to Embodiment 1.
  • FIG. 7 is a diagram illustrating an example of feature portion extraction by the target placement acquisition unit according to Embodiment 1.
  • FIG. 7 is a diagram illustrating an example of feature portion extraction by the target placement acquisition unit according to Embodiment 1.
  • FIG. 7 is a diagram illustrating an example of feature portion extraction by the target placement acquisition unit according to Embodiment 1.
  • FIG. 7 is a diagram illustrating an example of feature portion extraction by the target placement acquisition unit
  • FIG. 7 is a diagram illustrating an example of feature portion extraction by the target placement acquisition unit according to Embodiment 1.
  • FIG. 7 is a diagram illustrating an example of feature portion extraction by the target placement acquisition unit according to Embodiment 1.
  • FIG. 3 is a diagram illustrating an example of acquisition of a target arrangement by the target arrangement acquisition unit according to the first embodiment;
  • FIG. FIG. 2 is a configuration diagram of a support system according to a modification of the first embodiment.
  • 7 is a diagram illustrating an example of acquisition of a target arrangement by a target arrangement acquisition unit according to a modification of the first embodiment;
  • FIG. 1 is a hardware configuration diagram of main parts of a support system according to Embodiment 1.
  • FIG. FIG. 2 is a configuration diagram of a support system according to a second embodiment.
  • FIG. 7 is a diagram illustrating an example of a learned model in a learning unit according to Embodiment 2.
  • FIG. 7 is a diagram illustrating an example of a learned model in a learning unit according to Embodiment 2.
  • FIG. 7 is a flowchart illustrating an example of the operation of the support system according to the second embodiment.
  • 7 is a flowchart illustrating an example of the operation of the support system according to the second embodiment.
  • FIG. 7 is a diagram illustrating an example of a display on a display unit according to a modification of the second embodiment.
  • FIG. 1 is a perspective view of an example of elevator equipment to which the support system 1 according to the first embodiment is applied.
  • the support system 1 is applied to the work of arranging elevator equipment.
  • Elevator equipment includes, for example, devices that operate in the elevator, members that constitute the elevator, and these parts.
  • the arrangement work is the work of arranging elevator equipment in a target arrangement corresponding to the equipment. In a placement operation, one or more devices are placed in respective target locations.
  • the target arrangement of each device is, for example, the arrangement of the device in normal operation of an elevator.
  • the arrangement of equipment includes the position and orientation of the equipment.
  • the placement order of at least one of the devices to be placed may be set in advance.
  • the arrangement work includes, for example, the installation of a new elevator, the renewal of an elevator, or the replacement or maintenance of elevator equipment.
  • Maintenance and inspection work on elevator equipment may include a step of removing elevator equipment and returning the equipment to its original position after adjustment or cleaning.
  • Elevators are applied, for example, to buildings with multiple floors.
  • an elevator hoistway (not shown) is provided.
  • a hoistway is a vertically long space that spans multiple floors in a building.
  • An elevator landing (not shown) is provided on each floor.
  • a landing door is provided at the landing of each floor. The landing door is a door that partitions the landing and the hoistway.
  • the elevator includes a car, a hoisting rope 2, and a hoisting machine 3 (not shown).
  • a car is a device that transports users between multiple floors by running vertically in a hoistway.
  • the hoisting rope 2 is a rope that suspends the car on the hoistway.
  • a plurality of hoisting ropes 2 may be provided.
  • the hoisting machine 3 is an example of elevator equipment. In FIG. 1, a perspective view of the hoisting machine 3 is shown.
  • the hoist 3 is provided, for example, in a machine room.
  • the machine room is provided above the hoistway of an elevator, for example.
  • a hoisting machine stand 4 is provided in the machine room.
  • the hoisting machine stand 4 is a base of the hoisting machine 3.
  • the hoist 3 includes a motor 5 and a sheave 6.
  • Motor 5 and sheave 6 are each examples of elevator equipment. In the arrangement work, the hoist 3 may be divided into the motor 5 and the sheave 6 and arranged.
  • the motor 5 is a device that rotates the sheave 6.
  • the sheave 6 has a sheave groove 7.
  • the sheave groove 7 is a groove in the sheave 6 around which the hoisting rope 2 is wound.
  • the hoisting rope 2 is lowered from the sheave 6 to the hoistway through a rope duct provided in a machine room, for example.
  • a hoisting rope 2 is hoisted by a sheave 6 rotated by a motor 5, so that the car runs vertically along a hoistway.
  • FIG. 2 is a top view of the hoisting machine 3 according to the first embodiment.
  • the support system 1 supports the arrangement work of arranging elevator equipment including the hoisting machine 3.
  • the support system 1 includes a photographing device 8.
  • the photographing device 8 is, for example, a device such as a camera that photographs images.
  • the image photographed by the photographing device 8 may be either a still image or a moving image.
  • the photographing device 8 photographs an area including the position of the target arrangement of the hoist 3.
  • the photographing device 8 is arranged vertically above the sheave 6 of the hoisting machine 3.
  • the photographing device 8 is placed directly above the sheave 6.
  • the photographing device 8 is arranged on a vertical line passing through the rotation axis of the sheave 6.
  • the photographing device 8 may be arranged diagonally above an area including the target arrangement position of equipment such as the hoisting machine 3.
  • FIG. 3 is a configuration diagram of the support system 1 according to the first embodiment.
  • the photographing device 8 is fixed to the ceiling of the machine room above the sheave 6.
  • the photographing device 8 is fixed so as not to move from the start to the end of the placement work.
  • the photographing device 8 is fixed with, for example, an anchor bolt, a magnet, a suction cup, or an adhesive tape.
  • the photographing device 8 may be attached to a stand installed in, for example, a machine room.
  • the photographing device 8 may be fixed to a wall of a machine room, for example.
  • the photographing device 8 may be fixed by, for example, a magnetic chuck.
  • the photographing device 8 may continue to be fixed even after the arrangement work is completed. Alternatively, the photographing device 8 may be removed after the arrangement work is completed.
  • the support system 1 includes a guidance system 9.
  • the guidance system 9 is a system that includes a server device that is installed, for example, in a building where an elevator is installed or other buildings.
  • the guidance system 9 may be a system consisting of a portable information terminal such as a smartphone carried by a worker who performs placement work.
  • the guidance system 9 may be a system consisting of equipment built into the photographing device 8.
  • the guidance system 9 may also be a system consisting of a single device.
  • the guidance system 9 may be a system consisting of a plurality of devices. At this time, the plurality of devices of the guidance system 9 may be connected to each other through a communication network such as the Internet.
  • the guidance system 9 may be installed in, for example, a virtual machine on a cloud service. A part or all of the functions of the guidance system 9 may be installed in an edge server or the like that connects to an external service through a communication network such as the Internet in a building where the elevator is installed.
  • the guidance system 9 includes a storage section 10, an input section 11, a target placement acquisition section 12, a display section 13, and a notification section 14.
  • the storage unit 10 is a part that stores information. In the storage unit 10, information such as the order of arrangement of one or more pieces of equipment in an elevator in the arrangement work is stored.
  • the input unit 11 is a part that receives input from a worker who performs placement work, for example.
  • the input unit 11 is, for example, a touch panel, a mouse, or a keyboard.
  • the target arrangement acquisition unit 12 is a part that obtains the target arrangement corresponding to each device to be arranged in the arrangement work.
  • the display unit 13 is a part that displays a guide image showing the target arrangement corresponding to each device, superimposed on the image photographed by the photographing device 8.
  • the display unit 13 is, for example, a display.
  • the notification unit 14 is a part that notifies the worker of the arrangement relationship between each device and the target arrangement.
  • the notification unit 14 is, for example, a speaker that provides audio notification.
  • FIGS. 4 and 5 are diagrams showing examples of display by the display unit 13 according to the first embodiment.
  • the placement work includes a step of replacing the existing hoist 3 with a newly installed hoist 3.
  • FIG. 4 an image of the existing hoisting machine 3 is shown.
  • the display unit 13 displays an image of the existing hoist 3 taken by the photographing device 8.
  • the target placement acquisition unit 12 acquires the target placement of the hoisting machine 3, which is an elevator device.
  • the target layout acquisition unit 12 acquires the target layout corresponding to the hoisting machine 3 based on input from a worker, for example.
  • the target location corresponding to the hoist 3 is the position of the sheave groove 7 during normal operation of the elevator.
  • the information on the target placement includes information on the characteristic portion.
  • a feature is one or more points or lines that characterize the position or orientation of an instrument located at a target location.
  • the feature is a point indicating the position of the sheave groove 7.
  • the characteristic portion is, for example, a point indicating the position of the end of the sheave groove 7.
  • the target arrangement acquired by the target arrangement acquisition unit 12 is stored in the storage unit 10, for example.
  • the characteristic portion is used, for example, as a reference for guidance in placement work.
  • the characteristic portion of the device is extracted from the image photographed by the photographing device 8 using, for example, an image processing method.
  • the target placement acquisition unit 12 acquires the target placement input through the input unit 11.
  • the worker removes the existing hoist 3.
  • the worker temporarily places the newly installed hoist 3 in the machine room.
  • FIG. 5 an image is shown in which the newly installed hoist 3 is temporarily placed.
  • the display unit 13 displays an image of the newly installed hoist 3 that is being photographed by the photographing device 8.
  • the display unit 13 displays the guide image superimposed on the image photographed by the photographing device 8.
  • the guide image is an image showing the target arrangement acquired by the target arrangement acquisition unit 12.
  • FIG. 5 an example of a guide image corresponding to the hoisting machine 3 is shown.
  • the guide image is, for example, an image showing the position or orientation of a characteristic part of a device arranged in a target arrangement.
  • an image showing the position and attitude of the sheave 6 of the hoisting machine 3 arranged at the target arrangement is shown as the guide image.
  • a point indicating the position of the end of the sheave 6 of the hoisting machine 3 arranged at the target arrangement is shown.
  • the guide image may be vector image data such as points or lines indicating the position and orientation of the equipment to be placed.
  • the points or lines indicating the position and orientation of the device are, for example, corners or edges of the device's outline.
  • the guide image may be raster image data such as an image of the device placed in the target placement.
  • the worker Based on the image displayed on the display unit 13, the worker adjusts the position of the newly installed hoist 3 that has been temporarily placed. In this example, the worker moves the hoist 3 to the right side of the drawing.
  • the guidance system 9 acquires the position of the newly installed hoist 3 by, for example, image recognition of an image taken by the photographing device 8.
  • the display unit 13 may display an image such as an arrow indicating the direction in which the newly installed hoist 3 is to be moved as part of the guide image.
  • a first range and a second range are set in advance with respect to the arrangement relationship such as the distance between the newly installed hoisting machine 3 and the target arrangement corresponding to the hoisting machine 3.
  • the first range is a range that indicates that the newly installed hoist 3 has approached the target arrangement, for example, when the position and attitude of the newly installed hoist 3 are in the first range.
  • the second range is a range that indicates that the newly installed hoist 3 has been placed in the target arrangement within an allowable error range, for example, when the position and orientation of the newly installed hoist 3 are in the second range.
  • the second range is included in the first range.
  • the notification unit 14 determines whether the position and orientation of the newly installed hoist 3, which are acquired by image recognition or the like, are within the first range and the second range.
  • the notification unit 14 notifies the worker that the newly installed hoist 3 is approaching the target location by emitting a first sound when the position and attitude of the newly installed hoist 3 enters the first range. do.
  • the first sound is, for example, a preset sound such as an alarm sound or a voice announcement.
  • the notification unit 14 notifies the worker that the newly installed hoist 3 has been placed at the target location by emitting a second sound when the position and attitude of the newly installed hoist 3 enters the second range. inform.
  • the second sound is different from the preset first sound, such as an alarm sound or a voice announcement.
  • the worker places the newly installed hoist 3 at the target location guided by the display on the display section 13 and the notification from the notification section 14.
  • the worker wraps the hoisting rope 2 around the sheave 6 of the newly installed hoisting machine 3. If there is equipment to be placed next, the worker will continue to work on arranging the equipment. At this time, the support system 1 guides the arrangement of the equipment in the same manner as the guidance for the arrangement of the hoist 3. On the other hand, if there is no equipment to continue arranging, the worker ends the arranging work.
  • FIG. 6 is a flowchart showing an example of the operation of the support system 1 according to the first embodiment.
  • FIG. 6 shows an example of the operation of the support system 1 that guides the placement of any equipment in an elevator.
  • step S11 the target placement acquisition unit 12 acquires the target placement of the equipment to be placed. After that, the operation of the support system 1 proceeds to step S12.
  • step S12 the display unit 13 displays the image of the target device photographed by the imaging device 8, with a guide image indicating the target arrangement corresponding to the device, superimposed on the image of the target device. After that, the operation of the support system 1 proceeds to step S13.
  • step S13 the notification unit 14 determines whether the position and orientation of the target device are within the first range. If the determination result is Yes, the operation of the support system 1 proceeds to step S14. On the other hand, if the determination result is No, the operation of the support system 1 proceeds to step S12.
  • step S14 the notification unit 14 emits the first sound. After that, the operation of the support system 1 proceeds to step S15.
  • step S15 the notification unit 14 determines whether the position and orientation of the target device are within the second range. If the determination result is Yes, the operation of the support system 1 proceeds to step S16. On the other hand, if the determination result is No, the operation of the support system 1 proceeds to step S12.
  • step S16 the notification unit 14 emits the second sound. After that, the operation of the support system 1 that guides the placement of the target device ends. At this time, if there is another device to be placed subsequently in the placement work, the support system 1 starts guiding the placement of the other device.
  • the photographing device 8 may include a plurality of cameras. Each camera is placed at a position suitable for guiding the placement of any equipment.
  • the position suitable for guiding the arrangement of equipment is, for example, a position where the equipment is photographed from a direction suitable for guiding the arrangement of the equipment.
  • a direction suitable for guiding the device placement is, for example, a direction in which the device placement tolerance is the largest, or a direction perpendicular to the direction in which the device placement tolerance is the smallest.
  • each camera may be arranged so that the arrangement of each device can be viewed stereoscopically.
  • the equipment to be arranged includes the hoisting machine 3
  • one of the cameras is arranged, for example, vertically above the sheave 6 of the hoisting machine 3.
  • the camera is placed directly above the sheave 6. Further, any other camera is arranged vertically below the sheave 6 of the hoisting machine 3. The camera is placed directly below the sheave 6.
  • the photographing device 8 may include a camera disposed either vertically above or vertically below the sheave 6 of the hoisting machine 3.
  • the equipment placed in the placement work may be other equipment of the hoisting machine 3.
  • the equipment placed in the placement work may be, for example, a car door device.
  • a car door device is a device that is provided in a car and opens and closes so that elevator users can get on and off the car.
  • the photographing device 8 may include a camera arranged on the rear wall of the car room of the car.
  • the car room is the part of the car where a user rides.
  • the rear wall of the car is, for example, the inner wall surface of the car facing the space in which the user rides.
  • the rear wall of the car faces a car door device provided at the front of the car.
  • FIG. 7 is a top view of another example of elevator equipment to which the support system 1 according to the first embodiment is applied.
  • a top view of a hall sill 15, which is another example of elevator equipment, is shown.
  • the landing threshold 15 is a threshold that guides the opening and closing of the landing door.
  • a characteristic part of the target arrangement corresponding to the landing sill 15 is that it indicates the positions of both ends of the landing sill 15 during normal operation of the elevator, for example.
  • the photographing device 8 includes, for example, a camera that photographs the landing threshold 15 from vertically above.
  • FIG. 8 is a top view of another example of elevator equipment to which the support system 1 according to the first embodiment is applied.
  • a top view of a landing device 16, which is another example of elevator equipment, is shown.
  • the landing device 16 is a device that detects the landing of a car on each floor.
  • the landing device 16 is provided, for example, in a car.
  • the landing device 16 uses a detection unit 17 to detect, for example, a landing board provided on each floor.
  • the detection unit 17 has a groove through which the landing plate passes when the car runs.
  • a characteristic part of the target arrangement corresponding to the landing device 16 is, for example, a point indicating the position of the end of the groove.
  • the photographing device 8 includes, for example, a camera that photographs the landing device 16 from vertically above or vertically below.
  • the camera is installed, for example, in a car.
  • the camera may be provided, for example, vertically above or below the landing plate of any floor in the hoistway.
  • FIG. 9 is a diagram showing another example of the display by the display unit 13 according to the first embodiment. On the left side of FIG. 9, an image of the existing hoisting machine 3 is shown. On the right side of FIG. 9, an image of the newly installed hoist 3 is shown.
  • the size of the existing hoist 3 is different from the size of the newly installed hoist 3.
  • the size of the sheave 6 of the existing hoist 3 is the same as the size of the sheave 6 of the newly installed hoist 3.
  • the support system 1 can guide the placement of the newly installed hoist 3 based on the target placement based on the input based on the sheave groove 7 of the existing hoist 3.
  • the support system 1 includes the photographing device 8 and the guidance system 9.
  • the imaging device 8 images an area including the target placement position corresponding to each of one or more pieces of equipment in the elevator.
  • the arrangement work is the work of arranging each device in a corresponding target arrangement.
  • the guidance system 9 guides the placement of each device to its corresponding target location based on the image taken by the imaging device 8.
  • the support system 1 guides the placement work based on the images taken by the imaging device 8. Therefore, the support system 1 can be applied to various equipment arrangement work for elevators, regardless of the type of equipment to be arranged and the location where it is arranged. Furthermore, since scribing or the like is not required in the arrangement work, the support system 1 can also be applied to the arrangement work of equipment that cannot be directly attached to a building, such as a sheave 6, for example.
  • the guidance system 9 obtains a target placement corresponding to at least one of the one or more devices based on input from a worker who performs the placement work.
  • the target arrangement is input by the worker who performs the arrangement work, it becomes possible to set the target arrangement according to the situation such as the location and equipment to be arranged.
  • the guidance system 9 also includes a display section 13.
  • the display unit 13 displays, for at least one of the one or more devices, a guide image showing a target arrangement corresponding to the device, superimposed on the image photographed by the photographing device 8.
  • the support system 1 can guide the placement work more effectively.
  • the guide image indicating the target arrangement corresponding to at least one of the one or more devices is an image of one or more characteristic parts of the device arranged at the target arrangement.
  • the support system 1 guides the placement work based on the characteristic parts of the equipment. This clarifies the alignment criteria. Therefore, the support system 1 can guide the placement work more effectively. In addition, even when the installation work includes replacing existing equipment with new equipment that differs in overall size or shape, it is possible to more effectively Guidance on placement will be provided.
  • the guidance system 9 includes a notification section 14.
  • a first range is preset for at least one of the one or more devices with respect to a target arrangement corresponding to the device.
  • the notification unit 14 uses a first sound to notify that the device has entered the first range.
  • the first range is, for example, a range that indicates that the device is approaching the target placement when the position and orientation of the device to be placed are within the first range.
  • the first range may be, for example, a range that indicates that the device is placed in the target placement within an allowable error range when the position and orientation of the device to be placed are within the first range.
  • a second range is preset with respect to the target arrangement corresponding to the device.
  • the second range is included in the first range.
  • the notifying unit 14 notifies by means of a second voice that the device has entered the second range.
  • the worker can confirm the placement relationship between the device to be placed and the target placement corresponding to the device.
  • the second range is, for example, a range that indicates that the device is placed in the target placement within an allowable error range when the position and orientation of the device to be placed are within the second range.
  • the second range may include the third range.
  • the third range is, for example, a range that indicates that the device is placed in the target placement within an allowable error range when the position and orientation of the device to be placed are within the third range.
  • the photographing device 8 is installed so as not to move from the start to the end of the placement work.
  • the position of the imaging device 8 can be used as a reference, so the support system 1 can guide the placement work more accurately.
  • the photographing device 8 is arranged vertically above or vertically below the sheave 6 of the hoisting machine 3. Moreover, when a car door device is included in one or more devices in the arrangement work, the photographing device 8 is placed on the rear wall of the car room of the car in which the car door device is provided.
  • the support system 1 can more accurately guide the placement work.
  • the target layout acquisition unit 12 may acquire the target layout corresponding to each device based on design information such as a design drawing, for example. For example, when the placement work is the installation of a new elevator, it becomes possible to guide the placement of each piece of equipment in accordance with the design information. Further, the target placement acquisition unit 12 may acquire the target placement of the device to be placed in the placement work based on the relative placement of the device in its vicinity. For example, when the equipment to be placed in the placement work is the hoisting machine 3, the hoisting machine is placed based on the horizontal distance between the sheave groove 7 of the sheave 6 of the hoisting machine 3 and the edge of the rope duct in the machine room. The target location of aircraft 3 may also be acquired.
  • the support system 1 can guide the sheave 6 to a position where the hoisting rope 2 descending from the sheave groove 7 to the hoistway is unlikely to interfere with the edge of the rope duct.
  • the diameter of the sheave 6 or the number of sheave grooves 7 may change before and after the replacement.
  • the target arrangement acquisition unit 12 may obtain the target arrangement corresponding to the device based on the arrangement before the already arranged device is removed. For example, when the placement work includes a step of replacing the existing hoisting machine 3 with a newly installed hoisting machine 3, the target placement acquisition unit 12 performs image recognition of the image of the existing hoisting machine 3 taken by the imaging unit.
  • the arrangement of the sheave groove 7 of the existing hoist 3 before being removed is detected by, for example,
  • the target arrangement acquisition unit 12 obtains a target arrangement of the newly installed hoist 3 based on the obtained position of the sheave groove 7, such as an arrangement in which the position of the sheave groove 7 does not change before and after replacement. At this time, the worker does not need to input the target arrangement from the input unit 11. This improves the workability of placement work. Note that, for example, in maintenance and inspection work for elevator equipment, the equipment that has already been placed before the placement work and the equipment that is placed in the position and orientation of the equipment in the placement work may be the same equipment.
  • the storage unit 10 stores a preset order of arrangement of one or more devices in the arrangement work.
  • the target placement acquisition unit 12 acquires the target placement of at least one of the one or more devices corresponding to the device that is placed before the device in the order stored in the storage unit 10. It may also be obtained based on relative placement.
  • the target arrangement acquisition unit 12 determines whether the devices are arranged according to the order stored in the storage unit 10.
  • the target arrangement obtaining unit 12 obtains a target arrangement based on the relative arrangement of the devices when the order of arrangement of the devices follows the order stored in the storage unit 10.
  • the target placement acquisition unit 12 determines whether the sheave Obtain the target location of the car 6.
  • the storage unit 10 may store information about the relative arrangement of the motor 5 and sheave 6 of the hoist 3.
  • the target placement acquisition unit 12 may obtain the target placement of the sheave 6 from the position or attitude of the placed motor 5 by, for example, referring to the relative placement of the sheave 6 from the storage unit 10. At this time, the occurrence of interference with equipment that has already been placed can be suppressed.
  • FIGS. 10 to 12 are diagrams showing examples of feature portion extraction by the target placement acquisition unit 12 according to the first embodiment.
  • the target placement acquisition unit 12 extracts the characteristic portion using an image processing method such as template matching, for example.
  • the target arrangement acquisition unit 12 extracts corners of the outline of the device, which are examples of points indicating the position and orientation of the device, as characteristic parts of the device.
  • FIG. 10 a photographed image of a device photographed by the photographing device 8 and a model image of the device are shown.
  • the model image of the device is, for example, a similar image of the device taken in the past, or a similar image generated based on design information of the device.
  • the similar image based on the design information is, for example, a CAD image (CAD: Computer Aided Design). Note that in the model image of the device, the characteristic parts of the device are known.
  • the target arrangement acquisition unit 12 detects the position of the equipment on the photographed image by scanning the model image on the photographed image photographed by the photographing device 8.
  • the target arrangement acquisition unit 12 may scan the model image while performing image transformation such as affine transformation, including enlargement, reduction, and rotation of the model image, or homography transformation. While scanning the model image, the target placement acquisition unit 12 calculates the degree of similarity or dissimilarity between the model image and the range on the captured image where the model image overlaps.
  • the target arrangement acquisition unit 12 detects the position where the degree of similarity is maximum, the position where the degree of difference is minimum, etc. as the position of the device on the photographed image. Note that when performing conversion such as rotation, enlargement, and reduction of the model image during scanning, the target arrangement acquisition unit 12 also detects conversion parameters such as the rotation angle and the magnification of enlargement or reduction of the model image. You can.
  • the target placement acquisition unit 12 sets the placement of the characteristic portion of the model image placed at the position detected by scanning as the placement of the characteristic portion of the device on the captured image. Since the characteristic portions in the model image are known, the target placement acquisition unit 12 can extract the placement of the characteristic portions of the equipment on the photographed image based on the position of the model image detected during scanning and the transformation parameters.
  • FIGS. 13 and 14 are diagrams showing other examples of feature portion extraction by the target placement acquisition unit 12 according to the first embodiment.
  • the device image and the model image on the captured image may not exactly match.
  • the target arrangement acquisition unit 12 detects the approximate position of the device on the photographed image by scanning the model image.
  • the target placement acquisition unit 12 sets a processing area for performing detailed detection of the characteristic part in the area including the disposition of the characteristic part of the model image placed at the position detected by scanning. do.
  • the target arrangement acquisition unit 12 sets two processing areas, an upper processing area and a lower processing area.
  • the target placement acquisition unit 12 performs corner detection processing in each set processing area.
  • corner detection process a known algorithm such as Harris corner detection or Shi-Tomasi corner detection can be applied.
  • the target placement acquisition unit 12 extracts the corner detected in this way as a characteristic portion.
  • FIG. 15 is a diagram illustrating another example of feature portion extraction by the target placement acquisition unit 12 according to the first embodiment.
  • the target arrangement acquisition unit 12 calculates image feature amounts in each of the model image and the photographed image.
  • the image feature amount calculated here is, for example, SIFT (Scale-Invariant Feature Transform), SURF (Speed Up Robust Feature), or HOG (Histogram of Oriented G radiant), etc.
  • the image feature amount calculated here is a rotation-invariant and scale-invariant feature amount. In FIG. 15, key points detected by feature quantities such as SIFT are shown.
  • the target placement acquisition unit 12 performs matching between key points detected in the model image and key points detected in the photographed image. Thereby, the target arrangement acquisition unit 12 can detect the position of the device on the photographed image. Even if the device is rotated, enlarged, or reduced in the photographed image, matching is possible by using rotation-invariant and scale-invariant feature quantities.
  • the target arrangement acquisition unit 12 sets the arrangement of the characteristic parts of the model images matched in this way as the arrangement of the characteristic parts of the equipment on the photographed image.
  • the target arrangement acquisition unit 12 may set a processing region for performing detailed detection of the characteristic portions in an area including the arrangement of the characteristic portions of the matched model images.
  • the target placement acquisition unit 12 performs corner detection processing in each of the set processing regions, thereby extracting the detected corners as characteristic portions.
  • the target placement acquisition unit 12 may extract edges of the outline of the device, which are examples of lines indicating the position and orientation of the device, as the characteristic portion of the device. .
  • FIG. 16 is a diagram illustrating another example of feature portion extraction by the target placement acquisition unit 12 according to the first embodiment.
  • the target placement acquisition unit 12 extracts edges as characteristic parts using the same procedure as when extracting corners as characteristic parts.
  • a known algorithm such as Canny's edge detection can be applied.
  • processes such as noise removal and line segmentation may be performed. Since edges that are more intuitively understandable are displayed as a guide image, the worker can more easily perform equipment placement work.
  • the target placement acquisition unit 12 may acquire multiple target placement candidates for the device based on the image of the device taken by the imaging device 8.
  • FIG. 17 is a diagram illustrating an example of acquisition of a target arrangement by the target arrangement acquisition unit 12 according to the first embodiment.
  • the candidate for the target arrangement of the device is, for example, a candidate for a characteristic part of the device.
  • the feature portion candidates are, for example, a plurality of corners extracted by an image processing method.
  • the guidance system 9 presents a plurality of candidates for the target arrangement to the worker, for example through the display unit 13 or the like.
  • the worker selects one or more candidates, for example, through the input unit 11, from among the presented candidates for the target arrangement.
  • the target layout acquisition unit 12 acquires the candidate selected by the worker as the target layout of the device. In this example, candidates not selected by the worker are excluded from the target placement of the equipment. This makes it easier for the worker to input the target arrangement.
  • the guide image showing the target arrangement corresponding to at least one of the one or more devices may be an image of the device arranged at the target arrangement.
  • the display unit 13 displays an image of the existing hoisting machine 3 before being removed, and the display unit 13 displays an image of the existing hoisting machine 3 before being removed.
  • the guide image may be displayed superimposed on the image of the newly installed hoist 3.
  • the image of the existing hoisting machine 3, which is the guide image is displayed in an overlapping manner, for example, as a translucent image so that the position of the image of the newly installed hoisting machine 3 can be compared.
  • the image of the existing hoisting machine 3, which is the guide image may be displayed in an overlapping manner, for example, as an image of only the outline.
  • FIG. 18 is a configuration diagram of the support system 1 according to a modification of the first embodiment.
  • the guidance system 9 includes a communication section 18.
  • the communication unit 18 is a part that outputs information to equipment outside the guidance system 9 by wire or wirelessly.
  • the communication unit 18 may output information to external equipment via a communication network such as the Internet.
  • the communication unit 18 outputs, for example, target placement information or guide image information.
  • the communication unit 18 outputs information to a display device 19 external to the guidance system 9, for example.
  • the display device 19 may be a portable information terminal such as a smartphone carried by a worker, for example. Further, the worker may wear the display device 19 during the arrangement work.
  • the display device 19 is, for example, a device such as an HMD (Head Mounted Display) that displays an input image superimposed on an image of the worker's visual field.
  • HMD Head Mounted Display
  • the display device 19 displays images using, for example, AR technology (AR: Augmented Reality) or VR technology (VR: Virtual Reality).
  • AR Augmented Reality
  • VR Virtual Reality
  • the worker can confirm the arrangement relationship between the equipment and the target arrangement while performing the arrangement work, thereby increasing the work efficiency of the arrangement work.
  • the information on the target arrangement or the guide image may be information acquired based on images taken by a plurality of cameras of the photographing device 8 as three-dimensional information.
  • FIG. 19 is a diagram illustrating an example of acquisition of a target arrangement by the target arrangement acquisition unit 12 according to another modification of the first embodiment.
  • the target arrangement acquisition unit 12 acquires an image taken by the photographing device 8 before the device that has already been placed is removed, and an image taken by the photographing device 8 after the device is removed. Get the target placement based on. For example, when the placement work includes a step of replacing the existing hoist 3 with a newly installed hoist 3, the target placement acquisition unit 12 acquires an image of the existing hoist 3 before being removed. Moreover, the target arrangement acquisition unit 12 acquires an image after the existing hoist 3 is removed. The target arrangement acquisition unit 12 extracts the position or orientation of the existing hoist 3 in the image photographed by the photographing device 8 by taking the difference between the acquired images. The target arrangement acquisition unit 12 obtains a target arrangement corresponding to the position or attitude of the newly installed hoist 3 based on the extracted position of the existing hoist 3.
  • FIG. 20 is a hardware configuration diagram of the main parts of the support system 1 according to the first embodiment.
  • Each function of the support system 1 can be realized by a processing circuit.
  • the processing circuit includes at least one processor 100a and at least one memory 100b.
  • the processing circuitry may include at least one dedicated hardware 200 along with or in place of the processor 100a and memory 100b.
  • each function of the support system 1 is realized by software, firmware, or a combination of software and firmware. At least one of the software and firmware is written as a program.
  • the program is stored in memory 100b.
  • the processor 100a implements each function of the support system 1 by reading and executing programs stored in the memory 100b.
  • the processor 100a is also referred to as a CPU (Central Processing Unit), processing device, arithmetic device, microprocessor, microcomputer, or DSP.
  • the memory 100b is configured of a nonvolatile or volatile semiconductor memory such as RAM, ROM, flash memory, EPROM, and EEPROM.
  • the processing circuit comprises dedicated hardware 200
  • the processing circuit is implemented, for example, as a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof.
  • Each function of the support system 1 can be realized by a processing circuit. Alternatively, each function of the support system 1 can be realized collectively by a processing circuit. Regarding each function of the support system 1, some parts may be realized by the dedicated hardware 200, and other parts may be realized by software or firmware. In this way, the processing circuit realizes each function of the support system 1 using dedicated hardware 200, software, firmware, or a combination thereof.
  • Embodiment 2 The support system 1 according to the first embodiment acquires the target arrangement corresponding to the hoisting machine 3 based on input from the worker.
  • the support system 1 according to the second embodiment uses machine learning to learn the relationship between an image photographed by the photographing device 8 and a target arrangement previously input by a worker on this image through the input unit 11. Furthermore, the support system 1 infers the target arrangement in the image photographed by the photographing device 8 using the learned model generated through learning.
  • FIG. 21 is a configuration diagram of the guidance system 9 according to the second embodiment.
  • the guidance system 9 according to the second embodiment further includes a learning section 20 and an inference section 21.
  • the learning unit 20 acquires, as learning data, an image taken by the photographing device 8 and a set of target placements that have been previously input by a worker through the input unit 11 for the image.
  • the learning data is data in which an image photographed by the photographing device 8 and a target arrangement input by the worker for the image are associated with each other.
  • the learning unit 20 learns the target arrangement in the image photographed by the photographing device 8 based on the acquired learning data. That is, a learned model for inferring the optimal target arrangement is generated from the image photographed by the photographing device 8.
  • the image photographed by the photographing device 8 is, for example, an image photographed from vertically above an area in which equipment is arranged, as in the first embodiment.
  • the combination of data included in the learning data corresponds to the process of placement work.
  • the image taken by the imaging device 8 is an image that does not include the device. Therefore, the combination of the image photographed by the photographing device 8 and the target arrangement input by the worker for the image is acquired as learning data.
  • the image taken by the imaging device 8 is an image that includes the existing equipment. Therefore, a combination of the image photographed by the photographing device 8 and the target arrangement input by the worker for the image is acquired as learning data.
  • FIGS. 22 and 23 are diagrams showing examples of learned models in the learning section 20 according to the second embodiment.
  • the learning unit 20 can perform learning using a known learning algorithm such as supervised learning or reinforcement learning.
  • a learning algorithm using supervised learning using a neural network will be explained.
  • the learning unit 20 learns the target arrangement for the image data of the existing hoist 3 by supervised learning according to the neural network model.
  • supervised learning refers to a method in which a set of input and output data is given to a learning device such as the learning unit 20 to learn features in the learning data and generate a trained model.
  • the learned model generated here is used for inference of output from input by an inference device such as the inference unit 21.
  • a neural network is composed of an input layer consisting of multiple neurons, an intermediate layer consisting of multiple neurons, and an output layer consisting of multiple neurons.
  • an activation function is applied to the input value and the result is output.
  • the activation function is a nonlinear function such as a sigmoid function or a ramp function.
  • the output value from the intermediate layer is further multiplied by a weight W1 (w11, w12, w13, . . . ) and input to the output layer (Z1, Z2, Z3, . . . ).
  • W1 weight
  • Each neuron in the output layer outputs output data based on the input value.
  • the output through the neural network changes depending on the value of each component of the weight vectors W0 and W1.
  • the trained model is represented by weight vectors W0 and W1.
  • a learning algorithm using a neural network having two or more intermediate layers may be applied.
  • the output value is multiplied by the weight W0 (w01, w02, w03,...) 1 intermediate layer (Y11, Y12, . . . ).
  • the output value from the first intermediate layer is further multiplied by a weight W1 (w11, w12, w13, . . . ) and input to the second intermediate layer.
  • a weight Wn (wn1, wn2, wn3, . . . ), with the integer n being a natural number greater than or equal to 2, and is input to the output layer.
  • Each neuron in the output layer outputs output data based on the input value.
  • the output through the neural network changes depending on the value of each component of the weight vectors W0, W1, . . . , Wn.
  • the trained model is represented by weight vectors W0, W1,..., Wn. Note that the bond between adjacent layers does not have to be full bond.
  • a neural network may include convolutional layers and the like. Further, the neural network may include a pooling layer or the like.
  • the data input to the input layer is, for example, the feature amount of the image extracted from the image.
  • the feature amount of the image includes, for example, the position of an edge in the image.
  • the data input to the input layer may include information such as a label specifying the type of equipment to be placed at the target location, for example.
  • the data output from the output layer is, for example, the position and orientation of the target device arrangement. When the target arrangement can be labeled, the data output from the output layer may be a value such as the probability that each label is attached as the target arrangement.
  • the neural network of the learning unit 20 performs learning that is created based on a combination of an image photographed by the photographing device 8 and a target arrangement previously input by a worker on this image through the input unit 11.
  • the target arrangement in the image data photographed by the photographing device 8 is learned by so-called supervised learning according to the image data. That is, the neural network inputs images taken by the photographing device 8 into the input layer and outputs the images from the output layer so that the target layout approaches the target layout input by the worker in the past through the input unit 11.
  • the learning is performed by adjusting the weight vectors W0 and W1, etc.
  • the learning unit 20 can perform learning from the learning data using a known method such as error backpropagation, for example.
  • the learning unit 20 generates a trained model by performing the learning described above.
  • the storage unit 10 stores the learned model generated by the learning unit 20.
  • the present invention is not limited to this.
  • the learning algorithm it is sufficient that it can learn the relationship between the images taken by the imaging device 8 and the target arrangement, and machine learning may be performed using other known methods such as genetic programming, functional logic programming, or support vector machines. Good too.
  • deep learning may be used to learn how to extract the feature amount of an image itself.
  • the learning unit 20 may learn the relationship between the image photographed by the photographing device 8 and the target arrangement using an algorithm such as reinforcement learning. Rewards in reinforcement learning may be, for example, an evaluation input by a worker after a task, or may be the time or man-hours required for the task.
  • the data input to the input layer may be the image data itself.
  • the image data that is input during learning by the learning unit 20 may include, in addition to images captured by the imaging device 8, CG images (CG: Computer Graphics) generated using three-dimensional CAD.
  • the image data input during learning may be a CG image converted to resemble a real image captured by the imaging device 8.
  • the image data input during learning is generated, for example, by a technique such as GAN (Generative Adversarial Network).
  • GAN Geneative Adversarial Network
  • a network that generates similar images for learning is used as a generation network.
  • the identification network a network is used that identifies actual images photographed by the photographing device 8 and similar images generated by the generation network.
  • the target placement data for the image data generated in this way may be set manually by a worker or the like, or may be set based on part information in the three-dimensional CAD data that is the source of the CG image, etc. It may be set automatically.
  • the inference unit 21 infers the target arrangement in the image captured by the imaging device 8, which is obtained using the learned model. That is, by inputting an image photographed by the photographing device 8 to this trained model, a target arrangement inferred from the image can be output.
  • FIG. 24 is a flowchart illustrating an example of the operation of the support system 1 according to the second embodiment.
  • FIG. 24 an example of learning processing in the learning section 20 is shown.
  • the support system 1 according to the second embodiment uses the image of the existing hoist 3 obtained by the operation of the support system 1 shown in FIG. 6 and the target arrangement inputted by the worker as learning data.
  • the following learning process may be performed after the process shown in FIG. 6 is performed multiple times. Further, the following learning process may be performed each time the process shown in FIG. 6 is performed, and this may be repeated.
  • step S21 the learning unit 20 acquires learning data that is created based on the image taken by the photographing device 8 and the combination of target placements that have been previously input by the worker through the input unit 11 for this image.
  • the learning section 20 acquires the image of the existing hoisting machine 3 and the target arrangement at the same time, but the learning section 20 only needs to be able to input these in association with each other.
  • the image of the existing hoist 3 and the data on the target arrangement may be acquired at different timings.
  • step S22 the learning unit 20 performs the following operations according to the learning data created based on the combination of the image photographed by the photographing device 8 and the target arrangement previously input by the worker through the input unit 11 for this image.
  • the target arrangement of devices in the image data photographed by the photographing device 8 is learned, and a learned model is generated.
  • step S23 the storage unit 10 stores the learned model generated by the learning unit 20.
  • FIG. 25 is a flowchart showing an example of the operation of the support system 1 according to the second embodiment.
  • FIG. 25 an example of inference processing in the inference unit 21 is shown.
  • operations related to inference processing are performed in step S11 of FIG. 6, and subsequent operations are similar to those shown in FIG.
  • step S31 the inference unit 21 acquires an image photographed by the photographing device 8.
  • step S32 the inference unit 21 inputs the image photographed by the photographing device 8 to the trained model stored in the storage unit 10.
  • the inference unit 21 obtains a target arrangement for the image data photographed by the photographing device 8 from the output of the learned model.
  • step S33 the inference unit 21 outputs the target arrangement for the image data photographed by the photographing device 8 obtained by the learned model.
  • the target placement is the target placement of any equipment in the elevator to be placed in the area of the image in the placement work.
  • the target placement acquisition unit 12 acquires the target placement output by the inference unit 21 as the target placement of the device. Thereafter, the operation of the support system 1 proceeds to step S12 in FIG. 6, and the output target arrangement is displayed superimposed on the image photographed by the photographing device 8.
  • the support system 1 includes the learning section 20.
  • the learning unit 20 generates a learned model by machine learning using the learning data.
  • the learning data includes an image photographed by the photographing device 8 and a target arrangement of equipment of the elevator to be arranged in the area of the image.
  • the learned model is used for inferring the target arrangement from the images captured by the imaging device 8.
  • the support system 1 also includes an inference section 21 .
  • the inference unit 21 uses the learned model to infer the target arrangement of the device from the image captured by the imaging device.
  • the guidance system 9 obtains the target arrangement corresponding to the device based on the inference of the inference section 21. This configuration eliminates the need for the worker to input the target layout through the input unit 11, reducing the burden on the worker to input the target layout, and allowing even non-experts to specify the target layout. You will be able to get it.
  • the inference unit 21 is described as outputting the target arrangement for the image data captured by the imaging device 8 using the learned model generated by the learning unit 20 of the support system 1.
  • the unit 21 acquires a learned model generated by an external system (not shown) of the support system 1, and outputs a target arrangement for image data photographed by the photographing device 8 based on the learned model acquired from the external system. Good too.
  • one or both of the learning section 20 and the inference section 21 may be installed in a device connected through a communication network such as the Internet and located outside a building in which an elevator is installed.
  • the learning unit 20 may be installed in a learning device as an independent device.
  • the inference unit 21 may be installed in an inference device as an independent device.
  • one or both of the learning unit 20 and the inference unit 21 may be installed in a virtual machine on a cloud service.
  • the learning unit 20 may perform learning using learning data created in a plurality of elevators.
  • the plurality of elevators may be provided in different buildings.
  • the plurality of elevators may be elevators operating in the same area.
  • the multiple elevators may be elevators that operate in multiple areas. Elevators for which learning data is acquired in the learning section 20 may be added or removed during the operation of the support system 1.
  • the learning unit 20 of a certain support system 1 may acquire a learned model generated by the learning unit 20 of another support system 1.
  • the learning unit 20 of the support system 1 that has acquired the learned model may perform re-learning to update the acquired learned model using the learning data acquired in the support system 1.
  • FIG. 26 is a diagram showing an example of a display on the display unit 13 according to a modification of the second embodiment.
  • the learned model is a model that can infer from the image captured by the imaging device 8 not only the target arrangement of the device to be placed in the area of the image but also the characteristic parts of the device.
  • the characteristic portion of the device inferred in the trained model is one or more characteristic portions.
  • the arrangement work of arranging the hoisting machine 3 will be explained as an example.
  • the existing hoisting machine is replaced with a newly installed hoisting machine 3.
  • a newly installed hoisting machine 3 is temporarily placed near the target placement.
  • the photographing device 8 photographs an area including both the temporarily placed newly installed hoisting machine 3 and its target arrangement position.
  • the learning unit 20 stores the image taken by the photographing device 8, the target arrangement of the newly installed hoist 3 that was previously input by the worker through the input unit 11, and the newly installed hoist temporarily placed in the image.
  • a set of characteristic parts of the upper machine 3 is acquired as learning data. Characteristics of the newly installed hoist 3 are input by a worker through the input unit 11, for example. The characteristics of the newly installed hoist 3 may be determined, for example, in conjunction with the input of the target arrangement.
  • the learned model in the learning unit 20 may be a composite model that independently includes a model for obtaining a target arrangement and a model for obtaining a characteristic portion. At this time, the learning unit 20 may independently acquire learning data for the model that acquires the target arrangement and learning data for the model that acquires the characteristic portion.
  • the inference unit 21 uses the learned model by the learning unit 20 to determine the target placement of the newly installed hoist 3 from the image taken by the photographing device 8 and the characteristics of the temporarily placed newly installed hoist 3 in the image. Infer parts.
  • the guidance system 9 guides the newly installed hoist 3 to the target location based on the thus inferred target location and characteristic parts of the newly installed hoist 3. For example, as shown in FIG. 26, the display unit 13 displays the guide image superimposed on the image photographed by the photographing device 8. In this example, an image showing the position and attitude of the sheave 6 of the newly installed hoist 3 arranged at the target arrangement is shown as the guide image. In the image, the positions of the characteristic parts when the newly installed hoisting machine 3 is arranged at the target arrangement are shown.
  • the positions of the characteristic parts of the newly installed hoist 3 that will be placed from the temporarily placed position to the target position are shown.
  • the characteristic parts of the current device and the characteristic parts of the device placed in the target placement are displayed simultaneously, so that the support system 1 can guide the placement work more effectively. become. Therefore, the workability of the arrangement work can be improved.
  • the support system according to the present disclosure can be applied to the work of arranging elevator equipment.

Landscapes

  • Indicating And Signalling Devices For Elevators (AREA)

Abstract

エレベーターの多様な機器の配置作業に適用できる支援システムを提供する。支援システム(1)は、撮影装置(8)と、案内システム(9)と、を備える。撮影装置(8)は、配置作業において、エレベーターの1つ以上の機器の各々に対応する目標配置の位置を含む領域を撮影する。配置作業は、各々の機器を対応する目標配置に配置する作業である。案内システム(9)は、撮影装置(8)が撮影した画像に基づいて各々の機器の対応する目標配置への配置を案内する。

Description

エレベーターの機器の配置作業の支援システム
 本開示は、エレベーターの機器の配置作業の支援システムに関する。
 特許文献1は、エレベーターの緩衝器台を配置する方法の例を開示する。当該方法において、昇降路に鉛直に下げられた基準線条材を基準として可視光レーザ装置の位置決めが行われる。可視光レーザ装置から出射されたレーザビームと緩衝器台の指標との位置を合わせることでピットにおいて緩衝器台の位置決めが行われる。
日本特開2010-70268号公報
 エレベーターにおいて、緩衝器台を含む多様な機器が配置される。しかしながら、特許文献1の方法は、昇降路に鉛直に下げられた基準線条材を基準とするため、ピットに設けられない機器の配置に適用できない。
 本開示は、このような課題の解決に係るものである。本開示は、エレベーターの多様な機器の配置作業に適用できる支援システムを提供する。
 本開示に係る支援システムは、エレベーターの1つ以上の機器の各々を対応する目標配置に配置する配置作業において、1つ以上の機器の各々に対応する目標配置の位置を含む領域を撮影する撮影装置と、撮影装置が撮影した画像に基づいて1つ以上の機器の各々の対応する目標配置への配置を案内する案内システムと、を備える。
 本開示に係る支援システムであれば、エレベーターの多様な機器の配置作業に適用できる。
実施の形態1に係る支援システムが適用されるエレベーターの機器の例の斜視図である。 実施の形態1に係る巻上機の上面図である。 実施の形態1に係る支援システムの構成図である。 実施の形態1に係る表示部による表示の例を示す図である。 実施の形態1に係る表示部による表示の例を示す図である。 実施の形態1に係る支援システムの動作の例を示すフローチャートである。 実施の形態1に係る支援システムが適用されるエレベーターの機器の他の例の上面図である。 実施の形態1に係る支援システムが適用されるエレベーターの機器の他の例の上面図である。 実施の形態1に係る表示部による表示の他の例を示す図である。 実施の形態1に係る目標配置取得部による特徴部分の抽出の例を示す図である。 実施の形態1に係る目標配置取得部による特徴部分の抽出の例を示す図である。 実施の形態1に係る目標配置取得部による特徴部分の抽出の例を示す図である。 実施の形態1に係る目標配置取得部による特徴部分の抽出の例を示す図である。 実施の形態1に係る目標配置取得部による特徴部分の抽出の例を示す図である。 実施の形態1に係る目標配置取得部による特徴部分の抽出の例を示す図である。 実施の形態1に係る目標配置取得部による特徴部分の抽出の例を示す図である。 実施の形態1に係る目標配置取得部による目標配置の取得の例を示す図である。 実施の形態1の変形例に係る支援システムの構成図である。 実施の形態1の変形例に係る目標配置取得部による目標配置の取得の例を示す図である。 実施の形態1に係る支援システムの主要部のハードウェア構成図である。 実施の形態2に係る支援システムの構成図である。 実施の形態2に係る学習部における学習済モデルの例を示す図である。 実施の形態2に係る学習部における学習済モデルの例を示す図である。 実施の形態2に係る支援システムの動作の例を示すフローチャートである。 実施の形態2に係る支援システムの動作の例を示すフローチャートである。 実施の形態2の変形例に係る表示部による表示の例を示す図である。
 本開示を実施するための形態について添付の図面を参照しながら説明する。各図において、同一または相当する部分には同一の符号を付して、重複する説明は適宜に簡略化または省略する。
 実施の形態1.
 図1は、実施の形態1に係る支援システム1が適用されるエレベーターの機器の例の斜視図である。
 支援システム1は、エレベーターの機器の配置作業に適用される。エレベーターの機器は、例えばエレベーターにおいて動作する装置、およびエレベーターを構成する部材、ならびにこれらの部品などを含む。配置作業は、エレベーターの機器を当該機器に対応する目標配置に配置する作業である。配置作業において、1つ以上の機器が各々に対応する目標配置に配置される。各々の機器の目標配置は、例えばエレベーターの通常運転における当該機器の配置などである。ここで、機器の配置は、当該機器の位置および姿勢を含む。配置作業において、配置される機器のうちの少なくともいずれかについて配置の順序が予め設定されていてもよい。配置作業は、例えば新規のエレベーターの据付作業、エレベーターの更新作業、またはエレベーターの機器の交換作業もしくは保守点検作業などを含む。エレベーターの機器の保守点検作業は、エレベーターの機器を取り外して、調整または清掃などの後に当該機器を元の位置に戻す工程などを含んでもよい。
 エレベーターは、例えば複数の階床を有する建物に適用される。建物において、図示されないエレベーターの昇降路が設けられる。昇降路は、建物において複数の階床にわたる鉛直方向に長い空間である。各々の階床において、図示されないエレベーターの乗場が設けられる。各々の階床の乗場において、乗場ドアが設けられる。乗場ドアは、乗場および昇降路を区画するドアである。
 エレベーターは、図示されないかごと、巻上ロープ2と、巻上機3と、を備える。かごは、昇降路において鉛直方向に走行することで利用者などを複数の階床の間で輸送する装置である。巻上ロープ2は、かごを昇降路に吊り下げるロープである。エレベーターにおいて、複数の巻上ロープ2が設けられていてもよい。巻上機3は、エレベーターの機器の例である。図1において、巻上機3の斜視図が示される。巻上機3は、例えば機械室に設けられる。機械室は、例えばエレベーターの昇降路の上方に設けられる。機械室において、巻上機台4が設けられる。巻上機台4は、巻上機3の基礎となる台である。巻上機3は、モーター5と、綱車6と、を備える。モーター5および綱車6の各々は、エレベーターの機器の例である。配置作業において、巻上機3は、モーター5および綱車6に分割されて配置されてもよい。モーター5は、綱車6を回転駆動する装置である。綱車6は、綱車溝7を有する。綱車溝7は、綱車6において、巻上ロープ2が巻き掛けられる溝である。巻上ロープ2は、例えば機械室に設けられたロープダクトを通して綱車6から昇降路に下げられる。エレベーターにおいて、モーター5が回転駆動させた綱車6で巻上ロープ2が巻き上げられることなどによって、かごが昇降路を鉛直方向に走行する。
 図2は、実施の形態1に係る巻上機3の上面図である。
 この例において、支援システム1は、巻上機3を含むエレベーターの機器を配置する配置作業を支援する。支援システム1は、撮影装置8を備える。
 撮影装置8は、例えばカメラなどの画像を撮影する装置である。撮影装置8が撮影する画像は、静止画像または動画像のいずれであってもよい。撮影装置8は、巻上機3の目標配置の位置を含む領域を撮影する。撮影装置8は、巻上機3の綱車6の鉛直上方に配置される。撮影装置8は、綱車6の直上に配置される。この例において、撮影装置8は、綱車6の回転軸を通る鉛直線上に配置される。撮影装置8は、巻上機3などの機器の目標配置の位置を含む領域の斜め上方などに配置されてもよい。
 図3は、実施の形態1に係る支援システム1の構成図である。
 撮影装置8は、綱車6の上方の機械室の天井に固定される。撮影装置8は、配置作業の開始から終了まで動かないように固定される。撮影装置8は、例えば、アンカーボルト、マグネット、吸盤、または粘着テープなどによって固定される。撮影装置8は、例えば機械室などに設置されるスタンドに取り付けられてもよい。撮影装置8は、例えば機械室の壁面などに固定されてもよい。撮影装置8は、例えばマグネットチャックなどによって固定されてもよい。撮影装置8は、配置作業の終了後においても継続して固定されていてもよい。あるいは、撮影装置8は、配置作業の終了後に撤去されてもよい。
 支援システム1は、案内システム9を備える。案内システム9は、例えばエレベーターが設けられる建物またはその他の建物などに設置されるサーバ装置からなるシステムである。あるいは、案内システム9は、例えば配置作業を行う作業員が携帯するスマートフォンなどの可搬な情報端末からなるシステムであってもよい。あるいは、案内システム9は、撮影装置8に内蔵される機器からなるシステムであってもよい。案内システム9は、単一の装置からなるシステムであってもよい。案内システム9は、複数の装置からなるシステムであってもよい。このとき、案内システム9の複数の装置は、インターネットなどの通信網を通じて互いに接続されるものであってもよい。案内システム9の機能の一部または全部は、例えばクラウドサービス上の仮想マシンなどに搭載されていてもよい。案内システム9の機能の一部または全部は、エレベーターが設けられる建物において例えばインターネットなどの通信網を通じて外部サービスに接続するエッジサーバなどに搭載されていてもよい。案内システム9は、記憶部10と、入力部11と、目標配置取得部12と、表示部13と、報知部14と、を備える。
 記憶部10は、情報を記憶する部分である。記憶部10において、例えば配置作業におけるエレベーターの1つ以上の機器の配置の順序などの情報が記憶される。入力部11は、例えば配置作業を行う作業員による入力を受け付ける部分である。入力部11は、例えばタッチパネル、マウス、またはキーボードなどである。目標配置取得部12は、配置作業において配置される各々の機器に対応する目標配置を取得する部分である。表示部13は、各々の機器に対応する目標配置を示す案内画像を、撮影装置8が撮影した画像に重ねて表示する部分である。表示部13は、例えばディスプレイなどである。報知部14は、各々の機器の目標配置との配置の関係を作業員に報知する部分である。報知部14は、例えば音声によって報知するスピーカーなどである。
 続いて、図4および図5を用いて、支援システム1の機能を説明する。
 図4および図5は、実施の形態1に係る表示部13による表示の例を示す図である。
 この例において、配置作業は、既設の巻上機3を新設の巻上機3に交換する工程を含む。
 図4において、既設の巻上機3が配置されている状態の画像が示される。
 表示部13は、撮影装置8が撮影している既設の巻上機3の画像を表示する。
 目標配置取得部12は、エレベーターの機器である巻上機3の目標配置を取得する。目標配置取得部12は、例えば作業員からの入力に基づいて巻上機3に対応する目標配置を取得する。この例において、巻上機3に対応する目標配置は、エレベーターの通常運転における綱車溝7の位置である。目標配置の情報は、特徴部分の情報を含む。特徴部分は、目標配置に配置された機器の位置または姿勢の特徴を示す1つまたは複数の点または線である。この例において、特徴部分は、綱車溝7の位置を示す点である。特徴部分は、例えば綱車溝7の端部の位置を示す点である。目標配置取得部12が取得した目標配置は、例えば記憶部10に記憶される。特徴部分は、例えば配置作業における案内の基準として用いられる。機器の特徴部分は、撮影装置8が撮影する画像から例えば画像処理の手法によって抽出される。
 巻上機3を交換する工程において、作業員は、既設の巻上機3の綱車6から巻上ロープ2を取り外す。
 その後、作業員は、取り外される前の既設の巻上機3の綱車溝7を、撮影装置8が撮影する画像上で入力部11を通じてなぞることなどによって目標配置を入力する。目標配置取得部12は、入力部11を通じて入力された目標配置を取得する。
 その後、作業員は、既設の巻上機3を取り外す。続いて、作業員は、新設の巻上機3を機械室に仮置きする。
 図5において、新設の巻上機3が仮置きされている状態の画像が示される。
 表示部13は、撮影装置8が撮影している新設の巻上機3の画像を表示する。
 表示部13は、撮影装置8が撮影した画像に案内画像を重ねて表示する。案内画像は、目標配置取得部12が取得した目標配置を示す画像である。図5において、巻上機3に対応する案内画像の例が示される。案内画像は、例えば目標配置に配置された機器の特徴部分の位置または姿勢を示す画像である。この例において、案内画像として、目標配置に配置された巻上機3の綱車6の位置および姿勢を示す画像が示される。また、案内画像として、目標配置に配置された巻上機3の綱車6の端部の位置を示す点が示される。案内画像は、配置される機器の位置および姿勢などを示す点または線などのベクター画像データであってもよい。機器の位置および姿勢などを示す点または線は、例えば機器の輪郭のコーナーまたはエッジなどである。あるいは、案内画像は、目標配置に配置された状態の機器の映像などのラスター画像データであってもよい。
 作業員は、表示部13に表示された画像に基づいて、仮置きした新設の巻上機3の位置を調整する。この例において、作業員は、図面の右側に巻上機3を移動させる。
 この例において、案内システム9は、例えば撮影装置8が撮影した画像の画像認識などによって新設の巻上機3の位置を取得する。この場合に、表示部13は、新設の巻上機3を移動させる方向を示す矢印などの画像を案内画像の一部として表示してもよい。
 また、例えば報知部14において、新設の巻上機3と巻上機3に対応する目標配置との間の距離などの配置の関係について、第1範囲および第2範囲が予め設定される。第1範囲は、例えば新設の巻上機3の位置および姿勢が第1範囲にあるときに、新設の巻上機3が目標配置に近づいたことを表す範囲である。第2範囲は、例えば新設の巻上機3の位置および姿勢が第2範囲にあるときに、新設の巻上機3が許容誤差の範囲で目標配置に配置されたことを表す範囲である。第2範囲は、第1範囲に含まれる。報知部14は、例えば画像認識などによって取得された新設の巻上機3の位置および姿勢が第1範囲および第2範囲に入ったかを判定する。報知部14は、新設の巻上機3の位置および姿勢が第1範囲に入ったときに、第1音声を発することによって新設の巻上機3が目標配置に近づいたことを作業員に報知する。第1音声は、例えばアラーム音、または音声アナウンスなどの予め設定された音声である。報知部14は、新設の巻上機3の位置および姿勢が第2範囲に入ったときに、第2音声を発することによって新設の巻上機3が目標配置に配置されたことを作業員に報知する。第2音声は、例えばアラーム音、または音声アナウンスなどの予め設定された第1音声と異なる音声である。作業員は、表示部13による表示、および報知部14による報知に案内されて新設の巻上機3を目標配置に配置する。
 その後、作業員は、新設の巻上機3の綱車6に巻上ロープ2を巻き掛ける。引き続き配置する機器がある場合に、作業員は、当該機器の配置の作業を行う。このとき、支援システム1は、当該機器の配置の案内を巻上機3の配置の案内と同様に行う。一方、引き続き配置する機器がない場合に、作業員は、配置作業を終了する。
 続いて、図6を用いて、支援システム1の動作の例を説明する。
 図6は、実施の形態1に係る支援システム1の動作の例を示すフローチャートである。
 図6において、エレベーターのいずれかの機器の配置を案内する支援システム1の動作の例が示される。
 ステップS11において、目標配置取得部12は、配置される対象の機器の目標配置を取得する。その後、支援システム1の動作は、ステップS12に進む。
 ステップS12において、表示部13は、撮影装置8が撮影した対象の機器の画像に、当該機器に対応する目標配置を示す案内画像を重ねて表示する。その後、支援システム1の動作は、ステップS13に進む。
 ステップS13において、報知部14は、対象の機器の位置および姿勢が第1範囲に入っているかを判定する。判定結果がYesの場合に、支援システム1の動作は、ステップS14に進む。一方、判定結果がNoの場合に、支援システム1の動作は、ステップS12に進む。
 ステップS14において、報知部14は、第1音声を発する。その後、支援システム1の動作は、ステップS15に進む。
 ステップS15において、報知部14は、対象の機器の位置および姿勢が第2範囲に入っているかを判定する。判定結果がYesの場合に、支援システム1の動作は、ステップS16に進む。一方、判定結果がNoの場合に、支援システム1の動作は、ステップS12に進む。
 ステップS16において、報知部14は、第2音声を発する。その後、対象の機器の配置を案内する支援システム1の動作は、終了する。このとき、配置作業において引き続いて配置される他の機器がある場合などに、支援システム1は、当該他の機器の配置の案内を開始する。
 ここで、撮影装置8は、複数のカメラを備えていてもよい。各々のカメラは、いずれかの機器の配置の案内に適した位置に配置される。機器の配置の案内に適した位置は、例えば当該機器を当該機器の配置の案内に適した方向から撮影する位置である。機器の配置の案内に適した方向は、例えば機器の配置の許容誤差が最も大きい方向、または機器の配置の許容誤差が最も小さい方向に直交する方向などである。あるいは、各々のカメラは、各々の機器の配置を立体視しうるように配置されてもよい。配置される機器が巻上機3を含む場合に、いずれかのカメラは、例えば巻上機3の綱車6の鉛直上方に配置される。当該カメラは、綱車6の直上に配置される。また、他のいずれかのカメラは、巻上機3の綱車6の鉛直下方に配置される。当該カメラは、綱車6の直下に配置される。撮影装置8は、巻上機3の綱車6の鉛直上方または鉛直下方のいずれか一方のみに配置されるカメラを備えていてもよい。
 配置作業において配置される機器は、巻上機3の他の機器であってもよい。配置作業において配置される機器は、例えばかごドア装置であってもよい。かごドア装置は、かごに設けられ、エレベーターの利用者が当該かごに乗降しうるように開閉する装置である。このとき、撮影装置8は、当該かごのかご室の後壁に配置されるカメラを含んでいてもよい。ここで、かご室は、かごにおいて利用者が乗車する部分である。かご室の後壁は、例えば利用者が乗車する空間に面するかご室の内側の壁面である。かご室の後壁は、かごの前面に設けられるかごドア装置に対向する。
 図7は、実施の形態1に係る支援システム1が適用されるエレベーターの機器の他の例の上面図である。
 図7において、エレベーターの機器の他の例である乗場敷居15の上面図が示される。
 乗場敷居15は、乗場ドアの開閉を案内する敷居である。乗場敷居15に対応する目標配置の特徴部分は、例えばエレベーターの通常運転における乗場敷居15の両端の位置を示す点である。このとき、撮影装置8は、例えば乗場敷居15を鉛直上方から撮影するカメラを含む。
 図8は、実施の形態1に係る支援システム1が適用されるエレベーターの機器の他の例の上面図である。
 図8において、エレベーターの機器の他の例である着床装置16の上面図が示される。
 着床装置16は、かごの各々の階床への着床を検出する装置である。着床装置16は、例えばかごに設けられる。着床装置16は、例えば各々の階床に設けられる着床板を検出部17によって検出する。検出部17は、かごが走行するときに着床板が通過する溝を有する。着床装置16に対応する目標配置の特徴部分は、例えば当該溝の端部の位置を示す点である。このとき、撮影装置8は、例えば着床装置16を鉛直上方または鉛直下方から撮影するカメラを含む。当該カメラは、例えばかごに設けられる。あるいは、当該カメラは、例えば昇降路においていずれかの階床の着床板の鉛直上方または鉛直下方に設けられていてもよい。
 図9は、実施の形態1に係る表示部13による表示の他の例を示す図である。
 図9の左側において、既設の巻上機3が配置されている状態の画像が示される。図9の右側において、新設の巻上機3が配置されている状態の画像が示される。
 この例において、既設の巻上機3の大きさは、新設の巻上機3の大きさと異なる。一方、既設の巻上機3の綱車6の大きさは、新設の巻上機3の綱車6の大きさと同じ大きさである。このとき、既設の巻上機3の綱車溝7を基準にした入力に基づく目標配置によって、支援システム1は、新設の巻上機3の配置を案内できる。
 以上に説明したように、実施の形態1に係る支援システム1は、撮影装置8と、案内システム9と、を備える。撮影装置8は、配置作業において、エレベーターの1つ以上の機器の各々に対応する目標配置の位置を含む領域を撮影する。配置作業は、各々の機器を対応する目標配置に配置する作業である。案内システム9は、撮影装置8が撮影した画像に基づいて各々の機器の対応する目標配置への配置を案内する。
 支援システム1は、撮影装置8が撮影した画像に基づいて配置作業の案内を行う。このため、支援システム1は、配置される機器の種類および配置される場所などによらずに、エレベーターの多様な機器の配置作業に適用できる。また、配置作業において罫書きなどを必要としないので、支援システム1は、例えば綱車6などの建物に直接取り付けられない機器の配置作業に対しても適用できる。
 また、案内システム9は、1つ以上の機器の少なくともいずれかに対応する目標配置を、配置作業を行う作業員からの入力に基づいて取得する。
 目標配置は配置作業を行う作業員によって入力されるので、配置される場所および配置される機器などの状況に応じた目標配置の設定ができるようになる。
 また、案内システム9は、表示部13を備える。表示部13は、1つ以上の機器の少なくともいずれかについて、当該機器に対応する目標配置を示す案内画像を撮影装置8が撮影した画像に重ねて表示する。
 これにより、作業員は、配置される機器と案内画像とを同時に確認しながら配置作業を行うことができるようになる。このため、支援システム1は、配置作業の案内をより効果的に行うことができる。
 また、1つ以上の機器の少なくともいずれかに対応する目標配置を示す案内画像は、当該目標配置に配置された当該機器の1つ以上の特徴部分の画像である。
 支援システム1は、機器の特徴部分によって配置作業を案内する。これにより、位置合わせの基準が明確になる。このため、支援システム1は、配置作業の案内をより効果的に行うことができる。また、配置作業が既設の機器を全体の大きさまたは形状などが異なる新設の機器に交換する工程を含む場合などにおいても、既設の機器および新設の機器に共通する特徴部分によって、より効果的に配置の案内が行われる。
 また、案内システム9は、報知部14を備える。報知部14において、1つ以上の機器の少なくともいずれかについて、当該機器に対応する目標配置に対して第1範囲が予め設定される。報知部14は、第1範囲に当該機器が入ったことを第1音声により報知する。
 これにより、作業員は、表示部13による表示などによらずに機器の配置を確認できる。ここで、第1範囲は、例えば配置される機器の位置および姿勢が第1範囲にあるときに、当該機器が目標配置に近づいたことを表す範囲などである。あるいは、第1範囲は、例えば配置される機器の位置および姿勢が第1範囲にあるときに、当該機器が許容誤差の範囲で目標配置に配置されたことを表す範囲などであってもよい。
 また、報知部14において、1つ以上の機器のうち第1範囲が設定される機器の少なくともいずれかについて、当該機器に対応する目標配置に対して第2範囲が予め設定される。第2範囲は、第1範囲に含まれる。報知部14は、第2範囲に当該機器が入ったことを第2音声により報知する。
 これにより、第1音声および第2音声などの異なる音声による報知を受けることで、作業員は、配置される機器と当該機器に対応する目標配置との配置の関係を確認できる。ここで、第2範囲は、例えば配置される機器の位置および姿勢が第2範囲にあるときに、当該機器が許容誤差の範囲で目標配置に配置されたことを表す範囲などである。あるいは、第2範囲は、第3範囲を含む範囲であってもよい。第3範囲は、例えば配置される機器の位置および姿勢が第3範囲にあるときに、当該機器が許容誤差の範囲で目標配置に配置されたことを表す範囲などである。
 また、撮影装置8は、配置作業の開始から終了まで動かないように設けられる。
 これにより、撮影装置8の位置を基準とすることができるので、支援システム1は、配置作業をより正確に案内できる。
 また、配置作業における1つ以上の機器に巻上機3が含まれる場合に、撮影装置8は、巻上機3の綱車6の鉛直上方または鉛直下方に配置される。
 また、配置作業における1つ以上の機器にかごドア装置が含まれる場合に、撮影装置8は、かごドア装置が設けられるかごのかご室の後壁に配置される。
 このように、機器の配置の案内に適した位置に撮影装置8が配置されるので、支援システム1は、配置作業をより正確に案内できる。
 なお、目標配置取得部12は、例えば設計図面などの設計情報に基づいて、各々の機器に対応する目標配置を取得してもよい。例えば配置作業が新規のエレベーターの据付作業などの場合に、各々の機器について、設計情報に従った配置への案内が可能になる。また、目標配置取得部12は、配置作業において配置される機器の目標配置を、当該機器の周辺の機器のからの相対配置に基づいて取得してもよい。例えば配置作業において配置される機器が巻上機3である場合に、巻上機3の綱車6の綱車溝7と機械室のロープダクトの縁との水平方向の距離に基づいて巻上機3の目標配置を取得してもよい。これにより、支援システム1は、綱車溝7から昇降路に下がる巻上ロープ2がロープダクトの縁に干渉しにくいような配置に綱車6を案内できるようになる。このとき、例えば配置作業が交換作業などの場合に、綱車6の直径、または綱車溝7の本数などが交換前後で変化していてもよい。
 また、エレベーターの機器の交換作業または保守点検作業などの配置作業において、配置作業の前に既に配置されていたエレベーターの機器を取り外した後の位置に、1つ以上の機器の少なくともいずれかが配置されることがある。この場合に、目標配置取得部12は、当該機器に対応する目標配置を、既に配置されていた機器が取り外される前の配置に基づいて取得してもよい。例えば、配置作業が既設の巻上機3を新設の巻上機3に交換する工程を含む場合に、目標配置取得部12は、撮影部が撮影した既設の巻上機3の画像の画像認識などによって、取り外される前の既設の巻上機3の綱車溝7の配置を検出する。目標配置取得部12は、取得した綱車溝7の位置に基づいて、例えば綱車溝7の位置が交換前後で変わらない配置などとして新設の巻上機3の目標配置を取得する。このとき、作業員は目標配置を入力部11から入力する必要がない。これにより、配置作業の作業性が向上する。なお、例えばエレベーターの機器の保守点検作業などにおいて、配置作業の前に既に配置されていた機器および配置作業において当該機器の位置および姿勢に配置される機器は、同一の機器であってもよい。
 また、記憶部10は、配置作業における1つ以上の機器の配置の予め設定された順序を記憶している。このとき、目標配置取得部12は、1つ以上の機器の少なくともいずれかについて、当該機器に対応する目標配置を、記憶部10が記憶している順序において当該機器より前に配置される機器の相対的な配置に基づいて取得してもよい。このとき、目標配置取得部12は、記憶部10が記憶している順序に従って機器が配置されているかを判定する。目標配置取得部12は、機器の配置の順序が記憶部10に記憶されている順序に従っている場合に、機器の相対的な配置に基づく目標配置を取得する。例えば、配置作業において、巻上機3のモーター5および綱車6がこの順で分離して配置される場合に、目標配置取得部12は、モーター5が配置された位置または姿勢に基づいて綱車6の目標配置を取得する。記憶部10は、巻上機3のモーター5および綱車6の相対的な配置の情報を記憶していてもよい。このとき、目標配置取得部12は、記憶部10から綱車6の相対配置を参照することなどによって、配置されたモーター5の位置または姿勢から綱車6の目標配置を取得してもよい。このとき、既に配置された機器との干渉などの発生が抑えられる。
 続いて、図10から図12を用いて、機器の特徴部分の抽出の具体例を説明する。
 図10から図12は、実施の形態1に係る目標配置取得部12による特徴部分の抽出の例を示す図である。
 この例において、目標配置取得部12は、例えばテンプレートマッチングなどの画像処理の手法によって特徴部分の抽出を行う。目標配置取得部12は、機器の特徴部分として、例えば当該機器の位置および姿勢などを示す点の例である当該機器の輪郭のコーナーを抽出する。
 図10において、撮影装置8が撮影する機器の撮影画像および当該機器のモデル画像が示される。機器のモデル画像は、例えば過去に撮影された当該機器の類似画像、または当該機器の設計情報などに基づいて生成された類似画像などである。設計情報に基づく類似画像は、例えばCAD画像(CAD:Computer Aided Design)などである。なお、機器のモデル画像において、当該機器の特徴部分は既知である。
 目標配置取得部12は、撮影装置8が撮影する撮影画像上でモデル画像を走査することで、撮影画像上の機器の位置を検出する。目標配置取得部12は、モデル画像の拡大および縮小ならびに回転を含むアフィン変換、またはホモグラフィ変換などの画像の変換を行いながらモデル画像の走査を行ってもよい。目標配置取得部12は、モデル画像を走査しながら、モデル画像が重なっている撮影画像上の範囲に対するモデル画像との間の類似度または相違度などを算出する。
 続いて、図11に示されるように、目標配置取得部12は、類似度が最大になる位置、または相違度が最小になる位置などを、撮影画像上の機器の位置として検出する。なお、走査の際にモデル画像の回転ならびに拡大および縮小などの変換を行う場合に、目標配置取得部12は、モデル画像の回転角および拡大または縮小の倍率などの変換のパラメータもあわせて検出してもよい。
 続いて、図12に示されるように、目標配置取得部12は、走査によって検出した位置などに配置されたモデル画像の特徴部分の配置を、撮影画像上の機器の特徴部分の配置とする。モデル画像における特徴部分は既知であるため、目標配置取得部12は、走査において検出したモデル画像の位置および変換のパラメータによって撮影画像上の機器の特徴部分の配置を抽出できる。
 続いて、図13および図14を用いて、機器の特徴部分の抽出の他の具体例を説明する。
 図13および図14は、実施の形態1に係る目標配置取得部12による特徴部分の抽出の他の例を示す図である。
 図13に示されるように、撮影画像上の機器の画像およびモデル画像が厳密には一致しないことがある。このような場合に、目標配置取得部12は、モデル画像の走査によって撮影画像上の機器の概略の位置を検出する。
 その後、図14に示されるように、目標配置取得部12は、走査によって検出した位置などに配置されたモデル画像の特徴部分の配置を含む領域に、特徴部分の詳細検出を行う処理領域を設定する。この例において、目標配置取得部12は、上側の処理領域および下側の処理領域の2箇所の処理領域を設定する。
 目標配置取得部12は、設定した各々の処理領域において、コーナーの検出処理を行う。コーナーの検出処理において、例えばHarrisのコーナー検出、またはShi-Tomasiのコーナー検出などの公知のアルゴリズムが適用できる。目標配置取得部12は、このように検出したコーナーを特徴部分として抽出する。
 続いて、図15を用いて、機器の特徴部分の抽出の他の具体例を説明する。
 図15は、実施の形態1に係る目標配置取得部12による特徴部分の抽出の他の例を示す図である。
 目標配置取得部12は、モデル画像および撮影画像の各々において、画像特徴量を算出する。ここで算出される画像特徴量は、例えばSIFT(Scale-Invariant Feature Transform)、SURF(Speed Up Robust Feature)、またはHOG(Histogram of Oriented Gradient)などである。ここで算出される画像特徴量は、回転不変およびスケール不変な特徴量である。図15において、例えばSIFTなどの特徴量によって検出されたキーポイントが示される。
 目標配置取得部12は、モデル画像において検出されたキーポイント、および撮影画像において検出されたキーポイントのマッチングを行う。これにより、目標配置取得部12は、撮影画像上の機器の位置を検出できる。撮影画像において機器が回転または拡大もしくは縮小している場合においても、回転不変およびスケール不変な特徴量を用いることでマッチングが可能になる。
 目標配置取得部12は、例えば、このようにマッチングしたモデル画像の特徴部分の配置を、撮影画像上の機器の特徴部分の配置とする。あるいは、目標配置取得部12は、このようにマッチングしたモデル画像の特徴部分の配置を含む領域に、特徴部分の詳細検出を行う処理領域を設定してもよい。このとき、目標配置取得部12は、設定した各々の処理領域においてコーナーの検出処理を行うことで、検出されたコーナーを特徴部分として抽出する。
 なお、図16に示されるように、目標配置取得部12は、機器の特徴部分として、例えば当該機器の位置および姿勢などを示す線の例である当該機器の輪郭のエッジを抽出してもよい。図16は、実施の形態1に係る目標配置取得部12による特徴部分の抽出の他の例を示す図である。目標配置取得部12は、コーナーを特徴部分として抽出する場合と同様の手順によって、エッジを特徴部分として抽出する。ここで、エッジの検出処理において、例えばCannyのエッジ検出などの公知のアルゴリズムが適用できる。エッジの検出処理において、ノイズ除去および線分化などの処理が行われてもよい。直感的によりわかりやすいエッジが案内画像として表示されるので、作業員は、機器の配置作業をより容易に行えるようになる。
 また、図17に示されるように、目標配置取得部12は、撮影装置8が撮影する機器の画像に基づいて当該機器の複数の目標配置の候補を取得してもよい。図17は、実施の形態1に係る目標配置取得部12による目標配置の取得の例を示す図である。機器の目標配置の候補は、例えば当該機器の特徴部分の候補などである。この例において、特徴部分の候補は、例えば画像処理の手法によって抽出された複数のコーナーである。
 このとき、案内システム9は、例えば表示部13などを通じて目標配置の複数の候補を作業員に提示する。作業員は、提示された目標配置の複数の候補のうちから、1つまたは複数の候補を例えば入力部11を通じて選択する。目標配置取得部12は、作業員が選択した候補を、当該機器の目標配置として取得する。この例において、作業員に選択されなかった候補は、当該機器の目標配置から除外される。これにより、作業員による目標配置の入力が容易になる。
 また、1つ以上の機器の少なくともいずれかに対応する目標配置を示す案内画像は、当該目標配置に配置された当該機器の画像であってもよい。例えば、配置作業が既設の巻上機3を新設の巻上機3に交換する工程を含む場合に、表示部13は、取り外される前の既設の巻上機3の画像を、配置作業において配置されている新設の巻上機3の画像に案内画像として重ねて表示してもよい。このとき、案内画像である既設の巻上機3の画像は、新設の巻上機3の画像の位置と比較しうるように、例えば半透明の画像として重ねて表示される。あるいは、案内画像である既設の巻上機3の画像は、例えば輪郭のみの画像として重ねて表示されてもよい。
 図18は、実施の形態1の変形例に係る支援システム1の構成図である。
 案内システム9は、通信部18を備える。通信部18は、案内システム9の外部の機器に有線または無線によって情報を出力する部分である。通信部18は、インターネットなどの通信網を通じて外部の機器に情報を出力してもよい。通信部18は、例えば目標配置の情報または案内画像の情報を出力する。通信部18は、例えば案内システム9の外部の表示装置19に情報を出力する。表示装置19は、例えば作業員が携帯するスマートフォンなどの可搬な情報端末であってもよい。また、作業員は、配置作業において表示装置19を装着していてもよい。表示装置19は、例えば作業員の視野の画像に入力された画像を重ねて表示するHMD(Head Mounted Display)などの装置である。表示装置19は、例えばAR技術(AR:Augmented Reality)またはVR技術(VR:Virtual Reality)などによって画像を表示する。これにより、作業員は、配置作業を行いながら機器と目標配置との配置関係を確認できるので、配置作業の作業効率が高められる。なお、目標配置または案内画像の情報は、3次元的な情報として撮影装置8の複数のカメラが撮影した画像に基づいて取得された情報などであってもよい。
 図19は、実施の形態1の他の変形例に係る目標配置取得部12による目標配置の取得の例を示す図である。
 図19に示されるように、目標配置取得部12は、既に配置されていた機器が取り外される前に撮影装置8が撮影した画像、および当該機器が取り外された後に撮影装置8が撮影した画像に基づいて目標配置を取得する。例えば、配置作業が既設の巻上機3を新設の巻上機3に交換する工程を含む場合に、目標配置取得部12は、取り外される前の既設の巻上機3の画像を取得する。また、目標配置取得部12は、既設の巻上機3が取り外された後の画像を取得する。目標配置取得部12は、取得した画像の差分を取ることによって、撮影装置8が撮影する画像における既設の巻上機3の位置または姿勢を抽出する。目標配置取得部12は、抽出した既設の巻上機3の位置に基づいて、新設の巻上機3の位置または姿勢に対応する目標配置を取得する。
 続いて、図20を用いて、支援システム1のハードウェア構成の例について説明する。
 図20は、実施の形態1に係る支援システム1の主要部のハードウェア構成図である。
 支援システム1の各機能は、処理回路により実現し得る。処理回路は、少なくとも1つのプロセッサ100aと少なくとも1つのメモリ100bとを備える。処理回路は、プロセッサ100aおよびメモリ100bと共に、あるいはそれらの代用として、少なくとも1つの専用ハードウェア200を備えてもよい。
 処理回路がプロセッサ100aとメモリ100bとを備える場合、支援システム1の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせで実現される。ソフトウェアおよびファームウェアの少なくとも一方は、プログラムとして記述される。そのプログラムはメモリ100bに格納される。プロセッサ100aは、メモリ100bに記憶されたプログラムを読み出して実行することにより、支援システム1の各機能を実現する。
 プロセッサ100aは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSPともいう。メモリ100bは、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROMなどの、不揮発性または揮発性の半導体メモリなどにより構成される。
 処理回路が専用ハードウェア200を備える場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらの組み合わせで実現される。
 支援システム1の各機能は、それぞれ処理回路で実現することができる。あるいは、支援システム1の各機能は、まとめて処理回路で実現することもできる。支援システム1の各機能について、一部を専用ハードウェア200で実現し、他部をソフトウェアまたはファームウェアで実現してもよい。このように、処理回路は、専用ハードウェア200、ソフトウェア、ファームウェア、またはこれらの組み合わせで支援システム1の各機能を実現する。
 実施の形態2.
 実施の形態1に係る支援システム1は、作業員からの入力に基づいて巻上機3に対応する目標配置を取得するものとした。実施の形態2に係る支援システム1は、撮影装置8が撮影した画像、およびこの画像上で入力部11を通じて過去に作業員から入力された目標配置の関係を機械学習により学習する。さらに、支援システム1は、学習により生成した学習済モデルを用いて、撮影装置8が撮影した画像における目標配置を推論する。
 図21は実施の形態2に係る案内システム9の構成図である。実施の形態2に係る案内システム9は、さらに学習部20と、推論部21とを備える。
 学習部20は、撮影装置8が撮影した画像、および当該画像について入力部11を通じて過去に作業員から入力された目標配置の組を学習用データとして取得する。ここで、学習用データは、撮影装置8が撮影した画像、および当該画像について作業員が入力した目標配置を互いに関連付けたデータである。学習部20は、取得した学習用データに基づいて、撮影装置8が撮影した画像における目標配置を学習する。すなわち、撮影装置8が撮影した画像から最適な目標配置を推論するための学習済モデルを生成する。なお、撮影装置8が撮影した画像とは、例えば実施の形態1と同様に機器が配置される領域を鉛直上方から撮影した画像などである。ここで、学習用データに含まれるデータの組み合わせは、配置作業の工程に応じたものとなる。例えば、機器を新たに配置する工程において、撮影装置8が撮影した画像は当該機器を含まない画像である。よって、撮影装置8が撮影した画像および当該画像について作業員が入力した目標配置の組み合わせが学習用データとして取得される。また、既設の機器を新設の機器に交換する工程において、撮影装置8が撮影した画像は既設の機器を含む画像である。よって、撮影装置8が撮影した画像および当該画像について作業員が入力した目標配置の組み合わせが学習用データとして取得される。
 続いて、図22および図23を用いて学習部20において学習される学習済モデルの例を説明する。図22および図23は、実施の形態2に係る学習部20における学習済モデルの例を示す図である。学習部20は、例えば教師あり学習、または強化学習などの公知の学習アルゴリズムを用いて学習することができる。一例として、ニューラルネットワークを用いた教師あり学習による学習アルゴリズムを説明する。この例において、学習部20は、ニューラルネットワークモデルに従って、教師あり学習により、既設の巻上機3の画像データに対する目標配置を学習する。ここで、教師あり学習とは、入力と出力のデータの組を学習部20などの学習装置に与えることで、それらの学習用データにある特徴を学習し、学習済モデルを生成する手法をいう。ここで生成される学習済モデルは、推論部21などの推論装置による入力からの出力の推論に用いられる。
 ニューラルネットワークは、複数のニューロンからなる入力層、複数のニューロンからなる中間層、および複数のニューロンからなる出力層で構成される。各々のニューロンにおいて、入力された値に活性化関数が適用されて出力される。活性化関数は、例えばシグモイド関数またはランプ関数などの非線形な関数である。
 例えば、図22に示されるような3層のニューラルネットワークであれば、複数の入力が入力層(X1,X2,X3,…)に入力されると、その出力値に重みW0(w01,w02,w03,…)が掛けられて中間層(Y1,Y2,…)に入力される。また、中間層からの出力値にさらに重みW1(w11,w12,w13,…)が掛けられて出力層(Z1,Z2,Z3,…)に入力される。出力層の各々のニューロンは、入力された値に基づいて出力データを出力する。このように、ニューラルネットワークを通した出力は、重みベクトルW0およびW1の各成分の値によって変わる。この例において、学習済モデルは、重みベクトルW0およびW1によって表される。
 あるいは、図23に示されるように、2層以上の中間層を有するニューラルネットワークを用いた学習アルゴリズムが適用されてもよい。このようなニューラルネットワークであれば、複数の入力が入力層(X1,X2,X3,…)に入力されると、その出力値に重みW0(w01,w02,w03,…)が掛けられて第1の中間層(Y11,Y12,…)に入力される。また、第1の中間層からの出力値にさらに重みW1(w11,w12,w13,…)が掛けられて第2の中間層に入力される。同様にこれを繰り返し、整数nを2以上の自然数として第nの中間層からの出力値にさらに重みWn(wn1,wn2,wn3,…)が掛けられて出力層に入力される。出力層の各々のニューロンは、入力された値に基づいて出力データを出力する。このように、ニューラルネットワークを通した出力は、重みベクトルW0,W1,…,Wnの各成分の値によって変わる。この例において、学習済モデルは、重みベクトルW0,W1,…,Wnによって表される。なお、隣接する層の間の結合は、全結合でなくてもよい。例えば、ニューラルネットワークは、畳み込み層などを含んでもよい。また、ニューラルネットワークは、プーリング層などを含んでいてもよい。
 入力層に入力されるデータは、例えば画像から抽出された画像の特徴量などである。画像の特徴量は、例えば画像におけるエッジの位置などを含む。入力層に入力されるデータは、例えば目標配置に配置される機器の種類を特定するラベルなどの情報を含んでもよい。出力層から出力されるデータは、例えば機器の目標配置である位置および姿勢などである。目標配置がラベル付け可能なものである場合に、出力層から出力されるデータは、各ラべルが目標配置として付される確率などの値であってもよい。
 実施の形態2において、学習部20のニューラルネットワークは、撮影装置8が撮影した画像、およびこの画像上で入力部11を通じて過去に作業員から入力された目標配置の組み合わせに基づいて作成される学習用データに従って、いわゆる教師あり学習により、撮影装置8が撮影した画像データおける目標配置を学習する。すなわち、ニューラルネットワークは、入力層に撮影装置8が撮影した画像を入力して出力層から出力された結果、すなわち目標配置が、入力部11を通じて過去に作業員から入力された目標配置に近づくように重みベクトルW0およびW1などを調整することで学習する。学習部20は、例えば誤差逆伝搬法などの公知の手法によって学習用データからの学習を行うことができる。
 学習部20は、以上のような学習を実行することで学習済モデルを生成する。記憶部10は、学習部20が生成した学習済モデルを記憶する。
 なお、学習部20が用いる学習アルゴリズムに教師あり学習を適用した場合について説明したが、これに限られるものではない。学習アルゴリズムについては、撮影装置8が撮影した画像および目標配置の関係を学習できればよく、遺伝的プログラミング、機能論理プログラミング、またはサポートベクターマシンなどの他の公知の方法を用いて機械学習が行われてもよい。また、学習部20に用いられる学習アルゴリズムとして、画像の特徴量の抽出そのものを学習する深層学習(Deep Learning)が用いられてもよい。また、学習部20は、強化学習などのアルゴリズムを用いて撮影装置8が撮影した画像および目標配置の関係を学習してもよい。強化学習における報酬は、例えば作業の後に作業員などによって入力される評価であってもよいし、作業に要する時間または工数などであってもよい。
 また、入力層に入力されるデータは、画像データそのものであってもよい。学習部20による学習の際に入力される画像データは、撮影装置8が撮影した画像の他に、3次元CADを用いて生成したCG画像(CG:Computer Graphics)などを含んでもよい。学習の際に入力される画像データは、CG画像を撮影装置8が撮影した実画像に似せるように変換したものであってもよい。この場合に、学習の際に入力される画像データは、例えばGAN(Generative Adversarial Network)などの技術によって生成される。このときのGANにおいて、例えば生成ネットワークとして学習用の類似画像を生成するネットワークが用いられる。また、識別ネットワークとして撮影装置8が撮影した実画像および生成ネットワークが生成した類似画像を識別するネットワークが用いられる。このように学習用の画像を増やすことにより、学習部20における学習の正確さを高めることができる。なお、このように生成された画像データについての目標配置のデータは、作業員などによって手動で設定されてもよいし、CG画像などの元になる3次元CADデータの部品の情報などに基づいて自動的に設定されてもよい。
 推論部21は、学習済モデルを利用して得られる、撮影装置8が撮影した画像における目標配置を推論する。すなわち、この学習済モデルに撮影装置8が撮影した画像を入力することで、当該画像から推論される目標配置を出力することができる。
 続いて、図24を用いて、学習部20における学習の処理の例について説明する。図24は、実施の形態2に係る支援システム1の動作の例を示すフローチャートである。図24において、学習部20における学習の処理の例が示される。
 ここで、実施の形態2に係る支援システム1は、図6に示される支援システム1の動作によって得られた既設の巻上機3の画像、および作業員から入力された目標配置を学習用データとして用いる。以下の学習処理は、図6に示される処理が複数回行われた後に実施されてもよい。また、以下の学習処理は、図6に示される処理が1回行われる毎に実施され、これが繰り返し行われるものであってもよい。
 ステップS21において、学習部20は、撮影装置8が撮影した画像、およびこの画像について入力部11を通じて過去に作業員から入力された目標配置の組み合わせに基づいて作成される学習用データを取得する。なお、実施の形態2において、学習部20は既設の巻上機3の画像、および目標配置を同時に取得するものとしたが、学習部20はこれらを関連づけて入力できればよく、学習部20は、既設の巻上機3の画像、および目標配置のデータをそれぞれ別のタイミングで取得してもよい。
 その後、ステップS22において、学習部20は、撮影装置8が撮影した画像、およびこの画像について入力部11を通じて過去に作業員から入力された目標配置の組み合わせに基づいて作成される学習用データに従って、教師あり学習により、撮影装置8が撮影した画像データにおける機器の目標配置を学習し、学習済モデルを生成する。
 その後、ステップS23において、記憶部10は、学習部20によって生成された学習済モデルを記憶する。
 続いて、図25を用いて、撮影装置8が撮影した画像に対する、目標配置の推論部21における推論の処理の例を説明する。図25は、実施の形態2に係る支援システム1の動作の例を示すフローチャートである。図25において、推論部21における推論の処理の例が示される。実施の形態2において、推論の処理に係る動作は図6のステップS11において行われ、以降の動作は図6に示される動作と同様のものである。
 ステップS31において、推論部21は、撮影装置8が撮影した画像を取得する。
 その後、ステップS32において、推論部21は、記憶部10が記憶している学習済モデルに撮影装置8が撮影した画像を入力する。推論部21は、学習済モデルの出力から撮影装置8が撮影した画像データに対して目標配置を得る。
 その後、ステップS33において、推論部21は、学習済モデルにより得られた撮影装置8が撮影した画像データに対する目標配置を出力する。当該目標配置は、配置作業において当該画像の領域に配置されるエレベーターのいずれかの機器の目標配置である。目標配置取得部12は、推論部21が出力した目標配置を当該機器の目標配置として取得する。その後、支援システム1の動作は図6のステップS12に進み、撮影装置8が撮影した画像に対して、出力された目標配置が重ねて表示される。
 以上に説明したように、実施の形態2に係る支援システム1は、学習部20を備える。学習部20は、学習用データを用いて学習済モデルを機械学習によって生成する。学習用データは、撮影装置8が撮影する画像、およびエレベーターの機器のうち当該画像の領域に配置される機器の目標配置を含む。学習済モデルは、撮影装置8が撮影する画像からの目標配置の推論に用いられる。また、支援システム1は、推論部21を備える。推論部21は、学習済モデルを用いて撮影装置が撮影する画像から当該機器の目標配置を推論する。案内システム9は、当該機器に対応する目標配置を、推論部21の推論に基づいて取得する。このような構成により、入力部11を通じて作業員が目標配置を入力する必要がなくなり、作業員が目標配置を入力する負担を軽減する効果、および熟練者でなくとも目標配置を特定できる効果などが得られるようになる。
 なお、実施の形態2では、推論部21は、支援システム1の学習部20が生成した学習済モデルを用いて撮影装置8が撮影した画像データに対する目標配置を出力するものとして説明したが、推論部21は、支援システム1の図示されない外部システムが生成した学習済モデルを取得し、外部システムから取得した学習済モデルに基づいて撮影装置8が撮影した画像データに対する目標配置を出力するようにしてもよい。
 また、学習部20および推論部21の一方または両方は、インターネットなどの通信網を通じて接続される、エレベーターが設けられる建物の外部に配置された装置に搭載されていてもよい。例えば、学習部20は、独立した装置としての学習装置に搭載されていてもよい。また、推論部21は、独立した装置としての推論装置に搭載されていてもよい。また、学習部20および推論部21の一方または両方は、クラウドサービス上の仮想マシンなどに搭載されていてもよい。
 また、学習部20は、複数のエレベーターにおいて作成された学習用データを用いて学習を行ってもよい。このとき、複数のエレベーターは、互いに異なる建物に設けられていてもよい。また、複数のエレベーターは、同一のエリアにおいて稼働するエレベーターであってもよい。あるいは、複数のエレベーターは、複数のエリアにおいて稼働するエレベーターであってもよい。学習部20において学習用データの取得の対象とされるエレベーターは、支援システム1の稼働の途中で追加および除外されてもよい。また、ある支援システム1の学習部20は、他の支援システム1の学習部20が生成した学習済モデルを取得してもよい。このとき、学習済モデルを取得した支援システム1の学習部20は、当該支援システム1において取得される学習用データを用いて取得した学習済モデルを更新するように再学習を行ってもよい。
 続いて、図26を用いて実施の形態2の変形例を説明する。
 図26は、実施の形態2の変形例に係る表示部13による表示の例を示す図である。この変形例において、学習済モデルは、撮影装置8が撮影する画像から、当該画像の領域に配置される機器の目標配置に加えて当該機器の特徴部分を推論できるモデルである。学習済モデルにおいて推論される当該機器の特徴部分は、1つまたは複数の特徴部分である。
 以下において、巻上機3を配置する配置作業を例として説明する。この例において、既設の巻上機が新設の巻上機3に交換される。配置作業において、既設の巻上機が撤去された後に、新設の巻上機3が目標配置の近傍に仮置きされる。このとき、撮影装置8は、仮置きされた新設の巻上機3およびその目標配置の位置の両方を含む領域を撮影する。
 学習部20は、撮影装置8が撮影した画像、ならびに当該画像について入力部11を通じて過去に作業員から入力された新設の巻上機3の目標配置、および当該画像における仮置きされた新設の巻上機3の特徴部分の組を学習用データとして取得する。新設の巻上機3の特徴部分は、例えば入力部11を通じて作業員から入力される。新設の巻上機3の特徴部分は、例えば目標配置の入力とあわせて行われるものであってもよい。なお、学習部20における学習済モデルは、目標配置を取得するためのモデル、および特徴部分を取得するためのモデルを独立に含む複合モデルであってもよい。このとき、学習部20は、目標配置を取得するモデルのための学習用データと、特徴部分を取得するモデルのための学習用データとを、独立に取得してもよい。
 推論部21は、学習部20による学習済モデルを用いて、撮影装置8が撮影した画像から新設の巻上機3の目標配置、および当該画像における仮置きされた新設の巻上機3の特徴部分を推論する。案内システム9において、このように推論された新設の巻上機3の目標配置および特徴部分に基づいて、新設の巻上機3の当該目標配置への案内を行う。例えば、表示部13は、図26に示されるように、撮影装置8が撮影した画像に案内画像を重ねて表示する。この例において、案内画像として、目標配置に配置された新設の巻上機3の綱車6の位置および姿勢を示す画像が示される。当該画像において、新設の巻上機3が目標配置に配置されたときの特徴部分の位置が示される。また、案内画像として、仮置きされた位置から目標配置にこれから配置される新設の巻上機3の特徴部分の位置が示される。このような構成により、現在の機器の特徴部分および目標配置に配置された当該機器の特徴部分が同時に表示されるので、支援システム1は、配置作業の案内をより効果的に行うことができるようになる。このため、配置作業の作業性を高められる。
 本開示に係る支援システムは、エレベーターの機器の配置作業に適用できる。
 1 支援システム、 2 巻上ロープ、 3 巻上機、 4 巻上機台、 5 モーター、 6 綱車、 7 綱車溝、 8 撮影装置、 9 案内システム、 10 記憶部、 11 入力部、 12 目標配置取得部、 13 表示部、 14 報知部、 15 乗場敷居、 16 着床装置、 17 検出部、 18 通信部、 19 表示装置、 20 学習部、 21 推論部、 100a プロセッサ、 100b メモリ、 200 専用ハードウェア

Claims (18)

  1.  エレベーターの1つ以上の機器の各々を対応する目標配置に配置する配置作業において、前記1つ以上の機器の各々に対応する目標配置の位置を含む領域を撮影する撮影装置と、
     前記撮影装置が撮影した画像に基づいて前記1つ以上の機器の各々の対応する目標配置への配置を案内する案内システムと、
     を備えるエレベーターの機器の配置作業の支援システム。
  2.  前記案内システムは、前記配置作業における前記1つ以上の機器の配置の予め設定された順序を記憶し、前記1つ以上の機器の少なくともいずれかについて、記憶している順序に従って当該機器が配置されているかを判定し、配置の順序が記憶している順序に従っている場合に、記憶している順序において当該機器より前に配置される機器の相対的な配置に基づいて当該機器に対応する目標配置を取得する
     請求項1に記載のエレベーターの機器の配置作業の支援システム。
  3.  前記案内システムは、前記配置作業の前に既に配置されていたエレベーターの機器を取り外した後の位置に前記1つ以上の機器の少なくともいずれかが配置される場合に、当該機器に対応する目標配置を、既に配置されていた機器が取り外される前の配置に基づいて取得する
     請求項1または請求項2に記載のエレベーターの機器の配置作業の支援システム。
  4.  前記案内システムは、既に配置されていた機器が取り外される前に前記撮影装置が撮影した画像、および当該機器が取り外された後に前記撮影装置が撮影した画像の差分に基づいて目標配置を取得する
     請求項1から請求項3のいずれか一項に記載のエレベーターの機器の配置作業の支援システム。
  5.  前記案内システムにおいて、前記1つ以上の機器の少なくともいずれかに対応する目標配置は、前記配置作業を行う作業員からの入力に基づいて取得される
     請求項1から請求項4のいずれか一項に記載のエレベーターの機器の配置作業の支援システム。
  6.  前記案内システムにおいて、前記1つ以上の機器の少なくともいずれかに対応する目標配置は、前記配置作業を行う作業員に前記案内システムが提示する複数の候補のうちから当該作業員が選択した候補に基づいて取得される
     請求項5に記載のエレベーターの機器の配置作業の支援システム。
  7.  前記案内システムは、
     前記1つ以上の機器の少なくともいずれかについて、当該機器に対応する目標配置を示す案内画像を前記撮影装置が撮影した画像に重ねて表示する表示部
     を備える
     請求項1から請求項6のいずれか一項に記載のエレベーターの機器の配置作業の支援システム。
  8.  前記案内システムは、
     前記1つ以上の機器の少なくともいずれかについて、当該機器に対応する目標配置を示す案内画像を、前記配置作業を行う作業員の視野の画像に入力された画像を重ねて表示する表示装置に出力する通信部
     を備える
     請求項1から請求項7のいずれか一項に記載のエレベーターの機器の配置作業の支援システム。
  9.  前記1つ以上の機器の少なくともいずれかに対応する目標配置を示す案内画像は、当該目標配置に配置された当該機器の画像である
     請求項7または請求項8に記載のエレベーターの機器の配置作業の支援システム。
  10.  前記1つ以上の機器の少なくともいずれかに対応する目標配置を示す案内画像は、当該目標配置に配置された当該機器の1つ以上の特徴部分の画像である
     請求項7または請求項8に記載のエレベーターの機器の配置作業の支援システム。
  11.  前記案内システムは、
     前記1つ以上の機器の少なくともいずれかについて、当該機器に対応する目標配置に対して予め設定された第1範囲に当該機器が入ったことを第1音声により報知する報知部
     を備える
     請求項1から請求項10のいずれか一項に記載のエレベーターの機器の配置作業の支援システム。
  12.  前記報知部は、前記1つ以上の機器のうち前記第1範囲が設定される機器の少なくともいずれかについて、前記第1範囲に含まれ当該機器に対応する目標配置に対して予め設定された第2範囲に当該機器が入ったことを第2音声により報知する
     請求項11に記載のエレベーターの機器の配置作業の支援システム。
  13.  前記撮影装置は、前記配置作業の開始から終了まで動かないように設けられる
     請求項1から請求項12のいずれか一項に記載のエレベーターの機器の配置作業の支援システム。
  14.  前記配置作業における前記1つ以上の機器に巻上機が含まれる場合に、前記撮影装置は、前記巻上機の綱車の鉛直上方または鉛直下方に配置され、
     前記案内システムは、前記綱車の綱車溝を基準として前記綱車の目標配置への配置を案内する
     請求項1から請求項13のいずれか一項に記載のエレベーターの機器の配置作業の支援システム。
  15.  前記配置作業における前記1つ以上の機器にかごの各々の階床への着床を検出する検出部を有する着床装置が含まれる場合に、前記撮影装置は、前記かごにおいて前記着床装置の鉛直上方または鉛直下方に配置され、
     前記案内システムは、前記着床装置において前記かごが走行するときに各々の階床に設けられた着床板が通過する前記検出部の溝を基準として前記着床装置の目標配置への配置を案内する
     請求項1から請求項13のいずれか一項に記載のエレベーターの機器の配置作業の支援システム。
  16.  前記撮影装置が撮影する画像、および前記1つ以上の機器のうち当該画像の領域に配置される機器の目標配置を含む学習用データを用いて、前記撮影装置が撮影する画像から目標配置を推論する学習済モデルを機械学習によって生成する学習部
     を備える請求項1から請求項15のいずれか一項に記載のエレベーターの機器の配置作業の支援システム。
  17.  前記撮影装置が撮影する画像、および前記1つ以上の機器のうち当該画像の領域に配置される機器の目標配置を含む学習用データを用いて機械学習によって生成された、前記撮影装置が撮影する画像から目標配置を推論するための学習済モデルを用いて、前記撮影装置が撮影する画像から当該機器の目標配置を推論する推論部
     を備え、
     前記案内システムは、当該機器に対応する目標配置を、前記推論部の推論に基づいて取得する
     請求項1から請求項16のいずれか一項に記載のエレベーターの機器の配置作業の支援システム。
  18.  前記推論部が推論に用いる学習済モデルは、前記撮影装置が撮影する画像から前記1つ以上の機器のうち当該画像の領域に配置される機器の目標配置および当該機器の1つ以上の特徴部分を推論するための学習済モデルであり、
     前記推論部は、前記撮影装置が撮影する画像から当該機器の目標配置および1つ以上の特徴部分を推論し、
     前記案内システムは、前記推論部が推論した目標配置および1つ以上の特徴部分に基づいて、当該機器を前記推論部が推論した目標配置へ案内する
     請求項17に記載のエレベーターの機器の配置作業の支援システム。
PCT/JP2022/026707 2022-07-05 2022-07-05 エレベーターの機器の配置作業の支援システム WO2024009389A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/026707 WO2024009389A1 (ja) 2022-07-05 2022-07-05 エレベーターの機器の配置作業の支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/026707 WO2024009389A1 (ja) 2022-07-05 2022-07-05 エレベーターの機器の配置作業の支援システム

Publications (1)

Publication Number Publication Date
WO2024009389A1 true WO2024009389A1 (ja) 2024-01-11

Family

ID=89452968

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/026707 WO2024009389A1 (ja) 2022-07-05 2022-07-05 エレベーターの機器の配置作業の支援システム

Country Status (1)

Country Link
WO (1) WO2024009389A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000086103A (ja) * 1998-09-09 2000-03-28 Hitachi Building Systems Co Ltd エレベータかごのバランスポイント調整方法
JP2009018127A (ja) * 2007-07-13 2009-01-29 Panasonic Corp 学習支援装置および学習支援方法
JP2012205229A (ja) * 2011-03-28 2012-10-22 Hitachi Ltd カメラ設置支援方法、画像認識方法
WO2020012608A1 (ja) * 2018-07-12 2020-01-16 三菱電機ビルテクノサービス株式会社 エレベーターの昇降路の内部の状態を提示する機能を備えた点検装置
WO2021149107A1 (ja) * 2020-01-20 2021-07-29 三菱電機株式会社 エレベーターの制御システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000086103A (ja) * 1998-09-09 2000-03-28 Hitachi Building Systems Co Ltd エレベータかごのバランスポイント調整方法
JP2009018127A (ja) * 2007-07-13 2009-01-29 Panasonic Corp 学習支援装置および学習支援方法
JP2012205229A (ja) * 2011-03-28 2012-10-22 Hitachi Ltd カメラ設置支援方法、画像認識方法
WO2020012608A1 (ja) * 2018-07-12 2020-01-16 三菱電機ビルテクノサービス株式会社 エレベーターの昇降路の内部の状態を提示する機能を備えた点検装置
WO2021149107A1 (ja) * 2020-01-20 2021-07-29 三菱電機株式会社 エレベーターの制御システム

Similar Documents

Publication Publication Date Title
JP6517762B2 (ja) 人とロボットが協働して作業を行うロボットの動作を学習するロボットシステム
CN109422147A (zh) 口头命令界面
JP4030543B2 (ja) ニューラル・ネットワークによる、エレベータードア内の障害物の存在とエレベータードアに向かう動きの検出
JP2021080102A (ja) ロボット装置とエレベータ装置の双方向制御方法
KR20090037479A (ko) 목적지 입력 급송 작동들에서의 보안 추적을 위한 익명 승객 인덱싱 시스템
CN115321292A (zh) 电梯系统构件分析
JP2013131100A (ja) 人数予測方法、人数予測装置、移動ロボット及びプログラム
US10168786B2 (en) Gesture guidance device for moving platform, gesture guidance system for moving platform, and gesture guidance method for moving platform
JP2005329515A (ja) サービスロボットシステム
JP2012187698A (ja) 走行ロボットのやり直し走行、そのティーチング方法および制御方法
WO2018200637A1 (en) Automated personalized feedback for interactive learning applications
JPWO2018078681A1 (ja) 案内装置、案内方法およびエレベータ
JP6609588B2 (ja) 自律型モビリティシステムおよび自律型モビリティの制御方法
CN112230649B (zh) 机器学习方法及移动机器人
WO2024009389A1 (ja) エレベーターの機器の配置作業の支援システム
JP2016063305A (ja) 視覚障がい者の案内装置
JP4764377B2 (ja) 移動型ロボット
JP7126251B2 (ja) 建設機械制御システム、建設機械制御方法、及びプログラム
JP7013667B2 (ja) 案内装置及び案内システム
JP2012073683A (ja) 人物検出装置、人物検出方法及びプログラム
EP3620416A1 (en) Elevator system management utilizing machine learning
JP2016064910A (ja) 盲導犬の検出装置及び検出方法
US20230271317A1 (en) Operation range setting device, operation range setting method, and storage medium
JP7323061B2 (ja) エレベーターの3次元データの処理装置
JP7420231B2 (ja) エレベーターの3次元データの処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22950183

Country of ref document: EP

Kind code of ref document: A1