WO2022254629A1 - エレベーターのカメラの調整支援システム - Google Patents

エレベーターのカメラの調整支援システム Download PDF

Info

Publication number
WO2022254629A1
WO2022254629A1 PCT/JP2021/021072 JP2021021072W WO2022254629A1 WO 2022254629 A1 WO2022254629 A1 WO 2022254629A1 JP 2021021072 W JP2021021072 W JP 2021021072W WO 2022254629 A1 WO2022254629 A1 WO 2022254629A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
unit
display
support system
image
Prior art date
Application number
PCT/JP2021/021072
Other languages
English (en)
French (fr)
Inventor
諭 志賀
敬秀 平井
清高 渡邊
彰一 清水
Original Assignee
三菱電機株式会社
三菱電機ビルソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社, 三菱電機ビルソリューションズ株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2021/021072 priority Critical patent/WO2022254629A1/ja
Priority to JP2023525257A priority patent/JPWO2022254629A1/ja
Priority to CN202180098563.7A priority patent/CN117355473A/zh
Publication of WO2022254629A1 publication Critical patent/WO2022254629A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B11/00Main component parts of lifts in, or associated with, buildings or other structures
    • B66B11/02Cages, i.e. cars

Definitions

  • the present disclosure relates to an elevator camera adjustment support system.
  • Patent Document 1 discloses an example of an elevator.
  • cameras are mounted below the car.
  • a camera captures the interior of the hoistway.
  • the posture of the elevator camera in Patent Document 1 may deviate from the preset target posture. At this time, there is a possibility that the photographed object inside the hoistway will be out of the field of view of the camera, so it is necessary to adjust the posture of the camera. On the other hand, it may be difficult to determine whether the posture of the camera has been adjusted based only on the appearance of the camera body and the captured image.
  • the present disclosure relates to solving such problems.
  • the present disclosure provides an adjustment support system that can more easily determine whether the orientation of the elevator camera has been adjusted.
  • An elevator camera adjustment support system includes an image acquisition unit that acquires an image captured by a camera provided in a car that travels in an elevator hoistway, and a calibration pattern that is captured by the camera in the hoistway. on the surface, a detection unit that detects the calibration pattern in the image acquired by the image acquisition unit, and a normal line of the surface of the presentation unit that indicates the calibration pattern detected by the detection unit. and an orientation calculation unit that calculates the orientation of the camera based on the tilt of the camera with respect to the optical axis.
  • FIG. 1 is a configuration diagram of an elevator according to Embodiment 1;
  • FIG. 1 is a block diagram showing the configuration of an adjustment support system according to Embodiment 1;
  • FIG. 5 is a diagram showing an example of adjustment of camera posture using the adjustment support system according to Embodiment 1;
  • FIG. 5 is a diagram showing an example of adjustment of camera posture using the adjustment support system according to Embodiment 1;
  • 4 is a flow chart showing an example of the operation of the adjustment support system according to Embodiment 1;
  • 2 is a hardware configuration diagram of main parts of the adjustment support system according to Embodiment 1.
  • FIG. FIG. 9 is a block diagram showing the configuration of an adjustment support system according to Embodiment 2;
  • FIG. 9 is a flow chart showing an example of the operation of the adjustment support system according to Embodiment 2; 10 is a flow chart showing an example of the operation of the adjustment support system according to Embodiment 3;
  • FIG. 11 is a block diagram showing the configuration of an adjustment support system according to Embodiment 4;
  • FIG. 12 is a diagram showing an example of adjustment of camera posture using the adjustment support system according to the fourth embodiment;
  • FIG. 12 is a perspective view of a mobile terminal according to Embodiment 5;
  • FIG. 11 is a block diagram showing the configuration of an adjustment support system according to Embodiment 6;
  • FIG. 12 is a diagram showing an example of adjustment of camera posture using the adjustment support system according to Embodiment 6;
  • FIG. 1 is a configuration diagram of an elevator 1 according to Embodiment 1. As shown in FIG. 1
  • the elevator 1 is applied to buildings with multiple floors.
  • a hoistway 2 is provided in a building to which an elevator 1 is applied.
  • the hoistway 2 is a space spanning multiple floors.
  • a machine room 3 is provided above the hoistway 2 .
  • a pit 4 is provided at the lower end of the hoistway 2 .
  • a landing 5 is provided on each floor.
  • a landing 5 is a location adjacent to the hoistway 2 .
  • a landing doorway (not shown) is provided in the landing 5 of each floor.
  • the landing doorway is an opening leading to the hoistway 2 .
  • a landing door 6 is provided at the landing doorway.
  • the landing door 6 is a door that partitions the landing 5 and the hoistway 2 .
  • the elevator 1 includes a hoisting machine 7 , a main rope 8 , a car 9 , a counterweight 10 and a control panel 11 .
  • the hoist 7 is arranged in the machine room 3, for example.
  • the hoisting machine 7 may be arranged above or below the hoistway 2 .
  • the hoist 7 includes a motor that generates torque and a sheave that is rotationally driven by the motor.
  • the main rope 8 is wound around the sheave of the hoisting machine 7 .
  • the main rope 8 supports the load of the car 9 on one side of the hoist 7 sheave.
  • the main rope 8 supports the load of the counterweight 10 on the other side of the sheave of the machine 7 .
  • the load of the car 9 on the main rope 8 on one side of the sheave of the hoist 7 is counterbalanced by the load of a counterweight 10 on the main rope 8 on the other side of the sheave of the hoist 7 .
  • the main rope 8 moves so that either the car 9 side or the counterweight 10 side is hoisted onto the sheave of the hoisting machine 7 by the torque generated by the motor of the hoisting machine 7 .
  • the car 9 is a device that transports the users of the elevator 1 riding inside the car 9 between a plurality of floors by traveling in the hoistway 2 in the running direction.
  • the running direction of the car 9 is the vertical direction.
  • the car 9 and the counterweight 10 travel in the hoistway 2 in opposite vertical directions in conjunction with the movement of the main rope 8 by the hoisting machine 7 .
  • the car 9 has a car door 12 .
  • the car door 12 is a door that partitions the inside and outside of the car 9 . When the car 9 stops on any floor, the car door 12 opens and closes in conjunction with the landing door 6 of that floor so that users can get on and off.
  • the car 9 is equipped with a camera 13 .
  • the camera 13 is a device that photographs the hoistway 2 .
  • a camera 13 is attached to the exterior of the car 9 .
  • the camera 13 is attached to the bottom of the car 9 .
  • the camera 13 photographs the area below the car 9 .
  • the optical axis of the camera 13 is directed parallel to the vertical direction, which is the running direction of the car 9 .
  • the camera 13 is attached by a magnet or the like to, for example, the lower beam of the car frame that supports the car 9 in which a user or the like enters. At this time, the camera 13 may be attached with a fall prevention string or wire attached to the lower beam.
  • the control panel 11 is the part that controls the operation of the elevator 1.
  • the control panel 11 is arranged in the machine room 3, for example.
  • the control panel 11 may be arranged above or below the hoistway 2 .
  • the operation of the elevator 1 controlled by the control panel 11 includes, for example, running of the car 9 and the like.
  • the control panel 11 acquires information on the state of the elevator 1 so as to control the operation of the elevator 1 .
  • the control panel 11 is connected to the equipment of the elevator 1 so as to be able to acquire the status operation of the elevator 1 .
  • Devices connected to the control panel 11 include, for example, the hoisting machine 7 and the devices of the control panel 11 .
  • Devices connected to the control panel 11 include, for example, sensors or switches provided at the landing 5 or the hoistway 2 or the like.
  • a pair of first guide rails 14 and a pair of second guide rails 15 are provided in the hoistway 2 .
  • a pair of first guide rails 14 are devices that guide the movement of the car 9 .
  • the pair of first guide rails 14 are arranged in parallel in the hoistway 2 along the vertical direction, which is the running direction of the car 9 .
  • the car 9 is arranged between the pair of first guide rails 14 .
  • Each first guide rail 14 may be divided into a plurality of parts in the vertical direction.
  • a pair of second guide rails 15 are devices that guide the movement of the counterweight 10 .
  • the pair of second guide rails 15 are arranged in parallel in the hoistway 2 along the vertical direction, which is the running direction of the counterweight 10 .
  • a counterweight 10 is arranged between a pair of second guide rails 15 .
  • Each second guide rail 15 may be divided into a plurality of parts in the vertical direction.
  • a first buffer 16 and a second buffer 17 are provided.
  • the first buffer 16 is a device that reduces the impact when the car 9 collides with the bottom of the hoistway 2 .
  • a first buffer 16 is arranged below the car 9 .
  • the second buffer 17 is a device that reduces the impact when the counterweight 10 collides with the bottom of the hoistway 2 .
  • a second buffer 17 is arranged below the counterweight 10 .
  • a remote monitoring device 18 is applied.
  • the remote monitoring device 18 is a device used for monitoring the state of the elevator 1 from a remote location.
  • a remote monitoring device 18 is connected to the control panel 11 or the like so as to obtain information on the state of the elevator 1 .
  • the remote monitoring device 18 transmits the acquired information to the central management device 20 through a communication network 19 such as the Internet or a telephone network.
  • the central management device 20 is a device that manages information on the state of the elevator 1 and the like.
  • the central management device 20 is, for example, one or more server devices.
  • the central management device 20 is arranged at a base such as an information center, for example.
  • the information center is a base that aggregates information on the elevator 1 .
  • the image of the hoistway 2 captured by the camera 13 provided in the car 9 is used for inspection of the hoistway 2 and the like.
  • the inspection of the hoistway 2 includes automatic diagnosis, for example, during diagnostic operation after an earthquake occurs.
  • the orientation of the camera 13 may deviate from the target orientation due to vibration or the like that is repeatedly applied to the camera 13 as the car 9 travels and stops.
  • the orientation of the camera 13 is represented by the inclination of the camera 13 with respect to a preset direction.
  • the tilt of the camera 13 is the tilt of the optical axis of the camera 13, for example.
  • the target posture is a preset normal posture of the camera 13 .
  • the target posture is, for example, a posture in which the optical axis of the camera 13 is oriented parallel to the vertical direction, which is the running direction of the car 9 .
  • an object to be photographed such as equipment arranged inside the hoistway 2
  • the inspection using the image captured by the camera 13 may fail. Therefore, a worker who performs maintenance and inspection work on the elevator 1 uses an adjustment support system (not shown in FIG. 1) to adjust the posture of the camera 13 during the maintenance and inspection work.
  • the operation of adjusting the posture of the camera 13 includes procedures such as checking the posture of the camera 13 and correcting the posture of the camera 13, for example.
  • FIG. 2 is a block diagram showing the configuration of the adjustment support system 21 according to the first embodiment.
  • the image captured by the camera 13 is used in the adjustment support system 21 . Images captured by the camera 13 are transmitted to the central management device 20 via the communication network 19 . Camera 13 may transmit images through, for example, control panel 11 and remote monitoring device 18 . In the central management device 20, the image captured by the camera 13 is stored in association with the time when the image was captured.
  • the adjustment support system 21 has a mobile terminal 22 .
  • the mobile terminal 22 is, for example, a portable information terminal such as a smart phone.
  • the mobile terminal 22 is carried by the worker.
  • the mobile terminal 22 has a function of wirelessly communicating information.
  • the mobile terminal 22 is connected to the communication network 19 .
  • the mobile terminal 22 synchronizes time information with the camera 13, the central management device 20, and the like.
  • an adjustment support program for the camera 13 is installed in the mobile terminal 22 .
  • the adjustment support program is stored, for example, in a storage device (not shown) mounted on the mobile terminal 22 . Functions of the mobile terminal 22 in the adjustment support system 21 are realized by an adjustment support program or the like.
  • the mobile terminal 22 includes an image acquisition unit 23, a display 24, a display control unit 25, a detection unit 26, a measurement unit 27, an orientation calculation unit 28, a notification unit 29, a determination unit 30, and an adjustment amount calculation unit. a portion 31;
  • the image acquisition unit 23 is a part that acquires the image captured by the camera 13 from the central management device 20 that stores the image. For example, the image acquisition unit 23 specifies a time and acquires an image captured at that time. The image acquisition unit 23 designates, for example, the current time as the time when the image was captured. At this time, the image acquisition unit 23 may continuously acquire images captured by the camera 13 . Alternatively, the image acquisition unit 23 may acquire images captured by the camera 13 at a single time.
  • the display 24 is a device that displays information based on input signals.
  • the display 24 is, for example, a liquid crystal display panel.
  • the display control section 25 is a section that outputs a signal representing an image to the display 24 .
  • the display control unit 25 outputs to the display 24 a signal representing an image of the calibration pattern used for calculating the orientation of the camera 13 .
  • a calibration pattern is a regular pattern used to calibrate the instrument.
  • a checkerboard pattern, a grid pattern, a gray code pattern, or a dot pattern arranged in a lattice is known as a representative pattern. Note that the calibration pattern here is sometimes called a planar reference pattern.
  • the display 24 displays an image such as a calibration pattern based on the signal output from the display control section 25 . At this time, the display 24 shows the calibration pattern on the surface by screen display.
  • Display 24 is an example of a presentation unit.
  • the calibration pattern shown by the display 24 is photographed by the camera 13 as the worker faces the surface of the display 24
  • the detection unit 26 is a part that detects the calibration pattern shown on the presentation unit such as the display 24 in the image acquired by the image acquisition unit 23 .
  • the detection unit 26 detects feature points in the calibration pattern, such as corner points of a checkerboard pattern, by image processing or the like.
  • the measuring unit 27 is a part that measures the inclination of the presentation unit such as the display 24 .
  • the measurement unit 27 includes an acceleration sensor, an inclination sensor, or the like that is integrally mounted on the mobile terminal 22 together with the display 24 . Since the measurement unit 27 is provided integrally with the display 24 , the inclination of the measurement unit 27 itself corresponds to the inclination of the display 24 .
  • the measurement unit 27 measures the inclination of the normal to the surface of the display 24 from the vertical direction.
  • the measurement unit 27 may indirectly measure the tilt of the normal line of the display 24 with respect to the vertical direction from the tilt with respect to other directions.
  • the attitude calculation unit 28 is a part that calculates the attitude of the camera 13 using the detection result of the calibration pattern by the detection unit 26 in the image acquired by the image acquisition unit 23 .
  • the posture calculation unit 28 calculates, as the posture of the camera 13, the inclination of the optical axis of the camera 13 with respect to the vertical direction, which is the running direction of the car 9, for example.
  • the orientation calculation unit 28 may calculate an external parameter as the orientation of the camera 13 .
  • the extrinsic parameters of the camera 13 are the transformation parameters between a fixed world coordinate system, such as the hoistway 2, and the camera coordinate system, which the camera 13 is referenced to.
  • the notification unit 29 is a part that uses the mobile terminal 22 to notify the worker who performs the adjustment work of the camera 13 of information by voice.
  • the notification unit 29 includes, for example, a speaker.
  • the notification unit 29 notifies, for example, by voice whether or not the inclination of the normal line of the display 24 measured by the measurement unit 27 is within the notification range.
  • the notification range is, for example, a range of inclination of the display 24 that is set in advance with respect to the vertical direction, which is the running direction of the car 9, that is allowed when confirming the posture of the camera 13. For example, when the inclination of the normal line of the display 24 is within the notification range, the notification unit 29 notifies the worker by emitting a sound.
  • the notification unit 29 does not emit sound when the inclination of the normal line of the display 24 exceeds the notification range. Accordingly, the operator can obtain information as to whether or not the inclination of the normal line of the display 24 is within the notification range based on the presence or absence of the sound emitted from the notification unit 29 . Alternatively, the notification unit 29 may notify the worker by emitting different sounds based on whether the inclination of the normal line of the display 24 exceeds the notification range.
  • the determination unit 30 is a part that determines whether the posture of the camera 13 is abnormal based on the difference between the posture of the camera 13 calculated by the posture calculation unit 28 and the target posture.
  • the determination unit 30 determines that the posture of the camera 13 is abnormal when, for example, the tilt of the posture of the camera 13 calculated by the posture calculation unit 28 with respect to the target posture exceeds a preset normal range. For example, when the angle between the orientation of the optical axis in the target orientation of the camera 13 and the orientation of the optical axis in the orientation of the camera 13 calculated by the orientation calculation unit 28 is greater than a preset angle, the determination unit 30 Determine abnormal posture.
  • the determination unit 30 determines that the posture of the camera 13 is abnormal when, for example, the rotation angle of the posture of the camera 13 calculated by the posture calculation unit 28 about the optical axis with respect to the target posture is larger than a preset angle.
  • the adjustment amount calculation unit 31 is a part that calculates an adjustment amount for adjusting the orientation of the camera 13 to the target orientation based on the orientation of the camera 13 calculated by the orientation calculation unit 28 .
  • the adjustment amount calculation unit 31 calculates, for example, the angle between the orientation of the optical axis in the target orientation of the camera 13 and the orientation of the optical axis in the orientation of the camera 13 calculated by the orientation calculation unit 28 as the adjustment amount.
  • FIG. 3 and 4 are diagrams showing an example of adjusting the posture of camera 13 using adjustment support system 21 according to the first embodiment.
  • FIG. 3 a perspective view of the hoistway 2 during adjustment work is shown.
  • the worker enters the pit 4 from the landing 5 on the lowest floor, for example.
  • the worker visually confirms the posture of the camera 13 in the pit 4 .
  • the worker corrects the posture of the camera 13 when the deviation of the posture of the camera 13 from the target posture can be confirmed from the appearance of the camera 13 or the like.
  • the operator corrects the posture of the camera 13 by operating the swing mechanism.
  • the operator may correct the posture of the camera 13 by attaching the camera 13 to the car 9 again.
  • the operator checks the posture of the camera 13 using the adjustment support system 21 .
  • the worker activates the posture confirmation function of the camera 13 in the adjustment support system 21 by operating the mobile terminal 22 .
  • the display control unit 25 acquires from the measurement unit 27 the measurement result of the inclination of the normal line of the display 24 with respect to the vertical direction.
  • the display control unit 25 generates image information representing the tilt of the display 24 measured by the measurement unit 27 .
  • the image generated by the display control unit 25 is an image showing the vertical and horizontal tilts of the display 24 by the scales 32 and the arrows 33 pointing to the scales 32 .
  • the display control unit 25 outputs a signal representing the generated image and the preset image of the calibration pattern 34 to the display 24 .
  • calibration pattern 34 is an image of a checkerboard pattern.
  • a scale 32 and an arrow 33 representing the tilt of the display 24 are arranged along the perimeter of the calibration pattern 34 .
  • the display 24 displays an image representing the calibration pattern 34 and the inclination of the display 24 based on the signal output by the display control unit 25 .
  • An example of the display on the display 24 is shown in FIG.
  • the worker faces the display 24 upward while holding the mobile terminal 22 at a height where the display 24 can be viewed.
  • the operator refers to the scale 32 and the arrow 33 displayed on the display 24 to adjust the orientation of the display 24 so that the normal line of the display 24 faces the vertical direction. That is, the worker adjusts the orientation of the display 24 so that the surface is horizontal.
  • the worker may adjust the orientation of the display 24 while receiving the voice notification from the notification unit 29 .
  • the image acquisition unit 23 acquires from the measurement unit 27 the measurement result of the inclination of the normal line of the display 24 with respect to the vertical direction.
  • the image acquisition unit 23 determines whether the inclination of the normal line of the display 24 measured by the measurement unit 27 is within the calculation range.
  • the calculation range is, for example, a range of inclination of the display 24 that is set in advance with respect to the vertical direction, which is the running direction of the car 9, that is allowed when confirming the posture of the camera 13, or the like.
  • the calculation range may be the same range as the notification range.
  • the image acquiring unit 23 designates the time when the measurement was performed, and the camera 13 captures the image from the central management device 20. to get the image. Thereby, the image acquisition unit 23 acquires an image captured by the camera 13 when the surface of the display 24 is horizontal within the calculation range.
  • the detection unit 26 detects the calibration pattern 34 in the image acquired by the image acquisition unit 23 .
  • the display control unit 25 generates an image representing failure in detection of the calibration pattern 34 .
  • the image is, for example, an image of the calibration pattern 34 with different colors.
  • the display control unit 25 outputs a signal representing the generated image to the display 24 .
  • the display 24 displays an image indicating that the detection of the calibration pattern 34 has failed, based on the signal output by the display control section 25 .
  • the display control unit 25 does not output to the display 24 the signal of the image indicating the detection failure of the calibration pattern 34 when the detection unit 26 has successfully detected the calibration pattern 34 .
  • the worker can determine whether the detection of the calibration pattern 34 has been successful or not by the presence or absence of the display on the display 24 of an image indicating the failure of the detection of the calibration pattern 34, or the color of the calibration pattern 34 displayed on the display 24, or the like. information can be obtained.
  • the orientation calculation unit 28 calculates the orientation of the camera 13 using the detection result of the calibration pattern 34 by the detection unit 26 in the image acquired by the image acquisition unit 23 .
  • the inclination of the display 24 displaying the calibration pattern 34 detected from the image acquired by the image acquisition unit 23 corresponds to the inclination of the normal line of the display 24 with respect to the optical axis of the camera 13 .
  • the image acquired by the image acquisition unit 23 is an image captured by the camera 13 when the surface of the display 24 is horizontal within the calculation range, the inclination of the display 24 in the image is the optical axis of the camera 13 with respect to the vertical direction.
  • the orientation calculation unit 28 calculates the inclination of the optical axis of the camera 13 with respect to the vertical direction as the orientation of the camera 13 based on the result of detection of the calibration pattern 34 by the detection unit 26 from the image acquired by the image acquisition unit 23. do.
  • the determination unit 30 determines whether the posture of the camera 13 is abnormal based on the difference between the posture of the camera 13 calculated by the posture calculation unit 28 and the target posture. Further, the adjustment amount calculation unit 31 calculates the adjustment amount of the orientation of the camera 13 based on the difference between the orientation of the camera 13 calculated by the orientation calculation unit 28 and the target orientation.
  • the display control unit 25 outputs to the display 24 a signal representing the determination result by the determination unit 30 and the adjustment amount calculated by the adjustment amount calculation unit 31 .
  • the display 24 displays the determination result of the posture abnormality of the camera 13 and the calculated adjustment amount based on the signal output by the display control unit 25 . Based on the information displayed on the display 24, the operator can easily determine whether or not the attitude of the camera 13 has been adjusted.
  • the determination result by the determination unit 30 may be stored in a storage element or the like mounted on the mobile terminal 22 .
  • the result of confirming that the posture of the camera 13 has been adjusted can be left as a work record of maintenance and inspection work.
  • the worker corrects the posture of the camera 13 using the adjustment support system 21 when the posture of the camera 13 is determined to be abnormal. At this time, the worker activates the posture correction function of the camera 13 in the adjustment support system 21 by operating the mobile terminal 22 .
  • FIG. 4 shows an example of the display on the display 24 in the posture correction function.
  • FIG. 4 an example of an image of the pit 4 seen from above is shown.
  • the image acquisition unit 23 acquires a past image taken by the camera 13 that was used when the orientation calculation unit 28 calculated the orientation of the camera 13 immediately before.
  • the image acquisition unit 23 acquires, as a past image, an image at a time specified in the function of checking the posture of the camera 13 that was activated immediately before, for example.
  • the image acquisition unit 23 continuously acquires images captured by the camera 13 by designating the current time.
  • the display control unit 25 generates an image in which the past image acquired by the image acquisition unit 23 and the current image continuously acquired by the image acquisition unit 23 are superimposed.
  • the display control unit 25 generates an image by, for example, alpha blending in which a translucent past image is superimposed on the current image.
  • the display control unit 25 displays the current image as a monochrome image.
  • the display control unit 25 displays past images as color images.
  • the display control unit 25 performs alpha blending using an alpha channel whose transparency increases from the center of the past image toward the outer periphery so that the image of the wall surface of the hoistway 2, etc. is not displayed in the past image. conduct.
  • the display control unit 25 outputs a signal representing the generated image to the display 24 .
  • the display control unit 25 may output to the display 24 information on the adjustment amount calculated by the function of checking the posture of the camera 13 that was activated immediately before, together with the generated image.
  • the display 24 displays the generated image based on the signal output by the display control unit 25.
  • the current image is indicated by a solid line.
  • past images are indicated by dashed lines. Since the current image and the past image are superimposed and displayed in this way, the operator can correct the posture of the camera 13 while confirming the amount of change in the posture of the camera 13 .
  • the worker confirms the posture of the camera 13. - ⁇ The worker repeats posture correction and confirmation until the posture of the camera 13 is determined to be normal.
  • FIG. 5 is a flow chart showing an example of the operation of the adjustment support system 21 according to the first embodiment.
  • FIG. 5 shows an example of processing of the mobile terminal 22 related to posture confirmation of the camera 13 .
  • the processing in FIG. 5 is started when the posture confirmation function of the camera 13 is activated.
  • step S ⁇ b>101 the display control unit 25 outputs a signal including information of the image of the calibration pattern 34 to the display 24 .
  • the display 24 displays information including an image of the calibration pattern 34 on its surface.
  • step S102 the image acquisition unit 23 determines whether the surface of the display 24 is horizontal within the calculation range based on the measurement result of the measurement unit 27. If the determination result is No, the process in the adjustment support system 21 proceeds to step S101. When the determination result is Yes, the process in the adjustment support system 21 proceeds to step S103.
  • step S103 the image acquisition unit 23 acquires an image captured by the camera 13 from the central management device 20 by designating the measurement time at which the surface of the display 24 was determined to be horizontal in step S102. After that, the processing in the adjustment support system 21 proceeds to step S104.
  • step S104 the detection unit 26 determines whether the calibration pattern 34 has been detected in the image acquired by the image acquisition unit 23. If the determination result is No, the process in the adjustment support system 21 proceeds to step S105. When the determination result is Yes, the processing in the adjustment support system 21 proceeds to step S106.
  • step S ⁇ b>105 the display control unit 25 outputs to the display 24 an image signal indicating that the detection of the calibration pattern 34 has failed.
  • the display 24 displays an image representing detection failure based on the signal output from the display control unit 25 .
  • step S106 the posture calculation unit 28 calculates the posture of the camera 13 based on the tilt of the image of the display 24 displaying the calibration pattern 34 detected by the detection unit 26 from the image acquired by the image acquisition unit 23. do.
  • the orientation calculation unit 28 calculates the orientation of the camera 13 using the fact that the image is an image captured when the surface of the display 24 is horizontal within the calculation range. After that, the processing in the adjustment support system 21 proceeds to step S107.
  • step S107 the determination unit 30 determines whether the orientation of the camera 13 is abnormal based on the difference between the orientation of the camera 13 calculated by the orientation calculation unit 28 and the target orientation. Further, the adjustment amount calculation unit 31 calculates the adjustment amount of the orientation of the camera 13 based on the difference between the orientation of the camera 13 calculated by the orientation calculation unit 28 and the target orientation.
  • the display control unit 25 outputs to the display 24 a signal representing the determination result by the determination unit 30 and the adjustment amount calculated by the adjustment amount calculation unit 31 .
  • the display 24 displays the determination result of the posture abnormality of the camera 13 and the calculated adjustment amount based on the signal output by the display control unit 25 .
  • the adjustment support system 21 includes the image acquisition unit 23, the display 24, the detection unit 26, and the orientation calculation unit 28.
  • the image acquisition unit 23 acquires an image captured by the camera 13 .
  • a camera 13 is provided on a car 9 running in the hoistway 2 of the elevator 1 .
  • the display 24 shows on its surface a calibration pattern 34 that is captured by the camera 13 in the hoistway 2 .
  • the detection unit 26 detects the calibration pattern 34 in the image acquired by the image acquisition unit 23 .
  • the posture calculation unit 28 calculates the posture of the camera 13 based on the inclination of the normal line of the surface of the display 24 showing the calibration pattern 34 detected by the detection unit 26 with respect to the optical axis of the camera 13 .
  • the adjustment support system 21 also includes a display control unit 25 .
  • the display control section 25 outputs a signal representing the calibration pattern 34 .
  • the display 24 shows the calibration pattern 34 on the surface by display based on the signal output by the display control section 25 .
  • the attitude of the camera 13 is calculated based on the inclination of the calibration pattern 34 shown on the display 24 after the attitude of the camera 13 is adjusted.
  • the operator can more easily determine whether the posture of the camera 13 has been adjusted.
  • the adjustment support system 21 also includes a measurement unit 27 .
  • the measurement unit 27 is provided integrally with the display 24 .
  • the measurement unit 27 measures the inclination of the normal line of the display 24 with respect to the running direction of the car 9 .
  • the orientation calculation unit 28 calculates the orientation of the camera 13 based on the image captured by the camera 13 when the inclination measured by the measurement unit 27 is within a predetermined calculation range with respect to the traveling direction of the car 9 .
  • the inclination of the camera 13 with respect to the running direction of the car 9 is calculated as the posture.
  • the worker holds the portable terminal 22 displaying the calibration pattern 34 on the display 24 and points it at the camera 13 . Since the distance from the camera 13 to the display 24 is reduced, there is no need to bring equipment showing a large calibration pattern 34 into the pit 4.
  • the surface of the display 24 showing the calibration pattern 34 in the image acquired by the image acquisition unit 23 is tilted at a predetermined angle. It is guaranteed that it is within the calculation range. As a result, the posture of the camera 13 can be calculated more easily and accurately.
  • the adjustment support system 21 also includes a notification unit 29 .
  • the notification unit 29 notifies information as to whether or not the tilt measured by the measurement unit 27 is within a predetermined notification range with respect to the traveling direction of the car 9 .
  • the worker may raise the display 24 higher than the line of sight. Even in such a case, the worker can easily adjust the inclination of the display 24 by the voice notification from the notification unit 29 .
  • the display control unit 25 outputs a signal representing the inclination measured by the measurement unit 27 to the display 24 that can be viewed by the operator who performs the adjustment work of the camera 13 .
  • the display control unit 25 outputs a signal indicating success or failure of detection of the calibration pattern 34 by the detection unit 26 to the display 24 .
  • the height of the camera 13 allows the worker to face the camera 13 while viewing the display 24 .
  • the operator can visually confirm the inclination of the display 24, and thus can easily adjust the inclination of the display 24.
  • FIG. since the operator can visually confirm whether the detection of the calibration pattern 34 is successful or not, it becomes easier to adjust the position of the display 24 or the like.
  • the display control unit 25 superimposes the past image captured by the camera 13 and the current image captured by the camera 13, which was used when the attitude calculation unit 28 calculated the attitude of the camera 13 immediately before. output to the display 24.
  • the worker can check the adjustment amount for posture correction of the camera 13 on the display 24 during posture correction work. This makes it easier to correct the posture of the camera 13 .
  • the adjustment support system 21 also includes a determination unit 30 .
  • the determination unit 30 determines whether the posture of the camera 13 is abnormal based on the difference between the posture of the camera 13 calculated by the posture calculation unit 28 and a preset target posture.
  • the adjustment support system 21 also includes an adjustment amount calculator 31 .
  • the adjustment amount calculation unit 31 calculates an adjustment amount for adjusting the orientation of the camera 13 to a preset target orientation based on the orientation of the camera 13 calculated by the orientation calculation unit 28 .
  • the display control unit 25 may superimpose the past image captured by the camera 13 when the camera 13 is in the target posture and the current image captured by the camera 13 and output it to the display 24 .
  • the image when the posture of the camera 13 is the target posture is, for example, the image when the determination unit 30 determines that there is no abnormality in the posture of the camera 13 in the previous maintenance and inspection work.
  • the image when the orientation of the camera 13 is the target orientation may be, for example, an image captured when the camera 13 is initially installed.
  • the worker can correct the posture of the camera 13 while checking the target image on the display 24. This makes it easier to correct the posture of the camera 13 .
  • the traveling direction of the car 9 may be inclined from the vertical direction. That is, the elevator 1 may be an oblique elevator.
  • the measurement unit 27 measures the inclination of the normal to the surface of the display 24 from the running direction of the car 9 .
  • the worker may perform initialization processing for storing the running direction of the car 9 in the measuring unit 27 before the operation of adjusting the posture of the camera 13 .
  • the initialization process is performed, for example, with the portable terminal 22 placed on a guide rail along the running direction of the car 9 .
  • the measurement unit 27 can measure the inclination of the car 9 from the traveling direction.
  • the camera 13 may be provided on the top of the car 9 . At this time, the worker sits on the outer upper part of the car 9 and performs the work of adjusting the attitude of the camera 13 . Also, the cameras 13 may be provided both above and below the car 9 .
  • the mobile terminal 22 does not have the measurement unit 27 that outputs the measurement result as a signal. good too.
  • the worker performs an operation to start posture calculation through the portable terminal 22 at the timing when the tilt of the display 24 is confirmed, for example.
  • the image acquisition unit 23 acquires the time when the operator performed the operation, and acquires the image captured by the camera 13 .
  • FIG. 6 is a hardware configuration diagram of main parts of the adjustment support system 21 according to the first embodiment.
  • the processing circuitry comprises at least one processor 100a and at least one memory 100b.
  • the processing circuitry may include at least one piece of dedicated hardware 200 in conjunction with, or as an alternative to, processor 100a and memory 100b.
  • each function of the adjustment support system 21 is implemented by software, firmware, or a combination of software and firmware. At least one of software and firmware is written as a program.
  • the program is stored in memory 100b.
  • the processor 100a realizes each function of the adjustment support system 21 by reading and executing the programs stored in the memory 100b.
  • the processor 100a is also called a CPU (Central Processing Unit), a processing device, an arithmetic device, a microprocessor, a microcomputer, or a DSP.
  • the memory 100b is composed of, for example, nonvolatile or volatile semiconductor memory such as RAM, ROM, flash memory, EPROM, and EEPROM.
  • the processing circuit may be implemented, for example, as a single circuit, multiple circuits, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof.
  • Each function of the adjustment support system 21 can be implemented by a processing circuit. Alternatively, each function of the adjustment support system 21 can be collectively realized by a processing circuit. A part of each function of the adjustment support system 21 may be realized by the dedicated hardware 200 and the other part may be realized by software or firmware. Thus, the processing circuit implements each function of the adjustment support system 21 with dedicated hardware 200, software, firmware, or a combination thereof.
  • Embodiment 2 In the second embodiment, the differences from the example disclosed in the first embodiment will be described in detail. Any feature of the example disclosed in the first embodiment may be employed for features not described in the second embodiment.
  • FIG. 7 is a block diagram showing the configuration of the adjustment support system 21 according to the second embodiment.
  • the image acquisition unit 23, the detection unit 26, the attitude calculation unit 28, the determination unit 30, and the adjustment amount calculation unit 31 are performed by a device external to the mobile terminal 22. may be installed in In this example, the image acquisition unit 23, the detection unit 26, the orientation calculation unit 28, the determination unit 30, and the adjustment amount calculation unit 31 are installed in a device such as the central management device 20, which is arranged in an information center.
  • the image acquisition unit 23 installed in the central management device 20 acquires images captured by the camera 13 via the communication network 19.
  • the image acquiring unit 23 stores the acquired image in association with the time when the image was taken.
  • FIG. 8 is a flow chart showing an example of the operation of the adjustment support system 21 according to the second embodiment.
  • FIG. 8 shows an example of adjustment support processing related to confirming the posture of the camera 13 .
  • the processing of the mobile terminal 22 in FIG. 8 is started when the posture confirmation function of the camera 13 is activated.
  • step S ⁇ b>201 the display control unit 25 outputs a signal including information of the image of the calibration pattern 34 to the display 24 .
  • the display 24 displays information including an image of the calibration pattern 34 on its surface.
  • step S202 the mobile terminal 22 determines whether the surface of the display 24 is horizontal within the calculation range based on the measurement result of the measurement unit 27, similar to the image acquisition unit 23 in step S101. If the determination result is No, the processing of the mobile terminal 22 in the adjustment support system 21 proceeds to step S201. If the determination result is Yes, the processing of the mobile terminal 22 in the adjustment support system 21 proceeds to step S203.
  • step S203 the mobile terminal 22 designates the time of measurement when the surface of the display 24 was determined to be horizontal in step S202, and transmits a posture confirmation request to the central management device 20. After that, the processing of the mobile terminal 22 in the adjustment support system 21 proceeds to step S204.
  • step S ⁇ b>301 the central management device 20 determines whether or not a posture confirmation request has been received from the mobile terminal 22 . If the determination result is No, the processing of the central management device 20 in the adjustment support system 21 proceeds to step S301 again. If the determination result is Yes, the processing of the central management device 20 in the coordination support system 21 proceeds to step S302.
  • step S302 the detection unit 26 determines whether the calibration pattern 34 has been detected in the image acquired by the image acquisition unit 23 as the image captured at the time specified in the posture confirmation request. If the determination result is No, the processing of the central management device 20 in the coordination support system 21 proceeds to step S303. If the determination result is Yes, the processing of the central management device 20 in the coordination support system 21 proceeds to step S304.
  • step S303 the central management device 20 transmits to the mobile terminal 22 information indicating that the detection unit 26 failed to detect the calibration pattern 34. After that, the processing of the central management device 20 in the adjustment support system 21 proceeds to step S301.
  • step S304 the posture calculation unit 28 calculates the posture of the camera 13 based on the tilt of the image of the display 24 displaying the calibration pattern 34 detected by the detection unit 26 from the image acquired by the image acquisition unit 23. do.
  • the orientation calculation unit 28 calculates the orientation of the camera 13 using the fact that the image is an image captured when the surface of the display 24 is horizontal within the calculation range. After that, the processing of the central management device 20 in the adjustment support system 21 proceeds to step S305.
  • step S305 the determination unit 30 determines whether the orientation of the camera 13 is abnormal based on the difference between the orientation of the camera 13 calculated by the orientation calculation unit 28 and the target orientation. Further, the adjustment amount calculation unit 31 calculates the adjustment amount of the orientation of the camera 13 based on the difference between the orientation of the camera 13 calculated by the orientation calculation unit 28 and the target orientation.
  • the central management device 20 transmits to the mobile terminal 22 information representing the determination result by the determination unit 30 and the adjustment amount calculated by the adjustment amount calculation unit 31 . After that, the processing of the central management device 20 in the adjustment support system 21 relating to confirmation of the attitude of the camera 13 ends.
  • step S ⁇ b>204 the mobile terminal 22 determines whether it has received from the central management device 20 information indicating that the detection unit 26 has failed to detect the calibration pattern 34 .
  • the processing of the mobile terminal 22 in the adjustment support system 21 proceeds to step S205. If the determination result is No, the processing of the mobile terminal 22 in the adjustment support system 21 proceeds to step S206.
  • step S ⁇ b>205 the display control unit 25 outputs to the display 24 an image signal indicating that the detection of the calibration pattern 34 has failed, based on the information received from the central management device 20 .
  • the display 24 displays an image representing detection failure based on the signal output from the display control unit 25 .
  • step S ⁇ b>206 the display control unit 25 outputs to the display 24 a signal representing the determination result of the determination unit 30 and the adjustment amount calculated by the adjustment amount calculation unit 31 based on the information received from the central management device 20 .
  • the display 24 displays the determination result of the posture abnormality of the camera 13 and the calculated adjustment amount based on the signal output by the display control unit 25 .
  • the image acquisition unit 23, the detection unit 26, the orientation calculation unit 28, the determination unit 30, and the adjustment amount calculation unit 31 are included in the central management device 20. to be installed. Even with such a configuration, the orientation of the camera 13 is calculated based on the inclination of the calibration pattern 34 shown on the display 24 after the orientation of the camera 13 is adjusted. As a result, the operator can more easily determine whether the posture of the camera 13 has been adjusted. In addition, it is possible to record the confirmation result that the posture of the camera 13 has been adjusted together with the image. This makes it easier to manage the adjustment work of the camera 13 .
  • Embodiment 3 In the third embodiment, points different from the examples disclosed in the first or second embodiment will be described in detail. For features not described in the third embodiment, features of any of the examples disclosed in the first embodiment or the second embodiment may be employed.
  • the configuration of the adjustment support system 21 is the same as the configuration shown in the block diagram of FIG.
  • FIG. 9 is a flow chart showing an example of the operation of the adjustment support system 21 according to the third embodiment.
  • FIG. 9 shows an example of processing of the mobile terminal 22 related to posture confirmation of the camera 13 .
  • the processing of FIG. 9 is started when the posture confirmation function of the camera 13 is activated.
  • step S ⁇ b>401 the display control unit 25 outputs a signal including information of the image of the calibration pattern 34 to the display 24 .
  • the display 24 displays information including an image of the calibration pattern 34 on its surface.
  • step S402 the image acquisition unit 23 specifies the current time and acquires the image captured by the camera 13 from the central management device 20. After that, the processing in the adjustment support system 21 proceeds to step S403.
  • step S403 the detection unit 26 determines whether the calibration pattern 34 has been detected in the image acquired by the image acquisition unit 23. If the determination result is No, the processing in the adjustment support system 21 proceeds to step S404. If the determination result is Yes, the processing in the adjustment support system 21 proceeds to step S405.
  • step S ⁇ b>404 the display control unit 25 outputs to the display 24 an image signal indicating that the detection of the calibration pattern 34 has failed.
  • the display 24 displays an image representing detection failure based on the signal output from the display control unit 25 .
  • step S405 the attitude calculation unit 28 obtains the measurement result of the measurement unit 27 at the time when the image acquired by the image acquisition unit 23 was captured, with respect to the inclination of the normal line of the display 24 with respect to the vertical direction, which is the traveling direction of the car 9. get. After that, the processing in the adjustment support system 21 proceeds to step S406.
  • step S406 the posture calculation unit 28 calculates the posture of the camera 13 based on the tilt of the image of the display 24 displaying the calibration pattern 34 detected by the detection unit 26 from the image acquired by the image acquisition unit 23. do.
  • the orientation calculation unit 28 calculates the orientation of the camera 13 using the inclination of the normal line of the display 24 with respect to the vertical direction at the time when the image was captured, which was acquired in step S405.
  • the attitude calculation unit 28 uses the detection result of the detection unit 26 to calculate the relationship between the orientation of the optical axis of the camera 13 and the orientation of the normal line of the display 24 .
  • the posture calculation unit 28 acquires the relationship between the direction of the normal line of the display 24 and the vertical direction from the measurement results obtained by the measurement unit 27 .
  • the attitude calculation unit 28 calculates the orientation of the optical axis of the camera 13 and the orientation of the normal to the display 24 based on the relationship between the orientation of the optical axis of the camera 13 and the orientation of the normal to the display 24, and the relationship between the orientation of the normal to the display 24 and the vertical direction. Calculate the vertical relationship.
  • the orientation calculation unit 28 calculates the orientation of the camera 13 from the relationship thus calculated. After that, the processing in the adjustment support system 21 proceeds to step S407.
  • step S407 the determination unit 30 determines whether the orientation of the camera 13 is abnormal based on the difference between the orientation of the camera 13 calculated by the orientation calculation unit 28 and the target orientation. Further, the adjustment amount calculation unit 31 calculates the adjustment amount of the orientation of the camera 13 based on the difference between the orientation of the camera 13 calculated by the orientation calculation unit 28 and the target orientation.
  • the display control unit 25 outputs to the display 24 a signal representing the determination result by the determination unit 30 and the adjustment amount calculated by the adjustment amount calculation unit 31 .
  • the display 24 displays the determination result of the posture abnormality of the camera 13 and the calculated adjustment amount based on the signal output by the display control unit 25 .
  • the attitude calculation unit 28 of the adjustment support system 21 measures The tilt of the display 24 is acquired. Based on the acquired tilt, the posture calculation unit 28 calculates the tilt of the camera 13 with respect to the running direction of the car 9 as the posture of the camera 13 .
  • the attitude of the camera 13 can be calculated as long as the misalignment is such that the detection unit 26 can detect the calibration pattern 34. become. This makes it easier to calculate the orientation of the camera 13 .
  • Embodiment 4 In the fourth embodiment, the differences from the examples disclosed in the first to third embodiments will be described in detail. For the features not described in the fourth embodiment, any features of the examples disclosed in the first to third embodiments may be employed.
  • FIG. 10 is a block diagram showing the configuration of the adjustment support system 21 according to the fourth embodiment.
  • the mobile terminal 22 includes a calibration plate 35.
  • the calibration plate 35 is a plate-like member that shows the calibration pattern 34 by means of an image pre-applied on its surface.
  • the calibration plate 35 is an example of a presentation section.
  • an image of a calibration pattern 34 is applied, for example by printing or labeling.
  • the calibration plate 35 is placed on the back of the mobile terminal 22 , i.e. on the opposite side of the display 24 .
  • the calibration plate 35 may be the rear portion of the housing of the mobile terminal 22 itself.
  • the inclination of the measurement unit 27 itself corresponds to the inclination of the calibration plate 35 .
  • the measurement unit 27 measures the inclination of the normal to the surface of the calibration plate 35 from the vertical direction.
  • the measurement unit 27 may indirectly measure the inclination of the normal line of the calibration plate 35 with respect to the vertical direction from the inclination with respect to other directions.
  • FIG. 11 is a diagram showing an example of adjusting the posture of camera 13 using adjustment support system 21 according to the fourth embodiment.
  • FIG. 11 a perspective view of the hoistway 2 during adjustment work is shown.
  • the worker activates the posture confirmation function of the camera 13 in the adjustment support system 21 by operating the mobile terminal 22.
  • the display control unit 25 acquires from the measurement unit 27 the measurement result of the inclination of the normal line of the calibration plate 35 with respect to the vertical direction.
  • the display control unit 25 generates image information such as a scale 32 and an arrow 33 representing the inclination of the calibration plate 35 measured by the measurement unit 27 .
  • the display control unit 25 outputs a signal representing the generated image to the display 24 .
  • the worker faces the calibration plate 35 upward while holding the mobile terminal 22 .
  • the worker can turn the calibration plate 35 upward while checking the display 24 from below by holding the portable terminal 22 above the line of sight.
  • the operator refers to the scale 32 and the arrow 33 displayed on the display 24 to adjust the orientation of the calibration plate 35 so that the normal line of the calibration plate 35 faces the vertical direction. That is, the worker adjusts the orientation of the calibration plate 35 so that the surface is horizontal.
  • the notification unit 29 notifies by voice whether or not the inclination of the normal line of the calibration plate 35 measured by the measurement unit 27 is within the notification range.
  • the worker may adjust the orientation of the calibration plate 35 while receiving the voice notification from the notification unit 29 .
  • the image acquisition unit 23 acquires from the measurement unit 27 the measurement result of the inclination of the normal line of the calibration plate 35 with respect to the vertical direction.
  • the image acquisition unit 23 determines whether the inclination of the normal line of the calibration plate 35 measured by the measurement unit 27 is within the calculation range.
  • the image acquisition unit 23 designates the time when the measurement was performed, and receives the camera 13 from the central management device 20. Get the captured image. Thereby, the image acquisition unit 23 acquires an image captured by the camera 13 when the surface of the calibration plate 35 is horizontal within the calculation range.
  • the detection unit 26 detects the calibration pattern 34 in the image acquired by the image acquisition unit 23 .
  • the display control unit 25 generates an image representing failure in detection of the calibration pattern 34 .
  • the image is, for example, a character string or an icon representing detection failure.
  • the display control unit 25 outputs a signal representing the generated image to the display 24 .
  • the display 24 displays an image indicating that the detection of the calibration pattern 34 has failed, based on the signal output by the display control section 25 .
  • the display control unit 25 does not output to the display 24 the signal of the image indicating the detection failure of the calibration pattern 34 when the detection unit 26 has successfully detected the calibration pattern 34 .
  • the operator can obtain information on the success or failure of the detection of the calibration pattern 34 based on whether or not an image representing the failure of the detection of the calibration pattern 34 is displayed on the display 24 .
  • the orientation calculation unit 28 calculates the orientation of the camera 13 using the detection result of the calibration pattern 34 by the detection unit 26 in the image acquired by the image acquisition unit 23 .
  • the inclination of the calibration plate 35 representing the calibration pattern 34 detected from the image acquired by the image acquisition unit 23 corresponds to the inclination of the normal line of the calibration plate 35 with respect to the optical axis of the camera 13 .
  • the image acquired by the image acquiring unit 23 is an image captured by the camera 13 when the surface of the calibration plate 35 is horizontal within the calculation range. Corresponds to the tilt of the optical axis.
  • the orientation calculation unit 28 calculates the inclination of the optical axis of the camera 13 with respect to the vertical direction as the orientation of the camera 13 based on the result of detection of the calibration pattern 34 by the detection unit 26 from the image acquired by the image acquisition unit 23. do.
  • the adjustment support system 21 includes the image acquisition section 23, the calibration plate 35, the detection section 26, and the orientation calculation section .
  • the image acquisition unit 23 acquires an image captured by the camera 13 .
  • a camera 13 is provided on a car 9 running in the hoistway 2 of the elevator 1 .
  • the calibration plate 35 shows on its surface a calibration pattern 34 photographed by the camera 13 in the hoistway 2 .
  • the detection unit 26 detects the calibration pattern 34 in the image acquired by the image acquisition unit 23 .
  • the posture calculation unit 28 calculates the posture of the camera 13 based on the inclination of the normal line of the surface of the calibration plate 35 showing the calibration pattern 34 detected by the detection unit 26 with respect to the optical axis of the camera 13 .
  • the calibration plate 35 shows the calibration pattern 34 by means of an image pre-applied to its surface.
  • the attitude of the camera 13 is calculated based on the inclination of the calibration pattern 34 shown on the calibration plate 35 after the attitude of the camera 13 is adjusted.
  • the operator can more easily determine whether the posture of the camera 13 has been adjusted.
  • the display 24 is arranged on the opposite side of the surface of the calibration plate 35 .
  • the worker can easily bring the surface of the calibration plate 35 closer to the camera 13 while checking the display on the display 24 .
  • the display 24 and the calibration plate 35 are integrated and easy to handle, the workability of adjusting the camera 13 is improved.
  • the mobile terminal 22 may be a dedicated device for the adjustment support system 21, for example. At this time, the mobile terminal 22 may not have the display 24 and the display control device.
  • the calculation result of the posture by the posture calculation unit 28 is recorded in the central management device 20, for example.
  • the calibration plate 35 may be a separate device from the mobile terminal 22 .
  • the measurement unit 27 is, for example, an acceleration sensor or a tilt sensor provided integrally with the calibration plate 35 .
  • the measurement unit 27 communicates measurement results with the mobile terminal 22, the central management device 20, or the like by wire or wirelessly.
  • Embodiment 5 In the fifth embodiment, the differences from the examples disclosed in the first to fourth embodiments will be described in detail. Any of the features disclosed in the first to fourth embodiments may be employed for features not described in the fifth embodiment.
  • FIG. 12 is a perspective view of the mobile terminal 22 according to Embodiment 5.
  • FIG. 12 is a perspective view of the mobile terminal 22 according to Embodiment 5.
  • a holder 36 is attached to the mobile terminal 22 in the adjustment support system 21 .
  • the holder 36 has a handle 37 and a stabilizer 38 .
  • a handle 37 is a portion held by an operator.
  • the stabilizer 38 is a part that holds the portable terminal 22 so as to maintain the inclination of the presentation section such as the display 24 or the calibration plate 35 . Note that when the calibration plate 35 separate from the mobile terminal 22 is used as the presentation section, the stabilizer 38 holds the calibration plate 35 .
  • Stabilizer 38 maintains the tilt of a presentation unit such as display 24 by, for example, a gimbal mechanism.
  • the worker When confirming the posture of the camera 13, the worker holds the handle 37 of the holder 36 and turns the surface of the presentation part such as the display 24 or the calibration plate 35 upward. At this time, the stabilizer 38 suppresses the change in the tilt of the presentation portion showing the calibration pattern 34 . Since the calibration pattern 34 can be stably photographed, the orientation of the camera 13 can be confirmed more stably.
  • Embodiment 6 In the sixth embodiment, the differences from the examples disclosed in the first to fifth embodiments will be described in detail. For the features not described in the sixth embodiment, any features of the examples disclosed in the first to fifth embodiments may be adopted.
  • FIG. 13 is a block diagram showing the configuration of the adjustment support system 21 according to the sixth embodiment.
  • the mobile terminal 22 includes a position calculator 39 .
  • the position calculation unit 39 is a part that calculates the position of the camera 13 using the detection result of the calibration pattern 34 by the detection unit 26 in the image acquired by the image acquisition unit 23 .
  • the position calculator 39 calculates the position of the camera 13 in a horizontal plane perpendicular to the vertical direction, which is the running direction of the car 9 .
  • FIG. 14 is a diagram showing an example of adjusting the posture of camera 13 using adjustment support system 21 according to the sixth embodiment.
  • FIG. 14 a perspective view of the hoistway 2 during adjustment work is shown.
  • the worker puts the buffer cap 40 on the top of the first buffer 16 so as to secure a working space when working in the pit 4 .
  • the buffer cap 40 is, for example, a vertically elongated device.
  • the top of the buffer cap 40 has a flat horizontal surface facing upwards.
  • the camera 13 is arranged at a position shifted horizontally from the central axis of the first buffer 16 . Accordingly, even when the car 9 descends and approaches the buffer cap 40 covering the first buffer 16, the camera 13 does not collide with the buffer cap 40. - ⁇
  • the worker activates the posture confirmation function of the camera 13 in the adjustment support system 21 by operating the mobile terminal 22 .
  • the operator positions the mobile device 22 on top of the buffer cap 40 so that the surface, such as the display 24, showing the calibration pattern 34 faces upward.
  • the image processing unit specifies the current time and acquires the image captured by the camera 13 from the central management device 20.
  • the image processing unit sets the time after the portable terminal 22 is placed on the top of the buffer cap 40, such as the time after a preset time has elapsed since the posture confirmation function was activated. .
  • the image processing unit detects that the mobile terminal 22 is in the buffer cap 40 based on the measurement result of an acceleration sensor mounted on the mobile terminal 22, for example. may be determined to be placed at the top of the When the mobile device 22 is placed on top of the buffer cap 40, the surface of the display 24 is horizontal. Therefore, the image acquisition unit 23 can acquire an image captured by the camera 13 when the surface of the display 24 is horizontal.
  • the detection unit 26 detects the calibration pattern 34 in the image acquired by the image acquisition unit 23 .
  • the orientation calculation unit 28 calculates the orientation of the camera 13 using the detection result of the calibration pattern 34 by the detection unit 26 in the image acquired by the image acquisition unit 23 .
  • the inclination of the display 24 displaying the calibration pattern 34 detected from the image acquired by the image acquisition unit 23 corresponds to the inclination of the normal line of the display 24 with respect to the optical axis of the camera 13 .
  • the image acquired by the image acquiring unit 23 is an image captured by the camera 13 when the surface of the display 24 is horizontal
  • the inclination of the display 24 in the image corresponds to the inclination of the optical axis of the camera 13 with respect to the vertical direction. do.
  • the orientation calculation unit 28 calculates the inclination of the optical axis of the camera 13 with respect to the vertical direction as the orientation of the camera 13 based on the result of detection of the calibration pattern 34 by the detection unit 26 from the image acquired by the image acquisition unit 23. do.
  • the position calculation unit 39 calculates the position of the camera 13 using the detection result of the calibration pattern 34 by the detection unit 26 in the image acquired by the image acquisition unit 23 .
  • the position calculation unit 39 calculates the position after the determination unit 30 determines that there is no abnormality in the posture of the camera 13 calculated by the posture calculation unit 28, for example.
  • the posture of the camera 13 is the target posture
  • the center of the image captured by the camera 13 represents a place on the extended line of the trajectory of the camera 13 moving along the running direction of the car 9 .
  • the center of the image captured by the camera 13 represents the location vertically below the camera 13 .
  • the position calculation unit 39 calculates the position of the calibration pattern 34 relative to the first buffer 16 based on the position of the calibration pattern 34 on the image.
  • the horizontal position of the camera 13 can be calculated.
  • the determination unit 30 determines whether the position of the camera 13 is abnormal based on the position of the camera 13 calculated by the position calculation unit 39 . For example, when the position of the calibration pattern 34 on the image detected by the detection unit 26 and the distance between the center of the image are within a preset range, the determination unit 30 determines the positions of the camera 13 and the first buffer 16. It is determined that there is an abnormality in the position of the camera 13 because the deviation is not sufficient.
  • the worker corrects the position of the camera 13 using the adjustment support system 21 when the position of the camera 13 is determined to be abnormal.
  • the worker checks the position of the camera 13 after correcting the position of the camera 13 while referring to the display 24 .
  • the operator repeats position correction and confirmation until the position of the camera 13 is determined to be normal.
  • the presentation unit such as the display 24 may be attached to the top of the buffer cap 40 .
  • a presentation part such as a calibration plate 35 with a pre-applied calibration pattern 34 may be attached to the top of the buffer cap 40 .
  • the image of the calibration pattern 34 may be applied directly to the top of the buffer cap 40 . That is, the buffer cap 40 itself may serve as a presentation portion showing the calibration pattern 34 by means of an image previously applied to the top.
  • the portable terminal 22 having a presentation unit such as the display 24 is placed on top of the buffer cap 40 .
  • the buffer cap 40 is a device placed on the first buffer 16 during adjustment work of the camera 13 .
  • a first buffer 16 is arranged below the car 9 at the lower end of the hoistway 2 .
  • the calibration pattern 34 is easily detected. This makes it easier to calculate the orientation of the camera 13 . Also, the position of the top of the buffer cap 40 is determined by the dimensions of the first buffer 16 and the buffer cap 40 . For this reason, variations in the positional relationship between the surface such as the display 24 showing the calibration pattern 34 and the camera 13 are reduced depending on the operator. This makes it easier to manage the adjustment work of the camera 13 .
  • the adjustment support system 21 also includes a position calculator 39 .
  • the position calculator 39 calculates the position of the camera 13 with respect to the first buffer 16 based on the position of the calibration pattern 34 detected at the top of the buffer cap 40 by the detector 26 from the image captured by the camera 13 . .
  • the position of the camera 13 is calculated with reference to the first buffer 16 whose position is fixed. This allows the operator to more easily correct the position of camera 13 .
  • the adjustment support system according to the present disclosure can be applied to adjusting the posture of elevator cameras.

Landscapes

  • Engineering & Computer Science (AREA)
  • Civil Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Structural Engineering (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)

Abstract

エレベーターのカメラの姿勢が調整されたかをより容易に判断できる調整支援システムを提供する。調整支援システム(21)は、画像取得部(23)と、提示部(24、35)と、検出部(26)と、姿勢算出部(28)と、を備える。画像取得部(23)は、カメラ(13)が撮影する画像を取得する。カメラ(13)は、エレベーター(1)の昇降路(2)において走行するかご(9)に設けられる。提示部(24、35)は、昇降路(2)においてカメラ(13)に撮影される校正パターン(34)を表面に示す。検出部(26)は、画像取得部(23)が取得した画像において校正パターン(34)を検出する。姿勢算出部(28)は、検出部(26)が検出した校正パターン(34)を示している提示部(24、35)の表面の法線の、カメラ(13)の光軸に対する傾きに基づいて、カメラ(13)の姿勢を算出する。

Description

エレベーターのカメラの調整支援システム
 本開示は、エレベーターのカメラの調整支援システムに関する。
 特許文献1は、エレベーターの例を開示する。エレベーターにおいて、かごの下方にカメラが取り付けられる。カメラによって、昇降路の内部が撮影される。
日本特開昭63-123782号公報
 しかしながら、特許文献1のエレベーターのカメラの姿勢について、予め設定された目標姿勢からのずれが生じる場合がある。このとき、昇降路の内部の撮影対象がカメラの視野の外になる可能性があるので、カメラの姿勢を調整する必要がある。一方、カメラ本体の外観および撮影画像の目視のみでは、カメラの姿勢が調整されたかの判断が難しい場合がある。
 本開示は、このような課題の解決に係るものである。本開示は、エレベーターのカメラの姿勢が調整されたかをより容易に判断できる調整支援システムを提供する。
 本開示に係るエレベーターのカメラの調整支援システムは、エレベーターの昇降路において走行するかごに設けられたカメラが撮影する画像を取得する画像取得部と、前記昇降路において前記カメラに撮影される校正パターンを表面に示す提示部と、前記画像取得部が取得した画像において前記校正パターンを検出する検出部と、前記検出部が検出した前記校正パターンを示している前記提示部の前記表面の法線の、前記カメラの光軸に対する傾きに基づいて、前記カメラの姿勢を算出する姿勢算出部と、を備える。
 本開示に係る調整支援システムによれば、エレベーターのカメラの姿勢が調整されたかをより容易に判断できる。
実施の形態1に係るエレベーターの構成図である。 実施の形態1に係る調整支援システムの構成を示すブロック図である。 実施の形態1に係る調整支援システムを利用したカメラの姿勢の調整の例を示す図である。 実施の形態1に係る調整支援システムを利用したカメラの姿勢の調整の例を示す図である。 実施の形態1に係る調整支援システムの動作の例を示すフローチャートである。 実施の形態1に係る調整支援システムの主要部のハードウェア構成図である。 実施の形態2に係る調整支援システムの構成を示すブロック図である。 実施の形態2に係る調整支援システムの動作の例を示すフローチャートである。 実施の形態3に係る調整支援システムの動作の例を示すフローチャートである。 実施の形態4に係る調整支援システムの構成を示すブロック図である。 実施の形態4に係る調整支援システムを利用したカメラの姿勢の調整の例を示す図である。 実施の形態5に係る携帯端末の斜視図である。 実施の形態6に係る調整支援システムの構成を示すブロック図である。 実施の形態6に係る調整支援システムを利用したカメラの姿勢の調整の例を示す図である。
 本開示の対象を実施するための形態について添付の図面を参照しながら説明する。各図において、同一または相当する部分には同一の符号を付して、重複する説明は適宜に簡略化または省略する。なお、本開示の対象は以下の実施の形態に限定されることなく、本開示の趣旨を逸脱しない範囲において、実施の形態の任意の構成要素の変形、または実施の形態の任意の構成要素の省略が可能である。
 実施の形態1.
 図1は、実施の形態1に係るエレベーター1の構成図である。
 エレベーター1は、複数の階床を有する建物などに適用される。エレベーター1が適用される建物において、昇降路2が設けられる。昇降路2は、複数の階床にわたる空間である。昇降路2の上方において、機械室3が設けられる。昇降路2の下端部において、ピット4が設けられる。各々の階床において、乗場5が設けられる。乗場5は、昇降路2に隣接する場所である。各々の階床の乗場5において、図示されない乗場出入口が設けられる。乗場出入口は、昇降路2に通じる開口である。乗場出入口において、乗場ドア6が設けられる。乗場ドア6は、乗場5および昇降路2を区画するドアである。エレベーター1は、巻上機7と、主ロープ8と、かご9と、釣合い錘10と、制御盤11と、を備える。
 巻上機7は、例えば機械室3に配置される。例えばエレベーター1の機械室3が設けられない場合などに、巻上機7は、昇降路2の上部または下部などに配置されてもよい。巻上機7は、トルクを発生させるモーターと、当該モーターに回転駆動されるシーブと、を備える。
 主ロープ8は、巻上機7のシーブに巻き掛けられる。主ロープ8は、巻上機7のシーブの一方側においてかご9の荷重を支持する。主ロープ8は、巻上機7のシーブの他方側において釣合い錘10の荷重を支持する。巻上機7のシーブの一方側において主ロープ8にかかるかご9の荷重との釣合いは、巻上機7のシーブの他方側において主ロープ8にかかる釣合い錘10の荷重によって取られる。主ロープ8は、巻上機7のモーターが発生させるトルクによって、かご9側または釣合い錘10側のいずれか一方側が巻上機7のシーブに巻き上げられるように移動する。
 かご9は、昇降路2を走行方向に走行することで、かご9の内部に乗車しているエレベーター1の利用者などを複数の階床の間で輸送する装置である。この例において、かご9の走行方向は、鉛直方向である。かご9および釣合い錘10は、巻上機7による主ロープ8の移動に連動して、鉛直方向の互いに反対向きに昇降路2において走行する。かご9は、かごドア12を備える。かごドア12は、かご9の内部および外部を区画するドアである。かごドア12は、かご9がいずれかの階床に停止するときに、利用者などが乗降しうるように当該階床の乗場ドア6を連動させて開閉する。かご9は、カメラ13を備える。カメラ13は、昇降路2を撮影する機器である。カメラ13は、かご9の外部に取り付けられる。この例において、カメラ13は、かご9の下部に取り付けられる。カメラ13は、かご9の下方を撮影する。カメラ13の光軸は、かご9の走行方向である鉛直方向に平行に向けられる。カメラ13は、例えば、かご9において利用者などが内部に乗り込むかご室を支持するかご枠の下梁に、磁石などによって取り付けられる。このとき、下梁に取り付けられた落下防止の紐またはワイヤなどが、カメラ13に取り付けられていてもよい。
 制御盤11は、エレベーター1の動作を制御する部分である。制御盤11は、例えば機械室3に配置される。例えばエレベーター1の機械室3が設けられない場合などに、制御盤11は、昇降路2の上部または下部などに配置されてもよい。制御盤11によって制御されるエレベーター1の動作は、例えばかご9の走行などを含む。制御盤11は、エレベーター1の動作を制御しうるように、エレベーター1の状態の情報を取得する。制御盤11は、エレベーター1の状態の動作を取得しうるように、エレベーター1の機器に接続される。制御盤11に接続される機器は、例えば巻上機7および制御盤11の機器などを含む。また、制御盤11に接続される機器は、例えば乗場5または昇降路2などに設けられたセンサーまたはスイッチなどを含む。
 昇降路2において、一対の第1ガイドレール14と、一対の第2ガイドレール15と、が設けられる。一対の第1ガイドレール14は、かご9の走行を案内する機器である。一対の第1ガイドレール14は、昇降路2において、かご9の走行方向である鉛直方向に沿って平行に配置される。かご9は、一対の第1ガイドレール14の間に配置される。各々の第1ガイドレール14は、鉛直方向において複数の部分に分割されていてもよい。一対の第2ガイドレール15は、釣合い錘10の走行を案内する機器である。一対の第2ガイドレール15は、昇降路2において、釣合い錘10の走行方向である鉛直方向に沿って平行に配置される。釣合い錘10は、一対の第2ガイドレール15の間に配置される。各々の第2ガイドレール15は、鉛直方向において複数の部分に分割されていてもよい。
 ピット4において、第1バッファ16と、第2バッファ17と、が設けられる。第1バッファ16は、かご9が昇降路2の底部に衝突する場合の衝撃を緩和する装置である。第1バッファ16は、かご9の下方に配置される。第2バッファ17は、釣合い錘10が昇降路2の底部に衝突する場合の衝撃を緩和する装置である。第2バッファ17は、釣合い錘10の下方に配置される。
 エレベーター1において、遠隔監視装置18が適用される。遠隔監視装置18は、遠隔地からのエレベーター1の状態の監視などに用いられる装置である。遠隔監視装置18は、エレベーター1の状態の情報を取得しうるように、制御盤11などに接続される。遠隔監視装置18は、例えばインターネットまたは電話回線網などの通信網19を通じて、取得した情報を中央管理装置20に送信する。中央管理装置20は、エレベーター1の状態の情報の管理などを行う装置である。中央管理装置20は、例えば1つまたは複数のサーバ装置などである。中央管理装置20は、例えば情報センターなどの拠点に配置される。情報センターは、エレベーター1の情報を集約する拠点である。
 ここで、かご9に設けられたカメラ13が撮影する昇降路2の画像は、昇降路2の点検などに用いられる。昇降路2の点検は、例えば地震が発生した後の診断運転などにおける自動診断を含む。一方、かご9の走行および停止に伴ってカメラ13に繰り返し加わる振動などによって、カメラ13の姿勢に目標姿勢からのずれが生じることがある。ここで、カメラ13の姿勢は、予め設定された方向に対するカメラ13の傾きなどによって表される。カメラ13の傾きは、例えばカメラ13の光軸の傾きなどである。目標姿勢は、カメラ13について予め設定された通常時の姿勢である。目標姿勢は、例えばカメラ13の光軸がかご9の走行方向である鉛直方向に平行に向けられた姿勢である。カメラ13の姿勢に目標姿勢からのずれが生じた場合に、昇降路2の内部に配置された機器などの撮影対象がカメラ13の視野から外れる可能性がある。このとき、カメラ13が撮影する画像を用いた点検は失敗することがある。このため、エレベーター1の保守点検の作業などを行う作業員は、例えば保守点検の作業などにおいて、図1に図示されない調整支援システムを利用してカメラ13の姿勢調整の作業を行う。ここで、カメラ13の姿勢調整の作業は、例えばカメラ13の姿勢確認およびカメラ13の姿勢修正などの手順を含む。
 図2は、実施の形態1に係る調整支援システム21の構成を示すブロック図である。
 調整支援システム21において、カメラ13の撮影する画像が用いられる。カメラ13が撮影する画像は、通信網19を介して中央管理装置20に送信される。カメラ13は、例えば制御盤11および遠隔監視装置18などを通じて画像を送信してもよい。中央管理装置20において、カメラ13に撮影された画像は、当該画像が撮影された時刻と関連付けて記憶される。
 調整支援システム21は、携帯端末22を備える。携帯端末22は、例えばスマートフォンなどの可搬な情報端末である。携帯端末22は、作業員に携帯される。携帯端末22は、無線によって情報を通信する機能を搭載する。携帯端末22は、通信網19に接続される。携帯端末22は、例えばカメラ13および中央管理装置20などと時刻情報を同期している。調整支援システム21において、携帯端末22にカメラ13の調整支援プログラムがインストールされる。調整支援プログラムは、例えば携帯端末22に搭載された図示されない記憶素子などに記憶される。調整支援システム21における携帯端末22の機能は、調整支援プログラムなどによって実現される。携帯端末22は、画像取得部23と、ディスプレイ24と、表示制御部25と、検出部26と、測定部27と、姿勢算出部28と、報知部29と、判定部30と、調整量算出部31と、を備える。
 画像取得部23は、カメラ13が撮影した画像を、当該画像を記憶している中央管理装置20から取得する部分である。画像取得部23は、例えば時刻を指定して当該時刻において撮影された画像を取得する。画像取得部23は、画像が撮影された時刻として例えば現在時刻を指定する。このとき、画像取得部23は、カメラ13が撮影している画像を継続して取得してもよい。あるいは、画像取得部23は、単一の時刻についてカメラ13が撮影した画像を取得してもよい。
 ディスプレイ24は、入力される信号に基づいて情報を表示する機器である。ディスプレイ24は、例えば液晶ディスプレイパネルなどである。表示制御部25は、画像を表す信号をディスプレイ24に出力する部分である。表示制御部25は、カメラ13の姿勢の算出に用いられる校正パターンの画像などを表す信号をディスプレイ24に出力する。校正パターンは、機器を校正するために用いる規則的な模様のことである。代表的な模様として、チェッカーボードパターン、グリッドパターン、グレイコードパターン、または格子状に整列したドットパターンなどが知られている。なお、ここでの校正パターンは、平面パターン(planar reference pattern)とも呼ばれることがある。ディスプレイ24は、表示制御部25から出力された信号に基づいて、校正パターンなどの画像を表示する。このとき、ディスプレイ24は、表面に校正パターンを画面表示によって示す。ディスプレイ24は、提示部の例である。ディスプレイ24によって示される校正パターンは、作業員がディスプレイ24の表面をカメラ13に向けることで、カメラ13によって撮影される。
 検出部26は、画像取得部23が取得した画像において、ディスプレイ24などの提示部に示される校正パターンを検出する部分である。検出部26は、例えばチェッカーボードパターンのコーナー点などの校正パターンにおける特徴点を、画像処理の手法などによって検出する。
 測定部27は、ディスプレイ24などの提示部の傾きを測定する部分である。測定部27は、ディスプレイ24とともに携帯端末22に一体に搭載される加速度センサーまたは傾斜センサーなどを含む。測定部27は、ディスプレイ24と一体に設けられているので、測定部27自体の傾きは、ディスプレイ24の傾きに対応する。この例において、測定部27は、ディスプレイ24の表面の法線の鉛直方向からの傾きを測定する。ここで、測定部27は、ディスプレイ24の法線の鉛直方向に対する傾きを、他の方向に対する傾きなどから間接的に測定してもよい。
 姿勢算出部28は、画像取得部23が取得した画像における検出部26による校正パターンの検出結果などを用いて、カメラ13の姿勢を算出する部分である。姿勢算出部28は、カメラ13の姿勢として、例えばかご9の走行方向である鉛直方向に対するカメラ13の光軸の傾きなどを算出する。なお、姿勢算出部28は、カメラ13の姿勢として外部パラメータを算出してもよい。カメラ13の外部パラメータは、昇降路2などを基準とする固定された世界座標系およびカメラ13を基準とするカメラ座標系の間の変換パラメータである。
 報知部29は、携帯端末22を利用してカメラ13の調整作業を行う作業員への、音声による情報の報知を行う部分である。報知部29は、例えばスピーカなどを含む。報知部29は、例えば、測定部27の測定するディスプレイ24の法線の傾きが報知範囲内の傾きであるか否かの情報を、音声によって報知する。報知範囲は、かご9の走行方向である鉛直方向に対して予め設定された、例えばカメラ13の姿勢確認において許容されるディスプレイ24の傾きの範囲などである。報知部29は、例えば、ディスプレイ24の法線の傾きが報知範囲内にある場合に、音声を発することによって作業員に報知を行う。一方、報知部29は、ディスプレイ24の法線の傾きが報知範囲を超えている場合に、音声を発しない。これにより、作業員は、報知部29から発せられる音声の有無によって、ディスプレイ24の法線の傾きが報知範囲内の傾きであるか否かの情報を得られるようになる。あるいは、報知部29は、ディスプレイ24の法線の傾きが報知範囲を超えているか否かに基づいて異なる音声を発することで、作業員への報知を行ってもよい。
 判定部30は、姿勢算出部28が算出するカメラ13の姿勢および目標姿勢の差異に基づいて、カメラ13の姿勢の異常を判定する部分である。判定部30は、例えば姿勢算出部28が算出するカメラ13の姿勢の目標姿勢に対する傾きが予め設定された正常範囲を超えている場合に、カメラ13の姿勢の異常を判定する。判定部30は、例えばカメラ13の目標姿勢における光軸の向きと姿勢算出部28が算出するカメラ13の姿勢における光軸の向きとの角度が予め設定された角度より大きい場合に、カメラ13の姿勢の異常を判定する。あるいは、判定部30は、例えば姿勢算出部28が算出するカメラ13の姿勢の目標姿勢に対する光軸の周りの回転角が予め設定された角度より大きい場合に、カメラ13の姿勢の異常を判定してもよい。
 調整量算出部31は、姿勢算出部28が算出するカメラ13の姿勢に基づいて、カメラ13の姿勢を目標姿勢に調整する調整量を算出する部分である。調整量算出部31は、例えばカメラ13の目標姿勢における光軸の向きと姿勢算出部28が算出するカメラ13の姿勢における光軸の向きとの角度を調整量として算出する。
 続いて、図3および図4を用いて、調整支援システム21を利用したカメラ13の姿勢の調整の例を説明する。
 図3および図4は、実施の形態1に係る調整支援システム21を利用したカメラ13の姿勢の調整の例を示す図である。
 図3において、調整作業中の昇降路2の斜視図が示される。
 カメラ13の調整作業において、作業員は、例えば最下階の乗場5などからピット4に入る。作業員は、ピット4において、カメラ13の姿勢を目視により確認する。このとき、カメラ13の姿勢の目標姿勢からのずれがカメラ13の外観などから確認できる場合などに、作業員は、カメラ13の姿勢の修正を行う。例えば、カメラ13が手動または自動の首振り機構を備える場合に、作業員は、首振り機構を操作することでカメラ13の姿勢の修正を行う。あるいは、カメラ13が磁石によってかご9に取り付けられている場合などに、作業員は、カメラ13のかご9への取付けを再度行うことでカメラ13の姿勢の修正を行ってもよい。カメラ13の姿勢について修正を行った後などに、作業員は、調整支援システム21を用いてカメラ13の姿勢を確認する。このとき、作業員は、携帯端末22の操作によって、調整支援システム21におけるカメラ13の姿勢確認の機能を起動する。
 表示制御部25は、鉛直方向に対するディスプレイ24の法線の傾きの測定結果を測定部27から取得する。表示制御部25は、測定部27の測定するディスプレイ24の傾きを表す画像の情報を生成する。この例において、表示制御部25の生成する画像は、目盛り32および当該目盛り32を指す矢印33によって、ディスプレイ24の縦方向および横方向の傾きを示す画像である。表示制御部25は、生成した画像および予め設定された校正パターン34の画像を表す信号をディスプレイ24に出力する。この例において、校正パターン34は、チェッカーボードパターンの画像である。この例において、ディスプレイ24の傾きを表す目盛り32および矢印33は、校正パターン34の外周に沿って配置される。
 ディスプレイ24は、表示制御部25が出力する信号に基づいて、校正パターン34およびディスプレイ24の傾きを表す画像を表示する。図3において、ディスプレイ24における表示の例が示される。
 作業員は、ディスプレイ24を視認できる高さに携帯端末22を持ちながら、ディスプレイ24を上方に向ける。このとき、作業員は、ディスプレイ24に表示された目盛り32および矢印33などを参照することで、ディスプレイ24の法線が鉛直方向に向くようにディスプレイ24の向きを調整する。すなわち、作業員は、表面が水平になるようにディスプレイ24の向きを調整する。この間に、作業員は、報知部29の音声による報知を受けながらディスプレイ24の向きを調整してもよい。
 画像取得部23は、鉛直方向に対するディスプレイ24の法線の傾きの測定結果を測定部27から取得する。画像取得部23は、測定部27の測定するディスプレイ24の法線の傾きが算出範囲内の傾きであるかを判定する。算出範囲は、かご9の走行方向である鉛直方向に対して予め設定された、例えばカメラ13の姿勢確認において許容されるディスプレイ24の傾きの範囲などである。算出範囲は、報知範囲と同一の範囲であってもよい。画像取得部23は、測定部27の測定するディスプレイ24の傾きが算出範囲内の傾きであると判定する場合に、当該測定が行われた時刻を指定して中央管理装置20からカメラ13が撮影した画像を取得する。これにより、画像取得部23は、ディスプレイ24の表面が算出範囲内で水平であるときにカメラ13が撮影した画像を取得する。
 検出部26は、画像取得部23が取得した画像において、校正パターン34を検出する。ここで、検出部26が校正パターン34を検出できなかった場合に、表示制御部25は、校正パターン34の検出の失敗を表す画像を生成する。当該画像は、例えば色を変えた校正パターン34の画像などである。表示制御部25は、生成した画像を表す信号をディスプレイ24に出力する。ディスプレイ24は、表示制御部25が出力する信号に基づいて、校正パターン34の検出の失敗を表す画像を表示する。一方、表示制御部25は、検出部26が校正パターン34を検出できた場合に、校正パターン34の検出の失敗を表す画像の信号をディスプレイ24に出力しない。これにより、作業員は、校正パターン34の検出の失敗を表す画像のディスプレイ24への表示の有無、あるいは、ディスプレイ24に表示される校正パターン34の色などによって、校正パターン34の検出の成否の情報を得られるようになる。
 姿勢算出部28は、画像取得部23が取得した画像における検出部26による校正パターン34の検出結果などを用いて、カメラ13の姿勢を算出する。画像取得部23が取得する画像から検出される校正パターン34を表示したディスプレイ24の傾きは、カメラ13の光軸に対するディスプレイ24の法線の傾きに対応する。ここで、画像取得部23の取得した画像はディスプレイ24の表面が算出範囲内で水平であるときにカメラ13が撮影した画像なので、当該画像におけるディスプレイ24の傾きは鉛直方向に対するカメラ13の光軸の傾きに対応する。このため、姿勢算出部28は、画像取得部23が取得した画像からの検出部26による校正パターン34の検出結果に基づいて、鉛直方向に対するカメラ13の光軸の傾きをカメラ13の姿勢として算出する。
 判定部30は、姿勢算出部28が算出したカメラ13の姿勢および目標姿勢の差異に基づいて、カメラ13の姿勢の異常を判定する。また、調整量算出部31は、姿勢算出部28が算出したカメラ13の姿勢および目標姿勢の差異に基づいて、カメラ13の姿勢の調整量を算出する。表示制御部25は、判定部30による判定結果および調整量算出部31が算出した調整量を表す信号を、ディスプレイ24に出力する。ディスプレイ24は、表示制御部25が出力した信号に基づいて、カメラ13の姿勢の異常の判定結果および算出された調整量を表示する。作業員は、ディスプレイ24に表示された情報に基づいて、カメラ13の姿勢が調整されたか否かの判断を容易に行うことができるようになる。また、判定部30による判定結果は、携帯端末22に搭載される記憶素子などに記憶されてもよい。これにより、カメラ13の姿勢が調整されたことの確認結果を、保守点検作業の作業記録などとして残すことができるようになる。
 作業員は、カメラ13の姿勢が異常と判定された場合に、調整支援システム21を用いてカメラ13の姿勢を修正する。このとき、作業員は、携帯端末22の操作によって、調整支援システム21におけるカメラ13の姿勢修正の機能を起動する。
 図4において、姿勢修正の機能におけるディスプレイ24の表示の例が示される。
 図4において、上方から見たピット4の画像の例が示される。
 画像取得部23は、カメラ13の姿勢を姿勢算出部28が直前に算出したときに用いられた、カメラ13が撮影した過去の画像を取得する。画像取得部23は、例えば直前に起動されたカメラ13の姿勢確認の機能において指定した時刻の画像を、過去の画像として取得する。また、画像取得部23は、現在時刻を指定してカメラ13が撮影している画像を継続して取得する。
 表示制御部25は、画像取得部23が取得した過去の画像、および画像取得部23が継続して取得する現在の画像を重ねた画像を生成する。表示制御部25は、例えば、現在の画像の上に半透明な過去の画像を重ねるアルファブレンディングなどによって画像を生成する。このとき、表示制御部25は、現在の画像をモノクロ画像によって表示する。また、表示制御部25は、過去の画像をカラー画像によって表示する。また、表示制御部25は、過去の画像において昇降路2の壁面などの画像が映らないように、過去の画像の中心から外周に向かうにつれて透明度が増加するようなアルファチャンネルを用いてアルファブレンディングを行う。表示制御部25は、生成した画像を表す信号をディスプレイ24に出力する。表示制御部25は、生成した画像と併せて、直前に起動されたカメラ13の姿勢確認の機能において算出された調整量の情報をディスプレイ24に出力してもよい。
 ディスプレイ24は、表示制御部25が出力した信号に基づいて、生成された画像を表示する。図4において、現在の画像が実線で示される。また、過去の画像が破線で示される。このように、現在の画像および過去の画像が重ねて表示されるので、作業員は、カメラ13の姿勢の変化量を確認しながらカメラ13の姿勢を修正できるようになる。作業員は、ディスプレイ24を参照しながらカメラ13の姿勢を修正した後に、カメラ13の姿勢を確認する。作業員は、カメラ13の姿勢が正常と判定されるまで、姿勢の修正および確認を繰り返す。
 続いて、図5を用いて、調整支援システム21の動作の例を説明する。
 図5は、実施の形態1に係る調整支援システム21の動作の例を示すフローチャートである。
 図5において、カメラ13の姿勢確認に係る携帯端末22の処理の例が示される。
 図5の処理は、カメラ13の姿勢確認の機能が起動するときに開始される。
 ステップS101において、表示制御部25は、校正パターン34の画像の情報を含む信号をディスプレイ24に出力する。ディスプレイ24は、校正パターン34の画像を含む情報を表面に表示する。その後、調整支援システム21における処理は、ステップS102に進む。
 ステップS102において、画像取得部23は、測定部27の測定結果に基づいて、ディスプレイ24の表面が算出範囲内で水平であるかを判定する。判定結果がNoの場合に、調整支援システム21における処理は、ステップS101に進む。判定結果がYesの場合に、調整支援システム21における処理は、ステップS103に進む。
 ステップS103において、画像取得部23は、ステップS102でディスプレイ24の表面が水平であると判定された測定の時刻を指定して、中央管理装置20からカメラ13が撮影した画像を取得する。その後、調整支援システム21における処理は、ステップS104に進む。
 ステップS104において、検出部26は、画像取得部23が取得した画像において校正パターン34を検出できたかを判定する。判定結果がNoの場合に、調整支援システム21における処理は、ステップS105に進む。判定結果がYesの場合に、調整支援システム21における処理は、ステップS106に進む。
 ステップS105において、表示制御部25は、校正パターン34の検出の失敗を表す画像の信号をディスプレイ24に出力する。ディスプレイ24は、表示制御部25から出力された信号に基づいて、検出の失敗を表す画像を表示する。その後、調整支援システム21における処理は、ステップS101に進む。
 ステップS106において、姿勢算出部28は、画像取得部23が取得した画像から検出部26が検出した校正パターン34を表示しているディスプレイ24の当該画像における傾きに基づいて、カメラ13の姿勢を算出する。このとき、姿勢算出部28は、当該画像はディスプレイ24の表面が算出範囲内で水平であるときに撮影された画像であることを利用してカメラ13の姿勢を算出する。その後、調整支援システム21における処理は、ステップS107に進む。
 ステップS107において、判定部30は、姿勢算出部28が算出したカメラ13の姿勢および目標姿勢の差異に基づいて、カメラ13の姿勢に異常があるかを判定する。また、調整量算出部31は、姿勢算出部28が算出したカメラ13の姿勢および目標姿勢の差異に基づいて、カメラ13の姿勢の調整量を算出する。表示制御部25は、判定部30による判定結果および調整量算出部31が算出した調整量を表す信号を、ディスプレイ24に出力する。ディスプレイ24は、表示制御部25が出力した信号に基づいて、カメラ13の姿勢の異常の判定結果および算出された調整量を表示する。その後、カメラ13の姿勢確認に係る調整支援システム21の処理は、終了する。
 以上に説明したように、実施の形態1に係る調整支援システム21は、画像取得部23と、ディスプレイ24と、検出部26と、姿勢算出部28と、を備える。画像取得部23は、カメラ13が撮影する画像を取得する。カメラ13は、エレベーター1の昇降路2において走行するかご9に設けられる。ディスプレイ24は、昇降路2においてカメラ13に撮影される校正パターン34を表面に示す。検出部26は、画像取得部23が取得した画像において校正パターン34を検出する。姿勢算出部28は、検出部26が検出した校正パターン34を示しているディスプレイ24の表面の法線の、カメラ13の光軸に対する傾きに基づいて、カメラ13の姿勢を算出する。
 また、調整支援システム21は、表示制御部25を備える。表示制御部25は、校正パターン34を表す信号を出力する。ディスプレイ24は、表示制御部25が出力する信号に基づく表示によって校正パターン34を表面に示す。
 このような構成により、カメラ13の姿勢が調整された後などに、ディスプレイ24に示された校正パターン34の傾きに基づいてカメラ13の姿勢が算出される。これにより、作業員は、カメラ13の姿勢が調整されたかをより容易に判断できるようになる。また、カメラ13の姿勢が調整されたことの確認結果を、その画像とともに記録に残すことができるようになる。これにより、カメラ13の調整作業の作業管理がしやすくなる。
 また、調整支援システム21は、測定部27を備える。測定部27は、ディスプレイ24と一体に設けられる。測定部27は、かご9の走行方向に対するディスプレイ24の法線の傾きを測定する。
 また、姿勢算出部28は、測定部27の測定する傾きがかご9の走行方向に対して予め設定された算出範囲内の傾きであるときにカメラ13が撮影した画像に基づいて、カメラ13の姿勢としてかご9の走行方向に対するカメラ13の傾きを算出する。
 ここで、仮にピット4の床面に校正パターン34を示す機器を配置しようとすると、カメラ13から床面までは作業員の作業空間を確保するための距離があるので、当該機器上の校正パターン34を大きくする必要がある。しかしながら、ピット4の床面は凹凸が多いため、大きい機器を水平などの指定された傾きで配置することは難しい場合がある。一方、調整支援システム21において、作業員は、校正パターン34をディスプレイ24に表示する携帯端末22を手に持ってカメラ13に向ける。カメラ13からディスプレイ24までの距離が近くなるので、大きい校正パターン34を示す機器をピット4に持ち込む必要がなくなる。また、画像取得部23による画像の取得が測定部27の測定結果と連携するので、画像取得部23が取得する画像において、校正パターン34を示しているディスプレイ24の表面が予め設定された傾きに算出範囲内でなっていることが担保される。これにより、カメラ13の姿勢の算出がより容易により精度よく行われるようになる。
 また、調整支援システム21は、報知部29を備える。報知部29は、測定部27の測定する傾きがかご9の走行方向に対して予め設定された報知範囲内の傾きであるか否かの情報を、音声によって報知する。
 カメラ13の高さによって、作業員は、ディスプレイ24を目線より高く上げる場合がある。このような場合においても、作業員は、報知部29の音声による報知によって、ディスプレイ24の傾きを調整しやすくなる。
 また、表示制御部25は、測定部27の測定する傾きを表す情報の信号を、カメラ13の調整作業を行う作業員が視認しうるディスプレイ24に出力する。
 また、表示制御部25は、検出部26による校正パターン34の検出の成否を表す信号をディスプレイ24に出力する。
 カメラ13の高さによって、作業員は、ディスプレイ24を視認しながら表面をカメラ13に向けられるようになる。このような場合に、作業員は、ディスプレイ24の傾きを視覚的に確認できるので、ディスプレイ24の傾きを調整しやすくなる。また、作業員は、校正パターン34の検出の成否を視覚的に確認できるので、ディスプレイ24の位置などを調整しやすくなる。
 また、表示制御部25は、カメラ13の姿勢を姿勢算出部28が直前に算出したときに用いられた、カメラ13が撮影した過去の画像、およびカメラ13が撮影している現在の画像を重ねてディスプレイ24に出力する。
 このような構成により、作業員は、姿勢修正の作業において、カメラ13の姿勢修正における調整量をディスプレイ24上で確認できるようになる。これにより、カメラ13の姿勢修正の作業がより容易になる。
 また、調整支援システム21は、判定部30を備える。判定部30は、姿勢算出部28が算出するカメラ13の姿勢および予め設定された目標姿勢の差異に基づいて、カメラ13の姿勢の異常を判定する。
 このような構成により、作業員は、カメラ13の姿勢についての異常の有無をより容易に把握できるようになる。
 また、調整支援システム21は、調整量算出部31を備える。調整量算出部31は、姿勢算出部28が算出するカメラ13の姿勢に基づいて、カメラ13の姿勢を予め設定された目標姿勢に調整する調整量を算出する。
 このような構成により、作業員は、カメラ13の姿勢修正における必要な調整量を修正作業前に把握できるので、カメラ13の姿勢の修正がより容易になる。
 なお、表示制御部25は、カメラ13の姿勢が目標姿勢であるときにカメラ13が撮影した過去の画像、およびカメラ13が撮影している現在の画像を重ねてディスプレイ24に出力してもよい。カメラ13の姿勢が目標姿勢であるときの画像は、例えば前回の保守点検作業などにおいて判定部30がカメラ13の姿勢に異常がないと判定したときの画像などである。あるいは、カメラ13の姿勢が目標姿勢であるときの画像は、例えばカメラ13の初期設置時に撮影された画像などであってもよい。
 このような構成により、作業員は、目標とする画像をディスプレイ24上で確認しながらカメラ13の姿勢を修正できるようになる。これにより、カメラ13の姿勢修正の作業がより容易になる。
 また、エレベーター1において、かご9の走行方向は、鉛直方向から傾いていてもよい。すなわち、エレベーター1は、斜行エレベーターであってもよい。このとき、測定部27は、ディスプレイ24の表面の法線の、かご9の走行方向からの傾きを測定する。なお、作業員は、カメラ13の姿勢調整の作業の前に、測定部27にかご9の走行方向を記憶させる初期化処理を行ってもよい。初期化処理は、例えばかご9の走行方向に沿ったガイドレールに携帯端末22を置いた状態などで行われる。初期化処理により、測定部27は、かご9の走行方向からの傾きを測定できるようになる。
 また、カメラ13は、かご9の上部に設けられていてもよい。このとき、作業員は、かご9の外側の上部に乗ってカメラ13の姿勢調整の作業を行う。また、カメラ13は、かご9の上部および下部の両方に設けられていてもよい。
 また、例えば携帯端末22に取り付けた水準器などの外部機器によってディスプレイ24の傾きを作業員が確認できる場合に、携帯端末22は、測定結果を信号として出力する測定部27を有していなくてもよい。このとき、作業員は、例えばディスプレイ24の傾きを確認したタイミングで、携帯端末22を通じて姿勢算出の開始の操作を行う。画像取得部23は、作業員が当該操作を行った時刻を取得して、カメラ13が撮影した画像を取得する。
 続いて、図6を用いて、調整支援システム21のハードウェア構成の例について説明する。
 図6は、実施の形態1に係る調整支援システム21の主要部のハードウェア構成図である。
 調整支援システム21の各機能は、処理回路により実現し得る。処理回路は、少なくとも1つのプロセッサ100aと少なくとも1つのメモリ100bとを備える。処理回路は、プロセッサ100aおよびメモリ100bと共に、あるいはそれらの代用として、少なくとも1つの専用ハードウェア200を備えてもよい。
 処理回路がプロセッサ100aとメモリ100bとを備える場合、調整支援システム21の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせで実現される。ソフトウェアおよびファームウェアの少なくとも一方は、プログラムとして記述される。そのプログラムはメモリ100bに格納される。プロセッサ100aは、メモリ100bに記憶されたプログラムを読み出して実行することにより、調整支援システム21の各機能を実現する。
 プロセッサ100aは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSPともいう。メモリ100bは、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROMなどの、不揮発性または揮発性の半導体メモリなどにより構成される。
 処理回路が専用ハードウェア200を備える場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらの組み合わせで実現される。
 調整支援システム21の各機能は、それぞれ処理回路で実現することができる。あるいは、調整支援システム21の各機能は、まとめて処理回路で実現することもできる。調整支援システム21の各機能について、一部を専用ハードウェア200で実現し、他部をソフトウェアまたはファームウェアで実現してもよい。このように、処理回路は、専用ハードウェア200、ソフトウェア、ファームウェア、またはこれらの組み合わせで調整支援システム21の各機能を実現する。
 実施の形態2.
 実施の形態2において、実施の形態1で開示される例と相違する点について特に詳しく説明する。実施の形態2で説明しない特徴については、実施の形態1で開示される例のいずれの特徴が採用されてもよい。
 図7は、実施の形態2に係る調整支援システム21の構成を示すブロック図である。
 調整支援システム21において、画像取得部23、検出部26、姿勢算出部28、判定部30、および調整量算出部31などの部分による機能の一部または全部は、携帯端末22の外部の装置などに搭載されていてもよい。この例において、画像取得部23、検出部26、姿勢算出部28、判定部30、および調整量算出部31は、例えば中央管理装置20などの情報センターに配置された装置に搭載される。
 中央管理装置20に搭載された画像取得部23は、通信網19を介してカメラ13が撮影した画像を取得する。画像取得部23は、取得した画像を当該画像が撮影された時刻と関連付けて記憶する。
 続いて、図8を用いて、調整支援システム21の動作の例を説明する。
 図8は、実施の形態2に係る調整支援システム21の動作の例を示すフローチャートである。
 図8において、カメラ13の姿勢確認に係る調整支援の処理の例が示される。
 図8における携帯端末22の処理は、カメラ13の姿勢確認の機能が起動するときに開始される。
 ステップS201において、表示制御部25は、校正パターン34の画像の情報を含む信号をディスプレイ24に出力する。ディスプレイ24は、校正パターン34の画像を含む情報を表面に表示する。その後、調整支援システム21における携帯端末22の処理は、ステップS202に進む。
 ステップS202において、携帯端末22は、測定部27の測定結果に基づいて、ステップS101における画像取得部23などと同様に、ディスプレイ24の表面が算出範囲内で水平であるかを判定する。判定結果がNoの場合に、調整支援システム21における携帯端末22の処理は、ステップS201に進む。判定結果がYesの場合に、調整支援システム21における携帯端末22の処理は、ステップS203に進む。
 ステップS203において、携帯端末22は、ステップS202でディスプレイ24の表面が水平であると判定された測定の時刻を指定して、姿勢確認の要求を中央管理装置20に送信する。その後、調整支援システム21における携帯端末22の処理は、ステップS204に進む。
 一方、ステップS301において、中央管理装置20は、姿勢確認の要求を携帯端末22から受信したかを判定する。判定結果がNoの場合に、調整支援システム21における中央管理装置20の処理は、ふたたびステップS301に進む。判定結果がYesの場合に、調整支援システム21における中央管理装置20の処理は、ステップS302に進む。
 ステップS302において、検出部26は、姿勢確認の要求において指定された時刻に撮影された画像として画像取得部23が取得した画像において、校正パターン34を検出できたかを判定する。判定結果がNoの場合に、調整支援システム21における中央管理装置20の処理は、ステップS303に進む。判定結果がYesの場合に、調整支援システム21における中央管理装置20の処理は、ステップS304に進む。
 ステップS303において、中央管理装置20は、検出部26による校正パターン34の検出の失敗を表す情報を携帯端末22に送信する。その後、調整支援システム21における中央管理装置20の処理は、ステップS301に進む。
 ステップS304において、姿勢算出部28は、画像取得部23が取得した画像から検出部26が検出した校正パターン34を表示しているディスプレイ24の当該画像における傾きに基づいて、カメラ13の姿勢を算出する。このとき、姿勢算出部28は、当該画像はディスプレイ24の表面が算出範囲内で水平であるときに撮影された画像であることを利用してカメラ13の姿勢を算出する。その後、調整支援システム21における中央管理装置20の処理は、ステップS305に進む。
 ステップS305において、判定部30は、姿勢算出部28が算出したカメラ13の姿勢および目標姿勢の差異に基づいて、カメラ13の姿勢に異常があるかを判定する。また、調整量算出部31は、姿勢算出部28が算出したカメラ13の姿勢および目標姿勢の差異に基づいて、カメラ13の姿勢の調整量を算出する。中央管理装置20は、判定部30による判定結果および調整量算出部31が算出した調整量を表す情報を携帯端末22に送信する。その後、カメラ13の姿勢確認に係る調整支援システム21における中央管理装置20の処理は、終了する。
 一方、ステップS204において、携帯端末22は、検出部26による校正パターン34の検出の失敗を表す情報を中央管理装置20から受信したかを判定する。判定結果がYesの場合に、調整支援システム21における携帯端末22の処理は、ステップS205に進む。判定結果がNoの場合に、調整支援システム21における携帯端末22の処理は、ステップS206に進む。
 ステップS205において、表示制御部25は、中央管理装置20から受信した情報に基づいて、校正パターン34の検出の失敗を表す画像の信号をディスプレイ24に出力する。ディスプレイ24は、表示制御部25から出力された信号に基づいて、検出の失敗を表す画像を表示する。その後、調整支援システム21における携帯端末22の処理は、ステップS201に進む。
 ステップS206において、表示制御部25は、中央管理装置20から受信した情報に基づいて、判定部30による判定結果および調整量算出部31が算出した調整量を表す信号をディスプレイ24に出力する。ディスプレイ24は、表示制御部25が出力した信号に基づいて、カメラ13の姿勢の異常の判定結果および算出された調整量を表示する。その後、カメラ13の姿勢確認に係る調整支援システム21における携帯端末22の処理は、終了する。
 以上に説明したように、実施の形態2に係る調整支援システム21において、画像取得部23、検出部26、姿勢算出部28、判定部30、および調整量算出部31は、中央管理装置20に搭載される。このような構成であっても、カメラ13の姿勢が調整された後などに、ディスプレイ24に示された校正パターン34の傾きに基づいてカメラ13の姿勢が算出される。これにより、作業員は、カメラ13の姿勢が調整されたかをより容易に判断できるようになる。また、カメラ13の姿勢が調整されたことの確認結果を、その画像とともに記録に残すことができるようになる。これにより、カメラ13の調整作業の作業管理がしやすくなる。
 実施の形態3.
 実施の形態3において、実施の形態1または実施の形態2で開示される例と相違する点について特に詳しく説明する。実施の形態3で説明しない特徴については、実施の形態1または実施の形態2で開示される例のいずれの特徴が採用されてもよい。
 この例において、調整支援システム21の構成は、図2のブロック図に示される構成と同様である。
 図9は、実施の形態3に係る調整支援システム21の動作の例を示すフローチャートである。
 図9において、カメラ13の姿勢確認に係る携帯端末22の処理の例が示される。
 図9の処理は、カメラ13の姿勢確認の機能が起動するときに開始される。
 ステップS401において、表示制御部25は、校正パターン34の画像の情報を含む信号をディスプレイ24に出力する。ディスプレイ24は、校正パターン34の画像を含む情報を表面に表示する。その後、調整支援システム21における処理は、ステップS402に進む。
 ステップS402において、画像取得部23は、現在の時刻を指定して、中央管理装置20からカメラ13が撮影した画像を取得する。その後、調整支援システム21における処理は、ステップS403に進む。
 ステップS403において、検出部26は、画像取得部23が取得した画像において校正パターン34を検出できたかを判定する。判定結果がNoの場合に、調整支援システム21における処理は、ステップS404に進む。判定結果がYesの場合に、調整支援システム21における処理は、ステップS405に進む。
 ステップS404において、表示制御部25は、校正パターン34の検出の失敗を表す画像の信号をディスプレイ24に出力する。ディスプレイ24は、表示制御部25から出力された信号に基づいて、検出の失敗を表す画像を表示する。その後、調整支援システム21における処理は、ステップS401に進む。
 ステップS405において、姿勢算出部28は、かご9の走行方向である鉛直方向に対するディスプレイ24の法線の傾きについて、画像取得部23の取得した画像が撮影された時刻における測定部27の測定結果を取得する。その後、調整支援システム21における処理は、ステップS406に進む。
 ステップS406において、姿勢算出部28は、画像取得部23が取得した画像から検出部26が検出した校正パターン34を表示しているディスプレイ24の当該画像における傾きに基づいて、カメラ13の姿勢を算出する。このとき、姿勢算出部28は、ステップS405において取得した、当該画像が撮影された時刻における鉛直方向に対するディスプレイ24の法線の傾きを利用してカメラ13の姿勢を算出する。例えば、姿勢算出部28は、検出部26による検出結果を用いて、カメラ13の光軸の向きおよびディスプレイ24の法線の向きの関係を算出する。姿勢算出部28は、測定部27による測定結果によって、ディスプレイ24の法線の向きおよび鉛直方向の関係を取得する。姿勢算出部28は、カメラ13の光軸の向きおよびディスプレイ24の法線の向きの関係と、ディスプレイ24の法線の向きおよび鉛直方向の関係とに基づいて、カメラ13の光軸の向きおよび鉛直方向の関係を算出する。姿勢算出部28は、このように算出された関係から、カメラ13の姿勢を算出する。その後、調整支援システム21における処理は、ステップS407に進む。
 ステップS407において、判定部30は、姿勢算出部28が算出したカメラ13の姿勢および目標姿勢の差異に基づいて、カメラ13の姿勢に異常があるかを判定する。また、調整量算出部31は、姿勢算出部28が算出したカメラ13の姿勢および目標姿勢の差異に基づいて、カメラ13の姿勢の調整量を算出する。表示制御部25は、判定部30による判定結果および調整量算出部31が算出した調整量を表す信号を、ディスプレイ24に出力する。ディスプレイ24は、表示制御部25が出力した信号に基づいて、カメラ13の姿勢の異常の判定結果および算出された調整量を表示する。その後、カメラ13の姿勢確認に係る調整支援システム21の処理は、終了する。
 以上に説明したように、実施の形態3に係る調整支援システム21の姿勢算出部28は、検出部26が校正パターン34を検出した画像がカメラ13に撮影されたときに測定部27が測定したディスプレイ24の傾きを取得する。姿勢算出部28は、取得した傾きに基づいて、カメラ13の姿勢としてかご9の走行方向に対するカメラ13の傾きを算出する。
 このような構成により、ディスプレイ24の傾きの調整に多少のずれがある場合であっても、検出部26が校正パターン34を検出できる程度のずれであれば、カメラ13の姿勢が算出されるようになる。これにより、カメラ13の姿勢の算出がより容易に行われるようになる。
 実施の形態4.
 実施の形態4において、実施の形態1から実施の形態3で開示される例と相違する点について特に詳しく説明する。実施の形態4で説明しない特徴については、実施の形態1から実施の形態3で開示される例のいずれの特徴が採用されてもよい。
 図10は、実施の形態4に係る調整支援システム21の構成を示すブロック図である。
 携帯端末22は、校正板35を備える。校正板35は、表面に予め付された画像によって校正パターン34を示す板状の部材である。校正板35は、提示部の例である。校正板35において、例えば印刷またはラベル貼付などによって校正パターン34の画像が付されている。この例において、校正板35は、携帯端末22の背面に、すなわちディスプレイ24の反対側に配置される。校正板35は、携帯端末22の筐体の背面の部分そのものであってもよい。
 測定部27は、提示部である校正板35とともに携帯端末22に一体に設けられているので、測定部27自体の傾きは、校正板35の傾きに対応する。この例において、測定部27は、校正板35の表面の法線の鉛直方向からの傾きを測定する。ここで、測定部27は、校正板35の法線の鉛直方向に対する傾きを、他の方向に対する傾きなどから間接的に測定してもよい。
 図11は、実施の形態4に係る調整支援システム21を利用したカメラ13の姿勢の調整の例を示す図である。
 図11において、調整作業中の昇降路2の斜視図が示される。
 作業員は、ピット4において、携帯端末22の操作によって調整支援システム21におけるカメラ13の姿勢確認の機能を起動する。
 表示制御部25は、鉛直方向に対する校正板35の法線の傾きの測定結果を測定部27から取得する。表示制御部25は、測定部27の測定する校正板35の傾きを表す、例えば目盛り32および矢印33などの画像の情報を生成する。表示制御部25は、生成した画像を表す信号をディスプレイ24に出力する。
 作業員は、携帯端末22を持ちながら、校正板35を上方に向ける。このとき、作業員は、目線より上に携帯端末22を掲げることで、ディスプレイ24を下方から確認しながら校正板35を上方に向けられる。作業員は、ディスプレイ24に表示された目盛り32および矢印33などを参照することで、校正板35の法線が鉛直方向に向くように校正板35の向きを調整する。すなわち、作業員は、表面が水平になるように校正板35の向きを調整する。この間に、報知部29は、測定部27の測定する校正板35の法線の傾きが報知範囲内の傾きであるか否かの情報を、音声によって報知する。作業員は、報知部29の音声による報知を受けながら校正板35の向きを調整してもよい。
 画像取得部23は、鉛直方向に対する校正板35の法線の傾きの測定結果を測定部27から取得する。画像取得部23は、測定部27の測定する校正板35の法線の傾きが算出範囲内の傾きであるかを判定する。画像取得部23は、測定部27の測定する校正板35の傾きが算出範囲内の傾きであると判定する場合に、当該測定が行われた時刻を指定して中央管理装置20からカメラ13が撮影した画像を取得する。これにより、画像取得部23は、校正板35の表面が算出範囲内で水平であるときにカメラ13が撮影した画像を取得する。
 検出部26は、画像取得部23が取得した画像において、校正パターン34を検出する。ここで、検出部26が校正パターン34を検出できなかった場合に、表示制御部25は、校正パターン34の検出の失敗を表す画像を生成する。当該画像は、例えば検出の失敗を表す文字列またはアイコンなどである。表示制御部25は、生成した画像を表す信号をディスプレイ24に出力する。ディスプレイ24は、表示制御部25が出力する信号に基づいて、校正パターン34の検出の失敗を表す画像を表示する。一方、表示制御部25は、検出部26が校正パターン34を検出できた場合に、校正パターン34の検出の失敗を表す画像の信号をディスプレイ24に出力しない。これにより、作業員は、校正パターン34の検出の失敗を表す画像のディスプレイ24への表示の有無などによって、校正パターン34の検出の成否の情報を得られるようになる。
 姿勢算出部28は、画像取得部23が取得した画像における検出部26による校正パターン34の検出結果などを用いて、カメラ13の姿勢を算出する。画像取得部23が取得する画像から検出される校正パターン34を示す校正板35の傾きは、カメラ13の光軸に対する校正板35の法線の傾きに対応する。ここで、画像取得部23の取得した画像は校正板35の表面が算出範囲内で水平であるときにカメラ13が撮影した画像なので、当該画像における校正板35の傾きは鉛直方向に対するカメラ13の光軸の傾きに対応する。このため、姿勢算出部28は、画像取得部23が取得した画像からの検出部26による校正パターン34の検出結果に基づいて、鉛直方向に対するカメラ13の光軸の傾きをカメラ13の姿勢として算出する。
 以上に説明したように、実施の形態4に係る調整支援システム21は、画像取得部23と、校正板35と、検出部26と、姿勢算出部28と、を備える。画像取得部23は、カメラ13が撮影する画像を取得する。カメラ13は、エレベーター1の昇降路2において走行するかご9に設けられる。校正板35は、昇降路2においてカメラ13に撮影される校正パターン34を表面に示す。検出部26は、画像取得部23が取得した画像において校正パターン34を検出する。姿勢算出部28は、検出部26が検出した校正パターン34を示している校正板35の表面の法線の、カメラ13の光軸に対する傾きに基づいて、カメラ13の姿勢を算出する。
 また、校正板35は、表面に予め付された画像によって校正パターン34を示す。
 このような構成により、カメラ13の姿勢が調整された後などに、校正板35に示された校正パターン34の傾きに基づいてカメラ13の姿勢が算出される。これにより、作業員は、カメラ13の姿勢が調整されたかをより容易に判断できるようになる。また、カメラ13の姿勢が調整されたことの確認結果を、その画像とともに記録に残すことができるようになる。これにより、カメラ13の調整作業の作業管理がしやすくなる。
 また、ディスプレイ24は、校正板35の表面の反対側に配置される。
 このような構成により、作業員は、ディスプレイ24の表示を確認しながら校正板35の表面をカメラ13により容易に近づけられるようになる。また、ディスプレイ24および校正板35が一体で取り扱いやすくなるので、カメラ13の調整作業の作業性がよくなる。
 なお、携帯端末22は、例えば調整支援システム21の専用装置などであってもよい。このとき、携帯端末22は、ディスプレイ24および表示制御装置を有していなくてもよい。姿勢算出部28による姿勢の算出結果などは、例えば中央管理装置20において記録される。
 また、校正板35は、携帯端末22と別個の装置であってもよい。このとき、測定部27は、例えば校正板35と一体に設けられる加速度センサーまたは傾きセンサーなどである。測定部27は、携帯端末22または中央管理装置20などと有線または無線によって測定結果を通信する。
 実施の形態5.
 実施の形態5において、実施の形態1から実施の形態4で開示される例と相違する点について特に詳しく説明する。実施の形態5で説明しない特徴については、実施の形態1から実施の形態4で開示される例のいずれの特徴が採用されてもよい。
 図12は、実施の形態5に係る携帯端末22の斜視図である。
 調整支援システム21において、携帯端末22に保持具36が取り付けられる。保持具36は、持ち手37と、スタビライザー38と、を備える。持ち手37は、作業員が保持する部分である。スタビライザー38は、ディスプレイ24または校正板35などの提示部の傾きを維持するように携帯端末22を保持する部分である。なお、携帯端末22と別個の校正板35が提示部として用いられる場合に、スタビライザー38は、校正板35を保持する。スタビライザー38は、例えばジンバル機構などによってディスプレイ24などの提示部の傾きを維持する。
 作業員は、カメラ13の姿勢確認の際に、保持具36の持ち手37を持ってディスプレイ24または校正板35などの提示部の表面を上方に向ける。このとき、スタビライザー38によって校正パターン34を示す提示部の傾きの変動が抑えられる。校正パターン34が安定して撮影されるようになるので、カメラ13の姿勢確認がより安定して行われるようになる。
 実施の形態6.
 実施の形態6において、実施の形態1から実施の形態5で開示される例と相違する点について特に詳しく説明する。実施の形態6で説明しない特徴については、実施の形態1から実施の形態5で開示される例のいずれの特徴が採用されてもよい。
 図13は、実施の形態6に係る調整支援システム21の構成を示すブロック図である。
 携帯端末22は、位置算出部39を備える。位置算出部39は、画像取得部23が取得した画像における検出部26による校正パターン34の検出結果などを用いて、カメラ13の位置を算出する部分である。この例において、位置算出部39は、かご9の走行方向である鉛直方向に垂直な水平面内におけるカメラ13の位置を算出する。
 図14は、実施の形態6に係る調整支援システム21を利用したカメラ13の姿勢の調整の例を示す図である。
 図14において、調整作業中の昇降路2の斜視図が示される。
 作業員は、ピット4で作業を行う際に作業空間が確保されるように、第1バッファ16の頂部にバッファキャップ40を被せるように載せる。バッファキャップ40は、例えば鉛直方向に長い器具である。この例において、バッファキャップ40の頂部は、上方に向く平坦な水平面を有する。
 ここで、カメラ13は、第1バッファ16の中心軸上から水平方向にずれた位置に配置される。これにより、かご9が下降して第1バッファ16に被せられたバッファキャップ40に接近する場合においても、カメラ13はバッファキャップ40に衝突しない。
 カメラ13の調整作業において、作業員は、携帯端末22の操作によって調整支援システム21におけるカメラ13の姿勢確認の機能を起動する。その後、作業員は、校正パターン34を示すディスプレイ24などの表面を上方に向けるように、携帯端末22をバッファキャップ40の頂部に載せるように配置する。
 画像処理部は、携帯端末22がバッファキャップ40の頂部に配置された後に、現在時刻を指定して中央管理装置20からカメラ13が撮影した画像を取得する。ここで、画像処理部は、例えば姿勢確認の機能が起動してから予め設定された時間が経過した後の時刻などを、携帯端末22がバッファキャップ40の頂部に配置された後の時刻とする。あるいは、画像処理部は、例えば携帯端末22に搭載された加速度センサーなどの測定結果に基づいて、携帯端末22が予め設定された時間より長く静止している場合に、携帯端末22がバッファキャップ40の頂部に配置されたと判定してもよい。携帯端末22がバッファキャップ40の頂部に配置されているときに、ディスプレイ24の表面は水平となる。このため、画像取得部23は、ディスプレイ24の表面が水平であるときにカメラ13が撮影した画像を取得できる。
 検出部26は、画像取得部23が取得した画像において、校正パターン34を検出する。
 姿勢算出部28は、画像取得部23が取得した画像における検出部26による校正パターン34の検出結果などを用いて、カメラ13の姿勢を算出する。画像取得部23が取得する画像から検出される校正パターン34を表示したディスプレイ24の傾きは、カメラ13の光軸に対するディスプレイ24の法線の傾きに対応する。ここで、画像取得部23の取得した画像はディスプレイ24の表面が水平であるときにカメラ13が撮影した画像なので、当該画像におけるディスプレイ24の傾きは鉛直方向に対するカメラ13の光軸の傾きに対応する。このため、姿勢算出部28は、画像取得部23が取得した画像からの検出部26による校正パターン34の検出結果に基づいて、鉛直方向に対するカメラ13の光軸の傾きをカメラ13の姿勢として算出する。
 位置算出部39は、画像取得部23が取得した画像における検出部26による校正パターン34の検出結果などを用いて、カメラ13の位置を算出する。位置算出部39は、例えば姿勢算出部28が算出したカメラ13の姿勢について、異常がないことを判定部30が判定した後に位置の算出を行う。カメラ13の姿勢が目標姿勢である場合に、カメラ13が撮影する画像の中心は、かご9の走行方向に沿って移動するカメラ13の軌跡の延長線上にある場所を表す。この例において、カメラ13の姿勢が目標姿勢である場合に、カメラ13が撮影する画像の中心は、カメラ13の鉛直下方の場所を表す。検出部26が検出する校正パターン34を示すディスプレイ24などの提示部は、バッファキャップ40の頂部にあるので、位置算出部39は、校正パターン34の画像上の位置に基づいて第1バッファ16に対するカメラ13の水平方向の位置を算出できる。
 判定部30は、位置算出部39が算出したカメラ13の位置に基づいて、カメラ13の位置の異常を判定する。判定部30は、例えば、検出部26が検出した校正パターン34の画像上の位置および当該画像の中心の距離が予め設定された範囲内である場合に、カメラ13および第1バッファ16の位置のずれが十分でないとして、カメラ13の位置に異常があると判定する。
 作業員は、カメラ13の位置が異常と判定された場合に、調整支援システム21を用いてカメラ13の位置を修正する。作業員は、ディスプレイ24を参照しながらカメラ13の位置を修正した後に、カメラ13の位置を確認する。作業員は、カメラ13の位置が正常と判定されるまで、位置の修正および確認を繰り返す。
 なお、ディスプレイ24などの提示部は、バッファキャップ40の頂部に取り付けられるものであってもよい。また、校正パターン34が予め付された校正板35などの提示部は、バッファキャップ40の頂部に取り付けられるものであってもよい。また、バッファキャップ40の頂部に、校正パターン34の画像が直接付されていてもよい。すなわち、バッファキャップ40自体を、頂部に予め付された画像によって校正パターン34を示す提示部としてもよい。
 以上に説明したように、実施の形態6に係る調整支援システム21において、ディスプレイ24などの提示部を有する携帯端末22は、バッファキャップ40の頂部に配置される。バッファキャップ40は、カメラ13の調整作業の際に第1バッファ16に載せられる機器である。第1バッファ16は、昇降路2の下端部においてかご9の下方に配置される。
 このような構成により、バッファキャップ40の頂部において校正パターン34を示すディスプレイ24などの表面からカメラ13までの距離が近くなるので、校正パターン34が検出されやすくなる。これにより、カメラ13の姿勢の算出がより容易に行われるようになる。また、バッファキャップ40の頂部の位置は、第1バッファ16およびバッファキャップ40の寸法などによって定まる。このため、校正パターン34を示すディスプレイ24などの表面およびカメラ13の間の位置関係についての、作業員によるばらつきが小さくなる。これにより、カメラ13の調整作業の作業管理がしやすくなる。
 また、調整支援システム21は、位置算出部39を備える。位置算出部39は、カメラ13が撮影する画像から検出部26がバッファキャップ40の頂部において検出する校正パターン34の当該画像上の位置に基づいて、カメラ13の第1バッファ16に対する位置を算出する。
 このような構成により、位置が固定された第1バッファ16を基準としてカメラ13の位置が算出されるようになる。これにより、作業員は、カメラ13の位置をより容易に修正できるようになる。
 本開示に係る調整支援システムは、エレベーターのカメラの姿勢の調整に適用できる。
 1 エレベーター、 2 昇降路、 3 機械室、 4 ピット、 5 乗場、 6 乗場ドア、 7 巻上機、 8 主ロープ、 9 かご、 10 釣合い錘、 11 制御盤、 12 かごドア、 13 カメラ、 14 第1ガイドレール、 15 第2ガイドレール、 16 第1バッファ、 17 第2バッファ、 18 遠隔監視装置、 19 通信網、 20 中央管理装置、 21 調整支援システム、 22 携帯端末、 23 画像取得部、 24 ディスプレイ、 25 表示制御部、 26 検出部、 27 測定部、 28 姿勢算出部、 29 報知部、 30 判定部、 31 調整量算出部、 32 目盛り、 33 矢印、 34 校正パターン、 35 校正板、 36 保持具、 37 持ち手、 38 スタビライザー、 39 位置算出部、 40 バッファキャップ、 100a プロセッサ、 100b メモリ、 200 専用ハードウェア

Claims (19)

  1.  エレベーターの昇降路において走行するかごに設けられたカメラが撮影する画像を取得する画像取得部と、
     前記昇降路において前記カメラに撮影される校正パターンを表面に示す提示部と、
     前記画像取得部が取得した画像において前記校正パターンを検出する検出部と、
     前記検出部が検出した前記校正パターンを示している前記提示部の前記表面の法線の、前記カメラの光軸に対する傾きに基づいて、前記カメラの姿勢を算出する姿勢算出部と、
     を備えるエレベーターのカメラの調整支援システム。
  2.  前記提示部と一体に設けられ、前記かごの走行方向に対する前記提示部の前記法線の傾きを測定する測定部
     を備える請求項1に記載のエレベーターのカメラの調整支援システム。
  3.  前記姿勢算出部は、前記測定部の測定する傾きが前記かごの走行方向に対して予め設定された算出範囲内の傾きであるときに前記カメラが撮影した画像に基づいて、前記カメラの姿勢として前記かごの走行方向に対する前記カメラの傾きを算出する
     請求項2に記載のエレベーターのカメラの調整支援システム。
  4.  前記姿勢算出部は、前記検出部が前記校正パターンを検出した画像が前記カメラに撮影されたときに前記測定部が測定した前記提示部の傾きに基づいて、前記カメラの姿勢として前記かごの走行方向に対する前記カメラの傾きを算出する
     請求項2に記載のエレベーターのカメラの調整支援システム。
  5.  前記測定部の測定する傾きが前記かごの走行方向に対して予め設定された報知範囲内の傾きであるか否かの情報を、音声によって報知する報知部
     を備える
     請求項2から請求項4のいずれか一項に記載のエレベーターのカメラの調整支援システム。
  6.  前記測定部の測定する傾きを表す情報の信号を、前記カメラの調整作業を行う作業員が視認しうるディスプレイに出力する表示制御部
     を備える
     請求項2から請求項5のいずれか一項に記載のエレベーターのカメラの調整支援システム。
  7.  前記提示部は、前記表面に予め付された画像によって前記校正パターンを示す
     請求項1から請求項5のいずれか一項に記載のエレベーターのカメラの調整支援システム。
  8.  画像を表す信号を出力する表示制御部と、
     前記表示制御部が出力する信号に基づいて画像を表示するディスプレイと、
     を備える
     請求項7に記載のエレベーターのカメラの調整支援システム。
  9.  前記ディスプレイは、前記提示部の前記表面の反対側に配置される
     請求項8に記載のエレベーターのカメラの調整支援システム。
  10.  前記校正パターンを表す信号を出力する表示制御部
     を備え、
     前記提示部は、前記表示制御部が出力する信号に基づく表示によって前記校正パターンを前記表面に示すディスプレイである
     請求項1から請求項5のいずれか一項に記載のエレベーターのカメラの調整支援システム。
  11.  前記表示制御部は、前記検出部による前記校正パターンの検出の成否を表す信号を前記ディスプレイに出力する
     請求項8から請求項10のいずれか一項に記載のエレベーターのカメラの調整支援システム。
  12.  前記表示制御部は、前記カメラの姿勢が予め設定された目標姿勢であるときに前記カメラが撮影した過去の画像、および前記カメラが撮影している現在の画像を重ねて前記ディスプレイに出力する
     請求項8から請求項11のいずれか一項に記載のエレベーターのカメラの調整支援システム。
  13.  前記表示制御部は、前記カメラの姿勢を前記姿勢算出部が直前に算出したときに用いられた、前記カメラが撮影した過去の画像、および前記カメラが撮影している現在の画像を重ねて前記ディスプレイに出力する
     請求項8から請求項11のいずれか一項に記載のエレベーターのカメラの調整支援システム。
  14.  前記姿勢算出部が算出する前記カメラの姿勢および予め設定された目標姿勢の差異に基づいて、前記カメラの姿勢の異常を判定する判定部
     を備える
     請求項1から請求項13のいずれか一項に記載のエレベーターのカメラの調整支援システム。
  15.  前記姿勢算出部が算出する前記カメラの姿勢に基づいて、前記カメラの姿勢を予め設定された目標姿勢に調整する調整量を算出する調整量算出部
     を備える
     請求項1から請求項13のいずれか一項に記載のエレベーターのカメラの調整支援システム。
  16.  前記カメラの調整作業を行う作業員に保持される持ち手と、
     前記持ち手に取り付けられ、前記かごの走行方向に対する前記提示部の前記法線の傾きを維持するように前記提示部を保持するスタビライザーと、
     を備える
     請求項1から請求項15のいずれか一項に記載のエレベーターのカメラの調整支援システム。
  17.  前記提示部は、前記昇降路の下端部において前記かごの下方に配置されたバッファに前記カメラの調整作業の際に載せるバッファキャップの頂部に配置される
     請求項1から請求項16のいずれか一項に記載のエレベーターのカメラの調整支援システム。
  18.  前記提示部は、前記昇降路の下端部において前記かごの下方に配置されたバッファに前記カメラの調整作業の際に載せるバッファキャップであり、頂部において前記表面に予め付された画像によって前記校正パターンを示す
     請求項1から請求項5のいずれか一項に記載のエレベーターのカメラの調整支援システム。
  19.  前記カメラが撮影する画像から前記検出部が前記バッファキャップの頂部において検出する前記校正パターンの当該画像上の位置に基づいて、前記カメラの前記バッファに対する位置を算出する位置算出部
     を備える請求項17または請求項18に記載のエレベーターのカメラの調整支援システム。
PCT/JP2021/021072 2021-06-02 2021-06-02 エレベーターのカメラの調整支援システム WO2022254629A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2021/021072 WO2022254629A1 (ja) 2021-06-02 2021-06-02 エレベーターのカメラの調整支援システム
JP2023525257A JPWO2022254629A1 (ja) 2021-06-02 2021-06-02
CN202180098563.7A CN117355473A (zh) 2021-06-02 2021-06-02 电梯的摄像装置的调整辅助系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/021072 WO2022254629A1 (ja) 2021-06-02 2021-06-02 エレベーターのカメラの調整支援システム

Publications (1)

Publication Number Publication Date
WO2022254629A1 true WO2022254629A1 (ja) 2022-12-08

Family

ID=84322876

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/021072 WO2022254629A1 (ja) 2021-06-02 2021-06-02 エレベーターのカメラの調整支援システム

Country Status (3)

Country Link
JP (1) JPWO2022254629A1 (ja)
CN (1) CN117355473A (ja)
WO (1) WO2022254629A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008288869A (ja) * 2007-05-17 2008-11-27 Konica Minolta Holdings Inc キャリブレーション装置、キャリブレーション方法及びプログラム
JP2010276429A (ja) * 2009-05-27 2010-12-09 Aisin Seiki Co Ltd 校正目標検出装置と、校正目標を検出する校正目標検出方法と、校正目標検出装置のためのプログラム
WO2020208847A1 (ja) * 2019-04-08 2020-10-15 三菱電機ビルテクノサービス株式会社 エレベーターシステム、及びエレベーターの改修方法
JP2020186114A (ja) * 2019-05-16 2020-11-19 東芝エレベータ株式会社 画像処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008288869A (ja) * 2007-05-17 2008-11-27 Konica Minolta Holdings Inc キャリブレーション装置、キャリブレーション方法及びプログラム
JP2010276429A (ja) * 2009-05-27 2010-12-09 Aisin Seiki Co Ltd 校正目標検出装置と、校正目標を検出する校正目標検出方法と、校正目標検出装置のためのプログラム
WO2020208847A1 (ja) * 2019-04-08 2020-10-15 三菱電機ビルテクノサービス株式会社 エレベーターシステム、及びエレベーターの改修方法
JP2020186114A (ja) * 2019-05-16 2020-11-19 東芝エレベータ株式会社 画像処理装置

Also Published As

Publication number Publication date
CN117355473A (zh) 2024-01-05
JPWO2022254629A1 (ja) 2022-12-08

Similar Documents

Publication Publication Date Title
CN112585076B (zh) 升降通道内测量系统
US9033114B2 (en) Determining elevator car position
JP6096965B1 (ja) エレベータの診断装置、及び診断方法
JP2007145475A (ja) エレベーターの制御装置
JP6685633B2 (ja) 寸法測定装置
CN110546097B (zh) 电梯的阶梯差点检装置
JP6702518B1 (ja) エレベーターの位置検出システム
JP6658994B1 (ja) エレベーターの秤装置の秤出力値を点検する機能を備えたエレベーターシステムおよびロボット
WO2022254629A1 (ja) エレベーターのカメラの調整支援システム
JP7444710B2 (ja) 昇降路内計測装置、および、昇降路内計測システム
JP6932674B2 (ja) 携帯端末、およびエレベーター点検システム
JP7353126B2 (ja) 測量システム
WO2018211655A1 (ja) 位置検出装置、エレベーター制御装置及びエレベーターシステム
CN112839891B (zh) 电梯的具有点检井道内部的功能的点检装置以及点检系统
JP6611885B1 (ja) エレベータの段差検出装置及び段差検出システム
WO2022254630A1 (ja) エレベーターのカメラの校正システム
CN216918203U (zh) 一种电梯导轨自动校准装置
JP6705950B2 (ja) モニタを用いたエレベータの動作制御装置および方法
WO2021038624A1 (ja) エレベータシステム
JP2021091508A (ja) レールブラケット固定部の自動計測システム
WO2023275939A1 (ja) エレベーターおよびエレベーターの診断方法
JP4090963B2 (ja) 多次元移動位置決め装置
JP2014088242A (ja) エレベータ用長周期振動検出装置およびエレベータ用長周期振動検出方法
JP2018104106A (ja) エレベータ制御システム及びエレベータ制御方法
JP7322548B2 (ja) 吊りロープ振れ判定方法、データ処理装置、クレーン

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21944133

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023525257

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180098563.7

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21944133

Country of ref document: EP

Kind code of ref document: A1