JP2021066575A - Elevator system - Google Patents

Elevator system Download PDF

Info

Publication number
JP2021066575A
JP2021066575A JP2019194159A JP2019194159A JP2021066575A JP 2021066575 A JP2021066575 A JP 2021066575A JP 2019194159 A JP2019194159 A JP 2019194159A JP 2019194159 A JP2019194159 A JP 2019194159A JP 2021066575 A JP2021066575 A JP 2021066575A
Authority
JP
Japan
Prior art keywords
elevator
sensor
passenger
elevator system
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019194159A
Other languages
Japanese (ja)
Inventor
納谷 英光
Eiko Naya
英光 納谷
貴大 羽鳥
Takahiro HATORI
貴大 羽鳥
孝道 星野
Takamichi Hoshino
孝道 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019194159A priority Critical patent/JP2021066575A/en
Priority to PCT/JP2020/037864 priority patent/WO2021079736A1/en
Publication of JP2021066575A publication Critical patent/JP2021066575A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B1/00Control systems of elevators in general
    • B66B1/02Control systems without regulation, i.e. without retroactive action
    • B66B1/06Control systems without regulation, i.e. without retroactive action electric
    • B66B1/14Control systems without regulation, i.e. without retroactive action electric with devices, e.g. push-buttons, for indirect control of movements
    • B66B1/18Control systems without regulation, i.e. without retroactive action electric with devices, e.g. push-buttons, for indirect control of movements with means for storing pulses controlling the movements of several cars or cages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B13/00Doors, gates, or other apparatus controlling access to, or exit from, cages or lift well landings
    • B66B13/30Constructional features of doors or gates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B3/00Applications of devices for indicating or signalling operating conditions of elevators

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)
  • Elevator Control (AREA)
  • Elevator Door Apparatuses (AREA)

Abstract

To provide an elevator system that facilitates the measurement of the presence or absence of passengers and the number of passengers waiting at an elevator platform, and to improve the efficiency of elevator operation control.SOLUTION: The elevator system includes a sensor 10 that acquires information on passengers getting on and off the elevator. The sensor 10 is installed on the front side of an upper frame of a three-way frame 20 that is installed in the elevator platform 40, while facing the elevator platform 40. The elevator system further includes recognition means 300 that recognizes at least a part of the passenger's head, face, and pupil from data acquired by the sensor 10, and passenger identification means 310 that generates passenger identification information from the recognition result of the recognition means 300. Further, the passenger identification means 310 identifies at least one of the presence/absence of passengers and the number of passengers to generate the passenger identification information.SELECTED DRAWING: Figure 1A

Description

本発明は、センサを備えたエレベーターシステムに関する。 The present invention relates to an elevator system with a sensor.

現在のエレベーターの運行は、乗場に設置された上下ボタンを乗客が押すことにより、各階におけるかご呼びが発生し、運行制御装置はかご呼びが発生した階を把握し、各エレベーターの乗りかごの位置、及び乗りかご内の搭乗可能人数等の各エレベーターの状態に基づいて、どのエレベーターをどの階に配車するかを決定している。到着した乗りかごに乗客が乗り、該乗客が所望の階床番号ボタンを押すことにより、始めて行先階が確定し、運行制御装置は複数の停止階に基づいてエレベーターの動作を決定する。 In the current elevator operation, passengers press the up and down buttons installed at the landing to generate a car call on each floor, and the operation control device grasps the floor where the car call occurred and the position of the car of each elevator. Based on the condition of each elevator, such as the number of passengers in the car, which elevator is to be dispatched to which floor is determined. When a passenger gets on the arriving car and the passenger presses the desired floor number button, the destination floor is determined for the first time, and the operation control device determines the operation of the elevator based on a plurality of stop floors.

エレベーターシステムは、何人の乗客が乗場で乗りかごの到着を待っているかを把握することはできない。よって前述のように、乗場に乗りかごが到着しても乗れない乗客が発生する可能性がある。また、前述の通り、乗客がかごに搭乗して階床番号ボタンを押さないと行先階がわからないので、最適な配車ができていない可能性が高い。 The elevator system cannot keep track of how many passengers are waiting for the car to arrive at the landing. Therefore, as mentioned above, there is a possibility that some passengers will not be able to board even if the car arrives at the landing. In addition, as described above, since the destination floor cannot be known unless the passengers board the car and press the floor number button, there is a high possibility that the optimum vehicle allocation has not been achieved.

乗場の状況を把握するために、カメラを設置して乗場を撮影する技術がある。このような技術として、例えば特許文献1及び2に記載のものがある。 There is a technology to take a picture of the landing by installing a camera in order to grasp the situation of the landing. As such a technique, there are those described in Patent Documents 1 and 2, for example.

特開2016−169096号公報Japanese Unexamined Patent Publication No. 2016-169096 特開2015−044674号公報Japanese Unexamined Patent Publication No. 2015-04467

特許文献1に記載の技術においては、図8に示すように、カメラは車椅子利用者の乗降安全確認のために、カメラを三方枠から飛び出した状態で取り付け、乗場を撮影するようにしている。特許文献1では、所望の映像を撮影できるように案件毎に、上下及び左右に撮影方向を変更する作業が必要となり、調整作業が煩雑であるとともに、乗降にかかるドア周辺より広範囲の乗客を撮像することができないものであった。このように特許文献1に記載の技術では、乗場の待ち人数を計測することができず、また乗場全体の各乗客を識別することもできないものであった。 In the technique described in Patent Document 1, as shown in FIG. 8, the camera is attached in a state of protruding from the three-sided frame in order to confirm the safety of getting on and off the wheelchair user, and the landing is photographed. In Patent Document 1, it is necessary to change the shooting direction up and down and left and right for each case so that a desired image can be shot, which complicates the adjustment work and captures a wide range of passengers from around the door for getting on and off. It was something I couldn't do. As described above, the technique described in Patent Document 1 cannot measure the number of passengers waiting at the landing and cannot identify each passenger in the entire landing.

特許文献2に記載の技術においては、例えば図17〜図19に開示されているように、三方枠の上部にカメラを設け、真上方向から増した方向に向けてかご床面とその場床面の隙間を撮影するようにしている。特許文献2においても、乗降にかかるドア周辺より広範囲の乗客を撮像することができず、また、乗場の待ち人数を計測することができないものであった。 In the technique described in Patent Document 2, for example, as disclosed in FIGS. 17 to 19, a camera is provided on the upper part of the three-sided frame, and the car floor surface and the in-situ floor are provided in an increasing direction from directly above. I try to shoot the gaps on the surface. Also in Patent Document 2, it is not possible to image a wider range of passengers than around the door for getting on and off, and it is not possible to measure the number of people waiting at the landing.

本発明の目的は、エレベーター乗場で待機している乗客の有無、人数を計測し易くし、エレベーター運行制御の効率向上を図ったエレベーターシステムを提供することにある。 An object of the present invention is to provide an elevator system that facilitates measurement of the presence / absence and the number of passengers waiting at an elevator landing and improves the efficiency of elevator operation control.

上記目的を達成するために本発明は、エレベーターに乗降する乗客の情報を取得するセンサを備えるエレベーターシステムにおいて、前記センサは、エレベーター乗場に設けられる三方枠の上枠における前記エレベーター乗場と対向する前面に備えられたことを特徴とする。 In order to achieve the above object, the present invention is in an elevator system including a sensor for acquiring information of passengers getting on and off the elevator, the sensor is a front surface facing the elevator landing in an upper frame of a three-sided frame provided in the elevator landing. It is characterized by being prepared for.

また、本発明は上記に加え、前記センサが取得したデータから乗客の頭部、顔、瞳の少なくとも一部を認識する認識手段と、前記認識手段の認識結果から乗客の識別情報を生成する乗客識別手段を備えたことを特徴とする。 Further, in addition to the above, the present invention includes a recognition means that recognizes at least a part of a passenger's head, face, and pupil from the data acquired by the sensor, and a passenger that generates passenger identification information from the recognition result of the recognition means. It is characterized by having an identification means.

本発明によれば、エレベーター乗場で待機している乗客の有無、人数を計測し易くし、エレベーター運行制御の効率向上を図ったエレベーターシステムを提供することができる。 According to the present invention, it is possible to provide an elevator system that facilitates measuring the presence / absence and the number of passengers waiting at an elevator landing and improves the efficiency of elevator operation control.

実施例1に係るエレベーターの正面図である。It is a front view of the elevator which concerns on Example 1. FIG. 図1AにおけるI−I断面図である。FIG. 1A is a sectional view taken along line I-I in FIG. 1A. 図1AにおけるI−I断面図である。FIG. 1A is a sectional view taken along line I-I in FIG. 1A. 実施例2に係るエレベーターの正面図である。It is a front view of the elevator which concerns on Example 2. FIG. 図2AにおけるII−II断面図である。FIG. 2 is a sectional view taken along line II-II in FIG. 2A. 実施例3に係るエレベーターの正面図である。It is a front view of the elevator which concerns on Example 3. FIG. 実施例4に係るエレベーターの正面図である。It is a front view of the elevator which concerns on Example 4. FIG. 実施例5に係るエレベーターの正面図である。It is a front view of the elevator which concerns on Example 5. 実施例6に係るエレベーターの正面図である。It is a front view of the elevator which concerns on Example 6. 図6AにおけるVI−VI断面図である。FIG. 6 is a sectional view taken along line VI-VI in FIG. 6A. 図6AにおけるVI−VI断面図である。FIG. 6 is a sectional view taken along line VI-VI in FIG. 6A. 実施例7に係るエレベーターシステムの全体構成図である。It is an overall block diagram of the elevator system which concerns on Example 7. FIG. 図7の変形例に係るエレベーターシステムの全体構成図である。It is an overall block diagram of the elevator system which concerns on the modification of FIG. 7. センサコントローラの構成を示すブロック図である。It is a block diagram which shows the structure of a sensor controller. 図9の処理フローを示す図である。It is a figure which shows the processing flow of FIG. 人重なりを考慮した人数検知の処理フロー図である。It is a process flow diagram of the number of people detection considering the overlap of people. 人の重なり状態を示す図である。It is a figure which shows the overlapping state of a person. 人の重なり状態を示す図である。It is a figure which shows the overlapping state of a person. 人の重なり状態を示す図である。It is a figure which shows the overlapping state of a person. 降車時の人の識別ができなかった場合における乗客の乗降情報の生成及び記憶処理を示すフロー図である。It is a flow chart which shows the generation and storage processing of the passenger boarding / alighting information when a person cannot be identified at the time of getting off. 乗降情報を示す図である。It is a figure which shows boarding / alighting information. 人の識別情報に基づく配車制御を実行するフロー図である。It is a flow chart which executes the vehicle allocation control based on a person's identification information. 複数のエレベーターを運行する建屋における三方枠とセンサの配置例を示す図である。It is a figure which shows the arrangement example of a three-sided frame and a sensor in a building which operates a plurality of elevators. 複数のセンサによる認識処理の重複を排除するフロー図である。It is a flow diagram which eliminates the duplication of recognition processing by a plurality of sensors. 担当領域に存在する人に基づいて運行制御を実施するフロー図である。It is a flow chart which carries out operation control based on the person existing in the area in charge. 担当領域の人密度に基づいて運行制御を実施するフロー図である。It is a flow chart which carries out operation control based on the person density of the area in charge.

以下、本発明の実施例について添付の図面を参照しつつ説明する。同様の構成要素には同様の符号を付し、同様の説明は繰り返さない。 Hereinafter, examples of the present invention will be described with reference to the accompanying drawings. Similar components are designated by the same reference numerals, and the same description will not be repeated.

本発明の各種の構成要素は必ずしも個々に独立した存在である必要はなく、一の構成要素が複数の部材から成ること、複数の構成要素が一の部材から成ること、或る構成要素が別の構成要素の一部であること、或る構成要素の一部と他の構成要素の一部とが重複すること、などを許容する。 The various components of the present invention do not necessarily have to be independent of each other, and one component is composed of a plurality of members, a plurality of components are composed of one member, and a certain component is different. It is allowed that a part of one component overlaps with a part of another component.

図1Aは実施例1に係るエレベーターの正面図、図1B及び図1Cは、図1AにおけるI−I断面図である。 1A is a front view of the elevator according to the first embodiment, and FIGS. 1B and 1C are cross-sectional views taken along the line II in FIG. 1A.

エレベーター乗場40の乗降口には、三方枠20が備えられている。三方枠は乗降口の上部と左右の三方に取り付けられている。三方枠は下部に枠がないことによって、枠による段差を無くし、エレベーターの乗りかごへの乗降性を向上させている。段差がないので、特に車椅子や台車の乗り入れには有効である。また、三方枠20には、乗降口を開閉するドア25が取り付けられている。 A three-sided frame 20 is provided at the entrance / exit of the elevator platform 40. The three-sided frame is attached to the upper part of the entrance and to the left and right. Since there is no frame at the bottom of the three-sided frame, the step due to the frame is eliminated and the ease of getting on and off the elevator car is improved. Since there are no steps, it is especially effective for wheelchairs and trolleys. Further, a door 25 for opening and closing the entrance / exit is attached to the three-sided frame 20.

三方枠20の上方乗場面30(破線で囲った部分)には、センサ10が備えられている。上方乗場面30は三方枠20の上枠におけるエレベーター乗場40と対向する前面となる。実施例1では、三方枠20の上方乗場面30における上枠の左右方向中央位置にセンサ10を備えている。センサ10を、魚眼レンズ11と組合せた画像センサ12とした場合、図1Bに示すように、魚眼レンズ11に画角(図中の上下方向に示した破線)が広い広角レンズもしくは魚眼レンズ11を選定すると、画像センサ12の光軸を三方枠20の乗場面に垂直にして組み込むことで、エレベーター乗場40空間の任意の領域もしくは全てを計測することが可能となる。 The sensor 10 is provided in the upper riding scene 30 (the portion surrounded by the broken line) of the three-sided frame 20. The upper riding scene 30 is the front surface facing the elevator landing 40 in the upper frame of the three-sided frame 20. In the first embodiment, the sensor 10 is provided at the center position in the left-right direction of the upper frame in the upper riding scene 30 of the three-sided frame 20. When the sensor 10 is an image sensor 12 combined with a fisheye lens 11, as shown in FIG. 1B, when a wide-angle lens or a fisheye lens 11 having a wide angle of view (broken lines shown in the vertical direction in the figure) is selected for the fisheye lens 11, By incorporating the optical axis of the image sensor 12 perpendicular to the riding scene of the three-sided frame 20, it is possible to measure an arbitrary area or all of the space of the elevator landing 40.

また、センサ10の設置高さからエレベーター乗場40床間までの空間のみを計測したい場合には、魚眼レンズ11の水平面から下側を利用すると良い。この場合、魚眼レンズ11の下半分のみ画像センサ12を組み合わせるか、もしくは画像センサ12が撮影した計測データの下半分を利用する。 Further, when it is desired to measure only the space from the installation height of the sensor 10 to the space between the floors of the elevator landing 40, it is preferable to use the lower side of the fisheye lens 11 from the horizontal plane. In this case, the image sensor 12 is combined only with the lower half of the fisheye lens 11, or the lower half of the measurement data captured by the image sensor 12 is used.

さらに、図1Cに示すように、魚眼レンズ11に前述のレンズよりも画角の狭いレンズを選定しても、上下方向の光軸が水平よりも下方向となるように三方枠20の上方乗場面30に組み込むことで、センサ10の設置高さとエレベーター乗場40の間の空間のみを計測することが可能となる。実施例1では、LiDAR(Light Detection and Ranging)のような上下方向の計測範囲の狭いセンサも、同様に組み込むことでエレベーター乗場40の広範囲を計測することが可能となる。 Further, as shown in FIG. 1C, even if a lens having a narrower angle of view than the above-mentioned lens is selected for the fisheye lens 11, the upper riding scene of the three-sided frame 20 is set so that the optical axis in the vertical direction is downward from the horizontal. By incorporating it in 30, it is possible to measure only the space between the installation height of the sensor 10 and the elevator landing 40. In the first embodiment, a sensor having a narrow vertical measurement range such as LiDAR (Light Detection and Ringing) can be similarly incorporated to measure a wide range of the elevator landing 40.

本実施例では、センサ10の乗場空間に対して計測範囲を確保できるので、乗場で待っている乗客の重なり具合によって、少なくとも、上半身、特に肩より上部となる頭部、顔部、瞳部を計測することが可能になる。例えば、センサ10が頭部のつむじ形状、髪形、帽子等を高精度に識別することにより、個人を区別可能である。また、センサ10が顔を高精度に識別することにより、個人を区別可能である。さらに、センサ10が瞳の光彩を高精度に識別することにより、個人を区別可能である。 In this embodiment, since the measurement range can be secured for the landing space of the sensor 10, at least the upper body, especially the head, face, and pupils above the shoulders are affected by the overlap of passengers waiting at the landing. It becomes possible to measure. For example, an individual can be distinguished by the sensor 10 identifying the whorl shape, hairstyle, hat, etc. of the head with high accuracy. In addition, the sensor 10 can identify an individual with high accuracy. Further, the sensor 10 can distinguish an individual by discriminating the glow of the pupil with high accuracy.

センサ10が頭部、顔部、瞳部が存在することを計測することにより、人が存在するに等しいため人数の計測が可能となる。重なりがない場合には、体全体を計測できるので、占有面積を導出することも可能となる。乗客それぞれの占有面積を導出できると、かご内の充填率を事前に推測できるので、かご内の空間的余裕を調整することが可能となり、乗客の快適度を向上させることができる。さらに、乗場空間寸法、センサ10の計測領域および三方枠20の寸法に合わせて、上方乗場面30にセンサ10を組み込む方向を決定することにより、三方枠20の製造時にセンサ10を固定できるので、製品を敷設する案件毎に、施工時にセンサ10の上下左右を調整する必要がなくなり、施工性が向上する。 By measuring the presence of the head, face, and pupil by the sensor 10, the number of people can be measured because it is equivalent to the presence of a person. If there is no overlap, the entire body can be measured, so it is possible to derive the occupied area. If the occupied area of each passenger can be derived, the filling rate in the car can be estimated in advance, so that the space margin in the car can be adjusted and the comfort level of the passengers can be improved. Further, by determining the direction in which the sensor 10 is incorporated in the upper riding scene 30 according to the landing space dimension, the measurement area of the sensor 10, and the dimension of the three-sided frame 20, the sensor 10 can be fixed at the time of manufacturing the three-sided frame 20. It is not necessary to adjust the top, bottom, left and right of the sensor 10 at the time of construction for each project in which the product is laid, and the workability is improved.

なお、三方枠20が建屋壁面と一体化している場合もある。その場合にはセンサ10を該壁面に組み込んでも構わない。本実施例においては、ドアの具体的構造は省略しているが、本実施例は、中央開き、片開き等どのような構造でも適用することができる。 In some cases, the three-sided frame 20 is integrated with the wall surface of the building. In that case, the sensor 10 may be incorporated in the wall surface. In this embodiment, the specific structure of the door is omitted, but this embodiment can be applied to any structure such as a central opening and a single opening.

次に図2A及び図2Bを用いて、本発明の実施例2について説明する。図2Aは実施例2に係るエレベーターの正面図、図2Bは図2AにおけるII−II断面図である。実施例1と同一の構成については、同一の符号を付し、その詳細な説明は省略する。 Next, Example 2 of the present invention will be described with reference to FIGS. 2A and 2B. FIG. 2A is a front view of the elevator according to the second embodiment, and FIG. 2B is a sectional view taken along line II-II in FIG. 2A. The same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

実施例2において、実施例1と異なるところは、センサ10の設置位置である。乗場の形状によっては、エレベーターに対してエレベーター乗場40空間が左右どちらか片方だけが開放されている場合がある。例えば、図2Aにおいては、エレベーター乗場40を正面視して右側に壁45が位置しており、左側が開放されている。この場合には、壁45と反対側の周辺をセンサ10が検知し易いように、センサ10を三方枠20の上枠における上方乗場面30の左右方向中央位置からずらし、壁45側に寄せて組み込むようにする。 In the second embodiment, the difference from the first embodiment is the installation position of the sensor 10. Depending on the shape of the landing, the elevator landing 40 space may be open to the elevator on either the left or right side. For example, in FIG. 2A, the wall 45 is located on the right side when the elevator landing 40 is viewed from the front, and the left side is open. In this case, the sensor 10 is shifted from the center position in the left-right direction of the upper riding scene 30 in the upper frame of the three-sided frame 20 and moved toward the wall 45 so that the sensor 10 can easily detect the periphery on the opposite side of the wall 45. Try to incorporate it.

また、図1Cでは側断面図に示したように上下方向の光軸が水平より下側に向くように設定していたが、本実施例では、図2Bの上断面図に示したように、左右方向の光軸が壁45から離れるように設定している。 Further, in FIG. 1C, the optical axis in the vertical direction is set to face downward from the horizontal as shown in the side sectional view, but in this embodiment, as shown in the upper sectional view of FIG. 2B, it is set. The optical axis in the left-right direction is set to be separated from the wall 45.

本実施例によれば、センサ10を三方枠20の壁側に寄せて設置するようにしているので、センサ10が乗客の存在しない空間を検出するのを避けることができ、センサ10の計測範囲を有効に活用することができる。 According to this embodiment, since the sensor 10 is installed close to the wall side of the three-sided frame 20, it is possible to avoid the sensor 10 from detecting the space where passengers do not exist, and the measurement range of the sensor 10 Can be used effectively.

次に図3を用いて、本発明の実施例3について説明する。図3は実施例3に係るエレベーターの正面図である。実施例1と同一の構成については、同一の符号を付し、その詳細な説明は省略する。 Next, Example 3 of the present invention will be described with reference to FIG. FIG. 3 is a front view of the elevator according to the third embodiment. The same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

実施例3において、実施例1と異なるところは、インジケータ50にセンサ10を配置したことにある。 In the third embodiment, the difference from the first embodiment is that the sensor 10 is arranged on the indicator 50.

図3において、三方枠20の上部、及び右側上部にはインジケータ50が備えられている。インジケータ50には、乗りかご110(図7、図8、図14参照)の移動方向、及び乗りかご110の位置を示す第1のインジケータ50(a)と、乗りかご110の到着を示す第2のインジケータ50(b)の少なくとも2種類が存在する。インジケータ50(a)は、三方枠20の上部に位置する場合が多く、この場合にも乗場全体を俯瞰できる位置にあるため、乗場の乗客を計測するセンサ10を組み込むのに適している。 In FIG. 3, an indicator 50 is provided on the upper part of the three-sided frame 20 and the upper part on the right side. The indicator 50 includes a first indicator 50 (a) indicating the moving direction of the car 110 (see FIGS. 7, 8 and 14) and the position of the car 110, and a second indicator 50 indicating the arrival of the car 110. There are at least two types of indicators 50 (b). The indicator 50 (a) is often located above the three-sided frame 20, and even in this case, the indicator 50 (a) is in a position where the entire landing can be overlooked, so that it is suitable for incorporating the sensor 10 for measuring the passengers in the landing.

本実施例のインジケータ50(a)では、乗りかご110の移動方向を示す上下方向ランプと、乗りかご110の位置を示す階床番号ランプとの間にセンサ10を組み込んでいるが、本発明はこの位置に限定されるものではない。センサ10は、インジケータ50(a)であればどの位置に組み込みこんでも構わない。 In the indicator 50 (a) of the present embodiment, the sensor 10 is incorporated between the vertical lamp indicating the moving direction of the car 110 and the floor number lamp indicating the position of the car 110. It is not limited to this position. The sensor 10 may be incorporated in any position as long as it is the indicator 50 (a).

インジケータ50(b)は、三方枠20の上方もしくは斜め上方に位置する場合が多く、この場合にもエレベーター乗場40全体を俯瞰できる位置のため、乗場の乗客を計測するセンサ10を組み込むのに適している。本実施例のインジケータ50(b)では、ランプの上側にセンサ10を組み込んでいるが、本発明は、この位置に限定されるものではない。 The indicator 50 (b) is often located above or diagonally above the three-sided frame 20, and even in this case, since it is a position where the entire elevator landing 40 can be overlooked, it is suitable for incorporating a sensor 10 for measuring passengers at the landing. ing. In the indicator 50 (b) of the present embodiment, the sensor 10 is incorporated on the upper side of the lamp, but the present invention is not limited to this position.

本実施例によれば、センサ10をインジケータ50(a)、若しくはインジケータ50(b)に備えることにより、乗客の身長より高い位置から乗客を検出でき、乗場で待機している乗客の重なり具合に応じて頭部、顔部、瞳部を計測することが可能になる。 According to this embodiment, by equipping the indicator 50 (a) or the indicator 50 (b) with the sensor 10, the passengers can be detected from a position higher than the height of the passengers, and the passengers waiting at the landing can be overlapped. It becomes possible to measure the head, face, and pupil accordingly.

次に図4を用いて、本発明の実施例4について説明する。図4は実施例4に係るエレベーターの正面図である。実施例1と同一の構成については、同一の符号を付し、その詳細な説明は省略する。 Next, Example 4 of the present invention will be described with reference to FIG. FIG. 4 is a front view of the elevator according to the fourth embodiment. The same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

実施例4において、実施例1と異なるところは、センサ10の一つとしてステレオカメラ60を三方枠20の上方乗場面30に組み込んだことにある。 In the fourth embodiment, the difference from the first embodiment is that the stereo camera 60 is incorporated into the upper riding scene 30 of the three-sided frame 20 as one of the sensors 10.

ステレオカメラ60は、二つの画像センサ12a,12bを離して設置することにより視差を確保し、この視差を元にして距離も計測できるセンサの一種である。計測結果として、距離画像も取得できる。本実施例においては、三方枠20の上方乗場面30に二つの画像センサ12a,12bを埋め込む。画像センサ12a,12bの間隔は、所望の距離精度を得るために必要な視差を得られる距離とする。図1Cに示したように、画像センサ12a,12bは水平下方向に傾けても構わない。 The stereo camera 60 is a kind of sensor that secures parallax by installing two image sensors 12a and 12b apart from each other and can measure a distance based on the parallax. As a measurement result, a distance image can also be acquired. In this embodiment, two image sensors 12a and 12b are embedded in the upper riding scene 30 of the three-sided frame 20. The distance between the image sensors 12a and 12b is a distance at which the parallax required to obtain the desired distance accuracy can be obtained. As shown in FIG. 1C, the image sensors 12a and 12b may be tilted horizontally downward.

このように、距離画像を計測できるステレオカメラ60を三方枠20の上方乗場面30に組み込むことにより、乗客の身長より高い位置から乗客を検出でき、乗場で待っている乗客の重なり具合に応じて頭部、顔部、瞳部までの距離を計測することが可能となる。 In this way, by incorporating the stereo camera 60 capable of measuring the distance image into the upper riding scene 30 of the three-sided frame 20, passengers can be detected from a position higher than the height of the passengers, and the passengers waiting at the landing can be detected according to the degree of overlap of the passengers. It is possible to measure the distance to the head, face, and pupil.

次に図5を用いて、本発明の実施例5について説明する。図5は実施例5に係るエレベーターの正面図である。実施例1と同一の構成については、同一の符号を付し、その詳細な説明は省略する。 Next, Example 5 of the present invention will be described with reference to FIG. FIG. 5 is a front view of the elevator according to the fifth embodiment. The same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

実施例5において、実施例1と異なるところは、センサ10の一つとしてToFセンサ70を三方枠20の上方乗場面30に組み込んだことにある。 In the fifth embodiment, the difference from the first embodiment is that the ToF sensor 70 is incorporated into the upper riding scene 30 of the three-sided frame 20 as one of the sensors 10.

ToF(Time of Flight)センサ70は、特定波長の光に変調をかけて放射し、該放射光が物体で反射した光を受信して処理することで、該物体までの距離を計測できるセンサ10の一種である。特定波長の光を照射するために別途ライトが必要である。三方枠20の上方乗場面30には、特定波長を放射するライト72と、ToFセンサ70とを組み込む。本実施例では、ToFセンサ70を上方乗場面30の中央に組み込んだが、本発明はこの位置に限定されるものではない。 The ToF (Time of Flight) sensor 70 is a sensor 10 capable of measuring the distance to an object by radiating light having a specific wavelength by modulating it and receiving and processing the light reflected by the object. It is a kind of. A separate light is required to irradiate light of a specific wavelength. A light 72 that emits a specific wavelength and a ToF sensor 70 are incorporated in the upper riding scene 30 of the three-sided frame 20. In this embodiment, the ToF sensor 70 is incorporated in the center of the upper riding scene 30, but the present invention is not limited to this position.

本実施例によれば、物体までの距離を計測できるToFセンサ70を三方枠20の上方乗場面30に組み込むことにより、乗場で待っている乗客までの距離データの集合体であるポイントクラウドを得ることができる。 According to this embodiment, by incorporating the ToF sensor 70 capable of measuring the distance to an object into the upper riding scene 30 of the three-sided frame 20, a point cloud, which is a collection of distance data to passengers waiting at the landing, is obtained. be able to.

次に図6を用いて、本発明の実施例6について説明する。図6Aは実施例6に係るエレベーターの正面図、図6B及び図6Cは図6AにおけるVI−VI断面図である。実施例1と同一の構成については、同一の符号を付し、その詳細な説明は省略する。 Next, Example 6 of the present invention will be described with reference to FIG. 6A is a front view of the elevator according to the sixth embodiment, and FIGS. 6B and 6C are cross-sectional views taken along the line VI-VI in FIG. 6A. The same configurations as those in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

実施例6において、実施例1と異なるところは、センサ10の一つとしてミリ波センサ80を三方枠20の上方乗場面30に組み込んだことにある。 In the sixth embodiment, the difference from the first embodiment is that the millimeter wave sensor 80 is incorporated into the upper riding scene 30 of the three-sided frame 20 as one of the sensors 10.

図6において、ミリ波センサ80は、特定周波数の電波に変調をかけて送信し、該送信波が物体に衝突して生じる反射波を受信して処理することで、該物体までの距離を計測できるセンサ10の一種である。 In FIG. 6, the millimeter wave sensor 80 measures a distance to an object by modulating and transmitting a radio wave having a specific frequency and receiving and processing a reflected wave generated by the transmitted wave colliding with an object. It is a kind of sensor 10 that can be used.

三方枠20の上方乗場面30には、電波の送信と受信のそれぞれの機能を実現するアンテナ82を埋め込む。本実施例では、送信アンテナと、受信アンテナとを平面アンテナに混載する構成としている。アンテナパターンは、特殊な模様に見えるため、アンテナ82の前方にミリ波が通過する目隠し板84等を設けても構わない。アンテナ82の送受信の指向性が広範囲の場合には、図6Bに示すように目隠し板84と、アンテナ82と、水平方向に同軸にすることで、三方枠20の上方乗場面30に、簡単に組み込むことが可能となる。アンテナ32の送受信の指向性が狭い場合には、目隠し板84の開口部は同一で、ミリ波センサ80の位置を目隠し板84の上方で、かつ水平面下方向にして組み込むことにより、エレベーター乗場40のすべての空間を計測範囲とすることができる。 An antenna 82 that realizes the functions of transmitting and receiving radio waves is embedded in the upper riding scene 30 of the three-sided frame 20. In this embodiment, the transmitting antenna and the receiving antenna are mixedly mounted on the planar antenna. Since the antenna pattern looks like a special pattern, a blindfold plate 84 or the like through which millimeter waves pass may be provided in front of the antenna 82. When the directivity of transmission and reception of the antenna 82 is wide, as shown in FIG. 6B, the blind plate 84 and the antenna 82 can be coaxial with each other in the horizontal direction, so that the upper riding scene 30 of the three-sided frame 20 can be easily set. It can be incorporated. When the directivity of transmission and reception of the antenna 32 is narrow, the opening of the blindfold plate 84 is the same, and the position of the millimeter wave sensor 80 is installed above the blindfold plate 84 and downward in the horizontal plane, so that the elevator landing 40 The measurement range can be all the spaces of.

本実施例によれば、物体までの距離を計測できミリ波センサ80を三方枠20の上方乗場面30に組み込むことにより、乗場で待っている乗客までの距離データの集合体であるポイントクラウドを得ることができる。 According to this embodiment, the distance to the object can be measured, and by incorporating the millimeter wave sensor 80 into the upper riding scene 30 of the three-sided frame 20, a point cloud, which is a collection of distance data to the passengers waiting at the landing, is created. Obtainable.

次に図7を用いて、本発明の実施例7について説明する。図7は実施例7に係るエレベーターシステムの全体構成図である。実施例1乃至6と同一の構成については、同一の符号を付し、その詳細な説明は省略する。実施例7では、実施例1乃至6を実現させるための構成について説明する。 Next, Example 7 of the present invention will be described with reference to FIG. 7. FIG. 7 is an overall configuration diagram of the elevator system according to the seventh embodiment. The same configurations as those of Examples 1 to 6 are designated by the same reference numerals, and detailed description thereof will be omitted. In the seventh embodiment, the configuration for realizing the first to sixth embodiments will be described.

図7において、エレベーター100は、乗りかご110と、カウンターウェイト150と、ロープ160と、乗りかご110の上下移動を担う主機120と、主機120を制御するエレベーターコントローラ130と、乗りかご110上の行先階ボタンの処理やかごドアの制御を処理するかごコントローラ140とで構成されている。乗りかご110とカウンターウェイト150はロープ160によって接続されている。 In FIG. 7, the elevator 100 includes a car 110, a counterweight 150, a rope 160, a main engine 120 that moves the car 110 up and down, an elevator controller 130 that controls the main engine 120, and a destination on the car 110. It is composed of a car controller 140 that processes floor buttons and controls the car door. The car 110 and the counterweight 150 are connected by a rope 160.

群管理コントローラ200は、複数のエレベーター100を効率良く運行するように配車等の制御するために、通信路180を介して、複数のエレベーターコントローラ130と通信する。複数台のエレベーター100の各階における三方枠20に埋め込まれた三方枠20の上方乗場面30のセンサ10は、センサコントローラ170に接続される。センサコントローラ170は、通信路190を介して、群管理コントローラ200に接続されている。 The group management controller 200 communicates with the plurality of elevator controllers 130 via the communication path 180 in order to control vehicle allocation and the like so as to efficiently operate the plurality of elevators 100. The sensor 10 of the upper riding scene 30 of the three-sided frame 20 embedded in the three-sided frame 20 on each floor of the plurality of elevators 100 is connected to the sensor controller 170. The sensor controller 170 is connected to the group management controller 200 via a communication path 190.

このような構成にすることで、エレベーターシステムでは、エレベーター乗場40の乗客の人数計測および識別が可能となる。群管理コントローラ200は、各階で計測された人数に応じてエレベーターの配車を行うことができる。 With such a configuration, the elevator system can measure and identify the number of passengers in the elevator landing 40. The group management controller 200 can dispatch elevators according to the number of people measured on each floor.

なお、本実施例では、各エレベーター100に、センサコントローラ170を設けているが、この限りではない。センサコントローラ170の処理能力が高い場合には、全てのセンサ10を、1台のセンサコントローラ170に接続して処理しても構わない。さらに、群管理コントローラ200の処理能力が高い場合には、全てのセンサ10を、群管理コントローラ200に接続して処理しても構わない。
〔変形例〕
次に図8を用いて変形例を説明する。図8は図7の変形例に係るエレベーターシステムの全体構成図である。図7と同一の構成については、同一の符号を付し、その詳細な説明は省略する。変形例においては、図7におけるセンサコントローラ170及び群管理コントローラ200の処理をクラウド240で実行するように構成している。クラウド240は、通信網230を経由して、通信することが可能である。通信網230への接続のために、ルーター等の通信中継設備220がある。クラウド240がグローバル・クラウドの場合には、通信網230は広域通信網となる。クラウド240がオンプレミスの場合には、通信網230はLANとなる。
In this embodiment, the sensor controller 170 is provided in each elevator 100, but the present invention is not limited to this. If the processing capacity of the sensor controller 170 is high, all the sensors 10 may be connected to one sensor controller 170 for processing. Further, when the processing capacity of the group management controller 200 is high, all the sensors 10 may be connected to the group management controller 200 for processing.
[Modification example]
Next, a modified example will be described with reference to FIG. FIG. 8 is an overall configuration diagram of the elevator system according to the modified example of FIG. 7. The same configurations as those in FIG. 7 are designated by the same reference numerals, and detailed description thereof will be omitted. In the modified example, the processing of the sensor controller 170 and the group management controller 200 in FIG. 7 is configured to be executed in the cloud 240. The cloud 240 can communicate via the communication network 230. There is a communication relay facility 220 such as a router for connecting to the communication network 230. When the cloud 240 is a global cloud, the communication network 230 is a wide area communication network. When the cloud 240 is on-premises, the communication network 230 becomes a LAN.

かごコントローラ140は、通信路180を経由して、通信中継設備220と接続し、クラウド240と通信が可能となる。各階のエレベーター乗場40に、エレベーター100毎に設置されている三方枠20の上方乗場面30に組み込まれたセンサ10は、通信路190を経由して、通信中継設備220と接続することで、クラウド240と通信が可能となる。 The car controller 140 connects to the communication relay facility 220 via the communication path 180, and can communicate with the cloud 240. The sensor 10 incorporated in the upper riding scene 30 of the three-sided frame 20 installed for each elevator 100 at the elevator landing 40 on each floor is connected to the communication relay facility 220 via the communication path 190 to form a cloud. Communication with 240 becomes possible.

変形例によれば、上記のように構成にすることにより、エレベーター100が設置される昇降路に物理的に存在しなければいけないエレベーター100の機構及び設備と、新たなセンサ10を建屋側に残し、エレベーター100の近傍に設置する必要がない群管理処理及びセンサ処理を、クラウド240に集約することができるため、最低限のエレベーター100の機構及び設備のみを敷設するだけとなり、施工及び保守作業を簡素化することができる。
〔センサコントローラの構成〕
次にセンサコントローラの構成について、図9を用いて説明する。図9はセンサコントローラ170の構成を示すブロック図である。センサ10で計測されたデータは、センサコントローラ170に送信される。センサコントローラ170は、認識手段300と、乗客識別手段310と、記憶手段320と、学習手段330と、呼び推測手段340と座標変換手段350とを備えている。
According to the modified example, by configuring as described above, the mechanism and equipment of the elevator 100 that must physically exist in the hoistway where the elevator 100 is installed and the new sensor 10 are left on the building side. Since group management processing and sensor processing that do not need to be installed near the elevator 100 can be centralized in the cloud 240, only the minimum mechanism and equipment of the elevator 100 need to be laid, and construction and maintenance work can be performed. It can be simplified.
[Sensor controller configuration]
Next, the configuration of the sensor controller will be described with reference to FIG. FIG. 9 is a block diagram showing the configuration of the sensor controller 170. The data measured by the sensor 10 is transmitted to the sensor controller 170. The sensor controller 170 includes a recognition means 300, a passenger identification means 310, a storage means 320, a learning means 330, a call guessing means 340, and a coordinate conversion means 350.

センサ10が取得したデータは、認識手段300に送信され、認識手段300によって、人物、乗客の頭部、顔、瞳の少なくとも一部が存在するか認識し、認識できた場合にはセンサ10を基準とした位置情報も認識結果として生成する。 The data acquired by the sensor 10 is transmitted to the recognition means 300, and the recognition means 300 recognizes whether or not at least a part of a person, a passenger's head, a face, and a pupil exists, and if the recognition means can be recognized, the sensor 10 is used. The reference position information is also generated as a recognition result.

認識手段300の認識結果は乗客識別手段310に送信され、乗客識別手段310では認識結果から乗客を識別する。乗客識別手段310は乗客の有無、乗客の人数の少なくとも1つを識別して乗客の識別情報を生成し、記憶手段320、呼び推測手段340に出力する。 The recognition result of the recognition means 300 is transmitted to the passenger identification means 310, and the passenger identification means 310 identifies the passenger from the recognition result. The passenger identification means 310 identifies at least one of the presence or absence of passengers and the number of passengers, generates passenger identification information, and outputs the information to the storage means 320 and the call guessing means 340.

乗客識別手段310は、センサ10の計測精度によって、乗客の有無しか判断できない場合と、乗客の人数として計数できる場合がある。乗客の人数として計数できた場合でも、絶対値として人数を得られる場合と、N人以上といった範囲値として出力する場合がある。 Depending on the measurement accuracy of the sensor 10, the passenger identification means 310 may only determine the presence or absence of passengers, or may count the number of passengers. Even if it can be counted as the number of passengers, there are cases where the number of passengers can be obtained as an absolute value, and there are cases where it is output as a range value such as N or more.

また、乗客識別手段310は、個々の乗客について、年齢、性別等の推測情報、もしくは、個人を特定できないが区別できる識別情報を生成するとともに、該識別情報に対応する乗客の情報を生成する。 In addition, the passenger identification means 310 generates guess information such as age and gender, or identification information that cannot identify an individual but can be distinguished for each passenger, and also generates passenger information corresponding to the identification information.

記憶手段320は、少なくとも、該識別情報と、時間情報と、乗降階床番号とを記憶する。学習手段330は、例えば、機械学習や深層学習のような手段が存在し、記憶手段320で記憶されている識別情報と、時間情報と、乗降階床番号とを学習し、該学習の結果として学習済みネットワークを生成する。 The storage means 320 stores at least the identification information, the time information, and the boarding / alighting floor number. The learning means 330 has means such as machine learning and deep learning, and learns the identification information, the time information, and the boarding / alighting floor number stored in the storage means 320, and as a result of the learning. Generate a trained network.

学習手段330は、学習済みネットワークを記憶手段320に記憶する。 The learning means 330 stores the learned network in the storage means 320.

呼び推測手段340は、乗客識別手段310が生成する識別情報と、記憶手段320で記憶されている該ネットワークから、かご呼びを推測する。 The call guessing means 340 guesses the car call from the identification information generated by the passenger identification means 310 and the network stored in the storage means 320.

座標変換手段350は、認識手段300から出力されるセンサ10を基準にした認識対象の位置情報を、エレベーター乗場40平面を基準面としたセンサ10の組み込み位置を高さ方向とする三次元空間の該空間座標系に変換しなおす。 The coordinate conversion means 350 uses the position information of the recognition target based on the sensor 10 output from the recognition means 300 in a three-dimensional space whose height direction is the built-in position of the sensor 10 with the plane of the elevator landing 40 as a reference plane. Convert to the spatial coordinate system again.

本実施例では、認識手段300、乗客識別手段310、記憶手段320、学習手段330、呼び推測手段340、座標変換手段350をセンサコントローラ170に備えるようにしたが、これらの手段は群管理コントローラ200、若しくはクラウド240に備えるようにしても良い。 In this embodiment, the sensor controller 170 is provided with the recognition means 300, the passenger identification means 310, the storage means 320, the learning means 330, the call guessing means 340, and the coordinate conversion means 350, but these means are provided in the group management controller 200. Alternatively, it may be prepared for the cloud 240.

本実施例では、乗客の有無、乗客の人数の少なくとも1つを識別して乗客の識別情報を生成する乗客識別手段310を備えている。群管理コントローラ200は、乗客の識別情報に基づいてエレベーターの運行制御を行うようにすることで、乗客の有無、人数に応じた運行ができ、エレベーター運行の効率向上が可能となる。
〔人数計測による処理フロー〕
図10は、図9の処理フローを示す図である。
In this embodiment, the passenger identification means 310 is provided to identify at least one of the presence or absence of passengers and the number of passengers and generate passenger identification information. By controlling the operation of the elevator based on the passenger identification information, the group management controller 200 can operate according to the presence or absence of passengers and the number of passengers, and can improve the efficiency of elevator operation.
[Processing flow by measuring the number of people]
FIG. 10 is a diagram showing a processing flow of FIG.

図10において、センサ10は、エレベーター乗場40を計測して計測データを生成する(ステップS10)。 In FIG. 10, the sensor 10 measures the elevator landing 40 and generates measurement data (step S10).

認識手段300は、センサ10で計測された計測データを処理して、人と認識できたデータを抽出する(ステップS20)。認識手段300には、例えばセンサ10が画像センサの場合には深層学習があり、人と認識できた領域情報と、人である確度値を出力する。 The recognition means 300 processes the measurement data measured by the sensor 10 and extracts the data that can be recognized as a person (step S20). For example, when the sensor 10 is an image sensor, the recognition means 300 has deep learning, and outputs area information that can be recognized as a person and an accuracy value that is a person.

乗客識別手段310は、認識手段300で抽出されたデータから、人の確度値等から乗客人数を決定する(ステップS30)。 The passenger identification means 310 determines the number of passengers from the data extracted by the recognition means 300 from the accuracy value of a person or the like (step S30).

呼び推測手段340は、乗客識別手段310で識別された乗客人数(識別情報)から、エレベーター乗場40の階の待ち人数に応じた乗りかごの空きがあるエレベーター100を配車する。1台のエレベーター100では空きが足りない場合には、複数のエレベーター100を配車するよう運行制御を実行する(ステップS50)。従来のエレベーター100では、乗客が乗場階の上下ボタンを押すことにより、その時点で呼びが発生したことを知ることはできるが、乗客が何人いるのかを知ることはできないため、適切な台数のエレベーター100を当該階に配車することはできなかった。また、該ボタンを押した後に、エレベーター100の利用をやめてしまった乗客も知ることはできなかった。このように、エレベーター100の利用をやめてしまって待ち乗客がいない場合に、即座に再配車して、無駄な停車や、エレベーター乗場40にいない乗客の乗車のために、事前に定められたドア開維持の無駄な時間の消費を回避することができる。
〔乗客識別手段310による人数更新処理フロー〕
次に図11及び図12を用いて、乗客識別手段310の人数更新処理について説明する。
The call guessing means 340 dispatches an elevator 100 having a vacant car according to the number of people waiting on the floor of the elevator landing 40 from the number of passengers (identification information) identified by the passenger identification means 310. If there is not enough space in one elevator 100, operation control is executed so that a plurality of elevators 100 are dispatched (step S50). In the conventional elevator 100, passengers can know that a call has occurred at that time by pressing the up and down buttons on the landing floor, but it is not possible to know how many passengers there are, so an appropriate number of elevators can be used. It was not possible to dispatch 100 to the floor. In addition, it was not possible to know the passengers who stopped using the elevator 100 after pressing the button. In this way, when the use of the elevator 100 is stopped and there are no waiting passengers, the vehicle is immediately redistributed, and a predetermined door is opened for unnecessary stoppage or boarding of passengers who are not at the elevator landing 40. It is possible to avoid wasting maintenance time.
[Passenger identification means 310 for updating the number of passengers]
Next, the number update process of the passenger identification means 310 will be described with reference to FIGS. 11 and 12.

図11は人重なりを考慮した人数検知の処理フロー図、図12A〜Cは人の重なり状態を示す図である。 FIG. 11 is a processing flow diagram for detecting the number of people in consideration of the overlap of people, and FIGS. 12A to 12C are diagrams showing the overlapping state of people.

センサ10の精度や、認識手段300の手段の処理方式によっては、定常的に認識結果が得られない。また、人の微妙な動きにより、人と人の重なり具合が変化して、認識結果も変化する。エレベーター乗場40において乗りかご110の到着を待つ乗客は、直立不動で待機しているわけではなく、絶えず体の向きを変えたり、左右に体重移動したり、インジケータ50を確認するために他人の肩越しに覗き込んだりするため、センサ10に対して十分な計測領域が確保できる機会が存在する。本発明のように、センサ10を三方枠20の上方乗場面30(三方枠20の上枠におけるエレベーター乗場40と対向する前面)に設置することにより、複数の乗客の頭頂部が計測可能となるが、重なり具合によっては、顔部分の認識、瞳の認識等が可能になる。 Depending on the accuracy of the sensor 10 and the processing method of the means of the recognition means 300, the recognition result cannot be constantly obtained. In addition, the degree of overlap between people changes due to the delicate movements of people, and the recognition result also changes. Passengers waiting for the arrival of the car 110 at the elevator platform 40 are not standing upright and waiting, but constantly turning around, shifting their weight from side to side, and over the shoulders of others to check the indicator 50. There is an opportunity to secure a sufficient measurement area for the sensor 10 because it looks into the sensor 10. As in the present invention, by installing the sensor 10 in the upper riding scene 30 of the three-sided frame 20 (the front surface of the upper frame of the three-sided frame 20 facing the elevator landing 40), it is possible to measure the crowns of a plurality of passengers. However, depending on the degree of overlap, it is possible to recognize the face part, the pupil, and the like.

エレベーター乗場40において、乗りかご110の到着を待つ複数の乗客は、任意の場所で待っているため、センサ10からみて重なりが生じる場合がある。ある乗客が別の乗客の陰に入ってしまうと、前述のような一般的なセンサ10で計測することは不可能である。乗客の動きによる重なり度合によって、認識できたりできなかったりが頻繁に発生する。 At the elevator landing 40, since a plurality of passengers waiting for the arrival of the car 110 are waiting at an arbitrary place, overlap may occur from the viewpoint of the sensor 10. If one passenger gets behind another passenger, it is impossible to measure with the general sensor 10 as described above. Depending on the degree of overlap due to the movement of passengers, it often happens that it cannot be recognized or not.

乗客識別手段310は、認識手段300から認識結果を取得する(ステップS100)。乗客識別手段310は、記憶されている人として認識された結果から、新たに取得した認識結果が同一か否かを判定する(ステップS110)。記憶されている認識結果と同一の場合は、人数は現状維持とする(ステップS130)。記憶されている認識結果と異なる場合は、新たに人物して認識された結果を記憶する(ステップS120)。新たな乗客が追加されたので、人数を加算し、更新する(ステップS130)。 The passenger identification means 310 acquires the recognition result from the recognition means 300 (step S100). The passenger identification means 310 determines whether or not the newly acquired recognition result is the same from the result of being recognized as a memorized person (step S110). If it is the same as the stored recognition result, the number of people is maintained as it is (step S130). If it is different from the stored recognition result, the result recognized as a new person is stored (step S120). Since new passengers have been added, the number of passengers is added and updated (step S130).

乗場の乗客待機時における重なりと認識結果について図12を用いて説明する。図12Aでは、人認識によって人1と、人2は、上半身が完全に計測できることにより人物として高確度で認識される。人1との重なりが大きい人3は、人として認識されない可能性が高い。 The overlap and the recognition result at the time of waiting for passengers at the landing will be described with reference to FIG. In FIG. 12A, person 1 and person 2 are recognized as humans with high accuracy because the upper body can be completely measured by human recognition. The person 3 who has a large overlap with the person 1 is likely not recognized as a person.

図12Bでは、人3がずれることで、センサに対して瞳が晒されており、瞳が高確度で認識されるため、人1、人2とは異なる新たな人物として認識することができる。 In FIG. 12B, when the person 3 is displaced, the pupil is exposed to the sensor, and the pupil is recognized with high accuracy, so that the person can be recognized as a new person different from the person 1 and the person 2.

図12Cでは、さらに人3がずれることで、センサに対して顔が晒されており、顔が高確度で認識されるため、人3を人物として再認識される。このように、重なりの度合に応じて、顔や瞳のような領域の異なる認識処理を利用することにより、人が重なっている場合でも、人数を決定することが可能となる。
〔乗客識別手段310による乗降処理フロー〕
次に図13を用いて、降車時の人の識別ができなかった場合の処理について説明する。図13は降車時の人の識別ができなかった場合における乗客の乗降情報の生成及び記憶処理を示すフロー図である。
In FIG. 12C, when the person 3 is further displaced, the face is exposed to the sensor, and the face is recognized with high accuracy, so that the person 3 is re-recognized as a person. In this way, by using recognition processes having different regions such as faces and eyes according to the degree of overlap, it is possible to determine the number of people even when people overlap.
[Passenger identification means 310 boarding / alighting processing flow]
Next, with reference to FIG. 13, a process when a person cannot be identified at the time of getting off will be described. FIG. 13 is a flow chart showing generation and storage processing of passenger boarding / alighting information when a person cannot be identified at the time of getting off.

センサ10は、三方枠20の上方乗場面30、若しくはインジケータ50に設置されているため、降車時において乗客はセンサ10に対して後ろ向きとなるため、顔正面、瞳を計測範囲に収めることはできず、人の識別は困難である。そこで、同一人物が降車階から再度乗車する確率が高いと仮定する。なお、頭部は計測範囲に収まるので、前述の通り、つむじ形状、髪形、帽子等、に基づく人識別ができれば、降車時にも人の識別は可能である。 Since the sensor 10 is installed in the upper riding scene 30 of the three-sided frame 20 or the indicator 50, the passenger faces backward with respect to the sensor 10 when getting off, so that the front of the face and the pupil can be within the measurement range. However, it is difficult to identify a person. Therefore, it is assumed that the same person has a high probability of boarding again from the disembarkation floor. Since the head is within the measurement range, as described above, if the person can be identified based on the whorl shape, hairstyle, hat, etc., the person can be identified even when getting off.

乗客識別手段310は、人の識別情報及び認識位置等により、当該人物が乗りかご110に乗車したことを確定させる(ステップS200)。 The passenger identification means 310 determines that the person has boarded the car 110 based on the person's identification information, the recognition position, and the like (step S200).

乗客識別手段310は、人の識別情報に相当する当該階から乗車情報(乗車時間、乗車階)が記憶手段320に記憶されているか確認する(ステップS210)。 The passenger identification means 310 confirms whether the boarding information (boarding time, boarding floor) is stored in the storage means 320 from the floor corresponding to the person's identification information (step S210).

記憶されていない場合、乗客識別手段310は、人の識別情報で当該階からの乗車情報(乗車時間、乗車階)を記憶手段320に登録する(ステップS220)。この時点においては、乗車に対応した降車情報(降車階)は存在しない。当該人物が降車階から乗車する(ステップS200)と、人の識別情報に相当する当該階から乗車情報が記憶されているか確認する(ステップS210)。記憶され且つ降車階情報が記憶されていない場合、当該階を降車階情報として記憶する(ステップS230)。なお、上述の頭部による降車時の人識別ができた場合(ステップS240)、乗客識別手段310は、人の識別情報に相当する当該階から乗車情報が記憶されているか確認する(ステップS210)。以降は、上記フローと同一である。以上のフローを繰り返すことにより、乗客識別手段310は、乗客の頭部の認識結果から客の乗降情報360を識別し、記憶手段320に記憶させる。 If it is not stored, the passenger identification means 310 registers the boarding information (boarding time, boarding floor) from the floor with the person's identification information in the storage means 320 (step S220). At this point, there is no disembarkation information (disembarkation floor) corresponding to boarding. When the person gets on the train from the disembarkation floor (step S200), it is confirmed whether the boarding information is stored from the floor corresponding to the person's identification information (step S210). If it is stored and the disembarkation floor information is not stored, the floor is stored as the disembarkation floor information (step S230). When the person can be identified when getting off by the head (step S240), the passenger identification means 310 confirms whether the boarding information is stored from the floor corresponding to the person's identification information (step S210). .. After that, it is the same as the above flow. By repeating the above flow, the passenger identification means 310 identifies the passenger boarding / alighting information 360 from the recognition result of the passenger's head and stores it in the storage means 320.

図14は乗降情報360を示す図である。記憶手段320には、乗客の識別子と、この識別子に付随した乗車時間と、乗客が乗車した乗車階、乗客が降車した降車階に関する情報が、乗降情報360として記憶される。 FIG. 14 is a diagram showing boarding / alighting information 360. The storage means 320 stores the passenger identifier, the boarding time associated with the identifier, the boarding floor on which the passenger boarded, and the disembarking floor on which the passenger disembarked, as boarding / alighting information 360.

例えば、識別子Aが付与された乗客Aは、出勤時間である07:30に1階から職場がある3階まで乗車する。昼食時の12:00には、乗客Aは、3階から食堂がある10階まで乗車する。識別子Bが付与された乗客Bは、出勤時間である08:00に1階から職場がある4階まで乗車する。会議が開催される14:00には、乗客Bは、4階から会議室がある8階まで乗車する。識別子Dが付与された乗客Dは、出勤時間である07:30に1階から職場がある4階まで乗車する。昼食時の12:00には、乗客Dは、4階から食堂がある10階まで乗車する。 For example, the passenger A to which the identifier A is assigned gets on the train from the first floor to the third floor where the workplace is located at 07:30, which is the commuting time. At 12:00 at lunch, Passenger A boarded from the 3rd floor to the 10th floor where the dining room is located. Passenger B to which the identifier B is assigned gets on the train from the 1st floor to the 4th floor where the workplace is located at 08:00, which is the commuting time. At 14:00 when the meeting is held, Passenger B boarded from the 4th floor to the 8th floor where the meeting room is located. Passenger D, who is given the identifier D, gets on the train from the 1st floor to the 4th floor where the workplace is located at 07:30, which is the commuting time. At 12:00 at lunch, Passenger D boarded from the 4th floor to the 10th floor where the dining room is located.

乗降情報360からは、乗客A、乗客D、乗客Eは、07:30に出勤し、1階からエレベーターに乗車して職場に向かうことが把握できる。同様に、乗降情報360からは、乗客B、乗客Eは会議開催に合わせ、14:00に4階から8階に向かうことが把握できる。 From the boarding / alighting information 360, it can be understood that passenger A, passenger D, and passenger E go to work at 07:30 and board the elevator from the first floor to head for the workplace. Similarly, from the boarding / alighting information 360, it can be understood that passengers B and E are heading from the 4th floor to the 8th floor at 14:00 in accordance with the holding of the conference.

なお、乗車階は確認できたが、降車階が確認できていないといった乗降情報360が残る可能性もある。このような乗降情報360については、例えば、深夜等の乗客の利用が少ない時間帯を選んで、整理・消去する。蓄積された乗降情報360を機械学習、深層学習等の学習手段330によって学習を実行すると、学習済みネットワークを構築することができる。
〔乗降情報360に基づく配車制御フロー〕
図15は人の識別情報に基づく配車制御を実行するフロー図である。
In addition, there is a possibility that the boarding / alighting information 360 may remain, such as the boarding floor could be confirmed but the getting-off floor could not be confirmed. Such boarding / alighting information 360 is arranged / deleted by selecting, for example, a time zone in which passengers are less used, such as midnight. When the accumulated boarding / alighting information 360 is learned by a learning means 330 such as machine learning or deep learning, a learned network can be constructed.
[Vehicle allocation control flow based on boarding / alighting information 360]
FIG. 15 is a flow chart for executing vehicle allocation control based on human identification information.

図15において、センサ10は、エレベーター乗場40を計測して計測データを生成する(ステップS10)。 In FIG. 15, the sensor 10 measures the elevator landing 40 and generates measurement data (step S10).

認識手段300は、センサ10が検出した計測データを処理して、人と認識できたデータを抽出する(ステップS20)。 The recognition means 300 processes the measurement data detected by the sensor 10 and extracts the data that can be recognized as a person (step S20).

乗客識別手段310は、認識手段300で抽出された認識データから、前述の識別情報を生成する(ステップS40)。 The passenger identification means 310 generates the above-mentioned identification information from the recognition data extracted by the recognition means 300 (step S40).

呼び推測手段340は、該識別情報(認識結果)と、乗降情報360とから前述の学習済みネットワークにより、乗客の降車階を推測する(ステップS300)。例えば、時間が07:30のとき、図14に示すように、1階からは乗客A、乗客D、乗客Eが乗車し、それぞれ3階、4階で降車する。呼び推測手段340では、識別情報と、時間と、乗車階、乗降情報360から降車階を推測する。 The call guessing means 340 estimates the passenger's disembarkation floor from the identification information (recognition result) and the boarding / alighting information 360 from the above-mentioned learned network (step S300). For example, when the time is 07:30, as shown in FIG. 14, passenger A, passenger D, and passenger E board from the first floor and get off at the third and fourth floors, respectively. The call guessing means 340 estimates the boarding floor from the identification information, the time, the boarding floor, and the boarding / alighting information 360.

また、呼び推測手段340は、推測した降車階を行先階として呼びを記憶手段320に登録する(ステップS310)。 Further, the call guessing means 340 registers the call in the storage means 320 with the estimated drop-off floor as the destination floor (step S310).

群管理コントローラ200は、新たに登録された呼びに基づいて再配車する(ステップS50)。 The group management controller 200 redistributes the vehicle based on the newly registered call (step S50).

このように、過去における乗客の乗降情報360に基づいて行先階を推測することにより、効率良くエレベーター100の運行を制御することが可能となる。
〔複数のエレベーターの人数計測〕
次に、複数のエレベーターが設置された状態について説明する。図16は複数のエレベーターを運行する建屋における三方枠20とセンサ10の配置例を示す図である。図16は、天井から俯瞰した図である。
In this way, by estimating the destination floor based on the passenger boarding / alighting information 360 in the past, it is possible to efficiently control the operation of the elevator 100.
[Measurement of the number of people in multiple elevators]
Next, a state in which a plurality of elevators are installed will be described. FIG. 16 is a diagram showing an arrangement example of the three-sided frame 20 and the sensor 10 in a building that operates a plurality of elevators. FIG. 16 is a bird's-eye view from the ceiling.

図16において、エレベーター101、102、103、104、105、106の6台は、3台ずつ向い合せに配置する一般的な配置となっている。複数のエレベーター101、102、103、104、105、106のそれぞれには、センサ10が備えられている。 In FIG. 16, the six elevators 101, 102, 103, 104, 105, and 106 are in a general arrangement in which three elevators are arranged facing each other. Each of the plurality of elevators 101, 102, 103, 104, 105, 106 is provided with a sensor 10.

座標系は、通路46側からエレベーター乗場40に向かって水平左右方向がX軸、奥行き方向がZ軸、高さ方向がY軸である。エレベーター乗場40の奥が壁45によって行き止まりになっているため、図2に示したように、センサ10の軸をエレベーター乗場40空間の開放方向に向け、センサ10の設置位置を三方枠20の上方乗場面30の奥方向にシフトしている。6個(複数)のセンサ10の計測範囲を組み合わせることで、エレベーター乗場40空間のほぼ全域を網羅できていることがわかる。センサ10による、人認識、頭部認識、顔認識、瞳認識等の処理によって得られる認識対象物の位置を、座標変換手段350によって座標系に変換することで、エレベーター乗場40空間にマッピングすることができる。 The coordinate system is the X-axis in the horizontal left-right direction, the Z-axis in the depth direction, and the Y-axis in the height direction from the passage 46 side toward the elevator landing 40. Since the back of the elevator landing 40 is a dead end due to the wall 45, as shown in FIG. 2, the axis of the sensor 10 is oriented in the opening direction of the elevator landing 40 space, and the installation position of the sensor 10 is above the three-sided frame 20. It is shifting toward the back of the riding scene 30. It can be seen that by combining the measurement ranges of the six (plural) sensors 10, almost the entire area of the elevator landing 40 space can be covered. By converting the position of the recognition object obtained by processing such as human recognition, head recognition, face recognition, and pupil recognition by the sensor 10 into a coordinate system by the coordinate conversion means 350, the position is mapped to the elevator landing 40 space. Can be done.

図16では、エレベーター101、102、103、104、105、106に対応した領域として401、402、403、404、405、406を定義している。これは、それぞれのエレベーターが担当する仮想的な領域である。 In FIG. 16, 401, 402, 403, 404, 405, and 406 are defined as regions corresponding to the elevators 101, 102, 103, 104, 105, and 106. This is the virtual area that each elevator is in charge of.

本実施例によれば、センサ10の軸をエレベーター乗場40空間の開放方向に向け、センサ10の設置位置を三方枠20の上方乗場面30の奥方向にシフトしているので、エレベーター乗場40空間を網羅的に検出することができる。 According to this embodiment, the axis of the sensor 10 is directed toward the opening of the elevator landing 40 space, and the installation position of the sensor 10 is shifted toward the back of the upper riding scene 30 of the three-sided frame 20, so that the elevator landing 40 space Can be detected comprehensively.

次に、図17を用いて、複数のセンサ10による認識処理について説明する。図17は複数のセンサ10による認識処理の重複を排除するフロー図である。 Next, the recognition process by the plurality of sensors 10 will be described with reference to FIG. FIG. 17 is a flow diagram for eliminating duplication of recognition processing by the plurality of sensors 10.

図16に示したように、複数のエレベーター100が設置されている場合、任意の乗場に複数のセンサ10が存在し、計測領域に重なりが生じ同一人物が重複して認識されてしまうため、重複を排除する必要がある。 As shown in FIG. 16, when a plurality of elevators 100 are installed, a plurality of sensors 10 exist at an arbitrary landing, the measurement areas overlap, and the same person is recognized in duplicate. Need to be eliminated.

センサ10は、エレベーター乗場40を計測して計測データを生成する(ステップS10)。 The sensor 10 measures the elevator landing 40 and generates measurement data (step S10).

認識手段300は、センサ10で計測された計測データを処理して、人と認識できたデータを抽出する(ステップS20)。 The recognition means 300 processes the measurement data measured by the sensor 10 and extracts the data that can be recognized as a person (step S20).

乗客識別手段310は、認識手段300で抽出された認識データから、前述の識別情報を生成する(ステップS40)。 The passenger identification means 310 generates the above-mentioned identification information from the recognition data extracted by the recognition means 300 (step S40).

座標変換手段350は、識別情報をセンサ10の設置位置情報によって座標変換してエレベーター乗場40の座標情報として記憶手段320に記憶する(ステップS42)。なお、センサ10の設置位置情報は、あらかじめ記憶手段320に記憶されているとものとする。 The coordinate conversion means 350 converts the identification information into coordinates based on the installation position information of the sensor 10 and stores the identification information in the storage means 320 as the coordinate information of the elevator landing 40 (step S42). It is assumed that the installation position information of the sensor 10 is stored in the storage means 320 in advance.

認識手段300は、計測が終了していないセンサ10が残っているかを判定する(ステップS44)。 The recognition means 300 determines whether or not the sensor 10 for which the measurement has not been completed remains (step S44).

残っている場合にはステップS10に戻ってフローを継続する。残っていない場合には、乗客識別手段310は、座標情報に基づいて記憶された識別情報の重複を排除する(ステップS46)。重複排除後、乗客識別手段310は、重複はないユニークな識別結果として確定する(ステップS48)。確定した結果は、記憶手段320に記憶される。複数のセンサ10が存在する場合でも、このように重複を排除することで、単一の識別結果を得ることが可能となる。
〔複数のエレベーター100における個々の人数計測方法〕
次に図18を用いて複数のエレベーター100における個々の人数計測方法について説明する。図18は担当領域に存在する人に基づいて運行制御を実施するフロー図である。領域401、402、403、404、405、406での重複部分は図17で示した方法で排除されている。
If it remains, the process returns to step S10 to continue the flow. If not, the passenger identification means 310 eliminates duplication of the identification information stored based on the coordinate information (step S46). After deduplication, the passenger identification means 310 determines as a unique identification result with no duplication (step S48). The confirmed result is stored in the storage means 320. Even when a plurality of sensors 10 are present, it is possible to obtain a single identification result by eliminating duplication in this way.
[Individual number measurement method in a plurality of elevators 100]
Next, a method of measuring the number of individuals in the plurality of elevators 100 will be described with reference to FIG. FIG. 18 is a flow chart for performing operation control based on a person existing in the area in charge. Overlapping portions in regions 401, 402, 403, 404, 405, 406 are eliminated by the method shown in FIG.

図18において、群管理コントローラ200は、複数のエレベーターの中から、任意のエレベーター100を選定し、該エレベーター100の担当領域を確定する(ステップS100)。 In FIG. 18, the group management controller 200 selects an arbitrary elevator 100 from a plurality of elevators and determines the area in charge of the elevator 100 (step S100).

群管理コントローラ200は、センサコントローラ170を介して、複数のエレベーターのそれぞれの領域部分における人数を取得する(ステップS110)。 The group management controller 200 acquires the number of people in each region portion of the plurality of elevators via the sensor controller 170 (step S110).

群管理コントローラ200は、取得した人数のそれぞれの領域部分におけるエレベーター100の乗りかご110について空き状態を確認して、それぞれ前述の人数を収容できるかを確認する(ステップS120)。 The group management controller 200 confirms the vacancy status of the car 110 of the elevator 100 in each area portion of the acquired number of people, and confirms whether or not each of the above-mentioned number of people can be accommodated (step S120).

群管理コントローラ200は、それぞれの領域部分におけるエレベーターに収容できる分の空きがある場合には、当該エレベーター100を配車候補とする(ステップS130)。 The group management controller 200 selects the elevator 100 as a vehicle allocation candidate when there is a space that can be accommodated in the elevator in each area portion (step S130).

空きはあるが、前述の全員を収容できない場合、群管理コントローラ200は、収容できない人数を不足分として別候補を選定する(ステップS140)。 If there is a vacancy but the above-mentioned all cannot be accommodated, the group management controller 200 selects another candidate with the number of persons that cannot be accommodated as the shortage (step S140).

空きがない場合、群管理コントローラ200は、前述の全員を別のエレベーター100に任せられるように別候補を選定する(ステップS145)。 When there is no vacancy, the group management controller 200 selects another candidate so that all the above-mentioned elevators 100 can be entrusted to another elevator 100 (step S145).

以上により、任意のエレエータ100が担当するエレベーター乗場40の領域で待っている乗客数を元に、運行制御の配車候補を決定することができる。配車処理では、該配車候補と別に生成された配車候補を総合的に判断して、最終的な配車割当を決定する。本実施例のフローにより、エレベーター乗場40の待ち人数に対する配車処理を効率良く実行できる。
〔複数のエレベーター100における個々の人数計測方法の他の例〕
次に図19を用いて複数のエレベーター100個々の人数計測方法の他の例について説明する。図19は担当領域の人密度に基づいて運行制御を実施するフロー図である。
As described above, it is possible to determine a vehicle allocation candidate for operation control based on the number of passengers waiting in the area of the elevator landing 40 in charge of any elevator 100. In the vehicle allocation process, the vehicle allocation candidate generated separately from the vehicle allocation candidate is comprehensively determined to determine the final vehicle allocation. According to the flow of this embodiment, it is possible to efficiently execute the vehicle allocation process for the number of people waiting at the elevator landing 40.
[Other examples of individual number measurement methods in a plurality of elevators 100]
Next, another example of the method of measuring the number of individuals of the plurality of elevators 100 will be described with reference to FIG. FIG. 19 is a flow chart for executing operation control based on the density of people in the area in charge.

群管理コントローラ200は、各エレベーター100の担当領域を確定する(ステップS100)。 The group management controller 200 determines the area in charge of each elevator 100 (step S100).

群管理コントローラ200は、センサコントローラ170を介して、複数のエレベーターのそれぞれの領域部分における人数を取得する(ステップS110)。 The group management controller 200 acquires the number of people in each region portion of the plurality of elevators via the sensor controller 170 (step S110).

群管理コントローラ200は、それぞれの領域部分における面積と、取得した人数とに基づいて人密度を算出する(ステップS150)。 The group management controller 200 calculates the person density based on the area in each area portion and the acquired number of people (step S150).

全てのエレベーター100について密度算出を繰り返す(ステップS160)。 Density calculation is repeated for all elevators 100 (step S160).

全てのエレベーター100について各担当領域における密度の算出が終了した場合、群管理コントローラ200は、密度の大小に合わせて、エレベーター100を配車する順序を並べ替える(ステップS170)。 When the calculation of the density in each area in charge of all the elevators 100 is completed, the group management controller 200 rearranges the order of allocating the elevators 100 according to the magnitude of the density (step S170).

群管理コントローラ200は、順序に従って配車候補として確定する(ステップS180)。 The group management controller 200 is determined as a vehicle allocation candidate in order (step S180).

配車処理では、該配車候補と別に生成された配車候補を総合的に判断して、最終的な配車割当を決定する。本実施例のフローにより、かごを待っている乗客が均一に分散しているとは限らない各エレベーター100の担当領域401、402、403、404、405、406の密度に着目し、密度が高い領域に対応するエレベーター100を優先的に配車することで、乗客の利便性を向上することができる。 In the vehicle allocation process, the vehicle allocation candidate generated separately from the vehicle allocation candidate is comprehensively determined to determine the final vehicle allocation. According to the flow of this embodiment, the passengers waiting for the car are not always uniformly dispersed. Focusing on the densities of the areas 401, 402, 403, 404, 405, and 406 in charge of each elevator 100, the density is high. By preferentially allocating the elevator 100 corresponding to the area, the convenience of passengers can be improved.

以上説明したように、各実施例によれば、エレベーター乗場で待機している乗客の有無、人数を計測し易くし、エレベーター運行制御の効率向上を図ったエレベーターシステムを提供することができる。 As described above, according to each embodiment, it is possible to provide an elevator system that facilitates measurement of the presence / absence and the number of passengers waiting at the elevator landing and improves the efficiency of elevator operation control.

なお、本発明は、上述した実施例に限定するものではなく、様々な変形例が含まれる。上述した実施例は本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定するものではない。 The present invention is not limited to the above-described examples, and includes various modifications. The above-described examples have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations.

10…センサ、11…魚眼レンズ、12…画像センサ、20…三方枠、30…上方乗場面、32…アンテナ、40…エレベーター乗場、45…壁、46…通路、50…インジケータ、60…ステレオカメラ、70…ToFセンサ、72…ライト、80…ミリ波センサ、82…アンテナ、84…目隠し板、100,101,102,103,104,105,106…エレベーター、110…乗りかご、120…主機、130…エレベーターコントローラ、140…かごコントローラ、150…カウンターウェイト、160…ロープ、170…センサコントローラ、180,190…通信路、200…群管理コントローラ、230…通信網、240…クラウド、300…認識手段、310…乗客識別手段、320…記憶手段、330…学習手段、340…呼び推測手段、350…座標変換手段、360…乗降情報 10 ... sensor, 11 ... fish-eye lens, 12 ... image sensor, 20 ... three-sided frame, 30 ... upper riding scene, 32 ... antenna, 40 ... elevator landing, 45 ... wall, 46 ... passage, 50 ... indicator, 60 ... stereo camera, 70 ... ToF sensor, 72 ... Light, 80 ... Millimeter wave sensor, 82 ... Antenna, 84 ... Blind plate, 100, 101, 102, 103, 104, 105, 106 ... Elevator, 110 ... Car, 120 ... Main engine, 130 Elevator controller, 140 ... basket controller, 150 ... counterweight, 160 ... rope, 170 ... sensor controller, 180, 190 ... communication path, 200 ... group management controller, 230 ... communication network, 240 ... cloud, 300 ... recognition means, 310 ... Passenger identification means, 320 ... Storage means, 330 ... Learning means, 340 ... Call guessing means, 350 ... Coordinate conversion means, 360 ... Boarding / alighting information

Claims (15)

エレベーターに乗降する乗客の情報を取得するセンサを備えるエレベーターシステムにおいて、
前記センサは、エレベーター乗場に設けられる三方枠の上枠における前記エレベーター乗場と対向する前面に備えられたことを特徴とするエレベーターシステム。
In an elevator system equipped with a sensor that acquires information on passengers getting on and off the elevator
The elevator system is characterized in that the sensor is provided on the front surface of the upper frame of the three-sided frame provided in the elevator landing, which faces the elevator landing.
請求項1において、
前記センサが取得したデータから乗客の頭部、顔、瞳の少なくとも一部を認識する認識手段と、前記認識手段の認識結果から乗客の識別情報を生成する乗客識別手段を備えたことを特徴とするエレベーターシステム。
In claim 1,
It is characterized by including a recognition means that recognizes at least a part of a passenger's head, face, and pupil from the data acquired by the sensor, and a passenger identification means that generates passenger identification information from the recognition result of the recognition means. Elevator system to do.
請求項2において、
前記乗客識別手段は、乗客の有無、乗客の人数の少なくとも1つを識別して乗客の識別情報を生成することを特徴とするエレベーターシステム。
In claim 2,
The passenger identification means is an elevator system characterized in that the presence or absence of passengers and at least one of the number of passengers are identified to generate passenger identification information.
請求項3において、
前記識別情報に基づいて前記エレベーターの運行制御を行う群管理コントローラを備えたことを特徴とするエレベーターシステム。
In claim 3,
An elevator system including a group management controller that controls the operation of the elevator based on the identification information.
請求項3において、
前記乗客識別手段で識別された人数から、前記エレベーター乗場の階の待ち人数に応じたエレベーターを配車する呼び推測手段を備えたことを特徴とするエレベーターシステム。
In claim 3,
An elevator system characterized in that it is provided with a call guessing means for allocating an elevator according to the number of people waiting on the floor of the elevator landing from the number of people identified by the passenger identification means.
請求項5において、
前記呼び推測手段は、1台のエレベーターでは空きが足りない場合、複数のエレベーターを配車することを特徴とするエレベーターシステム。
In claim 5,
The calling guessing means is an elevator system characterized in that a plurality of elevators are dispatched when one elevator is insufficient.
請求項2において、
前記乗客識別手段は、乗客の頭部の認識結果から乗客の乗降情報を識別し、記憶手段に記憶させることを特徴とするエレベーターシステム。
In claim 2,
The passenger identification means is an elevator system characterized in that passenger boarding / alighting information is identified from a recognition result of a passenger's head and stored in a storage means.
請求項7において、
前記乗降情報は、乗客の識別子と、前記識別子に付随した乗車時間と、乗客が乗車した乗車階と、乗客が降車した降車階としたことを特徴とするエレベーターシステム。
In claim 7,
The elevator system is characterized in that the boarding / alighting information includes a passenger identifier, a boarding time associated with the identifier, a boarding floor on which the passenger boarded, and a boarding floor on which the passenger disembarked.
請求項8において、
前記乗降情報を機械学習、深層学習する学習手段を備えたことを特徴とするエレベーターシステム。
In claim 8.
An elevator system characterized by having a learning means for machine learning and deep learning of the boarding / alighting information.
請求項7において、
前記識別情報と、前記乗降情報とから乗客の降車階を推測する呼び推測手段を備えたことを特徴とするエレベーターシステム。
In claim 7,
An elevator system including a call guessing means for guessing a passenger's getting-off floor from the identification information and the boarding / alighting information.
請求項2において、
前記エレベーターは複数備えられ、前記センサは前記複数のエレベーターのそれぞれに備えられ、
前記識別情報を前記センサの設置位置情報によって座標変換して前記エレベーター乗場の座標情報として記憶手段に記憶する座標変換手段を備え、
前記乗客識別手段は、前記座標変換手段の座標情報に基づいて記憶された識別情報の重複を排除することを特徴とするエレベーターシステム。
In claim 2,
A plurality of the elevators are provided, and the sensors are provided in each of the plurality of elevators.
A coordinate conversion means for converting the identification information by the installation position information of the sensor and storing the identification information as the coordinate information of the elevator landing in the storage means is provided.
The passenger identification means is an elevator system characterized by eliminating duplication of identification information stored based on the coordinate information of the coordinate conversion means.
請求項11において、
前記複数のエレベーターの運行制御を行う群管理コントローラを備え、
前記群管理コントローラは、前記複数のエレベーターのそれぞれの領域部分における人数を取得し、それぞれの領域部分におけるエレベーターに収容できる分の空きがある場合には、前記空きがあるエレベーターを配車候補とすることを特徴とするエレベーターシステム。
11.
It is equipped with a group management controller that controls the operation of the plurality of elevators.
The group management controller acquires the number of people in each area portion of the plurality of elevators, and if there is a vacancy that can be accommodated in the elevator in each area portion, the elevator with the vacancy is selected as a vehicle allocation candidate. Elevator system featuring.
請求項11において、
前記複数のエレベーターの運行制御を行う群管理コントローラを備え、
前記群管理コントローラは、前記複数のエレベーターのそれぞれの領域部分における人数を取得し、それぞれの領域部分における面積と取得した人数とに基づいて人密度を算出し、算出した前記人密度の大小に応じて配車する前記エレベーターの順序並べ替えることを特徴とするエレベーターシステム。
11.
It is equipped with a group management controller that controls the operation of the plurality of elevators.
The group management controller acquires the number of people in each area of the plurality of elevators, calculates the person density based on the area in each area and the acquired number of people, and responds to the calculated magnitude of the person density. An elevator system characterized in that the order of the elevators to be dispatched is rearranged.
請求項1において、
前記センサは、前記三方枠における上枠の左右方向中央位置に備えたことを特徴とするエレベーターシステム。
In claim 1,
The elevator system is characterized in that the sensor is provided at a center position in the left-right direction of the upper frame in the three-sided frame.
エレベーターに乗降する乗客の情報を取得するセンサと、前記エレベーターの乗りかごの位置を示す第1のインジケータと、前記乗りかごの到着を示す第2のインジケータとを備えるエレベーターシステムにおいて、
前記第1のインジケータ及び前記第2のインジケータは、エレベーター乗場に設けられる三方枠の上方に備えられ、
前記センサは、前記第1のインジケータ、若しくは前記第2のインジケータに備えられたことを特徴とするエレベーターシステム。
In an elevator system including a sensor that acquires information on passengers getting on and off the elevator, a first indicator that indicates the position of the car of the elevator, and a second indicator that indicates the arrival of the car.
The first indicator and the second indicator are provided above the three-sided frame provided in the elevator landing.
The elevator system, wherein the sensor is provided on the first indicator or the second indicator.
JP2019194159A 2019-10-25 2019-10-25 Elevator system Pending JP2021066575A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019194159A JP2021066575A (en) 2019-10-25 2019-10-25 Elevator system
PCT/JP2020/037864 WO2021079736A1 (en) 2019-10-25 2020-10-06 Elevator system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019194159A JP2021066575A (en) 2019-10-25 2019-10-25 Elevator system

Publications (1)

Publication Number Publication Date
JP2021066575A true JP2021066575A (en) 2021-04-30

Family

ID=75620010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019194159A Pending JP2021066575A (en) 2019-10-25 2019-10-25 Elevator system

Country Status (2)

Country Link
JP (1) JP2021066575A (en)
WO (1) WO2021079736A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115180470B (en) * 2022-06-16 2024-05-07 安徽领电智能科技有限公司 Building elevator management and control system based on self-learning

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06263338A (en) * 1993-03-15 1994-09-20 Mitsubishi Denki Bill Techno Service Kk Group management device of elevator
JPH06274713A (en) * 1993-03-23 1994-09-30 Mitsubishi Denki Bill Techno Service Kk Congestion degree detecting device
JP2001302121A (en) * 2000-04-19 2001-10-31 Mitsubishi Electric Corp Elevator device
JP2002167131A (en) * 2000-09-25 2002-06-11 Mitsubishi Electric Corp Moving body system and information supply method for the same
JP2002293484A (en) * 2001-03-29 2002-10-09 Mitsubishi Electric Corp Elevator control device
JP3480847B2 (en) * 2003-02-03 2003-12-22 株式会社東芝 Elevator control device using image monitoring device
JP2008013325A (en) * 2006-07-06 2008-01-24 Fujitec Co Ltd Display and illumination device of elevator or the like
JP2008195468A (en) * 2007-02-09 2008-08-28 Toshiba Corp Elevator system and elevator control method
JP2008273637A (en) * 2007-04-25 2008-11-13 Mitsubishi Electric Building Techno Service Co Ltd Elevator security recording device
JP2010098404A (en) * 2008-10-15 2010-04-30 Nec Corp Imaging device, mobile terminal provided with imaging device, portrait image processing method, portrait image processing program, and recording medium
JP2011248754A (en) * 2010-05-28 2011-12-08 Ntt Comware Corp System and method for automatically collecting person information, and program thereof
JP2013069128A (en) * 2011-09-22 2013-04-18 Nec Embedded Products Ltd System and method for finding lost child
JP2013173595A (en) * 2012-02-24 2013-09-05 Hitachi Ltd Elevator arrival time estimating device and elevator system
JP2013245030A (en) * 2012-05-23 2013-12-09 Toshiba Elevator Co Ltd Elevator and elevator management method
JP2014181124A (en) * 2013-03-21 2014-09-29 Mitsubishi Electric Building Techno Service Co Ltd Elevator operation control system
JP2014234275A (en) * 2013-06-04 2014-12-15 三菱電機株式会社 Elevator system
JP2015051853A (en) * 2013-09-06 2015-03-19 東芝エレベータ株式会社 Elevator system
JP2019023124A (en) * 2017-07-24 2019-02-14 株式会社日立製作所 Elevator system, image recognition method, and operation control method
WO2019087251A1 (en) * 2017-10-30 2019-05-09 株式会社日立製作所 Elevator usage log output system, and elevator usage log output method
JP2019179523A (en) * 2018-03-30 2019-10-17 ダイキン工業株式会社 Psychosomatic state recognition system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018002362A (en) * 2016-06-29 2018-01-11 株式会社日立ビルシステム Elevator control device

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06263338A (en) * 1993-03-15 1994-09-20 Mitsubishi Denki Bill Techno Service Kk Group management device of elevator
JPH06274713A (en) * 1993-03-23 1994-09-30 Mitsubishi Denki Bill Techno Service Kk Congestion degree detecting device
JP2001302121A (en) * 2000-04-19 2001-10-31 Mitsubishi Electric Corp Elevator device
JP2002167131A (en) * 2000-09-25 2002-06-11 Mitsubishi Electric Corp Moving body system and information supply method for the same
JP2002293484A (en) * 2001-03-29 2002-10-09 Mitsubishi Electric Corp Elevator control device
JP3480847B2 (en) * 2003-02-03 2003-12-22 株式会社東芝 Elevator control device using image monitoring device
JP2008013325A (en) * 2006-07-06 2008-01-24 Fujitec Co Ltd Display and illumination device of elevator or the like
JP2008195468A (en) * 2007-02-09 2008-08-28 Toshiba Corp Elevator system and elevator control method
JP2008273637A (en) * 2007-04-25 2008-11-13 Mitsubishi Electric Building Techno Service Co Ltd Elevator security recording device
JP2010098404A (en) * 2008-10-15 2010-04-30 Nec Corp Imaging device, mobile terminal provided with imaging device, portrait image processing method, portrait image processing program, and recording medium
JP2011248754A (en) * 2010-05-28 2011-12-08 Ntt Comware Corp System and method for automatically collecting person information, and program thereof
JP2013069128A (en) * 2011-09-22 2013-04-18 Nec Embedded Products Ltd System and method for finding lost child
JP2013173595A (en) * 2012-02-24 2013-09-05 Hitachi Ltd Elevator arrival time estimating device and elevator system
JP2013245030A (en) * 2012-05-23 2013-12-09 Toshiba Elevator Co Ltd Elevator and elevator management method
JP2014181124A (en) * 2013-03-21 2014-09-29 Mitsubishi Electric Building Techno Service Co Ltd Elevator operation control system
JP2014234275A (en) * 2013-06-04 2014-12-15 三菱電機株式会社 Elevator system
JP2015051853A (en) * 2013-09-06 2015-03-19 東芝エレベータ株式会社 Elevator system
JP2019023124A (en) * 2017-07-24 2019-02-14 株式会社日立製作所 Elevator system, image recognition method, and operation control method
WO2019087251A1 (en) * 2017-10-30 2019-05-09 株式会社日立製作所 Elevator usage log output system, and elevator usage log output method
JP2019179523A (en) * 2018-03-30 2019-10-17 ダイキン工業株式会社 Psychosomatic state recognition system

Also Published As

Publication number Publication date
WO2021079736A1 (en) 2021-04-29

Similar Documents

Publication Publication Date Title
JP6682672B1 (en) Elevator system, elevator group management control device, and elevator number allocation method
JP6619760B2 (en) Elevator apparatus, elevator system, and autonomous robot control method
CN109292579B (en) Elevator system, image recognition method and operation control method
EP3392178B1 (en) Method for controlling an elevator system
CN110626891B (en) System and method for improved elevator dispatch
JP5865729B2 (en) Elevator system
JP2009502691A (en) Method for assigning users to elevator systems
EP3733577B1 (en) Elevator car assignment based on a detected number of waiting passengers
CN106144795A (en) By identifying that user operation controls for passenger traffic and the system and method for safety
JP6230472B2 (en) Group management elevator equipment
CN107416620A (en) The dynamic adjustment of destination scheduling
JP6776549B2 (en) Elevator group management control device and group management system, and elevator system
US20210284485A1 (en) Elevator calling coordination for robots and individuals
KR102558767B1 (en) Robot-friendly building
WO2021079736A1 (en) Elevator system
CN113401740A (en) Method and architecture for end-to-end robot integration with elevator and building systems
US20210101776A1 (en) Elevator system
JP6719357B2 (en) Elevator system
CN110015602A (en) Elevator group controller for evacuating personnel
JP6536484B2 (en) Elevator system
EP3912946A1 (en) Passenger waiting assessment system
JP5886389B1 (en) Elevator system
JP7063405B1 (en) Mobile management system and elevator
JP7327560B1 (en) elevator group control system
JP7463604B1 (en) Elevator system and elevator autonomous mobile body cooperation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231003