JP2015145315A - Electronic device - Google Patents

Electronic device Download PDF

Info

Publication number
JP2015145315A
JP2015145315A JP2015046412A JP2015046412A JP2015145315A JP 2015145315 A JP2015145315 A JP 2015145315A JP 2015046412 A JP2015046412 A JP 2015046412A JP 2015046412 A JP2015046412 A JP 2015046412A JP 2015145315 A JP2015145315 A JP 2015145315A
Authority
JP
Japan
Prior art keywords
elevator
unit
floor
subject
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015046412A
Other languages
Japanese (ja)
Inventor
和敬 高橋
Kazuyuki Takahashi
和敬 高橋
真美 村谷
Mami Muratani
真美 村谷
山田 直人
Naoto Yamada
直人 山田
伸次郎 村木
Shinjiro Muraki
伸次郎 村木
裕也 阿達
Yuya Adachi
裕也 阿達
政一 関口
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2015046412A priority Critical patent/JP2015145315A/en
Publication of JP2015145315A publication Critical patent/JP2015145315A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an electronic device that has favorable usability to a user.SOLUTION: An electronic device includes: an input unit that inputs detection result of a detection unit for detecting that a target person locks from a predetermined place; and a reservation unit that reserves use of a moving device, on the basis of the detection result of the detection unit.

Description

本発明は、電子装置に関する。   The present invention relates to an electronic device.

従来より、音声認識を用いてエレベータの行き先階を登録することが提案されている(例えば、特許文献1)。   Conventionally, it has been proposed to register a destination floor of an elevator using voice recognition (for example, Patent Document 1).

特開2010-168211号公報JP 2010-168111 A

しかしながら、従来の装置は、音声認識の登録しか提案されておらず、必ずしも使い勝手のよいものではなかった。   However, conventional devices have only been proposed for registration of voice recognition, and are not always easy to use.

そこで本件は上記の課題に鑑みてなされたものであり、使い勝手のよい電子装置を提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide an electronic device that is easy to use.

本発明の電子装置は、対象者が通路(60a,60b)を通過したことを検出する検出装置(62a,62b)の検出結果を入力する入力部(132)と、前記検出装置の検出結果に基づいて、移動装置(EV1,EV2)の利用を予約する予約部(132)と、を備える。   The electronic device of the present invention includes an input unit (132) for inputting a detection result of the detection device (62a, 62b) for detecting that the subject has passed through the passage (60a, 60b), and a detection result of the detection device. And a reservation unit (132) for reserving the use of the mobile devices (EV1, EV2).

この場合において、前記対象者の移動速度を検出する速度検出センサ(62a,62b)を備えることができる。この場合、前記予約部は、前記対象者の移動速度に基づいて、前記移動装置の利用を予約することとしてもよい。   In this case, a speed detection sensor (62a, 62b) for detecting the moving speed of the subject can be provided. In this case, the reservation unit may reserve the use of the mobile device based on the moving speed of the target person.

本発明の電子装置では、前記移動装置は、第1方向と、該第1方向とは異なる第2方向とに移動可能であり、前記検出装置は、前記対象者の前記移動装置による前記第1方向への移動を予測する第1センサ(62a)と、前記対象者の前記移動装置による前記第2方向への移動を予測する第2センサ(62b)とを備えることができる。この場合、前記予約部は、前記第1センサと前記第2センサとの少なくとも一方の出力に基づいて前記移動装置の予約を行うこととすることができる。この場合、前記第1センサが検出する検出領域の大きさと、前記第2センサが検出する検出領域の大きさは異なっていてもよい。   In the electronic device of the present invention, the moving device is movable in a first direction and a second direction different from the first direction, and the detecting device is the first by the moving device of the subject. A first sensor (62a) that predicts movement in a direction and a second sensor (62b) that predicts movement of the subject in the second direction by the moving device may be provided. In this case, the reservation unit may reserve the mobile device based on at least one output of the first sensor and the second sensor. In this case, the size of the detection area detected by the first sensor and the size of the detection area detected by the second sensor may be different.

本発明の電子装置では、前記入力部は、前記対象者の大きさに関する情報を入力し、前記予約部は、前記対象者の大きさが所定の大きさ以上の場合に、前記移動装置の利用を予約することができる。   In the electronic device of the present invention, the input unit inputs information related to the size of the subject, and the reservation unit uses the mobile device when the size of the subject is equal to or larger than a predetermined size. Can be booked.

本発明の電子装置は、対象者が所定の場所から施錠したことを検出する検出装置(89)の検出結果を入力する入力部(132)と、前記検出装置の検出結果に基づいて、移動装置の利用を予約する予約部(132)と、を備える。   The electronic device according to the present invention includes an input unit (132) that inputs a detection result of the detection device (89) that detects that the subject is locked from a predetermined location, and a mobile device based on the detection result of the detection device. And a reservation unit (132) for reserving the use of.

この場合において、前記予約部は、前記移動装置を前記所定の場所よりも下方に移動させる予約をすることとしてもよい。   In this case, the reservation unit may make a reservation for moving the mobile device below the predetermined location.

本発明の電子装置は、対象者の顔を識別する識別部(82)と、前記対象者と前記対象者の居住に関する情報とを関連付けて記憶する記憶部(148)と、前記識別部が識別した対象者の居住に関する情報に基づいて、移動装置(EV1,EV2)の移動先を予約する予約部(132)と、を備える。   In the electronic device according to the present invention, the identification unit (82) for identifying the face of the subject, the storage unit (148) for storing the subject and information on the residence of the subject in association with each other, and the identification unit identify And a reservation unit (132) for reserving the destination of the mobile device (EV1, EV2) based on the information regarding the residence of the subject.

この場合において、前記対象者を撮像する第1撮像部(82)と、前記第1撮像部が、前記対象者を撮像している状態から撮像していない状態に変化したのに応じて、前記移動装置の移動を行う第1制御部(132)と、を備えることとしてもよい。また、前記対象者とは異なる対象者の前記移動装置の利用を予測する予測部(132)を備えていてもよい。   In this case, the first imaging unit (82) that images the subject and the first imaging unit are changed from a state where the subject is captured to a state where the subject is not captured. It is good also as providing the 1st control part (132) which moves a moving device. Moreover, you may provide the prediction part (132) which estimates utilization of the said mobile device of the subject different from the said subject.

本発明の電子装置では、前記対象者の居住に関する情報は、前記対象者の居住階数を含むこととすることができる。また、前記識別部が前記対象者の顔を識別できなかった場合に、前記移動装置の操作に関するメニューを投影する投影部(84)を備えることができる。この場合、前記投影部は、前記対象者の位置に応じて、前記メニューを投影することとしてもよい。また、前記投影部は、前記対象者の足元に前記メニューを投影することとしてもよい。また、前記投影部の投影領域を含む領域を撮像可能な第2撮像部(82)を備える琴とすることができる。この場合、前記第2撮像部の撮像結果に応じて、前記移動装置に指令を行う第2制御部(132)を備えることができる。この場合、前記第2制御部は、前記メニューに対して前記対象者が動作を行う前および後の少なくとも一方に前記対象者の動作に応じて、前記移動装置に指令を行うことができる。   In the electronic device according to the present invention, the information regarding the residence of the subject person may include the number of stories of the subject person. Moreover, when the said identification part cannot identify the said subject's face, the projection part (84) which projects the menu regarding operation of the said moving apparatus can be provided. In this case, the projection unit may project the menu according to the position of the subject. The projection unit may project the menu onto the subject's foot. Moreover, it can be set as a koto provided with the 2nd imaging part (82) which can image the area | region containing the projection area | region of the said projection part. In this case, a second control unit (132) that issues a command to the moving device according to the imaging result of the second imaging unit can be provided. In this case, the second control unit can issue a command to the mobile device according to the action of the subject before or after the subject performs an action on the menu.

なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。   In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.

本発明によれば、使い勝手の良い電子装置を提供することができる。   According to the present invention, a user-friendly electronic device can be provided.

第1の実施形態に係るエレベータ駆動制御システム100のブロック図である。1 is a block diagram of an elevator drive control system 100 according to a first embodiment. 第1の実施形態に係るエレベータ駆動制御システムの適用例(実装例)を示す図である。It is a figure which shows the application example (mounting example) of the elevator drive control system which concerns on 1st Embodiment. 第1の実施形態に係る処理・制御装置のハードウェア構成である。It is a hardware configuration of the processing / control apparatus according to the first embodiment. 第1の実施形態に係る処理・制御装置の機能ブロック図である。It is a functional block diagram of the processing / control apparatus concerning a 1st embodiment. 第1の実施形態で処理・制御装置内の処理で用いられるデータベースの一例を示す図である。It is a figure which shows an example of the database used by the process in a process / control apparatus in 1st Embodiment. 第1の実施形態に係るエレベータ駆動制御システムの処理を示すフローチャートである。It is a flowchart which shows the process of the elevator drive control system which concerns on 1st Embodiment. 図6のステップS22の具体的処理を示すフローチャートである。It is a flowchart which shows the specific process of step S22 of FIG. 図8(a)は、暗証番号入力画像の一例を示す図であり、図8(b)は、行き先階入力画像の一例を示す図であり、図8(c)は、暗証番号入力画像の変形例を示す図であり、図8(d)は、行き先階入力画像の変形例を示す図である。FIG. 8A is a diagram illustrating an example of a password input image, FIG. 8B is a diagram illustrating an example of a destination floor input image, and FIG. 8C is a diagram of a password input image. It is a figure which shows a modification, FIG.8 (d) is a figure which shows the modification of a destination floor input image. 第1の実施形態の変形例に係るエレベータ駆動制御システムの処理を示すフローチャートである。It is a flowchart which shows the process of the elevator drive control system which concerns on the modification of 1st Embodiment. 図10(a)〜図10(c)は、暗証番号入力画像の変形例を示す図である。FIG. 10A to FIG. 10C are diagrams showing modified examples of the password input image. 第2の実施形態に係るエレベータ駆動制御システムの概要図である。It is a schematic diagram of the elevator drive control system which concerns on 2nd Embodiment. 2基のエレベータの状態の一例を示す図である。It is a figure which shows an example of the state of two elevators. 第2の実施形態に係るエレベータ駆動制御システムのブロック図である。It is a block diagram of the elevator drive control system which concerns on 2nd Embodiment. 第2の実施形態に係る処理・制御装置の機能ブロック図である。It is a functional block diagram of a processing / control device concerning a 2nd embodiment. 図15(a)は、居住者データベースを示す図であり、図15(b)は、ジェスチャーデータベースを示す図である。FIG. 15A is a diagram showing a resident database, and FIG. 15B is a diagram showing a gesture database. 第2の実施形態に係るエレベータ駆動制御システムの処理を示すフローチャート(その1)である。It is a flowchart (the 1) which shows the process of the elevator drive control system which concerns on 2nd Embodiment. 第2の実施形態に係るエレベータ駆動制御システムの処理を示すフローチャート(その2)である。It is a flowchart (the 2) which shows a process of the elevator drive control system which concerns on 2nd Embodiment.

以下、第1の実施形態について、図1〜図8に基づいて詳細に説明する。図1には、本第1の実施形態に係るエレベータ駆動制御システム100のブロック図が示され、図2には、エレベータ駆動制御システム100の適用例(実装例)が示されている。なお、本第1の実施形態では、例えば6階建てのマンション(集合住宅)のエレベータに、エレベータ駆動制御システム100を適用しているものとする。   Hereinafter, the first embodiment will be described in detail with reference to FIGS. FIG. 1 shows a block diagram of an elevator drive control system 100 according to the first embodiment, and FIG. 2 shows an application example (implementation example) of the elevator drive control system 100. In the first embodiment, it is assumed that the elevator drive control system 100 is applied to, for example, an elevator of a six-story condominium (a collective housing).

図1に示すように、エレベータ駆動制御システム100は、装着部20と、本体部30と、駆動装置52と、操作パネル56と、を備える。   As shown in FIG. 1, the elevator drive control system 100 includes a mounting portion 20, a main body portion 30, a drive device 52, and an operation panel 56.

装着部20は、荷重センサ24、歩行センサ26、通信部28、CPU22を備え、図2に示すように、例えば、エレベータ10を利用する人が履く靴の内部(例えば靴底)に設けられる。なお、装着部20は、図2のように1つのユニットとして構成してもよいし、各構成を分離して適した位置に配置してもよい。また、荷重センサ24は靴底に複数設けるようにしてもよい。   The mounting unit 20 includes a load sensor 24, a walking sensor 26, a communication unit 28, and a CPU 22. As illustrated in FIG. 2, the mounting unit 20 is provided, for example, inside a shoe worn by a person using the elevator 10 (for example, a shoe sole). The mounting unit 20 may be configured as a single unit as shown in FIG. 2 or may be arranged at a suitable position by separating the components. A plurality of load sensors 24 may be provided on the shoe sole.

荷重センサ24は、例えばロードセルを用いて靴に加わる荷重を検出する。例えば、人が重い荷物を持っている場合と、持っていない場合とでは、荷重センサ24は、異なる値を出力する。歩行センサ26は、人の歩行速度を検出する。歩行センサ26としては、例えば、加速度センサを用いることができる。   The load sensor 24 detects a load applied to the shoe using, for example, a load cell. For example, the load sensor 24 outputs different values depending on whether a person has a heavy load or not. The walking sensor 26 detects a person's walking speed. As the walking sensor 26, for example, an acceleration sensor can be used.

通信部28は、本体部30の通信部49との間で無線通信するインタフェースである。通信部28としては、例えば、Bluetooth(登録商標)や赤外線通信等のインタフェースを採用することができる。CPU22は、荷重センサ24、歩行センサ26、及び通信部28を統括的に制御する。なお、装着部20に不図示の入力部を設けてユーザの体重を入力して、不図示のメモリに記憶させるようにしてもよい。これにより、CPU22は、荷重センサ24の出力と不図示のメモリに記憶されたユーザとの体重とを比較して、ユーザにかかる荷重(例えば手荷物)を認識することができる。   The communication unit 28 is an interface that performs wireless communication with the communication unit 49 of the main body unit 30. As the communication unit 28, for example, an interface such as Bluetooth (registered trademark) or infrared communication can be employed. The CPU 22 controls the load sensor 24, the walking sensor 26, and the communication unit 28 in an integrated manner. Note that an input unit (not shown) may be provided in the mounting unit 20 to input the weight of the user and store it in a memory (not shown). Thereby, CPU22 can recognize the load (for example, baggage) concerning a user by comparing the output of the load sensor 24 with the weight of the user memorize | stored in the memory not shown.

本体部30は、図2に示すように、例えばエレベータ10の上方に設けられる。本体部30は、図1に示すように、撮像装置34と、投影装置46と、通信部49と、不揮発性メモリ48と、処理・制御装置32と、を備える。なお、本体部30は、図2のように1つのユニットとして構成してもよいし、各構成を分離して適した位置に配置してもよい。例えば、本体部30の撮像装置34と投影装置46をエレベータ10近傍に設け、その他を異なる位置に設けることとしてもよい。   As shown in FIG. 2, the main body 30 is provided above the elevator 10, for example. As shown in FIG. 1, the main body 30 includes an imaging device 34, a projection device 46, a communication unit 49, a nonvolatile memory 48, and a processing / control device 32. The main body 30 may be configured as a single unit as shown in FIG. 2 or may be arranged at a suitable position by separating the components. For example, the imaging device 34 and the projection device 46 of the main body 30 may be provided near the elevator 10 and the others may be provided at different positions.

撮像装置34は、撮影レンズや、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子、及び撮像素子を制御する制御回路などを有する。撮像装置34は、エレベータ10を利用する人(エレベータ10の前に存在している人)の足元や顔を撮像する。なお、図1では、撮像装置34を1つのみ図示しているが、これに限らず、複数の撮像装置34を用いることとしてもよい。この場合、エレベータ10を利用する人の足元と顔を別々の撮像装置で撮像するようにしてもよい。   The imaging device 34 has an imaging lens, an imaging device such as a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor, a control circuit for controlling the imaging device, and the like. The imaging device 34 images the feet and face of a person who uses the elevator 10 (a person existing in front of the elevator 10). In FIG. 1, only one imaging device 34 is illustrated, but the present invention is not limited to this, and a plurality of imaging devices 34 may be used. In this case, the feet and face of the person who uses the elevator 10 may be captured by separate imaging devices.

投影装置46は、プロジェクタ等を含み、エレベータ10を利用する人の足元に画像(例えば、数字等が配列された入力キーの画像)を表示するための装置である。   The projection device 46 includes a projector and the like, and is a device for displaying an image (for example, an image of an input key in which numbers and the like are arranged) at the feet of a person who uses the elevator 10.

不揮発性メモリ48は、例えば、フラッシュメモリなどであり、エレベータ10を利用する人の情報(顔データなど)等を格納する。通信部49は、本体部30の通信部49との間で無線通信するインタフェースである。   The nonvolatile memory 48 is, for example, a flash memory, and stores information (face data and the like) of a person who uses the elevator 10. The communication unit 49 is an interface that performs wireless communication with the communication unit 49 of the main body unit 30.

処理・制御装置32は、各種処理・演算等を行うとともに、本体部30の各部を統括的に制御する。図3には、処理・制御装置32のハードウェア構成が示されている。この図3に示すように、処理・制御装置32は、CPU90、ROM92、RAM94、記憶部(ここではHDD(Hard Disk Drive))96、及び入出力インタフェース97等を備えている。処理・制御装置32の構成各部は、バス98に接続されている。入出力インタフェース97には、図1の撮像装置34、投影装置46、不揮発性メモリ48、通信部49が接続される。処理・制御装置32では、ROM92あるいはHDD96に格納されているプログラムをCPU90が実行することにより、図4の各部の機能が実現される。   The processing / control device 32 performs various types of processing / calculations and controls each part of the main body 30 in an integrated manner. FIG. 3 shows a hardware configuration of the processing / control device 32. As shown in FIG. 3, the processing / control device 32 includes a CPU 90, a ROM 92, a RAM 94, a storage unit (HDD (Hard Disk Drive)) 96, an input / output interface 97, and the like. Each component of the processing / control device 32 is connected to the bus 98. The input / output interface 97 is connected to the imaging device 34, the projection device 46, the nonvolatile memory 48, and the communication unit 49 of FIG. In the processing / control device 32, the function of each unit in FIG. 4 is realized by the CPU 90 executing a program stored in the ROM 92 or the HDD 96.

図4は、処理・制御装置32を機能ブロックにて示した図である。この図4に示すように、処理・制御装置32では、CPU90がプログラムを実行することで、顔認識部36、ジェスチャー認識部40、エレベータ予約部42、エレベータ駆動制御部54、及び制御部150としての機能が実現される。   FIG. 4 is a diagram showing the processing / control device 32 in functional blocks. As shown in FIG. 4, in the processing / control device 32, the CPU 90 executes the program, thereby the face recognition unit 36, the gesture recognition unit 40, the elevator reservation unit 42, the elevator drive control unit 54, and the control unit 150. The function is realized.

顔認識部36は、撮像装置34が撮像した画像からエレベータ10を利用する人の顔を識別する。顔認識部36は、例えば、不揮発性メモリ48に格納されている顔データに基づき、エレベータ10を利用する人を特定し、当該特定結果を制御部150に入力する。   The face recognition unit 36 identifies the face of a person who uses the elevator 10 from the image captured by the imaging device 34. For example, the face recognition unit 36 identifies a person who uses the elevator 10 based on the face data stored in the nonvolatile memory 48, and inputs the identification result to the control unit 150.

ジェスチャー認識部40は、投影装置46が投影した入力キーの画像に対する、エレベータ10を利用する人の足の動き(ジェスチャー)を検出する。ジェスチャー認識部40は、検出結果を制御部150に入力する。   The gesture recognition unit 40 detects a movement (gesture) of a person's foot using the elevator 10 with respect to the input key image projected by the projection device 46. The gesture recognition unit 40 inputs the detection result to the control unit 150.

エレベータ予約部42は、顔認識部36の特定結果や、ジェスチャー認識部40の検出結果に基づいて、エレベータ10の行き先階を予約する。   The elevator reservation unit 42 reserves the destination floor of the elevator 10 based on the identification result of the face recognition unit 36 and the detection result of the gesture recognition unit 40.

エレベータ駆動制御部54は、エレベータ予約部42により予約された行き先階や、操作パネル56上での人の操作に基づいて、駆動装置52を制御して、エレベータ10を駆動する。   The elevator drive control unit 54 drives the elevator 10 by controlling the drive device 52 based on the destination floor reserved by the elevator reservation unit 42 and the operation of the person on the operation panel 56.

制御部150は、本体部30内の各部及び処理・制御装置32内の各部を統括的に制御する。   The control unit 150 comprehensively controls each unit in the main body unit 30 and each unit in the processing / control device 32.

図1に戻り、駆動装置52は、エレベータ10を上下方向に駆動するモータや、エレベータ10の扉12(図2参照)を開閉する開閉機構等を含む。操作パネル56には、図2に示すようなエレベータの外側に設けられた、行き先の方向(上下方向)を入力するための操作パネルや、エレベータの内側に設けられた、行き先階を指定するための操作パネルが含まれる。なお、操作パネル56には、暗証番号の入力や、生体認証、ICカードを用いた認証などを行うための認証装置も含まれているものとする。   Returning to FIG. 1, the drive device 52 includes a motor that drives the elevator 10 in the vertical direction, an opening / closing mechanism that opens and closes the door 12 (see FIG. 2) of the elevator 10, and the like. The operation panel 56 is provided on the outer side of the elevator as shown in FIG. 2 for inputting the destination direction (vertical direction), and for specifying the destination floor provided on the inner side of the elevator. The operation panel is included. Note that the operation panel 56 also includes an authentication device for performing input of a personal identification number, biometric authentication, authentication using an IC card, and the like.

図5には、本第1の実施形態で処理・制御装置32内の処理で用いられるデータベースの一例が示されている。このデータベースは、不揮発性メモリ48に格納されるものとする。図5のデータベースは、登録者の識別子(氏名やID)と、当該登録者の顔データ(写真など)と、登録者の居住階と、登録者が登録した暗証番号とを格納している。   FIG. 5 shows an example of a database used for processing in the processing / control apparatus 32 in the first embodiment. This database is stored in the nonvolatile memory 48. The database of FIG. 5 stores the registrant's identifier (name and ID), the registrant's face data (photograph, etc.), the registrant's residence floor, and the password registered by the registrant.

次に、第1の実施形態のエレベータ駆動制御システム100の処理について、図6、図7のフローチャートに沿って、かつその他図面を適宜参照しつつ、詳細に説明する。なお、図6の処理の前提として、装着部20を内蔵する靴を履いた人がエレベータ10に接近してきているものとする。この場合、制御部150は、装着部20を内蔵する靴を履いた人がエレベータ10に接近してきていることを、装着部20と本体部30とが所定距離範囲に入り、装着部20と本体部30との通信が可能な状態になったことで判断することができる。   Next, processing of the elevator drive control system 100 of the first embodiment will be described in detail along the flowcharts of FIGS. 6 and 7 and with reference to other drawings as appropriate. As a premise of the processing in FIG. 6, it is assumed that a person wearing a shoe incorporating the mounting portion 20 is approaching the elevator 10. In this case, the control unit 150 determines that the person wearing the shoes incorporating the mounting unit 20 is approaching the elevator 10, the mounting unit 20 and the main body unit 30 enter a predetermined distance range, and the mounting unit 20 and the main unit It can be determined that communication with the unit 30 is possible.

図6の処理では、まず、ステップS10において、制御部150が、通信部49,28を介して、CPU22に荷重検出の指示を出す。CPU22は、荷重センサ24を用いた荷重の検出を行う。なお、荷重センサ24の検出結果は、CPU22から、通信部49,28を介して、制御部150に送信される。   In the process of FIG. 6, first, in step S <b> 10, the control unit 150 issues a load detection instruction to the CPU 22 via the communication units 49 and 28. The CPU 22 detects a load using the load sensor 24. The detection result of the load sensor 24 is transmitted from the CPU 22 to the control unit 150 via the communication units 49 and 28.

次いで、ステップS12では、制御部150が、通信部49,28を介して、CPU22に歩行速度検出の指示を出す。CPU22は、歩行センサ26を用いて歩行速度の検出を行う。なお、歩行センサ26の検出結果も、CPU22から、通信部49,28を介して、制御部150に送信される。なお、ステップS10とステップS12の実行順は逆であってもよい。   Next, in step S12, the control unit 150 instructs the CPU 22 to detect the walking speed via the communication units 49 and 28. The CPU 22 detects the walking speed using the walking sensor 26. The detection result of the walking sensor 26 is also transmitted from the CPU 22 to the control unit 150 via the communication units 49 and 28. Note that the execution order of step S10 and step S12 may be reversed.

次いで、ステップS14では、制御部150が、ステップS10とステップS12で取得された荷重と人の移動速度とに基づいて、アシストの有無を判断する。ここで、アシストとは、人が操作パネル56を押すのが大変な状態にあるときに、行き先階の指定操作を簡易にするための処理をいう。このステップS14では、制御部150は、荷重が所定の基準値よりも大きく、かつ移動速度が所定の速度よりも遅い場合に、アシストが必要と判断するものとする。なお、所定の基準値は、例えば、同一の荷重センサで過去に検出された最も小さい値(同一人が荷物を持っていない状態)などに基づいて決定することができる。荷重センサ24により検出された荷重の値は、装着部20の不図示のメモリに記憶しておいてもよく、また、不揮発性メモリ48に記憶させてもよい。なお、制御部150は、前述したように装着部20の不図示のメモリに記憶されたユーザの体重と、荷重センサ24との出力とを比較して決定することもできる。また、所定の速度は、例えば、同一の歩行センサで過去に検出された最も速い速度や平均速度などに基づいて決定することができる。歩行センサ26で検出された速度は、装着部20の不図示のメモリに記憶しておいてもよく、また、不揮発性メモリ48に記憶させてもよい。なお、このステップS14においてアシストが必要と判断される場合とは、人が大きな荷物を抱えた(両手がふさがれた状態で荷物を運んでいる場合などであると考えられる。   Next, in step S14, the control unit 150 determines the presence or absence of assist based on the load acquired in steps S10 and S12 and the movement speed of the person. Here, “assist” refers to processing for simplifying the destination floor designation operation when it is difficult for a person to press the operation panel 56. In step S14, the control unit 150 determines that assistance is necessary when the load is greater than a predetermined reference value and the moving speed is slower than the predetermined speed. Note that the predetermined reference value can be determined based on, for example, the smallest value detected in the past by the same load sensor (a state in which the same person does not have luggage). The load value detected by the load sensor 24 may be stored in a memory (not shown) of the mounting unit 20 or may be stored in the nonvolatile memory 48. Note that the control unit 150 can also determine the weight of the user stored in a memory (not shown) of the mounting unit 20 and the output of the load sensor 24 as described above. The predetermined speed can be determined based on, for example, the fastest speed or the average speed detected in the past by the same walking sensor. The speed detected by the walking sensor 26 may be stored in a memory (not shown) of the mounting unit 20 or may be stored in the nonvolatile memory 48. Note that the case where it is determined that assistance is required in step S14 is considered to be a case where a person has a large baggage (carrying a baggage with both hands blocked).

なお、制御部150は、荷重と移動速度の両方が上記基準を満たす場合にアシストが必要と判断する場合に限らず、いずれか一方が上記基準を満たす場合にアシストが必要と判断するようにしてもよい。   Note that the controller 150 is not limited to determining that assistance is required when both the load and the moving speed satisfy the above-described criteria, and determines that assistance is required when either one satisfies the above-described criteria. Also good.

次いで、ステップS16では、制御部150は、ステップS14の結果、アシストが必要となったか否かを判断する。ここでの判断が否定された場合には、ステップS38に移行する。ステップS38では、制御部150は、エレベータ10の通常運転を実施する。具体的には、制御部150は、操作パネル56に対する入力に基づいて、エレベータ駆動制御部54に指示を出し、エレベータ駆動制御部54は、当該指示に基づいて、駆動装置52の駆動を制御してエレベータ10の上下動や扉12の開閉動作を実行する。なお、エレベータ10に乗る人は、操作パネル56に対する入力に際して、暗証番号の入力や、生体認証、ICカードを用いた認証などを行う必要があるものとする。   Next, in step S16, the control unit 150 determines whether or not assistance is required as a result of step S14. When judgment here is denied, it transfers to step S38. In step S38, the control unit 150 performs normal operation of the elevator 10. Specifically, the control unit 150 issues an instruction to the elevator drive control unit 54 based on an input to the operation panel 56, and the elevator drive control unit 54 controls driving of the drive device 52 based on the instruction. Thus, the elevator 10 is moved up and down and the door 12 is opened and closed. It is assumed that a person riding in the elevator 10 needs to input a personal identification number, biometric authentication, authentication using an IC card, or the like when inputting to the operation panel 56.

一方、制御部150は、ステップS16の判断が肯定された場合(アシストが必要な場合)には、ステップS18に移行する。   On the other hand, when the determination at step S16 is affirmative (when assistance is required), the control unit 150 proceeds to step S18.

ステップS18では、制御部150は、撮像装置34を用いて、エレベータを利用する人の顔を撮像する。次いで、ステップS20では、制御部150は、顔認識部36に指示を出し、撮像装置34で撮像された画像に基づいて、顔認識を実行する。顔認識部36では、不揮発性メモリ48に格納されている図5のデータベース(顔データ)に基づいて、顔認識を実行する。具体的には、顔認識部36は、図5のデータベースの顔データと、撮像された画像内に存在している顔画像とを比較(パターンマッチング)することで、撮像された画像内の人物を特定する。なお、データベースの顔データと、撮像された画像内に存在している顔画像とが一致しなかった場合には、顔認識部は、未登録の人物と特定する。   In step S <b> 18, the control unit 150 images the face of a person who uses the elevator using the imaging device 34. Next, in step S <b> 20, the control unit 150 issues an instruction to the face recognition unit 36 and performs face recognition based on the image captured by the imaging device 34. The face recognition unit 36 performs face recognition based on the database (face data) of FIG. 5 stored in the nonvolatile memory 48. Specifically, the face recognizing unit 36 compares the face data in the database of FIG. 5 with the face image existing in the captured image, thereby matching the person in the captured image. Is identified. If the face data in the database does not match the face image existing in the captured image, the face recognition unit identifies the person as an unregistered person.

次いで、ステップS22では、制御部150は、アシスト処理のサブルーチンを実行する。具体的には、ステップS22では、制御部150は、図7のフローチャートに沿った処理を実行する。   Next, in step S22, the control unit 150 executes a subroutine of assist processing. Specifically, in step S22, the control unit 150 executes processing according to the flowchart of FIG.

図7の処理では、まず、ステップS40において、制御部150が、投影装置46を介して、暗証番号入力画像を、エレベータ10の前(エレベータを利用する人の足元)に投影する。例えば、投影装置46は、図8(a)に示すような、1〜0の数字キーと終了キーを含む入力キー画像を投影するものとする。なお、制御部150は、入力画像キーの投影と同時に、不図示のスピーカを用いて、“暗証番号を入力してください”などの音声を出力してもよい。   In the process of FIG. 7, first, in step S <b> 40, the control unit 150 projects the password input image in front of the elevator 10 (the feet of the person using the elevator) via the projection device 46. For example, it is assumed that the projection device 46 projects an input key image including numeric keys 1 to 0 and an end key as shown in FIG. Note that the control unit 150 may output a voice such as “please enter the password” using a speaker (not shown) simultaneously with the projection of the input image key.

次いで、ステップS42では、制御部150は、撮像装置34を介して、足元(入力キー画像全体)を撮像する。次いで、ステップS44では、制御部150は、ジェスチャー認識部40に対し、撮像装置34で撮像される画像に基づいて、暗証番号の入力を認識させる。この場合、ジェスチャー認識部40は、人の足の動き(移動と停止)に基づいて、人による暗証番号(例えば4桁)の入力と、終了キーの選択動作を認識する。   Next, in step S <b> 42, the control unit 150 images the foot (entire input key image) via the imaging device 34. Next, in step S <b> 44, the control unit 150 causes the gesture recognition unit 40 to recognize the input of the personal identification number based on the image captured by the imaging device 34. In this case, the gesture recognizing unit 40 recognizes the input of a personal identification number (for example, four digits) and the selection operation of the end key based on the movement (movement and stop) of the human foot.

次いで、ステップS46では、制御部150は、認証ができたか否かを判断する。ここでの判断が否定された場合には、ステップS40に戻るが、ここでの判断が肯定された場合には、ステップS48に移行する。なお、ステップS46の判断が複数回否定された場合には、セキュリティロックをかけるため、図6、図7の処理を強制的に終了する(エレベータを駆動しない)こととしてもよい。   Next, in step S46, the control unit 150 determines whether or not the authentication is successful. If the determination is negative, the process returns to step S40. If the determination is positive, the process proceeds to step S48. If the determination in step S46 is denied a plurality of times, the process shown in FIGS. 6 and 7 may be forcibly terminated (the elevator is not driven) in order to lock the security.

ステップS48に移行すると、制御部150は、居住階が図5のデータベースに登録されているか否かを判断する。ここでの判断が肯定された場合には、図7の処理を終了し、図6のステップS24に移行する。一方、ステップS48の判断が否定された場合(図5のデータベースに居住階が登録されていない場合)には、ステップS50に移行する。   If transfering it to step S48, the control part 150 will judge whether the residence floor is registered into the database of FIG. If the determination here is affirmed, the process of FIG. 7 is terminated, and the process proceeds to step S24 of FIG. On the other hand, if the determination in step S48 is negative (if the residence floor is not registered in the database of FIG. 5), the process proceeds to step S50.

ステップS50では、制御部150は、投影装置46を介して、行き先階入力画像を、エレベータ10の前(エレベータを利用する人の足元)に投影する。例えば、投影装置46は、図8(b)に示すような、2〜6の数字を含む入力キー画像を投影するものとする。なお、図8(b)は、図2のエレベータホールが1階である場合の例である。すなわち、1階にいる人の行き先階が1階ということはありえないため、数字キーの画像には1を含めないこととしている。なお、制御部150は、入力画像キーの投影と同時に、不図示のスピーカを用いて、“行き先階を入力してください”などの音声を出力してもよい。   In step S50, the control unit 150 projects the destination floor input image in front of the elevator 10 (the feet of the person who uses the elevator) via the projection device 46. For example, the projection device 46 projects an input key image including numbers 2 to 6 as shown in FIG. In addition, FIG.8 (b) is an example in case the elevator hall of FIG. 2 is the 1st floor. That is, since the destination floor of the person on the first floor cannot be the first floor, 1 is not included in the numeric key image. Note that the control unit 150 may output a voice such as “Please enter a destination floor” using a speaker (not shown) simultaneously with the projection of the input image key.

次いで、ステップS52では、制御部150は、撮像装置34を介して、足元(入力キー画像全体)を撮像する。次いで、ステップS54では、制御部150は、ジェスチャー認識部40に対し、撮像装置34で撮像される画像に基づいて、行き先階の入力を認識させる。この場合、ジェスチャー認識部40は、人の足の動き(移動と停止)に基づいて、行き先階の入力を認識する。ステップS54の処理が終了すると、制御部150は、図6のステップS24に移行する。   Next, in step S <b> 52, the control unit 150 images the foot (entire input key image) via the imaging device 34. Next, in step S54, the control unit 150 causes the gesture recognition unit 40 to recognize the destination floor input based on the image captured by the imaging device 34. In this case, the gesture recognition unit 40 recognizes the input of the destination floor based on the movement of the person's foot (movement and stop). When the process of step S54 ends, the control unit 150 proceeds to step S24 of FIG.

図6に戻り、ステップS24では、制御部150は、エレベータ予約部42に対し、エレベータの行き先階の予約を行わせる。この場合、前述した図7の処理において、ステップS48の判断が肯定された場合には、エレベータ予約部42は、データベースに登録されている居住階を予約する。一方、ステップS48の判断が否定された場合には、ステップS54で認識された行き先階を予約する。これにより、エレベータを利用する人は、エレベータに乗る前に行き先階を指定することができる。制御部150は、上記予約が行われた段階で、エレベータ駆動制御部54に、エレベータ10を1階まで移動させるよう指示を出す。エレベータ駆動制御部54は、駆動装置52を駆動して、エレベータ10を1階まで移動させる。   Returning to FIG. 6, in step S <b> 24, the control unit 150 causes the elevator reservation unit 42 to reserve the destination floor of the elevator. In this case, when the determination in step S48 is affirmed in the process of FIG. 7 described above, the elevator reservation unit 42 reserves the residence floor registered in the database. On the other hand, if the determination in step S48 is negative, the destination floor recognized in step S54 is reserved. Thereby, the person using the elevator can designate the destination floor before getting on the elevator. The control unit 150 instructs the elevator drive control unit 54 to move the elevator 10 to the first floor when the reservation is made. The elevator drive control unit 54 drives the drive device 52 to move the elevator 10 to the first floor.

次いで、ステップS26では、制御部150は、エレベータが到着するまで待機する。そしてエレベータが到着するとステップS28に移行し、制御部150は、エレベータ駆動制御部54に指示を出し、エレベータ10の扉を開けるように指示を出す。エレベータ駆動制御部54は、駆動装置52を駆動して、エレベータの扉を開ける。   Next, in step S26, the control unit 150 waits until the elevator arrives. Then, when the elevator arrives, the process proceeds to step S28, and the control unit 150 issues an instruction to the elevator drive control unit 54 and issues an instruction to open the door of the elevator 10. The elevator drive control unit 54 drives the drive device 52 to open the door of the elevator.

次いで、ステップS30では、制御部150は、エレベータホールに人が存在しなくなるまで待機する。すなわち、制御部150は、エレベータ10に人が乗るまで待機し、乗った段階で、ステップS32に移行する。   Next, in step S30, the control unit 150 stands by until no one is present in the elevator hall. That is, the control unit 150 waits until a person gets on the elevator 10 and proceeds to step S32 when the person gets on.

ステップS32に移行すると、制御部150は、エレベータ駆動制御部54及び駆動装置52を介して、エレベータ10の扉12を閉じる。そして、次のステップS34では、制御部150は、エレベータ駆動制御部54及び駆動装置52を介して、ステップS28で予約された階までエレベータ10を移動させ、当該予約された階に到着した段階で、ステップS36において、扉12の開閉動作を行う。   If transfering it to step S32, the control part 150 will close the door 12 of the elevator 10 via the elevator drive control part 54 and the drive device 52. FIG. Then, in the next step S34, the control unit 150 moves the elevator 10 to the floor reserved in step S28 via the elevator drive control unit 54 and the driving device 52, and at the stage of arrival at the reserved floor. In step S36, the door 12 is opened and closed.

以上のような処理を行うことで、エレベータ駆動制御システム100では、荷物を抱えて両手が使えない人がエレベータ10に近づいてきている場合等において、操作パネル56の操作をさせることなく、認証や、エレベータ10の行き先階の予約が可能となる。このため、本実施の形態においては、操作パネル56を省略することも可能となる。   By performing the processing as described above, in the elevator drive control system 100, when a person who has a baggage and cannot use both hands is approaching the elevator 10, authentication or the like is performed without operating the operation panel 56. The destination floor of the elevator 10 can be reserved. For this reason, in the present embodiment, the operation panel 56 can be omitted.

以上詳細に説明したように、本第1の実施形態によると、制御部150は、エレベータ10を利用する人の足に加わる荷重や移動速度を検出するセンサから、エレベータを利用する人の足に関する情報を取得し、これに基づいて、投影装置46を介して足元に画像(入力キー画像)を表示する。すなわち、制御部150は、人の足に関する情報から、荷物を抱えている可能性が高いと判断できる場合などにおいて、足元に入力キー画像を表示する。これにより、エレベータ10を利用する人は、足で必要な情報を入力することができるようになるので、入力における使い勝手の向上を図ることが可能となっている。なお、本実施形態においては、撮像装置34の撮像の前にユーザの状態を識別している。このため、装着部20のユーザ毎のIDを不揮発性メモリ48に登録しておき、制御部150がユーザがエレベータ10に近づいているのを撮像装置34の撮像前に検出してエレベータ10を予約する(例えば1階に移動させる)ようにしてもよい。   As described above in detail, according to the first embodiment, the control unit 150 relates to the foot of the person who uses the elevator from the sensor that detects the load applied to the foot of the person who uses the elevator 10 and the moving speed. Information is acquired, and based on this information, an image (input key image) is displayed on the foot via the projection device 46. That is, the control unit 150 displays the input key image at the foot when it can be determined from the information about the person's foot that the baggage is highly likely to be held. Thereby, since the person who uses the elevator 10 can input necessary information with his / her foot, it is possible to improve the usability in input. In the present embodiment, the state of the user is identified before imaging by the imaging device 34. For this reason, the ID for each user of the mounting unit 20 is registered in the nonvolatile memory 48, and the control unit 150 reserves the elevator 10 by detecting that the user is approaching the elevator 10 before imaging by the imaging device 34. (For example, move to the first floor).

また、本第1の実施形態によれば、撮像装置34は、投影装置46の入力キー画像の投影の際に、人の足を撮像することとしているので、ジェスチャー認識部40が、足の動作(ジェスチャー)を認識することができる。これにより、足の動作を非接触にて認識することができるので、例えば圧電センサなどのセンサをエレベータ前に設けるなどする必要がなくなる。   Further, according to the first embodiment, since the imaging device 34 captures a human foot when projecting the input key image of the projection device 46, the gesture recognizing unit 40 performs the motion of the foot. (Gesture) can be recognized. As a result, the motion of the foot can be recognized in a non-contact manner, so that it is not necessary to provide a sensor such as a piezoelectric sensor in front of the elevator.

また、本第1の実施形態によれば、制御部150は、撮像装置34の撮像結果に応じて、エレベータ10の駆動制御を行うこととしているので、足の動作(ジェスチャー)によるエレベータ10の予約が可能となる。   Further, according to the first embodiment, the control unit 150 performs drive control of the elevator 10 according to the imaging result of the imaging device 34, so that the reservation of the elevator 10 by a foot motion (gesture) is performed. Is possible.

また、本第1の実施形態によれば、撮像装置34が撮像した人の顔の画像に基づいて、顔認識部36が、エレベータを利用する人の顔を認識するので、人の特定を簡易に行うことができる。   Further, according to the first embodiment, the face recognition unit 36 recognizes the face of the person who uses the elevator based on the face image of the person imaged by the imaging device 34, so that the person can be easily identified. Can be done.

なお、上記実施形態では、図8(a)、図8(b)のように、投影装置46は、数字を小さい順に並べた状態で投影する場合について説明したが、これに限られるものではない。遠くにいる他人が、エレベータ10を利用する人が入力した数字を識別できないようにするために、図8(c)、図8(d)に示すように、毎回異なる配列で数字を投影するようにしてもよい。これにより、セキュリティの向上を図ることが可能となる。   In the above embodiment, as shown in FIGS. 8A and 8B, the projection device 46 has been described in the case where the projection is performed in a state in which the numbers are arranged in ascending order. However, the present invention is not limited to this. . In order to prevent other persons in the distance from identifying the numbers input by the person using the elevator 10, the numbers are projected in a different arrangement each time as shown in FIGS. 8 (c) and 8 (d). It may be. Thereby, security can be improved.

なお、上記第1の実施形態では、制御部150は、アシストの必要性の有無を判断するのに、荷重と移動速度の検出結果を利用する場合について説明したが、これに加えて、顔の表情を利用することとしてもよい。この場合、例えば、図9のフローチャートに示すように、ステップS12とステップS16の間において、ステップS18、S20’、S14’を行うこととすればよい。なお、その他の処理は、図6のフローチャートの処理(ステップS14、S18、S20を除く処理)と同様となっている。   In the first embodiment, the control unit 150 has described the case where the detection result of the load and the moving speed is used to determine whether or not the assist is necessary. It is also possible to use facial expressions. In this case, for example, as shown in the flowchart of FIG. 9, steps S18, S20 ', and S14' may be performed between steps S12 and S16. The other processing is the same as the processing in the flowchart of FIG. 6 (processing excluding steps S14, S18, and S20).

図9のステップS18では、制御部150は、撮像装置34を介して、人の顔を撮像する。次いで、ステップS20’では、制御部150は、顔認識部36を介して撮像された人の顔を認識(人物を特定)するとともに、表情の認識も行う。この場合、顔認識部36は、疲れたときに表情に表れる特徴(例えば、眉間の皺など)が、撮像された画像中に存在しているか否かに基づいて、疲れた表情であるか否かを判断する。なお、眉間の皺の検出は、眉間にある皺の画像をリファレンス画像として不揮発性メモリ48に記憶させてパターンマッチングにより検出してもよく、また、左目と右目との間の部分の陰影分布から検出してもよい。なお、眉間の皺の検出は、米国公開特許2008−292148号にも開示がある。   In step S <b> 18 of FIG. 9, the control unit 150 images a human face via the imaging device 34. Next, in step S <b> 20 ′, the control unit 150 recognizes the face of the person imaged through the face recognition unit 36 (identifies the person) and also recognizes the facial expression. In this case, the face recognizing unit 36 determines whether or not the tired facial expression is based on whether or not a feature (eg, eyelid between eyebrows) that appears in the facial expression is present in the captured image. Determine whether. The eyelid between the eyebrows may be detected by storing the image of the eyelid between the eyebrows in the nonvolatile memory 48 as a reference image and detecting it by pattern matching, or from the shadow distribution of the portion between the left eye and the right eye It may be detected. Note that detection of eyelids between eyebrows is also disclosed in US Patent Publication No. 2008-292148.

そして、次のステップS14’では、荷重と移動速度と表情に基づいて、アシストの必要があるか否かを判断する。このようにすることで、より適切にアシストの必要性を判断することができる。ただし、これに限らず、制御部150は、荷重、移動速度、表情の少なくとも1つから、アシストの必要性を判断することとしてもよい。   In the next step S14 ', it is determined whether or not assist is necessary based on the load, the moving speed, and the facial expression. By doing in this way, the necessity of assistance can be judged more appropriately. However, the present invention is not limited to this, and the control unit 150 may determine the necessity of assistance from at least one of the load, the moving speed, and the facial expression.

なお、投影装置46は、数字の入力キー画像を投影する場合に限らず、図10(a)に示すような図形(格子点を明示した格子形状)を投影してもよい。この場合、エレベータ10を利用する人は、足を図10(b)や図10(c)に示すように動かすようにする。この場合、ジェスチャー認識部40は、人の足の動かし方を認識し、予め登録されている人ごとの足の動かし方のパターンと一致したか否かに基づいて認証を行うこととしてもよい。   Note that the projection device 46 is not limited to projecting numeric input key images, and may project a figure (a lattice shape in which lattice points are clearly shown) as shown in FIG. In this case, a person using the elevator 10 moves his / her foot as shown in FIGS. 10B and 10C. In this case, the gesture recognizing unit 40 may recognize how to move a person's foot, and may perform authentication based on whether or not the pattern matches the pattern of how to move the foot for each person registered in advance.

なお、上記第1の実施形態では、足に関する情報として荷重や移動速度を用いる場合について説明したが、これに限らず、その他の足に関する情報を用いることとしてもよい。   In the first embodiment, the case where the load and the moving speed are used as the information about the foot has been described. However, the present invention is not limited to this, and information about the other foot may be used.

なお、上記第1の実施形態では、制御部150がエレベータ10の制御を行う場合について説明したが、これに限らず、制御部150とは別の制御部が、エレベータの制御を行うこととしてもよい。この場合、制御部150と別の制御部が通信可能となっていればよい。   In the first embodiment, the case where the control unit 150 controls the elevator 10 has been described. However, the present invention is not limited to this, and a control unit other than the control unit 150 may control the elevator. Good. In this case, it is only necessary that the control unit 150 and another control unit can communicate with each other.

なお、上記第1の実施形態では、本体部30が制御する対象がエレベータ10である場合について説明したが、これに限られるものではなく、制御する対象が、その他の移動装置であってもよい。また、マンションなどの集合住宅や自宅のオートロックにおける番号入力アシストとして、上記第1の実施形態の装着部20及び本体部30を採用することとしてもよい。   In the first embodiment, the case where the object to be controlled by the main body 30 is the elevator 10 has been described. However, the present invention is not limited to this, and the object to be controlled may be another moving device. . Moreover, it is good also as employ | adopting the mounting part 20 and the main-body part 30 of the said 1st Embodiment as number input assistance in apartment houses, such as a condominium, and the auto-lock of a house.

なお、上記第1の実施形態では、顔認証で人を特定するとともに、暗証番号を用いた認証を行うこととしたが、これに限らず、いずれか一方のみを行うこととしてもよい。例えば、顔認証でマンションの居住者であることが特定された場合には、暗証番号の入力を省略してもよい。また、セキュリティのレベルが低くても良い場合には、顔認証や暗証番号認証などの認証を省略してもよい。   In the first embodiment, a person is specified by face authentication and authentication using a personal identification number is performed. However, the present invention is not limited to this, and only one of them may be performed. For example, when it is specified that the person is a resident of a condominium by face authentication, the input of a personal identification number may be omitted. Further, when the security level may be low, authentication such as face authentication or password authentication may be omitted.

《第2の実施形態》
次に、第2の実施形態について、図11〜図17に基づいて詳細に説明する。図11は、本第2の実施形態にかかるエレベータ駆動制御システム200の概要図である。また、図12は、2基のエレベータEV1、EV2の状態の一例を示す図であり、図13は、エレベータ駆動制御システム200のブロック図である。本第2の実施形態においても、エレベータ駆動制御システム200が、例えば6階建てのマンション(集合住宅)において適用されたものとして説明する。
<< Second Embodiment >>
Next, a second embodiment will be described in detail with reference to FIGS. FIG. 11 is a schematic diagram of an elevator drive control system 200 according to the second embodiment. FIG. 12 is a diagram illustrating an example of the state of the two elevators EV1 and EV2, and FIG. 13 is a block diagram of the elevator drive control system 200. Also in the second embodiment, description will be made assuming that the elevator drive control system 200 is applied to, for example, a 6-story condominium (a collective housing).

図13に示すように、エレベータ駆動制御システム200は、本体部130と、エレベータ部110と、各階センサ群180とを有している。   As shown in FIG. 13, the elevator drive control system 200 includes a main body portion 130, an elevator portion 110, and each floor sensor group 180.

本体部130は、処理・制御装置132と、不揮発性メモリ148とを有する。不揮発性メモリ148は、例えば、フラッシュメモリであり、マンションの居住者の顔の画像データとその居住者が住んでいる階(居住階)とを対応付けて格納するデータベース(図15(a)参照)や、ジェスチャー動作の画像のデータベース(図15(b)参照)、各種データなどを記憶する。   The main body 130 includes a processing / control device 132 and a nonvolatile memory 148. The non-volatile memory 148 is, for example, a flash memory, and is a database (see FIG. 15A) that stores image data of a resident of an apartment in association with a floor (residential floor) where the resident lives. ), A database of gesture action images (see FIG. 15B), various data, and the like.

処理・制御装置132は、第1の実施形態の処理・制御装置32と同様の構成を有している。すなわち、処理・制御装置132は、図3に示すように、CPU、ROM、RAM、HDD、入出力インタフェースを有する。入出力インタフェースは、エレベータ部110や各階センサ群180などの外部機器と接続するためのインタフェースである。インタフェースとしては、無線/有線LAN、USB、HDMI(登録商標)、Bluetooth(登録商標)などの様々な接続規格を採用することができる。処理・制御装置132は、CPUがプログラムを実行することで、図14に示すように、顔識別部136、ジェスチャー認識部140、音声認識部144、タイマ146、及び制御部250としての機能を発揮する。   The processing / control device 132 has the same configuration as the processing / control device 32 of the first embodiment. That is, the processing / control device 132 has a CPU, ROM, RAM, HDD, and input / output interface as shown in FIG. The input / output interface is an interface for connecting to external devices such as the elevator unit 110 and each floor sensor group 180. As the interface, various connection standards such as wireless / wired LAN, USB, HDMI (registered trademark), Bluetooth (registered trademark), and the like can be adopted. The processing / control device 132 exhibits functions as a face identification unit 136, a gesture recognition unit 140, a voice recognition unit 144, a timer 146, and a control unit 250, as shown in FIG. To do.

顔識別部136は、後述する各階用撮像装置82が撮像した顔の画像と、不揮発性メモリ148に記憶されたマンションの居住者の顔の画像データとを比較(例えばパターンマッチング)し、各階用撮像装置82が撮像した顔がマンションの居住者の顔かどうかを識別する。   The face identification unit 136 compares (for example, pattern matching) the face image captured by each floor image pickup device 82, which will be described later, with the image data of the apartment occupant's face stored in the nonvolatile memory 148. It is identified whether the face imaged by the imaging device 82 is the face of an apartment resident.

ジェスチャー認識部140は、各階用撮像装置82及びエレベータ用撮像装置192A、192Bが撮像した画像に基づき、エレベータを利用する人又はエレベータを利用している人のジェスチャー動作を認識する。この場合のジェスチャーとしては、例えば、エレベータから複数人が降りる途中でエレベータの扉が閉まろうとする場合に、エレベータ用撮像装置192A、192Bに向けて掌を見せるジェスチャー(“待て”のジェスチャー)などが想定される。   The gesture recognizing unit 140 recognizes a gesture motion of a person who uses the elevator or a person who uses the elevator, based on images captured by the imaging devices 82 for each floor and the imaging devices 192A and 192B for elevators. The gesture in this case includes, for example, a gesture (“wait” gesture) that shows the palm toward the imaging devices 192A and 192B for the elevator when the door of the elevator is about to close while a plurality of people are getting off the elevator. is assumed.

音声認識部144は、音声認識辞書を有し、後述の各階用マイク86(エレベータホールに設置されるマイク)から制御部250に入力された音声を取得して、音声の識別を行うものである。本第2の実施形態では、エレベータの行き先階を指定する人の音声を認識することを想定しているため、音声認識辞書は、“1階”、“2階”…といった階数に関する語句データを含んでいるものとする。   The speech recognition unit 144 has a speech recognition dictionary, and acquires speech input to the control unit 250 from each floor microphone 86 (microphone installed in the elevator hall) described later, and performs speech identification. . In the second embodiment, since it is assumed that the voice of the person who designates the destination floor of the elevator is recognized, the speech recognition dictionary stores phrase data related to the floor number such as “first floor”, “second floor”,. It shall contain.

タイマ146は、時間を計測および予測するものであり、本第2の実施形態では、エレベータEV1,EV2が到着するまでの時間や、居住者が通路を歩く速度からエレベータホールに到着するまでの時間などを予測するのに用いる。   The timer 146 measures and predicts the time. In the second embodiment, the time until the elevators EV1 and EV2 arrive, and the time from the speed at which the resident walks the passage to the elevator hall. Used to predict

制御部250は、本体部130の各機能の制御に加え、エレベータ駆動制御システム200全体を統括的に制御する。   The control unit 250 comprehensively controls the entire elevator drive control system 200 in addition to the control of each function of the main body unit 130.

エレベータ部110は、2基のエレベータEV1、EV2を駆動する駆動装置152A,152Bと、エレベータ制御部154A,154Bと、エレベータEV1、EV2内の天井部に設けられたエレベータ用撮像装置192A,192B(図11参照)と、を備える。なお、本第2の実施形態においては、マンション内に2基のエレベータEV1、EV2があるものとしているが、エレベータの数は1基でも、3基以上でもよい。   The elevator unit 110 includes drive devices 152A and 152B for driving the two elevators EV1 and EV2, elevator control units 154A and 154B, and elevator imaging devices 192A and 192B provided on the ceilings of the elevators EV1 and EV2 ( 11). In the second embodiment, although there are two elevators EV1 and EV2 in the apartment, the number of elevators may be one or three or more.

駆動装置152A,152Bは、エレベータEV1,EV2を上下動する駆動装置(モータ等)や、エレベータEV1、EV2の扉112(図11参照)の開閉を行う駆動装置(モータ等)を含む。   The driving devices 152A and 152B include a driving device (such as a motor) that moves the elevators EV1 and EV2 up and down and a driving device (such as a motor) that opens and closes the doors 112 (see FIG. 11) of the elevators EV1 and EV2.

エレベータ制御部154A、154Bは、前述した処理・制御装置132の制御部250の指示の下、駆動装置152A、152Bの駆動制御やエレベータ用撮像装置192A,192Bの撮像制御を行う。   The elevator controllers 154A and 154B perform driving control of the driving devices 152A and 152B and imaging control of the elevator imaging devices 192A and 192B under the instruction of the control unit 250 of the processing / control device 132 described above.

エレベータ用撮像装置192A、192Bは、撮影レンズおよびCCDやCMOSなどの撮像素子を備える。本第2の実施形態においては、エレベータ用撮像装置192A、192Bは、主に、エレベータ内の人が行ったジェスチャーを撮像するものである。エレベータ用撮像装置192A,192Bにおいて撮像された画像は、処理・制御装置132の制御部250に送信される。制御部250では、受信した画像をジェスチャー認識部140に対して送信する。   The elevator imaging devices 192A and 192B include a photographing lens and an imaging element such as a CCD or a CMOS. In the second embodiment, the elevator imaging devices 192A and 192B mainly capture gestures made by a person in the elevator. Images picked up by the elevator image pickup devices 192A and 192B are transmitted to the control unit 250 of the processing / control device 132. The control unit 250 transmits the received image to the gesture recognition unit 140.

各階センサ群180は、1階から6階までの各階のエレベータホールに設けられているセンサ群である。具体的には、各階センサ群180は、各階用投影装置84、各階用撮像装置82、各階用マイク86、通路センサ62a,62b及び鍵センサ89を有している。   Each floor sensor group 180 is a sensor group provided in an elevator hall on each floor from the first floor to the sixth floor. Specifically, each floor sensor group 180 includes each floor projection device 84, each floor imaging device 82, each floor microphone 86, passage sensors 62 a and 62 b, and a key sensor 89.

図11は、一例としてマンションの4階のエレベータホールを示しているが、エレベータEV1、EV2の間の上方に各階用投影装置84と、各階用撮像装置82とを一体的に設け、その下側に、各階用マイク86を配置している。また、通路センサ62a,62bは、床に配置されている。なお、鍵センサ89は、各住戸の玄関の扉に設けられている。なお、各階用撮像装置82、各階用投影装置84はエレベータEV1,EV2毎にそれぞれ設けてもよい。   FIG. 11 shows an elevator hall on the fourth floor of a condominium as an example, but a projection device 84 for each floor and an imaging device 82 for each floor are integrally provided above the elevators EV1 and EV2, and the lower side thereof In addition, microphones 86 for each floor are arranged. The passage sensors 62a and 62b are disposed on the floor. The key sensor 89 is provided at the entrance door of each dwelling unit. Note that each floor imaging device 82 and each floor projection device 84 may be provided for each of the elevators EV1 and EV2.

各階用投影装置84は、人が行き先階を入力することを可能にする入力キー画像184を、エレベータホールの床面に投影(表示)する装置である。ここで床面に入力キー画像184を投影することとしているのは、エレベータを利用する人は、両手に荷物を持っていたり、子供を抱いていたりして、両手がふさがれている場合があるからである。図11には、各階用投影装置(ここでは、4階用投影装置)84が、階数1,2,3,5,6を含む入力キー画像184を表示した状態を示している。なお、数字1〜6の数字のうち、4が抜けているのは、図11がマンションの4階のエレベータホールを示しており、4階が行き先階として指定されることは有り得ないからである。居住者は投影された入力キー画像(行き先階)のうち希望する階の位置に立ったり、あるいは足で指し示したりすることにより、行き先階を指定するものとする。なお、各階用投影装置84は、入力キー画像184として4階以外の全ての階を表示する場合について説明したが、これに限らず、例えば、通路センサ62bが下階レーン60bを居住者が移動しているのを検出した場合、各階用投影装置84は、下階の階数(1,2,3)のみを表示するようにしてもよい。   Each floor projection device 84 is a device that projects (displays) an input key image 184 that allows a person to input a destination floor onto the floor surface of the elevator hall. The reason why the input key image 184 is projected on the floor is that the person who uses the elevator may hold his / her hand with his / her baggage or holding a child. Because. FIG. 11 shows a state in which each floor projection device (here, the fourth floor projection device) 84 displays an input key image 184 including the number of floors 1, 2, 3, 5, and 6. Of the numbers 1 to 6, 4 is missing because FIG. 11 shows the elevator hall on the 4th floor of the apartment, and the 4th floor cannot be designated as the destination floor. . It is assumed that the resident designates the destination floor by standing at the position of the desired floor in the projected input key image (destination floor) or pointing with the foot. In addition, although the projection apparatus 84 for each floor demonstrated the case where all the floors other than the 4th floor were displayed as the input key image 184, it is not restricted to this, For example, a passage sensor 62b moves a lower floor lane 60b by a resident When it is detected that the floor is being operated, each floor projection device 84 may display only the number of floors (1, 2, 3) of the lower floor.

各階用撮像装置82は、各階用投影装置84が投影する入力キー画像184が含まれる範囲(入力キー画像184よりも広い領域)を撮像可能な撮影レンズおよびCCDやCMOSなどの撮像素子を備えている。各階用撮像装置82は、居住者の顔を撮像したり、各階用投影装置84が投影する入力キー画像に対する居住者の動きを撮像したりする。各階用撮像装置82で撮像された画像は、制御部250を介してジェスチャー認識部140に入力される。ジェスチャー認識部140では、各階用撮像装置82の撮像素子の画素の位置と、行き先階が投影される位置とを対応づけることにより、居住者の立っている位置や足の位置から行き先階を認識することができる。なお、これに代えて、ジェスチャー認識部140は、投影した5つの数字のうち各階用撮像装置82により撮像できない数字の階を行き先階と認識するようにしてもよい。これにより、居住者は、エレベータに乗る前に行き先階を指定することができる。   Each floor image pickup device 82 includes a photographing lens capable of picking up an area including the input key image 184 projected by each floor projection device 84 (an area wider than the input key image 184) and an image pickup element such as a CCD or a CMOS. Yes. Each floor imaging device 82 images a resident's face or images a resident's movement with respect to an input key image projected by each floor projection device 84. An image captured by each floor imaging device 82 is input to the gesture recognition unit 140 via the control unit 250. The gesture recognition unit 140 recognizes the destination floor from the position of the resident and the position of the foot by associating the position of the pixel of the image sensor of the imaging device 82 for each floor with the position where the destination floor is projected. can do. Instead of this, the gesture recognizing unit 140 may recognize a floor of a number that cannot be captured by the imaging device 82 for each floor among the five projected numbers as a destination floor. Thereby, the resident can designate the destination floor before getting on the elevator.

なお、各階用撮像装置82は、床から2mくらいの通常の人の身長よりも高いところに設置しているものとする。このようにすることで、各階用撮像装置82は、通常は頭部と顔の一部(おでこ)しか撮像できないため、居住者が意識的に上を向いたときにのみ、居住者の顔を撮像できることになる。これにより、居住者のプライバシを守ることができる。   In addition, the imaging device 82 for each floor is installed at a place higher than a normal person's height of about 2 m from the floor. In this way, each floor imaging device 82 can usually only capture a part of the head and face (forehead), so the resident's face is only displayed when the resident is consciously facing up. The image can be taken. Thereby, privacy of a resident can be protected.

なお、各階用撮像装置82で撮像された画像は、エレベータEV1,EV2の扉を閉じる動作の制御にも用いられる。具体的には、制御部250は、各階用撮像装置82がエレベータホールの人を撮像している状態から人を撮像しない状態になった場合に、エレベータ制御部154A又は154Bを介して駆動装置152A,152Bを制御し、扉を閉めるようにする。これにより、エレベータの扉に人が挟まれることを防止することができる。   In addition, the image imaged by the imaging device 82 for each floor is also used for controlling the operation of closing the doors of the elevators EV1 and EV2. Specifically, the control unit 250, when the imaging device 82 for each floor changes from the state where the person in the elevator hall is picked up to the state where the person is not picked up, the driving device 152A via the elevator control part 154A or 154B. , 152B are controlled to close the door. Thereby, it can prevent that a person is pinched in the door of an elevator.

各階用マイク86は、高さ方向の位置が口の位置に対応するように、例えば床から1.3mから1.6mくらいの位置に設けられている。各階用マイク86は、居住者の音声を制御部250に入力する。制御部250は、居住者の音声をデジタル信号に変換して音声認識部144に入力し、音声認識部144は、当該音声のデジタル信号を用いて音声認識を行う。   Each floor microphone 86 is provided, for example, at a position of about 1.3 m to 1.6 m from the floor so that the position in the height direction corresponds to the position of the mouth. Each floor microphone 86 inputs the resident's voice to the control unit 250. The control unit 250 converts the resident's voice into a digital signal and inputs the digital signal to the voice recognition unit 144. The voice recognition unit 144 performs voice recognition using the digital signal of the voice.

通路センサ62a,62bは、図11に示すように、廊下からエレベータホールにかけて設定された上階レーン60aと、下階レーン60bに沿って配置されている。なお、マンションの最上階の場合には下階レーン60bのみを設定し、最下階であれば上階レーン60aのみを設定するものとする。   As shown in FIG. 11, the passage sensors 62a and 62b are arranged along the upper lane 60a and the lower lane 60b set from the hallway to the elevator hall. Note that only the lower lane 60b is set for the uppermost floor of the apartment, and only the upper lane 60a is set for the lowermost floor.

通路センサ62a,62bは、例えば荷重を検出する荷重センサを用いることができ、居住者が通路センサ62a,62b(荷重センサ)上を歩いている場合に、エレベータに乗る意思があるとして、制御部250にその通知を行う。   For example, a load sensor that detects a load can be used as the passage sensors 62a and 62b. When the occupant is walking on the passage sensors 62a and 62b (load sensors), the controller The notification is sent to 250.

なお、子供などのいたずらを避けるために、通路センサ62a,62bは、例えば30kg以上の荷重を検出したときにのみ、制御部250への通知を行ったり、その検出結果を有効と判断するようにしてもよい。   In order to avoid mischief of children or the like, the passage sensors 62a and 62b notify the control unit 250 only when, for example, a load of 30 kg or more is detected, or determine that the detection result is valid. May be.

なお、通路センサ62a,62bとしては、荷重センサに代えて光電センサなどを用いることができる。この場合、上記と同様、子供などのいたずらを避けるために、身長120cm以下の人の動きは検出しないように、通路センサ62a,62bを配置するようにしてもよい。また、通路センサ62a,62bとして赤外線センサを用いてもよい。   As the passage sensors 62a and 62b, photoelectric sensors or the like can be used instead of the load sensors. In this case, similarly to the above, the passage sensors 62a and 62b may be arranged so as not to detect the movement of a person having a height of 120 cm or less in order to avoid a mischief of a child or the like. In addition, infrared sensors may be used as the passage sensors 62a and 62b.

図12に示すように、エレベータEV1が5階で居住者を乗せている状態にあり、エレベータEV1の行き先は1階であるとする。一方、エレベータEV2は2階で待機している状態にあるとする。また、4階の通路センサ62bが居住者が下階レーン60bを移動しているのを検出したとする。この場合、制御部250は、1階に向かっているエレベータEV1のエレベータ制御部154Aに対して、エレベータEV1を4階に停止するように指示する。   As shown in FIG. 12, it is assumed that the elevator EV1 is in a state where a resident is on the fifth floor, and the destination of the elevator EV1 is the first floor. On the other hand, it is assumed that the elevator EV2 is in a standby state on the second floor. Further, it is assumed that the passage sensor 62b on the fourth floor detects that the resident is moving on the lower lane 60b. In this case, the control unit 250 instructs the elevator control unit 154A of the elevator EV1 that is heading to the first floor to stop the elevator EV1 on the fourth floor.

なお、図11では、上階レーン60aの幅を下階レーン60bの幅よりも狭くしている。これは、図11が6階建てのマンションの4階のエレベータホールを示しており、下階が1,2,3階の3つ、上階が5,6階の2つであるからである。したがって、例えば、3階のエレベータホールの場合、下階が1,2階の2つ、上階が4,5,6階の3つであるので、上階レーン60aの幅を下階レーン60bの幅よりも広くする。なお、これに限らず、例えば、上階レーン60aと下階レーン60bとの幅を、同じにしてもよい。また、例えば、自宅用のマンションであれば、居住者は、基本的には下階に行く場合が多いので、階にかかわらず、下階レーン60bの幅を上階レーン60aの幅よりも広くしてもよい。   In FIG. 11, the width of the upper lane 60a is narrower than the width of the lower lane 60b. This is because FIG. 11 shows an elevator hall on the 4th floor of a 6-story condominium, with the lower floor having 3 floors of 1, 2 and 3 and the upper floor having 2 floors of 5 and 6. . Thus, for example, in the case of an elevator hall on the third floor, the lower floor is two of the first and second floors, and the upper floor is three of the fourth, fifth, and sixth floors. Make it wider than. For example, the upper lane 60a and the lower lane 60b may have the same width. In addition, for example, in the case of a condominium for home use, the resident often goes to the lower floor basically, so the width of the lower lane 60b is wider than the width of the upper lane 60a regardless of the floor. May be.

なお、制御部250は、通路センサ62a,62bを用いて、居住者がエレベータホールに到着する時間を予測することができる。この場合、例えば、制御部250は、エレベータホールから5m離れた下階レーン60bに居住者が位置したときにタイマ146による計時を開始し、エレベータホールから3m離れた下階レーン60bに居住者が位置するまでの時間を計時することにより、居住者の移動速度を求め、エレベータホールに到着する時間を予測する。このようにエレベータに到着する時間を予測することで、制御部250は、到着時間に4階から下階に行くエレベータがある場合に、当該エレベータを4階に停止させるようにすることができる。これにより、居住者が、エレベータが到着するまで長く待つ状況が発生するのを抑制することができる。なお、この場合、通路センサ62a.62bが、人の移動速度を検出する速度検出センサとしての機能を有しているといえる。   In addition, the control part 250 can estimate the time when a resident | arrival arrives at an elevator hall using the passage sensors 62a and 62b. In this case, for example, the control unit 250 starts the time measurement by the timer 146 when the occupant is located in the lower lane 60b 5m away from the elevator hall, and the resident occupies the lower lane 60b 3m away from the elevator hall. By measuring the time to position, the moving speed of the occupant is obtained, and the time to arrive at the elevator hall is predicted. By predicting the time to arrive at the elevator in this way, the control unit 250 can stop the elevator at the fourth floor when there is an elevator that goes from the fourth floor to the lower floor in the arrival time. Thereby, it can suppress that the situation where a resident waits long until an elevator arrives generate | occur | produces. In this case, the passage sensor 62a. It can be said that 62b has a function as a speed detection sensor for detecting a moving speed of a person.

なお、図11では、通路センサ62a,62bを断続的に複数設けたが、これに限らず、連続的に設けてもよい。   In FIG. 11, a plurality of passage sensors 62a and 62b are provided intermittently. However, the present invention is not limited to this and may be provided continuously.

鍵センサ89は、各住戸の玄関の扉の鍵が外側から施錠されたことを検出して、制御部250に出力するものである。制御部250は、鍵センサ89の出力に応じて、施錠された玄関の存在する階にエレベータを停止させるように、エレベータ制御部154A,154Bに指示する。この場合、制御部250は、居住者が外から施錠しているため外出する可能性が高いとして下階に行くエレベータを選択するものとする。なお、制御部250は、居住者が扉の外から施錠したか中から施錠したかを、例えば、玄関の外側又は内側の少なくとも一方に設けた赤外線センサの検出結果から判定してもよいし、鍵穴に鍵が差し込まれたか否かを判別するセンサから判定してもよい。この場合、制御部250は、居住者の部屋からエレベータホールまでの距離から居住者がエレベータホールに着く時間を予測してもよいし、前述のように居住者の移動速度を検出して居住者がエレベータホールに到着する時間を算出してもよい。   The key sensor 89 detects that the key of the entrance door of each dwelling unit is locked from the outside, and outputs it to the control unit 250. In response to the output of the key sensor 89, the control unit 250 instructs the elevator control units 154A and 154B to stop the elevator at the floor where the locked entrance exists. In this case, it is assumed that the control unit 250 selects an elevator that goes to the lower floor on the assumption that the resident is locked out from the outside and is likely to go out. The control unit 250 may determine whether the resident is locked from the outside of the door or from the inside, for example, from the detection result of the infrared sensor provided on at least one of the outside or inside of the entrance, You may determine from the sensor which discriminate | determines whether the key was inserted in the keyhole. In this case, the control unit 250 may predict the time for the occupant to reach the elevator hall from the distance from the occupant's room to the elevator hall, or detect the occupant's moving speed as described above, and May arrive at the elevator hall.

なお、各階用撮像装置82、各階用投影装置84、及び各階用マイク86は、通常はスイッチをオフにしておき、居住者が通路センサ62a,62bを通過してエレベータホールに近づいてきたときに、制御部250が各装置のスイッチをオンにするようにしてもよい。これにより、省エネルギー化とすることができる。   Each floor imaging device 82, each floor projection device 84, and each floor microphone 86 are normally switched off, and when a resident approaches the elevator hall through the passage sensors 62a and 62b. The control unit 250 may turn on the switches of the respective devices. Thereby, it can be set as energy saving.

次に、本第2の実施形態のエレベータ駆動制御システム200の処理について、図16、図17のフローチャートに沿って詳細に説明する。なお、この処理の前提として、不揮発性メモリ148には、図15(a)、図15(b)に示すようなデータベースが記憶されているものとする。図15(a)は、居住者データベースであり、居住者と、当該居住者の顔データと、居住階とを格納する。図15(b)は、ジェスチャーデータベースであり、ジェスチャー画像と、そのジェスチャーの意味とを格納する。なお、図16、図17の処理の前提として、居住者は、1階から上(居住階)に向かおうとしているものとする。   Next, processing of the elevator drive control system 200 of the second embodiment will be described in detail along the flowcharts of FIGS. 16 and 17. As a premise of this process, it is assumed that the nonvolatile memory 148 stores a database as shown in FIGS. 15A and 15B. FIG. 15A shows a resident database, which stores a resident, face data of the resident, and a residence floor. FIG. 15B is a gesture database, which stores a gesture image and the meaning of the gesture. As a premise of the processing in FIGS. 16 and 17, it is assumed that the resident is going from the first floor to the upper (residential floor).

図16、図17の処理では、まず、図16のステップS100において、制御部250が、1階の上階レーン60aに人がいるかどうかを通路センサ62aの出力に基づいて判断する。ここでの判断が肯定されると、ステップS102に移行する。   In the processing of FIGS. 16 and 17, first, in step S100 of FIG. 16, the control unit 250 determines whether or not there is a person in the upper lane 60a on the first floor based on the output of the passage sensor 62a. If the determination here is affirmed, the process proceeds to step S102.

ステップS102では、制御部250は、1階の上階レーン60aを移動している人の移動速度を算出する。この場合、制御部250は、前述したように、移動速度を所定の移動距離(例えば2m〜5m)を移動する時間をタイマ146により計時して算出すればよい。なお、1階の上階レーン60aに複数の人がいる場合には、一番先にエレベータホールに到着しそうな人(例えば、エレベータホールに対して最も近い位置にいる人)の移動速度を算出すればよい。   In step S102, the control unit 250 calculates the moving speed of the person moving on the first floor upper lane 60a. In this case, as described above, the control unit 250 may calculate the moving speed by measuring the time for moving a predetermined moving distance (for example, 2 m to 5 m) with the timer 146. When there are a plurality of people on the upper lane 60a on the first floor, the moving speed of the person who is likely to arrive at the elevator hall first (for example, the person closest to the elevator hall) is calculated. do it.

次いで、ステップS104では、制御部250は、ステップS102で算出した移動速度に基づいてエレベータホールに到着するまでの時間(あるいは時刻)を求めて、エレベータを予約する。例えば、3秒後に人がエレベータホールに到着する場合には、近くの階で待機しているエレベータを1階に向かわせる。これにより、人がエレベータホールに到着してからエレベータを呼び寄せる場合に比べて早くエレベータに乗ることが可能となる。   Next, in step S104, the control unit 250 reserves the elevator by obtaining the time (or time) until it arrives at the elevator hall based on the moving speed calculated in step S102. For example, when a person arrives at the elevator hall after 3 seconds, the elevator waiting on a nearby floor is directed to the first floor. As a result, it is possible to get on the elevator earlier than when a person arrives at the elevator hall and calls the elevator.

なお、エレベータ駆動制御システム200のコストを低減するために、通路センサ62a,62bを設けない場合もある。このような場合には、ステップS100からステップS106の処理・判断を省略することとしてもよい。   In order to reduce the cost of the elevator drive control system 200, the passage sensors 62a and 62b may not be provided. In such a case, the processing / judgment from step S100 to step S106 may be omitted.

次いで、ステップS106では、制御部250は、各階用撮像装置(1階用撮像装置)82の撮像した画像を取得し、顔識別部136に対して、1階のエレベータホールにいる人の顔識別を行うよう指示を出す。顔識別部136は、1階用撮像装置82が撮像した顔の画像と、不揮発性メモリ148の居住者データベース(図15(a))に格納されている居住者の顔データとを比較して、1階用撮像装置82が撮像した顔が居住者か否かを識別する。ここでの識別結果は、顔識別部136から制御部250に送信される。   Next, in step S106, the control unit 250 acquires an image captured by each floor imaging device (first floor imaging device) 82, and identifies the face of the person in the elevator hall on the first floor with respect to the face identification unit 136. Give instructions to do. The face identification unit 136 compares the face image captured by the first-floor imaging device 82 with the resident face data stored in the resident database of the nonvolatile memory 148 (FIG. 15A). It is identified whether or not the face imaged by the first-floor imaging device 82 is a resident. The identification result here is transmitted from the face identification unit 136 to the control unit 250.

次いで、ステップS108では、制御部250は、顔識別の結果、居住者であったか否かを判断する。なお、例えば、1階のエレベータホールに複数の人がいて1人でも顔識別できない人がいる場合には、ステップS108の判断は否定される。ここで、顔識別できない場合としては、1階用撮像装置82を見ない場合と、居住者ではない人の場合が考えられる。なお、居住者でない場合でもエレベータホールに入る前にセキュリティゲートがある場合が多いので、本第2の実施形態では上階への移動を許可するものとする。   Next, in step S108, the control unit 250 determines whether or not the person is a resident as a result of the face identification. For example, when there are a plurality of people in the elevator hall on the first floor and even one person cannot identify the face, the determination in step S108 is denied. Here, the case where the face cannot be identified includes a case where the first-floor imaging device 82 is not seen and a case where the person is not a resident. Even in the case where the person is not a resident, there are many cases where there is a security gate before entering the elevator hall. Therefore, in the second embodiment, movement to the upper floor is permitted.

ステップS108の判断が否定された場合、ステップS110に移行し、制御部250は、各階用投影装置(1階用投影装置)84に対して、入力キー画像184を1階エレベータホールの床面に表示するよう、指示を出す。1階用投影装置84は、当該指示に基づいて、入力キー画像184(2〜6の階数表示)を投影する。なお、1階用投影装置84の投影光学系にシフト光学系を設けておき、制御部250は、ステップS106で顔識別ができなかった人の足元に入力キー画像184を投影するように、1階用投影装置84に指示を出してもよい。また、制御部250は、顔識別はできなかったものの、1階用撮像装置82を見た人の足元だけに入力キー画像184を投影するようにしてもよい。これにより、荷物を抱えた宅配業者などのエレベータ操作の手間を省くことができる。   When the determination in step S108 is negative, the process proceeds to step S110, and the control unit 250 gives the input key image 184 to the floor surface of the first floor elevator hall for each floor projection apparatus (first floor projection apparatus) 84. Give instructions to display. The first-floor projection device 84 projects the input key image 184 (2-6 rank display) based on the instruction. It should be noted that a shift optical system is provided in the projection optical system of the first-floor projection device 84, and the control unit 250 projects the input key image 184 to the foot of the person whose face could not be identified in step S106. An instruction may be issued to the floor projection device 84. The control unit 250 may project the input key image 184 only on the feet of the person who has seen the first-floor imaging device 82, although the face cannot be identified. Thereby, the trouble of elevator operation, such as a parcel delivery company holding a load, can be saved.

次いで、ステップS112では、制御部250は、ジェスチャー認識部140が各階用撮像装置(1階用撮像装置)82が撮像した画像に基づいて、人が入力キー画像184を用いて行き先階の入力をするまで待機する。この場合、ジェスチャー認識部140は、1階用投影装置84が床に投影した入力キー画像184(2〜6の階数表示)のうち1階用撮像装置82の画像から認識できない数字を行き先階と認識する。   Next, in step S112, the control unit 250 causes the person to input the destination floor using the input key image 184 based on the image captured by the gesture recognition unit 140 by each floor imaging device (first floor imaging device) 82. Wait until In this case, the gesture recognizing unit 140 sets a number that cannot be recognized from the image of the first-floor imaging device 82 among the input key images 184 (floor display of 2 to 6) projected on the floor by the first-floor projection device 84 as the destination floor. recognize.

なお、人が意識して投影された数字の上に立つ場合と、投影された数字の上に無意識に立つ場合とが考えられる。このため、ジェスチャー認識部140は、例えば、1階用撮像装置82を見る動作をトリガーにして足の移動(ジェスチャー)を受け付けるようにしてもよい。なお、ジェスチャー認識部140は、1階用撮像装置82を見ることに代えて掌を1階用撮像装置82に向ける動作をトリガーにして足の移動(ジェスチャー)を受け付けるようにしてもよい。また、これとは逆に、足の移動後に1階用撮像装置82を見る動作や掌を向ける動作を行った場合に、その足の移動を受け付けるようにしてもよい。   In addition, there are a case where a person stands on the projected number and a case where the person stands unconsciously on the projected number. For this reason, for example, the gesture recognizing unit 140 may receive a movement (gesture) of a foot triggered by an operation of viewing the first-floor imaging device 82. Gesture recognizing unit 140 may accept movement of the foot (gesture) by triggering an action of pointing the palm toward first-floor imaging device 82 instead of looking at first-floor imaging device 82. On the contrary, when an operation of viewing the first-floor imaging device 82 or an operation of pointing the palm after the movement of the foot is performed, the movement of the foot may be accepted.

なお、各階用投影装置84が入力キー画像184を投影する時間として、例えば5秒から15秒の間で設定しておくこととしてもよい。制御部250は、タイマ146の計時によりこの設定時間を過ぎた場合に、1階用投影装置84による入力キー画像184の投影を止めるように制御してもよい。なお、人が入力のジェスチャーを行うことなく、入力キー画像184の投影を終了した場合には、以降のエレベータ制御を中止することとしてもよい。   It should be noted that the time for projecting the input key image 184 by each floor projection device 84 may be set, for example, between 5 seconds and 15 seconds. The control unit 250 may perform control so as to stop the projection of the input key image 184 by the first-floor projection device 84 when this set time has passed due to the time measured by the timer 146. Note that when the projection of the input key image 184 is finished without a human performing an input gesture, the subsequent elevator control may be stopped.

入力キー画像184を用いた人による入力が行われると、ステップS114に移行する。また、前述したステップS108において、顔識別(S106)の結果、居住者であると判断された場合(判断が肯定された場合)にも、ステップS114に移行する。   When an input by a person using the input key image 184 is performed, the process proceeds to step S114. Further, in step S108 described above, also when it is determined that the person is a resident as a result of the face identification (S106) (when the determination is affirmed), the process proceeds to step S114.

ステップS114では、制御部250は、行き先階を決定する。具体的には、エレベータホールに居住者が存在する場合には、制御部250は、当該居住者の居住階を不揮発性メモリ148に格納されている居住者データベースから抽出して、その居住階を行き先階として決定する。また、ステップS112において行き先階が入力された場合には、その入力された階を行き先階として決定する。このように、本第2の実施形態では、エレベータに乗る前に行き先階を指定することができる。   In step S114, control unit 250 determines a destination floor. Specifically, when there is a resident in the elevator hall, the control unit 250 extracts the resident residence floor from the resident database stored in the non-volatile memory 148 and extracts the residence floor. It is decided as the destination floor. If a destination floor is input in step S112, the input floor is determined as the destination floor. Thus, in the second embodiment, the destination floor can be designated before getting on the elevator.

次いで、図17のステップS116では、制御部250は、エレベータが1階に到着するまで待機する。そして、エレベータが到着した段階で、ステップS118に移行する。ステップS118では、制御部250は、エレベータの扉112を開けるよう、エレベータ制御部154A又は154Bに対して指示を出す。エレベータ制御部154A又は154Bは、駆動装置152A又は152Bを制御して、エレベータの扉112を開く。   Next, in step S116 of FIG. 17, the control unit 250 waits until the elevator arrives at the first floor. Then, when the elevator arrives, the process proceeds to step S118. In step S118, the control unit 250 instructs the elevator control unit 154A or 154B to open the elevator door 112. The elevator controller 154A or 154B controls the driving device 152A or 152B to open the elevator door 112.

次いで、ステップS120では、制御部250は、1階用撮像装置82が撮像した画像に基づいて、エレベータホールに人がいるか否かを判別する。このステップS120は、エレベータホールに人がいなくなるまでエレベータの扉112を開放し続けるためのステップである。これにより、エレベータに乗った人が扉112を開放し続けるための操作(開放ボタンを押し続ける)を省略することができる。なお、エレベータに乗りきれない場合には、通常のエレベータと同様にその旨を報知する。   Next, in step S120, the control unit 250 determines whether there is a person in the elevator hall based on the image captured by the first-floor imaging device 82. This step S120 is a step for keeping the elevator door 112 open until no one is in the elevator hall. Thus, an operation for a person on the elevator to keep opening the door 112 (continue to press the release button) can be omitted. If the elevator cannot be reached, the fact is notified as in the case of a normal elevator.

なお、エレベータに乗る意思が無い人がエレベータホールに存在する場合もある。このような場合には、エレベータに乗る意思がない人は、1階用撮像装置82に向けて掌を見せたり、手や指でバッテンマークを作ったりするなどのジェスチャー動作を行うようにする。ジェスチャー認識部140が当該ジェスチャー動作を認識した場合、制御部250に対して通知するものとする。この場合、制御部250は、ジェスチャーを行った人の存在がエレベータホールにないものと扱うことができる。すなわち、制御部250は、ジェスチャーを行った人のみがエレベータホールに存在している場合には、ステップS120においてエレベータホールに人がいないと判断することができる。   There may be a person in the elevator hall who does not intend to ride the elevator. In such a case, a person who does not intend to ride the elevator performs a gesture operation such as showing a palm toward the first-floor imaging device 82 or making a batten mark with a hand or a finger. When the gesture recognition unit 140 recognizes the gesture motion, the control unit 250 is notified. In this case, the control unit 250 can handle that the presence of the person who made the gesture is not in the elevator hall. That is, if only the person who made the gesture exists in the elevator hall, the control unit 250 can determine that there is no person in the elevator hall in step S120.

また、例えば、制御部250は、通路センサ62a,62bの出力等から、数秒後にエレベータホールに到着すると予想される人を、エレベータホールに存在する人として扱うこととしてもよい。これにより、数秒後にエレベータホールに人が到着する場合に、エレベータの扉112を開いたままとすることができる。   For example, the control unit 250 may treat a person who is expected to arrive at the elevator hall a few seconds later from the outputs of the passage sensors 62a and 62b as a person existing in the elevator hall. This allows the elevator door 112 to remain open when a person arrives at the elevator hall after a few seconds.

ステップS120において、制御部250が、エレベータホールに人がいなくなったと判断した場合、ステップS122に移行し、制御部250は、エレベータ制御部154A又は154Bに対して、エレベータの扉112を閉めるように指示を出す。エレベータ制御部154A又は154Bは、駆動装置152A又は152Bを制御して、扉112を閉める。   When the control unit 250 determines in step S120 that there are no more people in the elevator hall, the process proceeds to step S122, and the control unit 250 instructs the elevator control unit 154A or 154B to close the elevator door 112. Put out. The elevator control unit 154A or 154B controls the driving device 152A or 152B to close the door 112.

次いで、ステップS123では、制御部250が、行き先階のうち最も近い階に向けてエレベータを移動するように、エレベータ制御部154A又は154Bに指示を出す。エレベータ制御部154A又は154Bは、駆動装置152A又は152Bを制御して、エレベータを駆動する。次いで、ステップS124では、制御部250が、行き先階に到着したか否かを判断する。ここでの判断が肯定されると、ステップS126に移行し、制御部250は、エレベータの扉112を開ける。   Next, in step S123, the control unit 250 instructs the elevator control unit 154A or 154B to move the elevator toward the nearest floor among the destination floors. The elevator control unit 154A or 154B controls the driving device 152A or 152B to drive the elevator. Next, in step S124, the control unit 250 determines whether or not it has arrived at the destination floor. If the determination here is affirmed, the process proceeds to step S126, and the control unit 250 opens the door 112 of the elevator.

次いで、ステップS128では、制御部250は、ジェスチャー認識部140がジェスチャー認識を行ったか否かの判断を行う。ジェスチャー認識部140は、エレベータ用撮像装置192A又は192Bが撮像した画像と、不揮発性メモリ148のジェスチャーデータベース(図15(b))に格納されているジェスチャー画像とに基づいて、ジェスチャー認識を行う。ステップS128の判断が肯定された場合には、ステップS130に移行し、制御部250は、ジェスチャーに応じた制御を実施する。例えば、エレベータに乗っている人が、扉112が開いているときに手を広げたとする。この場合、ジェスチャーと、ジェスチャーデータベースのジェスチャー画像(J2.jpg)とが合致していれば、ジェスチャー認識部140は、扉の開放のジェスチャーと認識する。そして、制御部250は、エレベータの扉を開放し続けるように、エレベータ制御部154A又は154Bに指示を出す。   Next, in step S128, the control unit 250 determines whether or not the gesture recognition unit 140 has performed gesture recognition. The gesture recognition unit 140 performs gesture recognition based on an image captured by the elevator imaging device 192A or 192B and a gesture image stored in a gesture database (FIG. 15B) of the nonvolatile memory 148. When the determination in step S128 is affirmed, the process proceeds to step S130, and the control unit 250 performs control according to the gesture. For example, it is assumed that a person on the elevator spreads his hand when the door 112 is open. In this case, if the gesture matches the gesture image (J2.jpg) in the gesture database, the gesture recognizing unit 140 recognizes the gesture as an opening of the door. Then, the control unit 250 instructs the elevator control unit 154A or 154B to keep the elevator door open.

なお、ジェスチャーは、例えば、エレベータ用撮像装置192A、192Bに向けて掌を見せるジェスチャー(“待て”のジェスチャー)や、両手をつけた状態から離すジェスチャー(“扉を開ける”のジェスチャー)や、その逆のジェスチャー(“扉を閉める”のジェスチャー)などであってもよい。   The gestures include, for example, gestures that show the palms to the imaging devices 192A and 192B for elevators (“wait” gestures), gestures that release both hands (“open the door” gestures), The reverse gesture (“close the door” gesture) or the like may be used.

なお、この場合も、エレベータに乗っている人がエレベータ用撮像装置192A又は192Bを見たり、手を振るなどの動作を行った場合に、それをトリガーとしてジェスチャー認識をするようにしてもよい。これにより、ジェスチャー認識部140は、エレベータに乗っている人が意識的にジェスチャー動作をしたことを認識することができる。   In this case as well, when a person on the elevator performs an operation such as watching the imaging device 192A or 192B for the elevator or waving his hand, the gesture may be recognized as a trigger. Thereby, the gesture recognizing unit 140 can recognize that the person on the elevator consciously performed the gesture operation.

制御部250は、ステップS130にてジェスチャーに応じた制御を実施した後は、ステップS128に戻り、ジェスチャー動作が認識できなくなるまでステップS128、S130を繰り返す。そして、ステップS128の判断が否定された段階で、ステップS132に移行し、制御部250は、エレベータの扉を閉めるよう、エレベータ制御部154A又は154Bに指示を出す。エレベータ制御部154A又は154Bは、駆動装置152A又は152Bを制御して、扉112を閉める。   After performing the control according to the gesture in step S130, the control unit 250 returns to step S128 and repeats steps S128 and S130 until the gesture motion cannot be recognized. Then, when the determination in step S128 is negative, the process proceeds to step S132, and the control unit 250 instructs the elevator control unit 154A or 154B to close the elevator door. The elevator control unit 154A or 154B controls the driving device 152A or 152B to close the door 112.

そして、次のステップS134では、制御部250は、ステップS114で決定された行き先階がまだ残っているか(到着していない行き先階があるか)否かを判断する。ここでの判断が肯定された場合には、ステップS123に戻り、ステップS123以降の処理を繰り返す。一方、ステップS134の判断が否定された場合には、図6、図7の全処理を終了する。以降は、図6、図7の処理が繰り返し実行されることになる。   In the next step S134, the control unit 250 determines whether the destination floor determined in step S114 still remains (whether there is a destination floor that has not arrived). When determination here is affirmed, it returns to step S123 and repeats the process after step S123. On the other hand, if the determination in step S134 is negative, all the processes in FIGS. 6 and 7 are terminated. Thereafter, the processes of FIGS. 6 and 7 are repeatedly executed.

なお、図16、図17では、一例として、1階の上階レーン60aに人がいる場合の処理について説明したが、これに限らず、他の階の上階レーン60a、下階レーン60bに人がいる場合にも同様の処理が行われる。この場合、鍵センサ89の出力があった場合には、制御部250は、図16のステップS100〜S112を省略して、ステップS114の行き先階決定の処理において、行き先階として1階を決定することとしてもよい。   In FIG. 16 and FIG. 17, as an example, the processing in the case where there is a person on the upper lane 60a on the first floor is not limited to this. Similar processing is performed when there is a person. In this case, when there is an output from the key sensor 89, the control unit 250 omits steps S100 to S112 in FIG. 16 and determines the first floor as the destination floor in the processing of determining the destination floor in step S114. It is good as well.

なお、本第2の実施形態では、各階用マイク86及び音声認識部144が用意されているので、図16のステップS110、S112における入力キー画像184を用いた行き先階の指定に代えて、又はこれとともに音声による行き先階の指定を受け付けるようにしてもよい。   In the second embodiment, each floor microphone 86 and the voice recognition unit 144 are prepared. Instead of specifying the destination floor using the input key image 184 in steps S110 and S112 of FIG. 16, or At the same time, designation of a destination floor by voice may be accepted.

なお、エレベータの開閉制御の少なくとも一部(例えば、顔認識やジェスチャー認識を伴わない制御)に関しては、エレベータ制御部154A、154Bが、制御部250の指示を受けずに、制御を行うこととしてもよい。 Note that the elevator control units 154A and 154B may perform control without receiving an instruction from the control unit 250 for at least part of the elevator opening / closing control (for example, control without face recognition or gesture recognition). Good.

以上、詳細に説明したように、本第2の実施形態によると、人が通路(上階レーン60a、下階レーン60b)を通過したことを検出する通路センサ62a、62bの検出結果に基づいて、制御部250は、エレベータEV1、EV2の利用を予約するので、人がエレベータホールに到着する前にエレベータEV1、EV2の利用を予約することができる。これにより、エレベータの到着までに要する時間を短縮することができるため、エレベータの使い勝手を向上することが可能となる。   As described above in detail, according to the second embodiment, based on the detection results of the passage sensors 62a and 62b that detect that a person has passed through the passage (the upper lane 60a and the lower lane 60b). Since the controller 250 reserves the use of the elevators EV1 and EV2, the controller 250 can reserve the use of the elevators EV1 and EV2 before the person arrives at the elevator hall. As a result, the time required until the elevator arrives can be shortened, so that the convenience of the elevator can be improved.

また、本第2の実施形態によると、制御部250は、通路センサ62a、62bの検出結果に基づいて対象者の移動速度を検出することができるので、制御部250は、移動速度に基づいて、エレベータEV1,EV2の利用を予約することができる。この場合、制御部250は、移動速度に基づいて、人がエレベータEV1,EV2前(エレベータホール)に到着する時間を予測し、予測した時間にエレベータEV1,EV2が到着するように、エレベータEV1、EV2の利用を予約する。これにより、エレベータの使い勝手を向上することができる。   In addition, according to the second embodiment, the control unit 250 can detect the moving speed of the subject based on the detection results of the passage sensors 62a and 62b. The use of the elevators EV1 and EV2 can be reserved. In this case, the control unit 250 predicts the time when a person arrives in front of the elevators EV1 and EV2 (elevator hall) based on the moving speed, and the elevators EV1 and EV2 so as to arrive at the predicted time. Reserve the use of EV2. Thereby, the convenience of an elevator can be improved.

また、本第2の実施形態によると、エレベータEV1,EV2は上下方向に移動可能であり、通路センサ62aは、エレベータを利用する人が上階へ移動したいことを検出し、通路センサ62bは、エレベータを利用する人が下階へ移動したいことを検出するので、エレベータの予約をエレベータを利用する人の移動方向を考慮して行うことができる。   Further, according to the second embodiment, the elevators EV1 and EV2 are movable in the vertical direction, the passage sensor 62a detects that a person using the elevator wants to move to the upper floor, and the passage sensor 62b Since it is detected that the person using the elevator wants to move to the lower floor, the reservation of the elevator can be performed in consideration of the moving direction of the person using the elevator.

また、本第2の実施形態では、通路センサ62aが配置される上階レーン60aと、通路センサ62bが配置される下階レーン60bとの幅を異ならせることができる。このようにすることで、各階の実情(利用頻度など)を考慮して使い勝手を向上することが可能となる。   In the second embodiment, the width of the upper floor lane 60a in which the passage sensor 62a is disposed and the width of the lower floor lane 60b in which the passage sensor 62b is disposed can be made different. By doing so, it becomes possible to improve usability in consideration of the actual situation (usage frequency, etc.) of each floor.

また、本第2の実施形態では、エレベータを利用する人の大きさ(体重や身長)が所定以上である場合に、制御部250が、エレベータの予約を行うこととしているので、子供などによるいたずらを防止することができる。   In the second embodiment, since the control unit 250 reserves an elevator when the size (weight or height) of the person who uses the elevator is greater than or equal to a predetermined value, it is possible for the child to mischief. Can be prevented.

また、本第2の実施形態では、各住戸の玄関の扉を外側から施錠したことを検出する鍵センサ89の出力があった場合に、制御部250は、その出力に基づいて、エレベータの利用を予約するので、施錠後にエレベータを利用する人にとってのエレベータの使い勝手を向上することができる。   In the second embodiment, when there is an output of the key sensor 89 that detects that the entrance door of each dwelling unit is locked from the outside, the control unit 250 uses the elevator based on the output. Therefore, it is possible to improve the usability of the elevator for those who use the elevator after locking.

この場合、玄関の施錠後には下方向に移動することが多いので、この実情を考慮して、エレベータの下方向への移動を予約することで、より使い勝手を向上することができる。   In this case, since the door is often moved downward after the entrance is locked, it is possible to further improve the usability by reserving the downward movement of the elevator in consideration of this situation.

また、本第2の実施形態では、顔識別部138が居住者の顔を識別した結果と、不揮発性メモリ148に登録されている居住者の居住階のデータ(居住者データベース)とに基づいて、エレベータの行き先階を決定するので、居住者は、エレベータの階数を指定する操作等を行う必要が無くなる。これにより、エレベータの使い勝手を向上することが可能となる。   Further, in the second embodiment, the face identification unit 138 identifies the resident's face and the data on the resident's residence floor (resident database) registered in the nonvolatile memory 148. Since the destination floor of the elevator is determined, the resident is not required to perform an operation for specifying the number of floors of the elevator. Thereby, it becomes possible to improve the usability of the elevator.

また、本第2の実施形態では、エレベータホールに人が存在している状態から存在していない状態に変化した場合に、制御部250は、エレベータの扉を閉じるようにしているので、エレベータに乗っている人または乗る人がエレベータの操作をしなくても、適切なタイミングでエレベータの扉を閉じるようにすることができる。   In the second embodiment, the controller 250 closes the elevator door when the elevator hall changes from a state where a person is present to a state where a person is not present. Even if the rider or the rider does not operate the elevator, the elevator door can be closed at an appropriate timing.

また、本第2の実施形態では、制御部250は、エレベータホールで特定のジェスチャーを行った人は、エレベータに乗らない人であると判断(予測)するので、エレベータホールに人が存在している状態にあっても、エレベータの扉を閉じるなどの制御を行うことが可能である。   In the second embodiment, the control unit 250 determines (predicts) that the person who performed the specific gesture in the elevator hall is a person who does not get on the elevator, so there is a person in the elevator hall. Even in such a state, it is possible to perform control such as closing an elevator door.

また、本第2の実施形態では、顔識別部136が居住者の特定をできなかった場合に、各階用投影装置84が入力キー画像184を投影するので、顔識別ができなかった場合でも、エレベータを利用する人が行き先階を指定することが可能となる。この場合、各階用投影装置84は、入力キー画像184を足元に投影するので、エレベータを利用する人の両手がふさがっているような場合でも、行き先階の指定を足で行うことができる。   Further, in the second embodiment, when the face identification unit 136 cannot identify the resident, each floor projection device 84 projects the input key image 184. Therefore, even when the face identification cannot be performed, A person using the elevator can designate a destination floor. In this case, each floor projection device 84 projects the input key image 184 on the foot, so that the destination floor can be designated with the foot even when both hands of the person using the elevator are occupied.

また、本第2の実施形態では、例えば音声を発しなくてもエレベータの行き先階を指定することができるので、音声を発することに恥じらいを感じる人でも、エレベータに乗る前に行き先階を指定することができる。これにより、エレベータの使い勝手を向上することが可能となる。   In the second embodiment, for example, the destination floor of the elevator can be designated without making a sound, so even a person who feels shy about making a sound designates the destination floor before getting on the elevator. be able to. Thereby, it becomes possible to improve the usability of the elevator.

なお、上記第2の実施形態では、図13に示すように、本体部130とエレベータ部110とが別である場合について説明しているが、これに限らず、本体部130内にエレベータ部110を設けることとしてもよい。また、各エレベータに対して、本体部130を用意してもよい。あるいは、本体部130の少なくとも一部の機能をエレベータ部110や各エレベータに持たせるようにしてもよい。   In the second embodiment, as shown in FIG. 13, the case where the main body 130 and the elevator 110 are separate from each other has been described. It is good also as providing. Moreover, you may prepare the main-body part 130 with respect to each elevator. Or you may make it give the elevator part 110 or each elevator the function of at least one part of the main-body part 130. FIG.

なお、上記第2の実施形態では、エレベータ駆動制御システム200がマンションのエレベータに用いられた場合について説明したが、これに限らずオフィスビルや、商業施設のエレベータに適用することもできる。オフィスビルや、商業施設においても、通路センサ62a,62bや、ジェスチャー認識部140や、鍵センサ89などを用いて、エレベータを事前に予約できたり、エレベータに乗る前に行き先階指定を行うことができたり、ジェスチャーによりエレベータを操作することができることは、利便性の向上に対し有効である。   In the second embodiment, the case where the elevator drive control system 200 is used for an elevator in a condominium has been described. Even in office buildings and commercial facilities, it is possible to reserve an elevator in advance using the passage sensors 62a and 62b, the gesture recognition unit 140, the key sensor 89, etc., or to specify a destination floor before getting on the elevator. The ability to operate or operate the elevator by a gesture is effective for improving convenience.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、例えば第1の実施形態と第2の実施形態とを適宜組み合わせてもよく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, it is not limited to this, For example, you may combine 1st Embodiment and 2nd Embodiment suitably, and can implement various deformation | transformation within the range which does not deviate from the summary of this invention.

24 荷重センサ
26 歩行センサ
32 処理・制御装置
34 撮像装置
46 投影装置
49 通信部
60a 上階レーン
60b 下階レーン
62a,62b 通路センサ
82 各階用撮像装置
89 鍵センサ
132 処理・制御装置
148 不揮発性メモリ
EV1,EV2 エレベータ
24 load sensor 26 walking sensor 32 processing / control device 34 imaging device 46 projection device 49 communication unit 60a upper floor lane 60b lower floor lane 62a, 62b passage sensor 82 imaging device for each floor 89 key sensor 132 processing / control device 148 nonvolatile memory EV1, EV2 elevator

Claims (12)

対象者が所定の場所から施錠したことを検出する検出装置の検出結果を入力する入力部と、
前記検出装置の検出結果に基づいて、移動装置の利用を予約する予約部と、を備える電子装置。
An input unit for inputting a detection result of a detection device that detects that the subject is locked from a predetermined place;
An electronic device comprising: a reservation unit that reserves use of a mobile device based on a detection result of the detection device.
前記予約部は、前記移動装置を前記所定の場所よりも下方に移動させる予約をすることを特徴とする請求項1記載の電子装置。   The electronic device according to claim 1, wherein the reservation unit makes a reservation for moving the mobile device downward from the predetermined location. 対象者の顔を識別する識別部と、
前記対象者と前記対象者の居住に関する情報とを関連付けて記憶する記憶部と、
前記識別部が識別した対象者の居住に関する情報に基づいて、移動装置の移動先を予約する予約部と、を備える電子装置。
An identification unit for identifying the face of the subject person;
A storage unit that associates and stores information about the subject and the residence of the subject;
An electronic device comprising: a reservation unit that reserves a destination of a mobile device based on information about residence of the subject identified by the identification unit.
前記対象者を撮像する第1撮像部と、
前記第1撮像部が、前記対象者を撮像している状態から撮像していない状態に変化したのに応じて、前記移動装置の移動を行う第1制御部と、を備える請求項3記載の電子装置。
A first imaging unit that images the subject;
4. The first control unit according to claim 3, further comprising: a first control unit configured to move the moving device in response to the first imaging unit changing from a state in which the subject is captured to a state in which the subject is not captured. Electronic equipment.
前記対象者とは異なる対象者の前記移動装置の利用を予測する予測部を備える請求項3または4記載の電子装置。   The electronic device according to claim 3, further comprising a prediction unit that predicts use of the mobile device by a subject different from the subject. 前記対象者の居住に関する情報は、前記対象者の居住階数を含む請求項3から5のいずれか一項に記載の電子装置。   The electronic device according to any one of claims 3 to 5, wherein the information regarding the residence of the subject includes the number of floors of the subject. 前記識別部が前記対象者の顔を識別できなかった場合に、前記移動装置の操作に関するメニューを投影する投影部を備える請求項3から6のいずれか一項に記載の電子装置。   The electronic device according to claim 3, further comprising a projecting unit that projects a menu related to operation of the moving device when the identifying unit cannot identify the face of the subject. 前記投影部は、前記対象者の位置に応じて、前記メニューを投影する請求項7記載の電子装置。   The electronic device according to claim 7, wherein the projection unit projects the menu according to the position of the subject. 前記投影部は、前記対象者の足元に前記メニューを投影する請求項7または8記載の電子装置。   The electronic device according to claim 7, wherein the projection unit projects the menu onto the subject's foot. 前記投影部の投影領域を含む領域を撮像可能な第2撮像部を備える請求項7から9のいずれか一項に記載の電子装置。   10. The electronic device according to claim 7, further comprising a second imaging unit capable of imaging an area including a projection area of the projection unit. 前記第2撮像部の撮像結果に応じて、前記移動装置に指令を行う第2制御部を備える請求項10記載の電子装置。   The electronic device according to claim 10, further comprising a second control unit that issues a command to the moving device according to an imaging result of the second imaging unit. 前記第2制御部は、前記メニューに対して前記対象者が動作を行う前および後の少なくとも一方に前記対象者の動作に応じて、前記移動装置に指令を行う請求項11記載の電子装置。   The electronic device according to claim 11, wherein the second control unit issues a command to the mobile device according to the operation of the subject person at least before and after the subject person performs an action on the menu.
JP2015046412A 2015-03-09 2015-03-09 Electronic device Pending JP2015145315A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015046412A JP2015145315A (en) 2015-03-09 2015-03-09 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015046412A JP2015145315A (en) 2015-03-09 2015-03-09 Electronic device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011047751A Division JP2012184068A (en) 2011-03-04 2011-03-04 Electronic device

Publications (1)

Publication Number Publication Date
JP2015145315A true JP2015145315A (en) 2015-08-13

Family

ID=53889808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015046412A Pending JP2015145315A (en) 2015-03-09 2015-03-09 Electronic device

Country Status (1)

Country Link
JP (1) JP2015145315A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022185373A1 (en) * 2021-03-01 2022-09-09

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04140285A (en) * 1990-10-02 1992-05-14 Toshiba Corp Elevator
JPH04251080A (en) * 1990-12-13 1992-09-07 Mitsubishi Denki Bill Techno Service Kk Call operation device for elevator
JPH09202542A (en) * 1996-01-25 1997-08-05 Otis Elevator Co Elevator for multiple dwelling house
JPH09315706A (en) * 1996-05-22 1997-12-09 Kokusai Electric Co Ltd Elevator calling device
JPWO2006114877A1 (en) * 2005-04-21 2008-12-11 三菱電機株式会社 Elevator group management control device
JP2010058850A (en) * 2008-09-01 2010-03-18 Hitachi Ltd Elevator group supervisory operation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04140285A (en) * 1990-10-02 1992-05-14 Toshiba Corp Elevator
JPH04251080A (en) * 1990-12-13 1992-09-07 Mitsubishi Denki Bill Techno Service Kk Call operation device for elevator
JPH09202542A (en) * 1996-01-25 1997-08-05 Otis Elevator Co Elevator for multiple dwelling house
JPH09315706A (en) * 1996-05-22 1997-12-09 Kokusai Electric Co Ltd Elevator calling device
JPWO2006114877A1 (en) * 2005-04-21 2008-12-11 三菱電機株式会社 Elevator group management control device
JP2010058850A (en) * 2008-09-01 2010-03-18 Hitachi Ltd Elevator group supervisory operation system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022185373A1 (en) * 2021-03-01 2022-09-09
WO2022185373A1 (en) * 2021-03-01 2022-09-09 三菱電機ビルテクノサービス株式会社 Elevator device and report preparation device
JP7260076B2 (en) 2021-03-01 2023-04-18 三菱電機ビルソリューションズ株式会社 Elevator device and report writing device
CN116917221A (en) * 2021-03-01 2023-10-20 三菱电机楼宇解决方案株式会社 Elevator device and report generation device
CN116917221B (en) * 2021-03-01 2024-02-23 三菱电机楼宇解决方案株式会社 Elevator device and report generation device

Similar Documents

Publication Publication Date Title
JP2012184068A (en) Electronic device
JP2012185634A (en) Electronic device
US10189677B2 (en) Elevator control system with facial recognition and authorized floor destination verification
JP5788843B2 (en) Elevator door system and elevator with elevator door system
JP4912732B2 (en) Elevator system
US20180334357A1 (en) Depth sensor and method of intent deduction for an elevator system
US20190002234A1 (en) Elevator control apparatus and elevator control method
JP5879152B2 (en) Elevator arrival time estimation device, elevator system
WO2012120960A1 (en) Electronic device
JP6073972B2 (en) Elevator control device
CN107117502A (en) Target floor registration unit and the method using the target floor registration unit
US20230078706A1 (en) Elevator device and elevator control device
CN111212802B (en) Elevator use log output system and elevator use log output method
JP3226698B2 (en) Elevator security equipment
JP2015020888A (en) Elevator control system and control method thereof
JP2005132549A (en) Control device for elevator
JP2004010303A (en) User detection device for elevator
JP5596423B2 (en) Elevator control system
JP2015145315A (en) Electronic device
AU2020233914B2 (en) Access control system comprising a sliding door that is opened contactlessly from the inside
JP2009208900A (en) Security system for elevator
JP2008230811A (en) Fingerprint authentication system for elevator
WO2017104071A1 (en) Elevator control device
JP6711470B2 (en) Elevator user detection device
CN115698632A (en) Traffic management system for building

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160404

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160823