WO2022153899A1 - 案内システム - Google Patents

案内システム Download PDF

Info

Publication number
WO2022153899A1
WO2022153899A1 PCT/JP2022/000109 JP2022000109W WO2022153899A1 WO 2022153899 A1 WO2022153899 A1 WO 2022153899A1 JP 2022000109 W JP2022000109 W JP 2022000109W WO 2022153899 A1 WO2022153899 A1 WO 2022153899A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
unit
group
floor
interest
Prior art date
Application number
PCT/JP2022/000109
Other languages
English (en)
French (fr)
Inventor
立 真壁
真実 相川
啓 五味田
淳志 堀
誠治 不破
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN202280009002.XA priority Critical patent/CN116710379A/zh
Priority to DE112022000602.1T priority patent/DE112022000602T5/de
Priority to US18/271,241 priority patent/US20240051789A1/en
Priority to KR1020237022748A priority patent/KR20230116037A/ko
Priority to JP2022575542A priority patent/JPWO2022153899A1/ja
Publication of WO2022153899A1 publication Critical patent/WO2022153899A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B1/00Control systems of elevators in general
    • B66B1/34Details, e.g. call counting devices, data transmission from car to control system, devices giving information to the control system
    • B66B1/3415Control system configuration and the data transmission or communication within the control system
    • B66B1/3446Data transmission or communication within the control system
    • B66B1/3461Data transmission or communication within the control system between the elevator control system and remote or mobile stations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/0006Monitoring devices or performance analysers
    • B66B5/0012Devices monitoring the users of the elevator system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B1/00Control systems of elevators in general
    • B66B1/02Control systems without regulation, i.e. without retroactive action
    • B66B1/06Control systems without regulation, i.e. without retroactive action electric
    • B66B1/14Control systems without regulation, i.e. without retroactive action electric with devices, e.g. push-buttons, for indirect control of movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B3/00Applications of devices for indicating or signalling operating conditions of elevators

Definitions

  • This disclosure relates to the guidance system.
  • Patent Document 1 discloses an example of an elevator destination floor registration device.
  • candidates for the destination floor are selected based on the accumulated usage history of each user.
  • the destination floor registration device of Patent Document 1 the usage history of the user is acquired by the operation of the elevator device by the user. For this reason, the destination floor registration device cannot acquire information on the interests of the user such as the destination floor for a user who does not operate the elevating equipment such as an elevator provided in the building. Therefore, the destination floor registration device cannot provide guidance such as presentation of the destination floor in the building to a user who does not operate the elevating facility provided in the building based on the interest of the user.
  • the present disclosure provides a guidance system that enables guidance in a building based on the user's interests and interests, even for users who do not operate the lifting equipment.
  • the guidance system is based on an attribute storage unit that stores attributes for each area for each of a plurality of floors of a building and an image taken by at least one of a plurality of cameras provided in the building.
  • the user identification unit that identifies the user in the building, and the user specified in the user identification unit uses one or more of one or more elevating facilities provided in the building to use the plurality of floors.
  • a floor determination unit that determines the arrival floor of the user based on images taken by at least one of the plurality of cameras when moving from the departure floor to the arrival floor of the floor, and the user identification unit.
  • the behavior information acquisition unit that acquires the behavior information representing the behavior of the user on the arrival floor determined by the floor determination unit based on the image taken by at least one of the plurality of cameras. And, for the user specified in the user identification unit, for each attribute based on the relationship between the area arrangement and attributes on the arrival floor determined by the floor determination unit and the behavior information acquired by the behavior information acquisition unit.
  • the interest information acquisition unit that acquires the interest information indicating the degree of interest of the user, the interest information storage unit that stores the interest information acquired by the interest information acquisition unit for each user, and the one or more lifting equipment.
  • the guidance system is at least one of a first attribute storage unit that stores attributes for each area for each of a plurality of floors of the first building and a plurality of first cameras provided in the first building.
  • a first user identification unit that identifies a user in the first building and a user specified in the first user identification unit are provided in the first building based on an image taken by the user. An image taken by at least one of the plurality of first cameras when moving from the departure floor to the arrival floor of the plurality of floors of the first building by using any one or more elevating facilities.
  • the floor determination unit determines an action information acquisition unit that acquires behavior information based on an image captured by at least one of the plurality of first cameras, and a user specified by the first user identification unit.
  • the interest information acquisition unit Based on the relationship between the arrangement and attributes of the area on the arrival floor and the behavior information acquired by the behavior information acquisition unit, the interest information acquisition unit that acquires the interest information indicating the degree of interest of the user for each attribute, and the interest
  • the interest information storage unit that stores the interest information acquired by the information acquisition unit for each user, the second attribute storage unit that stores the attributes for each area for each of the plurality of floors of the second building, and the second attribute.
  • a second user identification unit that identifies a user in the second building based on an image taken by at least one of a plurality of second cameras provided in the building, and one provided in the second building.
  • the second user identification unit identifies a user who starts using any of the above elevating facilities, the interest information stored in the interest information storage unit and the second attribute storage for the user. Based on the attribute information stored by the department, in the second building, the interest information acquired in the first building and / or both of the interest information acquired in the second building are used. Therefore, it is provided with a destination presentation unit that gives priority to an area having an attribute having a higher degree of interest for the user and presents the user as a destination.
  • At least one of an attribute storage unit that stores attributes for each area and a plurality of first cameras provided in the first building
  • a first user identification unit that identifies a user in the first building based on an image to be captured, and one or more users specified in the first user identification unit provided in the first building.
  • Behavior information representing the behavior of the user on the arrival floor determined by the floor determination unit for the floor determination unit that determines the arrival floor of the user and the user specified by the first user identification unit.
  • the interest information acquisition unit that acquires the interest information indicating the degree of interest of the user for each attribute, and the interest information acquisition unit.
  • An image of the interest information storage unit that stores the interest information acquired by the department for each user and the user who starts using one of the one or more elevating facilities provided in the third building is shown in the third building.
  • a receiving unit that has a storage unit that stores and updates each of the plurality of floors of the above and receives from an external system that presents a destination according to the degree of interest of the user in the third building, and a receiving unit that receives the data.
  • the third user identification unit that identifies the user based on the image and the user specified by the third user identification unit
  • the interest that the interest information storage unit stores as interest information about the user. It includes a transmission unit that transmits a high-degree candidate to the external system.
  • FIG. It is a block diagram of the guidance system which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the car operation panel which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the area on the floor which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the arrangement of the camera which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the arrangement of the camera which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the arrangement of the camera which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the arrangement of the camera which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the action information acquired by the action information acquisition part which concerns on Embodiment 1.
  • FIG. 1 It is a figure which shows the example of the action information acquired by the action information acquisition part which concerns on Embodiment 1.
  • FIG. 2 is a figure which shows the example of the action information acquired by the action information acquisition part which concerns on Embodiment 1.
  • FIG. 2 is a figure which shows the example of the action information acquired by the action information acquisition part which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the action information acquired by the action information acquisition part which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the determination by the floor determination part which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the determination by the floor determination part which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the determination by the floor determination part which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the determination by the floor determination part which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the determination by the floor determination part which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the acquisition of the action information by the guidance system which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the acquisition of the action information by the guidance system which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the acquisition of the action information by the guidance system which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the acquisition of interest information by the guidance system which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the acquisition of interest information by the guidance system which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the acquisition of interest information by the guidance system which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the presentation of the destination by the guidance system which concerns on Embodiment 1.
  • FIG. 1 It is a figure which shows the example of the presentation of the destination by the guidance system which concerns on Embodiment 1.
  • FIG. 2 It is a figure which shows the example of the presentation of the destination by the guidance system which concerns on Embodiment 1.
  • FIG. 2 It is a figure which shows the example of the presentation of the destination by the guidance system which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the example of the operation of the guidance system which concerns on Embodiment 1.
  • FIG. 1 shows the example of the operation of the guidance system which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the example of the operation of the guidance system which concerns on Embodiment 1.
  • FIG. It is a hardware block diagram of the main part of the elevator which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the presentation of the destination by the guidance system which concerns on Embodiment 2.
  • FIG. It is a figure which shows the example of the presentation of the destination by the guidance system which concerns on Embodiment 2.
  • FIG. It is a figure which shows the example of the presentation of the destination by the guidance system which concerns on Embodiment 2.
  • FIG. It is a figure which shows the example of the presentation of the destination by the guidance system which concerns on Embodiment 2.
  • FIG. It is a figure which shows the example of the presentation of the destination by the guidance system which concerns on Embodiment 2.
  • FIG. It is a figure which shows the example of the presentation of the destination by the guidance system which concerns on Embodiment 2.
  • FIG. It is a figure which shows the example of the presentation of the destination by the guidance system which concerns on Embodiment 2.
  • FIG. It is a block diagram of the guidance system which concerns on Embodiment 3.
  • FIG. It is a figure which shows the example of the presentation of the destination by the guidance system which concerns on Embodiment 3.
  • FIG. It is a block diagram of the guidance system which concerns on Embodiment 4.
  • FIG. It is a figure which shows the example of the provision of interest information by the guidance system which concerns on Embodiment 4.
  • FIG. It is a block diagram of the guidance system which concerns on Embodiment 5.
  • FIG. 1 is a configuration diagram of the guidance system 1 according to the first embodiment.
  • the guidance system 1 is applied to a building 2 having a plurality of floors.
  • the guidance system 1 is a system that provides guidance such as presentation of a destination floor to, for example, a user of a building 2.
  • the elevating equipment is equipment used by the user of the building 2 to move between a plurality of floors.
  • the elevating equipment is, for example, an elevator 3, an escalator 4, or stairs 5.
  • the elevating equipment is, for example, an elevator 3, an escalator 4, or stairs 5.
  • the entrance / exit of the stairs 5 is provided on each floor of the building 2.
  • a user who moves from the departure floor to the arrival floor using the stairs 5 starts using the stairs 5 from the entrance / exit on the departure floor. After that, the user completes the use of the stairs 5 at the entrance / exit on the arrival floor.
  • the stairs 5 may be a slope that can be slanted between the floors.
  • a plurality of elevators 3 are applied to the building 2 as elevating equipment.
  • Each elevator 3 is a transport device that transports a user between a plurality of floors.
  • a hoistway 6 of the elevator 3 is provided in the building 2.
  • the hoistway 6 is a space that spans a plurality of floors.
  • a platform for the elevator 3 is provided on each floor of the building 2.
  • the landing of the elevator 3 is a space adjacent to the hoistway 6.
  • Each elevator 3 includes a car 7, a control panel 8, and a landing operation panel 9.
  • the car 7 is a device that transports a user who is riding inside by traveling up and down on the hoistway 6 between a plurality of floors.
  • the car 7 includes a car operation panel 10.
  • the car operation panel 10 is a device that accepts operations by a user who specifies the floor of the destination of the car 7.
  • the control panel 8 is, for example, a device that controls the traveling of the car 7 in response to a call registered in the elevator 3.
  • the landing operation panel 9 is a device that accepts the operation of the user who registers the call in the elevator 3.
  • the landing operation panel 9 is provided, for example, at the landing on each floor.
  • the landing operation panel 9 may be shared among a plurality of elevators 3.
  • a user who moves from the departure floor to the arrival floor by using the elevator 3 registers a call by operating the landing operation panel 9 at the landing on the departure floor, for example.
  • the user starts using the elevator 3 by getting in the car 7 from the platform on the departure floor.
  • a group management device 11 that manages operations such as assigning calls to a plurality of elevators 3 is provided.
  • a device that replaces the group management device as an independent device, or a device in which software equipped with the function of the group management device as an independent device is installed may be provided.
  • a part or all functions of information processing related to operation management and the like may be mounted on the control panel 8.
  • some or all functions of information processing related to operation management and the like may be installed in a server device or the like capable of communicating with each elevator 3.
  • the server device may be located inside or outside the building 2.
  • some or all functions of information processing related to operation management and the like may be installed in a virtual machine on a cloud service capable of communicating with each elevator 3.
  • Some or all functions of information processing such as operation management may be realized by dedicated hardware, software, or a combination of dedicated hardware and software. You may.
  • each means exemplified above that processes information regarding operation management and the like will be referred to as a group management device 11 regardless of its configuration.
  • Escalator 4 is hung between the upper and lower floors.
  • the escalator 4 is a transport device that transports users between the upper floors and the lower floors.
  • An entrance / exit for the escalator 4 is provided on each floor of the building 2.
  • a user who travels from the departure floor to the arrival floor using one or more escalators 4 starts using the escalator 4 from the entrance on the departure floor.
  • the user may transfer a plurality of escalators 4 between the departure floor and the arrival floor. After that, the user completes the use of the escalator 4 at the exit on the arrival floor.
  • a plurality of cameras 12 are provided in the building 2.
  • Each camera 12 is a device that captures an image of a provided location.
  • the image captured by each camera 12 includes, for example, a still image or a moving image.
  • the format of the image captured by each camera 12 may be the format of a compressed image such as Motion JPEG, AVC, HEVC, or the like. Alternatively, the format of the image captured by each camera 12 may be the format of an uncompressed image.
  • Each camera 12 is equipped with a function of outputting a captured image to an external device. In this example, the cameras 12 are synchronized with each other so that images taken at the same time can be acquired as images at the same time.
  • the plurality of cameras 12 include cameras 12 provided on each floor.
  • the plurality of cameras 12 include a camera 12 provided inside the car 7 of the elevator 3.
  • the plurality of cameras 12 include cameras 12 provided at the entrance / exit of the escalator 4.
  • the plurality of cameras 12 include cameras 12 provided at the entrance / exit of the stairs 5.
  • the plurality of cameras 12 may include cameras 12 provided outdoors such as the entrance, the outer periphery, or the courtyard of the building 2, similar to the cameras 12 provided on each floor.
  • the plurality of cameras 12 may include a camera 12 provided at the landing of the elevator 3 as well as a camera 12 provided on each floor.
  • the plurality of cameras 12 may include a camera 12 provided in a portion before reaching the entrance / exit of the escalator 4, similar to the camera 12 provided at the entrance / exit of the escalator 4.
  • the plurality of cameras 12 may include a camera 12 provided in a portion before reaching the entrance / exit of the stairs 5, similar to the camera 12 provided at the entrance / exit of the stairs 5.
  • the guidance system 1 may include a part or all of the plurality of cameras 12. Alternatively, a part or all of the plurality of cameras 12 may be an external device of the guidance system 1.
  • the guidance system 1 provides guidance by information processing based on images acquired from each camera 12.
  • the guidance system 1 has an attribute storage unit 13, a user identification unit 14, an action information acquisition unit 15, an action information storage unit 16, an elevating equipment determination unit 17, and a matching processing unit 18 as parts responsible for information processing.
  • a floor determination unit 19, an interest information acquisition unit 20, an interest information storage unit 21, a destination presentation unit 22, and a call registration unit 23 are provided.
  • the portion of the guidance system 1 that is responsible for information processing is mounted on the group management device 11.
  • a part or all of the part responsible for information processing in the guidance system 1 may be mounted on an external server device or the like capable of communicating with the group management device 11. Further, a part or all of the part responsible for information processing in the guidance system 1 may be mounted on an external server device or the like capable of communicating with the server device provided in the building 2. Further, a part or all of the part responsible for information processing in the guidance system 1 may be mounted on a communicable virtual machine or the like on a cloud service.
  • the attribute storage unit 13 is a part that stores information.
  • the attributes for each area of each floor of the building 2 are stored.
  • the area of each floor is a part or a part that occupies a part or all of the floor.
  • the area of each floor is, for example, a part where a tenant of the floor is occupied.
  • the area of each floor may be, for example, a part such as a store operating on the floor.
  • the attribute storage unit 13 stores information that identifies an area, for example, as a range of coordinates on each floor.
  • the area is not limited to a two-dimensional plane, and may be a high-dimensional space such as three-dimensional.
  • the attribute of the area represents one or more things, things, and the like.
  • the attributes of the area are, for example, the type of store when the area is a store, or the type of goods or services handled in the store.
  • the attribute of the area may be, for example, the name of the store when the area is a store, or the name of goods or services handled in the store.
  • Each area may have multiple attributes.
  • One or more attributes of each area may be given by a person or may be given using AI (Artificial Intelligence).
  • the user identification unit 14 is equipped with a function of identifying a user of the building 2 based on an image taken by at least one of the cameras 12.
  • the user identification unit 14 identifies the user by collating the user's face information extracted from the image with the existing information, if any, by two-dimensional face authentication. Determine.
  • the user identification unit 14 may newly register the face information of the user extracted from the image when there is no existing information such as the first user.
  • features such as the nose, ears, eyes, mouth, cheeks, chin, and neck of the face are used as facial information.
  • the user identification unit 14 may acquire information such as the iris of the eye or the pupil. When the pupil of the eye is not a circle or an ellipse but has irregularities, the user identification unit 14 may detect the risk of acquiring fake face information created by AI or the like and send an alert or the like.
  • the behavior information acquisition unit 15 is equipped with a function of acquiring the behavior information of the user specified by the user identification unit 14.
  • the user behavior information is, for example, time-series data of information representing the arrangement of the user.
  • the behavior information is not limited to three-dimensional information in which a two-dimensional plane and a time axis are combined, and may be higher-dimensional information in which a high-dimensional space such as three-dimensional and a time axis are combined.
  • the arrangement of users includes, for example, information such as the floor on which the user is located, the coordinates of the user on the floor, and the orientation of the user.
  • the arrangement of users may include information that identifies the elevating equipment when the user is using any of the elevating equipment.
  • the behavior information as time-series data includes, for example, information on the arrangement of users acquired at preset time intervals.
  • the behavior information acquisition unit 15 acquires the behavior information of the user based on the image captured by at least one of the cameras 12.
  • the behavior information acquisition unit 15 continuously updates the behavior information of the user, for example, at preset time intervals.
  • the behavior information storage unit 16 is a part that stores information.
  • the behavior information storage unit 16 stores the behavior information acquired by the behavior information acquisition unit 15 for each user specified by the user identification unit 14.
  • the behavior information storage unit 16 stores the user-specific identification information required for identification by the user identification unit 14 and the behavior information of the user in association with each other.
  • the elevating equipment determination unit 17 is equipped with a function for determining the elevating equipment used by the user specified by the user identification unit 14.
  • the elevating equipment determination unit 17 determines the elevating equipment to be used based on an image taken by at least one of the cameras 12.
  • the elevating equipment determination unit 17 determines the elevating equipment as the elevating equipment used by the user, for example, when the user starts using any of the elevating equipments on the departure floor.
  • the matching processing unit 18 is equipped with a function for matching between the identification of the user by the user identification unit 14 and the determination of the elevating equipment used by the user by the elevating equipment determination unit 17.
  • the matching process is performed as follows, for example.
  • the user identification unit 14 may mistakenly identify different users as the same user.
  • the elevating equipment determination unit 17 may determine two or more elevating equipment at the same time as the elevating equipment used by the user for the user specified by the user identification unit 14 as the same user. be. Since the same person cannot use two or more elevating facilities at the same time in duplicate, the matching processing unit 18 requests the user identification unit 14 to make a specific modification of the user. At this time, the user identification unit 14 identifies users who have been erroneously identified as the same user as different users.
  • the user identification unit 14 When identifying users as different users, the user identification unit 14 extracts the difference in the feature amount of the user from the acquired images to improve the specific accuracy of the user, and the users are different from each other. Reaffirm the identification of.
  • the user identification unit 14 may make adjustments such as narrowing the range of the feature amount determined as the same user according to the difference in the extracted feature amount.
  • the user identification unit 14 may improve the specific accuracy of the user based on the difference in the feature amount extracted by the other method.
  • the floor determination unit 19 is equipped with a function of determining the arrival floor of the user specified by the user identification unit 14.
  • the arrival floor of the user is the floor on which the user who is using the elevating facility has completed the use of the elevating facility. For example, when a user is using the elevator 3, the arrival floor of the user is the floor for getting off from the elevator 3.
  • the floor determination unit 19 determines the arrival floor based on an image taken by at least one of the cameras 12.
  • the floor determination unit 19 determines the floor as the arrival floor of the user, for example, when the user completes the use of the elevating facility on any floor.
  • the interest information acquisition unit 20 is equipped with a function of acquiring interest information for the user specified by the user identification unit 14.
  • the user's interest information is information indicating the degree of interest of the user for each attribute attached to the area.
  • the interest information acquisition unit 20 acquires interest information based on the behavior of the user on the arrival floor.
  • the user's behavior includes, for example, information such as the staying time of the user on the arrival floor and the direction of interest in which the user is interested on the arrival floor.
  • the interest information acquisition unit 20 is a user analyzed by the information stored in the attribute storage unit 13 and the behavior information acquired by the behavior information acquisition unit 15 or the behavior information stored in the behavior information storage unit 16. Get interest information based on behavior.
  • One of the interest information indicates the presence or absence of interest, and the other indicates the degree of interest.
  • the degree of interest is analyzed by considering the period of interest in the attribute attached to the area in the direction of interest of the user, and / or both of the staying time.
  • the interest information acquisition unit 20 adds information each time information from each floor is added to each user.
  • the interest information acquisition unit 20 sorts the degree of interest as a result of analysis based on the updated information in order of priority.
  • the interest information storage unit 21 is a part that stores information.
  • the interest information storage unit 21 stores interest information for each user.
  • the interest information storage unit 21 presents the user's unique identification information, the user's interest information, the time and place information where the interest information was acquired, and the destination based on the interest information.
  • the availability is associated and memorized.
  • the initial value of whether or not the destination can be presented is presentable.
  • the destination presentation unit 22 is equipped with a function of presenting a destination to the user based on the interest information stored in the interest information storage unit 21.
  • the destination presentation unit 22 presents, for example, an area having an attribute having a high degree of interest of the user to the user as a destination.
  • the destination information presented by the destination presentation unit 22 includes, for example, the attributes of the destination, the destination floor which is the floor including the destination, the route from the user's current position to the destination, and the like.
  • the destination presentation unit 22 presents to the user, for example, by means of a video.
  • the video displayed by the destination presentation unit 22 includes, for example, characters, still images, or images.
  • the image may be a two-dimensional image displayed by a display device such as a display, a projection device such as a projector, or the like.
  • the image may be a spatial image displayed in three dimensions.
  • the image is displayed, for example, inside the car 7 of the elevator 3, the platform of the elevator 3, the entrance / exit of the escalator 4, the entrance / exit of the stairs 5, and the like.
  • the display device is, for example, a light indicating a destination, a liquid crystal display, an organic EL display (organic EL: Organic Electro-Luminence), a light emitting film, an LED display (LED: Light Emitting Diode), a projector, or a stereoscopic (3D) display. It may be a machine or the like.
  • the destination presentation unit 22 may present the user by voice, for example.
  • a device that emits sound such as a speaker, is arranged, for example, inside the car 7 of the elevator 3, the platform of the elevator 3, the entrance / exit of the escalator 4, the entrance / exit of the stairs 5, and the like.
  • the call registration unit 23 is equipped with a function of registering a call to the destination floor presented by the destination presentation unit 22 in the elevator 3 that the user starts to use.
  • the call registration unit 23 determines whether or not the call is registered on the destination floor presented to the user by the user's behavior with respect to the presentation, that is, the staying time, the presence or absence of interest, and a part of the high degree of interest. Alternatively, the determination may be made according to the priority order analyzed with all the elements as elements.
  • the call registration unit 23 registers the call in, for example, the elevator 3 in which the user has boarded the car 7.
  • the call registration unit 23 may input control information for registering the call to the group management device 11.
  • FIG. 2 is a diagram showing an example of the car operation panel 10 according to the first embodiment.
  • the car operation panel 10 includes a display panel 10a and a plurality of destination buttons 10b.
  • the display panel 10a is a display device that displays information to the user who is in the car 7.
  • the display panel 10a displays, for example, the traveling direction of the car 7 and the current floor.
  • Each destination button 10b corresponds to any floor.
  • Each destination button 10b is a button that accepts an operation of designating the corresponding floor as the destination floor.
  • Each destination button 10b has a light emitting device (not shown) that lights up, for example, when operated by a user.
  • the light emitting device is a device in which the brightness, color tone, blinking presence / absence, blinking speed, and the like of light emission are variable.
  • FIG. 3 is a diagram showing an example of an area on the floor according to the first embodiment. In FIG. 3, a floor map on any floor is shown.
  • the floor shown in FIG. 3 includes a plurality of areas, each of which is a store.
  • One of the areas is a P store that handles the item P1 and the item P2.
  • One of the areas is a Q store that handles item Q1 and item Q2.
  • Either area is an R store that provides service R1 and service R2.
  • the attribute storage unit 13 stores, for example, the store name "P store” and the product names "P1" and "P2" as the attributes of the area of the P store.
  • the attribute storage unit 13 determines, for example, the store type “grocery store” and the item type “food” as the attributes of the area. May be remembered.
  • 4A to 4C are diagrams showing an example of the arrangement of the cameras 12 according to the first embodiment.
  • one of the cameras 12 is arranged inside the car 7 of the elevator 3.
  • the camera 12 is attached to, for example, an upper part of a wall or a ceiling.
  • the camera 12 is arranged at a position where, for example, the face of a user who gets into the car 7 can be photographed. Further, one of the cameras 12 is arranged at the landing of the elevator 3.
  • the camera 12 is attached to, for example, an upper part of a wall or a ceiling.
  • one of the cameras 12 is arranged at the entrance / exit of the escalator 4.
  • any of the cameras 12 may be arranged on the wall surface of the inclined portion in front of the entrance / exit of the escalator 4.
  • the camera 12 is attached to, for example, an upper part of a wall or a ceiling.
  • the camera 12 may be attached to a pole or the like provided at the entrance / exit.
  • one of the cameras 12 is arranged at the entrance / exit of the stairs 5.
  • any of the cameras 12 may be arranged on the wall surface of the inclined portion in front of the entrance / exit of the stairs 5.
  • the camera 12 is attached to, for example, an upper part of a wall or a ceiling.
  • the camera 12 may be attached to a pole or the like provided at the entrance / exit.
  • FIG. 5A to 5E are diagrams showing an example of behavior information acquired by the behavior information acquisition unit 15 according to the first embodiment.
  • the behavior information acquisition unit 15 extracts, for example, the feature amount of the user from the image used by the user identification unit 14 to identify the user.
  • the behavior information acquisition unit 15 may use the feature amount extracted by the user identification unit 14.
  • the feature quantity of the user includes information on the positions of feature points such as the nose, ears, eyes, mouth, cheeks, chin, and neck of the face, and both shoulders.
  • the behavior information acquisition unit 15 acquires the behavior information of the user based on the extracted feature amount.
  • the behavior information acquisition unit 15 acquires information including interest direction information as information on the arrangement of the user included in the behavior information of the user.
  • the behavior information acquisition unit 15 continuously acquires the behavior information of the user by tracking the user specified by the user identification unit 14.
  • the behavior information acquisition unit 15 may track the position of the specified user by a method such as motion tracking.
  • the behavior information acquisition unit 15 may continuously acquire the behavior information of the user who is no longer reflected in the image due to the movement by tracking the user.
  • Interest direction information is an example of information indicating the user's interest.
  • the direction of interest information is information expressed using at least three features of the user, both shoulders and nose.
  • the direction of interest information may be expressed using other features as needed.
  • the direction of the user's direction of interest is expressed as the direction from the midpoint of the line segment connecting the positions of both shoulders to the position of the nose.
  • the user's nose as a feature amount used for interest direction information is covered with a mask or the like, that is, whether or not the user's naked nose itself is reflected in the image. It suffices if the feature amount of the nose is captured.
  • the shoulder of the user as a feature used for the direction of interest information is the shoulder regardless of whether or not the user's shoulder is covered with clothes or the like, that is, whether or not the user's bare shoulder itself is reflected in the image. It suffices if the feature amount of is captured.
  • the features of the organ whether or not the image shows the user's bare organ itself. It suffices if the quantity is captured.
  • the direction of interest information may be expressed using, for example, the feature amounts of both shoulders and nose obtained by using the skeletal information of the user. Further, the direction of interest information may be expressed using other feature quantities obtained by using the skeletal information.
  • FIG. 5A shows an example of a user's image viewed from above.
  • the direction indicating the user's interest is represented by the interest direction information acquired based on the image of the user.
  • FIG. 5B shows an example of an image in which the orientation of the face and the orientation of the body do not match.
  • the direction of interest of the user is an extension of the direction from the midpoint of the line segment connecting the positions of both shoulders of the user toward the nose.
  • FIG. 5C an example of a user's image viewed from behind is shown.
  • the behavior information acquisition unit 15 may supplement the image from the acquired image information to supplement the nose.
  • the behavior information acquisition unit 15 may estimate the position of the nose based on other feature points or the like. Alternatively, the behavior information acquisition unit 15 may specify the position of the nose by synthesizing the images taken by the plurality of cameras 12. The behavior information acquisition unit 15 identifies the position of the nose by any one of these plurality of methods or a combination of these plurality of methods. In this way, the direction of interest of the user is expressed as an extension of the direction from the midpoint of the line segment connecting the positions of both shoulders to the position of the nose. In FIG. 5D, an example of a user's image viewed from the side is shown. When one shoulder of the user is not reflected in the image, the behavior information acquisition unit 15 may supplement the image from the acquired image information to supplement the other shoulder.
  • the behavior information acquisition unit 15 may estimate the position of the shoulder that is not shown in the image based on other feature points or the like. Alternatively, the behavior information acquisition unit 15 may specify the positions of both shoulders by synthesizing the images captured by the plurality of cameras 12. The behavior information acquisition unit 15 specifies the positions of both shoulders by any one of these plurality of methods or a combination of these plurality of methods. In this way, the direction of interest of the user is expressed as an extension of the direction from the midpoint of the line segment connecting the positions of both shoulders to the position of the nose.
  • the information indicating the user's interest may be extracted by, for example, image processing by AI mounted on the behavior information acquisition unit 15.
  • Image processing by AI is, for example, processing by a machine learning method using an image as an input.
  • a model that derives behavioral information from a user's image is learned by a machine learning method.
  • the behavior information acquisition unit 15 acquires behavior information from the user's image based on the learned model.
  • the behavior information acquisition unit 15 may perform supervised learning using, for example, a user's image and a set of interest direction information obtained from the image as teacher data.
  • the direction of interest information obtained from the image may be, for example, the direction of interest information obtained from the positions of both shoulders and the nose.
  • the behavior information acquisition unit 15 outputs the interest direction information by inputting the user's image based on the learning result.
  • the behavior information acquisition unit 15 may extract the feature amount of the image by deep learning or the like. In FIG. 5E, an example of the importance of the feature amount of the image is shown by the shade of color.
  • the behavior information acquisition unit 15 may extract information in the direction indicating the user's interest from the image by other machine learning methods such as unsupervised learning or reinforcement learning.
  • FIG. 6 is a table showing an example of determination by the floor determination unit 19 according to the first embodiment.
  • FIG. 6 shows an example of determining the arrival floor of a user using the elevator 3 that operates ascending from the first floor.
  • the elevator 3 starts the ascending operation from the first floor after descending to the first floor.
  • the arrival floor is similarly determined when the vehicle is driven up from another floor and when the vehicle is driven down.
  • the user identification unit 14 identifies the user who is in the car 7 based on the image taken by the camera 12 inside the car 7. .. In this example, only user A is in the car 7. At this time, the user identification unit 14 identifies the user A as a user who is in the car 7.
  • the elevator equipment determination unit 17 determines that the elevator 3 is the elevator equipment used by the user A.
  • the floor determination unit 19 includes a user who was in the car 7 when he / she departed from the floor that stopped immediately before, and a user who was in the car 7 when he / she departed from the first floor. To determine the departure floor and arrival floor of the user by comparing.
  • the floor on which the car 7 stopped immediately before is any floor above the first floor that stopped during the descending operation.
  • the floor determination unit 19 does not board the car 7 when departing from the floor that was stopped immediately before, and sets the departure floor of the user A who was boarding when the car 7 departs from the first floor to the first floor. Is determined.
  • the matching processing unit 18 performs a matching process for matching the user A. For example, when the elevating equipment determination unit 17 determines that the user A is already using other elevating equipment at the same time, the matching processing unit 18 mistakenly identifies the user as the same user.
  • the user identification unit 14 is made to identify the plurality of users who have been doing so as different users. When identifying users as different users, the user identification unit 14 extracts the difference in the feature amount of the user from the acquired images to improve the specific accuracy of the user, and the users are different from each other. Reaffirm the identification of.
  • the matching processing unit 18 also performs matching processing for other users in the same manner.
  • User B moving from the 2nd floor to the 5th floor registers a call in the elevator 3 by operating the landing operation panel 9 on the 2nd floor. After that, the user B gets on the car 7 of the elevator 3 that has arrived on the second floor. The user B who got in the car 7 designates the 5th floor as the destination floor by operating the car operation panel 10.
  • User C who moves from the 2nd floor to the 4th floor, arrives at the landing on the 2nd floor of the elevator 3. Since the call has already been registered by the user B from the landing operation panel 9 on the second floor, the user C arriving at the landing does not perform the operation of registering the destination floor on the landing operation panel 9.
  • the user C does not have to have a mobile terminal such as a smartphone, a card, or a tag that accepts the operation of registering the destination floor. After that, the user C gets on the car 7 of the elevator 3 that has arrived on the second floor. Since the 4th floor has already been designated as the destination floor by the user A, the user C who has boarded the car 7 does not perform the operation of registering the destination floor on the car operation panel 10.
  • a mobile terminal such as a smartphone, a card, or a tag that accepts the operation of registering the destination floor.
  • the user identification unit 14 identifies the user who is in the car 7 based on the image taken by the camera 12 inside the car 7. .. In this example, user A, user B, and user C are in the car 7. At this time, the user identification unit 14 identifies the user A, the user B, and the user C as the users who are in the car 7.
  • the elevator equipment determination unit 17 determines that the elevator 3 is the elevator equipment used by the user B.
  • the floor determination unit 19 is a user who was on the inside of the car 7 when he left the first floor, which is the floor that stopped immediately before, and a user who was on the inside of the car 7 when he left the second floor.
  • the departure floor and arrival floor of the user are determined by comparing with the user.
  • the floor determination unit 19 sets the departure floors of user B and user C, who were not on board when the car 7 departs from the first floor and were on when the car 7 departs from the second floor, to the second floor. Is determined.
  • User D moving from the 3rd floor to the 6th floor registers a call in the elevator 3 by operating the landing operation panel 9 on the 3rd floor. After that, the user A gets on the car 7 of the elevator 3 that has arrived on the 3rd floor. The user D who got in the car 7 designates the 6th floor as the destination floor by operating the car operation panel 10.
  • the user identification unit 14 identifies the user who is in the car 7 based on the image taken by the camera 12 inside the car 7. .. In this example, user A, user B, user C, and user D are in the car 7. At this time, the user identification unit 14 identifies the user A, the user B, the user C, and the user D as the users who are in the car 7.
  • the elevator equipment determination unit 17 determines that the elevator 3 is the elevator equipment used by the user D.
  • the floor determination unit 19 is a user who was on the inside of the car 7 when leaving the second floor, which is the floor that was stopped immediately before, and a user who was on the inside of the car 7 when leaving the third floor.
  • the departure floor and arrival floor of the user are determined by comparing with the user.
  • the floor determination unit 19 determines that the departure floor of the user D who was not on board when the car 7 departs from the second floor and was on when the car 7 departs from the third floor is the third floor.
  • the user identification unit 14 identifies the user who is in the car 7 based on the image taken by the camera 12 inside the car 7. .. In this example, user B and user D are in the car 7. At this time, the user identification unit 14 identifies the user B and the user D as the users who are in the car 7.
  • the floor determination unit 19 is a user who was on the inside of the car 7 when leaving the 3rd floor, which is the floor that was stopped immediately before, and a user who was on the inside of the car 7 when leaving the 4th floor. The departure floor and arrival floor of the user are determined by comparing with the user.
  • the floor determination unit 19 sets the arrival floors of users A and C, who were on board when the car 7 departs from the 3rd floor, and which was not boarded when the car 7 departs from the 4th floor, on the 4th floor. Is determined.
  • the guidance system 1 also includes the car 7 for the landing operation panel 9 and the car operation panel 10, and for the user C who has not performed the operation of registering the destination floor on the mobile terminal such as a smartphone, a card, or a tag. Information on the departure floor and the arrival floor can be obtained based on the image taken by the camera 12 inside the device.
  • the user identification unit 14 identifies the user who is in the car 7 based on the image taken by the camera 12 inside the car 7. .. In this example, only user D is in the car 7. At this time, the user identification unit 14 identifies only the user D as a user who is in the car 7.
  • the floor determination unit 19 is a user who was on the inside of the car 7 when leaving the 4th floor, which is the floor that was stopped immediately before, and a user who was on the inside of the car 7 when leaving the 5th floor.
  • the departure floor and arrival floor of the user are determined by comparing with the user.
  • the floor determination unit 19 determines that the arrival floor of the user B who is on the car 7 when the car 7 departs from the 4th floor and is not on the car 7 when the car 7 departs from the 5th floor is the 5th floor.
  • the user identification unit 14 identifies the user who is in the car 7 based on the image taken by the camera 12 inside the car 7. .. In this example, the user is not in the car 7. At this time, the user identification unit 14 does not identify any user as a user who is in the car 7.
  • the floor determination unit 19 has a user who was on the inside of the car 7 when leaving the 5th floor, which is the floor that was stopped immediately before, and a user who was on the inside of the car 7 when leaving the 6th floor.
  • the departure floor and arrival floor of the user are determined by comparing with the user.
  • the floor determination unit 19 determines that the arrival floor of the user D who is on the car 7 when the car 7 departs from the 5th floor and is not on the car 7 when the car 7 departs from the 6th floor is the 6th floor.
  • FIG. 7A to 7F are diagrams showing an example of determination by the floor determination unit 19 according to the first embodiment.
  • FIG. 7 shows an example of determining the arrival floor of a user who has connected and used a plurality of escalators 4 for ascending operation. The arrival floor is similarly determined when one escalator 4 for ascending operation is used and when one or more escalator 4 for descending operation is used. Further, even when the stairs 5 are used, the arrival floor is determined in the same manner.
  • the user A who moves from the 1st floor to the 4th floor rides on the escalator 4 which moves up between the 1st floor and the 2nd floor from the 1st floor.
  • the user identification unit 14 identifies the user A based on the image captured by the camera 12.
  • the elevating equipment determination unit 17 determines that the elevating equipment used by the user A is the escalator 4.
  • the floor determination unit 19 determines that the departure floor of the user A is the first floor where the entrance of the escalator 4 is provided.
  • the user A transfers to the escalator 4 which runs up between the 2nd and 3rd floors on the 2nd floor.
  • User B who moves from the 2nd floor to the 5th floor, rides on the escalator 4 that moves up between the 2nd and 3rd floors from the 2nd floor.
  • User C who moves from the 2nd floor to the 4th floor, rides on the escalator 4 that moves up between the 2nd floor and the 3rd floor from the 2nd floor.
  • the user identification unit 14 identifies the user A based on the image taken by the camera 12. After the user A is identified by the camera 12 provided at the exit on the second floor, the user A is identified by the camera 12 provided at the exit on the third floor before the preset time elapses. Occasionally, the floor determination unit 19 determines that the user A has transferred to the escalator 4 on the second floor.
  • the user identification unit 14 identifies the user B based on the image taken by the camera 12.
  • the elevating equipment determination unit 17 determines that the elevating equipment used by the user B is the escalator 4.
  • the floor determination unit 19 determines that the departure floor of the user B is the second floor where the entrance of the escalator 4 is provided.
  • the user identification unit 14 identifies the user C based on the image taken by the camera 12.
  • the elevating equipment determination unit 17 determines that the elevating equipment used by the user C is the escalator 4.
  • the floor determination unit 19 determines that the departure floor of the user C is the second floor where the entrance of the escalator 4 is provided.
  • the user A transfers to the escalator 4 which operates ascending between the 3rd floor and the 4th floor on the 3rd floor.
  • User B transfers to the escalator 4 that drives up between the 3rd and 4th floors on the 3rd floor.
  • User C transfers to the escalator 4 that drives up between the 3rd and 4th floors on the 3rd floor.
  • User D who moves from the 3rd floor to the 6th floor, rides on the escalator 4 that moves up between the 3rd floor and the 4th floor from the 3rd floor.
  • the user identification unit 14 identifies the user A based on the image taken by the camera 12. After the user A is identified by the camera 12 provided at the exit on the 3rd floor, the user A is identified by the camera 12 provided at the exit on the 4th floor before the preset time elapses. Occasionally, the floor determination unit 19 determines that the user A has transferred to the escalator 4 on the third floor.
  • the user identification unit 14 identifies the user B based on the image taken by the camera 12. After the user B is identified by the camera 12 provided at the exit on the 3rd floor, the user B is identified by the camera 12 provided at the exit on the 4th floor before the preset time elapses. Occasionally, the floor determination unit 19 determines that the user B has transferred to the escalator 4 on the third floor.
  • the user identification unit 14 identifies the user C based on the image taken by the camera 12. After the user C is identified by the camera 12 provided at the exit on the 3rd floor, the user C is identified by the camera 12 provided at the exit on the 4th floor before the preset time elapses. Occasionally, the floor determination unit 19 determines that the user C has transferred to the escalator 4 on the third floor.
  • the user identification unit 14 identifies the user D based on the image taken by the camera 12.
  • the elevating equipment determination unit 17 determines that the elevating equipment used by the user D is the escalator 4.
  • the floor determination unit 19 determines that the departure floor of the user D is the third floor where the entrance of the escalator 4 is provided.
  • user A gets off the escalator 4 from the exit on the 4th floor.
  • User B transfers to the escalator 4, which operates up between the 4th and 5th floors, on the 4th floor.
  • User C gets off the escalator 4 from the exit on the 4th floor.
  • User D transfers to the escalator 4 that drives up between the 4th and 5th floors on the 4th floor.
  • the floor determination unit 19 determines that the arrival floor of the user A is the fourth floor.
  • the user identification unit 14 identifies the user B based on the image taken by the camera 12. After the user B is identified by the camera 12 provided at the exit on the 4th floor, the user B is identified by the camera 12 provided at the exit on the 5th floor before the preset time elapses. Occasionally, the floor determination unit 19 determines that the user A has transferred to the escalator 4 on the 4th floor.
  • the floor determination unit 19 determines that the arrival floor of the user C is the fourth floor.
  • the user identification unit 14 identifies the user D based on the image taken by the camera 12. After the user D is identified by the camera 12 provided at the exit on the 4th floor, the user D is identified by the camera 12 provided at the exit on the 5th floor before the preset time elapses. Occasionally, the floor determination unit 19 determines that the user D has transferred to the escalator 4 on the 4th floor.
  • user B gets off the escalator 4 from the exit on the 5th floor.
  • User D transfers to the escalator 4 that drives up between the 5th and 6th floors on the 5th floor.
  • the floor determination unit 19 determines that the arrival floor of the user B is the sixth floor.
  • the user identification unit 14 identifies the user D based on the image taken by the camera 12. After the user D is identified by the camera 12 provided at the exit on the 5th floor, the user D is identified by the camera 12 provided at the exit on the 6th floor before the preset time elapses. Occasionally, the floor determination unit 19 determines that the user D has transferred to the escalator 4 on the 5th floor.
  • user D gets off the escalator 4 from the exit on the 6th floor.
  • the floor determination unit 19 determines that the arrival floor of the user B is the sixth floor.
  • the floor determination unit 19 manages the information on the boarding / alighting status for each user.
  • the determination of the arrival floor of the user of the escalator 4 is also performed in the same manner.
  • the user of the escalator 4 can move between the floors without walking, but the user of the stairs 5 walks between the floors.
  • the user identification unit 14 identifies the users
  • the matching processing unit 18 performs the exclusive processing of the users
  • the camera 12 uses the lifting equipment on the start floor and the end floor. The determination of the above is performed in the same manner including the flow of processing.
  • FIGS. 8 and 9 are diagrams showing an example of acquisition of behavior information by the guidance system 1 according to the first embodiment.
  • 10A to 10C are diagrams showing an example of acquisition of interest information by the guidance system 1 according to the first embodiment.
  • the bird's-eye view map of the arrival floor shown in FIGS. 8, 9 and 10 is generated based on, for example, images taken by a plurality of cameras 12 provided on the arrival floor.
  • the bird's-eye view map is, for example, an image in which a plurality of images taken at the same time on the arrival floor are pasted together on a plane and combined so that there is no contradiction in the peripheral portion of the overlapping images.
  • the bird's-eye view map may include an invisible region.
  • the invisible region is an region that cannot be photographed by any of the cameras 12.
  • the invisible area may be, for example, the inside of the hoistway after the car 7 of the elevator 3 has moved from the arrival floor, the toilet provided on the arrival floor, or the range known not to be used by the user. good.
  • the bird's-eye view map is generated in advance based on an image acquired at a time when there is no user, such as at night or in the early morning.
  • the bird's-eye view map may be updated once a day, for example, or may be updated as appropriate. Since the image used to generate the bird's-eye view map may be reflected by the user, it is desirable that the images are taken at the same time by a plurality of cameras 12 on the arrival floor. It does not have to be generated.
  • the bird's-eye view map may be generated from a plurality of images taken at different times without the user being reflected.
  • FIG. 8 shows an example of a user arriving at the arrival floor using the elevator 3.
  • the behavior information acquisition unit 15 starts acquiring behavior information, for example, when the user arrives at the arrival floor.
  • the action information acquisition unit 15 determines that the user has arrived at the arrival floor, for example, when the floor determination unit 19 determines the arrival floor of any user.
  • the behavior information acquisition unit 15 acquires a bird's-eye view map of the arrival floor when the user arrives at the arrival floor.
  • the behavior information acquisition unit 15 arranges information represented by using at least three feature quantities of the user's shoulders and nose acquired based on the image on the bird's-eye view map. As a result, the coordinates on the bird's-eye view map of the user on the arrival floor are acquired. The behavior information acquisition unit 15 adds the information acquired in this way to the behavior information as time-series data as information representing the arrangement of users.
  • the behavior information acquisition unit 15 After that, after the preset time interval has elapsed, the behavior information acquisition unit 15 newly acquires the information indicating the arrangement of the users. The action information acquisition unit 15 adds the newly acquired information to the action information as time-series data. In this way, the behavior information acquisition unit 15 continuously updates the behavior information of the user.
  • the behavior information acquisition unit 15 starts timing the elapsed time after the frame out. During this time, the behavior information acquisition unit 15 suspends the acquisition of behavior information about the user. After that, as shown in FIG. 9B, when the user frames in from the invisible area before the preset time elapses after frame-out, the behavior information acquisition unit 15 causes the behavior information of the user. Continue to acquire.
  • the behavior information acquisition unit 15 When the user moves from the arrival floor to another floor, the behavior information acquisition unit 15 includes a camera 12 inside the car 7 of the elevator 3, a camera 12 of the escalator 4, a camera 12 of the stairs 5, and the other.
  • the movement of the user is specified in cooperation with the plurality of cameras 12 on the floor.
  • the action information acquisition unit 15 When a preset time has elapsed since the user framed out while moving on a certain floor and the cooperation by the plurality of cameras 12 was removed, the action information acquisition unit 15 finally framed out, for example. Record the time and place you did. At this time, the action information acquisition unit 15 may display a location on the bird's-eye view map and call attention by an alarm or the like, if necessary.
  • the behavior information storage unit 16 stores the behavior information acquired by the behavior information acquisition unit 15 for each user.
  • the behavior information storage unit 16 accumulates and stores a plurality of behavior information about the same user.
  • the interest information acquisition unit 20 acquires the user's interest information each time the behavior information acquisition unit 15 completes the acquisition of the behavior information on the arrival floor of the user.
  • the interest information acquisition unit 20 superimposes the information indicating the arrangement of users included in the behavior information on the arrival floor on the bird's-eye view map of the arrival floor.
  • the interest information acquisition unit 20 is a line segment connecting two points of both shoulders and a triangle consisting of at least three coordinate points of three feature quantities of both shoulders and nose, which are included in the action information as time series data. The direction from the midpoint to the nose is superimposed on the bird's-eye view map of the arrival floor.
  • the interest information acquisition unit 20 includes an area and an extension line in the direction from the midpoint of the line segment connecting the two shoulder points to the nose, which is included in the action information as time series data. Identify and get the attribute.
  • the interest information acquisition unit 20 extends the direction of the user represented by each interest direction information in front of the user.
  • the interest information acquisition unit 20 detects the intersections of a plurality of half-lines extending in front of the user.
  • the interest information acquisition unit 20 identifies areas and attributes where intersections are concentrated as a range of high interest of the user.
  • the interest information acquisition unit 20 may include, for example, information on the degree of interest of the user according to the density of intersections in the interest information of the user.
  • the interest information acquisition unit 20 reads the attributes of the area specified as the range of high interest of the user from the attribute storage unit 13.
  • the interest information acquisition unit 20 includes the read attribute in the interest information as an attribute having a high degree of interest of the user. At this time, the interest information acquisition unit 20 acquires the read attribute and the information on the degree of interest of the user in association with each other.
  • the interest information acquisition unit 20 generates a user's trajectory by connecting the interest direction information on the bird's-eye view map.
  • the interest information acquisition unit superimposes the time when the user was at each point of the user's trajectory on the bird's-eye view map. If you follow the trajectory generated in this way, you may find places where the points of time are dense. Such a place corresponds to a place where the staying time is long.
  • the interest information acquisition unit 20 may include a place where the user stays for a long time as an element of the user's interest information.
  • the interest information storage unit 21 stores the interest information acquired by the interest information acquisition unit 20 for each user.
  • the interest information storage unit 21 may update the stored interest information when the interest information acquisition unit 20 acquires the interest information about the user who has already stored the interest information.
  • the interest information storage unit 21 may add the information on the degree of interest for each attribute calculated by the interest information acquisition unit 20 to the information on the degree of interest for each stored attribute.
  • 11A and 11B, and FIGS. 12A and 12B are diagrams showing an example of destination presentation by the guidance system 1 according to the first embodiment.
  • FIG. 11 shows an example of a building 2 to which the guidance system 1 is applied.
  • FIG. 11A one day building 2 is shown.
  • a P store that handles the item P1 and the item P2 is open in the area on the 4th floor.
  • a Q store that handles goods Q1 and goods Q2 is open in the area on the third floor.
  • R stores that provide service R1 and service R2 are open in the area on the second floor.
  • the guidance system 1 has acquired the interest information of user A, user B, and user C.
  • the interest information storage unit 21 stores the item P1 as the attribute of the highest degree of interest for the user A.
  • the interest information storage unit 21 stores the Q store as the attribute with the highest degree of interest for the user B.
  • the interest information storage unit 21 stores the service R2 as the attribute of the highest degree of interest for the user C.
  • FIG. 11B the same building 2 at a later date is shown.
  • the P store that handles goods P1 has moved to the area on the second floor.
  • the R store has withdrawn.
  • S stores that provide service S1 and service R2 are open in the area on the 4th floor.
  • the destination presentation unit 22 reads the interest information about the user A from the interest information storage unit 21.
  • the destination presentation unit 22 of this example presents the area of the attribute with the highest degree of interest to the user as the destination. That is, the area of the attribute with the highest degree of interest is presented with priority. Therefore, the destination presentation unit 22 acquires the item P1 as the attribute of the highest degree of interest of the user A.
  • the destination presentation unit 22 extracts an area having the item P1 as an attribute from the attribute storage unit 13. In this example, the destination presentation unit 22 extracts the area on the second floor where the P store after the move is open.
  • the destination presentation unit 22 presents the extracted area to the user A as a destination.
  • the user B who visited the building 2 again on this day is based on an image taken by a plurality of cameras 12 provided on the first floor or a camera 12 at the exit of the escalator 4 taken before getting off after boarding. It is specified by the user identification unit 14.
  • the destination presentation unit 22 presents the area on the third floor where the Q store is open as the destination based on the interest information, as in the case of the presentation to the user A.
  • the user C who visited the building 2 again on this day has a plurality of cameras 12 provided on the first floor, or the cameras 12 of the stairs 5 taken before arriving at the arrival floor after the start of use of the stairs 5. Is specified in the user identification unit 14 by the image taken by the user.
  • the destination presentation unit 22 presents the area on the 4th floor where the S store that provides the service R2 is open based on the interest information as the destination, as in the case of the presentation to the user A.
  • the destination presentation unit 22 presents the route to the destination floor including the destination area and the destination area, for example, by video or audio to the user who uses the escalator 4 or the stairs 5.
  • the destination presentation unit 22 may also present to the user the attribute of the user's highest degree of interest used for extracting the destination of the user.
  • the destination presentation unit 22 may present information such as "The Q store is on the left side of the exit on the third floor” to the user B, for example. Further, the destination presentation unit 22 may present information such as "The S store that provides the service R2 is in front of the exit on the 4th floor" to the user C, for example.
  • the destination can be presented to the user without using personal information such as the user's name.
  • FIG. 12 shows an example of presenting a destination through the car operation panel 10.
  • the second floor is presented as the destination floor to the user A who has boarded the car 7.
  • An example of using the car operation panel 10 is shown in FIG. 12, but when a mobile terminal such as a smartphone carried by the user can directly or indirectly communicate with the elevator 3, the car operation panel 10 is used. As in the case where it is performed, the user may be alerted, the call registration, the guidance, and the like may be performed through the mobile terminal.
  • the destination presentation unit 22 blinks the light emitting device of the destination button 10b corresponding to the second floor to alert the user A of the guidance before registering the second floor of the destination floor.
  • the destination presentation unit 22 may also display an image such as "The P store handling the item P1 is on the second floor" on a display device such as the display panel 10a.
  • the destination presentation unit 22 may also present voice guidance to a built-in speaker of a display device such as the display panel 10a.
  • the call registration unit 23 gets on the call with the presented floor as the destination floor. Automatically register in the elevator 3 that is located.
  • the destination presentation unit 22 ends the presentation of the destination floor guidance by blinking the light emitting device of the destination button 10b corresponding to the second floor. Further, for example, immediately after the destination button 10b is operated and the call is registered, the destination presentation unit 22 ends the presentation of the guidance of the destination floor by blinking the light emitting device of the destination button 10b corresponding to the second floor.
  • the light emitting device of the destination button 10b corresponding to the floor designated as the destination floor lights up.
  • the registration of the call is confirmed.
  • the destination presentation unit 22 says, "The P store uses the elevator 3 on this floor. You may present guidance such as video or audio showing information such as "Get off at and on the right side.”
  • the destination presentation unit 22 may continue to present the destination when the destination button 10b corresponding to a floor other than the presented destination floor is operated. Alternatively, for example, when there is only one user in the car 7, the destination presentation unit 22 operates the destination button 10b corresponding to a floor other than the presented destination floor. You may end the presentation of.
  • the destination presentation unit 22 may present the destination floor without blinking the light emitting device of the destination button 10b.
  • the destination presentation unit 22 may present the destination floor to the user, for example, by changing the brightness of the light emitting device of the destination button 10b corresponding to the destination floor, or changing the color tone of the light emitting device.
  • FIG. 14, FIG. 15A, and FIG. 15B are flowcharts showing an example of the operation of the guidance system 1 according to the first embodiment.
  • FIG. 13 shows an example of the operation of the guidance system 1 related to the determination of the arrival floor and the like when the user uses the elevator 3.
  • step S101 the user identification unit 14 identifies a user who enters the car 7 when the door of the car 7 of the elevator 3 is open. After that, the operation of the guidance system 1 proceeds to step S102.
  • step S102 when the car 7 of the elevator 3 departs from any floor, the processing of the guidance system 1 starts.
  • the car 7 departs from any floor for example, when the door of the car 7 is closed on the floor.
  • the operation of the guidance system 1 proceeds to step S103.
  • step S103 the user identification unit 14 confirms the identification of the user who is in the car 7 of the elevator 3. After that, the operation of the guidance system 1 proceeds to step S104.
  • step S104 the user identification unit 14 determines whether or not there is a user in the car 7.
  • the determination result is Yes
  • the operation of the guidance system 1 proceeds to step S105.
  • the determination result is No, it is assumed that the user is not in the car 7 in the user identification unit 14, and the operation of the guidance system 1 proceeds to step S107.
  • step S105 the elevating equipment determination unit 17 determines that the elevating equipment to be used is the elevator 3 for the user specified by the user identification unit 14 in the car 7 of the elevator 3. After that, the operation of the guidance system 1 proceeds to step S106.
  • step S106 the matching processing unit 18 performs matching processing on the user specified by the user specifying unit 14. After that, the operation of the guidance system 1 proceeds to step S107.
  • step S107 the floor determination unit 19 stores the riding status of the car 7 of the elevator 3 based on the specific result of the user identification unit 14.
  • the boarding status of the car 7 includes, for example, whether or not the user is in the car 7, and information for identifying the user when the user is in the car 7. After that, the operation of the guidance system 1 proceeds to step S108.
  • step S108 the floor determination unit 19 determines the departure floor and arrival floor of the user based on the boarding status stored in step S107 and the boarding status stored immediately before that. After that, the operation of the guidance system 1 proceeds to step S109.
  • step S109 after the car 7 of the elevator 3 stops on any floor, the operation of the guidance system 1 proceeds to step S101.
  • FIG. 14 shows an example of the operation of the guidance system 1 related to the determination of the arrival floor and the like when the user uses the escalator 4.
  • step S201 when the user frames in to the camera 12 provided at the exit of any of the escalator 4, the processing of the guidance system 1 starts. After that, the operation of the guidance system 1 proceeds to step S202.
  • step S202 the user identification unit 14 identifies the user on the escalator 4 and confirms the identification of the user. After that, the operation of the guidance system 1 proceeds to step S203.
  • step S203 the user identification unit 14 determines whether or not there is a user on the escalator 4.
  • the determination result is Yes
  • the operation of the guidance system 1 proceeds to step S204.
  • the determination result is No
  • the operation of the guidance system 1 proceeds to step S201.
  • step S204 the floor determination unit 19 determines whether the specified user is a user who has transferred to the escalator 4.
  • the floor determination unit 19 uses the escalator 4 when, for example, a preset time has not elapsed since the user framed out from the camera 12 arranged at the exit of another elevator 3. Judge that the user is a transit user.
  • the determination result is No
  • the operation of the guidance system 1 proceeds to step S205.
  • the determination result is Yes
  • the operation of the guidance system 1 proceeds to step S208.
  • step S205 the elevating equipment determination unit 17 determines that the elevating equipment to be used is the escalator 4 for the user specified by the user identification unit 14 on the escalator 4. After that, the operation of the guidance system 1 proceeds to step S206.
  • step S206 the matching processing unit 18 performs matching processing on the user specified by the user specifying unit 14. After that, the operation of the guidance system 1 proceeds to step S207.
  • step S207 the floor determination unit 19 determines the floor on which the entrance of the escalator 4 is provided as the departure floor of the user. After that, the operation of the guidance system 1 proceeds to step 208.
  • step S208 when the user frames out from the camera 12 provided at the exit of the escalator 4, the floor determination unit 19 starts timing the time after the user frames out. After that, the operation of the guidance system 1 proceeds to step 209.
  • step S209 the floor determination unit 19 has timed out, that is, since the user has framed out, there has been no frame-in to the camera 12 of the next escalator 4, and a preset time has elapsed. Is determined.
  • the determination result is No
  • the operation of the guidance system 1 proceeds to step S209 again.
  • the determination result is Yes
  • the operation of the guidance system 1 proceeds to step 210. If the user frames in to another disembarkation floor camera 12 other than the next escalator 4 before the time-out occurs, the operation of the guidance system 1 may proceed to step S210.
  • step S210 the floor determination unit 19 determines the floor provided with the exit of the escalator 4 as the arrival floor of the user. After that, the operation of the guidance system 1 proceeds to step 201.
  • the guidance system 1 determines the arrival floor and the like by the same process.
  • FIG. 15 shows an example of the operation of the guidance system 1 related to the acquisition of behavior information and interest information on the arrival floor of the user.
  • step S301 of FIG. 15A when the arrival floor of the user is determined, the processing of the guidance system 1 starts. After that, the operation of the guidance system 1 proceeds to step S302.
  • step S302 the user identification unit 14 determines whether or not there is a bird's-eye view map of the arrival floor.
  • the determination result is No
  • the operation of the guidance system 1 proceeds to step S303.
  • the determination result is Yes
  • the operation of the guidance system 1 proceeds to step S305.
  • step S303 the action information acquisition unit 15 starts acquiring an image from the camera 12 arranged on the arrival floor. After that, the operation of the guidance system 1 proceeds to step S304.
  • step S304 the action information acquisition unit 15 generates a bird's-eye view map from the acquired image. After that, the operation of the guidance system 1 proceeds to step S305.
  • step S305 the user identification unit 14 determines whether the user who arrived at the arrival floor could be identified on the bird's-eye view map. When the determination result is No, the operation of the guidance system 1 proceeds to step S301. When the determination result is Yes, the operation of the guidance system 1 proceeds to step S306.
  • step S306 the guidance system 1 acquires behavior information and interest information for the user specified in step S305.
  • the guidance system 1 may acquire behavior information and interest information for the plurality of users in parallel. After that, the operation of the guidance system 1 proceeds to step S301.
  • FIG. 15B shows an example of the processing content of step S306 of FIG. 15A.
  • step S401 the action information acquisition unit 15 acquires the information on the arrangement of the specified users.
  • the behavior information acquisition unit 15 acquires information on the coordinates of at least three feature quantities of the user, both shoulders and nose.
  • the behavior information acquisition unit 15 may acquire information on the coordinates of other feature quantities of the user.
  • step S402 the behavior information acquisition unit 15 determines whether or not the user has framed in the elevating equipment.
  • the frame-in to the elevating facility is a frame-out when viewed from the floor where the user was.
  • step S403 the operation of the guidance system 1 proceeds to step S403.
  • step S403 the behavior information acquisition unit 15 determines whether the user has framed out from the invisible area or the entrance / exit of the building 2. When the determination result is No, the operation of the guidance system 1 proceeds to step S401. When the determination result is Yes, the operation of the guidance system 1 proceeds to step S404.
  • step S404 the action information acquisition unit 15 determines whether a time-out has occurred, that is, whether a preset time has elapsed since the user framed out from the invisible area or the entrance / exit of the building 2.
  • a time-out that is, whether a preset time has elapsed since the user framed out from the invisible area or the entrance / exit of the building 2.
  • step S405 the action information acquisition unit 15 completes the acquisition of the action information.
  • the behavior information storage unit 16 stores the acquired behavior information as time-series data for each user. After that, the operation of the guidance system 1 proceeds to step S406.
  • step S406 the interest information acquisition unit 20 extracts an area with a high degree of interest of the user based on the behavior information of the user. After that, the operation of the guidance system 1 proceeds to step S407.
  • the interest information acquisition unit 20 refers to the attributes of the area of high interest of the user from the attribute storage unit 13.
  • the interest information acquisition unit 20 acquires interest information based on the information on the degree of interest of the user and the information on the referenced attribute.
  • the interest information storage unit 21 stores the acquired interest information for each user. At this time, the interest information storage unit 21 may update the interest information for each user with the acquired interest information. After that, the operation of the guidance system 1 proceeds to step S408.
  • step S408 the guidance system 1 outputs a warning sound or an alert as needed.
  • a warning sound or an alert is output, for example, when the user's frame-in and frame-out do not match.
  • the case where the frame-in and the frame-out of the user do not match is, for example, the case where the frame-out of the user who has framed in is not determined, or the case where the frame-out of the user who has not framed in is determined. If the output of a warning sound or an alert is not required, the process of step S408 may be omitted. After that, the operation of the guidance system 1 related to the acquisition of the behavior information and the interest information for each user ends.
  • the guidance system 1 includes an attribute storage unit 13, a user identification unit 14, a floor determination unit 19, an action information acquisition unit 15, and an interest information acquisition unit 20.
  • the interest information storage unit 21 and the destination presentation unit 22 are provided.
  • the attribute storage unit 13 stores the attributes for each area for each floor of the building 2.
  • the user identification unit 14 identifies a user in the building 2 based on an image taken by at least one of the cameras 12 provided in the building 2.
  • the floor determination unit 19 at least gets off the camera 12 inside the car 7 of the elevator 3 and the escalator 4.
  • the arrival floor of the user is determined based on an image taken by any of the cameras 12, including the camera 12 on the floor or the camera 12 on the floor that has finished using the stairs 5.
  • the behavior information acquisition unit 15 acquires behavior information representing the behavior of the identified user on the determined arrival floor based on an image taken by at least one of the cameras 12.
  • the interest information acquisition unit 20 is interested in expressing the degree of interest of the specified user for each attribute based on the arrangement of the area on the determined arrival floor, the attributes of the area, and the relationship of the behavior information. Get information.
  • the interest information storage unit 21 stores the interest information acquired by the interest information acquisition unit 20 for each user.
  • the destination presentation unit 22 gives priority to an area having an attribute with a higher degree of interest as a destination to the user.
  • the presentation of the destination by the device destination presentation unit is performed based on the interest information stored in the interest information storage unit 21 and the attribute information stored in the attribute storage unit 13 for the user.
  • the user is identified, the arrival floor is determined, and the action information is acquired based on the image taken by the camera 12 provided in the building 2, so that the user who does not operate the equipment of the elevating facility is used. Also, the behavior information on the arrival floor is acquired. In addition, interest information is acquired based on user behavior information. Therefore, interest information is also acquired for users who do not operate the equipment of the elevating equipment. Since the destination presentation unit 22 presents the destination based on the interest information for each user acquired in this way, even for the user who does not operate the elevating facility, the guidance in the building 2 based on the user's interest can be provided. It will be possible.
  • the guidance system 1 integrates these as an elevating facility and manages the boarding / alighting history, so that the user's interest information can be acquired more reliably. ..
  • the guidance system 1 includes an elevating equipment determination unit 17 and a matching processing unit 18.
  • the elevating equipment determination unit 17 is used by the user specified by the user identification unit 14 based on an image taken by at least one of the cameras 12 when the user starts using any of the elevating equipment. Determine the lifting equipment to be installed.
  • the elevating equipment determination unit 17 may simultaneously determine two or more elevating equipment.
  • the matching processing unit 18 causes the user identification unit 14 to specify the users who use the two or more elevating facilities as different users.
  • the user identification unit 14 extracts the difference in the feature amount of the user from the acquired images to improve the specific accuracy of the user, and the users are different from each other. Reaffirm the identification of.
  • the guidance system 1 includes a call registration unit 23.
  • the call registration unit 23 registers a call to the destination floor including the destination presented by the destination presentation unit 22 in the elevator 3 which is an elevating facility.
  • the interest information acquisition unit 20 acquires the user's interest information every time the behavior information acquisition unit 15 completes the acquisition of the behavior information on the arrival floor of the user.
  • the guidance system 1 can provide guidance that quickly reflects the interests of the user.
  • the guidance system 1 includes an action information storage unit 16.
  • the behavior information storage unit 16 stores the behavior information acquired by the behavior information acquisition unit 15 for each user.
  • the interest information acquisition unit 20 may read the action information for each user from the action information storage unit 16 at a preset timing.
  • the interest information acquisition unit 20 acquires the interest information of the user based on the read behavior information.
  • the preset timing is, for example, a preset time in a time zone when there are few users in the building 2 such as at night. Since processing such as acquisition of interest information is performed in a time zone when there are few users, the processing load in the guidance system 1 is distributed over time.
  • the behavior information to the interest information acquisition unit 20 or the interest information storage unit 21 may be obtained. Transmission is performed during a time when the communication load on the network is light. Therefore, even when the communication capacity of the network is poor, the communication load of the network can be suppressed.
  • the user identification unit 14 supplementarily uses the identification information or the like acquired from the information terminal by wireless communication when the user has a portable information terminal or the like equipped with a wireless communication function.
  • the information terminal possessed by the user may be, for example, a smartphone.
  • the information terminal possessed by the user may be, for example, a smartphone.
  • electromagnetic waves from the outside are shielded.
  • the electromagnetic wave received inside the car 7 of the elevator 3 is likely to be an electromagnetic wave from the information terminal of the user who is in the car 7.
  • the user identification unit 14 can improve the accuracy of specifying the user.
  • the destination presentation unit 22 may present the destination by transmitting information or the like to be displayed on the information terminal. At this time, the destination presenting unit 22 may transmit information without specifying the receiver by, for example, broadcast communication of a wireless beacon provided at the landing of the elevator 3.
  • FIG. 16 is a hardware configuration diagram of a main part of the guidance system 1 according to the first embodiment.
  • the processing circuit includes at least one processor 100a and at least one memory 100b.
  • the processing circuit may include at least one dedicated hardware 200 with or as a substitute for the processor 100a and the memory 100b.
  • each function of the guidance system 1 is realized by software, firmware, or a combination of software and firmware. At least one of the software and firmware is written as a program.
  • the program is stored in the memory 100b.
  • the processor 100a realizes each function of the guidance system 1 by reading and executing the program stored in the memory 100b.
  • the processor 100a is also referred to as a CPU (Central Processing Unit), a processing device, an arithmetic unit, a microprocessor, a microcomputer, and a DSP.
  • the memory 100b is composed of, for example, a non-volatile or volatile semiconductor memory such as a RAM, a ROM, a flash memory, an EPROM, or an EEPROM.
  • the processor 100a and the memory 100b may or may not be separated.
  • the processor 100a may include a memory 100b.
  • a device in which the processor 100a and the memory 100b are fused may be used.
  • the processing circuit When the processing circuit includes dedicated hardware 200, the processing circuit performs, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof, or equivalent processing. It is realized by a circuit that can be done.
  • Each function of the guidance system 1 can be realized by a processing circuit. Alternatively, each function of the guidance system 1 can be collectively realized by a processing circuit. For each function of the guidance system 1, a part may be realized by the dedicated hardware 200, and the other part may be realized by software or firmware. In this way, the processing circuit realizes each function of the guidance system 1 by the dedicated hardware 200, software, firmware, or a combination thereof.
  • Embodiment 2 In the guidance system 1 of this example, guidance is performed according to the degree of interest included in the interest information.
  • 17A to 17C, and 18A and 18B are diagrams showing an example of destination presentation by the guidance system 1 according to the second embodiment.
  • FIG. 17 shows an example of a building 2 to which the guidance system 1 is applied.
  • FIG. 17A one day building 2 is shown.
  • a P store that handles the goods P1 and an S store that provides the service S1 are open in the area on the 4th floor.
  • a Q store that handles item Q1 and a T store that handles item T1 are open in the area on the third floor.
  • an R store that provides service R1 and a U store that handles goods U1 are open in the area on the second floor.
  • the guidance system 1 has acquired the interest information of user A, user B, and user C.
  • the interest information storage unit 21 stores the item P1 as the attribute of the highest degree of interest and the service S1 as the attribute of the next highest degree of interest for the user A.
  • the interest information storage unit 21 stores the Q store as the attribute with the highest degree of interest and the T store as the attribute with the next highest degree of interest for the user B.
  • the interest information storage unit 21 stores the service R1 as the attribute with the highest degree of interest and the U store as the attribute with the next highest degree of interest for the user C.
  • FIG. 17B the same building 2 at a later date is shown.
  • the P store that handles goods P1 has moved to the area on the second floor.
  • the R store has withdrawn.
  • a V store that provides service R1 is open in the area on the 4th floor.
  • the destination presentation unit 22 reads the interest information about the user A from the interest information storage unit 21.
  • the destination presentation unit 22 of this example presents the area of the attribute having a higher degree of interest to the user as the destination with higher priority. Therefore, the destination presentation unit 22 acquires the item P1 as the attribute of the highest degree of interest of the user A and the service S1 as the attribute of the next highest degree of interest.
  • the destination presentation unit 22 extracts an area having the item P1 as an attribute from the attribute storage unit 13. In this example, the destination presentation unit 22 extracts the area on the second floor where the P store after the relocation is open as the destination with the highest priority.
  • the destination presentation unit 22 extracts an area having the service S1 as an attribute from the attribute storage unit 13.
  • the destination presentation unit 22 extracts the area on the 4th floor where the S store is open as the next highest priority destination.
  • the destination presentation unit 22 presents the extracted area to the user A as a destination.
  • the destination presentation unit 22 reads the interest information about each of the user B and the user C from the interest information storage unit 21.
  • the destination presenting unit 22 of this example presents the area of the attribute most of interest to each user as the destination. Therefore, the destination presentation unit 22 acquires the Q store as the attribute of the highest degree of interest of the user B.
  • the destination presentation unit 22 extracts the area of the Q store as an attribute from the attribute storage unit 13.
  • the destination presentation unit 22 extracts the area on the third floor where the Q store is open as the destination to be presented to the user B.
  • the destination presentation unit 22 acquires the service R1 as the attribute of the highest degree of interest of the user C.
  • the destination presentation unit 22 extracts the area of the V store that provides the service R1 as an attribute from the attribute storage unit 13.
  • the destination presentation unit 22 extracts the area on the 4th floor where the V store is open as the destination to be presented to the user C.
  • FIG. 18 shows an example of presenting a destination through the car operation panel 10.
  • the third and fourth floors are presented as destination floors to the user B and the user C who have boarded the car 7.
  • the destination presentation unit 22 causes the user B and the user C to blink the light emitting device of the destination button 10b corresponding to the 3rd floor and the 4th floor, so that the user B and the user C can use the 3rd floor and the 4th floor of the destination floor.
  • the destination presentation unit 22 may also display an image such as "The Q store is on the 3rd floor and the V store that provides the service R1 is on the 4th floor" on the display device such as the display panel 10a.
  • the destination presentation unit 22 may also present voice guidance to a built-in speaker of a display device such as the display panel 10a.
  • the destination presentation unit 22 displays the destination button 10b corresponding to the third and fourth floors.
  • the presentation of the guidance on the destination floor by blinking the light emitting device of is finished.
  • the destination presentation unit 22 ends the presentation of the destination floor guidance by blinking the light emitting device of the destination button 10b corresponding to the 3rd floor and the 4th floor. ..
  • the destination presentation unit 22 presents the destination floor by blinking the light emitting device of the destination button 10b corresponding to the 4th floor. May continue.
  • the call registration unit 23 calls the elevator 3 on which the user C is on the fourth floor as the destination floor. Automatically register. Immediately after the call with the 4th floor as the destination floor is automatically registered, the light emitting device of the destination button 10b corresponding to the 4th floor lights up.
  • the floor to which user B or user C wants to go is not the automatically registered destination floor
  • user B or user C cancels the destination button 10b of the automatically registered destination floor.
  • the getting-off floor is determined for the user B and the user C.
  • the behavior information and the interest information can be acquired for the user B and the user C on the floor where the user gets off.
  • the destination presentation unit 22 When presenting a plurality of destinations to the user A or the like, the destination presentation unit 22 blinks a plurality of destination buttons 10b corresponding to the destination floors such as the second floor and the fourth floor to blink the destination floors. May be presented. At this time, the destination presenting unit 22 may cause the destination button 10b to adjust the blinking, color tone, or brightness of the light emitting device, or the speed of change thereof, according to the priority of the destination.
  • the call registration unit 23 presents the destination floor as the highest priority.
  • the call with the second floor as the destination floor is automatically registered in the elevator 3 on which the user A is boarding. If the floor that user A wants to go to is not the automatically registered destination floor, user A cancels the automatically registered destination floor destination button 10b to register another destination floor. May be good.
  • Embodiment 3 In the guidance system 1 of this example, guidance is performed over a plurality of buildings 2.
  • FIG. 19 is a configuration diagram of the guidance system 1 according to the third embodiment.
  • the attribute storage unit 13, the user identification unit 14, the behavior information acquisition unit 15, the behavior information storage unit 16, the elevating equipment determination unit 17, and the floor determination unit are the parts responsible for information processing. 19, the interest information acquisition unit 20, the destination presentation unit 22, and the call registration unit 23 are applied to each building 2. These parts perform operations such as identifying a user, acquiring behavior information and interest information, presenting a destination, and registering a call in each building 2.
  • the guidance system 1 includes a central management device 24.
  • the central management device 24 is a device that integrates and manages information such as interest information acquired in a plurality of buildings 2.
  • the central management device 24 is, for example, one or a plurality of server devices. A part or all of the central management device 24 may be mounted on a virtual machine or the like on a cloud service.
  • the central management device 24 includes a matching processing unit 18 and an interest information storage unit 21.
  • the matching processing unit 18 is equipped with a function for specific matching of users by the user specifying unit 14 applied to each building 2.
  • the matching process is performed as follows, for example.
  • the user identification unit 14 applied to each building 2 may mistakenly identify different users as the same user.
  • the user identification unit 14 applied to the buildings 2 different from each other may identify the same user at the same time. Since the same person cannot exist in two or more buildings 2 at the same time, the matching processing unit 18 requests the user identification unit 14 applied to each building 2 to make a specific modification of the user. At this time, the user identification unit 14 applied to each building 2 identifies the users who were mistakenly identified as the same user as different users.
  • the user identification unit 14 When identifying users as different users, the user identification unit 14 extracts the difference in the feature amount of the user from the acquired images to improve the specific accuracy of the user, and the users are different from each other. Reaffirm the identification of.
  • the matching processing unit 18 also performs a process of matching between the identification of the user by the user identification unit 14 and the determination of the elevating equipment used by the user by the elevating equipment determination unit 17 for each building 2. You may do it at the same time.
  • the interest information storage unit 21 integrates the interest information acquired in each building 2 and stores it for each user.
  • the interest information storage unit 21 stores, for example, identification information unique to a user and interest information of the user in association with each other.
  • FIG. 20 is a diagram showing an example of presentation of a destination by the guidance system 1 according to the third embodiment.
  • FIG. 20 shows an example of a plurality of buildings 2 to which the guidance system 1 is applied.
  • the guidance system 1 has acquired the interest information of the user A who visited the building 2a.
  • the building 2a from which the user's interest information is acquired is an example of the first building.
  • the first camera is a camera 12 arranged in the first building.
  • the first attribute storage unit is the attribute storage unit 13 applied to the first building.
  • the first user identification unit is the user identification unit 14 applied to the first building.
  • the interest information acquisition unit 20 of the building 2a transmits the acquired interest information to the interest information storage unit 21 of the central management device 24.
  • the interest information storage unit 21 integrates the interest information received from the interest information acquisition unit 20 of the building 2a and stores it for each user.
  • the interest information storage unit 21 may integrate and store the interest information received from the interest information acquisition unit 20 applied to the building 2a and the other building 2 of the building 2b.
  • the interest information storage unit 21 stores the supermarket as the attribute of the highest degree of interest for the user A who visited the building 2a or the like.
  • the destination presentation unit 22 of the building 2b reads the interest information about the user A from the interest information storage unit 21.
  • the destination presentation unit 22 of this example presents the area of the attribute with the highest degree of interest to the user as the destination. Therefore, the destination presentation unit 22 acquires the supermarket as the attribute of the highest degree of interest of the user A.
  • the destination presentation unit 22 extracts an area having a supermarket as an attribute from the attribute storage unit 13 of the building 2b. In this example, the destination presentation unit 22 extracts the area on the second floor where the Q store is open in the building 2b.
  • the destination presentation unit 22 presents the extracted area to the user A as a destination.
  • the call registration unit 23 of the building 2b may register the call to the destination floor to the elevator 3 when, for example, the user in the car 7 of the elevator 3 of the building 2b does not operate the car operation panel 10. I do.
  • the building 2b in which the destination is presented to the user is an example of the second building.
  • the second camera is a camera 12 arranged in the second building.
  • the second user identification unit is the user identification unit 14 applied to the second building.
  • the second attribute storage unit is the attribute storage unit 13 applied to the second building.
  • the second building does not have to be the building that user A visits for the first time. In the second building, user's interest information and the like may have been acquired in the past.
  • the guidance system 1 includes the attribute storage unit 13 and the user identification unit 14 corresponding to each building 2, the floor determination unit 19, and the action information acquisition unit 15. ,
  • the interest information acquisition unit 20, the interest information storage unit 21, and the destination presentation unit 22 are provided.
  • Each attribute storage unit 13 stores the attributes for each area for each floor of the corresponding building 2.
  • Each user identification unit 14 identifies a user in the building 2 based on an image taken by at least one of the cameras 12 provided in the corresponding building 2.
  • the floor determination unit 19 is an image taken by at least one of the cameras 12 when the user specified in any of the buildings 2 moves from the departure floor to the arrival floor by using the elevating equipment of the building 2. The arrival floor of the user is determined based on.
  • the behavior information acquisition unit 15 obtains behavior information representing the behavior of the user on the determined arrival floor for the user specified in any building 2 based on an image taken by at least one of the cameras 12. get.
  • the interest information acquisition unit 20 uses the user specified in any of the buildings 2 for each attribute based on the arrangement of the area on the determined arrival floor, the attributes of the area, and the relationship of the behavior information. Acquire interest information that represents the degree of interest in.
  • the interest information storage unit 21 stores the interest information acquired by the interest information acquisition unit 20 for each user.
  • the destination presentation unit 22 gives priority to the area having the attribute with a higher degree of interest. Present as a destination.
  • the destination presentation by the destination presentation unit 22 is performed based on the interest information stored in the interest information storage unit 21 and the attribute information stored in the attribute storage unit 13 for the user.
  • the destination presentation unit 22 presents the destination for the user by using a part or all of the user's interest information acquired in each building 2.
  • the user is identified, the arrival floor is determined, and the action information is acquired based on the image taken by the camera 12 provided in the building 2, so that the user who does not operate the equipment of the elevating facility is used. Also, the behavior information on the arrival floor is acquired. In addition, interest information is acquired based on user behavior information. Therefore, interest information is also acquired for users who do not operate the equipment of the elevating equipment. Since the destination presentation unit 22 presents the destination based on the interest information for each user acquired in this way, even for the user who does not operate the elevating facility, the guidance in the building 2 based on the user's interest can be provided. It will be possible.
  • the guidance system 1 integrates these as an elevating facility and manages the boarding / alighting history, so that the user's interest information can be acquired more reliably. .. Further, since the user's interest information is shared among the plurality of buildings 2, the guidance system 1 can present the destination based on the interest to the user who visits the building 2 for the first time.
  • FIG. 21 is a configuration diagram of the guidance system 1 according to the fourth embodiment.
  • the external system 99 is an external system of the guidance system 1.
  • the external system 99 is a system that presents destinations according to the degree of interest of the user.
  • the external system 99 may have the same configuration as the guidance system 1.
  • the external system 99 is applied to the building 2 to which the guidance system 1 is not applied. In the building 2 to which the external system 99 is applied, a plurality of cameras 12 for photographing the user are arranged.
  • the external system 99 has a storage unit 99a.
  • the storage unit 99a records and updates images of each area of the building 2 to which the external system 99 is applied on a daily basis.
  • the external system 99 transmits an unoccupied image, for example, an updated image of each area of each floor acquired at midnight to the guidance system 1.
  • the external system 99 continuously transmits images taken by each camera 12 of the building 2 to which the external system 99 is applied to the guidance system 1 from morning to night, for example.
  • the image transmitted here does not need to be specially processed.
  • the external system 99 receives a destination candidate from the guidance system 1 that identifies the user by receiving the transmission of the image.
  • the central management device 24 includes a receiving unit 25, a transmitting unit 26, a user specifying unit 14, a matching processing unit 18, and an interest information storage unit 21.
  • the receiving unit 25 and the transmitting unit 26 are parts that communicate with the external system 99. As a result, the central management device 24 provides an interface to the external system 99.
  • FIG. 22 is a diagram showing an example of providing interest information by the guidance system 1 according to the fourth embodiment.
  • FIG. 22 shows an example of the building 2c to which the guidance system 1 is applied and the building 2d to which the external system 99 is applied.
  • the building 2d to which the external system 99 is applied is an example of the third building.
  • building 2c and building 2d on a certain day are shown.
  • User A has visited the building 2c multiple times by this date.
  • User A visits building 2d for the first time on this day.
  • the clothing store P is open on the 4th floor.
  • the clothing store Q is open on the 2nd floor.
  • the guidance system 1 has acquired the interest information of the user A who visited the building 2c or the like.
  • the building 2c from which the user's interest information is acquired is an example of the first building.
  • the interest information storage unit 21 stores the clothing store as the attribute of the highest degree of interest for the user A who visited the building 2c or the like.
  • the external system 99 transmits an image of each area of each floor of the building 2d to the guidance system 1 in advance.
  • the guidance system 1 that has received the image generates a bird's-eye view map of the building 2d in advance in the same manner as that shown in FIG.
  • the camera 12 is arranged, for example, at the landing of the elevator 3.
  • the external system 99 transmits an image of the user A to the central management device 24.
  • the receiving unit 25 of the central management device 24 receives the image of the user A from the external system 99.
  • the user identification unit 14 of the central management device 24 identifies the user A based on the image received from the external system 99.
  • the user identification unit 14 of the central management device 24 that identifies the user based on the image received from the external system 99 is an example of the third user identification unit.
  • the user identification unit 14 of the central management device 24 determines the coordinates of the user A on the bird's-eye view map of the building 2d.
  • the transmission unit 26 reads the interest information about the specified user A from the interest information storage unit 21, and selects the attribute of the highest degree of interest corresponding to each area of each floor on the bird's-eye view map of the building 2d.
  • the destination candidate in the building 2d is transmitted to the external system 99.
  • the transmission unit 26 transmits information indicating that the most interesting attribute of the user A, who is the user identified by the image, is the clothing store to the external system 99.
  • the external system 99 receives the destination candidate in the building 2d from the central management device 24.
  • the external system 99 receives that the area of the building 2d and the attribute of which the user A is most interested in the area is the clothing store. Therefore, the external system 99 presents the clothing store Q as the destination to the user A who is visiting the building 2d.
  • the building 2d to which the external system 99 is applied does not have to be the building that the user A visits for the first time.
  • the guidance system 1 includes an attribute storage unit 13, a user identification unit 14 corresponding to the building 2 to which the guidance system 1 is applied, a floor determination unit 19, and the floor determination unit 19. It includes an action information acquisition unit 15, an interest information acquisition unit 20, an interest information storage unit 21, a reception unit 25, a user identification unit 14 of the central management device 24, and a transmission unit 26.
  • the attribute storage unit 13 stores the attributes for each area for each floor of the corresponding building 2.
  • the user identification unit 14 identifies a user in the building 2 based on an image taken by at least one of the cameras 12 provided in the corresponding building 2.
  • the floor determination unit 19 is based on an image taken by at least one of the cameras 12 when the specified user moves from the departure floor to the arrival floor by using one of the elevating facilities. Determine the arrival floor.
  • the behavior information acquisition unit 15 acquires behavior information representing the behavior of the identified user on the determined arrival floor based on an image taken by at least one of the cameras 12.
  • the interest information acquisition unit 20 is interested in expressing the degree of interest of the specified user for each attribute based on the arrangement of the area on the determined arrival floor, the attributes of the area, and the relationship of the behavior information. Get information.
  • the interest information storage unit 21 stores the interest information acquired by the interest information acquisition unit 20 for each user.
  • the receiving unit 25 displays from the external system 99 an image necessary for generating a bird's-eye view map of each area on each floor in the building 2d to which the external system 99 is applied, and an image of a user who starts using the elevating equipment. Receive sequentially.
  • the user identification unit 14 of the central management device 24 identifies the user based on the image received by the reception unit 25.
  • the transmission unit 26 reads the interest information stored in the interest information storage unit 21 for the user specified by the user identification unit 14 of the central management device 24, and reads each floor on the bird's-eye view map of the building 2d.
  • the attribute with the highest degree of interest corresponding to each floor area is specified as interest information, and the destination candidate in the building 2d is transmitted to the external system 99.
  • the user is identified, the arrival floor is determined, and the action information is acquired based on the image taken by the camera 12 provided in the building 2, so that the user who does not operate the equipment of the elevating facility is used. Also, the behavior information on the arrival floor is acquired. In addition, interest information is acquired based on user behavior information. Therefore, interest information is also acquired for users who do not operate the equipment of the elevating equipment.
  • the transmission unit 26 provides the destination candidates for each user acquired in this way to the building 2d to which the external system 99 is applied. As a result, even a user who does not operate the elevating facility can be guided in the building 2d based on the user's interest. Further, the guidance system 1 does not require the external system 99 for other identification information of the user's image. Therefore, the guidance system 1 can guide each user to the area of greatest interest in the building 2d without providing the external system 99 with personal information such as a name that identifies the user.
  • Embodiment 5 When multiple users gather and act as a group, they may behave differently from individual users. In the guidance system 1 of this example, guidance to a group including a plurality of users is performed.
  • FIG. 23 is a configuration diagram of the guidance system 1 according to the fifth embodiment.
  • the guidance system 1 includes a group identification unit 27 as a part responsible for information processing.
  • the group identification unit 27 is mounted on the group management device 11.
  • the group identification unit 27 is equipped with a function of identifying a group to act in the building 2.
  • the group includes a plurality of users specified in the user identification unit 14.
  • the group identification unit 27 registers the group as follows, for example.
  • the group identification unit 27 registers a plurality of users who have stayed together in any area of the building 2 for a longer time than a preset time threshold value as a group spent in the area.
  • the area where the group spends in the building 2 is the area on the arrival floor determined by the floor determination unit 19 for the users included in the group as members.
  • the area where the group spends in the building 2 is, for example, a conference room when the building 2 is an office building or the like.
  • the area where the group spends in the building 2 is the inside of the restaurant, each room, each table, each seat, etc. in the restaurant when the building 2 includes a restaurant or the like.
  • the time threshold value may be set in common regardless of the area, or may be set for each area.
  • the group identification unit 27 identifies a user staying in an area when detecting the entry / exit of a user into any area based on, for example, the behavior information acquired by the behavior information acquisition unit 15. ..
  • the group identification unit 27 calculates the time during which the plurality of users are staying together in the area.
  • the group identification unit 27 registers the plurality of users as a group when the time spent together exceeds the time threshold value of the area.
  • the group identification unit 27 assigns identification information unique to the group.
  • the group identification unit 27 may register the frequency of gathering for each group. For example, when the group identification unit 27 has already registered a group whose time spent together exceeds the time threshold value, the group identification unit 27 increases the frequency of gathering of the group.
  • the group identification unit 27 identifies the group that starts using the elevating equipment provided in the building 2, for example, as follows.
  • the group identification unit 27 starts a group specific process when detecting a plurality of users who start using the same lifting equipment based on the behavior information acquired by the behavior information acquisition unit 15, for example.
  • the group identification unit 27 identifies the plurality of users as the group to start using the elevating equipment.
  • the group identification unit 27 identifies the plurality of users as the group to start using the elevating equipment even when a group including the plurality of users is already registered as a part thereof. You may.
  • the group identification unit 27 may specify the plurality of users as the group to start using the elevating equipment when the number of the plurality of users is equal to or more than a preset number of users. ..
  • the set number of people is preset so that the group can be identified from some of its members.
  • the set number of people may be set in common for all groups, may be set for each group, or may be set for each number of people in the group.
  • the group identification unit 27 starts the use of the elevating equipment by the plurality of users when the ratio of the number of the plurality of users to the number of the number of the group is larger than the preset setting ratio. May be specified as.
  • the setting ratio is preset so that the group can be identified from some of its members.
  • the setting ratio may be set in common for all groups, or may be set for each group.
  • the setting ratio is set to a value such as 1/2 so that the group is specified when there are a majority of members.
  • the group specifying unit 27 may switch between the specified number of people and the set ratio according to, for example, the number of people in the group.
  • the interest information acquisition unit 20 acquires the interest information of the group.
  • the group's interest information is information indicating the degree of interest of the group for each attribute attached to the area.
  • the interest information acquisition unit 20 acquires interest information of the group based on, for example, the attributes of the area in which the group stays. For example, when the area has an attribute such as "meeting", the interest information acquisition unit 20 acquires the interest information of the group assuming that the degree of interest of the attribute such as "meeting" is higher.
  • the attribute attached to the area may represent the purpose of stay such as "meeting", or represent available equipment such as "projector” or "web conferencing".
  • the attribute attached to the area may represent the purpose of stay such as “food and drink”, or may represent a category such as “bar” or "family restaurant”. Alternatively, it may be a store name representing a specific store.
  • the interest information storage unit 21 stores the interest information acquired by the interest information acquisition unit 20 for each group.
  • the interest information storage unit 21 stores the group-specific identification information in association with the group's interest information and the time and place information at which the interest information was acquired.
  • the information at the time when the interest information is acquired may be information representing a time zone such as "lunch” or "dinner".
  • the destination presentation unit 22 assigns a destination to the group based on the interest information stored in the interest information storage unit 21. Present.
  • the destination presentation unit 22 presents, for example, an area having an attribute with a high degree of interest to the group as a destination.
  • FIG. 24 is a diagram showing an example of presentation of a destination by the guidance system 1 according to the fifth embodiment.
  • FIG. 24 shows an example of a building 2 to which the guidance system 1 is applied.
  • FIG. 24 the building 2 of one day is shown.
  • office W and office X are arranged in the area on the 4th floor.
  • the office Y and the conference room M are located in the area on the third floor.
  • office Z and conference room N are located in the area on the second floor.
  • the interest information storage unit 21 stores the office X in which the user A normally works as the attribute of the highest degree of interest for the user A.
  • the interest information storage unit 21 stores the office Y in which the user B normally works as the attribute of the highest degree of interest for the user B.
  • the interest information storage unit 21 stores the office Z in which the user C normally works as an attribute of the highest degree of interest for the user C.
  • Group G which includes User A, User B, and User C as members, is holding a meeting in the meeting room N.
  • the group identification unit 27 registers the group G based on the stay of the group G in the conference room N. Further, the interest information storage unit 21 stores "meeting" as an attribute of the highest degree of interest for group G.
  • the user A, the user B, and the user C are the user identification units based on the images taken by the plurality of cameras 12 provided on the first floor or the cameras 12 in the car 7 of the elevator 3 on which the vehicle is boarded. Specified as 14.
  • the group identification unit 27 identifies the user A, the user B, and the user C as the group G by collating with the information such as the members of the registered group.
  • the destination presentation unit 22 reads the interest information about the group G from the interest information storage unit 21.
  • the destination presentation unit 22 reads the interest information about the specified group in preference to the interest information about the individual users included as members in the group.
  • the destination presentation unit 22 of this example presents the area of the attribute with the highest degree of interest to the group as the destination. That is, the area of the attribute with the highest degree of interest is presented with priority. Therefore, the destination presentation unit 22 acquires the "meeting" as the attribute of the highest degree of interest in the group G.
  • the destination presentation unit 22 may present the destination to the group based on the availability of the conference room.
  • the availability of the conference room is determined based on, for example, an image taken by the camera 12 that captures the inside of the conference room or the entrance / exit.
  • the destination presentation unit 22 may acquire the availability of the conference room from the outside of the guidance system 1 such as the conference room reservation system.
  • the destination presentation unit 22 extracts an area to which "meeting" is assigned as an attribute from the attribute storage unit 13.
  • the destination presentation unit 22 extracts an area on the third floor to which the attribute "meeting" is assigned and the vacant meeting room M is arranged.
  • the destination presentation unit 22 presents the extracted area to the group G as a destination.
  • the destination presentation unit 22 in this example does not present a destination based on interest information about individual users included as members in the specified group. For example, when the user A is identified independently, the destination presentation unit 22 presents the area on the fourth floor where the office X having the highest degree of interest of the user A is arranged to the user A as the destination. On the other hand, when the group G including the user A as a member is specified, the destination presentation unit 22 presents one of the conference room areas as the destination based on the interest information of the group, and the interest information of the user A. Do not present the area of office X based on as a destination.
  • FIG. 25A and 25B are flowcharts showing an example of the operation of the guidance system 1 according to the fifth embodiment.
  • FIG. 25A shows an example of the operation of the guidance system 1 related to group registration.
  • step S501 the group identification unit 27 determines whether or not a user has entered or exited any area of the building 2.
  • the determination result is Yes
  • the operation of the guidance system 1 proceeds to step S502.
  • the determination result is No
  • the operation of the guidance system 1 proceeds to step S501 again.
  • step S502 the group identification unit 27 determines whether or not a plurality of users have stayed in the area immediately before the user enters and exits the area where the entry and exit of the user is detected.
  • the determination result is Yes
  • the operation of the guidance system 1 proceeds to step S503.
  • the determination result is No
  • the operation of the guidance system 1 related to the group registration ends.
  • step S503 in the group identification unit 27, with respect to the area where the user's entry / exit is detected, a plurality of users stay together in the area for the time elapsed from the previous detection of the user's entry / exit in the area. Calculated as the time spent.
  • the group identification unit 27 determines whether the calculated time is longer than the time threshold value. When the determination result is Yes, the operation of the guidance system 1 proceeds to step S504. When the determination result is No, the operation of the guidance system 1 related to the group registration ends.
  • step S504 the group identification unit 27 has already registered a group having the plurality of users as members for a plurality of users whose time spent together in the area where entry / exit is detected exceeds the time threshold value. Judge whether or not. When the determination result is No, the operation of the guidance system 1 proceeds to step S505. When the determination result is Yes, the operation of the guidance system 1 proceeds to step S506.
  • step S505 the group identification unit 27 newly registers a group whose members are a plurality of users whose time spent together in the area where entry / exit is detected exceeds the time threshold. At this time, the group identification unit 27 assigns identification information unique to the group.
  • the interest information acquisition unit 20 acquires the interest information of the group based on the attributes attached to the area.
  • the interest information storage unit 21 stores the acquired interest information of the group. After that, the operation of the guidance system 1 related to the registration of the group ends.
  • the group identification unit 27 updates the gathering frequency of the group for a group whose members are a plurality of users whose time spent together in the area where entry / exit is detected exceeds the time threshold.
  • the interest information acquisition unit 20 may update or newly acquire the interest information of the group based on the attributes attached to the area.
  • the interest information storage unit 21 stores updated or newly acquired interest information of the group. After that, the operation of the guidance system 1 related to the registration of the group ends.
  • FIG. 25B shows an example of the operation of the guidance system 1 related to the presentation of the destination when the specified group uses the elevator 3 as an elevating facility.
  • step S601 the group identification unit 27 determines whether or not there is a user who starts using the elevator 3 in the building 2. When the determination result is Yes, the operation of the guidance system 1 proceeds to step S602. When the determination result is No, the operation of the guidance system 1 proceeds to step S601 again.
  • step S602 the group identification unit 27 determines whether there are a plurality of users who start using the elevator 3. When the determination result is Yes, the operation of the guidance system 1 proceeds to step S603. When the determination result is No, the operation of the guidance system 1 proceeds to step S606.
  • step S603 the group identification unit 27 determines whether or not a group having the plurality of users as members is registered for the plurality of users who start using the elevator 3.
  • the determination result is Yes
  • the operation of the guidance system 1 proceeds to step S604.
  • the determination result is No
  • the operation of the guidance system 1 proceeds to step S606.
  • step S604 the group identification unit 27 identifies a plurality of users who start using the elevator 3 as a group based on the information registered in advance. After that, the operation of the guidance system 1 proceeds to step S605.
  • the destination presentation unit 22 refers to the interest information stored in the interest information storage unit 21 for the group specified by the group identification unit 27.
  • the destination presentation unit 22 extracts the destination area of the group based on the referenced interest information.
  • the destination presentation unit 22 presents the extracted area to the group as a destination. After that, the operation of the guidance system 1 related to the presentation of the destination ends.
  • the destination presentation unit 22 refers to the interest information stored in the interest information storage unit 21 for the user specified by the user identification unit 14.
  • the destination presentation unit 22 extracts the destination area of the user based on the referenced interest information.
  • the destination presentation unit 22 presents the extracted area to the user as a destination.
  • the destination presentation unit 22 extracts and presents the destination area to each user. After that, the operation of the guidance system 1 related to the presentation of the destination ends.
  • the guidance system 1 includes the group identification unit 27.
  • the group identification unit 27 identifies a group including a plurality of users specified by the user identification unit 14.
  • the interest information acquisition unit 20 acquires interest information representing the degree of interest of the group for each attribute based on the relationship between the area arrangement and attributes and the behavior information for the group specified by the group identification unit 27.
  • the area is an area on the arrival floor determined by the floor determination unit 19 for the users included in the group.
  • the behavior information is behavior information acquired by the behavior information acquisition unit 15 for the users included in the group.
  • the interest information storage unit 21 stores the interest information acquired by the interest information acquisition unit 20 for each group.
  • the destination presenting unit 22 presents the area having the attribute with a higher degree of interest to the group as a destination with higher priority. At this time, the destination is presented based on the interest information stored in the interest information storage unit 21 and the attribute information stored in the attribute storage unit 13 for the group.
  • guidance to the group is performed in the same manner as guidance to individual users.
  • Guidance to the group may be given to any part of the users of the group.
  • a plurality of users included in the group may be specified by the user identification unit 14 as users who start using the elevating equipment. ..
  • the group specifying unit 27 may specify the plurality of users as the group when the number of the specified plurality of users is equal to or greater than the preset number of users.
  • the group identification unit 27 may specify the plurality of users as the group when the ratio of the number of the specified plurality of users to the number of the group is larger than the preset ratio.
  • the guidance system 1 can present guidance to the group even if all the members of the group are not available. As a result, the convenience of the user acting as a group in the building 2 becomes higher.
  • the group identification unit 27 may register different groups including overlapping members.
  • the group identification unit 27 includes a group G whose members are user A, user B, and user C, and a group H whose members are user A, user B, user C, and user D. And may be registered as different groups from each other.
  • the group specifying unit 27 may be a group to be specified by giving priority to the group that frequently gathers among the registered groups. For example, when the frequency of group H gathering is higher than the frequency of group G gathering, the group identification unit 27 receives these users when users A, user B, and user C start using the elevator 3. May be specified as group H.
  • the group identification unit 27 may calculate the staying time assuming that the user did not enter or leave the area when the user entered or exited the area temporarily in the group registration. For example, when a user of a member of a group temporarily leaves the area for a toilet or telephone, or a user who is not a member of the group temporarily enters the area to contact a member or set up equipment.
  • the group identification unit 27 calculates the staying time of the user who stays together in the area, assuming that the user has not entered or exited. For example, when the time interval for entering and exiting the user's area is shorter than the preset interval, the group specifying unit 27 determines that the user's entry and exit is temporary. As a result, the accuracy of group registration can be further improved.
  • Embodiment 6 In the guidance system 1 of this example, guidance to the group is performed over a plurality of buildings 2.
  • FIG. 26 is a configuration diagram of the guidance system 1 according to the sixth embodiment.
  • the group identification unit 27 is applied to each building 2 as a part responsible for information processing.
  • the group identification unit 27 applied to the building 2 identifies a group including a plurality of users specified in the user identification unit 14 applied to the building 2.
  • the group identification unit 27 applied to each building shares the registered group information with each other.
  • the registered group information may be stored in the central management device 24.
  • the interest information storage unit 21 integrates the interest information acquired in each building 2 and stores it for each group.
  • the interest information storage unit 21 stores, for example, identification information unique to a group and interest information of the group in association with each other.
  • FIG. 27 is a diagram showing an example of presentation of a destination by the guidance system 1 according to the sixth embodiment.
  • FIG. 27 shows an example of one of a plurality of buildings 2 to which the guidance system 1 is applied.
  • FIG. 27 the building 2 of one day is shown.
  • a pub which is a restaurant
  • a restaurant which is a restaurant
  • a bookstore and a clothing store are open in the area on the 3rd floor.
  • a general store and a cafe which is a restaurant, are open in the area on the second floor.
  • the guidance system 1 has acquired the interest information of user A, user B, user C, and user D.
  • the interest information storage unit 21 stores “cafe” as an attribute of the highest degree of interest for user A.
  • the interest information storage unit 21 stores "bookstore” as an attribute of the highest degree of interest for user B.
  • the interest information storage unit 21 stores "general store” as an attribute of the highest degree of interest for user C.
  • the interest information storage unit 21 stores the "clothing store” as the attribute of the highest degree of interest for the user D.
  • the interest information is acquired based on the behavior information of each user in other buildings.
  • Group H which includes User A, User B, User C, and User D as members, has held a meeting at a tavern in another building.
  • the interest information storage unit 21 stores "bar" as the attribute of the highest degree of interest for group H.
  • 1/2 corresponding to the majority is set as the setting ratio.
  • the first group identification unit is the group identification unit 27 applied to the first building. In this example, each member of Group H visits Building 2 shown in FIG. 27 for the first time on this day.
  • the user A, the user B, and the user D are the user identification units based on the images taken by the plurality of cameras 12 provided on the first floor or the cameras 12 in the car 7 of the elevator 3 on which the user is boarded. Specified as 14.
  • the group identification unit 27 collates with information such as registered group members.
  • the number of users A, B, and D has reached the majority of the members of group H. Therefore, the group identification unit 27 identifies the user A, the user B, and the user D as the group H.
  • the destination presentation unit 22 reads the interest information about the group H from the interest information storage unit 21.
  • the destination presentation unit 22 of this example presents the area of the attribute with the highest degree of interest to the group as the destination. Therefore, the destination presentation unit 22 acquires "Izakaya" as the attribute of the highest degree of interest in Group H.
  • the destination presentation unit 22 extracts the area on the 4th floor where the store with the attribute “Izakaya” is open.
  • the destination presentation unit 22 presents the extracted area to the group H as a destination.
  • the building 2 in FIG. 27, in which the destination is presented to the group is an example of the second building.
  • the second group identification unit is the group identification unit 27 applied to the second building. The second building does not have to be the building that Group H visits for the first time. In the second building, the interest information of Group H and the like may have been acquired in the past.
  • the destination presentation unit 22 may acquire the availability of the store, the reservation information of the specified group, and the like from the outside of the guidance system 1 such as the store use reservation system.
  • the destination presentation unit 22 may extract the destination area of the group by using the acquired information.
  • the guidance system 1 includes a group identification unit 27 corresponding to each building.
  • Each group identification unit 27 identifies a group including a plurality of users specified by the user identification unit 14 applied to the corresponding building.
  • the interest information acquisition unit 20 refers to the group specified by the group identification unit 27 of any of the buildings 2, and the degree of interest of the group for each attribute based on the relationship between the area arrangement and attributes in the building 2 and the behavior information. Get the interest information that represents.
  • the interest information storage unit 21 stores the interest information acquired by the interest information acquisition unit 20 for each group.
  • the destination presentation unit 22 assigns an attribute having a higher degree of interest in the building 2.
  • the destination presentation by the destination presentation unit 22 is performed based on the interest information stored in the interest information storage unit 21 for the group and the attribute information stored in the attribute storage unit 13 of the building 2. .. Further, the destination presentation unit 22 presents the destination by using a part or all of the information of interest acquired in each building.
  • the guidance system 1 can present the destination based on the interest to the group who visits the building 2 for the first time.
  • a plurality of users included in the group are users of the building 2 as users who start using the elevating equipment of any of the buildings 2. It may be specified in the specific unit 14.
  • the group identification unit 27 of the building 2 may specify the plurality of users as the group when the number of the specified plurality of users is equal to or greater than the preset number of users. ..
  • the group identification unit 27 of the building 2 identifies the plurality of users as the group when the ratio of the number of the specified plurality of users to the number of the group is larger than the preset ratio. You may.
  • the guidance system 1 can present guidance to the group even if all the members of the group are not available. As a result, the convenience of the users acting as a group in the plurality of buildings 2 becomes higher.
  • Embodiment 7 In the guidance system 1 of this example, the group's interest information is provided to the external system 99.
  • FIG. 28 is a configuration diagram of the guidance system 1 according to the seventh embodiment.
  • the central management device 24 includes a group identification unit 27.
  • the group identification unit 27 of the central management device 24 identifies a group including a plurality of users specified by the user identification unit 14 of the central management device 24.
  • the group identification unit of the central management device 24 is an example of the third group identification unit.
  • the group identification unit 27 of each building and the group identification unit 27 of the central management device 24 share the registered group information with each other.
  • the registered group information may be stored in the central management device 24.
  • the central management device 24 provides information to the external system 99 as follows, for example.
  • the receiving unit 25 of the central management device 24 receives images of a plurality of users from the external system 99.
  • the user identification unit 14 of the central management device 24 identifies each user based on the image received from the external system 99.
  • the group identification unit 27 of the central management device 24 determines whether or not a group including a plurality of users specified by the user identification unit 14 as members is registered. When the plurality of users are registered as a group, the group identification unit 27 identifies the group including the plurality of users as members.
  • the transmission unit 26 reads the interest information about the specified group from the interest information storage unit 21, and has the highest degree of interest corresponding to each area of each floor on the bird's-eye view map of the building to which the external system 99 is applied.
  • the attribute is specified as interest information, and the destination candidate in the building is transmitted to the external system 99.
  • the transmission unit 26 transmits information representing the most interesting attribute of the group identified by the image to the external system 99.
  • the external system 99 receives the destination candidate of the specified group from the central management device 24.
  • the external system 99 presents the destination to the group based on the received destination candidate.
  • the building to which the external system 99 is applied does not have to be the building that the group visits for the first time.
  • the guidance system 1 includes a group identification unit 27 corresponding to the building 2 to which the guidance system 1 is applied, and a group identification unit 27 of the central management device 24.
  • the interest information acquisition unit 20 acquires interest information representing the degree of interest of the group for each attribute based on the relationship between the area arrangement and attributes and the behavior information for the specified group.
  • the interest information storage unit 21 stores the interest information acquired by the interest information acquisition unit 20 for each group.
  • the transmission unit 26 transmits to the external system 99 a candidate having a high degree of interest, which the interest information storage unit 21 stores as interest information about the group specified by the group identification unit 27 of the central management device 24.
  • a plurality of users included in the group are specified in the user identification unit 14 of the central management device 24 in the building to which the external system 99 is applied. May be done.
  • the group identification unit 27 of the central management device 24 may specify the plurality of users as the group when the number of the specified plurality of users is equal to or greater than the preset number of users. good.
  • the group identification unit 27 of the central management device 24 identifies the plurality of users as the group when the ratio of the number of the specified plurality of users to the number of the group is larger than the preset ratio. You may.
  • the guidance system 1 can present guidance to the group even if all the members of the group are not available. This makes it more convenient for users to act as a group.
  • Embodiment 8 The guidance system 1 of this example may have the configuration shown in any of FIGS. 1, 19, 21, 23, 26, or 28, or may have a configuration based on a combination thereof. good. In the guidance system 1 of this example, whether or not to present the destination based on the interest information of the user or the group is selected by, for example, a member of the user or the group.
  • the interest information storage unit 21 stores whether or not the destination can be presented based on the interest information as switchable information in association with the interest information. Whether or not to present the destination based on the interest information is selected by the user or the member of the group regarding the interest information to be presented.
  • the user who is the target of the presentation can change from presentable to non-presentable or present through, for example, through a mobile terminal such as a smartphone that can be connected to the guidance system 1 or through the user interface of the lifting equipment such as the landing operation panel 9. Switch from impossible to possible presentation.
  • the guidance system 1 does not present the destination based on the interest information.
  • the destination presentation unit 22 does not present the destination to the user or group related to the interest information.
  • the guidance system 1 is linked with the external system 99, for example, when the possibility of presenting the destination based on the interest information is set to be non-presentable, the guidance system 1 is set to the user or group regarding the interest information. Information such as is not transmitted to the external system 99.
  • the guidance system according to this disclosure can be applied to buildings with multiple floors.

Abstract

昇降設備を操作しない利用者についても、利用者の興味および関心に基づいた建物における案内を可能にする案内システムを提供する。案内システム(1)において、行動情報取得部(15)は、利用者の到着階における行動情報を、カメラ(12)が撮影する画像に基づいて取得する。関心情報取得部(20)は、到着階におけるエリアの配置および属性、ならびに行動情報の関係に基づいて、属性ごとの利用者の関心度を表す関心情報を取得する。関心情報記憶部(21)は、関心情報を利用者ごとに記憶する。行先提示部(22)は、昇降設備の利用者を利用者特定部(14)が特定するときに、関心度のより高い属性を有するエリアをより優先して行先として提示する。行先提示部(22)による行先の提示は、当該利用者について関心情報記憶部(21)が記憶している関心情報、および属性記憶部(13)が記憶しているエリアごとの属性の情報に基づいて行われる。

Description

案内システム
 本開示は、案内システムに関する。
 特許文献1は、エレベーターの行先階登録装置の例を開示する。行先階登録装置において、蓄積された利用者ごとの使用履歴に基づいて、行先階の候補が選定される。
日本特開2012-224423号公報
 しかしながら、特許文献1の行先階登録装置において、利用者の使用履歴は、利用者によるエレベーターの機器の操作によって取得される。このため、当該行先階登録装置は、建物に設けられたエレベーターなどの昇降設備を操作しない利用者について、行先階などの当該利用者の関心についての情報を取得することができない。したがって、当該行先階登録装置は、建物に設けられた昇降設備を操作しない利用者について、当該建物における行先階の提示などの案内を当該利用者の関心に基づいて行うことができない。
 本開示は、このような課題の解決に係るものである。本開示は、昇降設備を操作しない利用者についても、利用者の興味および関心に基づいた建物における案内を可能にする案内システムを提供する。
 本開示に係る案内システムは、建物の複数の階床の各々について、エリアごとの属性を記憶する属性記憶部と、前記建物に設けられた複数のカメラの少なくともいずれかが撮影する画像に基づいて、前記建物において利用者を特定する利用者特定部と、前記利用者特定部に特定された利用者が前記建物に設けられた1つ以上の昇降設備のいずれかを利用して前記複数の階床のうちの出発階から到着階まで移動したときに、前記複数のカメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、前記利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数のカメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、前記利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、前記関心情報取得部が取得した関心情報を利用者ごとに記憶する関心情報記憶部と、前記1つ以上の昇降設備のいずれかの利用を開始する利用者を前記利用者特定部が特定するときに、当該利用者について前記関心情報記憶部が記憶している関心情報および前記属性記憶部が記憶している属性の情報に基づいて、関心度のより高い属性を有するエリアをより優先して当該利用者に行先として提示する行先提示部と、を備える。
 本開示に係る案内システムは、第1建物の複数の階床の各々について、エリアごとの属性を記憶する第1属性記憶部と、前記第1建物に設けられた複数の第1カメラの少なくともいずれかが撮影する画像に基づいて、前記第1建物において利用者を特定する第1利用者特定部と、前記第1利用者特定部に特定された利用者が前記第1建物に設けられた1つ以上の昇降設備のいずれかを利用して前記第1建物の複数の階床のうちの出発階から到着階まで移動したときに、前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、前記関心情報取得部が取得した関心情報を利用者ごとに記憶する関心情報記憶部と、第2建物の複数の階床の各々について、エリアごとの属性を記憶する第2属性記憶部と、前記第2建物に設けられた複数の第2カメラの少なくともいずれかが撮影する画像に基づいて、前記第2建物において利用者を特定する第2利用者特定部と、前記第2建物に設けられた1つ以上の昇降設備のいずれかの利用を開始する利用者を前記第2利用者特定部が特定するときに、当該利用者について前記関心情報記憶部が記憶している関心情報および前記第2属性記憶部が記憶している属性の情報に基づいて、前記第2建物において、前記第1建物で取得された関心情報および前記第2建物で取得された関心情報のいずれかまたは両方の情報を利用して、当該利用者について関心度のより高い属性を有するエリアをより優先して当該利用者に行先として提示する行先提示部と、を備える。
 本開示に係る案内システムは、第1建物の複数の階床の各々について、エリアごとの属性を記憶する属性記憶部と、前記第1建物に設けられた複数の第1カメラの少なくともいずれかが撮影する画像に基づいて、前記第1建物において利用者を特定する第1利用者特定部と、前記第1利用者特定部に特定された利用者が前記第1建物に設けられた1つ以上の昇降設備のいずれかを利用して前記第1建物の複数の階床のうちの出発階から到着階まで移動したときに、前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、前記関心情報取得部が取得した関心情報を利用者ごとに記憶する関心情報記憶部と、第3建物に設けられた1つ以上の昇降設備のいずれかの利用を開始する利用者の画像を、前記第3建物の複数の階床の各々を記憶し、更新する記憶部を有し前記第3建物において利用者の関心度に応じて行先を提示する外部システムから受信する受信部と、前記受信部が受信した画像に基づいて利用者を特定する第3利用者特定部と、前記第3利用者特定部に特定された利用者について、前記関心情報記憶部が当該利用者について関心情報として記憶している関心度の高い候補を前記外部システムに送信する送信部と、を備える。
 本開示に係る案内システムによれば、昇降設備を操作しない利用者についても、利用者の関心に基づいた建物における案内が可能になる。
実施の形態1に係る案内システムの構成図である。 実施の形態1に係るかご操作盤の例を示す図である。 実施の形態1に係る階床におけるエリアの例を示す図である。 実施の形態1に係るカメラの配置の例を示す図である。 実施の形態1に係るカメラの配置の例を示す図である。 実施の形態1に係るカメラの配置の例を示す図である。 実施の形態1に係る行動情報取得部が取得する行動情報の例を示す図である。 実施の形態1に係る行動情報取得部が取得する行動情報の例を示す図である。 実施の形態1に係る行動情報取得部が取得する行動情報の例を示す図である。 実施の形態1に係る行動情報取得部が取得する行動情報の例を示す図である。 実施の形態1に係る行動情報取得部が取得する行動情報の例を示す図である。 実施の形態1に係る階床判定部による判定の例を示す表である。 実施の形態1に係る階床判定部による判定の例を示す図である。 実施の形態1に係る階床判定部による判定の例を示す図である。 実施の形態1に係る階床判定部による判定の例を示す図である。 実施の形態1に係る階床判定部による判定の例を示す図である。 実施の形態1に係る階床判定部による判定の例を示す図である。 実施の形態1に係る階床判定部による判定の例を示す図である。 実施の形態1に係る案内システムによる行動情報の取得の例を示す図である。 実施の形態1に係る案内システムによる行動情報の取得の例を示す図である。 実施の形態1に係る案内システムによる行動情報の取得の例を示す図である。 実施の形態1に係る案内システムによる関心情報の取得の例を示す図である。 実施の形態1に係る案内システムによる関心情報の取得の例を示す図である。 実施の形態1に係る案内システムによる関心情報の取得の例を示す図である。 実施の形態1に係る案内システムによる行先の提示の例を示す図である。 実施の形態1に係る案内システムによる行先の提示の例を示す図である。 実施の形態1に係る案内システムによる行先の提示の例を示す図である。 実施の形態1に係る案内システムによる行先の提示の例を示す図である。 実施の形態1に係る案内システムの動作の例を示すフローチャートである。 実施の形態1に係る案内システムの動作の例を示すフローチャートである。 実施の形態1に係る案内システムの動作の例を示すフローチャートである。 実施の形態1に係る案内システムの動作の例を示すフローチャートである。 実施の形態1に係るエレベーターの主要部のハードウェア構成図である。 実施の形態2に係る案内システムによる行先の提示の例を示す図である。 実施の形態2に係る案内システムによる行先の提示の例を示す図である。 実施の形態2に係る案内システムによる行先の提示の例を示す図である。 実施の形態2に係る案内システムによる行先の提示の例を示す図である。 実施の形態2に係る案内システムによる行先の提示の例を示す図である。 実施の形態3に係る案内システムの構成図である。 実施の形態3に係る案内システムによる行先の提示の例を示す図である。 実施の形態4に係る案内システムの構成図である。 実施の形態4に係る案内システムによる関心情報の提供の例を示す図である。 実施の形態5に係る案内システムの構成図である。 実施の形態5に係る案内システムによる行先の提示の例を示す図である。 実施の形態5に係る案内システムの動作の例を示すフローチャートである。 実施の形態5に係る案内システムの動作の例を示すフローチャートである。 実施の形態6に係る案内システムの構成図である。 実施の形態6に係る案内システムによる行先の提示の例を示す図である。 実施の形態7に係る案内システムの構成図である。
 本開示を実施するための形態について添付の図面を参照しながら説明する。各図において、同一または相当する部分には同一の符号を付して、重複する説明は適宜に簡略化または省略する。
 実施の形態1.
 図1は、実施の形態1に係る案内システム1の構成図である。
 案内システム1は、複数の階床を有する建物2に適用される。案内システム1は、例えば建物2の利用者などに対して、行先階の提示などの案内を行うシステムである。
 建物2において、1つ以上の昇降設備が設けられる。昇降設備は、建物2の利用者が複数の階床の間に移動に利用する設備である。この例の建物2において、複数の昇降設備が設けられている。昇降設備は、例えばエレベーター3、エスカレーター4、または階段5などである。建物2の各々の階床において、階段5の乗降口が設けられる。出発階から到着階まで階段5を利用して移動する利用者は、出発階の乗降口から階段5の利用を開始する。その後、利用者は、到着階の乗降口で階段5の利用を完了する。なお、階段5は、階間を斜行できるスロープであってもよい。
 この例において、複数のエレベーター3が昇降設備として建物2に適用されている。各々のエレベーター3は、複数の階床の間で利用者を輸送する搬送装置である。建物2において、エレベーター3の昇降路6が設けられる。昇降路6は、複数の階床にわたる空間である。建物2の各々の階床において、エレベーター3の乗場が設けられる。エレベーター3の乗場は、昇降路6に隣接する空間である。各々のエレベーター3は、かご7と、制御盤8と、乗場操作盤9と、を備える。かご7は、昇降路6を上下に走行することで内部に乗車している利用者を複数の階床の間で輸送する装置である。かご7は、かご操作盤10を備える。かご操作盤10は、かご7の行先の階床を指定する利用者の操作を受け付ける装置である。制御盤8は、例えばエレベーター3に登録された呼びに応じてかご7の走行などを制御する装置である。乗場操作盤9は、エレベーター3に呼びを登録する利用者の操作を受け付ける装置である。乗場操作盤9は、例えば各々の階床の乗場に設けられる。乗場操作盤9は、複数のエレベーター3の間で共有されていてもよい。出発階から到着階までエレベーター3を利用して移動する利用者は、例えば出発階の乗場において乗場操作盤9を操作することで呼びを登録する。利用者は、出発階の乗場からかご7に乗車することでエレベーター3の利用を開始する。その後、利用者は、到着階の乗場にかご7から降車することでエレベーター3の利用を完了する。この例の建物2において、複数のエレベーター3への呼びの割当てなどの運行の管理を行う群管理装置11が設けられる。ここで、建物2において、独立した機器としての群管理装置に代わる機器、または独立した機器としての群管理装置の機能を搭載したソフトウェアがインストールされた機器などが設けられてもよい。運行の管理などについての情報処理の一部または全部の機能は、制御盤8に搭載されていてもよい。あるいは、運行の管理などについての情報処理の一部または全部の機能は、各々のエレベーター3と通信可能なサーバ装置などに搭載されていてもよい。当該サーバ装置は、建物2の内部または外部のいずれに配置されていてもよい。また、運行の管理などについての情報処理の一部または全部の機能は、各々のエレベーター3と通信可能なクラウドサービス上の仮想マシンなどに搭載されていてもよい。運行の管理などについての情報処理の一部または全部の機能は、専用のハードウェアによって実現されてもよく、ソフトウェアによって実現されてもよく、または、専用のハードウェアおよびソフトウェアを併用して実現されてもよい。以下において、運行の管理などについての情報処理を行う上記に例示された各手段を、その構成に関わらず群管理装置11と呼ぶ。
 エスカレーター4は、上階および下階の間に掛け渡される。エスカレーター4は、上階および下階の間で利用者を輸送する搬送装置である。建物2の各々の階床において、エスカレーター4の乗降口が設けられる。出発階から到着階まで1つまたは複数のエスカレーター4を利用して移動する利用者は、出発階の乗り口からエスカレーター4の利用を開始する。利用者は、出発階および到着階の間で複数のエスカレーター4を乗り継いでもよい。その後、利用者は、到着階の降り口でエスカレーター4の利用を完了する。
 建物2において、複数のカメラ12が設けられる。各々のカメラ12は、設けられた場所の画像を撮影する装置である。各々のカメラ12が撮影する画像は、例えば静止画または動画を含む。各々のカメラ12が撮影する画像の形式は、例えばMotion JPEG、AVC、HEVCなどの圧縮された画像の形式であってもよい。あるいは、各々のカメラ12が撮影する画像の形式は、非圧縮の画像の形式であってもよい。各々のカメラ12は、撮影した画像を外部の機器に出力する機能を搭載する。この例において、各々のカメラ12は、同時に撮影された画像を同一時刻の画像として取得しうるように、互いに同期されている。
 この例において、複数のカメラ12は、各々の階床に設けられるカメラ12を含む。複数のカメラ12は、エレベーター3のかご7の内部に設けられるカメラ12を含む。複数のカメラ12は、エスカレーター4の乗降口に設けられるカメラ12を含む。複数のカメラ12は、階段5の乗降口に設けられるカメラ12を含む。複数のカメラ12は、各々の階床に設けられるカメラ12と同様に、建物2の入口、外周、または中庭などの屋外に設けられるカメラ12を含んでもよい。複数のカメラ12は、各々の階床に設けられるカメラ12と同様に、エレベーター3の乗場に設けられるカメラ12を含んでもよい。複数のカメラ12は、エスカレーター4の乗降口に設けられるカメラ12と同様に、エスカレーター4の乗降口に至る手前の部分に設けられるカメラ12を含んでもよい。複数のカメラ12は、階段5の乗降口に設けられるカメラ12と同様に、階段5の乗降口に至る手前の部分に設けられるカメラ12を含んでもよい。
 案内システム1は、複数のカメラ12の一部または全部を含んでもよい。あるいは、複数のカメラ12の一部または全部は、案内システム1の外部の装置であってもよい。案内システム1は、各々のカメラ12から取得する画像に基づく情報処理によって案内を行う。案内システム1は、情報処理を担う部分として、属性記憶部13と、利用者特定部14と、行動情報取得部15と、行動情報記憶部16と、昇降設備判定部17と、整合処理部18と、階床判定部19と、関心情報取得部20と、関心情報記憶部21と、行先提示部22と、呼び登録部23と、を備える。この例において、案内システム1において情報処理を担う部分は、群管理装置11に搭載されている。ここで、案内システム1において情報処理を担う部分の一部または全部は、群管理装置11と別の通信可能な外部のサーバ装置などに搭載されていてもよい。また、案内システム1において情報処理を担う部分の一部または全部は、建物2に設けられたサーバ装置と別の通信可能な外部のサーバ装置などに搭載されていてもよい。また、案内システム1において情報処理を担う部分の一部または全部は、クラウドサービス上の通信可能な仮想マシンなどに搭載されていてもよい。
 属性記憶部13は、情報を記憶する部分である。属性記憶部13において、建物2の各々の階床についてのエリアごとの属性が記憶される。各々の階床のエリアは、当該階床の一部または全部を占める部分である。各々の階床のエリアは、例えば当該階床のテナントが入居する部分などである。各々の階床のエリアは、例えば当該階床において営業する店舗などの部分であってもよい。属性記憶部13は、例えば各々の階床における座標の範囲などとしてエリアを特定する情報を記憶する。エリアは、2次元の平面に限られず、例えば3次元などの高次元の空間でもよい。また、エリアの属性は、1つ以上のモノ、コトなどを表す。エリアの属性は、例えば当該エリアが店舗である場合に、店舗の種類、または店舗において扱う品物もしくはサービスの種類などである。エリアの属性は、例えば当該エリアが店舗である場合に、店舗の名称、または店舗において扱う品物もしくはサービスの名称などであってもよい。各々のエリアは、複数の属性を有していてもよい。各々のエリアの1つまたは複数の属性は、人によって付与されてもよく、またAI(Artificial Intelligence)を用いて付与されても良い。
 利用者特定部14は、少なくともいずれかのカメラ12が撮影する画像に基づいて、建物2の利用者を特定する機能を搭載する。利用者特定部14は、例えば、画像から抽出した利用者の顔情報を、既存情報がある場合はこれと二次元顔認証により照合することなどによって利用者の特定を行い、利用者の特定を確定する。利用者特定部14は、初めての利用者などの既存情報がない場合に、画像から抽出した利用者の顔情報を新規に登録してもよい。ここで、顔情報として、例えば顔の鼻、耳、目、口、頬、顎、および首などの特徴が利用される。また、顔情報の悪用を防ぐため、利用者特定部14は、例えば目の虹彩、または瞳孔などの情報を取得してもよい。目の瞳孔が円または楕円などではなく凹凸がある場合、利用者特定部14は、AIなどで作成された偽の顔情報を取得したリスクを検出し、アラートなどを発信してもよい。
 行動情報取得部15は、利用者特定部14に特定された利用者について、当該利用者の行動情報を取得する機能を搭載する。利用者の行動情報は、例えば当該利用者の配置を表す情報の時系列データである。行動情報は、2次元の平面および時間軸をあわせた3次元の情報に限られず、例えば3次元などの高次元の空間および時間軸をあわせたより高次元の情報であってもよい。利用者の配置は、例えば当該利用者のいる階床、当該階床における当該利用者の座標、および当該利用者の向きなどの情報を含む。利用者の配置は、利用者がいずれかの昇降設備を利用している場合に、当該昇降設備を特定する情報を含んでもよい。時系列データとしての行動情報は、例えば予め設定された時間間隔ごとに取得された利用者の配置の情報を含む。行動情報取得部15は、少なくともいずれかのカメラ12が撮影する画像に基づいて利用者の行動情報を取得する。行動情報取得部15は、利用者の行動情報を例えば予め設定された時間間隔ごとに継続的に更新する。
 行動情報記憶部16は、情報を記憶する部分である。行動情報記憶部16は、行動情報取得部15により取得された行動情報を、利用者特定部14により特定された利用者ごとに記憶する。この例において、行動情報記憶部16は、利用者特定部14による特定に必要な利用者に固有の識別情報および当該利用者の行動情報を関連付けて記憶する。
 昇降設備判定部17は、利用者特定部14に特定された利用者について、当該利用者の利用する昇降設備を判定する機能を搭載する。昇降設備判定部17は、少なくともいずれかのカメラ12が撮影する画像に基づいて、利用される昇降設備の判定を行う。昇降設備判定部17は、例えば利用者が出発階においていずれかの昇降設備の利用を開始するときに、当該昇降設備を当該利用者の利用する昇降設備として判定する。
 整合処理部18は、利用者特定部14による利用者の特定、および昇降設備判定部17による当該利用者の利用する昇降設備の判定の間の整合を取る機能を搭載する。整合を取る処理は、例えば次のように行われる。利用者特定部14は、異なる利用者を誤って同一の利用者として特定する可能性がある。この場合に、昇降設備判定部17は、利用者特定部14が同一の利用者として特定した利用者について、当該利用者の利用する昇降設備として、同時に2以上の昇降設備を判定する可能性がある。同一人物が同時に2以上の昇降設備を重複して利用することはできないので、整合処理部18は、利用者特定部14に利用者の特定の修正を要求する。このとき、利用者特定部14は、誤って同一の利用者として特定していた利用者を互いに異なる利用者として特定する。利用者特定部14は、互いに異なる利用者として特定するときに、取得済みの画像の中から利用者の特徴量の差を抽出して、利用者の特定の確度を向上させ、互いに異なる利用者の特定を再確定する。利用者特定部14は、例えば、抽出した特徴量の差に応じて同一の利用者として判定する特徴量の範囲を狭めるなどの調整を行ってもよい。利用者特定部14は、この他の方法によって抽出した特徴量の差に基づいて利用者の特定の確度を向上させてもよい。
 階床判定部19は、利用者特定部14に特定された利用者について、当該利用者の到着階を判定する機能を搭載する。利用者の到着階は、昇降設備を利用している利用者が当該昇降設備の利用を完了した階床である。例えば利用者がエレベーター3を利用している場合に、当該利用者の到着階は、エレベーター3からの降車階である。階床判定部19は、少なくともいずれかのカメラ12が撮影する画像に基づいて、到着階の判定を行う。階床判定部19は、例えば利用者がいずれかの階床において昇降設備の利用を完了するときに、当該階床を当該利用者の到着階として判定する。
 関心情報取得部20は、利用者特定部14に特定された利用者について、関心情報を取得する機能を搭載する。利用者の関心情報は、エリアに付される属性ごとの当該利用者の関心度を表す情報である。関心情報取得部20は、到着階における利用者の行動に基づいて関心情報を取得する。ここで、利用者の行動は、例えば到着階における利用者の滞在時間、到着階において利用者が関心を示す向きである興味方向などの情報を含む。この例において、関心情報取得部20は、属性記憶部13が記憶する情報、および行動情報取得部15が取得する行動情報または行動情報記憶部16が記憶する行動情報によって、分析される利用者の行動に基づいて関心情報を取得する。関心情報は、一つは関心の有無を表し、一つは関心度の高さを表す。関心度の高さは、利用者の興味方向にあるエリアに付される属性への興味を示した期間、および滞在時間のいずれかまたは両方を要素として分析される。関心情報取得部20は、各利用者に各階床からの情報が追加される都度、情報を追加する。関心情報取得部20は、更新された情報をもとに分析した結果の関心度の高さを、優先順に都度ソートする。
 関心情報記憶部21は、情報を記憶する部分である。関心情報記憶部21において、利用者ごとに関心情報が記憶される。この例において、関心情報記憶部21は、利用者に固有な識別情報に、当該利用者の関心情報、当該関心情報が取得された時刻および場所の情報、ならびに当該関心情報に基づく行先の提示の可否を関連付けて記憶する。この例において、行先の提示の可否の初期値は、提示可である。
 行先提示部22は、関心情報記憶部21が記憶する関心情報に基づいて、利用者に行先を提示する機能を搭載する。行先提示部22は、例えば、利用者の関心度の高い属性を有するエリアを行先として当該利用者に提示する。行先提示部22が提示する行先の情報は、例えば行先の属性、行先を含む階床である行先階、または利用者の現在の位置から行先までの経路などを含む。行先提示部22は、例えば映像によって利用者への提示を行う。行先提示部22が表示する映像は、例えば文字、静止画、または画像などを含む。映像は、例えばディスプレイなどの表示機器、プロジェクタなどの投影機器などによって表示される2次元の映像であってもよい。あるいは、映像は、3次元表示された空間映像であってもよい。映像は、例えばエレベーター3のかご7の内部、もしくはエレベーター3の乗場、エスカレーター4の乗降口、または階段5の乗降口などにおいて表示される。また、表示機器は、例えば行先を示すライト、液晶ディスプレイ、有機ELディスプレイ(有機EL:Organic Electro-Luminescence)、発光フィルム、LED表示機(LED:Light Emitting Diode)、プロジェクタ、または立体(3D)表示機などであってもよい。あるいは、行先提示部22は、例えば音声によって利用者への提示を行ってもよい。スピーカーなどの音声を発する機器は、例えばエレベーター3のかご7の内部、もしくはエレベーター3の乗場、エスカレーター4の乗降口、または階段5の乗降口などに配置される。
 呼び登録部23は、行先提示部22が提示した行先階への呼びを、当該利用者が利用を開始するエレベーター3に登録する機能を搭載する。ここで、呼び登録部23は、利用者に提示した行先階への呼びの登録の有無を、提示に対する利用者の行動、すなわち、滞在時間、関心の有無、および関心度の高さの一部または全部を要素として分析された優先順に応じて判定してもよい。呼び登録部23は、例えば利用者がかご7に乗車したエレベーター3に当該呼びを登録する。呼び登録部23が群管理装置11の外部の装置である場合に、呼び登録部23は、当該呼びを登録させる制御情報を群管理装置11に入力してもよい。
 図2は、実施の形態1に係るかご操作盤10の例を示す図である。
 かご操作盤10は、表示パネル10aと、複数の行先ボタン10bと、を備える。表示パネル10aは、かご7の内部に乗車している利用者に情報を表示する表示機器である。表示パネル10aは、例えばかご7の走行方向および現在階床などを表示する。各々の行先ボタン10bは、いずれかの階床に対応する。各々の行先ボタン10bは、対応する階床を行先階として指定する操作を受け付けるボタンである。各々の行先ボタン10bは、例えば利用者によって操作されたときなどに点灯する図示されない発光機器を有する。この例において、発光機器は、発光の輝度、色調、点滅の有無、および点滅のスピードなどが可変な機器である。
 図3は、実施の形態1に係る階床におけるエリアの例を示す図である。
 図3において、いずれかの階床におけるフロアマップが示される。
 図3に示される階床において、各々が店舗である複数のエリアが含まれる。いずれかのエリアは、品物P1および品物P2を扱うP店である。いずれかのエリアは、品物Q1および品物Q2を扱うQ店である。いずれかのエリアは、サービスR1およびサービスR2を提供するR店である。
 このとき、属性記憶部13は、P店のエリアの属性として、例えば店名「P店」および品名「P1」ならびに「P2」などを記憶する。品物P1および品物P2が食料品であり、P店が食料品店である場合に、属性記憶部13は、当該エリアの属性として、例えば店舗の種類「食料品店」および品物の種類「食料品」を記憶していてもよい。
 図4Aから図4Cは、実施の形態1に係るカメラ12の配置の例を示す図である。
 図4Aに示されるように、いずれかのカメラ12は、エレベーター3のかご7の内部に配置される。当該カメラ12は、例えば壁の上部または天井などに取り付けられる。当該カメラ12は、例えばかご7の内部に乗り込む利用者の顔を撮影できる位置に配置される。また、いずれかのカメラ12は、エレベーター3の乗場に配置される。当該カメラ12は、例えば壁の上部または天井などに取り付けられる。
 図4Bに示されるように、いずれかのカメラ12は、エスカレーター4の乗降口に配置される。あるいは、いずれかのカメラ12は、エスカレーター4の乗降口の手前の傾斜部の壁面などに配置されてもよい。当該カメラ12は、例えば壁の上部または天井などに取り付けられる。当該カメラ12は、乗降口に設けられたポールなどに取り付けられていてもよい。
 図4Cに示されるように、いずれかのカメラ12は、階段5の乗降口に配置される。あるいは、いずれかのカメラ12は、階段5の乗降口の手前の傾斜部の壁面などに配置されてもよい。当該カメラ12は、例えば壁の上部または天井などに取り付けられる。当該カメラ12は、乗降口に設けられたポールなどに取り付けられていてもよい。
 続いて、図5を用いて行動情報の例を説明する。
 図5Aから図5Eは、実施の形態1に係る行動情報取得部15が取得する行動情報の例を示す図である。
 行動情報取得部15は、例えば利用者特定部14が利用者の特定に用いた画像から、当該利用者の特徴量を抽出する。行動情報取得部15は、利用者特定部14が抽出した特徴量を利用してもよい。利用者の特徴量は、例えば顔の鼻、耳、目、口、頬、顎、および、首、ならびに両肩などの特徴点の位置についての情報を含む。行動情報取得部15は、抽出した特徴量に基づいて利用者の行動情報を取得する。この例において、行動情報取得部15は、利用者の行動情報に含まれる当該利用者の配置の情報として、興味方向情報を含む情報を取得する。ここで、行動情報取得部15は、利用者特定部14に特定された利用者を追跡することによって当該利用者の行動情報を継続して取得する。行動情報取得部15は、特定された利用者の位置を例えば動体追跡などの手法によって追跡してもよい。行動情報取得部15は、利用者を追跡することによって、移動により画像に映らなくなった利用者の行動情報を継続して取得してもよい。
 興味方向情報は、利用者の関心を示す向きの情報の例である。興味方向情報は、利用者の少なくとも両肩および鼻の3つの特徴量を用いて表される情報である。興味方向情報は、必要に応じてこの他の特徴量を用いて表されてもよい。興味方向情報において、利用者の興味方向の向きは、両肩の位置を結ぶ線分の中点から鼻の位置に向く方向として表される。ここで、興味方向情報に用いられる特徴量としての利用者の鼻は、マスクなどで覆われているか否か、すなわち、画像において利用者の裸の鼻そのものが映っているか否かに関わらず、鼻の特徴量が捉えられていればよい。また、興味方向情報に用いられる特徴量としての利用者の肩は、衣服などで覆われているか否か、すなわち、画像において利用者の裸の肩そのものが映っているか否かに関わらず、肩の特徴量が捉えられていればよい。耳、目、口、頬、顎、および、首などの器官についての他の特徴量においても同様に、画像において利用者の裸の器官そのものが映っているか否かに関わらず、当該器官の特徴量が捉えられていればよい。また、興味方向情報は、例えば、利用者の骨格情報を用いて得られる両肩および鼻の特徴量を用いて表されてもよい。また、興味方向情報は、骨格情報を用いて得られるこの他の特徴量を用いて表されてもよい。
 図5Aにおいて、上方から見た利用者の画像の例が示される。このように、利用者の関心を示す向きは、当該利用者の画像に基づいて取得される興味方向情報によって表される。図5Bにおいて、顔の向きと体の向きとが一致しない場合の画像の例が示される。このように、利用者の関心を示す向きは、利用者の両肩の位置を結ぶ線分の中点から鼻に向かう方向の延長線上となる。図5Cにおいて、後方から見た利用者の画像の例が示される。行動情報取得部15は、利用者の鼻が画像に映っていない場合に、取得済みの画像情報から画像補完して鼻を補ってもよい。あるいは、行動情報取得部15は、他の特徴点などに基づいて鼻の位置を推定してもよい。あるいは、行動情報取得部15は、複数のカメラ12が撮影する画像を合成することで鼻の位置を特定してもよい。行動情報取得部15は、これらの複数の方法のいずれか1つまたはこれらの複数の方法の組み合わせなどによって、鼻の位置を特定する。このように、利用者の関心を示す向きは、両肩の位置を結ぶ線分の中点から鼻の位置に向く方向の延長線上として表される。図5Dにおいて、側方から見た利用者の画像の例が示される。行動情報取得部15は、利用者の一方の肩が画像に映っていない場合に、取得済みの画像情報から画像補完して他方の肩を補ってもよい。あるいは、行動情報取得部15は、他の特徴点などに基づいて、画像に映っていない肩の位置を推定してもよい。あるいは、行動情報取得部15は、複数のカメラ12が撮影する画像を合成することで両肩の位置を特定してもよい。行動情報取得部15は、これらの複数の方法のいずれか1つまたはこれらの複数の方法の組み合わせなどによって、両肩の位置を特定する。このように、利用者の関心を示す向きは、両肩の位置を結ぶ線分の中点から鼻の位置に向く方向の延長線上として表される。
 図5Eに示されるように、利用者の関心を示す向きの情報は、例えば行動情報取得部15に搭載されたAIによる画像処理などによって抽出されてもよい。AIによる画像処理は、例えば画像を入力とした機械学習の手法による処理などである。機械学習の手法によって、利用者の画像から行動情報を導出するモデルが学習される。行動情報取得部15は、学習したモデルに基づいて利用者の画像から行動情報を取得する。行動情報取得部15は、例えば、利用者の画像および当該画像から得られる興味方向情報の組を教師データとする教師あり学習を行ってもよい。ここで、画像から得られる興味方向情報は、例えば両肩および鼻の位置から得られる興味方向情報であってもよい。このとき、行動情報取得部15は、学習の結果に基づいて、利用者の画像を入力として興味方向情報を出力する。行動情報取得部15は、深層学習などによって画像の特徴量を抽出してもよい。図5Eにおいて、画像の特徴量の重要度の例が色の濃淡で示される。あるいは、行動情報取得部15は、教師なし学習、または強化学習などの他の機械学習の手法によって利用者の関心を示す向きの情報を画像から抽出してもよい。
 続いて、図6を用いて到着階の判定の例を説明する。
 図6は、実施の形態1に係る階床判定部19による判定の例を示す表である。
 図6において、1階から上昇運転するエレベーター3を利用した利用者の到着階の判定の例が示される。この例において、当該エレベーター3は、1階まで下降運転した後に、1階からの上昇運転を開始する。なお、他の階床から上昇運転する場合、および下降運転する場合においても到着階は同様に判定される。
 1階から4階に移動する利用者Aは、1階の乗場操作盤9の操作によってエレベーター3に呼びを登録する。その後、利用者Aは、1階に到着した当該エレベーター3のかご7に乗車する。かご7に乗車した利用者Aは、かご操作盤10の操作によって4階を行先階として指定する。
 エレベーター3のかご7が1階を出発したときに、利用者特定部14は、かご7の内部のカメラ12が撮影する画像に基づいて、かご7の内部に乗車している利用者を特定する。この例において、利用者Aのみがかご7に乗車している。このとき、利用者特定部14は、かご7の内部に乗車している利用者として、利用者Aを特定する。昇降設備判定部17は、利用者Aの利用する昇降設備は当該エレベーター3であると判定する。階床判定部19は、直前に停止した階床を出発したときにかご7の内部に乗車していた利用者と、1階を出発したときにかご7の内部に乗車していた利用者とを比較して、利用者の出発階および到着階を判定する。このとき、かご7が直前に停止した階床は、下降運転中に停止した1階より上方のいずれかの階床である。階床判定部19は、直前に停止した階床を出発するときにかご7に乗車しておらず、かご7が1階を出発するときに乗車していた利用者Aの出発階を1階と判定する。
 昇降設備判定部17が利用者Aの利用する昇降設備を判定するときに、整合処理部18は、利用者Aについての整合を取る整合処理を行う。例えば、利用者Aが他の昇降設備を既に同一時刻に重複して利用していると昇降設備判定部17が判定している場合に、整合処理部18は、誤って同一の利用者として特定していた複数の利用者を、互いに異なる利用者として利用者特定部14に特定させる。利用者特定部14は、互いに異なる利用者として特定するときに、取得済みの画像の中から利用者の特徴量の差を抽出して、利用者の特定の確度を向上させ、互いに異なる利用者の特定を再確定する。整合処理部18は、他の利用者についても同様に整合処理を行う。
 2階から5階に移動する利用者Bは、2階の乗場操作盤9の操作によってエレベーター3に呼びを登録する。その後、利用者Bは、2階に到着した当該エレベーター3のかご7に乗車する。かご7に乗車した利用者Bは、かご操作盤10の操作によって5階を行先階として指定する。2階から4階に移動する利用者Cは、当該エレベーター3の2階の乗場に到着する。利用者Bによって2階の乗場操作盤9から既に呼びが登録されているため、乗場に到着した利用者Cは、乗場操作盤9において行先階を登録する操作を行わない。また、利用者Cは、行先階を登録する操作を受け付けるスマートフォン、カード、またはタグなどの携帯端末を持っていなくてもよい。その後、利用者Cは、2階に到着した当該エレベーター3のかご7に乗車する。利用者Aによって4階が行先階として既に指定されているため、かご7に乗車した利用者Cは、かご操作盤10において行先階を登録する操作を行わない。
 エレベーター3のかご7が2階を出発したときに、利用者特定部14は、かご7の内部のカメラ12が撮影する画像に基づいて、かご7の内部に乗車している利用者を特定する。この例において、利用者A、利用者B、および利用者Cがかご7に乗車している。このとき、利用者特定部14は、かご7の内部に乗車している利用者として、利用者A、利用者B、および利用者Cを特定する。昇降設備判定部17は、利用者Bの利用する昇降設備は当該エレベーター3であると判定する。階床判定部19は、直前に停止した階床である1階を出発したときにかご7の内部に乗車していた利用者と、2階を出発したときにかご7の内部に乗車していた利用者とを比較して、利用者の出発階および到着階を判定する。階床判定部19は、かご7が1階を出発するときに乗車しておらず、かご7が2階を出発するときに乗車していた利用者Bおよび利用者Cの出発階を2階と判定する。
 3階から6階に移動する利用者Dは、3階の乗場操作盤9の操作によってエレベーター3に呼びを登録する。その後、利用者Aは、3階に到着した当該エレベーター3のかご7に乗車する。かご7に乗車した利用者Dは、かご操作盤10の操作によって6階を行先階として指定する。
 エレベーター3のかご7が3階を出発したときに、利用者特定部14は、かご7の内部のカメラ12が撮影する画像に基づいて、かご7の内部に乗車している利用者を特定する。この例において、利用者A、利用者B、利用者C、および利用者Dがかご7に乗車している。このとき、利用者特定部14は、かご7の内部に乗車している利用者として、利用者A、利用者B、利用者C、および利用者Dを特定する。昇降設備判定部17は、利用者Dの利用する昇降設備は当該エレベーター3であると判定する。階床判定部19は、直前に停止した階床である2階を出発するときにかご7の内部に乗車していた利用者と、3階を出発するときにかご7の内部に乗車していた利用者とを比較して、利用者の出発階および到着階を判定する。階床判定部19は、かご7が2階を出発するときに乗車しておらず、かご7が3階を出発するときに乗車していた利用者Dの出発階を3階と判定する。
 利用者Aおよび利用者Cは、4階でエレベーター3のかご7から降車する。
 エレベーター3のかご7が4階を出発したときに、利用者特定部14は、かご7の内部のカメラ12が撮影する画像に基づいて、かご7の内部に乗車している利用者を特定する。この例において、利用者B、および利用者Dがかご7に乗車している。このとき、利用者特定部14は、かご7の内部に乗車している利用者として、利用者B、および利用者Dを特定する。階床判定部19は、直前に停止した階床である3階を出発するときにかご7の内部に乗車していた利用者と、4階を出発するときにかご7の内部に乗車していた利用者とを比較して、利用者の出発階および到着階を判定する。階床判定部19は、かご7が3階を出発するときに乗車しており、かご7が4階を出発するときに乗車していなかった利用者Aおよび利用者Cの到着階を4階と判定する。このように、乗場操作盤9およびかご操作盤10、ならびに、スマートフォン、カード、またはタグなどの携帯端末において行先階を登録する操作を行っていない利用者Cについても、案内システム1は、かご7の内部のカメラ12が撮影する画像に基づいて、出発階および到着階の情報を取得できる。
 利用者Bは、5階でエレベーター3のかご7から降車する。
 エレベーター3のかご7が5階を出発するときに、利用者特定部14は、かご7の内部のカメラ12が撮影する画像に基づいて、かご7の内部に乗車している利用者を特定する。この例において、利用者Dのみがかご7に乗車している。このとき、利用者特定部14は、かご7の内部に乗車している利用者として、利用者Dのみを特定する。階床判定部19は、直前に停止した階床である4階を出発するときにかご7の内部に乗車していた利用者と、5階を出発するときにかご7の内部に乗車していた利用者とを比較して、利用者の出発階および到着階を判定する。階床判定部19は、かご7が4階を出発するときに乗車しており、かご7が5階を出発するときに乗車していなかった利用者Bの到着階を5階と判定する。
 利用者Dは、6階でエレベーター3のかご7から降車する。
 エレベーター3のかご7が6階を出発するときに、利用者特定部14は、かご7の内部のカメラ12が撮影する画像に基づいて、かご7の内部に乗車している利用者を特定する。この例において、かご7に利用者は乗車していない。このとき、利用者特定部14は、かご7の内部に乗車している利用者として、いずれの利用者も特定しない。階床判定部19は、直前に停止した階床である5階を出発するときにかご7の内部に乗車していた利用者と、6階を出発するときにかご7の内部に乗車していた利用者とを比較して、利用者の出発階および到着階を判定する。階床判定部19は、かご7が5階を出発するときに乗車しており、かご7が6階を出発するときに乗車していなかった利用者Dの到着階を6階と判定する。
 続いて、図7を用いて到着階の判定の他の例を説明する。
 図7Aから図7Fは、実施の形態1に係る階床判定部19による判定の例を示す図である。
 図7において、上昇運転する複数のエスカレーター4を乗り継いで利用した利用者の到着階の判定の例が示される。なお、上昇運転する1つのエスカレーター4が利用される場合、および下降運転する1つまたは複数のエスカレーター4が利用される場合においても到着階は同様に判定される。また、階段5が利用される場合においても到着階は同様に判定される。
 図7Aに示されるように、1階から4階に移動する利用者Aは、1階と2階の間を上昇運転するエスカレーター4に1階から乗って移動する。
 2階の降り口に設けられたカメラ12が撮影する範囲にエスカレーター4に乗っている利用者Aが入るときに、すなわち、当該カメラ12に利用者Aがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Aを特定する。昇降設備判定部17は、利用者Aの利用する昇降設備は当該エスカレーター4であると判定する。階床判定部19は、利用者Aの出発階を当該エスカレーター4の乗り口が設けられた1階と判定する。
 図7Bに示されるように、利用者Aは、2階と3階の間を上昇運転するエスカレーター4に2階で乗り継いで移動する。2階から5階に移動する利用者Bは、2階と3階の間を上昇運転するエスカレーター4に2階から乗って移動する。2階から4階に移動する利用者Cは、2階と3階の間を上昇運転するエスカレーター4に2階から乗って移動する。
 3階の降り口に設けられたカメラ12に利用者Aがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Aを特定する。2階の降り口に設けられたカメラ12によって利用者Aが特定されてから、予め設定された時間が経過する前に3階の降り口に設けられたカメラ12によって利用者Aが特定されるときに、階床判定部19は、利用者Aが2階でエスカレーター4を乗り継いだと判定する。
 3階の降り口に設けられたカメラ12に利用者Bがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Bを特定する。昇降設備判定部17は、利用者Bの利用する昇降設備は当該エスカレーター4であると判定する。階床判定部19は、利用者Bの出発階を当該エスカレーター4の乗り口が設けられた2階と判定する。
 3階の降り口に設けられたカメラ12に利用者Cがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Cを特定する。昇降設備判定部17は、利用者Cの利用する昇降設備は当該エスカレーター4であると判定する。階床判定部19は、利用者Cの出発階を当該エスカレーター4の乗り口が設けられた2階と判定する。
 図7Cに示されるように、利用者Aは、3階と4階の間を上昇運転するエスカレーター4に3階で乗り継いで移動する。利用者Bは、3階と4階の間を上昇運転するエスカレーター4に3階で乗り継いで移動する。利用者Cは、3階と4階の間を上昇運転するエスカレーター4に3階で乗り継いで移動する。3階から6階に移動する利用者Dは、3階と4階の間を上昇運転するエスカレーター4に3階から乗って移動する。
 4階の降り口に設けられたカメラ12に利用者Aがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Aを特定する。3階の降り口に設けられたカメラ12によって利用者Aが特定されてから、予め設定された時間が経過する前に4階の降り口に設けられたカメラ12によって利用者Aが特定されるときに、階床判定部19は、利用者Aが3階でエスカレーター4を乗り継いだと判定する。
 4階の降り口に設けられたカメラ12に利用者Bがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Bを特定する。3階の降り口に設けられたカメラ12によって利用者Bが特定されてから、予め設定された時間が経過する前に4階の降り口に設けられたカメラ12によって利用者Bが特定されるときに、階床判定部19は、利用者Bが3階でエスカレーター4を乗り継いだと判定する。
 4階の降り口に設けられたカメラ12に利用者Cがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Cを特定する。3階の降り口に設けられたカメラ12によって利用者Cが特定されてから、予め設定された時間が経過する前に4階の降り口に設けられたカメラ12によって利用者Cが特定されるときに、階床判定部19は、利用者Cが3階でエスカレーター4を乗り継いだと判定する。
 4階の降り口に設けられたカメラ12に利用者Dがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Dを特定する。昇降設備判定部17は、利用者Dの利用する昇降設備は当該エスカレーター4であると判定する。階床判定部19は、利用者Dの出発階を当該エスカレーター4の乗り口が設けられた3階と判定する。
 図7Dに示されるように、利用者Aは、4階の降り口からエスカレーター4を降りる。利用者Bは、4階と5階の間を上昇運転するエスカレーター4に4階で乗り継いで移動する。利用者Cは、4階の降り口からエスカレーター4を降りる。利用者Dは、4階と5階の間を上昇運転するエスカレーター4に4階で乗り継いで移動する。
 4階の降り口に設けられたカメラ12によって利用者Aが特定されてから、予め設定された時間が経過しても5階の降り口に設けられたカメラ12によって利用者Aが特定されないときに、階床判定部19は、利用者Aの到着階を4階と判定する。
 5階の降り口に設けられたカメラ12に利用者Bがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Bを特定する。4階の降り口に設けられたカメラ12によって利用者Bが特定されてから、予め設定された時間が経過する前に5階の降り口に設けられたカメラ12によって利用者Bが特定されるときに、階床判定部19は、利用者Aが4階でエスカレーター4を乗り継いだと判定する。
 4階の降り口に設けられたカメラ12によって利用者Cが特定されてから、予め設定された時間が経過しても5階の降り口に設けられたカメラ12によって利用者Cが特定されないときに、階床判定部19は、利用者Cの到着階を4階と判定する。
 5階の降り口に設けられたカメラ12に利用者Dがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Dを特定する。4階の降り口に設けられたカメラ12によって利用者Dが特定されてから、予め設定された時間が経過する前に5階の降り口に設けられたカメラ12によって利用者Dが特定されるときに、階床判定部19は、利用者Dが4階でエスカレーター4を乗り継いだと判定する。
 図7Eに示されるように、利用者Bは、5階の降り口からエスカレーター4を降りる。利用者Dは、5階と6階の間を上昇運転するエスカレーター4に5階で乗り継いで移動する。
 5階の降り口に設けられたカメラ12によって利用者Bが特定されてから、予め設定された時間が経過しても6階の降り口に設けられたカメラ12によって利用者Bが特定されないときに、階床判定部19は、利用者Bの到着階を6階と判定する。
 6階の降り口に設けられたカメラ12に利用者Dがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Dを特定する。5階の降り口に設けられたカメラ12によって利用者Dが特定されてから、予め設定された時間が経過する前に6階の降り口に設けられたカメラ12によって利用者Dが特定されるときに、階床判定部19は、利用者Dが5階でエスカレーター4を乗り継いだと判定する。
 図7Fに示されるように、利用者Dは、6階の降り口からエスカレーター4を降りる。
 6階の降り口に設けられたカメラ12によって利用者Bが特定されてから、予め設定された時間が経過してもエスカレーター4の降り口に設けられたカメラ12によって利用者Dが特定されないときに、階床判定部19は、利用者Bの到着階を6階と判定する。
 なお、エスカレーター4において利用者の乗降は利用者ごとのタイミングで行われるため、階床判定部19は、利用者ごとに乗降の状態の情報を管理する。
 また、図7を用いてエスカレーター4の利用者の到着階の判定の例を説明したが、階段5の利用者の到着階の判定も同様に行われる。エスカレーター4の利用者は歩かずに階床間を移動できるが、階段5の利用者は歩いて階床間を移動する点に違いがある。エスカレーター4の利用者および階段5の利用者について、利用者特定部14による利用者の特定、整合処理部18による利用者の排他処理、ならびに、カメラ12による昇降設備の利用開始階および利用終了階の判定などは、処理の流れを含めて同様に行われる。
 続いて、図8および図9を用いて到着階における行動情報の取得の例を説明する。また、図10を用いて到着階における関心情報の取得の例を説明する。
 図8、図9A、および図9Bは、実施の形態1に係る案内システム1による行動情報の取得の例を示す図である。
 図10Aから図10Cは、実施の形態1に係る案内システム1による関心情報の取得の例を示す図である。
 図8、図9、および図10に示される到着階の俯瞰マップは、例えば到着階に設けられた複数のカメラ12が撮影する画像に基づいて生成される。俯瞰マップは、例えば到着階を撮影した複数の同一時刻の画像が平面上に貼り合わせられ、重なる画像の周辺部に矛盾が生じないように合成された画像である。このとき、俯瞰マップは、不可視領域を含んでもよい。不可視領域は、いずれのカメラ12からも撮影できない領域である。不可視領域は、例えばエレベーター3のかご7が到着階から移動した後の昇降路の内部、到着階に設けられたトイレ、または、利用者が利用しないことが分かっている範囲など、であってもよい。俯瞰マップは、例えば夜間または早朝などの利用者がいない時間に取得された画像に基づいて予め生成される。俯瞰マップは、例えば一日に一回更新されてもよいし、適宜更新されてもよい。俯瞰マップの生成に用いられる画像は、利用者が映りこむ可能性があるため、到着階における複数のカメラ12によって同一時刻に撮影されることが望ましいが、俯瞰マップは必ずしも全て同一時刻の画像から生成されたものでなくてもよい。俯瞰マップは、利用者が映りこんでいない、異なる時刻に撮影された複数の画像から生成されてもよい。
 図8において、エレベーター3を利用して到着階に到着した利用者の例が示される。
 行動情報取得部15は、例えば利用者が到着階に到着したときに、行動情報の取得を開始する。行動情報取得部15は、例えば階床判定部19はいずれかの利用者の到着階を判定したときに、当該利用者が到着階に到着したと判定する。行動情報取得部15は、利用者が到着階に到着したときに、到着階の俯瞰マップを取得する。
 この例において、行動情報取得部15は、画像に基づいて取得した利用者の少なくとも両肩および鼻の3つの特徴量を用いて表される情報を俯瞰マップ上に配置する。これにより、到着階における利用者の俯瞰マップ上の座標が取得される。行動情報取得部15は、このように取得した情報を利用者の配置を表す情報として、時系列データとしての行動情報に追加する。
 その後、予め設定された時間間隔が経過した後に、行動情報取得部15は、利用者の配置を表す情報を新たに取得する。行動情報取得部15は、新たに取得した情報を時系列データとしての行動情報に追加する。このように、行動情報取得部15は、利用者の行動情報を継続的に更新する。
 図9Aに示されるように、利用者がトイレなどの不可視領域にフレームアウトするときに、行動情報取得部15は、フレームアウトしてからの経過時間の計時を開始する。この間、行動情報取得部15は、当該利用者についての行動情報の取得を休止する。その後、図9Bに示されるように、フレームアウトしてから予め設定された時間が経過する前に利用者が不可視領域からフレームインするときに、行動情報取得部15は、当該利用者の行動情報の取得を継続する。
 行動情報取得部15は、利用者が到着階から他の階床へ移動したときに、エレベーター3のかご7の内部のカメラ12、エスカレーター4のカメラ12、階段5のカメラ12、および当該他の階床の複数のカメラ12と連携して利用者の移動を特定する。ある階床の移動途中で利用者がフレームアウトしてから予め設定された時間が経過し、かつ、複数のカメラ12による連携から外れた場合に、行動情報取得部15は、例えば最後にフレームアウトした時刻および場所を記録する。このとき、行動情報取得部15は、必要に応じて、俯瞰マップ上の場所を表示して、警報などによって注意喚起してもよい。
 行動情報記憶部16は、行動情報取得部15によって取得された行動情報を利用者ごとに記憶する。行動情報記憶部16は、同一の利用者についての複数の行動情報を蓄積して記憶する。
 関心情報取得部20は、行動情報取得部15が利用者の到着階における行動情報の取得を完了するたびに、当該利用者の関心情報を取得する。
 図10Aに示されるように、関心情報取得部20は、到着階の行動情報に含まれる利用者の配置を表す情報を到着階の俯瞰マップに重ね合わせる。この例において、関心情報取得部20は、時系列データとしての行動情報に含まれる、少なくとも両肩および鼻の3つの特徴量の座標3点からなる三角形と、両肩2点を結ぶ線分の中点から鼻に向けた方向とを到着階の俯瞰マップに重ね合わせる。
 図10Bに示されるように、関心情報取得部20は、時系列データとしての行動情報に含まれる、両肩2点を結ぶ線分の中点から鼻に向けた方向の延長線上にあるエリアおよび属性を特定して取得する。関心情報取得部20は、各々の興味方向情報において表される利用者の向きを利用者の前方に延長する。関心情報取得部20は、利用者の前方に延長した複数の半直線の交点を検出する。関心情報取得部20は、交点の集中しているエリアおよび属性を利用者の関心度の高い範囲として特定する。このとき、関心情報取得部20は、例えば交点の密度に応じた利用者の関心度の高さの情報を当該利用者の関心情報に含めてもよい。関心情報取得部20は、利用者の関心度の高い範囲として特定したエリアの属性を属性記憶部13から読み込む。関心情報取得部20は、読み込んだ属性を当該利用者の関心度の高い属性として関心情報に含める。このとき、関心情報取得部20は、読み込んだ属性と利用者の関心度の高さの情報を関連付けて取得する。
 図10Cに示されるように、関心情報取得部20は、俯瞰マップ上の興味方向情報を結ぶことで利用者の軌跡を生成する。関心情報取得部は、俯瞰マップ上の利用者の軌跡の各点に、その位置に利用者がいた時刻を重ねる。このように生成された軌跡をたどると、時間の点が密になる場所が現れることがある。このような場所が滞在時間の長い場所に当たる。関心情報取得部20は、利用者の滞在時間が長い場所を、当該利用者の関心情報の要素として含めてもよい。
 関心情報記憶部21は、関心情報取得部20によって取得された関心情報を利用者ごとに記憶する。関心情報記憶部21は、既に関心情報を記憶している利用者についての関心情報を関心情報取得部20が取得する場合に、記憶している関心情報を更新してもよい。例えば、関心情報記憶部21は、関心情報取得部20が算出した属性ごとの関心度の高さの情報を、記憶している属性ごとの関心度の高さの情報に加算してもよい。各々の利用者について関心情報が逐次的に更新されることで、関心情報記憶部21が記録している関心情報の精度がより高められる。
 続いて、図11および図12を用いて利用者への行先の提示の例を説明する。
 図11Aおよび図11B、ならびに図12Aおよび図12Bは、実施の形態1に係る案内システム1による行先の提示の例を示す図である。
 図11において、案内システム1が適用される建物2の例が示される。
 図11Aにおいて、ある日の建物2が示される。この建物2において、品物P1および品物P2を扱うP店が4階のエリアに出店している。また、品物Q1および品物Q2を扱うQ店が3階のエリアに出店している。また、サービスR1およびサービスR2を提供するR店が2階のエリアに出店している。
 この日までの間に、案内システム1は、利用者A、利用者B、利用者Cの関心情報を取得している。関心情報記憶部21は、利用者Aについて、最も高い関心度の属性として品物P1を記憶している。関心情報記憶部21は、利用者Bについて、最も関心度の高い属性としてQ店を記憶している。関心情報記憶部21は、利用者Cについて、最も関心度の高い属性としてサービスR2を記憶している。
 図11Bにおいて、後日の同一の建物2が示される。この日までの間に、品物P1を扱うP店が2階のエリアに移転している。また、R店が撤退している。また、サービスS1およびサービスR2を提供するS店が4階のエリアに出店している。
 この日に建物2を再び訪れた利用者Aは、1階に設けられた複数のカメラ12、または乗車したエレベーター3のかご7内のカメラ12が撮影する画像によって利用者特定部14に特定される。このとき、行先提示部22は、利用者Aについての関心情報を関心情報記憶部21から読み込む。この例の行先提示部22は、最も関心度の高い属性のエリアを利用者に行先として提示する。すなわち、最も関心度の高い属性のエリアが優先して提示される。このため、行先提示部22は、利用者Aの最も関心度の高い属性として、品物P1を取得する。行先提示部22は、属性記憶部13から属性として品物P1を有するエリアを抽出する。この例において、行先提示部22は、移転後のP店が出店している2階のエリアを抽出する。行先提示部22は、抽出したエリアを行先として利用者Aに提示する。
 また、この日に建物2を再び訪れた利用者Bは、1階に設けられた複数のカメラ12、または乗車後の降車前に撮影されるエスカレーター4の降り口のカメラ12が撮影する画像によって利用者特定部14に特定される。このとき、利用者Aに対する提示と同様に、行先提示部22は、関心情報に基づいてQ店が出店している3階のエリアを行先として提示する。また、この日に建物2を再び訪れた利用者Cは、1階に設けられた複数のカメラ12、または階段5の利用開始後の到着階への到着前に撮影される階段5のカメラ12が撮影する画像によって利用者特定部14に特定される。このとき、利用者Aに対する提示と同様に、行先提示部22は、関心情報に基づいてサービスR2を提供するS店が出店している4階のエリアを行先として提示する。
 なお、エスカレーター4または階段5を利用する利用者に対して、行先提示部22は、例えば映像または音声によって、行先のエリアが含まれる行先階および行先のエリアまでの経路を提示する。このとき、行先提示部22は、利用者の行先の抽出に用いた当該利用者の最も関心度の高い属性を併せて利用者に提示してもよい。行先提示部22は、例えば利用者Bに対して「Q店は3階の降り口の左側です」などの情報を提示してもよい。また、行先提示部22は、例えば利用者Cに対して「サービスR2を提供するS店は4階の降り口の正面です」などの情報を提示してもよい。これにより、利用者の名前などの個人情報を用いることなく、利用者に対する行先の提示を行うことができる。
 図12において、かご操作盤10を通じた行先の提示の例が示される。この例において、かご7に乗車した利用者Aに対して、2階が行先階として提示される。なお、図12においてかご操作盤10を利用する場合の例が示されるが、利用者が携帯するスマートフォンなどの携帯端末がエレベーター3と直接または間接的に通信可能な場合に、かご操作盤10において行われる場合と同様に、利用者への注意喚起、呼びの登録、および案内などが携帯端末を通じて行われてもよい。
 図12Aに示されるように、行先提示部22は、2階に対応する行先ボタン10bの発光機器を点滅させることで、利用者Aに行先階の2階を登録する前の案内の注意喚起を提示する。このとき、行先提示部22は、表示パネル10aなどの表示機器に「品物P1を扱うP店は2階です」などの映像を併せて表示させてもよい。また、行先提示部22は、表示パネル10aなどの表示機器の内蔵スピーカーなどに、音声による案内を併せて提示させてもよい。ここで、例えば発光機器の点滅による提示を開始してから予め設定された時間が経過したときに、呼び登録部23は、提示した階床を行先階とする呼びを利用者Aが乗車しているエレベーター3に自動登録する。このとき、いずれの行先ボタン10bも操作されていなくてもよい。呼びが自動登録された直後に、行先提示部22は、2階に対応する行先ボタン10bの発光機器の点滅による行先階の案内の提示を終了する。また、例えば行先ボタン10bが操作されて呼びが登録された直後に、行先提示部22は、2階に対応する行先ボタン10bの発光機器の点滅による行先階の案内の提示を終了する。
 その後、図12Bに示されるように、行先階として指定された階床に対応する行先ボタン10bの発光機器が点灯する。このとき、呼びの登録が確定する。例えば行先提示部22が提示した行先階に対応する行先ボタン10bが操作された場合に、当該行先階にかご7が停止したときに、行先提示部22は、「P店はエレベーター3をこの階で降りて右側です」などの情報を示す映像または音声などの案内を提示してもよい。
 なお、行先提示部22は、提示した行先階ではない他の階床に対応する行先ボタン10bが操作されるときに、行先の提示を継続してもよい。あるいは、例えばかご7に乗車している利用者が一人である場合などに、行先提示部22は、提示した行先階ではない他の階床に対応する行先ボタン10bが操作されるときに、行先の提示を終了してもよい。
 また、行先提示部22は、行先ボタン10bの発光機器の点滅によらずに行先階の提示を行ってもよい。行先提示部22は、例えば行先階に対応する行先ボタン10bの発光機器の輝度の変化、または当該発光機器の色調の変化などによって行先階を利用者に提示してもよい。
 続いて、図13から図15を用いて、案内システム1の動作の例を説明する。
 図13、図14、図15A、および図15Bは、実施の形態1に係る案内システム1の動作の例を示すフローチャートである。
 図13において、利用者がエレベーター3を利用するときの到着階などの判定に係る案内システム1の動作の例が示される。
 ステップS101において、利用者特定部14は、エレベーター3のかご7のドアが開いているときに当該かご7の内に入る利用者の特定を行う。その後、案内システム1の動作は、ステップS102に進む。
 ステップS102において、エレベーター3のかご7がいずれかの階床を出発するときに、案内システム1の処理は開始する。ここで、かご7がいずれかの階床の出発するときは、例えばかご7のドアが当該階床において閉じたときなどである。その後、案内システム1の動作は、ステップS103に進む。
 ステップS103において、利用者特定部14は、エレベーター3のかご7の内部に乗車している利用者の特定を確定する。その後、案内システム1の動作は、ステップS104に進む。
 ステップS104において、利用者特定部14は、かご7の内部に乗車している利用者がいるかを判定する。判定結果がYesの場合に、案内システム1の動作は、ステップS105に進む。判定結果がNoの場合に、利用者特定部14はかご7の内部に利用者が乗車していないとして、案内システム1の動作は、ステップS107に進む。
 ステップS105において、昇降設備判定部17は、利用者特定部14がエレベーター3のかご7において特定した利用者について、利用する昇降設備を当該エレベーター3であると判定する。その後、案内システム1の動作は、ステップS106に進む。
 ステップS106において、整合処理部18は、利用者特定部14が特定した利用者について、整合処理を行う。その後、案内システム1の動作は、ステップS107に進む。
 ステップS107において、階床判定部19は、利用者特定部14による特定の結果に基づいて、エレベーター3のかご7の乗車状況を記憶する。かご7の乗車状況は、例えば当該かご7への利用者の乗車の有無、および利用者が乗っている場合に当該利用者を識別する情報などを含む。その後、案内システム1の動作は、ステップS108に進む。
 ステップS108において、階床判定部19は、ステップS107において記憶した乗車状況と、その直前に記憶した乗車状況とに基づいて、利用者の出発階および到着階を判定する。その後、案内システム1の動作は、ステップS109に進む。
 ステップS109において、エレベーター3のかご7がいずれかの階床に停止した後に、案内システム1の動作は、ステップS101に進む。
 図14において、利用者がエスカレーター4を利用するときの到着階などの判定に係る案内システム1の動作の例が示される。
 ステップS201において、いずれかのエスカレーター4の降り口に設けられたカメラ12に利用者がフレームインするときに、案内システム1の処理は開始する。その後、案内システム1の動作は、ステップS202に進む。
 ステップS202において、利用者特定部14は、エスカレーター4に乗っている利用者の特定を行い、利用者の特定を確定する。その後、案内システム1の動作は、ステップS203に進む。
 ステップS203において、利用者特定部14は、エスカレーター4に乗っている利用者がいるかを判定する。判定結果がYesの場合に、案内システム1の動作は、ステップS204に進む。判定結果がNoの場合に、案内システム1の動作は、ステップS201に進む。
 ステップS204において、階床判定部19は、特定された利用者がエスカレーター4を乗り継いだ利用者かを判定する。階床判定部19は、例えば他のエレベーター3の降り口に配置されたカメラ12から利用者がフレームアウトしてから予め設定された時間が経過していない場合に、当該利用者がエスカレーター4を乗り継いだ利用者であると判定する。判定結果がNoの場合に、案内システム1の動作は、ステップS205に進む。判定結果がYesの場合に、案内システム1の動作は、ステップS208に進む。
 ステップS205において、昇降設備判定部17は、利用者特定部14がエスカレーター4において特定した利用者について、利用する昇降設備を当該エスカレーター4であると判定する。その後、案内システム1の動作は、ステップS206に進む。
 ステップS206において、整合処理部18は、利用者特定部14が特定した利用者について、整合処理を行う。その後、案内システム1の動作は、ステップS207に進む。
 ステップS207において、階床判定部19は、エスカレーター4の乗り口が設けられた階床を利用者の出発階として判定する。その後、案内システム1の動作は、ステップ208に進む。
 ステップS208において、エスカレーター4の降り口に設けられたカメラ12から利用者がフレームアウトするときに、階床判定部19は、利用者がフレームアウトしてからの時間の計時を開始する。その後、案内システム1の動作は、ステップ209に進む。
 ステップS209において、階床判定部19は、タイムアウトしたか、すなわち、利用者がフレームアウトしてから、次のエスカレーター4のカメラ12へのフレームインがなく、かつ、予め設定された時間が経過したかを判定する。判定結果がNoの場合に、案内システム1の動作は、ふたたびステップS209に進む。一方、判定結果がYesの場合に、案内システム1の動作は、ステップ210に進む。なお、タイムアウトする前に利用者が次のエスカレーター4を除く他の降車階床カメラ12にフレームインする場合に、案内システム1の動作は、ステップS210に進んでもよい。
 ステップS210において、階床判定部19は、エスカレーター4の降り口が設けられた階床を利用者の到着階として判定する。その後、案内システム1の動作は、ステップ201に進む。
 なお、利用者が階段5を利用する場合においても、案内システム1は、同様の処理によって到着階などの判定を行う。
 図15において、利用者の到着階における行動情報および関心情報の取得などに係る案内システム1の動作の例が示される。
 図15AのステップS301において、利用者の到着階が判定されるときに、案内システム1の処理は開始する。その後、案内システム1の動作は、ステップS302に進む。
 ステップS302において、利用者特定部14は、到着階の俯瞰マップがあるかを判定する。判定結果がNoの場合に、案内システム1の動作は、ステップS303に進む。判定結果がYesの場合に、案内システム1の動作は、ステップS305に進む。
 ステップS303において、行動情報取得部15は、到着階に配置されたカメラ12から画像の取得を開始する。その後、案内システム1の動作は、ステップS304に進む。
 ステップS304において、行動情報取得部15は、取得した画像から俯瞰マップを生成する。その後、案内システム1の動作は、ステップS305に進む。
 ステップS305において、利用者特定部14は、到着階に到着した利用者を俯瞰マップ上で特定できたかを判定する。判定結果がNoの場合に、案内システム1の動作は、ステップS301に進む。判定結果がYesの場合に、案内システム1の動作は、ステップS306に進む。
 ステップS306において、案内システム1は、ステップS305において特定された利用者について、行動情報および関心情報を取得する。ここで、ステップS305において複数の利用者が特定される場合に、案内システム1は、当該複数の利用者について並列に行動情報および関心情報を取得してもよい。その後、案内システム1の動作は、ステップS301に進む。
 図15Bにおいて、図15AのステップS306の処理の内容の例が示される。
 ステップS401において、行動情報取得部15は、特定済みの利用者の配置の情報を取得する。この例において、行動情報取得部15は、利用者の少なくとも両肩および鼻の3つの特徴量の座標の情報を取得する。行動情報取得部15は、利用者の他の特徴量の座標の情報を取得してもよい。その後、案内システム1の動作は、ステップS402に進む。
 ステップS402において、行動情報取得部15は、利用者が昇降設備にフレームインしたかを判定する。なお、昇降設備へのフレームインは、利用者がいた階床から見るとフレームアウトとなる。判定結果がNoの場合に、案内システム1の動作は、ステップS403に進む。判定結果がYesの場合に、案内システム1の動作は、ステップS405に進む。
 ステップS403において、行動情報取得部15は、利用者が不可視領域または建物2の出入口から外部にフレームアウトしたかを判定する。判定結果がNoの場合に、案内システム1の動作は、ステップS401に進む。判定結果がYesの場合に、案内システム1の動作は、ステップS404に進む。
 ステップS404において、行動情報取得部15は、タイムアウトしたか、すなわち、利用者が不可視領域または建物2の出入口から外部にフレームアウトしてから予め設定された時間が経過したかを判定する。判定結果がNoの場合に、案内システム1の動作は、ステップS401に進む。判定結果がYesの場合に、案内システム1の動作は、ステップS405に進む。
 ステップS405において、行動情報取得部15は、行動情報の取得を完了する。行動情報記憶部16は、取得された行動情報を利用者ごとに時系列データとして記憶する。その後、案内システム1の動作は、ステップS406に進む。
 ステップS406において、関心情報取得部20は、利用者の行動情報に基づいて、当該利用者の関心度の高いエリアを抽出する。その後、案内システム1の動作は、ステップS407に進む。
 ステップS407において、関心情報取得部20は、利用者の関心度の高いエリアの属性を属性記憶部13から参照する。関心情報取得部20は、利用者の関心度の情報および参照した属性の情報に基づいて、関心情報を取得する。関心情報記憶部21は、取得された関心情報を利用者ごとに記憶する。このとき、関心情報記憶部21は、取得された関心情報によって利用者ごとの関心情報を更新してもよい。その後、案内システム1の動作は、ステップS408に進む。
 ステップS408において、案内システム1は、必要に応じて警告音またはアラートなどを出力する。警告音またはアラートなどは、例えば、利用者のフレームインおよびフレームアウトが整合しない場合などに出力される。利用者のフレームインおよびフレームアウトが整合しない場合とは、例えばフレームインした利用者のフレームアウトが判定されない場合、またはフレームインしていない利用者のフレームアウトが判定される場合などである。警告音またはアラートなどの出力が必要ない場合には、ステップS408の処理は省略されてもよい。その後、利用者ごとの行動情報および関心情報の取得に係る案内システム1の動作は、終了する。
 以上に説明したように、実施の形態1に係る案内システム1は、属性記憶部13と、利用者特定部14と、階床判定部19と、行動情報取得部15と、関心情報取得部20と、関心情報記憶部21と、行先提示部22と、を備える。属性記憶部13は、建物2の各々の階床について、エリアごとの属性を記憶する。利用者特定部14は、建物2に設けられた少なくともいずれかのカメラ12が撮影する画像に基づいて、当該建物2において利用者を特定する。階床判定部19は、特定された利用者がいずれかの昇降設備を利用して出発階から到着階まで移動したときに、少なくとも、エレベーター3のかご7の内部のカメラ12、エスカレーター4の降車階のカメラ12、または階段5の利用を終えた階のカメラ12を含む、いずれかのカメラ12が撮影する画像に基づいて当該利用者の到着階を判定する。行動情報取得部15は、特定された利用者について、判定された到着階における当該利用者の行動を表す行動情報を、少なくともいずれかのカメラ12が撮影する画像に基づいて取得する。関心情報取得部20は、特定された利用者について、判定された到着階におけるエリアの配置および当該エリアの属性、ならびに行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する。関心情報記憶部21は、関心情報取得部20が取得した関心情報を利用者ごとに記憶する。行先提示部22は、いずれかの昇降設備の利用を開始する利用者を利用者特定部14が特定するときに、関心度のより高い属性を有するエリアをより優先して当該利用者に行先として提示する。機器先提示部による行先の提示は、当該利用者について関心情報記憶部21が記憶している関心情報および属性記憶部13が記憶している属性の情報に基づいて行われる。
 このような構成により、建物2に設けられたカメラ12が撮影する画像に基づいて利用者の特定、到着階の判定、および行動情報の取得が行われるので、昇降設備の機器を操作しない利用者についても到着階における行動情報が取得される。また、関心情報は、利用者の行動情報に基づいて取得される。このため、昇降設備の機器を操作しない利用者についても、関心情報が取得される。行先提示部22は、このように取得された利用者ごとの関心情報に基づいて行先の提示を行うので、昇降設備を操作しない利用者についても、利用者の関心に基づいた建物2における案内が可能になる。また、これらの処理は撮影された画像に基づいて行われるので、情報端末などを所持していない利用者についても関心情報の取得および行先の案内を行うことができる。また、エレベーター3、エスカレーター4、および階段5が混在する建物2においても、案内システム1はこれらを昇降設備として統合して乗降履歴を管理するので、利用者の関心情報がより確実に取得される。
 また、案内システム1は、昇降設備判定部17と、整合処理部18と、を備える。昇降設備判定部17は、利用者特定部14に特定された利用者がいずれかの昇降設備の利用を開始するときに、少なくともいずれかのカメラ12が撮影する画像に基づいて当該利用者が利用する昇降設備を判定する。ここで、利用者特定部14が同一の利用者として特定した利用者の利用する設備として、昇降設備判定部17が同時に2つ以上の昇降設備を判定する場合がある。この場合に、整合処理部18は、当該2つ以上の昇降設備を利用する利用者を互いに異なる利用者として利用者特定部14に特定させる。利用者特定部14は、互いに異なる利用者として特定するときに、取得済みの画像の中から利用者の特徴量の差を抽出して、利用者の特定の確度を向上させ、互いに異なる利用者の特定を再確定する。
 このような構成により、利用者の特定の精度がより高くなる。このため、利用者の案内がより確実に行われるようになる。
 また、案内システム1は、呼び登録部23を備える。呼び登録部23は、行先提示部22が提示した行先を含む行先階への呼びを昇降設備であるエレベーター3に登録する。
 このような構成により、利用者は昇降設備を操作することなく行先まで移動できるようになる。これにより、利用者の利便性がより高くなる。
 また、関心情報取得部20は、行動情報取得部15が利用者の到着階における行動情報の取得を完了するたびに当該利用者の関心情報を取得する。
 このような構成により、関心情報は利用者の到着階における行動がリアルタイムに反映されたものとなる。このため、案内システム1は、利用者の関心を迅速に反映した案内を行うことができる。
 なお、案内システム1は、行動情報記憶部16を備えている。行動情報記憶部16は、行動情報取得部15が取得する行動情報を利用者ごとに記憶する。このとき、関心情報取得部20は、予め設定されたタイミングで行動情報記憶部16から利用者ごとの行動情報を読み込んでもよい。関心情報取得部20は、読み込んだ行動情報に基づいて当該利用者の関心情報を取得する。ここで、予め設定されたタイミングは、例えば夜間などの建物2に利用者の少ない時間帯における予め設定された時刻などである。利用者の少ない時間帯に関心情報の取得などの処理が行われるので、案内システム1における処理の負荷が時間的に分散される。また、関心情報取得部20または関心情報記憶部21が建物2の機器からネットワークを通じて接続される機器に搭載されている場合に、関心情報取得部20または関心情報記憶部21への行動情報などの送信は、ネットワークの通信負荷が少ない時間帯に行われる。このため、ネットワークの通信容量が乏しい場合においても、ネットワークの通信負荷を抑えることができる。
 また、利用者特定部14は、利用者が無線通信の機能を搭載した可搬な情報端末などを所持している場合などに、情報端末から無線通信によって取得する識別情報などを補助的に利用してもよい。利用者が所持する情報端末は、例えばスマートフォンなどであってもよい。例えば、エレベーター3のかご7の内部において、外部からの電磁波は遮蔽される。このとき、エレベーター3のかご7の内部で受信する電磁波は当該かご7の内部に乗車している利用者の情報端末からの電磁波である可能性が高い。このような情報を補助的に利用することによって、利用者特定部14は、利用者の特定の精度を高めることができる。利用者が情報端末を所持している場合に、行先提示部22は、情報端末に表示させる情報などを送信することによって行先の提示を行ってもよい。このとき、行先提示部22は、例えばエレベーター3の乗場などに設けられた無線ビーコンのブロードキャスト通信などによって受信者を特定せずに情報の発信を行ってもよい。
 続いて、図16を用いて、案内システム1のハードウェア構成の例について説明する。
 図16は、実施の形態1に係る案内システム1の主要部のハードウェア構成図である。
 案内システム1の各機能は、処理回路により実現し得る。処理回路は、少なくとも1つのプロセッサ100aと少なくとも1つのメモリ100bとを備える。処理回路は、プロセッサ100aおよびメモリ100bと共に、あるいはそれらの代用として、少なくとも1つの専用ハードウェア200を備えてもよい。
 処理回路がプロセッサ100aとメモリ100bとを備える場合、案内システム1の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせで実現される。ソフトウェアおよびファームウェアの少なくとも一方は、プログラムとして記述される。そのプログラムはメモリ100bに格納される。プロセッサ100aは、メモリ100bに記憶されたプログラムを読み出して実行することにより、案内システム1の各機能を実現する。
 プロセッサ100aは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSPともいう。メモリ100bは、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROMなどの、不揮発性または揮発性の半導体メモリなどにより構成される。ここで、プロセッサ100aおよびメモリ100bは、分離されていても分離されていなくてもよい。例えば、プロセッサ100aはメモリ100bを含んでいてもよい。また、プロセッサ100aおよびメモリ100bが融合したデバイスが用いられてもよい。
 処理回路が専用ハードウェア200を備える場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらの組み合わせ、あるいはそれと同等な処理を行える回路で実現される。
 案内システム1の各機能は、それぞれ処理回路で実現することができる。あるいは、案内システム1の各機能は、まとめて処理回路で実現することもできる。案内システム1の各機能について、一部を専用ハードウェア200で実現し、他部をソフトウェアまたはファームウェアで実現してもよい。このように、処理回路は、専用ハードウェア200、ソフトウェア、ファームウェア、またはこれらの組み合わせで案内システム1の各機能を実現する。
 以下で説明する実施の形態の各々において、他の実施の形態で開示される例と相違する点について特に詳しく説明する。以下の実施の形態の各々で説明しない特徴については、他の実施の形態で開示される例のいずれの特徴が採用されてもよい。
 実施の形態2.
 この例の案内システム1において、関心情報に含まれる関心度の高さに応じた案内が行われる。
 図17Aから図17C、ならびに図18Aおよび図18Bは、実施の形態2に係る案内システム1による行先の提示の例を示す図である。
 図17において、案内システム1が適用される建物2の例が示される。
 図17Aにおいて、ある日の建物2が示される。この建物2において、品物P1を扱うP店およびサービスS1を提供するS店が4階のエリアに出店している。また、品物Q1を扱うQ店および品物T1を扱うT店が3階のエリアに出店している。また、サービスR1を提供するR店および品物U1を扱うU店が2階のエリアに出店している。
 この日までの間に、案内システム1は、利用者A、利用者B、および利用者Cの関心情報を取得している。関心情報記憶部21は、利用者Aについて、最も高い関心度の属性として品物P1、および次に関心度の高い属性としてサービスS1を記憶している。関心情報記憶部21は、利用者Bについて、最も関心度の高い属性としてQ店および次に関心度の高い属性としてT店を記憶している。関心情報記憶部21は、利用者Cについて、最も関心度の高い属性としてサービスR1、および次に関心度の高い属性としてU店を記憶している。
 図17Bにおいて、後日の同一の建物2が示される。この日までの間に、品物P1を扱うP店が2階のエリアに移転している。また、R店が撤退している。また、サービスR1を提供するV店が4階のエリアに出店している。
 この日に建物2を再び訪れた利用者Aは、1階のエレベーター3の乗場において利用者特定部14に特定される。このとき、行先提示部22は、利用者Aについての関心情報を関心情報記憶部21から読み込む。この例の行先提示部22は、より関心度の高い属性のエリアをより優先して利用者に行先として提示する。このため、行先提示部22は、利用者Aの最も関心度の高い属性として品物P1、および次に関心度の高い属性としてサービスS1を取得する。行先提示部22は、属性記憶部13から属性として品物P1を有するエリアを抽出する。この例において、行先提示部22は、移転後のP店が出店している2階のエリアを最も優先度の高い行先として抽出する。また、行先提示部22は、属性記憶部13から属性としてサービスS1を有するエリアを抽出する。この例において、行先提示部22は、S店が出店している4階のエリアを次に優先度の高い行先として抽出する。行先提示部22は、抽出したエリアを行先として利用者Aに提示する。
 図17Cに示されるように、同日に建物2を再び訪れた利用者Bおよび利用者Cは、1階のエレベーター3の乗場において利用者特定部14に特定される。このとき、行先提示部22は、利用者Bおよび利用者Cの各々についての関心情報を関心情報記憶部21から読み込む。この例の行先提示部22は、同時に複数の利用者に行先を提示するときに、各々の利用者の最も関心度の高い属性のエリアを行先として提示する。このため、行先提示部22は、利用者Bの最も関心度の高い属性としてQ店を取得する。行先提示部22は、属性記憶部13から属性としてQ店のエリアを抽出する。この例において、行先提示部22は、Q店が出店している3階のエリアを利用者Bに提示する行先として抽出する。また、行先提示部22は、利用者Cの最も関心度の高い属性としてサービスR1を取得する。行先提示部22は、属性記憶部13から属性としてサービスR1を提供するV店のエリアを抽出する。この例において、行先提示部22は、V店が出店している4階のエリアを利用者Cに提示する行先として抽出する。
 図18において、かご操作盤10を通じた行先の提示の例が示される。この例において、かご7に乗車した利用者Bおよび利用者Cに対して、3階および4階が行先階として提示される。
 図18Aに示されるように、行先提示部22は、3階および4階に対応する行先ボタン10bの発光機器を点滅させることで、利用者Bおよび利用者Cに行先階の3階および4階を登録する前の案内の注意喚起を提示する。このとき、行先提示部22は、表示パネル10aなどの表示機器に「Q店は3階、サービスR1を提供するV店は4階です」などの映像を併せて表示させてもよい。また、行先提示部22は、表示パネル10aなどの表示機器の内蔵スピーカーなどに、音声による案内を併せて提示させてもよい。ここで、例えば発光機器の点滅による提示を開始してから予め設定された時間が経過して呼びが自動登録された直後に、行先提示部22は、3階および4階に対応する行先ボタン10bの発光機器の点滅による行先階の案内の提示を終了する。また、例えば行先ボタン10bが操作されて呼びが登録された直後に、行先提示部22は、3階および4階に対応する行先ボタン10bの発光機器の点滅による行先階の案内の提示を終了する。
 例えば利用者Bによって3階に対応する行先ボタン10bが操作されて呼びが登録された場合に、図18Bに示されるように、行先階として指定された階床に対応する行先ボタン10bの発光機器が点灯する。ここで、例えば提示した行先階である4階に対応する行先ボタン10bが操作されていない場合に、行先提示部22は、4階に対応する行先ボタン10bの発光機器の点滅による行先階の提示を継続してもよい。このとき、発光機器の点滅による提示を開始してから予め設定された時間が経過した後に、呼び登録部23は、4階を行先階とする呼びを利用者Cが乗車しているエレベーター3に自動登録する。4階を行先階とする呼びが自動登録された直後に、4階に対応する行先ボタン10bの発光機器が点灯する。
 ここで、仮に利用者Bまたは利用者Cの行きたい階床が自動登録された行先階ではなかったときに、利用者Bまたは利用者Cは、自動登録された行先階の行先ボタン10bをキャンセル操作して別の行先階を登録できる。例えば、3階に対応する行先ボタン10bがキャンセルされたときに、利用者Bおよび利用者Cは、残った行先階である4階で降車する。これより、関心度の高さに関係なく、利用者Bまたは利用者Cは、降車階を変えることができる。このとき、利用者Bおよび利用者Cについて降車階が判定される。これにより、利用者Bおよび利用者Cについて、降車した階床において行動情報取得および関心情報取得ができるようになる。
 なお、行先提示部22は、利用者Aなどに対して複数の行先を提示する場合に、2階および4階などの行先階に各々が対応する複数の行先ボタン10bを点滅させることで行先階の提示を行ってもよい。このとき、行先提示部22は、行先の優先度に応じて発光機器の点滅、色調、もしくは輝度、またはそれらの変化のスピードなどを行先ボタン10bに調整させてもよい。
 ここで、例えば発光機器の点滅による提示を開始してから予め設定された時間が経過するまでいずれの行先階も指定されない場合に、呼び登録部23は、最も優先度の高い行先階として提示した2階を行先階とする呼びを利用者Aが乗車しているエレベーター3に自動登録する。仮に利用者Aの行きたい階床が自動登録された行先階ではなかったときに、利用者Aは、自動登録された行先階の行先ボタン10bをキャンセル操作して別の行先階を登録してもよい。
 実施の形態3.
 この例の案内システム1において、複数の建物2にわたって案内が行われる。
 図19は、実施の形態3に係る案内システム1の構成図である。
 案内システム1において、情報処理を担う部分として、属性記憶部13と、利用者特定部14と、行動情報取得部15と、行動情報記憶部16と、昇降設備判定部17と、階床判定部19と、関心情報取得部20と、行先提示部22と、呼び登録部23とが、各々の建物2に適用される。これらの部分は、各々の建物2において、利用者の特定、行動情報および関心情報の取得、行先の提示、ならびに呼びの登録などの動作を行う。
 案内システム1は、中央管理装置24を備える。中央管理装置24は、複数の建物2において取得される関心情報などの情報を統合して管理する装置である。中央管理装置24は、例えば1台または複数台のサーバ装置などである。中央管理装置24の一部または全部は、クラウドサービス上の仮想マシンなどに搭載されていてもよい。中央管理装置24は、整合処理部18と、関心情報記憶部21と、を備える。
 整合処理部18は、各々の建物2に適用された利用者特定部14による利用者の特定の整合を取る機能を搭載する。整合を取る処理は、例えば次のように行われる。各々の建物2に適用された利用者特定部14は、異なる利用者を誤って同一の利用者として特定する可能性がある。互いに異なる建物2に適用された利用者特定部14は、互いに同一の利用者を同時に特定する可能性がある。同一人物が同時に2以上の建物2に重複して存在することはできないので、整合処理部18は、各々の建物2に適用された利用者特定部14に利用者の特定の修正を要求する。このとき、各々の建物2に適用された利用者特定部14は、誤って同一の利用者として特定していた利用者を互いに異なる利用者として特定する。利用者特定部14は、互いに異なる利用者として特定するときに、取得済みの画像の中から利用者の特徴量の差を抽出して、利用者の特定の確度を向上させ、互いに異なる利用者の特定を再確定する。なお、整合処理部18は、各々の建物2について、利用者特定部14による利用者の特定、および昇降設備判定部17による当該利用者の利用する昇降設備の判定の間の整合を取る処理も併せて行ってもよい。
 関心情報記憶部21は、各々の建物2において取得された関心情報を統合して利用者ごとに記憶する。関心情報記憶部21は、例えば利用者に固有な識別情報および当該利用者の関心情報を関連付けて記憶する。
 続いて、図20を用いて利用者への行先の提示の例を説明する。
 図20は、実施の形態3に係る案内システム1による行先の提示の例を示す図である。
 図20において、案内システム1が適用される複数の建物2の例が示される。
 この例において、ある日における複数の建物2が示される。利用者Aは、この日までの間に一方の建物2aに複数回訪れている。利用者Aは、この日、他方の建物2bに初めて訪れる。建物2aにおいて、スーパーマーケットであるP店が4階に出店している。建物2bにおいてスーパーマーケットであるQ店が2階に出店している。
 この日までの間に、案内システム1は、建物2aを訪れた利用者Aの関心情報を取得している。ここで、利用者の関心情報などが取得される建物2aは、第1建物の例である。第1カメラは、第1建物に配置されたカメラ12である。第1属性記憶部は、第1建物に適用された属性記憶部13である。第1利用者特定部は、第1建物に適用された利用者特定部14である。建物2aの関心情報取得部20は、取得した関心情報を中央管理装置24の関心情報記憶部21に送信する。関心情報記憶部21は、建物2aの関心情報取得部20から受信した関心情報を統合して利用者ごとに記憶する。関心情報記憶部21は、建物2aおよび建物2bの他の建物2に適用された関心情報取得部20から受信した関心情報を統合して記憶してもよい。関心情報記憶部21は、建物2aなどを訪れた利用者Aについて、最も高い関心度の属性としてスーパーマーケットを記憶している。
 この日に建物2bを初めて訪れた利用者Aは、1階のエレベーター3の乗場において建物2bの利用者特定部14に特定される。このとき、建物2bの行先提示部22は、利用者Aについての関心情報を関心情報記憶部21から読み込む。この例の行先提示部22は、最も関心度の高い属性のエリアを利用者に行先として提示する。このため、行先提示部22は、利用者Aの最も関心度の高い属性として、スーパーマーケットを取得する。行先提示部22は、建物2bの属性記憶部13から属性としてスーパーマーケットを有するエリアを抽出する。この例において、行先提示部22は、建物2bにおいてQ店が出店している2階のエリアを抽出する。行先提示部22は、抽出したエリアを行先として利用者Aに提示する。建物2bの呼び登録部23は、例えば建物2bのエレベーター3のかご7に乗車した利用者がかご操作盤10の操作を行わない場合などに、行先階への呼びの当該エレベーター3への登録などを行う。ここで、利用者に対して行先の提示などが行われる建物2bは、第2建物の例である。第2カメラは、第2建物に配置されたカメラ12である。第2利用者特定部は、第2建物に適用された利用者特定部14である。第2属性記憶部は、第2建物に適用された属性記憶部13である。なお、第2建物は、利用者Aが初めて訪れる建物でなくてもよい。第2建物において、過去に利用者の関心情報などが取得されていてもよい。
 以上に説明したように、実施の形態3に係る案内システム1は、各々の建物2に対応する属性記憶部13および利用者特定部14と、階床判定部19と、行動情報取得部15と、関心情報取得部20と、関心情報記憶部21と、行先提示部22と、を備える。各々の属性記憶部13は、対応する建物2の各々の階床について、エリアごとの属性を記憶する。各々の利用者特定部14は、対応する建物2に設けられた少なくともいずれかのカメラ12が撮影する画像に基づいて、当該建物2において利用者を特定する。階床判定部19は、いずれかの建物2において特定された利用者が当該建物2の昇降設備を利用して出発階から到着階まで移動したときに、少なくともいずれかのカメラ12が撮影する画像に基づいて当該利用者の到着階を判定する。行動情報取得部15は、いずれかの建物2において特定された利用者について、判定された到着階における当該利用者の行動を表す行動情報を、少なくともいずれかのカメラ12が撮影する画像に基づいて取得する。関心情報取得部20は、いずれかの建物2において特定された利用者について、判定された到着階におけるエリアの配置および当該エリアの属性、ならびに行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する。関心情報記憶部21は、関心情報取得部20が取得した関心情報を利用者ごとに記憶する。行先提示部22は、いずれかの建物2において昇降設備の利用を開始する利用者を利用者特定部14が特定するときに、関心度のより高い属性を有するエリアをより優先して当該利用者に行先として提示する。行先提示部22による行先の提示は、当該利用者について関心情報記憶部21が記憶している関心情報および属性記憶部13が記憶している属性の情報に基づいて行われる。行先提示部22は、各々の建物2で取得された利用者の関心情報の一部または全部の情報を利用して、当該利用者について行先の提示を行う。
 このような構成により、建物2に設けられたカメラ12が撮影する画像に基づいて利用者の特定、到着階の判定、および行動情報の取得が行われるので、昇降設備の機器を操作しない利用者についても到着階における行動情報が取得される。また、関心情報は、利用者の行動情報に基づいて取得される。このため、昇降設備の機器を操作しない利用者についても、関心情報が取得される。行先提示部22は、このように取得された利用者ごとの関心情報に基づいて行先の提示を行うので、昇降設備を操作しない利用者についても、利用者の関心に基づいた建物2における案内が可能になる。また、これらの処理は撮影された画像に基づいて行われるので、情報端末などを所持していない利用者についても関心情報の取得および行先の案内を行うことができる。また、エレベーター3、エスカレーター4、および階段5が混在する建物2においても、案内システム1はこれらを昇降設備として統合して乗降履歴を管理するので、利用者の関心情報がより確実に取得される。また、利用者の関心情報は複数の建物2の間で共用されるので、案内システム1は、建物2に初めて訪れる利用者に対しても関心に基づいた行先を提示できる。
 実施の形態4.
 この例の案内システム1において、外部システム99に関心情報の提供が行われる。
 図21は、実施の形態4に係る案内システム1の構成図である。
 外部システム99は、案内システム1の外部のシステムである。外部システム99は、利用者の関心度に応じて行先を提示するシステムである。外部システム99は、案内システム1と同様の構成を有していてもよい。外部システム99は、案内システム1が適用されていない建物2に適用される。外部システム99が適用される建物2において、利用者を撮影する複数のカメラ12が配置される。外部システム99は、記憶部99aを有している。記憶部99aは、外部システム99が適用される建物2の各々のエリアの画像を日々記録し、更新する。外部システム99は、人がいない画像、例えば深夜に取得された各階床の各々のエリアの更新された画像を案内システム1へ送信する。また、外部システム99は、外部システム99が適用される建物2の各々のカメラ12が撮影する画像を、案内システム1に例えば朝から夜まで継続して送信する。ここで送信される画像は、特に加工されている必要はない。外部システム99は、画像の送信を受けて利用者を特定する案内システム1から行先の候補を受信する。
 中央管理装置24は、受信部25と、送信部26と、利用者特定部14と、整合処理部18と、関心情報記憶部21と、を備える。受信部25および送信部26は、外部システム99との間で通信を行う部分である。これにより、中央管理装置24は、外部システム99にインターフェースを提供する。
 続いて、図22を用いて外部システム99への関心情報の提供の例を説明する。
 図22は、実施の形態4に係る案内システム1による関心情報の提供の例を示す図である。
 図22において、案内システム1が適用される建物2cおよび外部システム99が適用される建物2dの例が示される。外部システム99が適用される建物2dは、第3建物の例である。
 この例において、ある日における建物2cおよび建物2dが示される。利用者Aは、この日までの間に建物2cに複数回訪れている。利用者Aは、この日、建物2dに初めて訪れる。建物2cにおいて、衣料品店であるP店が4階に出店している。建物2dにおいて衣料品店であるQ店が2階に出店している。
 この日までの間に、案内システム1は、建物2cなどを訪れた利用者Aの関心情報を取得している。ここで、利用者の関心情報などが取得される建物2cは、第1建物の例である。関心情報記憶部21は、建物2cなどを訪れた利用者Aについて、最も高い関心度の属性として衣料品店を記憶している。
 この日の例えば未明に、外部システム99は、建物2dの各階床の各々のエリアの画像を案内システム1に予め送信している。画像を受信した案内システム1は、図8に示されるものと同様に建物2dの俯瞰マップを予め生成する。
 この日に建物2dを初めて訪れた利用者Aは、建物2dに設けられたカメラ12によって撮影される。当該カメラ12は、例えばエレベーター3の乗場などに配置される。外部システム99は、利用者Aが映った画像を中央管理装置24に送信する。
 中央管理装置24の受信部25は、外部システム99から利用者Aの画像を受信する。中央管理装置24の利用者特定部14は、外部システム99から受信した画像に基づいて、利用者Aを特定する。外部システム99から受信した画像に基づいて利用者を特定する中央管理装置24の利用者特定部14は、第3利用者特定部の例である。中央管理装置24の利用者特定部14は、利用者Aを特定したら、建物2dの俯瞰マップ上の利用者Aの座標を決定する。また、送信部26は、特定された利用者Aについての関心情報を関心情報記憶部21から読み込み、建物2dの俯瞰マップ上の各階床の各エリアに該当する最も関心度の高い属性を関心情報として特定し、建物2dにおける行先候補を外部システム99へ送信する。送信部26は、画像によって特定された利用者である利用者Aの最も関心度の高い属性は衣料品店であることを表す情報を外部システム99に送信する。
 外部システム99は、建物2dにおける行先候補を中央管理装置24から受信する。この例において、外部システム99は、建物2dのエリアとその属性の中で最も利用者Aの関心度が高い属性は衣料品店であることを受信する。このため、外部システム99は、建物2dを訪れている利用者Aに衣料品店であるQ店を行先として提示する。なお、外部システム99が適用される建物2dは、利用者Aが初めて訪れる建物でなくてもよい。
 以上に説明したように、実施の形態4に係る案内システム1は、属性記憶部13と、案内システム1が適用される建物2に対応する利用者特定部14と、階床判定部19と、行動情報取得部15と、関心情報取得部20と、関心情報記憶部21と、受信部25と、中央管理装置24の利用者特定部14と、送信部26と、を備える。属性記憶部13は、対応する建物2の各々の階床について、エリアごとの属性を記憶する。利用者特定部14は、対応する建物2に設けられた少なくともいずれかのカメラ12が撮影する画像に基づいて、当該建物2において利用者を特定する。階床判定部19は、特定された利用者がいずれかの昇降設備を利用して出発階から到着階まで移動したときに、少なくともいずれかのカメラ12が撮影する画像に基づいて当該利用者の到着階を判定する。行動情報取得部15は、特定された利用者について、判定された到着階における当該利用者の行動を表す行動情報を、少なくともいずれかのカメラ12が撮影する画像に基づいて取得する。関心情報取得部20は、特定された利用者について、判定された到着階におけるエリアの配置および当該エリアの属性、ならびに行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する。関心情報記憶部21は、関心情報取得部20が取得した関心情報を利用者ごとに記憶する。受信部25は、外部システム99が適用される建物2dにおいて各階床の各エリアの俯瞰マップを生成するために必要な画像、および、昇降設備の利用を開始する利用者の画像を外部システム99から逐次受信する。中央管理装置24の利用者特定部14は、受信部25が受信した画像に基づいて利用者を特定する。送信部26は、中央管理装置24の利用者特定部14に特定された利用者について、関心情報記憶部21が当該利用者について記憶している関心情報を読み込み、建物2dの俯瞰マップ上の各階床各エリアに該当する、最も関心度の高い属性を関心情報として特定し、建物2dにおける行先候補を外部システム99へ送信する。
 このような構成により、建物2に設けられたカメラ12が撮影する画像に基づいて利用者の特定、到着階の判定、および行動情報の取得が行われるので、昇降設備の機器を操作しない利用者についても到着階における行動情報が取得される。また、関心情報は、利用者の行動情報に基づいて取得される。このため、昇降設備の機器を操作しない利用者についても、関心情報が取得される。送信部26は、このように取得された利用者ごとの行先候補を外部システム99が適用される建物2dに提供する。これにより、昇降設備を操作しない利用者についても、利用者の関心に基づいた建物2dにおける案内が可能になる。また、案内システム1は、外部システム99に利用者の画像の他の識別情報などを要求しない。このため、案内システム1は、外部システム99に利用者を識別する名前などの個人情報を提供することなく、利用者ごとに建物2dにおける最も関心の高いエリアへの案内をすることができる。
 実施の形態5.
 複数の利用者が集まってグループとして行動するときに、個々の利用者と異なる行動をとる場合がある。この例の案内システム1において、複数の利用者を含むグループへの案内が行われる。
 図23は、実施の形態5に係る案内システム1の構成図である。
 案内システム1は、情報処理を担う部分として、グループ特定部27を備える。この例において、グループ特定部27は、群管理装置11に搭載されている。
 グループ特定部27は、建物2において行動するグループを特定する機能を搭載する。グループは、利用者特定部14に特定された利用者を複数含む。
 グループ特定部27は、例えば、次のようにグループの登録を行う。グループ特定部27は、建物2のいずれかのエリアに、予め設定された時間閾値より長い間共に滞在している複数の利用者を、当該エリアで過ごしたグループとして登録する。ここで、建物2においてグループが過ごすエリアは、当該グループにメンバとして含まれる利用者について階床判定部19が判定した到着階におけるエリアである。建物2においてグループが過ごすエリアは、建物2がオフィスビルなどである場合に、例えば会議室などである。あるいは、建物2においてグループが過ごすエリアは、建物2が飲食店などを含む場合に、飲食店の店内、または飲食店内の各部屋、各テーブル、もしくは各席などである。ここで、時間閾値は、エリアによらず共通に設定されていてもよいし、エリアごとに設定されていてもよい。グループ特定部27は、例えば、行動情報取得部15が取得する行動情報などに基づいていずれかのエリアへの利用者の出入りを検出するときに、当該エリアに滞在している利用者を特定する。グループ特定部27は、当該エリアに滞在している利用者が複数いる場合に、当該複数の利用者が当該エリアに共に滞在している時間を算出する。グループ特定部27は、共に滞在している時間が当該エリアの時間閾値を超える場合に、当該複数の利用者をグループとして登録する。グループ特定部27は、新たにグループを特定するときに、当該グループに固有な識別情報を付与する。ここで、グループ特定部27は、グループごとに集まる頻度を登録してもよい。例えば、グループ特定部27は、共に滞在している時間が時間閾値を超えたグループを既に登録しているときに、当該グループの集まる頻度を増加させる。
 また、グループ特定部27は、建物2に設けられた昇降設備の利用を開始するグループを、例えば次のように特定する。グループ特定部27は、例えば、行動情報取得部15が取得する行動情報などに基づいて同一の昇降設備の利用を開始する複数の利用者を検出するときに、グループの特定の処理を開始する。グループ特定部27は、当該複数の利用者からなるグループを既に登録しているときに、当該複数の利用者を当該昇降設備の利用を開始する当該グループとして特定する。
 ここで、グループ特定部27は、当該複数の利用者をその一部として含むグループを既に登録しているときにも、当該複数の利用者を当該昇降設備の利用を開始する当該グループとして特定してもよい。例えば、グループ特定部27は、当該複数の利用者の人数が予め設定された設定人数以上であるときに、当該複数の利用者を当該昇降設備の利用を開始する当該グループとして特定してもよい。設定人数は、グループをその一部のメンバからも特定しうるように予め設定される。設定人数は、全グループに共通に設定されてもよいし、グループごとに設定されてもよいし、グループの人数ごとに設定されてもよい。あるいは、グループ特定部27は、当該複数の利用者の人数の当該グループの人数に対する割合が予め設定された設定割合より多いときに、当該複数の利用者を当該昇降設備の利用を開始する当該グループとして特定してもよい。設定割合は、グループをその一部のメンバからも特定しうるように予め設定される。設定割合は、全グループに共通に設定されてもよいし、グループごとに設定されてもよい。設定割合は、例えば、過半数のメンバがいるときにグループが特定されるように、1/2などの値に設定される。また、グループ特定部27は、例えばグループの人数などに応じて、設定人数による特定および設定割合による特定を切り替えてもよい。
 関心情報取得部20は、グループ特定部27が建物2のいずれかのエリアに滞在するグループを特定するときに、当該グループの関心情報を取得する。グループの関心情報は、エリアに付される属性ごとの当該グループの関心度を表す情報である。関心情報取得部20は、例えば当該グループが滞在するエリアの属性などに基づいて、当該グループの関心情報を取得する。関心情報取得部20は、例えば、当該エリアに「会議」などの属性が付されているときに、「会議」などの当該属性の関心度をより高いものとして当該グループの関心情報を取得する。ここで、エリアに付される属性は、例えば「会議」などの滞在の目的を表すものであってもよいし、「プロジェクタ」もしくは「ウェブ会議」などの利用可能な設備を表すものであってもよいし、または「6人まで」などのキャパシティを表すものであってもよい。また、エリアに付される属性は、例えば「飲食」などの滞在の目的を表すものであってもよいし、「居酒屋」もしくは「ファミリーレストラン」などのカテゴリを表すものであってもよいし、または特定の店舗を表す店名などであってもよい。
 関心情報記憶部21は、関心情報取得部20が取得した関心情報を、グループごとに記憶する。この例において、関心情報記憶部21は、グループに固有な識別情報に、当該グループの関心情報ならびに当該関心情報が取得された時刻および場所の情報を関連付けて記憶する。ここで、関心情報が取得された時刻の情報は、例えば「ランチ」または「ディナー」などの時間帯を表す情報であってもよい。
 行先提示部22は、建物2に設けられた昇降設備の利用を開始するグループをグループ特定部27が特定するときに、関心情報記憶部21が記憶する関心情報に基づいて、当該グループに行先を提示する。行先提示部22は、例えば、グループの関心度の高い属性を有するエリアを行先として当該グループに提示する。
 続いて、図24を用いてグループへの行先の提示の例を説明する。
 図24は、実施の形態5に係る案内システム1による行先の提示の例を示す図である。
 図24において、案内システム1が適用される建物2の例が示される。
 図24において、ある日の建物2が示される。この建物2において、事務所Wおよび事務所Xが4階のエリアに配置されている。また、事務所Yおよび会議室Mが3階のエリアに配置されている。また、事務所Zおよび会議室Nが2階のエリアに配置されている。
 この日までの間に、案内システム1は、利用者A、利用者B、および利用者Cの関心情報を取得している。関心情報記憶部21は、利用者Aについて、最も高い関心度の属性として、利用者Aが通常勤務する事務所Xを記憶している。関心情報記憶部21は、利用者Bについて、最も高い関心度の属性として、利用者Bが通常勤務する事務所Yを記憶している。関心情報記憶部21は、利用者Cについて、最も高い関心度の属性として、利用者Cが通常勤務する事務所Zを記憶している。
 また、この日までの間に、利用者A、利用者B、および利用者Cをメンバとして含むグループGは、会議室Nにおいて会議を行っている。このとき、会議室NへのグループGの滞在に基づいて、グループ特定部27は、グループGの登録を行う。また、関心情報記憶部21は、グループGについて、最も高い関心度の属性として「会議」を記憶している。
 この場合において、利用者A、利用者B、および利用者Cは、1階に設けられた複数のカメラ12、または乗車したエレベーター3のかご7内のカメラ12が撮影する画像によって利用者特定部14に特定される。このとき、グループ特定部27は、登録されているグループのメンバなどの情報との照合などにより、利用者A、利用者B、および利用者CをグループGとして特定する。
 このとき、行先提示部22は、グループGについての関心情報を関心情報記憶部21から読み込む。ここで、行先提示部22は、特定されたグループについての関心情報を、当該グループにメンバとして含まれる個々の利用者についての関心情報に優先して読み込む。この例の行先提示部22は、最も関心度の高い属性のエリアをグループに行先として提示する。すなわち、最も関心度の高い属性のエリアが優先して提示される。このため、行先提示部22は、グループGの最も関心度の高い属性として、「会議」を取得する。ここで、行先提示部22は、会議室の空き状況に基づいて行先をグループに提示してもよい。会議室の空き状況は、例えば、会議室の中または出入口を撮影するカメラ12が撮影する画像などに基づいて判定される。あるいは、行先提示部22は、例えば会議室予約システムなどの案内システム1の外部から会議室の空き状況を取得してもよい。行先提示部22は、属性記憶部13から属性として「会議」が付与されたエリアを抽出する。この例において、行先提示部22は、属性「会議」が付与され、かつ、空いている会議室Mが配置された3階のエリアを抽出する。行先提示部22は、抽出したエリアを行先としてグループGに提示する。
 なお、この例の行先提示部22は、特定されたグループにメンバとして含まれる個々の利用者についての関心情報に基づく行先を提示しない。例えば、行先提示部22は、利用者Aが単独で特定されるときに、利用者Aの最も関心度の高い事務所Xが配置された4階のエリアを行先として利用者Aに提示する。一方、利用者Aをメンバとして含むグループGが特定されるときに、行先提示部22は、グループの関心情報に基づいていずれかの会議室のエリアを行先として提示し、利用者Aの関心情報に基づく事務所Xのエリアを行先として提示しない。
 続いて、図25を用いて、案内システム1の動作の例を説明する。
 図25Aおよび図25Bは、実施の形態5に係る案内システム1の動作の例を示すフローチャートである。
 図25Aにおいて、グループの登録に係る案内システム1の動作の例が示される。
 ステップS501において、グループ特定部27は、建物2のいずれかのエリアへの利用者の出入りがあるかを判定する。判定結果がYesの場合に、案内システム1の動作は、ステップS502に進む。判定結果がNoの場合に、案内システム1の動作は、ふたたびステップS501に進む。
 ステップS502において、グループ特定部27は、利用者の出入りが検出されたエリアについて、当該利用者の出入りの直前に複数の利用者が当該エリアに滞在していたかを判定する。判定結果がYesの場合に、案内システム1の動作は、ステップS503に進む。判定結果がNoの場合に、グループの登録に係る案内システム1の動作は、終了する。
 ステップS503において、グループ特定部27は、利用者の出入りが検出されたエリアについて、当該エリアにおける利用者の出入りの前回の検出から経過した時間を、複数の利用者が当該エリアに共に滞在している時間として算出する。グループ特定部27は、算出した時間が時間閾値より長いかを判定する。判定結果がYesの場合に、案内システム1の動作は、ステップS504に進む。判定結果がNoの場合に、グループの登録に係る案内システム1の動作は、終了する。
 ステップS504において、グループ特定部27は、出入りが検出されたエリアにおいて共に滞在している時間が時間閾値を超えた複数の利用者について、当該複数の利用者をメンバとするグループを既に登録しているかを判定する。判定結果がNoの場合に、案内システム1の動作は、ステップS505に進む。判定結果がYesの場合に、案内システム1の動作は、ステップS506に進む。
 ステップS505において、グループ特定部27は、出入りが検出されたエリアにおいて共に滞在している時間が時間閾値を超えた複数の利用者をメンバとするグループを、新たに登録する。このとき、グループ特定部27は、当該グループに固有の識別情報を付与する。また、関心情報取得部20は、当該エリアに付された属性に基づいて、当該グループの関心情報を取得する。関心情報記憶部21は、取得された当該グループの関心情報を記憶する。その後、グループの登録に係る案内システム1の動作は、終了する。
 ステップS506において、グループ特定部27は、出入りが検出されたエリアにおいて共に滞在している時間が時間閾値を超えた複数の利用者をメンバとするグループについて、当該グループの集まる頻度を更新する。関心情報取得部20は、当該エリアに付された属性に基づいて、当該グループの関心情報を更新しても、または新たに取得してもよい。関心情報記憶部21は、更新または新たに取得された当該グループの関心情報を記憶する。その後、グループの登録に係る案内システム1の動作は、終了する。
 図25Bにおいて、特定されたグループが昇降設備としてエレベーター3を利用するときの行先の提示に係る案内システム1の動作の例が示される。
 ステップS601において、グループ特定部27は、建物2においてエレベーター3の利用を開始する利用者がいるかを判定する。判定結果がYesの場合に、案内システム1の動作は、ステップS602に進む。判定結果がNoの場合に、案内システム1の動作は、ふたたびステップS601に進む。
 ステップS602において、グループ特定部27は、エレベーター3の利用を開始する複数の利用者がいるかを判定する。判定結果がYesの場合に、案内システム1の動作は、ステップS603に進む。判定結果がNoの場合に、案内システム1の動作は、ステップS606に進む。
 ステップS603において、グループ特定部27は、エレベーター3の利用を開始する複数の利用者について、当該複数の利用者をメンバとするグループを登録しているかを判定する。判定結果がYesの場合に、案内システム1の動作は、ステップS604に進む。一方、判定結果がNoの場合に、案内システム1の動作は、ステップS606に進む。
 ステップS604において、グループ特定部27は、予め登録された情報に基づいて、エレベーター3の利用を開始する複数の利用者をグループとして特定する。その後、案内システム1の動作は、ステップS605に進む。
 ステップS605において、行先提示部22は、グループ特定部27が特定したグループについて関心情報記憶部21が記憶している関心情報を参照する。行先提示部22は、参照した関心情報に基づいて、グループの行先のエリアを抽出する。行先提示部22は、抽出したエリアをグループに対して行先として提示する。その後、行先の提示に係る案内システム1の動作は、終了する。
 ステップS606において、行先提示部22は、利用者特定部14が特定した利用者について関心情報記憶部21が記憶している関心情報を参照する。行先提示部22は、参照した関心情報に基づいて、利用者の行先のエリアを抽出する。行先提示部22は、抽出したエリアを利用者に対して行先として提示する。なお、複数の利用者が特定されている場合に、行先提示部22は、各々の利用者に対して行先のエリアの抽出および提示を行う。その後、行先の提示に係る案内システム1の動作は、終了する。
 以上に説明したように、実施の形態5に係る案内システム1は、グループ特定部27を含む。グループ特定部27は、利用者特定部14に特定された利用者を複数含むグループを特定する。関心情報取得部20は、グループ特定部27に特定されたグループについて、エリアの配置および属性、ならびに行動情報の関係に基づいて、属性ごとの当該グループの関心度を表す関心情報を取得する。ここで、当該エリアは、当該グループに含まれる利用者に対し階床判定部19が判定した到着階におけるエリアである。また、当該行動情報は、当該グループに含まれる利用者に対し行動情報取得部15が取得した行動情報である。関心情報記憶部21は、関心情報取得部20が取得した関心情報をグループごとに記憶する。行先提示部22は、昇降設備の利用を開始するグループをグループ特定部27が特定するときに、関心度のより高い属性を有するエリアをより優先して当該グループに行先として提示する。このとき、行先の提示は、当該グループについて関心情報記憶部21が記憶している関心情報、および属性記憶部13が記憶している属性の情報に基づいて行われる。
 このような構成により、複数の利用者が集まってグループとして行動する場合においても、当該グループに対してより適切な行先が提示されるようになる。これにより、グループとして行動する利用者についても、建物2における利便性がより高くなる。なお、案内システム1において、グループに対する案内は、個々の利用者に対する案内と同様にして行われる。グループに対する案内は、当該グループのメンバのうちのいずれか一部の利用者に対して行われてもよい。
 また、関心情報記憶部21に関心情報が記憶されたグループについて、当該グループに含まれる複数の利用者が、昇降設備の利用を開始する利用者として利用者特定部14に特定されることがある。この場合に、グループ特定部27は、特定された複数の利用者の人数が予め設定された設定人数以上であるときに、当該複数の利用者を当該グループとして特定してもよい。あるいは、グループ特定部27は、特定された複数の利用者の人数の当該グループの人数に対する割合が予め設定された割合より多いときに、当該複数の利用者を当該グループとして特定してもよい。
 このような構成により、案内システム1は、グループのメンバが全員揃っていない場合においても、当該グループへの案内を提示できるようになる。これにより、グループとして行動する利用者の建物2における利便性がより高くなる。
 なお、グループ特定部27は、重複するメンバを含む異なるグループを登録してもよい。例えば、グループ特定部27は、利用者A、利用者B、および利用者CをメンバとするグループGと、利用者A、利用者B、利用者C、および利用者DをメンバとするグループHとを、互いに異なるグループとして登録してもよい。
 また、グループ特定部27は、特定するグループの候補が複数ある場合に、登録されているグループのうち集まる頻度の高いグループを優先して、特定するグループとしてもよい。例えばグループGの集まる頻度よりグループHの集まる頻度が高い場合に、グループ特定部27は、利用者A、利用者B、および利用者Cがエレベーター3の利用を開始するときに、これらの利用者をグループHとして特定してもよい。
 また、グループ特定部27は、グループの登録において、利用者によるエリアの出入りが一時的なものである場合に、当該出入りが無かったものとして滞在時間を算出してもよい。例えば、グループのメンバの利用者がトイレまたは電話などのために一時的にエリアから出る場合、またはグループのメンバ外の利用者がメンバへの連絡または設備の設定などのために一時的にエリアに入る場合などに、グループ特定部27は、当該利用者の出入りが無かったものとして、当該エリアにおいて共に滞在する利用者の滞在時間を算出する。グループ特定部27は、例えば、利用者のエリアへの出入りの時間間隔が予め設定された設定間隔より短い場合に、当該利用者の出入りを一時的なものとして判定する。これにより、グループの登録の精度がより高められるようになる。
 実施の形態6.
 この例の案内システム1において、複数の建物2にわたって、グループへの案内が行われる。
 図26は、実施の形態6に係る案内システム1の構成図である。
 案内システム1において、情報処理を担う部分として、グループ特定部27が各々の建物2に適用される。建物2に適用されるグループ特定部27は、当該建物2に適用される利用者特定部14に特定された利用者を複数含むグループを特定する。この例において、各々の建物に適用されるグループ特定部27は、登録されたグループの情報を互いに共有する。登録されたグループの情報は、中央管理装置24に記憶されていてもよい。
 関心情報記憶部21は、各々の建物2において取得された関心情報を統合してグループごとに記憶する。関心情報記憶部21は、例えばグループに固有な識別情報および当該グループの関心情報を関連付けて記憶する。
 続いて、図27を用いてグループへの行先の提示の例を説明する。
 図27は、実施の形態6に係る案内システム1による行先の提示の例を示す図である。
 図27において、案内システム1が適用される複数の建物2のうちの1つの例が示される。
 図27において、ある日の建物2が示される。この建物2において、飲食店である居酒屋および飲食店であるレストランが4階のエリアに出店している。また、建物2において、書店および衣料品店が3階のエリアに出店している。また、建物2において、雑貨店および飲食店であるカフェが2階のエリアに出店している。
 この日までの間に、案内システム1は、利用者A、利用者B、利用者C、および利用者Dの関心情報を取得している。関心情報記憶部21は、利用者Aについて、最も高い関心度の属性として「カフェ」を記憶している。関心情報記憶部21は、利用者Bについて、最も高い関心度の属性として「書店」を記憶している。関心情報記憶部21は、利用者Cについて、最も高い関心度の属性として「雑貨店」を記憶している。関心情報記憶部21は、利用者Dについて、最も高い関心度の属性として「衣料品店」を記憶している。当該関心情報は、他の建物における各利用者の行動情報などに基づいて取得されている。
 また、この日までの間に、利用者A、利用者B、利用者C、および利用者Dをメンバとして含むグループHは、他の建物の居酒屋において会合を開いている。このとき、関心情報記憶部21は、グループHについて、最も高い関心度の属性として「居酒屋」を記憶している。ここで、グループHについて、設定割合として過半数に対応する1/2が設定されている。このように、グループの関心情報などが取得される当該他の建物は、第1建物の例である。第1グループ特定部は、第1建物に適用されたグループ特定部27である。この例において、グループHの各メンバは、図27に示される建物2をこの日に初めて訪れている。
 この場合において、利用者A、利用者B、および利用者Dは、1階に設けられた複数のカメラ12、または乗車したエレベーター3のかご7内のカメラ12が撮影する画像によって利用者特定部14に特定される。このとき、グループ特定部27は、登録されているグループのメンバなどの情報との照合を行う。ここで、利用者A、利用者B、および利用者Dの人数は、グループHのメンバの過半数に達している。このため、グループ特定部27は、利用者A、利用者B、および利用者DをグループHとして特定する。
 このとき、行先提示部22は、グループHについての関心情報を関心情報記憶部21から読み込む。この例の行先提示部22は、最も関心度の高い属性のエリアをグループに行先として提示する。このため、行先提示部22は、グループHの最も関心度の高い属性として、「居酒屋」を取得する。この例において、行先提示部22は、属性「居酒屋」が付与された店舗が出店している4階のエリアを抽出する。行先提示部22は、抽出したエリアを行先としてグループHに提示する。このように、グループに対して行先の提示などが行われる図27の建物2は、第2建物の例である。第2グループ特定部は、第2建物に適用されたグループ特定部27である。なお、第2建物は、グループHが初めて訪れる建物でなくてもよい。第2建物において、過去にグループHの関心情報などが取得されていてもよい。
 なお、行先提示部22は、店舗の空き状況、または特定したグループの予約情報などを例えば店舗利用予約システムなどの案内システム1の外部から取得してもよい。行先提示部22は、取得した当該情報を用いてグループの行先のエリアを抽出してもよい。
 以上に説明したように、実施の形態6に係る案内システム1は、各々の建物に対応するグループ特定部27を備える。各々のグループ特定部27は、対応する建物に適用された利用者特定部14が特定する利用者を複数含むグループを特定する。関心情報取得部20は、いずれかの建物2のグループ特定部27に特定されたグループについて、当該建物2におけるエリアの配置および属性ならびに行動情報の関係に基づいて、属性ごとの当該グループの関心度を表す関心情報を取得する。関心情報記憶部21は、関心情報取得部20が取得した関心情報をグループごとに記憶する。行先提示部22は、いずれかの建物2に設けられた昇降設備の利用を開始するグループを当該建物2のグループ特定部27が特定するときに、当該建物2において、関心度のより高い属性を有するエリアをより優先して当該グループに行先として提示する。ここで、行先提示部22による行先の提示は、当該グループについて関心情報記憶部21が記憶している関心情報および当該建物2の属性記憶部13が記憶している属性の情報に基づいて行われる。また、行先提示部22による行先の提示は、各々の建物で取得された関心情報の一部または全部の情報を利用して行われる。
 このような構成により、複数の利用者が集まってグループとして行動する場合においても、当該グループに対してより適切な行先が提示されるようになる。これにより、グループとして行動する利用者についても、建物2における利便性がより高くなる。また、グループの関心情報は複数の建物2の間で共用されるので、案内システム1は、建物2に初めて訪れるグループに対しても関心に基づいた行先を提示できる。
 また、関心情報記憶部21に関心情報が記憶されたグループについて、当該グループに含まれる複数の利用者が、いずれかの建物2の昇降設備の利用を開始する利用者として当該建物2の利用者特定部14に特定されることがある。この場合に、当該建物2のグループ特定部27は、特定された複数の利用者の人数が予め設定された設定人数以上であるときに、当該複数の利用者を当該グループとして特定してもよい。あるいは、当該建物2のグループ特定部27は、特定された複数の利用者の人数の当該グループの人数に対する割合が予め設定された割合より多いときに、当該複数の利用者を当該グループとして特定してもよい。
 このような構成により、案内システム1は、グループのメンバが全員揃っていない場合においても、当該グループへの案内を提示できるようになる。これにより、グループとして行動する利用者の複数の建物2における利便性がより高くなる。
 実施の形態7.
 この例の案内システム1において、外部システム99にグループの関心情報の提供が行われる。
 図28は、実施の形態7に係る案内システム1の構成図である。
 中央管理装置24は、グループ特定部27を備える。中央管理装置24のグループ特定部27は、中央管理装置24の利用者特定部14が特定する利用者を複数含むグループを特定する。中央管理装置24のグループ特定部は、第3グループ特定部の例である。この例において、各々の建物のグループ特定部27と中央管理装置24のグループ特定部27とは、登録されたグループの情報を互いに共有する。登録されたグループの情報は、中央管理装置24に記憶されていてもよい。
 中央管理装置24は、例えば次のように外部システム99に情報を提供する。中央管理装置24の受信部25は、外部システム99から複数の利用者の画像を受信する。中央管理装置24の利用者特定部14は、外部システム99から受信した画像に基づいて、各々の利用者を特定する。中央管理装置24のグループ特定部27は、利用者特定部14が特定した複数の利用者をメンバとして含むグループが、登録されているかを判定する。当該複数の利用者がグループとして登録されているときに、グループ特定部27は、当該複数の利用者をメンバとして含む当該グループを特定する。また、送信部26は、特定されたグループについての関心情報を関心情報記憶部21から読み込み、外部システム99が適用される建物の俯瞰マップ上の各階床の各エリアに該当する最も関心度の高い属性を関心情報として特定し、当該建物における行先候補を外部システム99へ送信する。送信部26は、画像によって特定されたグループの最も関心度の高い属性を表す情報を外部システム99に送信する。
 外部システム99は、特定されたグループの行先候補を中央管理装置24から受信する。外部システム99は、受信した行先候補に基づいて、当該グループに行先を提示する。なお、外部システム99が適用される建物は、当該グループが初めて訪れる建物でなくてもよい。
 以上に説明したように、実施の形態7に係る案内システム1は、案内システム1が適用される建物2に対応するグループ特定部27と、中央管理装置24のグループ特定部27と、を備える。関心情報取得部20は、特定されたグループについて、エリアの配置および属性ならびに行動情報の関係に基づいて、属性ごとの当該グループの関心度を表す関心情報を取得する。関心情報記憶部21は、関心情報取得部20が取得した関心情報をグループごとに記憶する。送信部26は、中央管理装置24のグループ特定部27に特定されたグループについて、関心情報記憶部21が当該グループについて関心情報として記憶している関心度の高い候補を外部システム99に送信する。
 このような構成により、複数の利用者が集まってグループとして行動する場合においても、当該グループに対してより適切な行先が提示されるようになる。これにより、グループとして行動する利用者についても、案内システム1が適用された複数の建物2および外部システム99が適用された建物における利便性がより高くなる。
 また、関心情報記憶部21に関心情報が記憶されたグループについて、当該グループに含まれる複数の利用者が、外部システム99が適用される建物において、中央管理装置24の利用者特定部14に特定されることがある。この場合に、中央管理装置24のグループ特定部27は、特定された複数の利用者の人数が予め設定された設定人数以上であるときに、当該複数の利用者を当該グループとして特定してもよい。あるいは、中央管理装置24のグループ特定部27は、特定された複数の利用者の人数の当該グループの人数に対する割合が予め設定された割合より多いときに、当該複数の利用者を当該グループとして特定してもよい。
 このような構成により、案内システム1は、グループのメンバが全員揃っていない場合においても、当該グループへの案内を提示できるようになる。これにより、グループとして行動する利用者の利便性がより高くなる。
 実施の形態8.
 この例の案内システム1は、図1、図19、図21、図23、図26、または図28のいずれに示される構成であってもよく、あるいは、これらの組み合わせによる構成などであってもよい。
 この例の案内システム1において、利用者またはグループの関心情報に基づく行先の提示の可否が、例えば当該利用者またはグループのメンバなどによって選択される。
 関心情報記憶部21は、関心情報に基づく行先の提示の可否を、当該関心情報に関連付けて、切替え可能な情報として記憶する。関心情報に基づく行先の提示の可否は、提示の対象である当該関心情報に関する利用者またはグループのメンバなどによって選択される。提示の対象である利用者などは、例えば、案内システム1に接続可能なスマートフォンなどの携帯端末を通じて、または乗場操作盤9などの昇降設備のユーザインターフェースを通じて、提示可から提示不可への、または提示不可から提示可への切替えを行う。関心情報に基づく行先の提示の可否が提示不可に設定されているときに、案内システム1は、当該関心情報に基づく行先の提示を行わない。すなわち、関心情報に基づく行先の提示の可否が提示不可に設定されているときに、行先提示部22は、当該関心情報に関する利用者またはグループなどに行先の提示を行わない。また、案内システム1が外部システム99と連係する場合に、例えば、関心情報に基づく行先の提示の可否が提示不可に設定されているときに、案内システム1は、当該関心情報に関する利用者またはグループなどの情報を外部システム99に送信しない。
 関心情報に基づく行先の提示を提示不可に設定した利用者またはグループについて、行先の提示のマスクが可能となる。これにより、利用者またはグループへの望まない行先の提示が回避され、行先の提示の情報が保護されるようになる。
 本開示に係る案内システムは、複数の階床を有する建物に適用できる。
 1 案内システム、 2、2a、2b、2c、2d 建物、 3 エレベーター、 4 エスカレーター、 5 階段、 6 昇降路、 7 かご、 8 制御盤、 9 乗場操作盤、 10 かご操作盤、 10a 表示パネル、 10b 行先ボタン、 11 群管理装置、 12 カメラ、 13 属性記憶部、 14 利用者特定部、 15 行動情報取得部、 16 行動情報記憶部、 17 昇降設備判定部、 18 整合処理部、 19 階床判定部、 20 関心情報取得部、 21 関心情報記憶部、 22 行先提示部、 23 呼び登録部、 24 中央管理装置、 25 受信部、 26 送信部、 27 グループ特定部、 99 外部システム、 99a 記憶部、 100a プロセッサ、 100b メモリ、 200 専用ハードウェア

Claims (20)

  1.  建物の複数の階床の各々について、エリアごとの属性を記憶する属性記憶部と、
     前記建物に設けられた複数のカメラの少なくともいずれかが撮影する画像に基づいて、前記建物において利用者を特定する利用者特定部と、
     前記利用者特定部に特定された利用者が前記建物に設けられた1つ以上の昇降設備のいずれかを利用して前記複数の階床のうちの出発階から到着階まで移動したときに、前記複数のカメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、
     前記利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数のカメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、
     前記利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、
     前記関心情報取得部が取得した関心情報を利用者ごとに記憶する関心情報記憶部と、
     前記1つ以上の昇降設備のいずれかの利用を開始する利用者を前記利用者特定部が特定するときに、当該利用者について前記関心情報記憶部が記憶している関心情報および前記属性記憶部が記憶している属性の情報に基づいて、関心度のより高い属性を有するエリアをより優先して当該利用者に行先として提示する行先提示部と、
     を備える案内システム。
  2.  前記1つ以上の昇降設備が複数の昇降設備を含む場合において、
     前記利用者特定部に特定された利用者が前記複数の昇降設備のいずれかの利用を開始するときに、前記複数のカメラの少なくともいずれかが撮影する画像に基づいて当該利用者が利用する昇降設備を判定する昇降設備判定部と、
     前記利用者特定部が同一の利用者として特定した利用者の利用する設備として前記昇降設備判定部が同時に2つ以上の昇降設備を判定した場合に、当該2つ以上の昇降設備を利用する利用者を互いに異なる利用者として前記利用者特定部に特徴量の差を抽出した上で特定させる整合処理部と、
     を備える請求項1に記載の案内システム。
  3.  前記利用者特定部に特定された利用者を複数含むグループを特定するグループ特定部
     を備え、
     前記関心情報取得部は、前記グループ特定部に特定されたグループについて、当該グループに含まれる利用者に対し前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに当該グループに含まれる利用者に対し前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該グループの関心度を表す関心情報を取得し、
     前記関心情報記憶部は、前記関心情報取得部が取得した関心情報をグループごとに記憶し、
     前記行先提示部は、前記1つ以上の昇降設備のいずれかの利用を開始するグループを前記グループ特定部が特定するときに、当該グループについて前記関心情報記憶部が記憶している関心情報および前記属性記憶部が記憶している属性の情報に基づいて、関心度のより高い属性を有するエリアをより優先して当該グループに行先として提示する
     請求項1または請求項2に記載の案内システム。
  4.  前記グループ特定部は、前記関心情報記憶部に関心情報が記憶されたグループについて、前記1つ以上の昇降設備のいずれかの利用を開始する前記利用者特定部に特定された当該グループに含まれる複数の利用者の人数が、予め設定された人数以上であるときに、当該複数の利用者を当該グループとして特定する
     請求項3に記載の案内システム。
  5.  前記グループ特定部は、前記関心情報記憶部に関心情報が記憶されたグループについて、前記1つ以上の昇降設備のいずれかの利用を開始する前記利用者特定部に特定された当該グループに含まれる複数の利用者の人数の当該グループの人数に対する割合が、予め設定された割合より多いときに、当該複数の利用者を当該グループとして特定する
     請求項3に記載の案内システム。
  6.  前記1つ以上の昇降設備がエレベーターを含む場合において、
     前記行先提示部が提示した行先を含む行先階への呼びを前記エレベーターに自動登録する呼び登録部
     を備える請求項1から請求項5のいずれか一項に記載の案内システム。
  7.  第1建物の複数の階床の各々について、エリアごとの属性を記憶する第1属性記憶部と、
     前記第1建物に設けられた複数の第1カメラの少なくともいずれかが撮影する画像に基づいて、前記第1建物において利用者を特定する第1利用者特定部と、
     前記第1利用者特定部に特定された利用者が前記第1建物に設けられた1つ以上の昇降設備のいずれかを利用して前記第1建物の複数の階床のうちの出発階から到着階まで移動したときに、前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、
     前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、
     前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、
     前記関心情報取得部が取得した関心情報を利用者ごとに記憶する関心情報記憶部と、
     第2建物の複数の階床の各々について、エリアごとの属性を記憶する第2属性記憶部と、
     前記第2建物に設けられた複数の第2カメラの少なくともいずれかが撮影する画像に基づいて、前記第2建物において利用者を特定する第2利用者特定部と、
     前記第2建物に設けられた1つ以上の昇降設備のいずれかの利用を開始する利用者を前記第2利用者特定部が特定するときに、当該利用者について前記関心情報記憶部が記憶している関心情報および前記第2属性記憶部が記憶している属性の情報に基づいて、前記第2建物において、前記第1建物で取得された関心情報および前記第2建物で取得された関心情報のいずれかまたは両方の情報を利用して、当該利用者について関心度のより高い属性を有するエリアをより優先して当該利用者に行先として提示する行先提示部と、
     を備える案内システム。
  8.  前記第1利用者特定部が特定した利用者および前記第2利用者特定部が特定した利用者が互いに同一である場合に、特定された利用者を互いに異なる利用者として前記第1利用者特定部および前記第2利用者特定部に特徴量の差を抽出した上で特定させる
    整合処理部と、
     を備える請求項7に記載の案内システム。
  9.  前記第1利用者特定部に特定された利用者を複数含むグループを特定する第1グループ特定部と、
     前記第2利用者特定部に特定された利用者を複数含むグループを特定する第2グループ特定部と、
     を備え、
     前記関心情報取得部は、前記第1グループ特定部に特定されたグループについて、当該グループに含まれる利用者に対し前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに当該グループに含まれる利用者に対し前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該グループの関心度を表す関心情報を取得し、
     前記関心情報記憶部は、前記関心情報取得部が取得した関心情報をグループごとに記憶し、
     前記行先提示部は、前記第2建物に設けられた前記1つ以上の昇降設備のいずれかの利用を開始するグループを前記第2グループ特定部が特定するときに、当該グループについて前記関心情報記憶部が記憶している関心情報および前記第2属性記憶部が記憶している属性の情報に基づいて、前記第2建物において、前記第1建物で取得された関心情報および前記第2建物で取得された関心情報のいずれかまたは両方の情報を利用して、当該グループについて関心度のより高い属性を有するエリアをより優先して当該グループに行先として提示する
     請求項7または請求項8に記載の案内システム。
  10.  前記第2グループ特定部は、前記関心情報記憶部に関心情報が記憶されたグループについて、前記第2建物に設けられた前記1つ以上の昇降設備のいずれかの利用を開始する前記第2利用者特定部に特定された当該グループに含まれる複数の利用者の人数が、予め設定された人数以上であるときに、当該複数の利用者を当該グループとして特定する
     請求項9に記載の案内システム。
  11.  前記第2グループ特定部は、前記関心情報記憶部に関心情報が記憶されたグループについて、前記第2建物に設けられた前記1つ以上の昇降設備のいずれかの利用を開始する前記第2利用者特定部に特定された当該グループに含まれる複数の利用者の人数の当該グループの人数に対する割合が、予め設定された割合より多いときに、当該複数の利用者を当該グループとして特定する
     請求項9に記載の案内システム。
  12.  前記第2建物の1つ以上の昇降設備がエレベーターを含む場合において、
     前記行先提示部が提示した行先を含む階床への呼びを前記エレベーターに自動登録する呼び登録部
     を備える請求項7から請求項11のいずれか一項に記載の案内システム。
  13.  第1建物の複数の階床の各々について、エリアごとの属性を記憶する属性記憶部と、
     前記第1建物に設けられた複数の第1カメラの少なくともいずれかが撮影する画像に基づいて、前記第1建物において利用者を特定する第1利用者特定部と、
     前記第1利用者特定部に特定された利用者が前記第1建物に設けられた1つ以上の昇降設備のいずれかを利用して前記第1建物の複数の階床のうちの出発階から到着階まで移動したときに、前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、
     前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、
     前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、
     前記関心情報取得部が取得した関心情報を利用者ごとに記憶する関心情報記憶部と、
     第3建物に設けられた1つ以上の昇降設備のいずれかの利用を開始する利用者の画像を、前記第3建物の複数の階床の各々を記憶し、更新する記憶部を有し前記第3建物において利用者の関心度に応じて行先を提示する外部システムから受信する受信部と、
     前記受信部が受信した画像に基づいて利用者を特定する第3利用者特定部と、
     前記第3利用者特定部に特定された利用者について、前記関心情報記憶部が当該利用者について関心情報として記憶している関心度の高い候補を前記外部システムに送信する送信部と、
     を備える案内システム。
  14.  前記第1利用者特定部に特定された利用者を複数含むグループを特定する第1グループ特定部と、
     前記第3利用者特定部に特定された利用者を複数含むグループを特定する第3グループ特定部と、
     を備え、
     前記関心情報取得部は、前記第1グループ特定部に特定されたグループについて、当該グループに含まれる利用者に対し前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに当該グループに含まれる利用者に対し前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該グループの関心度を表す関心情報を取得し、
     前記関心情報記憶部は、前記関心情報取得部が取得した関心情報をグループごとに記憶し、
     前記送信部は、前記第3グループ特定部に特定されたグループについて、前記関心情報記憶部が当該グループについて関心情報として記憶している関心度の高い候補を前記外部システムに送信する
     請求項13に記載の案内システム。
  15.  前記第3グループ特定部は、前記関心情報記憶部に関心情報が記憶されたグループについて、前記第3建物において前記第3利用者特定部に特定された当該グループに含まれる複数の利用者の人数が、予め設定された人数以上であるときに、当該複数の利用者を当該グループとして特定する
     請求項14に記載の案内システム。
  16.  前記第3グループ特定部は、前記関心情報記憶部に関心情報が記憶されたグループについて、前記第3建物において前記第3利用者特定部に特定された当該グループに含まれる複数の利用者の人数の当該グループの人数に対する割合が、予め設定された割合より多いときに、当該複数の利用者を当該グループとして特定する
     請求項14に記載の案内システム。
  17.  前記関心情報取得部は、前記行動情報取得部が利用者の到着階における行動情報の取得を完了するたびに当該利用者の関心情報を取得する
     請求項1から請求項16のいずれか一項に記載の案内システム。
  18.  前記行動情報取得部が取得する行動情報を利用者ごとに記憶する行動情報記憶部
     を備え、
     前記関心情報取得部は、予め設定されたタイミングで前記行動情報記憶部から利用者ごとの行動情報を読み込み、読み込んだ行動情報に基づいて当該利用者の関心情報を取得する
     請求項1から請求項17のいずれか一項に記載の案内システム。
  19.  前記行動情報取得部は、利用者の画像から行動情報を導出するモデルを機械学習の手法によって学習し、学習したモデルに基づいて利用者の画像から行動情報を取得する
     請求項1から請求項18のいずれか一項に記載の案内システム。
  20.  前記関心情報記憶部は、記憶している関心情報に基づく行先の提示の可否を、切替え可能な情報として当該関心情報に関連付けて記憶する
     請求項1から請求項19のいずれか一項に記載の案内システム。
PCT/JP2022/000109 2021-01-13 2022-01-05 案内システム WO2022153899A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202280009002.XA CN116710379A (zh) 2021-01-13 2022-01-05 引导系统
DE112022000602.1T DE112022000602T5 (de) 2021-01-13 2022-01-05 Leitsystem
US18/271,241 US20240051789A1 (en) 2021-01-13 2022-01-05 Guidance system
KR1020237022748A KR20230116037A (ko) 2021-01-13 2022-01-05 안내 시스템
JP2022575542A JPWO2022153899A1 (ja) 2021-01-13 2022-01-05

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/000916 WO2022153411A1 (ja) 2021-01-13 2021-01-13 案内システム
JPPCT/JP2021/000916 2021-01-13

Publications (1)

Publication Number Publication Date
WO2022153899A1 true WO2022153899A1 (ja) 2022-07-21

Family

ID=82447594

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2021/000916 WO2022153411A1 (ja) 2021-01-13 2021-01-13 案内システム
PCT/JP2022/000109 WO2022153899A1 (ja) 2021-01-13 2022-01-05 案内システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/000916 WO2022153411A1 (ja) 2021-01-13 2021-01-13 案内システム

Country Status (6)

Country Link
US (1) US20240051789A1 (ja)
JP (1) JPWO2022153899A1 (ja)
KR (1) KR20230116037A (ja)
CN (1) CN116710379A (ja)
DE (1) DE112022000602T5 (ja)
WO (2) WO2022153411A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7401011B1 (ja) 2023-03-24 2023-12-19 フジテック株式会社 エレベータの制御システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113662A (ja) * 2008-11-10 2010-05-20 Cec:Kk 購買分析システム
JP2012224423A (ja) * 2011-04-18 2012-11-15 Mitsubishi Electric Corp エレベータの行先階登録装置
JP2014201411A (ja) * 2013-04-05 2014-10-27 三菱電機株式会社 エレベータの呼び登録装置、及びエレベータの呼び登録方法
WO2016194231A1 (ja) * 2015-06-05 2016-12-08 三菱電機株式会社 エレベータ情報提示システム
JP2018135215A (ja) * 2017-02-22 2018-08-30 オーチス エレベータ カンパニーOtis Elevator Company エレベータシステムの制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113662A (ja) * 2008-11-10 2010-05-20 Cec:Kk 購買分析システム
JP2012224423A (ja) * 2011-04-18 2012-11-15 Mitsubishi Electric Corp エレベータの行先階登録装置
JP2014201411A (ja) * 2013-04-05 2014-10-27 三菱電機株式会社 エレベータの呼び登録装置、及びエレベータの呼び登録方法
WO2016194231A1 (ja) * 2015-06-05 2016-12-08 三菱電機株式会社 エレベータ情報提示システム
JP2018135215A (ja) * 2017-02-22 2018-08-30 オーチス エレベータ カンパニーOtis Elevator Company エレベータシステムの制御方法

Also Published As

Publication number Publication date
KR20230116037A (ko) 2023-08-03
CN116710379A (zh) 2023-09-05
WO2022153411A1 (ja) 2022-07-21
US20240051789A1 (en) 2024-02-15
DE112022000602T5 (de) 2023-11-02
JPWO2022153899A1 (ja) 2022-07-21

Similar Documents

Publication Publication Date Title
CN107850443B (zh) 信息处理装置、信息处理方法以及程序
US11386790B2 (en) Vehicle operation management system and vehicle operation management method
US7454216B2 (en) in-facility information provision system and in-facility information provision method
JP6742962B2 (ja) エレベーターシステム、画像認識方法及び運行制御方法
CN106461399B (zh) 信息处理装置、信息处理方法和程序
US11109188B2 (en) Real-time processing of spatiotemporal data
KR20070046702A (ko) 센싱 시스템을 이용한 노드 관리 시스템 및 노드 관리프로그램
KR102558767B1 (ko) 로봇 친화형 건물
WO2022153899A1 (ja) 案内システム
JP5959120B2 (ja) エレベータ表示システム、およびこれに利用するコンテンツ管理サーバ
US7693514B2 (en) Information gathering robot
CN113428749A (zh) 层站用内容选择系统及层站用内容选择方法
JP6270961B1 (ja) エレベータ群管理装置およびエレベータ群管理方法
JP7139921B2 (ja) 車両及び通知方法
KR101947570B1 (ko) 사용자 맞춤 동작을 수행하는 승강 시스템
WO2021191981A1 (ja) エレベーターシステム
JP7310511B2 (ja) 施設利用者管理システム
JP2019082450A (ja) 情報処理装置、通知システム、方法及びプログラム
JP7294538B2 (ja) 建物の交通管理システム
JP6969654B1 (ja) 案内システムおよびエレベーターシステム
JP6719357B2 (ja) エレベータシステム
JP5886389B1 (ja) エレベータシステム
WO2023079600A1 (ja) 興味関心度計測システムおよびシミュレーションシステム
JP7036690B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2020030497A (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22739309

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022575542

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202280009002.X

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 20237022748

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18271241

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112022000602

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22739309

Country of ref document: EP

Kind code of ref document: A1