WO2023079600A1 - 興味関心度計測システムおよびシミュレーションシステム - Google Patents

興味関心度計測システムおよびシミュレーションシステム Download PDF

Info

Publication number
WO2023079600A1
WO2023079600A1 PCT/JP2021/040434 JP2021040434W WO2023079600A1 WO 2023079600 A1 WO2023079600 A1 WO 2023079600A1 JP 2021040434 W JP2021040434 W JP 2021040434W WO 2023079600 A1 WO2023079600 A1 WO 2023079600A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
interest
unit
information
floor
Prior art date
Application number
PCT/JP2021/040434
Other languages
English (en)
French (fr)
Inventor
立 真壁
真実 相川
啓 五味田
淳志 堀
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2021/040434 priority Critical patent/WO2023079600A1/ja
Priority to JP2023557868A priority patent/JPWO2023079600A1/ja
Priority to CN202180103735.5A priority patent/CN118202375A/zh
Publication of WO2023079600A1 publication Critical patent/WO2023079600A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/16Real estate

Definitions

  • the present disclosure relates to an interest level measurement system and a simulation system.
  • Patent Document 1 discloses an example of an interest level analysis system.
  • the interest level analysis system analyzes the user's level of interest in the object based on the user's movement trajectory and movement speed in the effective range of the object.
  • the present disclosure relates to solving such problems.
  • the present disclosure provides an interest degree measurement system that can obtain information on the user's interest in a building even for a user who does not possess a pre-registered mobile device, and a simulation system that can simulate changes in the information. do.
  • the interest level measurement system includes an attribute storage unit that stores attributes for each area on each of a plurality of floors of a building, and an image captured by at least one of a plurality of cameras provided in the building. based on the user identification unit that identifies the user in the building, and the user identified by the user identification unit using one or more lifting equipment provided in the building a floor determination unit that determines the arrival floor of the user based on an image captured by at least one of the plurality of cameras when the user moves from the departure floor to the arrival floor among the plurality of floors; For the user identified by the user identification unit, action information representing the behavior of the user on the arrival floor determined by the floor determination unit is acquired based on the image captured by at least one of the plurality of cameras.
  • an interest information acquisition unit that acquires interest information representing the interest level of the user for each attribute, and interest information that stores the interest information acquired by the interest information acquisition unit for each user, including time and place information a storage unit, and a visualization processing unit that uses the information stored in the interest information storage unit to generate an interest level map that visualizes the distribution of the level of interest of users of the building on at least one of the plurality of floors. And prepare.
  • a degree-of-interest measuring system includes a first attribute storage unit that stores attributes for each area for each of a plurality of floors of a first building, and a plurality of first cameras provided in the first building.
  • a first user identification unit that identifies a user in the first building based on an image captured by at least one of; and a user identified by the first user identification unit is provided in the first building
  • At least one of the plurality of first cameras captures images when moving from the departure floor to the arrival floor among the plurality of floors of the first building using any one of the one or more elevator equipment provided.
  • a floor determination unit that determines the arrival floor of the user based on the image that is displayed; a behavior information acquisition unit that acquires behavior information representing behavior based on images captured by at least one of the plurality of first cameras; and a floor determination for the user identified by the first user identification unit.
  • an interest information acquisition unit that acquires interest information representing the degree of interest of the user for each attribute based on the arrangement and attributes of the areas on the arrival floor determined by the unit and the relationship between the behavior information acquired by the behavior information acquisition unit; , an interest information storage unit that stores the interest information acquired by the interest information acquisition unit for each user, including time and place information; At least one of the plurality of floors of the second building using a second attribute storage unit, attribute information stored in the second attribute storage unit, and information stored in the interest information storage unit and a visualization processing unit that generates an interest level map that visualizes the distribution of the user's level of interest in the second building.
  • the interest level measurement system includes an attribute storage unit that stores attributes for each area for each of a plurality of floors of a first building, and at least a plurality of first cameras provided in the first building.
  • a first user identification unit that identifies a user in the first building based on an image taken by any one, and a user identified by the first user identification unit are provided in the first building.
  • a floor determination unit that determines the arrival floor of the user based on the user's behavior on the arrival floor determined by the floor determination unit for the user specified by the first user identification unit a behavior information acquisition unit that acquires behavior information based on images captured by at least one of the plurality of first cameras; and the floor determination unit for the user identified by the first user identification unit.
  • an interest information acquisition unit that acquires interest information representing a degree of interest of the user for each attribute based on the relationship between the location and attributes of the areas on the determined arrival floor and the behavior information acquired by the behavior information acquisition unit;
  • An interest information storage unit that stores the interest information acquired by the interest information acquisition unit for each user, including time and place information, and an external system that stores images of users of the third building to the third building.
  • a receiving unit that receives from, a third user specifying unit that specifies a user based on the image received by the receiving unit, and the interest information storage unit for the user specified by the third user specifying unit Using information stored as information of interest and attribute information for each area of at least one of the plurality of floors of the third building determined based on the image received by the receiving unit, the third a visualization processing unit that generates an interest level map that visualizes the distribution of the level of interest of the users of the third building on the floor for which attribute information has been determined among the plurality of floors of the building.
  • the interest level measurement system includes an attribute storage unit that stores attributes for each area for each of a plurality of floors of a first building, and at least a plurality of first cameras provided in the first building.
  • a first user identification unit that identifies a user in the first building based on an image taken by any one, and a user identified by the first user identification unit are provided in the first building.
  • a floor determination unit that determines the arrival floor of the user based on the user's behavior on the arrival floor determined by the floor determination unit for the user specified by the first user identification unit a behavior information acquisition unit that acquires behavior information based on images captured by at least one of the plurality of first cameras; and the floor determination unit for the user identified by the first user identification unit.
  • an interest information acquisition unit that acquires interest information representing a degree of interest of the user for each attribute based on the relationship between the location and attributes of the areas on the determined arrival floor and the behavior information acquired by the behavior information acquisition unit; Start using either the interest information storage unit that stores the interest information acquired by the interest information acquisition unit for each user, including time and place information, or one or more elevators installed in the third building a receiving unit for receiving from an external system an image of a user who performs the For the user, the interest information storage unit includes a transmission unit for transmitting information on destination candidates with a high degree of interest of the user to the external system.
  • the simulation system sets simulation conditions based on the interest level measurement system and the existing conditions stored in the interest information storage unit, and changes from the existing conditions acquired by the interest information acquisition unit. and a simulation processing unit for simulating a change in the information of interest based on the new conditions set.
  • the degree-of-interest measurement system or simulation system it is possible to obtain information on the user's interest in the building even for a user who does not have a pre-registered mobile device, and to detect changes in the information. be able to simulate.
  • FIG. 1 is a configuration diagram of a simulation system according to Embodiment 1;
  • FIG. FIG. 2 is a diagram showing an example of a car operating panel according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of areas on a floor according to Embodiment 1.
  • FIG. 2 is a diagram showing an example of camera arrangement according to Embodiment 1.
  • FIG. 2 is a diagram showing an example of camera arrangement according to Embodiment 1.
  • FIG. 2 is a diagram showing an example of camera arrangement according to Embodiment 1.
  • FIG. 4 is a diagram showing an example of behavior information acquired by a behavior information acquisition unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of behavior information acquired by a behavior information acquisition unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of behavior information acquired by a behavior information acquisition unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of behavior information acquired by a behavior information
  • FIG. 4 is a diagram showing an example of behavior information acquired by a behavior information acquisition unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of behavior information acquired by a behavior information acquisition unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of behavior information acquired by a behavior information acquisition unit according to Embodiment 1;
  • FIG. 4 is a table showing an example of determination by a floor determination unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of determination by a floor determination unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of determination by a floor determination unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of determination by a floor determination unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of determination by a floor determination unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of determination by a floor determination unit according to Em
  • FIG. 4 is a diagram showing an example of determination by a floor determination unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of determination by a floor determination unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of determination by a floor determination unit according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of behavior information acquisition by the interest degree measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of behavior information acquisition by the interest degree measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of behavior information acquisition by the interest degree measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of acquisition of interest information by the interest degree measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of acquisition of interest information by the interest degree measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of acquisition of interest information by the interest
  • FIG. 4 is a diagram showing an example of acquisition of interest information by the interest degree measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of acquisition of interest information by the interest degree measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of acquisition of interest information by the interest degree measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of presentation of a destination by the degree-of-interest measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of presentation of a destination by the degree-of-interest measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of presentation of a destination by the degree-of-interest measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of presentation of a destination by the degree-of-interest measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of presentation of a destination by the degree-of
  • FIG. 4 is a diagram showing an example of presentation of a destination by the degree-of-interest measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of an interest level map by the interest level measuring system according to Embodiment 1;
  • FIG. FIG. 4 is a diagram showing an example of an interest level map by the interest level measuring system according to Embodiment 1;
  • FIG. FIG. 4 is a diagram showing an example of an interest level map by the interest level measuring system according to Embodiment 1;
  • FIG. FIG. 4 is a diagram showing an example of an interest level map by the interest level measuring system according to Embodiment 1;
  • FIG. FIG. 4 is a diagram showing an example of an interest level map by the interest level measuring system according to Embodiment 1;
  • FIG. FIG. 4 is a diagram showing an example of an interest level map by the interest level measuring system according to Embodiment 1;
  • FIG. FIG. FIG. 4 is a diagram showing an example of an interest level map by the interest level
  • FIG. 4 is a diagram showing an example of an interest level map by the interest level measuring system according to Embodiment 1;
  • FIG. FIG. 4 is a diagram showing an example of an interest level map by the interest level measuring system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of setting simulation conditions in the simulation system according to the first embodiment;
  • FIG. FIG. 5 is a diagram showing an example of simulation results by the simulation system according to Embodiment 1;
  • FIG. FIG. 5 is a diagram showing an example of simulation results by the simulation system according to Embodiment 1;
  • FIG. FIG. 4 is a diagram showing an example of an interest level map by the interest level measuring system according to Embodiment 1;
  • FIG. FIG. 4 is a diagram showing an example of an interest level map by the interest level measuring system according to Embodiment 1;
  • FIG. 5 is a diagram showing an example of simulation results by the simulation system according to Embodiment 1;
  • FIG. 2 is a diagram showing an example of a building layout according to Embodiment 1;
  • FIG. 5 is a diagram showing an example of simulation results by the simulation system according to Embodiment 1;
  • FIG. 5 is a diagram showing an example of simulation results by the simulation system according to Embodiment 1;
  • FIG. FIG. 1 is a hardware configuration diagram of main parts of the interest degree measuring system and the simulation system according to Embodiment 1.
  • FIG. 10 is a diagram showing an example of presentation of a destination by the degree-of-interest measuring system according to Embodiment 2;
  • FIG. 10 is a diagram showing an example of presentation of a destination by the degree-of-interest measuring system according to Embodiment 2;
  • FIG. 10 is a diagram showing an example of presentation of a destination by the degree-of-interest measuring system according to Embodiment 2;
  • FIG. 10 is a diagram showing an example of presentation of a destination by the degree-of-interest measuring system according to Embodiment 2;
  • FIG. 10 is a diagram showing an example of presentation of a destination by the degree-of-interest measuring system according to Embodiment 2;
  • FIG. 11 is a configuration diagram of an interest degree measuring system according to Embodiment 3;
  • FIG. 13 is a diagram showing an example of presentation of a destination by the degree-of-interest measuring system according to Embodiment 3;
  • FIG. 12 is a configuration diagram of an interest degree measuring system according to Embodiment 4;
  • FIG. 14 is a diagram showing an example of disclosing an interest level map or a simulation result of changes in interest information by the interest level measuring system according to Embodiment 4;
  • FIG. 1 is a configuration diagram of a simulation system 50 according to Embodiment 1. As shown in FIG. 1
  • the simulation system 50 includes the degree-of-interest measurement system 1 .
  • An interest degree measuring system 1 is applied to a building 2 having a plurality of floors.
  • the degree-of-interest measuring system 1 is a system that allows the owner of the building 2, for example, to visualize an area in which the user of the building 2 has a high degree of interest.
  • the users of the building 2 include, for example, visitors who visit the building 2, employees who work in the building 2, and the like.
  • Elevator equipment is equipment used by users of the building 2 to move between floors.
  • the lifting equipment is, for example, an elevator 3, an escalator 4, or a staircase 5 or the like.
  • Each floor of the building 2 is provided with an entrance for stairs 5 .
  • a user who moves from the departure floor to the arrival floor using the stairs 5 starts using the stairs 5 from the entrance on the departure floor. After that, the user completes the use of the stairs 5 at the boarding gate of the arrival floor.
  • the stairs 5 may be a slope that allows oblique movement between floors.
  • each elevator 3 is a transport device that transports users between floors.
  • a hoistway 6 for the elevator 3 is provided.
  • the hoistway 6 is a space spanning multiple floors.
  • a landing for an elevator 3 is provided on each floor of the building 2 .
  • a landing for the elevator 3 is a space adjacent to the hoistway 6 .
  • Each elevator 3 has a car 7 , a control panel 8 and a hall operating panel 9 .
  • the car 7 is a device for transporting users inside the car between a plurality of floors by traveling up and down the hoistway 6 .
  • the car 7 has a car operating panel 10 .
  • the car operating panel 10 is a device that accepts a user's operation to specify the destination floor of the car 7 .
  • the control panel 8 is a device that controls the running of the car 7 in response to a call registered in the elevator 3, for example.
  • the hall operating panel 9 is a device that receives an operation of a user who registers a call to the elevator 3 .
  • the hall operating panel 9 is provided, for example, in the hall of each floor.
  • the hall operating panel 9 may be shared among the plurality of elevators 3 .
  • a user who moves from the departure floor to the arrival floor using the elevator 3 registers a call by operating the hall operating panel 9 at the hall of the departure floor, for example.
  • a group control device 11 is provided for managing operations such as allocating calls to a plurality of elevators 3 .
  • equipment that replaces the group management apparatus as independent equipment, or equipment that has software installed with the functions of the group management apparatus as independent equipment, or the like may be provided.
  • a part or all of information processing functions such as operation management may be mounted on the control panel 8 .
  • a part or all of the information processing functions such as operation management may be installed in a server device or the like that can communicate with each elevator 3 .
  • the server device may be placed either inside or outside the building 2 .
  • a part or all of the functions of information processing for operation management and the like may be installed in a virtual machine or the like on a cloud service capable of communicating with each elevator 3 .
  • Some or all of the information processing functions such as operation management may be realized by dedicated hardware, may be realized by software, or may be realized by using dedicated hardware and software together.
  • each of the above-exemplified means for performing information processing regarding operation management and the like will be referred to as a group control device 11 regardless of its configuration.
  • the escalator 4 spans between the upper and lower floors.
  • the escalator 4 is a transport device that transports users between upper and lower floors.
  • Each floor of the building 2 is provided with an entrance for an escalator 4 .
  • a user moving from a departure floor to an arrival floor using one or more escalators 4 starts using the escalator 4 from the boarding gate of the departure floor.
  • a plurality of cameras 12 are provided in the building 2 .
  • Each camera 12 is a device that takes an image of the place where it is provided. Images captured by each camera 12 include, for example, still images or moving images.
  • the format of the image captured by each camera 12 may be a compressed image format such as Motion JPEG, AVC, HEVC, or the like. Alternatively, the format of the images captured by each camera 12 may be an uncompressed image format.
  • Each camera 12 has a function of outputting a captured image to an external device. In this example, each camera 12 is synchronized with each other so that images taken at the same time can be acquired as images at the same time.
  • the plurality of cameras 12 includes cameras 12 provided on each floor.
  • the plurality of cameras 12 includes cameras 12 provided inside the car 7 of the elevator 3 .
  • the multiple cameras 12 include the camera 12 provided at the entrance/exit of the escalator 4 .
  • the multiple cameras 12 include the camera 12 provided at the entrance/exit of the stairs 5 .
  • the plurality of cameras 12 may include cameras 12 installed outdoors such as at the entrance, perimeter, or courtyard of the building 2, as well as cameras 12 installed on each floor.
  • the plurality of cameras 12 may include the cameras 12 provided at the landings of the elevator 3 as well as the cameras 12 provided at each floor.
  • the plurality of cameras 12 may include the camera 12 provided in front of the escalator 4 entrance/exit, similar to the camera 12 installed at the entrance/exit of the escalator 4 .
  • the plurality of cameras 12 may include the cameras 12 provided in front of the entrance of the stairs 5 as well as the cameras 12 installed at the entrance of the stairs 5 .
  • the interest level measurement system 1 may include some or all of the multiple cameras 12 . Alternatively, some or all of the cameras 12 may be devices external to the degree-of-interest measurement system 1 .
  • the degree-of-interest measuring system 1 provides guidance by information processing based on images acquired from each camera 12 .
  • the interest level measurement system 1 includes an attribute storage unit 13, a user identification unit 14, an action information acquisition unit 15, an action information storage unit 16, and an elevator equipment determination unit 17 as parts responsible for information processing.
  • a processing unit 18 , a floor determination unit 19 , an interest information acquisition unit 20 , an interest information storage unit 21 , a destination presentation unit 22 , a call registration unit 23 , and a visualization processing unit 27 are provided.
  • the attribute storage unit 13, the user identification unit 14, the behavior information acquisition unit 15, the behavior information storage unit 16, the elevator equipment determination unit 17, the matching processing unit 18, and the floor determination unit 19 of the interest level measurement system 1 , interest information acquisition unit 20 , interest information storage unit 21 , destination presentation unit 22 , and call registration unit 23 are mounted on group control device 11 .
  • part or all of the part responsible for information processing in the interest/interest degree measuring system 1 may be installed in an external server device or the like that can communicate with the group management device 11 .
  • part or all of the part responsible for information processing in the degree-of-interest measurement system 1 may be installed in an external server device or the like that can communicate with the server device provided in the building 2 .
  • part or all of the information processing part of the interest level measuring system 1 may be implemented by processing or storage resources on a cloud service.
  • the attribute storage unit 13 is a part that stores information.
  • attributes for each area of each floor of the building 2 are stored.
  • the area of each floor is a portion that occupies part or all of the floor.
  • the area of each floor is, for example, the part where the tenants of the floor concerned move in.
  • the area of each floor may be, for example, a portion of a shop or the like that operates on that floor.
  • the attribute storage unit 13 stores information specifying an area, for example, a range of coordinates on each floor.
  • the area is not limited to a two-dimensional plane, and may be a high-dimensional space such as a three-dimensional space.
  • the attributes of an area represent one or more things, things, people, and the like.
  • the attribute of the area is the type of store, or the type of goods or services handled in the store.
  • the attribute of the area may be the name of the store, or the name of the goods or services handled by the store.
  • the attribute of the area may be the person in the office. That is, the attribute of an area is the user's goal.
  • Each area may have multiple attributes.
  • One or more attributes of each area may be assigned by a person or may be assigned using AI (Artificial Intelligence).
  • the user identification unit 14 has a function of identifying users of the building 2 based on images captured by at least one of the cameras 12.
  • the user identification unit 14 identifies the user by, for example, collating the user's face information extracted from the image with existing information, if any, by two-dimensional face authentication. Determine.
  • the user identification unit 14 may newly register the user's face information extracted from the image when there is no existing information such as a first-time user.
  • features such as the nose, ears, eyes, mouth, cheeks, chin, and neck of the face are used as the face information.
  • the user identification unit 14 may acquire information such as the iris or pupil of the eye.
  • the user identification unit 14 When the pupil of the eye is uneven rather than circular or elliptical, or when the iris information is determined to be abnormal, the user identification unit 14 has the risk of acquiring fake face information created by AI or the like. Alternatively, the risk of obtaining face information while wearing black sunglasses that shield the iris may be detected and an alert may be sent.
  • the behavior information acquisition unit 15 has a function of acquiring the behavior information of the user identified by the user identification unit 14 .
  • User behavior information is, for example, time-series data of information representing the location of the user.
  • the behavior information is not limited to three-dimensional information that combines a two-dimensional plane and a time axis, and may be, for example, higher-dimensional information that combines a high-dimensional space such as three dimensions and a time axis.
  • the location of the user includes information such as the floor on which the user is located, the coordinates of the user on the floor, and the orientation of the user.
  • the location of the user may include information identifying the elevator facility if the user is using one of the elevator facilities.
  • the behavior information as time-series data includes, for example, information on the arrangement of users acquired at preset time intervals.
  • the behavior information acquisition unit 15 acquires user behavior information based on images captured by at least one of the cameras 12 .
  • the behavior information acquisition unit 15 continuously updates the behavior information of the user, for example, at preset time intervals.
  • the behavior information storage unit 16 is a part that stores information.
  • the behavior information storage unit 16 stores the behavior information acquired by the behavior information acquisition unit 15 for each user identified by the user identification unit 14 .
  • the behavior information storage unit 16 stores identification information unique to the user necessary for identification by the user identification unit 14, behavior information of the user, and information on the time and place when the behavior information was acquired. Store in association.
  • the elevator equipment determination unit 17 has a function of determining the elevator equipment used by the user identified by the user identification unit 14 .
  • the elevator facility determination unit 17 determines the elevator facility to be used based on the image captured by at least one of the cameras 12 . For example, when a user starts using one of the elevator facilities on the departure floor, the elevator facility determination unit 17 determines the elevator facility as the elevator facility to be used by the user.
  • the matching processing unit 18 is equipped with a function for matching between the identification of the user by the user identification unit 14 and the determination of the elevator equipment used by the user by the elevator equipment determination unit 17 .
  • the matching process is performed, for example, as follows.
  • the user identification unit 14 may mistakenly identify different users as the same user.
  • the elevator equipment determination unit 17 may determine two or more elevator equipment at the same time as the elevator equipment used by the user identified by the user identification unit 14 as the same user. be. Since the same person cannot use two or more lifting facilities at the same time, the matching processing section 18 requests the user identification section 14 to correct the identification of the user. At this time, the user identification unit 14 identifies users that have been erroneously identified as the same user as different users.
  • the user specifying unit 14 extracts the difference in the feature amount of the users from the acquired images when specifying different users, thereby improving the accuracy of specifying the users and identifying the different users. re-identify the The user identification unit 14 may make adjustments such as narrowing the range of feature amounts for determining the same user according to the difference in the extracted feature amounts, for example. The user specifying unit 14 may improve the certainty of specifying the user based on the difference in feature quantity extracted by other methods.
  • the floor determination unit 19 has a function of determining the arrival floor of the user identified by the user identification unit 14 .
  • the arrival floor of the user is the floor on which the user using the lifting equipment has finished using the lifting equipment. For example, when the user is using the elevator 3, the arrival floor of the user is the floor from which the user gets off the elevator 3.
  • the floor determination unit 19 determines the arrival floor based on the images captured by at least one of the cameras 12 . For example, when a user completes using the lifting equipment on any floor, the floor determination unit 19 determines that floor as the user's arrival floor.
  • the interest information acquisition unit 20 has a function of acquiring interest information about the user identified by the user identification unit 14 .
  • the user's interest information is information representing the interest level of the user for each attribute attached to the area.
  • Interest information acquisition unit 20 acquires interest information based on the user's behavior on the arrival floor.
  • the behavior of the user includes information such as the length of stay of the user at the arrival floor and the direction of interest, which is the direction in which the user shows interest at the arrival floor.
  • the interest information acquisition unit 20 uses the information stored by the attribute storage unit 13 and the behavior information acquired by the behavior information acquisition unit 15 or the behavior information stored by the behavior information storage unit 16 to Get interest information based on behavior.
  • One of the interest information indicates the presence or absence of interest, and the other indicates the degree of interest.
  • the degree of interest is analyzed using either or both of the period during which the user showed interest in the attribute attached to the area in the direction of interest of the user and the length of stay.
  • the interest information acquisition unit 20 adds information each time information from each floor is added to each user.
  • the interest information acquisition unit 20 sorts the degree of interest in the results of analysis based on the updated information in order of priority each time.
  • the interest information storage unit 21 is a part that stores information. Interest information is stored for each user in the interest information storage unit 21 .
  • the interest information storage unit 21 associates and stores identification information unique to the user, interest information of the user, and information on the time and place at which the interest information was acquired.
  • the destination presentation unit 22 has a function of presenting a destination to the user based on the interest information stored in the interest information storage unit 21 .
  • the destination presenting unit 22 presents to the user, for example, an area having an attribute of high interest to the user as a destination.
  • the destination information presented by the destination presentation unit 22 includes, for example, attributes of the destination, a destination floor that is a floor including the destination, or a route from the user's current position to the destination.
  • the destination presenting unit 22 presents to the user, for example, a video.
  • the video displayed by the destination presentation unit 22 includes, for example, characters, still images, or images.
  • the image may be, for example, a two-dimensional image displayed by a display device such as a display or a projection device such as a projector.
  • the image may be a three-dimensionally displayed spatial image.
  • the image is displayed, for example, inside the car 7 of the elevator 3, at the platform of the elevator 3, at the entrance/exit of the escalator 4, or at the entrance/exit of the stairs 5, or the like.
  • the display device may be, for example, a light indicating a destination, a liquid crystal display, an organic EL display (organic EL: Organic Electro-Luminescence), a luminescent film, an LED display (LED: Light Emitting Diode), a projector, or a stereoscopic (3D) display. It may be a machine or the like.
  • the destination presenting unit 22 may present the destination to the user by voice, for example.
  • a device that emits sound, such as a speaker is placed, for example, inside the car 7 of the elevator 3, at the landing of the elevator 3, at the entrance/exit of the escalator 4, or at the entrance/exit of the stairs 5, or the like.
  • the call registration unit 23 has a function of registering the call to the destination floor presented by the destination presentation unit 22 in the elevator 3 that the user starts using.
  • the call registration unit 23 determines whether or not the call to the destination floor presented to the user is registered, based on the behavior of the user in response to the presentation, that is, the length of stay, the presence or absence of interest, and a portion of the level of interest. Alternatively, determination may be made according to the order of priority analyzed using all elements.
  • the call registration unit 23 registers the call to the elevator 3 in which the user has boarded the car 7, for example.
  • the call registration unit 23 may input control information for registering the call to the group control device 11 .
  • the visualization processing unit 27 is a part equipped with a function to generate an interest level map.
  • the interest level map is information that visualizes the distribution of interest levels of users of the building 2, for example.
  • the visualization processing unit 27 uses the information stored in the interest information storage unit 21 to generate an interest level map.
  • the visualization processing unit 27 visualizes, for example, the distribution of interest levels on any floor of the building 2 as an interest level map.
  • the interest distribution is visualized by information such as a table, graph, or diagram.
  • the visualization processing unit 27 may generate an interest level map including information stored in the behavior information storage unit 16 .
  • the visualization processing unit 27 may generate the interest level map including information on the destination actually presented to the user by the destination presentation unit 22 .
  • the visualization processing unit 27 may generate an interest level map including classification information such as the user's sex, age, or both, or information other than these.
  • the generated interest level map is not limited to a three-dimensional map centered on the level of interest in the two-dimensional bird's-eye view map. For example, higher-dimensional information such as stereoscopic moving images may be used.
  • the interest level measurement system 1 includes an operation display section 28 .
  • the operation display unit 28 has a function of displaying information processed in the degree-of-interest measurement system 1 to, for example, the owner of the building 2 .
  • the display functionality is implemented by, for example, a monitor, projector, LED display, smart phone, smart glasses, VR display, AR display, MR display, or stereoscopic (3D) display.
  • the operation display unit 28 has a function of outputting a sound as necessary to assist display or substitute display.
  • the operation display unit 28 has a function of receiving an operation by the owner of the building 2, for example.
  • the operation function is implemented by, for example, a button, keyboard, touch panel, eye tracking, sensor, voice recognition, or the like.
  • the operation display unit 28 may be a device external to the interest level measurement system 1 .
  • the operation display unit 28 may be a separate device from the visualization processing unit 27 and the like of the interest level measurement system 1 .
  • the operation display unit 28 may be a device integrated with the visualization processing unit 27 and the like of the interest level measurement system 1 .
  • the operation display unit 28 displays information such as an interest level map generated in the interest level measuring system 1, for example.
  • the operation display unit 28 receives, for example, an operation for generating an interest level map in the interest level measuring system 1 .
  • the operation display unit 28 is operated by the owner (corporation or person) of the building 2, the manager (corporation or person) of the tenant of the building 2, or their agent (corporation or person), or the manufacturer of the degree of interest measuring system 1 ( (corporation or person), or maintainer (corporation or person), or AI or robot that substitutes for these corporations or people, as long as it is possible to display, if it is possible to display it, what kind of display method is used to display good too. Further, the operation display unit 28 may give sound or voice as an alternative or supplement to the display.
  • the operation display unit 28 is operated by the owner (corporation or person) of the building 2, the manager (corporation or person) of the tenant of the building 2, or their agent (corporation or person), or the manufacturer of the degree of interest measuring system 1 ( (corporation or person), maintenance personnel (corporation or person), or AI, robots, software, hardware, etc. that substitute for these corporations or people, can operate, and what kind of mechanism will accept the operation? good too.
  • the subjects of these operations may be called "owners, etc.”.
  • An operation such as generation of the interest degree map is performed by the owner of the building 2, for example.
  • the operation display unit 28 may also receive, for example, an operation for inputting conditions for generating an interest level map.
  • the owner of the building 2 or the like causes the interest level measurement system 1 to automatically calculate, for example, the tenant fee of the building 2 according to the market price based on the information such as the interest level map displayed by the operation display unit 28 .
  • the market price of the tenant fee is, for example, the correspondence between the degree of interest and the tenant fee, which is set according to the location of the building.
  • the owner of the building 2 may, for example, use the calculated tenant fees as an aid in making decisions about the management of the building 2 and the like.
  • the owner of the building 2 uses the information such as the interest level map as a decision material for improving the value of the building 2, for example.
  • the owner of the building 2 may use the information such as the interest level map displayed by the operation display unit 28 to avoid risks such as theft or accidents by directing attention to users exhibiting suspicious behavior. good. This can improve the safety of the building 2 and the like.
  • the simulation system 50 includes a simulation processing section 29 as a part responsible for information processing.
  • the simulation processing unit 29 has a function of setting simulation conditions and simulating changes in interest information acquired by the interest information acquisition unit 20 in the building 2 .
  • the simulation processing unit 29 is installed in a server device or the like that can communicate with devices of the degree-of-interest measuring system 1 such as the group management device 11 .
  • Part or all of the part responsible for information processing in the simulation system 50 may be installed in a device of the degree-of-interest measuring system 1 such as the group control device 11 .
  • part or all of the part responsible for information processing in the simulation system 50 may be a device separate from the operation display unit 28 of the degree-of-interest measuring system 1 or the like.
  • part or all of the part responsible for information processing in the simulation system 50 may be a device integrated with the operation display unit 28 of the degree-of-interest measurement system 1 or the like. Also, part or all of the part responsible for information processing in the simulation system 50 may be installed in an external server device or the like capable of communicating with the server device provided in the building 2 . Also, part or all of the part responsible for information processing in the simulation system 50 may be implemented by processing or storage resources on a cloud service.
  • the operation display unit 28 displays the results of simulation in the simulation system 50, for example.
  • the results of the simulation represent changes in, for example, interest level maps.
  • the simulation result may also include information on tenant fees calculated according to the market price, for example, from the changed interest map information.
  • the operation display unit 28 receives, for example, an operation for setting simulation conditions and starting a simulation in the simulation system 50 .
  • the operation is performed by the owner of the building 2, for example.
  • the results of the simulation performed by the simulation system 50 can be used as more accurate judgment material for improving the value of the building 2 .
  • FIG. 2 is a diagram showing an example of the car operating panel 10 according to the first embodiment.
  • the car operating panel 10 includes a display panel 10a and a plurality of destination buttons 10b.
  • the display panel 10a is a display device that displays information to the user riding inside the car 7 .
  • the display panel 10a displays, for example, the running direction of the car 7 and the current floor.
  • Each destination button 10b corresponds to one of floors.
  • Each destination button 10b is a button that accepts an operation to designate a corresponding floor as a destination floor.
  • Each destination button 10b has a light-emitting device (not shown) that lights up when operated by the user, for example.
  • the light-emitting device is a device in which the brightness of light emission, color tone, presence/absence of blinking, speed of blinking, etc. are variable.
  • FIG. 3 is a diagram showing an example of areas on a floor according to Embodiment 1.
  • FIG. 3 a floor map on any floor is shown.
  • the floor shown in FIG. 3 includes multiple areas, each of which is a store.
  • One of the areas is a store P that carries item P1 and item P2.
  • One of the areas is a Q store that carries item Q1 and item Q2.
  • One of the areas is an R store that provides service R1 and service R2.
  • the attribute storage unit 13 stores, for example, the store name "P store” and product names “P1" and “P2" as attributes of the P store area.
  • the attribute storage unit 13 stores, for example, the store type "grocery store” and the goods type “grocery store” as the attributes of the area. ” may be stored.
  • FIG. 4A to 4C are diagrams showing examples of the arrangement of the cameras 12 according to Embodiment 1.
  • FIG. 4A to 4C are diagrams showing examples of the arrangement of the cameras 12 according to Embodiment 1.
  • one of the cameras 12 is placed inside the car 7 of the elevator 3.
  • the camera 12 is attached, for example, to the top of a wall or ceiling.
  • the camera 12 is arranged at a position capable of photographing the face of the user who gets into the car 7, for example.
  • one of the cameras 12 is arranged at the landing of the elevator 3 .
  • the camera 12 is attached, for example, to the top of a wall or ceiling.
  • one of the cameras 12 is placed at the entrance/exit of the escalator 4.
  • one of the cameras 12 may be placed on the wall surface of the inclined portion in front of the entrance of the escalator 4 or the like.
  • the camera 12 is attached, for example, to the top of a wall or ceiling.
  • the camera 12 may be attached to a pole or the like provided at the entrance/exit.
  • one of the cameras 12 is placed at the entrance/exit of the stairs 5.
  • one of the cameras 12 may be arranged on the wall surface of the inclined portion in front of the entrance of the stairs 5, or the like.
  • the camera 12 is attached, for example, to the top of a wall or ceiling.
  • the camera 12 may be attached to a pole or the like provided at the entrance/exit.
  • FIG. 5A to 5E are diagrams showing examples of behavior information acquired by the behavior information acquisition unit 15 according to Embodiment 1.
  • FIG. 5A to 5E are diagrams showing examples of behavior information acquired by the behavior information acquisition unit 15 according to Embodiment 1.
  • the behavior information acquisition unit 15 extracts the feature amount of the user, for example, from the image used by the user identification unit 14 to identify the user.
  • the behavior information acquisition unit 15 may use the feature amount extracted by the user identification unit 14 .
  • the feature amount of the user includes, for example, information about the positions of feature points such as the nose, ears, eyes, mouth, cheeks, chin, neck, and both shoulders of the face.
  • the behavior information acquisition unit 15 acquires user behavior information based on the extracted feature amount.
  • the behavior information acquisition unit 15 acquires information including direction of interest information as information on the location of the user included in the behavior information of the user.
  • the behavior information acquisition unit 15 continuously acquires the behavior information of the user by tracking the user identified by the user identification unit 14 .
  • the behavior information acquisition unit 15 may track the specified position of the user, for example, by a technique such as moving body tracking. By tracking the user, the behavior information acquisition unit 15 may continue to acquire the behavior information of the user who has moved and has disappeared from the image.
  • the direction of interest information is an example of direction information that indicates the user's interest.
  • the direction-of-interest information is information expressed using at least three feature amounts of the user's shoulders and nose.
  • the direction-of-interest information may be expressed using other feature amounts as necessary.
  • the user's direction of interest is expressed as the direction from the midpoint of the line connecting the positions of both shoulders to the position of the nose.
  • the user's nose as a feature quantity used for the direction-of-interest information is whether or not the user's nose is covered with a mask or the like, that is, whether or not the user's bare nose itself is shown in the image. It suffices if the feature amount of the nose is captured.
  • the user's shoulders as a feature quantity used for the direction-of-interest information are independent of whether or not the user's shoulders are covered with clothing, that is, whether or not the user's bare shoulders themselves are shown in the image. It suffices if the feature quantity of is captured.
  • other feature amounts for organs such as ears, eyes, mouth, cheeks, chin, and neck, regardless of whether or not the user's naked organs themselves are shown in the image, are the features of the organs. It is sufficient if the quantity is captured.
  • the direction-of-interest information may be expressed using, for example, feature amounts of both shoulders and nose obtained using the user's skeleton information.
  • the direction-of-interest information may be expressed using other feature amounts obtained using the skeleton information.
  • FIG. 5A shows an example of a user's image viewed from above. In this way, the direction in which the user is interested is represented by the direction-of-interest information acquired based on the image of the user.
  • FIG. 5B shows an example of an image when the orientation of the face and the orientation of the body do not match. In this way, the direction in which the user is interested is on the extended line in the direction from the midpoint of the line segment connecting the positions of the user's shoulders to the nose.
  • FIG. 5C an example image of the user viewed from behind is shown. When the user's nose is not shown in the image, the behavior information acquisition unit 15 may compensate for the nose by performing image interpolation from acquired image information.
  • the behavior information acquisition unit 15 may estimate the position of the nose based on other feature points.
  • the behavior information acquisition unit 15 may identify the position of the nose by synthesizing images captured by a plurality of cameras 12 .
  • the behavior information acquisition unit 15 identifies the position of the nose by any one of these multiple methods or a combination of these multiple methods.
  • the direction of interest of the user is represented as an extension of the direction from the midpoint of the line connecting the positions of both shoulders to the position of the nose.
  • FIG. 5D an example image of a user viewed from the side is shown.
  • the behavior information acquisition unit 15 may supplement the other shoulder by performing image interpolation from the already acquired image information.
  • the behavior information acquisition unit 15 may estimate the position of the shoulder that is not shown in the image based on other feature points.
  • the behavior information acquisition unit 15 may identify the positions of both shoulders by synthesizing images captured by a plurality of cameras 12 .
  • the behavior information acquisition unit 15 identifies the positions of both shoulders by any one of these multiple methods or a combination of these multiple methods. In this way, the direction of interest of the user is represented as an extension of the direction from the midpoint of the line connecting the positions of both shoulders to the position of the nose.
  • the information about the orientation of the user's interest may be extracted, for example, by image processing by the AI installed in the behavior information acquisition unit 15, or the like.
  • Image processing by AI is, for example, processing by a machine learning method using an image as an input.
  • Machine learning techniques train a model that derives behavioral information from user images.
  • the action information acquisition unit 15 acquires action information from the user's image based on the learned model.
  • the behavior information acquisition unit 15 may perform supervised learning using, for example, a set of a user's image and direction-of-interest information obtained from the image as teacher data.
  • the direction-of-interest information obtained from the image may be, for example, the direction-of-interest information obtained from the positions of both shoulders and the nose.
  • the behavior information acquisition unit 15 receives the image of the user as an input and outputs direction-of-interest information based on the result of the learning.
  • the behavior information acquisition unit 15 may extract the feature amount of the image by deep learning or the like. In FIG. 5E, an example of the degree of importance of the feature amount of the image is indicated by color densities.
  • the behavior information acquisition unit 15 may extract from the image the information about the orientation that indicates the user's interest by using unsupervised learning or other machine learning techniques such as reinforcement learning.
  • FIG. 6 is a table showing an example of determination by the floor determining unit 19 according to the first embodiment.
  • FIG. 6 shows an example of determination of the arrival floor of the user using the elevator 3 that ascends from the first floor.
  • the elevator 3 descends to the first floor and then starts ascending from the first floor. It should be noted that the arrival floor is determined in the same manner in the case of ascending operation from other floors and in the case of descending operation.
  • User A moving from the 1st floor to the 4th floor registers a call to the elevator 3 by operating the hall control panel 9 on the 1st floor. After that, the user A gets on the car 7 of the elevator 3 that has arrived at the first floor. A user A who has boarded the car 7 designates the fourth floor as the destination floor by operating the car operating panel 10 .
  • the user identification part 14 identifies the user riding inside the car 7 based on the image captured by the camera 12 inside the car 7. . In this example, only user A is in car 7 . At this time, the user identification unit 14 identifies the user A as the user riding inside the car 7 .
  • the elevator facility determination unit 17 determines that the elevator facility used by the user A is the elevator 3 .
  • the floor determination unit 19 determines whether the user was in the car 7 when he left the last floor and the user was in the car 7 when he left the first floor. to determine the passenger's departure and arrival floors. At this time, the floor on which the car 7 stopped immediately before is any floor above the first floor on which it stopped during the descending operation. The floor determination unit 19 determines the first floor as the departure floor of user A who did not board the car 7 when departing from the immediately preceding stopped floor and was in the car 7 when it departed from the first floor. I judge.
  • the matching processing unit 18 performs matching processing for matching user A. For example, when the elevator facility determination unit 17 determines that user A has already used another elevator facility redundantly at the same time, the matching processing unit 18 erroneously identifies the user as the same user.
  • the user specifying unit 14 specifies a plurality of users who have been using the system as different users. The user specifying unit 14 extracts the difference in the feature amount of the users from the acquired images when specifying different users, thereby improving the accuracy of specifying the users and identifying the different users. re-identify the The matching processing unit 18 similarly performs matching processing for other users.
  • User B who moves from the 2nd floor to the 5th floor, registers a call to the elevator 3 by operating the hall control panel 9 on the 2nd floor. After that, the user B gets on the car 7 of the elevator 3 that has arrived at the second floor. A user B who has boarded the car 7 designates the fifth floor as the destination floor by operating the car operating panel 10 . A user C who moves from the second floor to the fourth floor arrives at the landing on the second floor of the elevator 3 . Since the call has already been registered from the hall operation panel 9 on the second floor by the user B, the user C arriving at the hall does not operate the hall operation panel 9 to register the destination floor.
  • User C may not have a mobile terminal such as a smart phone, card, or tag that accepts the operation of registering a destination floor. After that, the user C gets on the car 7 of the elevator 3 that has arrived at the second floor. Since the fourth floor has already been designated as the destination floor by the user A, the user C who has boarded the car 7 does not perform the operation of registering the destination floor on the car operating panel 10 .
  • a mobile terminal such as a smart phone, card, or tag that accepts the operation of registering a destination floor.
  • the user identifying part 14 identifies the user riding inside the car 7 based on the image captured by the camera 12 inside the car 7. .
  • user A, user B, and user C are in car 7 .
  • the user identifying unit 14 identifies user A, user B, and user C as users who are riding inside the car 7 .
  • the elevator facility determination unit 17 determines that the elevator facility used by the user B is the elevator 3 .
  • the floor determination unit 19 determines whether the user was inside the car 7 when he left the first floor, which is the floor on which he stopped just before, and who was inside the car 7 when he left the second floor. to determine the passenger's departure and arrival floors.
  • the floor determination unit 19 determines the departure floors of the user B and the user C, who did not board the car 7 when it departed from the first floor but who were in the car 7 when it departed from the second floor, as the second floor. I judge.
  • User D moving from the 3rd floor to the 6th floor registers a call to the elevator 3 by operating the hall control panel 9 on the 3rd floor. After that, the user A gets on the car 7 of the elevator 3 that has arrived at the third floor. A user D who has boarded the car 7 designates the sixth floor as the destination floor by operating the car operating panel 10 .
  • the user identification part 14 identifies the user riding inside the car 7 based on the image captured by the camera 12 inside the car 7. .
  • user A, user B, user C, and user D are in car 7 .
  • the user identification unit 14 identifies user A, user B, user C, and user D as users who are riding inside the car 7 .
  • the elevator facility determination unit 17 determines that the elevator facility used by the user D is the elevator 3 .
  • the floor determination unit 19 determines whether the user was inside the car 7 when departing from the second floor, which is the floor on which the user stopped immediately before, and the user inside the car 7 when departing from the third floor. to determine the passenger's departure and arrival floors.
  • the floor determining unit 19 determines that the departure floor of the user D who did not board the car when the car 7 departed from the second floor but was in the car when the car 7 departed from the third floor is the third floor.
  • the user identifying part 14 identifies the user riding inside the car 7 based on the image captured by the camera 12 inside the car 7. .
  • user B and user D are in car 7 .
  • the user identification unit 14 identifies the user B and the user D as the users riding inside the car 7 .
  • the floor determination unit 19 determines whether the user is inside the car 7 when departing from the 3rd floor, which is the floor on which the user stopped just before, and the user is inside the car 7 when departing from the 4th floor. to determine the passenger's departure and arrival floors.
  • the floor determination unit 19 determines the arrival floor of the user A and the user C, who were boarding when the car 7 departed from the 3rd floor and did not board when the car 7 departed from the 4th floor, to the 4th floor. I judge. In this way, even for user C who has not performed an operation to register a destination floor on the hall operating panel 9, the car operating panel 10, and a mobile terminal such as a smartphone, card, or tag, the interest level measurement system 1 , the information of the departure floor and the arrival floor can be obtained based on the images captured by the camera 12 inside the car 7 .
  • the user identification unit 14 identifies the user riding inside the car 7 based on the image captured by the camera 12 inside the car 7. .
  • the user identification unit 14 identifies only the user D as a user riding inside the car 7 .
  • the floor determination unit 19 determines whether the user was inside the car 7 when departing from the 4th floor, which is the floor on which the user stopped just before, and the user inside the car 7 when departing from the 5th floor. to determine the passenger's departure and arrival floors.
  • the floor determination unit 19 determines that the arrival floor of the user B, who was in the car when the car 7 departed from the 4th floor and was not in the car when the car 7 departed from the 5th floor, is the 5th floor.
  • the user identification unit 14 identifies the user riding inside the car 7 based on the image captured by the camera 12 inside the car 7. . In this example, no user is on the car 7 . At this time, the user identifying unit 14 does not identify any user as the user who is riding inside the car 7 .
  • the floor determination unit 19 determines whether the user is inside the car 7 when departing from the 5th floor, which is the floor on which the user stopped just before, and the user is inside the car 7 when departing from the 6th floor. to determine the passenger's departure and arrival floors. The floor determination unit 19 determines that the arrival floor of the user D, who was on board when the car 7 departed from the 5th floor and did not board when the car 7 departed from the 6th floor, is the 6th floor.
  • FIG. 7A to 7F are diagrams showing examples of determination by the floor determining unit 19 according to Embodiment 1.
  • FIG. FIG. 7 shows an example of determining the arrival floor of a user who transits and uses a plurality of escalators 4 that are ascending. It should be noted that the arrival floor is similarly determined when one escalator 4 for ascending operation is used and when one or more escalators 4 for descending operation are used. Also when the stairs 5 are used, the arrival floor is similarly determined.
  • the user identification unit 14 identifies the user A based on the image captured by the camera 12 .
  • the elevator facility determination unit 17 determines that the elevator facility used by the user A is the escalator 4 .
  • the floor determination unit 19 determines that the departure floor of the user A is the first floor where the entrance of the escalator 4 is provided.
  • user A transfers to the escalator 4 that ascends between the 2nd and 3rd floors on the 2nd floor.
  • a user B moving from the second floor to the fifth floor rides on an escalator 4 that ascends between the second floor and the third floor from the second floor.
  • a user C who moves from the second floor to the fourth floor rides an escalator 4 that ascends between the second floor and the third floor from the second floor.
  • the user identification unit 14 identifies User A based on the image captured by the camera 12 . After the user A is identified by the camera 12 provided at the exit on the second floor, the user A is identified by the camera 12 provided at the exit on the third floor before a preset time elapses. Sometimes, the floor determination unit 19 determines that the user A has changed the escalator 4 on the second floor.
  • the user identification unit 14 identifies User B based on the image captured by the camera 12 .
  • the elevator facility determination unit 17 determines that the elevator facility used by the user B is the escalator 4 .
  • the floor determination unit 19 determines that the departure floor of the user B is the second floor where the entrance of the escalator 4 is provided.
  • the user identification unit 14 identifies User C based on the image captured by the camera 12 .
  • the elevator facility determination unit 17 determines that the elevator facility used by the user C is the escalator 4 .
  • the floor determination unit 19 determines that the departure floor of the user C is the second floor where the entrance of the escalator 4 is provided.
  • user A transfers to the escalator 4 that ascends between the 3rd and 4th floors on the 3rd floor.
  • the user B transfers to the escalator 4 which ascends between the 3rd and 4th floors at the 3rd floor.
  • the user C moves to the escalator 4 which ascends between the 3rd and 4th floors by transferring at the 3rd floor.
  • a user D moving from the 3rd floor to the 6th floor rides an escalator 4 that ascends between the 3rd floor and the 4th floor from the 3rd floor.
  • the user identification unit 14 identifies User A based on the image captured by the camera 12 . After the user A is identified by the camera 12 provided at the exit on the third floor, the user A is identified by the camera 12 provided at the exit on the fourth floor before a preset time elapses. Sometimes, the floor determination unit 19 determines that the user A has changed the escalator 4 on the third floor.
  • the user identification unit 14 identifies User B based on the image captured by the camera 12 . After the user B is identified by the camera 12 provided at the exit on the third floor, the user B is identified by the camera 12 provided at the exit on the fourth floor before a preset time elapses. Sometimes, the floor determination unit 19 determines that the user B has changed the escalator 4 on the third floor.
  • the user identification unit 14 identifies User C based on the image captured by the camera 12 . After the user C is identified by the camera 12 provided at the exit on the third floor, the user C is identified by the camera 12 provided at the exit on the fourth floor before a preset time elapses. Sometimes, the floor determination unit 19 determines that the user C has changed the escalator 4 on the third floor.
  • the user identification unit 14 identifies the user D based on the image captured by the camera 12 .
  • the elevator facility determination unit 17 determines that the elevator facility used by the user D is the escalator 4 .
  • the floor determination unit 19 determines that the departure floor of the user D is the third floor where the entrance of the escalator 4 is provided.
  • User A gets off the escalator 4 from the exit on the 4th floor.
  • the user B transfers to the escalator 4 which ascends between the 4th and 5th floors on the 4th floor.
  • User C gets off the escalator 4 from the exit on the fourth floor.
  • the user D transfers to the escalator 4 which ascends between the 4th and 5th floors on the 4th floor.
  • the floor determination unit 19 determines that the arrival floor of the user A is the 4th floor.
  • the user identification unit 14 identifies User B based on the image captured by the camera 12 . After the user B is identified by the camera 12 provided at the exit on the 4th floor, the user B is identified by the camera 12 provided at the exit on the 5th floor before a preset time elapses. Sometimes, the floor determination unit 19 determines that the user A has changed the escalator 4 on the 4th floor.
  • the floor determination unit 19 determines that the arrival floor of the user C is the 4th floor.
  • the user identification unit 14 identifies the user D based on the image captured by the camera 12 . After the user D is identified by the camera 12 provided at the exit on the 4th floor, the user D is identified by the camera 12 provided at the exit on the 5th floor before a preset time elapses. Sometimes, the floor determination unit 19 determines that the user D has changed the escalator 4 on the 4th floor.
  • user B gets off the escalator 4 from the exit on the 5th floor.
  • the user D transfers to the escalator 4 which ascends between the 5th and 6th floors at the 5th floor.
  • the floor determination unit 19 determines that the arrival floor of the user B is the 6th floor.
  • the user identification unit 14 identifies User D based on the image captured by the camera 12 . After the user D is identified by the camera 12 provided at the exit on the fifth floor, the user D is identified by the camera 12 provided at the exit on the sixth floor before a preset time elapses. Sometimes, the floor determination unit 19 determines that the user D has changed the escalator 4 on the 5th floor.
  • user D gets off the escalator 4 from the exit on the 6th floor.
  • the floor determination unit 19 determines that the arrival floor of the user B is the 6th floor.
  • the floor determination unit 19 manages information on the getting on and off status for each user.
  • FIG. 1 An example of determining the arrival floor of the user of the escalator 4 has been described using FIG. The difference is that users of the escalator 4 can move between floors without walking, but users of the stairs 5 move between floors by walking.
  • user identification by the user identification unit 14 user exclusion processing by the matching processing unit 18, and usage start floor and usage end floor of the elevator equipment by the camera 12 Determination of is performed in the same way including the flow of processing.
  • FIGS. 8 and 9A, and 9B are diagrams showing an example of behavior information acquisition by the interest degree measuring system 1 according to the first embodiment.
  • FIGS. 10A to 10C are diagrams showing an example of acquisition of interest information by the interest degree measuring system 1 according to Embodiment 1.
  • FIG. 10A to 10C are diagrams showing an example of acquisition of interest information by the interest degree measuring system 1 according to Embodiment 1.
  • the bird's-eye view maps of the arrival floor shown in FIGS. 8, 9, and 10 are generated, for example, based on images captured by a plurality of cameras 12 provided on the arrival floor.
  • a bird's-eye view map is an image obtained by, for example, pasting together a plurality of images of arrival floors taken at the same time on a plane and synthesizing them so that there is no contradiction in the peripheral portion of the overlapping images.
  • the bird's-eye view map may include an invisible area.
  • An invisible area is an area that cannot be captured by any camera 12 .
  • the invisible area is, for example, the inside of the hoistway after the car 7 of the elevator 3 has moved from the arrival floor, the toilet provided on the arrival floor, or the range that is known not to be used by the user.
  • a bird's-eye view map is generated in advance based on an image acquired during a time when no user is present, such as at night or early in the morning.
  • the bird's-eye view map may be updated, for example, once a day, or may be updated as appropriate. Since the images used to generate the bird's-eye view map may include the user in the image, it is desirable that the images are captured at the same time by a plurality of cameras 12 on the arrival floor. It does not have to be generated.
  • the bird's-eye view map may be generated from a plurality of images shot at different times in which the user is not reflected.
  • FIG. 8 an example of a user arriving at the arrival floor using the elevator 3 is shown.
  • the action information acquisition unit 15 starts acquiring action information, for example, when the user arrives at the arrival floor. For example, when the floor determination unit 19 determines the arrival floor of any user, the behavior information acquisition unit 15 determines that the user has arrived at the arrival floor. The action information acquisition unit 15 acquires the bird's-eye view map of the arrival floor when the user arrives at the arrival floor.
  • the behavior information acquisition unit 15 arranges information represented by using at least three feature amounts of the user's shoulders and nose acquired based on the image on the bird's-eye view map. As a result, the coordinates on the bird's-eye view map of the user at the arrival floor are acquired. The behavior information acquisition unit 15 adds the information acquired in this way to the behavior information as time-series data as information representing the arrangement of users.
  • the behavior information acquisition unit 15 After that, after a preset time interval has elapsed, the behavior information acquisition unit 15 newly acquires information representing the user's arrangement. The behavior information acquisition unit 15 adds the newly acquired information to the behavior information as time-series data. In this way, the behavior information acquisition unit 15 continuously updates the behavior information of the user.
  • the action information acquisition unit 15 starts counting the elapsed time after the user frames out. During this time, the behavior information acquisition unit 15 suspends acquisition of behavior information about the user. After that, as shown in FIG. 9B, when the user frames in from the invisible region before a preset time elapses after frame out, the behavior information acquiring unit 15 acquires the behavior information of the user. continue to acquire
  • the behavior information acquisition unit 15 detects the camera 12 inside the car 7 of the elevator 3, the camera 12 of the escalator 4, the camera 12 of the stairs 5, and the other cameras. Movement of the user is specified in cooperation with a plurality of cameras 12 on the floor.
  • the action information acquisition unit 15 finally goes out of the frame, for example. record the time and place of At this time, the behavior information acquiring unit 15 may display the location on the bird's-eye view map and alert the user with an alarm or the like, if necessary.
  • the behavior information storage unit 16 stores the behavior information acquired by the behavior information acquisition unit 15 for each user.
  • the behavior information storage unit 16 accumulates and stores a plurality of pieces of behavior information about the same user.
  • the interest information acquisition unit 20 acquires the user's interest information each time the behavior information acquisition unit 15 completes acquisition of the user's behavior information on the arrival floor.
  • the interest information acquisition unit 20 superimposes the information representing the location of the users included in the behavior information of the arrival floor on the bird's-eye view map of the arrival floor.
  • the information-of-interest acquisition unit 20 acquires a triangle consisting of three coordinate points of at least three feature values of both shoulders and nose, and a line segment The direction from the midpoint to the nose is superimposed on the bird's-eye view map of the arrival floor.
  • interest information acquiring unit 20 acquires an area on an extension line in the direction from the midpoint of the line connecting two shoulders to the nose, which is included in the behavior information as time-series data, and Identify and retrieve attributes.
  • the interest information acquisition unit 20 extends the orientation of the user indicated in each piece of interest direction information to the front of the user.
  • the information-of-interest acquisition unit 20 detects intersections of a plurality of half-lines extending forward of the user.
  • the interest information acquisition unit 20 identifies areas and attributes in which the intersection points are concentrated as ranges of high interest of the user.
  • the interest information acquiring unit 20 may include, in the interest information of the user, information about the degree of interest of the user according to the density of intersections, for example.
  • the interest information acquisition unit 20 reads from the attribute storage unit 13 the attribute of the area specified as the range in which the user's degree of interest is high.
  • the interest information acquisition unit 20 includes the read attribute in the interest information as an attribute with a high degree of interest of the user. At this time, the interest information acquisition unit 20 associates the read attributes with information on the degree of interest of the user and acquires them.
  • the interest information acquisition unit 20 generates the trajectory of the user by connecting interest direction information on the bird's-eye view map.
  • the information-of-interest acquisition unit superimposes the time at which the user was at that position on each point of the trajectory of the user on the bird's-eye view map.
  • places where time points are dense Such a place corresponds to the place where the staying time is long.
  • the interest information acquisition unit 20 may include the place where the user stays for a long time as an element of the interest information of the user.
  • the interest information storage unit 21 stores the interest information acquired by the interest information acquisition unit 20 for each user.
  • the interest information storage unit 21 may update the stored interest information when the interest information acquisition unit 20 acquires interest information about a user whose interest information is already stored. For example, the interest information storage unit 21 may add the information on the level of interest for each attribute calculated by the information on interest acquisition unit 20 to the stored information on the level of interest for each attribute. By sequentially updating the interest information for each user, the accuracy of the interest information recorded by the interest information storage unit 21 is further enhanced.
  • FIG. 11 is a diagram showing an example of interest information acquisition by the interest degree measuring system 1 according to the first embodiment.
  • the interest information acquisition unit 20 may acquire interest of a certain user in another user as interest information.
  • Interest information among users is acquired, for example, when the users are employees of the building 2 .
  • Interest information between users corresponds to, for example, a quantity such as frequency or time of communication between users.
  • the interest information acquisition unit 20 calculates interest information between users based on contact time between users.
  • the contact information is the length of time the user stays in the same area continuously.
  • each user's trajectory is displayed on a three-dimensional space-time spanned by two-dimensional spatial coordinates representing positions on the bird's-eye view map and a time axis in the direction perpendicular to the bird's-eye view map.
  • user A is staying in an area of building 2 .
  • user B enters the area.
  • User B exits the area after interacting with user A in the area.
  • the interest information acquiring unit 20 calculates the contact time of the user A and the user B as the time from the time when the user B entered the area to the time when the user B left the area.
  • the interest information acquisition unit 20 acquires interest information such that the longer the contact time is, the higher the degree of mutual interest of the user A and the user B is.
  • FIG. FIGS. 12A and 12B, and FIGS. 13A and 13B are diagrams showing an example of presentation of a destination by the degree-of-interest measuring system 1 according to the first embodiment.
  • FIG. 12 shows an example of a building 2 to which the interest level measurement system 1 is applied.
  • FIG. 12A building 2 is shown on a certain day.
  • a store P that handles items P1 and P2 is opened in the area on the 4th floor.
  • a store Q that handles items Q1 and Q2 is opened in the area on the third floor.
  • an R store that provides service R1 and service R2 is opened in the area on the second floor.
  • the interest information storage unit 21 stores the item P1 as the attribute with the highest degree of interest for the user A.
  • the interest information storage unit 21 stores Q shop as the attribute with the highest degree of interest for user B.
  • the interest information storage unit 21 stores service R2 as an attribute of user C with the highest degree of interest.
  • the destination presentation unit 22 reads interest information about the user A from the interest information storage unit 21 .
  • the destination presenting unit 22 in this example presents the area of the attribute with the highest degree of interest to the user as the destination. That is, areas with attributes of the highest degree of interest are preferentially presented. Therefore, the destination presentation unit 22 acquires the item P1 as the attribute of which the user A has the highest degree of interest.
  • the destination presentation unit 22 extracts areas having the item P1 as an attribute from the attribute storage unit 13 . In this example, the destination presentation unit 22 extracts the area on the second floor where the P store after the relocation is located. The destination presentation unit 22 presents the extracted area to the user A as a destination.
  • the destination presentation unit 22 presents the area on the third floor where Q store is open as a destination based on the interest information.
  • the user C who used the building 2 again on this day has a plurality of cameras 12 provided on the first floor, or a camera 12 of the stairs 5 taken before arriving at the arrival floor after starting to use the stairs 5. is identified by the user identification unit 14 based on the image taken by .
  • the destination presentation unit 22 presents the fourth floor area where the S shop that provides the service R2 is located based on the interest information as the destination.
  • the destination presentation unit 22 presents the destination floor including the destination area and the route to the destination area by video or audio, for example.
  • the destination presenting unit 22 may also present to the user the attribute with the highest degree of interest of the user used for extracting the user's destination.
  • the destination presenting unit 22 may present information such as "Store Q is on the left side of the exit on the 3rd floor" to User B, for example.
  • the destination presenting unit 22 may present information to the user C such as "the S store that provides the service R2 is in front of the exit on the 4th floor". As a result, the destination can be presented to the user without using personal information such as the user's name.
  • FIG. 12 an example of destination presentation through the car operating panel 10 is shown.
  • the second floor is presented as the destination floor to the user A who has boarded the car 7 .
  • FIG. 12 shows an example of using the car operating panel 10.
  • a portable terminal such as a smartphone carried by a user can directly or indirectly communicate with the elevator 3, the car operating panel 10 User alerts, call registration, guidance, and the like may be performed through the mobile terminal, as is the case.
  • the destination presentation unit 22 blinks the light-emitting device of the destination button 10b corresponding to the second floor, thereby alerting the user A to guidance before registering the second floor as the destination floor.
  • the destination presenting unit 22 may cause the display device such as the display panel 10a to display an image such as "The store P that handles the item P1 is on the second floor.”
  • the destination presenting unit 22 may cause a built-in speaker of a display device such as the display panel 10a to present voice guidance together.
  • the call registration unit 23 receives a call with the presented floor as the destination floor.
  • the destination presenting unit 22 ends presenting the destination floor guidance by blinking the light-emitting device of the destination button 10b corresponding to the second floor. Further, for example, immediately after the destination button 10b is operated and the call is registered, the destination presenting unit 22 ends the presentation of the destination floor guidance by blinking the light-emitting device of the destination button 10b corresponding to the second floor.
  • the light-emitting device of the destination button 10b corresponding to the floor designated as the destination floor lights up.
  • the registration of the call is confirmed.
  • the destination presentation unit 22 may say, "Store P will move the elevator 3 to this floor.
  • a video or audio guide may be presented showing information such as "get off at the bus stop and it's on the right side.”
  • the destination presentation unit 22 may continue presenting the destination when the destination button 10b corresponding to a floor other than the presented destination floor is operated. Alternatively, for example, in the case where there is only one user riding in the car 7, the destination presenting unit 22 displays the destination when the destination button 10b corresponding to a floor other than the presented destination floor is operated. may be terminated.
  • the destination presentation unit 22 may present the destination floor without blinking the light-emitting device of the destination button 10b.
  • the destination presentation unit 22 may present the destination floor to the user, for example, by changing the brightness of the light-emitting device of the destination button 10b corresponding to the destination floor, or by changing the color tone of the light-emitting device.
  • the destination information actually presented to the user by the destination presentation unit 22 is associated with the user's behavior information or interest information, or information such as the location or time at which the destination is presented, and is associated with the behavior information. It is stored in the storage unit 16, the interest information storage unit 21, or the like.
  • FIG. 14A to 14E are diagrams showing examples of interest level maps by the interest level measuring system 1 according to Embodiment 1.
  • FIG. 14A to 14E are diagrams showing examples of interest level maps by the interest level measuring system 1 according to Embodiment 1.
  • the visualization processing unit 27 integrates interest information for each user of the building 2 to generate an interest level map, as shown in FIG. 14A, for example.
  • the first time and the second time are times specified in the generation conditions.
  • the first time and the second time may be different times on the same day, or may be times on different dates.
  • the visualization processing unit 27 causes the interest information storage unit 21 to store all the users of the floor of the building 2 between the first time and the second time specified in the generation condition, including the time and place information. Read the interest information you have.
  • the visualization processing unit 27 integrates the interest information by, for example, totaling the degree of interest of each user in the read interest information for each location of the floor, that is, for each area and attribute. For example, when the level of interest is obtained for each attribute, the visualization processing unit 27 may total the sum of the levels of interest for each attribute for each area of the floor.
  • the interest level map is generated, for example, as a diagram in which a three-dimensional graph of the level of interest level is superimposed on the bird's-eye view map of the floor.
  • the generated interest degree map is displayed on the operation display unit 28 to the owner of the building 2 or the like.
  • the visualization processing unit 27 generates an interest level map for each user of the building 2, as shown in FIG. 14B, for example.
  • the generation conditions of the degree-of-interest map determined by the owner of the building 2 or the like by operating the operation display unit 28 a specific use from the first time to the second time on any floor of the building 2 is performed.
  • the generation of interest maps for persons is specified. For example, a specific user A is specified in the generation conditions.
  • the visualization processing unit 27 reads user A's interest information stored by the interest information storage unit 21, including time and place information, between the first time and the second time specified in the generation condition.
  • the visualization processing unit 27 generates a degree-of-interest map, for example, as a diagram in which a three-dimensional graph of the degree of interest of the user A is superimposed on a bird's-eye view map of the floor.
  • the generated interest degree map is displayed on the operation display unit 28 to the owner of the building 2 or the like.
  • the visualization processing unit 27 selects one of the floors of the building 2 from the generation conditions of the degree-of-interest map determined by the operation display unit 28 by the owner of the building 2 or the like. generation of an interest level map including behavior information about user A from a first time to a second time in .
  • the visualization processing unit 27 may generate an interest level map including user behavior information.
  • the visualization processing unit 27 from the generation conditions of the degree-of-interest map determined by the owner of the building 2 or the like by operating the operation display unit 28, determines the , generation of an interest level map containing behavior information about users who apply to certain classification information is specified.
  • the visualization processing unit 27 may generate an interest level map including action information of a plurality of users.
  • the visualization processing unit 27 reads user A's interest information stored by the interest information storage unit 21, including time and place information, between the first time and the second time specified in the generation condition. In addition, the visualization processing unit 27 converts the behavior information of the user A stored by the behavior information storage unit 16, including the time and place information, between the first time and the second time specified in the generation condition. load. The visualization processing unit 27 generates a degree-of-interest map, for example, by superimposing a three-dimensional graph of the degree of interest of user A and the trajectory of user A on a bird's-eye view map of the floor. When user A uses the floor multiple times, the interest level map may include multiple trajectories of user A.
  • the visualization processing unit 27 generates an interest degree map including areas in which the user A has a high degree of interest.
  • the area in which the user A has a high degree of interest is, for example, the store P that handles the product P1.
  • the generated interest degree map is displayed on the operation display unit 28 to the owner of the building 2 or the like.
  • the interest level map may also display user A's classification information.
  • the user A's classification information includes, for example, user A's frequency of use of the building 2, gender, age group, use time zone, day of the week, and weather at the time of use.
  • the interest level map may display only one of user A's trajectory or classification information.
  • the visualization processing unit 27 may generate an interest level map including action information or interest information of a plurality of users, as shown in FIG. 14D, for example.
  • the plurality of users may be some or all of the users of the building 2 who satisfy certain conditions specified in the conditions for generating the interest level map. For example, from the generation conditions of the degree-of-interest map determined by the owner of the building 2 or the like by operating the operation display unit 28, the users from the first time to the second time on any floor of the building 2 can be identified. It specifies the generation of an interest map for users who have expressed an interest in the attributes of In the production conditions, for example, the product P1 is specified as a specific attribute.
  • the visualization processing unit 27 stores the interest information storage unit 21 and the behavior information storage unit 16 in time and place for all users of the floor of the building 2 between the first time and the second time specified in the generation condition. Read the stored interest information and behavior information including the information of Based on the read interest information, the visualization processing unit 27 extracts users whose degree of interest in the item P1 is higher than a certain threshold determined by operation on the operation display unit 28 . In this example, five users, user A, user B, user C, user D, and user E, are extracted. The visualization processing unit 27 generates a degree-of-interest map, for example, by superimposing the extracted trajectory of each user on a bird's-eye view map of the floor, based on the behavior information that has been read. In this example, an interest level map is generated as a diagram in which each user's trajectory is superimposed on a plurality of overhead maps of the same floor.
  • the visualization processing unit 27 may generate an interest level map by extracting users whose actions deviate from the main user's tendency among a plurality of users. good. For example, from the generation conditions of the interest level map determined by the owner of the building 2 by operating the operation display unit 28, among the users on one floor of the building 2, the tendency of the main users is deviated. The generation of interest maps for behavioral users is specified.
  • the visualization processing unit 27 collects interest information and action information stored by the interest information storage unit 21 and the action information storage unit 16, including time and place information, for all users on the floor specified in the generation condition. load.
  • the visualization processing unit 27 extracts users whose behavior deviates from the tendency of main users based on the read interest information.
  • the extraction conditions may be specified in the interest level map generation conditions.
  • the extraction condition is, for example, a condition based on a distribution that represents the usage trend of main users.
  • the distribution is, for example, the time zone used by the users.
  • the degree of matching with the distribution is determined, for example, based on how far the usage pattern of each user differs from the average value of the distribution in units of standard deviation ⁇ .
  • the visualization processing unit 27 extracts users who use the service at a time separated by 3 ⁇ or more from the average time of the distribution of the user's usage time zone. At this time, the visualization processing unit 27 extracts, for example, users in the late-night hours. Regardless of the averages and standard deviations shown in this example, various statistical methods may be used to extract users whose behavior deviates from the main user's tendency.
  • each store in Building 2 is closed during midnight hours.
  • the user J behaves regularly inside the building 2 with high frequency and does not show a high degree of interest biased toward a specific area.
  • User J can be presumed to be a security guard patrolling the inside of building 2 .
  • the owner of the building 2 can confirm whether or not the user J is a security guard by inquiring about the time when the user J acts and the work status of the security guard.
  • the user K uses the building 2 with a low frequency and shows a biased degree of interest in a specific area.
  • the trajectory of user K indicates irregular and suspicious behavior. At this time, the user K may be a suspicious person who has entered the building 2 .
  • the owner of building 2 or the like can grasp the intrusion of a suspicious person.
  • the visualization processing unit 27 may detect users whose behavior deviates from the main users' tendencies at any time without depending on the operation of the owner of the building 2 or the like.
  • the operation display unit 28 may notify the owner of the building 2 or the like. As a result, damage such as theft in the building 2 can be suppressed in advance.
  • FIG. 15A and 15B are diagrams showing examples of interest level maps by the interest level measuring system 1 according to Embodiment 1.
  • FIG. 15C is a diagram showing an example of setting simulation conditions in the simulation system 50 according to the first embodiment.
  • 15D and 15E are diagrams showing examples of simulation results by simulation system 50 according to the first embodiment.
  • the owner of building 2 refers to the interest level map generated by the visualization processing unit 27 as shown in FIG. 15A using the operation display unit 28.
  • the interest level map is generated by integrating interest information of all users on a specific day specified by the owner of building 2 or the like.
  • the first time is set to the opening time of building 2 on the particular day
  • the second time is set to the closing time of building 2 on the particular day.
  • An interest map is generated for the second floor as a specific floor of building 2 .
  • S store and T store are opened.
  • the level of interest in S store and T store is low. In other words, S store and T store have low ability to attract customers. In this case, if the degree of interest of the S store and the T store can be increased, the value of the building 2 may be increased.
  • the owner of building 2 refers to the trajectory of the user in building 2 indicated by the interest level map, as shown in FIG. 15B.
  • the trajectories of user A, user B, and user C are visualized.
  • the interest degree measuring system 1 has acquired the interest information of the user A, the user B, and the user C.
  • the interest information storage unit 21 stores an item P1 as an attribute of user A with a high interest level.
  • the interest information storage unit 21 stores Q store as an attribute of user B with a high degree of interest.
  • the interest information storage unit 21 stores service R1 as an attribute of user C with a high degree of interest.
  • user A has been to store P that deals with item P1.
  • the user B goes to the Q store and is acting in the vicinity of the article Q1.
  • the user C is going to the R store that handles the service R1.
  • the owner of the building 2 considers a layout that further enhances the value of the building 2 based on information such as the degree of interest and trajectory of users grasped by the interest degree map.
  • the owner of building 2 uses the simulation by the simulation system 50 to study the layout.
  • the owner of the building 2 or the like sets the simulation conditions through the operation display unit 28, for example.
  • the owner of building 2 or the like edits the layout of the second floor of building 2 as a simulation condition, for example, as shown in FIG. 15C.
  • a one-way passage is set for the aisle adjacent to the T store.
  • the positions of the Q store and the S store are exchanged.
  • the owner of the building 2 or the like causes the simulation system 50 to start the simulation through the operation display section 28 or the like.
  • the simulation processing unit 29 performs a simulation as follows, for example.
  • the simulation processing unit 29 sets users to be simulated.
  • the simulation processing unit 29, for example, simulates all or some of the users specified by the interest level map generation conditions.
  • the simulation processing unit 29 subjects user A, user B, and user C to the simulation.
  • the simulation processing unit 29 may add, for example, a virtual user who is highly interested in the attributes of the specific area to the target of the simulation.
  • the simulation processing unit 29 may add one or more virtual users to the simulation target.
  • classification information such as age and sex may be assigned to each virtual user.
  • the virtual users to be added and their classification information and interest information are specified, for example, in the simulation conditions.
  • conditions outside the building 2 such as weather, may be specified.
  • the conditions outside the building 2 are used, for example, for selecting users to be simulated and adding virtual users.
  • the simulation processing unit 29 sets the destination area of the building 2 for each user to be simulated. For example, for a user who actually acted on the second floor of the building 2, the simulation processing unit 29 sets the area where the user actually went on the second floor as the destination area.
  • the area visited by the user has, for example, attributes of the destination area in which the degree of interest of each user is high.
  • the destination area may include lift equipment as the start or end of the trajectory on the second floor.
  • the destination area may include non-visible areas such as restrooms.
  • the simulation processing unit 29 sets the order of the destination areas. The order may be set, for example, in descending order of the degree of interest, or may be set so that the travel distance on the second floor is short.
  • the simulation processing unit 29 simulates behavior information on the second floor for each user to be simulated. For example, for a user who was actually acting on the second floor of the building 2, if there is no place where the layout has been edited on the trajectory of the user, the simulation processing unit 29 performs the actual behavior of the user on the second floor. Based on the trajectory, simulated behavior information is generated in the same manner as the processing in the behavior information acquisition unit 15 . Alternatively, the simulation processing unit 29 sets the trajectories of the users in the order in which the destination areas are set for each user. At this time, the simulation processing unit 29 sets the trajectory of the user, for example, assuming that the user moves between one or more destination areas without detouring. The simulation processing unit 29 may disturb the trajectory of the user using random numbers or the like.
  • the simulation processing unit 29 may set the trajectory of the user by using a known technique such as crowd simulation.
  • the simulation processing unit 29 generates simulated behavior information based on the set trajectory in the same manner as the processing in the behavior information acquisition unit 15 .
  • the simulation processing unit 29 generates simulated behavior information, for example, assuming that the direction-of-interest information of the user is forward of the trajectory set for the user regardless of left or right.
  • the simulation processing unit 29 simulates interest information in the same way as the processing in the interest information acquisition unit 20 based on simulated behavior information for each of the users to be simulated.
  • the simulation processing unit 29 generates the result of the simulation as an interest degree map in the same manner as the processing in the visualization processing unit 27 based on the simulated behavior information and interest information.
  • the simulation processing unit 29 calculates the difference between the simulation result and the information stored in the interest information storage unit 21 .
  • the simulation processing unit 29 calculates the difference by, for example, taking the difference in the distribution of the level of interest between the simulation result and the actually acquired interest information.
  • FIG. 15D is a diagram showing an example of a trajectory for each user as a result of simulation.
  • the simulated trajectories of user A and user C are the same as the actual trajectories.
  • the trajectory of the user B is set to reach the Q store through the passage adjacent to the T store.
  • the trajectory of user B is set so that the outbound route to the Q store and the return route from the Q store pass through different passages.
  • the direction of interest of the user B who is moving on the second floor is directed to the S store and the T store. In this case, the degree of interest in the S store and the T store is heightened.
  • FIG. 15E is a diagram showing the distribution of the degree of interest on the second floor as a result of the simulation.
  • the interest level map that visualizes changes in interest information enables the owner of the building 2 to grasp the influence of layout editing on the interest level.
  • FIG. 16A is a diagram showing an example of a degree-of-interest map by the degree-of-interest measuring system 1 according to Embodiment 1.
  • FIG. 16B is a diagram showing an example of simulation results by the simulation system 50 according to the first embodiment.
  • Elevators 3a and 3b and stairs 5 are provided as lifting equipment that users of the building 2 use to move between floors from the first floor to the fourth floor.
  • An escalator 4 is provided as a lift facility for users of the building 2 to move between floors from the first floor to the third floor.
  • the trajectories of each user including user A, user B, and user C, are stored in the behavior information storage unit 16 as behavior information.
  • user A moves from the first floor to the second floor using elevator 3a. After that, the user A shows an interest in the item Qa1 at the Qa store on the second floor. After that, the user A uses the escalator 4 to move from the second floor to the third floor. After that, User A stops at the restroom on the third floor. After that, the user A shows an interest in the item Ra1 at the Ra shop on the 3rd floor. After that, the user A moves from the third floor to the first floor using the elevator 3b. After that, the user A leaves the building 2 through the doorway.
  • user B uses elevator 3b to move from the 1st floor to the 3rd floor. After that, User B stops at the restroom on the third floor. After that, the user B shows an interest in the item Rb1 at the Rb store on the 3rd floor. After that, the user B moves from the third floor to the second floor using the elevator 3b. After that, the user B shows an interest in the item Qb1 at the Qb store on the second floor. After that, the user B moves from the second floor to the first floor using the elevator 3b. After that, the user B leaves the building 2 through the doorway.
  • user C is interested in item Pc1 at the PC store on the first floor.
  • the user C uses the escalator 4 to move from the first floor to the second floor.
  • the user C shows an interest in the item Qc1 at the Qc store on the second floor.
  • the user C moves from the second floor to the first floor using the elevator 3a.
  • the user C leaves the building 2 through the doorway.
  • FIG. 16A By superimposing such user trajectories on the bird's-eye view map of each floor, sparse areas where the density of user trajectories is low are visualized.
  • the sparse area is indicated by a dashed-dotted frame.
  • FIG. 16A in building 2, there is room for improvement in that the vicinity of the entrance is crowded, that escalator 4 is used less than elevator 3, and that there are many sparse areas on each floor. Recognize. The owner of the building 2 or the like considers the layout of each floor of the building 2 so that these points can be addressed.
  • the owner of building 2 uses the simulation by the simulation system 50 to study the layout.
  • the owner of the building 2 or the like sets the simulation conditions through the operation display unit 28, for example.
  • the owner of building 2 or the like edits the layout of the first to third floors of building 2 as simulation conditions, for example, as shown in FIG. 16B.
  • the 4th floor which is the office floor, and the users of the 4th floor are excluded from the simulation.
  • one-way traffic is set for each entrance and exit.
  • a panel or the like is provided to guide the user from the entrance to the Pa store that was in the sparse area.
  • the Pe store is placed adjacent to the Pa store in the sparse area.
  • Pb stores, Pd stores, and Pf stores that were in the sparse area are arranged intensively at locations adjacent to the Pe point.
  • rest areas are arranged at locations facing Pb, Pd, and Pf stores that were in the sparse area.
  • the escalator 4 is limited to going up.
  • elevator 3a and elevator 3b are limited to descending operation.
  • the Qc store, Qd store, Qe store, and Qf store that were in the sparse area are concentrated in the vicinity of the escalator 4 .
  • an entrance leading to the Qf store and an exit leading to the Qc store are provided. These are the via entrance and exit settings in the second floor layout.
  • the Rc store, Rd store, and Re store that were in the sparse area are concentrated.
  • an entrance leading to the Re store is provided, and an exit leading to the Rc store is provided. These are the entrance and exit settings for the 3rd floor layout.
  • the elevator 3a and the elevator 3b are not limited to descending operations for users on the fourth floor, which is the office floor.
  • the owner of the building 2 or the like causes the simulation system 50 to start the simulation through the operation display unit 28, for example.
  • the simulation processing unit 29 performs simulations over multiple floors in the same manner as simulations for a single floor.
  • the simulation processing unit 29 sets users to be simulated. For example, the simulation processing unit 29 sets a plurality of users, including user A, user B, and user C, but excluding the user on the fourth floor, as objects of the simulation.
  • the simulation processing unit 29 sets attributes of high interest within the building 2 for each user to be simulated.
  • the simulation processing unit 29 simulates behavior information on the first floor, the second floor, and the third floor for each user to be simulated.
  • the simulation processing unit 29 simulates interest information similarly to the processing in the interest information acquisition unit 20 based on simulated behavior information for each user to be simulated.
  • the effect of alleviating congestion near the entrance/exit by making the entrance/exit one-way is simulated.
  • by concentrating and arranging the stores that were in the sparse area it becomes easier for the user's interest to be directed to each store.
  • by guiding the movement route of the user to the store located in the sparse area the direction of interest of the user is likely to be directed to the store.
  • by arranging rest areas in locations facing stores that were in the sparse area it becomes easier for users to direct their interest toward each store.
  • the simulation system 50 simulates the effect of increasing the degree of interest in the sparse area due to such a change.
  • the effect of equalizing the utilization rate of each lifting equipment such as the elevator 3 and the escalator 4 due to restrictions on the movement direction of the user is simulated.
  • the interest level measurement system 1 may be used for managing the work environment of employees in the building 2, and the like.
  • the simulation system 50 may be used, for example, to improve the working environment of workers in the building 2 .
  • FIG. 17A is a diagram showing an example layout of the building 2 according to Embodiment 1.
  • FIG. 17B is a diagram showing an example of simulation results by the simulation system 50 according to the first embodiment.
  • the first, second, and third floors are store floors.
  • the fourth floor is an office floor where employees work.
  • a management office a store staff room, a warehouse, and a common area are provided on the 4th floor.
  • a corridor with walls is provided between the administration office and the shop staff room.
  • desks are arranged for users W and Y to perform clerical work.
  • a user W and a user Y are employees who are engaged in management work for the building 2 .
  • desks are arranged for user X and user Z to do clerical work.
  • a user X is an employee who is involved in the business of the store P opened in the building 2 .
  • a user Z is an employee engaged in the business of the Q store opened in the building 2 .
  • goods P1 and the like are stocked in the stock management area of store P.
  • a common area is a place that is used regardless of the user's affiliation.
  • the common area is, for example, a hot water supply room, a rest room, or the like.
  • the interest information acquisition unit 20 acquires the user's interest information based on the user's behavior information.
  • the interest information acquisition unit 20 acquires interest information among users based on, for example, contact time in an area included in the common area.
  • the interest information storage unit 21 stores user X and user Y as targets of high interest for user W.
  • the interest information storage unit 21 stores the item P1 in the inventory management area of the store P and the user Z as attributes of high interest for the user X.
  • the interest information storage unit 21 stores user Y's desk in the management office and user W as highly interested attributes of user Y.
  • the interest information storage unit 21 stores user Z's desk in the store staff room and user X as highly interested attributes of user Z.
  • the owner of the building 2 By referring to the interest level map generated by the visualization processing unit 27 through the operation display unit 28, the owner of the building 2, etc. can see the flow line of the employees, the work efficiency of the employees, the status of interaction between the employees, etc. Grasp.
  • the owner of the building 2 or the like considers a layout that further enhances the working environment of the employees based on the situation grasped by the interest level map.
  • the owner of building 2 uses the simulation by the simulation system 50 to study the layout.
  • the owner of the building 2 or the like sets the simulation conditions through the operation display unit 28, for example.
  • the owner of building 2 or the like edits the layout of the fourth floor of building 2 as a simulation condition, for example, as shown in FIG. 17B.
  • the 1st, 2nd, and 3rd floors, which are store floors, are excluded from the simulation target.
  • an inventory management area containing items P1 of store P is placed on the store staff room side of the warehouse.
  • the corridor walls have been removed to allow movement between the administration office and the store staff room.
  • the desk of the user X is arranged so as to be close to the inventory management area containing the item P1 of the store P that has a high degree of interest.
  • the desk of user W is arranged so as to be close to the desk of user X who has a high degree of interest.
  • the desk of user Y is arranged so as to be close to the desk of user W, who has a high degree of interest.
  • the desk of user Z is arranged so as to be close to the desk of user X who has a high degree of interest.
  • the desks of users who are highly interested in each other are spaced apart from each other within a range in which they can interact with each other. This makes it possible to avoid crowding of users without interfering with user interaction.
  • the simulation processing unit 29 performs a simulation over multiple floors in the same way as the simulation for users on the store floor.
  • the simulation processing unit 29 sets users to be simulated. For example, the simulation processing unit 29 sets a plurality of users including user W, user X, user Y, and user Z as simulation targets.
  • the simulation processing unit 29 sets attributes of high interest within the building 2 for each user to be simulated.
  • the simulation processing unit 29 simulates behavior information on the fourth floor for each user to be simulated.
  • the simulation processing unit 29 simulates, for example, the user's staying time at each location such as a desk according to the frequency distribution acquired based on the user's behavior information.
  • the simulation processing unit 29 simulates, for example, moving to a range where interaction with the other user is possible.
  • the simulation processing unit 29 simulates interest information similarly to the processing in the interest information acquisition unit 20 based on simulated behavior information for each user to be simulated.
  • the simulation system 50 simulates the effects of these changes in improving work efficiency.
  • the interest level measurement system 1 may be used for attendance management of employees in the building 2, for example.
  • the interest level measurement system 1 includes an attendance management unit (not shown).
  • the attendance management unit of the interest level measurement system 1 determines that the day on which the user who is an employee uses any of the lifting facilities is the day on which the user comes to work.
  • the attendance management unit of the interest level measurement system 1 determines the first time that the user arrives at the fourth floor using the elevator on the working day as the working time of the user on the working day.
  • the attendance management unit of the interest level measurement system 1 determines the last time when the user left the fourth floor using the elevator on the working day as the user's leaving time on the working day.
  • the attendance management unit of the degree-of-interest measurement system 1 performs these determination processes based on the behavior information stored in the behavior information storage unit 16, for example.
  • FIG. 18, 19, 20A and 20B, and 21 are flowcharts showing an example of the operation of the degree-of-interest measuring system 1 according to the first embodiment.
  • FIG. 18 shows an example of the operation of the degree-of-interest measurement system 1 for determining the arrival floor when the user uses the elevator 3 .
  • step S101 the user identification unit 14 identifies a user who enters the car 7 of the elevator 3 when the door of the car 7 is open. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S102.
  • step S102 when the car 7 of the elevator 3 departs from any floor, the processing of the degree-of-interest measurement system 1 starts.
  • the car 7 departs from any floor it is, for example, when the door of the car 7 is closed at that floor.
  • the operation of the degree-of-interest measurement system 1 proceeds to step S103.
  • step S103 the user identification unit 14 confirms the identification of the user riding inside the car 7 of the elevator 3. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S104.
  • step S104 the user identification unit 14 determines whether there is a user inside the car 7. If the determination result is Yes, the operation of the degree-of-interest measurement system 1 proceeds to step S105. If the determination result is No, the user identification unit 14 determines that no user is inside the car 7, and the operation of the interest level measurement system 1 proceeds to step S107.
  • step S ⁇ b>105 the elevator facility determination unit 17 determines that the elevator 3 is the elevator facility used by the user identified by the user identification unit 14 in the car 7 of the elevator 3 . After that, the operation of the degree-of-interest measurement system 1 proceeds to step S106.
  • step S106 the matching processing unit 18 performs matching processing for the user identified by the user identifying unit 14. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S107.
  • step S107 the floor determination unit 19 stores the boarding status of the car 7 of the elevator 3 based on the result of identification by the user identification unit 14.
  • the boarding status of the car 7 includes, for example, whether or not a user has boarded the car 7, and information identifying the user if the user is on board. Thereafter, the operation of the degree-of-interest measurement system 1 proceeds to step S108.
  • step S108 the floor determination unit 19 determines the user's departure floor and arrival floor based on the boarding situation stored in step S107 and the boarding situation stored immediately before that. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S109.
  • step S109 After the car 7 of the elevator 3 stops on any floor in step S109, the operation of the degree-of-interest measurement system 1 proceeds to step S101.
  • FIG. 19 shows an example of the operation of the degree-of-interest measurement system 1 related to the determination of the arrival floor when the user uses the escalator 4 .
  • step S201 the processing of the degree-of-interest measurement system 1 starts when the user frames in the camera 12 provided at the exit of any escalator 4. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S202.
  • step S202 the user identification unit 14 identifies the user who is on the escalator 4, and confirms the identification of the user. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S203.
  • step S203 the user identification unit 14 determines whether there is a user on the escalator 4. If the determination result is Yes, the operation of the degree-of-interest measurement system 1 proceeds to step S204. If the determination result is No, the operation of the degree-of-interest measurement system 1 proceeds to step S201.
  • step S ⁇ b>204 the floor determination unit 19 determines whether the identified user is a user who has changed the escalator 4 . For example, the floor determination unit 19 determines whether the user exits the escalator 4 when a preset time has not passed since the user has gone out of the frame from the camera 12 arranged at the exit of the other elevator 3. It is determined that the user is a transfer user. If the determination result is No, the operation of the interest level measurement system 1 proceeds to step S205. If the determination result is Yes, the operation of the degree-of-interest measurement system 1 proceeds to step S208.
  • step S205 the elevator facility determination unit 17 determines that the escalator 4 is the elevator facility used by the user identified by the user identification unit 14 on the escalator 4 . After that, the operation of the degree-of-interest measurement system 1 proceeds to step S206.
  • step S206 the matching processing unit 18 performs matching processing for the user identified by the user identifying unit 14. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S207.
  • step S207 the floor determination unit 19 determines the floor on which the entrance of the escalator 4 is provided as the user's departure floor. After that, the operation of the degree-of-interest measurement system 1 proceeds to step 208 .
  • step S208 when the user frames out from the camera 12 provided at the exit of the escalator 4, the floor determination unit 19 starts timing the time after the user frames out. After that, the operation of the degree-of-interest measuring system 1 proceeds to step 209 .
  • step S209 the floor determination unit 19 timed out, that is, after the user framed out, there was no frame-in to the camera 12 of the next escalator 4, and a preset time has passed. determine whether If the determination result is No, the operation of the degree-of-interest measurement system 1 proceeds to step S209 again. On the other hand, when the determination result is Yes, the operation of the degree-of-interest measurement system 1 proceeds to step 210 . Note that if the user frames the cameras 12 of other floors to get off other than the next escalator 4 before the timeout expires, the operation of the interest level measurement system 1 may proceed to step S210.
  • step S210 the floor determination unit 19 determines the floor where the exit of the escalator 4 is provided as the arrival floor of the user. After that, the operation of the degree-of-interest measuring system 1 proceeds to step 201 .
  • the interest level measurement system 1 performs similar processing to determine the arrival floor and the like.
  • FIG. 20 shows an example of the operation of the interest level measurement system 1 related to acquisition of behavior information and interest information on the user's arrival floor.
  • step S301 of FIG. 20A when the user's arrival floor is determined, the processing of the interest level measurement system 1 is started. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S302.
  • step S302 the user identification unit 14 determines whether there is a bird's-eye view map of the arrival floor. If the determination result is No, the operation of the degree-of-interest measurement system 1 proceeds to step S303. If the determination result is Yes, the operation of the degree-of-interest measurement system 1 proceeds to step S305.
  • step S303 the action information acquisition unit 15 starts acquiring images from the camera 12 placed on the arrival floor. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S304.
  • step S304 the action information acquisition unit 15 generates a bird's-eye view map from the acquired image. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S305.
  • step S305 the user identification unit 14 determines whether the user who has arrived at the arrival floor has been identified on the bird's-eye view map. If the determination result is No, the operation of the degree-of-interest measurement system 1 proceeds to step S301. If the determination result is Yes, the operation of the degree-of-interest measurement system 1 proceeds to step S306.
  • step S306 the interest level measurement system 1 acquires behavior information and interest information for the user identified in step S305.
  • the interest level measurement system 1 may acquire behavior information and interest information in parallel for the plurality of users. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S301.
  • FIG. 20B shows an example of the contents of the processing in step S306 of FIG. 20A.
  • step S401 the behavior information acquisition unit 15 acquires information on the placement of the identified users.
  • the behavior information acquisition unit 15 acquires coordinate information of at least three feature amounts of the user's shoulders and nose.
  • the behavior information acquisition unit 15 may acquire information on the coordinates of other feature amounts of the user.
  • step S402 the action information acquisition unit 15 determines whether the user has entered the elevator facility. It should be noted that frame-in to the lifting equipment is frame-out when viewed from the floor where the user was. If the determination result is No, the operation of the degree-of-interest measurement system 1 proceeds to step S403. If the determination result is Yes, the operation of the degree-of-interest measurement system 1 proceeds to step S405.
  • step S403 the action information acquisition unit 15 determines whether the user has stepped out of the invisible area or the doorway of the building 2 to the outside. If the determination result is No, the operation of the degree-of-interest measurement system 1 proceeds to step S401. If the determination result is Yes, the operation of the degree-of-interest measurement system 1 proceeds to step S404.
  • step S404 the action information acquisition unit 15 determines whether a timeout has occurred, that is, whether a preset time has elapsed since the user left the invisible area or the doorway of the building 2 to the outside. If the determination result is No, the operation of the degree-of-interest measurement system 1 proceeds to step S401. If the determination result is Yes, the operation of the degree-of-interest measurement system 1 proceeds to step S405.
  • step S405 the action information acquisition unit 15 completes acquisition of action information.
  • the action information storage unit 16 stores the acquired action information as time-series data for each user. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S406.
  • the interest information acquisition unit 20 extracts areas of high interest for the user based on the user's behavior information. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S407.
  • the interest information acquisition unit 20 refers to the attribute of the area of which the user is highly interested from the attribute storage unit 13.
  • the interest information acquisition unit 20 acquires interest information based on the information on the interest level of the user and the information on the attribute referred to.
  • the interest information storage unit 21 stores the acquired interest information for each user. At this time, the interest information storage unit 21 may update the interest information for each user with the acquired interest information. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S408.
  • step S408 the interest level measurement system 1 outputs a warning sound or an alert as necessary.
  • a warning sound or alert is output, for example, when the user's frame-in and frame-out do not match.
  • the case where the frame-in and frame-out of the user do not match is, for example, the case where the frame-out of the user who has entered the frame is not determined, or the case where the frame-out of the user who has not entered the frame is determined.
  • the process of step S408 may be omitted if output such as a warning sound or an alert is not required.
  • FIG. 21 shows an example of the operation of the degree-of-interest measurement system 1 related to the visualization of the user's interests that have already been measured.
  • step S501 the visualization processing unit 27 receives an input of conditions for generating the degree-of-interest map through the operation display unit 28, for example. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S502.
  • step S502 the visualization processing unit 27 reads interest information and action information from the interest information storage unit 21 and the action information storage unit 16 for users of the building 2 at the time designated by the generation condition. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S503.
  • step S503 the visualization processing unit 27 narrows down the users whose interest information and action information are read based on the conditions specified in the generation conditions. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S504.
  • step S504 the visualization processing unit 27 performs calculations for visualizing the interest information based on the user's interest information and action information narrowed down based on the generation conditions.
  • Calculations for visualization include, for example, calculations such as digitization for visualizing interest information by graphs.
  • the computation includes, for example, a computation of totaling the degree of interest of a plurality of users for each location. After that, the operation of the degree-of-interest measurement system 1 proceeds to step S505.
  • step S505 the visualization processing unit 27 uses the result of the computation for visualization to generate an interest level map.
  • the interest level map generation process includes, for example, superimposing a graph representing interest information and a bird's-eye view map. After that, the operation of the degree-of-interest measuring system 1 ends.
  • FIG. 22 is a flow chart showing an example of the operation of the simulation system 50 according to the first embodiment. The processing in FIG. 22 is started after the processing in FIG. 21 is performed, for example.
  • step S601 the simulation processing unit 29 receives an input of simulation conditions through the operation display unit 28, for example.
  • existing conditions in FIG. 21 are used in inputting the simulation conditions.
  • a new condition different from the condition in FIG. 21 is input. This clarifies the differences in the inputs of the simulation conditions. Operation of the simulation system 50 then proceeds to step S602.
  • the simulation processing unit 29 reads interest information and action information from the interest information storage unit 21 and the action information storage unit 16 according to the input simulation conditions, for example, similar to the conditions in FIG.
  • New conditions that differ from the conditions in FIG. 21 include, for example, layout corrections, changes, additions, or deletions of panels or entrances and exits on the movement route that guide destination locations or actions.
  • New conditions different from the conditions in FIG. 21 also include, for example, rearrangement of the store or inner walls. Repositioning also moves accompanying areas and their attributes. At this time, the rearrangement is not limited to the movement of each store, and may be the movement of a part of the area of the store and its attributes.
  • step S601 determines that the conditions input in step S601 are all satisfactory for simulation. If there is a problem with the simulation conditions, operation of simulation system 50 proceeds to step S601 so that the conditions may be reset. On the other hand, if there is no problem with the simulation conditions, the simulation system 50 confirms the input conditions and proceeds to the operation of step S603.
  • step S603 the simulation processing unit 29 simulates behavior information in the building 2 for each user. Operation of the simulation system 50 then proceeds to step S604.
  • step S604 the simulation processing unit 29 simulates interest information for each of the users for whom behavior information has been simulated. Operation of the simulation system 50 then proceeds to step S605.
  • step S605 the simulation processing unit 29 sends the simulation result to the visualization processing unit 27 based on the simulated behavior information and interest information. Operation of the simulation system 50 then proceeds to step S606.
  • step S606 the visualization processing unit 27 uses the result of calculation using the existing conditions and the result of calculation by the simulation processing unit 29 under new conditions different from the conditions in FIG. generate two interest maps.
  • the interest level map generation process includes, for example, superimposing a graph representing interest information and a bird's-eye view map.
  • the visualization processing unit 27 sends two degree-of-interest maps of existing conditions and new conditions to the simulation processing unit 29 . Operation of the simulation system 50 then proceeds to step S607.
  • step S607 the simulation processing unit 29 calculates the difference between the two degree-of-interest maps of the existing condition and the new condition, and sends it to the visualization processing unit 27 again. As a result, the degree-of-interest maps and differences of some or all of the existing conditions and new conditions are visualized. After that, the operation of the simulation system 50 ends.
  • the simulation processing unit 29 is not limited to two interest level maps and their differences, and a plurality of interest level maps and its difference can also be calculated. Therefore, various new conditions can be examined and optimum conditions can be derived.
  • the simulation processing unit 29 automatically calculates the tenant fee under the new conditions according to the market price, based on the degree-of-interest map as the simulation result of the new conditions.
  • the tenant fee under the new conditions is the tenant fee of each tenant existing under the new conditions.
  • the calculated tenant fee is used, for example, to examine the optimum conditions among various new conditions.
  • the interest level measurement system 1 includes the attribute storage unit 13, the user identification unit 14, the floor determination unit 19, the behavior information acquisition unit 15, the interest information An acquisition unit 20 , an interest information storage unit 21 , and a visualization processing unit 27 are provided.
  • the attribute storage unit 13 stores attributes for each area of each floor of the building 2 .
  • the user identification unit 14 identifies a user in the building 2 based on images captured by at least one of the cameras 12 provided in the building 2 .
  • the floor determination unit 19 detects at least the camera 12 inside the car 7 of the elevator 3 and the exit of the escalator 4.
  • the arrival floor of the user is determined based on an image captured by any one of the cameras 12 including the camera 12 on the floor and the camera 12 on the floor after using the stairs 5.
  • the behavior information acquisition unit 15 acquires behavior information representing the behavior of the specified user at the determined arrival floor based on the image captured by at least one of the cameras 12 .
  • the interest information acquiring unit 20 obtains interest information indicating the degree of interest of the identified user for each attribute, based on the determined arrangement of areas on the arrival floor, the attributes of the areas, and the relationship between the behavior information. Get information.
  • the interest information storage unit 21 stores the interest information acquired by the interest information acquisition unit 20 for each user, including time and place information.
  • the visualization processing unit 27 uses the information stored in the interest information storage unit 21 to generate an interest level map that visualizes the distribution of interest levels of users of the building 2 on at least one floor.
  • the identification of the user, the determination of the arrival floor, and the acquisition of the action information are performed based on the image captured by the camera 12 provided in the building 2, so that the user who does not operate the equipment of the elevator equipment , the behavior information on the arrival floor is also acquired. Also, interest information is acquired based on the user's behavior information. For this reason, interest information is acquired as information on the user's interest even for a user of the building 2 who does not possess a pre-registered mobile device. Interest information is also obtained for users who do not operate the devices of the lifting equipment.
  • the interest level measurement system 1 integrates these as elevator equipment and manages the boarding/alighting history, so that the user's interest information can be more reliably obtained. is obtained.
  • interest information can be obtained over a plurality of floors in the building 2 .
  • the interest information acquired in this way is visualized by the degree of interest map generated by the visualization processing unit 27, so that the owner of the building 2, etc., can expect an increase in the value of the building 2 or an unfavorable event to occur in the building 2. It is possible to obtain judgment materials for risk avoidance.
  • the visualization processing unit 27 may generate an interest level map for each user of the building 2 .
  • the visualization processing unit 27 may integrate interest information for each user of the building 2 to generate an interest level map.
  • the visualization processing unit 27 may generate an interest degree map including behavior information for each user of the building 2 .
  • the interest level map is generated with the necessary detail according to the purpose, such as the owner of building 2. Therefore, the owner of the building 2 or the like can more efficiently obtain information for making decisions such as improving the value of the building 2 or avoiding risks in the building 2 .
  • the interest level measurement system 1 also includes a destination presentation unit 22 .
  • the destination presenting unit 22 gives priority to an area having an attribute with a higher degree of interest as a destination for the user.
  • the presentation of the destination by the device destination presentation unit is performed based on the interest information about the user stored in the interest information storage unit 21 and the attribute information stored in the attribute storage unit 13 .
  • the visualization processing unit 27 may generate the interest level map including the destination information actually presented by the destination presentation unit 22 .
  • the destination information is displayed superimposed on information such as the trajectory of the user.
  • the owner of the building 2 can grasp the influence of the destination presented by the destination presentation unit 22 on the user's interest. Therefore, the owner of the building 2 or the like can more efficiently obtain information for making decisions such as improving the value of the building 2 or avoiding risks in the building 2 .
  • the interest level measurement system 1 includes an elevator facility determination unit 17 and a matching processing unit 18.
  • the elevator facility determination unit 17 determines whether the user uses the elevator facility based on the image captured by at least one of the cameras 12. Elevating equipment to be used.
  • the lifting equipment determination unit 17 may simultaneously determine two or more lifting equipments as the equipment used by the user identified by the user identification unit 14 as the same user.
  • the matching processing unit 18 causes the user identification unit 14 to identify the users who use the two or more lifting facilities as different users.
  • the user specifying unit 14 extracts the difference in the feature amount of the users from the acquired images when specifying different users, thereby improving the accuracy of specifying the users and identifying the different users. re-identify the
  • the interest level measurement system 1 also includes a call registration unit 23 .
  • the call registration unit 23 registers a call to the destination floor including the destination presented by the destination presentation unit 22 in the elevator 3, which is a lift facility.
  • the interest information acquisition unit 20 acquires the user's interest information each time the behavior information acquisition unit 15 completes acquisition of the user's behavior information on the arrival floor.
  • the interest information reflects the user's behavior on the arrival floor in real time. Therefore, the interest level measurement system 1 can provide guidance that quickly reflects the interest of the user.
  • the interest level measurement system 1 includes a behavior information storage unit 16 .
  • the behavior information storage unit 16 stores the behavior information acquired by the behavior information acquisition unit 15 for each user.
  • the interest information acquisition unit 20 may read the behavior information for each user from the behavior information storage unit 16 at a preset timing.
  • the interest information acquisition unit 20 acquires interest information of the user based on the read behavior information.
  • the preset timing is, for example, a preset time during a time period when there are few users in the building 2, such as at night. Since processing such as acquisition of interest information is performed in a time period when there are few users, the processing load in the degree-of-interest measuring system 1 is distributed temporally.
  • the behavior information to the interest information acquisition unit 20 or the interest information storage unit 21 is performed during a time period when the communication load on the network is light. Therefore, even when the communication capacity of the network is poor, the communication load of the network can be suppressed.
  • the user identification unit 14 when the user has a portable information terminal or the like equipped with a wireless communication function, the user identification unit 14 supplementarily uses identification information obtained from the information terminal through wireless communication.
  • the information terminal owned by the user may be, for example, a smart phone.
  • electromagnetic waves from the outside are shielded inside the car 7 of the elevator 3 .
  • the user identification unit 14 can improve the accuracy of user identification.
  • the destination presentation unit 22 may present the destination by transmitting information to be displayed on the information terminal.
  • the destination presenting unit 22 may transmit information without specifying the recipient, for example, by means of broadcast communication of a radio beacon provided at the hall of the elevator 3 or the like.
  • the simulation system 50 includes the degree-of-interest measurement system 1 and the simulation processing section 29 .
  • the simulation processing unit 29 receives the input of the existing conditions and the new conditions and determines that there is no problem in performing the simulation.
  • the simulation processing unit 29 also simulates user behavior information and simulates interest information.
  • the simulation processing unit 29 sends the result of the simulated behavior information and the interest information to the visualization processing unit 27, and generates two interest degree maps of existing conditions and new conditions. These interest degree maps are sent to the visualization processing unit 27 .
  • the simulation processing unit 29 calculates the difference and sends the result to the visualization processing unit 27 . In this way, two degree-of-interest maps of existing conditions and new conditions and their differences can be visualized.
  • FIG. 23 is a hardware configuration diagram of main parts of the interest degree measuring system 1 and the simulation system 50 according to the first embodiment.
  • the processing circuitry comprises at least one processor 100a and at least one memory 100b.
  • the processing circuitry may include at least one piece of dedicated hardware 200 in conjunction with, or as an alternative to, processor 100a and memory 100b.
  • each function of the degree-of-interest measurement system 1 and the simulation system 50 is realized by software, firmware, or a combination of software and firmware. At least one of software and firmware is written as a program.
  • the program is stored in memory 100b.
  • the processor 100a realizes each function of the interest level measuring system 1 and the simulation system 50 by reading and executing the programs stored in the memory 100b.
  • the processor 100a is also called a CPU (Central Processing Unit), a processing device, an arithmetic device, a microprocessor, a microcomputer, or a DSP.
  • the memory 100b is composed of, for example, nonvolatile or volatile semiconductor memory such as RAM, ROM, flash memory, EPROM, and EEPROM.
  • processor 100a and memory 100b may or may not be separated.
  • processor 100a may include memory 100b.
  • a device in which the processor 100a and the memory 100b are merged may also be used.
  • processing circuitry comprises dedicated hardware 200
  • the processing circuitry may be, for example, a single circuit, multiple circuits, programmed processors, parallel programmed processors, ASICs, FPGAs, or combinations thereof, or the like. It is implemented by a circuit that can
  • Each function of the degree-of-interest measurement system 1 and the simulation system 50 can be implemented by a processing circuit.
  • each function of the degree-of-interest measuring system 1 and the simulation system 50 can be collectively realized by a processing circuit.
  • a part of each function of the degree-of-interest measuring system 1 and the simulation system 50 may be realized by dedicated hardware 200 and the other part may be realized by software or firmware.
  • the processing circuit implements each function of the degree-of-interest measuring system 1 and the simulation system 50 with dedicated hardware 200, software, firmware, or a combination thereof.
  • Embodiment 2 In the interest degree measuring system 1 of this example, guidance is provided according to the degree of interest included in the interest information.
  • the destination information presented by the destination presentation unit 22 as guidance at this time may be included in the interest level map generated by the visualization processing unit 27 .
  • FIGS. 24A to 24C, and FIGS. 25A and 25B are diagrams showing examples of presentation of destinations by the degree-of-interest measuring system 1 according to the second embodiment.
  • FIG. 24 shows an example of a building 2 to which the degree-of-interest measurement system 1 is applied.
  • FIG. 24A building 2 is shown on a certain day.
  • a store P that handles goods P1 and a store S that provides service S1 are located in the area on the fourth floor.
  • the Q store that handles the item Q1 and the T store that handles the item T1 are located in the area on the third floor.
  • Store R, which provides service R1, and store U, which handles goods U1, are located in the area on the second floor.
  • the interest information storage unit 21 stores the item P1 as the attribute with the highest degree of interest and the service S1 as the attribute with the second highest degree of interest for the user A.
  • the interest information storage unit 21 stores store Q as an attribute of user B with the highest degree of interest and store T as an attribute with the second highest degree of interest.
  • the interest information storage unit 21 stores service R1 as the attribute with the highest degree of interest for user C, and store U as the attribute with the second highest degree of interest.
  • FIG. 24B The same building 2 at a later date is shown in FIG. 24B.
  • store P which handles item P1
  • R store has withdrawn.
  • V store that provides the service R1 has opened in the area on the 4th floor.
  • the destination presentation unit 22 reads interest information about the user A from the interest information storage unit 21 .
  • the destination presenting unit 22 in this example preferentially presents an area with a higher interest attribute as a destination to the user. Therefore, the destination presentation unit 22 acquires the product P1 as the attribute of which the user A has the highest degree of interest, and the service S1 as the attribute of which the user A has the second highest degree of interest.
  • the destination presentation unit 22 extracts areas having the item P1 as an attribute from the attribute storage unit 13 .
  • the destination presenting unit 22 extracts the area on the second floor where the relocated store P is located as the destination with the highest priority. Further, the destination presenting unit 22 extracts areas having service S1 as an attribute from the attribute storage unit 13 . In this example, the destination presentation unit 22 extracts the fourth floor area where the S store is located as the destination with the next highest priority. The destination presentation unit 22 presents the extracted area to the user A as a destination.
  • the destination presentation unit 22 reads interest information about each of the user B and the user C from the interest information storage unit 21 .
  • the destination presenting unit 22 presents the area of the attribute with the highest degree of interest of each user as the destination. For this reason, the destination presentation unit 22 acquires the Q store as the attribute of which the user B has the highest degree of interest.
  • the destination presentation unit 22 extracts the area of the Q store from the attribute storage unit 13 as an attribute.
  • the destination presentation unit 22 extracts the area on the third floor where the Q store is located as a destination to be presented to the user B.
  • the destination presenting unit 22 acquires service R1 as the attribute of user C's highest degree of interest.
  • the destination presentation unit 22 extracts from the attribute storage unit 13 the area of the V store that provides the service R1 as an attribute.
  • the destination presenting unit 22 extracts the 4th floor area where the V store is located as a destination to be presented to the user C.
  • FIG. 25 an example of destination presentation through the car operating panel 10 is shown.
  • the third and fourth floors are presented as destination floors to user B and user C who boarded car 7 .
  • the destination presentation unit 22 flashes the light-emitting devices of the destination buttons 10b corresponding to the 3rd and 4th floors to inform the user B and the user C of the 3rd and 4th floors. Present a reminder of guidance before registering.
  • the destination presentation unit 22 may also display an image such as "Store Q is on the 3rd floor, and Store V that provides service R1 is on the 4th floor" on the display device such as the display panel 10a.
  • the destination presenting unit 22 may cause a built-in speaker of a display device such as the display panel 10a to present voice guidance together.
  • the destination presenting unit 22 presses the destination buttons 10b corresponding to the third and fourth floors. end the presentation of the guidance for the destination floor by blinking the light-emitting device. Further, for example, immediately after the destination button 10b is operated and the call is registered, the destination presenting unit 22 ends the presentation of the destination floor guidance by blinking the light-emitting devices of the destination buttons 10b corresponding to the third and fourth floors. .
  • the destination presentation unit 22 presents the destination floor by blinking the light-emitting device of the destination button 10b corresponding to the 4th floor. may continue.
  • the call registration unit 23 sends a call to the elevator 3 on which the user C is boarding, with the destination floor being the fourth floor. Register automatically. Immediately after the call to the fourth floor is automatically registered, the light-emitting device of the destination button 10b corresponding to the fourth floor lights up.
  • user B or user C cancels the destination button 10b of the automatically registered destination floor.
  • the alighting floor for the user B and the user C is determined. As a result, for the user B and the user C, it becomes possible to acquire behavior information and interest information on the floor where they got off.
  • the destination presenting unit 22 blinks a plurality of destination buttons 10b corresponding to destination floors such as the second floor and the fourth floor. may be presented. At this time, the destination presenting unit 22 may cause the destination button 10b to adjust blinking, color tone, or luminance of the light-emitting device, or the speed of change thereof, according to the priority of the destination.
  • the call registration unit 23 presents the destination floor with the highest priority.
  • a call with the second floor as the destination floor is automatically registered in the elevator 3 on which the user A is boarding. If the floor desired by the user A is not the automatically registered destination floor, the user A cancels the destination button 10b of the automatically registered destination floor to register another destination floor. good too.
  • Embodiment 3 In the interest degree measuring system 1 of this example, acquisition of interest degree information and guidance to users are performed over a plurality of buildings 2 .
  • FIG. 26 is a configuration diagram of the degree-of-interest measuring system 1 according to the third embodiment.
  • an attribute storage unit 13 a user identification unit 14, an action information acquisition unit 15, an action information storage unit 16, an elevator equipment determination unit 17, a floor A floor determination unit 19 , an interest information acquisition unit 20 , a destination presentation unit 22 , and a call registration unit 23 are applied to each building 2 .
  • These parts perform operations such as identification of users, acquisition of behavioral and interest information, presentation of destinations, and registration of calls in each building 2 .
  • the interest level measurement system 1 includes a central management device 24 .
  • the central management device 24 is a device that integrates and manages information such as interest information acquired in a plurality of buildings 2 .
  • the central management device 24 is, for example, one or more server devices. Part or all of the central management device 24 may be installed in a virtual machine or the like on a cloud service.
  • the central management device 24 includes a matching processing section 18 , an interest information storage section 21 and a visualization processing section 27 .
  • the operation display unit 28 is an information processing terminal or the like that can communicate with the central management device 24 .
  • the simulation processing unit 29 of the simulation system 50 is installed in the central management device 24.
  • the simulation processing unit 29 may be one or more server devices that can communicate with the central management device 24, or the like.
  • part or all of the simulation processing unit 29 may be a virtual machine or the like on a cloud service.
  • the matching processing unit 18 is equipped with a function for matching the user identification by the user identification unit 14 applied to each building 2 .
  • the matching process is performed, for example, as follows.
  • the user identification unit 14 applied to each building 2 may erroneously identify different users as the same user.
  • the user identifying units 14 applied to different buildings 2 may identify the same user at the same time. Since the same person cannot exist in two or more buildings 2 at the same time, the matching processing unit 18 requests the user identification unit 14 applied to each building 2 to correct the user identification. At this time, the user identification unit 14 applied to each building 2 identifies users that were erroneously identified as the same user as different users.
  • the user specifying unit 14 extracts the difference in the feature amount of the users from the acquired images when specifying different users, thereby improving the accuracy of specifying the users and identifying the different users. re-identify the For each building 2, the matching processing unit 18 also performs a process of matching between identification of the user by the user identification unit 14 and determination of the elevator equipment used by the user by the elevator equipment determination unit 17. You can go together.
  • the interest information storage unit 21 integrates the interest information acquired in each building 2 and stores it for each user.
  • the interest information storage unit 21 associates and stores, for example, identification information unique to the user, interest information of the user, and information on the time and place at which the interest information was acquired.
  • the visualization processing unit 27 has a function of generating an interest level map for each building 2 .
  • the visualization processing unit 27 uses the information stored in the interest information storage unit 21 to generate an interest level map. For example, when the interest information storage unit 21 stores user interest information acquired in one of the buildings 2, the visualization processing unit 27 stores interest map may be generated. At this time, as the interest information of the user, for example, the degree of interest is acquired for each attribute.
  • the visualization processing unit 27, for example, assigns the level of interest for each attribute of the user to each area of the floor for which the interest level map is generated, according to the attribute of the area of the floor. Note that the visualization processing unit 27 may generate an interest degree map for the building 2 that the user has used.
  • the visualization processing unit 27 may generate an interest level map for one of the buildings 2 using the interest information acquired for the plurality of buildings 2 .
  • the visualization processing unit 27 may generate an interest level map including information stored in the behavior information storage unit 16 of each building 2 .
  • the visualization processing unit 27 may generate the interest degree map including the information of the destination actually presented to the user by the destination presentation unit 22 of each building 2 .
  • the visualization processing unit 27 may generate an interest level map including classification information such as the user's sex, age, or both, or information other than these.
  • the simulation processing unit 29 has a function of setting simulation conditions and simulating changes in interest information acquired by the interest information acquisition unit 20 in each building 2 .
  • the simulation processing unit 29 performs simulation using the information stored in the interest information storage unit 21 .
  • the interest information storage unit 21 stores user interest information acquired in one of the buildings 2, the simulation processing unit 29 stores may be simulated.
  • the simulation processing unit 29 sets users in the building 2 to be simulated and users in other buildings 2, for example, based on the simulation conditions.
  • the simulation processing unit 29 acquires from the interest information storage unit 21 information on the high interest in the attributes of the specific area for each user of the other building 2 to be simulated, and sets the entrance and start time.
  • the simulation processing unit 29 simulates behavior information in the building 2 for each user.
  • the simulation processing unit 29 simulates interest information for each of the users for whom the behavior information has been simulated.
  • the simulation processing unit 29 generates a simulation result as an interest degree map for the building 2 based on the simulated behavior information and interest information.
  • the simulation processing unit 29 may use interest information acquired in a plurality of buildings 2 to perform a simulation in any one of the buildings 2 or in a plurality of buildings 2 at the same time.
  • FIG. 27 is a diagram showing an example of destination presentation by the degree-of-interest measuring system 1 according to the third embodiment.
  • FIG. 27 shows an example of multiple buildings 2 to which the degree-of-interest measurement system 1 is applied.
  • multiple buildings 2 are shown on a certain day.
  • User A has used one building 2a multiple times until this date.
  • User A uses the other building 2b for the first time on this day.
  • the P store which is a supermarket
  • a Q store which is a supermarket, is located on the second floor of the building 2b.
  • the interest degree measurement system 1 has acquired the interest information of user A who used the building 2a.
  • the building 2a from which user interest information and the like are acquired is an example of the first building.
  • the first camera is the camera 12 placed in the first building.
  • the first attribute storage section is the attribute storage section 13 applied to the first building.
  • the first user identification unit is the user identification unit 14 applied to the first building.
  • the interest information acquisition unit 20 of the building 2 a transmits the acquired interest information to the interest information storage unit 21 of the central management device 24 .
  • the interest information storage unit 21 integrates the interest information received from the interest information acquisition unit 20 of the building 2a and stores it for each user.
  • the interest information storage unit 21 may integrate and store the interest information received from the interest information acquisition unit 20 applied to the buildings 2 other than the building 2a and the building 2b.
  • the interest information storage unit 21 stores the supermarket as an attribute with the highest degree of interest for the user A who used the building 2a.
  • the destination presentation unit 22 of the building 2b reads interest information about the user A from the interest information storage unit 21.
  • FIG. The destination presenting unit 22 in this example presents the area of the attribute with the highest degree of interest to the user as the destination. For this reason, the destination presentation unit 22 acquires the supermarket as the attribute of which the user A has the highest degree of interest.
  • the destination presentation unit 22 extracts an area having a supermarket as an attribute from the attribute storage unit 13 of the building 2b. In this example, the destination presentation unit 22 extracts the area on the second floor of the building 2b where the Q store is located.
  • the destination presentation unit 22 presents the extracted area to the user A as a destination.
  • the call registration unit 23 of the building 2b registers a call to the destination floor to the elevator 3 when, for example, a user getting on the car 7 of the elevator 3 of the building 2b does not operate the car operating panel 10.
  • the building 2b in which the destination is presented to the user is an example of the second building.
  • a second camera is the camera 12 located in the second building.
  • the second user identification unit is the user identification unit 14 applied to the second building.
  • the second attribute storage section is the attribute storage section 13 applied to the second building. Note that the second building does not have to be the building that the user A uses for the first time. In the second building, user's interest information and the like may be acquired in the past.
  • the interest level measurement system 1 includes the attribute storage unit 13 and the user identification unit 14 corresponding to each building 2, the floor determination unit 19, and the behavior information acquisition unit.
  • a section 15 an interest information acquisition section 20 , an interest information storage section 21 , a destination presentation section 22 , and a visualization processing section 27 .
  • Each attribute storage unit 13 stores an attribute for each area of each floor of the corresponding building 2 .
  • Each user identification unit 14 identifies a user in the corresponding building 2 based on images captured by at least one of the cameras 12 provided in the corresponding building 2 .
  • the floor determination unit 19 is an image captured by at least one of the cameras 12 when the user specified in one of the buildings 2 moves from the departure floor to the arrival floor using the lifting equipment of the building 2.
  • the arrival floor of the user is determined based on.
  • the behavior information acquisition unit 15 acquires behavior information representing the behavior of the user identified in one of the buildings 2 on the determined arrival floor based on the image captured by at least one of the cameras 12. get.
  • the interest information storage unit 21 stores the interest information acquired by the interest information acquisition unit 20 for each user, including time and place information.
  • the visualization processing unit 27 uses the attribute information stored in the attribute storage unit 13 corresponding to one of the buildings 2 and the information stored in the interest information storage unit 21 to generate an interest level map.
  • the interest level map generated here visualizes the distribution of the interest levels of the users of the building 2 on at least one floor of the building 2 .
  • the identification of the user, the determination of the arrival floor, and the acquisition of the action information are performed based on the images captured by the cameras 12 provided in each building 2, so the equipment of the elevator equipment is not operated. Behavior information on the arrival floor is also acquired for the user. Also, interest information is acquired based on the user's behavior information. For this reason, interest information is acquired as information on the user's interest even for a user of the building 2 who does not possess a pre-registered mobile device. Interest information is also acquired for users who do not operate the devices of the lifting equipment.
  • the interest level measurement system 1 integrates these as elevator equipment and manages the boarding/alighting history, so that the user's interest information can be more reliably obtained. is obtained.
  • the interest information acquired in this way is visualized by the degree of interest map generated by the visualization processing unit 27, so that the owner of the building 2, etc., can expect an increase in the value of the building 2 or an unfavorable event to occur in the building 2. It is possible to obtain judgment materials for risk avoidance.
  • the interest level measurement system 1 can generate an interest level map even for buildings 2 that the user has never used.
  • an attribute storage unit 13 is provided for each building 2 .
  • the attribute storage unit 13 that stores information about each building 2 can be stored in a single attribute storage unit 13 or the number of buildings 2. It may be integrated into a smaller attribute storage unit 13 .
  • a user identification unit 14 is provided for each building 2 .
  • the user identification unit 14 that stores information about each building 2 may be a single user identification unit 14 or building 2 may be integrated into the user identification units 14 whose number is less than the number of .
  • functional units such as the floor determination unit 19, the behavior information acquisition unit 15, the behavior information storage unit 16, the interest information acquisition unit 20, the interest information storage unit 21, and the visualization processing unit 27 are also partially Alternatively, the functional units for each building 2 may be integrated into a single functional unit or fewer functional units than the number of buildings 2, such as when all functional units are implemented on a server device or cloud service. .
  • Embodiment 4 In the interest degree measuring system 1 of this example, cooperation with an external system 99 is performed.
  • the owner of the first building to which the degree-of-interest measurement system 1 is applied is different from the owner of the third building to which the external system 99 is applied.
  • FIG. 28 is a configuration diagram of the degree-of-interest measuring system 1 according to the fourth embodiment.
  • the external system 99 is a system external to the degree-of-interest measurement system 1 .
  • the external system 99 is applied to the building 2 to which the degree-of-interest measurement system 1 is not applied.
  • a plurality of cameras 12 for photographing users are arranged in the building 2 to which the external system 99 is applied.
  • the external system 99 has a storage unit 99a.
  • the storage unit 99a daily records and updates images of each area of the building 2 to which the external system 99 is applied.
  • the external system 99 transmits to the degree-of-interest measurement system 1 an image without people, for example, an updated image of each area of each floor acquired at midnight.
  • the external system 99 continuously transmits images captured by the cameras 12 of the building 2 to which the external system 99 is applied to the degree-of-interest measurement system 1 from morning to night, for example.
  • the image transmitted here does not need to be processed in particular.
  • the external system 99 receives guidance information such as destination candidates without specifying the user from the interest level measurement system 1 that identifies the user by receiving the image transmission. Based on the information received from the degree-of-interest measurement system 1, the external system 99 performs guidance processing such as presenting a destination.
  • the central management device 24 includes a receiving unit 25, a transmitting unit 26, a user specifying unit 14, a matching processing unit 18, an interest information storage unit 21, and a visualization processing unit 27.
  • the receiving unit 25 and the transmitting unit 26 are parts that communicate with the external system 99 .
  • Central management device 24 thereby provides an interface to external system 99 .
  • the operation display unit 28 is an information processing terminal or the like that can communicate with the central management device 24 .
  • the simulation processing unit 29 of the simulation system 50 is installed in the central management device 24.
  • the simulation processing unit 29 may be one or more server devices that can communicate with the central management device 24, or the like.
  • part or all of the simulation processing unit 29 may be a virtual machine or the like on a cloud service.
  • FIG. 29 is a diagram showing an example of disclosing an interest level map or a simulation result of changes in the interest information by the interest level measuring system 1 according to the fourth embodiment.
  • FIG. 29 shows an example of a building 2c to which the degree-of-interest measurement system 1 is applied and a building 2d to which the external system 99 is applied.
  • a building 2d to which the external system 99 is applied is an example of a third building.
  • Guidance information such as destination candidates is transmitted from the interest level measurement system 1 to the external system 99 to the building 2d.
  • buildings 2c and 2d are shown on a certain day.
  • the user A has used the building 2c several times until this date.
  • the user A uses the building 2d for the first time on this day.
  • a clothing store, P store is located on the fourth floor.
  • the Q store which is a clothing store, is opened on the second floor.
  • the interest level measurement system 1 has acquired user A's interest information using the building 2c.
  • the building 2c from which the user's interest information is acquired is an example of the first building.
  • the interest information storage unit 21 stores a clothing store as an attribute with the highest degree of interest for the user A who used the building 2c or the like.
  • the external system 99 has previously transmitted images of each area of each floor of the building 2d to the interest degree measurement system 1.
  • the degree-of-interest measurement system 1 that has received the image pre-generates a bird's-eye view map of the building 2d in the same manner as shown in FIG.
  • the camera 12 is arranged, for example, at the landing of the elevator 3 .
  • the external system 99 transmits the image of the user A to the central management device 24 .
  • the receiving unit 25 of the central management device 24 receives the image of user A from the external system 99 .
  • the user identification unit 14 of the central management device 24 identifies user A based on the image received from the external system 99 .
  • the user identifying section 14 of the central management device 24 that identifies the user based on the image received from the external system 99 is an example of the third user identifying section. After identifying the user A, the user identification unit 14 of the central management device 24 determines the coordinates of the user A on the bird's-eye view map of the building 2d.
  • the transmission unit 26 reads the interest information about the specified user A from the interest information storage unit 21, and selects the attribute with the highest interest level corresponding to each area of each floor on the bird's-eye view map of the building 2d as the interest information. , and transmits to the external system 99 destination candidates in the building 2d.
  • the transmission unit 26 transmits to the external system 99 information indicating that the attribute of the highest degree of interest of the user A, who is the user identified by the image, is the clothing store.
  • the external system 99 receives destination candidates for the building 2d from the central management device 24.
  • the external system 99 receives that the attribute of the highest interest to the user A in the area of the building 2d and its attributes is the clothing store. Therefore, the external system 99 presents the Q shop, which is a clothing store, as a destination to the user A who uses the building 2d. Note that the building 2d to which the external system 99 is applied may not be the building that the user A uses for the first time.
  • the interest information acquisition unit 20 determines the attributes of an area on the bird's-eye view map, such as a clothing store, based on the image received by the reception unit 25 from the external system 99. judge. At this time, the interest information acquisition unit 20 acquires the interest information of the user of the building 2d based on the determined correspondence between the area and the attribute.
  • the visualization processing unit 27 generates an interest level map for one or more floors in the building 2d based on the correspondence between the areas and attributes determined in this way and the user's interest information.
  • the simulation processing unit 29 simulates changes in the interest information of the building 2d based on the correspondence between the areas and the attributes thus determined and the user's interest information.
  • Information such as interest level maps and simulation results will be disclosed in the form of information that cannot be processed, regardless of medium or communication method, based on a contract with the owner of the third building.
  • the interest level measurement system 1 includes the attribute storage unit 13, the user identification unit 14 corresponding to the building 2 to which the interest level measurement system 1 is applied, the floor Floor determination unit 19, behavior information acquisition unit 15, interest information acquisition unit 20, interest information storage unit 21, user identification unit 14 of central management device 24, reception unit 25, transmission unit 26, visualization and a processing unit 27 .
  • the attribute storage unit 13 stores the attribute of each area for each floor of the corresponding building 2 .
  • the user identification unit 14 identifies a user in the corresponding building 2 based on images captured by at least one of the cameras 12 provided in the corresponding building 2 .
  • the floor determination unit 19 determines whether the user is on the basis of the image captured by at least one of the cameras 12. Determine arrival floor.
  • the behavior information acquisition unit 15 acquires behavior information representing the behavior of the specified user at the determined arrival floor based on the image captured by at least one of the cameras 12 .
  • the interest information acquiring unit 20 obtains interest information indicating the degree of interest of the identified user for each attribute, based on the determined arrangement of areas on the arrival floor, the attributes of the areas, and the relationship between the behavior information. Get information.
  • the interest information storage unit 21 stores the interest information acquired by the interest information acquisition unit 20 for each user, including time and place information.
  • the receiving unit 25 receives from the external system 99 an image necessary for generating a bird's-eye view map of each area of each floor in the building 2d to which the external system 99 is applied, and an image of the user who starts using the elevator equipment. Receive sequentially.
  • the user identifying section 14 of the central management device 24 identifies the user based on the image received by the receiving section 25 .
  • the visualization processing unit 27 makes a determination based on the information stored as interest information in the interest information storage unit 21 for the user specified by the user specifying unit 14 of the central management device 24 and the image received by the receiving unit 25.
  • the interest level map of the building 2d is generated using attribute information for each area of at least one of the floors of the building 2d.
  • the degree-of-interest map generated here visualizes the distribution of the degrees of interest of the users of the building 2d on the floors for which attribute information has been determined among the plurality of floors of the building 2d.
  • the transmission unit 26 transmits guidance information such as destination candidates to the external system 99 for the user identified by the user identification unit 14 of the central management device 24 .
  • the effect of guidance can be confirmed from the images that are sequentially sent to the receiving unit 25 .
  • the degree-of-interest map of the building 2d or the simulation results of changes can be disclosed by contract with the owner of the third building. For example, by disclosing a degree-of-interest map that simultaneously measures mutual movement with adjacent buildings, it becomes possible to consider more efficient flow of people.
  • the first building and the third building may or may not be adjacent.
  • the identification of the user, the determination of the arrival floor, and the acquisition of the action information are performed based on the image captured by the camera 12 provided in the building 2, so that the user who does not operate the equipment of the elevator equipment , the behavior information on the arrival floor is also acquired.
  • interest information is acquired based on the user's behavior information. Therefore, interest information is obtained even for users who do not operate devices of the lifting equipment. For this reason, interest information is acquired as information on the user's interest even for a user of the building 2 who does not possess a pre-registered mobile device.
  • the interest level measurement system 1 does not request the external system 99 for other identification information of the user's image. For this reason, the interest level measurement system 1 does not provide the external system 99 with personal information such as a name that identifies the user, but guides each user to the area of the building 2d that has the attribute of the highest interest. It can be carried out.
  • the attribute storage unit 13 is provided for each building 2 .
  • the attribute storage unit 13 is implemented on a server device or a cloud service
  • the attribute storage unit 13 that stores information about each building 2 can be stored in a single attribute storage unit 13 or the number of buildings 2. It may be integrated into a smaller attribute storage unit 13 .
  • the user identification unit 14 is provided for each building 2 .
  • the user identification unit 14 when the user identification unit 14 is implemented on a server device or a cloud service, the user identification unit 14 that stores information about each building 2 may be a single user identification unit 14 or building 2 may be integrated into the user identification units 14 whose number is less than the number of .
  • functional units such as the floor determination unit 19, the behavior information acquisition unit 15, the behavior information storage unit 16, the interest information acquisition unit 20, the interest information storage unit 21, and the visualization processing unit 27 are also partially Alternatively, the functional units for each building 2 may be integrated into a single functional unit or fewer functional units than the number of buildings 2, such as when all functional units are implemented on a server device or cloud service. .
  • the interest level measurement system and simulation system according to the present disclosure can be applied to buildings with multiple floors.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Data Mining & Analysis (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

予め登録された携帯機器を所持しない利用者についても、建物における利用者の興味関心の情報を得ることができる興味関心度計測システム、および当該情報の変化をシミュレーションできるシミュレーションシステムを提供する。シミュレーションシステム(50)に含まれる興味関心度計測システム(1)において、行動情報取得部(15)は、利用者の到着階における行動情報を、カメラ(12)が撮影する画像に基づいて取得する。関心情報取得部(20)は、到着階におけるエリアの配置および属性、ならびに行動情報の関係に基づいて、属性ごとの利用者の関心度を表す関心情報を取得する。関心情報記憶部(21)は、関心情報を利用者ごとに時刻および場所の情報を含めて記憶する。可視化処理部(27)は、関心情報記憶部(21)に記憶された情報を用いて、建物(2)の利用者の関心度の分布を可視化した関心度マップを生成する。

Description

興味関心度計測システムおよびシミュレーションシステム
 本開示は、興味関心度計測システムおよびシミュレーションシステムに関する。
 特許文献1は、関心度解析システムの例を開示する。関心度解析システムは、対象物の有効範囲における利用者の移動軌跡および移動速度などに基づいて、当該対象物への利用者の関心度を解析する。
日本特開2006-133915号公報
 しかしながら、特許文献1の関心度解析システムにおいて、利用者の移動軌跡は、利用者が所持する情報端末などの携帯機器を用いて取得される。このため、予め登録された情報端末などの携帯機器を所持しない利用者などについて、関心度の情報を得ることができない。
 本開示は、このような課題の解決に係るものである。本開示は、予め登録された携帯機器を所持しない利用者についても、建物における利用者の興味関心の情報を得ることができる興味関心度計測システム、および当該情報の変化をシミュレーションできるシミュレーションシステムを提供する。
 本開示に係る興味関心度計測システムは、建物の複数の階床の各々について、エリアごとの属性を記憶する属性記憶部と、前記建物に設けられた複数のカメラの少なくともいずれかが撮影する画像に基づいて、前記建物において利用者を特定する利用者特定部と、前記利用者特定部に特定された利用者が前記建物に設けられた1つ以上の昇降設備のいずれかを利用して前記複数の階床のうちの出発階から到着階まで移動したときに、前記複数のカメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、前記利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数のカメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、前記利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、前記関心情報取得部が取得した関心情報を利用者ごとに時刻および場所の情報を含めて記憶する関心情報記憶部と、前記関心情報記憶部に記憶された情報を用いて、前記複数の階床の少なくともいずれかにおける前記建物の利用者の関心度の分布を可視化した関心度マップを生成する可視化処理部と、を備える。
 本開示に係る興味関心度計測システムは、第1建物の複数の階床の各々について、エリアごとの属性を記憶する第1属性記憶部と、前記第1建物に設けられた複数の第1カメラの少なくともいずれかが撮影する画像に基づいて、前記第1建物において利用者を特定する第1利用者特定部と、前記第1利用者特定部に特定された利用者が前記第1建物に設けられた1つ以上の昇降設備のいずれかを利用して前記第1建物の複数の階床のうちの出発階から到着階まで移動したときに、前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、前記関心情報取得部が取得した関心情報を利用者ごとに時刻および場所の情報を含めて記憶する関心情報記憶部と、第2建物の複数の階床の各々について、エリアごとの属性を記憶する第2属性記憶部と、前記第2属性記憶部が記憶している属性の情報、および前記関心情報記憶部に記憶された情報を用いて、前記第2建物の複数の階床の少なくともいずれかにおける前記第2建物の利用者の関心度の分布を可視化した関心度マップを生成する可視化処理部と、を備える。
 本開示に係る興味関心度計測システムは、第1建物の複数の階床の各々について、エリアごとの属性を記憶する属性記憶部と、前記第1建物に設けられた複数の第1カメラの少なくともいずれかが撮影する画像に基づいて、前記第1建物において利用者を特定する第1利用者特定部と、前記第1利用者特定部に特定された利用者が前記第1建物に設けられた1つ以上の昇降設備のいずれかを利用して前記第1建物の複数の階床のうちの出発階から到着階まで移動したときに、前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、前記関心情報取得部が取得した関心情報を利用者ごとに時刻および場所の情報を含めて記憶する関心情報記憶部と、第3建物の利用者の画像を、前記第3建物に適用される外部システムから受信する受信部と、前記受信部が受信した画像に基づいて利用者を特定する第3利用者特定部と、前記第3利用者特定部に特定された利用者について前記関心情報記憶部が関心情報として記憶している情報、および前記受信部が受信した画像に基づいて判定される前記第3建物の複数の階床の少なくともいずれかのエリアごとの属性の情報を用いて、前記第3建物の複数の階床のうち属性の情報を判定した階床における前記第3建物の利用者の関心度の分布を可視化した関心度マップを生成する可視化処理部と、を備える。
 本開示に係る興味関心度計測システムは、第1建物の複数の階床の各々について、エリアごとの属性を記憶する属性記憶部と、前記第1建物に設けられた複数の第1カメラの少なくともいずれかが撮影する画像に基づいて、前記第1建物において利用者を特定する第1利用者特定部と、前記第1利用者特定部に特定された利用者が前記第1建物に設けられた1つ以上の昇降設備のいずれかを利用して前記第1建物の複数の階床のうちの出発階から到着階まで移動したときに、前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、前記関心情報取得部が取得した関心情報を利用者ごとに時刻および場所の情報を含めて記憶する関心情報記憶部と、第3建物に設けられた1つ以上の昇降設備のいずれかの利用を開始する利用者の画像を、外部システムから受信する受信部と、前記受信部が受信した画像に基づいて利用者を特定する第3利用者特定部と、前記第3利用者特定部に特定された利用者について、前記関心情報記憶部が当該利用者の関心度の高い行先候補の情報を前記外部システムに送信する送信部と、を備える。
 本開示に係るシミュレーションシステムは、上記の興味関心度計測システムと、前記関心情報記憶部に記憶された既存条件に基づいて、シミュレーション条件を設定し、前記関心情報取得部が取得した既存条件から変化させた新規条件より、関心情報の変化をシミュレーションするシミュレーション処理部と、を備える。
 本開示に係る興味関心度計測システムまたはシミュレーションシステムによれば、予め登録された携帯機器を所持しない利用者についても、建物における利用者の興味関心の情報を得ることができ、当該情報の変化をシミュレーションできるようになる。
実施の形態1に係るシミュレーションシステムの構成図である。 実施の形態1に係るかご操作盤の例を示す図である。 実施の形態1に係る階床におけるエリアの例を示す図である。 実施の形態1に係るカメラの配置の例を示す図である。 実施の形態1に係るカメラの配置の例を示す図である。 実施の形態1に係るカメラの配置の例を示す図である。 実施の形態1に係る行動情報取得部が取得する行動情報の例を示す図である。 実施の形態1に係る行動情報取得部が取得する行動情報の例を示す図である。 実施の形態1に係る行動情報取得部が取得する行動情報の例を示す図である。 実施の形態1に係る行動情報取得部が取得する行動情報の例を示す図である。 実施の形態1に係る行動情報取得部が取得する行動情報の例を示す図である。 実施の形態1に係る階床判定部による判定の例を示す表である。 実施の形態1に係る階床判定部による判定の例を示す図である。 実施の形態1に係る階床判定部による判定の例を示す図である。 実施の形態1に係る階床判定部による判定の例を示す図である。 実施の形態1に係る階床判定部による判定の例を示す図である。 実施の形態1に係る階床判定部による判定の例を示す図である。 実施の形態1に係る階床判定部による判定の例を示す図である。 実施の形態1に係る興味関心度計測システムによる行動情報の取得の例を示す図である。 実施の形態1に係る興味関心度計測システムによる行動情報の取得の例を示す図である。 実施の形態1に係る興味関心度計測システムによる行動情報の取得の例を示す図である。 実施の形態1に係る興味関心度計測システムによる関心情報の取得の例を示す図である。 実施の形態1に係る興味関心度計測システムによる関心情報の取得の例を示す図である。 実施の形態1に係る興味関心度計測システムによる関心情報の取得の例を示す図である。 実施の形態1に係る興味関心度計測システムによる関心情報の取得の例を示す図である。 実施の形態1に係る興味関心度計測システムによる行先の提示の例を示す図である。 実施の形態1に係る興味関心度計測システムによる行先の提示の例を示す図である。 実施の形態1に係る興味関心度計測システムによる行先の提示の例を示す図である。 実施の形態1に係る興味関心度計測システムによる行先の提示の例を示す図である。 実施の形態1に係る興味関心度計測システムによる関心度マップの例を示す図である。 実施の形態1に係る興味関心度計測システムによる関心度マップの例を示す図である。 実施の形態1に係る興味関心度計測システムによる関心度マップの例を示す図である。 実施の形態1に係る興味関心度計測システムによる関心度マップの例を示す図である。 実施の形態1に係る興味関心度計測システムによる関心度マップの例を示す図である。 実施の形態1に係る興味関心度計測システムによる関心度マップの例を示す図である。 実施の形態1に係る興味関心度計測システムによる関心度マップの例を示す図である。 実施の形態1に係るシミュレーションシステムにおけるシミュレーション条件の設定の例を示す図である。 実施の形態1に係るシミュレーションシステムによるシミュレーションの結果の例を示す図である。 実施の形態1に係るシミュレーションシステムによるシミュレーションの結果の例を示す図である。 実施の形態1に係る興味関心度計測システムによる関心度マップの例を示す図である。 実施の形態1に係るシミュレーションシステムによるシミュレーションの結果の例を示す図である。 実施の形態1に係る建物のレイアウトの例を示す図である。 実施の形態1に係るシミュレーションシステムによるシミュレーションの結果の例を示す図である。 実施の形態1に係る興味関心度計測システムの動作の例を示すフローチャートである。 実施の形態1に係る興味関心度計測システムの動作の例を示すフローチャートである。 実施の形態1に係る興味関心度計測システムの動作の例を示すフローチャートである。 実施の形態1に係る興味関心度計測システムの動作の例を示すフローチャートである。 実施の形態1に係る興味関心度計測システムの動作の例を示すフローチャートである。 実施の形態1に係るシミュレーションシステムの動作の例を示すフローチャートである。 実施の形態1に係る興味関心度計測システムおよびシミュレーションシステムの主要部のハードウェア構成図である。 実施の形態2に係る興味関心度計測システムによる行先の提示の例を示す図である。 実施の形態2に係る興味関心度計測システムによる行先の提示の例を示す図である。 実施の形態2に係る興味関心度計測システムによる行先の提示の例を示す図である。 実施の形態2に係る興味関心度計測システムによる行先の提示の例を示す図である。 実施の形態2に係る興味関心度計測システムによる行先の提示の例を示す図である。 実施の形態3に係る興味関心度計測システムの構成図である。 実施の形態3に係る興味関心度計測システムによる行先の提示の例を示す図である。 実施の形態4に係る興味関心度計測システムの構成図である。 実施の形態4に係る興味関心度計測システムによる関心度マップ、あるいは当該関心情報の変化のシミュレーション結果の開示の例を示す図である。
 本開示を実施するための形態について添付の図面を参照しながら説明する。各図において、同一または相当する部分には同一の符号を付して、重複する説明は適宜に簡略化または省略する。
 実施の形態1.
 図1は、実施の形態1に係るシミュレーションシステム50の構成図である。
 シミュレーションシステム50は、興味関心度計測システム1を含む。興味関心度計測システム1は、複数の階床を有する建物2に適用される。興味関心度計測システム1は、例えば建物2のオーナーなどに対して、建物2の利用者の興味関心の度合が高いエリアの可視化などを行うシステムである。建物2の利用者は、例えば、建物2に来訪した来訪客、または建物2において業務に従事する従業者などを含む。
 建物2において、1つ以上の昇降設備が設けられる。昇降設備は、建物2の利用者が複数の階床の間に移動に利用する設備である。この例の建物2において、複数の昇降設備が設けられている。昇降設備は、例えばエレベーター3、エスカレーター4、または階段5などである。建物2の各々の階床において、階段5の乗降口が設けられる。出発階から到着階まで階段5を利用して移動する利用者は、出発階の乗降口から階段5の利用を開始する。その後、利用者は、到着階の乗降口で階段5の利用を完了する。なお、階段5は、階間を斜行できるスロープであってもよい。
 この例において、複数のエレベーター3が昇降設備として建物2に適用されている。各々のエレベーター3は、複数の階床の間で利用者を輸送する搬送装置である。建物2において、エレベーター3の昇降路6が設けられる。昇降路6は、複数の階床にわたる空間である。建物2の各々の階床において、エレベーター3の乗場が設けられる。エレベーター3の乗場は、昇降路6に隣接する空間である。各々のエレベーター3は、かご7と、制御盤8と、乗場操作盤9と、を備える。かご7は、昇降路6を上下に走行することで内部に乗車している利用者を複数の階床の間で輸送する装置である。かご7は、かご操作盤10を備える。かご操作盤10は、かご7の行先の階床を指定する利用者の操作を受け付ける装置である。制御盤8は、例えばエレベーター3に登録された呼びに応じてかご7の走行などを制御する装置である。乗場操作盤9は、エレベーター3に呼びを登録する利用者の操作を受け付ける装置である。乗場操作盤9は、例えば各々の階床の乗場に設けられる。乗場操作盤9は、複数のエレベーター3の間で共有されていてもよい。出発階から到着階までエレベーター3を利用して移動する利用者は、例えば出発階の乗場において乗場操作盤9を操作することで呼びを登録する。利用者は、出発階の乗場からかご7に乗車することでエレベーター3の利用を開始する。その後、利用者は、到着階の乗場にかご7から降車することでエレベーター3の利用を完了する。この例の建物2において、複数のエレベーター3への呼びの割当てなどの運行の管理を行う群管理装置11が設けられる。ここで、建物2において、独立した機器としての群管理装置に代わる機器、または独立した機器としての群管理装置の機能を搭載したソフトウェアがインストールされた機器などが設けられてもよい。運行の管理などについての情報処理の一部または全部の機能は、制御盤8に搭載されていてもよい。あるいは、運行の管理などについての情報処理の一部または全部の機能は、各々のエレベーター3と通信可能なサーバ装置などに搭載されていてもよい。当該サーバ装置は、建物2の内部または外部のいずれに配置されていてもよい。また、運行の管理などについての情報処理の一部または全部の機能は、各々のエレベーター3と通信可能なクラウドサービス上の仮想マシンなどに搭載されていてもよい。運行の管理などについての情報処理の一部または全部の機能は、専用のハードウェアによって実現されてもよく、ソフトウェアによって実現されてもよく、または、専用のハードウェアおよびソフトウェアを併用して実現されてもよい。以下において、運行の管理などについての情報処理を行う上記に例示された各手段を、その構成に関わらず群管理装置11と呼ぶ。
 エスカレーター4は、上階および下階の間に掛け渡される。エスカレーター4は、上階および下階の間で利用者を輸送する搬送装置である。建物2の各々の階床において、エスカレーター4の乗降口が設けられる。出発階から到着階まで1つまたは複数のエスカレーター4を利用して移動する利用者は、出発階の乗り口からエスカレーター4の利用を開始する。利用者は、出発階および到着階の間で複数のエスカレーター4を乗り継いでもよい。その後、利用者は、到着階の降り口でエスカレーター4の利用を完了する。
 建物2において、複数のカメラ12が設けられる。各々のカメラ12は、設けられた場所の画像を撮影する装置である。各々のカメラ12が撮影する画像は、例えば静止画または動画を含む。各々のカメラ12が撮影する画像の形式は、例えばMotion JPEG、AVC、HEVCなどの圧縮された画像の形式であってもよい。あるいは、各々のカメラ12が撮影する画像の形式は、非圧縮の画像の形式であってもよい。各々のカメラ12は、撮影した画像を外部の機器に出力する機能を搭載する。この例において、各々のカメラ12は、同時に撮影された画像を同一時刻の画像として取得しうるように、互いに同期されている。
 この例において、複数のカメラ12は、各々の階床に設けられるカメラ12を含む。複数のカメラ12は、エレベーター3のかご7の内部に設けられるカメラ12を含む。複数のカメラ12は、エスカレーター4の乗降口に設けられるカメラ12を含む。複数のカメラ12は、階段5の乗降口に設けられるカメラ12を含む。複数のカメラ12は、各々の階床に設けられるカメラ12と同様に、建物2の入口、外周、または中庭などの屋外に設けられるカメラ12を含んでもよい。複数のカメラ12は、各々の階床に設けられるカメラ12と同様に、エレベーター3の乗場に設けられるカメラ12を含んでもよい。複数のカメラ12は、エスカレーター4の乗降口に設けられるカメラ12と同様に、エスカレーター4の乗降口に至る手前の部分に設けられるカメラ12を含んでもよい。複数のカメラ12は、階段5の乗降口に設けられるカメラ12と同様に、階段5の乗降口に至る手前の部分に設けられるカメラ12を含んでもよい。
 興味関心度計測システム1は、複数のカメラ12の一部または全部を含んでもよい。あるいは、複数のカメラ12の一部または全部は、興味関心度計測システム1の外部の装置であってもよい。興味関心度計測システム1は、各々のカメラ12から取得する画像に基づく情報処理によって案内を行う。興味関心度計測システム1は、情報処理を担う部分として、属性記憶部13と、利用者特定部14と、行動情報取得部15と、行動情報記憶部16と、昇降設備判定部17と、整合処理部18と、階床判定部19と、関心情報取得部20と、関心情報記憶部21と、行先提示部22と、呼び登録部23と、可視化処理部27と、を備える。この例において、興味関心度計測システム1の属性記憶部13、利用者特定部14、行動情報取得部15、行動情報記憶部16、昇降設備判定部17、整合処理部18、階床判定部19、関心情報取得部20、関心情報記憶部21、行先提示部22、および呼び登録部23は、群管理装置11に搭載されている。ここで、興味関心度計測システム1において情報処理を担う部分の一部または全部は、群管理装置11と別の通信可能な外部のサーバ装置などに搭載されていてもよい。また、興味関心度計測システム1において情報処理を担う部分の一部または全部は、建物2に設けられたサーバ装置と別の通信可能な外部のサーバ装置などに搭載されていてもよい。また、興味関心度計測システム1において情報処理を担う部分の一部または全部は、クラウドサービス上の処理または記憶のリソースによって実装されていてもよい。
 属性記憶部13は、情報を記憶する部分である。属性記憶部13において、建物2の各々の階床についてのエリアごとの属性が記憶される。各々の階床のエリアは、当該階床の一部または全部を占める部分である。各々の階床のエリアは、例えば当該階床のテナントが入居する部分などである。各々の階床のエリアは、例えば当該階床において営業する店舗などの部分であってもよい。属性記憶部13は、例えば各々の階床における座標の範囲などとしてエリアを特定する情報を記憶する。エリアは、2次元の平面に限られず、例えば3次元などの高次元の空間でもよい。また、エリアの属性は、1つ以上のモノ、コト、ヒトなどを表す。エリアの属性は、例えば当該エリアが店舗である場合に、店舗の種類、または店舗において扱う品物もしくはサービスの種類などである。エリアの属性は、例えば当該エリアが店舗である場合に、店舗の名称、または店舗において扱う品物もしくはサービスの名称などであってもよい。エリアの属性は、例えば当該エリアが事務所である場合に、その事務所の人などであってもよい。すなわち、エリアの属性とは、利用者のゴールである。各々のエリアは、複数の属性を有していてもよい。各々のエリアの1つまたは複数の属性は、人によって付与されてもよく、またAI(Artificial Intelligence)を用いて付与されても良い。
 利用者特定部14は、少なくともいずれかのカメラ12が撮影する画像に基づいて、建物2の利用者を特定する機能を搭載する。利用者特定部14は、例えば、画像から抽出した利用者の顔情報を、既存情報がある場合はこれと二次元顔認証により照合することなどによって利用者の特定を行い、利用者の特定を確定する。利用者特定部14は、初めての利用者などの既存情報がない場合に、画像から抽出した利用者の顔情報を新規に登録してもよい。ここで、顔情報として、例えば顔の鼻、耳、目、口、頬、顎、および首などの特徴が利用される。また、顔情報の悪用を防ぐため、利用者特定部14は、例えば目の虹彩、または瞳孔などの情報を取得してもよい。目の瞳孔が円または楕円などではなく凹凸がある場合、または虹彩情報が異常と判定される場合などに、利用者特定部14は、AIなどで作成された偽の顔情報を取得したリスク、または虹彩を遮蔽する黒いサングラスなどを着用した状態の顔情報を取得したリスクなどを検出し、アラートなどを発信してもよい。
 行動情報取得部15は、利用者特定部14に特定された利用者について、当該利用者の行動情報を取得する機能を搭載する。利用者の行動情報は、例えば当該利用者の配置を表す情報の時系列データである。行動情報は、2次元の平面および時間軸をあわせた3次元の情報に限られず、例えば3次元などの高次元の空間および時間軸をあわせたより高次元の情報であってもよい。利用者の配置は、例えば当該利用者のいる階床、当該階床における当該利用者の座標、および当該利用者の向きなどの情報を含む。利用者の配置は、利用者がいずれかの昇降設備を利用している場合に、当該昇降設備を特定する情報を含んでもよい。時系列データとしての行動情報は、例えば予め設定された時間間隔ごとに取得された利用者の配置の情報を含む。行動情報取得部15は、少なくともいずれかのカメラ12が撮影する画像に基づいて利用者の行動情報を取得する。行動情報取得部15は、利用者の行動情報を例えば予め設定された時間間隔ごとに継続的に更新する。
 行動情報記憶部16は、情報を記憶する部分である。行動情報記憶部16は、行動情報取得部15により取得された行動情報を、利用者特定部14により特定された利用者ごとに記憶する。この例において、行動情報記憶部16は、利用者特定部14による特定に必要な利用者に固有の識別情報、当該利用者の行動情報、ならびに当該行動情報が取得された時刻および場所の情報を関連付けて記憶する。
 昇降設備判定部17は、利用者特定部14に特定された利用者について、当該利用者の利用する昇降設備を判定する機能を搭載する。昇降設備判定部17は、少なくともいずれかのカメラ12が撮影する画像に基づいて、利用される昇降設備の判定を行う。昇降設備判定部17は、例えば利用者が出発階においていずれかの昇降設備の利用を開始するときに、当該昇降設備を当該利用者の利用する昇降設備として判定する。
 整合処理部18は、利用者特定部14による利用者の特定、および昇降設備判定部17による当該利用者の利用する昇降設備の判定の間の整合を取る機能を搭載する。整合を取る処理は、例えば次のように行われる。利用者特定部14は、異なる利用者を誤って同一の利用者として特定する可能性がある。この場合に、昇降設備判定部17は、利用者特定部14が同一の利用者として特定した利用者について、当該利用者の利用する昇降設備として、同時に2以上の昇降設備を判定する可能性がある。同一人物が同時に2以上の昇降設備を重複して利用することはできないので、整合処理部18は、利用者特定部14に利用者の特定の修正を要求する。このとき、利用者特定部14は、誤って同一の利用者として特定していた利用者を互いに異なる利用者として特定する。利用者特定部14は、互いに異なる利用者として特定するときに、取得済みの画像の中から利用者の特徴量の差を抽出して、利用者の特定の確度を向上させ、互いに異なる利用者の特定を再確定する。利用者特定部14は、例えば、抽出した特徴量の差に応じて同一の利用者として判定する特徴量の範囲を狭めるなどの調整を行ってもよい。利用者特定部14は、この他の方法によって抽出した特徴量の差に基づいて利用者の特定の確度を向上させてもよい。
 階床判定部19は、利用者特定部14に特定された利用者について、当該利用者の到着階を判定する機能を搭載する。利用者の到着階は、昇降設備を利用している利用者が当該昇降設備の利用を完了した階床である。例えば利用者がエレベーター3を利用している場合に、当該利用者の到着階は、エレベーター3からの降車階である。階床判定部19は、少なくともいずれかのカメラ12が撮影する画像に基づいて、到着階の判定を行う。階床判定部19は、例えば利用者がいずれかの階床において昇降設備の利用を完了するときに、当該階床を当該利用者の到着階として判定する。
 関心情報取得部20は、利用者特定部14に特定された利用者について、関心情報を取得する機能を搭載する。利用者の関心情報は、エリアに付される属性ごとの当該利用者の関心度を表す情報である。関心情報取得部20は、到着階における利用者の行動に基づいて関心情報を取得する。ここで、利用者の行動は、例えば到着階における利用者の滞在時間、到着階において利用者が関心を示す向きである興味方向などの情報を含む。この例において、関心情報取得部20は、属性記憶部13が記憶する情報、および行動情報取得部15が取得する行動情報または行動情報記憶部16が記憶する行動情報によって、分析される利用者の行動に基づいて関心情報を取得する。関心情報は、一つは関心の有無を表し、一つは関心度の高さを表す。関心度の高さは、利用者の興味方向にあるエリアに付される属性への興味を示した期間、および滞在時間のいずれかまたは両方を要素として分析される。関心情報取得部20は、各利用者に各階床からの情報が追加される都度、情報を追加する。関心情報取得部20は、更新された情報をもとに分析した結果の関心度の高さを、優先順に都度ソートする。
 関心情報記憶部21は、情報を記憶する部分である。関心情報記憶部21において、利用者ごとに関心情報が記憶される。この例において、関心情報記憶部21は、利用者に固有な識別情報、当該利用者の関心情報、ならびに当該関心情報が取得された時刻および場所の情報を関連付けて記憶する。
 行先提示部22は、関心情報記憶部21が記憶する関心情報に基づいて、利用者に行先を提示する機能を搭載する。行先提示部22は、例えば、利用者の関心度の高い属性を有するエリアを行先として当該利用者に提示する。行先提示部22が提示する行先の情報は、例えば行先の属性、行先を含む階床である行先階、または利用者の現在の位置から行先までの経路などを含む。行先提示部22は、例えば映像によって利用者への提示を行う。行先提示部22が表示する映像は、例えば文字、静止画、または画像などを含む。映像は、例えばディスプレイなどの表示機器、プロジェクタなどの投影機器などによって表示される2次元の映像であってもよい。あるいは、映像は、3次元表示された空間映像であってもよい。映像は、例えばエレベーター3のかご7の内部、もしくはエレベーター3の乗場、エスカレーター4の乗降口、または階段5の乗降口などにおいて表示される。また、表示機器は、例えば行先を示すライト、液晶ディスプレイ、有機ELディスプレイ(有機EL:Organic Electro-Luminescence)、発光フィルム、LED表示機(LED:Light Emitting Diode)、プロジェクタ、または立体(3D)表示機などであってもよい。あるいは、行先提示部22は、例えば音声によって利用者への提示を行ってもよい。スピーカーなどの音声を発する機器は、例えばエレベーター3のかご7の内部、もしくはエレベーター3の乗場、エスカレーター4の乗降口、または階段5の乗降口などに配置される。
 呼び登録部23は、行先提示部22が提示した行先階への呼びを、当該利用者が利用を開始するエレベーター3に登録する機能を搭載する。ここで、呼び登録部23は、利用者に提示した行先階への呼びの登録の有無を、提示に対する利用者の行動、すなわち、滞在時間、関心の有無、および関心度の高さの一部または全部を要素として分析された優先順に応じて判定してもよい。呼び登録部23は、例えば利用者がかご7に乗車したエレベーター3に当該呼びを登録する。呼び登録部23が群管理装置11の外部の装置である場合に、呼び登録部23は、当該呼びを登録させる制御情報を群管理装置11に入力してもよい。
 可視化処理部27は、関心度マップを生成する機能を搭載する部分である。関心度マップは、例えば建物2の利用者の関心度の分布を可視化する情報である。可視化処理部27は、関心情報記憶部21に記憶された情報を用いて関心度マップを生成する。可視化処理部27は、例えば建物2のいずれかの階床における関心度の分布を関心度マップとして可視化する。関心度マップにおいて、関心度の分布は、例えば表、グラフ、または図などの情報によって可視化される。可視化処理部27は、行動情報記憶部16に記憶された情報を含めて関心度マップを生成してもよい。可視化処理部27は、行先提示部22が利用者に実際に提示した行先の情報を含めて関心度マップを生成してもよい。行動情報が可視化される場合に、時間を動かして利用者毎の建物内の行動をトレースすることで、例えば行先提示部22の案内が適切か、またはイライラを生むような混雑がないかなど、利用者目線の評価が行われてもよい。可視化処理部27は、利用者の性別もしくは年齢、もしくはその両方、またはこれら以外の情報などの分類情報を含めて関心度マップを生成してもよい。また、生成される関心度マップは、俯瞰マップの2次元に関心度の高さを軸とした3次元のマップには限られず、より詳細な行動および関心度を分かりやすく可視化しうるように、例えば立体の動画などのより高次元の情報であってもよい。
 興味関心度計測システム1は、操作表示部28を備える。操作表示部28は、興味関心度計測システム1において処理される情報を、例えば建物2のオーナーなどに表示する機能を搭載する。当該表示の機能は、例えば、モニタ、プロジェクタ、LED表示機、スマートフォン、スマートグラス、VR表示機、AR表示機、MR表示機、または立体(3D)表示機、などによって実装される。また、操作表示部28は、表示の補助または表示の代替などとして、必要に応じて音声を発する機能を搭載する。操作表示部28は、例えば建物2のオーナーなどによる操作を受け付ける機能を搭載する。当該操作の機能は、例えば、ボタン、キーボード、タッチパネル、アイトラッキング、センサ、または音声認識などによって実装される。操作表示部28は、興味関心度計測システム1の外部の装置であってもよい。操作表示部28は、興味関心度計測システム1の可視化処理部27などの部分と別個の装置であってもよい。あるいは、操作表示部28は、興味関心度計測システム1の可視化処理部27などの部分と一体の装置であってもよい。操作表示部28は、例えば興味関心度計測システム1において生成される関心度マップなどの情報の表示を行う。操作表示部28は、例えば興味関心度計測システム1における関心度マップの生成の操作などを受け付ける。操作表示部28は、建物2のオーナー(法人または人)、建物2のテナントの管理者(法人または人)、もしくはこれらの代理人(法人または人)、もしくは興味関心度計測システム1のメーカー(法人または人)、もしくはメンテナンス者(法人または人)、またはこれらの法人もしくは人を代替するAIもしくはロボットなどが認識できる表示可能な仕組みであれば、どのような仕組みの表示方法によって表示を行ってもよい。また、操作表示部28は、表示の代替、または補助として、音や声を付与してもよい。操作表示部28は、建物2のオーナー(法人または人)、建物2のテナントの管理者(法人または人)、もしくはこれらの代理人(法人または人)、もしくは興味関心度計測システム1のメーカー(法人または人)、もしくはメンテナンス者(法人または人)、またはこれらの法人もしくは人を代替するAI、ロボット、ソフトウェア、もしくはハードウェアなどが操作できる仕組みであれば、どのような仕組みで操作を受け付けてもよい。以降、これらの操作の主体を「オーナーなど」と呼ぶことがある。関心度マップの生成などの操作は、例えば建物2のオーナーなどによって行われる。このとき、操作表示部28は、例えば関心度マップの生成条件の入力の操作などをあわせて受け付けてもよい。
 建物2のオーナーなどは、操作表示部28によって表示される関心度マップなどの情報から、興味関心度計測システム1に、例えば建物2のテナント料を相場に応じて自動的に算出させる。ここで、テナント料の相場は、例えば、建物の立地に応じて設定される、関心度の高さとテナント料との対応などである。建物2のオーナーなどは、例えば、算出されたテナント料を、建物2の管理などについての判断の助けとしてもよい。また、建物2のオーナーなどは、関心度マップなどの情報を、例えば建物2の価値を向上させる判断材料として利用する。また、建物2において、主な利用者の傾向から外れて不審な挙動を示す利用者がいる場合がある。建物2のオーナーなどは、操作表示部28によって表示される関心度マップなどの情報を、例えば不審な挙動を示す利用者に注意を向けることで盗難または事故などのリスクの回避に利用してもよい。これにより、建物2の安全性などが向上しうる。
 シミュレーションシステム50は、情報処理を担う部分として、シミュレーション処理部29を備える。シミュレーション処理部29は、シミュレーション条件を設定し、建物2において関心情報取得部20が取得する関心情報の変化をシミュレーションする機能を搭載する。この例において、シミュレーション処理部29は、群管理装置11などの興味関心度計測システム1の装置と通信可能なサーバ装置などに搭載される。なお、シミュレーションシステム50において情報処理を担う部分の一部または全部は、群管理装置11などの興味関心度計測システム1の装置に搭載されていてもよい。また、シミュレーションシステム50において情報処理を担う部分の一部または全部は、興味関心度計測システム1の操作表示部28などと別個の装置であってもよい。また、シミュレーションシステム50において情報処理を担う部分の一部または全部は、興味関心度計測システム1の操作表示部28などと一体の装置であってもよい。また、シミュレーションシステム50において情報処理を担う部分の一部または全部は、建物2に設けられたサーバ装置と別の通信可能な外部のサーバ装置などに搭載されていてもよい。また、シミュレーションシステム50において情報処理を担う部分の一部または全部は、クラウドサービス上の処理または記憶のリソースによって実装されていてもよい。
 操作表示部28は、例えばシミュレーションシステム50におけるシミュレーションの結果の表示を行う。シミュレーションの結果は、例えば関心度マップなどの変化を表す。また、シミュレーションの結果は、例えば変化した関心度マップの情報から相場に応じて算出されたテナント料の情報を含んでもよい。操作表示部28は、例えばシミュレーションシステム50におけるシミュレーション条件の設定およびシミュレーションの開始の操作などを受け付ける。当該操作は、例えば建物2のオーナーなどによって行われる。これにより、シミュレーションシステム50におけるシミュレーションの結果は、建物2の価値をより向上させるための、より確度の高い判断材料として利用できるようになる。
 図2は、実施の形態1に係るかご操作盤10の例を示す図である。
 かご操作盤10は、表示パネル10aと、複数の行先ボタン10bと、を備える。表示パネル10aは、かご7の内部に乗車している利用者に情報を表示する表示機器である。表示パネル10aは、例えばかご7の走行方向および現在階床などを表示する。各々の行先ボタン10bは、いずれかの階床に対応する。各々の行先ボタン10bは、対応する階床を行先階として指定する操作を受け付けるボタンである。各々の行先ボタン10bは、例えば利用者によって操作されたときなどに点灯する図示されない発光機器を有する。この例において、発光機器は、発光の輝度、色調、点滅の有無、および点滅のスピードなどが可変な機器である。
 図3は、実施の形態1に係る階床におけるエリアの例を示す図である。
 図3において、いずれかの階床におけるフロアマップが示される。
 図3に示される階床において、各々が店舗である複数のエリアが含まれる。いずれかのエリアは、品物P1および品物P2を扱うP店である。いずれかのエリアは、品物Q1および品物Q2を扱うQ店である。いずれかのエリアは、サービスR1およびサービスR2を提供するR店である。
 このとき、属性記憶部13は、P店のエリアの属性として、例えば店名「P店」および品名「P1」ならびに「P2」などを記憶する。品物P1および品物P2が食料品であり、P店が食料品店である場合に、属性記憶部13は、当該エリアの属性として、例えば店舗の種類「食料品店」および品物の種類「食料品」を記憶していてもよい。
 図4Aから図4Cは、実施の形態1に係るカメラ12の配置の例を示す図である。
 図4Aに示されるように、いずれかのカメラ12は、エレベーター3のかご7の内部に配置される。当該カメラ12は、例えば壁の上部または天井などに取り付けられる。当該カメラ12は、例えばかご7の内部に乗り込む利用者の顔を撮影できる位置に配置される。また、いずれかのカメラ12は、エレベーター3の乗場に配置される。当該カメラ12は、例えば壁の上部または天井などに取り付けられる。
 図4Bに示されるように、いずれかのカメラ12は、エスカレーター4の乗降口に配置される。あるいは、いずれかのカメラ12は、エスカレーター4の乗降口の手前の傾斜部の壁面などに配置されてもよい。当該カメラ12は、例えば壁の上部または天井などに取り付けられる。当該カメラ12は、乗降口に設けられたポールなどに取り付けられていてもよい。
 図4Cに示されるように、いずれかのカメラ12は、階段5の乗降口に配置される。あるいは、いずれかのカメラ12は、階段5の乗降口の手前の傾斜部の壁面などに配置されてもよい。当該カメラ12は、例えば壁の上部または天井などに取り付けられる。当該カメラ12は、乗降口に設けられたポールなどに取り付けられていてもよい。
 続いて、図5を用いて行動情報の例を説明する。
 図5Aから図5Eは、実施の形態1に係る行動情報取得部15が取得する行動情報の例を示す図である。
 行動情報取得部15は、例えば利用者特定部14が利用者の特定に用いた画像から、当該利用者の特徴量を抽出する。行動情報取得部15は、利用者特定部14が抽出した特徴量を利用してもよい。利用者の特徴量は、例えば顔の鼻、耳、目、口、頬、顎、および、首、ならびに両肩などの特徴点の位置についての情報を含む。行動情報取得部15は、抽出した特徴量に基づいて利用者の行動情報を取得する。この例において、行動情報取得部15は、利用者の行動情報に含まれる当該利用者の配置の情報として、興味方向情報を含む情報を取得する。ここで、行動情報取得部15は、利用者特定部14に特定された利用者を追跡することによって当該利用者の行動情報を継続して取得する。行動情報取得部15は、特定された利用者の位置を例えば動体追跡などの手法によって追跡してもよい。行動情報取得部15は、利用者を追跡することによって、移動により画像に映らなくなった利用者の行動情報を継続して取得してもよい。
 興味方向情報は、利用者の関心を示す向きの情報の例である。興味方向情報は、利用者の少なくとも両肩および鼻の3つの特徴量を用いて表される情報である。興味方向情報は、必要に応じてこの他の特徴量を用いて表されてもよい。興味方向情報において、利用者の興味方向の向きは、両肩の位置を結ぶ線分の中点から鼻の位置に向く方向として表される。ここで、興味方向情報に用いられる特徴量としての利用者の鼻は、マスクなどで覆われているか否か、すなわち、画像において利用者の裸の鼻そのものが映っているか否かに関わらず、鼻の特徴量が捉えられていればよい。また、興味方向情報に用いられる特徴量としての利用者の肩は、衣服などで覆われているか否か、すなわち、画像において利用者の裸の肩そのものが映っているか否かに関わらず、肩の特徴量が捉えられていればよい。耳、目、口、頬、顎、および、首などの器官についての他の特徴量においても同様に、画像において利用者の裸の器官そのものが映っているか否かに関わらず、当該器官の特徴量が捉えられていればよい。また、興味方向情報は、例えば、利用者の骨格情報を用いて得られる両肩および鼻の特徴量を用いて表されてもよい。また、興味方向情報は、骨格情報を用いて得られるこの他の特徴量を用いて表されてもよい。
 図5Aにおいて、上方から見た利用者の画像の例が示される。このように、利用者の関心を示す向きは、当該利用者の画像に基づいて取得される興味方向情報によって表される。図5Bにおいて、顔の向きと体の向きとが一致しない場合の画像の例が示される。このように、利用者の関心を示す向きは、利用者の両肩の位置を結ぶ線分の中点から鼻に向かう方向の延長線上となる。図5Cにおいて、後方から見た利用者の画像の例が示される。行動情報取得部15は、利用者の鼻が画像に映っていない場合に、取得済みの画像情報から画像補完して鼻を補ってもよい。あるいは、行動情報取得部15は、他の特徴点などに基づいて鼻の位置を推定してもよい。あるいは、行動情報取得部15は、複数のカメラ12が撮影する画像を合成することで鼻の位置を特定してもよい。行動情報取得部15は、これらの複数の方法のいずれか1つまたはこれらの複数の方法の組み合わせなどによって、鼻の位置を特定する。このように、利用者の関心を示す向きは、両肩の位置を結ぶ線分の中点から鼻の位置に向く方向の延長線上として表される。図5Dにおいて、側方から見た利用者の画像の例が示される。行動情報取得部15は、利用者の一方の肩が画像に映っていない場合に、取得済みの画像情報から画像補完して他方の肩を補ってもよい。あるいは、行動情報取得部15は、他の特徴点などに基づいて、画像に映っていない肩の位置を推定してもよい。あるいは、行動情報取得部15は、複数のカメラ12が撮影する画像を合成することで両肩の位置を特定してもよい。行動情報取得部15は、これらの複数の方法のいずれか1つまたはこれらの複数の方法の組み合わせなどによって、両肩の位置を特定する。このように、利用者の関心を示す向きは、両肩の位置を結ぶ線分の中点から鼻の位置に向く方向の延長線上として表される。
 図5Eに示されるように、利用者の関心を示す向きの情報は、例えば行動情報取得部15に搭載されたAIによる画像処理などによって抽出されてもよい。AIによる画像処理は、例えば画像を入力とした機械学習の手法による処理などである。機械学習の手法によって、利用者の画像から行動情報を導出するモデルが学習される。行動情報取得部15は、学習したモデルに基づいて利用者の画像から行動情報を取得する。行動情報取得部15は、例えば、利用者の画像および当該画像から得られる興味方向情報の組を教師データとする教師あり学習を行ってもよい。ここで、画像から得られる興味方向情報は、例えば両肩および鼻の位置から得られる興味方向情報であってもよい。このとき、行動情報取得部15は、学習の結果に基づいて、利用者の画像を入力として興味方向情報を出力する。行動情報取得部15は、深層学習などによって画像の特徴量を抽出してもよい。図5Eにおいて、画像の特徴量の重要度の例が色の濃淡で示される。あるいは、行動情報取得部15は、教師なし学習、または強化学習などの他の機械学習の手法によって利用者の関心を示す向きの情報を画像から抽出してもよい。
 続いて、図6を用いて到着階の判定の例を説明する。
 図6は、実施の形態1に係る階床判定部19による判定の例を示す表である。
 図6において、1階から上昇運転するエレベーター3を利用した利用者の到着階の判定の例が示される。この例において、当該エレベーター3は、1階まで下降運転した後に、1階からの上昇運転を開始する。なお、他の階床から上昇運転する場合、および下降運転する場合においても到着階は同様に判定される。
 1階から4階に移動する利用者Aは、1階の乗場操作盤9の操作によってエレベーター3に呼びを登録する。その後、利用者Aは、1階に到着した当該エレベーター3のかご7に乗車する。かご7に乗車した利用者Aは、かご操作盤10の操作によって4階を行先階として指定する。
 エレベーター3のかご7が1階を出発したときに、利用者特定部14は、かご7の内部のカメラ12が撮影する画像に基づいて、かご7の内部に乗車している利用者を特定する。この例において、利用者Aのみがかご7に乗車している。このとき、利用者特定部14は、かご7の内部に乗車している利用者として、利用者Aを特定する。昇降設備判定部17は、利用者Aの利用する昇降設備は当該エレベーター3であると判定する。階床判定部19は、直前に停止した階床を出発したときにかご7の内部に乗車していた利用者と、1階を出発したときにかご7の内部に乗車していた利用者とを比較して、利用者の出発階および到着階を判定する。このとき、かご7が直前に停止した階床は、下降運転中に停止した1階より上方のいずれかの階床である。階床判定部19は、直前に停止した階床を出発するときにかご7に乗車しておらず、かご7が1階を出発するときに乗車していた利用者Aの出発階を1階と判定する。
 昇降設備判定部17が利用者Aの利用する昇降設備を判定するときに、整合処理部18は、利用者Aについての整合を取る整合処理を行う。例えば、利用者Aが他の昇降設備を既に同一時刻に重複して利用していると昇降設備判定部17が判定している場合に、整合処理部18は、誤って同一の利用者として特定していた複数の利用者を、互いに異なる利用者として利用者特定部14に特定させる。利用者特定部14は、互いに異なる利用者として特定するときに、取得済みの画像の中から利用者の特徴量の差を抽出して、利用者の特定の確度を向上させ、互いに異なる利用者の特定を再確定する。整合処理部18は、他の利用者についても同様に整合処理を行う。
 2階から5階に移動する利用者Bは、2階の乗場操作盤9の操作によってエレベーター3に呼びを登録する。その後、利用者Bは、2階に到着した当該エレベーター3のかご7に乗車する。かご7に乗車した利用者Bは、かご操作盤10の操作によって5階を行先階として指定する。2階から4階に移動する利用者Cは、当該エレベーター3の2階の乗場に到着する。利用者Bによって2階の乗場操作盤9から既に呼びが登録されているため、乗場に到着した利用者Cは、乗場操作盤9において行先階を登録する操作を行わない。また、利用者Cは、行先階を登録する操作を受け付けるスマートフォン、カード、またはタグなどの携帯端末を持っていなくてもよい。その後、利用者Cは、2階に到着した当該エレベーター3のかご7に乗車する。利用者Aによって4階が行先階として既に指定されているため、かご7に乗車した利用者Cは、かご操作盤10において行先階を登録する操作を行わない。
 エレベーター3のかご7が2階を出発したときに、利用者特定部14は、かご7の内部のカメラ12が撮影する画像に基づいて、かご7の内部に乗車している利用者を特定する。この例において、利用者A、利用者B、および利用者Cがかご7に乗車している。このとき、利用者特定部14は、かご7の内部に乗車している利用者として、利用者A、利用者B、および利用者Cを特定する。昇降設備判定部17は、利用者Bの利用する昇降設備は当該エレベーター3であると判定する。階床判定部19は、直前に停止した階床である1階を出発したときにかご7の内部に乗車していた利用者と、2階を出発したときにかご7の内部に乗車していた利用者とを比較して、利用者の出発階および到着階を判定する。階床判定部19は、かご7が1階を出発するときに乗車しておらず、かご7が2階を出発するときに乗車していた利用者Bおよび利用者Cの出発階を2階と判定する。
 3階から6階に移動する利用者Dは、3階の乗場操作盤9の操作によってエレベーター3に呼びを登録する。その後、利用者Aは、3階に到着した当該エレベーター3のかご7に乗車する。かご7に乗車した利用者Dは、かご操作盤10の操作によって6階を行先階として指定する。
 エレベーター3のかご7が3階を出発したときに、利用者特定部14は、かご7の内部のカメラ12が撮影する画像に基づいて、かご7の内部に乗車している利用者を特定する。この例において、利用者A、利用者B、利用者C、および利用者Dがかご7に乗車している。このとき、利用者特定部14は、かご7の内部に乗車している利用者として、利用者A、利用者B、利用者C、および利用者Dを特定する。昇降設備判定部17は、利用者Dの利用する昇降設備は当該エレベーター3であると判定する。階床判定部19は、直前に停止した階床である2階を出発するときにかご7の内部に乗車していた利用者と、3階を出発するときにかご7の内部に乗車していた利用者とを比較して、利用者の出発階および到着階を判定する。階床判定部19は、かご7が2階を出発するときに乗車しておらず、かご7が3階を出発するときに乗車していた利用者Dの出発階を3階と判定する。
 利用者Aおよび利用者Cは、4階でエレベーター3のかご7から降車する。
 エレベーター3のかご7が4階を出発したときに、利用者特定部14は、かご7の内部のカメラ12が撮影する画像に基づいて、かご7の内部に乗車している利用者を特定する。この例において、利用者B、および利用者Dがかご7に乗車している。このとき、利用者特定部14は、かご7の内部に乗車している利用者として、利用者B、および利用者Dを特定する。階床判定部19は、直前に停止した階床である3階を出発するときにかご7の内部に乗車していた利用者と、4階を出発するときにかご7の内部に乗車していた利用者とを比較して、利用者の出発階および到着階を判定する。階床判定部19は、かご7が3階を出発するときに乗車しており、かご7が4階を出発するときに乗車していなかった利用者Aおよび利用者Cの到着階を4階と判定する。このように、乗場操作盤9およびかご操作盤10、ならびに、スマートフォン、カード、またはタグなどの携帯端末において行先階を登録する操作を行っていない利用者Cについても、興味関心度計測システム1は、かご7の内部のカメラ12が撮影する画像に基づいて、出発階および到着階の情報を取得できる。
 利用者Bは、5階でエレベーター3のかご7から降車する。
 エレベーター3のかご7が5階を出発するときに、利用者特定部14は、かご7の内部のカメラ12が撮影する画像に基づいて、かご7の内部に乗車している利用者を特定する。この例において、利用者Dのみがかご7に乗車している。このとき、利用者特定部14は、かご7の内部に乗車している利用者として、利用者Dのみを特定する。階床判定部19は、直前に停止した階床である4階を出発するときにかご7の内部に乗車していた利用者と、5階を出発するときにかご7の内部に乗車していた利用者とを比較して、利用者の出発階および到着階を判定する。階床判定部19は、かご7が4階を出発するときに乗車しており、かご7が5階を出発するときに乗車していなかった利用者Bの到着階を5階と判定する。
 利用者Dは、6階でエレベーター3のかご7から降車する。
 エレベーター3のかご7が6階を出発するときに、利用者特定部14は、かご7の内部のカメラ12が撮影する画像に基づいて、かご7の内部に乗車している利用者を特定する。この例において、かご7に利用者は乗車していない。このとき、利用者特定部14は、かご7の内部に乗車している利用者として、いずれの利用者も特定しない。階床判定部19は、直前に停止した階床である5階を出発するときにかご7の内部に乗車していた利用者と、6階を出発するときにかご7の内部に乗車していた利用者とを比較して、利用者の出発階および到着階を判定する。階床判定部19は、かご7が5階を出発するときに乗車しており、かご7が6階を出発するときに乗車していなかった利用者Dの到着階を6階と判定する。
 続いて、図7を用いて到着階の判定の他の例を説明する。
 図7Aから図7Fは、実施の形態1に係る階床判定部19による判定の例を示す図である。
 図7において、上昇運転する複数のエスカレーター4を乗り継いで利用した利用者の到着階の判定の例が示される。なお、上昇運転する1つのエスカレーター4が利用される場合、および下降運転する1つまたは複数のエスカレーター4が利用される場合においても到着階は同様に判定される。また、階段5が利用される場合においても到着階は同様に判定される。
 図7Aに示されるように、1階から4階に移動する利用者Aは、1階と2階の間を上昇運転するエスカレーター4に1階から乗って移動する。
 2階の降り口に設けられたカメラ12が撮影する範囲にエスカレーター4に乗っている利用者Aが入るときに、すなわち、当該カメラ12に利用者Aがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Aを特定する。昇降設備判定部17は、利用者Aの利用する昇降設備は当該エスカレーター4であると判定する。階床判定部19は、利用者Aの出発階を当該エスカレーター4の乗り口が設けられた1階と判定する。
 図7Bに示されるように、利用者Aは、2階と3階の間を上昇運転するエスカレーター4に2階で乗り継いで移動する。2階から5階に移動する利用者Bは、2階と3階の間を上昇運転するエスカレーター4に2階から乗って移動する。2階から4階に移動する利用者Cは、2階と3階の間を上昇運転するエスカレーター4に2階から乗って移動する。
 3階の降り口に設けられたカメラ12に利用者Aがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Aを特定する。2階の降り口に設けられたカメラ12によって利用者Aが特定されてから、予め設定された時間が経過する前に3階の降り口に設けられたカメラ12によって利用者Aが特定されるときに、階床判定部19は、利用者Aが2階でエスカレーター4を乗り継いだと判定する。
 3階の降り口に設けられたカメラ12に利用者Bがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Bを特定する。昇降設備判定部17は、利用者Bの利用する昇降設備は当該エスカレーター4であると判定する。階床判定部19は、利用者Bの出発階を当該エスカレーター4の乗り口が設けられた2階と判定する。
 3階の降り口に設けられたカメラ12に利用者Cがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Cを特定する。昇降設備判定部17は、利用者Cの利用する昇降設備は当該エスカレーター4であると判定する。階床判定部19は、利用者Cの出発階を当該エスカレーター4の乗り口が設けられた2階と判定する。
 図7Cに示されるように、利用者Aは、3階と4階の間を上昇運転するエスカレーター4に3階で乗り継いで移動する。利用者Bは、3階と4階の間を上昇運転するエスカレーター4に3階で乗り継いで移動する。利用者Cは、3階と4階の間を上昇運転するエスカレーター4に3階で乗り継いで移動する。3階から6階に移動する利用者Dは、3階と4階の間を上昇運転するエスカレーター4に3階から乗って移動する。
 4階の降り口に設けられたカメラ12に利用者Aがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Aを特定する。3階の降り口に設けられたカメラ12によって利用者Aが特定されてから、予め設定された時間が経過する前に4階の降り口に設けられたカメラ12によって利用者Aが特定されるときに、階床判定部19は、利用者Aが3階でエスカレーター4を乗り継いだと判定する。
 4階の降り口に設けられたカメラ12に利用者Bがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Bを特定する。3階の降り口に設けられたカメラ12によって利用者Bが特定されてから、予め設定された時間が経過する前に4階の降り口に設けられたカメラ12によって利用者Bが特定されるときに、階床判定部19は、利用者Bが3階でエスカレーター4を乗り継いだと判定する。
 4階の降り口に設けられたカメラ12に利用者Cがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Cを特定する。3階の降り口に設けられたカメラ12によって利用者Cが特定されてから、予め設定された時間が経過する前に4階の降り口に設けられたカメラ12によって利用者Cが特定されるときに、階床判定部19は、利用者Cが3階でエスカレーター4を乗り継いだと判定する。
 4階の降り口に設けられたカメラ12に利用者Dがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Dを特定する。昇降設備判定部17は、利用者Dの利用する昇降設備は当該エスカレーター4であると判定する。階床判定部19は、利用者Dの出発階を当該エスカレーター4の乗り口が設けられた3階と判定する。
 図7Dに示されるように、利用者Aは、4階の降り口からエスカレーター4を降りる。利用者Bは、4階と5階の間を上昇運転するエスカレーター4に4階で乗り継いで移動する。利用者Cは、4階の降り口からエスカレーター4を降りる。利用者Dは、4階と5階の間を上昇運転するエスカレーター4に4階で乗り継いで移動する。
 4階の降り口に設けられたカメラ12によって利用者Aが特定されてから、予め設定された時間が経過しても5階の降り口に設けられたカメラ12によって利用者Aが特定されないときに、階床判定部19は、利用者Aの到着階を4階と判定する。
 5階の降り口に設けられたカメラ12に利用者Bがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Bを特定する。4階の降り口に設けられたカメラ12によって利用者Bが特定されてから、予め設定された時間が経過する前に5階の降り口に設けられたカメラ12によって利用者Bが特定されるときに、階床判定部19は、利用者Aが4階でエスカレーター4を乗り継いだと判定する。
 4階の降り口に設けられたカメラ12によって利用者Cが特定されてから、予め設定された時間が経過しても5階の降り口に設けられたカメラ12によって利用者Cが特定されないときに、階床判定部19は、利用者Cの到着階を4階と判定する。
 5階の降り口に設けられたカメラ12に利用者Dがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Dを特定する。4階の降り口に設けられたカメラ12によって利用者Dが特定されてから、予め設定された時間が経過する前に5階の降り口に設けられたカメラ12によって利用者Dが特定されるときに、階床判定部19は、利用者Dが4階でエスカレーター4を乗り継いだと判定する。
 図7Eに示されるように、利用者Bは、5階の降り口からエスカレーター4を降りる。利用者Dは、5階と6階の間を上昇運転するエスカレーター4に5階で乗り継いで移動する。
 5階の降り口に設けられたカメラ12によって利用者Bが特定されてから、予め設定された時間が経過しても6階の降り口に設けられたカメラ12によって利用者Bが特定されないときに、階床判定部19は、利用者Bの到着階を6階と判定する。
 6階の降り口に設けられたカメラ12に利用者Dがフレームインするときに、利用者特定部14は、当該カメラ12が撮影する画像に基づいて利用者Dを特定する。5階の降り口に設けられたカメラ12によって利用者Dが特定されてから、予め設定された時間が経過する前に6階の降り口に設けられたカメラ12によって利用者Dが特定されるときに、階床判定部19は、利用者Dが5階でエスカレーター4を乗り継いだと判定する。
 図7Fに示されるように、利用者Dは、6階の降り口からエスカレーター4を降りる。
 6階の降り口に設けられたカメラ12によって利用者Bが特定されてから、予め設定された時間が経過してもエスカレーター4の降り口に設けられたカメラ12によって利用者Dが特定されないときに、階床判定部19は、利用者Bの到着階を6階と判定する。
 なお、エスカレーター4において利用者の乗降は利用者ごとのタイミングで行われるため、階床判定部19は、利用者ごとに乗降の状態の情報を管理する。
 また、図7を用いてエスカレーター4の利用者の到着階の判定の例を説明したが、階段5の利用者の到着階の判定も同様に行われる。エスカレーター4の利用者は歩かずに階床間を移動できるが、階段5の利用者は歩いて階床間を移動する点に違いがある。エスカレーター4の利用者および階段5の利用者について、利用者特定部14による利用者の特定、整合処理部18による利用者の排他処理、ならびに、カメラ12による昇降設備の利用開始階および利用終了階の判定などは、処理の流れを含めて同様に行われる。
 続いて、図8および図9を用いて到着階における行動情報の取得の例を説明する。また、図10を用いて到着階における関心情報の取得の例を説明する。
 図8、図9A、および図9Bは、実施の形態1に係る興味関心度計測システム1による行動情報の取得の例を示す図である。
 図10Aから図10Cは、実施の形態1に係る興味関心度計測システム1による関心情報の取得の例を示す図である。
 図8、図9、および図10に示される到着階の俯瞰マップは、例えば到着階に設けられた複数のカメラ12が撮影する画像に基づいて生成される。俯瞰マップは、例えば到着階を撮影した複数の同一時刻の画像が平面上に貼り合わせられ、重なる画像の周辺部に矛盾が生じないように合成された画像である。このとき、俯瞰マップは、不可視領域を含んでもよい。不可視領域は、いずれのカメラ12からも撮影できない領域である。不可視領域は、例えばエレベーター3のかご7が到着階から移動した後の昇降路の内部、到着階に設けられたトイレ、または、利用者が利用しないことが分かっている範囲など、であってもよい。俯瞰マップは、例えば夜間または早朝などの利用者がいない時間に取得された画像に基づいて予め生成される。俯瞰マップは、例えば一日に一回更新されてもよいし、適宜更新されてもよい。俯瞰マップの生成に用いられる画像は、利用者が映りこむ可能性があるため、到着階における複数のカメラ12によって同一時刻に撮影されることが望ましいが、俯瞰マップは必ずしも全て同一時刻の画像から生成されたものでなくてもよい。俯瞰マップは、利用者が映りこんでいない、異なる時刻に撮影された複数の画像から生成されてもよい。
 図8において、エレベーター3を利用して到着階に到着した利用者の例が示される。
 行動情報取得部15は、例えば利用者が到着階に到着したときに、行動情報の取得を開始する。行動情報取得部15は、例えば階床判定部19はいずれかの利用者の到着階を判定したときに、当該利用者が到着階に到着したと判定する。行動情報取得部15は、利用者が到着階に到着したときに、到着階の俯瞰マップを取得する。
 この例において、行動情報取得部15は、画像に基づいて取得した利用者の少なくとも両肩および鼻の3つの特徴量を用いて表される情報を俯瞰マップ上に配置する。これにより、到着階における利用者の俯瞰マップ上の座標が取得される。行動情報取得部15は、このように取得した情報を利用者の配置を表す情報として、時系列データとしての行動情報に追加する。
 その後、予め設定された時間間隔が経過した後に、行動情報取得部15は、利用者の配置を表す情報を新たに取得する。行動情報取得部15は、新たに取得した情報を時系列データとしての行動情報に追加する。このように、行動情報取得部15は、利用者の行動情報を継続的に更新する。
 図9Aに示されるように、利用者がトイレなどの不可視領域にフレームアウトするときに、行動情報取得部15は、フレームアウトしてからの経過時間の計時を開始する。この間、行動情報取得部15は、当該利用者についての行動情報の取得を休止する。その後、図9Bに示されるように、フレームアウトしてから予め設定された時間が経過する前に利用者が不可視領域からフレームインするときに、行動情報取得部15は、当該利用者の行動情報の取得を継続する。
 行動情報取得部15は、利用者が到着階から他の階床へ移動したときに、エレベーター3のかご7の内部のカメラ12、エスカレーター4のカメラ12、階段5のカメラ12、および当該他の階床の複数のカメラ12と連携して利用者の移動を特定する。ある階床の移動途中で利用者がフレームアウトしてから予め設定された時間が経過し、かつ、複数のカメラ12による連携から外れた場合に、行動情報取得部15は、例えば最後にフレームアウトした時刻および場所を記録する。このとき、行動情報取得部15は、必要に応じて、俯瞰マップ上の場所を表示して、警報などによって注意喚起してもよい。
 行動情報記憶部16は、行動情報取得部15によって取得された行動情報を利用者ごとに記憶する。行動情報記憶部16は、同一の利用者についての複数の行動情報を蓄積して記憶する。
 関心情報取得部20は、行動情報取得部15が利用者の到着階における行動情報の取得を完了するたびに、当該利用者の関心情報を取得する。
 図10Aに示されるように、関心情報取得部20は、到着階の行動情報に含まれる利用者の配置を表す情報を到着階の俯瞰マップに重ね合わせる。この例において、関心情報取得部20は、時系列データとしての行動情報に含まれる、少なくとも両肩および鼻の3つの特徴量の座標3点からなる三角形と、両肩2点を結ぶ線分の中点から鼻に向けた方向とを到着階の俯瞰マップに重ね合わせる。
 図10Bに示されるように、関心情報取得部20は、時系列データとしての行動情報に含まれる、両肩2点を結ぶ線分の中点から鼻に向けた方向の延長線上にあるエリアおよび属性を特定して取得する。関心情報取得部20は、各々の興味方向情報において表される利用者の向きを利用者の前方に延長する。関心情報取得部20は、利用者の前方に延長した複数の半直線の交点を検出する。関心情報取得部20は、交点の集中しているエリアおよび属性を利用者の関心度の高い範囲として特定する。このとき、関心情報取得部20は、例えば交点の密度に応じた利用者の関心度の高さの情報を当該利用者の関心情報に含めてもよい。関心情報取得部20は、利用者の関心度の高い範囲として特定したエリアの属性を属性記憶部13から読み込む。関心情報取得部20は、読み込んだ属性を当該利用者の関心度の高い属性として関心情報に含める。このとき、関心情報取得部20は、読み込んだ属性と利用者の関心度の高さの情報を関連付けて取得する。
 図10Cに示されるように、関心情報取得部20は、俯瞰マップ上の興味方向情報を結ぶことで利用者の軌跡を生成する。関心情報取得部は、俯瞰マップ上の利用者の軌跡の各点に、その位置に利用者がいた時刻を重ねる。このように生成された軌跡をたどると、時間の点が密になる場所が現れることがある。このような場所が滞在時間の長い場所に当たる。関心情報取得部20は、利用者の滞在時間が長い場所を、当該利用者の関心情報の要素として含めてもよい。
 関心情報記憶部21は、関心情報取得部20によって取得された関心情報を利用者ごとに記憶する。関心情報記憶部21は、既に関心情報を記憶している利用者についての関心情報を関心情報取得部20が取得する場合に、記憶している関心情報を更新してもよい。例えば、関心情報記憶部21は、関心情報取得部20が算出した属性ごとの関心度の高さの情報を、記憶している属性ごとの関心度の高さの情報に加算してもよい。各々の利用者について関心情報が逐次的に更新されることで、関心情報記憶部21が記録している関心情報の精度がより高められる。
 また、図11を用いて、到着階における関心情報の取得の他の例を説明する。
 図11は、実施の形態1に係る興味関心度計測システム1による関心情報の取得の例を示す図である。
 関心情報取得部20は、ある利用者の他の利用者への関心を関心情報として取得してもよい。利用者の間の関心情報は、例えば利用者が建物2における従業者の場合などに取得される。利用者の間の関心情報は、例えば利用者の間のコミュニケーションの頻度または時間などの量などに対応する。この例において、関心情報取得部20は、利用者の間の接触時間に基づいて、利用者の間の関心情報を算出する。接触情報は、利用者が同一のエリアに継続して滞在している時間である。
 図11において、利用者Aおよび利用者Bの軌跡が示される。図11において、各々の利用者の軌跡は、俯瞰マップ上の位置を表す2次元の空間座標、および俯瞰マップに垂直な方向の時間軸によって張られる3次元時空間上に表示されている。この例において、利用者Aは、建物2におけるあるエリアに滞在している。利用者Aが当該エリアに滞在している間に、利用者Bは、当該エリアに進入する。利用者Bは、当該エリアにおいて利用者Aと対話した後に、当該エリアから退出する。このとき、関心情報取得部20は、利用者Aおよび利用者Bの接触時間を、利用者Bが当該エリアに進入した時刻から退出した時刻までの時間として算出する。関心情報取得部20は、接触時間が長いほど、利用者Aおよび利用者Bの互いへの関心度が高くなるように関心情報を取得する。
 続いて、図12および図13を用いて利用者への行先の提示の例を説明する。
 図12Aおよび図12B、ならびに図13Aおよび図13Bは、実施の形態1に係る興味関心度計測システム1による行先の提示の例を示す図である。
 図12において、興味関心度計測システム1が適用される建物2の例が示される。
 図12Aにおいて、ある日の建物2が示される。この建物2において、品物P1および品物P2を扱うP店が4階のエリアに出店している。また、品物Q1および品物Q2を扱うQ店が3階のエリアに出店している。また、サービスR1およびサービスR2を提供するR店が2階のエリアに出店している。
 この日までの間に、興味関心度計測システム1は、利用者A、利用者B、利用者Cの関心情報を取得している。関心情報記憶部21は、利用者Aについて、最も高い関心度の属性として品物P1を記憶している。関心情報記憶部21は、利用者Bについて、最も関心度の高い属性としてQ店を記憶している。関心情報記憶部21は、利用者Cについて、最も関心度の高い属性としてサービスR2を記憶している。
 図12Bにおいて、後日の同一の建物2が示される。この日までの間に、品物P1を扱うP店が2階のエリアに移転している。また、R店が撤退している。また、サービスS1およびサービスR2を提供するS店が4階のエリアに出店している。
 この日に建物2を再び利用した利用者Aは、1階に設けられた複数のカメラ12、または乗車したエレベーター3のかご7内のカメラ12が撮影する画像によって利用者特定部14に特定される。このとき、行先提示部22は、利用者Aについての関心情報を関心情報記憶部21から読み込む。この例の行先提示部22は、最も関心度の高い属性のエリアを利用者に行先として提示する。すなわち、最も関心度の高い属性のエリアが優先して提示される。このため、行先提示部22は、利用者Aの最も関心度の高い属性として、品物P1を取得する。行先提示部22は、属性記憶部13から属性として品物P1を有するエリアを抽出する。この例において、行先提示部22は、移転後のP店が出店している2階のエリアを抽出する。行先提示部22は、抽出したエリアを行先として利用者Aに提示する。
 また、この日に建物2を再び利用した利用者Bは、1階に設けられた複数のカメラ12、または乗車後の降車前に撮影されるエスカレーター4の降り口のカメラ12が撮影する画像によって利用者特定部14に特定される。このとき、利用者Aに対する提示と同様に、行先提示部22は、関心情報に基づいてQ店が出店している3階のエリアを行先として提示する。また、この日に建物2を再び利用した利用者Cは、1階に設けられた複数のカメラ12、または階段5の利用開始後の到着階への到着前に撮影される階段5のカメラ12が撮影する画像によって利用者特定部14に特定される。このとき、利用者Aに対する提示と同様に、行先提示部22は、関心情報に基づいてサービスR2を提供するS店が出店している4階のエリアを行先として提示する。
 なお、エスカレーター4または階段5を利用する利用者に対して、行先提示部22は、例えば映像または音声によって、行先のエリアが含まれる行先階および行先のエリアまでの経路を提示する。このとき、行先提示部22は、利用者の行先の抽出に用いた当該利用者の最も関心度の高い属性を併せて利用者に提示してもよい。行先提示部22は、例えば利用者Bに対して「Q店は3階の降り口の左側です」などの情報を提示してもよい。また、行先提示部22は、例えば利用者Cに対して「サービスR2を提供するS店は4階の降り口の正面です」などの情報を提示してもよい。これにより、利用者の名前などの個人情報を用いることなく、利用者に対する行先の提示を行うことができる。
 図12において、かご操作盤10を通じた行先の提示の例が示される。この例において、かご7に乗車した利用者Aに対して、2階が行先階として提示される。なお、図12においてかご操作盤10を利用する場合の例が示されるが、利用者が携帯するスマートフォンなどの携帯端末がエレベーター3と直接または間接的に通信可能な場合に、かご操作盤10において行われる場合と同様に、利用者への注意喚起、呼びの登録、および案内などが携帯端末を通じて行われてもよい。
 図13Aに示されるように、行先提示部22は、2階に対応する行先ボタン10bの発光機器を点滅させることで、利用者Aに行先階の2階を登録する前の案内の注意喚起を提示する。このとき、行先提示部22は、表示パネル10aなどの表示機器に「品物P1を扱うP店は2階です」などの映像を併せて表示させてもよい。また、行先提示部22は、表示パネル10aなどの表示機器の内蔵スピーカーなどに、音声による案内を併せて提示させてもよい。ここで、例えば発光機器の点滅による提示を開始してから予め設定された時間が経過したときに、呼び登録部23は、提示した階床を行先階とする呼びを利用者Aが乗車しているエレベーター3に自動登録する。このとき、いずれの行先ボタン10bも操作されていなくてもよい。呼びが自動登録された直後に、行先提示部22は、2階に対応する行先ボタン10bの発光機器の点滅による行先階の案内の提示を終了する。また、例えば行先ボタン10bが操作されて呼びが登録された直後に、行先提示部22は、2階に対応する行先ボタン10bの発光機器の点滅による行先階の案内の提示を終了する。
 その後、図13Bに示されるように、行先階として指定された階床に対応する行先ボタン10bの発光機器が点灯する。このとき、呼びの登録が確定する。例えば行先提示部22が提示した行先階に対応する行先ボタン10bが操作された場合に、当該行先階にかご7が停止したときに、行先提示部22は、「P店はエレベーター3をこの階で降りて右側です」などの情報を示す映像または音声などの案内を提示してもよい。
 なお、行先提示部22は、提示した行先階ではない他の階床に対応する行先ボタン10bが操作されるときに、行先の提示を継続してもよい。あるいは、例えばかご7に乗車している利用者が一人である場合などに、行先提示部22は、提示した行先階ではない他の階床に対応する行先ボタン10bが操作されるときに、行先の提示を終了してもよい。
 また、行先提示部22は、行先ボタン10bの発光機器の点滅によらずに行先階の提示を行ってもよい。行先提示部22は、例えば行先階に対応する行先ボタン10bの発光機器の輝度の変化、または当該発光機器の色調の変化などによって行先階を利用者に提示してもよい。
 この例において、行先提示部22が利用者に実際に提示した行先の情報は、当該利用者の行動情報もしくは関心情報、または当該行先が提示された場所または時刻などの情報に関連付けて、行動情報記憶部16または関心情報記憶部21などに記憶される。
 続いて、図14を用いて、関心度の分布の可視化の例を説明する。
 図14Aから図14Eは、実施の形態1に係る興味関心度計測システム1による関心度マップの例を示す図である。
 可視化処理部27は、例えば図14Aに示されるように、建物2の利用者ごとの関心情報を統合して関心度マップを生成する。このとき、建物2のオーナーなどにより、操作表示部28で操作され決定された関心度マップの生成条件から、建物2のいずれかの階床における第1時刻から第2時刻までの全ての利用者についての関心度マップの生成が指定される。ここで、第1時刻および第2時刻は、生成条件において指定される時刻である。第1時刻および第2時刻は、同日の異なる時刻であってもよいし、互いに異なる日付の時刻であってもよい。
 可視化処理部27は、生成条件において指定された第1時刻および第2時刻の間における建物2の当該階床の全ての利用者について、関心情報記憶部21が時刻および場所の情報を含めて記憶している関心情報を読み込む。可視化処理部27は、例えば、読み込んだ関心情報における利用者ごとの関心度の高さを、当該階床の場所、すなわちそのエリアと属性ごとに集計することによって関心情報を統合する。例えば関心度の高さが属性ごとに取得されている場合などに、可視化処理部27は、属性ごとの関心度の高さの総和を、当該階床のエリアごとに集計してもよい。これにより、関心度マップは、例えば当該階床の俯瞰マップに関心度の高さの3次元グラフを重ね合わせた図などとして生成される。生成された関心度マップは、操作表示部28において建物2のオーナーなどに表示される。
 あるいは、可視化処理部27は、例えば図14Bに示されるように、建物2の利用者ごとに関心度マップを生成する。このとき、建物2のオーナーなどにより、操作表示部28で操作され決定された関心度マップの生成条件から、建物2のいずれかの階床における第1時刻から第2時刻までの、特定の利用者についての関心度マップの生成が指定される。生成条件において、例えば特定の利用者Aが指定される。
 可視化処理部27は、生成条件において指定された第1時刻および第2時刻の間において、関心情報記憶部21が時刻および場所の情報を含めて記憶している利用者Aの関心情報を読み込む。可視化処理部27は、例えば当該階床の俯瞰マップに利用者Aの関心度の高さの3次元グラフを重ね合わせた図などとして関心度マップを生成する。生成された関心度マップは、操作表示部28において建物2のオーナーなどに表示される。
 あるいは、可視化処理部27は、例えば図14Cに示されるように、建物2のオーナーなどにより、操作表示部28で操作され決定された関心度マップの生成条件から、建物2のいずれかの階床における第1時刻から第2時刻までの、利用者Aについての行動情報を含む関心度マップの生成が指定される。可視化処理部27は、関心度マップに利用者の行動情報を含めて生成してもよい。
 あるいは、可視化処理部27は、建物2のオーナーなどにより、操作表示部28で操作され決定された関心度マップの生成条件から、建物2のいずれかの階床における第1時刻から第2時刻までの、ある分類情報にあてはまる利用者についての行動情報を含む関心度マップの生成が指定される。可視化処理部27は、関心度マップに複数の利用者の行動情報を含めて生成してもよい。
 可視化処理部27は、生成条件において指定された第1時刻および第2時刻の間において、関心情報記憶部21が時刻および場所の情報を含めて記憶している利用者Aの関心情報を読み込む。また、可視化処理部27は、生成条件において指定された第1時刻および第2時刻の間において、行動情報記憶部16が時刻および場所の情報を含めて記憶している利用者Aの行動情報を読み込む。可視化処理部27は、例えば当該階床の俯瞰マップに、利用者Aの関心度の高さの3次元グラフおよび利用者Aの軌跡を重ね合わせた図などとして関心度マップを生成する。利用者Aが当該階床を複数回利用している場合に、関心度マップは、利用者Aの軌跡を複数含んでもよい。この例において、可視化処理部27は、利用者Aの関心度の高いエリアを含めて関心度マップを生成する。利用者Aの関心度の高いエリアは、例えば品物P1を扱うP店である。生成された関心度マップは、操作表示部28において建物2のオーナーなどに表示される。
 なお、関心度マップは、利用者Aの分類情報をあわせて表示するものであってもよい。利用者Aの分類情報は、例えば利用者Aの建物2の利用頻度、性別、年齢層、利用時間帯、利用曜日、および利用時の気候などの情報を含む。関心度マップは、利用者Aの軌跡または分類情報の一方のみを表示するものであってもよい。
 あるいは、可視化処理部27は、例えば図14Dに示されるように、複数の利用者の行動情報または関心情報を含めて関心度マップを生成してもよい。複数の利用者は、建物2の利用者のうちから関心度マップの生成条件において指定される、ある条件を満たす一部または全部の利用者であってもよい。例えば、建物2のオーナーなどにより、操作表示部28で操作され決定された関心度マップの生成条件から、建物2のいずれかの階床における第1時刻から第2時刻まで利用者のうち、特定の属性に関心を示した利用者についての関心度マップの生成が指定される。生成条件において、例えば特定の属性として品物P1が指定される。
 可視化処理部27は、生成条件において指定された第1時刻および第2時刻の間における建物2の当該階床の全ての利用者について、関心情報記憶部21および行動情報記憶部16が時刻および場所の情報を含めて記憶している関心情報および行動情報を読み込む。可視化処理部27は、読み込んだ関心情報に基づいて、品物P1への関心度の高さが操作表示部28で操作され決定された、ある閾値より高い利用者を抽出する。この例において、利用者A、利用者B、利用者C、利用者D、および利用者Eの5人の利用者が抽出される。可視化処理部27は、読み込んだ行動情報に基づいて、例えば当該階床の俯瞰マップに、抽出した利用者ごとの軌跡を重ね合わせた図などとして関心度マップを生成する。この例において、同一の階床の複数の俯瞰マップに各々の利用者の軌跡を重ね合わせた図として関心度マップが生成される。
 あるいは、可視化処理部27は、例えば図14Eに示されるように、複数の利用者のうち、主な利用者の傾向から外れた行動を示す利用者を抽出して関心度マップを生成してもよい。例えば、建物2のオーナーなどにより、操作表示部28で操作され決定された関心度マップの生成条件から、建物2のいずれかの階床における利用者のうち、主な利用者の傾向から外れた行動を示す利用者についての関心度マップの生成が指定される。
 可視化処理部27は、生成条件において指定された階床の全ての利用者について、関心情報記憶部21および行動情報記憶部16が時刻および場所の情報を含めて記憶している関心情報および行動情報を読み込む。可視化処理部27は、読み込んだ関心情報に基づいて、主な利用者の傾向から外れた行動を示す利用者を抽出する。抽出条件は、関心度マップの生成条件において指定されていてもよい。抽出条件は、例えば主な利用者の利用の傾向を表す分布に基づく条件などである。当該分布は、例えば利用者の利用する時間帯などである。当該分布への合致度は、例えば当該分布の平均値から、標準偏差σを単位として各々の利用者の利用形態がどの程度離れているかに基づいて判定される。可視化処理部27は、例えば、利用者の利用時間帯の分布の平均的な時間から3σ以上離れた時間において利用する利用者を抽出する。このとき、可視化処理部27は、例えば深夜時間帯における利用者を抽出する。この例に示した平均や標準偏差に関わらず、様々な統計手法によって、主な利用者の傾向から外れた行動を示す利用者を抽出してもよい。
 この例において、利用者J、および利用者Kの2人の利用者が抽出される。建物2の各店舗は、深夜時間帯に閉店している。利用者Jは、高い頻度で建物2の内部において規則的に行動し、特定のエリアに偏った高い関心度を示さない。利用者Jは、建物2の内部を周回する警備員と推定できる。建物2のオーナーなどは、利用者Jが行動する時間および警備員の勤務状況との照会などにより、利用者Jが警備員であるか否かを確認できる。一方、利用者Kは、低い頻度で建物2を利用し、特定のエリアに偏った関心度を示している。また、利用者Kの軌跡は不規則で不審な行動を示している。このとき、利用者Kは、建物2に侵入した不審者である可能性がある。この場合に、建物2のオーナーなどは、不審者の侵入を把握できる。なお、可視化処理部27は、建物2のオーナーなどの操作によらずに、主な利用者の傾向から外れた行動を示す利用者の検知を随時行ってもよい。当該利用者を可視化処理部27が検知するときに、操作表示部28は、建物2のオーナーなどに通知を行ってもよい。これにより、建物2における盗難などの被害を事前に抑制しうる。
 続いて、図15を用いて、関心情報の変化のシミュレーションの例を説明する。
 図15Aおよび図15Bは、実施の形態1に係る興味関心度計測システム1による関心度マップの例を示す図である。
 図15Cは、実施の形態1に係るシミュレーションシステム50におけるシミュレーション条件の設定の例を示す図である。
 図15Dおよび図15Eは、実施の形態1に係るシミュレーションシステム50によるシミュレーションの結果の例を示す図である。
 建物2のオーナーなどは、例えば図15Aのように可視化処理部27が生成した関心度マップを、操作表示部28によって参照する。この例において、関心度マップは、建物2のオーナーなどが指定した特定の日における全ての利用者の関心情報を統合して生成される。例えば、第1時刻は当該特定の日における建物2の開店時間に設定され、第2時刻は当該特定の日における建物2の閉店時間に設定される。関心度マップは、建物2の特定の階床として、2階について生成される。
 建物2の2階において、品物P1を扱うP店が出店している。また、当該階床において、品物Q1を扱うQ店、およびサービスR1を扱うR店が出店している。また、建物2の2階において、S店およびT店が出店している。関心度マップによると、S店およびT店の関心度の高さは低い。すなわち、S店およびT店は集客力が低い。この場合に、S店およびT店の関心度の高さを高められれば、建物2の価値をより高められる可能性がある。
 建物2のオーナーなどは、例えば図15Bのように、関心度マップによって示された建物2における利用者の軌跡を参照する。この例において、利用者A、利用者B、および利用者Cの軌跡が可視化されている。この日までの間に、興味関心度計測システム1は、利用者A、利用者B、利用者Cの関心情報を取得している。関心情報記憶部21は、利用者Aについて、関心度の高い属性として品物P1を記憶している。関心情報記憶部21は、利用者Bについて、関心度の高い属性としてQ店を記憶している。関心情報記憶部21は、利用者Cについて、関心度の高い属性としてサービスR1を記憶している。関心度マップが生成された日において、利用者Aは、品物P1を扱うP店に行っている。この日において、利用者Bは、Q店に行って品物Q1の付近で行動している。この日において、利用者Cは、サービスR1を扱うR店に行っている。建物2のオーナーなどは、このように関心度マップによって把握した利用者の関心度の高さおよび軌跡などの情報に基づいて、建物2の価値をより高めるレイアウトを検討する。
 建物2のオーナーなどは、レイアウトの検討にシミュレーションシステム50によるシミュレーションを用いる。建物2のオーナーなどは、例えば操作表示部28などを通じて、シミュレーション条件の設定を行う。建物2のオーナーなどは、シミュレーション条件として、建物2の2階のレイアウトを、例えば図15Cに示されるように編集する。この例の編集後のレイアウトにおいて、T店に隣接する通路に一方通行が設定される。また、編集後のレイアウトにおいて、Q店およびS店の配置が入れ替えられる。レイアウトの編集によってシミュレーション条件の設定を行った後に、建物2のオーナーなどは、例えば操作表示部28などを通じてシミュレーションシステム50にシミュレーションを開始させる。
 シミュレーション処理部29は、例えば次のようにシミュレーションを行う。
 シミュレーション処理部29は、シミュレーションの対象となる利用者を設定する。シミュレーション処理部29は、例えば、関心度マップの生成条件によって指定される利用者の全部または一部をシミュレーションの対象とする。この例において、シミュレーション処理部29は、利用者A、利用者B、および利用者Cをシミュレーションの対象とする。なお、シミュレーション処理部29は、例えば特定エリアの属性に関心が高い仮想的な利用者をシミュレーションの対象に加えてもよい。シミュレーション処理部29は、仮想的な利用者をシミュレーションの対象に1人または複数加えてもよい。このとき、仮想的な利用者の各々について、例えば年齢、性別などの分類情報が付与されてもよい。追加される仮想的な利用者、ならびにその分類情報および関心情報は、例えばシミュレーション条件において指定される。また、シミュレーション条件において、建物2の外の条件、例えば気象などが指定されてもよい。建物2の外の条件は、例えばシミュレーションの対象となる利用者の選定および仮想的な利用者の追加などに用いられる。
 シミュレーション処理部29は、シミュレーションの対象となる利用者の各々について、建物2の行先エリアを設定する。例えば建物2において実際に2階で行動していた利用者について、シミュレーション処理部29は、当該利用者が2階で実際に行ったエリアを行先エリアに設定する。利用者が行ったエリアには、例えば各々の利用者の関心度が高かった行先エリアの属性がある。行先エリアは、2階における軌跡の始点または終点として、昇降設備を含んでもよい。行先エリアは、トイレなどの不可視領域を含んでもよい。利用者の行先エリアが複数ある場合に、シミュレーション処理部29は、行先エリアの順序を設定する。順序は、例えば、関心度の高さの高い順に設定されてもよいし、2階における移動距離が短くなるように設定されてもよい。
 シミュレーション処理部29は、シミュレーションの対象となる利用者の各々について、2階における行動情報を模擬的に生成する。例えば建物2において実際に2階で行動していた利用者について、当該利用者の軌跡上にレイアウトを編集された箇所がない場合に、シミュレーション処理部29は、当該利用者の2階における実際の軌跡に基づいて、行動情報取得部15における処理と同様に行動情報を模擬的に生成する。あるいは、シミュレーション処理部29は、各々の利用者について行先エリアを設定した順序で利用者の軌跡を設定する。このとき、シミュレーション処理部29は、例えば、利用者が1つ以上の行先エリアの間を遠回りせずに移動するものとして利用者の軌跡を設定する。シミュレーション処理部29は、利用者の軌跡を乱数などによって乱してもよい。シミュレーション処理部29は、例えば人流シミュレーションなどの既知の技術によって利用者の軌跡を設定してもよい。シミュレーション処理部29は、設定した軌跡に基づいて行動情報取得部15における処理と同様に行動情報を模擬的に生成する。ここで、シミュレーション処理部29は、例えば、利用者の興味方向情報を当該利用者について設定した軌跡の、左右を問わない前方として模擬的な行動情報を生成する。
 シミュレーション処理部29は、シミュレーションの対象となる利用者の各々について、模擬的に生成した行動情報に基づいて、関心情報取得部20における処理と同様に関心情報を模擬的に生成する。
 シミュレーション処理部29は、模擬的に生成された行動情報および関心情報に基づいて、シミュレーションの結果を可視化処理部27における処理と同様に関心度マップとして生成する。
 シミュレーション処理部29は、シミュレーションの結果と、関心情報記憶部21に記憶された情報との差分を演算する。シミュレーション処理部29は、例えば、シミュレーションの結果および実際に取得された関心情報との間で関心度の高さの分布の差を取ることで、差分を演算する。
 図15Dは、シミュレーションの結果として利用者ごとの軌跡の例を示す図である。この例において、利用者Aおよび利用者Cの軌跡上にレイアウトを編集された箇所はないので、利用者Aおよび利用者Cのシミュレーション上の軌跡は実際の軌跡と同様になる。一方、利用者Bが行ったQ店はレイアウトを編集されているので、利用者Bの軌跡はT店に隣接する通路を通ってQ店に至るように設定される。ここで、当該通路に一方通行が設定されているので、利用者Bの軌跡は、Q店への往路およびQ店からの帰路で異なる通路を通るように設定される。このとき、2階を移動中の利用者Bの興味方向は、S店およびT店に向けられるようになる。この場合に、S店およびT店への関心度が高められるようになる。
 図15Eは、シミュレーションの結果として2階における関心度の分布を示す図である。このように、関心情報の変化を可視化した関心度マップによって、建物2のオーナーなどは、レイアウトの編集による関心度への影響を把握できるようになる。
 なお、シミュレーションシステム50は、複数の階床にわたって移動する利用者の関心情報の変化を複数の階床にわたってシミュレーションしてもよい。図16を用いて、複数の階床にわたる関心情報の変化のシミュレーションの他の例を説明する。
 図16Aは、実施の形態1に係る興味関心度計測システム1による関心度マップの例を示す図である。
 図16Bは、実施の形態1に係るシミュレーションシステム50によるシミュレーションの結果の例を示す図である。
 図16Aに示されるように、この例の建物2において、Pa店、Pb店、Pc店、Pd店、Pe店、およびPf店が1階に出店している。Pc店は、品物Pc1を扱う。また、Qa店、Qb店、Qc店、Qd店、Qe店、およびQf店が2階に出店している。Qa店は、品物Qa1を扱う。Qb店は、品物Qb1を扱う。Qc店は、品物Qc1を扱う。また、Ra店、Rb店、Rc店、Rd店、およびRe店が3階に出店している。Ra店は、品物Ra1を扱う。Rb店は、品物Rb1を扱う。建物2において、トイレが3階に設けられている。建物2において、4階は事務所フロアである。建物2の利用者が1階から4階までの階床の間に移動に利用する昇降設備として、エレベーター3aおよびエレベーター3b、ならびに階段5が設けられる。建物2の利用者が1階から3階までの階床の間に移動に利用する昇降設備として、エスカレーター4が設けられる。
 利用者A、利用者B、および利用者Cを含む各々の利用者の軌跡は、行動情報記憶部16に行動情報として記憶されている。
 利用者Aの軌跡によると、利用者Aは、出入口から建物2に入った後、エレベーター3aを利用して1階から2階に移動している。その後、利用者Aは、2階のQa店で品物Qa1に関心を示している。その後、利用者Aは、エスカレーター4を利用して2階から3階に移動している。その後、利用者Aは、3階のトイレに立ち寄っている。その後、利用者Aは、3階のRa店で品物Ra1に関心を示している。その後、利用者Aは、エレベーター3bを利用して3階から1階に移動している。その後、利用者Aは、出入口から建物2を出ている。
 利用者Bの軌跡によると、利用者Bは、出入口から建物2に入った後、エレベーター3bを利用して1階から3階に移動している。その後、利用者Bは、3階のトイレに立ち寄っている。その後、利用者Bは、3階のRb店で品物Rb1に関心を示している。その後、利用者Bは、エレベーター3bを利用して3階から2階に移動している。その後、利用者Bは、2階のQb店で品物Qb1に関心を示している。その後、利用者Bは、エレベーター3bを利用して2階から1階に移動している。その後、利用者Bは、出入口から建物2を出ている。
 利用者Cの軌跡によると、利用者Cは、出入口から建物2に入った後、1階のPc店で品物Pc1に関心を示している。その後、利用者Cは、エスカレーター4を利用して1階から2階に移動している。その後、利用者Cは、2階のQc店で品物Qc1に関心を示している。その後、利用者Cは、エレベーター3aを利用して2階から1階に移動している。その後、利用者Cは、出入口から建物2を出ている。
 このような利用者の軌跡を各階床の俯瞰マップに重ねることで、利用者の軌跡の密度が低い疎領域が可視化される。図16Aにおいて、疎領域は、一点鎖線の枠で示される。図16Aによると、建物2において、出入口付近が混雑するという点、エレベーター3に対してエスカレーター4の利用が少ないという点、および各階床に疎領域が多いという点などに改善の余地があることがわかる。建物2のオーナーなどは、これらの点に対応しうるように、建物2の各階床のレイアウトを検討する。
 建物2のオーナーなどは、レイアウトの検討にシミュレーションシステム50によるシミュレーションを用いる。建物2のオーナーなどは、例えば操作表示部28などを通じて、シミュレーション条件の設定を行う。建物2のオーナーなどは、シミュレーション条件として、建物2の1階から3階のレイアウトを、例えば図16Bに示されるように編集する。なお、この例において、事務所フロアである4階と、4階の利用者は、シミュレーションの対象から除かれる。
 この例の編集後の1階のレイアウトにおいて、入口および出口のそれぞれに一方通行が設定される。編集後のレイアウトにおいて、疎領域にあったPa店に入口から利用者を誘導するパネルなどが設けられる。編集後のレイアウトにおいて、疎領域にあったPa店に隣接する場所に、Pe店が配置される。編集後のレイアウトにおいて、Pe点に隣接する場所に、疎領域にあったPb店、Pd店、およびPf店が集中して配置される。編集後のレイアウトにおいて、疎領域にあったPb店、Pd店、およびPf店を臨む場所に、休憩所が配置される。また、この例の編集後のレイアウトにおいて、エスカレーター4は上り運転に限定される。編集後のレイアウトにおいて、エレベーター3aおよびエレベーター3bは下り運転に限定される。この例の編集後の2階のレイアウトにおいて、エスカレーター4の近傍の場所に、疎領域にあったQc店、Qd店、Qe店、およびQf店が集中して配置される。この例の編集後の2階のレイアウトにおいて、Qf店に誘導する入口などが設けられ、Qc店に誘導する出口などが設けられる。これらは2階レイアウトにおける経由する入口と出口の設定である。この例の編集後の3階のレイアウトにおいて、疎領域にあったRc店、Rd店、およびRe店が集中して配置される。この例の編集後の3階のレイアウトにおいて、Re店に誘導する入口などが設けられ、Rc店に誘導する出口などが設けられる。これらは3階レイアウトにおける経由する入口と出口の設定である。なお、この例において、事務所フロアである4階の利用者については、エレベーター3aおよびエレベーター3bは下り運転に限定されない。
 レイアウトの編集によってシミュレーション条件の設定を行った後に、建物2のオーナーなどは、例えば操作表示部28などを通じてシミュレーションシステム50にシミュレーションを開始させる。
 シミュレーション処理部29は、単一の階床におけるシミュレーションと同様に、複数の階床にわたるシミュレーションを行う。シミュレーション処理部29は、シミュレーションの対象となる利用者を設定する。例えば、シミュレーション処理部29は、利用者A、利用者B、および利用者Cを含み、4階の利用者を除く複数の利用者をシミュレーションの対象として設定する。シミュレーション処理部29は、シミュレーションの対象となる利用者の各々について、建物2内で関心度の高い属性を設定する。シミュレーション処理部29は、シミュレーションの対象となる利用者の各々について、1階、2階、3階における行動情報を模擬的に生成する。シミュレーション処理部29は、シミュレーションの対象となる利用者の各々について、模擬的に生成した行動情報に基づいて、関心情報取得部20における処理と同様に関心情報を模擬的に生成する。
 この例において、出入口を一方通行とすることなどによる出入口付近の混雑の緩和への効果がシミュレーションされる。また、疎領域にあった店舗を集中して配置することで、利用者の興味方向が各店舗に向けられやすくなる。また、利用者の移動経路を疎領域にあった店舗に誘導することで、当該利用者の興味方向が当該店舗に向けられやすくなる。また、疎領域にあった店舗を臨む場所に休憩所を配置することで、利用者の興味方向が各店舗に向けられやすくなる。シミュレーションシステム50によって、このような変化による疎領域への関心度の高さを高める効果がシミュレーションされる。また、利用者の移動方向の制限などによるエレベーター3およびエスカレーター4などの各昇降設備の利用率を平準化する効果がシミュレーションされる。
 また、興味関心度計測システム1は、建物2における従業者の労働環境の管理などに用いられてもよい。シミュレーションシステム50は、建物2における従業者の労働環境の改善などに用いられてもよい。図17を用いて、建物2における従業者を利用者とした関心情報の取得およびその変化のシミュレーションの例を説明する。
 図17Aは、実施の形態1に係る建物2のレイアウトの例を示す図である。
 図17Bは、実施の形態1に係るシミュレーションシステム50によるシミュレーションの結果の例を示す図である。
 図17Aに示されるように、この例の建物2において、1階、2階、3階は店舗フロアである。建物2において、4階は従業者が勤務する事務所フロアである。建物2において、管理事務所、店舗スタッフルーム、倉庫、および共用部が4階に設けられている。建物2において、管理事務所および店舗スタッフルームの間に、壁を有する通路が設けられている。管理事務所において、利用者Wおよび利用者Yが事務作業を行うデスクが配置される。利用者Wおよび利用者Yは、建物2の管理業務に携わる従業者である。店舗スタッフルームにおいて、利用者Xおよび利用者Zが事務作業を行うデスクが配置される。利用者Xは、建物2に出店するP店の業務に携わる従業者である。利用者Zは、建物2に出店するQ店の業務に携わる従業者である。倉庫において、P店の在庫管理エリアに品物P1などが在庫として保管されている。共用部は、利用者の所属などに関わらずに利用される場所である。共用部は、例えば給湯室、または休憩室などである。
 関心情報取得部20は、利用者の行動情報に基づいて、利用者の関心情報を取得する。関心情報取得部20は、例えば共用部に含まれるエリアにおける接触時間などに基づいて、利用者の間の関心情報を取得する。
 この例において、関心情報記憶部21は、利用者Wについて、関心度の高い対象として利用者X、および利用者Yを記憶している。関心情報記憶部21は、利用者Xについて、関心度の高い属性としてP店の在庫管理エリアの品物P1、および利用者Zを記憶している。関心情報記憶部21は、利用者Yについて、関心度の高い属性として管理事務所の利用者Yのデスク、および利用者Wを記憶している。関心情報記憶部21は、利用者Zについて、関心度の高い属性として店舗スタッフルームの利用者Zのデスク、および利用者Xを記憶している。
 建物2のオーナーなどは、可視化処理部27によって生成された関心度マップを操作表示部28によって参照することで、従業者の動線、従業者の業務効率、従業者の間の交流の状況などを把握する。建物2のオーナーなどは、このように関心度マップによって把握した状況に基づいて、従業者の労働環境をより高めるレイアウトを検討する。
 建物2のオーナーなどは、レイアウトの検討にシミュレーションシステム50によるシミュレーションを用いる。建物2のオーナーなどは、例えば操作表示部28などを通じて、シミュレーション条件の設定を行う。建物2のオーナーなどは、シミュレーション条件として、建物2の4階のレイアウトを、例えば図17Bに示されるように編集する。なお、この例において、店舗フロアである1階、2階、3階は、シミュレーションの対象から除かれる。
 この例の編集後の4階のレイアウトにおいて、倉庫における店舗スタッフルーム側の場所にP店の品物P1を含む在庫管理エリアが配置される。編集後のレイアウトにおいて、管理事務所および店舗スタッフルームの間が行き来しうるように、通路の壁が撤去されている。編集後のレイアウトにおいて、関心度の高いP店の品物P1を含む在庫管理エリアに近づけるように、利用者Xのデスクが配置される。編集後のレイアウトにおいて、関心度の高い利用者Xのデスクに近づけるように、利用者Wのデスクが配置される。編集後のレイアウトにおいて、関心度の高い利用者Wのデスクに近づけるように、利用者Yのデスクが配置される。編集後のレイアウトにおいて、関心度の高い利用者Xのデスクに近づけるように、利用者Zのデスクが配置される。なお、編集後のレイアウトにおいて、互いへの関心度の高い利用者のデスク間は、互いに対話可能な範囲で設定した間隔が空けられている。これにより、利用者の間の対話を妨げることなく、利用者の密集を回避できるようになる。
 シミュレーション処理部29は、店舗フロアの利用者に対するシミュレーションと同様に、複数の階床にわたるシミュレーションを行う。シミュレーション処理部29は、シミュレーションの対象となる利用者を設定する。例えば、シミュレーション処理部29は、利用者W、利用者X、利用者Y、および利用者Zを含む複数の利用者をシミュレーションの対象として設定する。シミュレーション処理部29は、シミュレーションの対象となる利用者の各々について、建物2内で関心度の高い属性を設定する。シミュレーション処理部29は、シミュレーションの対象となる利用者の各々について、4階における行動情報を模擬的に生成する。シミュレーション処理部29は、例えば、デスクなどの各場所における利用者の滞在時間などを、例えば当該利用者の行動情報に基づいて取得される頻度分布に従ってシミュレーションする。シミュレーション処理部29は、利用者の関心度の高い属性が他の利用者である場合に、例えば、当該他の利用者と対話可能な範囲まで移動するようにシミュレーションする。シミュレーション処理部29は、シミュレーションの対象となる利用者の各々について、模擬的に生成した行動情報に基づいて、関心情報取得部20における処理と同様に関心情報を模擬的に生成する。
 この例において、関心度の高い品物を保管する在庫管理エリアおよびそこで作業を行う利用者のデスクの配置を近づけることで、事務所フロア内の移動の時間が削減されうる。互いへの関心度の高い利用者のデスクを集中して配置することで、対話を目的とした移動の時間が削減されうる。通路の壁を撤去することで、対話を目的とした移動の時間が削減されうる。シミュレーションシステム50によって、これらの変化による業務効率を高める効果がシミュレーションされる。
 なお、興味関心度計測システム1は、建物2における従業者の勤怠管理などに用いられてもよい。このとき、興味関心度計測システム1は、図示されない勤怠管理部を備える。例えば、興味関心度計測システム1の勤怠管理部は、従業者である利用者がいずれかの昇降設備を利用した日を、当該利用者の出勤日と判定する。また、興味関心度計測システム1の勤怠管理部は、出勤日において利用者が昇降設備を利用して4階に到着した最初の時刻を、当該出勤日における当該利用者の出勤時刻と判定する。また、興味関心度計測システム1の勤怠管理部は、出勤日において利用者が昇降設備を利用して4階から出発した最後の時刻を、当該出勤日における当該利用者の退勤時刻と判定する。興味関心度計測システム1の勤怠管理部は、これらの判定の処理を、例えば行動情報記憶部16が記憶している行動情報に基づいて行う。
 続いて、図18から図21を用いて、興味関心度計測システム1の動作の例を説明する。
 図18、図19、図20Aおよび図20B、ならびに図21は、実施の形態1に係る興味関心度計測システム1の動作の例を示すフローチャートである。
 図18において、利用者がエレベーター3を利用するときの到着階などの判定に係る興味関心度計測システム1の動作の例が示される。
 ステップS101において、利用者特定部14は、エレベーター3のかご7のドアが開いているときに当該かご7の内に入る利用者の特定を行う。その後、興味関心度計測システム1の動作は、ステップS102に進む。
 ステップS102において、エレベーター3のかご7がいずれかの階床を出発するときに、興味関心度計測システム1の処理は開始する。ここで、かご7がいずれかの階床の出発するときは、例えばかご7のドアが当該階床において閉じたときなどである。その後、興味関心度計測システム1の動作は、ステップS103に進む。
 ステップS103において、利用者特定部14は、エレベーター3のかご7の内部に乗車している利用者の特定を確定する。その後、興味関心度計測システム1の動作は、ステップS104に進む。
 ステップS104において、利用者特定部14は、かご7の内部に乗車している利用者がいるかを判定する。判定結果がYesの場合に、興味関心度計測システム1の動作は、ステップS105に進む。判定結果がNoの場合に、利用者特定部14はかご7の内部に利用者が乗車していないとして、興味関心度計測システム1の動作は、ステップS107に進む。
 ステップS105において、昇降設備判定部17は、利用者特定部14がエレベーター3のかご7において特定した利用者について、利用する昇降設備を当該エレベーター3であると判定する。その後、興味関心度計測システム1の動作は、ステップS106に進む。
 ステップS106において、整合処理部18は、利用者特定部14が特定した利用者について、整合処理を行う。その後、興味関心度計測システム1の動作は、ステップS107に進む。
 ステップS107において、階床判定部19は、利用者特定部14による特定の結果に基づいて、エレベーター3のかご7の乗車状況を記憶する。かご7の乗車状況は、例えば当該かご7への利用者の乗車の有無、および利用者が載っている場合に当該利用者を識別する情報などを含む。その後、興味関心度計測システム1の動作は、ステップS108に進む。
 ステップS108において、階床判定部19は、ステップS107において記憶した乗車状況と、その直前に記憶した乗車状況とに基づいて、利用者の出発階および到着階を判定する。その後、興味関心度計測システム1の動作は、ステップS109に進む。
 ステップS109において、エレベーター3のかご7がいずれかの階床に停止した後に、興味関心度計測システム1の動作は、ステップS101に進む。
 図19において、利用者がエスカレーター4を利用するときの到着階などの判定に係る興味関心度計測システム1の動作の例が示される。
 ステップS201において、いずれかのエスカレーター4の降り口に設けられたカメラ12に利用者がフレームインするときに、興味関心度計測システム1の処理は開始する。その後、興味関心度計測システム1の動作は、ステップS202に進む。
 ステップS202において、利用者特定部14は、エスカレーター4に乗っている利用者の特定を行い、利用者の特定を確定する。その後、興味関心度計測システム1の動作は、ステップS203に進む。
 ステップS203において、利用者特定部14は、エスカレーター4に乗っている利用者がいるかを判定する。判定結果がYesの場合に、興味関心度計測システム1の動作は、ステップS204に進む。判定結果がNoの場合に、興味関心度計測システム1の動作は、ステップS201に進む。
 ステップS204において、階床判定部19は、特定された利用者がエスカレーター4を乗り継いだ利用者かを判定する。階床判定部19は、例えば他のエレベーター3の降り口に配置されたカメラ12から利用者がフレームアウトしてから予め設定された時間が経過していない場合に、当該利用者がエスカレーター4を乗り継いだ利用者であると判定する。判定結果がNoの場合に、興味関心度計測システム1の動作は、ステップS205に進む。判定結果がYesの場合に、興味関心度計測システム1の動作は、ステップS208に進む。
 ステップS205において、昇降設備判定部17は、利用者特定部14がエスカレーター4において特定した利用者について、利用する昇降設備を当該エスカレーター4であると判定する。その後、興味関心度計測システム1の動作は、ステップS206に進む。
 ステップS206において、整合処理部18は、利用者特定部14が特定した利用者について、整合処理を行う。その後、興味関心度計測システム1の動作は、ステップS207に進む。
 ステップS207において、階床判定部19は、エスカレーター4の乗り口が設けられた階床を利用者の出発階として判定する。その後、興味関心度計測システム1の動作は、ステップ208に進む。
 ステップS208において、エスカレーター4の降り口に設けられたカメラ12から利用者がフレームアウトするときに、階床判定部19は、利用者がフレームアウトしてからの時間の計時を開始する。その後、興味関心度計測システム1の動作は、ステップ209に進む。
 ステップS209において、階床判定部19は、タイムアウトしたか、すなわち、利用者がフレームアウトしてから、次のエスカレーター4のカメラ12へのフレームインがなく、かつ、予め設定された時間が経過したかを判定する。判定結果がNoの場合に、興味関心度計測システム1の動作は、ふたたびステップS209に進む。一方、判定結果がYesの場合に、興味関心度計測システム1の動作は、ステップ210に進む。なお、タイムアウトする前に利用者が次のエスカレーター4を除く他の降車階床のカメラ12にフレームインする場合に、興味関心度計測システム1の動作は、ステップS210に進んでもよい。
 ステップS210において、階床判定部19は、エスカレーター4の降り口が設けられた階床を利用者の到着階として判定する。その後、興味関心度計測システム1の動作は、ステップ201に進む。
 なお、利用者が階段5を利用する場合においても、興味関心度計測システム1は、同様の処理によって到着階などの判定を行う。
 図20において、利用者の到着階における行動情報および関心情報の取得などに係る興味関心度計測システム1の動作の例が示される。
 図20AのステップS301において、利用者の到着階が判定されるときに、興味関心度計測システム1の処理は開始する。その後、興味関心度計測システム1の動作は、ステップS302に進む。
 ステップS302において、利用者特定部14は、到着階の俯瞰マップがあるかを判定する。判定結果がNoの場合に、興味関心度計測システム1の動作は、ステップS303に進む。判定結果がYesの場合に、興味関心度計測システム1の動作は、ステップS305に進む。
 ステップS303において、行動情報取得部15は、到着階に配置されたカメラ12から画像の取得を開始する。その後、興味関心度計測システム1の動作は、ステップS304に進む。
 ステップS304において、行動情報取得部15は、取得した画像から俯瞰マップを生成する。その後、興味関心度計測システム1の動作は、ステップS305に進む。
 ステップS305において、利用者特定部14は、到着階に到着した利用者を俯瞰マップ上で特定できたかを判定する。判定結果がNoの場合に、興味関心度計測システム1の動作は、ステップS301に進む。判定結果がYesの場合に、興味関心度計測システム1の動作は、ステップS306に進む。
 ステップS306において、興味関心度計測システム1は、ステップS305において特定された利用者について、行動情報および関心情報を取得する。ここで、ステップS305において複数の利用者が特定される場合に、興味関心度計測システム1は、当該複数の利用者について並列に行動情報および関心情報を取得してもよい。その後、興味関心度計測システム1の動作は、ステップS301に進む。
 図20Bにおいて、図20AのステップS306の処理の内容の例が示される。
 ステップS401において、行動情報取得部15は、特定済みの利用者の配置の情報を取得する。この例において、行動情報取得部15は、利用者の少なくとも両肩および鼻の3つの特徴量の座標の情報を取得する。行動情報取得部15は、利用者の他の特徴量の座標の情報を取得してもよい。その後、興味関心度計測システム1の動作は、ステップS402に進む。
 ステップS402において、行動情報取得部15は、利用者が昇降設備にフレームインしたかを判定する。なお、昇降設備へのフレームインは、利用者がいた階床から見るとフレームアウトとなる。判定結果がNoの場合に、興味関心度計測システム1の動作は、ステップS403に進む。判定結果がYesの場合に、興味関心度計測システム1の動作は、ステップS405に進む。
 ステップS403において、行動情報取得部15は、利用者が不可視領域または建物2の出入口から外部にフレームアウトしたかを判定する。判定結果がNoの場合に、興味関心度計測システム1の動作は、ステップS401に進む。判定結果がYesの場合に、興味関心度計測システム1の動作は、ステップS404に進む。
 ステップS404において、行動情報取得部15は、タイムアウトしたか、すなわち、利用者が不可視領域または建物2の出入口から外部にフレームアウトしてから予め設定された時間が経過したかを判定する。判定結果がNoの場合に、興味関心度計測システム1の動作は、ステップS401に進む。判定結果がYesの場合に、興味関心度計測システム1の動作は、ステップS405に進む。
 ステップS405において、行動情報取得部15は、行動情報の取得を完了する。行動情報記憶部16は、取得された行動情報を利用者ごとに時系列データとして記憶する。その後、興味関心度計測システム1の動作は、ステップS406に進む。
 ステップS406において、関心情報取得部20は、利用者の行動情報に基づいて、当該利用者の関心度の高いエリアを抽出する。その後、興味関心度計測システム1の動作は、ステップS407に進む。
 ステップS407において、関心情報取得部20は、利用者の関心度の高いエリアの属性を属性記憶部13から参照する。関心情報取得部20は、利用者の関心度の情報および参照した属性の情報に基づいて、関心情報を取得する。関心情報記憶部21は、取得された関心情報を利用者ごとに記憶する。このとき、関心情報記憶部21は、取得された関心情報によって利用者ごとの関心情報を更新してもよい。その後、興味関心度計測システム1の動作は、ステップS408に進む。
 ステップS408において、興味関心度計測システム1は、必要に応じて警告音またはアラートなどを出力する。警告音またはアラートなどは、例えば、利用者のフレームインおよびフレームアウトが整合しない場合などに出力される。利用者のフレームインおよびフレームアウトが整合しない場合とは、例えばフレームインした利用者のフレームアウトが判定されない場合、またはフレームインしていない利用者のフレームアウトが判定される場合などである。警告音またはアラートなどの出力が必要ない場合には、ステップS408の処理は省略されてもよい。その後、利用者ごとの行動情報および関心情報の取得に係る興味関心度計測システム1の動作は、終了する。
 図21において、既に計測した利用者の興味関心の可視化に係る興味関心度計測システム1の動作の例が示される。
 ステップS501において、可視化処理部27は、関心度マップの生成条件の入力を例えば操作表示部28などを通じて受け付ける。その後、興味関心度計測システム1の動作は、ステップS502に進む。
 ステップS502において、可視化処理部27は、生成条件で指定された時間における建物2の利用者について、関心情報記憶部21および行動情報記憶部16から関心情報および行動情報を読み込む。その後、興味関心度計測システム1の動作は、ステップS503に進む。
 ステップS503において、可視化処理部27は、関心情報および行動情報を読み込んだ利用者を、生成条件で指定された条件に基づいて絞り込む。その後、興味関心度計測システム1の動作は、ステップS504に進む。
 ステップS504において、可視化処理部27は、生成条件に基づいて絞り込んだ利用者の関心情報および行動情報に基づいて、関心情報の可視化のための演算を行う。可視化のための演算は、例えば、関心情報をグラフによって可視化するための数値化などの演算を含む。当該演算は、例えば、複数の利用者について関心度の高さを場所ごとに集計する演算などを含む。その後、興味関心度計測システム1の動作は、ステップS505に進む。
 ステップS505において、可視化処理部27は、可視化のための演算の結果を用いて、関心度マップを生成する。関心度マップの生成の処理は、例えば、関心情報を表すグラフおよび俯瞰マップの重ね合わせなどの処理を含む。その後、興味関心度計測システム1の動作は、終了する。
 続いて、図22を用いて、既存でない条件下における利用者の行動及び興味関心のシミュレーションに係るシミュレーションシステム50の動作の例を説明する。
 図22は、実施の形態1に係るシミュレーションシステム50の動作の例を示すフローチャートである。図22における処理は、例えば、図21における処理が実施された上で開始される。
 ステップS601において、シミュレーション処理部29は、シミュレーション条件の入力を例えば操作表示部28などを通じて受け付ける。シミュレーション条件の入力において、例えば図21の既存条件が使用される。また、図21の条件と異なる新規条件が入力される。これにより、シミュレーション条件の入力の差分が明確になる。その後、シミュレーションシステム50の動作は、ステップS602に進む。
 ステップS602において、シミュレーション処理部29は、入力されたシミュレーション条件に従い、例えば図21の条件と同様に関心情報記憶部21および行動情報記憶部16から関心情報および行動情報を読み込む。また、図21の条件と異なる新規条件は、例えば行先の場所または行動などを誘導する、パネルまたは移動経路上の出入口などの、配置修正、変更、追加、または削除などを含む。また、図21の条件と異なる新規条件は、例えば店舗または内壁などの配置替えも同様に含む。配置替えにより、付随するエリアおよびその属性も合わせて移動する。このとき、配置替えは、店舗ごとの移動に限定されず、店舗の一部のエリアおよびその属性の移動であってもよい。例えば、仮想的な利用者を追加するときに、その利用者の1つ以上の高い関心情報とそれらの属性、入口に入る時刻などが指定されていることが確認される。シミュレーションの対象となる利用者は、例えば、直接的にまたは間接的にある条件を満たす利用者に絞られてもよい。ここでは、これらステップS601で入力された条件がシミュレーションを行う上で全て問題ないことをシミュレーション処理部29が判定する。シミュレーション条件に問題がある場合に、シミュレーションシステム50の動作は、条件を再設定しうるようにステップS601に進む。一方、シミュレーション条件に問題がない場合に、シミュレーションシステム50は、入力された条件を確定して、ステップS603の動作に進む。
 ステップS603において、シミュレーション処理部29は、各々の利用者について、建物2における行動情報を模擬的に生成する。その後、シミュレーションシステム50の動作は、ステップS604に進む。
 ステップS604において、シミュレーション処理部29は、行動情報を模擬的に生成した利用者の各々について、関心情報を模擬的に生成する。その後、シミュレーションシステム50の動作は、ステップS605に進む。
 ステップS605において、シミュレーション処理部29は、模擬的に生成した行動情報および関心情報に基づいて、シミュレーションの結果を可視化処理部27に送る。その後、シミュレーションシステム50の動作は、ステップS606に進む。
 ステップS606において、可視化処理部27は、既存条件を使用して演算した結果、および、シミュレーション処理部29が図21の条件と異なる新規条件で演算した結果を用いて、既存条件と新規条件の2つの関心度マップを生成する。関心度マップの生成の処理は、例えば、関心情報を表すグラフおよび俯瞰マップの重ね合わせなどの処理を含む。
その後、可視化処理部27は、既存条件と新規条件の2つの関心度マップを、シミュレーション処理部29に送る。その後、シミュレーションシステム50の動作は、ステップS607に進む。
 ステップS607において、シミュレーション処理部29は、既存条件と新規条件の2つの関心度マップの差分を演算し、再び可視化処理部27に送る。これにより、既存条件、新規条件の一部または全部の関心度マップと差分が可視化される。その後、シミュレーションシステム50の動作は、終了する。
 なお、ここまでの例として、既存と新規の二つの関心度マップとその差分の可視化を挙げたが、シミュレーション処理部29は、2つの関心度マップとその差分に限らず、複数の関心度マップとその差分も演算できる。従って、様々な新規条件を検討し、最適な条件を導くことができる。
 また、シミュレーション処理部29は、新規条件のシミュレーション結果としての関心度マップに基づいて、新規条件におけるテナント料を相場に応じて自動的に算出する。ここで、新規条件におけるテナント料は、新規条件において存在する各テナントのテナント料などである。算出されたテナント料は、例えば、様々な新規条件のうちの最適な条件の検討に用いられる。
 以上に説明したように、実施の形態1に係る興味関心度計測システム1は、属性記憶部13と、利用者特定部14と、階床判定部19と、行動情報取得部15と、関心情報取得部20と、関心情報記憶部21と、可視化処理部27と、を備える。属性記憶部13は、建物2の各々の階床について、エリアごとの属性を記憶する。利用者特定部14は、建物2に設けられた少なくともいずれかのカメラ12が撮影する画像に基づいて、当該建物2において利用者を特定する。階床判定部19は、特定された利用者がいずれかの昇降設備を利用して出発階から到着階まで移動したときに、少なくとも、エレベーター3のかご7の内部のカメラ12、エスカレーター4の降車階のカメラ12、または階段5の利用を終えた階のカメラ12を含む、いずれかのカメラ12が撮影する画像に基づいて当該利用者の到着階を判定する。行動情報取得部15は、特定された利用者について、判定された到着階における当該利用者の行動を表す行動情報を、少なくともいずれかのカメラ12が撮影する画像に基づいて取得する。関心情報取得部20は、特定された利用者について、判定された到着階におけるエリアの配置および当該エリアの属性、ならびに行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する。関心情報記憶部21は、関心情報取得部20が取得した関心情報を利用者ごとに時刻および場所の情報を含めて記憶する。可視化処理部27は、関心情報記憶部21に記憶された情報を用いて、少なくともいずれかの階床における建物2の利用者の関心度の分布を可視化した関心度マップを生成する。
 このような構成により、建物2に設けられたカメラ12が撮影する画像に基づいて利用者の特定、到着階の判定、および行動情報の取得が行われるので、昇降設備の機器を操作しない利用者についても到着階における行動情報が取得される。また、関心情報は、利用者の行動情報に基づいて取得される。このため、予め登録された携帯機器を所持しない建物2の利用者についても、当該利用者の興味関心の情報として関心情報が取得される。また、昇降設備の機器を操作しない利用者についても、関心情報が同様に取得される。また、エレベーター3、エスカレーター4、および階段5が混在する建物2においても、興味関心度計測システム1はこれらを昇降設備として統合して乗降履歴を管理するので、利用者の関心情報がより確実に取得される。また、興味関心度計測システム1は昇降設備の乗降履歴を管理するので、建物2における複数の階床にわたって関心情報を取得できる。このように取得された関心情報は、可視化処理部27が生成する関心度マップによって可視化されるので、建物2のオーナーなどは、建物2の価値の向上、または建物2において好ましくない事象が発生するリスクの回避などのための判断材料を得ることができる。
 また、可視化処理部27は、建物2の利用者ごとに関心度マップを生成してもよい。
 また、可視化処理部27は、建物2の利用者ごとの関心情報を統合して関心度マップを生成してもよい。
 また、可視化処理部27は、建物2の利用者ごとの行動情報を含めて関心度マップを生成してもよい。
 このような構成により、関心度マップは、建物2のオーナーなどの目的に応じた必要な詳細さで生成される。このため、建物2のオーナーなどは、建物2の価値の向上または建物2におけるリスクの回避などのための判断材料をより効率的に得ることができる。
 また、興味関心度計測システム1は、行先提示部22を備える。行先提示部22は、いずれかの昇降設備の利用を開始する利用者を利用者特定部14が特定するときに、関心度のより高い属性を有するエリアをより優先して当該利用者に行先として提示する。機器先提示部による行先の提示は、当該利用者について関心情報記憶部21が記憶している関心情報および属性記憶部13が記憶している属性の情報に基づいて行われる。このとき、可視化処理部27は、行先提示部22が実際に提示した行先の情報を含めて関心度マップを生成してもよい。行先の情報は、例えば利用者の軌跡などの情報に重ねて表示される。
 このような構成により、建物2のオーナーなどは、行先提示部22が提示する行先による利用者の関心への影響を把握できるようになる。このため、建物2のオーナーなどは、建物2の価値の向上または建物2におけるリスクの回避などのための判断材料をより効率的に得ることができる。
 また、建物2に1つ以上の昇降設備として複数の昇降設備が設けられる場合において、興味関心度計測システム1は、昇降設備判定部17と、整合処理部18と、を備える。昇降設備判定部17は、利用者特定部14に特定された利用者がいずれかの昇降設備の利用を開始するときに、少なくともいずれかのカメラ12が撮影する画像に基づいて当該利用者が利用する昇降設備を判定する。ここで、利用者特定部14が同一の利用者として特定した利用者の利用する設備として、昇降設備判定部17が同時に2つ以上の昇降設備を判定する場合がある。この場合に、整合処理部18は、当該2つ以上の昇降設備を利用する利用者を互いに異なる利用者として利用者特定部14に特定させる。利用者特定部14は、互いに異なる利用者として特定するときに、取得済みの画像の中から利用者の特徴量の差を抽出して、利用者の特定の確度を向上させ、互いに異なる利用者の特定を再確定する。
 このような構成により、利用者の特定の精度がより高くなる。このため、利用者の案内がより確実に行われるようになる。
 また、興味関心度計測システム1は、呼び登録部23を備える。呼び登録部23は、行先提示部22が提示した行先を含む行先階への呼びを昇降設備であるエレベーター3に登録する。
 このような構成により、利用者は昇降設備を操作することなく行先まで移動できるようになる。これにより、利用者の利便性がより高くなる。
 また、関心情報取得部20は、行動情報取得部15が利用者の到着階における行動情報の取得を完了するたびに当該利用者の関心情報を取得する。
 このような構成により、関心情報は利用者の到着階における行動がリアルタイムに反映されたものとなる。このため、興味関心度計測システム1は、利用者の関心を迅速に反映した案内を行うことができる。
 なお、興味関心度計測システム1は、行動情報記憶部16を備えている。行動情報記憶部16は、行動情報取得部15が取得する行動情報を利用者ごとに記憶する。このとき、関心情報取得部20は、予め設定されたタイミングで行動情報記憶部16から利用者ごとの行動情報を読み込んでもよい。関心情報取得部20は、読み込んだ行動情報に基づいて当該利用者の関心情報を取得する。ここで、予め設定されたタイミングは、例えば夜間などの建物2に利用者の少ない時間帯における予め設定された時刻などである。利用者の少ない時間帯に関心情報の取得などの処理が行われるので、興味関心度計測システム1における処理の負荷が時間的に分散される。また、関心情報取得部20または関心情報記憶部21が建物2の機器からネットワークを通じて接続される機器に搭載されている場合に、関心情報取得部20または関心情報記憶部21への行動情報などの送信は、ネットワークの通信負荷が少ない時間帯に行われる。このため、ネットワークの通信容量が乏しい場合においても、ネットワークの通信負荷を抑えることができる。
 また、利用者特定部14は、利用者が無線通信の機能を搭載した可搬な情報端末などを所持している場合などに、情報端末から無線通信によって取得する識別情報などを補助的に利用してもよい。利用者が所持する情報端末は、例えばスマートフォンなどであってもよい。例えば、エレベーター3のかご7の内部において、外部からの電磁波は遮蔽される。このとき、エレベーター3のかご7の内部で受信する電磁波は当該かご7の内部に乗車している利用者の情報端末からの電磁波である可能性が高い。このような情報を補助的に利用することによって、利用者特定部14は、利用者の特定の精度を高めることができる。利用者が情報端末を所持している場合に、行先提示部22は、情報端末に表示させる情報などを送信することによって行先の提示を行ってもよい。このとき、行先提示部22は、例えばエレベーター3の乗場などに設けられた無線ビーコンのブロードキャスト通信などによって受信者を特定せずに情報の発信を行ってもよい。
 また、実施の形態1に係るシミュレーションシステム50は、興味関心度計測システム1と、シミュレーション処理部29と、を備える。シミュレーション処理部29は、既存条件と新規条件の入力を受け、シミュレーションを行う上で問題がないことを判定する。
 また、シミュレーション処理部29は、利用者の行動情報を模擬的に生成し、関心情報も模擬的に生成する。
 そして、シミュレーション処理部29は、可視化処理部27へ模擬的に生成した行動情報および関心情報の結果を送り、既存条件と新規条件の2つの関心度マップを生成する。
 これらの関心度マップは、可視化処理部27に送られる。シミュレーション処理部29は、差分の演算を行い、その結果を可視化処理部27に送る。
 こうして、既存条件と新規条件の2つの関心度マップとその差分が可視化できる。
 このような構成により、予め登録された携帯機器を所持しない建物2の利用者についても、シミュレーション条件による利用者の興味関心の情報の変化をシミュレーションできるようになる。これにより、建物2のオーナーなどは、建物2の価値の向上または建物2におけるリスクの回避などのための施策の影響を事前に検討できるようになる。
 続いて、図23を用いて、興味関心度計測システム1およびそれを含むシミュレーションシステム50のハードウェア構成の例について説明する。
 図23は、実施の形態1に係る興味関心度計測システム1およびシミュレーションシステム50の主要部のハードウェア構成図である。
 興味関心度計測システム1およびシミュレーションシステム50の各機能は、処理回路により実現し得る。処理回路は、少なくとも1つのプロセッサ100aと少なくとも1つのメモリ100bとを備える。処理回路は、プロセッサ100aおよびメモリ100bと共に、あるいはそれらの代用として、少なくとも1つの専用ハードウェア200を備えてもよい。
 処理回路がプロセッサ100aとメモリ100bとを備える場合、興味関心度計測システム1およびシミュレーションシステム50の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせで実現される。ソフトウェアおよびファームウェアの少なくとも一方は、プログラムとして記述される。そのプログラムはメモリ100bに格納される。プロセッサ100aは、メモリ100bに記憶されたプログラムを読み出して実行することにより、興味関心度計測システム1およびシミュレーションシステム50の各機能を実現する。
 プロセッサ100aは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSPともいう。メモリ100bは、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROMなどの、不揮発性または揮発性の半導体メモリなどにより構成される。ここで、プロセッサ100aおよびメモリ100bは、分離されていても分離されていなくてもよい。例えば、プロセッサ100aはメモリ100bを含んでいてもよい。また、プロセッサ100aおよびメモリ100bが融合したデバイスが用いられてもよい。
 処理回路が専用ハードウェア200を備える場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらの組み合わせ、あるいはそれと同等な処理を行える回路で実現される。
 興味関心度計測システム1およびシミュレーションシステム50の各機能は、それぞれ処理回路で実現することができる。あるいは、興味関心度計測システム1およびシミュレーションシステム50の各機能は、まとめて処理回路で実現することもできる。興味関心度計測システム1およびシミュレーションシステム50の各機能について、一部を専用ハードウェア200で実現し、他部をソフトウェアまたはファームウェアで実現してもよい。このように、処理回路は、専用ハードウェア200、ソフトウェア、ファームウェア、またはこれらの組み合わせで興味関心度計測システム1およびシミュレーションシステム50の各機能を実現する。
 以下で説明する実施の形態の各々において、他の実施の形態で開示される例と相違する点について特に詳しく説明する。以下の実施の形態の各々で説明しない特徴については、他の実施の形態で開示される例のいずれの特徴が採用されてもよい。
 実施の形態2.
 この例の興味関心度計測システム1において、関心情報に含まれる関心度の高さに応じた案内が行われる。このときの案内として行先提示部22が提示する行先の情報は、可視化処理部27が生成する関心度マップに含まれていてもよい。
 図24Aから図24C、ならびに図25Aおよび図25Bは、実施の形態2に係る興味関心度計測システム1による行先の提示の例を示す図である。
 図24において、興味関心度計測システム1が適用される建物2の例が示される。
 図24Aにおいて、ある日の建物2が示される。この建物2において、品物P1を扱うP店およびサービスS1を提供するS店が4階のエリアに出店している。また、品物Q1を扱うQ店および品物T1を扱うT店が3階のエリアに出店している。また、サービスR1を提供するR店および品物U1を扱うU店が2階のエリアに出店している。
 この日までの間に、興味関心度計測システム1は、利用者A、利用者B、および利用者Cの関心情報を取得している。関心情報記憶部21は、利用者Aについて、最も高い関心度の属性として品物P1、および次に関心度の高い属性としてサービスS1を記憶している。関心情報記憶部21は、利用者Bについて、最も関心度の高い属性としてQ店および次に関心度の高い属性としてT店を記憶している。関心情報記憶部21は、利用者Cについて、最も関心度の高い属性としてサービスR1、および次に関心度の高い属性としてU店を記憶している。
 図24Bにおいて、後日の同一の建物2が示される。この日までの間に、品物P1を扱うP店が2階のエリアに移転している。また、R店が撤退している。また、サービスR1を提供するV店が4階のエリアに出店している。
 この日に建物2を再び利用した利用者Aは、1階のエレベーター3の乗場において利用者特定部14に特定される。このとき、行先提示部22は、利用者Aについての関心情報を関心情報記憶部21から読み込む。この例の行先提示部22は、より関心度の高い属性のエリアをより優先して利用者に行先として提示する。このため、行先提示部22は、利用者Aの最も関心度の高い属性として品物P1、および次に関心度の高い属性としてサービスS1を取得する。行先提示部22は、属性記憶部13から属性として品物P1を有するエリアを抽出する。この例において、行先提示部22は、移転後のP店が出店している2階のエリアを最も優先度の高い行先として抽出する。また、行先提示部22は、属性記憶部13から属性としてサービスS1を有するエリアを抽出する。この例において、行先提示部22は、S店が出店している4階のエリアを次に優先度の高い行先として抽出する。行先提示部22は、抽出したエリアを行先として利用者Aに提示する。
 図24Cに示されるように、同日に建物2を再び利用した利用者Bおよび利用者Cは、1階のエレベーター3の乗場において利用者特定部14に特定される。このとき、行先提示部22は、利用者Bおよび利用者Cの各々についての関心情報を関心情報記憶部21から読み込む。この例の行先提示部22は、同時に複数の利用者に行先を提示するときに、各々の利用者の最も関心度の高い属性のエリアを行先として提示する。このため、行先提示部22は、利用者Bの最も関心度の高い属性としてQ店を取得する。行先提示部22は、属性記憶部13から属性としてQ店のエリアを抽出する。この例において、行先提示部22は、Q店が出店している3階のエリアを利用者Bに提示する行先として抽出する。また、行先提示部22は、利用者Cの最も関心度の高い属性としてサービスR1を取得する。行先提示部22は、属性記憶部13から属性としてサービスR1を提供するV店のエリアを抽出する。この例において、行先提示部22は、V店が出店している4階のエリアを利用者Cに提示する行先として抽出する。
 図25において、かご操作盤10を通じた行先の提示の例が示される。この例において、かご7に乗車した利用者Bおよび利用者Cに対して、3階および4階が行先階として提示される。
 図25Aに示されるように、行先提示部22は、3階および4階に対応する行先ボタン10bの発光機器を点滅させることで、利用者Bおよび利用者Cに行先階の3階および4階を登録する前の案内の注意喚起を提示する。このとき、行先提示部22は、表示パネル10aなどの表示機器に「Q店は3階、サービスR1を提供するV店は4階です」などの映像を併せて表示させてもよい。また、行先提示部22は、表示パネル10aなどの表示機器の内蔵スピーカーなどに、音声による案内を併せて提示させてもよい。ここで、例えば発光機器の点滅による提示を開始してから予め設定された時間が経過して呼びが自動登録された直後に、行先提示部22は、3階および4階に対応する行先ボタン10bの発光機器の点滅による行先階の案内の提示を終了する。また、例えば行先ボタン10bが操作されて呼びが登録された直後に、行先提示部22は、3階および4階に対応する行先ボタン10bの発光機器の点滅による行先階の案内の提示を終了する。
 例えば利用者Bによって3階に対応する行先ボタン10bが操作されて呼びが登録された場合に、図25Bに示されるように、行先階として指定された階床に対応する行先ボタン10bの発光機器が点灯する。ここで、例えば提示した行先階である4階に対応する行先ボタン10bが操作されていない場合に、行先提示部22は、4階に対応する行先ボタン10bの発光機器の点滅による行先階の提示を継続してもよい。このとき、発光機器の点滅による提示を開始してから予め設定された時間が経過した後に、呼び登録部23は、4階を行先階とする呼びを利用者Cが乗車しているエレベーター3に自動登録する。4階を行先階とする呼びが自動登録された直後に、4階に対応する行先ボタン10bの発光機器が点灯する。
 ここで、仮に利用者Bまたは利用者Cの行きたい階床が自動登録された行先階ではなかったときに、利用者Bまたは利用者Cは、自動登録された行先階の行先ボタン10bをキャンセル操作して別の行先階を登録できる。例えば、3階に対応する行先ボタン10bがキャンセルされたときに、利用者Bおよび利用者Cは、残った行先階である4階で降車する。これより、関心度の高さに関係なく、利用者Bまたは利用者Cは、降車階を変えることができる。このとき、利用者Bおよび利用者Cについて降車階が判定される。これにより、利用者Bおよび利用者Cについて、降車した階床において行動情報取得および関心情報取得ができるようになる。
 なお、行先提示部22は、利用者Aなどに対して複数の行先を提示する場合に、2階および4階などの行先階に各々が対応する複数の行先ボタン10bを点滅させることで行先階の提示を行ってもよい。このとき、行先提示部22は、行先の優先度に応じて発光機器の点滅、色調、もしくは輝度、またはそれらの変化のスピードなどを行先ボタン10bに調整させてもよい。
 ここで、例えば発光機器の点滅による提示を開始してから予め設定された時間が経過するまでいずれの行先階も指定されない場合に、呼び登録部23は、最も優先度の高い行先階として提示した2階を行先階とする呼びを利用者Aが乗車しているエレベーター3に自動登録する。仮に利用者Aの行きたい階床が自動登録された行先階ではなかったときに、利用者Aは、自動登録された行先階の行先ボタン10bをキャンセル操作して別の行先階を登録してもよい。
 実施の形態3.
 この例の興味関心度計測システム1において、複数の建物2にわたって関心度の情報の取得および利用者への案内が行われる。
 図26は、実施の形態3に係る興味関心度計測システム1の構成図である。
 興味関心度計測システム1において、情報処理を担う部分として、属性記憶部13と、利用者特定部14と、行動情報取得部15と、行動情報記憶部16と、昇降設備判定部17と、階床判定部19と、関心情報取得部20と、行先提示部22と、呼び登録部23とが、各々の建物2に適用される。これらの部分は、各々の建物2において、利用者の特定、行動情報および関心情報の取得、行先の提示、ならびに呼びの登録などの動作を行う。
 興味関心度計測システム1は、中央管理装置24を備える。中央管理装置24は、複数の建物2において取得される関心情報などの情報を統合して管理する装置である。中央管理装置24は、例えば1台または複数台のサーバ装置などである。中央管理装置24の一部または全部は、クラウドサービス上の仮想マシンなどに搭載されていてもよい。中央管理装置24は、整合処理部18と、関心情報記憶部21と、可視化処理部27と、を備える。この例において、操作表示部28は、中央管理装置24と通信可能な情報処理端末などである。
 この例において、シミュレーションシステム50のシミュレーション処理部29は、中央管理装置24に搭載されている。なお、シミュレーション処理部29は、中央管理装置24と通信可能な1つまたは複数のサーバ装置などであってもよい。あるいはシミュレーション処理部29の一部または全部は、クラウドサービス上の仮想マシンなどであってもよい。
 整合処理部18は、各々の建物2に適用された利用者特定部14による利用者の特定の整合を取る機能を搭載する。整合を取る処理は、例えば次のように行われる。各々の建物2に適用された利用者特定部14は、異なる利用者を誤って同一の利用者として特定する可能性がある。互いに異なる建物2に適用された利用者特定部14は、互いに同一の利用者を同時に特定する可能性がある。同一人物が同時に2以上の建物2に重複して存在することはできないので、整合処理部18は、各々の建物2に適用された利用者特定部14に利用者の特定の修正を要求する。このとき、各々の建物2に適用された利用者特定部14は、誤って同一の利用者として特定していた利用者を互いに異なる利用者として特定する。利用者特定部14は、互いに異なる利用者として特定するときに、取得済みの画像の中から利用者の特徴量の差を抽出して、利用者の特定の確度を向上させ、互いに異なる利用者の特定を再確定する。なお、整合処理部18は、各々の建物2について、利用者特定部14による利用者の特定、および昇降設備判定部17による当該利用者の利用する昇降設備の判定の間の整合を取る処理も併せて行ってもよい。
 関心情報記憶部21は、各々の建物2において取得された関心情報を統合して利用者ごとに記憶する。関心情報記憶部21は、例えば利用者に固有な識別情報、当該利用者の関心情報、ならびに当該関心情報が取得された時刻および場所の情報を関連付けて記憶する。
 可視化処理部27は、各々の建物2についての関心度マップを生成する機能を搭載する。可視化処理部27は、関心情報記憶部21に記憶された情報を用いて関心度マップを生成する。例えば、関心情報記憶部21がいずれかの建物2において取得された利用者の関心情報を記憶している場合に、可視化処理部27は、当該利用者が利用したことのない他の建物2についての関心度マップを生成してもよい。このとき、利用者の関心情報として、例えば関心度の高さが属性ごとに取得されている。可視化処理部27は、例えば、利用者の属性ごとの関心度の高さを、関心度マップを生成する階床のエリアの属性に応じて当該階床のエリアごとに割り当てる。なお、可視化処理部27は、利用者が利用したことがある建物2についての関心度マップを生成してもよい。可視化処理部27は、複数の建物2において取得された関心情報を用いて、いずれかの建物2についての関心度マップを生成してもよい。可視化処理部27は、各々の建物2の行動情報記憶部16に記憶された情報を含めて関心度マップを生成してもよい。可視化処理部27は、各々の建物2の行先提示部22が利用者に実際に提示した行先の情報を含めて関心度マップを生成してもよい。可視化処理部27は、利用者の性別もしくは年齢、もしくはその両方、またはこれら以外の情報などの分類情報を含めて関心度マップを生成してもよい。
 シミュレーション処理部29は、シミュレーション条件を設定し、各々の建物2において関心情報取得部20が取得する関心情報の変化をシミュレーションする機能を搭載する。シミュレーション処理部29は、関心情報記憶部21に記憶された情報を用いてシミュレーションを行う。例えば、関心情報記憶部21がいずれかの建物2において取得された利用者の関心情報を記憶している場合に、シミュレーション処理部29は、当該利用者が利用したことのない他の建物2についてのシミュレーションを行ってもよい。シミュレーション処理部29は、シミュレーション条件に基づいて、シミュレーションの対象となる建物2内の利用者と、例えば他の建物2の利用者を設定する。シミュレーション処理部29は、シミュレーションの対象となる他の建物2の利用者の各々について、特定エリアの属性に関心が高い情報を関心情報記憶部21から取得し、入り口と開始時刻を設定する。シミュレーション処理部29は、各々の利用者について、当該建物2における行動情報を模擬的に生成する。シミュレーション処理部29は、行動情報を模擬的に生成した利用者の各々について、関心情報を模擬的に生成する。シミュレーション処理部29は、模擬的に生成した行動情報および関心情報に基づいて、シミュレーションの結果を当該建物2についての関心度マップとして生成する。シミュレーション処理部29は、複数の建物2において取得された関心情報を用いて、いずれかの建物2で、または複数の建物2を同時に、シミュレーションを行ってもよい。
 続いて、図27を用いて利用者への行先の提示の例を説明する。
 図27は、実施の形態3に係る興味関心度計測システム1による行先の提示の例を示す図である。
 図27において、興味関心度計測システム1が適用される複数の建物2の例が示される。
 この例において、ある日における複数の建物2が示される。利用者Aは、この日までの間に一方の建物2aを複数回利用している。利用者Aは、この日、他方の建物2bを初めて利用する。建物2aにおいて、スーパーマーケットであるP店が4階に出店している。建物2bにおいてスーパーマーケットであるQ店が2階に出店している。
 この日までの間に、興味関心度計測システム1は、建物2aを利用した利用者Aの関心情報を取得している。ここで、利用者の関心情報などが取得される建物2aは、第1建物の例である。第1カメラは、第1建物に配置されたカメラ12である。第1属性記憶部は、第1建物に適用された属性記憶部13である。第1利用者特定部は、第1建物に適用された利用者特定部14である。建物2aの関心情報取得部20は、取得した関心情報を中央管理装置24の関心情報記憶部21に送信する。関心情報記憶部21は、建物2aの関心情報取得部20から受信した関心情報を統合して利用者ごとに記憶する。関心情報記憶部21は、建物2aおよび建物2bの他の建物2に適用された関心情報取得部20から受信した関心情報を統合して記憶してもよい。関心情報記憶部21は、建物2aなどを利用した利用者Aについて、最も高い関心度の属性としてスーパーマーケットを記憶している。
 この日に建物2bを初めて利用した利用者Aは、1階のエレベーター3の乗場において建物2bの利用者特定部14に特定される。このとき、建物2bの行先提示部22は、利用者Aについての関心情報を関心情報記憶部21から読み込む。この例の行先提示部22は、最も関心度の高い属性のエリアを利用者に行先として提示する。このため、行先提示部22は、利用者Aの最も関心度の高い属性として、スーパーマーケットを取得する。行先提示部22は、建物2bの属性記憶部13から属性としてスーパーマーケットを有するエリアを抽出する。この例において、行先提示部22は、建物2bにおいてQ店が出店している2階のエリアを抽出する。行先提示部22は、抽出したエリアを行先として利用者Aに提示する。建物2bの呼び登録部23は、例えば建物2bのエレベーター3のかご7に乗車した利用者がかご操作盤10の操作を行わない場合などに、行先階への呼びの当該エレベーター3への登録などを行う。ここで、利用者に対して行先の提示などが行われる建物2bは、第2建物の例である。第2カメラは、第2建物に配置されたカメラ12である。第2利用者特定部は、第2建物に適用された利用者特定部14である。第2属性記憶部は、第2建物に適用された属性記憶部13である。なお、第2建物は、利用者Aが初めて利用する建物でなくてもよい。第2建物において、過去に利用者の関心情報などが取得されていてもよい。
 以上に説明したように、実施の形態3に係る興味関心度計測システム1は、各々の建物2に対応する属性記憶部13および利用者特定部14と、階床判定部19と、行動情報取得部15と、関心情報取得部20と、関心情報記憶部21と、行先提示部22と、可視化処理部27と、を備える。各々の属性記憶部13は、対応する建物2の各々の階床について、エリアごとの属性を記憶する。各々の利用者特定部14は、対応する建物2に設けられた少なくともいずれかのカメラ12が撮影する画像に基づいて、当該建物2において利用者を特定する。階床判定部19は、いずれかの建物2において特定された利用者が当該建物2の昇降設備を利用して出発階から到着階まで移動したときに、少なくともいずれかのカメラ12が撮影する画像に基づいて当該利用者の到着階を判定する。行動情報取得部15は、いずれかの建物2において特定された利用者について、判定された到着階における当該利用者の行動を表す行動情報を、少なくともいずれかのカメラ12が撮影する画像に基づいて取得する。関心情報取得部20は、いずれかの建物2において特定された利用者について、判定された到着階におけるエリアの配置および当該エリアの属性、ならびに行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する。関心情報記憶部21は、関心情報取得部20が取得した関心情報を利用者ごとに時刻および場所の情報を含めて記憶する。可視化処理部27は、いずれかの建物2に対応する属性記憶部13が記憶している属性の情報、および関心情報記憶部21に記憶された情報を用いて、関心度マップを生成する。ここで生成される関心度マップは、当該建物2の少なくともいずれかの階床における当該建物2の利用者の関心度の分布を可視化したものである。
 このような構成により、建物2の各々に設けられたカメラ12が撮影する画像に基づいて利用者の特定、到着階の判定、および行動情報の取得が行われるので、昇降設備の機器を操作しない利用者についても到着階における行動情報が取得される。また、関心情報は、利用者の行動情報に基づいて取得される。このため、予め登録された携帯機器を所持しない建物2の利用者についても、当該利用者の興味関心の情報として関心情報が取得される。また、昇降設備の機器を操作しない利用者についても、関心情報が取得される。また、エレベーター3、エスカレーター4、および階段5が混在する建物2においても、興味関心度計測システム1はこれらを昇降設備として統合して乗降履歴を管理するので、利用者の関心情報がより確実に取得される。このように取得された関心情報は、可視化処理部27が生成する関心度マップによって可視化されるので、建物2のオーナーなどは、建物2の価値の向上、または建物2において好ましくない事象が発生するリスクの回避などのための判断材料を得ることができる。また、利用者の関心情報は複数の建物2の間で共用されるので、興味関心度計測システム1は、利用者が利用したことのない建物2に対しても関心度マップを生成できる。
 この例において、属性記憶部13が建物2ごとに設けられる。一方、属性記憶部13がサーバ装置またはクラウドサービス上に実装される場合などに、各々の建物2についての情報を記憶する属性記憶部13は、単一の属性記憶部13または建物2の数より少ない属性記憶部13に統合されてもよい。
 また、この例において、利用者特定部14が建物2ごとに設けられる。一方、利用者特定部14がサーバ装置またはクラウドサービス上に実装される場合などに、各々の建物2についての情報を記憶する利用者特定部14は、単一の利用者特定部14または建物2の数より少ない利用者特定部14に統合されてもよい。
 また、階床判定部19、行動情報取得部15、行動情報記憶部16、関心情報取得部20、関心情報記憶部21、および可視化処理部27などの機能部についても同様に、これらの一部または全部の機能部がサーバ装置またはクラウドサービス上に実装される場合などに、各々の建物2についての機能部は、単一の機能部または建物2の数より少ない機能部に統合されてもよい。
 実施の形態4.
 この例の興味関心度計測システム1において、外部システム99との連携が行われる。例えば、興味関心度計測システム1が適用される第1建物のオーナーなどと、外部システム99が適用される他の第3建物のオーナーなどが異なり、これらのオーナーなどの間で関心度マップまたはシミュレーション結果を開示する契約が結ばれている場合などに、第1建物の興味関心度計測システム1による第3建物の関心度マップ、または第3建物の当該関心情報の変化のシミュレーション結果は、第3建物のオーナーなどに開示されうる。
 図28は、実施の形態4に係る興味関心度計測システム1の構成図である。
 外部システム99は、興味関心度計測システム1の外部のシステムである。外部システム99は、興味関心度計測システム1が適用されていない建物2に適用される。外部システム99が適用される建物2において、利用者を撮影する複数のカメラ12が配置される。外部システム99は、記憶部99aを有している。記憶部99aは、外部システム99が適用される建物2の各々のエリアの画像を日々記録し、更新する。外部システム99は、人がいない画像、例えば深夜に取得された各階床の各々のエリアの更新された画像を興味関心度計測システム1へ送信する。また、外部システム99は、外部システム99が適用される建物2の各々のカメラ12が撮影する画像を、興味関心度計測システム1に例えば朝から夜まで継続して送信する。ここで送信される画像は、特に加工されている必要はない。外部システム99は、画像の送信を受けて利用者を特定する興味関心度計測システム1から、当該利用者を明示せず行先の候補などの案内の情報を受信する。外部システム99は、興味関心度計測システム1から受信した情報に基づいて、行先の提示などの案内の処理を行う。
 中央管理装置24は、受信部25と、送信部26と、利用者特定部14と、整合処理部18と、関心情報記憶部21と、可視化処理部27と、を備える。受信部25および送信部26は、外部システム99との間で通信を行う部分である。これにより、中央管理装置24は、外部システム99にインターフェースを提供する。この例において、操作表示部28は、中央管理装置24と通信可能な情報処理端末などである。
 この例において、シミュレーションシステム50のシミュレーション処理部29は、中央管理装置24に搭載されている。なお、シミュレーション処理部29は、中央管理装置24と通信可能な1つまたは複数のサーバ装置などであってもよい。あるいはシミュレーション処理部29の一部または全部は、クラウドサービス上の仮想マシンなどであってもよい。
 続いて、図29を用いて外部システム99への関心情報の提供の例を説明する。
 図29は、実施の形態4に係る興味関心度計測システム1による関心度マップ、あるいは当該関心情報の変化のシミュレーション結果の開示の例を示す図である。
 図29において、興味関心度計測システム1が適用される建物2cおよび外部システム99が適用される建物2dの例が示される。外部システム99が適用される建物2dは、第3建物の例である。建物2dには、興味関心度計測システム1から外部システム99への行先候補などの案内の情報が送信される。
 この例において、ある日における建物2cおよび建物2dが示される。利用者Aは、この日までの間に建物2cを複数回利用している。利用者Aは、この日、建物2dを初めて利用する。建物2cにおいて、衣料品店であるP店が4階に出店している。建物2dにおいて衣料品店であるQ店が2階に出店している。
 この日までの間に、興味関心度計測システム1は、建物2cなどを利用した利用者Aの関心情報を取得している。ここで、利用者の関心情報などが取得される建物2cは、第1建物の例である。関心情報記憶部21は、建物2cなどを利用した利用者Aについて、最も高い関心度の属性として衣料品店を記憶している。
 この日の例えば未明に、外部システム99は、建物2dの各階床の各々のエリアの画像を興味関心度計測システム1に予め送信している。画像を受信した興味関心度計測システム1は、図8に示されるものと同様に建物2dの俯瞰マップを予め生成する。
 この日に建物2dを初めて利用した利用者Aは、建物2dに設けられたカメラ12によって撮影される。当該カメラ12は、例えばエレベーター3の乗場などに配置される。外部システム99は、利用者Aが映った画像を中央管理装置24に送信する。
 中央管理装置24の受信部25は、外部システム99から利用者Aの画像を受信する。中央管理装置24の利用者特定部14は、外部システム99から受信した画像に基づいて、利用者Aを特定する。外部システム99から受信した画像に基づいて利用者を特定する中央管理装置24の利用者特定部14は、第3利用者特定部の例である。中央管理装置24の利用者特定部14は、利用者Aを特定したら、建物2dの俯瞰マップ上の利用者Aの座標を決定する。また、送信部26は、特定された利用者Aについての関心情報を関心情報記憶部21から読み込み、建物2dの俯瞰マップ上の各階床の各エリアに該当する最も関心度の高い属性を関心情報として特定し、建物2dにおける行先候補を外部システム99へ送信する。送信部26は、画像によって特定された利用者である利用者Aの最も関心度の高い属性は衣料品店であることを表す情報を外部システム99に送信する。
 外部システム99は、建物2dにおける行先候補を中央管理装置24から受信する。この例において、外部システム99は、建物2dのエリアとその属性の中で最も利用者Aの関心度が高い属性は衣料品店であることを受信する。このため、外部システム99は、建物2dを利用している利用者Aに衣料品店であるQ店を行先として提示する。なお、外部システム99が適用される建物2dは、利用者Aが初めて利用する建物でなくてもよい。
 この例の興味関心度計測システム1において、関心情報取得部20は、外部システム99から受信部25が受信した画像などに基づいて、俯瞰マップ上のエリアについて例えば衣料品店などの当該エリアの属性を判定する。このとき、関心情報取得部20は、このように判定したエリアおよび属性の対応に基づいて、建物2dの利用者の関心情報を取得する。可視化処理部27は、このように判定されたエリアおよび属性の対応、ならびに利用者の関心情報に基づいて、建物2dにおける1つまたは複数の階床についての関心度マップを生成する。また、シミュレーション処理部29は、このように判定されたエリアおよび属性の対応、ならびに利用者の関心情報に基づいて、建物2dの関心情報の変化をシミュレーションする。関心度マップおよびシミュレーションの結果などの情報は、第3建物のオーナーなどとの契約に基づき、媒体および通信方法は問わず、加工できない情報の形で開示される。
 以上に説明したように、実施の形態4に係る興味関心度計測システム1は、属性記憶部13と、興味関心度計測システム1が適用される建物2に対応する利用者特定部14と、階床判定部19と、行動情報取得部15と、関心情報取得部20と、関心情報記憶部21と、中央管理装置24の利用者特定部14と、受信部25と、送信部26と、可視化処理部27と、を備える。属性記憶部13は、対応する建物2の各々の階床について、エリアごとの属性を記憶する。利用者特定部14は、対応する建物2に設けられた少なくともいずれかのカメラ12が撮影する画像に基づいて、当該建物2において利用者を特定する。階床判定部19は、特定された利用者がいずれかの昇降設備を利用して出発階から到着階まで移動したときに、少なくともいずれかのカメラ12が撮影する画像に基づいて当該利用者の到着階を判定する。行動情報取得部15は、特定された利用者について、判定された到着階における当該利用者の行動を表す行動情報を、少なくともいずれかのカメラ12が撮影する画像に基づいて取得する。関心情報取得部20は、特定された利用者について、判定された到着階におけるエリアの配置および当該エリアの属性、ならびに行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する。関心情報記憶部21は、関心情報取得部20が取得した関心情報を利用者ごとに時刻および場所の情報を含めて記憶する。受信部25は、外部システム99が適用される建物2dにおいて各階床の各エリアの俯瞰マップを生成するために必要な画像、および、昇降設備の利用を開始する利用者の画像を外部システム99から逐次受信する。中央管理装置24の利用者特定部14は、受信部25が受信した画像に基づいて利用者を特定する。可視化処理部27は、中央管理装置24の利用者特定部14に特定された利用者について関心情報記憶部21が関心情報として記憶している情報、および受信部25が受信した画像に基づいて判定される建物2dの複数の階床の少なくともいずれかのエリアごとの属性の情報を用いて、建物2dの関心度マップを生成する。ここで生成される関心度マップは、建物2dの複数の階床のうち属性の情報を判定した階床における、建物2dの利用者の関心度の分布を可視化したものである。送信部26は、中央管理装置24の利用者特定部14に特定された利用者について、行先候補などの案内情報を外部システム99に送信する。案内の効果は、受信部25へ逐次送られる画像から確認できる。建物2dの関心度マップ、あるいは変化のシミュレーション結果は、第3建物のオーナーなどとの契約により開示可能である。例えば隣接する建物との相互の移動を同時に計測した関心度マップを開示することで、より効率的な人の流れを検討することが可能となる。また、隣接する建物ごとに変化のシミュレーションを実施することで、第1建物と第3建物との間でオーナーなどが異なったとしても、双方に利益のある人の流れを検討することが可能となる。さらに、不審者の発見にあたっては、複雑なルートと不審な挙動を隣り合う建物をまとめて確認することでアラートを発しやすくできるので、オーナーなどにとって犯罪の抑止となりうる。ここで、第1建物および第3建物は、隣接していてもよいし、隣接していなくてもよい。
 このような構成により、建物2に設けられたカメラ12が撮影する画像に基づいて利用者の特定、到着階の判定、および行動情報の取得が行われるので、昇降設備の機器を操作しない利用者についても到着階における行動情報が取得される。また、関心情報は、利用者の行動情報に基づいて取得される。このため、昇降設備の機器を操作しない利用者についても、関心情報が取得される。このため、予め登録された携帯機器を所持しない建物2の利用者についても、当該利用者の興味関心の情報として関心情報が取得される。また、興味関心度計測システム1は、外部システム99に利用者の画像の他の識別情報などを要求しない。このため、興味関心度計測システム1は、外部システム99に利用者を識別する名前などの個人情報を提供することなく、利用者ごとに建物2dにおける最も関心の高い属性のエリアへの案内などを行うことができる。
 この例の興味関心度計測システム1および外部システム99において、属性記憶部13が建物2ごとに設けられる。一方、属性記憶部13がサーバ装置またはクラウドサービス上に実装される場合などに、各々の建物2についての情報を記憶する属性記憶部13は、単一の属性記憶部13または建物2の数より少ない属性記憶部13に統合されてもよい。
 また、この例の興味関心度計測システム1および外部システム99において、利用者特定部14が建物2ごとに設けられる。一方、利用者特定部14がサーバ装置またはクラウドサービス上に実装される場合などに、各々の建物2についての情報を記憶する利用者特定部14は、単一の利用者特定部14または建物2の数より少ない利用者特定部14に統合されてもよい。
 また、階床判定部19、行動情報取得部15、行動情報記憶部16、関心情報取得部20、関心情報記憶部21、および可視化処理部27などの機能部についても同様に、これらの一部または全部の機能部がサーバ装置またはクラウドサービス上に実装される場合などに、各々の建物2についての機能部は、単一の機能部または建物2の数より少ない機能部に統合されてもよい。
 本開示に係る興味関心度計測システムおよびシミュレーションシステムは、複数の階床を有する建物に適用できる。
 1 興味関心度計測システム、 2、2a、2b、2c、2d 建物、 3、3a、3b エレベーター、 4 エスカレーター、 5 階段、 6 昇降路、 7 かご、 8 制御盤、 9 乗場操作盤、 10 かご操作盤、 10a 表示パネル、 10b 行先ボタン、 11 群管理装置、 12 カメラ、 13 属性記憶部、 14 利用者特定部、 15 行動情報取得部、 16 行動情報記憶部、 17 昇降設備判定部、 18 整合処理部、 19 階床判定部、 20 関心情報取得部、 21 関心情報記憶部、 22 行先提示部、 23 呼び登録部、 24 中央管理装置、 25 受信部、 26 送信部、 27 可視化処理部、 28 操作表示部、 29 シミュレーション処理部、 50 シミュレーションシステム、 99 外部システム、 99a 記憶部、 100a プロセッサ、 100b メモリ、 200 専用ハードウェア

Claims (23)

  1.  建物の複数の階床の各々について、エリアごとの属性を記憶する属性記憶部と、
     前記建物に設けられた複数のカメラの少なくともいずれかが撮影する画像に基づいて、前記建物において利用者を特定する利用者特定部と、
     前記利用者特定部に特定された利用者が前記建物に設けられた1つ以上の昇降設備のいずれかを利用して前記複数の階床のうちの出発階から到着階まで移動したときに、前記複数のカメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、
     前記利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数のカメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、
     前記利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、
     前記関心情報取得部が取得した関心情報を利用者ごとに時刻および場所の情報を含めて記憶する関心情報記憶部と、
     前記関心情報記憶部に記憶された情報を用いて、前記複数の階床の少なくともいずれかにおける前記建物の利用者の関心度の分布を可視化した関心度マップを生成する可視化処理部と、
     を備える興味関心度計測システム。
  2.  前記関心度マップに基づいて、前記建物におけるテナント料を自動で算出する
     請求項1に記載の興味関心度計測システム。
  3.  前記可視化処理部は、前記建物の利用者ごとに前記関心度マップを生成する
     請求項1または請求項2に記載の興味関心度計測システム。
  4.  前記可視化処理部は、前記建物の利用者の分類情報ごとに前記関心度マップを生成する
     請求項1または請求項2に記載の興味関心度計測システム。
  5.  前記可視化処理部は、前記建物の利用者ごとの関心情報を統合して前記関心度マップを生成する
     請求項1または請求項2に記載の興味関心度計測システム。
  6.  前記可視化処理部は、前記建物の利用者ごとの行動情報を含めて前記関心度マップを生成する
     請求項1から請求項5のいずれか一項に記載の興味関心度計測システム。
  7.  前記1つ以上の昇降設備のいずれかの利用を開始する利用者を前記利用者特定部が特定するときに、当該利用者について前記関心情報記憶部が記憶している関心情報および前記属性記憶部が記憶している属性の情報に基づいて、関心度のより高い属性を有するエリアをより優先して当該利用者に行先として提示する行先提示部
     を備え、
     前記可視化処理部は、前記行先提示部が実際に提示した行先の情報を含めて前記関心度マップを生成する
     請求項1から請求項6のいずれか一項に記載の興味関心度計測システム。
  8.  前記1つ以上の昇降設備が複数の昇降設備を含む場合において、
     前記利用者特定部に特定された利用者が前記複数の昇降設備のいずれかの利用を開始するときに、前記複数のカメラの少なくともいずれかが撮影する画像に基づいて当該利用者が利用する昇降設備を判定する昇降設備判定部と、
     前記利用者特定部が同一の利用者として特定した利用者の利用する設備として前記昇降設備判定部が同時に2つ以上の昇降設備を判定した場合に、当該2つ以上の昇降設備を利用する利用者を互いに異なる利用者として前記利用者特定部に特徴量の差を抽出した上で特定させる整合処理部と、
     を備える請求項1から請求項7のいずれか一項に記載の興味関心度計測システム。
  9.  前記建物の利用者が前記複数の階床のいずれかである勤務階において勤務する従業者である場合に、
     前記行動情報に基づいて前記従業者の勤怠管理を行う勤怠管理部
     を備え、
     前記勤怠管理部は、前記従業者が前記1つ以上の昇降設備のいずれかを利用した日を前記従業者の出勤日と判定し、前記出勤日において前記従業者が前記勤務階に到着した最初の時刻を前記従業者の出勤時刻と判定し、前記出勤日において前記従業者が前記勤務階から出発した最後の時刻を前記従業者の退勤時刻と判定する
     請求項1から請求項8のいずれか一項に記載の興味関心度計測システム。
  10.  第1建物の複数の階床の各々について、エリアごとの属性を記憶する第1属性記憶部と、
     前記第1建物に設けられた複数の第1カメラの少なくともいずれかが撮影する画像に基づいて、前記第1建物において利用者を特定する第1利用者特定部と、
     前記第1利用者特定部に特定された利用者が前記第1建物に設けられた1つ以上の昇降設備のいずれかを利用して前記第1建物の複数の階床のうちの出発階から到着階まで移動したときに、前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、
     前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、
     前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、
     前記関心情報取得部が取得した関心情報を利用者ごとに時刻および場所の情報を含めて記憶する関心情報記憶部と、
     第2建物の複数の階床の各々について、エリアごとの属性を記憶する第2属性記憶部と、
     前記第2属性記憶部が記憶している属性の情報、および前記関心情報記憶部に記憶された情報を用いて、前記第2建物の複数の階床の少なくともいずれかにおける前記第2建物の利用者の関心度の分布を可視化した関心度マップを生成する可視化処理部と、
     を備える興味関心度計測システム。
  11.  前記可視化処理部は、前記第2建物における前記関心度マップの生成に、前記第1建物で取得された関心情報および前記第2建物で取得された関心情報の両方を用いる
     請求項10に記載の興味関心度計測システム。
  12.  前記可視化処理部は、前記第2建物の利用者ごとに前記関心度マップを生成する
     請求項10または請求項11に記載の興味関心度計測システム。
  13.  前記第2建物に設けられた複数の第2カメラの少なくともいずれかが撮影する画像に基づいて、前記第2建物において利用者を特定する第2利用者特定部と、
     前記第2建物に設けられた1つ以上の昇降設備のいずれかの利用を開始する利用者を前記第2利用者特定部が特定するときに、当該利用者について前記関心情報記憶部が記憶している関心情報および前記第2属性記憶部が記憶している属性の情報に基づいて、前記第2建物において、前記第1建物で取得された関心情報および前記第2建物で取得された関心情報のいずれかまたは両方の情報を利用して、当該利用者について関心度のより高い属性を有するエリアをより優先して当該利用者に行先として提示する行先提示部と、
     を備え、
     前記可視化処理部は、前記行先提示部が実際に提示した行先の情報を含めて前記第2建物における前記関心度マップを生成する
     請求項10から請求項12のいずれか一項に記載の興味関心度計測システム。
  14.  前記第2建物に設けられた複数の第2カメラの少なくともいずれかが撮影する画像に基づいて、前記第2建物において利用者を特定する第2利用者特定部と、
     前記第1利用者特定部が特定した利用者および前記第2利用者特定部が特定した利用者が互いに同一である場合に、特定された利用者を互いに異なる利用者として前記第1利用者特定部および前記第2利用者特定部に特徴量の差を抽出した上で特定させる整合処理部と、
     を備える請求項10から請求項12のいずれか一項に記載の興味関心度計測システム。
  15.  第1建物の複数の階床の各々について、エリアごとの属性を記憶する属性記憶部と、
     前記第1建物に設けられた複数の第1カメラの少なくともいずれかが撮影する画像に基づいて、前記第1建物において利用者を特定する第1利用者特定部と、
     前記第1利用者特定部に特定された利用者が前記第1建物に設けられた1つ以上の昇降設備のいずれかを利用して前記第1建物の複数の階床のうちの出発階から到着階まで移動したときに、前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、
     前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、
     前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、
     前記関心情報取得部が取得した関心情報を利用者ごとに時刻および場所の情報を含めて記憶する関心情報記憶部と、
     第3建物の利用者の画像を、前記第3建物に適用される外部システムから受信する受信部と、
     前記受信部が受信した画像に基づいて利用者を特定する第3利用者特定部と、
     前記第3利用者特定部に特定された利用者について前記関心情報記憶部が関心情報として記憶している情報、および前記受信部が受信した画像に基づいて判定される前記第3建物の複数の階床の少なくともいずれかのエリアごとの属性の情報を用いて、前記第3建物の複数の階床のうち属性の情報を判定した階床における前記第3建物の利用者の関心度の分布を可視化した関心度マップを生成する可視化処理部と、
     を備える興味関心度計測システム。
  16.  第1建物の複数の階床の各々について、エリアごとの属性を記憶する属性記憶部と、
     前記第1建物に設けられた複数の第1カメラの少なくともいずれかが撮影する画像に基づいて、前記第1建物において利用者を特定する第1利用者特定部と、
     前記第1利用者特定部に特定された利用者が前記第1建物に設けられた1つ以上の昇降設備のいずれかを利用して前記第1建物の複数の階床のうちの出発階から到着階まで移動したときに、前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて当該利用者の到着階を判定する階床判定部と、
     前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階における当該利用者の行動を表す行動情報を前記複数の第1カメラの少なくともいずれかが撮影する画像に基づいて取得する行動情報取得部と、
     前記第1利用者特定部に特定された利用者について、前記階床判定部が判定した到着階におけるエリアの配置および属性ならびに前記行動情報取得部が取得した行動情報の関係に基づいて、属性ごとの当該利用者の関心度を表す関心情報を取得する関心情報取得部と、
     前記関心情報取得部が取得した関心情報を利用者ごとに時刻および場所の情報を含めて記憶する関心情報記憶部と、
     第3建物に設けられた1つ以上の昇降設備のいずれかの利用を開始する利用者の画像を、外部システムから受信する受信部と、
     前記受信部が受信した画像に基づいて利用者を特定する第3利用者特定部と、
     前記第3利用者特定部に特定された利用者について、前記関心情報記憶部が当該利用者の関心度の高い行先候補の情報を前記外部システムに送信する送信部と、
     を備える興味関心度計測システム。
  17.  前記関心情報取得部は、前記行動情報取得部が利用者の到着階における行動情報の取得を完了するたびに当該利用者の関心情報を取得する
     請求項1から請求項16のいずれか一項に記載の興味関心度計測システム。
  18.  前記行動情報取得部が取得する行動情報を利用者ごとに記憶する行動情報記憶部
     を備え、
     前記関心情報取得部は、予め設定されたタイミングで前記行動情報記憶部から利用者ごとの行動情報を読み込み、読み込んだ行動情報に基づいて当該利用者の関心情報を取得する
     請求項1から請求項17のいずれか一項に記載の興味関心度計測システム。
  19.  前記行動情報取得部は、利用者の画像から行動情報を導出するモデルを機械学習の手法によって学習し、学習したモデルに基づいて利用者の画像から行動情報を取得する
     請求項1から請求項18のいずれか一項に記載の興味関心度計測システム。
  20.  請求項1から請求項19のいずれか一項に記載の興味関心度計測システムと、
     前記関心情報記憶部に記憶された既存条件に基づいて、シミュレーション条件を設定し、前記関心情報取得部が取得した既存条件から変化させた新規条件より、関心情報の変化をシミュレーションするシミュレーション処理部と、
     を備えるシミュレーションシステム。
  21.  前記新規条件のシミュレーションの結果に基づいて、前記新規条件におけるテナント料を自動で算出する
     請求項20に記載のシミュレーションシステム。
  22.  前記シミュレーション処理部は、前記関心情報記憶部に記憶された既存条件の行動情報および関心情報と、前記新規条件のシミュレーションの模擬的な行動情報および関心情報との差分を演算する
     請求項20または請求項21に記載のシミュレーションシステム。
  23.  請求項1から請求項15のいずれか一項に記載の興味関心度計測システムと、
     前記関心情報記憶部に記憶された既存条件に基づいて、シミュレーション条件を設定し、前記関心情報取得部が取得した既存条件から変化させた新規条件より、関心情報の変化をシミュレーションするシミュレーション処理部と、
     を備え、
     前記シミュレーション処理部は、前記関心情報記憶部に記憶された既存条件の行動情報および関心情報と、前記新規条件のシミュレーションの模擬的な行動情報および関心情報との差分を演算し、
     前記可視化処理部は、前記シミュレーションの差分の結果を、既存条件の関心度マップおよび新規条件の関心度マップの少なくともいずれかと重ねて可視化する
    シミュレーションシステム。
PCT/JP2021/040434 2021-11-02 2021-11-02 興味関心度計測システムおよびシミュレーションシステム WO2023079600A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2021/040434 WO2023079600A1 (ja) 2021-11-02 2021-11-02 興味関心度計測システムおよびシミュレーションシステム
JP2023557868A JPWO2023079600A1 (ja) 2021-11-02 2021-11-02
CN202180103735.5A CN118202375A (zh) 2021-11-02 2021-11-02 兴趣关注度计测系统和模拟系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/040434 WO2023079600A1 (ja) 2021-11-02 2021-11-02 興味関心度計測システムおよびシミュレーションシステム

Publications (1)

Publication Number Publication Date
WO2023079600A1 true WO2023079600A1 (ja) 2023-05-11

Family

ID=86240771

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/040434 WO2023079600A1 (ja) 2021-11-02 2021-11-02 興味関心度計測システムおよびシミュレーションシステム

Country Status (3)

Country Link
JP (1) JPWO2023079600A1 (ja)
CN (1) CN118202375A (ja)
WO (1) WO2023079600A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150187102A1 (en) * 2014-01-02 2015-07-02 Samsung Techwin Co., Ltd. Heatmap providing apparatus and method
JP2017188023A (ja) * 2016-04-08 2017-10-12 パナソニックIpマネジメント株式会社 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法
US20190019207A1 (en) * 2017-07-13 2019-01-17 Samsung Sds Co., Ltd. Apparatus and method for store analysis
JP2020077358A (ja) * 2019-05-28 2020-05-21 株式会社スペース二十四インフォメーション 移動ルート解析システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150187102A1 (en) * 2014-01-02 2015-07-02 Samsung Techwin Co., Ltd. Heatmap providing apparatus and method
JP2017188023A (ja) * 2016-04-08 2017-10-12 パナソニックIpマネジメント株式会社 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法
US20190019207A1 (en) * 2017-07-13 2019-01-17 Samsung Sds Co., Ltd. Apparatus and method for store analysis
JP2020077358A (ja) * 2019-05-28 2020-05-21 株式会社スペース二十四インフォメーション 移動ルート解析システム

Also Published As

Publication number Publication date
JPWO2023079600A1 (ja) 2023-05-11
CN118202375A (zh) 2024-06-14

Similar Documents

Publication Publication Date Title
CN109292579B (zh) 电梯系统、图像识别方法和运行控制方法
EP3041775B1 (en) Elevator dispatch using facial recognition
JP6678529B2 (ja) エレベーターシステム及びかご呼び推定方法
WO2021016964A1 (zh) 一种电梯广告投放的方法、装置及广告投放设备
CN106144797A (zh) 用于乘客运输的通行列表产生
CN106144862A (zh) 用于乘客运输门控制的基于深度传感器的乘客感测
CN106144816A (zh) 基于深度传感器的乘客检测
CN106144861A (zh) 用于乘客运输控制的基于深度传感器的乘客感测
CN106144796A (zh) 用于空乘客运输外壳确定的基于深度传感器的乘客感测
CN106144795A (zh) 通过识别用户操作用于乘客运输控制和安全的系统和方法
CN106144801A (zh) 用于特殊乘客运输负载状况的基于深度传感器的感测
JPH056500A (ja) 移動体・施設制御システム
WO2018051349A1 (en) Facility monitoring by a distributed robotic system
JP2006146378A (ja) 複数カメラを用いた監視システム
JP6675860B2 (ja) データ処理方法およびデータ処理システム
CN111738134A (zh) 获取客流数据的方法、装置、设备及介质
CN109052077A (zh) 基于物联网的机器人呼梯方法及装置
KR102558767B1 (ko) 로봇 친화형 건물
JP2019106631A (ja) 画像監視装置
CN110428632A (zh) 基于bim和ibms的停车管理方法、存储介质及智能终端
EP3876526A1 (en) Information processing system, information processing device, server device, program, and method
JP2017209769A (ja) サービスシステム、及び、ロボット
US20190345001A1 (en) Passenger guiding system for elevator, elevator system and passenger guiding method
WO2023079600A1 (ja) 興味関心度計測システムおよびシミュレーションシステム
WO2022153899A1 (ja) 案内システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21963198

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023557868

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2401002029

Country of ref document: TH