WO2016113968A1 - ナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体 - Google Patents
ナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体 Download PDFInfo
- Publication number
- WO2016113968A1 WO2016113968A1 PCT/JP2015/079486 JP2015079486W WO2016113968A1 WO 2016113968 A1 WO2016113968 A1 WO 2016113968A1 JP 2015079486 W JP2015079486 W JP 2015079486W WO 2016113968 A1 WO2016113968 A1 WO 2016113968A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- terminal device
- client terminal
- emotion
- information
- Prior art date
Links
- 238000003860 storage Methods 0.000 title claims abstract description 23
- 238000000034 method Methods 0.000 title claims abstract description 21
- 230000008451 emotion Effects 0.000 claims description 142
- 230000035945 sensitivity Effects 0.000 claims description 39
- 230000007613 environmental effect Effects 0.000 claims description 34
- 230000003993 interaction Effects 0.000 claims description 21
- 238000009826 distribution Methods 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 17
- 230000008921 facial expression Effects 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 claims description 7
- NTJCFIHGYSETGM-UHFFFAOYSA-N 2,10-diamino-6-[4-(2-amino-2-carboxyethyl)imidazol-1-yl]-5-[[(5-amino-5-carboxy-2-hydroxypentyl)amino]methyl]undecanedioic acid Chemical compound OC(=O)C(N)CCC(O)CNCC(CCC(N)C(O)=O)C(CCCC(N)C(O)=O)N1C=NC(CC(N)C(O)=O)=C1 NTJCFIHGYSETGM-UHFFFAOYSA-N 0.000 description 39
- 208000019901 Anxiety disease Diseases 0.000 description 17
- 230000036506 anxiety Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 238000011156 evaluation Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 238000005259 measurement Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000002265 prevention Effects 0.000 description 4
- 230000036760 body temperature Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B7/00—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
- G08B7/06—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
- G08B7/066—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources guiding along a path, e.g. evacuation path lighting strip
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3629—Guidance using speech or audio output, e.g. text-to-speech
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q90/00—Systems or methods specially adapted for administrative, commercial, financial, managerial or supervisory purposes, not involving significant data processing
- G06Q90/20—Destination assistance within a business structure or complex
- G06Q90/205—Building evacuation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/10—Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B27/00—Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B27/00—Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations
- G08B27/006—Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations with transmission via telephone network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
- G06Q50/265—Personal security, identity or safety
Definitions
- the present disclosure relates to a navigation system, a client terminal device, a control method, and a storage medium.
- Patent Document 1 a victim is asked to select whether he / she is waiting for rescue or evacuates by himself / herself on a TV screen, etc., and the evacuation route to a safe place for the evacuee And a system for supporting activities as a private rescue team by notifying rescuers on the route.
- voice information representing a traffic congestion condition visually recognized by the driver is uploaded to the server, and through a corresponding area server in response to a request from the driver in each area.
- a system in which road traffic information is distributed and guided by voice is disclosed.
- Patent Document 3 in a head mounted display type guidance device that guides a user, a surrounding object is recognized, and when the recognized object exists in the guidance path, the temptation degree of the object to the user is enhanced.
- a system is disclosed that can adjust and reduce the temptation when it is not in the guidance route to move the user along the guidance route.
- evacuation guidance in emergencies such as disasters is desirably information presentation and action incentive in a hands-free situation
- the conventional guidance method using a smartphone or tablet terminal has a problem that the hand is blocked.
- the present disclosure proposes a navigation system, a client terminal device, a control method, and a storage medium that can be guided to a place with a high degree of safety based on emotion information of people associated with the place.
- the acquisition unit that acquires the position information indicating the position of the client terminal device, the information related to the emotion of the user of the client terminal device, the information related to the position information and the emotion of the user And generating a feeling level of the position represented by the position information, generating a feeling map, estimating part based on the feeling map, estimating a place with a high degree of security, and high level of security.
- a navigation system including a guidance generating unit that generates guidance for guiding a user of the client terminal device to a place and a providing unit that provides the guidance to the user of the client terminal device is proposed.
- a position information detection unit that detects a position of the client terminal device and generates position information representing the position
- a detection unit that detects information related to the emotion of the user of the client terminal device
- the position information generated by the external device based on the position information and the information related to the user's emotion is represented by the transmission unit that transmits the information related to the position information and the user's emotion to the external device.
- An acquisition unit that acquires an emotion map that represents the degree of security of the position, and a guidance that guides the user of the client terminal device to a place that is estimated to have a high degree of security based on the emotion map.
- a client terminal device comprising: an output unit that outputs to
- the positional information and the information related to the emotion of the user Generating a feeling map of the position represented by the position information, generating a feeling map, estimating a safe place based on the feeling map, and
- a control method includes generating guidance for guiding a user of a client terminal device and providing the guidance to the user of the client terminal device.
- the computer detects a position of the client terminal device and generates position information indicating the position
- a detection unit detects information related to the emotion of the user of the client terminal device. And a position where the position information and information related to the user's emotion are transmitted to an external device, and the position generated by the external device based on the position information and the information related to the user's emotion
- An acquisition unit that acquires an emotion map representing the degree of security of the position represented by the information, and guidance that guides the user of the client terminal device to a place where the degree of security is estimated to be high based on the emotion map
- a storage medium in which a program for causing an output unit to output to a user of the apparatus and a program to function as the storage medium are stored is proposed.
- the navigation system according to the present embodiment guides a user to a safe and secure place in the event of an emergency such as a disaster, by using a head-mounted wearable device (HHWD: Head-Hack Wearable). Device) 3.
- HHWD Head-Hack Wearable
- Device 3.
- the HHWD 3 is mounted on, for example, a disaster prevention helmet that is assumed to be worn by the user during evacuation, and can intuitively convey the evacuation instruction to the user by a bone conduction speaker or a vibration to the head.
- the navigation system by this embodiment is a safe place calculated based on the environmental heat map which shows the dangerous part according to a disaster category by HHMD3a, and the present emotions of people in each area are displayed.
- the user is guided to a safe place calculated based on the emotion heat map shown.
- the emotions of people in each area are acquired from, for example, biological information acquired by the HHMDs 3b to 3g, facial expressions, and the like.
- the area E1 is a place where the danger level due to the disaster is high and the people's anxiety level is high
- the area E2 is a place where the danger level due to the disaster is low but the people's anxiety level is high. Therefore, the navigation system recognizes that the area E3 is a place with a low risk of disaster and a high degree of people's safety.
- the navigation system according to the present embodiment uses the emotion information of people associated with the place to The user can be preferentially guided to the high area E3.
- FIG. 2 is a diagram showing an overall configuration of the navigation system according to the present embodiment.
- the navigation system according to the present embodiment includes an evacuation guidance server 1, a sensitivity server 2, an HHMD 3, and a heat map server 4. These are connected via the Internet 5, for example.
- the evacuation guidance server 1 communicates with the HHMD 3 via an access point or the like, and performs evacuation guidance to a safe and secure place for the user via the HHMD 3.
- FIG. 2 one HHMD 3 having a common configuration is shown.
- the evacuation guidance server 1 has a large number of HHMDs 3a to 3g (see FIG. 1) mounted on disaster prevention helmets worn by a large number of users at the time of a disaster.
- the evacuation guidance server 1 uses the environmental heat map indicating the dangerous part corresponding to the disaster category acquired from the heat map server 4 and the emotion heat map indicating the emotion information of the people associated with the place, and is safe and secure. Estimate the location and guide the user.
- the environmental heat map may be acquired from the heat map server 4 or may be generated by the evacuation guidance server 1.
- the emotion information of people associated with a place can be acquired from the biometric information and facial expression captured images of each user received from a large number of HHMDs 3a to 3g.
- the evacuation guidance server 1 may acquire the sensibility values of people at the evacuation site from the sensibility server 2 as emotion information factors.
- the sensitivity server 2 stores a “sensitivity value” that is a specific index indicating what kind of person the person is.
- “Sensitivity value” is a value obtained by quantifying feelings about a thing or a person calculated based on an evaluation value of an interaction (that is, an action) that occurs between a plurality of objects including the person or the thing. A person with a rough treatment is calculated with a low sensibility value and is judged to be a rough person. When the sensitivity value is high, the person is determined to be a reliable person. Therefore, when estimating a safe place, the evacuation guidance server 1 can acquire the sensitivity value of people in the area from the sensitivity server 2 and can use it when estimating a highly secure place.
- FIG. 3 is a block diagram illustrating an example of the configuration of the evacuation guidance server 1 according to the present embodiment.
- the evacuation guidance server 1 includes a control unit 10, a communication unit 11, and a storage unit 12.
- the control unit 10 controls each component of the evacuation guidance server 1.
- the control unit 10 is realized by a microcomputer including a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), and a nonvolatile memory. Further, as shown in FIG. 3, the control unit 10 according to the present embodiment includes an HHMD position acquisition unit 10a, a user emotion acquisition unit 10b, an emotion heat map generation unit 10c, an environmental heat map generation unit 10d, and a safe / reliable place estimation unit. 10e, the evacuation information generation unit 10f, and the evacuation guidance unit 10g.
- the HHMD position acquisition unit 10a acquires current position information of a large number of HHMD3.
- the current position information of the HHMD 3 is transmitted from, for example, the HHMD 3 and received by the communication unit 11.
- the HHMD position acquisition unit 10a outputs the acquired current position information of the HHMD3 to the emotion heat map generation unit 10c.
- the user emotion acquisition unit 10b acquires information related to the emotion of the user wearing the HHMD3.
- user emotion information for example, SNS (Social Networking Service) information and sensitivity values are assumed in addition to biosensor information, facial expression information, and activity amount transmitted from the HHMD3.
- the biosensor information is an electroencephalogram, a heart rate, a body temperature, a blood sugar level, and the like acquired by the biosensor 33 (see FIG. 10) provided in the HHMD3.
- the facial expression information includes facial expressions such as a smile degree, anxiety face degree, and angry face degree recognized from a user's face image, facial expression myoelectric potential, and the like captured by a camera which is an example of the environment information sensor 34 provided in the HHMD 3.
- the amount of activity is the amount of user movement detected by an acceleration, a geomagnetic sensor, a gyro sensor, or the like, which is an example of the environment information sensor 34 provided in the HHMD 3, or the amount of user speech collected by the microphone 37.
- the SNS information is information that can be acquired from information on a network such as SNS. For example, a new density of a user who performs evacuation guidance and people existing in the evacuation candidate area is assumed. The new density can be calculated based on, for example, whether or not the SNS has friendships, the number of times the user has expressed interest on the SNS, or the ratio of favorable comments based on the language analysis result of the content of the messages exchanged with each other.
- the SNS information includes the result of text message content analysis by writing a message tool, e-mail, etc., and these include real-time information.
- Message tools are used by users who encounter disasters to comment on their situation, anxiety, and tension, and to contact their family and friends about being safe in a safe place.
- Real-time user emotions can be acquired.
- the sensitivity value is acquired from the sensitivity server 2.
- the user emotion acquisition unit 10b may calculate the total amount of sensitivity values of people existing in the evacuation candidate area. Accordingly, it is effective to select an evacuation candidate area by preliminarily grasping who is evacuating instead of using only temporary emotion (degree of security) as a judgment material.
- the emotion heat map generation unit 10c generates a map in which user emotions are mapped in association with user positions.
- FIG. 5 shows an example of the emotion heat map 42.
- the emotion heat map generation unit 10 c generates an emotion heat map 42 indicating the distribution of relief and anxiety by mapping the user emotions linked to the place with the axis of relief and anxiety. Can do.
- the user emotion can be determined from various factors as described above.
- the emotion heat map generation unit 10c may calculate the degree of relief of the entire evacuation candidate area using a plurality of types of user emotion information factors acquired by the user emotion acquisition unit 10b. It is also assumed that the user emotion in the evacuation candidate area changes with time.
- FIG. 6 is a diagram for explaining the calculation of the safety level of the evacuation candidate area.
- a sensor value graph 51 shown on the left side of FIG. 6 is a graph 51 showing an example of a change over time of each piece of information that becomes a user emotion information factor of people existing in the evacuation candidate area.
- the biosensor information, facial expression information, and activity amount are acquired in real time, and temporal changes are assumed.
- the SNS information and the sensitivity value are user emotion information factors that can be calculated and acquired later based on the accumulated information, and it is difficult to assume a large change over time, but the safety level of the evacuation candidate area is calculated. It is referred to as a factor when doing so. As a result, the temporal change of emotion due to the entry and exit of people in the evacuation candidate area can be grasped.
- the emotion heat map generation unit 10 c calculates a relief level graph 52 as shown on the right side of FIG. 6 based on the graph 51. Moreover, the emotion heat map generation unit 10c has a method for calculating and calculating an evaluation function / model function in advance or using a user emotion information factor that changes with time as a specific method of calculating the degree of relief / anxiety. Conceivable. Another possible method is to generate a rule table such as a score table that serves as a guideline for the “degree of relief / anxiety” in advance and calculate the degree of relief / anxiety of the evacuation candidate area using this rule table.
- the biological information such as “heart rate” and “body temperature” is at an appropriate value
- the total amount of positive emotions such as smiles
- the amount of rapid change in each sensor measurement value or the amount of time exceeding the abnormal value
- a score table is used.
- the emotion heat map generation unit 10c is not limited to the emotion heat map indicating the temporary relief / anxiety distribution at a certain time, and is calculated by predicting an evacuation candidate area where the relief can be maintained for a long time.
- An emotion heat map may be generated. For example, as shown in FIG.
- the level of security lasts from the occurrence of a disaster to the start of organized rescue.
- the area to be performed may be determined as an area having a high degree of security as a whole, and an emotion heat map indicating the distribution of the degree of security may be generated. It can be inferred that groups with high sensibility values and SNS information (new density) also have high group moral behavior, and these are less attenuated over time, so they are weighted as factors that can last longer. Therefore, it is used for calculation of evacuation candidate areas where the degree of security lasts long.
- the emotion heat map generation unit 10c simulates the change in the degree of relief / anxiety when the user to be guided actually joins the evacuation candidate area, and generates a map indicating the distribution of the degree of relief. Good.
- the environmental heat map generation unit 10d generates a heat map indicating the safety degree distribution according to the disaster category.
- the environmental heat map generation unit 10d may be acquired from the heat map server 4.
- the heat map corresponding to the disaster category indicates the risk corresponding to the disaster category, such as the risk related to flooding or landslide in the case of a rain disaster. This is because dangerous places and the way of evacuation change depending on the anticipated disasters (tsunami, earthquake directly under the capital, torrential rain, snow damage, etc.).
- the environmental heat map generated by the environmental heat map generation unit 10 d may be stored in the storage unit 12 of the evacuation guidance server 1 or may be stored in the heat map server 4.
- the environmental heat map generation unit 10d may periodically update to the latest environmental heat map.
- FIG. 4 shows a diagram specifically explaining the generation of the environmental heat map.
- a simulation is performed based on topographical data and building data, and the environmental heat map 41 is determined by judging the degree of danger / safety according to altitude, for example. Generated.
- the generation of the environmental heat map 41 may be performed using open data from the Ministry of Land, Infrastructure, Transport and Tourism or local government.
- the environmental heat map 41 manually generated from the experience of the skilled person may be stored in the heat map server 4.
- the safe and secure place estimation unit 10e estimates a safe and secure place based on the environmental heat map 41 and the emotion heat map 42. Specifically, the safe / safe place estimation unit 10e estimates a safe and secure place using, for example, an integrated heat map in which the environmental heat map 41 and the emotion heat map 42 are integrated.
- FIG. 8 shows an example of the integrated heat map 43 according to the present embodiment. Note that when integrating the environmental heat map 41 and the emotion heat map 42, an integrated heat map with an emphasis on the environmental heat map 41 or the emotion heat map 42 can be generated by weighting one of the heat maps.
- the integrated heat map 43 shown in FIG. 8 is information for comprehensively determining “an optimum evacuation place for the user”.
- the safe / safe place estimation unit 10e estimates an evacuation place having a high safety level and a high level of security, and outputs an estimation result to the evacuation information generation unit 10f.
- the integrated heat map 43 is updated in accordance with the update of the environmental heat map 41 or the emotion heat map 42. In particular, it is desirable that the emotion heat map 42 be continuously updated because the user emotions are undulating during a disaster.
- the evacuation information generation unit 10f functions as a guidance generation unit that generates guidance for guiding a user wearing the HHMD 3 to a safe and secure place estimated by the safe / safe place estimation unit 10e. Specifically, the evacuation information generation unit 10f selects a route from the current location of the user to the evacuation site, and generates information for intuitive guidance to the user. In addition, if the current position of the user is within the normal user's range of action, the user can understand the surrounding road and the location of the building as a landmark, but in the case of an unfamiliar land such as a business trip or sightseeing, it is intuitive. Evacuation route guidance is effective.
- the evacuation guidance unit 10g functions as a providing unit that provides the user with the guidance generated by the evacuation information generation unit 10f from the HHMD3.
- the HHMD3 is a head-mounted wearable device mounted on a disaster prevention helmet, for example, and outputs sound (such as “walk straight” or “turn right”) or vibration output (user).
- the evacuation route can be intuitively shown to the user by, for example, vibrating the portion in the traveling direction as viewed from above.
- the user since the user does not need to watch the image at the time of evacuation, the user can evacuate safely according to voice or the like while maintaining the attention to the surroundings without being cut off from the external environment.
- the communication unit 11 transmits / receives data to / from an external device.
- the communication unit 11 is connected to the HHMD 3 to receive biometric sensor information, facial expression information, and current position information, or is connected to the sensitivity server 2 to receive a user's sensitivity value.
- the communication part 11 transmits the evacuation guidance to a user to HHMD3 according to control of the evacuation guidance part 10g.
- the storage unit 12 stores a program for executing the above-described processes by the control unit 10.
- the storage unit 12 may store an environmental heat map 41, an emotion heat map 42, an integrated heat map 43, current position information of the HHMD 3, and the like.
- FIG. 9 is a block diagram showing an example of the configuration of the sensitivity server 2 according to the present embodiment.
- the sensitivity server 2 includes a control unit 20, a communication unit 21, an object DB 22, and a sensitivity information DB 24.
- the communication unit 21 is connected to the evacuation guidance server 1 via the network, and returns a sensitivity value associated with the object ID of the target user designated from the evacuation guidance server 1. Further, the communication unit 21 receives interaction information from a sensing device (not shown) mounted / mounted on each object (person, object).
- the control unit 20 controls each component of the sensitivity server 2.
- the control unit 20 is realized by a microcomputer that includes a CPU, a ROM, a RAM, and a nonvolatile memory. Furthermore, the control unit 20 according to the present embodiment functions as an interaction storage control unit 20a, an evaluation unit 20b, an object management unit 20c, a related object search unit 20d, and a sensitivity value calculation unit 20e.
- the interaction storage control unit 20a controls to store the interaction information received from the sensing device mounted / mounted on the object in the sensitivity information DB 24.
- the sensing device is realized by a humidity sensor, a temperature sensor, a vibration sensor, an infrared sensor, a camera, a tactile sensor, a gyro sensor, or the like, and detects an interaction from another object with respect to the object.
- An interaction is an action, for example, a conversation between people, a telephone call, an e-mail, a gift present, etc., and between a person and an object, care, storage, cleaning, appreciation, wearing, etc. Is mentioned.
- the evaluation unit 20b evaluates the interaction stored in the sensitivity information DB 24.
- the interaction evaluation method is not particularly limited. For example, the evaluation unit 20b evaluates higher as the interaction is preferable for the object that has undergone the interaction, and specifically assigns a score of -1.0 to 1.0.
- the evaluation result is stored in the sensitivity information DB 24 in association with the interaction.
- the object management unit 20c performs management such as registration, change, and deletion of information related to objects stored in the object DB 22.
- the related object search unit 20d searches the object DB 22 and the sensitivity information DB 24 as related objects for other objects that have interacted with the requested object ID.
- the sensitivity value calculation unit 20e calculates the sensitivity value of the target user (feelings for other objects) based on the interaction evaluation associated with the object ID of the target user. For example, the sensitivity value calculation unit 20e may calculate the total sensitivity value of the target user based on the sum of the interaction evaluation values, or may calculate the total sensitivity value of the target user based on the average value of the interaction evaluation values.
- the object DB 22 is a storage unit that stores the object ID of each object. In addition to the object ID, the object DB 22 stores various information related to the object such as name, age, gender, product name, product type, manufacturer ID, model number, and manufacturing date and time.
- the sensibility information DB 24 is a storage unit that stores interaction between objects and evaluation of the interaction.
- FIG. 10 is a block diagram illustrating an example of the configuration of the HHMD 3 according to the present embodiment.
- the HHMD 3 includes a control unit 30, a communication unit 31, a current position measurement unit 32, a biological sensor 33, an environment information sensor 34, a speaker 35, a vibration unit 36, a microphone 37, and a storage unit 38.
- the control unit 30 is constituted by, for example, a microcomputer including a CPU, a ROM, a RAM, a non-volatile memory, and an interface unit, and controls each configuration of the HHMD 3.
- the control unit 20 controls to output the evacuation guidance voice from the speaker 35 based on the evacuation guidance instruction signal received from the evacuation guidance server 1 or performs the vibration output for the evacuation guidance from the vibration unit 36. And so on.
- the communication unit 31 has a function of connecting to an external device by wireless / wired and transmitting / receiving data.
- the communication unit 31 according to the present embodiment is connected to, for example, the evacuation guidance server 1 and continuously receives the user's biosensor information detected by the biosensor 33 and the current position information of the HHMD 3 measured by the current position measurement unit 32. Send.
- the communication unit 31 receives an evacuation guidance instruction signal from the evacuation guidance server 1.
- the current position measurement unit 32 has a function of detecting the current position of the HHMD 3 based on an externally acquired signal.
- the current position measurement unit 32 is realized by a GPS (Global Positioning System) positioning unit, receives a radio wave from a GPS satellite, detects a position where the HHMD3 exists, and detects the detected position information. Is output to the control unit 30.
- the current position measurement unit 32 detects the position by, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), transmission / reception with a mobile phone / PHS / smartphone, or short distance communication. It may be.
- the biometric sensor 33 has a function of detecting biometric information of the user wearing the HHMD3. Since the HHMD 3 according to the present embodiment is mounted on the user's head as described above, a body temperature sensor, a sweating amount sensor, a heart rate sensor, An electroencephalogram detection sensor or the like is provided.
- the biological sensor 33 may be provided with a plurality of the plurality of types of sensors described above.
- the environment information sensor 34 has a function of detecting information related to the surrounding environment including the user.
- the environmental information sensor 34 is realized by, for example, a humidity sensor, a temperature sensor, and an air quality sensor.
- the environment information sensor 34 may be realized by a three-axis acceleration sensor, a gyro sensor, a geomagnetic sensor, or the like that detects the movement of the user wearing the HHMD 3. Further, the environment information sensor 34 may be realized by an infrared camera for acquiring object information existing around the user or a camera for acquiring user facial expression information.
- the environmental information sensor 34 may be provided with a plurality of the plurality of types of sensors described above.
- the speaker 35 has an audio output function, and is specifically realized by, for example, a bone conduction speaker.
- a plurality of speakers 35 may be provided in the HHMD 3.
- the vibration part 36 has a vibration function, and a plurality of vibration parts 36 are provided, for example, in the HHMD 3. Thereby, according to control of the control part 30, the vibration part 36 corresponding to an evacuation route direction vibrates, and an intuitive evacuation guidance can be performed to a user. Further, the vibration unit 36 may vibrate as a warning when the user is heading to the danger zone.
- the microphone 37 has a sound collecting function, and is specifically realized by, for example, a bone conduction microphone.
- a plurality of microphones 37 may be provided in the HHMD 3.
- the storage unit 38 stores, for example, a program for performing the above processes by the control unit 30.
- the storage unit 38 may store an evacuation guidance instruction signal received from the evacuation guidance server 1, may store the position information of the HHMD 3 detected by the current position measurement unit 32, and may be various sensors (biological information) Information detected by the sensor 33 and the environmental information sensor 34) may be stored.
- the specific configuration of the HHMD3 according to the present embodiment has been described above.
- the configuration of the HHMD 3 shown in FIG. 10 is an example, and the present embodiment is not limited to this.
- the HHMD 3 may intuitively provide evacuation guidance to the user by an output unit other than a speaker or a vibration unit.
- FIG. 11 is a flowchart showing navigation evacuation guidance processing according to this embodiment.
- step S103 the evacuation guidance server 1 determines whether or not a disaster has occurred.
- the occurrence of a disaster is used as a trigger for the navigation process.
- the disaster occurrence notification can be notified from a predetermined disaster notification server, for example.
- step S106 the HHMD position acquisition unit 10a of the evacuation guidance server 1 acquires the current position information of the user (that is, the current position information of the HHMD3).
- step S109 the control unit 10 of the evacuation guidance server 1 determines whether evacuation guidance support is required for the user according to the current position of the user. For example, when the user's current position is far away from the disaster location, evacuation guidance support is not particularly necessary.
- step S112 the environmental heat map generation unit 10d displays an environmental heat map indicating a safety / risk distribution according to the disaster category that has occurred. 41 is generated (or an already generated environmental heat map is acquired).
- step S115 the HHMD position acquisition unit 10a acquires the current position of the HHMD3, and the user emotion acquisition unit 10b acquires the emotion of the user who owns the HHMD3.
- step S118 the emotion heat map generation unit 10c generates an emotion heat map 42 indicating the distribution of the degree of relief / anxiety of people associated with the location based on the acquired current position of the HHMD3 and user emotion information. To do.
- step S121 the safe / reliable place estimation unit 10e generates an integrated heat map 43 based on the environmental heat map 41 and the emotion heat map 42.
- step S124 the safe / reliable place estimation unit 10e estimates, based on the integrated heat map 43, a place where the safety level and the safety level exceed a predetermined value as a safe and secure evacuation place.
- step S127 the evacuation information generation unit 10f generates guidance for guiding the user to the evacuation site, and the evacuation guidance unit 10g starts evacuation guidance of the user to the evacuation site. Specifically, the evacuation guidance unit 10g transmits an evacuation guidance signal to the HHMD3 and performs evacuation guidance to the user by the HHMD3.
- step S130 the control unit 10 of the evacuation guidance server 1 determines whether or not the user has arrived at the evacuation site according to the evacuation guidance based on the user position information continuously acquired by the HHMD position acquisition unit 10a. to decide.
- step S133 the evacuation guidance server 1 determines the current position of many HHMD3, emotion information of the possessing user, and environmental information around HHMD3. In real time from HHMD3.
- step S136 the evacuation guidance server 1 updates the emotion heat map based on the newly acquired user emotion, and the environmental heat map is updated based on the environment information. Along with this, the integrated heat map is also updated.
- step S124 the process returns to step S124, and evacuation guidance is performed based on the latest integrated heat map.
- FIG. 12 is a diagram for explaining an application example of the navigation system according to the present embodiment. For example, it is assumed that there are many visitors from overseas for an event held over a certain period, such as the Olympics and international forums. By allowing such overseas visitors to wear the HHMD3 according to the present embodiment at an airport or accommodation facility, sightseeing navigation is normally performed, and when a disaster occurs, it operates as disaster navigation. Can evacuate safely even on land unaccustomed to tourists.
- the HHMD3 is not limited to the one mounted on the disaster prevention helmet as described above, and may be mounted on a hat or a wig. As shown in the left side of FIG. It is possible to enjoy navigation services such as Olympic sightseeing by wearing 3j on a daily basis. For example, in the situation of watching a sport in a stadium, the voice guide information in the native language is reproduced from the speakers of HHMD3h, 3i, and 3j.
- the HHMDs 3h, 3i, and 3j can be switched to disaster navigation and evacuation guidance can be performed in their native language.
- the evacuation guidance process performed here is as shown in FIG.
- the navigation system when a large-scale disaster occurs while watching a stadium, the navigation system according to the present embodiment first guides to the emergency exit of the stadium based on the current position of the user wearing the HHMD3, and then registers as an evacuation destination candidate Start evacuation guidance to hotels, embassies and nearby shelters (schools, etc.). At this time, the navigation system refers to the safety levels of the evacuation destination candidates 1 and 2 based on the emotion heat map 42. When the evacuation destination candidate 2 has a higher degree of security than the evacuation destination candidate 1, the user is guided to the evacuation destination candidate 2.
- the HHMD 3 may be mounted on a hat or wig and used as a sightseeing navigation during normal times.
- the navigation system according to the present embodiment can guide the user to a more secure place based only on the emotion heat map 42.
- Second application example> As an application example in which the user is guided to a more secure place based only on the emotion heat map 42, for example, navigation that leads to a vacant place from a crowded place in an event venue or a sightseeing spot can be considered. . That is, in a tourist spot, a crowded place is a place with a high degree of anxiety, and a vacant place is a place with a high degree of security. Also in this case, the HHMD 3 is mounted on a hat or wig, so that it is normally used as sightseeing navigation, and the user can be guided to a place with a high degree of security as necessary.
- a computer for causing hardware such as the CPU, ROM, and RAM incorporated in the evacuation guidance server 1, the sensibility server 2, or the HHMD3 to exhibit the functions of the evacuation guidance server 1, the sensibility server 2, or the HHMD3 Programs can also be created.
- a computer-readable storage medium storing the computer program is also provided.
- facial expression information of the user of the HHMD3 is recognized based on a captured image captured by a camera provided in the HHMD3, the present embodiment is not limited thereto, and is captured by a surrounding installation camera. It may be recognized based on the captured image.
- At least one of the functions of the control unit 10 of the evacuation guidance server 1 illustrated in FIG. 3 may be provided in the HHMD 3.
- the evacuation guidance server 1 may perform the evacuation guidance after notifying the user of the change in the degree of security as shown in FIGS. 6 and 7 or the integrated heat map as shown in FIG. Good.
- this technique can also take the following structures.
- An acquisition unit that acquires position information indicating the position of the client terminal device and information related to the emotion of the user of the client terminal device; Based on the position information and information related to the emotion of the user, a generation unit that generates an emotion map by generating a degree of security of the position represented by the position information; Based on the emotion map, an estimation unit for estimating a place with a high degree of security; A guidance generator for generating guidance for guiding a user of the client terminal device to a place with a high degree of security; A providing unit for providing the guidance to a user of the client terminal device; A navigation system comprising: (2) The said acquisition part is a navigation system as described in said (1) which acquires the said user's biometric information detected by the said client terminal device as information relevant to the said user's emotion.
- the acquisition unit acquires the facial expression of the user of the client terminal device as information related to the emotion of the user.
- the acquisition unit corresponds to the user registered as an object from the sensitivity value database constructed by accumulating the sensitivity value of each object generated based on information related to the interaction between objects.
- the navigation system includes: It further includes an environment map generation unit that generates an environment map indicating the safety degree distribution, The navigation system according to any one of (1) to (5), wherein the estimation unit estimates a place having a high degree of security and safety according to the emotion map and the environment map. (7) The environment map generation unit generates an environment map having a different safety distribution according to the type of disaster, The navigation system according to (6), wherein the estimation unit estimates a place having a high degree of security and safety according to the emotion map and the environment map. (8) The navigation system according to any one of (1) to (7), wherein the providing unit causes the client terminal device to provide guidance to the user by voice output.
- a position information detector that detects the position of the client terminal device and generates position information representing the position; A detection unit for detecting information related to the emotion of the user of the client terminal device; A transmission unit for transmitting the position information and information related to the user's emotion to an external device; An acquisition unit that acquires an emotion map representing the degree of safety of the position represented by the position information generated based on the position information and information related to the emotion of the user by the external device; An output unit that outputs guidance for guiding the user of the client terminal device to the user of the client terminal device in a place where the degree of security is estimated to be high based on the emotion map; A client terminal device.
- the said detection part is a client terminal device as described in said (9) which detects the biometric information of the user of the said client terminal device as information relevant to the said user's emotion.
- the said detection part is a client terminal device as described in said (9) or (10) which detects the posting content to the social media which the user of the said client terminal device posted as information relevant to the said user's emotion.
- the client terminal device according to any one of (9) to (11), wherein the detection unit detects a facial expression of the user of the client terminal device as information related to the emotion of the user.
- the detection unit according to any one of (9) to (12), wherein the detection unit detects information related to an interaction between a user of the client terminal device and an object as information related to the emotion of the user.
- the acquisition unit acquires an environment map indicating a safety degree distribution, The output unit outputs guidance for guiding the user of the client terminal device to the user of the client terminal device to a place where the degree of security and safety are estimated to be high based on the emotion map and the environment map.
- the client terminal device according to any one of (9) to (13).
- the acquisition unit acquires an environmental map whose safety distribution changes according to the type of disaster, The output unit outputs guidance for guiding the user of the client terminal device to the user of the client terminal device to a place where the degree of security and safety are estimated to be high based on the emotion map and the environment map.
- the client terminal device according to any one of (9) to (14).
- the client terminal device according to any one of (9) to (15), wherein the output unit provides guidance for guiding a user by voice output or vibration.
- (17) Obtaining position information representing the position of the client terminal device and information related to the emotion of the user of the client terminal device; Generating an emotion map based on the position information and information related to the emotion of the user by generating a degree of security of the position represented by the position information; Estimating a safe place based on the emotion map; Generating guidance for guiding a user of the client terminal device to a place with a high degree of security; Providing the guidance to a user of the client terminal device; Including a control method.
- a position information detector that detects the position of the client terminal device and generates position information representing the position;
- a detection unit for detecting information related to the emotion of the user of the client terminal device;
- a transmission unit for transmitting the position information and information related to the user's emotion to an external device;
- An acquisition unit that acquires an emotion map representing the degree of safety of the position represented by the position information generated based on the position information and information related to the emotion of the user by the external device;
- An output unit that outputs guidance for guiding the user of the client terminal device to the user of the client terminal device in a place where the degree of security is estimated to be high based on the emotion map;
- a storage medium storing a program for functioning as a computer.
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Tourism & Hospitality (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Emergency Management (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Entrepreneurship & Innovation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Environmental & Geological Engineering (AREA)
- Architecture (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geology (AREA)
- Navigation (AREA)
- Alarm Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Instructional Devices (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】場所に紐づく人々の感情情報に基づいて安心度の高い場所に誘導することが可能なナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体を提供する。 【解決手段】クライアント端末装置の位置を表す位置情報と、当該クライアント端末装置のユーザの感情に関連する情報とを取得する取得部と、前記位置情報と前記ユーザの感情に関連する情報に基づき、当該位置情報が表す位置の安心度を生成することにより、感情マップを生成する生成部と、前記感情マップに基づいて、安心度の高い場所を推定する推定部と、前記安心度の高い場所に前記クライアント端末装置のユーザを案内するためのガイダンスを生成するガイダンス生成部と、前記ガイダンスを前記クライアント端末装置のユーザに提供する提供部と、を備える、ナビゲーションシステム。
Description
本開示は、ナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体に関する。
近年、通信技術の発達により、災害時等の緊急時において、災害警報や災害情報の発信、また、ユーザへの避難誘導の提示等が行われている。
ユーザへの避難誘導の提示に関しては、例えば下記特許文献1~3のような技術が提案されている。具体的には、下記特許文献1では、被災者に、救助を待っているのか、自力で避難するかをテレビ画面等で選択してもらい、避難する人に安全性の高い場所までの避難ルートを提示すると共にルート上の救助者を通知することで、民間救助隊としての活動を支援するシステムが開示されている。
また、下記特許文献2では、ドライバーが視認した渋滞状況を表した音声情報(道路交通情報)がサーバにアップロードされ、それぞれのエリアにいるドライバーからの要求に応じて、対応するエリアサーバを介して、道路交通情報が配信され、音声で案内されるシステムが開示されている。
また、下記特許文献3では、ユーザを誘導するヘッドマウントディスプレイ型誘導装置において、周辺の物体を認識し、認識した物体が誘導経路内に存在する場合は当該物体のユーザに対する誘惑度が増強するよう調整し、誘導経路内に存在しない場合は誘惑度を軽減させるよう調整することで、ユーザを誘導経路に従って移動させることが可能なシステムが開示されている。
しかしながら、災害時などの緊急時における避難誘導は、ハンズフリーの状況での情報提示および行動誘因が望ましく、従来のスマートフォンやタブレット端末等による誘導方法では、手がふさがってしまうという問題があった。また、一刻を争うような緊急事態において、地図アプリなどを用いた情報提示では、どちらに逃げてよいか直感的な把握が難しく、また、画面を注視することで外部環境と遮断され、周囲に対する注意力が散漫となって危険を伴うという問題もあった。
また、従来の避難誘導では、災害危険個所マップ等に基づいて予め自治体により避難場所として登録されている個所のうち最も近い避難場所に誘導されることが想定されるが、既に避難場所に実際に避難している人々が現在どのような気持ちや状態で居るかは不明である。したがって、誘導された避難場所が災害という観点からは安全な場所ではあっても、避難している人々が何らかの要因により不安を感じるような場所であったり、避難者同士の喧嘩やトラブルが多発する場所であったりする場合が想定され、そのような避難場所は長時間滞在することを考慮すると避難誘導先として好ましくない。
そこで、本開示では、場所に紐づく人々の感情情報に基づいて安心度の高い場所に誘導することが可能なナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体を提案する。
本開示によれば、クライアント端末装置の位置を表す位置情報と、当該クライアント端末装置のユーザの感情に関連する情報とを取得する取得部と、前記位置情報と前記ユーザの感情に関連する情報に基づき、当該位置情報が表す位置の安心度を生成することにより、感情マップを生成する生成部と、前記感情マップに基づいて、安心度の高い場所を推定する推定部と、前記安心度の高い場所に前記クライアント端末装置のユーザを案内するためのガイダンスを生成するガイダンス生成部と、前記ガイダンスを前記クライアント端末装置のユーザに提供する提供部と、を備えるナビゲーションシステムを提案する。
本開示によれば、クライアント端末装置の位置を検出し、当該位置を表す位置情報を生成する位置情報検出部と、前記クライアント端末装置のユーザの感情に関連する情報を検出する検出部と、前記位置情報と前記ユーザの感情に関連する情報を外部装置に送信する送信部と、前記外部装置により、前記位置情報と前記ユーザの感情に関連する情報とに基づいて生成された当該位置情報が表す位置の安心度を表す感情マップを取得する取得部と、前記感情マップに基づいて安心度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する出力部と、を備える、クライアント端末装置を提案する。
本開示によれば、クライアント端末装置の位置を表す位置情報と、当該クライアント端末装置のユーザの感情に関連する情報とを取得することと、前記位置情報と前記ユーザの感情に関連する情報に基づき、当該位置情報が表す位置の安心度を生成することにより、感情マップを生成することと、前記感情マップに基づいて、安心度の高い場所を推定することと、前記安心度の高い場所に前記クライアント端末装置のユーザを案内するためのガイダンスを生成することと、前記ガイダンスを前記クライアント端末装置のユーザに提供することと、を含む、制御方法を提案する。
本開示によれば、コンピュータを、クライアント端末装置の位置を検出し、当該位置を表す位置情報を生成する位置情報検出部と、前記クライアント端末装置のユーザの感情に関連する情報を検出する検出部と、前記位置情報と前記ユーザの感情に関連する情報を外部装置に送信する送信部と、前記外部装置により、前記位置情報と前記ユーザの感情に関連する情報とに基づいて生成された当該位置情報が表す位置の安心度を表す感情マップを取得する取得部と、前記感情マップに基づいて安心度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する出力部と、として機能させるためのプログラムが記憶された、記憶媒体を提案する。
以上説明したように本開示によれば、場所に紐づく人々の感情情報に基づいて安心度の高い場所に誘導することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態によるナビゲーションシステムの概要
2.基本構成
2-1.避難誘導サーバ
2-2.感性サーバ
2-3.クライアント端末
3.動作処理
4.応用例
5.まとめ
1.本開示の一実施形態によるナビゲーションシステムの概要
2.基本構成
2-1.避難誘導サーバ
2-2.感性サーバ
2-3.クライアント端末
3.動作処理
4.応用例
5.まとめ
<<1.本開示の一実施形態によるナビゲーションシステムの概要>>
まず、本開示の一実施形態によるナビゲーションシステムの概要について図1を参照して説明する。図1に示すように、本実施形態によるナビゲーションシステムは、災害発生時等の緊急時において、ユーザを安全かつ安心な場所への誘導を、頭部装着型のウェアラブルデバイス(HHWD:Head-Hack Wearable Device)3により行う。HHWD3は、例えば避難時にユーザが装着することが想定される防災用ヘルメットに実装され、骨伝導スピーカや、頭部へのバイブレーションにより、避難指示を直感的にユーザに伝えることができる。
まず、本開示の一実施形態によるナビゲーションシステムの概要について図1を参照して説明する。図1に示すように、本実施形態によるナビゲーションシステムは、災害発生時等の緊急時において、ユーザを安全かつ安心な場所への誘導を、頭部装着型のウェアラブルデバイス(HHWD:Head-Hack Wearable Device)3により行う。HHWD3は、例えば避難時にユーザが装着することが想定される防災用ヘルメットに実装され、骨伝導スピーカや、頭部へのバイブレーションにより、避難指示を直感的にユーザに伝えることができる。
そして、本実施形態によるナビゲーションシステムは、HHMD3aにより、災害カテゴリに応じた危険個所を示す環境ヒートマップに基づいて算定される安全な場所であって、かつ、各エリアに居る人々の現在の感情を示す感情ヒートマップに基づいて算定される安心な場所にユーザを誘導する。各エリアに居る人々の感情は、例えばHHMD3b~3gにより取得される生体情報や顔の表情等から取得される。
例えば、図1に示す例では、エリアE1は災害による危険度が高く、かつ人々の不安度も高い場所であって、エリアE2は災害による危険度が低いが、人々の不安度は高い場所であって、エリアE3は災害による危険度が低く、人々の安心度が高い場所であることがナビゲーションシステムにより把握される。従来のナビゲーションシステムでは、災害による危険度が低いエリアE2またはE3に誘導されることが想定されるが、本実施形態によるナビゲーションシステムでは、場所に紐づいた人々の感情情報を用いて、安心度の高いエリアE3にユーザを優先的に誘導することができる。
以上、本開示の一実施形態によるナビゲーションシステムの概要について説明した。続いて、本実施形態のナビゲーションシステムの全体構成について説明する。図2は、本実施形態によるナビゲーションシステムの全体構成を示す図である。図2に示すように、本実施形態によるナビゲーションシステムは、避難誘導サーバ1、感性サーバ2、HHMD3、およびヒートマップサーバ4を含む。これらは、例えばインターネット5を介して接続される。
避難誘導サーバ1は、アクセスポイント等を介してHHMD3と通信し、安全かつ安心な場所への避難誘導を、HHMD3を介してユーザに対して行う。図2では、共通の構成を有するHHMD3が一つ図示されているが、避難誘導サーバ1は、多数のユーザが災害時に装着する防災用ヘルメットに搭載された多数のHHMD3a~3g(図1参照)と接続し、感情情報因子となる生体情報や表情撮像画像、および現在位置情報を取得する。
また、避難誘導サーバ1は、ヒートマップサーバ4から取得した災害カテゴリに応じた危険個所を示す環境ヒートマップ、および場所に紐づく人々の感情情報を示す感情ヒートマップを用いて、安全かつ安心な場所を推定し、ユーザを誘導する。環境ヒートマップは、ヒートマップサーバ4から取得してもよいし、避難誘導サーバ1により生成してもよい。また、場所に紐づく人々の感情情報は、多数のHHMD3a~3gから受信した各ユーザの生体情報や表情撮像画像から取得可能である。さらに、本実施形態による避難誘導サーバ1は、感情情報因子として、感性サーバ2から、避難場所に居る人々の感性値を取得してもよい。感性サーバ2は、その人物がどのような人であるかを示す特定の指標である「感性値」を蓄積する。「感性値」は、人物や物を含む複数のオブジェクト間で生じたインタラクション(すなわち行為)の評価値に基づいて算出される、物や人に対する気持ちが数値化されたものであって、例えば物の扱いが乱暴な人は感性値が低く算出され、粗暴な人と判断される。また、感性値が高い場合、その人物は信頼できる人物と判断される。したがって、避難誘導サーバ1は、安心な場所を推定する際に、そのエリアに居る人々の感性値を感性サーバ2から取得して、安心度の高い場所を推定する際に利用することができる。
以上、本実施形態によるナビゲーションシステムの全体構成について説明した。続いて、本実施形態のナビゲーションシステムに含まれる各装置の基本構成について具体的に説明する。
<<2.基本構成>>
<2-1.避難誘導サーバ>
図3は、本実施形態による避難誘導サーバ1の構成の一例を示すブロック図である。図3に示すように、避難誘導サーバ1は、制御部10、通信部11、および記憶部12を有する。
<2-1.避難誘導サーバ>
図3は、本実施形態による避難誘導サーバ1の構成の一例を示すブロック図である。図3に示すように、避難誘導サーバ1は、制御部10、通信部11、および記憶部12を有する。
(制御部)
制御部10は、避難誘導サーバ1の各構成を制御する。制御部10は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、および不揮発性メモリを備えたマイクロコンピュータにより実現される。また、本実施形態による制御部10は、図3に示すように、HHMD位置取得部10a、ユーザ感情取得部10b、感情ヒートマップ生成部10c、環境ヒートマップ生成部10d、安全・安心場所推定部10e、避難情報生成部10f、および避難誘導部10gとしても機能する。
制御部10は、避難誘導サーバ1の各構成を制御する。制御部10は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、および不揮発性メモリを備えたマイクロコンピュータにより実現される。また、本実施形態による制御部10は、図3に示すように、HHMD位置取得部10a、ユーザ感情取得部10b、感情ヒートマップ生成部10c、環境ヒートマップ生成部10d、安全・安心場所推定部10e、避難情報生成部10f、および避難誘導部10gとしても機能する。
HHMD位置取得部10aは、多数のHHMD3の現在位置情報を取得する。HHMD3の現在位置情報は、例えばHHMD3から送信され、通信部11により受信される。HHMD位置取得部10aは、取得したHHMD3の現在位置情報を感情ヒートマップ生成部10cに出力する。
ユーザ感情取得部10bは、HHMD3を装着しているユーザの感情に関連する情報を取得する。ユーザの感情情報は、例えばHHMD3から送信される生体センサ情報、表情情報、活動量の他、SNS(Social Networking Service)情報や感性値が想定される。具体的には、例えば生体センサ情報は、HHMD3に設けられた生体センサ33(図10参照)により取得された脳波、心拍数、体温、血糖値等である。また、表情情報は、HHMD3に設けられた環境情報センサ34の一例であるカメラにより撮像されたユーザの顔画像や表情筋電位等から認識された笑顔度、不安顔度、怒り顔度等の表情認識結果である。また、活動量は、HHMD3に設けられた環境情報センサ34の一例である加速度、地磁気センサ、およびジャイロセンサ等により検知されたユーザの運動量や、マイクロフォン37により収音されたユーザの発話量である。また、SNS情報は、SNS等のネットワーク上の情報から取得できる情報であって、例えば避難誘導を行うユーザと、避難候補エリアに存在する人々との新密度が想定される。新密度は、例えばSNS上で友人関係か否か、ユーザがSNS上で興味を示した回数、または互いにやり取りした発言内容の言語解析結果に基づく好意的な発言の割合等から算出され得る。また、SNS情報には、メッセージツール、メール等の書き込みによるテキストメッセージの内容分析結果も含まれ、これらはリアルタイムの情報も含まれる。メッセージツールは、災害に遭遇したユーザが、自身の状況や不安、緊張感についてコメントを発信したり、安全な場所にいて安堵できたことを家族や友人に連絡したりする際に用いられるため、リアルタイムのユーザ感情を取得することが可能である。また、感性値は、感性サーバ2から取得される。例えばユーザ感情取得部10bは、避難候補エリアに存在する人々の感性値の総量を算出してもよい。これにより、一時的な感情(安心度)のみを判断材料にするのではなく、どのような人が避難している場所なのかを予め把握し、避難候補エリアの選定に有効となる。
感情ヒートマップ生成部10cは、ユーザ感情を、ユーザ位置と紐付けてマッピングしたマップを生成する。ここで、図5に、感情ヒートマップ42の一例を示す。図5に示すように、感情ヒートマップ生成部10cは、場所に紐づけられたユーザ感情を安心と不安の軸でマッピングすることで、安心および不安の分布を示す感情ヒートマップ42を生成することができる。ここで、ユーザ感情は、上述したように様々な因子から判断され得る。このため、感情ヒートマップ生成部10cは、ユーザ感情取得部10bにより取得された多数ユーザの複数種類のユーザ感情情報因子を用いて、避難候補エリア全体の安心度を算出してもよい。また、避難候補エリアのユーザ感情は時間と共に変化する場合も想定される。図6は、避難候補エリアの安心度算出について説明する図である。図6左側に示すセンサ値のグラフ51は、避難候補エリアに存在する人々のユーザ感情情報因子となる各情報の時間経過による変化の一例を示すグラフ51である。本実施形態では、生体センサ情報、表情情報、および活動量は、リアルタイムに取得され、時間変化が想定される。一方、SNS情報や感性値は、蓄積された情報に基づいて後から演算され取得され得るユーザ感情情報因子であって、時間経過による大きな変化は想定し難いが、避難候補エリアの安心度を算出する際の一因子として参照される。これにより避難候補エリアに存在する人々の出入りによる感情の時間的変化が把握される。そして、感情ヒートマップ生成部10cは、グラフ51に基づいて、図6右側に示すような、安心度のグラフ52を算出する。また、感情ヒートマップ生成部10cは、安心度/不安度の具体的な算出方法として、時間により変化するユーザ感情情報因子を用いて評価関数/モデル関数を予め定義若しくは学習し、算出する方法が考えられる。また、予め「安心度/不安度」の目安となる点数表等のルールテーブルを生成し、これを用いて避難候補エリアの安心度/不安度を算出する方法も考えられる。例えば、「心拍数」「体温」等の生体情報が適正値にあるか、笑顔等のポジティブな感情の総量、各センサ計測値の急激な変化量、または異常値を越えた時間量などに応じた点数表が用いられる。
また、災害発生時は緊急を要する現場において優先的に救助活動が行われるため、避難した人々に対する組織的な救助活動は、数日経過してからとなることが想定されるため、その間、人々は自立避難が求められ、避難生活が長期化することが予想される。したがって、一時的に安心度が高い避難候補エリアであっても、災害発生時からの経過時間に応じて、不安度が高まっていく(避難者同士のトラブルや、犯罪の発生、避難物資が届かないことによる不安等)ことが考えられる。したがって、感情ヒートマップ生成部10cは、ある時点での一時的な安心度/不安度の分布を示す感情ヒートマップに限られず、安心度が長く保たれる避難候補エリアを予想して算出された感情ヒートマップを生成してもよい。例えば、図7に示すように、エリアE1、E2、E3等の安心度の時間経過による変化を予測したグラフ53に基づいて、災害発生から組織的な救助開始までに安心度の高さが長持ちするエリアを、総じて安心度が高いエリアとして判断し、安心度の分布を示す感情ヒートマップが生成されてもよい。なお感性値やSNS情報(新密度)の高い集団は集団モラル的な行動も高いと推測でき、また、これらは時間による減衰度が低いため、より安心度を長持ちできる要素として重みを付けた上で、安心度が長持ちする避難候補エリアの算定に用いられる。
以上説明したように、安心度/不安度の分布を示す感情ヒートマップの生成では、ある時刻における安心度の分布を示すマップを生成してもよいし、時間経過による変化を考慮して、より安心度が長持ちするエリアの分布を示すマップを生成してもよい。さらに、感情ヒートマップ生成部10cは、誘導対象のユーザがその避難候補エリアに実際に加わった場合における安心度/不安度の変化をシミュレーションして、安心度の分布を示すマップを生成してもよい。
環境ヒートマップ生成部10dは、災害のカテゴリに応じて安全度の分布を示すヒートマップを生成する。なお環境ヒートマップ生成部10dは、ヒートマップサーバ4から取得されてもよい。災害のカテゴリに応じたヒートマップは、例えば雨災害ならば冠水や土砂崩れに関する危険度など、災害カテゴリに応じた危険度が示される。想定される災害(津波、首都直下型地震、集中豪雨、雪害など)により、危険な場所や避難の仕方も変わるためである。また、環境ヒートマップ生成部10dにより生成された環境ヒートマップは、避難誘導サーバ1の記憶部12に記憶されてもよいし、ヒートマップサーバ4に格納されてもよい。また、環境ヒートマップ生成部10dは、定期的に最新の環境ヒートマップに更新してもよい。
ここで、図4に、環境ヒートマップの生成について具体的に説明する図を示す。図4に示すように、例えば大きな地震による津波想定被害の例では、地形や建造物のデータに基づいてシミュレーションを行い、例えば高度に応じて危険度・安全度を判断して環境ヒートマップ41が生成される。また、環境ヒートマップ41の生成は、国土交通省や自治体などから出ているオープンデータを用いて行われてもよい。また、熟練者の経験から手動で生成された環境ヒートマップ41がヒートマップサーバ4に格納されていてもよい。
安全・安心場所推定部10eは、環境ヒートマップ41および感情ヒートマップ42に基づいて、安全かつ安心な場所を推定する。具体的には、安全・安心場所推定部10eは、例えば環境ヒートマップ41および感情ヒートマップ42を統合した統合ヒートマップを用いて、安全かつ安心な場所を推定する。ここで、図8に、本実施形態による統合ヒートマップ43の一例を示す。なお環境ヒートマップ41および感情ヒートマップ42を統合する際に、一方のヒートマップに重みを付けることで、環境ヒートマップ41または感情ヒートマップ42を重視にした統合ヒートマップを生成することができる。図8に示す統合ヒートマップ43は、総合的に「ユーザにとって最適な避難場所」を判断するための情報となる。安全・安心場所推定部10eは、統合ヒートマップ43に基づいて、安全度が高く、かつ安心度も高い避難場所を推定し、推定結果を避難情報生成部10fに出力する。また、統合ヒートマップ43は、環境ヒートマップ41または感情ヒートマップ42の更新に応じて更新される。特に災害時にはユーザ感情の起伏が激しいため、感情ヒートマップ42は継続的に更新されることが望ましい。
避難情報生成部10fは、安全・安心場所推定部10eにより推定された安全かつ安心な場所に、HHMD3を装着するユーザを案内するためのガイダンスを生成するガイダンス生成部として機能する。具体的には、避難情報生成部10fは、ユーザの現在地から避難場所までのルートを選定し、ユーザに直感的にガイダンスするための情報を生成する。また、ユーザの現在位置が、通常のユーザの行動範囲内であれば、ユーザは周辺の道や目印とする建物の場所がよく分かるが、出張や観光中等、不慣れな土地の場合、直感的な避難経路のガイダンスが有効となる。
避難誘導部10gは、避難情報生成部10fにより生成されたガイダンスをHHMD3からユーザに提供する提供部として機能する。HHMD3は、上述したように、例えば防災用ヘルメットに実装された頭部装着型のウェアラブルデバイスであって、音声出力(「まっすぐ歩いてください」「右に曲がってください」等)または振動出力(ユーザから見て進行方向の部位を振動させる等)により、ユーザに対して避難経路を直感的に示すことができる。また、避難の際にユーザは画像を注視する必要がないため、外部環境と遮断されずに、周囲に対する注意力も保ちながら、音声等に従って安全に避難することができる。
(通信部)
通信部11は、外部装置とデータの送受信を行う。例えば通信部11は、HHMD3と接続して生体センサ情報や表情情報、および現在位置情報を受信したり、感性サーバ2と接続し、ユーザの感性値を受信したりする。また、通信部11は、避難誘導部10gの制御に従って、ユーザへの避難ガイダンスをHHMD3に送信する。
通信部11は、外部装置とデータの送受信を行う。例えば通信部11は、HHMD3と接続して生体センサ情報や表情情報、および現在位置情報を受信したり、感性サーバ2と接続し、ユーザの感性値を受信したりする。また、通信部11は、避難誘導部10gの制御に従って、ユーザへの避難ガイダンスをHHMD3に送信する。
(記憶部)
記憶部12は、例えば制御部10による上記各処理を実施するためのプログラムが格納されている。また、記憶部12は、環境ヒートマップ41、感情ヒートマップ42、統合ヒートマップ43、HHMD3の現在位置情報等を記憶していてもよい。
記憶部12は、例えば制御部10による上記各処理を実施するためのプログラムが格納されている。また、記憶部12は、環境ヒートマップ41、感情ヒートマップ42、統合ヒートマップ43、HHMD3の現在位置情報等を記憶していてもよい。
<2-2.感性サーバ>
次に、本実施形態による感性サーバ2の構成について説明する。図9は、本実施形態による感性サーバ2の構成の一例を示すブロック図である。図9に示すように、感性サーバ2は、制御部20、通信部21、オブジェクトDB22、および感性情報DB24を有する。
次に、本実施形態による感性サーバ2の構成について説明する。図9は、本実施形態による感性サーバ2の構成の一例を示すブロック図である。図9に示すように、感性サーバ2は、制御部20、通信部21、オブジェクトDB22、および感性情報DB24を有する。
(通信部)
通信部21は、ネットワークを介して避難誘導サーバ1と接続し、避難誘導サーバ1から指定された対象ユーザのオブジェクトIDに紐付けられた感性値を返信する。また、通信部21は、各オブジェクト(人物、物体)に装着/搭載されたセンシングデバイス(不図示)から、インタラクション情報を受信する。
通信部21は、ネットワークを介して避難誘導サーバ1と接続し、避難誘導サーバ1から指定された対象ユーザのオブジェクトIDに紐付けられた感性値を返信する。また、通信部21は、各オブジェクト(人物、物体)に装着/搭載されたセンシングデバイス(不図示)から、インタラクション情報を受信する。
(制御部)
制御部20は、感性サーバ2の各構成を制御する。また、制御部20は、CPU、ROM、RAM、および不揮発性メモリを備えたマイクロコンピュータにより実現される。さらに、本実施形態による制御部20は、インタラクション記憶制御部20a、評価部20b、オブジェクト管理部20c、関連オブジェクト検索部20d、および感性値算出部20eとして機能する。
制御部20は、感性サーバ2の各構成を制御する。また、制御部20は、CPU、ROM、RAM、および不揮発性メモリを備えたマイクロコンピュータにより実現される。さらに、本実施形態による制御部20は、インタラクション記憶制御部20a、評価部20b、オブジェクト管理部20c、関連オブジェクト検索部20d、および感性値算出部20eとして機能する。
インタラクション記憶制御部20aは、オブジェクトに装着/搭載されたセンシングデバイスから受信したインタラクション情報を感性情報DB24に記憶するよう制御する。センシングデバイスは、湿度センサ、温度センサ、振動センサ、赤外線センサ、カメラ、触覚センサ、またはジャイロセンサ等により実現され、オブジェクトに対する他のオブジェクトからのインタラクションを検知する。インタラクションとは、行為であって、例えば人物間では会話、電話、メール、一緒に出掛けた、プレゼントの贈与等であって、人物と物体間では、物の手入れ、保管、掃除、鑑賞、着用等が挙げられる。
評価部20bは、感性情報DB24に記憶したインタラクションの評価を行う。インタラクションの評価方法については特に限定しないが、例えば評価部20bは、インタラクションを受けたオブジェクトにとって好ましいインタラクションである程高く評価し、具体的には-1.0~1.0の点数を付ける。評価結果は、インタラクションに対応付けて感性情報DB24に記憶される。
オブジェクト管理部20cは、オブジェクトDB22に記憶されているオブジェクトに関する情報の登録、変更、削除等の管理を行う。
関連オブジェクト検索部20dは、要求されたオブジェクトIDとの間にインタラクションが発生した他のオブジェクトを関連オブジェクトとしてオブジェクトDB22や感性情報DB24から検索する。
感性値算出部20eは、対象ユーザのオブジェクトIDに対応付けられたインタラクション評価に基づいて対象ユーザの感性値(他のオブジェクトに対しての気持ち)を算出する。例えば感性値算出部20eは、インタラクション評価値の総和により、対象ユーザのトータル感性値を算出してもよいし、インタラクション評価値の平均値により対象者のトータル感性値を算出してもよい。
(オブジェクトDB)
オブジェクトDB22は、各オブジェクトのオブジェクトIDを格納する記憶部である。また、オブジェクトDB22には、オブジェクトIDの他、氏名、年齢、性別、商品名、商品種類、メーカーID、型番、製造日時等の、オブジェクトに関する多々の情報が格納されている。
オブジェクトDB22は、各オブジェクトのオブジェクトIDを格納する記憶部である。また、オブジェクトDB22には、オブジェクトIDの他、氏名、年齢、性別、商品名、商品種類、メーカーID、型番、製造日時等の、オブジェクトに関する多々の情報が格納されている。
(感性情報DB)
感性情報DB24は、オブジェクト間のインタラクションや、インタラクションの評価を格納する記憶部である。
感性情報DB24は、オブジェクト間のインタラクションや、インタラクションの評価を格納する記憶部である。
<2-3.HHMD>
次に、本実施形態によるクライアント端末の一例であるHHMD3の構成について図10を参照して説明する。図10は、本実施形態によるHHMD3の構成の一例を示すブロック図である。図10に示すように、HHMD3は、制御部30、通信部31、現在位置計測部32、生体センサ33、環境情報センサ34、スピーカ35、振動部36、マイクロフォン37、および記憶部38を有する。
次に、本実施形態によるクライアント端末の一例であるHHMD3の構成について図10を参照して説明する。図10は、本実施形態によるHHMD3の構成の一例を示すブロック図である。図10に示すように、HHMD3は、制御部30、通信部31、現在位置計測部32、生体センサ33、環境情報センサ34、スピーカ35、振動部36、マイクロフォン37、および記憶部38を有する。
(制御部30)
制御部30は、例えばCPU、ROM、RAM、不揮発性メモリ、インターフェース部を備えたマイクロコンピュータにより構成され、HHMD3の各構成を制御する。また、制御部20は、避難誘導サーバ1から受信した避難誘導指示信号に基づいて、スピーカ35から避難誘導の音声出力を行うよう制御したり、振動部36から避難誘導のための振動出力を行うよう制御したりする。
制御部30は、例えばCPU、ROM、RAM、不揮発性メモリ、インターフェース部を備えたマイクロコンピュータにより構成され、HHMD3の各構成を制御する。また、制御部20は、避難誘導サーバ1から受信した避難誘導指示信号に基づいて、スピーカ35から避難誘導の音声出力を行うよう制御したり、振動部36から避難誘導のための振動出力を行うよう制御したりする。
(通信部31)
通信部31は、無線/有線により外部装置と接続し、データの送受信を行う機能を有する。本実施形態による通信部31は、例えば避難誘導サーバ1と接続し、生体センサ33で検知されたユーザの生体センサ情報や、現在位置計測部32により計測されたHHMD3の現在位置情報を継続的に送信する。また、通信部31は、避難誘導サーバ1から、避難誘導指示信号を受信する。
通信部31は、無線/有線により外部装置と接続し、データの送受信を行う機能を有する。本実施形態による通信部31は、例えば避難誘導サーバ1と接続し、生体センサ33で検知されたユーザの生体センサ情報や、現在位置計測部32により計測されたHHMD3の現在位置情報を継続的に送信する。また、通信部31は、避難誘導サーバ1から、避難誘導指示信号を受信する。
(現在位置計測部32)
現在位置計測部32は、外部からの取得信号に基づいてHHMD3の現在位置を検知する機能を有する。具体的には、例えば現在位置計測部32は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信して、HHMD3が存在している位置を検知し、検知した位置情報を制御部30に出力する。また、現在位置計測部32は、GPSの他、例えばWi-Fi(登録商標)、Bluetooth(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
現在位置計測部32は、外部からの取得信号に基づいてHHMD3の現在位置を検知する機能を有する。具体的には、例えば現在位置計測部32は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信して、HHMD3が存在している位置を検知し、検知した位置情報を制御部30に出力する。また、現在位置計測部32は、GPSの他、例えばWi-Fi(登録商標)、Bluetooth(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
(生体センサ33)
生体センサ33は、HHMD3を装着するユーザの生体情報を検知する機能を有する。本実施形態によるHHMD3は、上述したようにユーザの頭部に装着されるため、装着時にユーザの皮膚に接触する個所に、生体センサ33の一例である体温センサ、発汗量センサ、心拍数センサ、脳波検知センサ等が設けられる。生体センサ33は、以上説明した複数種類のセンサが複数個設けられていてもよい。
生体センサ33は、HHMD3を装着するユーザの生体情報を検知する機能を有する。本実施形態によるHHMD3は、上述したようにユーザの頭部に装着されるため、装着時にユーザの皮膚に接触する個所に、生体センサ33の一例である体温センサ、発汗量センサ、心拍数センサ、脳波検知センサ等が設けられる。生体センサ33は、以上説明した複数種類のセンサが複数個設けられていてもよい。
(環境情報センサ34)
環境情報センサ34は、ユーザを含めた周辺の環境に関する情報を検知する機能を有する。本実施形態による環境情報センサ34は、例えば湿度センサ、温度センサ、空気質センサにより実現される。また、環境情報センサ34は、HHMD3を装着したユーザの動きを検知する3軸加速度センサ、ジャイロセンサ、地磁気センサ等により実現されてもよい。さらに、環境情報センサ34は、ユーザの周囲に存在する物体情報を取得するための赤外線カメラや、ユーザの表情情報を取得するためのカメラにより実現されてもよい。環境情報センサ34は、以上説明した複数種類のセンサが複数個設けられていてもよい。
環境情報センサ34は、ユーザを含めた周辺の環境に関する情報を検知する機能を有する。本実施形態による環境情報センサ34は、例えば湿度センサ、温度センサ、空気質センサにより実現される。また、環境情報センサ34は、HHMD3を装着したユーザの動きを検知する3軸加速度センサ、ジャイロセンサ、地磁気センサ等により実現されてもよい。さらに、環境情報センサ34は、ユーザの周囲に存在する物体情報を取得するための赤外線カメラや、ユーザの表情情報を取得するためのカメラにより実現されてもよい。環境情報センサ34は、以上説明した複数種類のセンサが複数個設けられていてもよい。
(スピーカ35)
スピーカ35は、音声出力機能を有し、具体的には例えば骨伝導スピーカにより実現される。また、スピーカ35は、HHMD3に複数個設けられていてもよい。
スピーカ35は、音声出力機能を有し、具体的には例えば骨伝導スピーカにより実現される。また、スピーカ35は、HHMD3に複数個設けられていてもよい。
(振動部36)
振動部36は、振動機能を有し、例えばHHMD3に複数個設けられる。これにより、制御部30の制御に従って、避難経路方向に対応する振動部36が振動することで、ユーザに直感的な避難誘導を行うことができる。また、振動部36は、ユーザが危険地帯に向かっている場合は警告として全体が振動してもよい。
振動部36は、振動機能を有し、例えばHHMD3に複数個設けられる。これにより、制御部30の制御に従って、避難経路方向に対応する振動部36が振動することで、ユーザに直感的な避難誘導を行うことができる。また、振動部36は、ユーザが危険地帯に向かっている場合は警告として全体が振動してもよい。
(マイクロフォン37)
マイクロフォン37は、音声収音機能を有し、具体的には例えば骨伝導マイクにより実現される。また、マイクロフォン37は、HHMD3に複数個設けられていてもよい。
マイクロフォン37は、音声収音機能を有し、具体的には例えば骨伝導マイクにより実現される。また、マイクロフォン37は、HHMD3に複数個設けられていてもよい。
(記憶部38)
記憶部38は、例えば制御部30による上記各処理を実施するためのプログラムが格納されている。また、記憶部38は、避難誘導サーバ1から受信した避難誘導指示信号を記憶してもよいし、現在位置計測部32により検知したHHMD3の位置情報を記憶してもよいし、各種センサ(生体センサ33、環境情報センサ34)により検知した情報を記憶してもよい。
記憶部38は、例えば制御部30による上記各処理を実施するためのプログラムが格納されている。また、記憶部38は、避難誘導サーバ1から受信した避難誘導指示信号を記憶してもよいし、現在位置計測部32により検知したHHMD3の位置情報を記憶してもよいし、各種センサ(生体センサ33、環境情報センサ34)により検知した情報を記憶してもよい。
以上、本実施形態によるHHMD3の具体的な構成について説明した。なお図10に示すHHMD3の構成は一例であって、本実施形態はこれに限定されない。例えば、HHMD3は、スピーカまたは振動部以外の出力部により避難誘導をユーザに対して直感的に行ってもよい。
<<3.動作処理>>
続いて、本実施形態によるナビゲーションの動作処理について図11を参照して説明する。図11は、本実施形態によるナビゲーションの避難誘導処理を示すフローチャートである。
続いて、本実施形態によるナビゲーションの動作処理について図11を参照して説明する。図11は、本実施形態によるナビゲーションの避難誘導処理を示すフローチャートである。
図11に示すように、まず、ステップS103において、避難誘導サーバ1は、災害が発生したか否かを判断する。本動作処理は一例として災害発生をナビゲーション処理のトリガとしている。災害発生通知は、例えば所定の災害報知サーバから通知され得る。
次に、災害が発生した場合(S103において「Yes」)、ステップS106において、避難誘導サーバ1のHHMD位置取得部10aは、ユーザの現在位置情報(すなわちHHMD3の現在位置情報)を取得する。
次いで、ステップS109において、避難誘導サーバ1の制御部10は、ユーザの現在位置に応じて、ユーザに避難誘導支援が必要か否かを判断する。例えばユーザの現在位置が災害場所と遠く離れた場所である場合は、特に避難誘導支援は不要となる。
次に、避難誘導支援が必要な場合(S109において「Yes」)、ステップS112において、環境ヒートマップ生成部10dは、発生した災害カテゴリに応じて、安全度/危険度の分布を示す環境ヒートマップ41を生成(若しくは既に生成されている環境ヒートマップを取得)する。
次いで、ステップS115において、HHMD位置取得部10aは、HHMD3の現在位置を取得し、また、ユーザ感情取得部10bは、HHMD3の所有ユーザの感情を取得する。
次に、ステップS118において、感情ヒートマップ生成部10cは、取得したHHMD3の現在位置およびユーザ感情情報に基づいて、場所に紐付いた人々の安心度/不安度の分布を示す感情ヒートマップ42を生成する。
続いて、ステップS121において、安全・安心場所推定部10eは、環境ヒートマップ41および感情ヒートマップ42に基づいて統合ヒートマップ43を生成する。
次いで、ステップS124において、安全・安心場所推定部10eは、統合ヒートマップ43に基づいて、安全度および安心度が所定値を上回る場所を、安全かつ安心な避難場所として推定する。
次に、ステップS127において、避難情報生成部10fにより避難場所へユーザを誘導するためのガイダンスを生成し、避難誘導部10gにより、ユーザの避難場所への避難誘導を開始する。具体的には、避難誘導部10gは、HHMD3に避難誘導信号を送信し、HHMD3によりユーザへの避難誘導を行う。
次いで、ステップS130において、避難誘導サーバ1の制御部10は、HHMD位置取得部10aにより継続的に取得されるユーザの位置情報に基づいて、ユーザが避難誘導に従って避難場所に到着したか否かを判断する。
次に、避難場所にまだ到着していない場合(S130において「No」)、ステップS133において、避難誘導サーバ1は、多数のHHMD3の現在位置、所持ユーザの感情情報、およびHHMD3の周囲の環境情報をHHMD3からリアルタイムに取得する。
そして、ステップS136において、新たに取得したユーザ感情に基づいて、避難誘導サーバ1では、感情ヒートマップの更新が行われ、また、環境情報に基づいて環境ヒートマップの更新が行われ、これらの更新に伴って統合ヒートマップの更新も行われる。
次いで、ステップS124に戻り、最新の統合ヒートマップに基づいて避難誘導が行われる。
以上、本実施形態によるナビゲーションシステムの避難誘導処理について説明した。
<<4.応用例>>
<4-1.第1の応用例>
上述したナビゲーションでは、主に避難誘導処理に特化した誘導を説明したが、本実施形態はこれに限定されない。例えば、HHMD3は、通常時は観光ナビゲーションを行い、災害発生時には災害ナビゲーションに切り替わるようにしてもよい。
<4-1.第1の応用例>
上述したナビゲーションでは、主に避難誘導処理に特化した誘導を説明したが、本実施形態はこれに限定されない。例えば、HHMD3は、通常時は観光ナビゲーションを行い、災害発生時には災害ナビゲーションに切り替わるようにしてもよい。
図12は、本実施形態によるナビゲーションシステムの応用例を説明する図である。例えばオリンピックや国際的なフォーラム等、一定期間にわたって開催されるイベントのために、海外から多くの訪問者が来る場合を想定する。このような海外の訪問者に対して、空港や宿泊施設において、本実施形態によるHHMD3を着用させることで、通常時は観光ナビゲーションが行われ、災害発生時は災害ナビゲーションとして動作することで、海外からの旅行客が不慣れな土地でも安全に避難することができる。
HHMD3は、上述したような防災用ヘルメットに実装されるものに限定されず、帽子やウィッグに実装されていてもよく、これにより、図12左側に示すように、旅行客は、HHMD3h、3i、3jを日常的に装着してオリンピック観光等のナビゲーションサービスを享受することができる。例えばスタジアムでスポーツ観戦をしている状況において、HHMD3h、3i、3jのスピーカからは、母国語の音声ガイド情報が再生される。
そして、地震や噴火等、大規模な災害が発生した場合、HHMD3h、3i、3jは、災害ナビゲーションに切り替わり、母国語での避難誘導が行われ得る。ここで行われる避難誘導処理は、図11に示す通りである。
例えばスタジアムで観戦中に大規模な災害が発生した場合、本実施形態によるナビゲーションシステムは、HHMD3を装着するユーザの現在位置に基づいて、まずスタジアムの非常口まで誘導し、その後、避難先候補として登録されているホテル、大使館、近くの避難所(学校など)への避難誘導を開始する。この際、ナビゲーションシステムは、感情ヒートマップ42に基づいて、避難先候補1および避難先候補2の安心度を参照する。避難先候補1よりも避難先候補2の方の安心度が高い場合、ユーザを避難先候補2に誘導する。
このように、HHMD3が帽子やウィッグに実装され、通常時は観光ナビゲーションとして用いられてもよい。また、本実施形態によるナビゲーションシステムは、感情ヒートマップ42のみに基づいて、より安心な場所へユーザを誘導することが可能である。
<4-2.第2の応用例>
感情ヒートマップ42のみに基づいて、より安心な場所へユーザを誘導する場合の応用例としては、例えばイベント会場や観光地において、混雑している場所から空いている場所へ誘導するナビゲーションが考えられる。すなわち、観光地において、混雑している場所は不安度が高い場所となり、空いている場所は安心度が高い場所となるためである。この場合も、HHMD3が帽子やウィッグに実装されることで、通常時は観光ナビゲーションとして用いられ、かつ必要に応じて安心度の高い場所へユーザを誘導することができる。
感情ヒートマップ42のみに基づいて、より安心な場所へユーザを誘導する場合の応用例としては、例えばイベント会場や観光地において、混雑している場所から空いている場所へ誘導するナビゲーションが考えられる。すなわち、観光地において、混雑している場所は不安度が高い場所となり、空いている場所は安心度が高い場所となるためである。この場合も、HHMD3が帽子やウィッグに実装されることで、通常時は観光ナビゲーションとして用いられ、かつ必要に応じて安心度の高い場所へユーザを誘導することができる。
<<5.まとめ>>
上述したように、本開示の実施形態によるナビゲーションシステムでは、場所に紐づく人々の感情情報に基づいて安心度の高い場所に誘導することを可能とする。
上述したように、本開示の実施形態によるナビゲーションシステムでは、場所に紐づく人々の感情情報に基づいて安心度の高い場所に誘導することを可能とする。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した避難誘導サーバ1、感性サーバ2、またはHHMD3に内蔵されるCPU、ROM、およびRAM等のハードウェアに、避難誘導サーバ1、感性サーバ2、またはHHMD3の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、HHMD3のユーザの表情情報が、HHMD3に設けられるカメラにより撮像された撮像画像に基づいて認識される旨を説明したが、本実施形態はこれに限定されず、周辺の設置カメラで撮像された撮像画像に基づいて認識されてもよい。
また、図3に示す避難誘導サーバ1の制御部10の各機能の少なくともいずれかが、HHMD3に設けられていてもよい。
また、本実施形態による避難誘導サーバ1は、図6、図7に示すような安心度の時間変化や、図8に示すような統合ヒートマップをユーザに通知した上で避難誘導を行ってもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
クライアント端末装置の位置を表す位置情報と、当該クライアント端末装置のユーザの感情に関連する情報とを取得する取得部と、
前記位置情報と前記ユーザの感情に関連する情報に基づき、当該位置情報が表す位置の安心度を生成することにより、感情マップを生成する生成部と、
前記感情マップに基づいて、安心度の高い場所を推定する推定部と、
前記安心度の高い場所に前記クライアント端末装置のユーザを案内するためのガイダンスを生成するガイダンス生成部と、
前記ガイダンスを前記クライアント端末装置のユーザに提供する提供部と、
を備える、ナビゲーションシステム。
(2)
前記取得部は、前記クライアント端末装置により検出された前記ユーザの生体情報を、前記ユーザの感情に関連する情報として取得する、前記(1)に記載のナビゲーションシステム。
(3)
前記取得部は、前記クライアント端末装置のユーザが投稿したソーシャルメディアへの投稿内容を、前記ユーザの感情に関連する情報として取得する、前記(1)または(2)に記載のナビゲーションシステム。
(4)
前記取得部は、前記クライアント端末装置のユーザの表情を、前記ユーザの感情に関連する情報として取得する、前記(1)~(3)のいずれか1項に記載のナビゲーションシステム。
(5)
前記取得部は、オブジェクト間のインタラクションに関連する情報に基づき生成されたそれぞれのオブジェクトの感性値を蓄積していくことによって構築された感性値データベースから、オブジェクトとして登録されている当該ユーザに対応する感性値を、当該ユーザの感情に関連する情報として取得する、前記(1)~(4)のいずれか1項に記載のナビゲーションシステム。
(6)
前記ナビゲーションシステムは、
安全度の分布を示す環境マップを生成する環境マップ生成部をさらに備え、
前記推定部は、前記感情マップと前記環境マップに応じて、安心度および安全度が高い場所を推定する、前記(1)~(5)のいずれか1項に記載のナビゲーションシステム。
(7)
前記環境マップ生成部は、災害の種類に応じて安全度の分布が異なる環境マップを生成し、
前記推定部は、前記感情マップと前記環境マップに応じて、安心度および安全度が高い場所を推定する、前記(6)に記載のナビゲーションシステム。
(8)
前記提供部は、前記クライアント端末装置においてユーザに対して音声出力により誘導方向をガイダンスさせる、前記(1)~(7)のいずれか1項に記載のナビゲーションシステム。
(9)
クライアント端末装置の位置を検出し、当該位置を表す位置情報を生成する位置情報検出部と、
前記クライアント端末装置のユーザの感情に関連する情報を検出する検出部と、
前記位置情報と前記ユーザの感情に関連する情報を外部装置に送信する送信部と、
前記外部装置により、前記位置情報と前記ユーザの感情に関連する情報とに基づいて生成された当該位置情報が表す位置の安心度を表す感情マップを取得する取得部と、
前記感情マップに基づいて安心度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する出力部と、
を備える、クライアント端末装置。
(10)
前記検出部は、前記クライアント端末装置のユーザの生体情報を、前記ユーザの感情に関連する情報として検出する、前記(9)に記載のクライアント端末装置。
(11)
前記検出部は、前記クライアント端末装置のユーザが投稿したソーシャルメディアへの投稿内容を、前記ユーザの感情に関連する情報として検出する、前記(9)または(10)に記載のクライアント端末装置。
(12)
前記検出部は、前記クライアント端末装置のユーザの表情を、前記ユーザの感情に関連する情報として検出する、前記(9)~(11)のいずれか1項に記載のクライアント端末装置。
(13)
前記検出部は、前記クライアント端末装置のユーザとオブジェクト間のインタラクションに関連する情報を、前記ユーザの感情に関連する情報として検出する、前記(9)~(12)のいずれか1項に記載のクライアント端末装置。
(14)
前記取得部は、安全度の分布を示す環境マップを取得し、
前記出力部は、前記感情マップと前記環境マップに基づき安心度と安全度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する、前記(9)~(13)のいずれか1項に記載のクライアント端末装置。
(15)
前記取得部は、災害の種類に応じて安全度の分布が変わる環境マップを取得し、
前記出力部は、前記感情マップと前記環境マップに基づき安心度と安全度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する、前記(9)~(14)のいずれか1項に記載のクライアント端末装置。
(16)
前記出力部は、ユーザを案内するガイダンスを音声出力または振動により提供する、前記(9)~(15)のいずれか1項に記載のクライアント端末装置。
(17)
クライアント端末装置の位置を表す位置情報と、当該クライアント端末装置のユーザの感情に関連する情報とを取得することと、
前記位置情報と前記ユーザの感情に関連する情報に基づき、当該位置情報が表す位置の安心度を生成することにより、感情マップを生成することと、
前記感情マップに基づいて、安心度の高い場所を推定することと、
前記安心度の高い場所に前記クライアント端末装置のユーザを案内するためのガイダンスを生成することと、
前記ガイダンスを前記クライアント端末装置のユーザに提供することと、
を含む、制御方法。
(18)
コンピュータを、
クライアント端末装置の位置を検出し、当該位置を表す位置情報を生成する位置情報検出部と、
前記クライアント端末装置のユーザの感情に関連する情報を検出する検出部と、
前記位置情報と前記ユーザの感情に関連する情報を外部装置に送信する送信部と、
前記外部装置により、前記位置情報と前記ユーザの感情に関連する情報とに基づいて生成された当該位置情報が表す位置の安心度を表す感情マップを取得する取得部と、
前記感情マップに基づいて安心度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する出力部と、
として機能させるためのプログラムが記憶された、記憶媒体。
(1)
クライアント端末装置の位置を表す位置情報と、当該クライアント端末装置のユーザの感情に関連する情報とを取得する取得部と、
前記位置情報と前記ユーザの感情に関連する情報に基づき、当該位置情報が表す位置の安心度を生成することにより、感情マップを生成する生成部と、
前記感情マップに基づいて、安心度の高い場所を推定する推定部と、
前記安心度の高い場所に前記クライアント端末装置のユーザを案内するためのガイダンスを生成するガイダンス生成部と、
前記ガイダンスを前記クライアント端末装置のユーザに提供する提供部と、
を備える、ナビゲーションシステム。
(2)
前記取得部は、前記クライアント端末装置により検出された前記ユーザの生体情報を、前記ユーザの感情に関連する情報として取得する、前記(1)に記載のナビゲーションシステム。
(3)
前記取得部は、前記クライアント端末装置のユーザが投稿したソーシャルメディアへの投稿内容を、前記ユーザの感情に関連する情報として取得する、前記(1)または(2)に記載のナビゲーションシステム。
(4)
前記取得部は、前記クライアント端末装置のユーザの表情を、前記ユーザの感情に関連する情報として取得する、前記(1)~(3)のいずれか1項に記載のナビゲーションシステム。
(5)
前記取得部は、オブジェクト間のインタラクションに関連する情報に基づき生成されたそれぞれのオブジェクトの感性値を蓄積していくことによって構築された感性値データベースから、オブジェクトとして登録されている当該ユーザに対応する感性値を、当該ユーザの感情に関連する情報として取得する、前記(1)~(4)のいずれか1項に記載のナビゲーションシステム。
(6)
前記ナビゲーションシステムは、
安全度の分布を示す環境マップを生成する環境マップ生成部をさらに備え、
前記推定部は、前記感情マップと前記環境マップに応じて、安心度および安全度が高い場所を推定する、前記(1)~(5)のいずれか1項に記載のナビゲーションシステム。
(7)
前記環境マップ生成部は、災害の種類に応じて安全度の分布が異なる環境マップを生成し、
前記推定部は、前記感情マップと前記環境マップに応じて、安心度および安全度が高い場所を推定する、前記(6)に記載のナビゲーションシステム。
(8)
前記提供部は、前記クライアント端末装置においてユーザに対して音声出力により誘導方向をガイダンスさせる、前記(1)~(7)のいずれか1項に記載のナビゲーションシステム。
(9)
クライアント端末装置の位置を検出し、当該位置を表す位置情報を生成する位置情報検出部と、
前記クライアント端末装置のユーザの感情に関連する情報を検出する検出部と、
前記位置情報と前記ユーザの感情に関連する情報を外部装置に送信する送信部と、
前記外部装置により、前記位置情報と前記ユーザの感情に関連する情報とに基づいて生成された当該位置情報が表す位置の安心度を表す感情マップを取得する取得部と、
前記感情マップに基づいて安心度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する出力部と、
を備える、クライアント端末装置。
(10)
前記検出部は、前記クライアント端末装置のユーザの生体情報を、前記ユーザの感情に関連する情報として検出する、前記(9)に記載のクライアント端末装置。
(11)
前記検出部は、前記クライアント端末装置のユーザが投稿したソーシャルメディアへの投稿内容を、前記ユーザの感情に関連する情報として検出する、前記(9)または(10)に記載のクライアント端末装置。
(12)
前記検出部は、前記クライアント端末装置のユーザの表情を、前記ユーザの感情に関連する情報として検出する、前記(9)~(11)のいずれか1項に記載のクライアント端末装置。
(13)
前記検出部は、前記クライアント端末装置のユーザとオブジェクト間のインタラクションに関連する情報を、前記ユーザの感情に関連する情報として検出する、前記(9)~(12)のいずれか1項に記載のクライアント端末装置。
(14)
前記取得部は、安全度の分布を示す環境マップを取得し、
前記出力部は、前記感情マップと前記環境マップに基づき安心度と安全度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する、前記(9)~(13)のいずれか1項に記載のクライアント端末装置。
(15)
前記取得部は、災害の種類に応じて安全度の分布が変わる環境マップを取得し、
前記出力部は、前記感情マップと前記環境マップに基づき安心度と安全度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する、前記(9)~(14)のいずれか1項に記載のクライアント端末装置。
(16)
前記出力部は、ユーザを案内するガイダンスを音声出力または振動により提供する、前記(9)~(15)のいずれか1項に記載のクライアント端末装置。
(17)
クライアント端末装置の位置を表す位置情報と、当該クライアント端末装置のユーザの感情に関連する情報とを取得することと、
前記位置情報と前記ユーザの感情に関連する情報に基づき、当該位置情報が表す位置の安心度を生成することにより、感情マップを生成することと、
前記感情マップに基づいて、安心度の高い場所を推定することと、
前記安心度の高い場所に前記クライアント端末装置のユーザを案内するためのガイダンスを生成することと、
前記ガイダンスを前記クライアント端末装置のユーザに提供することと、
を含む、制御方法。
(18)
コンピュータを、
クライアント端末装置の位置を検出し、当該位置を表す位置情報を生成する位置情報検出部と、
前記クライアント端末装置のユーザの感情に関連する情報を検出する検出部と、
前記位置情報と前記ユーザの感情に関連する情報を外部装置に送信する送信部と、
前記外部装置により、前記位置情報と前記ユーザの感情に関連する情報とに基づいて生成された当該位置情報が表す位置の安心度を表す感情マップを取得する取得部と、
前記感情マップに基づいて安心度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する出力部と、
として機能させるためのプログラムが記憶された、記憶媒体。
1 避難誘導サーバ
10 制御部
10a HHMD位置取得部
10b ユーザ感情取得部
10c 感情ヒートマップ生成部
10d 環境ヒートマップ生成部
10e 安全・安心場所推定部
10f 避難情報生成部
10g 避難誘導部
12 記憶部
2 感性サーバ
3 HHMD
10 制御部
10a HHMD位置取得部
10b ユーザ感情取得部
10c 感情ヒートマップ生成部
10d 環境ヒートマップ生成部
10e 安全・安心場所推定部
10f 避難情報生成部
10g 避難誘導部
12 記憶部
2 感性サーバ
3 HHMD
Claims (18)
- クライアント端末装置の位置を表す位置情報と、当該クライアント端末装置のユーザの感情に関連する情報とを取得する取得部と、
前記位置情報と前記ユーザの感情に関連する情報に基づき、当該位置情報が表す位置の安心度を生成することにより、感情マップを生成する生成部と、
前記感情マップに基づいて、安心度の高い場所を推定する推定部と、
前記安心度の高い場所に前記クライアント端末装置のユーザを案内するためのガイダンスを生成するガイダンス生成部と、
前記ガイダンスを前記クライアント端末装置のユーザに提供する提供部と、
を備える、ナビゲーションシステム。 - 前記取得部は、前記クライアント端末装置により検出された前記ユーザの生体情報を、前記ユーザの感情に関連する情報として取得する、請求項1に記載のナビゲーションシステム。
- 前記取得部は、前記クライアント端末装置のユーザが投稿したソーシャルメディアへの投稿内容を、前記ユーザの感情に関連する情報として取得する、請求項1に記載のナビゲーションシステム。
- 前記取得部は、前記クライアント端末装置のユーザの表情を、前記ユーザの感情に関連する情報として取得する、請求項1に記載のナビゲーションシステム。
- 前記取得部は、オブジェクト間のインタラクションに関連する情報に基づき生成されたそれぞれのオブジェクトの感性値を蓄積していくことによって構築された感性値データベースから、オブジェクトとして登録されている当該ユーザに対応する感性値を、当該ユーザの感情に関連する情報として取得する、請求項1に記載のナビゲーションシステム。
- 前記ナビゲーションシステムは、
安全度の分布を示す環境マップを生成する環境マップ生成部をさらに備え、
前記推定部は、前記感情マップと前記環境マップに応じて、安心度および安全度が高い場所を推定する、請求項1に記載のナビゲーションシステム。 - 前記環境マップ生成部は、災害の種類に応じて安全度の分布が異なる環境マップを生成し、
前記推定部は、前記感情マップと前記環境マップに応じて、安心度および安全度が高い場所を推定する、請求項6に記載のナビゲーションシステム。 - 前記提供部は、前記クライアント端末装置においてユーザに対して音声出力により誘導方向をガイダンスさせる、請求項1に記載のナビゲーションシステム。
- クライアント端末装置の位置を検出し、当該位置を表す位置情報を生成する位置情報検出部と、
前記クライアント端末装置のユーザの感情に関連する情報を検出する検出部と、
前記位置情報と前記ユーザの感情に関連する情報を外部装置に送信する送信部と、
前記外部装置により、前記位置情報と前記ユーザの感情に関連する情報とに基づいて生成された当該位置情報が表す位置の安心度を表す感情マップを取得する取得部と、
前記感情マップに基づいて安心度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する出力部と、
を備える、クライアント端末装置。 - 前記検出部は、前記クライアント端末装置のユーザの生体情報を、前記ユーザの感情に関連する情報として検出する、請求項9に記載のクライアント端末装置。
- 前記検出部は、前記クライアント端末装置のユーザが投稿したソーシャルメディアへの投稿内容を、前記ユーザの感情に関連する情報として検出する、請求項9に記載のクライアント端末装置。
- 前記検出部は、前記クライアント端末装置のユーザの表情を、前記ユーザの感情に関連する情報として検出する、請求項9に記載のクライアント端末装置。
- 前記検出部は、前記クライアント端末装置のユーザとオブジェクト間のインタラクションに関連する情報を、前記ユーザの感情に関連する情報として検出する、請求項9に記載のクライアント端末装置。
- 前記取得部は、安全度の分布を示す環境マップを取得し、
前記出力部は、前記感情マップと前記環境マップに基づき安心度と安全度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する、請求項9に記載のクライアント端末装置。 - 前記取得部は、災害の種類に応じて安全度の分布が変わる環境マップを取得し、
前記出力部は、前記感情マップと前記環境マップに基づき安心度と安全度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する、請求項9に記載のクライアント端末装置。 - 前記出力部は、ユーザを案内するガイダンスを音声出力または振動により提供する、請求項9に記載のクライアント端末装置。
- クライアント端末装置の位置を表す位置情報と、当該クライアント端末装置のユーザの感情に関連する情報とを取得することと、
前記位置情報と前記ユーザの感情に関連する情報に基づき、当該位置情報が表す位置の安心度を生成することにより、感情マップを生成することと、
前記感情マップに基づいて、安心度の高い場所を推定することと、
前記安心度の高い場所に前記クライアント端末装置のユーザを案内するためのガイダンスを生成することと、
前記ガイダンスを前記クライアント端末装置のユーザに提供することと、
を含む、制御方法。 - コンピュータを、
クライアント端末装置の位置を検出し、当該位置を表す位置情報を生成する位置情報検出部と、
前記クライアント端末装置のユーザの感情に関連する情報を検出する検出部と、
前記位置情報と前記ユーザの感情に関連する情報を外部装置に送信する送信部と、
前記外部装置により、前記位置情報と前記ユーザの感情に関連する情報とに基づいて生成された当該位置情報が表す位置の安心度を表す感情マップを取得する取得部と、
前記感情マップに基づいて安心度が高いと推定される場所に、前記クライアント端末装置のユーザを案内するガイダンスを、当該クライアント端末装置のユーザに出力する出力部と、
として機能させるためのプログラムが記憶された、記憶媒体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016569229A JP6665790B2 (ja) | 2015-01-14 | 2015-10-19 | ナビゲーションシステム、クライアント端末装置、制御方法、記憶媒体、およびプログラム |
CN201580072801.1A CN107148636B (zh) | 2015-01-14 | 2015-10-19 | 导航系统、客户终端装置、控制方法和存储介质 |
US15/524,294 US10408629B2 (en) | 2015-01-14 | 2015-10-19 | Navigation system, client terminal device, control method, and storage medium |
EP15877920.7A EP3246870A4 (en) | 2015-01-14 | 2015-10-19 | Navigation system, client terminal device, control method, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015-005059 | 2015-01-14 | ||
JP2015005059 | 2015-01-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2016113968A1 true WO2016113968A1 (ja) | 2016-07-21 |
Family
ID=56405525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2015/079486 WO2016113968A1 (ja) | 2015-01-14 | 2015-10-19 | ナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10408629B2 (ja) |
EP (1) | EP3246870A4 (ja) |
JP (2) | JP6665790B2 (ja) |
CN (1) | CN107148636B (ja) |
WO (1) | WO2016113968A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108153945A (zh) * | 2017-12-11 | 2018-06-12 | 中山大学 | 一种基于多Agent的人群疏散仿真模型 |
EP3363508A1 (en) * | 2017-02-20 | 2018-08-22 | Sony Corporation | Information processing system and information processing method |
JP2019215695A (ja) * | 2018-06-13 | 2019-12-19 | 富士ゼロックス株式会社 | 画像処理装置およびプログラム |
JP2021033981A (ja) * | 2019-08-29 | 2021-03-01 | パナソニックIpマネジメント株式会社 | 制御システム、防災システム、処理方法、及びプログラム |
JP2022058785A (ja) * | 2017-12-19 | 2022-04-12 | 日本電気株式会社 | 情報処理装置、ハザードマップ生成方法およびプログラム |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017022306A1 (ja) * | 2015-08-05 | 2017-02-09 | ソニー株式会社 | 情報処理システム、及び情報処理方法 |
KR101808064B1 (ko) * | 2017-05-30 | 2017-12-14 | 주식회사 선테크 | 관제 시스템 및 방법 |
JP6897377B2 (ja) * | 2017-07-11 | 2021-06-30 | トヨタ自動車株式会社 | 情報提供装置 |
JP7226330B2 (ja) * | 2017-11-01 | 2023-02-21 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7020100B2 (ja) * | 2017-12-19 | 2022-02-16 | 日本電気株式会社 | 情報処理装置、ハザードマップ生成方法およびプログラム |
CN108062416B (zh) * | 2018-01-04 | 2019-10-29 | 百度在线网络技术(北京)有限公司 | 用于在地图上生成标签的方法和装置 |
US11460314B1 (en) * | 2019-06-28 | 2022-10-04 | GM Cruise Holdings LLC. | Sentiment-based autonomous vehicle user interaction and routing recommendations |
CN111475743A (zh) * | 2020-03-27 | 2020-07-31 | 深圳光启超材料技术有限公司 | 智能头盔及事件信息推送方法 |
KR102702773B1 (ko) * | 2020-06-24 | 2024-09-05 | 현대자동차주식회사 | 차량 및 그 제어방법 |
US20240095310A1 (en) * | 2020-12-07 | 2024-03-21 | Sony Group Corporation | Information processing device, data generation method, grouping model generation method, grouping model learning method, emotion estimation model generation method, and grouping user information generation method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005046305A (ja) * | 2003-07-28 | 2005-02-24 | Sony Corp | 会話補助装置、会話補助システム、会話補助方法、情報伝達装置、情報伝達システム、情報伝達方法、制御装置、制御システムおよび制御方法 |
WO2008041424A1 (fr) * | 2006-09-29 | 2008-04-10 | Brother Kogyo Kabushiki Kaisha | Système de présentation de situation, serveur et programme de serveur |
JP2009288843A (ja) * | 2008-05-27 | 2009-12-10 | Seiko Epson Corp | サーバシステム、避難誘導システム及び避難通知方法 |
JP2010004177A (ja) * | 2008-06-18 | 2010-01-07 | Nec Access Technica Ltd | 災害情報提供システム |
JP2010134937A (ja) * | 2008-12-08 | 2010-06-17 | Korea Electronics Telecommun | 状況認知装置およびこれを用いた状況認知方法 |
JP2011210205A (ja) * | 2010-03-31 | 2011-10-20 | Fujitsu Ltd | 災害情報処理装置 |
JP2012221480A (ja) * | 2011-04-06 | 2012-11-12 | L Is B Corp | メッセージ処理システム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100595519C (zh) | 2005-01-26 | 2010-03-24 | 松下电器产业株式会社 | 引导装置及引导方法 |
WO2011007386A1 (ja) | 2009-07-14 | 2011-01-20 | 三菱電機株式会社 | ナビゲーション装置 |
US8364395B2 (en) * | 2010-12-14 | 2013-01-29 | International Business Machines Corporation | Human emotion metrics for navigation plans and maps |
CN102279559A (zh) * | 2011-01-18 | 2011-12-14 | 荣杰 | 家用地震预警钟 |
CN102269594B (zh) * | 2011-06-27 | 2013-04-03 | 合肥工业大学 | 基于路径积分的空间导航方法 |
JP4923158B1 (ja) | 2011-07-24 | 2012-04-25 | 株式会社アイエスエム | 救助支援システム、救助要請装置、携帯端末、ナビゲーション装置、救助支援方法およびプログラム |
JP6452443B2 (ja) * | 2011-11-09 | 2019-01-16 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | データ・ネットワーク・サービスを介した感情共有のためのバイオセンサーの使用 |
US9389091B2 (en) * | 2011-12-20 | 2016-07-12 | Safe Path Technologies, LLC | Methods and apparatus for attribute-based navigation |
JP5869410B2 (ja) | 2012-04-06 | 2016-02-24 | エイディシーテクノロジー株式会社 | 道路交通情報配信システム及び車載端末装置 |
WO2014022399A2 (en) * | 2012-07-30 | 2014-02-06 | Telecommunication Systems Inc. | Navigation redirect using cmas emergency alerts |
JP2014134922A (ja) * | 2013-01-09 | 2014-07-24 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
CN105830096A (zh) * | 2013-08-15 | 2016-08-03 | 埃莫蒂安特公司 | 基于情感和外表的时空图系统及方法 |
US10145694B2 (en) * | 2013-12-19 | 2018-12-04 | Intel Corporation | Technologies for providing information to a user while traveling |
-
2015
- 2015-10-19 CN CN201580072801.1A patent/CN107148636B/zh active Active
- 2015-10-19 WO PCT/JP2015/079486 patent/WO2016113968A1/ja active Application Filing
- 2015-10-19 US US15/524,294 patent/US10408629B2/en active Active
- 2015-10-19 EP EP15877920.7A patent/EP3246870A4/en not_active Ceased
- 2015-10-19 JP JP2016569229A patent/JP6665790B2/ja active Active
-
2020
- 2020-02-20 JP JP2020027312A patent/JP6930618B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005046305A (ja) * | 2003-07-28 | 2005-02-24 | Sony Corp | 会話補助装置、会話補助システム、会話補助方法、情報伝達装置、情報伝達システム、情報伝達方法、制御装置、制御システムおよび制御方法 |
WO2008041424A1 (fr) * | 2006-09-29 | 2008-04-10 | Brother Kogyo Kabushiki Kaisha | Système de présentation de situation, serveur et programme de serveur |
JP2009288843A (ja) * | 2008-05-27 | 2009-12-10 | Seiko Epson Corp | サーバシステム、避難誘導システム及び避難通知方法 |
JP2010004177A (ja) * | 2008-06-18 | 2010-01-07 | Nec Access Technica Ltd | 災害情報提供システム |
JP2010134937A (ja) * | 2008-12-08 | 2010-06-17 | Korea Electronics Telecommun | 状況認知装置およびこれを用いた状況認知方法 |
JP2011210205A (ja) * | 2010-03-31 | 2011-10-20 | Fujitsu Ltd | 災害情報処理装置 |
JP2012221480A (ja) * | 2011-04-06 | 2012-11-12 | L Is B Corp | メッセージ処理システム |
Non-Patent Citations (1)
Title |
---|
See also references of EP3246870A4 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3363508A1 (en) * | 2017-02-20 | 2018-08-22 | Sony Corporation | Information processing system and information processing method |
JPWO2018150720A1 (ja) * | 2017-02-20 | 2019-12-19 | ソニー株式会社 | 情報処理システムおよび情報処理方法 |
JP7052734B2 (ja) | 2017-02-20 | 2022-04-12 | ソニーグループ株式会社 | 情報処理システムおよび情報処理方法 |
US11413519B2 (en) | 2017-02-20 | 2022-08-16 | Sony Corporation | Information processing system and information processing method |
CN108153945A (zh) * | 2017-12-11 | 2018-06-12 | 中山大学 | 一种基于多Agent的人群疏散仿真模型 |
JP2022058785A (ja) * | 2017-12-19 | 2022-04-12 | 日本電気株式会社 | 情報処理装置、ハザードマップ生成方法およびプログラム |
JP7218827B2 (ja) | 2017-12-19 | 2023-02-07 | 日本電気株式会社 | 情報処理装置、ハザードマップ生成方法およびプログラム |
JP2019215695A (ja) * | 2018-06-13 | 2019-12-19 | 富士ゼロックス株式会社 | 画像処理装置およびプログラム |
JP7115052B2 (ja) | 2018-06-13 | 2022-08-09 | 富士フイルムビジネスイノベーション株式会社 | 画像処理装置およびプログラム |
JP2021033981A (ja) * | 2019-08-29 | 2021-03-01 | パナソニックIpマネジメント株式会社 | 制御システム、防災システム、処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2020095045A (ja) | 2020-06-18 |
JP6665790B2 (ja) | 2020-03-13 |
JP6930618B2 (ja) | 2021-09-01 |
JPWO2016113968A1 (ja) | 2017-10-19 |
CN107148636A (zh) | 2017-09-08 |
CN107148636B (zh) | 2020-08-14 |
EP3246870A4 (en) | 2018-07-11 |
EP3246870A1 (en) | 2017-11-22 |
US10408629B2 (en) | 2019-09-10 |
US20170336217A1 (en) | 2017-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6930618B2 (ja) | ナビゲーションシステム、クライアント端末装置、制御方法、記憶媒体、およびプログラム | |
US11902871B2 (en) | Systems and methods for identifying and activating emergency response assets | |
US20220014895A1 (en) | Spatiotemporal analysis for emergency response | |
US20160284038A1 (en) | Emergency Response System | |
US10212570B1 (en) | System for providing notifications to user devices | |
US9726503B2 (en) | User-worn devices, systems, and methods for directing a user in an emergency | |
JP6612538B2 (ja) | 装着型ナビゲーションシステム | |
WO2018111660A1 (en) | Wearable device control with inferred insights | |
JP2023118729A (ja) | 情報処理方法、情報処理プログラム、及び情報処理装置 | |
JP6816909B1 (ja) | 避難誘導システム、避難誘導方法、および、眼鏡型ディスプレイ | |
JP2017038205A (ja) | 情報処理システム、情報処理装置、情報処理方法、及び、端末装置 | |
CN113129334A (zh) | 物体追踪方法、装置、存储介质及可穿戴电子设备 | |
US11709063B2 (en) | Method and system for rendering a safe navigation route | |
KR20220032662A (ko) | 음성멘트를 이용한 긴급알림 서비스 제공 시스템 | |
JP2015138534A (ja) | 電子機器 | |
JP2017037453A (ja) | 案内システム、情報処理装置、端末装置、及び、案内方法 | |
JP6620456B2 (ja) | 情報処理システム、情報処理装置、ウェアラブル装置、及び、情報処理方法 | |
US11087613B2 (en) | System and method of communicating an emergency event | |
JP7219579B2 (ja) | 通知システム、通知方法及びコンピュータプログラム | |
JP6877176B2 (ja) | 監視システム | |
CN110767285A (zh) | 一种提醒方法及终端设备 | |
JP2020112856A (ja) | 喘息予報システム | |
KR102342828B1 (ko) | 사고 신고를 위한 모바일 단말기 및 그 방법 | |
JP2020024585A (ja) | 情報処理装置、システム、情報処理装置の制御方法、及びプログラム | |
KR20240015216A (ko) | 메타버스를 이용한 쉼터 융합 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15877920 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2016569229 Country of ref document: JP Kind code of ref document: A |
|
REEP | Request for entry into the european phase |
Ref document number: 2015877920 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |