WO2023218616A1 - 情報処理方法及び情報処理装置 - Google Patents

情報処理方法及び情報処理装置 Download PDF

Info

Publication number
WO2023218616A1
WO2023218616A1 PCT/JP2022/020109 JP2022020109W WO2023218616A1 WO 2023218616 A1 WO2023218616 A1 WO 2023218616A1 JP 2022020109 W JP2022020109 W JP 2022020109W WO 2023218616 A1 WO2023218616 A1 WO 2023218616A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
transportation
content
information processing
Prior art date
Application number
PCT/JP2022/020109
Other languages
English (en)
French (fr)
Inventor
純 河西
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to PCT/JP2022/020109 priority Critical patent/WO2023218616A1/ja
Publication of WO2023218616A1 publication Critical patent/WO2023218616A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to an information processing method and an information processing device that provide information to users.
  • JP2020-123082A discloses a technology for displaying an augmented reality screen at the current location of the user terminal when displaying an augmented reality screen guiding tourist spots on the user terminal.
  • the present invention aims to provide more appropriate content according to the means of transportation of the user and to improve the efficiency of the calculation load related to information processing.
  • One aspect of the present invention is an information processing method that provides information to a user.
  • This information processing method includes an acquisition process that acquires a user's means of transportation, and, when it is determined that a user exists at a predetermined location, a plurality of contents set for the predetermined location based on the user's means of transportation. and a provision process of selecting at least one of these and providing it to the user.
  • FIG. 1 is a diagram showing an example of the system configuration of an information processing system.
  • FIG. 2 is a block diagram showing an example of a functional configuration of a content providing server and an electronic device.
  • FIG. 3 is a diagram schematically showing each piece of information stored in the device information DB.
  • FIG. 4 is a diagram schematically showing each piece of information stored in the content DB.
  • FIG. 5 is a diagram showing an example of transition of a display screen displayed on a display unit of an electronic device.
  • FIG. 6 is a diagram schematically showing transportation means that a user may use.
  • FIG. 7 is a diagram showing a simplified example of the relationship between the route to the registered location and the main means of transportation.
  • FIG. 1 is a diagram showing an example of the system configuration of an information processing system.
  • FIG. 2 is a block diagram showing an example of a functional configuration of a content providing server and an electronic device.
  • FIG. 3 is a diagram schematically showing each piece of information stored in the device information DB.
  • FIG. 8 is a diagram schematically showing the relationship between the registered locations managed by the content providing server and the user's means of transportation.
  • FIG. 9 is a diagram showing an output example of content provided to the user by the content providing server when the user's means of transportation is walking.
  • FIG. 10 is a diagram showing an output example of content provided to the user by the content providing server when the user's means of transportation is a car.
  • FIG. 11 is a diagram illustrating an example of outputting content depending on the means of transportation of the user.
  • FIG. 12 is a diagram illustrating an example of a content display screen displayed on a display unit of an electronic device.
  • FIG. 13 is a diagram illustrating an example of a content display screen displayed on a display unit of an electronic device.
  • FIG. 14 is a flowchart illustrating an example of content output processing in an electronic device.
  • FIG. 15 is a flowchart illustrating an example of information storage processing in the content providing server.
  • FIG. 16 is a flowchart illustrating an example of content providing processing in the content providing server.
  • FIG. 1 is a diagram showing an example of a system configuration of an information processing system 10.
  • the information processing system 10 is a communication system that performs a process of providing various contents to users registered in the content providing server 200.
  • the user U1 is a user who owns the automobile C1. Further, it is assumed that the user U1 may use a means of transportation such as walking, a train TR1, a bus BU1, a motorcycle M1, a bicycle BC1, a boat SH1, and an airplane AP1.
  • a means of transportation such as walking, a train TR1, a bus BU1, a motorcycle M1, a bicycle BC1, a boat SH1, and an airplane AP1.
  • FIG. 1 is a diagram showing an example of a system configuration of an information processing system 10.
  • the information processing system 10 is a communication system that performs a process of providing various contents to users registered in the content providing server 200.
  • the user U1 is a user who owns the automobile C1.
  • the user U1 may use a means of transportation such as walking
  • the electronic device MC1 is illustrated as an example of a device owned by the user U1, but the device is not limited to this, and includes an on-vehicle device, a device brought into the vehicle, and a device that can be worn by the user U1. may be used.
  • the train TR1, the bus BU1, the motorcycle M1, the bicycle BC1, the ship SH1, and the airplane AP1 are illustrated as each means of transportation, a plurality of these may be used, and other means of transportation may be used.
  • the information processing system 10 is composed of a plurality of devices connected via a network 20.
  • the control device 50, the information output device 100, the content providing server 200, the communication device 300, and the electronic device MC1 are connected via the network 20.
  • communication between these devices is performed using wired communication or wireless communication.
  • direct communication between the devices instead of communication via the network 20, direct communication between the devices may be used.
  • a communication device may be installed in at least one of the train TR1, bus BU1, motorcycle M1, bicycle BC1, ship SH1, airplane AP1, and object RO1. In this case, the communication devices installed therein are connected to the content providing server 200 and the like via the network 20.
  • the control device 50 and the information output device 100 are in-vehicle devices installed in the automobile C1.
  • the control device 50 acquires vehicle information regarding the vehicle C1 and user information regarding the occupants of the vehicle C1, and transmits each acquired information to the content providing server 200.
  • vehicle information and user information are acquired using various sensors installed in the vehicle C1.
  • the information output device 100 is a device that can output content sent from the content providing server 200.
  • the information output device 100 is realized by, for example, a tablet terminal, a car navigation device, or an IVI (In-Vehicle Infotainment). Note that an example of content output is shown in FIG. 10.
  • the content providing server 200 is an information presentation device that implements a content providing service that provides the user U1 with the content set for the registered location.
  • the user U1 needs to register to use the content providing service.
  • the registered location is a location where predetermined content is provided by the content providing server 200, and is managed by the content DB 220 (see FIGS. 2 and 4).
  • the registered locations are, for example, parks, theme parks, amusement parks, shopping malls, tourist spots, and the like.
  • objects and devices for detecting the presence of the user U1 are installed at the registration location. For example, object RO1 and communication equipment 300 are installed. Note that the configuration of the content providing server 200 will be described in detail with reference to FIG. 2 and the like.
  • the communication device 300 is a device installed at a registered location managed by the content providing server 200. Furthermore, the communication device 300 communicates with nearby electronic devices using wireless communication or wired communication, and transmits the communication results to the content providing server 200. For example, when the communication device 300 exchanges predetermined information with the electronic device MC1 using wireless communication or wired communication, the communication device 300 determines that a predetermined communication has been established between the electronic device MC1 and the communication device 300. The determination result is sent to the content providing server 200. This allows the content providing server 200 to determine that the user U1 who owns the electronic device MC1 exists around the registered location where the communication device 300 is installed.
  • the object RO1 is an object installed at a registered location managed by the content providing server 200. Furthermore, a characteristic portion FP1 is provided on at least a portion of the external appearance of the object RO1. For example, if the registered place is a park, the object RO1 may be a gate at the entrance of the park. Furthermore, if the registered location is a parking lot equipped with charging equipment for electric vehicles, a charging station or the like can be used as the object RO1. Examples of this are shown in FIGS. 8 to 10.
  • the characteristic portion FP1 is a portion having identification information that can identify the registered location, the object RO1 installed at the registered location, and other objects or buildings installed around the registered location.
  • This identification information can be identified by, for example, a captured image captured by the electronic device MC1.
  • a QR code registered trademark
  • a specific marker can be used as the identification information.
  • the specific marker is a marker from which specific information, for example, a registered location ID (see FIG. 4) can be obtained through object recognition processing.
  • the electronic device MC1 photographs the object RO1 so that the characteristic portion FP1 is included in the imaging range, and acquires a captured image that includes the characteristic portion FP1.
  • the electronic device MC1 acquires identification information based on the characteristic portion FP1 included in the captured image. A known acquisition method can be used to acquire this identification information.
  • the electronic device MC1 transmits the acquired identification information to the content providing server 200. This allows the content providing server 200 to determine that the user U1 who owns the electronic device MC1 exists around the registered location where the object RO1 is installed.
  • the electronic device MC1 is a portable information processing device owned by the user U1, and is, for example, an information processing device such as a smartphone, a tablet terminal, or a portable personal computer. Furthermore, the electronic device MC1 is a device that can output content transmitted from the content providing server 200. Note that the configuration of the electronic device MC1 will be described in detail with reference to FIG. 2 and the like.
  • FIG. 2 is a block diagram showing an example of the functional configuration of the content providing server 200 and the electronic device MC1.
  • the content providing server 200 includes a communication section 201, a control section 202, a storage section 203, a determination section 204, an estimation section 205, and a content provision processing section 206.
  • the control unit 202, the determination unit 204, the estimation unit 205, and the content provision processing unit 206 are realized by a controller that can execute a process of providing information to the user U1.
  • the communication unit 201 exchanges various information with other devices using wired communication or wireless communication under the control of the control unit 202.
  • the control unit 202 controls each unit based on various programs stored in the storage unit 203.
  • the control unit 202 is realized, for example, by a processing device such as a CPU (Central Processing Unit).
  • the storage unit 203 is a storage medium that stores various information.
  • the storage unit 203 stores various information (for example, a control program, map information DB, device information DB 210, and content DB 220) necessary for the control unit 202 to perform various processes.
  • the storage unit 203 stores various information acquired via the communication unit 201.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • the device information DB 210 and content DB 220 will be described in detail with reference to FIGS. 3 and 4.
  • the determination unit 204 determines, under the control of the control unit 202, whether a user who uses the content providing service is present at the registered location, and outputs the determination result to the estimation unit 205. For example, the determination unit 204 determines that the user U1 exists at the registered location based on the establishment of a proximity condition between the communication device 300 installed at the registered location and the electronic device MC1 associated with the user U1. determine what to do. Further, for example, the determination unit 204 determines that the user U1 is located at the registered location based on the establishment of a proximity condition between the object RO1 installed at the registered location and the electronic device MC1 associated with the user U1. Determine whether it exists.
  • the determination unit 204 determines that the proximity condition is satisfied, and determines that the user U1 is present at the registered location. For example, if the captured image acquired by the electronic device MC1 includes feature information regarding the registered location, such as the feature portion FP1, the determination unit 204 determines that the proximity condition is satisfied, and the user is located at the registered location. It is determined that U1 exists. Further, for example, when the exchange of predetermined information using wireless communication or wired communication is performed between the electronic device MC1 and the communication device 300, the determination unit 204 determines that the proximity condition is satisfied, and It is determined that the user U1 exists at the registration location. Note that the determination unit 204 is realized by, for example, a processing device such as a CPU. Further, these determination methods will be explained in detail with reference to FIGS. 4, 7, etc.
  • the estimation unit 205 estimates the means of transportation of the user determined by the determination unit 204 to exist at the registered location based on the control of the control unit 202, and outputs the estimation result to the content provision processing unit 206.
  • the estimating unit 205 estimates the user U1 based on device information regarding at least one of the electronic device MC1 associated with the user U1 and the installed device installed in the transportation means used by the user U1.
  • Estimate means of transportation As this device information, it is possible to estimate the means of transportation of the user U1 based on at least one of the attributes of the electronic device MC1 or the installed device, and information regarding the movement history of the electronic device MC1 or the installed device.
  • the estimation unit 205 is realized by a processing device such as a CPU, for example. Further, these estimation methods will be explained in detail with reference to FIGS. 5, 6, etc.
  • the content provision processing unit 206 uses the device information DB 210 and the content DB 220 to perform a process of providing content according to the means of transportation estimated by the estimation unit 205 to the user determined by the determination unit 204 to be present at the registered location. It is something to be carried out.
  • the content provision processing unit 206 is realized by a processing device such as a CPU, for example. Further, the process of providing content will be described in detail with reference to FIGS. 8 to 13 and the like.
  • the electronic device MC1 includes a communication section 301, a control section 302, a storage section 303, a position information acquisition section 304, a sound acquisition section 305, an image acquisition section 306, an operation reception section 307, a display section 308, A sound output section 309 is provided.
  • the communication unit 301 exchanges various information with other devices using wired communication or wireless communication under the control of the control unit 302.
  • the control unit 302 controls each unit based on various programs stored in the storage unit 303.
  • the control unit 302 is realized by, for example, a processing device such as a CPU.
  • the storage unit 303 is a storage medium that stores various information.
  • the storage unit 303 stores various information (for example, control programs) necessary for the control unit 302 to perform various processes. Further, the storage unit 303 stores various information acquired via the communication unit 301.
  • the storage unit 303 for example, ROM, RAM, HDD, SSD, or a combination thereof can be used.
  • the position information acquisition unit 304 acquires position information regarding the location where the electronic device MC1 is present, and outputs the acquired position information to the control unit 302.
  • it can be realized by a GNSS receiver that acquires position information using GNSS (Global Navigation Satellite System).
  • GNSS Global Navigation Satellite System
  • the position information includes various data related to the position such as latitude, longitude, altitude, etc. at the time of receiving the GNSS signal.
  • the location information may be acquired using other location information acquisition methods. For example, location information may be derived using information from nearby access points and base stations. Alternatively, location information may be acquired using a beacon.
  • the sound acquisition unit 305 acquires sounds surrounding the electronic device MC1 under the control of the control unit 302, and outputs information regarding the acquired sounds to the control unit 302.
  • the sound acquisition unit 305 for example, one or more microphones or sound acquisition sensors can be used.
  • the image acquisition unit 306 captures an image of a subject and generates an image (image data) under the control of the control unit 302, and outputs information regarding the generated image to the control unit 302.
  • the image acquisition unit 306 includes, for example, one or more camera devices or image sensors capable of capturing an image of a subject.
  • the operation reception unit 307 accepts operations from the user, and outputs the contents of the accepted operations to the control unit 302.
  • the display unit 308 is a display unit that displays various images based on the control of the control unit 302.
  • a display panel such as an organic EL (Electro Luminescence) panel or an LCD (Liquid Crystal Display) panel can be used.
  • the operation reception unit 307 and the display unit 308 may be configured as a touch panel on which the user can perform operation input by touching or approaching the display surface with his/her finger, or as a separate user interface. may be configured.
  • FIGS. 5, 9, and 11 to 13 show examples in which the operation reception unit 307 and the display unit 308 are touch panels.
  • the sound output section 309 outputs sound to the outside of the electronic device MC1 based on the control of the control section 302.
  • the sound output unit 309 for example, one or more speakers can be used.
  • the operation reception unit 307, display unit 308, and sound output unit 309 are examples of a user interface, and some of these may be omitted or other user interfaces may be used.
  • FIG. 3 is a diagram schematically showing each piece of information stored in the device information DB 210.
  • the device information DB 210 is a database for managing device information regarding devices (including the electronic device MC1, the control device 50, and the information output device 100) owned by users (including the user U1) who use the content providing service.
  • the device information DB 210 stores location information 212, attribute information 213, movement history 214, vehicle information 215, image information 216, connection information 217, and payment information 218 in association with the user ID 211. . Note that a portion of each of these pieces of information is sequentially transmitted from the electronic device MC1, the control device 50 or the information output device 100 installed in the automobile C1 to the content providing server 200, and stored therein. Further, information transmitted from devices installed in other means of transportation may be sequentially stored in the content providing server 200.
  • the user ID 211 is identification information for identifying the user who uses the content providing service. For example, "U01" is stored in the user ID 211 as the user ID of the user U1.
  • the location information 212 is information indicating the location of the user corresponding to the user ID 211. For example, each user's current location is acquired using various sensors installed in electronic devices owned by each user, such as a location information acquisition unit, and information that associates the latitude and longitude of this current location with the acquisition time is obtained. It is transmitted to the content providing server 200 and stored in the location information 212. Based on the location information 212, the current location of each user can be specified.
  • the attribute information 213 is information indicating attributes of devices managed by the device information DB 210. For example, if the device managed by the device information DB 210 is a smartphone, that fact is stored, and if the device managed by the device information DB 210 is an in-vehicle device, that fact is stored.
  • the movement history 214 is information indicating the movement trajectory of the user corresponding to the user ID 211. For example, information in which the position stored in the position information 212 and the acquisition time of this position information are associated is stored in the movement history 214 as a movement trajectory.
  • the vehicle information 215 is information stored when the device managed by the device information DB 210 is an in-vehicle device, and is various information related to the vehicle. For example, a history of detection information of each sensor installed in the automobile C1, such as an acceleration sensor, is stored. Furthermore, for example, if the vehicle C1 is an electric vehicle, information on the amount of charge or remaining electricity of the vehicle C1 is stored. Further, for example, when the automobile C1 is an engine vehicle, information on the remaining fuel of the automobile C1 is stored.
  • the image information 216 is information regarding images acquired by an image acquisition unit installed in the device corresponding to the user ID 211, for example, a camera. For example, a captured image acquired by the image acquisition unit is transmitted to the content providing server 200 and stored in the image information 216. For example, the history of each captured image acquired within a predetermined period of time is stored in the image information 216. Based on the image information 216, the situation around the electronic device MC1, the situation inside the vehicle of each means of transportation, the situation outside the vehicle of each means of transportation, etc. can be specified.
  • the connection information 217 is information indicating a communication history when communication is established between a device managed by the device information DB 210 and another communication device. That is, by referring to the connection information 217, it is possible to specify the communication device to which the device managed by the device information DB 210 is connected.
  • the payment information 218 is information regarding the settlement of accounts when electronic payment is executed by a device managed by the device information DB 210. For example, the history of each payment information acquired within a predetermined time is stored in the payment information 218. That is, by referring to the payment information 218, it is possible to specify the timing when the device managed by the device information DB 210 made the payment and the device that made the payment.
  • FIG. 4 is a diagram schematically showing each piece of information stored in the content DB 220.
  • the content DB 220 is a database for managing content provided to users existing around the registered location managed by the content providing server 200.
  • the content DB 220 stores location information 222, content output range 223, transportation means 224, and content 225 in association with the registered location ID 221.
  • the registered location ID 221 is identification information for identifying a registered location that is a location where content is provided to users who use the content providing service. For example, "PL01" is stored in the registration location ID 221 as the registration location ID of objects RO1 to RO3 (see FIG. 8). Further, for example, "PL02" is stored as the registered location ID of the building B1 (see FIG. 8) in the registered location ID 221.
  • the location information 222 is information indicating the location of the registered location where the content is provided. For example, the latitude and longitude of the registered location are stored in the location information 222. Based on the location information 222, the location of the registered location can be specified. Note that one location information may be set for one registered location, or a plurality of location information may be set for one registered location.
  • the content output range 223 is information indicating the range in which content corresponding to the registered location is provided.
  • the content output range 223 can be a predetermined range based on the location of the registered location. This predetermined range may be, for example, a circular range with a predetermined radius centered on the position of the registered place, or may be an area related to the registered place, such as the inside of a park if it is a park.
  • the transportation means 224 is information indicating the transportation means of the user who uses the content providing service. For example, each means of transportation assumed to be used by each user is stored in the means of transportation 224.
  • the content 225 is content provided to users who use the content providing service. Specifically, for one registered location ID 221, content corresponding to a plurality of transportation means 224 is stored in the content 225.
  • Example of determining whether the proximity condition is met a determination example for determining that the user U1 is present at a registered location whose registered location ID is stored in the registered location ID 221, that is, a determination example for determining that the proximity condition is satisfied will be described.
  • a proximity condition is established between the location of a registered location or a device installed at the registered location and the electronic device MC1 of the user U1
  • this example shows an example in which it is determined that the user U1 exists at the registration location RL1 based on the establishment of the proximity condition of the electronic device MC1 that the user U1 has.
  • the device installed at the registered location is, for example, a communication device that can communicate with the electronic device MC1 using wired communication or wireless communication, an object with a characteristic part installed at the registered location, or the like.
  • the object including the characteristic portion is, for example, the object RO1 (see FIGS. 1 and 8 to 10) including the characteristic portion FP1.
  • the determination unit 204 (see FIG. 2) of the content providing server 200 extracts user IDs 211 whose location information 212 in the device information DB 210 is within a predetermined range based on the location information 222 in the content DB 220. . That is, the determination unit 204 extracts devices existing around the registered location. Then, when the location information 212 of the device information DB 210 includes location information that exists within the predetermined range, the determination unit 204 determines that the user with the user ID 211 corresponding to the location information is located near the registered location. It is judged that it exists.
  • the electronic device MC1 may perform the determination process using position information. In this case, the electronic device MC1 transmits a content request to the content providing server 200 based on the proximity condition being satisfied.
  • the determination unit 204 determines whether the communication device is connected based on the connection information from the communication device installed at the registration location corresponding to the registration location ID 221 of the content DB 220. Identify connected electronic devices using wireless or wired communication. For example, when device identification information or user ID for identifying the connected device is exchanged through communication between devices, the connection information may include device identification information or user ID for identifying the connected electronic device. It becomes possible to include the user ID.
  • the connection information may be transmitted to the content providing server 200 from the electronic device that has communicated with the communication device.
  • the electronic device MC1 may perform the determination process using communication. In this case, the electronic device MC1 transmits a content request to the content providing server 200 based on the proximity condition being satisfied.
  • a router that can use Wi-Fi for wireless communication is installed at a registered location.
  • the electronic device is connected to the router.
  • the router transmits connection information regarding the connected electronic device to the content providing server 200.
  • the electronic device transmits connection information regarding the router to the content providing server 200. This allows the content providing server 200 to know that the user who owns the electronic device exists around the registered location where the router is installed.
  • a communication device that can use Bluetooth (registered trademark) for wireless communication is installed at a registered location. It is assumed that this communication device is capable of transmitting a beacon signal that includes registration location information regarding a registered location, for example.
  • the electronic device owned by the user receives the beacon signal transmitted by the communication device, the electronic device can acquire the registered location information included in the beacon signal.
  • the electronic device transmits the registration location information included in the beacon signal to the content providing server 200. This allows the content providing server 200 to know that a user who owns the electronic device exists around the registered location where the communication device is installed.
  • visible light communication is wireless communication performed using electromagnetic waves in the visible light band that are visible to the human eye.
  • information can be output from the car C1 and by using the on-board camera of the car C1, information from the communication device at the registered location can be output to the car C1. can be obtained. This allows the content providing server 200 to know that the user U1 riding in the car C1 is present around the registered location where the communication device is installed.
  • a QR code is displayed on the exterior of an object, but in order to preserve the beautification of the exterior of the object, it is assumed that there are registered locations where it is not desirable to provide a QR code. Even in such a case, it is possible to perform visible light communication using street lights and the like.
  • the user U1 uses the image acquisition unit 306 of the electronic device MC1 to acquire characteristic information of an object installed at the registered location. For example, the user U1 acquires an image of the characteristic portion FP1 of the object RO1 using the image acquisition unit 306 of the electronic device MC1.
  • the control unit 302 of the electronic device MC1 acquires access information to the content providing server 200 and identification information regarding the registered location where the object RO1 is installed, based on the image of the characteristic portion FP1.
  • the control unit 302 of the electronic device MC1 accesses the content providing server 200 based on the access information, and transmits identification information regarding the registered location where the object RO1 is installed.
  • the content providing server 200 can grasp that the user U1 who owns the electronic device MC1 exists around the registered location where the object RO1 is installed.
  • this example shows a case where the feature portion FP1 is provided on the appearance of the object RO1, but the feature information may also be the shape of the object installed at the registered location, or the scenery of the registered location, etc. It can also be used as information.
  • position information and the shape of an object are associated with each other and registered in advance as determination information.
  • the ABC region and the Buddhist statues of temples (registered locations) within the region are registered in advance in association with each other.
  • the electronic device MC1 based on the position information of the electronic device MC1, it can be determined that the electronic device MC1 exists in the ABC area. Furthermore, if the captured image acquired by the image acquisition unit 306 of the electronic device MC1 includes a Buddhist statue when the electronic device MC1 exists in the ABC area, the Buddhist statue registered in association with the ABC area and the The image is compared with the Buddha statue included in the captured image to determine whether or not they match. If they match, it can be determined that the electronic device MC1 is present at that temple.
  • a specific sound may also be used as the feature information.
  • This specific sound is sound information from which specific information can be acquired.
  • a specific sound is output as characteristic information from a sound generating device installed at the registered location, and the sound acquisition unit 305 of the electronic device MC1 acquires this specific sound.
  • the control unit 302 of the electronic device MC1 acquires access information to the content providing server 200 and identification information regarding the registered location where the object RO1 is installed, based on the specific sound.
  • the control unit 302 of the electronic device MC1 accesses the content providing server 200 based on the access information, and transmits identification information regarding the registered location where the object RO1 is installed.
  • the content providing server 200 can grasp that the user U1 who owns the electronic device MC1 exists around the registered location where the object RO1 is installed.
  • determination example shown above is an example, and other determination methods may be used. Moreover, the determination may be made by combining the above-mentioned determination methods. For example, it is possible to improve the determination accuracy by using two or more determination methods.
  • FIG. 5 is a diagram showing an example of transition of the display screen displayed on the display unit 308 of the electronic device MC1.
  • FIG. 5 shows an example where the user U1 moves to the registration location on foot.
  • the left side of FIG. 5 shows an example of a selection screen 310 for selecting a means of transportation for the user U1.
  • the selection screen 310 is displayed when the proximity condition between the electronic device MC1 and the registered location is satisfied.
  • this example shows an example in which the user U1's transportation means is selected by manual operation, when the user U1's transportation means is automatically estimated, the selection screen 310 is not displayed.
  • selection buttons 311 to 319 are displayed for selecting the means of transportation for the user U1.
  • the user U1 performs a pressing operation of pressing the selection button corresponding to his/her means of transportation from among the selection buttons 311 to 319.
  • the control unit 302 transmits transportation means information indicating the transportation means corresponding to the selection button 311 to the content providing server 200.
  • the content providing server 200 can acquire the transportation means of the user U1.
  • the content providing server 200 then provides the electronic device MC1 with content according to the means of transportation of the user U1.
  • the electronic device MC1 outputs the content provided by the content providing server 200.
  • the content display screen 320 shown on the right side of FIG. 5 is displayed on the display unit 308.
  • FIG. 5 shows an example of a content display screen 320 that displays content according to the transportation means selected in response to selection operations of the selection buttons 311 to 319 on the selection screen 310.
  • the content display screen 320 is provided with an image display area 321, a message display area 324, and a transportation means display area 325.
  • image display area 321 in addition to the captured image acquired by the image acquisition unit 306, a humanoid image 322 corresponding to the means of transportation selected using the selection screen 310 and the next content related to the current registered location are displayed.
  • a guide image 323 that guides the registered location to be displayed is displayed in an overlapping manner.
  • information regarding the current registered location information regarding the position and direction of the registered location where the next content related to the current registered location will be displayed, etc. are displayed as a message.
  • FIG. 5 shows an example in which characters 326 "for pedestrians" and a sign image 327 indicating pedestrians are displayed in the transportation means display area 325.
  • FIG. 6 is a diagram schematically showing transportation means that the user U1 may use.
  • transportation means include an airplane AP1 flying in the sky, a train TR1 running on a track RP1, a car C1 running on a roadway RD1, a bus BU1, a motorcycle M1, a bicycle BC1, and a vehicle installed along the roadway RD1.
  • a user U1 walking on a sidewalk SW1 and a boat SH1 moving on a river RV1 are shown.
  • the estimation unit 205 (see FIG. 2) can obtain the movement history of the electronic device MC1 using the position information 212 and movement history 214 of the device information DB 210. Therefore, the estimating unit 205 selects the movement history of the electronic device MC1 from among each route on the map based on the movement history of the electronic device MC1 and the map information stored in the map information DB of the storage unit 203. Select matching routes. For example, if the movement history of the electronic device MC1 matches the track RP1, the estimation unit 205 estimates that the means of transportation of the user U1 who owns the electronic device MC1 is a train.
  • the estimating unit 205 estimates that the transportation means of the user U1 who owns the electronic device MC1 is a boat. Further, when the movement history of the electronic device MC1 matches the sidewalk SW1, the estimating unit 205 estimates that the means of transportation of the user U1 who owns the electronic device MC1 is walking. Further, when the movement history of the electronic device MC1 matches the roadway RD1, the estimation unit 205 estimates that the transportation means of the user U1 who owns the electronic device MC1 is some kind of vehicle that runs on the roadway RD1. In this case, the type of vehicle traveling on the roadway RD1 can be estimated using the following speed and the like.
  • the estimation unit 205 can calculate the moving speed of the electronic device MC1 based on the position information 212 and the movement history 214 of the device information DB 210.
  • the estimating unit 205 can use position information acquired at predetermined intervals, for example, one minute intervals, to calculate the travel distance per unit time, for example, per minute, between the position information.
  • the estimating unit 205 may use position information acquired at predetermined intervals to calculate a moving distance between the pieces of position information, and calculate the moving speed by dividing the moving distance by the interval. It is possible.
  • the estimating unit 205 uses the position information of the electronic device MC1 to calculate at least one of the moving distance and moving speed of the user U1 who owns the electronic device MC1, and based on the moving distance or moving speed. , the means of transportation of the user U1 is estimated.
  • the estimating unit 205 estimates that the user U1's means of transportation is walking. Furthermore, if the travel distance per minute is TH1 m or more and less than TH2 m, the estimating unit 205 estimates that the user's means of transportation is a bicycle. Furthermore, when the travel distance per minute is TH2 m or more and less than TH3 m, the estimating unit 205 estimates that the user's means of transportation is at least one of a car, a motorcycle, and a bus. Furthermore, if the travel distance per minute is TH3 m or more, the estimating unit 205 estimates that the user's means of transportation is a train.
  • the estimating unit 205 estimates that the user's means of transportation is an airplane. Note that the estimation unit 205 may estimate the transportation means based on the average value (average travel distance) of the calculated travel distance (travel distance per minute).
  • TH1 to TH4 are threshold values for estimating the means of transportation of the user, and are values that can be set as appropriate based on experimental data and the like. For example, TH1 can be set to a value of about several tens of meters, and TH2 to TH4 (TH2 ⁇ TH3 ⁇ TH4) can be set to a value of about several hundred meters.
  • the means of transportation may be estimated based on the maximum speed. For example, if the maximum speed is less than TH11 km/h, it can be determined that the person is walking, and if the maximum speed is TH11 km/h or more and less than TH12 km/h, it can be determined that the person is cycling. Further, for example, if the maximum speed is TH12 km/h or more and less than TH13 km/h, it can be determined to be a bus, and if the maximum speed is TH13 km/h or more, it can be determined to be a train. Further, for example, if the maximum speed is TH14 km/h or more, it can be determined that the vehicle is an airplane.
  • TH11 to TH14 are threshold values for estimating the means of transportation of the user, and are values that can be set as appropriate based on experimental data and the like.
  • TH11 can be set to a value of about several km/h
  • TH12 to TH14 (TH12 ⁇ TH13 ⁇ TH14) can be set to a value of about several tens of km/h.
  • the estimation unit 205 can calculate the acceleration of the user U1 who owns the electronic device MC1 using the position information of the electronic device MC1. It is also possible to acquire the acquisition history of the acceleration sensor installed in the electronic device MC1. For example, if the vehicle information 215 of the device information DB 210 includes information on an acceleration sensor, the information on the acceleration sensor can be used. Therefore, the characteristics of each means of transportation such as walking, cycling, bus, and train are set in advance, and the estimation unit 205 selects the means of transportation of the user U1 based on the characteristics of the acceleration of the electronic device MC1, for example, the history of acceleration. It may be estimated.
  • the estimation unit 205 (see FIG. 2) can estimate the means of transportation of the user U1 who owns the electronic device MC1 based on the communication between the communication device installed in the transportation means and the electronic device MC1.
  • the electronic device MC1 when the user U1 is riding in the car C1, the electronic device MC1 is connected to the communication equipment of the car C1, such as the control device 50 and the information output device 100, using wireless communication, such as Wi-Fi or Bluetooth. It is assumed that it will be connected to.
  • the control unit 302 of the electronic device MC1 stores in the storage unit 303 a connection history indicating that it has been connected to the communication device of the vehicle C1 using wireless communication, and provides the content at a predetermined timing.
  • the communication device of the vehicle C1 may store a connection history indicating that it has been connected to the electronic device MC1 using wireless communication in the storage section, and transmit it to the content providing server 200 at a predetermined timing. .
  • connection histories are stored in the connection information 217 of the device information DB 210. Furthermore, the type of vehicle C1 can be determined based on the attribute information 213 of the device information DB 210. Thereby, the content providing server 200 can understand that the means of transportation of the user U1 is the automobile C1.
  • the control unit 302 of the electronic device MC1 stores in the storage unit 303 that it has been connected to the communication device of each means of transportation using wireless communication, and at a predetermined timing, the control unit 302 of the electronic device MC1 Send to 200.
  • the communication device of each moving means may store in its storage unit that it is connected to the electronic device MC1 using wireless communication, and may transmit the information to the content providing server 200 at a predetermined timing.
  • the estimation unit 205 determines the transportation means of the user U1 who owns the electronic device MC1 based on the payment information. can be estimated.
  • This payment function is, for example, a function equivalent to an IC card ticket with an electronic money function handled by a railway operator or a bus operator, and can be installed as an application on a smartphone, for example.
  • the ID of the railway operator or bus operator may be associated with the user ID of the user U1, and the content providing server 200 may acquire the boarding information of the user U1 based on the user ID of the user U1. .
  • the electronic device MC1 stores boarding information regarding the transportation means on which the user U1 rides, and transmits it to the content providing server 200 at a predetermined timing. Good too.
  • Each of these pieces of information is stored in the payment information 218 of the device information DB 210.
  • the content providing server 200 can grasp the means of transportation for which the user U1 has made payments in the past.
  • the payment function corresponds to, for example, a payment method provided by a credit card company or an online payment service company, and can be installed as an application on a smartphone, for example.
  • the ID of the credit card company or online payment service company may be associated with the user ID of the user U1, and the content providing server 200 may obtain ride information of the user U1 based on the user ID of the user U1. good.
  • the estimation unit 205 can estimate the transportation means of the user U1 who owns the electronic device MC1 based on the image acquired by the image acquisition unit 306 of the electronic device MC1. For example, when an image of the surroundings of the user U1 is acquired by the image acquisition unit 306 of the electronic device MC1, the image information is stored in the storage unit 303 and transmitted to the content providing server 200 at a predetermined timing. This image information is stored in the image information 216 of the device information DB 210. Since the content providing server 200 can identify the route traveled by the user U1 based on images of the surroundings of the user U1, the content providing server 200 can estimate the means of transportation of the user U1 based on the route.
  • the image around the user U1 is a sidewalk SW1
  • the user U1's means of transportation is walking.
  • the image surrounding the user U1 is the sea or a river, it can be estimated that the means of transportation of the user U1 is a boat.
  • the image of the surroundings of the user U1 is along the railway line RR1, it can be estimated that the means of transportation of the user U1 is a train.
  • a handle is included in the image acquired by the image acquisition unit 306, it is possible to estimate the means of transportation such as a car, motorcycle, or bicycle based on the shape of the handle. Further, if the image acquired by the image acquisition unit 306 includes objects inside the vehicle such as a front window and a dashboard, it can be estimated that the means of transportation is a car.
  • the estimation unit 205 can estimate the transportation means of the user U1 who owns the electronic device MC1 based on the sound acquired by the sound acquisition unit 305 of the electronic device MC1. For example, when the sound around the user U1 is acquired by the sound acquisition unit 305 of the electronic device MC1, the sound information is stored in the storage unit 303 and transmitted to the content providing server 200 at a predetermined timing. This sound information is stored in the device information DB 210. Since the content providing server 200 can identify the environment in which the user U1 has moved based on the sounds surrounding the user U1, the content providing server 200 can estimate the means of transportation of the user U1 based on the environment.
  • the sounds around the user U1 are quiet, it can be estimated that the user U1's means of transportation is walking. Furthermore, if the sounds surrounding the user U1 are sounds emitted by a specific vehicle, it can be estimated that the means of transportation of the user U1 is that vehicle.
  • communication equipment can be installed at the entrance and exit through which users enter and exit the registration location or its facilities.
  • the means of transportation of the user U1 can be estimated using the communication between this communication device and the electronic device MC1.
  • various information is notified or displayed on the electronic device MC1 of the user U1 depending on the means of transportation.
  • a timetable is often displayed on the display unit 308 of the electronic device MC1.
  • the traffic situation on the way home in the car C1 is often displayed on the display unit 308 of the electronic device MC1.
  • weather information is often displayed on the display unit 308 of the electronic device MC1.
  • a ride dispatch application or the like is often started on the electronic device MC1. Therefore, the means of transportation of the user U1 can be estimated using the display history of the electronic device MC1 and the startup history of the application.
  • the communication device installed at the entrance of the registered place or the facility may perform entry/exit processing. For example, when the user U1 performs an entry/exit operation using the communication device, appropriate information can be displayed on the electronic device MC1 of the user U1 according to the means of transportation.
  • a communication device can be installed at the entrance of a restaurant serving as a registered location.
  • the means of transportation of the user U1 can be estimated using the communication between this communication device and the electronic device MC1. Further, this communication device is used when the user U1 uses the electronic device MC1 to make an electronic payment after eating at a restaurant. Further, for example, when the user U1's means of transportation is walking, only the price of the user U1's meal is displayed and billed on the electronic device MC1.
  • the means of transportation of the user U1 is a car C1 and the car C1 is parked in a parking lot
  • the price of the parking lot is added to the price of the meal of the user U1, and the amount is displayed on the electronic device MC1 and billed. It is possible to do so.
  • the transportation means estimation method shown above is an example, and other estimation methods may be used.
  • the means of transportation may be estimated by combining the estimation methods described above.
  • the user's means of transportation may be determined on the condition that the means of transportation estimated by two or more estimation methods match. Thereby, it is possible to improve the estimation accuracy of the means of transportation.
  • FIG. 7 is a diagram showing a simplified example of the relationship between the routes R1 to R5 to the registered location RL1 and the main means of transportation.
  • the routes to the registered location RL1 include route R1 from the nearest airport APP1, route R2 from the nearest station ST1, route R3 from the nearest pier SP1, route R4 from the nearest bus stop BT1, and the parking lot. It is assumed that a route R5 from P1 exists. In FIG. 7, it is assumed that each of the routes R1 to R5 can be traveled only on foot. In this case, it is also possible to estimate that the means of transportation of the user U1 who arrived at the registered location RL1 is entirely on foot.
  • the main means of transportation of the user U1 may be estimated by considering the means of transportation used by the user U1 before each of the routes R1 to R5. For example, the means of transportation of the user U1 can be estimated depending on the content.
  • the user U1's main means of transportation can be selected based on the travel distance of the user U1, and the content can be determined based on this main means of transportation. For example, among the distances from the user U1's home to the registered location RL1, the means of transportation with the longest travel distance can be selected as the main means of transportation. For example, if the distance from user U1's home to registered location RL1 is 10 km, walking is 1 km, and taking a train is 9 km, then the train is selected as the main means of transportation.
  • the main means of transportation of the user U1 based on the travel time of the user U1, and determine the content based on this main means of transportation. For example, among the travel times from the home of the user U1 to the registered location RL1, the means of transportation with the longest travel time can be selected as the main means of transportation. For example, if the travel time from user U1's home to registered location RL1 is 1 hour, it is 10 minutes on foot, 40 minutes on bus, and 10 minutes on train, then the main means of transportation is bus is selected as
  • the main means of transportation for the user U1 based on the travel cost of the user U1, and determine the content based on this main means of transportation. For example, among the transportation costs from the user U1's home to the registered location RL1, the transportation method with the highest transportation cost can be selected as the main transportation method. For example, if the travel cost from user U1's home to registered location RL1 is 1000 yen, walking is 0 yen, bus is 800 yen, and train is 200 yen, the main means of transportation is bus is selected as
  • the method for selecting the main means of transportation is just an example, and the user's means of transportation may be selected using other methods. Furthermore, the method of selecting a transportation means may be changed depending on the content provided to the user.
  • the priority order of transportation means may be set in advance, and the user's transportation method may be selected according to this priority order.
  • the priority order of transportation means is set as 1st place: train, 2nd place: car, 3rd place: bus, and 4th place: walking.
  • the first-ranked train is selected as the user's means of transportation according to the priority order.
  • the selected means of transportation is canceled by the user's operation, another means of transportation for the user is selected in accordance with the priority order.
  • FIG. 8 is a diagram schematically showing the relationship between the registered locations managed by the content providing server 200 and the transportation means of the user U1.
  • FIG. 8 shows an example in which the objects RO1 to RO3 and the building B1 are registered locations. Further, FIG. 8 shows a case where the user U1 heads to the parking lot P11 where the objects RO1 to RO3 are installed on foot, and a case where the user U1 heads to the parking lot P11 in a car C1. Further, it is assumed that the parking lot P11 is a parking lot provided to users who use the building B1.
  • the building B1 is, for example, a museum, an exhibition hall, or any other facility where people gather.
  • Objects RO1 to RO3 are charging stations for charging electric vehicles using charging cables. Furthermore, the objects RO1 to RO3 are facilities installed at registered locations managed by the content providing server 200. Further, it is assumed that the vehicle C2 is a vehicle that is being charged using the charging facility RO2, and the vehicles C3 and C4 are vehicles parked in the parking lot P11.
  • the content providing server 200 can estimate the means of transportation of the user U1 based on the travel history of the user U1 until heading to the parking lot P11.
  • the movement history of the user U1 can be obtained from the movement history 214 of the device information DB 210.
  • FIG. 9 is a diagram illustrating an output example of content provided to the user U1 by the content providing server 200 when the user U1's means of transportation is walking.
  • the description will be made assuming that the user U1 owns the electronic device MC1.
  • the user U1 who has been walking along the sidewalk R12 shown in FIG. 8 has moved to the vicinity of the object RO1 in order to use the building B1.
  • the user U1 uses the image acquisition unit 306 of the electronic device MC1 to photograph the characteristic portion FP1 of the object RO1.
  • the image of the characteristic portion FP1 is acquired by the image acquisition unit 306 of the electronic device MC1, and the image of the characteristic portion FP1 is output to the control unit 302 of the electronic device MC1.
  • the control unit 302 can acquire various information based on the feature portion FP1 by performing predetermined image processing on the image of the feature portion FP1.
  • the control unit 302 when the feature portion FP1 is configured with a QR code, the control unit 302 generates access information to the content providing server 200 based on the QR code acquired by the image acquisition unit 306 of the electronic device MC1, It becomes possible to acquire identification information for identifying the object RO1. In this case, the control unit 302 accesses the content providing server 200 based on the acquired access information, and transmits the identification information of the object RO1, for example, the registered location ID. Thereby, the content providing server 200 can understand that the electronic device MC1 is present around the object RO1. In this case, the content providing server 200 can determine that the means of transportation is walking based on the movement history 214 (see FIG. 3) of the electronic device MC1. Alternatively, the content providing server 200 may estimate that the means of transportation is walking based on the information transmitted from the electronic device MC1.
  • the content providing server 200 extracts the registered location ID 221 that matches the identification information of the object RO1 from the registered location IDs 221 in the content DB 220. Then, the content providing server 200 extracts content 225 related to walking from among the transportation means 224 of the content DB 220 associated with the registered location ID 221 that matches the identification information of the object RO1.
  • the content providing server 200 transmits the thus extracted content to the electronic device MC1.
  • the control unit 302 of the electronic device MC1 causes the content to be output from the output unit, such as the display unit 308 and the sound output unit 309.
  • the output unit such as the display unit 308 and the sound output unit 309.
  • a humanoid image AB1 can be displayed superimposed on the image acquired by the image acquisition unit 306.
  • a humanoid image AB1 that appears to be sitting on top of a building B1 can be displayed on the display unit 308.
  • the humanoid image AB1 may explain the object RO1 and the building B1, and output sound information S1 that guides the user to proceed to the building B1.
  • video content such as the time required to reach nearby tourist spots, local specialties, etc. may be output.
  • video content such as the time required to reach nearby tourist spots, local specialties, etc.
  • a message such as "There is a car coming, it's dangerous” may be output, or a message such as "Next time, come by car” may be output. You may. Further, content that guides shortcuts to other registered locations, content that provides guidance to other registered locations within walking distance of the user U1, etc. may be output.
  • FIG. 10 is a diagram illustrating an output example of content provided to the user U1 by the content providing server 200 when the user U1's means of transportation is the automobile C1.
  • the vehicle C1 is an electric vehicle.
  • FIG. 10 shows a simplified example of the configuration of the interior of the vehicle interior of the vehicle C1 when viewed from the rear side in the longitudinal direction of the vehicle C1.
  • illustrations other than the dashboard 2, steering wheel 3, windshield 4, and information output device 100 are omitted for ease of explanation.
  • a characteristic portion FP1 is provided on the exterior of the object RO1.
  • the characteristic portion FP1 is included in the imaging range of an image acquisition unit installed in the vehicle C1, for example, an external camera, an image of the characteristic portion FP1 is acquired by the image acquisition unit of the vehicle C1, and an image of this characteristic portion FP1 is acquired by the image acquisition unit of the vehicle C1. is output to the information output device 100.
  • the information output device 100 can acquire various information based on the feature portion FP1 by performing predetermined image processing on the image of the feature portion FP1.
  • the access by the information output device 100 to the content providing server 200 and the transmission of the identification information of the object RO1 are similar to the example shown in FIG. 9.
  • the content providing server 200 can understand that the car C1 exists around the object RO1.
  • the content providing server 200 can understand that the means of transportation is a car based on the movement history 214 (see FIG. 3) of the information output device 100.
  • the content providing server 200 may estimate that the means of transportation is a car based on the information transmitted from the information output device 100.
  • the content providing server 200 extracts the registered location ID 221 that matches the identification information of the object RO1 from the registered location IDs 221 of the content DB 220. Then, the content providing server 200 extracts content 225 related to automobiles from the transportation means 224 of the content DB 220 that is associated with the registered location ID 221 that matches the identification information of the object RO1.
  • the content providing server 200 transmits the extracted content to the information output device 100.
  • the control unit of the information output device 100 causes the content to be output from an output unit, such as the display unit 110 and the sound output unit.
  • an output unit such as the display unit 110 and the sound output unit.
  • a humanoid image AB2 can be displayed superimposed on the image acquired by the image acquisition unit.
  • the display unit 110 can display a humanoid image AB2 that appears to be sitting above the object RO1.
  • the humanoid image AB2 may explain the object RO1 and the building B1, and output sound information S2 that guides the charging equipment.
  • video content of surrounding tourist information may be output.
  • video content such as the time required to reach nearby sightseeing spots, local specialties, etc. may be output.
  • the content providing server 200 can grasp the amount of charge of the vehicle C1 based on the vehicle information 215 of the device information DB 210. Therefore, content may be output taking into consideration the amount of charge of the vehicle C1. For example, it can guide you to places you can go with your current amount of charge, or introduce you to the next charging spot that takes into account your current amount of charge.
  • the content providing server 200 can obtain congestion information around the registered location via the network 20. Therefore, the content providing server 200 guides or introduces places around the registered place that are not crowded and can only be reached by car, based on the congestion information around the registered place. I can do it. Furthermore, by providing attractive content only to those who use the charging equipment, it is possible to promote the use of the charging equipment.
  • the example shown in FIG. 10 shows an example of determining whether the proximity condition is met using the feature portion FP1
  • other methods may be used to determine whether the proximity condition is met. For example, it may be determined whether the proximity condition for the vehicle C1 is met based on the interaction between the object RO1 and the vehicle C1 via the charging cable when the charging cable of the object RO1 is connected to the vehicle C1. That is, when the charging cable of the object RO1 is connected to the car C1, the communication is used to communicate whether or not charging is allowed between the object RO1, that is, the charging equipment, and the car C1. It can be determined that direct communication between the object RO1 and the vehicle C1 has been established.
  • content using VR Virtual Reality
  • AR Augmented Reality
  • content that includes content related to the registered location can be used as the content to be provided.
  • local content of the region related to the registered place content introducing local things, local avatars, local mascot characters, etc. can be used.
  • the local content is, for example, an image in which a predetermined character is visualized. It is also possible to display these in AR or AR, or to output audio. In this way, by changing the local content to be provided depending on the means of transportation, users who want to see all the local content will visit the registered location frequently, thereby activating the registered location. It is possible to do so. Furthermore, since each means of transportation is used, it is possible to promote the use of each means of transportation.
  • a predetermined image related to the scenery can be displayed superimposed on the scenery corresponding to the user's line of sight.
  • a predetermined image can be displayed superimposed on the image acquired by the image acquisition unit 306 of the electronic device MC1.
  • the predetermined image may be an explanatory image of a building, a mountain, etc. that can be seen from the registered location.
  • the means of transportation is a car
  • the cruising distance varies depending on the remaining fuel or remaining charge amount. Therefore, it is also possible to provide content that introduces the amount of remaining fuel or electricity. Further, it is also possible to change the candidate for the next registration location according to the amount of remaining fuel or electricity, and it is possible to provide information according to the user's situation.
  • the means of transportation is a walking vehicle
  • the predetermined image can be displayed superimposed on the target object. This predetermined image can be an explanatory image regarding the object.
  • FIGS. 9 and 10 show an example in which both audio information and image information are output, one of the audio information and image information may be output.
  • FIG. 11 is a diagram illustrating an example of content output according to the means of transportation of the user U1.
  • FIG. 11(A) shows an example of content output when user U1's means of transportation is bus BU1
  • FIG. 11(B) shows an example of content output when user U1's means of transportation is train TR1.
  • FIG. 11(C) shows an example of content output when user U1's means of transportation is motorcycle M1
  • FIG. 11(D) shows an example of content output when user U1's means of transportation is boat SH1.
  • FIG. 11(E) shows an example of content output when the means of transportation of the user U1 is an airplane AP1.
  • humanoid images 411 to 415 corresponding to the means of transportation of the user U1 are displayed in image display areas 401 to 405, superimposed on the captured image. Ru. Further, in the transportation means display areas 421 to 425, characters and signs corresponding to the transportation means of the user U1 are displayed. For example, content that guides the registration location can be output using the humanoid images 411 to 415.
  • the content shown in FIG. 11 is an example, and other content may be output depending on the means of transportation of the user U1.
  • the pose or clothes of the same humanoid image may be changed depending on the means of transportation of the user U1.
  • the product to be introduced may be changed depending on the means of transportation of the user U1.
  • the number of times the user has visited the same registered location may be stored for each means of transportation in association with the user ID 211 of the device information DB 210, and the content output may be changed in accordance with the increase in the number of times the user has visited the same registered location. For example, when you first come to the charging facility at registered location A with car C1, you will see characters that say "Charging will take 30 minutes, so please go to the park in the back and kill time” and a human figure that represents this. Images can be displayed. Further, for example, when the user comes to the registration location A for the third time in the car C1, characters indicating "You came by car again" and a humanoid image representing this can be displayed. Alternatively, they may be output by voice.
  • the registered location to be guided next to the current registered location may be changed depending on the means of transportation of the user U1. For example, assume that there are a plurality of registered locations A to E that are relatively close to each other, and that registered location A is the entrance. In this case, for example, if the means of transportation is a car, you can be guided from the registered locations A ⁇ C ⁇ E, and when the means of transportation is on foot, you can be guided from the registered locations A ⁇ B ⁇ D. . In this way, as the next candidate for registered location A, etc., the priority order according to the means of transportation is set in advance, and the next candidate is provided to the user based on this priority order and the means of transportation. These next candidates can be set as appropriate based on, for example, distance, time, state of travel route, and the like. Note that if the next candidate is canceled by a user operation, other next candidates are provided in accordance with the priority order.
  • the means of transportation is a car
  • a registered location with a wide road and a parking lot from the current registered location can be introduced as the next candidate. In this case, it is possible to introduce a place even if it is far from the currently registered place.
  • the means of transportation is walking
  • registered locations that are within walking distance for example, less than a few kilometers
  • the means of transportation is a motorcycle
  • the registered location can be introduced as the next candidate. Furthermore, it is possible to introduce a place even if it is far from the currently registered place.
  • the means of transportation is a bicycle
  • registered locations that have a flat road from the current registered location and that are within the travel range by bicycle for example, less than 10 km
  • bicycle for example, less than 10 km
  • registered location A is the entrance.
  • the predetermined content according to the means of transportation It may also be set to not output.
  • the enjoyment of moving according to the guide increases. Thereby, the user U1 can easily enjoy a travel route according to the means of transportation and content according to the means of transportation.
  • FIGS. 12 and 13 show an example in which content is output when the user U1 is not present around the registered location.
  • FIG. 12 is a diagram showing an example of a content display screen 500 displayed on the display unit 308 of the electronic device MC1.
  • the content display screen 500 is an example of content that is displayed when the user U1 is near the registration location and the proximity condition is not satisfied.
  • the example shown in FIG. 12 shows a case where objects R01 to R03 and a building B1 are installed at the registered location, similar to the example shown in FIG. Further, it is assumed that the user U1 is moving on foot on a sidewalk R12 (see FIG. 8). Note that the content display screen 500 may be displayed automatically when the user U1 is expected to go to the registration location, or may be displayed by manual operation by the user U1.
  • a return button 501, a map display area 510, and a message display area 520 are displayed on the content display screen 500.
  • a return button 501 is a button that is pressed to return to the previous display screen.
  • the map display area 510 includes a current location indicator PL1 indicating the current location of the user U1, device indicators O1 to O5, H1 to H5 indicating the positions of other devices existing around the user U1, and a registration indicator indicating the location of the registered location.
  • the location markers 511 to 514 and the travel routes R21 and R22 to the registered location are displayed superimposed on the map around the user U1.
  • the content provision processing unit 206 of the content provision server 200 can display a map of the surroundings of the user U1 and travel routes R21 and R22 based on the location information 212 of the device information DB 210.
  • the content provision processing unit 206 of the content provision server 200 can display the current location indicator PL1, device indicators O1 to O5, and H1 to H5 based on the position information 212 of the device information DB 210. Furthermore, the content provision processing unit 206 of the content provision server 200 can display registered location indicators 511 to 514 based on the location information 222 of the content DB 220.
  • the device signs O1 to O5, H1 to H3, the registered place signs 511 to 514, and the travel routes R21 and R22 are displayed on the map around the registered place where the user U1 is expected to go. Accordingly, the user U1 can easily understand the registered location, the route thereto, congestion, etc. on the route.
  • the means of transportation of the user U1 can be estimated, only the travel route corresponding to the means of transportation of the user U1 may be displayed among the travel routes to the registered location.
  • the travel route R22 corresponding to the user U1's means of transportation is displayed in a bold line, and the travel route R21
  • An example will be shown in which the travel route R22 corresponding to the means of transportation (on foot) of the user U1 is highlighted by displaying with a dotted line. Thereby, the user U1 can easily understand the route to the registered location.
  • FIG. 13 is a diagram showing an example of a content display screen 550 displayed on the display unit 308 of the electronic device MC1.
  • the content display screen 550 is an example of content that displays a map specified by user U1's manual operation. Note that the example shown in FIG. 13 is a partially modified version of FIG. 12, so the explanation will be focused on the differences from FIG. 12 here. Further, parts common to those in FIG. 12 are given the same reference numerals, and description thereof will be omitted.
  • a map display area 560, a message display area 570, and a means of transportation selection area 580 are displayed on the content display screen 550.
  • equipment signs O1 to O5, H1 to H5, registered location signs 511 to 514, and travel routes R21 and R22 are displayed superimposed on the map specified by the manual operation of the user U1.
  • the transportation means selection area 580 is an area for the user U1 to select the transportation means to be used when traveling to the registered location displayed in the map display area 560.
  • the user U1 selects a means of transportation in the transportation means selection area 580, content corresponding to the selected means of transportation can be output.
  • At least one of the plurality of contents set for the registration location may be displayed on the content display screen 550, or may be displayed on another display screen. Furthermore, at least one of the plurality of contents may be output as audio. Further, the movement range or movement route according to the means of transportation related to the registered place may be displayed on the content display screen 550, or may be displayed on another display screen.
  • the movement range according to the transportation means related to the registered place is the range in which the user who has come to the registered place included in the map specified by the manual operation of the user U1 is expected to move. For example, when the user U1's means of transportation is walking, a relatively narrow range is set, and when the user U1's means of transportation is a car, a relatively wide range is set.
  • the travel route according to the means of transportation associated with the registered location is a route that is assumed to be traveled by the user who has come to the registered location included in the map specified by the manual operation of the user U1. For example, if the means of transportation of the user U1 is walking, a route that can be traveled on foot is set, and if the means of transportation of the user U1 is a car, a route that can be traveled by car is set.
  • the device signs O1 to O5, H1 to H5, and the registered location signs 511 to 514 are displayed on the map specified by the user U1.
  • Routes R21 and R22 can be displayed. Thereby, the user U1 can easily understand the registered location, the route to the location, and congestion on the route.
  • only the travel route corresponding to the means of transportation of the user U1 may be displayed among the travel routes to the registered location.
  • the means of transportation of the user U1 is a car
  • only the travel route R21 corresponding to the means of transportation (car) of the user U1 can be displayed among the travel routes R21 and R22 to the registered location.
  • FIG. 14 is a flowchart illustrating an example of content output processing in the electronic device MC1. Further, this content output processing is executed by the control unit 302 based on a program stored in the storage unit 303. Further, this content output processing is always executed every control cycle. Further, this content output processing will be explained with reference to FIGS. 1 to 13 as appropriate.
  • FIG. 14 shows an example of the operation of the electronic device MC1, the same applies to the operations of other devices, for example, the information output device 100.
  • step S601 the control unit 302 determines whether settings have been made to output content using the content providing service provided by the content providing server 200.
  • This content output setting is performed by a user operation or automatically. For example, content output can be turned on or off by user operation. Further, for example, when the predetermined condition is satisfied, the condition may be that the user enters a predetermined place, for example, outside a predetermined range based on the home during daytime hours. If the content is set to be output, the process advances to step S602. On the other hand, if the content is not set to be output, the operation of the content output process is ended.
  • step S602 the control unit 302 transmits predetermined information including the position information acquired by the position information acquisition unit 304 to the content providing server 200.
  • the position information included in this predetermined information is sequentially stored in the position information 212 of the device information DB 210.
  • the location information stored in the location information 212 of the device information DB 210 and the acquisition time are stored in the movement history 214 in association with each other.
  • the content providing server 200 can acquire the movement history of the electronic device MC1.
  • each piece of information stored in the device information DB 210 is included in the predetermined information and transmitted as necessary.
  • step S603 the control unit 302 determines whether the proximity condition based on the user's operation is satisfied. For example, if a content acquisition operation such as a QR code reading operation or an image acquisition operation of an object with a characteristic part is performed, and predetermined information can be acquired based on the content acquisition operation, the proximity condition based on the user operation is determined to have been established. If the proximity condition based on the user's operation is satisfied, the process advances to step S604. On the other hand, if the proximity condition based on the user's operation is not satisfied, the process advances to step S605.
  • a content acquisition operation such as a QR code reading operation or an image acquisition operation of an object with a characteristic part is performed, and predetermined information can be acquired based on the content acquisition operation
  • the proximity condition based on the user operation is determined to have been established. If the proximity condition based on the user's operation is satisfied, the process advances to step S604. On the other hand, if the proximity condition based on the user's operation is not satisfied, the process
  • step S604 the control unit 302 transmits a content request to the content providing server 200 based on the user operation performed in step S604. For example, the control unit 302 executes processing for accessing the content providing server 200 based on access information for the content providing server 200 acquired in response to a reading operation or an image acquiring operation. Next, the control unit 302 transmits to the content providing server 200 a content request including the registered location ID and user ID acquired in response to the reading operation or the operation image acquisition operation.
  • step S605 the control unit 302 determines whether a proximity condition based on location information or communication is satisfied.
  • This proximity condition is determined using, for example, wireless communication or wired communication with other communication devices. Further, this proximity condition is determined using, for example, the relationship between the position of the registered place and the position of the electronic device MC1. If the proximity condition based on location information or communication is satisfied, the process advances to step S606. On the other hand, if the proximity condition based on location information or communication is not satisfied, the content output processing operation is ended.
  • step S606 the control unit 302 transmits a content request to the content providing server 200 based on the proximity condition established in step S605. For example, the control unit 302 transmits to the content providing server 200 a content request that includes a registered location ID and a user ID obtained using wireless communication or location information. Note that when the content providing server 200 executes the proximity condition determination process, the process may skip steps S603 to S606 and proceed to step S607.
  • step S607 the control unit 302 determines whether or not the content transmitted from the content providing server 200 in response to the content request has been received. If content is received from the content providing server 200, the process advances to step S608. On the other hand, if no content is received from the content providing server 200, monitoring continues. Note that if the content is not received from the content providing server 200 even after a predetermined period of time has elapsed, the content request may be sent to the content providing server 200 again. In addition to providing the content, the content providing server 200 also transmits information on the content output range 223 of the content DB 220 to the electronic device MC1.
  • step S608 the control unit 302 executes output processing to output the content received in step S607.
  • the control unit 302 causes the display unit 308 to display the content received in step S607.
  • content is displayed on the display section 308.
  • the control unit 302 causes the sound output unit 309 to output the content received in step S607 as audio.
  • sound information S1 is output from the sound output section 309.
  • step S609 the control unit 302 transmits predetermined information including location information to the content providing server 200.
  • This predetermined information is the same as the predetermined information shown in step S602.
  • step S610 the control unit 302 determines whether a content stop operation has been performed.
  • the content output process is stopped, a content stop instruction is sent to the content providing server 200, and the operation of the content providing process is ended.
  • the process advances to step S611.
  • the content stop operation is, for example, a press operation of an end button.
  • it may be determined that the content stop operation has been performed at the timing when the radio field intensity of the electronic device MC1 becomes equal to or less than a predetermined value.
  • step S611 the control unit 302 determines whether the content that is the target of output processing in step S608 is out of the output range. That is, if the registered location where the content acquisition operation was performed in step S603 or the registered location where the proximity condition was satisfied in step S605 is outside the range, output of the content of the registered location is stopped. Specifically, the control unit 302 determines whether the position information acquired by the position information acquisition unit 304 is within the content output range 223 of the content DB 220 received in step S607. If the location information acquired by the location information acquisition unit 304 is within the content output range 223, the process returns to step S607. On the other hand, if the location information acquired by the location information acquisition unit 304 is outside the content output range 223, the operation of the content output process is ended.
  • FIG. 15 is a flowchart illustrating an example of information storage processing in the content providing server 200. Further, this information storage processing is executed by the control unit 202 based on a program stored in the storage unit 203. Moreover, this information storage process is always executed every control cycle. Further, this information storage process will be explained with reference to FIGS. 1 to 13 as appropriate.
  • step S621 the control unit 202 determines whether predetermined information has been received from each device registered to use the content providing service. If the predetermined information has been received, the process advances to step S622. On the other hand, if the predetermined information has not been received, the information storage processing operation is ended.
  • step S622 the control unit 202 stores the predetermined information received in step S621 in the device information DB 210. Specifically, the control unit 202 stores each piece of information included in the predetermined information in the device information DB 210 in association with the user ID 211 corresponding to the device that transmitted the predetermined information.
  • FIG. 16 is a flowchart illustrating an example of content provision processing in the content provision server 200. Further, this content providing process is executed by the control unit 202 and the like based on a program stored in the storage unit 203. Further, this content providing process is always executed at each control cycle. Further, this content providing process will be explained with reference to FIGS. 1 to 13 as appropriate.
  • step S631 the determination unit 204 determines whether a device for which the proximity condition is satisfied has been detected at the registered location.
  • the process of detecting a device for which the proximity condition is satisfied at the registered location may be executed by the content providing server 200, or may be executed based on receiving a content request (see FIG. 14) from the electronic device MC1. If a device satisfying the proximity condition is detected, the process advances to step S632. On the other hand, if a device satisfying the proximity condition has not been detected, the content providing process ends. Note that in FIG. 16, the device detected in step S631 as a device for which the proximity condition is satisfied will be referred to as a target device.
  • step S632 the estimation unit 205 estimates the means of transportation of the target device detected in step S631.
  • This transportation means can be estimated by each of the estimation methods described above.
  • step S633 the content provision processing unit 206 determines the content to be output by the target device based on the transportation means estimated in step S632. Specifically, the content 225 associated with the transportation means estimated in step S632 is selected from among the transportation means 224 associated with the registered location ID 221 of the registered location where the target device detected in step S631 exists. Extracted. The extracted content is then determined as the content to be output by the target device.
  • step S634 the content provision processing unit 206 transmits the content determined in step S633 to the target device.
  • step S635 the determination unit 204 determines whether the target device has moved. If the target device has moved, the process advances to step S636. On the other hand, if the target device is not moving, the process advances to step S637.
  • step S636 the content provision processing unit 206 determines the content to be output by the target device based on the position information of the target device after movement and the means of transportation estimated in step S632. For example, even if the target device exists within the content output range, the content to be output can be changed in accordance with the movement of the target device. Note that if the target device exists within the content output range and the content to be output is not changed regardless of movement of the target device, steps S635 and S636 can be omitted.
  • step S637 the content provision processing unit 206 determines whether a content stop instruction has been transmitted from the target device. If a content stop instruction is transmitted from the target device, the content transmission process is stopped and the content providing process is ended. On the other hand, if the content stop instruction has not been transmitted from the target device, the process advances to step S638.
  • step S638 the determination unit 204 determines whether the target device is outside the content output range. Specifically, the determining unit 204 determines whether the position information 222 of the device information DB 210 corresponding to the target device is within the content output range 223 of the content DB 220. If the location information 222 of the device information DB 210 corresponding to the target device is within the content output range 223, the process returns to step S634. On the other hand, if the location information 222 of the device information DB 210 corresponding to the target device is outside the content output range 223, the operation of the content providing process is ended.
  • the content to be output can be selected based on the user's means of transportation and only the necessary content can be output. It can save time. Thereby, it is possible to improve the efficiency of calculation load related to information processing.
  • next destination provided to the user can be changed according to the transportation means of the various users gathered at one registered location, it is possible to disperse the movement of the users to the next location. This makes it possible to avoid crowding at the registration location. It is also possible to reduce waiting time at the registration location.
  • each of these processes may be executed. may be executed on other devices.
  • each device that executes a part of each of these processes constitutes an information processing system.
  • at least a part of each process may be executed using the electronic device MC1 used by the user U1, various information processing devices such as servers connectable via a predetermined network such as the Internet, and various electronic devices. I can do it.
  • each DB may be managed by one or more devices other than the content providing server 200, and the information of each DB managed by the other devices may be acquired and used for each process. good.
  • a part (or all) of the information processing system that can execute the functions of the content providing server 200 may be provided by an application that can be provided via a predetermined network such as the Internet.
  • This application is, for example, SaaS (Software as a Service).
  • the information processing method is an information processing method that provides information to the user U1.
  • This information processing method includes an acquisition process (step S632) for acquiring the means of transportation of the user U1, and when it is determined that the user U1 is present at the registered location (an example of a predetermined location), the means of transportation of the user U1 is acquired. Based on the registration location, at least one of the plurality of contents set for the registered location is selected and provided to the user U1 (steps S633 and S634).
  • content can be more appropriately provided according to each means of transportation.
  • the content to be output can be selected based on the user's means of transportation and only the necessary content can be output, the load and time required for transmitting and receiving content from the content providing server 200 to each device can be reduced. I can do it. Thereby, it is possible to improve the efficiency of calculation load related to information processing.
  • the information processing method determines that the user U1 is present at the registered location based on the establishment of a proximity condition between the registered location and the electronic device MC1 associated with the user U1. It further includes a determination process (step S631).
  • step S631 if the current location of the electronic device MC1 is included within a predetermined range based on the registered location, and if the captured image acquired by the electronic device MC1 is includes characteristic information (for example, characteristic part FP1) regarding the registered location, and exchange of predetermined information using wireless communication or wired communication is performed between the electronic device MC1 and the communication device 300 installed at the registered location. In either case, it is determined that the proximity condition is satisfied, and it is determined that the user U1 exists at the registered location.
  • characteristic information for example, characteristic part FP1 regarding the registered location
  • step S631 when the characteristic portion FP1 of the object RO1 installed at the registered location is included in the captured image, or when the captured image contains predetermined identification information (for example, a specific marker or an object with a characteristic part), it is determined that the captured image includes characteristic information.
  • predetermined identification information for example, a specific marker or an object with a characteristic part
  • the electronic device MC1 associated with the user U1 and the installed device installed in the transportation means used by the user U1 are The means of transportation of the user U1 is estimated based on at least one piece of device information (for example, each piece of information in the device information DB 210).
  • the means of transportation can be estimated using the device information regarding the electronic device MC1 or the installed equipment, so it is possible to improve the accuracy of estimating the means of transportation of the user U1.
  • the device information includes the attributes (for example, attribute information 213) of the electronic device MC1 or the installed device, and the movement history of the electronic device MC1 or the installed device.
  • the means of transportation of the user U1 is estimated based on at least one of the information.
  • the means of transportation can be estimated using the attributes of the electronic device MC1 or the installed device, or the information regarding the movement history of the electronic device MC1 or the installed device, so the accuracy of estimating the means of transportation of the user U1 can be further improved.
  • a history of position information of the electronic device MC1 or the installed device for example, movement history 214
  • a history of the position information of the electronic device MC1 or the installed device for example, movement history 214
  • a history of information regarding the acceleration of the device for example, vehicle information 215)
  • a history of captured images acquired by the electronic device MC1 or the installed device for example, the image information 216
  • a history of communication between the electronic device MC1 and the installed device For example, at least one of connection information 217) is used.
  • the means of transportation can be estimated using the history of position information, etc. as information regarding the movement history of the electronic device MC1 or the installed equipment, so that the accuracy of estimating the means of transportation of the user U1 is further improved. be able to.
  • the plurality of contents are stored at a location of another registration location (second predetermined location) different from the registration location (first predetermined location) where it is determined that the user U1 exists. or contains information about direction.
  • a guide image 323 is displayed as information regarding the position or direction of another registered location (where building B1 is installed) that is different from the registered locations where RO1 to RO3 are installed. be able to.
  • the user U1's transportation means and the first predetermined place are Based on this, at least one of the plurality of contents set for the second predetermined location is selected and provided to the user U1. For example, assume that there are a plurality of registered locations A to E that are relatively close to each other, and that registered location A is the entrance. Further, for example, if the means of transportation is a car, the setting is set to guide registered locations A ⁇ C ⁇ E, and when the means of transportation is walking, the setting is set to guide registered locations A ⁇ B ⁇ D. shall be taken as a thing.
  • a user who has moved according to the guidance according to the means of transportation (for example, in the case of a car: registered locations A ⁇ C ⁇ E) will be given multiple registered locations set for the location after moving. At least one of the contents is selected and provided, and the user who moves without following the guidance according to the means of transportation (for example, in the case of a car: registered location A ⁇ C ⁇ E) Content other than the content set for the registration location can be provided.
  • At least one of the plurality of second predetermined locations is selected based on the means of transportation of the user U1, and the selected 2.
  • the user U1 in the providing process (step S634), the user U1 is provided with the content selected based on the transportation means of the user U1, as well as information indicating the transportation method used for the selection. .
  • information indicating the transportation means is displayed in the transportation means display area 325.
  • the content is at least one of audio information and image information.
  • audio information and image information For example, as shown in FIGS. 9 and 10, both audio information and image information can be output.
  • the providing process even when the proximity condition is not satisfied in the determination process, based on the position information of the user U1, other users existing around the user U1 are At least one of the location information of the device, the location information of the registered location, and the travel route to the registered location corresponding to the transportation means of the user U1 is provided to the user U1.
  • the registration At least one of a plurality of contents set for a location, a movement range or a movement route according to a means of transportation related to the registered place, and position information of other devices existing around the registered place;
  • the user U1 is provided with at least one of the location information of the registered location and a travel route to the registered location corresponding to the transportation means of the user U1.
  • the content providing server 200 (an example of an information processing device) according to the present embodiment is an information processing device that provides information to the user U1.
  • the content providing server 200 includes an estimation unit 205 (an example of an acquisition unit) that acquires the means of transportation of the user U1, and a
  • the content providing processing unit 206 (an example of a providing unit) selects at least one of a plurality of contents set for the registered location based on the transportation means and provides the selected content to the user U1.
  • content can be appropriately provided according to each means of transportation.
  • the content to be output can be selected based on the user's means of transportation and only the necessary content can be output, the load and time required for transmitting and receiving content from the content providing server 200 to each device can be reduced. I can do it. Thereby, it is possible to improve the efficiency of calculation load related to information processing.
  • each processing procedure shown in this embodiment is an example for realizing this embodiment, and the order of a part of each processing procedure may be changed to the extent that this embodiment can be realized. Often, a part of each processing procedure may be omitted or other processing steps may be added.
  • each process shown in this embodiment is executed based on a program for causing a computer to execute each process procedure. Therefore, this embodiment can also be understood as an embodiment of a program that implements the function of executing each of these processes, and a recording medium that stores the program. For example, in an update process for adding a new function to the contact determination device, the program can be stored in the storage device of the contact determination device. Thereby, it becomes possible to cause the updated contact determination device to perform each process shown in this embodiment.

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

ユーザに対して情報を提供する情報処理方法である。この情報処理方法は、ユーザの移動手段を取得する取得処理と、所定場所にユーザが存在することが判定された場合に、ユーザの移動手段に基づいて、所定場所について設定されている複数のコンテンツのうちから少なくとも1つを選択してユーザに提供する提供処理とを含む。

Description

情報処理方法及び情報処理装置
 本発明は、ユーザに対して情報を提供する情報処理方法及び情報処理装置に関する。
 従来、ユーザが所持する端末に地図や観光スポットを表示する技術が存在する。例えば、JP2020-123082Aには、観光スポットを案内する拡張現実画面をユーザ端末に表示させる場合に、ユーザ端末の現在位置の拡張現実画面を表示させる技術が開示されている。
 上述した従来技術のように、ユーザ端末の現在位置の拡張現実画面を表示させた場合でも、ユーザの移動手段によっては、不要な情報がユーザ端末に表示されることも想定される。例えば、ユーザが自動車で移動している場合に、徒歩向けの情報がユーザ端末に表示されることも考えられる。このような場合には、ユーザに違和感を与えることになる。また、不要な情報提供処理が発生するため、コンテンツ提供機器の演算量が増加する。
 本発明は、ユーザの移動手段に応じてより適切なコンテンツを提供し、情報処理に関する演算負荷の効率化を図ることを目的とする。
 本発明の一態様は、ユーザに対して情報を提供する情報処理方法である。この情報処理方法は、ユーザの移動手段を取得する取得処理と、所定場所にユーザが存在することが判定された場合に、ユーザの移動手段に基づいて、所定場所について設定されている複数のコンテンツのうちから少なくとも1つを選択してユーザに提供する提供処理とを含む。
図1は、情報処理システムのシステム構成の一例を示す図である。 図2は、コンテンツ提供サーバ及び電子機器の機能構成例を示すブロック図である。 図3は、機器情報DBに格納されている各情報を模式的に示す図である。 図4は、コンテンツDBに格納されている各情報を模式的に示す図である。 図5は、電子機器の表示部に表示される表示画面の遷移例を示す図である。 図6は、ユーザが利用する可能性がある移動手段を簡略化して示す図である。 図7は、登録場所までの経路と、主な移動手段との関係例を簡略化して示す図である。 図8は、コンテンツ提供サーバにより管理されている登録場所とユーザの移動手段との関係を簡略化して示す図である。 図9は、ユーザの移動手段が徒歩である場合にコンテンツ提供サーバによりユーザに提供されるコンテンツの出力例を示す図である。 図10は、ユーザの移動手段が自動車である場合にコンテンツ提供サーバによりユーザに提供されるコンテンツの出力例を示す図である。 図11は、ユーザの移動手段に応じたコンテンツの出力例を示す図である。 図12は、電子機器の表示部に表示されるコンテンツ表示画面の一例を示す図である。 図13は、電子機器の表示部に表示されるコンテンツ表示画面の一例を示す図である。 図14は、電子機器におけるコンテンツ出力処理の一例を示すフローチャートである。 図15は、コンテンツ提供サーバにおける情報格納処理の一例を示すフローチャートである。 図16は、コンテンツ提供サーバにおけるコンテンツ提供処理の一例を示すフローチャートである。
 以下、添付図面を参照しながら本発明の実施形態について説明する。
 [情報処理システムの構成例]
 図1は、情報処理システム10のシステム構成の一例を示す図である。情報処理システム10は、コンテンツ提供サーバ200に登録されているユーザに対して各種コンテンツを提供する処理を実行する通信システムである。なお、ユーザU1は、自動車C1を所有するユーザであるものとする。また、ユーザU1は、移動手段として、徒歩、電車TR1、バスBU1、バイクM1、自転車BC1、船SH1、飛行機AP1等を利用することがあるものとする。また、図1では、説明を容易にするため、ユーザU1が所有する機器として電子機器MC1を例示するが、これに限定されず、車載器、車両への持込み機器、ユーザU1が装着可能な機器を使用してもよい。また、各移動手段として、電車TR1、バスBU1、バイクM1、自転車BC1、船SH1、飛行機AP1を例示するが、これらは複数であってもよく、他の移動手段を用いてもよい。
 情報処理システム10は、ネットワーク20を介して接続される複数の機器により構成される。例えば、制御装置50と、情報出力装置100と、コンテンツ提供サーバ200と、通信機器300と、電子機器MC1とがネットワーク20を介して接続される。なお、これらの各器機間の通信については、有線通信を利用した通信又は無線通信を利用した通信が行われる。また、これらの各器機間の通信については、ネットワーク20を経由した通信以外に機器間で直接通信するようにしてもよい。なお、電車TR1、バスBU1、バイクM1、自転車BC1、船SH1、飛行機AP1、物体RO1のうちの少なくとも1つに通信機器を設置してもよい。この場合には、それらに設置されている通信機器が、ネットワーク20を介してコンテンツ提供サーバ200等に接続される。
 制御装置50及び情報出力装置100は、自動車C1に設置される車載機器である。制御装置50は、例えば、自動車C1に関する車両情報と、自動車C1の乗員に関するユーザ情報とを取得し、取得された各情報をコンテンツ提供サーバ200に送信する。例えば、車両情報及びユーザ情報は、自動車C1に設置されている各種センサを用いて取得される。
 情報出力装置100は、コンテンツ提供サーバ200から送信されたコンテンツを出力することが可能な機器である。情報出力装置100は、例えば、タブレット端末、カーナビゲーション装置、IVI(In-Vehicle Infotainment)により実現される。なお、コンテンツの出力例については、図10に示す。
 コンテンツ提供サーバ200は、登録場所について設定されているコンテンツをユーザU1に提供するコンテンツ提供サービスを実現する情報提示装置である。このコンテンツ提供サービスを利用する場合には、ユーザU1はコンテンツ提供サービスの利用登録をしておく必要がある。なお、登録場所は、コンテンツ提供サーバ200により所定のコンテンツが提供される場所であり、コンテンツDB220(図2、図4参照)により管理されている。登録場所は、例えば、公園、テーマパーク、遊園地、ショッピングモール、観光地等である。また、登録場所には、ユーザU1の存在を検出するための物体、機器が設置されている。例えば、物体RO1、通信機器300が設置される。なお、コンテンツ提供サーバ200の構成については、図2等を参照して詳細に説明する。
 通信機器300は、コンテンツ提供サーバ200により管理されている登録場所に設置される機器である。また、通信機器300は、周囲に存在する電子機器との間で無線通信又は有線通信を利用して通信を行い、その通信結果をコンテンツ提供サーバ200に送信する。例えば、通信機器300は、電子機器MC1との間で、無線通信又は有線通信を利用した所定情報のやりとりが実行されたときに、電子機器MC1及び通信機器300間で所定の通信が成立したと判定し、その判定結果をコンテンツ提供サーバ200に送信する。これにより、コンテンツ提供サーバ200は、通信機器300が設置されている登録場所の周囲に、電子機器MC1を所持するユーザU1が存在することを判定することが可能となる。
 物体RO1は、コンテンツ提供サーバ200により管理されている登録場所に設置されている物体である。また、物体RO1の外観のうちの少なくとも一部に特徴部分FP1が設けられている。例えば、登録場所が公園である場合には、公園の入口の門等を物体RO1とすることができる。また、登録場所が電気自動車の充電設備を備える駐車場である場合には、充電スタンド等を物体RO1とすることができる。この例を図8乃至図10に示す。
 特徴部分FP1は、登録場所、登録場所に設置されている物体RO1、登録場所の周囲に設置されている他の物体又は建物等を識別することが可能な識別情報を有する部分である。この識別情報は、例えば、電子機器MC1により撮像された撮像画像により識別可能となる。識別情報として、例えば、QRコード(登録商標)、特定のマーカを用いることができる。なお、特定のマーカは、物体認識処理により特定情報、例えば登録場所ID(図4参照)を取得可能なマーカである。例えば、電子機器MC1は、特徴部分FP1が撮像範囲に含まれるように物体RO1を撮影して特徴部分FP1を含む撮像画像を取得する。次に、電子機器MC1は、その撮像画像に含まれる特徴部分FP1に基づいて、識別情報を取得する。この識別情報の取得方法については、公知の取得方法を用いることができる。次に、電子機器MC1は、その取得された識別情報をコンテンツ提供サーバ200に送信する。これにより、コンテンツ提供サーバ200は、物体RO1が設置されている登録場所の周囲に、電子機器MC1を所持するユーザU1が存在することを判定することが可能となる。
 電子機器MC1は、ユーザU1が所持する携帯型の情報処理装置であり、例えばスマートフォン、タブレット端末、携帯型のパーソナルコンピュータ等の情報処理装置である。また、電子機器MC1は、コンテンツ提供サーバ200から送信されたコンテンツを出力することが可能な機器である。なお、電子機器MC1の構成については、図2等を参照して詳細に説明する。
 [コンテンツ提供サーバ及び電子機器の構成例]
 図2は、コンテンツ提供サーバ200及び電子機器MC1の機能構成例を示すブロック図である。
 コンテンツ提供サーバ200は、通信部201と、制御部202と、記憶部203と、判定部204と、推定部205と、コンテンツ提供処理部206とを備える。制御部202、判定部204、推定部205及びコンテンツ提供処理部206は、ユーザU1に対して情報を提供する処理を実行可能なコントローラにより実現される。
 通信部201は、制御部202の制御に基づいて、有線通信又は無線通信を利用して、他の機器との間で各種情報のやりとりを行うものである。
 制御部202は、記憶部203に記憶されている各種プログラムに基づいて各部を制御するものである。制御部202は、例えばCPU(Central Processing Unit)等の処理装置により実現される。
 記憶部203は、各種情報を記憶する記憶媒体である。例えば、記憶部203には制御部202が各種処理を行うために必要となる各種情報(例えば、制御プログラム、地図情報DB、機器情報DB210、コンテンツDB220)が記憶される。また、記憶部203には、通信部201を介して取得された各種情報が記憶される。記憶部203として、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせを用いることができる。なお、機器情報DB210、コンテンツDB220については、図3、図4を参照して詳細に説明する。
 判定部204は、制御部202の制御に基づいて、コンテンツ提供サービスを利用するユーザが登録場所に存在することを判定するものであり、その判定結果を推定部205に出力する。例えば、判定部204は、登録場所に設置されている通信機器300と、ユーザU1に関連付けられている電子機器MC1との間での近接条件の成立に基づいて、その登録場所にユーザU1が存在することを判定する。また、例えば、判定部204は、登録場所に設置されている物体RO1と、ユーザU1に関連付けられている電子機器MC1との間での近接条件の成立に基づいて、その登録場所にユーザU1が存在することを判定する。例えば、判定部204は、電子機器MC1の現在地が登録場所を基準とする所定範囲内に含まれる場合には、近接条件が成立したと判定し、その登録場所にユーザU1が存在と判定する。また、例えば、判定部204は、電子機器MC1により取得された撮像画像に登録場所に関する特徴情報、例えば特徴部分FP1が含まれる場合には、近接条件が成立したと判定し、その登録場所にユーザU1が存在と判定する。また、例えば、判定部204は、電子機器MC1と通信機器300との間で無線通信又は有線通信を利用した所定情報のやりとりが実行された場合には、近接条件が成立したと判定し、その登録場所にユーザU1が存在と判定する。なお、判定部204は、例えばCPU等の処理装置により実現される。また、これらの判定方法については、図4、図7等を参照して詳細に説明する。
 推定部205は、制御部202の制御に基づいて、判定部204により登録場所に存在すると判定されたユーザの移動手段を推定するものであり、その推定結果をコンテンツ提供処理部206に出力する。例えば、推定部205は、ユーザU1に関連付けられている電子機器MC1と、ユーザU1が利用する移動手段に設置されている設置機器とのうちの少なくとも1つに関する機器情報に基づいて、ユーザU1の移動手段を推定する。この機器情報として、電子機器MC1又は設置機器の属性と、電子機器MC1又は設置機器の移動履歴に関する情報とのうちの少なくとも1つに基づいて、ユーザU1の移動手段を推定可能である。なお、推定部205は、例えばCPU等の処理装置により実現される。また、これらの推定方法については、図5、図6等を参照して詳細に説明する。
 コンテンツ提供処理部206は、機器情報DB210及びコンテンツDB220を用いて、判定部204により登録場所に存在すると判定されたユーザに、推定部205により推定された移動手段に応じたコンテンツを提供する処理を実行するものである。なお、コンテンツ提供処理部206は、例えばCPU等の処理装置により実現される。また、コンテンツを提供する処理については、図8乃至図13等を参照して詳細に説明する。
 電子機器MC1は、通信部301と、制御部302と、記憶部303と、位置情報取得部304と、音取得部305と、画像取得部306と、操作受付部307と、表示部308と、音出力部309とを備える。
 通信部301は、制御部302の制御に基づいて、有線通信又は無線通信を利用して、他の機器との間で各種情報のやりとりを行うものである。
 制御部302は、記憶部303に記憶されている各種プログラムに基づいて各部を制御するものである。制御部302は、例えばCPU等の処理装置により実現される。
 記憶部303は、各種情報を記憶する記憶媒体である。例えば、記憶部303には制御部302が各種処理を行うために必要となる各種情報(例えば、制御プログラム)が記憶される。また、記憶部303には、通信部301を介して取得された各種情報が記憶される。記憶部303として、例えば、ROM、RAM、HDD、SSD、又は、これらの組み合わせを用いることができる。
 位置情報取得部304は、電子機器MC1が存在する位置に関する位置情報を取得するものであり、取得された位置情報を制御部302に出力する。例えば、GNSS(Global Navigation Satellite System:全球測位衛星システム)を利用して位置情報を取得するGNSS受信機により実現できる。また、その位置情報には、GNSS信号の受信時における緯度、経度、高度等の位置に関する各データが含まれる。また、他の位置情報の取得方法により位置情報を取得してもよい。例えば、周囲に存在するアクセスポイントや基地局からの情報を用いて位置情報を導き出してもよい。また、ビーコンを用いて位置情報を取得してもよい。
 音取得部305は、制御部302の制御に基づいて、電子機器MC1の周囲の音を取得するものであり、取得された音に関する情報を制御部302に出力する。音取得部305として、例えば、1又は複数のマイクや音取得センサを用いることができる。
 画像取得部306は、制御部302の制御に基づいて、被写体を撮像して画像(画像データ)を生成するものであり、生成された画像に関する情報を制御部302に出力する。画像取得部306は、例えば、被写体を撮像することが可能な1又は複数のカメラ機器や画像センサにより構成される。
 操作受付部307は、ユーザからの操作を受け付けるものであり、受け付けられた操作内容を制御部302に出力する。
 表示部308は、制御部302の制御に基づいて、各種画像を表示する表示部である。なお、表示部308として、例えば、有機EL(Electro Luminescence)パネル、LCD(Liquid Crystal Display)パネル等の表示パネルを用いることができる。なお、操作受付部307及び表示部308については、使用者がその指を表示面に接触又は近接することにより操作入力を行うことが可能なタッチパネルとして構成してもよく、別体のユーザインタフェースとして構成してもよい。なお、図5、図9、図11乃至図13では、操作受付部307及び表示部308をタッチパネルとする例を示す。
 音出力部309は、制御部302の制御に基づいて、電子機器MC1の外部に音を出力するものである。音出力部309として、例えば、1又は複数のスピーカを用いることができる。なお、操作受付部307、表示部308及び音出力部309は、ユーザインタフェースの一例であり、これらのうちの一部を省略してもよく、他のユーザインタフェースを用いてもよい。
 [機器情報DBの内容例]
 図3は、機器情報DB210に格納されている各情報を模式的に示す図である。機器情報DB210は、コンテンツ提供サービスを利用するユーザ(ユーザU1を含む)が所有する機器(電子機器MC1、制御装置50、情報出力装置100を含む)に関する機器情報を管理するためのデータベースである。
 機器情報DB210には、位置情報212と、属性情報213と、移動履歴214と、車両情報215と、画像情報216と、接続情報217と、決済情報218とがユーザID211に関連付けて格納されている。なお、これらの各情報の一部については、電子機器MC1、自動車C1に設置されている制御装置50又は情報出力装置100からコンテンツ提供サーバ200に順次送信されて格納される。また、他の移動手段に設置されている機器から送信された情報をコンテンツ提供サーバ200に順次格納してもよい。
 ユーザID211は、コンテンツ提供サービスを利用するユーザを識別するための識別情報である。例えば、ユーザU1のユーザIDとして「U01」がユーザID211に格納される。
 位置情報212は、ユーザID211に対応するユーザの位置を示す情報である。例えば、各ユーザが所持する電子機器に設置されている各種センサ、例えば位置情報取得部を用いて、各ユーザの現在地が取得され、この現在地の緯度経度とその取得時刻とが関連付けられた情報がコンテンツ提供サーバ200に送信されて位置情報212に格納される。位置情報212に基づいて、各ユーザの現在地を特定可能である。
 属性情報213は、機器情報DB210により管理される機器の属性を示す情報である。例えば、機器情報DB210により管理される機器がスマートフォンである場合には、その旨が格納され、機器情報DB210により管理される機器が車載機器である場合には、その旨が格納される。
 移動履歴214は、ユーザID211に対応するユーザの移動軌跡を示す情報である。例えば、位置情報212に格納されている位置と、この位置情報の取得時刻とが関連付けられた情報が移動軌跡として移動履歴214に格納される。
 車両情報215は、機器情報DB210により管理される機器が車載機器である場合に格納される情報であり、車両に関する各種情報である。例えば、自動車C1に設置されている各センサ、例えば加速度センサの検出情報の履歴が格納される。また、例えば、自動車C1が電気自動車である場合には、自動車C1の充電量又は残電気量の情報が格納される。また、例えば、自動車C1がエンジン車である場合には、自動車C1の残燃料の情報が格納される。
 画像情報216は、ユーザID211に対応する機器に設置されている画像取得部、例えばカメラにより取得された画像に関する情報である。例えば、画像取得部により取得された撮像画像がコンテンツ提供サーバ200に送信されて画像情報216に格納される。例えば、所定時間内に取得された各撮像画像の履歴が画像情報216に格納される。画像情報216に基づいて、電子機器MC1の周囲の状況、各移動手段の車内の状況、各移動手段の車外の状況等を特定可能である。
 接続情報217は、機器情報DB210により管理される機器と他の通信機器との間で通信が成立した場合の通信履歴を示す情報である。すなわち、接続情報217を参照することにより、機器情報DB210により管理される機器が接続された通信機器を特定可能である。
 決済情報218は、機器情報DB210により管理される機器により電子決済が実行された場合におけるその決算に関する情報である。例えば、所定時間内に取得された各決済情報の履歴が決済情報218に格納される。すなわち、決済情報218を参照することにより、機器情報DB210により管理される機器が決済したタイミング及び決済した機器を特定可能である。
 [コンテンツDBの内容例]
 図4は、コンテンツDB220に格納されている各情報を模式的に示す図である。コンテンツDB220は、コンテンツ提供サーバ200により管理されている登録場所の周囲に存在するユーザに提供するコンテンツを管理するためのデータベースである。
 コンテンツDB220には、位置情報222と、コンテンツ出力範囲223と、移動手段224と、コンテンツ225とが登録場所ID221に関連付けて格納されている。
 登録場所ID221は、コンテンツ提供サービスを利用するユーザにコンテンツを提供する場所である登録場所を識別するための識別情報である。例えば、物体RO1乃至RO3(図8参照)の登録場所IDとして「PL01」が登録場所ID221に格納される。また、例えば、建物B1(図8参照)の登録場所IDとして「PL02」が登録場所ID221に格納される。
 位置情報222は、コンテンツの提供対象となる登録場所の位置を示す情報である。例えば、登録場所の緯度経度が位置情報222に格納される。位置情報222に基づいて、登録場所の位置を特定可能である。なお、1つの登録場所に1つの位置情報を設定してもよく、1つの登録場所に複数の位置情報を設定してもよい。
 コンテンツ出力範囲223は、登録場所に対応するコンテンツを提供する範囲を示す情報である。例えば、コンテンツ出力範囲223は、登録場所の位置を基準とする所定範囲とすることができる。この所定範囲は、例えば、登録場所の位置を中心とする所定半径の円の範囲としてもよく、登録場所に関連する領域、例えば公園であれば公園内を範囲としてもよい。
 移動手段224は、コンテンツ提供サービスを利用するユーザの移動手段を示す情報である。例えば、各ユーザが利用すると想定される各移動手段が移動手段224に格納される。
 コンテンツ225は、コンテンツ提供サービスを利用するユーザに提供するコンテンツである。具体的には、1つの登録場所ID221に対して、複数の移動手段224に応じたコンテンツがコンテンツ225に格納される。
 [近接条件の成立判定例]
 ここで、登録場所ID221に登録場所IDが格納されている登録場所にユーザU1が存在することを判定する判定例、すなわち近接条件の成立判定例について説明する。例えば、登録場所の位置又は登録場所に設置されている機器と、ユーザU1が備える電子機器MC1との間での近接条件が成立した場合に、その登録場所にユーザU1が存在すると判定する例を示す。なお、この例では、ユーザU1が備える電子機器MC1の近接条件の成立に基づいて、登録場所RL1にユーザU1が存在することを判定する例を示すが、電子機器MC1以外の他の機器を用いた場合についても同様に適用可能である。なお、登録場所に設置されている機器は、例えば、有線通信又は無線通信を利用して電子機器MC1と通信可能な通信機器、登録場所に設置されている特徴部分を備える物体等である。なお、特徴部分を備える物体は、例えば、特徴部分FP1を備える物体RO1(図1、図8乃至図10参照)である。
 [位置情報を用いた判定例]
 最初に、位置情報を用いて登録場所にユーザが存在することを判定する判定例について説明する。
 具体的には、コンテンツ提供サーバ200の判定部204(図2参照)は、機器情報DB210の位置情報212が、コンテンツDB220の位置情報222を基準とする所定範囲内に存在するユーザID211を抽出する。すなわち、判定部204は、登録場所の周囲に存在する機器を抽出する。そして、判定部204は、機器情報DB210の位置情報212のうちに、その所定範囲内に存在する位置情報が存在する場合には、その位置情報に対応するユーザID211のユーザが、登録場所の周囲に存在すると判定する。なお、位置情報を用いた判定処理については、電子機器MC1が実行してもよい。この場合には、電子機器MC1は、近接条件が成立したことに基づいて、コンテンツ要求をコンテンツ提供サーバ200に送信する。
 [通信を用いた判定例]
 次に、通信を用いて登録場所にユーザが存在することを判定する判定例について説明する。
 具体的には、コンテンツ提供サーバ200の判定部204(図2参照)は、コンテンツDB220の登録場所ID221に対応する登録場所に設置されている通信機器からの接続情報に基づいて、その通信機器に無線通信又は有線通信を利用して接続された電子機器を特定する。例えば、機器間での通信により、接続された機器を特定するための機器識別情報又はユーザIDをやりとりする場合には、その接続情報に、接続された電子機器を特定するための機器識別情報又はユーザIDを含めることが可能となる。なお、その通信機器とのやりとりを実行した電子機器からコンテンツ提供サーバ200に接続情報を送信してもよい。なお、通信を用いた判定処理については、電子機器MC1が実行してもよい。この場合には、電子機器MC1は、近接条件が成立したことに基づいて、コンテンツ要求をコンテンツ提供サーバ200に送信する。
 例えば、無線通信としてWi-Fiを利用可能なルータが登録場所に設置されている場合を想定する。この場合には、そのルータとユーザが所持する電子機器との間で所定のやりとりが行われた後に、その電子機器がルータに接続される。このように、その電子機器がルータに接続された場合には、接続された電子機器に関する接続情報をルータがコンテンツ提供サーバ200に送信する。又は、そのルータに関する接続情報を電子機器がコンテンツ提供サーバ200に送信する。これにより、コンテンツ提供サーバ200は、その電子機器を所持するユーザがそのルータが設置されている登録場所の周囲に存在することを把握可能となる。
 また、例えば、無線通信としてBluetooth(登録商標)を利用可能な通信機器が登録場所に設置されている場合を想定する。この通信機器は、例えば、登録場所に関する登録場所情報を含むビーコン信号を発信することが可能であるものとする。この場合には、その通信機器が発信したビーコン信号をユーザが所持する電子機器が受信すると、その電子機器はビーコン信号に含まれる登録場所情報を取得可能となる。このように、その電子機器がビーコン信号を受信した場合には、そのビーコン信号に含まれる登録場所情報を電子機器がコンテンツ提供サーバ200に送信する。これにより、コンテンツ提供サーバ200は、その電子機器を所持するユーザがその通信機器が設置されている登録場所の周囲に存在することを把握可能となる。
 また、例えば、無線通信として可視光通信を利用可能な通信機器が登録場所に設置されている場合には、可視光通信を利用してユーザがその通信機器が設置されている登録場所の周囲に存在することを把握可能となる。なお、可視光通信は、人の目に見える可視光線帯域の電磁波を利用して行われる無線通信である。また、自動車C1のLED、ヘッドライトの波長や周波数を制御することにより自動車C1からの情報出力を行うことができ、自動車C1の車載カメラを用いて、登録場所の通信機器からの情報を自動車C1が取得可能となる。これにより、コンテンツ提供サーバ200は、自動車C1に乗車するユーザU1がその通信機器が設置されている登録場所の周囲に存在することを把握可能となる。例えば、QRコードは物体の外観に表示されるが、物体の外観の美化を保全するため、QRコードを設けたくない登録場所も存在することが想定される。このような場合でも、街灯等を利用して可視光通信を行うことが可能である。
 [特徴情報を用いた判定例]
 次に、特徴情報を用いて登録場所にユーザが存在することを判定する判定例について説明する。
 具体的には、ユーザU1は、登録場所に設置されている物体の特徴情報を、電子機器MC1の画像取得部306を用いて取得する。例えば、ユーザU1は、物体RO1の特徴部分FP1の画像を、電子機器MC1の画像取得部306を用いて取得する。次に、電子機器MC1の制御部302は、特徴部分FP1の画像に基づいて、コンテンツ提供サーバ200へのアクセス情報と、物体RO1が設置されている登録場所に関する識別情報とを取得する。次に、電子機器MC1の制御部302は、アクセス情報に基づいてコンテンツ提供サーバ200にアクセスし、物体RO1が設置されている登録場所に関する識別情報を送信する。これにより、コンテンツ提供サーバ200は、物体RO1が設置されている登録場所の周囲に、電子機器MC1を所持するユーザU1が存在することを把握可能となる。
 なお、この例では、物体RO1の外観に特徴部分FP1が設けられている場合の例を示すが、登録場所に設置されている物体の形状を特徴情報としてもよく、登録場所の風景等を特徴情報としてもよい。この場合には、電子機器MC1又はコンテンツ提供サーバ200に各特徴情報を判定するための判定情報を記憶しておき、その判定情報を用いて各特徴情報を取得することが可能である。例えば、位置情報と物体の形状とを関連付けて判定情報として予め登録しておく。例えば、ABC地域と、その地域内にある寺(登録場所)の仏像とを関連付けて予め登録しておく。この場合には、電子機器MC1の位置情報に基づいて、電子機器MC1がABC地域に存在することを判定可能である。また、電子機器MC1がABC地域に存在するときに、電子機器MC1の画像取得部306により取得された撮像画像に仏像が含まれる場合には、ABC地域に関連付けて登録されている仏像と、その撮像画像に含まれる仏像とを比較して一致するか否かを判定する。そして、一致した場合には、電子機器MC1がその寺に存在することを判定可能である。
 また、この例では、特徴情報として画像を用いる例を示したが、特徴情報として特定音を用いてもよい。この特定音は、特定の情報を取得することが可能な音情報である。例えば、登録場所に設置されている音発生機器から特定音を特徴情報として出力し、この特定音を電子機器MC1の音取得部305が取得する。次に、電子機器MC1の制御部302は、その特定音に基づいて、コンテンツ提供サーバ200へのアクセス情報と、物体RO1が設置されている登録場所に関する識別情報とを取得する。次に、電子機器MC1の制御部302は、アクセス情報に基づいてコンテンツ提供サーバ200にアクセスし、物体RO1が設置されている登録場所に関する識別情報を送信する。これにより、コンテンツ提供サーバ200は、物体RO1が設置されている登録場所の周囲に、電子機器MC1を所持するユーザU1が存在することを把握可能となる。
 なお、以上で示した判定例は、一例であり、他の判定方法を用いてもよい。また、上述した各判定方法を組み合わせて判定してもよい。例えば、2以上の判定方法を用いることにより判定精度を向上させることが可能である。
 [移動手段の取得例]
 次に、ユーザの移動手段の取得例について説明する。最初に、ユーザ操作に基づいてユーザの移動手段を取得する例を示す。
 [電子機器を用いた移動手段の選択例]
 図5は、電子機器MC1の表示部308に表示される表示画面の遷移例を示す図である。図5では、ユーザU1が徒歩で登録場所まで移動した場合の例を示す。
 図5の左側には、ユーザU1の移動手段を選択するための選択画面310の一例を示す。選択画面310は、電子機器MC1と登録場所との近接条件が成立した場合に表示される。なお、この例では、手動操作でユーザU1の移動手段を選択する例を示すが、自動でユーザU1の移動手段を推定する場合には、選択画面310の表示を省略する。
 選択画面310には、ユーザU1の移動手段を選択するための選択ボタン311乃至319が表示される。ユーザU1は、選択ボタン311乃至319のうちから、自己の移動手段に対応する選択ボタンを押下する押下操作を行う。図5では、ユーザU1が徒歩で登録場所まで移動する例であるため、ユーザU1が選択ボタン311を押下する押下操作を行うものとする。この押下操作がされた場合には、制御部302は、選択ボタン311に対応する移動手段を示す移動手段情報をコンテンツ提供サーバ200に送信する。この移動手段情報を受信することにより、コンテンツ提供サーバ200は、ユーザU1の移動手段を取得可能となる。そして、コンテンツ提供サーバ200は、ユーザU1の移動手段に応じたコンテンツを電子機器MC1に提供する。電子機器MC1は、コンテンツ提供サーバ200から提供されたコンテンツを出力する。例えば、図5の右側に示すコンテンツ表示画面320が表示部308に表示される。
 図5の右側には、選択画面310における選択ボタン311乃至319の選択操作に応じて選択された移動手段に応じてコンテンツを表示するコンテンツ表示画面320の一例を示す。
 コンテンツ表示画面320には、画像表示領域321と、メッセージ表示領域324と、移動手段表示領域325とが設けられる。画像表示領域321には、画像取得部306により取得された撮像画像に、選択画面310を用いて選択された移動手段に応じた人型画像322と、現在の登録場所に関連する次のコンテンツの表示対象となる登録場所を案内する案内画像323とが重ねて表示される。
 メッセージ表示領域324には、現在の登録場所に関する情報、現在の登録場所に関連する次のコンテンツの表示となる登録場所の位置及び方向に関する情報等がメッセージで表示される。
 移動手段表示領域325には、選択画面310を用いて選択された移動手段を示す情報が表示される。図5では、「徒歩者向け」の文字326と徒歩者を示す標識画像327とが移動手段表示領域325に表示される例を示す。移動手段表示領域325の表示を見ることによりユーザU1は、電子機器MC1に表示されているコンテンツが「徒歩者向け」であることを容易に把握することができる。このように、コンテンツ出力中、又は、コンテンツ出力前にどの移動手段向けのコンテンツ出力であるかをユーザに通知することにより、移動手段が正しく推定できなかった場合でも、ユーザU1が自分の移動手段に合っているコンテンツなのかを容易に把握することができる。
 [位置情報等を用いた移動手段の推定例]
 次に、電子機器MC1の位置情報取得部304により取得された位置情報等を用いてユーザU1の移動手段を推定する例について説明する。
 図6は、ユーザU1が利用する可能性がある移動手段を簡略化して示す図である。図6では、移動手段の例として、空を飛ぶ飛行機AP1と、線路RP1を走行する電車TR1と、車道RD1を走行する自動車C1、バスBU1、バイクM1、自転車BC1と、車道RD1に沿って設置されている歩道SW1を徒歩するユーザU1と、川RV1を移動する船SH1とを示す。
 [移動履歴を用いた推定例]
 推定部205(図2参照)は、機器情報DB210の位置情報212、移動履歴214を用いて電子機器MC1の移動履歴を取得することが可能である。そこで、推定部205は、電子機器MC1の移動履歴と、記憶部203の地図情報DBに格納されている地図情報とに基づいて、地図上の各経路のうちから、電子機器MC1の移動履歴と一致する経路を選択する。例えば、推定部205は、電子機器MC1の移動履歴が線路RP1と一致する場合には、電子機器MC1を所持するユーザU1の移動手段が電車であると推定する。また、推定部205は、電子機器MC1の移動履歴が川RV1と一致する場合には、電子機器MC1を所持するユーザU1の移動手段が船であると推定する。また、推定部205は、電子機器MC1の移動履歴が歩道SW1と一致する場合には、電子機器MC1を所持するユーザU1の移動手段が徒歩であると推定する。また、推定部205は、電子機器MC1の移動履歴が車道RD1と一致する場合には、電子機器MC1を所持するユーザU1の移動手段が車道RD1を走行する何らかの乗り物であると推定する。この場合には、次に示す速度等を用いて車道RD1を走行する乗り物の種別を推定可能である。
 [移動距離又は移動速度を用いた推定例]
 推定部205(図2参照)は、機器情報DB210の位置情報212、移動履歴214に基づいて、電子機器MC1の移動速度を算出することが可能である。例えば、推定部205は、所定間隔、例えば、1分間隔で取得された位置情報を用いて、その位置情報間の単位時間、例えば1分当たりの移動距離を算出することが可能である。また、例えば、推定部205は、所定間隔で取得された位置情報を用いて、その位置情報間の移動距離を算出し、その移動距離をその間隔で除算することにより移動速度を算出することが可能である。そこで、推定部205は、電子機器MC1の位置情報を用いて、電子機器MC1を所持するユーザU1の移動距離及び移動速度のうちの少なくとも1つを算出し、その移動距離又は移動速度に基づいて、ユーザU1の移動手段を推定する。
 例えば、推定部205は、1分当たりの移動距離がTH1m未満である場合には、ユーザU1の移動手段が徒歩であると推定する。また、推定部205は、1分当たりの移動距離がTH1m以上、かつ、TH2m未満である場合には、ユーザの移動手段が自転車であると推定する。また、推定部205は、1分当たりの移動距離がTH2m以上、かつ、TH3m未満である場合には、ユーザの移動手段が、自動車、バイク、バスのうちの少なくとも1つであると推定する。また、推定部205は、1分当たりの移動距離がTH3m以上である場合には、ユーザの移動手段が電車であると推定する。また、推定部205は、1分当たりの移動距離がTH4m以上である場合には、ユーザの移動手段が飛行機であると推定する。なお、推定部205は、算出された移動距離(1分当たりの移動距離)の平均値(平均移動距離)に基づいて、移動手段を推定してもよい。なお、TH1乃至TH4は、ユーザの移動手段を推定するための閾値であり、実験データ等により適宜設定可能な値である。例えば、TH1として数十m程度の値を設定し、TH2乃至TH4(ただし、TH2<TH3<TH4)として数百m程度の値を設定することができる。
 また、最大速度に基づいて移動手段を推定してもよい。例えば、最大速度がTH11km/h未満である場合には徒歩と判定し、最大速度がTH11km/h以上、かつ、TH12km/h未満である場合には自転車と判定することができる。また、例えば、最大速度がTH12km/h以上、かつ、TH13km/h未満の場合にはバスと判定し、最大速度がTH13km/h以上の場合には電車と判定することができる。また、例えば、最大速度がTH14km/h以上の場合には飛行機と判定することができる。なお、TH11乃至TH14は、ユーザの移動手段を推定するための閾値であり、実験データ等により適宜設定可能な値である。例えば、TH11として数km/h程度の値を設定し、TH12乃至TH14(ただし、TH12<TH13<TH14)として数十km/h程度の値を設定することができる。
 なお、推定部205は、電子機器MC1の位置情報を用いて、電子機器MC1を所持するユーザU1の加速度を算出することが可能である。また、電子機器MC1に搭載されている加速度センサの取得履歴を取得することも可能である。例えば、機器情報DB210の車両情報215に加速度センサの情報が含まれる場合には、その加速度センサの情報を用いることが可能である。そこで、徒歩、自転車、バス、電車等の各移動手段の特徴を予め設定しておき、推定部205は、電子機器MC1の加速度の特徴、例えば加速度の履歴に基づいて、ユーザU1の移動手段を推定してもよい。
 [通信を用いた推定例]
 推定部205(図2参照)は、移動手段に設置されている通信機器と電子機器MC1との通信に基づいて、電子機器MC1を所持するユーザU1の移動手段を推定可能である。
 例えば、ユーザU1が自動車C1に乗車している場合には、無線通信、例えばWi-Fi、Bluetoothを利用して、電子機器MC1を自動車C1の通信機器、例えば、制御装置50、情報出力装置100に接続することが想定される。この場合には、電子機器MC1の制御部302は、無線通信を利用して自動車C1の通信機器に接続されたことを示す接続履歴を記憶部303に記憶しておき、所定タイミングで、コンテンツ提供サーバ200に送信する。又は、自動車C1の通信機器は、無線通信を利用して電子機器MC1に接続されたことを示す接続履歴を記憶部に記憶しておき、所定タイミングで、コンテンツ提供サーバ200に送信してもよい。これらの接続履歴は、機器情報DB210の接続情報217に格納される。また、機器情報DB210の属性情報213に基づいて、自動車C1の種別を判定可能である。これにより、コンテンツ提供サーバ200は、ユーザU1の移動手段が自動車C1であることを把握可能である。
 また、例えば、無線通信を利用して電子機器MC1と接続可能な通信機器が設置されている移動手段、例えば、電車TR1、飛行機AP1、バスBU1、船SH1にユーザU1が乗っている場合には、電子機器MC1をその通信機器に接続することが想定される。この場合についても同様に、電子機器MC1の制御部302は、無線通信を利用して各移動手段の通信機器に接続されたことを記憶部303に記憶しておき、所定タイミングで、コンテンツ提供サーバ200に送信する。又は、各移動手段の通信機器は、無線通信を利用して電子機器MC1に接続されたことを記憶部に記憶しておき、所定タイミングで、コンテンツ提供サーバ200に送信してもよい。
 [決済システム、決済手段を用いた推定例]
 推定部205(図2参照)は、ユーザU1が電子機器MC1の決済機能を用いて公共交通機関に乗車した場合には、その決済情報に基づいて、電子機器MC1を所持するユーザU1の移動手段を推定可能である。この決済機能は、例えば、鉄道事業者又はバス事業者が扱う電子マネー機能を備えたICカード乗車券に相当する機能であり、例えばスマートフォンのアプリケーションとしてインストール可能である。例えば、鉄道事業者又はバス事業者のIDと、ユーザU1のユーザIDとを関連付けておき、コンテンツ提供サーバ200は、ユーザU1のユーザIDに基づいて、ユーザU1の乗車情報を取得してもよい。又は、鉄道事業者又はバス事業者の移動手段にユーザU1が乗車する毎に、乗車した移動手段に関する乗車情報を電子機器MC1が記憶しておき、所定タイミングで、コンテンツ提供サーバ200に送信してもよい。これらの各情報は、機器情報DB210の決済情報218に格納される。これにより、コンテンツ提供サーバ200は、ユーザU1が過去に決済した移動手段を把握可能である。
 また、その決済機能は、例えば、クレジットカード会社又はオンライン決済サービス会社による決済手段に相当する機能であり、例えばスマートフォンのアプリケーションとしてインストール可能である。例えば、クレジットカード会社又はオンライン決済サービス会社のIDと、ユーザU1のユーザIDとを関連付けておき、コンテンツ提供サーバ200は、ユーザU1のユーザIDに基づいて、ユーザU1の乗車情報を取得してもよい。
 [画像や音を用いた推定例]
 推定部205(図2参照)は、電子機器MC1の画像取得部306により取得された画像に基づいて、電子機器MC1を所持するユーザU1の移動手段を推定可能である。例えば、ユーザU1の周囲の画像が電子機器MC1の画像取得部306により取得された場合には、その画像情報を記憶部303に記憶しておき、所定タイミングで、コンテンツ提供サーバ200に送信する。この画像情報は、機器情報DB210の画像情報216に格納される。コンテンツ提供サーバ200は、ユーザU1の周囲の画像に基づいて、ユーザU1が移動した経路を特定可能であるため、その経路に基づいてユーザU1の移動手段を推定可能である。例えば、ユーザU1の周囲の画像が歩道SW1である場合には、ユーザU1の移動手段が徒歩であると推定可能である。また、ユーザU1の周囲の画像が海や川である場合には、ユーザU1の移動手段が船であると推定可能である。また、ユーザU1の周囲の画像が線路RR1の沿線である場合には、ユーザU1の移動手段が電車であると推定可能である。
 また、画像取得部306により取得された画像にハンドルが含まれる場合には、そのハンドルの形状に基づいて、自動車、バイク、自転車等の移動手段を推定可能である。また、画像取得部306により取得された画像にフロントウィンドウ、ダッシュボード等の車室内の物が含まれる場合には、移動手段が自動車であると推定可能である。
 推定部205は、電子機器MC1の音取得部305により取得された音に基づいて、電子機器MC1を所持するユーザU1の移動手段を推定可能である。例えば、ユーザU1の周囲の音が電子機器MC1の音取得部305により取得された場合には、その音情報を記憶部303に記憶しておき、所定タイミングで、コンテンツ提供サーバ200に送信する。この音情報は、機器情報DB210に格納される。コンテンツ提供サーバ200は、ユーザU1の周囲の音に基づいて、ユーザU1が移動した環境を特定可能であるため、その環境に基づいてユーザU1の移動手段を推定可能である。例えば、ユーザU1の周囲の音が静かな音である場合には、ユーザU1の移動手段が徒歩であると推定可能である。また、ユーザU1の周囲の音が、特定の乗り物が発する音である場合には、ユーザU1の移動手段がその乗り物であると推定可能である。
 [他の推定例]
 ここでは、他の推定方法について説明する。例えば、登録場所又はその施設にユーザが入退出するための出入口に通信機器を設置することができる。この通信機器と電子機器MC1との通信を用いてユーザU1の移動手段を推定することができる。
 また、ユーザU1の電子機器MC1には、移動手段に応じて各種情報が通知されたり、表示されたりする。例えば、ユーザU1がバスや電車を利用している場合には、電子機器MC1の表示部308に時刻表が表示されることが多い。また、ユーザU1が自動車C1を利用している場合には、自動車C1での帰り道の交通状況が電子機器MC1の表示部308に表示されることが多い。また、ユーザU1が自転車、バイクを利用している場合には、電子機器MC1の表示部308に天候情報が表示されることが多い。また、ユーザU1がタクシーを利用している場合には、電子機器MC1において配車アプリ等が起動されることが多い。そこで、電子機器MC1の表示履歴、アプリの起動履歴を用いて、ユーザU1の移動手段を推定可能である。
 また、上述したように、登録場所又はその施設の出入口に設置されている通信機器については、入退場の処理を実行するものとしてもよい。例えば、その通信機器を用いてユーザU1が入退場の操作をした場合には、ユーザU1の電子機器MC1に移動手段に応じて適切な情報を表示することが可能である。
 また、例えば、登録場所としての飲食店の出入口に通信機器を設置することができる。この通信機器と電子機器MC1との通信を用いてユーザU1の移動手段を推定することができる。また、この通信機器は、飲食店での食事後に、ユーザU1が電子機器MC1を用いて電子決済する際に用いられる。また、例えば、ユーザU1の移動手段が徒歩である場合には、ユーザU1の食事の代金のみを電子機器MC1に表示させ、請求する。一方、ユーザU1の移動手段が自動車C1であり、自動車C1を駐車場に駐車している場合には、ユーザU1の食事の代金に駐車場の代金を加算して電子機器MC1に表示させ、請求することが可能である。
 なお、以上で示した移動手段の推定方法は、一例であり、他の推定方法を用いてもよい。また、上述した各推定方法を組み合わせて移動手段を推定してもよい。例えば、2以上の推定方法で推定した移動手段が一致したことを条件に、ユーザの移動手段を決定してもよい。これにより、移動手段の推定精度を向上させることが可能である。
 [主な移動手段の推定例]
 図7は、登録場所RL1までの経路R1乃至R5と、主な移動手段との関係例を簡略化して示す図である。登録場所RL1に向かう経路として、最寄りの空港APP1からの経路R1と、最寄りの駅ST1からの経路R2と、最寄りの船着き場SP1からの経路R3と、最寄りのバス停BT1からの経路R4と、駐車場P1からの経路R5とが存在するものとする。図7では、各経路R1乃至R5は、徒歩のみの移動が可能である場合を想定する。この場合には、登録場所RL1に到着したユーザU1の移動手段は、全て徒歩と推定することも可能である。しかし、各経路R1乃至R5の前にユーザU1が利用した移動手段を考慮して、ユーザU1の主な移動手段を推定してもよい。例えば、コンテンツに応じて、ユーザU1の移動手段を推定可能である。
 例えば、ユーザU1の移動距離に基づいて、ユーザU1の主な移動手段を選択し、この主な移動手段に基づいてコンテンツを決定することができる。例えば、ユーザU1の自宅から登録場所RL1までの距離のうち、移動距離が最も長い移動手段を主な移動手段として選択することができる。例えば、ユーザU1の自宅から登録場所RL1までの距離が10kmである場合に、徒歩が1kmであり、電車が9kmである場合には、主な移動手段として電車が選択される。
 例えば、ユーザU1の移動時間に基づいて、ユーザU1の主な移動手段を選択し、この主な移動手段に基づいてコンテンツを決定することができる。例えば、ユーザU1の自宅から登録場所RL1までの移動時間のうち、移動時間が最も長い移動手段を主な移動手段として選択することができる。例えば、ユーザU1の自宅から登録場所RL1までの移動時間が1時間である場合に、徒歩が10分であり、バスが40分であり、電車が10分である場合には、主な移動手段としてバスが選択される。
 例えば、ユーザU1の移動コストに基づいて、ユーザU1の主な移動手段を選択し、この主な移動手段に基づいてコンテンツを決定することができる。例えば、ユーザU1の自宅から登録場所RL1までの移動コストのうち、移動コストが最も高い移動手段を主な移動手段として選択することができる。例えば、ユーザU1の自宅から登録場所RL1までの移動コストが1000円である場合に、徒歩が0円であり、バスが800円であり、電車が200円である場合には、主な移動手段としてバスが選択される。
 なお、主な移動手段の選択方法は、一例であり、他の方法によりユーザの移動手段を選択してもよい。また、ユーザに提供されるコンテンツに応じて、移動手段の選択方法を変更してもよい。
 また、移動手段の優先順位を予め設定しておき、この優先順位に従ってユーザの移動手段を選択してもよい。例えば、移動手段の優先順位として、1位電車、2位自動車、3位バス、4位徒歩を設定した場合を想定する。この場合に、ユーザが徒歩、バス、電車を利用して登録場所に来た場合には、優先順位に従ってユーザの移動手段として1位の電車が選択される。なお、このように選択された移動手段がユーザ操作によりキャンセルされた場合には、優先順位に従ってユーザの他の移動手段を選択するようにする。
 [登録場所とユーザの移動手段との関係例]
 図8は、コンテンツ提供サーバ200により管理されている登録場所とユーザU1の移動手段との関係を簡略化して示す図である。図8では、物体RO1乃至RO3と、建物B1とが登録場所である例を示す。また、図8では、物体RO1乃至RO3が設置されている駐車場P11に、ユーザU1が徒歩で向かう場合と、ユーザU1が自動車C1に乗車して向かう場合とを示す。また、駐車場P11は、建物B1を利用するユーザに提供される駐車場であるものとする。建物B1は、例えば、博物館、展示場等の人が集まる各種施設である。
 物体RO1乃至RO3は、充電ケーブルを用いて電気自動車を充電するための充電スタンドである。また、物体RO1乃至RO3は、コンテンツ提供サーバ200により管理されている登録場所に設置されている施設である。また、車両C2は、充電設備RO2を利用して充電をしている車両であり、車両C3、C4は、駐車場P11に駐車している車両であるものとする。
 また、ユーザU1が自動車C1に乗車して駐車場P11に向かう場合には、車道R11を走行し、ユーザU1が徒歩で駐車場P11に向かう場合には、歩道R12を歩いて向かうものとする。この場合には、コンテンツ提供サーバ200は、ユーザU1が駐車場P11に向かうまでの移動履歴に応じて、ユーザU1の移動手段を推定可能である。なお、ユーザU1の移動履歴については、機器情報DB210の移動履歴214から取得可能である。
 [移動手段が徒歩である場合のコンテンツ出力例]
 図9は、ユーザU1の移動手段が徒歩である場合にコンテンツ提供サーバ200によりユーザU1に提供されるコンテンツの出力例を示す図である。ここでは、ユーザU1が電子機器MC1を所持する場合を想定して説明する。
 図8に示す歩道R12を歩いてきたユーザU1は、建物B1を利用するため、物体RO1の付近まで移動してきたものとする。このように、物体RO1の付近までユーザU1が移動した後に、ユーザU1が電子機器MC1の画像取得部306を利用して物体RO1の特徴部分FP1を撮影する場合を想定する。この場合には、特徴部分FP1の画像が電子機器MC1の画像取得部306により取得され、この特徴部分FP1の画像が電子機器MC1の制御部302に出力される。制御部302は、特徴部分FP1の画像について所定の画像処理を施すことにより特徴部分FP1に基づいて各種情報を取得可能である。
 例えば、特徴部分FP1がQRコードで構成されている場合には、電子機器MC1の画像取得部306により取得されたQRコードに基づいて、制御部302は、コンテンツ提供サーバ200へのアクセス情報と、物体RO1を識別するための識別情報とを取得可能となる。この場合には、制御部302は、その取得されたアクセス情報に基づいて、コンテンツ提供サーバ200にアクセスし、物体RO1の識別情報、例えば登録場所IDを送信する。これにより、コンテンツ提供サーバ200は、電子機器MC1が物体RO1の周囲に存在することを把握できる。この場合には、コンテンツ提供サーバ200は、電子機器MC1の移動履歴214(図3参照)に基づいて、移動手段が徒歩であることを把握できる。又は、コンテンツ提供サーバ200は、電子機器MC1からの送信情報であることに基づいて、移動手段が徒歩であることを推定してもよい。
 次に、コンテンツ提供サーバ200は、コンテンツDB220の登録場所ID221のうちから、物体RO1の識別情報に一致する登録場所ID221を抽出する。そして、コンテンツ提供サーバ200は、物体RO1の識別情報に一致する登録場所ID221に関連付けられているコンテンツDB220の移動手段224のうちから、徒歩に関連するコンテンツ225を抽出する。
 コンテンツ提供サーバ200は、そのように抽出されたコンテンツを電子機器MC1に送信する。コンテンツ提供サーバ200からコンテンツを受信した場合には、電子機器MC1の制御部302は、そのコンテンツを出力部、例えば、表示部308、音出力部309から出力させる。例えば、図9に示すように、画像取得部306により取得された画像に重畳させて人型画像AB1を表示させることができる。この例では、建物B1の上側に座っているような姿勢の人型画像AB1を表示部308に表示させることができる。また、人型画像AB1が、物体RO1及び建物B1の説明をするとともに、建物B1に進むことを案内するような音情報S1を出力してもよい。また、例えば、周囲の観光地までに要する時間、特産品等の動画コンテンツを出力してもよい。この場合に、ユーザU1が徒歩で来ていることが把握できているため、徒歩で行ける近い場所、例えば3km程度の範囲内の登録場所を案内することも可能である。
 なお、図9に示す例では、ユーザU1が駐車場にいるため、「車が来るから危ないよ」等のメッセージを出力してもよく、「今度は車で来てね」等のメッセージを出力してもよい。また、他の登録場所の近道を案内するコンテンツ、ユーザU1が歩ける範囲で他の登録場所を案内するコンテンツ等を出力してもよい。
 [移動手段が車両である場合のコンテンツ出力例]
 図10は、ユーザU1の移動手段が自動車C1である場合にコンテンツ提供サーバ200によりユーザU1に提供されるコンテンツの出力例を示す図である。ここでは、自動車C1が電気自動車である場合を想定して説明する。また、図10では、自動車C1の前後方向の後側から見た場合の自動車C1の車室内の構成例を簡略化して示す。また、図10では、説明を容易にするため、ダッシュボード2、ハンドル3、ウインドシールド4、情報出力装置100以外の図示は省略する。
 図8に示す車道R11を自動車C1に乗車して走行してきたユーザU1は、物体RO1を利用して充電するため、物体RO1の付近に自動車C1を駐車するものとする。このように、物体RO1の付近に自動車C1が駐車された場合には、図10に示すように、物体RO1、建物B1等がウインドシールド4から見えるようになる。
 図1で示したように、物体RO1の外観には特徴部分FP1が設けられている。自動車C1に設置されている画像取得部、例えば車外カメラの撮像範囲に特徴部分FP1が含まれる場合には、特徴部分FP1の画像が自動車C1の画像取得部により取得され、この特徴部分FP1の画像が情報出力装置100に出力される。情報出力装置100は、特徴部分FP1の画像について所定の画像処理を施すことにより特徴部分FP1に基づいて各種情報を取得可能である。
 なお、情報出力装置100によるコンテンツ提供サーバ200へのアクセスと、物体RO1の識別情報の送信とについては、図9に示す例と同様である。これにより、コンテンツ提供サーバ200は、自動車C1が物体RO1の周囲に存在することを把握できる。この場合には、コンテンツ提供サーバ200は、情報出力装置100の移動履歴214(図3参照)に基づいて、移動手段が自動車であることを把握できる。又は、コンテンツ提供サーバ200は、情報出力装置100からの送信情報であることに基づいて、移動手段が自動車であることを推定してもよい。
 次に、コンテンツ提供サーバ200は、コンテンツDB220の登録場所ID221のうちから、物体RO1の識別情報に一致する登録場所ID221を抽出する。そして、コンテンツ提供サーバ200は、物体RO1の識別情報に一致する登録場所ID221に関連付けられているコンテンツDB220の移動手段224のうちから、自動車に関連するコンテンツ225を抽出する。
 コンテンツ提供サーバ200は、そのように抽出されたコンテンツを情報出力装置100に送信する。コンテンツ提供サーバ200からコンテンツを受信した場合には、情報出力装置100の制御部は、そのコンテンツを出力部、例えば、表示部110、音出力部から出力させる。例えば、図10に示すように、画像取得部により取得された画像に重畳させて人型画像AB2を表示させることができる。この例では、物体RO1の上側に座っているような姿勢の人型画像AB2を表示部110に表示させることができる。また、人型画像AB2が、物体RO1及び建物B1の説明をするとともに、充電設備を案内するような音情報S2を出力してもよい。また、ユーザU1が自動車C1から出ないことを想定して、周囲の観光案内の動画コンテンツを出力してもよい。例えば、周囲の観光地までに要する時間、特産品等の動画コンテンツを出力してもよい。この場合に、ユーザU1が自動車C1車で来ていることが把握できているため、徒歩や自転車ではいけない遠い場所、例えば20km程度の範囲内の登録場所を案内することも可能である。また、コンテンツ提供サーバ200は、機器情報DB210の車両情報215に基づいて、自動車C1の充電量を把握可能である。そこで、自動車C1の充電量を考慮したコンテンツ出力としてもよい。例えば、現在の充電量で行ける場所を案内したり、今の充電量を考慮した次の充電スポットを紹介したりすることができる。
 また、コンテンツ提供サーバ200は、ネットワーク20を介して、登録場所の周囲の混雑情報を取得可能である。そこで、コンテンツ提供サーバ200は、登録場所の周囲の混雑情報に基づいて、登録場所の周囲の場所から、混雑していない場所であって車でしか行けない場所を案内したり紹介したりすることができる。また、充電設備を利用した人だけに魅力的なコンテンツを提供することで充電設備の利用を促進することが可能となる。
 なお、図10に示す例では、特徴部分FP1を用いて近接条件の成立を判定する例を示したが、他の方法により近接条件の成立を判定してもよい。例えば、物体RO1の充電ケーブルが自動車C1に接続された場合における充電ケーブルを介した物体RO1及び自動車C1間のやりとりに基づいて、自動車C1の近接条件の成立を判定してもよい。すなわち、物体RO1の充電ケーブルを自動車C1に接続した場合には、その物体RO1、すなわち充電設備と自動車C1との間で充電してもよいか否かの通信を行うため、その通信を利用して物体RO1及び自動車C1間の直接通信が成立したことを判定可能である。
 なお、VR(Virtual Reality)又はAR(Augmented Reality)を用いたコンテンツを提供してもよい。また、提供対象となるコンテンツとして、登録場所に関連した内容を含むコンテンツを用いることができる。例えば、登録場所に関連する地域のご当地コンテンツ、ご当地のものを紹介するコンテンツ、ご当地アバター、ご当地マスコットキャラクター等を用いることができる。ご当地コンテンツは、例えば、所定のキャラクタが図形化された画像である。また、これらをAR又はAR表示したり、音声出力したりすることも可能である。このように、移動手段に応じて提供対象となるご当地コンテンツを変更することにより、全てのご当地コンテンツを見たいと考えるユーザが登録場所に頻繁に訪れるようになるため、登録場所を活性化することが可能である。また、各移動手段を使用するため、各移動手段の利用を促進することが可能である。
 ここで、移動手段が自動車と徒歩の場合のコンテンツの違いについて説明する。移動手段が自動車と徒歩の場合でも、特徴的な部分、例えば人型画像AB1、AB2以外の表示の形態を同じとすることが可能である。ただし、移動手段が自動車である場合には、ユーザが車室内に長い時間いることも想定される。そこで、移動手段が自動車である場合には、ユーザが車室内にいて完結するご当地コンテンツを提供することも可能である。例えば、自動車から見ることが可能な風景に所定画像を重ねて表示することも可能である。例えば、ユーザの視線を検出可能な場合には、その視線に応じた風景に、その風景に関連する所定画像を重ねて表示することができる。また、車室内で電子機器MC1を見ることが可能な場合には、電子機器MC1の画像取得部306により取得された画像に所定画像を重ねて表示することができる。ここで、所定画像は、登録場所から見ることが可能な建物、山等の説明画像とすることができる。
 また、移動手段が自動車である場合には、残燃料又は残充電量に応じて航続距離が異なる。このため、残燃料又は残電気量を紹介するコンテンツを提供することも可能である。また、残燃料又は残電気量に応じて次の登録場所の候補を変更することも可能であり、ユーザの状況に応じた情報提供を行うことができる。
 また、移動手段が徒歩車である場合には、ユーザは数十m移動することが容易であるため、数十m先の対象物を紹介することも可能である。この場合には、ユーザが対象物に近づいて電子機器MC1の画像取得部306により対象物の画像を取得された際に、その対象物に所定画像を重ねて表示することができる。この所定画像は、対象物に関する説明画像とすることができる。
 このように、移動手段に応じて異なるコンテンツを提供することができるため、移動手段に適したご当地の情報をユーザに提供することができる。例えば、情報提供側が、移動手段を考慮して情報を適切に紹介することが可能となる。この場合に、ご当地の情報を広く浅く伝えることも可能であり、狭く深く伝えることも可能である。なお、図9、図10では、音声情報及び画像情報の双方を出力する例を示すが、音声情報及び画像情報のうちの一方を出力してもよい。
 [移動手段に応じたコンテンツの出力例]
 図11は、ユーザU1の移動手段に応じたコンテンツの出力例を示す図である。図11(A)には、ユーザU1の移動手段がバスBU1である場合のコンテンツ出力例を示し、図11(B)には、ユーザU1の移動手段が電車TR1である場合のコンテンツ出力例を示し、図11(C)には、ユーザU1の移動手段がバイクM1である場合のコンテンツ出力例を示し、図11(D)には、ユーザU1の移動手段が船SH1である場合のコンテンツ出力例を示し、図11(E)には、ユーザU1の移動手段が飛行機AP1である場合のコンテンツ出力例を示す。
 図11(A)乃至(E)に示すように、コンテンツ表示画面には、画像表示領域401乃至405において、ユーザU1の移動手段に応じた人型画像411乃至415が撮像画像に重ねて表示される。また、移動手段表示領域421乃至425には、ユーザU1の移動手段に応じた文字及び標識が表示される。例えば、人型画像411乃至415を用いて、登録場所を案内するコンテンツを出力することができる。
 なお、図11に示すコンテンツは一例であり、ユーザU1の移動手段に応じて他のコンテンツを出力してもよい。例えば、ユーザU1の移動手段に応じて、同一の人型画像のポーズ又は服を変更してもよい。また、登録場所が店である場合には、ユーザU1の移動手段に応じて、紹介する商品を変更してもよい。
 また、同一の登録場所に来た回数を、機器情報DB210のユーザID211に関連付けて移動手段毎に格納しておき、その回数の増加に応じてコンテンツの出力を変更してもよい。例えば、登録場所Aである充電設備に自動車C1で最初に来たときには「充電時間が30分かかるから、裏の公園に行って時間をつぶしてね」を示す文字と、それを表現する人型画像を表示することができる。また、例えば、自動車C1で登録場所Aに3回目に来たときには「また車で来てくれたんだね」を示す文字と、それを表現する人型画像を表示することができる。また、音声によりそれらを出力してもよい。
 また、ユーザU1の移動手段に応じて、現在の登録場所の次に案内する登録場所を変更してもよい。例えば、比較的近い範囲に存在する複数の登録場所A乃至Eが存在し、登録場所Aが入口である場合を想定する。この場合に、例えば、移動手段が自動車である場合には、登録場所A→C→Eを案内し、移動手段が徒歩である場合には、登録場所A→B→Dを案内することができる。このように、登録場所A等の次の候補として、移動手段に応じた優先順位を予め設定しておき、この優先順位と移動手段とに基づいて、次の候補をユーザに提供する。これらの次の候補は、例えば、距離、時間、移動経路の状態等に基づいて適宜設定可能である。なお、次の候補がユーザ操作によりキャンセルされた場合には、優先順位に従って他の次の候補を提供するようにする。
 また、例えば、移動手段が自動車である場合には、現在の登録場所から向かう道が広く、駐車場が存在する登録場所を次の候補として紹介することができる。この場合には、現在の登録場所から離れている場所であっても紹介することが可能である。
 また、例えば、移動手段が徒歩である場合には、徒歩での移動圏内(例えば、数km未満)に存在する登録場所を次の候補として紹介することができる。この場合には、現在の登録場所から向かう道が狭くても紹介することが可能である。
 また、例えば、移動手段がバイクである場合には、現在の登録場所から向かう道が狭く、駐車場が存在しない登録場所であっても次の候補として紹介することができる。また、現在の登録場所から離れている場所であっても紹介することが可能である。
 また、例えば、移動手段が自転車である場合には、現在の登録場所から向かう道が平坦でかつ自転車での移動圏内(例えば10km未満)に存在する登録場所を次の候補として紹介することができる。この場合には、徒歩で紹介する場所よりも離れている場所であっても紹介することが可能である。
 また、比較的近い範囲に存在する複数の登録場所A乃至Eが存在し、登録場所Aが入口である場合を想定する。この場合に、例えば、移動手段に応じた案内(例えば、自動車である場合:登録場所A→C→E)に従わないで、登録場所を移動した場合には、移動手段に応じた所定のコンテンツ出力をしない設定としてもよい。この場合には、案内に従って移動する楽しみが増加する。これにより、ユーザU1は、移動手段に応じた移動経路と、移動手段に応じたコンテンツとを容易に楽しむことができる。
 [登録場所以外でのコンテンツ出力例]
 以上では、ユーザU1が登録場所の周囲に存在する場合のコンテンツ出力例を示した。ここで、ユーザU1が登録場所の近くまで移動しているにもかかわらず、近接条件が不成立のため、登録場所のコンテンツが出力されないことも想定される。また、ユーザU1が登録場所に行く予定である場合に、登録場所の状況を知りたいと考えることも想定される。そこで、図12、図13では、ユーザU1が登録場所の周囲に存在しない場合にコンテンツを出力する例を示す。
 [登録場所に近い場所でのコンテンツ出力例]
 図12は、電子機器MC1の表示部308に表示されるコンテンツ表示画面500の一例を示す図である。コンテンツ表示画面500は、ユーザU1が登録場所の近くに存在し、かつ、近接条件が不成立の場合に表示されるコンテンツの一例である。図12に示す例は、図8に示す例と同様に、登録場所に物体R01乃至R03、建物B1が設置されている場合を示す。また、ユーザU1は、歩道R12(図8参照)を徒歩で移動しているものとする。なお、コンテンツ表示画面500は、ユーザU1が登録場所に行くと想定される場合に自動で表示してもよく、ユーザU1の手動操作により表示してもよい。
 コンテンツ表示画面500には、戻るボタン501と、地図表示領域510と、メッセージ表示領域520とが表示される。戻るボタン501は、直前の表示画面に戻す際に押下されるボタンである。
 地図表示領域510には、ユーザU1の現在地を示す現在地標識PL1と、ユーザU1の周囲に存在する他の機器の位置を示す機器標識O1乃O5、H1乃至H5と、登録場所の位置を示す登録場所標識511乃至514と、登録場所までの移動経路R21、R22とが、ユーザU1の周囲の地図上に重ねて表示される。なお、コンテンツ提供サーバ200のコンテンツ提供処理部206は、機器情報DB210の位置情報212に基づいて、ユーザU1の周囲の地図と移動経路R21、R22とを表示可能である。また、コンテンツ提供サーバ200のコンテンツ提供処理部206は、機器情報DB210の位置情報212に基づいて、現在地標識PL1、機器標識O1乃O5、H1乃至H5を表示可能である。また、コンテンツ提供サーバ200のコンテンツ提供処理部206は、コンテンツDB220の位置情報222に基づいて、登録場所標識511乃至514を表示可能である。
 このように、ユーザU1が行くと想定される登録場所の周囲の地図上に、機器標識O1乃O5、H1乃至H3と、登録場所標識511乃至514と、移動経路R21、R22とを表示することにより、ユーザU1は、登録場所と、そこに向かう経路と、その経路上の混雑等を容易に把握できる。
 また、ユーザU1の移動手段が推定できる場合には、登録場所までの移動経路のうち、ユーザU1の移動手段に対応する移動経路のみを表示してもよい。図12では、ユーザU1の移動手段が徒歩であるため、登録場所までの移動経路R21、R22のうち、ユーザU1の移動手段(徒歩)に対応する移動経路R22を太線で表示し、移動経路R21を点線で表示して、ユーザU1の移動手段(徒歩)に対応する移動経路R22を強調表示する例を示す。これにより、ユーザU1は、登録場所に向かう経路を容易に把握できる。
 [ユーザ操作により指定された登録場所に関するコンテンツ出力例]
 図13は、電子機器MC1の表示部308に表示されるコンテンツ表示画面550の一例を示す図である。コンテンツ表示画面550は、ユーザU1の手動操作により指定された地図を表示するコンテンツの一例である。なお、図13に示す例は、図12の一部を変更したものであるため、ここでは図12と異なる点を中心にして説明する。また、図12と共通する部分には、同一の符号を付してこれらの説明を省略する。
 コンテンツ表示画面550には、地図表示領域560と、メッセージ表示領域570と、移動手段選択領域580とが表示される。地図表示領域560には、機器標識O1乃O5、H1乃至H5と、登録場所標識511乃至514と、移動経路R21、R22とが、ユーザU1の手動操作により指定された地図上に重ねて表示される。すなわち、図13では、現在地標識PL1が表示されない点が図12と異なる。
 また、移動手段選択領域580は、ユーザU1が地図表示領域560に表示されている登録場所まで移動する際に利用する移動手段を選択するための領域である。移動手段選択領域580においてユーザU1が移動手段を選択することにより、その選択された移動手段に応じたコンテンツを出力可能となる。
 また、登録場所について設定されている複数のコンテンツのうちの少なくとも1つをコンテンツ表示画面550に表示させてもよく、他の表示画面で表示させてもよい。また、それらの複数のコンテンツのうちの少なくとも1つを音声出力してもよい。また、登録場所に関連する移動手段に応じた移動範囲又は移動経路をコンテンツ表示画面550に表示してもよく、他の表示画面で表示させてもよい。登録場所に関連する移動手段に応じた移動範囲は、ユーザU1の手動操作により指定された地図に含まれる登録場所に来たユーザが移動すると想定される範囲である。例えば、ユーザU1の移動手段が徒歩である場合には、比較的狭い範囲が設定され、ユーザU1の移動手段が自動車である場合には、比較的広い範囲が設定される。また、登録場所に関連する移動手段に応じた移動経路は、ユーザU1の手動操作により指定された地図に含まれる登録場所に来たユーザが移動すると想定される経路である。例えば、ユーザU1の移動手段が徒歩である場合には、徒歩で移動できる経路が設定され、ユーザU1の移動手段が自動車である場合には、自動車で移動できる経路が設定される。
 このように、登録場所の近くにユーザU1が存在しない場合であっても、ユーザU1により指定された地図上に、機器標識O1乃O5、H1乃至H5と、登録場所標識511乃至514と、移動経路R21、R22とを表示することができる。これにより、ユーザU1は、登録場所と、そこに向かう経路と、その経路上の混雑等を容易に把握できる。
 また、ユーザU1の移動手段が指定された場合には、登録場所までの移動経路のうち、ユーザU1の移動手段に対応する移動経路のみを表示してもよい。例えば、ユーザU1の移動手段が自動車である場合には、登録場所までの移動経路R21、R22のうち、ユーザU1の移動手段(自動車)に対応する移動経路R21のみを表示することができる。これにより、ユーザU1は、登録場所に向かう経路を容易に把握できる。
 [電子機器の動作例]
 図14は、電子機器MC1におけるコンテンツ出力処理の一例を示すフローチャートである。また、このコンテンツ出力処理は、記憶部303に記憶されているプログラムに基づいて制御部302により実行される。また、このコンテンツ出力処理は、制御周期毎に常時実行される。また、このコンテンツ出力処理では、図1乃至図13を適宜参照して説明する。なお、図14では、電子機器MC1の動作例を示すが、他の機器、例えば情報出力装置100の動作についても同様である。
 ステップS601において、制御部302は、コンテンツ提供サーバ200によるコンテンツ提供サービスを利用してコンテンツを出力する設定がされているか否かを判定する。このコンテンツ出力の設定は、ユーザ操作又は自動で行われる。例えば、コンテンツ出力のオンオフをユーザ操作により設定可能である。また、例えば、所定条件を満たす場合、例えば昼間の時間帯で所定の場所、例えば自宅を基準とする所定範囲外に入ったことを条件とすることができる。コンテンツを出力する設定がされている場合には、ステップS602に進む。一方、コンテンツを出力する設定がされていない場合には、コンテンツ出力処理の動作を終了する。
 ステップS602において、制御部302は、位置情報取得部304により取得された位置情報を含む所定情報をコンテンツ提供サーバ200に送信する。この所定情報に含まれる位置情報は、機器情報DB210の位置情報212に順次格納される。また、機器情報DB210の位置情報212に格納された位置情報と取得時刻とが関連付けられて移動履歴214に格納される。これにより、コンテンツ提供サーバ200は、電子機器MC1の移動履歴を取得可能である。また、所定情報には、機器情報DB210に格納される各情報が必要に応じて含めて送信される。
 ステップS603において、制御部302は、ユーザ操作に基づく近接条件が成立したか否かを判定する。例えば、QRコードの読取操作、特徴部分を備える物体の画像取得操作等のコンテンツ取得操作が行われ、そのコンテンツ取得操作に基づいて所定の情報を取得できた場合には、ユーザ操作に基づく近接条件が成立したと判定される。ユーザ操作に基づく近接条件が成立した場合には、ステップS604に進む。一方、ユーザ操作に基づく近接条件が成立していない場合には、ステップS605に進む。
 ステップS604において、制御部302は、ステップS604で行われたユーザ操作に基づいて、コンテンツ要求をコンテンツ提供サーバ200に送信する。例えば、制御部302は、読取操作又は画像取得操作に応じて取得されたコンテンツ提供サーバ200へのアクセス情報に基づいて、コンテンツ提供サーバ200へのアクセス処理を実行する。次に、制御部302は、読取操作又は操作画像取得操作に応じて取得された登録場所IDとユーザIDとを含むコンテンツ要求をコンテンツ提供サーバ200に送信する。
 ステップS605において、制御部302は、位置情報又は通信に基づく近接条件が成立したか否かを判定する。この近接条件は、例えば、他の通信機器との間での無線通信又は有線通信を用いて判定される。また、この近接条件は、例えば、登録場所の位置と電子機器MC1の位置との関係を用いて判定される。位置情報又は通信に基づく近接条件が成立している場合には、ステップS606に進む。一方、位置情報又は通信に基づく近接条件が成立していない場合には、コンテンツ出力処理の動作を終了する。
 ステップS606において、制御部302は、ステップS605で成立した近接条件に基づいて、コンテンツ要求をコンテンツ提供サーバ200に送信する。例えば、制御部302は、無線通信又は位置情報を用いて取得された登録場所IDとユーザIDとを含むコンテンツ要求をコンテンツ提供サーバ200に送信する。なお、コンテンツ提供サーバ200において近接条件の判定処理が実行される場合には、ステップS603乃至S606の処理を省略してステップS607に進んでもよい。
 ステップS607において、制御部302は、コンテンツ要求に応じてコンテンツ提供サーバ200から送信されるコンテンツを受信したか否かを判定する。コンテンツ提供サーバ200からコンテンツを受信した場合には、ステップS608に進む。一方、コンテンツ提供サーバ200からコンテンツを受信していない場合には、監視を継続して行う。なお、所定時間が経過してもコンテンツ提供サーバ200からのコンテンツを受信しない場合には、コンテンツ要求をコンテンツ提供サーバ200に再度送信してもよい。また、コンテンツ提供サーバ200は、コンテンツの提供とともに、コンテンツDB220のコンテンツ出力範囲223の情報を電子機器MC1に送信する。
 ステップS608において、制御部302は、ステップS607で受信したコンテンツを出力する出力処理を実行する。例えば、制御部302は、ステップS607で受信したコンテンツを表示部308に表示させる。例えば、図5の右側、図9に示すように、表示部308にコンテンツが表示される。また、例えば、制御部302は、ステップS607で受信したコンテンツを音出力部309から音声出力させる。例えば、図9に示すように、音出力部309から音情報S1が出力される。
 ステップS609において、制御部302は、位置情報を含む所定情報をコンテンツ提供サーバ200に送信する。この所定情報は、ステップS602で示した所定情報と同様である。
 ステップS610において、制御部302は、コンテンツの停止操作が行われたか否かを判定する。コンテンツの停止操作が行われた場合には、コンテンツの出力処理を停止し、コンテンツの停止指示をコンテンツ提供サーバ200に送信してコンテンツ提供処理の動作を終了する。一方、コンテンツの停止操作が行われていない場合には、ステップS611に進む。コンテンツの停止操作は、例えば、終了ボタンの押下操作である。また、電子機器MC1が登録場所の範囲外に設置されている終了ポストを通過したタイミングでコンテンツの停止操作があったと判定してもよい。また、電子機器MC1の電波強度が所定値以下となったタイミングでコンテンツの停止操作があったと判定してもよい。
 ステップS611において、制御部302は、ステップS608で出力処理の対象となっているコンテンツの出力範囲外となったか否かを判定する。すなわち、ステップS603でコンテンツ取得操作がされた登録場所、又は、ステップS605で近接条件が成立した登録場所の範囲外になった場合には、その登録場所のコンテンツの出力を停止する。具体的には、制御部302は、位置情報取得部304により取得された位置情報が、ステップS607で受信したコンテンツDB220のコンテンツ出力範囲223の範囲内であるか否かを判定する。そして、位置情報取得部304により取得された位置情報が、コンテンツ出力範囲223の範囲内である場合には、ステップS607に戻る。一方、位置情報取得部304により取得された位置情報が、コンテンツ出力範囲223の範囲外である場合には、コンテンツ出力処理の動作を終了する。
 [コンテンツ提供サーバの動作例]
 図15は、コンテンツ提供サーバ200における情報格納処理の一例を示すフローチャートである。また、この情報格納処理は、記憶部203に記憶されているプログラムに基づいて制御部202により実行される。また、この情報格納処理は、制御周期毎に常時実行される。また、この情報格納処理では、図1乃至図13を適宜参照して説明する。
 ステップS621において、制御部202は、コンテンツ提供サービスの利用登録がされている各機器から所定情報を受信したか否かを判定する。所定情報を受信した場合には、ステップS622に進む。一方、所定情報を受信していない場合には、情報格納処理の動作を終了する。
 ステップS622において、制御部202は、ステップS621で受信した所定情報を機器情報DB210に格納する。具体的には、制御部202は、所定情報を送信した機器に対応するユーザID211に関連付けてその所定情報に含まれる各情報を機器情報DB210に格納する。
 [コンテンツ提供サーバの動作例]
 図16は、コンテンツ提供サーバ200におけるコンテンツ提供処理の一例を示すフローチャートである。また、このコンテンツ提供処理は、記憶部203に記憶されているプログラムに基づいて制御部202等により実行される。また、このコンテンツ提供処理は、制御周期毎に常時実行される。また、このコンテンツ提供処理では、図1乃至図13を適宜参照して説明する。
 ステップS631において、判定部204は、登録場所において近接条件が成立した機器が検出されたか否かを判定する。登録場所において近接条件が成立した機器の検出処理は、コンテンツ提供サーバ200が実行してもよく、電子機器MC1からコンテンツ要求(図14参照)を受信したことに基づいて実行してもよい。近接条件が成立した機器が検出された場合には、ステップS632に進む。一方、近接条件が成立した機器が検出されていない場合には、コンテンツ提供処理の動作を終了する。なお、図16では、ステップS631で近接条件が成立した機器として検出された機器を対象機器と称して説明する。
 ステップS632において、推定部205は、ステップS631で検出された対象機器の移動手段を推定する。この移動手段の推定は、上述した各推定方法により推定可能である。
 ステップS633において、コンテンツ提供処理部206は、ステップS632で推定された移動手段に基づいて、対象機器の出力対象となるコンテンツを決定する。具体的には、ステップS631で検出された対象機器が存在する登録場所の登録場所ID221に関連付けられている移動手段224のうちから、ステップS632で推定された移動手段に関連付けられているコンテンツ225が抽出される。そして、その抽出されたコンテンツが対象機器の出力対象となるコンテンツとして決定される。
 ステップS634において、コンテンツ提供処理部206は、ステップS633で決定されたコンテンツを対象機器に送信する。
 ステップS635において、判定部204は、対象機器が移動したか否かを判定する。対象機器が移動した場合には、ステップS636に進む。一方、対象機器が移動していない場合には、ステップS637に進む。
 ステップS636において、コンテンツ提供処理部206は、移動後の対象機器の位置情報と、ステップS632で推定された移動手段とに基づいて、対象機器の出力対象となるコンテンツを決定する。例えば、対象機器がコンテンツ出力範囲内に存在する場合でも、対象機器の移動に応じて、出力対象となるコンテンツを変更することができる。なお、対象機器がコンテンツ出力範囲内に存在する場合には、対象機器の移動にかかわらず、出力対象となるコンテンツを変更しない場合には、ステップS635、S636の各処理を省略することができる。
 ステップS637において、コンテンツ提供処理部206は、コンテンツの停止指示が対象機器から送信されたか否かを判定する。コンテンツの停止指示が対象機器から送信された場合には、コンテンツの送信処理を停止してコンテンツ提供処理の動作を終了する。一方、コンテンツの停止指示が対象機器から送信されていない場合には、ステップS638に進む。
 ステップS638において、判定部204は、対象機器がコンテンツの出力範囲外となったか否かを判定する。具体的には、判定部204は、対象機器に対応する機器情報DB210の位置情報222が、コンテンツDB220のコンテンツ出力範囲223の範囲内であるか否かを判定する。そして、対象機器に対応する機器情報DB210の位置情報222が、コンテンツ出力範囲223の範囲内である場合には、ステップS634に戻る。一方、対象機器に対応する機器情報DB210の位置情報222が、コンテンツ出力範囲223の範囲外である場合には、コンテンツ提供処理の動作を終了する。
 このように、本実施形態では、例えば、ユーザU1が徒歩で移動している場合には、徒歩向けのコンテンツをユーザU1に提供し、ユーザU1が自動車C1で移動している場合には、自動車向けのコンテンツをユーザU1に提供することができる。これにより、各移動手段に応じたコンテンツをより適切に提供することができる。また、異なる移動手段に応じたコンテンツが提供されると、ユーザに違和感を与えるが、本実施形態では、その違和感を低減させることができる。また、例えば、自動車に乗車しているユーザに対しては、自動車での移動のユーザエクスペリエンスの価値を高めることができる。
 また、本実施形態では、出力対象となるコンテンツをユーザの移動手段に基づいて選択し、必要なコンテンツのみを出力することができるため、コンテンツ提供サーバ200から各機器にコンテンツを送受信する負荷及びその時間を軽減することができる。これにより、情報処理に関する演算負荷の効率化を図ることができる。
 また、一か所の登録場所に集まった様々なユーザの移動手段に応じて、ユーザに提供する次の目的地を変更できるため、次の地点へのユーザの移動を分散させることができる。これにより、登録場所での混雑を避けることができる。また、登録場所での待ち時間を減らせることも可能である。
 なお、以上では、登録場所でのユーザの存在判定処理、ユーザの移動手段の推定処理、コンテンツ提供処理を、コンテンツ提供サーバ200において実行する例を示したが、それらの各処理の全部または一部を他の機器において実行してもよい。この場合には、それらの各処理の一部を実行する各機器により情報処理システムが構成される。例えば、ユーザU1により使用されている電子機器MC1や、インターネット等の所定のネットワークを介して接続可能なサーバ等の各種情報処理装置、各種電子機器を用いて各処理の少なくとも一部を実行させることができる。
 また、本実施形態では、機器情報DB210(図3参照)及びコンテンツDB220(図4参照)を、コンテンツ提供サーバ200において管理する例を示す。ただし、各DBの全部または一部を、コンテンツ提供サーバ200以外の1または複数の他の機器により管理し、他の機器により管理されている各DBの情報を取得して各処理に用いてもよい。
 また、コンテンツ提供サーバ200の機能を実行可能な情報処理システムの一部(または全部)については、インターネット等の所定のネットワークを介して提供可能なアプリケーションにより提供されてもよい。このアプリケーションは、例えばSaaS(Software as a Service)である。
 [本実施形態の構成及び効果]
 本実施形態に係る情報処理方法は、ユーザU1に対して情報を提供する情報処理方法である。この情報処理方法は、ユーザU1の移動手段を取得する取得処理(ステップS632)と、登録場所(所定場所の一例)にユーザU1が存在することが判定された場合に、ユーザU1の移動手段に基づいて、登録場所について設定されている複数のコンテンツのうちから少なくとも1つを選択してユーザU1に提供する提供処理(ステップS633、S634)とを含む。
 この構成によれば、各移動手段に応じたコンテンツをより適切に提供することができる。また、出力対象となるコンテンツをユーザの移動手段に基づいて選択し、必要なコンテンツのみを出力することができるため、コンテンツ提供サーバ200から各機器にコンテンツを送受信する負荷及びその時間を軽減することができる。これにより、情報処理に関する演算負荷の効率化を図ることができる。
 また、本実施形態に係る情報処理方法は、登録場所とユーザU1に関連付けられている電子機器MC1との間での近接条件の成立に基づいて、登録場所にユーザU1が存在することを判定する判定処理(ステップS631)をさらに含む。
 この構成によれば、近接条件が成立された登録場所について設定されているコンテンツを提供できるため、より適切なコンテンツをユーザに提供可能となる。
 また、本実施形態に係る情報処理方法において、判定処理(ステップS631)では、電子機器MC1の現在地が登録場所を基準とする所定範囲内に含まれる場合と、電子機器MC1により取得された撮像画像に登録場所に関する特徴情報(例えば特徴部分FP1)が含まれる場合と、電子機器MC1と登録場所に設置されている通信機器300との間で無線通信又は有線通信を利用した所定情報のやりとりが実行された場合との何れかの場合に、近接条件が成立したと判定し、その登録場所にユーザU1が存在と判定する。
 この構成によれば、より適切な近接条件の設定により、登録場所におけるユーザU1の存在判定の精度を向上させることができる。また、複数の近接条件を設定することにより、環境依存を最小限に抑えることができる。
 また、本実施形態に係る情報処理方法において、判定処理(ステップS631)では、登録場所に設置されている物体RO1の特徴部分FP1が撮像画像に含まれるとき、又は、撮像画像に所定の識別情報(例えば、特定のマーカ、特徴部分を備える物体)が含まれるときには、その撮像画像に特徴情報が含まれると判定する。
 この構成によれば、物体RO1の特徴部分FP1又は所定の識別情報を近接条件の判定に用いることにより、ユーザU1の存在判定の精度を向上させることができる。
 また、本実施形態に係る情報処理方法において、取得処理(ステップS632)では、ユーザU1に関連付けられている電子機器MC1と、ユーザU1が利用する移動手段に設置されている設置機器とのうちの少なくとも1つに関する機器情報(例えば、機器情報DB210の各情報)に基づいて、ユーザU1の移動手段を推定する。
 この構成によれば、電子機器MC1又は設置機器に関する機器情報を用いて移動手段の推定をすることができるため、ユーザU1の移動手段の推定精度を向上させることができる。
 また、本実施形態に係る情報処理方法において、取得処理(ステップS632)では、機器情報として、電子機器MC1又は設置機器の属性(例えば属性情報213)と、電子機器MC1又は設置機器の移動履歴に関する情報とのうちの少なくとも1つに基づいて、ユーザU1の移動手段を推定する。
 この構成によれば、電子機器MC1又は設置機器の属性、又は、電子機器MC1又は設置機器の移動履歴に関する情報を用いて移動手段の推定をすることができるため、ユーザU1の移動手段の推定精度をさらに向上させることができる。
 また、本実施形態に係る情報処理方法において、取得処理(ステップS632)では、移動履歴に関する情報として、電子機器MC1又は設置機器の位置情報の履歴(例えば移動履歴214)と、電子機器MC1又は設置機器の加速度に関する情報の履歴(例えば車両情報215)と、電子機器MC1又は設置機器により取得された撮像画像の履歴(例えば画像情報216)と、電子機器MC1及び設置機器間での通信に関する履歴(例えば接続情報217)との少なくとも1つを用いる。
 この構成によれば、電子機器MC1又は設置機器の移動履歴に関する情報として、位置情報の履歴等を用いて移動手段の推定をすることができるため、ユーザU1の移動手段の推定精度をさらに向上させることができる。
 また、本実施形態に係る情報処理方法において、複数のコンテンツを、ユーザU1が存在することが判定された登録場所(第1所定場所)とは異なる他の登録場所(第2所定場所)の位置又は方向に関する情報を含む。例えば、図5に示すように、RO1乃至RO3が設置されている登録場所とは異なる他の登録場所(建物B1が設置されている場所)の位置又は方向に関する情報として、案内画像323を表示することができる。
 この構成によれば、第1所定場所に存在するユーザU1に、第2所定場所の位置又は方向に関する情報を把握しやすく提供することが可能となる。
 また、本実施形態に係る情報処理方法において、提供処理(ステップS634乃至S636)では、第2所定場所にユーザU1が移動したことが判定された場合に、ユーザU1の移動手段と第1所定場所とに基づいて、第2所定場所について設定されている複数のコンテンツのうちから少なくとも1つを選択してユーザU1に提供する。例えば、比較的近い範囲に存在する複数の登録場所A乃至Eが存在し、登録場所Aが入口である場合を想定する。また、例えば、移動手段が自動車である場合には、登録場所A→C→Eを案内し、移動手段が徒歩である場合には、登録場所A→B→Dを案内する設定がされているものとする。この場合に、例えば、移動手段に応じた案内(例えば、自動車である場合:登録場所A→C→E)に従った移動をしたユーザには、移動後の登録場所について設定されている複数のコンテンツのうちから少なくとも1つを選択して提供し、移動手段に応じた案内(例えば、自動車である場合:登録場所A→C→E)に従わないで移動をしたユーザには、移動後の登録場所について設定されているコンテンツ以外の他のコンテンツを提供することができる。
 この構成によれば、ユーザU1の移動に応じたより適切なコンテンツを提供可能となる。
 また、本実施形態に係る情報処理方法において、提供処理(ステップS634)では、ユーザU1の移動手段に基づいて、複数の第2所定場所のうちから少なくとも1つを選択し、その選択された第2所定場所に関連するコンテンツをユーザU1に提供する。例えば、比較的近い範囲に存在する複数の登録場所A乃至Eが存在し、登録場所Aが入口である場合を想定する。この場合に、例えば、移動手段が自動車である場合には、登録場所A→C→Eを案内し、移動手段が徒歩である場合には、登録場所A→B→Dを案内することができる。
 この構成によれば、ユーザU1の移動手段に応じたより適切な第2所定場所を提供可能となる。
 また、本実施形態に係る情報処理方法において、提供処理(ステップS634)では、ユーザU1の移動手段に基づいて選択されたコンテンツとともに、その選択に用いた移動手段を示す情報をユーザU1に提供する。例えば、図5に示すように、移動手段表示領域325において移動手段を示す情報が表示される。
 この構成によれば、ユーザU1の実際の移動手段と推定結果とが一致しない場合でも、ユーザU1がそのことを容易に把握することができるため、コンテンツに対する違和感を低減させることができる。
 また、本実施形態に係る情報処理方法において、コンテンツを音声情報及び画像情報のうちの少なくとも1つとする。例えば、図9、図10に示すように、音声情報及び画像情報の双方を出力することができる。
 この構成によれば、登録場所において音声情報及び画像情報のうちの少なくとも1つをコンテンツとしてユーザU1に提供することができるため、ユーザに把握しやすい情報伝達を実現することができる。
 また、本実施形態に係る情報処理方法において、提供処理(図12参照)では、判定処理で近接条件が不成立のときでも、ユーザU1の位置情報に基づいて、ユーザU1の周囲に存在する他の機器の位置情報と、登録場所の位置情報と、ユーザU1の移動手段に対応する登録場所までの移動経路とのうちの少なくとも1つをユーザU1に提供する。
 この構成によれば、ユーザU1が登録場所に向かうような場合に、その登録場所に関する各情報を容易に把握することができる。
 また、本実施形態に係る情報処理方法において、提供処理(図13参照)では、登録場所にユーザU1が存在しない場合において、登録場所を指定する指定操作がユーザU1により行われたときには、その登録場所について設定されている複数のコンテンツのうちの少なくとも1つと、その登録場所に関連する移動手段に応じた移動範囲又は移動経路と、その登録場所の周囲に存在する他の機器の位置情報と、その登録場所の位置情報と、ユーザU1の移動手段に対応するその登録場所までの移動経路と、のうちの少なくとも1つをユーザU1に提供する。
 この構成によれば、ユーザU1が登録場所にいない場合でも、その登録場所に関する各情報を容易に把握することができる。
 また、本実施形態に係るコンテンツ提供サーバ200(情報処理装置の一例)は、ユーザU1に対して情報を提供する情報処理装置である。コンテンツ提供サーバ200は、ユーザU1の移動手段を取得する推定部205(取得部の一例)と、登録場所(所定場所の一例)にユーザU1が存在することが判定された場合に、ユーザU1の移動手段に基づいて、登録場所について設定されている複数のコンテンツのうちから少なくとも1つを選択してユーザU1に提供するコンテンツ提供処理部206(提供部の一例)とを備える。
 この構成によれば、各移動手段に応じたコンテンツを適切に提供することができる。また、出力対象となるコンテンツをユーザの移動手段に基づいて選択し、必要なコンテンツのみを出力することができるため、コンテンツ提供サーバ200から各機器にコンテンツを送受信する負荷及びその時間を軽減することができる。これにより、情報処理に関する演算負荷の効率化を図ることができる。
 なお、本実施形態で示した各処理手順は、本実施形態を実現するための一例を示したものであり、本実施形態を実現可能な範囲で各処理手順の一部の順序を入れ替えてもよく、各処理手順の一部を省略したり他の処理手順を追加したりしてもよい。
 なお、本実施形態で示した各処理は、各処理手順をコンピュータに実行させるためのプログラムに基づいて実行されるものである。このため、本実施形態は、それらの各処理を実行する機能を実現するプログラム、そのプログラムを記憶する記録媒体の実施形態としても把握することができる。例えば、接触判定装置に新機能を追加するためのアップデート処理により、そのプログラムを接触判定装置の記憶装置に記憶させることができる。これにより、そのアップデートされた接触判定装置に本実施形態で示した各処理を実施させることが可能となる。
 以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。

Claims (15)

  1.  ユーザに対して情報を提供する情報処理方法であって、
     前記ユーザの移動手段を取得する取得処理と、
     所定場所に前記ユーザが存在することが判定された場合に、前記ユーザの移動手段に基づいて、前記所定場所について設定されている複数のコンテンツのうちから少なくとも1つを選択して前記ユーザに提供する提供処理と、を含む、
    情報処理方法。
  2.  請求項1に記載の情報処理方法であって、
     前記所定場所と前記ユーザに関連付けられている電子機器との間での近接条件の成立に基づいて、前記所定場所に前記ユーザが存在することを判定する判定処理、をさらに含む、
    情報処理方法。
  3.  請求項2に記載の情報処理方法であって、
     前記判定処理では、前記電子機器の現在地が前記所定場所を基準とする所定範囲内に含まれる場合と、前記電子機器により取得された撮像画像に前記所定場所に関する特徴情報が含まれる場合と、前記電子機器と前記所定場所に設置されている通信機器との間で無線通信又は有線通信を利用した所定情報のやりとりが実行された場合との何れかの場合に、前記近接条件が成立したと判定し、前記所定場所に前記ユーザが存在と判定する、
    情報処理方法。
  4.  請求項3に記載の情報処理方法であって、
     前記判定処理では、
     前記所定場所に設置されている物体の特徴部分が前記撮像画像に含まれるとき、又は、前記撮像画像に所定の識別情報が含まれるときには、前記撮像画像に前記特徴情報が含まれると判定する、
    情報処理方法。
  5.  請求項1に記載の情報処理方法であって、
     前記取得処理では、前記ユーザに関連付けられている電子機器と、前記ユーザが利用する移動手段に設置されている設置機器とのうちの少なくとも1つに関する機器情報に基づいて、前記ユーザの移動手段を推定する、
    情報処理方法。
  6.  請求項5に記載の情報処理方法であって、
     前記取得処理では、前記機器情報として、前記電子機器又は前記設置機器の属性と、前記電子機器又は前記設置機器の移動履歴に関する情報とのうちの少なくとも1つに基づいて、前記ユーザの移動手段を推定する、
    情報処理方法。
  7.  請求項6に記載の情報処理方法であって、
     前記取得処理では、前記移動履歴に関する情報として、前記電子機器又は前記設置機器の位置情報の履歴と、前記電子機器又は前記設置機器の加速度に関する情報の履歴と、前記電子機器又は前記設置機器により取得された撮像画像の履歴と、前記電子機器及び前記設置機器間での通信に関する履歴との少なくとも1つを用いる、
    情報処理方法。
  8.  請求項1から7の何れかに記載の情報処理方法であって、
     前記複数のコンテンツは、前記ユーザが存在することが判定された前記所定場所である第1所定場所とは異なる他の前記所定場所である第2所定場所の位置又は方向に関する情報を含む、
    情報処理方法。
  9.  請求項8に記載の情報処理方法であって、
     前記提供処理では、前記第2所定場所に前記ユーザが移動したことが判定された場合に、前記ユーザの移動手段と前記第1所定場所とに基づいて、前記第2所定場所について設定されている複数のコンテンツのうちから少なくとも1つを選択して前記ユーザに提供する、
    情報処理方法。
  10.  請求項8に記載の情報処理方法であって、
     前記提供処理では、前記ユーザの移動手段に基づいて、複数の前記第2所定場所のうちから少なくとも1つを選択し、当該選択された前記第2所定場所に関連するコンテンツを前記ユーザに提供する、
    情報処理方法。
  11.  請求項1から7の何れかに記載の情報処理方法であって、
     前記提供処理では、前記ユーザの移動手段に基づいて選択されたコンテンツとともに、当該選択に用いた移動手段を示す情報を前記ユーザに提供する、
    情報処理方法。
  12.  請求項1から7の何れかに記載の情報処理方法であって、
     前記コンテンツは、音声情報及び画像情報のうちの少なくとも1つである、
    情報処理方法。
  13.  請求項2から4の何れかに記載の情報処理方法であって、
     前記提供処理では、前記判定処理で前記近接条件が不成立のときには、前記ユーザの位置情報に基づいて、前記ユーザの周囲に存在する他の機器の位置情報と、前記所定場所の位置情報と、前記ユーザの移動手段に対応する前記所定場所までの移動経路とのうちの少なくとも1つを前記ユーザに提供する、
    情報処理方法。
  14.  請求項1から7の何れかに記載の情報処理方法であって、
     前記提供処理では、前記所定場所に前記ユーザが存在しない場合において、前記所定場所を指定する指定操作が前記ユーザにより行われたときには、当該所定場所について設定されている前記複数のコンテンツのうちの少なくとも1つと、当該所定場所に関連する移動手段に応じた移動範囲又は移動経路と、当該所定場所の周囲に存在する他の機器の位置情報と、当該所定場所の位置情報と、前記ユーザの移動手段に対応する当該所定場所までの移動経路と、のうちの少なくとも1つを前記ユーザに提供する、
    情報処理方法。
  15.  ユーザに対して情報を提供する処理を実行可能なコントローラを備える情報処理装置であって、
     前記コントローラは、
     前記ユーザの移動手段を取得する取得部と、
     所定場所に前記ユーザが存在することが判定された場合に、前記ユーザの移動手段に基づいて、前記所定場所について設定されている複数のコンテンツのうちから少なくとも1つを選択して前記ユーザに提供する提供部と、を備える、
    情報処理装置。
PCT/JP2022/020109 2022-05-12 2022-05-12 情報処理方法及び情報処理装置 WO2023218616A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/020109 WO2023218616A1 (ja) 2022-05-12 2022-05-12 情報処理方法及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/020109 WO2023218616A1 (ja) 2022-05-12 2022-05-12 情報処理方法及び情報処理装置

Publications (1)

Publication Number Publication Date
WO2023218616A1 true WO2023218616A1 (ja) 2023-11-16

Family

ID=88730153

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/020109 WO2023218616A1 (ja) 2022-05-12 2022-05-12 情報処理方法及び情報処理装置

Country Status (1)

Country Link
WO (1) WO2023218616A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002181565A (ja) * 2000-12-18 2002-06-26 Sony Corp 携帯端末
US20090177376A1 (en) * 2008-01-04 2009-07-09 Lg Electronics Inc. Portable terminal and method for providing network contents using a portable terminal
JP2017016467A (ja) * 2015-07-02 2017-01-19 富士通株式会社 表示制御方法、表示制御プログラム及び情報処理端末
JP2017120527A (ja) * 2015-12-28 2017-07-06 オカムラ印刷株式会社 情報処理システム、情報処理装置、情報処理方法、情報処理プログラム、携帯端末装置およびその制御プログラム
JP2018025833A (ja) * 2016-08-08 2018-02-15 地方独立行政法人東京都立産業技術研究センター 情報検索方法、情報検索プログラム、情報検索用端末および情報検索装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002181565A (ja) * 2000-12-18 2002-06-26 Sony Corp 携帯端末
US20090177376A1 (en) * 2008-01-04 2009-07-09 Lg Electronics Inc. Portable terminal and method for providing network contents using a portable terminal
JP2017016467A (ja) * 2015-07-02 2017-01-19 富士通株式会社 表示制御方法、表示制御プログラム及び情報処理端末
JP2017120527A (ja) * 2015-12-28 2017-07-06 オカムラ印刷株式会社 情報処理システム、情報処理装置、情報処理方法、情報処理プログラム、携帯端末装置およびその制御プログラム
JP2018025833A (ja) * 2016-08-08 2018-02-15 地方独立行政法人東京都立産業技術研究センター 情報検索方法、情報検索プログラム、情報検索用端末および情報検索装置

Similar Documents

Publication Publication Date Title
US11727523B2 (en) Autonomous vehicle services
AU2021203701B2 (en) Recognizing assigned passengers for autonomous vehicles
AU2018323983B2 (en) Identifying unassigned passengers for autonomous vehicles
JP4349253B2 (ja) 貸借支援システム、通信装置、サーバ
US20200026279A1 (en) Smart neighborhood routing for autonomous vehicles
US20240071074A1 (en) Ar service platform for providing augmented reality service
JP6888474B2 (ja) デジタルサイネージ制御装置、デジタルサイネージ制御方法、プログラム、記録媒体
CN114115204A (zh) 管理装置、管理系统、管理方法及存储介质
US20240157872A1 (en) External facing communications for autonomous vehicles
CN114329237A (zh) 接载位置的语义识别
WO2023218616A1 (ja) 情報処理方法及び情報処理装置
JP2021105754A (ja) 車載処理装置、及び車載処理システム
JP2020149476A (ja) プログラム、情報処理装置、及び制御方法
US11461817B2 (en) Accommodation area management device
JP2003344064A (ja) ナビゲーションシステム及びナビゲーション装置
JP7371692B2 (ja) 車両用情報処理装置及び方法
CN118010040A (zh) 一种低速智能电动车自主导航方法及系统
JP2024088124A (ja) 情報処理装置
JP2001280980A (ja) ナビゲーション装置及び方法並びにナビゲーション用ソフトウェアを記録した記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22940948

Country of ref document: EP

Kind code of ref document: A1